[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2015012304A - Image processing apparatus, image processing method, and program - Google Patents

Image processing apparatus, image processing method, and program Download PDF

Info

Publication number
JP2015012304A
JP2015012304A JP2013133670A JP2013133670A JP2015012304A JP 2015012304 A JP2015012304 A JP 2015012304A JP 2013133670 A JP2013133670 A JP 2013133670A JP 2013133670 A JP2013133670 A JP 2013133670A JP 2015012304 A JP2015012304 A JP 2015012304A
Authority
JP
Japan
Prior art keywords
image
unit
user
deformed
amount
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013133670A
Other languages
Japanese (ja)
Inventor
竹雄 塚本
Takeo Tsukamoto
竹雄 塚本
宗一 小波
Soichi Konami
宗一 小波
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2013133670A priority Critical patent/JP2015012304A/en
Priority to EP14735690.1A priority patent/EP3014520B1/en
Priority to PCT/JP2014/003265 priority patent/WO2014208052A1/en
Priority to CN201480034946.8A priority patent/CN105324781B/en
Priority to US14/901,681 priority patent/US10956733B2/en
Publication of JP2015012304A publication Critical patent/JP2015012304A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/19Sensors therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W12/00Security arrangements; Authentication; Protecting privacy or anonymity
    • H04W12/06Authentication
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/14Transformations for image registration, e.g. adjusting or mapping for alignment of images
    • G06T3/153Transformations for image registration, e.g. adjusting or mapping for alignment of images using elastic snapping
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • G06T7/337Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/197Matching; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/60Static or dynamic means for assisting the user to position a body part for biometric acquisition
    • G06V40/67Static or dynamic means for assisting the user to position a body part for biometric acquisition by interactive indications to the user
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/24Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/28Indexing scheme for image data processing or generation, in general involving image processing hardware
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20228Disparity calculation for image-based rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30172Centreline of tubular or elongated structure
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L63/00Network architectures or network communication protocols for network security
    • H04L63/08Network architectures or network communication protocols for network security for authentication of entities
    • H04L63/0861Network architectures or network communication protocols for network security for authentication of entities using biometrical features, e.g. fingerprint, retina-scan
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/57Mechanical or electrical details of cameras or camera modules specially adapted for being embedded in other devices
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/64Computer-aided capture of images, e.g. transfer from script file into camera, check of taken image quality, advice or proposal for image composition or decision on when to take image
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/667Camera operation mode switching, e.g. between still and video, sport and normal or high- and low-resolution modes

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Ophthalmology & Optometry (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Security & Cryptography (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Studio Devices (AREA)
  • Indication In Cameras, And Counting Of Exposures (AREA)

Abstract

PROBLEM TO BE SOLVED: To easily guide a user to a desired photographing state.SOLUTION: When an image acquired by an image acquisition unit is deviated greatly from a desired state, an image generation unit generates a greatly deviated image where the deviation from the desired state is increased. This technique can be applied to an apparatus with a photographing function equipped with a photographing function of photographing an image such as a digital camera, a smartphone, a mobile phone, a tablet, a PC, and any image utilization application which uses an image photographed by the photographing apparatus such as a digital camera regardless of whether or not having the photographing function.

Description

本技術は、画像処理装置、画像処理方法、及び、プログラムに関し、特に、例えば、ユーザに、所望の撮影状態を、容易にガイドすることができるようにする画像処理装置、画像処理方法、及び、プログラムに関する。   The present technology relates to an image processing device, an image processing method, and a program, and in particular, for example, an image processing device, an image processing method, and an image processing device that can easily guide a user to a desired shooting state. Regarding the program.

近年、例えば、スマートフォンや、携帯電話機、タブレット、PC(Personal Computer)等の各種の機器に、画像を撮影する撮影機能が実装されることが多くなっている。これに伴い、画像を撮影する専用の機器としてのディジタルカメラの他、撮影機能が実装されたカメラ以外の機器でも、画像の撮影が、頻繁に行われている。   In recent years, for example, a photographing function for photographing an image is often implemented in various devices such as a smartphone, a mobile phone, a tablet, and a PC (Personal Computer). Accordingly, images are frequently taken not only by digital cameras as dedicated devices for taking images but also by devices other than cameras equipped with a shooting function.

さらに、各種の機器に、撮影機能が実装されることに伴い、その撮影機能によって撮影された画像を利用する様々なアプリケーションが開発されている。   Furthermore, as a shooting function is implemented in various devices, various applications that use images shot by the shooting function have been developed.

撮影機能によって撮影された画像を利用するアプリケーションである画像利用アプリケーションとしては、例えば、ユーザの目の画像を撮影し、その目の画像を用いて、ユーザが所定のユーザであるかどうかの認証を、虹彩認証によって行う虹彩認証装置がある(例えば、特許文献1を参照)。   As an image utilization application that is an application that uses an image photographed by the photographing function, for example, an image of a user's eye is photographed, and authentication of whether or not the user is a predetermined user is performed using the eye image. There is an iris authentication device that performs iris authentication (see, for example, Patent Document 1).

特開2009-199392号公報JP 2009-199392

ところで、ディジタルカメラを含む撮影機能が実装されている機器(以下、撮影機能付き機器ともいう)を用いて、ユーザが撮影した画像である撮影画像が、例えば、画像利用アプリケーション等が要求する所望の撮影状態からずれていることがある。   By the way, a captured image that is an image captured by a user using a device (hereinafter also referred to as a device with a photographing function) including a photographing function including a digital camera is, for example, a desired request requested by an image use application or the like. It may be out of the shooting state.

しかしながら、撮影画像が所望の撮影状態からずれていることを、ユーザが認識することができない場合があり、この場合、所望の撮影状態からずれていることを認識することができていないユーザが、撮影画像が所望の撮影状態になるように、撮影機能付き機器を調整することは困難である。   However, the user may not be able to recognize that the captured image has deviated from the desired shooting state, and in this case, the user who cannot recognize that the captured image has deviated from the desired shooting state. It is difficult to adjust a device with a photographing function so that a photographed image is in a desired photographing state.

本技術は、このような状況に鑑みてなされたものであり、ユーザに、所望の撮影状態を、容易にガイドすることができるようにするものである。   The present technology has been made in view of such a situation, and makes it possible to easily guide a user to a desired shooting state.

本技術の画像処理装置、又は、プログラムは、画像を取得する画像取得部によって取得された取得画像が、所望の撮影状態からずれている場合に、前記所望の撮影状態からのずれを大きくした大ずれ画像を生成する画像生成部を備える画像処理装置、又は、そのような画像処理装置として、コンピュータを機能させるためのプログラムである。   The image processing apparatus or the program according to an embodiment of the present technology is configured to increase the deviation from the desired shooting state when the acquired image acquired by the image acquisition unit that acquires the image is shifted from the desired shooting state. An image processing apparatus including an image generation unit that generates a shifted image, or a program for causing a computer to function as such an image processing apparatus.

本技術の画像処理方法は、画像を取得する画像取得部によって取得された取得画像が、所望の撮影状態からずれている場合に、前記所望の撮影状態からのずれを大きくした大ずれ画像を生成するステップを含む画像処理方法である。   The image processing method according to an embodiment of the present technology generates a large shift image in which a shift from the desired shooting state is large when the acquired image acquired by the image acquisition unit that acquires the image is shifted from the desired shooting state. An image processing method including the step of:

本技術においては、画像を取得する画像取得部によって取得された取得画像が、所望の撮影状態からずれている場合に、前記所望の撮影状態からのずれを大きくした大ずれ画像が生成される。   In the present technology, when an acquired image acquired by an image acquisition unit that acquires an image is deviated from a desired shooting state, a large shift image in which the shift from the desired shooting state is increased is generated.

なお、画像処理装置は、独立した装置であっても良いし、1つの装置を構成している内部ブロックであっても良い。   Note that the image processing apparatus may be an independent apparatus or an internal block constituting one apparatus.

また、プログラムは、伝送媒体を介して伝送することにより、又は、記録媒体に記録して、提供することができる。   The program can be provided by being transmitted via a transmission medium or by being recorded on a recording medium.

本技術によれば、ユーザに、所望の撮影状態を、容易にガイドすることができる。   According to the present technology, it is possible to easily guide a user to a desired shooting state.

なお、本明細書に記載された効果は、あくまで例示であり、本技術の効果は、本明細書に記載された効果に限定されるものではなく、付加的な効果があってもよい。   In addition, the effect described in this specification is an illustration to the last, and the effect of this technique is not limited to the effect described in this specification, and there may be an additional effect.

本技術を適用した画像処理装置の一実施の形態の構成例を示すブロック図である。It is a block diagram which shows the structural example of one Embodiment of the image processing apparatus to which this technique is applied. 画像処理装置の処理を説明するフローチャートである。It is a flowchart explaining the process of an image processing apparatus. ユーザが、ユーザ自身を撮影する場合を説明する図である。It is a figure explaining the case where a user photographs the user himself. デフォルメ画像の第1の具体例を説明する図である。It is a figure explaining the 1st specific example of a deformed image. デフォルメ画像の第2の具体例を説明する図である。It is a figure explaining the 2nd specific example of a deformed image. デフォルメ画像の第3の具体例を説明する図である。It is a figure explaining the 3rd specific example of a deformed image. デフォルメ画像の第4の具体例を説明する図である。It is a figure explaining the 4th specific example of a deformed image. デフォルメ画像の第5の具体例を説明する図である。It is a figure explaining the 5th specific example of a deformed image. デフォルメ画像の第6の具体例を説明する図である。It is a figure explaining the 6th specific example of a deformed image. デフォルメ画像の第7の具体例を説明する図である。It is a figure explaining the 7th specific example of a deformed image. デフォルメ量算出部31によるデフォルメ量の算出の方法の例を説明する図である。It is a figure explaining the example of the method of calculation of the deformation amount by the deformation amount calculation part 31. FIG. 本技術を適用したコンピュータの一実施の形態の構成例を示すブロック図である。And FIG. 18 is a block diagram illustrating a configuration example of an embodiment of a computer to which the present technology is applied.

<本技術を適用した画像処理装置の一実施の形態>   <One embodiment of an image processing apparatus to which the present technology is applied>

図1は、本技術を適用した画像処理装置の一実施の形態の構成例を示すブロック図である。   FIG. 1 is a block diagram illustrating a configuration example of an embodiment of an image processing apparatus to which the present technology is applied.

図1の画像処理装置は、例えば、スマートフォンや、携帯電話機、タブレット、PC等の各種の機器に適用することができる。ここでは、図1の画像処理装置は、例えば、スマートフォンに適用されていることとする。   The image processing apparatus in FIG. 1 can be applied to various devices such as a smartphone, a mobile phone, a tablet, and a PC. Here, it is assumed that the image processing apparatus in FIG. 1 is applied to, for example, a smartphone.

図1において、スマートフォンとしての画像処理装置は、画像取得部10、画像判定部20、デフォルメ処理部30、表示部40、画像処理部50、保存部60、操作部70、及び、制御部80を有する。   In FIG. 1, an image processing apparatus as a smartphone includes an image acquisition unit 10, an image determination unit 20, a deformation processing unit 30, a display unit 40, an image processing unit 50, a storage unit 60, an operation unit 70, and a control unit 80. Have.

画像取得部10は、例えば、ユーザによる操作部70の操作等に従って、画像を取得し、その取得した画像である取得画像を、画像判定部20、デフォルメ処理部32、及び、画像処理部50に供給する。   The image acquisition unit 10 acquires an image in accordance with, for example, the operation of the operation unit 70 by the user, and sends the acquired image, which is the acquired image, to the image determination unit 20, the deformation processing unit 32, and the image processing unit 50. Supply.

すなわち、画像取得部10は、例えば、画像を撮影する撮影部であり、画像を撮影して、その結果得られる撮影画像を、取得画像として、画像判定部20、デフォルメ処理部32、及び、画像処理部50に供給する。   That is, the image acquisition unit 10 is, for example, an imaging unit that captures an image. The image acquisition unit 10, the deformation processing unit 32, and the image are captured as an acquired image by capturing the image. Supply to the processing unit 50.

その他、画像取得部10は、例えば、インターネット等のネットワークとの間のインターフェースや、ディジタルカメラ等の画像を提供可能な画像提供装置との間のインターフェースとして機能し、ネットワーク上の画像や、画像提供装置から提供される画像等を、有線通信や無線通信等によって取得することができる。   In addition, the image acquisition unit 10 functions as, for example, an interface with a network such as the Internet or an interface with an image providing apparatus that can provide an image such as a digital camera. An image or the like provided from the apparatus can be acquired by wired communication or wireless communication.

なお、以下では、画像取得部10は、例えば、画像を撮影する撮影部であることとし、その撮影部によって撮影された撮影画像が、撮影部である画像取得部10から、画像判定部20、デフォルメ処理部32、及び、画像処理部50に供給されることとする。   In the following description, the image acquisition unit 10 is, for example, an imaging unit that captures an image, and the captured image captured by the imaging unit is transferred from the image acquisition unit 10 that is the imaging unit to the image determination unit 20. It is supplied to the deformation processing unit 32 and the image processing unit 50.

画像判定部20は、画像取得部10からの撮影画像(取得画像)が、所望の撮影状態からずれているかどうかを判定し、その判定結果を表すずれ判定情報を、デフォルメ処理部30、及び、画像処理部50に供給する。   The image determination unit 20 determines whether or not the captured image (acquired image) from the image acquisition unit 10 is deviated from a desired shooting state, and displays the displacement determination information indicating the determination result as the deformation processing unit 30 and The image is supplied to the image processing unit 50.

すなわち、画像判定部20は、実変位量算出部21、所望撮影状態設定部22、及び、判定部23を有する。   That is, the image determination unit 20 includes an actual displacement amount calculation unit 21, a desired shooting state setting unit 22, and a determination unit 23.

実変位量算出部21には、画像取得部10から、撮影画像が供給されるとともに、所望撮影状態設定部22から、所望撮影状態情報が供給される。   The actual displacement amount calculation unit 21 is supplied with a captured image from the image acquisition unit 10 and with desired shooting state information from the desired shooting state setting unit 22.

実変位量算出部21は、画像取得部10からの撮影画像の状態と、所望撮影状態設定部22からの所望撮影状態情報が表す所望撮影状態とのずれを表すずれ量である実変位量を算出し、判定部23に供給する。   The actual displacement amount calculation unit 21 calculates an actual displacement amount that is a shift amount indicating a shift between the state of the captured image from the image acquisition unit 10 and the desired shooting state represented by the desired shooting state information from the desired shooting state setting unit 22. Calculate and supply to the determination unit 23.

所望撮影状態設定部22は、例えば、画像処理部50からの要求等に応じて、その画像処理部50(の画像処理)にとって、撮影画像の最適な撮影状態である所望撮影状態を設定し、その所望撮影状態を表す所望撮影状態情報を、実変位量算出部21に供給する。   For example, in response to a request from the image processing unit 50, the desired shooting state setting unit 22 sets a desired shooting state that is an optimal shooting state of the shot image for the image processing unit 50 (image processing thereof). Desired shooting state information representing the desired shooting state is supplied to the actual displacement amount calculation unit 21.

判定部23は、実変位量算出部21からの実変位量に基づいて、画像取得部10からの撮影画像が、所望撮影状態からずれているかどうかを判定し、その判定結果を表すずれ判定情報を、デフォルメ処理部30、及び、画像処理部50に供給する。   The determination unit 23 determines whether the captured image from the image acquisition unit 10 is deviated from the desired photographing state based on the actual displacement amount from the actual displacement amount calculation unit 21, and deviation determination information representing the determination result. Are supplied to the deformation processing unit 30 and the image processing unit 50.

なお、ずれ判定情報には、実変位量算出部21からの実変位量が含まれる。   The deviation determination information includes the actual displacement amount from the actual displacement amount calculation unit 21.

デフォルメ処理部30は、画像判定部20の判定部23から供給されるずれ判定情報に基づいて、所望撮影状態からのずれを大きくした大ずれ画像としてのデフォルメ画像を生成し、表示部40に供給する。   The deformation processing unit 30 generates a deformed image as a large shift image with a large shift from the desired shooting state based on the shift determination information supplied from the determination unit 23 of the image determination unit 20 and supplies the deformed image to the display unit 40. To do.

すなわち、デフォルメ処理部30は、デフォルメ量算出部31、及び、デフォルメ画像生成部32を有する。   That is, the deformation processing unit 30 includes a deformation amount calculation unit 31 and a deformation image generation unit 32.

デフォルメ量算出部31には、画像判定部20の判定部23から、ずれ判定情報が供給される。   The deformation amount calculation unit 31 is supplied with deviation determination information from the determination unit 23 of the image determination unit 20.

デフォルメ量算出部31は、判定部23からのずれ判定情報が、撮影画像が所望撮影状態からずれている旨を表している場合、例えば、判定部23からのずれ判定情報に含まれる実変位量に応じて、大ずれ画像の所望撮影状態からのずれ量(大ずれ量)としての、デフォルメ画像のデフォルメ量を算出し、デフォルメ画像生成部32に供給する。   For example, when the displacement determination information from the determination unit 23 indicates that the captured image is shifted from the desired shooting state, the deformation amount calculation unit 31 includes, for example, the actual displacement amount included in the shift determination information from the determination unit 23. Accordingly, a deformation amount of the deformed image as a shift amount (large shift amount) from the desired shooting state of the large shift image is calculated and supplied to the deformed image generation unit 32.

なお、ずれ判定情報が、撮影画像が所望撮影状態からずれていない旨を表している場合、デフォルメ量算出部31は、例えば、デフォルメ量として、0を、デフォルメ画像生成部32に供給する。   When the deviation determination information indicates that the photographed image is not deviated from the desired photographing state, the deformation amount calculation unit 31 supplies, for example, 0 to the deformation image generation unit 32 as the deformation amount.

デフォルメ画像生成部32は、画像取得部10から供給される撮影画像や所定のグラフィックス画像を用いて、デフォルメ量算出部31から供給されるデフォルメ量だけ、所望撮影状態からのずれ(撮影画像と所望撮影状態とのずれ)を大きくした大ずれ画像、すなわち、例えば、所望撮影状態からのずれをデフォルメしたデフォルメ画像を生成し、表示部40に供給する。   The deformed image generation unit 32 uses a captured image or a predetermined graphics image supplied from the image acquisition unit 10 to deviate from the desired shooting state by a deformed amount supplied from the deformed amount calculation unit 31 (with a captured image and A large deviation image with a large deviation from the desired photographing state, that is, a deformed image in which a deviation from the desired photographing state is deformed, for example, is generated and supplied to the display unit 40.

なお、デフォルメ画像生成部32は、デフォルメ量算出部31から供給されるデフォルメ量が0である場合には、画像取得部10から供給される撮影画像や所定のグラフィックス画像を、そのまま表示部40に供給する。   When the deformation amount supplied from the deformation amount calculation unit 31 is 0, the deformed image generation unit 32 displays the captured image or the predetermined graphics image supplied from the image acquisition unit 10 as it is. To supply.

表示部40は、液晶パネルや有機EL(Electro-Luminescence)パネル等で構成され、デフォルメ処理部30のデフォルメ画像生成部32から供給される画像(撮影画像、所定のグラフィックス画像、又は、撮影画像、若しくは、所定のグラフィックス画像をデフォルメしたデフォルメ画像)を表示する。   The display unit 40 includes a liquid crystal panel, an organic EL (Electro-Luminescence) panel, and the like, and is supplied with an image (a captured image, a predetermined graphics image, or a captured image) supplied from the deformed image generating unit 32 of the deformed processing unit 30. Or a deformed image obtained by deforming a predetermined graphics image).

画像処理部50は、例えば、画像取得部10からの撮影画像を利用する画像利用アプリケーションであり、画像取得部10からの撮影画像の符号化や、保存部60への保存(記憶)、その他の撮影画像を用いた所定の画像処理を行う。   The image processing unit 50 is, for example, an image use application that uses a captured image from the image acquisition unit 10. The image processing unit 50 encodes the captured image from the image acquisition unit 10, stores (stores) it in the storage unit 60, and the like. Predetermined image processing using the photographed image is performed.

すなわち、画像処理部50は、その画像処理部50(の画像処理)にとって最適な撮影状態の撮影画像を、所望撮影状態設定部22に要求する。   That is, the image processing unit 50 requests the desired shooting state setting unit 22 for a shooting image in the shooting state that is optimal for the image processing unit 50 (image processing thereof).

そして、画像処理部50は、判定部23から、撮影画像が所望撮影状態からずれていない旨(撮影画像が所望撮影状態になっている旨)のずれ判定情報が供給されると、そのときに、画像取得部10から供給された撮影画像を用いて、所定の画像処理を行う。   When the image processing unit 50 is supplied with deviation determination information indicating that the photographed image is not deviated from the desired photographing state (that the photographed image is in the desired photographing state) from the determining unit 23, Then, predetermined image processing is performed using the captured image supplied from the image acquisition unit 10.

ここで、画像利用アプリケーションとしては、例えば、虹彩認証や顔認証を行って、スマートフォンとしての画像処理装置のロックを解除する認証装置がある。その他、画像利用アプリケーションとしては、例えば、証明写真等の顔をメインとする顔画像の撮影や、被写体を極端にクローズアップしたマクロ撮影、その他の任意の撮影を行うときに、その撮影を補助する撮影補助装置等がある。   Here, as the image use application, for example, there is an authentication device that performs iris authentication and face authentication to unlock the image processing apparatus as a smartphone. In addition, as an image utilization application, for example, when photographing a face image mainly of a face such as an ID photo, macro shooting with an extremely close-up of the subject, or any other shooting, the shooting is assisted. There are photographing assistance devices.

保存部60は、半導体メモリや、ハードディスク等であり、画像処理部50からの制御に従い、画像処理部50から供給される撮影画像を記憶(保存)する。   The storage unit 60 is a semiconductor memory, a hard disk, or the like, and stores (saves) a captured image supplied from the image processing unit 50 in accordance with control from the image processing unit 50.

操作部70は、物理的なボタンや、(表示部40と一体的に構成される)タッチスクリーンに表示される仮想的なボタン等であり、ユーザによって操作される。操作部70は、ユーザの操作に応じた操作信号を制御部80に供給する。   The operation unit 70 is a physical button, a virtual button displayed on a touch screen (configured integrally with the display unit 40), or the like, and is operated by a user. The operation unit 70 supplies an operation signal corresponding to a user operation to the control unit 80.

制御部80は、操作部70からの操作信号等に応じて、スマートフォンとしての画像処理装置を構成する各ブロックを制御する。   The control unit 80 controls each block constituting the image processing apparatus as a smartphone according to an operation signal from the operation unit 70 or the like.

図2は、図1のスマートフォンとしての画像処理装置の処理を説明するフローチャートである。   FIG. 2 is a flowchart for explaining processing of the image processing apparatus as the smartphone of FIG.

なお、所望撮影状態設定部22は、既に、画像処理部50からの要求等に応じて、その画像処理部50(の画像処理)にとって、撮影画像の最適な撮影状態である所望撮影状態を設定し、その所望撮影状態を表す所望撮影状態情報を、実変位量算出部21に供給していることとする。   The desired shooting state setting unit 22 has already set a desired shooting state that is the optimum shooting state of the shot image for the image processing unit 50 (image processing thereof) in response to a request from the image processing unit 50 or the like. Then, it is assumed that the desired shooting state information representing the desired shooting state is supplied to the actual displacement amount calculation unit 21.

ステップS11において、画像取得部10は、例えば、画像を撮影することにより取得し、実変位量算出部21、デフォルメ画像生成部32、及び、画像処理部50に供給して、処理は、ステップS12に進む。   In step S11, the image acquisition unit 10 acquires, for example, by capturing an image, and supplies the acquired image to the actual displacement calculation unit 21, the deformed image generation unit 32, and the image processing unit 50, and the processing is performed in step S12. Proceed to

ステップS12では、実変位量算出部21は、画像取得部10からの撮影画像(の状態)の、所望撮影状態設定部22からの所望撮影状態情報が表す所望撮影状態に対するずれ量である実変位量を算出し、判定部23に供給して、処理は、ステップS13に進む。   In step S <b> 12, the actual displacement amount calculation unit 21 is the actual displacement that is a deviation amount of the captured image (state) from the image acquisition unit 10 with respect to the desired shooting state represented by the desired shooting state information from the desired shooting state setting unit 22. The amount is calculated and supplied to the determination unit 23, and the process proceeds to step S13.

ステップS13では、判定部23は、実変位量算出部21からの実変位量に基づいて、画像取得部10からの撮影画像が、所望撮影状態からずれているかどうかを判定する。   In step S <b> 13, the determination unit 23 determines whether the captured image from the image acquisition unit 10 is deviated from the desired shooting state based on the actual displacement amount from the actual displacement amount calculation unit 21.

ステップS13において、撮影画像が所望撮影状態からずれていると判定された場合、判定部23は、撮影画像が所望撮影状態からずれている旨のずれ判定情報に、実変位量算出部21からの実変位量を含めて、デフォルメ量算出部31に供給して、処理は、ステップS14に進む。   When it is determined in step S <b> 13 that the photographed image has deviated from the desired photographing state, the determination unit 23 adds to the displacement determination information that the photographed image has deviated from the desired photographing state from the actual displacement amount calculating unit 21. The actual displacement amount is supplied to the deformation amount calculation unit 31, and the process proceeds to step S14.

ステップS14では、デフォルメ量算出部31は、判定部23からの、撮影画像が所望撮影状態からずれている旨のずれ判定情報に従い、そのずれ判定情報に含まれる実変位量に応じて、デフォルメ画像のデフォルメ量を算出し、デフォルメ画像生成部32に供給して、処理は、ステップS15に進む。   In step S <b> 14, the deformation amount calculation unit 31 follows the shift determination information from the determination unit 23 to the effect that the captured image has shifted from the desired shooting state, and changes the deformation image according to the actual displacement amount included in the shift determination information. The deformation amount is calculated and supplied to the deformed image generation unit 32, and the process proceeds to step S15.

ステップS15では、デフォルメ画像生成部32は、例えば、画像取得部10から供給される撮影画像を用いて、デフォルメ量算出部31からのデフォルメ量だけ、撮影画像のずれをデフォルメしたデフォルメ画像を生成し、表示部40に供給して、処理は、ステップS16に進む。   In step S15, the deformed image generation unit 32 uses the captured image supplied from the image acquisition unit 10, for example, to generate a deformed image in which the shift of the captured image is deformed by the deformed amount from the deformed amount calculating unit 31. , The process proceeds to step S16.

ステップS16では、表示部40において、デフォルメ画像生成部32からのデフォルメ画像が表示される。   In step S <b> 16, the deformed image from the deformed image generating unit 32 is displayed on the display unit 40.

そして、処理は、ステップS16からステップS11に戻り、以下、ステップS13において、撮影画像が所望撮影状態からずれていないと判定されるまで、ステップS11ないしS16の処理が繰り返される。   Then, the process returns from step S16 to step S11. Hereinafter, the processes of steps S11 to S16 are repeated until it is determined in step S13 that the photographed image is not deviated from the desired photographing state.

したがって、撮影画像が所望撮影状態からずれている(と判定されている)間は、表示部40では、デフォルメ画像が表示される。   Therefore, while the photographed image is deviated from the desired photographing state (determined as being determined), the deformed image is displayed on the display unit 40.

一方、ステップS13において、撮影画像が所望撮影状態からずれていないと判定された場合、すなわち、撮影画像が所望撮影状態になっている場合、判定部23は、撮影画像が所望撮影状態からずれていない旨のずれ判定情報を、デフォルメ量算出部31、及び、画像処理部50に供給して、処理は、ステップS17に進む。   On the other hand, when it is determined in step S13 that the photographed image is not deviated from the desired photographing state, that is, when the photographed image is in the desired photographing state, the determination unit 23 deviates from the desired photographing state. The deviation determination information indicating that there is no data is supplied to the deformation amount calculation unit 31 and the image processing unit 50, and the process proceeds to step S17.

ここで、ずれ判定情報が、撮影画像が所望撮影状態からずれていない旨を表している場合、デフォルメ量算出部31は、デフォルメ量として、0を、デフォルメ画像生成部32に供給する。そして、デフォルメ画像生成部32は、デフォルメ量算出部31から供給されるデフォルメ量が0である場合には、例えば、画像取得部10から供給される撮影画像を、そのまま表示部40に供給する。   Here, when the deviation determination information indicates that the photographed image is not deviated from the desired photographing state, the deformation amount calculation unit 31 supplies 0 to the deformation image generation unit 32 as the deformation amount. Then, when the deformation amount supplied from the deformation amount calculation unit 31 is 0, for example, the deformed image generation unit 32 supplies the captured image supplied from the image acquisition unit 10 to the display unit 40 as it is.

その結果、表示部40では、ステップS17において、画像取得部10で取得された撮影画像そのもの、すなわち、所望撮影状態になっている撮影画像が表示され、処理は、ステップS18に進む。   As a result, the display unit 40 displays the captured image itself acquired by the image acquisition unit 10 in step S17, that is, the captured image in the desired shooting state, and the process proceeds to step S18.

以上のように、撮影画像が所望撮影状態になっている場合には、表示部40では、デフォルメ画像ではなく、所望撮影状態になっている撮影画像が表示される。   As described above, when the photographed image is in the desired photographing state, the display unit 40 displays the photographed image in the desired photographing state instead of the deformed image.

ステップS18では、制御部80は、操作部70が操作されたかどうか、すなわち、例えば、操作部70に含まれる図示せぬシャッタボタン(レリーズボタン)等が操作されたかどうかを判定する。   In step S18, the control unit 80 determines whether or not the operation unit 70 has been operated, that is, for example, whether or not a shutter button (release button) (not shown) included in the operation unit 70 has been operated.

ステップS18において、操作部70が操作されていないと判定された場合、処理は、ステップS11に戻る。   If it is determined in step S18 that the operation unit 70 has not been operated, the process returns to step S11.

また、ステップS18において、操作部70が操作されたと判定された場合、処理は、ステップS19に進み、画像処理部50は、画像取得部10から供給される撮影画像、すなわち、所望撮影状態になっている撮影画像を保存部60に記憶させる等の所定の画像処理を行って、処理を終了する。   If it is determined in step S18 that the operation unit 70 has been operated, the process proceeds to step S19, and the image processing unit 50 enters a captured image supplied from the image acquisition unit 10, that is, a desired shooting state. Predetermined image processing such as storing the captured image in the storage unit 60 is performed, and the processing ends.

なお、図2では、撮影画像が所望撮影状態になった後、操作部70が操作された場合に、画像処理部50において、画像処理を行うこととしたが、画像処理部50では、撮影画像が所望撮影状態になった場合には、操作部70の操作を待たずに、画像処理を行うことができる。   In FIG. 2, when the operation unit 70 is operated after the photographed image is in the desired photographing state, the image processing unit 50 performs image processing. When the desired shooting state is reached, image processing can be performed without waiting for the operation of the operation unit 70.

又は、操作部70が操作されている最中に、撮影画像が所望撮影状態になった場合に、画像処理部50において、画像処理を行うことができる。   Alternatively, when the photographed image is in a desired photographing state while the operation unit 70 is being operated, the image processing unit 50 can perform image processing.

<デフォルメ画像の具体例>   <Specific examples of deformed images>

以下、画像利用アプリケーションとしての画像処理部50が、例えば、虹彩認証装置である場合を例として、デフォルメ画像の具体例を説明する。   Hereinafter, a specific example of a deformed image will be described by taking as an example the case where the image processing unit 50 as an image use application is, for example, an iris authentication device.

図3は、図1のスマートフォンとしての画像処理装置において、虹彩認証のために、ユーザが、ユーザ自身を撮影する場合を説明する図である。   FIG. 3 is a diagram illustrating a case where the user photographs the user himself / herself for iris authentication in the image processing apparatus as the smartphone in FIG. 1.

図3のスマートフォンとしての画像処理装置では、画像取得部10としての画像を撮影する撮影部が、表示部40の表示画面と同一の面に設けられている。   In the image processing apparatus as the smartphone in FIG. 3, the photographing unit that captures an image as the image acquisition unit 10 is provided on the same surface as the display screen of the display unit 40.

いま、スマートフォンとしての画像処理装置の動作モードとして、表示部40に、画像取得部10で撮影された撮影画像が、いわゆるスルー画として表示される通常モードと、デフォルメ画像がスルー画として表示されるデフォルメモードとがあるとする。なお、通常モード、又は、デフォルメモードへの動作モードの切り替えは、例えば、ユーザによる操作部70の操作等に従って行うことができる。   Now, as an operation mode of an image processing apparatus as a smartphone, a normal mode in which a captured image captured by the image acquisition unit 10 is displayed as a so-called through image and a deformed image are displayed as a through image on the display unit 40. Suppose there is a deformation mode. Note that switching of the operation mode to the normal mode or the deformation mode can be performed, for example, according to the operation of the operation unit 70 by the user.

通常モードでは、表示部40には、画像取得部10で撮影された撮影画像がスルー画として表示される。ユーザは、表示部40に表示されたスルー画としての撮影画像を見ながら、その撮影画に映る被写体としてのユーザ自身が適切な状態となるように、スマートフォン(の撮影方向)の向きや、スマートフォンの位置、ユーザ自身の姿勢等を調整することができる。   In the normal mode, the captured image captured by the image acquisition unit 10 is displayed on the display unit 40 as a through image. While viewing the captured image as the through image displayed on the display unit 40, the user can change the direction of the smartphone (the imaging direction) or the smartphone so that the user himself / herself as the subject reflected in the captured image is in an appropriate state. The position of the user, the user's own posture, and the like can be adjusted.

そして、撮影画像が、ユーザが適切と考える状態になると、すなわち、例えば、撮影画像に映るユーザが、ユーザが適切と考える大きさで、ユーザが適切と考える位置に配置された状態等になると、ユーザは、操作部70に含まれる図示せぬシャッタボタンを操作する。   Then, when the captured image is in a state that the user thinks appropriate, that is, for example, when the user reflected in the captured image is in a size that the user thinks appropriate and placed in a position that the user thinks appropriate, etc. The user operates a shutter button (not shown) included in the operation unit 70.

ユーザがシャッタボタンを操作すると、画像処理部50において、そのときに、画像取得部10で撮影された撮影画像が、例えば、保存部60に記憶される等の所定の画像処理が行われる。   When the user operates the shutter button, the image processing unit 50 performs predetermined image processing such as storing the captured image captured by the image acquisition unit 10 in the storage unit 60, for example.

ここで、図3は、通常モードでの表示部40のスルー画の表示の例を示している。   Here, FIG. 3 shows an example of display of a through image on the display unit 40 in the normal mode.

図3では、画像取得部10で撮影された撮影画像が、そのまま、スルー画として、表示部40に表示されている。   In FIG. 3, the captured image captured by the image acquisition unit 10 is displayed on the display unit 40 as a through image as it is.

なお、図3においては(後述する図においても同様)、視認像を図示してある。視認像は、向こう側を向いているユーザを、向こう側にいる第三者から見たときに視認されるユーザの像である。   In FIG. 3 (the same applies to the drawings described later), a visual image is shown. The visual image is an image of a user who is visually recognized when viewing a user facing away from a third party.

すなわち、図3では(後述する図においても同様)、スマートフォンとしての画像処理装置の表示部40の表示画面側を向いているユーザを図示しており、そのような表示画面側を向いているユーザを、そのユーザの表情等の状態を確認することができるように図示することは、困難である。   That is, in FIG. 3 (the same applies to the drawings described later), a user who faces the display screen side of the display unit 40 of the image processing apparatus as a smartphone is illustrated, and a user who faces such a display screen side Is difficult to illustrate so that the state of the user's facial expression or the like can be confirmed.

そのため、図3では(後述する図においても同様)、向こう側(表示部40の表示画面側)を向いているユーザの表情等の状態を確認することができるように、第三者が向こう側にいたならば、その第三者が視認することができるであろうユーザの像である視認像を図示してある。   Therefore, in FIG. 3 (the same applies to the drawings to be described later), a third party is on the other side so that the facial expression of the user facing the other side (the display screen side of the display unit 40) can be confirmed. If it is, the visual image which is an image of the user who the third party can visually recognize is shown.

通常モードでは、上述したように、撮影画像が、ユーザが適切と考える状態になった場合に、その撮影画像を保存部60に記憶する等の、撮影画像を用いた画像処理が行われる。   In the normal mode, as described above, when the captured image is in a state considered appropriate by the user, image processing using the captured image, such as storing the captured image in the storage unit 60, is performed.

したがって、撮影画像を用いた画像処理として、例えば、虹彩認証が行われる場合に、通常モードでは、虹彩認証にとって適切な撮影状態の撮影画像が撮影されるとは限らない。   Therefore, as image processing using a captured image, for example, when iris authentication is performed, a captured image in a capturing state appropriate for iris authentication is not always captured in the normal mode.

すなわち、虹彩認証に不慣れなユーザにとっては、虹彩認証にとって適切な撮影状態の撮影画像が不明であるために、撮影画像が、虹彩認証にとって適切な撮影状態からずれていることを認識することができず、虹彩認証にとって適切な撮影状態の撮影画像を撮影することが、難しいことがある。   That is, for a user unfamiliar with iris authentication, it is possible to recognize that the captured image deviates from the appropriate imaging state for iris authentication because the captured image appropriate for the iris authentication is unknown. First, it may be difficult to capture a captured image that is appropriate for iris authentication.

そこで、デフォルメモードでは、撮影画像が、虹彩認証にとって適切な撮影状態である所望撮影状態からずれているかどうかが判定され、撮影画像が所望撮影状態からずれている場合には、撮影画像が所望撮影状態になるのに必要な、スマートフォンとしての画像処理装置の調整の方向とは逆方向にデフォルメを行ったデフォルメ画像、すなわち、撮影画像の、所望撮影状態からのずれを強調したデフォルメ画像が、表示部40に、スルー画像として表示される。   Therefore, in the deformation mode, it is determined whether or not the captured image is deviated from a desired photographing state that is an appropriate photographing state for iris authentication. If the photographed image deviates from the desired photographing state, the photographed image is captured as desired. The deformed image that is deformed in the direction opposite to the adjustment direction of the image processing device as a smartphone, that is, the deformed image that emphasizes the deviation from the desired shooting state is displayed. It is displayed on the unit 40 as a through image.

ユーザは、スルー画としてのデフォルメ画像を見ることにより、撮影画像が所望撮影状態からずれていることを容易に認識し、そのデフォルメ画像を、いわば反面教師として、撮影画像が所望撮影状態になるように、スマートフォンとしての画像処理装置の向き等の調整を行うことができる。   By viewing the deformed image as a through image, the user easily recognizes that the photographed image is deviated from the desired photographing state, and using the deformed image as a teacher on the other hand, the photographed image is brought into the desired photographing state. In addition, the orientation of the image processing apparatus as a smartphone can be adjusted.

したがって、デフォルメモードによれば、ユーザに、所望撮影状態を、容易にガイドすることができる。   Therefore, according to the deformation mode, it is possible to easily guide the user to the desired shooting state.

なお、所望撮影状態になり得る撮影画像の要素としては、例えば、撮影画像に映る被写体の位置や、大きさ(画角、面積)、角度(向き)、フォーカス、顔の表情等がある。   Note that the elements of a captured image that can be in a desired shooting state include, for example, the position, size (field angle, area), angle (orientation), focus, facial expression, etc. of the subject in the captured image.

所望撮影状態としては、例えば、撮影画像に映る被写体の位置が、撮影画像を左右に二等分する垂直線上の位置になっていることや、撮影画像に映る被写体の大きさ(面積)が、撮影画像の領域の所定の割合以上を占めていること、撮影画像に映る被写体の向きが、正対している向きになっていること、フォーカスが被写体に合っており、被写体がぼけていないこと、撮影画像に映る被写体としての人の表情が、まぶたを平常時と同様に開いた表情になっており、撮影画像に虹彩全体が映っていること等がある。   As the desired shooting state, for example, the position of the subject shown in the shot image is a position on a vertical line that bisects the shot image left and right, and the size (area) of the subject shown in the shot image is It occupies more than a predetermined percentage of the area of the shot image, the direction of the subject shown in the shot image is facing directly, the focus is on the subject and the subject is not blurred, The facial expression of the person as the subject in the photographed image is a facial expression with the eyelids open as usual, and the entire iris is reflected in the photographed image.

その他、所望撮影状態としては、例えば、撮影画像に映る被写体としての人の表情が、笑っている表情になっていることや、口を閉じている表情になっていること等を採用することができる。   In addition, as the desired shooting state, for example, it is possible to adopt that the facial expression of the person as the subject reflected in the shot image is a smiling expression, a closed expression, etc. it can.

図4は、デフォルメ画像の第1の具体例を説明する図である。   FIG. 4 is a diagram for explaining a first specific example of a deformed image.

図4では、撮影画像に映る被写体としてのユーザの位置が、撮影画像を左右に二等分する垂直線である中心線上の位置(所定の位置)になっている状態から、右方向にずれている。   In FIG. 4, the position of the user as the subject shown in the captured image is shifted to the right from the position (predetermined position) on the center line that is a vertical line that bisects the captured image to the left and right. Yes.

いま、所望撮影状態が、撮影画像に映るユーザの位置が中心線上の位置になっている状態であるとすると、画像判定部20の実変位量算出部21では、撮影画像に映るユーザの位置の、中心線上の位置からの右方向への位置ずれ量が、実変位量として算出される。   Now, assuming that the desired shooting state is a state where the position of the user shown in the shot image is a position on the center line, the actual displacement amount calculation unit 21 of the image determination unit 20 determines the position of the user shown in the shot image. The amount of displacement in the right direction from the position on the center line is calculated as the actual displacement amount.

そして、画像判定部20の判定部23では、実変位量としての右方向への位置ずれ量に基づいて、撮影画像が所望撮影状態になっていないと判定され、右方向への位置ずれ量を含むずれ判定情報が、デフォルメ処理部30に供給される。   Then, the determination unit 23 of the image determination unit 20 determines that the photographed image is not in the desired photographing state based on the rightward displacement amount as the actual displacement amount, and calculates the rightward displacement amount. The deviation determination information that is included is supplied to the deformation processing unit 30.

デフォルメ処理部30のデフォルメ量算出部31では、画像判定部20からのずれ判定情報に含まれる実変位量としての右方向への位置ずれ量に応じて、その位置ずれ量の大きさを大にした右方向への位置ずれ量が、デフォルメ量として算出される。   In the deformation amount calculation unit 31 of the deformation processing unit 30, the size of the displacement amount is increased according to the displacement amount in the right direction as the actual displacement amount included in the displacement determination information from the image determination unit 20. The amount of rightward misalignment is calculated as the deformation amount.

さらに、デフォルメ処理部30のデフォルメ画像生成部32では、画像取得部10から供給される撮影画像を、デフォルメ量だけデフォルメしたデフォルメ画像が生成され、表示部40で表示される。   Further, in the deformed image generating unit 32 of the deforming processing unit 30, a deformed image obtained by deforming the captured image supplied from the image acquiring unit 10 by a deformed amount is generated and displayed on the display unit 40.

すなわち、デフォルメ処理部30では、実変位量としての右方向への位置ずれ量の大きさを大にした右方向への位置ずれ量を、デフォルメ量として、そのデフォルメ量に基づき、撮影画像に映るユーザの位置が、中心線上の位置から、実変位量よりも右方向に大きくずれた画像が、デフォルメ画像として生成される。   That is, in the deformation processing unit 30, the amount of rightward misalignment, which is the amount of rightward misalignment as the actual displacement, is displayed as a deformed amount in the captured image based on the amount of deformation. An image in which the position of the user is significantly shifted from the position on the center line in the right direction relative to the actual displacement amount is generated as a deformed image.

そして、表示部40において、以上のようなデフォルメ画像、すなわち、撮影画像に映るユーザの位置が、中心線上の位置から、実変位量よりも右方向に大きくずれた画像が表示されることにより、ユーザは、撮影画像に映るユーザの位置が、中心線上の位置から右にずれており、撮影画像が、(画像利用アプリケーションとしての画像処理部50にとって)適切な画像になっていないことを認識することができる。   Then, on the display unit 40, the above-described deformed image, that is, an image in which the position of the user shown in the captured image is significantly shifted from the position on the center line to the right than the actual displacement amount is displayed. The user recognizes that the position of the user shown in the captured image is shifted to the right from the position on the center line, and the captured image is not an appropriate image (for the image processing unit 50 as an image utilization application). be able to.

この場合、ユーザは、デフォルメ画像を見ながら、スマートフォンとしての画像処理装置やユーザ自身の位置あるいは姿勢を、デフォルメ画像でデフォルメされているデフォルメ量としての右方向への大きな位置ずれ量を正す(なくす)ように調整し、最終的には、適切な撮影画像、すなわち、撮影画像に映るユーザの位置が、中心線上の位置になっている撮影画像を得ることができる。   In this case, while viewing the deformed image, the user corrects (or eliminates) a large amount of displacement in the right direction as the deformation amount deformed in the deformed image with respect to the position or orientation of the image processing apparatus as the smartphone or the user himself / herself. ), And finally, an appropriate captured image, that is, a captured image in which the position of the user reflected in the captured image is on the center line can be obtained.

撮影画像が、その撮影画像に映るユーザの位置が中心線上の位置になっているという所望撮影状態になっているかどうかは、例えば、画像判定部20の実変位量算出部21において、撮影画像を対象として、顔認識技術等を用いて、撮影画像に映る被写体としてのユーザの顔を認識し、その顔の中心と、撮影画像の中心線との間の距離を、実変位量として算出することにより、判定部23において、実変位量に基づいて判定することができる。   For example, in the actual displacement amount calculation unit 21 of the image determination unit 20, whether or not the captured image is in a desired imaging state in which the position of the user reflected in the captured image is a position on the center line. Recognizing a user's face as a subject in a captured image using face recognition technology as a target, and calculating the distance between the center of the face and the center line of the captured image as an actual displacement amount Thus, the determination unit 23 can determine based on the actual displacement amount.

なお、撮影画像が、その撮影画像に映るユーザの位置が中心線上の位置になっているという所望撮影状態になっているかどうかを判定する方法は、上述したような顔認識技術を用いる方法に限定されるものではない。   Note that the method for determining whether or not the captured image is in a desired capturing state in which the position of the user reflected in the captured image is a position on the center line is limited to the method using the face recognition technique as described above. Is not to be done.

図5は、デフォルメ画像の第2の具体例を説明する図である。   FIG. 5 is a diagram for explaining a second specific example of a deformed image.

図5では、ユーザとスマートフォンとしての画像処理装置(の画像取得部10)との間の距離が近すぎるか、又は、遠すぎることに起因して、撮影画像に映る被写体としてのユーザが、若干ぼけている。   In FIG. 5, the user as the subject reflected in the captured image is slightly slightly caused by the distance between the user and the image processing apparatus (the image acquisition unit 10) as a smartphone being too close or too far. I am blurred.

いま、所望撮影状態が、撮影画像に映るユーザにフォーカスが合っている状態であるとすると、画像判定部20の実変位量算出部21では、撮影画像に映るユーザにフォーカスがあっていない程度を表すぼけ量が、実変位量として算出される。   Assuming that the desired shooting state is a state in which the user shown in the shot image is in focus, the actual displacement amount calculation unit 21 of the image determination unit 20 determines that the user shown in the shot image is not in focus. The amount of blur to be expressed is calculated as the actual displacement amount.

そして、画像判定部20の判定部23では、実変位量としてのぼけ量に基づいて、撮影画像が所望撮影状態になっていないと判定され、ぼけ量を含むずれ判定情報が、デフォルメ処理部30に供給される。   Then, the determination unit 23 of the image determination unit 20 determines that the captured image is not in the desired shooting state based on the blur amount as the actual displacement amount, and the displacement determination information including the blur amount is the deformation processing unit 30. To be supplied.

デフォルメ処理部30のデフォルメ量算出部31では、画像判定部20からのずれ判定情報に含まれる実変位量としてのぼけ量に応じて、そのぼけ量の大きさを大にしたぼけ量が、デフォルメ量として算出される。   In the deformation amount calculation unit 31 of the deformation processing unit 30, the amount of blur obtained by increasing the amount of blur according to the amount of blur as the actual displacement amount included in the deviation determination information from the image determination unit 20 is changed to the deformation amount. Calculated as a quantity.

さらに、デフォルメ処理部30のデフォルメ画像生成部32では、画像取得部10から供給される撮影画像を、デフォルメ量だけデフォルメしたデフォルメ画像が生成され、表示部40で表示される。   Further, in the deformed image generating unit 32 of the deforming processing unit 30, a deformed image obtained by deforming the captured image supplied from the image acquiring unit 10 by a deformed amount is generated and displayed on the display unit 40.

すなわち、デフォルメ処理部30では、実変位量としてのぼけ量の大きさを大にしたぼけ量を、デフォルメ量として、そのデフォルメ量に基づき、撮影画像に映るユーザをさらにぼかした画像が、デフォルメ画像として生成される。   That is, in the deformation processing unit 30, an image obtained by further blurring the user reflected in the photographed image based on the deformation amount, with the amount of blurring obtained by increasing the amount of blurring as the actual displacement amount as the deformation amount, Is generated as

そして、表示部40において、以上のようなデフォルメ画像、すなわち、撮影画像に映るユーザがさらにぼけた画像が表示されることにより、ユーザは、撮影画像に映るユーザにフォーカスがあっておらず、撮影画像が、(画像利用アプリケーションとしての画像処理部50にとって)適切な画像になっていないことを認識することができる。   The display unit 40 displays the above-described deformed image, that is, an image in which the user reflected in the captured image is further blurred, so that the user is not focused on the user reflected in the captured image, and the captured image is captured. It can be recognized that the image is not an appropriate image (for the image processing unit 50 as an image utilization application).

この場合、ユーザは、デフォルメ画像を見ながら、スマートフォンとしての画像処理装置とユーザ自身との間の距離を、デフォルメ画像でデフォルメされているデフォルメ量としてのぼけ量を正す(なくす)ように、適切な距離に調整し、最終的には、適切な撮影画像、すなわち、撮影画像に映るユーザにフォーカスが合っている撮影画像を得ることができる。   In this case, while viewing the deformed image, the user properly adjusts (displaces) the distance between the image processing apparatus as the smartphone and the user himself to correct the amount of blur as the deformed amount deformed in the deformed image. The distance can be adjusted to a proper distance, and finally, an appropriate captured image, that is, a captured image focused on the user reflected in the captured image can be obtained.

撮影画像が、その撮影画像に映るユーザにフォーカスが合っているという所望撮影状態になっているかどうかの判定は、例えば、以下のようにして行うことができる。   The determination as to whether or not the photographed image is in a desired photographing state in which the user reflected in the photographed image is in focus can be performed as follows, for example.

すなわち、画像判定部20の実変位量算出部21において、最新の所定期間について、撮影画像に映るユーザを含む領域を注目領域として、注目領域のコントラスト(明暗差)を時系列で算出し、その時系列のコントラストの中の最大値である最大コントラストを検出する。   That is, the actual displacement amount calculation unit 21 of the image determination unit 20 calculates the contrast (brightness / darkness difference) of the attention area in time series with the area including the user shown in the captured image as the attention area for the latest predetermined period. The maximum contrast, which is the maximum value in the series contrast, is detected.

そして、実変位量算出部21において、最大コントラストから、最新の撮影画像(の注目領域)のコントラストを減算した減算値を、ぼけ量として求め、そのぼけ量を、実変位量として、判定部23に供給することにより、判定部23では、その実変位量に基づいて、撮影画像が、その撮影画像に映るユーザにフォーカスが合っているという所望撮影状態になっているかどうかを判定することができる。   Then, the actual displacement amount calculation unit 21 obtains a subtraction value obtained by subtracting the contrast of the latest photographed image (its attention area) from the maximum contrast as a blur amount, and uses the blur amount as the actual displacement amount to determine the determination unit 23. The determination unit 23 can determine based on the actual displacement amount whether or not the captured image is in a desired capturing state in which the user who is reflected in the captured image is in focus.

また、デフォルメ処理部30のデフォルメ画像生成部32では、例えば、デフォルメ量としてのぼけ量に応じて通過帯域幅が狭くなるようなローパスフィルタによって、撮影画像(に映るユーザを含む領域)をフィルタリングすることにより、撮影画像に映るユーザをさらにぼかした画像を、デフォルメ画像として生成することができる。   In addition, the deformed image generating unit 32 of the deforming processing unit 30 filters the captured image (an area including the user shown in the image) with a low-pass filter that narrows the pass bandwidth according to the amount of blur as the amount of deformation. Thus, an image obtained by further blurring the user shown in the captured image can be generated as a deformed image.

なお、撮影画像が、その撮影画像に映るユーザにフォーカスが合っているという所望撮影状態になっているかどうかを判定する方法、及び、撮影画像に映るユーザをさらにぼかしたデフォルメ画像として生成する方法は、上述した方法に限定されるものではない。   Note that a method for determining whether or not a photographed image is in a desired photographing state in which the user reflected in the photographed image is in focus, and a method for generating a deformed deformed image of the user reflected in the photographed image are as follows. The method is not limited to the above-described method.

図6は、デフォルメ画像の第3の具体例を説明する図である。   FIG. 6 is a diagram for explaining a third specific example of the deformed image.

図6では、撮影画像に映る被写体としてのユーザの表情が、まぶたをやや閉じている表情になっている。   In FIG. 6, the user's facial expression as a subject shown in the captured image is a facial expression with the eyelid slightly closed.

いま、所望撮影状態が、撮影画像に映るユーザの表情が、虹彩の全体が見えるように、まぶたを正常に開いた表情になっている状態であるとすると、画像判定部20の実変位量算出部21では、撮影画像に映るユーザの表情が、まぶたを正常に開いた表情(所定の表情)からずれているずれ量である表情ずれ量が、実変位量として算出される。   Now, assuming that the desired shooting state is a state in which the user's facial expression reflected in the captured image is a facial expression with the eyelids normally opened so that the entire iris can be seen, the actual displacement amount calculation of the image determination unit 20 is calculated. In the unit 21, a facial expression shift amount, which is a shift amount in which the facial expression of the user reflected in the photographed image is shifted from a facial expression in which the eyelids are normally opened (predetermined facial expression), is calculated as an actual displacement amount.

そして、画像判定部20の判定部23では、実変位量としての表情ずれ量に基づいて、撮影画像が所望撮影状態になっていないと判定され、表情ずれ量を含むずれ判定情報が、デフォルメ処理部30に供給される。   Then, the determination unit 23 of the image determination unit 20 determines that the photographed image is not in the desired photographing state based on the expression displacement amount as the actual displacement amount, and the displacement determination information including the expression displacement amount is subjected to deformation processing. Supplied to the unit 30.

デフォルメ処理部30のデフォルメ量算出部31では、画像判定部20からのずれ判定情報に含まれる実変位量としての表情ずれ量に応じて、その表情ずれ量の大きさを大にした表情ずれ量が、デフォルメ量として算出される。   In the deformation amount calculation unit 31 of the deformation processing unit 30, the facial expression deviation amount is increased in accordance with the facial expression deviation amount as the actual displacement amount included in the deviation determination information from the image determination unit 20. Is calculated as the deformation amount.

さらに、デフォルメ処理部30のデフォルメ画像生成部32では、画像取得部10から供給される撮影画像を、デフォルメ量だけデフォルメしたデフォルメ画像が生成され、表示部40で表示される。   Further, in the deformed image generating unit 32 of the deforming processing unit 30, a deformed image obtained by deforming the captured image supplied from the image acquiring unit 10 by a deformed amount is generated and displayed on the display unit 40.

すなわち、デフォルメ処理部30では、実変位量としての表情ずれ量の大きさを大にした表情ずれ量を、デフォルメ量として、そのデフォルメ量に基づき、撮影画像に映るユーザの表情が、例えば、まぶたをほぼ閉じている表情になっている画像が、デフォルメ画像として生成される。   That is, in the deformation processing unit 30, the facial expression deviation amount obtained by increasing the facial expression deviation amount as the actual displacement amount is set as the deformation amount, and the facial expression of the user reflected in the photographed image based on the deformation amount is, for example, the eyelid An image having an expression that is almost closed is generated as a deformed image.

そして、表示部40において、以上のようなデフォルメ画像、すなわち、撮影画像に映るユーザの表情が、まぶたをほぼ閉じている表情になっている画像が表示されることにより、ユーザは、撮影画像に映るユーザの表情が、まぶたを正常に開いた表情になっておらず、撮影画像が、(画像利用アプリケーションとしての画像処理部50にとって)適切な画像になっていないことを認識することができる。   Then, the deformed image as described above, that is, an image in which the facial expression of the user reflected in the captured image is a facial expression in which the eyelid is almost closed is displayed on the display unit 40. It can be recognized that the user's facial expression is not a facial expression in which the eyelids are normally opened, and the captured image is not an appropriate image (for the image processing unit 50 as an image utilization application).

この場合、ユーザは、デフォルメ画像を見て、まぶたを開くことにより、ユーザ自身の表情を調整し、適切な撮影画像、すなわち、撮影画像に映るユーザの表情が、まぶたを正常に開いた表情になっており、虹彩の全体が見える(映っている)撮影画像を得ることができる。   In this case, the user looks at the deformed image and adjusts the user's own facial expression by opening the eyelid, so that the appropriate photographed image, that is, the user's facial expression reflected in the photographed image becomes a facial expression that normally opens the eyelid. Therefore, it is possible to obtain a photographed image in which the entire iris can be seen (reflected).

撮影画像が、その撮影画像に映るユーザの表情が、虹彩の全体が見えるように、まぶたを正常に開いた表情になっているという所望撮影状態になっているかどうかは、例えば、画像判定部20の実変位量算出部21において、撮影画像を対象として、まぶた検出技術等を用いて、撮影画像に映る被写体としてのユーザのまぶたが、虹彩に重なっている重なり具合(以下、まぶた重なり具合ともいう)を、実変位量として算出することにより、判定部23において、実変位量に基づいて判定することができる。   Whether the photographed image is in a desired photographing state in which the user's facial expression reflected in the photographed image is a facial expression with the eyelids normally opened so that the entire iris can be seen is, for example, the image determination unit 20. In the actual displacement amount calculation unit 21, the user's eyelid as a subject reflected in the photographed image is overlapped with the iris using the eyelid detection technique or the like for the photographed image (hereinafter also referred to as eyelid overlap condition). ) As the actual displacement amount, the determination unit 23 can determine based on the actual displacement amount.

また、デフォルメ処理部30のデフォルメ画像生成部32では、例えば、瞬きをしているユーザを撮影した一連の撮影画像を、瞬き画像として保持しておき、デフォルメ量に応じたまぶた重なり具合の瞬き画像の目の部分によって、最新の撮影画像の目の部分を置き換えることにより、撮影画像に映るユーザよりもまぶたが閉じ気味のユーザが映った画像を、デフォルメ画像として生成することができる。   In addition, the deformed image generating unit 32 of the deforming processing unit 30 holds, for example, a series of captured images obtained by capturing a blinking user as a blinking image, and a blinking image of an eyelid overlap according to the amount of deformation. By replacing the eye part of the latest photographed image with the eye part, an image showing a user whose eyelids are more closed than the user shown in the photographed image can be generated as a deformed image.

なお、撮影画像が、その撮影画像に映るユーザの表情が、虹彩の全体が見えるように、まぶたを正常に開いた表情になっているという所望撮影状態になっているかどうかを判定する方法、及び、撮影画像に映るユーザよりもまぶたが閉じ気味のユーザが映ったデフォルメ画像を生成する方法は、上述した方法に限定されるものではない。   A method for determining whether a photographed image is in a desired photographing state in which a user's facial expression reflected in the photographed image is a facial expression with the eyelids normally opened so that the entire iris can be seen, and The method for generating a deformed image in which a user whose eyelids are more closed than the user shown in the captured image is not limited to the above-described method.

図7は、デフォルメ画像の第4の具体例を説明する図である。   FIG. 7 is a diagram illustrating a fourth specific example of a deformed image.

図7では、撮影画像に映る被写体としてのユーザ(の姿勢)が正対せずに傾いている。   In FIG. 7, the user (posture) as the subject shown in the captured image is tilted without facing.

いま、所望撮影状態が、撮影画像に映るユーザが正対している状態であるとすると、画像判定部20の実変位量算出部21では、撮影画像に映るユーザが正対の方向に対して傾いている傾き角が、実変位量として算出される。   Assuming that the desired shooting state is a state where the user shown in the shot image is facing the user, the actual displacement amount calculation unit 21 of the image determination unit 20 tilts the user shown in the shot image with respect to the facing direction. The tilt angle is calculated as the actual displacement amount.

そして、画像判定部20の判定部23では、実変位量としての傾き角に基づいて、撮影画像が所望撮影状態になっていないと判定され、傾き角を含むずれ判定情報が、デフォルメ処理部30に供給される。   Then, the determination unit 23 of the image determination unit 20 determines that the photographed image is not in the desired photographing state based on the inclination angle as the actual displacement amount, and the displacement determination information including the inclination angle is the deformation processing unit 30. To be supplied.

デフォルメ処理部30のデフォルメ量算出部31では、画像判定部20からのずれ判定情報に含まれる実変位量としての傾き角に応じて、その傾き角の大きさを大にした傾き角が、デフォルメ量として算出される。   In the deformation amount calculation unit 31 of the deformation processing unit 30, the inclination angle obtained by increasing the inclination angle according to the inclination angle as the actual displacement amount included in the deviation determination information from the image determination unit 20 is the deformation amount. Calculated as a quantity.

さらに、デフォルメ処理部30のデフォルメ画像生成部32では、画像取得部10から供給される撮影画像を、デフォルメ量だけデフォルメしたデフォルメ画像が生成され、表示部40で表示される。   Further, in the deformed image generating unit 32 of the deforming processing unit 30, a deformed image obtained by deforming the captured image supplied from the image acquiring unit 10 by a deformed amount is generated and displayed on the display unit 40.

すなわち、デフォルメ処理部30では、実変位量としての傾き角の大きさを大にした傾き角を、デフォルメ量として、そのデフォルメ量に基づき、撮影画像に映るユーザを正対の方向に対してより傾けた画像が、デフォルメ画像として生成される。   That is, in the deformation processing unit 30, the inclination angle obtained by increasing the inclination angle as the actual displacement amount is set as the deformation amount, and based on the deformation amount, the user shown in the photographed image is more directly directed to the facing direction. An inclined image is generated as a deformed image.

そして、表示部40において、以上のようなデフォルメ画像、すなわち、撮影画像に映るユーザがより傾いた画像が表示されることにより、ユーザは、撮影画像に映るユーザが正対しておらず、撮影画像が、(画像利用アプリケーションとしての画像処理部50にとって)適切な画像になっていないことを認識することができる。   The display unit 40 displays the deformed image as described above, that is, an image in which the user reflected in the captured image is more inclined, so that the user does not face the user reflected in the captured image, and the captured image is displayed. However, it can be recognized that the image is not appropriate (for the image processing unit 50 as an image utilization application).

この場合、ユーザは、デフォルメ画像を見て、例えば、スマートフォンとしての画像処理装置の姿勢を、ヨー方向や、ロール方向、ピッチ方向に傾けること等により調整し、適切な撮影画像、すなわち、撮影画像に映るユーザが(スマートフォンとしての画像処理装置(の画像取得部10)に)正対している撮影画像を得ることができる。   In this case, the user looks at the deformed image and adjusts the posture of the image processing apparatus as a smartphone by tilting in the yaw direction, the roll direction, or the pitch direction, for example, and an appropriate captured image, that is, the captured image. It is possible to obtain a captured image in which the user shown in the screen is facing (to the image processing apparatus (image acquisition unit 10 thereof) as a smartphone).

撮影画像が、その撮影画像に映るユーザが正対しているという所望撮影状態になっているかどうかは、例えば、画像判定部20の実変位量算出部21において、撮影画像を対象として、顔認識技術等を用いて、撮影画像に映る被写体としてのユーザの顔の向きを検出し、その顔の向きの、正対している方向に対する傾き角を、実変位量として算出することにより、判定部23において、実変位量に基づいて判定することができる。   Whether or not the photographed image is in a desired photographing state in which the user reflected in the photographed image is directly facing is determined by, for example, the face recognition technique for the photographed image in the actual displacement amount calculation unit 21 of the image determination unit 20. In the determination unit 23, the orientation of the face of the user as a subject reflected in the captured image is detected, and the inclination angle of the face orientation with respect to the facing direction is calculated as an actual displacement amount. The determination can be made based on the actual displacement amount.

その他、例えば、スマートフォンとしての画像処理装置が、ジャイロセンサや加速度センサを内蔵している場合には、例えば、撮影画像に映るユーザが正対しているときのスマートフォンの姿勢(以下、正対姿勢ともいう)をジャイロセンサや加速度センサから取得するのに必要な操作を、スマートフォンのキャリブレーションの操作の1つとして、ユーザに行ってもらうことで、正対姿勢をあらかじめ取得しておき、スマートフォンの現在の姿勢と正対姿勢と差を、実変位量として算出することにより、その実変位量に基づいて、撮影画像が、その撮影画像に映るユーザが正対しているという所望撮影状態になっているかどうかを判定することができる。   In addition, for example, when the image processing apparatus as a smartphone has a built-in gyro sensor or acceleration sensor, for example, the posture of the smartphone when the user reflected in the photographed image is facing (hereinafter referred to as the facing posture). ) Is acquired from the gyro sensor or acceleration sensor as one of the calibration operations of the smartphone, and the user performs the operation in advance, so that the current orientation of the smartphone is acquired. By calculating the difference between the posture and the facing posture as the actual displacement amount, based on the actual displacement amount, whether or not the captured image is in the desired shooting state that the user reflected in the captured image is facing Can be determined.

なお、撮影画像が、その撮影画像に映るユーザが正対しているという所望撮影状態になっているかどうかを判定する方法は、上述した方法に限定されるものではない。   Note that the method for determining whether or not the captured image is in the desired capturing state in which the user shown in the captured image is facing is not limited to the method described above.

図8は、デフォルメ画像の第5の具体例を説明する図である。   FIG. 8 is a diagram for explaining a fifth specific example of a deformed image.

図8では、図6の場合と同様に、撮影画像に映る被写体としてのユーザの表情が、まぶたをやや閉じている表情になっている。   In FIG. 8, as in the case of FIG. 6, the user's facial expression as a subject shown in the captured image is a facial expression with the eyelid slightly closed.

いま、所望撮影状態が、撮影画像に映るユーザの表情が、虹彩の全体が見えるように、まぶたを正常に開いた表情になっている状態であるとすると、画像判定部20の実変位量算出部21では、撮影画像に映るユーザの表情が、まぶたを正常に開いた表情からずれているずれ量である表情ずれ量が、実変位量として算出される。   Now, assuming that the desired shooting state is a state in which the user's facial expression reflected in the captured image is a facial expression with the eyelids normally opened so that the entire iris can be seen, the actual displacement amount calculation of the image determination unit 20 is calculated. In the unit 21, a facial expression deviation amount, which is a deviation amount in which the facial expression of the user reflected in the photographed image deviates from the facial expression in which the eyelids are normally opened, is calculated as the actual displacement amount.

そして、画像判定部20の判定部23では、実変位量としての表情ずれ量に基づいて、撮影画像が所望撮影状態になっていないと判定され、表情ずれ量を含むずれ判定情報が、デフォルメ処理部30に供給される。   Then, the determination unit 23 of the image determination unit 20 determines that the photographed image is not in the desired photographing state based on the expression displacement amount as the actual displacement amount, and the displacement determination information including the expression displacement amount is subjected to deformation processing. Supplied to the unit 30.

デフォルメ処理部30のデフォルメ量算出部31では、画像判定部20からのずれ判定情報に含まれる実変位量としての表情ずれ量に応じて、その表情ずれ量の大きさを大にした表情ずれ量が、デフォルメ量として算出される。   In the deformation amount calculation unit 31 of the deformation processing unit 30, the facial expression deviation amount is increased in accordance with the facial expression deviation amount as the actual displacement amount included in the deviation determination information from the image determination unit 20. Is calculated as the deformation amount.

さらに、デフォルメ処理部30のデフォルメ画像生成部32では、デフォルメ量に従ってデフォルメしたデフォルメ画像が生成され、表示部40で表示される。   Further, in the deformed image generating unit 32 of the deforming processing unit 30, a deformed deformed image is generated according to the deformed amount and displayed on the display unit 40.

ここで、図6では、デフォルメ処理部30において、撮影画像を用いて、デフォルメ画像を生成したが、デフォルメ画像は、撮影画像ではなく、3D(Dimension)アバタ等のキャラクタやGUI(Graphical User Interface)、その他のグラフィクス画像を用いて生成することができる。   In FIG. 6, the deformation processing unit 30 generates a deformed image using the captured image. However, the deformed image is not a captured image, but a character such as a 3D (Dimension) avatar or a GUI (Graphical User Interface). It can be generated using other graphics images.

図8では、熊のキャラクタ(のグラフィクス画像)を用いて、デフォルメ画像が生成されている。   In FIG. 8, a deformed image is generated using a bear character (graphics image thereof).

すなわち、デフォルメ処理部30では、実変位量としての表情ずれ量の大きさを大にした表情ずれ量を、デフォルメ量として、そのデフォルメ量に基づき、熊のキャラクタの表情が、撮影画像に映るユーザよりもまぶたを閉じた表情になっている画像が、デフォルメ画像として生成される。   That is, in the deformation processing unit 30, a facial expression expression of the bear character is reflected in the captured image based on the deformation amount, with the expression displacement amount obtained by increasing the expression displacement amount as the actual displacement amount as the deformation amount. An image having a facial expression with the eyelid closed is generated as a deformed image.

そして、表示部40において、以上のようなデフォルメ画像、すなわち、熊のキャラクタの表情が、撮影画像に映るユーザよりもまぶたを閉じた表情になっている画像が表示されることにより、ユーザは、撮影画像に映るユーザの表情が、まぶたを正常に開いた表情になっておらず、撮影画像が、(画像利用アプリケーションとしての画像処理部50にとって)適切な画像になっていないことを認識することができる。   Then, on the display unit 40, the deformed image as described above, that is, an image in which the facial expression of the bear character is a facial expression with a closed eyelid rather than the user reflected in the captured image, the user can Recognizing that the facial expression of the user in the captured image is not a facial expression with the eyelids normally opened, and that the captured image is not an appropriate image (for the image processing unit 50 as an image utilization application). Can do.

この場合、ユーザは、デフォルメ画像を見て、まぶたを開くことにより、ユーザ自身の表情を調整し、適切な撮影画像、すなわち、撮影画像に映るユーザの表情が、まぶたを正常に開いた表情になっており、虹彩の全体が見える(映っている)撮影画像を得ることができる。   In this case, the user looks at the deformed image and adjusts the user's own facial expression by opening the eyelid, so that the appropriate photographed image, that is, the user's facial expression reflected in the photographed image becomes a facial expression that normally opens the eyelid. Therefore, it is possible to obtain a photographed image in which the entire iris can be seen (reflected).

なお、図8の熊のキャラクタのような、人(ユーザ)をある程度想起させるグラフィクス画像を用いて生成するデフォルメ画像は、図6の場合の他、図4や、図5、図7の場合等にも適用することができる。   Note that the deformed image generated using a graphics image reminiscent of a person (user) such as the bear character in FIG. 8 is not limited to the case in FIG. 6, but in the case of FIG. 4, FIG. 5, FIG. It can also be applied to.

また、デフォルメ画像の生成に用いるグラフィクス画像としては、図8の熊のキャラクタのような、人を想起させるグラフィクス画像以外の画像を採用することができる。   Further, as the graphics image used for generating the deformed image, an image other than the graphics image reminiscent of a person such as the bear character in FIG. 8 can be adopted.

すなわち、図9は、デフォルメ画像の第6の具体例を説明する図である。   That is, FIG. 9 is a diagram for explaining a sixth specific example of a deformed image.

図9では、図5の場合と同様に、撮影画像に映る被写体としてのユーザが、若干ぼけている。   In FIG. 9, as in the case of FIG. 5, the user as the subject shown in the captured image is slightly blurred.

いま、所望撮影状態が、撮影画像に映るユーザにフォーカスが合っている状態であるとすると、画像判定部20の実変位量算出部21では、撮影画像に映るユーザにフォーカスがあっていない程度を表すぼけ量が、実変位量として算出される。   Assuming that the desired shooting state is a state in which the user shown in the shot image is in focus, the actual displacement amount calculation unit 21 of the image determination unit 20 determines that the user shown in the shot image is not in focus. The amount of blur to be expressed is calculated as the actual displacement amount.

そして、画像判定部20の判定部23では、実変位量としてのぼけ量に基づいて、撮影画像が所望撮影状態になっていないと判定され、ぼけ量を含むずれ判定情報が、デフォルメ処理部30に供給される。   Then, the determination unit 23 of the image determination unit 20 determines that the captured image is not in the desired shooting state based on the blur amount as the actual displacement amount, and the displacement determination information including the blur amount is the deformation processing unit 30. To be supplied.

デフォルメ処理部30のデフォルメ量算出部31では、画像判定部20からのずれ判定情報に含まれる実変位量としてのぼけ量に応じて、そのぼけ量の大きさを大にしたぼけ量が、デフォルメ量として算出される。   In the deformation amount calculation unit 31 of the deformation processing unit 30, the amount of blur obtained by increasing the amount of blur according to the amount of blur as the actual displacement amount included in the deviation determination information from the image determination unit 20 is changed to the deformation amount. Calculated as a quantity.

さらに、デフォルメ処理部30のデフォルメ画像生成部32では、デフォルメ量に従ってデフォルメしたデフォルメ画像が生成され、表示部40で表示される。   Further, in the deformed image generating unit 32 of the deforming processing unit 30, a deformed deformed image is generated according to the deformed amount and displayed on the display unit 40.

ここで、図5では、デフォルメ処理部30において、撮影画像を用いて、デフォルメ画像を生成したが、デフォルメ画像は、上述したように、撮影画像ではなく、グラフィクス画像を用いて生成することができる。   Here, in FIG. 5, the deformation processing unit 30 generates a deformed image using a captured image. However, as described above, the deformed image can be generated using a graphics image instead of a captured image. .

図9では、例えば、撮影画像を利用する画像利用アプリケーションとしての画像処理部50が、虹彩認証や顔認証を行う認証装置である場合に、その認証装置が認証を行っているときに表示される「認証中」の文字が描画されたGUI(以下、認証中GUIともいう)を用いて、デフォルメ画像が生成されている。   In FIG. 9, for example, when the image processing unit 50 as an image use application that uses a captured image is an authentication device that performs iris authentication or face authentication, this is displayed when the authentication device is performing authentication. A deformed image is generated using a GUI (hereinafter, also referred to as “authenticating GUI”) on which characters “authenticating” are drawn.

すなわち、デフォルメ処理部30では、実変位量としてのぼけ量の大きさを大にしたぼけ量を、デフォルメ量として、そのデフォルメ量に基づき、認証中GUIを、撮影画像に映るユーザよりもぼかした画像が、デフォルメ画像として生成される。   That is, the deformation processing unit 30 uses the blur amount obtained by increasing the amount of blur as the actual displacement amount as the deform amount, and based on the deform amount, the authenticating GUI is more blurred than the user reflected in the captured image. An image is generated as a deformed image.

そして、表示部40において、以上のようなデフォルメ画像、すなわち、撮影画像に映るユーザよりもぼかした認証中GUIが表示されることにより、ユーザは、撮影画像に映るユーザにフォーカスがあっておらず、撮影画像が、(画像利用アプリケーションとしての画像処理部50にとって)適切な画像になっていないことを認識することができる。   The display unit 40 displays the deformed image as described above, that is, the authenticating GUI that is more blurred than the user reflected in the captured image, so that the user is not focused on the user reflected in the captured image. It can be recognized that the captured image is not an appropriate image (for the image processing unit 50 as an image utilization application).

この場合、ユーザは、デフォルメ画像を見ながら、スマートフォンとしての画像処理装置とユーザ自身との間の距離を、デフォルメ画像でデフォルメされているデフォルメ量としてのぼけ量を正すように、適切な距離に調整し、最終的には、適切な撮影画像、すなわち、撮影画像に映るユーザにフォーカスが合っている撮影画像を得ることができる。   In this case, while viewing the deformed image, the user sets the distance between the image processing apparatus as the smartphone and the user himself to an appropriate distance so as to correct the blur amount as the deformed amount deformed in the deformed image. After adjustment, an appropriate captured image, that is, a captured image focused on the user reflected in the captured image can be obtained.

図10は、デフォルメ画像の第7の具体例を説明する図である。   FIG. 10 is a diagram for explaining a seventh specific example of a deformed image.

図10では、図7の場合と同様に、撮影画像に映る被写体としてのユーザ(の姿勢)が正対せずに傾いている。   In FIG. 10, as in the case of FIG. 7, the user (or posture) as a subject reflected in the captured image is tilted without facing.

いま、所望撮影状態が、撮影画像に映るユーザが正対している状態であるとすると、画像判定部20の実変位量算出部21では、撮影画像に映るユーザが正対の方向に対して傾いている傾き角が、実変位量として算出される。   Assuming that the desired shooting state is a state where the user shown in the shot image is facing the user, the actual displacement amount calculation unit 21 of the image determination unit 20 tilts the user shown in the shot image with respect to the facing direction. The tilt angle is calculated as the actual displacement amount.

そして、画像判定部20の判定部23では、実変位量としての傾き角に基づいて、撮影画像が所望撮影状態になっていないと判定され、傾き角を含むずれ判定情報が、デフォルメ処理部30に供給される。   Then, the determination unit 23 of the image determination unit 20 determines that the photographed image is not in the desired photographing state based on the inclination angle as the actual displacement amount, and the displacement determination information including the inclination angle is the deformation processing unit 30. To be supplied.

デフォルメ処理部30のデフォルメ量算出部31では、画像判定部20からのずれ判定情報に含まれる実変位量としての傾き角に応じて、その傾き角の大きさを大にした傾き角が、デフォルメ量として算出される。   In the deformation amount calculation unit 31 of the deformation processing unit 30, the inclination angle obtained by increasing the inclination angle according to the inclination angle as the actual displacement amount included in the deviation determination information from the image determination unit 20 is the deformation amount. Calculated as a quantity.

さらに、デフォルメ処理部30のデフォルメ画像生成部32では、デフォルメ量に従ってデフォルメしたデフォルメ画像が生成され、表示部40で表示される。   Further, in the deformed image generating unit 32 of the deforming processing unit 30, a deformed deformed image is generated according to the deformed amount and displayed on the display unit 40.

ここで、図7では、デフォルメ処理部30において、撮影画像を用いて、デフォルメ画像を生成したが、図10では、例えば、図9の場合と同様に、撮影画像ではなく、グラフィクス画像としての認証中GUIを用いて、デフォルメ画像が生成されている。   Here, in FIG. 7, the deformation processing unit 30 generates a deformed image using the captured image. However, in FIG. 10, for example, as in the case of FIG. 9, authentication as a graphics image instead of a captured image is performed. A deformed image is generated using the middle GUI.

すなわち、デフォルメ処理部30では、実変位量としての傾き角の大きさを大にした傾き角を、デフォルメ量として、そのデフォルメ量に基づき、認証中GUIを傾けた画像が、デフォルメ画像として生成される。   That is, in the deformation processing unit 30, an inclination angle obtained by increasing the inclination angle as the actual displacement amount is used as a deformation amount, and an image in which the authenticating GUI is inclined is generated as a deformation image based on the deformation amount. The

そして、表示部40において、以上のようなデフォルメ画像、すなわち、撮影画像に映るユーザよりも傾いた認証中GUIが表示されることにより、ユーザは、撮影画像に映るユーザが正対しておらず、撮影画像が、(画像利用アプリケーションとしての画像処理部50にとって)適切な画像になっていないことを認識することができる。   The display unit 40 displays the deformed image as described above, that is, the authenticating GUI tilted with respect to the user reflected in the captured image, so that the user does not face the user reflected in the captured image. It can be recognized that the captured image is not an appropriate image (for the image processing unit 50 as an image utilization application).

この場合、ユーザは、デフォルメ画像を見て、スマートフォンとしての画像処理装置の姿勢を、ヨー方向や、ロール方向、ピッチ方向に傾けること等により調整し、適切な撮影画像、すなわち、撮影画像に映るユーザが(スマートフォンとしての画像処理装置(の画像取得部10)に)正対している撮影画像を得ることができる。   In this case, the user looks at the deformed image, adjusts the attitude of the image processing apparatus as a smartphone by tilting it in the yaw direction, the roll direction, the pitch direction, etc., and appears in an appropriate captured image, that is, the captured image. It is possible to obtain a captured image that the user is facing (to the image acquisition device 10 of the image processing apparatus as a smartphone).

なお、図9及び図10の認証中GUIのような、人を想起させないグラフィクス画像を用いて生成するデフォルメ画像は、人(ユーザ)の表情をデフォルメした画像とすることが困難であるため、人の表情以外をデフォルメする図4や、図5、図7の場合等に適用することができる。   Note that a deformed image generated using a graphics image that does not recall a person such as the authenticating GUI in FIGS. 9 and 10 is difficult to obtain a deformed image of a human (user) expression. The present invention can be applied to the cases of FIGS. 4, 5, and 7 that deform other than the above expression.

<デフォルメ量の算出>   <Calculation of deformation amount>

図11は、図1のデフォルメ量算出部31によるデフォルメ量の算出の方法の例を説明する図である。   FIG. 11 is a diagram for explaining an example of a method of calculating the deformation amount by the deformation amount calculation unit 31 of FIG.

デフォルメ量算出部31では、例えば、所定の補間関数に従い、判定部23からのずれ判定情報に含まれる実変位量に対して、デフォルメ量を算出することができる。   The deformation amount calculation unit 31 can calculate the deformation amount with respect to the actual displacement amount included in the deviation determination information from the determination unit 23, for example, according to a predetermined interpolation function.

図11Aは、デフォルメ量を算出するための第1の補間関数の例を示している。   FIG. 11A shows an example of a first interpolation function for calculating the deformation amount.

図11Aの第1の補間関数は、入力値に対して線形の出力値が得られる線形補間関数であり、かかる第1の補間関数によれば、実変位量を所定数(>1)倍した値のデフォルメ量が算出される。   The first interpolation function in FIG. 11A is a linear interpolation function that obtains a linear output value with respect to an input value. According to the first interpolation function, the actual displacement amount is multiplied by a predetermined number (> 1). The deformation amount of the value is calculated.

図11Bは、デフォルメ量を算出するための第2の補間関数の例を示している。   FIG. 11B shows an example of a second interpolation function for calculating the deformation amount.

図11Bの第2の補間関数は、入力値に対して非線形の出力値が得られるスプライン補間関数であり、かかる第2の補間関数によれば、小さい値の実変位量については、線形関数である第1の補間関数の場合よりも大きい値のデフォルメ量が算出され、大きい値の実変位量については、一定値に収束していくような値のデフォルメ量が算出される。   The second interpolation function in FIG. 11B is a spline interpolation function that obtains a non-linear output value with respect to the input value. According to the second interpolation function, the actual displacement amount with a small value is a linear function. A deformation amount having a value larger than that in the case of a certain first interpolation function is calculated, and a deformation amount having a value that converges to a constant value is calculated for a large displacement value.

したがって、第2の補間関数により算出されるデフォルメ量によれば、例えば、図4に示したような、ユーザの位置が中心線上の位置から(右方向に)ずれている撮影画像に対して、ユーザの位置の中心線上の位置からの位置ずれ量が小さいときには、その位置ずれ量を大きくデフォルメ(強調)したデフォルメ画像、すなわち、ユーザの位置が、より大きくずれたデフォルメ画像が生成される。   Therefore, according to the deformation amount calculated by the second interpolation function, for example, for a captured image in which the user's position is shifted from the position on the center line (to the right) as shown in FIG. When the positional deviation amount from the position on the center line of the user position is small, a deformed image in which the positional deviation amount is greatly deformed (emphasized), that is, a deformed image in which the user position is significantly displaced is generated.

一方、位置ずれ量が大きいときには、その位置ずれ量を幾分かデフォルメした(あまりデフォルメしていない)デフォルメ画像、すなわち、例えば、ユーザの位置が、その位置ずれ量とほぼ同程度にずれたデフォルメ画像が生成される。   On the other hand, when the amount of positional deviation is large, a deformed image in which the amount of positional deviation is somewhat deformed (not much deformed), that is, for example, a deformed image in which the position of the user is substantially deviated from the amount of positional deviation. An image is generated.

以上のような第2の補間関数により算出されるデフォルメ量によれば、位置ずれ量が大きい場合に、デフォルメ画像において、ユーザが画枠からはみ出すことを防止すること、あるいは、ユーザが画枠からはみ出す程度を低減することができる。   According to the deformation amount calculated by the second interpolation function as described above, when the displacement amount is large, it is possible to prevent the user from protruding from the image frame in the deformed image, or the user can move out of the image frame. The extent of protrusion can be reduced.

図11Cは、デフォルメ量を算出するための第3の補間関数の例を示している。   FIG. 11C shows an example of a third interpolation function for calculating the deformation amount.

図11Cの第3の補間関数は、入力値に対して非線形の出力値が得られる定数補間関数であり、かかる第3の補間関数によれば、実変位量に対して、段階的に変化するデフォルメ量が算出される。   The third interpolation function in FIG. 11C is a constant interpolation function that can obtain a non-linear output value with respect to the input value. According to the third interpolation function, the third interpolation function changes stepwise with respect to the actual displacement amount. A deformation amount is calculated.

第3の補間関数では、実変位量が多少変化しても、デフォルメ量が変化しないので、例えば、実変位量の変化を、逐次、デフォルメ画像の変化として反映する必要がない場合に有効である。   The third interpolation function is effective when the actual displacement amount does not change even if the actual displacement amount changes to some extent. For example, it is effective when the change in the actual displacement amount need not be sequentially reflected as the deformation image. .

例えば、図8に示したように、撮影画像に映るユーザの表情がまぶたを正常に開いた表情からずれている表情ずれ量を、実変位量として算出し、その実変位量から求められるデフォルメ量に基づき、熊のキャラクタの表情が、撮影画像に映るユーザよりもまぶたを閉じた表情になっている画像を、デフォルメ画像として生成する場合には、デフォルメ量の算出に、第3の補間関数を用いることができる。   For example, as shown in FIG. 8, a facial expression deviation amount in which a user's facial expression reflected in a photographed image deviates from a facial expression in which the eyelids are normally opened is calculated as an actual displacement amount, and a deformation amount obtained from the actual displacement amount is calculated. On the basis of this, when an image in which the facial expression of the bear character is a facial expression in which the eyelid is closed more than the user shown in the captured image is generated as a deformed image, the third interpolation function is used to calculate the deformed amount. be able to.

すなわち、例えば、熊のキャラクタの(グラフィクス)画像として、まぶたを完全に開いている画像、まぶたを半分閉じている(開いている)画像、及び、まぶたを完全に閉じている画像の3種類の画像を用意し、実変位量に対して段階的に変化するデフォルメ量に応じて、デフォルメ画像として生成する画像を、上述の3種類の画像の中から選択することができる。   That is, for example, as a (graphics) image of a bear character, there are three types of images: an image with the eyelids fully open, an image with the eyelids half closed (open), and an image with the eyelids fully closed An image is prepared, and an image to be generated as a deformed image can be selected from the above-described three types of images according to the deformed amount that changes stepwise with respect to the actual displacement amount.

この場合、キャラクタの画像を保持するメモリ領域の削減や、キャラクタの画像を表示部40に描画する処理コストの削減を図ることが可能となる。   In this case, it is possible to reduce the memory area for holding the character image and the processing cost for drawing the character image on the display unit 40.

図11Dは、デフォルメ量を算出するための第4の補間関数の例を示している。   FIG. 11D shows an example of a fourth interpolation function for calculating the deformation amount.

図11Dの第4の補間関数は、図11Aの第1の補間関数と同様に、線形補間関数ではあるが、実変位量が、そのまま、デフォルメ量として算出される関数になっている。   The fourth interpolation function in FIG. 11D is a linear interpolation function similar to the first interpolation function in FIG. 11A, but the actual displacement amount is a function that is calculated as a deformed amount as it is.

図11Dの第4の補間関数は、変位量を、そのままデフォルメ量とし、デフォルメを行っていない画像を、スルー画として表示部40に表示したいとき(一切のデフォルメを行いたくないとき)等に用いることができる。   The fourth interpolation function in FIG. 11D is used when the displacement amount is used as a deformation amount as it is, and an image that has not been deformed is displayed on the display unit 40 as a through image (when it is not desired to perform any deformation). be able to.

デフォルメモードにおいて、第4の補間関数によって、デフォルメ量を算出し、かつ、撮影画像を用いて、デフォルメ画像を生成する場合には、通常モードの場合と同様に、表示部40には、画像取得部10で撮影された撮影画像が、そのままスルー画として表示される。   In the deformed mode, when the deformed amount is calculated by the fourth interpolation function and the deformed image is generated using the captured image, the display unit 40 acquires the image as in the normal mode. The captured image captured by the unit 10 is displayed as a through image as it is.

なお、実変位量を用いたデフォルメ量の算出にあたっては、図11の補間関数以外の関数を用いることが可能である。   In calculating the deformation amount using the actual displacement amount, it is possible to use a function other than the interpolation function of FIG.

以上のように、スマートフォンとしての図1の画像処理装置では、画像を撮影すること等によって取得し、取得された撮影画像(取得画像)が、所望撮影状態からずれている場合に、所望撮影状態からのずれをデフォルメしたデフォルメ画像を生成するので、ユーザに、所望撮影状態を、容易にガイドすることができる。   As described above, in the image processing apparatus of FIG. 1 as a smartphone, when a captured image (acquired image) acquired by capturing an image is deviated from the desired shooting state, the desired shooting state Since a deformed image in which the deviation from is deformed is generated, the user can be easily guided in a desired shooting state.

すなわち、ユーザは、デフォルメ画像を見ることによって、所望撮影状態(例えば、撮影画像に映るユーザが正対していること等)を知らなくても、自然に、撮影画像の、所望撮影状態からのずれを正すような操作(行動)を行うようになり、容易に、所望撮影状態の撮影画像を得ることができる。   That is, the user naturally sees the deformed image without the user knowing the desired shooting state (for example, the user shown in the shot image is directly facing), and the natural deviation of the shot image from the desired shooting state. Thus, an operation (behavior) is performed to correct the image, and a captured image in a desired shooting state can be easily obtained.

したがって、撮影画像を利用する画像利用アプリケーションとしての画像処理部50が、例えば、虹彩認証を行う虹彩認証装置である場合には、容易に、虹彩認証に適切な撮影画像を得ることができる。   Therefore, when the image processing unit 50 as an image use application that uses a photographed image is, for example, an iris authentication device that performs iris authentication, a photographed image suitable for iris authentication can be easily obtained.

ここで、虹彩認証装置では、例えば、特許第3307936号明細書等に記載されているように、一般的に、ユーザの目の画像である目画像をカメラで撮影し、目画像の中の虹彩部分を切り出して、虹彩の特徴を抽出(虹彩データ)した後、あらかじめ虹彩認証装置内に登録しておいた虹彩データと照合して一致した場合に、ユーザが本人であると特定(認証)される。   Here, in the iris authentication device, for example, as described in, for example, Japanese Patent No. 3307936, an eye image that is an image of the user's eye is photographed with a camera, and an iris in the eye image is captured. After extracting the part and extracting the iris characteristics (iris data), the user is identified (authenticated) if the user matches and matches the iris data registered in the iris authentication device in advance. The

かかる虹彩認証装置では、認証精度を維持するために、高精細かつ適切な状態の目の目画像を撮影する必要があるため、表示画面に、ユーザの目画像を高解像度で表示し、ユーザに、表示画面内のある矩形領域に目の位置を合わせてもらうことで、虹彩認証に必要な目画像が撮影される。   In such an iris authentication device, in order to maintain the authentication accuracy, it is necessary to capture a high-definition and appropriate eye image of the eye, so that the user's eye image is displayed at a high resolution on the display screen, The eye image necessary for iris authentication is taken by aligning the eye position with a rectangular area in the display screen.

しかしながら、虹彩認証の操作に不慣れなユーザにとっては、高解像度の表示画面内の矩形領域に目の位置を合わせることは難しく、目の位置合わせに多くの時間がかかることがある。   However, it is difficult for a user who is unfamiliar with the iris authentication operation to align the position of the eye with the rectangular area in the high-resolution display screen, and it may take a long time to align the eye.

さらに、目の位置合わせができた場合であっても、フォーカスが合っておらず、目画像がぼけていることや、閉じ気味のまぶたによって、目の虹彩の一部又は全部が覆われていること、カメラに正対せずに斜めから撮影されていること等が生じ、虹彩認証装置の虹彩認証に適した目画像を得ることが困難であることがある。   In addition, even if the eyes can be aligned, some or all of the iris of the eye is covered by out-of-focus, blurred eye images, or closed eyelids. In other words, it may be difficult to obtain an eye image suitable for iris authentication of the iris authentication device due to the fact that the image is taken obliquely without facing the camera.

また、前述の特許文献1では、虹彩認証装置において、まず低解像度の目画像について、その目画像に映る目が、表示画面内のある矩形領域にあるか否かを判定し、目画像に映る目が、矩形領域にある場合には、目画像を、低解像度の目画像から高解像度の目画像に切り替えて、表示画面に表示し、ユーザに、表示画面内の矩形領域に目の位置を合わせてもらうことを繰り返すことが記載されている。   Further, in Patent Document 1 described above, in the iris authentication apparatus, first, with respect to a low-resolution eye image, it is determined whether or not the eye shown in the eye image is in a rectangular area in the display screen, and is shown in the eye image. If the eye is in a rectangular area, the eye image is switched from a low-resolution eye image to a high-resolution eye image and displayed on the display screen, and the user is positioned on the rectangular area in the display screen. It is described to repeat matching.

しかしながら、かかる虹彩認証装置では、目画像の解像度が切り替えられるたびに、ユーザは、表示画面内の矩形領域に目の位置を合わせなければならず、目の位置合わせができた場合であっても、やはり、上述したように、目画像のフォーカスが合っていないこと等が生じることがある。   However, in such an iris authentication device, every time the resolution of the eye image is switched, the user must align the eye position with the rectangular area in the display screen, and even when the eye position can be aligned. Of course, as described above, the eye image may not be in focus.

一方、スマートフォンとしての図1の画像処理装置では、上述したように、ユーザに、所望撮影状態を、容易にガイドすることができるので、虹彩認証に適切な撮影画像を、容易に得ることができる。   On the other hand, as described above, the image processing apparatus of FIG. 1 as a smartphone can easily guide the user to the desired shooting state, so that a shot image suitable for iris authentication can be easily obtained. .

また、スマートフォンとしての図1の画像処理装置では、ユーザが映った撮影画像ではなく、所定のキャラクタやGUI等のグラフィクス画像を用いて、デフォルメ画像を生成することができるので、画像利用アプリケーションとしての画像処理部50が、例えば、虹彩認証装置である場合に、生体情報が盗撮されることや、目の画像が大きく表示されることに起因して、ユーザが嫌悪感を感じることを防止することができる。   Further, in the image processing apparatus of FIG. 1 as a smartphone, a deformed image can be generated using a graphics image such as a predetermined character or a GUI instead of a captured image showing a user. For example, when the image processing unit 50 is an iris authentication device, it is possible to prevent the user from feeling disgusted due to the sneak shot of biometric information or a large display of an eye image. Can do.

すなわち、グラフィクス画像ではなく、例えば、ユーザが映った撮影画像が表示される場合には、他人に、撮影画像に映ったユーザの虹彩(の画像)等の生体情報が盗撮されることや、撮影画像に大きく映った目の画像に対して、ユーザが嫌悪感を感じることがあり得る。   That is, for example, when a photographed image showing a user is displayed instead of a graphics image, another person can take a voyeur of biological information such as the user's iris (image) reflected in the photographed image, The user may feel disgusted with the image of the eye that appears largely in the image.

ユーザが映った撮影画像ではなく、所定のキャラクタやGUI等のグラフィクス画像を用いて、デフォルメ画像を生成する場合には、上述のような生体情報の盗撮や、ユーザが嫌悪感を感じることを防止することができる。   When generating a deformed image using a graphic image such as a predetermined character or GUI instead of a photographed image shown by the user, it prevents the above-described voyeurism of biometric information and the user's aversion can do.

ここで、撮影画像を利用する画像利用アプリケーションとしては、例えば、上述したように、虹彩認証等を行う認証装置や、マクロ撮影等を補助する撮影補助装置等がある。   Here, examples of the image utilization application that uses the photographed image include an authentication device that performs iris authentication and the like, a photographing assistance device that assists macro photographing, and the like, as described above.

認証装置については、撮影画像に映るユーザの位置が中心線上の位置になっていること、撮影画像に映るユーザにフォーカスが合っていること、撮影画像に映るユーザの表情が、虹彩の全体が見えるように、まぶたを開いた表情になっていること、及び、撮影画像に映るユーザが正対していることのすべてを、所望撮影状態とすることができる。   Regarding the authentication device, the user's position shown in the captured image is on the center line, that the user reflected in the captured image is in focus, and the user's facial expression reflected in the captured image shows the entire iris. As described above, it is possible to make all of the expression that the eyelid is open and that the user reflected in the photographed image is directly facing the desired photographing state.

また、撮影補助装置において、マクロ撮影の補助を行う場合については、撮影画像に映る(大きな)被写体にフォーカスが合っていること、及び、撮影画像に映る被写体の画角が所定の範囲内(所定の最小値から所定の最大値までの範囲内)になっていること等を、所望撮影状態とすることができる。   Also, in the case of assisting macro shooting in the shooting assisting device, the (large) subject appearing in the shot image is in focus, and the angle of view of the subject appearing in the shot image is within a predetermined range (predetermined) In the range from the minimum value to the predetermined maximum value) can be set as a desired photographing state.

なお、本技術は、例えば、ディジタルカメラや、スマートフォン、携帯電話機、タブレット、PC等の、撮影機能が実装されている撮影機能付き機器は勿論、撮影機能を有するか否かにかかわらず、ディジタルカメラ等の撮影装置で撮影された画像を利用するあらゆる画像利用アプリケーションに適用することができる。   Note that the present technology is not limited to a digital camera, a smartphone, a mobile phone, a tablet, a PC, or the like, which has a shooting function, such as a digital camera. The present invention can be applied to any image utilization application that uses an image photographed by a photographing apparatus such as the above.

すなわち、本技術は、例えば、ユーザを撮影し、その撮影によって得られる画像に映るユーザをTV(テレビジョン受像機)等に表示するとともに、ユーザのアクションに応じて進行していくゲームにおいて、撮影画像に映るユーザの適切な大きさや適切な位置に対するずれをデフォルメしたデフォルメ画像を表示することにより、ユーザがゲームにとって適切な大きさで適切な位置に映るように、ユーザをガイドすることができる。   That is, for example, the present technology shoots a user in a game in which a user is photographed, and a user reflected in an image obtained by the photographing is displayed on a TV (television receiver) or the like and progresses according to the user's action. By displaying a deformed image obtained by deforming a user's appropriate size and an appropriate position in the image, the user can be guided so that the user appears in an appropriate position with an appropriate size for the game.

また、本技術は、例えば、小型のカメラを搭載したメガネ型の、いわゆるウェアラブルグラスにおいて、カメラで撮影されるべき適切な画像に対するずれをデフォルメしたデフォルメ画像を表示することにより、ユーザが、ウェアラブルメガネを適切に装着する(かける)ことをガイドするアプリケーションに適用することができる。   In addition, the present technology displays, for example, a deformed image in which a deviation from an appropriate image to be photographed by a camera is displayed in a so-called wearable glass having a small camera, so that the user can wear the wearable glasses. It can be applied to an application that guides the user to properly wear (apply).

さらに、本技術は、例えば、ディジタルカメラでの撮影において、ディジタルカメラが、ヨー方向や、ロール方向、ピッチ方向に傾いていることに起因して、撮影画像が傾いている場合に、その傾きをデフォルメしたデフォルメ画像を表示することにより、ディジタルカメラが傾いていることを、ユーザに報知し、ディジタルカメラの傾きを修正することを促すアプリケーションに適用することができる。   Furthermore, in the present technology, for example, in photographing with a digital camera, when the photographed image is inclined due to the digital camera being inclined in the yaw direction, the roll direction, or the pitch direction, the inclination is reduced. By displaying the deformed deformed image, it can be applied to an application that notifies the user that the digital camera is tilted and prompts the user to correct the tilt of the digital camera.

ここで、例えば、スマートフォンには、いわば主要な表示を行う表示面と、その表示面と反対側の面との両方にカメラが設けられている場合があるが、本技術は、表示面に設けられたカメラ(内向きカメラ)で撮影された画像と、表示面と反対側の面に設けられたカメラ(外向きカメラ)で撮影された画像とのいずれにも適用することができる。   Here, for example, a smartphone may be provided with a camera on both the display surface that performs main display and the surface opposite to the display surface, but the present technology is provided on the display surface. The present invention can be applied to both an image photographed by a provided camera (inward camera) and an image photographed by a camera (outward camera) provided on a surface opposite to the display surface.

また、本技術は、静止画、及び、動画のいずれにも適用することができる。   The present technology can be applied to both still images and moving images.

<本技術を適用したコンピュータの説明>   <Description of computer to which this technology is applied>

次に、上述した一連の処理は、ハードウェアにより行うこともできるし、ソフトウェアにより行うこともできる。一連の処理をソフトウェアによって行う場合には、そのソフトウェアを構成するプログラムが、汎用のコンピュータ等にインストールされる。   Next, the series of processes described above can be performed by hardware or software. When a series of processing is performed by software, a program constituting the software is installed in a general-purpose computer or the like.

そこで、図12は、上述した一連の処理を実行するプログラムがインストールされるコンピュータの一実施の形態の構成例を示している。   Therefore, FIG. 12 shows a configuration example of an embodiment of a computer in which a program for executing the series of processes described above is installed.

プログラムは、コンピュータに内蔵されている記録媒体としてのハードディスク105やROM103に予め記録しておくことができる。   The program can be recorded in advance on a hard disk 105 or a ROM 103 as a recording medium built in the computer.

あるいはまた、プログラムは、リムーバブル記録媒体111に格納(記録)しておくことができる。このようなリムーバブル記録媒体111は、いわゆるパッケージソフトウエアとして提供することができる。ここで、リムーバブル記録媒体111としては、例えば、フレキシブルディスク、CD-ROM(Compact Disc Read Only Memory),MO(Magneto Optical)ディスク,DVD(Digital Versatile Disc)、磁気ディスク、半導体メモリ等がある。   Alternatively, the program can be stored (recorded) in the removable recording medium 111. Such a removable recording medium 111 can be provided as so-called package software. Here, examples of the removable recording medium 111 include a flexible disk, a CD-ROM (Compact Disc Read Only Memory), an MO (Magneto Optical) disk, a DVD (Digital Versatile Disc), a magnetic disk, and a semiconductor memory.

なお、プログラムは、上述したようなリムーバブル記録媒体111からコンピュータにインストールする他、通信網や放送網を介して、コンピュータにダウンロードし、内蔵するハードディスク105にインストールすることができる。すなわち、プログラムは、例えば、ダウンロードサイトから、ディジタル衛星放送用の人工衛星を介して、コンピュータに無線で転送したり、LAN(Local Area Network)、インターネットといったネットワークを介して、コンピュータに有線で転送することができる。   In addition to installing the program from the removable recording medium 111 as described above, the program can be downloaded to the computer via a communication network or a broadcast network, and can be installed in the built-in hard disk 105. That is, for example, the program is wirelessly transferred from a download site to a computer via a digital satellite broadcasting artificial satellite, or wired to a computer via a network such as a LAN (Local Area Network) or the Internet. be able to.

コンピュータは、CPU(Central Processing Unit)102を内蔵しており、CPU102には、バス101を介して、入出力インタフェース110が接続されている。   The computer incorporates a CPU (Central Processing Unit) 102, and an input / output interface 110 is connected to the CPU 102 via a bus 101.

CPU102は、入出力インタフェース110を介して、ユーザによって、入力部107が操作等されることにより指令が入力されると、それに従って、ROM(Read Only Memory)103に格納されているプログラムを実行する。あるいは、CPU102は、ハードディスク105に格納されたプログラムを、RAM(Random Access Memory)104にロードして実行する。   The CPU 102 executes a program stored in a ROM (Read Only Memory) 103 according to a command input by the user by operating the input unit 107 or the like via the input / output interface 110. . Alternatively, the CPU 102 loads a program stored in the hard disk 105 to a RAM (Random Access Memory) 104 and executes it.

これにより、CPU102は、上述したフローチャートにしたがった処理、あるいは上述したブロック図の構成により行われる処理を行う。そして、CPU102は、その処理結果を、必要に応じて、例えば、入出力インタフェース110を介して、出力部106から出力、あるいは、通信部108から送信、さらには、ハードディスク105に記録等させる。   Thus, the CPU 102 performs processing according to the above-described flowchart or processing performed by the configuration of the above-described block diagram. Then, the CPU 102 outputs the processing result as necessary, for example, via the input / output interface 110, from the output unit 106, transmitted from the communication unit 108, and further recorded in the hard disk 105.

なお、入力部107は、キーボードや、マウス、マイク等で構成される。また、出力部106は、LCD(Liquid Crystal Display)やスピーカ等で構成される。   The input unit 107 includes a keyboard, a mouse, a microphone, and the like. The output unit 106 includes an LCD (Liquid Crystal Display), a speaker, and the like.

ここで、本明細書において、コンピュータがプログラムに従って行う処理は、必ずしもフローチャートとして記載された順序に沿って時系列に行われる必要はない。すなわち、コンピュータがプログラムに従って行う処理は、並列的あるいは個別に実行される処理(例えば、並列処理あるいはオブジェクトによる処理)も含む。   Here, in the present specification, the processing performed by the computer according to the program does not necessarily have to be performed in time series in the order described as the flowchart. That is, the processing performed by the computer according to the program includes processing executed in parallel or individually (for example, parallel processing or object processing).

また、プログラムは、1のコンピュータ(プロセッサ)により処理されるものであっても良いし、複数のコンピュータによって分散処理されるものであっても良い。さらに、プログラムは、遠方のコンピュータに転送されて実行されるものであっても良い。   The program may be processed by one computer (processor), or may be processed in a distributed manner by a plurality of computers. Furthermore, the program may be transferred to a remote computer and executed.

さらに、本明細書において、システムとは、複数の構成要素(装置、モジュール(部品)等)の集合を意味し、すべての構成要素が同一筐体中にあるか否かは問わない。したがって、別個の筐体に収納され、ネットワークを介して接続されている複数の装置、及び、1つの筐体の中に複数のモジュールが収納されている1つの装置は、いずれも、システムである。   Furthermore, in this specification, the system means a set of a plurality of components (devices, modules (parts), etc.), and it does not matter whether all the components are in the same housing. Accordingly, a plurality of devices housed in separate housings and connected via a network and a single device housing a plurality of modules in one housing are all systems. .

なお、本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。   The embodiments of the present technology are not limited to the above-described embodiments, and various modifications can be made without departing from the gist of the present technology.

例えば、本技術は、1つの機能をネットワークを介して複数の装置で分担、共同して処理するクラウドコンピューティングの構成をとることができる。   For example, the present technology can take a configuration of cloud computing in which one function is shared by a plurality of devices via a network and is jointly processed.

また、上述のフローチャートで説明した各ステップは、1つの装置で実行する他、複数の装置で分担して実行することができる。   In addition, each step described in the above flowchart can be executed by being shared by a plurality of apparatuses in addition to being executed by one apparatus.

さらに、1つのステップに複数の処理が含まれる場合には、その1つのステップに含まれる複数の処理は、1つの装置で実行する他、複数の装置で分担して実行することができる。   Furthermore, when a plurality of processes are included in one step, the plurality of processes included in the one step can be executed by being shared by a plurality of apparatuses in addition to being executed by one apparatus.

なお、本技術は、以下のような構成をとることができる。   In addition, this technique can take the following structures.

<1>
画像を取得する画像取得部によって取得された取得画像が、所望の撮影状態からずれている場合に、前記所望の撮影状態からのずれを大きくした大ずれ画像を生成する画像生成部を備える
画像処理装置。
<2>
前記画像生成部は、前記取得画像に映る被写体の位置が所定の位置からずれている場合に、前記被写体の位置ずれを大きくした前記大ずれ画像を生成する
<1>に記載の画像処理装置。
<3>
前記画像生成部は、前記取得画像に映る被写体がぼけている場合に、前記被写体のぼけを大きくした前記大ずれ画像を生成する
<1>に記載の画像処理装置。
<4>
前記画像生成部は、前記取得画像に映る被写体の表情が所定の表情からずれている場合に、前記被写体の表情ずれを大きくした前記大ずれ画像を生成する
<1>に記載の画像処理装置。
<5>
前記画像生成部は、前記取得画像に映る被写体が正対せずに傾いている場合に、前記被写体の傾きを大きくした前記大ずれ画像を生成する
<1>に記載の画像処理装置。
<6>
前記画像生成部は、前記取得画像を用いた前記大ずれ画像を生成する
<1>ないし<5>のいずれかに記載の画像処理装置。
<7>
前記画像生成部は、所定のグラフィクス画像を用いた前記大ずれ画像を生成する
<1>ないし<5>のいずれかに記載の画像処理装置。
<8>
前記画像取得部によって取得された取得画像の状態と、所望の撮影状態とのずれ量である実変位量を算出する実変位量算出部と、
前記実変位量に応じて、前記大ずれ画像のずれ量である大ずれ量を算出する大ずれ量算出部と
をさらに備え、
前記画像生成部は、前記大ずれ量に従って、前記所望の撮影状態からのずれを大きくした大ずれ画像を生成し、
前記大ずれ量は、前記実変位量に対して、線形、又は、非線形に変化する
<1>ないし<7>のいずれかに記載の画像処理装置。
<9>
前記画像取得部と、
前記大ずれ画像を表示する表示部と
をさらに備える
<1>ないし<8>のいずれかに記載の画像処理装置。
<10>
画像を取得する画像取得部によって取得された取得画像が、所望の撮影状態からずれている場合に、前記所望の撮影状態からのずれを大きくした大ずれ画像を生成する
ステップを含む画像処理方法。
<11>
画像を取得する画像取得部によって取得された取得画像が、所望の撮影状態からずれている場合に、前記所望の撮影状態からのずれを大きくした大ずれ画像を生成する画像生成部
として、コンピュータを機能させるためのプログラム。
<1>
When the acquired image acquired by the image acquiring unit that acquires an image is deviated from a desired shooting state, the image processing unit includes an image generation unit that generates a large shift image with a large shift from the desired shooting state. apparatus.
<2>
The image processing device according to <1>, wherein the image generation unit generates the large shift image in which the position shift of the subject is increased when the position of the subject shown in the acquired image is shifted from a predetermined position.
<3>
The image processing device according to <1>, wherein the image generation unit generates the large deviation image in which the blur of the subject is increased when the subject reflected in the acquired image is blurred.
<4>
The image processing device according to <1>, wherein the image generation unit generates the large displacement image in which the subject's facial expression shift is increased when the facial expression of the subject reflected in the acquired image deviates from a predetermined facial expression.
<5>
The image processing device according to <1>, wherein the image generation unit generates the large deviation image in which the inclination of the subject is increased when the subject shown in the acquired image is tilted without facing.
<6>
The image processing device according to any one of <1> to <5>, wherein the image generation unit generates the large shift image using the acquired image.
<7>
The image processing device according to any one of <1> to <5>, wherein the image generation unit generates the large shift image using a predetermined graphics image.
<8>
An actual displacement amount calculation unit that calculates an actual displacement amount that is a deviation amount between the state of the acquired image acquired by the image acquisition unit and a desired shooting state;
A large deviation amount calculating unit that calculates a large deviation amount that is a deviation amount of the large deviation image according to the actual displacement amount;
The image generation unit generates a large shift image with a large shift from the desired shooting state according to the large shift amount,
The image processing device according to any one of <1> to <7>, wherein the large deviation amount changes linearly or nonlinearly with respect to the actual displacement amount.
<9>
The image acquisition unit;
The image processing apparatus according to any one of <1> to <8>, further comprising: a display unit that displays the large deviation image.
<10>
An image processing method including a step of generating a large shift image in which a shift from a desired shooting state is increased when an acquired image acquired by an image acquisition unit that acquires an image is shifted from a desired shooting state.
<11>
When the acquired image acquired by the image acquiring unit that acquires the image is deviated from the desired shooting state, the computer is used as an image generating unit that generates a large shift image with a large shift from the desired shooting state. A program to make it work.

10 画像取得部, 20 画像判定部, 21 実変位量算出部, 22 所望撮影状態設定部, 23 判定部, 30 デフォルメ処理部, 31 デフォルメ量算出部, 32 デフォルメ画像生成部, 40 表示部, 50 画像処理部, 60 保存部, 70 操作部, 80 制御部, 101 バス, 102 CPU, 103 ROM, 104 RAM, 105 ハードディスク, 106 出力部, 107 入力部, 108 通信部, 109 ドライブ, 110 入出力インタフェース, 111 リムーバブル記録媒体   DESCRIPTION OF SYMBOLS 10 Image acquisition part, 20 Image determination part, 21 Actual displacement amount calculation part, 22 Desired imaging | photography state setting part, 23 Determination part, 30 Deformation process part, 31 Deformation amount calculation part, 32 Deformation image generation part, 40 Display part, 50 Image processing unit, 60 storage unit, 70 operation unit, 80 control unit, 101 bus, 102 CPU, 103 ROM, 104 RAM, 105 hard disk, 106 output unit, 107 input unit, 108 communication unit, 109 drive, 110 I / O interface 111 Removable recording media

Claims (11)

画像を取得する画像取得部によって取得された取得画像が、所望の撮影状態からずれている場合に、前記所望の撮影状態からのずれを大きくした大ずれ画像を生成する画像生成部を備える
画像処理装置。
When the acquired image acquired by the image acquiring unit that acquires an image is deviated from a desired shooting state, the image processing unit includes an image generation unit that generates a large shift image with a large shift from the desired shooting state. apparatus.
前記画像生成部は、前記取得画像に映る被写体の位置が所定の位置からずれている場合に、前記被写体の位置ずれを大きくした前記大ずれ画像を生成する
請求項1に記載の画像処理装置。
The image processing apparatus according to claim 1, wherein the image generation unit generates the large shift image in which the position shift of the subject is increased when the position of the subject shown in the acquired image is shifted from a predetermined position.
前記画像生成部は、前記取得画像に映る被写体がぼけている場合に、前記被写体のぼけを大きくした前記大ずれ画像を生成する
請求項1に記載の画像処理装置。
The image processing apparatus according to claim 1, wherein the image generation unit generates the large shift image in which the blur of the subject is increased when the subject reflected in the acquired image is blurred.
前記画像生成部は、前記取得画像に映る被写体の表情が所定の表情からずれている場合に、前記被写体の表情ずれを大きくした前記大ずれ画像を生成する
請求項1に記載の画像処理装置。
The image processing apparatus according to claim 1, wherein the image generation unit generates the large deviation image in which the expression deviation of the subject is increased when the expression of the subject reflected in the acquired image is deviated from a predetermined expression.
前記画像生成部は、前記取得画像に映る被写体が正対せずに傾いている場合に、前記被写体の傾きを大きくした前記大ずれ画像を生成する
請求項1に記載の画像処理装置。
The image processing apparatus according to claim 1, wherein the image generation unit generates the large deviation image in which the inclination of the subject is increased when the subject reflected in the acquired image is tilted without facing.
前記画像生成部は、前記取得画像を用いた前記大ずれ画像を生成する
請求項1に記載の画像処理装置。
The image processing apparatus according to claim 1, wherein the image generation unit generates the large displacement image using the acquired image.
前記画像生成部は、所定のグラフィクス画像を用いた前記大ずれ画像を生成する
請求項1に記載の画像処理装置。
The image processing apparatus according to claim 1, wherein the image generation unit generates the large shift image using a predetermined graphics image.
前記画像取得部によって取得された取得画像の状態と、所望の撮影状態とのずれ量である実変位量を算出する実変位量算出部と、
前記実変位量に応じて、前記大ずれ画像のずれ量である大ずれ量を算出する大ずれ量算出部と
をさらに備え、
前記画像生成部は、前記大ずれ量に従って、前記所望の撮影状態からのずれを大きくした大ずれ画像を生成し、
前記大ずれ量は、前記実変位量に対して、線形、又は、非線形に変化する
請求項1に記載の画像処理装置。
An actual displacement amount calculation unit that calculates an actual displacement amount that is a deviation amount between the state of the acquired image acquired by the image acquisition unit and a desired shooting state;
A large deviation amount calculating unit that calculates a large deviation amount that is a deviation amount of the large deviation image according to the actual displacement amount;
The image generation unit generates a large shift image with a large shift from the desired shooting state according to the large shift amount,
The image processing apparatus according to claim 1, wherein the large deviation amount changes linearly or nonlinearly with respect to the actual displacement amount.
前記画像取得部と、
前記大ずれ画像を表示する表示部と
をさらに備える
請求項1に記載の画像処理装置。
The image acquisition unit;
The image processing apparatus according to claim 1, further comprising: a display unit that displays the large deviation image.
画像を取得する画像取得部によって取得された取得画像が、所望の撮影状態からずれている場合に、前記所望の撮影状態からのずれを大きくした大ずれ画像を生成する
ステップを含む画像処理方法。
An image processing method including a step of generating a large shift image in which a shift from a desired shooting state is increased when an acquired image acquired by an image acquisition unit that acquires an image is shifted from a desired shooting state.
画像を取得する画像取得部によって取得された取得画像が、所望の撮影状態からずれている場合に、前記所望の撮影状態からのずれを大きくした大ずれ画像を生成する画像生成部
として、コンピュータを機能させるためのプログラム。
When the acquired image acquired by the image acquiring unit that acquires the image is deviated from the desired shooting state, the computer is used as an image generating unit that generates a large shift image with a large shift from the desired shooting state. A program to make it work.
JP2013133670A 2013-06-26 2013-06-26 Image processing apparatus, image processing method, and program Pending JP2015012304A (en)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2013133670A JP2015012304A (en) 2013-06-26 2013-06-26 Image processing apparatus, image processing method, and program
EP14735690.1A EP3014520B1 (en) 2013-06-26 2014-06-18 Image processing apparatus, image processing method, and program
PCT/JP2014/003265 WO2014208052A1 (en) 2013-06-26 2014-06-18 Image processing apparatus, image processing method, and program
CN201480034946.8A CN105324781B (en) 2013-06-26 2014-06-18 Image processing equipment, image processing method and program
US14/901,681 US10956733B2 (en) 2013-06-26 2014-06-18 Image processing apparatus and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013133670A JP2015012304A (en) 2013-06-26 2013-06-26 Image processing apparatus, image processing method, and program

Publications (1)

Publication Number Publication Date
JP2015012304A true JP2015012304A (en) 2015-01-19

Family

ID=51063757

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013133670A Pending JP2015012304A (en) 2013-06-26 2013-06-26 Image processing apparatus, image processing method, and program

Country Status (5)

Country Link
US (1) US10956733B2 (en)
EP (1) EP3014520B1 (en)
JP (1) JP2015012304A (en)
CN (1) CN105324781B (en)
WO (1) WO2014208052A1 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017055250A (en) * 2015-09-09 2017-03-16 富士通株式会社 Display control apparatus, display control method, and display control program
JP2017208638A (en) * 2016-05-17 2017-11-24 レノボ・シンガポール・プライベート・リミテッド Iris authentication device, iris authentication method, and program
JP2018536243A (en) * 2015-12-04 2018-12-06 アリババ・グループ・ホールディング・リミテッドAlibaba Group Holding Limited Apparatus and method for displaying a display object according to real-time information
JP2020509441A (en) * 2017-03-15 2020-03-26 アリババ・グループ・ホールディング・リミテッドAlibaba Group Holding Limited Virtual reality environment-based ID authentication method and apparatus
WO2020203744A1 (en) * 2019-03-29 2020-10-08 グローリー株式会社 Authentication system and authentication method
US11348369B2 (en) 2016-11-29 2022-05-31 Advanced New Technologies Co., Ltd. Service control and user identity authentication based on virtual reality

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105611153B (en) * 2015-12-21 2019-09-24 联想(北京)有限公司 Image processing method and electronic equipment
KR102627244B1 (en) * 2016-11-30 2024-01-22 삼성전자주식회사 Electronic device and method for displaying image for iris recognition in electronic device
EP3905658A4 (en) * 2018-12-28 2022-02-23 Sony Group Corporation Information processing device, information processing method, and information processing program
JP2022125529A (en) * 2021-02-17 2022-08-29 キヤノン株式会社 Imaging device and control method of imaging device, and program

Family Cites Families (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5291560A (en) 1991-07-15 1994-03-01 Iri Scan Incorporated Biometric personal identification system based on iris analysis
JP4114959B2 (en) * 1995-06-20 2008-07-09 キヤノン株式会社 Image processing method and apparatus
US20030169334A1 (en) 2001-08-06 2003-09-11 Michael Braithwaite Iris capture device having expanded capture volume
JP3868273B2 (en) * 2001-11-16 2007-01-17 オリンパス株式会社 Camera shake detection method
US7135123B1 (en) * 2004-01-14 2006-11-14 Credence Systems Corporation Method and system for integrated circuit backside navigation
JP4489608B2 (en) * 2004-03-31 2010-06-23 富士フイルム株式会社 DIGITAL STILL CAMERA, IMAGE REPRODUCTION DEVICE, FACE IMAGE DISPLAY DEVICE, AND CONTROL METHOD THEREOF
FR2870948B1 (en) * 2004-05-25 2006-09-01 Sagem DEVICE FOR POSITIONING A USER BY DISPLAYING ITS MIRROR IMAGE, IMAGE CAPTURE DEVICE AND CORRESPONDING POSITIONING METHOD
JP2005334402A (en) 2004-05-28 2005-12-08 Sanyo Electric Co Ltd Method and device for authentication
JPWO2008012905A1 (en) * 2006-07-27 2009-12-17 パナソニック株式会社 Authentication apparatus and authentication image display method
JP4582423B2 (en) * 2007-04-20 2010-11-17 富士フイルム株式会社 Imaging apparatus, image processing apparatus, imaging method, and image processing method
JP5076744B2 (en) * 2007-08-30 2012-11-21 セイコーエプソン株式会社 Image processing device
JP2009199392A (en) 2008-02-22 2009-09-03 Oki Electric Ind Co Ltd Iris authentication method and iris authentication apparatus
JP5115398B2 (en) * 2008-08-27 2013-01-09 セイコーエプソン株式会社 Image processing apparatus, image processing method, and image processing program
US8788977B2 (en) * 2008-11-20 2014-07-22 Amazon Technologies, Inc. Movement recognition as input mechanism
JP4645746B2 (en) * 2009-02-06 2011-03-09 ソニー株式会社 Image processing apparatus, image processing method, and imaging apparatus
US8903195B2 (en) * 2009-02-19 2014-12-02 Nec Corporation Specification of an area where a relationship of pixels between images becomes inappropriate
JP5346266B2 (en) * 2009-09-30 2013-11-20 富士フイルム株式会社 Image processing apparatus, camera, and image processing method
JP5241782B2 (en) * 2010-07-30 2013-07-17 株式会社日立製作所 Surveillance camera system having a camera abnormality detection device
JP5577939B2 (en) * 2010-08-20 2014-08-27 ソニー株式会社 Imaging apparatus, aberration correction method, and program
CN102714696B (en) * 2010-11-11 2016-03-02 松下电器(美国)知识产权公司 Image processing apparatus, image processing method and camera
WO2012132486A1 (en) * 2011-03-31 2012-10-04 富士フイルム株式会社 Imaging device, imaging method, program, and program storage medium
CN103139572B (en) * 2011-11-24 2016-12-07 比亚迪股份有限公司 Photosensitive device and for its white balance method and device
CN102609957A (en) * 2012-01-16 2012-07-25 上海智觉光电科技有限公司 Method and system for detecting picture offset of camera device
US9424767B2 (en) * 2012-06-18 2016-08-23 Microsoft Technology Licensing, Llc Local rendering of text in image
CN103020936B (en) * 2012-12-12 2016-05-04 湖北微驾技术有限公司 A kind of face image super-resolution reconstructing method

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017055250A (en) * 2015-09-09 2017-03-16 富士通株式会社 Display control apparatus, display control method, and display control program
JP2018536243A (en) * 2015-12-04 2018-12-06 アリババ・グループ・ホールディング・リミテッドAlibaba Group Holding Limited Apparatus and method for displaying a display object according to real-time information
US10551912B2 (en) 2015-12-04 2020-02-04 Alibaba Group Holding Limited Method and apparatus for displaying display object according to real-time information
JP2017208638A (en) * 2016-05-17 2017-11-24 レノボ・シンガポール・プライベート・リミテッド Iris authentication device, iris authentication method, and program
US11348369B2 (en) 2016-11-29 2022-05-31 Advanced New Technologies Co., Ltd. Service control and user identity authentication based on virtual reality
US11783632B2 (en) 2016-11-29 2023-10-10 Advanced New Technologies Co., Ltd. Service control and user identity authentication based on virtual reality
JP2020509441A (en) * 2017-03-15 2020-03-26 アリババ・グループ・ホールディング・リミテッドAlibaba Group Holding Limited Virtual reality environment-based ID authentication method and apparatus
US10846388B2 (en) 2017-03-15 2020-11-24 Advanced New Technologies Co., Ltd. Virtual reality environment-based identity authentication method and apparatus
WO2020203744A1 (en) * 2019-03-29 2020-10-08 グローリー株式会社 Authentication system and authentication method
JP2020166597A (en) * 2019-03-29 2020-10-08 グローリー株式会社 Authentication system and authentication method
JP7303654B2 (en) 2019-03-29 2023-07-05 グローリー株式会社 Authentication system and authentication method

Also Published As

Publication number Publication date
US20160371812A1 (en) 2016-12-22
EP3014520A1 (en) 2016-05-04
EP3014520B1 (en) 2019-11-20
WO2014208052A1 (en) 2014-12-31
US10956733B2 (en) 2021-03-23
CN105324781A (en) 2016-02-10
CN105324781B (en) 2019-11-22

Similar Documents

Publication Publication Date Title
JP2015012304A (en) Image processing apparatus, image processing method, and program
US9948863B2 (en) Self-timer preview image presentation method and apparatus, and terminal
JP6165459B2 (en) Method for correcting user&#39;s line of sight in video, machine-readable storage medium, and portable terminal
CN107566732B (en) Method for controlling camera of device and device thereof
TWI706379B (en) Method, apparatus and electronic device for image processing and storage medium thereof
JP6330036B2 (en) Image processing apparatus and image display apparatus
JP5450739B2 (en) Image processing apparatus and image display apparatus
JP2019075162A (en) Image processing apparatus
EP2605503A2 (en) Display apparatus and method
KR20110054311A (en) Image processing method and apparatus
US11989345B1 (en) Machine learning based forecasting of human gaze
JP2018152787A (en) Imaging device, external device, imaging system, imaging method, operation method, and program
JP2009171428A (en) Control method and program for digital camera apparatus and electronic zoom
US20170142346A1 (en) Electronic device and image processing method thereof
US11706378B2 (en) Electronic device and method of controlling electronic device
KR102146856B1 (en) Method of displaying a photographing mode using lens characteristics, Computer readable storage medium of recording the method and a digital photographing apparatus.
WO2018196854A1 (en) Photographing method, photographing apparatus and mobile terminal
US10817992B2 (en) Systems and methods to create a dynamic blur effect in visual content
JP2017037375A (en) Imaging apparatus and control method thereof
KR20160149945A (en) Mobile terminal
WO2023224664A1 (en) Fusing optically zoomed images into one digitally zoomed image
CN115118879A (en) Image shooting and displaying method and device, electronic equipment and readable storage medium
JP2022041258A (en) Terminal device, method, and program
JP2015088783A (en) Photographic apparatus, display method, and display control program
CN114830176A (en) Asymmetric normalized correlation layer for deep neural network feature matching