[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2018078528A - Image analysis device, image analysis method, and program - Google Patents

Image analysis device, image analysis method, and program Download PDF

Info

Publication number
JP2018078528A
JP2018078528A JP2016220935A JP2016220935A JP2018078528A JP 2018078528 A JP2018078528 A JP 2018078528A JP 2016220935 A JP2016220935 A JP 2016220935A JP 2016220935 A JP2016220935 A JP 2016220935A JP 2018078528 A JP2018078528 A JP 2018078528A
Authority
JP
Japan
Prior art keywords
imaging
unit
image
image data
distance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016220935A
Other languages
Japanese (ja)
Inventor
雄一郎 森
Yuichiro Mori
雄一郎 森
めぐみ 関野
Megumi Sekino
めぐみ 関野
拓伸 吉川
Hironobu Yoshikawa
拓伸 吉川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shiseido Co Ltd
Original Assignee
Shiseido Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shiseido Co Ltd filed Critical Shiseido Co Ltd
Priority to JP2016220935A priority Critical patent/JP2018078528A/en
Publication of JP2018078528A publication Critical patent/JP2018078528A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Focusing (AREA)
  • Automatic Focus Adjustment (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an image analysis device, an image analysis method, and a program capable of easily obtaining a clear image when imaging is performed close to a human body surface.SOLUTION: An image analysis device includes an imaging unit that captures image data of two or more frames at a predetermined frame rate, a control unit that fixes a focal distance of the imaging unit by disabling an autofocus function of the imaging unit, starts imaging in a state in which the imaging unit is located in a first distance different from the focal distance for the imaged portion of a human body surface, and continues the imaging until the imaging unit moves to a location at which the imaging unit exceeds the focal distance with respect to the imaged portion and reaches the second distance, an obtaining unit that obtains image data in which the energy of a frequency component based on the sharpness of the imaged portion is maximum from the image data of two or more frames, and an analysis unit that analyzes the image data that has been obtained by the obtaining unit.SELECTED DRAWING: Figure 3

Description

本発明は、画像解析装置、画像解析方法およびプログラムに関し、特に人体表面を測定するための画像解析装置、画像解析方法およびプログラムに関する。   The present invention relates to an image analysis apparatus, an image analysis method, and a program, and more particularly to an image analysis apparatus, an image analysis method, and a program for measuring a human body surface.

スマートフォン、タブレット端末などに設けられたカメラを用いて人体表面を撮像し、得られた画像に基づいて人体表面の状態を解析する技術が知られている。特許文献1には、スマートフォンのカメラを用いて顔を撮像し、顔画像から肌のシミまたはシワを検出するアプリケーションプログラムが開示されている。特許文献2には、タブレット端末のカメラを用いて肌を撮像し、肌画像の輝度に基づいてメラニン沈着量を算出するアプリケーションプログラムが開示されている。   A technique is known in which a human body surface is imaged using a camera provided in a smartphone, a tablet terminal, or the like, and the state of the human body surface is analyzed based on the obtained image. Patent Document 1 discloses an application program that captures an image of a face using a smartphone camera and detects skin spots or wrinkles from the face image. Patent Document 2 discloses an application program that captures skin using a camera of a tablet terminal and calculates the amount of melanin deposition based on the luminance of the skin image.

特開2014−219781号公報JP 2014-219781 A 特開2015−173762号公報Japanese Patent Laying-Open No. 2015-173762

特許文献1および2に開示された技術においては、カメラを人体表面に近づけて撮像を行う必要がある。カメラは、通常、オートフォーカス機能を有しており、鮮明な画像を容易に撮像することができる。しかしながら、人体表面とカメラとの間の距離が非常に近い場合、オートフォーカス機能が適切に動作せず、鮮明な画像を撮像することが困難になる可能性がある。   In the techniques disclosed in Patent Documents 1 and 2, it is necessary to perform imaging by bringing the camera close to the human body surface. A camera usually has an autofocus function and can easily capture a clear image. However, when the distance between the human body surface and the camera is very short, the autofocus function does not operate properly, and it may be difficult to capture a clear image.

本発明はこのような問題に鑑みてなされたもので、人体表面に近接して撮像を行う際に、鮮明な画像を容易に取得することが可能な画像解析装置、画像解析方法およびプログラムを提供することを目的とする。   The present invention has been made in view of such a problem, and provides an image analysis apparatus, an image analysis method, and a program capable of easily acquiring a clear image when imaging close to a human body surface. The purpose is to do.

本発明に係る画像解析装置は、所定のフレームレートで複数フレームの画像データの撮像を行う撮像部と、前記撮像部のオートフォーカス機能を無効にすることで前記撮像部の合焦距離を固定し、前記撮像部が人体表面の撮像部位に対して前記合焦距離とは異なる第1の距離に位置する状態において前記撮像を開始し、前記撮像部が前記撮像部位に対して前記合焦距離を越えて第2の距離となる位置に移動するまで前記撮像を継続する制御部と、前記複数フレームの画像データから、前記撮像部位の鮮鋭度に基づく周波数成分のエネルギーが最大の前記画像データを取得する取得部と、前記取得部により取得された前記画像データを解析する解析部とを備える。   An image analysis apparatus according to the present invention fixes an in-focus distance of an image capturing unit that captures image data of a plurality of frames at a predetermined frame rate, and invalidating an autofocus function of the image capturing unit. The imaging unit starts the imaging in a state where the imaging unit is located at a first distance different from the in-focus distance with respect to the imaging site on the human body surface, and the imaging unit sets the in-focus distance to the imaging site. The control unit that continues the imaging until it moves to a position that becomes the second distance beyond, and the image data with the maximum frequency component energy based on the sharpness of the imaging region is acquired from the image data of the plurality of frames And an analysis unit that analyzes the image data acquired by the acquisition unit.

本発明に係る画像解析方法は、撮像部のオートフォーカス機能を無効にすることで前記撮像部の合焦距離を固定するステップと、前記撮像部が人体表面の撮像部位に対して前記合焦距離とは異なる第1の距離に位置する状態において、所定のフレームレートで複数フレームの画像データの撮像を開始するステップと、前記撮像部が前記撮像部位に対して前記合焦距離を越えて第2の距離となる位置に移動するまで、前記撮像を継続するステップと、前記複数フレームの画像データから、前記撮像部位の鮮鋭度に基づく周波数成分のエネルギーが最大の前記画像データを取得するステップと、取得した前記画像データを解析するステップとを備える。   The image analysis method according to the present invention includes a step of fixing a focusing distance of the imaging unit by disabling an autofocus function of the imaging unit, and the focusing distance of the imaging unit with respect to an imaging site on a human body surface A step of starting imaging of image data of a plurality of frames at a predetermined frame rate in a state where the imaging unit is positioned at a first distance different from the first distance; The step of continuing the imaging until moving to the position of the distance, obtaining the image data having the maximum frequency component energy based on the sharpness of the imaging region from the image data of the plurality of frames, Analyzing the acquired image data.

本発明によれば、人体表面に近接して撮像を行う際に、鮮明な画像を容易に取得することが可能となり、鮮明な画像を用いて精度の良い解析を行うことができる。   According to the present invention, it is possible to easily acquire a clear image when performing imaging in the vicinity of the human body surface, and it is possible to perform accurate analysis using the clear image.

第1実施形態に係る画像解析装置の外観図である。1 is an external view of an image analysis apparatus according to a first embodiment. 第1実施形態に係る画像解析装置のブロック図である。1 is a block diagram of an image analysis apparatus according to a first embodiment. 第1実施形態に係る測定アプリケーションプログラムの機能ブロック図である。It is a functional block diagram of the measurement application program which concerns on 1st Embodiment. 第1実施形態に係る画像解析方法のフローチャートである。3 is a flowchart of an image analysis method according to the first embodiment. 第1実施形態に係る空間周波数画像を説明するためのである。It is for demonstrating the spatial frequency image which concerns on 1st Embodiment. 第1実施形態に係る撮像処理の詳細を示すフローチャートである。It is a flowchart which shows the detail of the imaging process which concerns on 1st Embodiment. 第1実施形態に係る高周波数成分のエネルギーの変化を示すグラフである。It is a graph which shows the change of the energy of the high frequency component which concerns on 1st Embodiment. 第2実施形態に係る高周波数成分の抽出方法を説明するための図である。It is a figure for demonstrating the extraction method of the high frequency component which concerns on 2nd Embodiment. 第2実施形態に係る画像解析方法のフローチャートである。It is a flowchart of the image analysis method which concerns on 2nd Embodiment.

[第1実施形態]
図1は、本実施形態に係る画像解析装置100の外観図である。画像解析装置100は、例えばスマートフォン、タブレットコンピュータ、PDA(Personal Digital Assistant)、ラップトップコンピュータ、携帯電話などの携帯情報端末であり得る。以下、画像解析装置100の一例としてスマートフォンを例に挙げて説明する。画像解析装置100の前面にはタッチパネル101が設けられ、背面上部には撮像部(カメラ)102が設けられている。撮像部102は、画像解析装置100の背面だけでなく、前面に設けられていても良い。画像解析装置100には、肌の状態を測定するためのアプリケーションプログラム(以下、測定アプリ)が予めインストールされている。測定アプリは図示されていないネットワークからダウンロードされてもよく、メモリカードなどの記録媒体を通じて画像解析装置100に供給されてもよい。
[First Embodiment]
FIG. 1 is an external view of an image analysis apparatus 100 according to the present embodiment. The image analysis apparatus 100 may be a portable information terminal such as a smartphone, a tablet computer, a PDA (Personal Digital Assistant), a laptop computer, or a mobile phone. Hereinafter, a smartphone will be described as an example of the image analysis apparatus 100. A touch panel 101 is provided on the front surface of the image analysis apparatus 100, and an imaging unit (camera) 102 is provided on the upper back surface. The imaging unit 102 may be provided not only on the back surface of the image analysis apparatus 100 but also on the front surface. The image analysis apparatus 100 is preinstalled with an application program (hereinafter, a measurement application) for measuring the skin condition. The measurement application may be downloaded from a network (not shown) or supplied to the image analysis apparatus 100 through a recording medium such as a memory card.

タッチパネル101には測定アプリのアイコンが表示され、ユーザがアイコンに触れることにより測定アプリが起動する。ユーザは、画像解析装置100を把持し、撮像部102を頬、手の甲などの被写体に向けながら、被写体に対して近接または離隔させると、画像解析装置100は合焦した画像を自動的に撮像する。画像解析装置100は撮像された画像を解析し、解析結果をタッチパネル101に表示することができる。   An icon of the measurement application is displayed on the touch panel 101, and the measurement application is activated when the user touches the icon. When the user grasps the image analysis apparatus 100 and points the imaging unit 102 toward the subject such as the cheek or the back of the hand, the image analysis apparatus 100 automatically captures the focused image. . The image analysis apparatus 100 can analyze the captured image and display the analysis result on the touch panel 101.

図2は、本実施形態に係る画像解析装置100のブロック図である。画像解析装置100は、撮像部102、信号処理回路204、タイミング発生回路205、レンズ駆動回路206、LED207、スピーカ208、タッチセンサ209、座標検出回路210を備えている。さらに、画像解析装置100は、ディスプレイ211、ディスプレイコントローラ212、フレームメモリ213、CPU214、RAM215、ROM216、ストレージ217、モーションセンサ218、無線通信モジュール219を備えている。   FIG. 2 is a block diagram of the image analysis apparatus 100 according to the present embodiment. The image analysis apparatus 100 includes an imaging unit 102, a signal processing circuit 204, a timing generation circuit 205, a lens driving circuit 206, an LED 207, a speaker 208, a touch sensor 209, and a coordinate detection circuit 210. The image analysis apparatus 100 further includes a display 211, a display controller 212, a frame memory 213, a CPU 214, a RAM 215, a ROM 216, a storage 217, a motion sensor 218, and a wireless communication module 219.

撮像部102は、光学系201、撮像素子202、A/D変換器203を備える。光学系201は、光学フィルタ、固定レンズ、フォーカスレンズを含み、被写体(撮像部位)からの光を撮像素子202の撮像面に結像させ、被写体像を形成する。撮像素子202は、例えばCMOS(Complementary Metal Oxide Semiconductor)イメージセンサ、CCD(Charge Coupled Device)イメージセンサであり、2次元配列された複数の画素、色フィルタ、マイクロレンズを備える。複数の画素は撮像用の画素、焦点検出用の画素を含み得る。また、撮像素子202は、電荷蓄積時間を制御する電子シャッタ機能を有している。複数の画素のそれぞれは、光学系201からの入射光に基づく画素信号を出力する。   The imaging unit 102 includes an optical system 201, an imaging element 202, and an A / D converter 203. The optical system 201 includes an optical filter, a fixed lens, and a focus lens, and forms an image of a subject by forming light from a subject (imaging part) on the imaging surface of the imaging element 202. The imaging device 202 is, for example, a complementary metal oxide semiconductor (CMOS) image sensor or a charge coupled device (CCD) image sensor, and includes a plurality of pixels, color filters, and microlenses arranged two-dimensionally. The plurality of pixels may include imaging pixels and focus detection pixels. The image sensor 202 has an electronic shutter function for controlling the charge accumulation time. Each of the plurality of pixels outputs a pixel signal based on incident light from the optical system 201.

A/D(Analog/Digital)変換器203は、比較回路、ラッチ回路などから構成され、撮像素子202からのアナログの画素信号をデジタルの画像データに変換する。A/D変換器203は、撮像素子202内に設けられてもよい。タイミング発生回路205は、水平同期信号、垂直同期信号を含む駆動信号を発生させ、撮像素子202、A/D変換器203に出力する。撮像部102は、静止画像の他、所定のフレームレートの動画像を出力することができる。フレームレートは例えば1/4秒、1/30秒、1/60秒などの任意の値であり得る。   An A / D (Analog / Digital) converter 203 includes a comparison circuit, a latch circuit, and the like, and converts an analog pixel signal from the image sensor 202 into digital image data. The A / D converter 203 may be provided in the image sensor 202. The timing generation circuit 205 generates a drive signal including a horizontal synchronization signal and a vertical synchronization signal, and outputs the drive signal to the image sensor 202 and the A / D converter 203. The imaging unit 102 can output a moving image having a predetermined frame rate in addition to a still image. The frame rate can be any value such as 1/4 second, 1/30 second, 1/60 second, and the like.

信号処理回路204は、数値演算回路を含み、A/D変換器203からの画像データに対して、ホワイトバランス調整、ガンマ補正、画素補間、輪郭強調、階調変換、ノイズリダクション、圧縮などのデジタル信号処理を行う。レンズ駆動回路206は、アクチュエータなどを備え、光学系201のフォーカスレンズを駆動し、合焦距離を調節する。タイミング発生回路205は、クロック信号、同期信号などのタイミング信号を撮像素子202、A/D変換器203に出力する。   The signal processing circuit 204 includes a numerical operation circuit and performs digital processing such as white balance adjustment, gamma correction, pixel interpolation, edge enhancement, gradation conversion, noise reduction, and compression on the image data from the A / D converter 203. Perform signal processing. The lens driving circuit 206 includes an actuator or the like, drives the focus lens of the optical system 201, and adjusts the focusing distance. The timing generation circuit 205 outputs timing signals such as a clock signal and a synchronization signal to the image sensor 202 and the A / D converter 203.

LED(Light Emitting Diode)207は、光学系201の近傍に設けられた光源である。LED207は、撮像に適した照度を得るために、撮像部位に向けて光を照射する照明部として使用される。LED207は、光色の異なる複数のLEDから構成されてもよく、各LEDの発光強度を調整することにより、撮像部位に最適な色温度、彩度の光を発することができる。スピーカ208は、圧電式の振動ユニットを備え、電流駆動回路によって駆動される。スピーカ208は、音楽、メッセージ、効果音などの音声信号を出力し、撮像が終了したことをユーザに通知するための通知部として使用される。   An LED (Light Emitting Diode) 207 is a light source provided in the vicinity of the optical system 201. The LED 207 is used as an illumination unit that irradiates light toward the imaging region in order to obtain illuminance suitable for imaging. The LED 207 may be composed of a plurality of LEDs having different light colors. By adjusting the light emission intensity of each LED, the light having the optimum color temperature and saturation can be emitted to the imaging region. The speaker 208 includes a piezoelectric vibration unit and is driven by a current drive circuit. The speaker 208 outputs a sound signal such as music, a message, and a sound effect, and is used as a notification unit for notifying the user that imaging has been completed.

タッチセンサ209は、透明なマトリクス状の電極を備えた容量性センサであり、ディスプレイ211上に設けられている。ユーザの指がタッチセンサ209に触れることにより、電極における静電容量が変化する。座標検出回路210は、タッチセンサ209における静電容量の変化を検出し、ユーザの指が接触した位置を算出することができる。タッチセンサ209は、ユーザからの指示を受け付ける操作部として使用される。   The touch sensor 209 is a capacitive sensor having transparent matrix electrodes, and is provided on the display 211. When the user's finger touches the touch sensor 209, the capacitance of the electrode changes. The coordinate detection circuit 210 can detect a change in capacitance in the touch sensor 209 and calculate a position where the user's finger is in contact. The touch sensor 209 is used as an operation unit that receives an instruction from the user.

ディスプレイ211は、例えばTFT(Thin Film Transistor)液晶ディスプレイ、有機EL(Electro Luminescence)ディスプレイであり、ディスプレイコントローラ212からの表示信号に応じて、画像、動画、テキスト、アイコンなどの表示を行う。ディスプレイコントローラ212は、ビデオメモリを含むプロセッサであり、ディスプレイ211の表示を制御する。ディスプレイコントローラ212は、CPU214からの表示データを一時記憶するとともに、表示信号を生成し、ディスプレイ211に出力する。タッチセンサ20、ディスプレイ211は一体的に形成され、タッチパネル101を構成する。   The display 211 is, for example, a TFT (Thin Film Transistor) liquid crystal display or an organic EL (Electro Luminescence) display, and displays images, moving images, texts, icons, and the like in accordance with display signals from the display controller 212. The display controller 212 is a processor including a video memory, and controls display on the display 211. The display controller 212 temporarily stores display data from the CPU 214, generates a display signal, and outputs the display signal to the display 211. The touch sensor 20 and the display 211 are integrally formed to constitute the touch panel 101.

フレームメモリ213は、複数フレームの画像データを一時的に保持可能であって、信号処理回路204、CPU214による画像処理において使用され得る。例えば、信号処理回路204は、複数フレームの画像データにおいて動きベクトルを検出することにより、手振れ補正、ノイズリダクションを行なってもよい。また、動画撮像において、フレームメモリ213は、時間的に連続する複数フレームの画像データを記憶することができる。なお、RAM215の一部がフレームメモリ213として使用されてもよい。CPU(Central Processing Unit)214は、CPUコア、キャッシュメモリなどを備え、画像解析装置100の各デバイスを統括的に制御する。CPU214は、ROM216、ストレージ217から所定のプログラムを読み出し実行することにより、画像解析装置100の各部の機能を実現する。   The frame memory 213 can temporarily hold image data of a plurality of frames, and can be used in image processing by the signal processing circuit 204 and the CPU 214. For example, the signal processing circuit 204 may perform camera shake correction and noise reduction by detecting a motion vector in a plurality of frames of image data. In moving image capturing, the frame memory 213 can store image data of a plurality of temporally continuous frames. A part of the RAM 215 may be used as the frame memory 213. A CPU (Central Processing Unit) 214 includes a CPU core, a cache memory, and the like, and comprehensively controls each device of the image analysis apparatus 100. The CPU 214 reads out and executes a predetermined program from the ROM 216 and the storage 217, thereby realizing functions of each unit of the image analysis apparatus 100.

RAM(Random Access Memory)215は、例えばDRAM(Dynamic RAM)であり、CPU214のワーク領域、プログラムのロード領域などに使用される。ROM(Read Only Memory)216は、例えばEEPROM(Electrically Erasable Programmable ROM)であり、BIOS(Basic Input Output System)、各種設定ファイルなどを格納する。ストレージ217は、例えばフラッシュメモリであり、OS(Operating System)などの基本プログラム、測定アプリなどの各種アプリケーションプログラムを格納する。ストレージ217は、測定アプリによる測定結果、撮像部102による画像、動画などの様々なデータも格納する。   A RAM (Random Access Memory) 215 is, for example, a DRAM (Dynamic RAM), and is used as a work area of the CPU 214, a program load area, and the like. A ROM (Read Only Memory) 216 is, for example, an EEPROM (Electrically Erasable Programmable ROM), and stores a basic input output system (BIOS), various setting files, and the like. The storage 217 is, for example, a flash memory, and stores basic programs such as an OS (Operating System) and various application programs such as a measurement application. The storage 217 also stores various data such as measurement results by the measurement application, images by the imaging unit 102, and moving images.

モーションセンサ218は、加速度センサ、ジャイロセンサを含み、画像解析装置100の動きを検出する。加速度センサは、静電容量検出素子などから構成され、画像解析装置100に引加された加速度を検出する。ジャイロセンサは、圧電振動素子などから構成され、画像解析装置100の向きを検出する。画像解析装置100は、さらに、GPS(Global Positioning System)センサ、照度センサ、近接センサなどを備えていてもよい。   The motion sensor 218 includes an acceleration sensor and a gyro sensor, and detects the movement of the image analysis apparatus 100. The acceleration sensor is composed of a capacitance detection element and the like, and detects acceleration applied to the image analysis apparatus 100. The gyro sensor is composed of a piezoelectric vibration element or the like, and detects the orientation of the image analysis apparatus 100. The image analysis apparatus 100 may further include a GPS (Global Positioning System) sensor, an illuminance sensor, a proximity sensor, and the like.

無線通信モジュール219は、インターネットなどの通信ネットワークと無線通信を行うためのインタフェースである。無線通信モジュール219はアンテナを含み、LTE(Long Term Evolution)、4G(4th Generation)などの移動体通信方式、または無線LAN(Local Area Network)などの無線通信方式を用いて通信ネットワークに接続する。無線通信モジュール219は、通信ネットワークを介して外部の機器とデータの送受信を行うことができる。   The wireless communication module 219 is an interface for performing wireless communication with a communication network such as the Internet. The wireless communication module 219 includes an antenna, and connects to a communication network using a mobile communication system such as LTE (Long Term Evolution), 4G (4th Generation), or a wireless communication system such as a wireless LAN (Local Area Network). The wireless communication module 219 can transmit / receive data to / from an external device via a communication network.

図3は、本実施形態に係る測定アプリケーションプログラムの機能ブロック図である。測定アプリ300は、制御部301、取得部302、解析部303を有している。測定アプリ300の機能は、CPU214がストレージ217に格納された測定アプリ300を読み出し、実行することにより実現される。すなわち、CPU214は、測定アプリ300による画像解析方法の実行時に、制御部301、取得部302、解析部303として機能する。   FIG. 3 is a functional block diagram of the measurement application program according to the present embodiment. The measurement application 300 includes a control unit 301, an acquisition unit 302, and an analysis unit 303. The function of the measurement application 300 is realized by the CPU 214 reading and executing the measurement application 300 stored in the storage 217. That is, the CPU 214 functions as the control unit 301, the acquisition unit 302, and the analysis unit 303 when the measurement application 300 executes the image analysis method.

制御部301は、撮像部(カメラ)102、LED207、スピーカ208の動作を制御する。制御部301は、オートフォーカス(AF)機能を有しており、撮像部102の合焦距離を調節する。AF処理において、制御部301は、撮像した画像のコントラストが最大となるように、レンズ駆動回路206を介して光学系201のフォーカスレンズの位置を制御する。制御部301は、コントラスト方式によるAF処理に限らず、撮像面位相差方式によるAF処理を行ってもよい。また、制御部301は、自動露出(AE)機能を有しており、撮像素子202のISO感度、電子シャッタのスピードを制御する。制御部301は、AF機能、AE機能を有効または無効に設定することができる。制御部301は、さらにLED207、スピーカ208を制御するとともに、タッチセンサ209を介してユーザからの指示を取得する。   The control unit 301 controls operations of the imaging unit (camera) 102, the LED 207, and the speaker 208. The control unit 301 has an autofocus (AF) function and adjusts the focusing distance of the imaging unit 102. In the AF processing, the control unit 301 controls the position of the focus lens of the optical system 201 via the lens driving circuit 206 so that the contrast of the captured image is maximized. The controller 301 is not limited to the AF process using the contrast method, and may perform the AF process using the imaging surface phase difference method. The control unit 301 has an automatic exposure (AE) function, and controls the ISO sensitivity of the image sensor 202 and the speed of the electronic shutter. The control unit 301 can set the AF function and the AE function to be valid or invalid. The control unit 301 further controls the LED 207 and the speaker 208 and acquires an instruction from the user via the touch sensor 209.

取得部302は、フレームメモリ213から複数フレームの画像データを読み出し、複数フレームの画像データの中から最も鮮明な画像データを取得する。取得部302は、画像データから撮像部位の鮮鋭度に基づく周波数成分を抽出し、周波数成分に基づいて画像データの合焦を判定することができる。取得部302は、フーリエ変換などの周波数変換を用いて周波数成分を抽出する。取得部302は、取得した画像データをストレージ217に格納する。周波数変換の結果得られた周波数スペクトルなどのデータは、RAM215において保持される。   The acquisition unit 302 reads a plurality of frames of image data from the frame memory 213 and acquires the clearest image data from the plurality of frames of image data. The acquisition unit 302 can extract a frequency component based on the sharpness of the imaging region from the image data, and determine the focus of the image data based on the frequency component. The acquisition unit 302 extracts frequency components using frequency transformation such as Fourier transformation. The acquisition unit 302 stores the acquired image data in the storage 217. Data such as a frequency spectrum obtained as a result of the frequency conversion is held in the RAM 215.

解析部303は、取得部302が取得した画像データを解析し、測定結果を生成する。解析部303は、周波数変換を用いて画像データの特徴量を抽出し、画像データの特徴量から測定結果を導出する。解析部303は、取得部302による周波数変換の結果を利用することができる。すなわち、解析部303は、合焦判断における周波数変換の結果を用いて画像データの特徴量を抽出することができる。これにより、CPU214の処理負担の軽減および高速化を実現することが可能となる。解析部303は、測定結果をストレージ217に格納する。周波数変換は、フーリエ変換に限らず、ウェーブレット変換、ラプラシアン演算、離散コサイン変換、アダマール変換、KL(Karhunen-Loeve)変換などであってもよい。   The analysis unit 303 analyzes the image data acquired by the acquisition unit 302 and generates a measurement result. The analysis unit 303 extracts the feature amount of the image data using frequency conversion, and derives a measurement result from the feature amount of the image data. The analysis unit 303 can use the result of frequency conversion by the acquisition unit 302. That is, the analysis unit 303 can extract the feature amount of the image data using the frequency conversion result in the focus determination. As a result, the processing load on the CPU 214 can be reduced and the processing speed can be increased. The analysis unit 303 stores the measurement result in the storage 217. The frequency transform is not limited to Fourier transform, but may be wavelet transform, Laplacian calculation, discrete cosine transform, Hadamard transform, KL (Karhunen-Loeve) transform, or the like.

図4は、本実施形態に係る画像解析方法のフローチャートである。ここでは測定アプリ300を用いてユーザが頬の状態を測定する例を説明する。画像解析装置100において、ユーザが測定アプリ300を起動すると、制御部301は、撮像部102のAF機能を無効にし、合焦距離を所定の距離に固定する(ステップS401)。すなわち、制御部301は、光学系201を固定焦点の状態とする。ここで、合焦距離は、撮像された画像のサイズが画像解析において最適となるように定められ得る。例えば、合焦距離は、50mm〜100mmの範囲であってもよく、また、撮像部102において設定可能な最短距離であってもよい。制御部301は、撮像に適した光環境が得られるようにLED207の光量、色温度、彩度を設定し、LED207を点灯する。   FIG. 4 is a flowchart of the image analysis method according to the present embodiment. Here, an example in which the user measures the cheek state using the measurement application 300 will be described. In the image analysis apparatus 100, when the user activates the measurement application 300, the control unit 301 disables the AF function of the imaging unit 102 and fixes the focusing distance to a predetermined distance (step S401). That is, the control unit 301 puts the optical system 201 into a fixed focus state. Here, the in-focus distance can be determined so that the size of the captured image is optimal in the image analysis. For example, the focusing distance may be in the range of 50 mm to 100 mm, or may be the shortest distance that can be set in the imaging unit 102. The control unit 301 sets the light amount, color temperature, and saturation of the LED 207 so that a light environment suitable for imaging is obtained, and turns on the LED 207.

続いて、制御部301は、撮像部102がユーザの頬に対して第1の距離に位置する状態において、撮像を開始する(ステップS402)。第1の距離は、合焦距離とは異なる距離であり、例えば合焦距離よりも短い。制御部301は、「カメラを頬に近づけ、画面をタップしてください」、「画面をタップすると撮影を開始します。カメラを頬からゆっくり遠ざけてください」などのメッセージをディスプレイ211に表示する。制御部301は、メッセージとともにアニメーションを表示してもよく、音声によってメッセージを発してもよい。ユーザがメッセージに従って撮像部102を頬に近づけ、タッチパネル101をタップすると(図1参照)、制御部301は、撮像部102による撮像を開始する。撮像は、所定のフレームレート(例えば4〜5フレーム毎秒)で行われる。撮像開始時における撮像部102と撮像部位との間の距離、すなわち第1の距離が合焦距離よりも短いことから、最初に撮像される画像の鮮鋭度は低い。   Subsequently, the control unit 301 starts imaging in a state where the imaging unit 102 is located at the first distance with respect to the user's cheek (step S402). The first distance is a distance different from the focusing distance, and is shorter than the focusing distance, for example. The control unit 301 displays a message such as “Please bring the camera close to the cheek and tap the screen” or “Tap the screen to start shooting. Please move the camera slowly away from the cheek”. The control unit 301 may display an animation together with a message, or may emit a message by voice. When the user brings the imaging unit 102 close to the cheek according to the message and taps the touch panel 101 (see FIG. 1), the control unit 301 starts imaging by the imaging unit 102. Imaging is performed at a predetermined frame rate (for example, 4 to 5 frames per second). Since the distance between the imaging unit 102 and the imaging region at the start of imaging, that is, the first distance is shorter than the in-focus distance, the sharpness of the first image to be captured is low.

続いて、制御部301は、撮像部102がユーザの頬に対して第2の距離となる位置に移動するまで、撮像を継続する(ステップS403)。ここで第2の距離は、合焦距離を越える距離であり、例えば合焦距離よりも長い。ユーザは、タッチパネル101をタップした後、撮像部102を頬に対して垂直な方向に徐々に遠ざけていく。制御部301は、画像の鮮鋭度の変化に基づいて、撮像部102がユーザの頬に対して合焦距離を越える第2の距離まで移動したか否かを判断する。なお、制御部301は、所定時間(例えば6〜10秒)が経過したときに、撮像部102が第2の距離となる位置に移動したとみなしてもよい。   Subsequently, the control unit 301 continues the imaging until the imaging unit 102 moves to a position that is the second distance with respect to the user's cheek (step S403). Here, the second distance is a distance exceeding the focusing distance, and is longer than the focusing distance, for example. After tapping the touch panel 101, the user gradually moves the imaging unit 102 away in a direction perpendicular to the cheek. Based on the change in the sharpness of the image, the control unit 301 determines whether the imaging unit 102 has moved to a second distance that exceeds the in-focus distance with respect to the user's cheek. Note that the control unit 301 may consider that the imaging unit 102 has moved to a position that becomes the second distance when a predetermined time (for example, 6 to 10 seconds) has elapsed.

次に、取得部302は、撮像で得られた複数フレームの画像データの中から、高周波数成分のエネルギーが最大の画像データを取得する(ステップS404)。画像データの取得処理(ステップS404)は、上述の撮像処理(ステップS403)と同時に実行されてもよい。取得部302は、フーリエ変換を用いて各フレームの画像データを周波数成分に分解し、空間周波数画像500を生成する。   Next, the acquisition unit 302 acquires image data having the maximum energy of the high frequency component from the image data of a plurality of frames obtained by imaging (step S404). The image data acquisition process (step S404) may be performed simultaneously with the above-described imaging process (step S403). The acquisition unit 302 decomposes the image data of each frame into frequency components using Fourier transform, and generates a spatial frequency image 500.

図5は、空間周波数画像500を説明するための図である。空間周波数画像500において、X軸は水平方向の空間周波数、Y軸は垂直方向の空間周波数を表している。XY軸の原点(空間周波数画像500の中心)に近い成分の空間周波数は低く、原点から離れた成分の空間周波数は高い。取得部302は、原点からの距離に応じて空間周波数画像500を低周波数成分501、中周波数成分502、高周波数成分503に分割し、高周波数成分503内の楔領域9〜16におけるエネルギーを合計する。取得部302は、複数フレームの画像データの中から、合計したエネルギーが最大となる画像データを選択する。空間周波数画像500は、画像データの取得処理(ステップS404)の終了後もRAM215に保持される。   FIG. 5 is a diagram for explaining the spatial frequency image 500. In the spatial frequency image 500, the X axis represents the horizontal spatial frequency, and the Y axis represents the vertical spatial frequency. The spatial frequency of the component close to the origin of the XY axis (the center of the spatial frequency image 500) is low, and the spatial frequency of the component away from the origin is high. The acquisition unit 302 divides the spatial frequency image 500 into a low frequency component 501, a medium frequency component 502, and a high frequency component 503 according to the distance from the origin, and sums the energy in the wedge regions 9 to 16 in the high frequency component 503. To do. The acquisition unit 302 selects image data having the maximum total energy from the image data of a plurality of frames. The spatial frequency image 500 is held in the RAM 215 even after the image data acquisition process (step S404) ends.

解析部303は、取得部302が取得した画像データをストレージ217から読み出し、画像データの解析を行う。解析部303は、解析対象となる画像データを取得部302から直接に取得してもよい。解析部303は、画像データをフーリエ変換し、周波数空間において画像データの特徴量を抽出する(ステップS405)。ここで解析部303は、取得部302が生成した空間周波数画像500を利用することができる。例えば、解析部303は、中周波数成分502、高周波数成分503内の楔領域1〜16におけるエネルギーをそれぞれ算出する。図5に示されるように、楔領域1〜16は、周波数空間において異なる8つの方向性を有する周波数成分と、異なる2つの周波数帯域を有する周波数成分とを含んでいる。解析部303は、算出した16個の周波数エネルギーを画像データの特徴量として使用する。なお、空間周波数成分の方向および周波数帯域は、撮像部位に応じて選択可能であってもよく、本実施形態の例に限定されない。   The analysis unit 303 reads out the image data acquired by the acquisition unit 302 from the storage 217, and analyzes the image data. The analysis unit 303 may acquire image data to be analyzed directly from the acquisition unit 302. The analysis unit 303 performs Fourier transform on the image data, and extracts the feature amount of the image data in the frequency space (step S405). Here, the analysis unit 303 can use the spatial frequency image 500 generated by the acquisition unit 302. For example, the analysis unit 303 calculates the energy in the wedge regions 1 to 16 in the medium frequency component 502 and the high frequency component 503, respectively. As shown in FIG. 5, the wedge regions 1 to 16 include frequency components having eight different directions in the frequency space and frequency components having two different frequency bands. The analysis unit 303 uses the calculated 16 frequency energy as the feature amount of the image data. In addition, the direction and frequency band of a spatial frequency component may be selectable according to an imaging site | part, and are not limited to the example of this embodiment.

続いて、解析部303は、画像データの特徴量から頬の測定結果を導出する(ステップS405)。解析部303は、画像データの特徴量に所定の変換行列を適用することにより、測定結果(例えば肌の水分量、キメの細かさ)を生成する。解析部303は、肌に限らず、頭皮、爪、毛髪、唇などの人体表面の部位に合わせた変換行列を適用することができる。これらの変換行列は、例えば、マイクロスコープなどの専用の撮像機器を用いた測定結果を教師データとして機械学習を行うことにより、事前に決定することができる。解析部303は、測定結果をディスプレイ211に表示し、図4のフローチャートの処理を終了する。   Subsequently, the analysis unit 303 derives a cheek measurement result from the feature amount of the image data (step S405). The analysis unit 303 generates a measurement result (for example, skin moisture content, texture fineness) by applying a predetermined transformation matrix to the feature amount of the image data. The analysis unit 303 is not limited to skin, and can apply a transformation matrix adapted to the surface of the human body such as the scalp, nails, hair, and lips. These transformation matrices can be determined in advance, for example, by performing machine learning using a measurement result using a dedicated imaging device such as a microscope as teacher data. The analysis unit 303 displays the measurement result on the display 211 and ends the process of the flowchart of FIG.

図6は、本実施形態に係る撮像処理(ステップS403)の詳細を示すフローチャートである。まず、制御部301は、1フレームの画像データの撮像を行い、フレームメモリ213から読み出す(ステップS601)。制御部301は、読み出した画像データを所定のサイズ(例えば640×480画素)にトリミングしてもよい。続いて、制御部301は、画像データをフーリエ変換し、高周波数成分のエネルギーを抽出する(ステップS602)。高周波数成分のエネルギーの抽出方法は、上述の画像データの取得処理(ステップS404)における方法と同様である。画像データの取得処理(ステップS404)が同時に実行されている場合、高周波数成分の抽出処理(ステップS602)は省略される。   FIG. 6 is a flowchart showing details of the imaging process (step S403) according to the present embodiment. First, the control unit 301 captures one frame of image data and reads it from the frame memory 213 (step S601). The control unit 301 may trim the read image data to a predetermined size (for example, 640 × 480 pixels). Subsequently, the control unit 301 performs Fourier transform on the image data and extracts the energy of the high frequency component (step S602). The method for extracting the energy of the high frequency component is the same as the method in the image data acquisition process (step S404) described above. When the image data acquisition process (step S404) is performed at the same time, the high frequency component extraction process (step S602) is omitted.

次に、制御部301は、直近に撮像されたフレーム間における高周波数成分のエネルギーの変化量を算出する(ステップS603)。例えば、制御部301は、直近のフレームnについてのエネルギーEnと、1つ前のフレームn−1についてのエネルギーEn−1との差En−(En−1)を計算する。高周波数成分のエネルギーは、所定フレーム数の移動平均値を用いてもよい。複数フレーム間における高周波数成分のエネルギーの変化の一例を図7に示す。   Next, the control unit 301 calculates the amount of change in the energy of the high frequency component between the most recently captured frames (step S603). For example, the control unit 301 calculates a difference En− (En−1) between the energy En for the latest frame n and the energy En−1 for the previous frame n−1. As the energy of the high frequency component, a moving average value of a predetermined number of frames may be used. An example of the change in energy of the high frequency component between a plurality of frames is shown in FIG.

図7において、縦軸は高周波数成分のエネルギーを表し、横軸は時系列に番号付けされた複数フレームの画像データを表している。すなわち、フレーム1は撮像において最初に撮像されたフレームの画像データであり、撮像が継続している間、フレーム2、フレーム3、・・・、フレームnが順次撮像されていく。図7の例では、エネルギーの差En−(En−1)は、フレーム2からフレーム33まで正の値であり、フレーム34以降は負の値となる。すなわち、高周波数成分のエネルギーのピークがフレーム33に位置している。   In FIG. 7, the vertical axis represents the energy of high frequency components, and the horizontal axis represents image data of a plurality of frames numbered in time series. That is, the frame 1 is image data of a frame first captured in imaging, and the frames 2, 3,..., Frame n are sequentially captured while the imaging continues. In the example of FIG. 7, the energy difference En− (En−1) is a positive value from frame 2 to frame 33, and is a negative value after frame 34. That is, the energy peak of the high frequency component is located in the frame 33.

次に、制御部301は、エネルギーの変化量を所定の閾値と比較する(ステップS604)。制御部301は、例えば0を閾値とし、エネルギーの差En−(En−1)が0以上か否か(正負)を判断する。制御部301は、変化量が0以上(正の値)である場合(ステップS604でNo)、撮像を継続し、次のフレームに対してステップS601〜ステップS604の処理を実行する。制御部301は、変化量が0より小さい(負の値)である場合(ステップS604でYes)、撮像を終了し、撮像が正常に終了したことを示す効果音、「撮影が終了しました」などの音声メッセージをスピーカ208から出力する(ステップS605)。図7の例では、フレーム34の処理後に撮像が終了する。制御部301は、LED207を消灯し、図4のフローチャートの処理に戻る。   Next, the control unit 301 compares the amount of change in energy with a predetermined threshold value (step S604). For example, the control unit 301 uses 0 as a threshold value, and determines whether the energy difference En− (En−1) is 0 or more (positive or negative). When the amount of change is 0 or more (a positive value) (No in step S604), the control unit 301 continues the imaging and executes the processes in steps S601 to S604 for the next frame. When the amount of change is less than 0 (negative value) (Yes in step S604), the control unit 301 ends the imaging, and a sound effect indicating that the imaging has ended normally, “shooting is completed” Or the like is output from the speaker 208 (step S605). In the example of FIG. 7, the imaging ends after the processing of the frame 34. The control unit 301 turns off the LED 207 and returns to the processing of the flowchart of FIG.

本実施形態によれば、撮像部のオートフォーカス機能を無効にすることで、合焦距離を固定した状態でフレームごとの撮像を行う。撮像は、合焦位置を通過するように撮像部を移動させながら実行されるため、撮像により得られる複数フレームの画像データの中には、結果的に撮像部位に合焦した画像データが含まれる。したがって、オートフォーカス機能を使用することなく鮮明な画像を容易に取得することができる。また、撮像においては、フレーム毎の高周波数成分のエネルギーの変化量を監視し、エネルギーのピークを検出した場合に、撮像を終了する。これにより、ユーザは、撮像部と撮像部位とが合焦距離を越えて離間したことを判断する必要がない。   According to the present embodiment, by disabling the autofocus function of the imaging unit, imaging is performed for each frame with the focus distance fixed. Since the imaging is performed while moving the imaging unit so as to pass through the in-focus position, the image data of the plurality of frames obtained by imaging includes the image data focused on the imaging region as a result. . Therefore, a clear image can be easily acquired without using the autofocus function. In imaging, the amount of change in energy of the high-frequency component for each frame is monitored, and imaging is terminated when an energy peak is detected. Thereby, the user does not need to determine that the imaging unit and the imaging region are separated beyond the in-focus distance.

本実施形態の画像解析装置は、AF機能が適切に動作しない接写撮像に特に好適である。合焦距離を最短距離に設定することにより、撮像部位を鮮明に拡大した画像を取得することができる。肌測定専用の機器を持たないユーザであっても、スマートフォンのカメラを用いて精度の良い肌測定を行うことができる。   The image analysis apparatus according to the present embodiment is particularly suitable for close-up imaging in which the AF function does not operate properly. By setting the in-focus distance to the shortest distance, it is possible to acquire an image in which the imaging region is clearly enlarged. Even a user who does not have a device dedicated to skin measurement can perform accurate skin measurement using a smartphone camera.

[第2実施形態]
続いて、本発明の第2実施形態に係る画像解析システムを説明する。本実施形態に係る画像解析システムは、第1実施形態に係る画像解析装置100と同様に構成されているため、第1実施形態と異なる点を中心に説明する。本実施形態において、画像データの高周波数成分はラプラシアン演算により抽出される。
[Second Embodiment]
Next, an image analysis system according to the second embodiment of the present invention will be described. Since the image analysis system according to the present embodiment is configured in the same manner as the image analysis apparatus 100 according to the first embodiment, the description will focus on differences from the first embodiment. In the present embodiment, high frequency components of image data are extracted by Laplacian calculation.

図8は、本実施形態に係る高周波数成分の抽出方法を説明するための図である。図8(a)は、ガウシアン画像G0〜G2およびラプラシアン画像L0〜L2の生成処理の概念図である。各画像には、例として円形と線状の被写体が示されている。レベル0のガウシアン画像G0は、フレームメモリ213から読み出された原画像と同一である。   FIG. 8 is a diagram for explaining a high-frequency component extraction method according to the present embodiment. FIG. 8A is a conceptual diagram of processing for generating Gaussian images G0 to G2 and Laplacian images L0 to L2. In each image, circular and linear objects are shown as an example. The level 0 Gaussian image G0 is the same as the original image read from the frame memory 213.

まず、取得部302は、レベル0のガウシアン画像G0に対して、以下の数式で示されるガウシアンフィルタを適用することにより、画像データの平滑化処理を行う。

Figure 2018078528
ここで、xはフィルタ中心からのX軸(水平)方向の座標を表し、yはフィルタ中心からのY軸(垂直)方向の座標を表す。σは平滑化の度合いを決定する平滑化係数を表す。σ≒0.8におけるガウシアンフィルタの例を図8(b)に示す。 First, the acquisition unit 302 performs a smoothing process on image data by applying a Gaussian filter expressed by the following equation to a level 0 Gaussian image G0.
Figure 2018078528
Here, x represents the coordinate in the X-axis (horizontal) direction from the filter center, and y represents the coordinate in the Y-axis (vertical) direction from the filter center. σ represents a smoothing coefficient that determines the degree of smoothing. An example of a Gaussian filter with σ≈0.8 is shown in FIG.

次に、取得部302は、レベル0のガウシアン画像G0をダウンサンプリングし、画像を縮小する。これにより、レベル1のガウシアン画像G1が生成される。例えば、取得部302は、ガウシアン画像G0の偶数行と偶数列の画素値から構成される縦横1/2サイズのガウシアン画像G1を生成する。取得部302は、レベル1のガウシアン画像G1に対して、レベル0のガウシアン画像G0と同様の処理を繰り返すことにより、画像をさらに縮小する。これにより、レベル2のガウシアン画像G2が生成される。ガウシアン画像G0〜G2をガウシアンピラミッドと呼ぶ。ガウシアン画像の解像度は、ダウンサンプリングを行うごとに低下する。言い換えれば、ダウンサンプリングにより、画像データの高周波数成分が失われる。   Next, the acquisition unit 302 downsamples the level 0 Gaussian image G0 to reduce the image. As a result, a level 1 Gaussian image G1 is generated. For example, the acquisition unit 302 generates a ½ size Gaussian image G1 composed of even-numbered rows and even-numbered column pixel values of the Gaussian image G0. The acquisition unit 302 further reduces the image by repeating the same processing as the level 0 Gaussian image G0 for the level 1 Gaussian image G1. As a result, a level 2 Gaussian image G2 is generated. The Gaussian images G0 to G2 are called Gaussian pyramids. The resolution of a Gaussian image decreases every time downsampling is performed. In other words, high frequency components of the image data are lost due to downsampling.

取得部302は、レベル1のガウシアン画像G1をアップサンプリングし、画像を元のサイズに拡大する。例えば、取得部302は、ガウシアン画像G1の偶数行および偶数列の画素値から、奇数行および奇数列の画素値を補間し、レベル0のガウシアン画像G0と同じサイズの拡大画像を生成する。そして、取得部302は、ガウシアン画像G0と拡大画像との差分を計算することにより、レベル0のラプラシアン画像L0を取得することができる。レベル0のラプラシアン画像L0は、ガウシアン画像G1の生成過程で失われた高周波数成分の画像である。取得部302は、レベル2のガウシアン画像G2とレベル1のガウシアン画像G1に対して、同様の処理を繰り返すことにより、レベル1のラプラシアン画像L1を取得することができる。レベル1のラプラシアン画像L1は、ガウシアン画像G2の生成過程で失われた高周波数成分の画像である。レベル1のラプラシアン画像L1は、レベル0のラプラシアン画像L0よりも低い周波数成分を有している。取得部302は、より低い周波数成分を有するレベル2のラプラシアン画像L2を生成してもよい。ラプラシアン画像L0〜L2をラプラシアンピラミッドと呼ぶ。   The acquisition unit 302 upsamples the level 1 Gaussian image G1 and enlarges the image to the original size. For example, the acquisition unit 302 interpolates the odd row and odd column pixel values from the even row and even column pixel values of the Gaussian image G1, and generates an enlarged image having the same size as the level 0 Gaussian image G0. The acquisition unit 302 can acquire a level 0 Laplacian image L0 by calculating a difference between the Gaussian image G0 and the enlarged image. The level 0 Laplacian image L0 is an image of a high frequency component lost in the process of generating the Gaussian image G1. The acquisition unit 302 can acquire the level 1 Laplacian image L1 by repeating the same processing for the level 2 Gaussian image G2 and the level 1 Gaussian image G1. The level 1 Laplacian image L1 is an image of a high frequency component lost in the process of generating the Gaussian image G2. The level 1 Laplacian image L1 has a lower frequency component than the level 0 Laplacian image L0. The acquisition unit 302 may generate a level 2 Laplacian image L2 having a lower frequency component. Laplacian images L0 to L2 are called Laplacian pyramids.

取得部302は、上述のガウシアン画像G0〜G2に対してラプラシアンフィルタを適用することにより、ラプラシアン画像L0〜L2を生成してもよい。ラプラシアンフィルタは、画像の2次微分(差分)を計算するフィルタである。8近傍におけるラプラシアンフィルタの一例を図8(c)に示す。取得部302は、注目画素を中心とした近傍画素値に対して、ラプラシアンフィルタの係数をそれぞれ乗算し、乗算結果を合計する。算出された画素値がラプラシアン画像の画素値となる。なお、取得部302は、ガウシアンフィルタにかぎらず、メディアンフィルタ、移動平均フィルタなどの他の平滑化フィルタを用いてもよく、ガウシアンフィルタとラプラシアンフィルタとを組み合わせたLOG(Laplacian Of Gaussian)フィルタを用いてもよい。   The acquisition unit 302 may generate Laplacian images L0 to L2 by applying a Laplacian filter to the above-described Gaussian images G0 to G2. A Laplacian filter is a filter that calculates a second derivative (difference) of an image. An example of a Laplacian filter in the vicinity of 8 is shown in FIG. The acquisition unit 302 multiplies neighboring pixel values centered on the target pixel by a coefficient of a Laplacian filter, and sums the multiplication results. The calculated pixel value becomes the pixel value of the Laplacian image. Note that the acquisition unit 302 is not limited to the Gaussian filter, and may use other smoothing filters such as a median filter and a moving average filter, or a LOG (Laplacian Of Gaussian) filter that combines a Gaussian filter and a Laplacian filter. May be.

図9は、本実施形態に係る画像解析方法のフローチャートである。ステップS901〜S903までの処理は、図4のステップS401〜S403と同様の処理であるため、説明を省略する。   FIG. 9 is a flowchart of the image analysis method according to the present embodiment. The processing from step S901 to S903 is the same as the processing from step S401 to S403 in FIG.

取得部302は、撮像において得られた複数フレームの画像データに対してラプラシアンフィルタを適用し、各フレームの画像データから高周波数成分を抽出する(ステップS904)。例えば、取得部302は、フレームメモリ213から複数フレームの画像データを読み出し、各フレームの画像データに対してガウシアンフィルタを適用する。図8に示されるように、取得部302は、ガウシアンフィルタにより平滑化された画像データをダウンサンプリングし、レベル1のガウシアン画像G1を生成する。取得部302は、レベル1のガウシアン画像G1に対してラプラシアンフィルタを適用し、レベル1のラプラシアン画像L1を生成する。   The acquisition unit 302 applies a Laplacian filter to the image data of a plurality of frames obtained in imaging, and extracts a high frequency component from the image data of each frame (step S904). For example, the acquisition unit 302 reads multiple frames of image data from the frame memory 213 and applies a Gaussian filter to the image data of each frame. As illustrated in FIG. 8, the acquisition unit 302 downsamples the image data smoothed by the Gaussian filter, and generates a level 1 Gaussian image G1. The acquisition unit 302 applies a Laplacian filter to the level 1 Gaussian image G1 to generate a level 1 Laplacian image L1.

次に、取得部302は、各フレームのラプラシアン画像L1に基づいて、高周波数成分のエネルギーが最大の画像データを取得する(ステップS905)。具体的には、取得部302は、ラプラシアン画像L1の画素値をフレームごとに合計し、画素値の合計が最大となるフレームを判定する。取得部302は、判定されたフレームの画像データを合焦した画像として取得する。なお、取得部302は、図8に示されるラプラシアンピラミッド(ラプラシアン画像L0、L1、L2)を生成することにより、高周波数成分を抽出してもよい。取得部302は、解像度のレベルが異なるラプラシアン画像L0、L1、L2の何れか、またはこれらの組み合わせに基づいて、高周波数成分のエネルギーの大きさを判断することができる。以降のステップS906、S907の処理は、図4のステップS405、S406と同様の処理であるため、説明を省略する。   Next, the acquisition unit 302 acquires image data with the maximum energy of the high frequency component based on the Laplacian image L1 of each frame (step S905). Specifically, the acquisition unit 302 sums the pixel values of the Laplacian image L1 for each frame, and determines the frame that maximizes the sum of the pixel values. The acquisition unit 302 acquires the image data of the determined frame as a focused image. Note that the acquisition unit 302 may extract a high-frequency component by generating a Laplacian pyramid (Laplacian images L0, L1, and L2) illustrated in FIG. The acquisition unit 302 can determine the magnitude of the energy of the high frequency component based on any one of Laplacian images L0, L1, and L2 having different resolution levels, or a combination thereof. The subsequent processes in steps S906 and S907 are similar to those in steps S405 and S406 in FIG.

[変形実施形態]
上述の実施形態は、本発明を実施するにあたっての具体化の例を示したものに過ぎず、これらによって本発明の技術的範囲が限定的に解釈されるものではない。すなわち、本発明は、上述の実施形態に限定されることなく、本発明の趣旨を逸脱しない範囲で変更実施可能である。
[Modified Embodiment]
The above-described embodiments are merely examples of implementation in carrying out the present invention, and the technical scope of the present invention is not construed as being limited thereto. That is, the present invention is not limited to the above-described embodiment, and can be modified without departing from the spirit of the present invention.

例えば、上述の実施形態では、第1の距離が第2の距離よりも短く、撮像部102と撮像部位とが合焦距離よりも近接した状態において撮像が開始され、撮像部102と撮像部位とが合焦距離を越えて離間するまで撮像が継続される場合を説明した。これとは逆に、第1の距離が第2の距離よりも長く、撮像部102と撮像部位とが合焦距離よりも離間した状態において撮像が開始され、撮像部102と撮像部位とが合焦距離内に近接するまで撮像が継続されてもよい。すなわち、画像解析装置100は、撮像で得られる複数フレームの画像データについて、撮像部102と撮像部位との間の距離の変化によって高周波数成分のエネルギーのピークを検出できるように構成されていればよい。   For example, in the above-described embodiment, imaging is started in a state where the first distance is shorter than the second distance and the imaging unit 102 and the imaging part are closer than the in-focus distance, and the imaging unit 102 and the imaging part are A case has been described in which imaging is continued until the distance exceeds the in-focus distance. On the contrary, the imaging is started in a state where the first distance is longer than the second distance and the imaging unit 102 and the imaging part are separated from the focusing distance, and the imaging part 102 and the imaging part are aligned. Imaging may be continued until approaching within the focal distance. In other words, the image analysis device 100 is configured to be able to detect a peak of energy of a high frequency component by changing a distance between the imaging unit 102 and the imaging site for a plurality of frames of image data obtained by imaging. Good.

また、CPU214は、エネルギー変化量の判定処理(ステップS604)において、エネルギーの変化量が所定の閾値より小さい場合であっても即座に撮像を終了しなくてもよい。例えば、CPU214は、次のフレームに対する処理(ステップS601〜S604)を続けて実行し、連続する2つのフレームに対してエネルギーの変化量がともに所定の閾値より小さい場合に撮像を終了してもよい。   Further, in the energy change amount determination process (step S604), the CPU 214 does not have to immediately finish imaging even when the energy change amount is smaller than a predetermined threshold. For example, the CPU 214 may continuously execute the processing for the next frame (steps S601 to S604), and may end imaging when the amount of change in energy is smaller than a predetermined threshold for two consecutive frames. .

上述の実施形態では、動画撮像により複数フレームの画像データを撮像する場合を説明したが、静止画像を連続して撮像する場合においても上述の実施形態の処理を適用することができる。さらに、画像解析装置100による測定部位はユーザの頬に限られない。画像解析装置100は、肌、頭皮、爪、毛髪、唇などの人体表面の様々な部位を測定するために適用することが可能である。   In the above-described embodiment, the case where the image data of a plurality of frames is captured by moving image capturing has been described. However, the processing of the above-described embodiment can be applied even when still images are captured continuously. Furthermore, the measurement site | part by the image analysis apparatus 100 is not restricted to a user's cheek. The image analysis apparatus 100 can be applied to measure various parts of the human body surface such as skin, scalp, nails, hair, and lips.

100 画像解析装置
101 タッチパネル
102 撮像部
213 フレームメモリ
214 CPU
215 RAM
217 ストレージ
300 測定アプリケーションプログラム
301 制御部
302 取得部
303 解析部
500 空間周波数画像
503 高周波数成分
DESCRIPTION OF SYMBOLS 100 Image analysis apparatus 101 Touch panel 102 Imaging part 213 Frame memory 214 CPU
215 RAM
217 Storage 300 Measurement application program 301 Control unit 302 Acquisition unit 303 Analysis unit 500 Spatial frequency image 503 High frequency component

Claims (14)

所定のフレームレートで複数フレームの画像データの撮像を行う撮像部と、
前記撮像部のオートフォーカス機能を無効にすることで前記撮像部の合焦距離を固定し、前記撮像部が人体表面の撮像部位に対して前記合焦距離とは異なる第1の距離に位置する状態において前記撮像を開始し、前記撮像部が前記撮像部位に対して前記合焦距離を越えて第2の距離となる位置に移動するまで前記撮像を継続する制御部と、
前記複数フレームの画像データから、前記撮像部位の鮮鋭度に基づく周波数成分のエネルギーが最大の前記画像データを取得する取得部と、
前記取得部により取得された前記画像データを解析する解析部とを備える画像解析装置。
An imaging unit that captures image data of a plurality of frames at a predetermined frame rate;
The focusing distance of the imaging unit is fixed by disabling the autofocus function of the imaging unit, and the imaging unit is positioned at a first distance different from the focusing distance with respect to the imaging part on the human body surface. A controller that starts the imaging in a state and continues the imaging until the imaging unit moves to a position that becomes the second distance beyond the focusing distance with respect to the imaging part;
An acquisition unit that acquires the image data having the maximum frequency component energy based on the sharpness of the imaging region from the image data of the plurality of frames;
An image analysis apparatus comprising: an analysis unit that analyzes the image data acquired by the acquisition unit.
前記解析部は、前記画像データを周波数変換し、方向および周波数帯域がそれぞれ異なる複数の周波数成分のエネルギーを算出する請求項1に記載の画像解析装置。   The image analysis apparatus according to claim 1, wherein the analysis unit performs frequency conversion on the image data to calculate energy of a plurality of frequency components having different directions and frequency bands. 前記取得部は、周波数変換を用いて前記周波数成分を抽出し、前記解析部は、前記取得部による前記周波数変換の結果を利用して前記画像データを解析する請求項2に記載の画像解析装置。   The image analysis apparatus according to claim 2, wherein the acquisition unit extracts the frequency component using frequency conversion, and the analysis unit analyzes the image data using a result of the frequency conversion by the acquisition unit. . 前記周波数変換は、フーリエ変換、ウェーブレット変換、ラプラシアン演算、離散コサイン変換、アダマール変換、KL(Karhunen-Loeve)変換の少なくとも1つである請求項2または3に記載の画像解析装置。   The image analysis apparatus according to claim 2 or 3, wherein the frequency transform is at least one of Fourier transform, wavelet transform, Laplacian calculation, discrete cosine transform, Hadamard transform, and KL (Karhunen-Loeve) transform. 前記取得部は、前記複数フレームの画像データのうち直近に撮像された所定フレーム数の画像データ間における前記エネルギーの変化量を算出し、
前記制御部は、前記変化量が所定の閾値よりも小さくなったときに、前記撮像を終了する請求項1ないし4のいずれか1項に記載の画像解析装置。
The acquisition unit calculates a change amount of the energy between image data of a predetermined number of frames captured most recently among the image data of the plurality of frames,
The image analysis apparatus according to claim 1, wherein the control unit ends the imaging when the amount of change becomes smaller than a predetermined threshold.
前記制御部は、設定可能な最短距離に前記合焦距離を固定する請求項1ないし5のいずれか1項に記載の画像解析装置。   The image analysis apparatus according to claim 1, wherein the control unit fixes the focus distance to a shortest settable distance. ユーザからの指示を受け付ける操作部を備え、
前記制御部は、前記指示に応じて前記撮像を開始する請求項1ないし6のいずれか1項に記載の画像解析装置。
It has an operation unit that accepts instructions from users,
The image analysis apparatus according to claim 1, wherein the control unit starts the imaging in response to the instruction.
前記撮像部位に向けて光を照射する照明部を備え、
前記制御部は、前記撮像を継続している間、前記照明部を点灯させる請求項1ないし7のいずれか1項に記載の画像解析装置。
An illumination unit that emits light toward the imaging region;
The image analysis apparatus according to claim 1, wherein the control unit turns on the illumination unit while continuing the imaging.
前記撮像が終了したことをユーザに通知する通知部を備える請求項1ないし8のいずれか1項に記載の画像解析装置。   The image analysis apparatus according to claim 1, further comprising a notification unit that notifies a user that the imaging has been completed. スマートフォン、タブレットコンピュータ、PDA(Personal Digital Assistant)、ラップトップコンピュータまたは携帯電話である請求項1ないし9のいずれか1項に記載の画像解析装置。   The image analysis apparatus according to any one of claims 1 to 9, which is a smartphone, a tablet computer, a PDA (Personal Digital Assistant), a laptop computer, or a mobile phone. 前記第1の距離は、前記第2の距離よりも短い請求項1ないし10のいずれか1項に記載の画像解析装置。   The image analysis apparatus according to claim 1, wherein the first distance is shorter than the second distance. 前記第1の距離は、前記第2の距離よりも長い請求項1ないし10のいずれか1項に記載の画像解析装置。   The image analysis apparatus according to claim 1, wherein the first distance is longer than the second distance. 撮像部のオートフォーカス機能を無効にすることで前記撮像部の合焦距離を固定するステップと、
前記撮像部が人体表面の撮像部位に対して前記合焦距離とは異なる第1の距離に位置する状態において、所定のフレームレートで複数フレームの画像データの撮像を開始するステップと、
前記撮像部が前記撮像部位に対して前記合焦距離を越えて第2の距離となる位置に移動するまで、前記撮像を継続するステップと、
前記複数フレームの画像データから、前記撮像部位の鮮鋭度に基づく周波数成分のエネルギーが最大の前記画像データを取得するステップと、
取得した前記画像データを解析するステップとを備える画像解析方法。
Fixing the focusing distance of the imaging unit by disabling the autofocus function of the imaging unit;
Starting imaging a plurality of frames of image data at a predetermined frame rate in a state where the imaging unit is located at a first distance different from the in-focus distance with respect to an imaging part on the surface of a human body;
Continuing the imaging until the imaging unit moves to a position that becomes the second distance beyond the focusing distance with respect to the imaging site;
Obtaining the image data having the maximum frequency component energy based on the sharpness of the imaging region from the image data of the plurality of frames;
An image analysis method comprising: analyzing the acquired image data.
請求項13に記載の画像解析方法の各ステップをコンピュータに実行させるプログラム。   A program for causing a computer to execute each step of the image analysis method according to claim 13.
JP2016220935A 2016-11-11 2016-11-11 Image analysis device, image analysis method, and program Pending JP2018078528A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016220935A JP2018078528A (en) 2016-11-11 2016-11-11 Image analysis device, image analysis method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016220935A JP2018078528A (en) 2016-11-11 2016-11-11 Image analysis device, image analysis method, and program

Publications (1)

Publication Number Publication Date
JP2018078528A true JP2018078528A (en) 2018-05-17

Family

ID=62151059

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016220935A Pending JP2018078528A (en) 2016-11-11 2016-11-11 Image analysis device, image analysis method, and program

Country Status (1)

Country Link
JP (1) JP2018078528A (en)

Similar Documents

Publication Publication Date Title
US9967535B2 (en) Methods and apparatus for reducing noise in images
JP6271990B2 (en) Image processing apparatus and image processing method
EP4055812B1 (en) A system for performing ambient light image correction
KR101455018B1 (en) Image capturing apparatus, image capturing method, and computer-readable recording medium
JP2014023083A (en) Display device, imaging device, and image editing program
KR20170112763A (en) Electronic apparatus and operating method thereof
KR20160050755A (en) Electronic Device and Method for Recognizing Iris by the same
JP6447840B2 (en) Image device, method for automatic focusing in an image device, and corresponding computer program
JP2008109344A (en) Method of detecting specific object image and digital camera
WO2018019068A1 (en) Photographing method and device, and mobile terminal
CN107533765B (en) Apparatus, method and system for tracking optical objects
US9769379B2 (en) Method and apparatus for selecting target image
US20180220066A1 (en) Electronic apparatus, operating method of electronic apparatus, and non-transitory computer-readable recording medium
US9591213B2 (en) Electronic device, method and storage medium for generating an image
JP6172973B2 (en) Image processing device
JP7289308B2 (en) Image analysis device, image analysis method and program
JP6486453B2 (en) Image processing apparatus, image processing method, and program
JP2013048405A (en) Area extraction device, imaging device, and area extraction program
JP2018078528A (en) Image analysis device, image analysis method, and program
JP7289309B2 (en) Image analysis device, image analysis method and program
JP6679430B2 (en) IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, AND PROGRAM
KR20140106310A (en) Uneven pattern image acquisition apparatus and method
JP5949306B2 (en) Image processing apparatus, imaging apparatus, and image processing program
JP2022130888A (en) Image correction system, image correction method, and program
KR20150089727A (en) Smartphones camera apparatus for generating video signal by multi-focus and method thereof