CN105144228A - 图像处理程序、图像处理方法以及信息终端 - Google Patents
图像处理程序、图像处理方法以及信息终端 Download PDFInfo
- Publication number
- CN105144228A CN105144228A CN201380075945.3A CN201380075945A CN105144228A CN 105144228 A CN105144228 A CN 105144228A CN 201380075945 A CN201380075945 A CN 201380075945A CN 105144228 A CN105144228 A CN 105144228A
- Authority
- CN
- China
- Prior art keywords
- information terminal
- described information
- face
- distance
- sensor
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000003672 processing method Methods 0.000 title claims description 9
- 238000000034 method Methods 0.000 claims description 45
- 230000008569 process Effects 0.000 claims description 40
- 238000012360 testing method Methods 0.000 claims description 20
- 238000005259 measurement Methods 0.000 claims 1
- 238000001990 intravenous administration Methods 0.000 description 61
- 210000003811 finger Anatomy 0.000 description 24
- 210000003462 vein Anatomy 0.000 description 23
- 230000006870 function Effects 0.000 description 21
- 238000010586 diagram Methods 0.000 description 16
- 238000012545 processing Methods 0.000 description 11
- 238000001514 detection method Methods 0.000 description 9
- 230000015572 biosynthetic process Effects 0.000 description 8
- 238000005516 engineering process Methods 0.000 description 7
- 230000009471 action Effects 0.000 description 6
- 239000000463 material Substances 0.000 description 6
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 230000005484 gravity Effects 0.000 description 3
- 230000005055 memory storage Effects 0.000 description 3
- 239000004065 semiconductor Substances 0.000 description 3
- 230000002792 vascular Effects 0.000 description 3
- 210000004204 blood vessel Anatomy 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 238000010276 construction Methods 0.000 description 2
- 239000006185 dispersion Substances 0.000 description 2
- 210000003128 head Anatomy 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 238000009434 installation Methods 0.000 description 2
- 238000010295 mobile communication Methods 0.000 description 2
- 210000000056 organ Anatomy 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 238000012800 visualization Methods 0.000 description 2
- 102000001554 Hemoglobins Human genes 0.000 description 1
- 108010054147 Hemoglobins Proteins 0.000 description 1
- 238000010521 absorption reaction Methods 0.000 description 1
- 230000003321 amplification Effects 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 210000005224 forefinger Anatomy 0.000 description 1
- 230000008676 import Effects 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 238000003199 nucleic acid amplification method Methods 0.000 description 1
- 230000005693 optoelectronics Effects 0.000 description 1
- 238000010408 sweeping Methods 0.000 description 1
- 210000003813 thumb Anatomy 0.000 description 1
- 238000002604 ultrasonography Methods 0.000 description 1
- 210000005166 vasculature Anatomy 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/166—Detection; Localisation; Normalisation using acquisition arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/30—Authentication, i.e. establishing the identity or authorisation of security principals
- G06F21/31—User authentication
- G06F21/32—User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/002—Specific input/output arrangements not covered by G06F3/01 - G06F3/16
- G06F3/005—Input arrangements through a video camera
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/012—Head tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/12—Fingerprints or palmprints
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/60—Static or dynamic means for assisting the user to position a body part for biometric acquisition
- G06V40/67—Static or dynamic means for assisting the user to position a body part for biometric acquisition by interactive indications to the user
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/048—Indexing scheme relating to G06F3/048
- G06F2203/04806—Zoom, i.e. interaction techniques or interactors for controlling the zooming operation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
- G06T2207/30201—Face
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/14—Vascular patterns
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Computer Security & Cryptography (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Software Systems (AREA)
- Computer Hardware Design (AREA)
- Oral & Maxillofacial Surgery (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Image Input (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
- Collating Specific Patterns (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本发明涉及图像处理程序、图像处理方法以及信息终端。具有画面、设在配置了该画面的背面的第一传感器、以及第二传感器的信息终端(10)使通过第一传感器拍摄到的第一被拍摄体的图像显示于画面。此时,信息终端(10)根据通过设在信息终端(10)的第二传感器拍摄到的第二被拍摄体的位置来变更第一被拍摄体的图像的缩放程度以及显示位置。
Description
技术领域
本发明涉及图像处理程序、图像处理方法以及信息终端。
背景技术
随着对信息安全的意识的提高,以智能手机为首,在直板终端、平板终端等个人用的信息终端中,也在锁定解除、登录等认证中导入生物体认证。
这样,在信息终端拍摄生物体的情况下,在作为被拍摄体的生物体部位的位置或者姿势并不适当的情况下,有时产生不能够正确地提取认证所使用的生物体信息、提取出的特征量与登记时的特征量并不匹配这样的不良情况。这样的情况下,不仅认证时间变长,认证的精度也降低。
作为应对该问题的技术的一个例子,存在将用于生物体部位的对位、引导的动作指示与通过传感器获取的生物体图像重叠显示的技术。
专利文献1:日本特表2010-541046号公报
专利文献2:日本特开2007-052534号公报
专利文献3:日本特开2009-157908号公报
专利文献4:日本特开2004-258714号公报
专利文献5:日本特开2008-071030号公报
然而,上述的技术如以下所说明的那样,认证精度的提高存在限制。
例如,在智能手机、直板终端、平板终端等个人用的信息终端中,也有拍摄生物体的传感器配置在背面,即画面的背面的信息终端。在以这样的信息终端拍摄生物体的情况下,由于利用者不能够直接目视观察传感器的位置,所以将生物体部位配置在适当的位置变得更加困难。然而,上述的技术均仅是以传感器设置在从利用者能够直接目视观察的位置为前提,进行用于生物体部位的对位、引导的动作指示的技术,这样的对位、引导在传感器处于背面的情况下并不通用。因此,在上述的技术中,依然不能够消除不能够正确地提取认证所使用的生物体信息、提取出的特征量与登记时的特征量不匹配这样的不良情况,存在认证精度降低的情况。
发明内容
在一个方面,发明的目的在于提供使认证精度提高的图像处理程序、图像处理方法以及信息终端。
一方式的图像处理程序使具备画面、设在配置了该画面的面的背面的第一传感器、以及第二传感器的信息终端执行在使通过上述第一传感器拍摄到的第一被拍摄体的图像显示于上述画面时,根据通过设于上述信息终端的第二传感器拍摄到的第二被拍摄体的位置变更该图像的缩放程度以及显示位置的处理。
能够使认证精度提高。
附图说明
图1是表示实施例1所涉及的信息终端的功能构成的框图。
图2是表示手掌图像的显示区域的决定方法的一个例子的图。
图3是表示手掌图像的显示区域的决定方法的一个例子的图。
图4是表示显示在触摸面板的手掌图像的一个例子的图。
图5是表示显示在触摸面板的手掌图像的一个例子的图。
图6是表示显示在触摸面板的手掌图像的一个例子的图。
图7是表示实施例1所涉及的认证处理的顺序的流程图。
图8是表示实施例2所涉及的信息终端的功能构成的框图。
图9是表示实施例2所涉及的认证处理的顺序的流程图。
图10是表示实施例3所涉及的信息终端的功能构成的框图。
图11是表示实施例3所涉及的认证处理的顺序的流程图。
图12是用于说明执行实施例1~实施例3所涉及的图像处理程序的计算机的一个例子的图。
具体实施方式
以下参照附图对本申请所涉及的图像处理程序、图像处理方法以及信息终端进行说明。此外,该实施例并不限定于公开的技术。而且,各实施例能够在不使处理内容矛盾的范围内适当地组合。
实施例1
[信息终端的构成]
首先,对本实施例所涉及的信息终端的功能构成进行说明。图1是表示实施例1所涉及的信息终端的功能构成的框图。图1所示的信息终端10是执行信息处理的终端装置。在图1的例子中,假定信息终端10的画面,即屏幕的锁定解除、登录的认证应用手掌静脉认证的情况进行以下的说明。
这里,上述的信息终端10在利用设在画面的背面的静脉传感器13使手掌拍摄的情况下,使通过静脉传感器13拍摄到的图像作为手掌的对位的瞄准显示于画面。作为这样的对位的一环,信息终端10执行根据通过设在画面侧的照相机12拍摄到的图像所映出的脸的器官的位置,例如眼睛的位置来变更显示在画面的图像的位置以及大小的图像处理。此外,上述的手掌包含在第一被拍摄体的一方式。另外,上述的脸包含在第二被拍摄体。
作为一方式,信息终端10能够通过使作为软件包、在线软件提供的图像处理程序安装在所希望的计算机来进行安装。例如,不仅是智能手机,移动电话机、PHS(PersonalHandyphoneSystem:个人手持式电话系统)等移动体通信终端,也可以使上述的图像处理程序安装在包括不与移动体通信网连接的PDA(PersonalDigitalAssistants:掌上电脑)等的平板终端、直板终端。由此,能够使平板终端、直板终端作为信息终端10发挥作用。此外,这里,作为信息终端10的安装例例示了平板终端、直板终端,但也可以使图像处理程序安装在以个人计算机为首的固定终端。
如图1所示,信息终端10具有触摸面板11、照相机12、静脉传感器13、距离传感器14、适当配置存储部15、视点检测部16、显示控制部17、以及认证部18。此外,信息终端10也可以除了图1所示的功能部以外还具有已知的平板终端、直板终端具有的各种功能部。例如,在信息终端10作为移动体通信终端安装的情况下,也可以进一步具有天线、经由移动体通信网进行通信的无线通信部、GPS(GlobalPositioningSystem:全球定位系统)接收机等功能部。
触摸面板11是能够进行显示并且能够进行输入的设备。作为一方式,触摸面板11显示以在信息终端10上执行的图像处理程序为首,通过OS(OperatingSystem:操作系统)、应用程序输出的图像。作为另一方式,触摸面板11接受在画面的屏幕上进行的点击、滑动、摆动、缩小、放大等触摸操作。
照相机12是安装CCD(ChargeCoupledDevice:电荷耦合元件)、CMOS(ComplementaryMetalOxideSemiconductor:互补金属氧化物半导体)等图像传感器的拍摄设备。例如,在照相机12能够安装R(红色)、G(绿色)、B(蓝色)等三种以上的受光元件。作为这样的照相机12的安装例,能够挪用与平板终端、直板终端的屏幕设在同一面侧的内照相机。此外,这里,例示了信息终端10具有照相机12的情况,但在能够经由网络或者存储设备获取图像的情况下,也可以信息终端10并不一定具有照相机12。
例如,照相机12以在触摸面板11上进行了与屏幕的锁定解除或者登录认证等指令对应的触摸操作为契机,开始拍摄。此时,在设在信息终端10的屏幕侧的照相机12的拍摄范围,以对屏幕的显示进行阅览的信息终端10的使用者的脸为首,包含有头部、衣服等。其结果,通过照相机12拍摄到的图像也以信息终端10的使用者的脸为首,包含头部、衣服等。以下,有时将通过照相机12拍摄到的图像记载为“脸图像”。
静脉传感器13是拍摄手掌的内部存在的静脉的血管图案的传感器。作为一方式,静脉传感器13通过包括照射近红外光的照明装置、和包括能够捕捉近红外光的图像传感器的拍摄设备而构成。其中,拍摄设备作为一个例子,能够挪用设在平板终端、直板终端的屏幕的背面的外照相机。
这里,静脉传感器13设在信息终端10的端部的附近。例如,在信息终端10为矩形形状的壳体的情况下,设在与设置了屏幕的面相反的一侧的面,即背面并设在壳体的四角中任意一个角的附近。因此,在手掌在静脉传感器13的拍摄范围的中央以适当的大小配置的情况下,存在从在观察屏幕的显示同时将手掌罩在其背面的静脉传感器13的信息终端10的使用者能够越过屏幕伸出自身的指尖的一部分并进行观察的情况。
上述的静脉传感器13例如,以在触摸面板11上进行了与屏幕的锁定解除或者登录认证等指令对应的触摸操作为契机,开始拍摄。即,静脉传感器13从照明装置照射近红外光。由此,静脉传感器13使与来自照明装置的红外光的照射联动地启动的拍摄设备将从手掌的表面、内部反射而返回的近红外光的反射光成像。其结果,通过对在拍摄设备成像的反射光进行光电转换输出映出了拍摄设备的拍摄范围内的被拍摄体的图像。此时,在拍摄范围包含了手掌的情况下,能够得到由于静脉中的血红蛋白吸收近红外线而强调了静脉的血管图案的图像。此外,以下,有时将通过静脉传感器13拍摄到的图像记载为“手掌图像”。另外,这里,假定将包含静脉的认证部位设为手掌的情况,但也能够将认证部位设为手背。
这样,本实施例所涉及的照相机12以及静脉传感器13在执行屏幕的锁定解除、登录的认证的情况下,启动两个拍摄设备双方,利用两个拍摄设备的各个拍摄图像。该情况下,在照相机12以及静脉传感器13之间同步拍摄图像。例如,通过静脉传感器13拍摄到的手掌图像的帧与通过照相机12拍摄到的脸图像的帧两者使用帧编号等建立对应关系。通过这样的对应关系,帧编号相同的图像的各个能够作为在同一时刻拍摄到的图像在以后的处理使用。这些脸图像以及手掌图像的拍摄与在一般的信息终端以通过拍摄模式的切换启动一方的照相机而停止另一方的照相机的状态排他地使用一个照相机的一般的使用方法划清界限。
此外,这里,作为开始手掌图像的拍摄的触发,例示了锁定解除、登录认证等的点击操作,但触发并不限定于本例。例如,也可以利用针对未图示的按钮等物理键的操作开始。另外,也可以没有特别的触发而使照相机12以及静脉传感器13预先启动,并在从任意一个拍摄设备所拍摄的图像检测到特定的手势,例如眨眼、V字形手势的情况下,开始手掌的对位。
距离传感器14是测量两点间的距离的传感器。作为一方式,距离传感器14朝向从后述的视点检测部16指示的方向,即与在脸图像上检测到视点的位置对应的方向送出红外线、电波、超声波等波动。之后,距离传感器14接受在被拍摄体反射的波动,并通过计算送出的波动和接受的波动的时间差或者相位差等来测量距离传感器14以及视点之间的距离。
适当配置存储部15是存储相对于静脉传感器13的生物体的适当配置的存储部。这里所说的“适当配置”是指在信息终端10的使用时使用者以采取的标准的姿势将手掌罩上静脉传感器时手的一部分能够越过屏幕露出来而被观察到的配置。例如,能够列举信息终端10的使用者以一只手保持信息终端10,在对屏幕的显示进行阅览的同时以伸出另一只手的手指的姿势将手掌罩在静脉传感器13时大拇指、食指、中指、无名指的指尖能够越过屏幕露出而被观察到的配置。
采用这样的配置作为适当配置除了使手掌配置在设置在信息终端10的角部的附近的静脉传感器13的拍摄范围的中央之外,还有以下那样的目的。即,因为在拍摄与持有信息终端10的一方的手相反的手的手掌的情况下通过使指尖露出,信息终端10的使用者容易把握静脉传感器13与手掌的距离为何种程度。
在这些静脉传感器13以及手掌之间适当的距离根据静脉传感器13的装备的性能,例如除了图像传感器具有的分辨率之外,还根据透镜的个数、种类决定。此外,这里,不仅是在执行手掌静脉认证的情况下进行拍摄的情况,在预先登记信息终端10的所有者本人的手掌图像的情况下,也登记在与适当配置相同的环境拍摄到的手掌图像。此外,以下,有时将为了与通过静脉传感器13拍摄到的手掌图像比较,而预先登记的手掌图像记载为“登记手掌图像”。
作为一方式,适当配置存储部15存储能够确定朝向静脉传感器13罩上的手掌的面被模型化后的矩形的确定信息,例如形成矩形的顶点的三维坐标或者矩形的重心的三维坐标和矩形的高度以及宽度等。这里所说的坐标,作为一个例子,采用相对于信息终端10的相对坐标。此外,这里,例示了相对于静脉传感器13的手掌的配置被模型化为矩形的情况,但模型化能够采用任意的形状,例如椭圆、圆、多角形等。
视点检测部16是检测信息终端10的使用者的视点的位置的处理部。作为一方式,视点检测部16对通过照相机12拍摄到的脸图像,执行肤色检测、模板匹配等图像处理。例如,视点检测部16通过执行肤色检测从脸图像提取脸图像内所包含的脸的部分。之后,视点检测部16通过在通过肤色检测提取出的脸的区域执行模板匹配来从脸的部分的图像提取脸的器官,例如眼睛、鼻子、口、耳朵的形状、大小等几何学的特征。由此,确定脸图像上的右眼、左眼或者两眼的位置。
在像这样确定出脸图像上的眼睛的位置之后,视点检测部16通过使距离传感器14向与脸图像上的眼睛的位置对应的方向送出波动来使距离传感器14测量距离传感器14以及信息终端10的使用者的眼睛之间的距离。此时,使距离传感器14送出波动的方向可以是与脸图像上的右眼的中心对应的方向,也可以是与左眼的中心对应的方向,也可以是与两眼的中间点对应的方向。其后,视点检测部16根据通过距离传感器14测量出的到信息终端10的使用者的眼睛为止的距离、先前检测出的脸图像上的眼睛的位置、以及距离传感器14的坐标计算信息终端10的使用者的眼睛位于三维空间上的坐标,即视点的位置。
显示控制部17是执行对触摸面板11的显示控制的处理部。作为一方式,显示控制部17根据通过视点检测部16检测出的视点的位置、和存储于适当配置存储部15的手掌的适当配置,决定使通过静脉传感器13拍摄到的手掌图像在触摸面板11显示的大小以及位置。
图2以及图3是表示手掌图像的显示区域的决定方法的一个例子的图。图2图示了从侧面观察信息终端10的屏幕的情况下的侧视图,图3图示了从斜向观察信息终端10的屏幕的情况下的立体图。此外,在图3省略了照相机12以及静脉传感器13的图示。
如图2所示,在以线段连结视点200与矩形状的适当配置210包含的各顶点之间时,投影在触摸面板11的屏幕的显示区域220的位置以及大小被决定为显示位置以及显示尺寸。例如,如图3所示,显示区域220通过上述的线段的各交点220A~220D四个点规定显示在触摸面板11的位置以及大小。
其中,交点220A是指连结视点200和顶点210A的线段与触摸面板11的屏幕相交的点,交点220B是指连结视点200和顶点210B的线段与触摸面板11的屏幕相交的点。另外,交点220C是指连结视点200和顶点210C的线段与触摸面板11的屏幕相交的点,交点220D是指连结视点200和顶点210D的线段与触摸面板11的屏幕相交的点。
这样,显示控制部17通过对连结通过视点检测部16检测出的视点与存储于适当配置存储部15的适当配置所包含的顶点的直线的每一个,计算该直线与触摸面板11的屏幕相交的交点的坐标来决定手掌图像的显示区域220。这样的显示区域220根据四个交点220A~220D的配置决定区域的位置以及大小。例如,视点200越接近屏幕显示区域220的尺寸越小,视点越远离屏幕显示区域220越接近适当配置210的大小。
之后,显示控制部17根据先前决定的显示位置以及显示尺寸使通过静脉传感器13拍摄到的手掌图像显示于触摸面板11。例如,以图2以及图3的例子来说,在包含交点220A~交点220D的显示区域220显示通过静脉传感器13拍摄到的手掌图像。
图4~图6是表示显示于触摸面板11的手掌图像的一个例子的图。其中,图4图示了在与适当配置210重合的位置罩上手掌的状态。这样,在与适当配置210重合的位置罩上手掌的情况下,显示于触摸面板11的手掌图像的手指的端部、和越过屏幕露出的指尖的实物能够无不协调感地连接观察。通过这样的手掌图像的显示,信息终端10的使用者能够确认提示手掌在适当的位置的状况,结果能够到手掌静脉的认证结束为止将手掌留在当前的提示位置。
另外,图5图示了手掌罩在与适当配置210相比接近屏幕的位置的状态。这样,在手掌罩在与适当配置210相比接近屏幕的位置的情况下,与越过屏幕露出的指尖的实物的规模相比,以显示于触摸面板11的手掌图像的手指为首,较大地显示手掌的规模。即,由于与从信息终端10的使用者的视点到指尖的距离相比从静脉传感器13到指尖的距离较短,起因于在静脉传感器13设置广角透镜的情况较多。因此,即使在手掌与适当配置210相比接近屏幕到从越过屏幕观察指尖的使用者难以理解的程度的情况下,也能够以比能够越过屏幕观察到的指尖的实物的规模大的规模显示映出了手掌、指尖的手掌图像。通过这样的手掌图像的显示,信息终端10的使用者能够确认手掌与适当的位置相比接近而提示的状况,结果能够判断为与当前的提示位置相比远离信息终端10的壳体进行提示较好。
另外,图6图示了手掌罩在与适当配置210相比远离屏幕的位置的状态。这样,在手掌罩在与适当配置210相比远离屏幕的位置的情况下,与越过屏幕露出的指尖的实物的规模相比,以显示于触摸面板11的手掌图像的手指为首,较小地显示手掌的规模。因此,即使在手掌与适当配置210相比远离屏幕到从越过屏幕观察指尖的使用者难以理解的程度而进行了提示的情况下,也能够以比能够越过屏幕观察到的指尖的实物的规模小的规模显示映出了手掌、指尖的手掌图像。通过这样的手掌图像的显示,信息终端10的使用者能够确认手掌与适当的位置相比远离而提示的状况,结果能够判断为与当前的提示位置相比接近信息终端10的壳体进行提示较好。
并且,在图4~图6的例子中,与在信息终端10的使用者的视点的正前方显示手掌图像不同,在从信息终端10的使用者的视点朝向适当配置的方向以从正前方偏离的方式显示手掌图像。因此,信息终端10的使用者也能够直观地把握设置在屏幕的背面而视觉确认较困难的静脉传感器13的视场的同时提示手掌。另外,如图4~图6所示,通过使手掌图像与提取处于手掌的内部的血管的图案的范围的中心位置重叠地显示也能够瞄准该位置对手掌进行对位。
返回到图1的说明,认证部18是执行手掌静脉认证的处理部。作为一方式,认证部18从通过静脉传感器13拍摄到的手掌图像提取与静脉的血管图案有关的特征量。例如,认证部18从手掌图像取出血管部分后进行细线化,并提取血管中的分支点的坐标、分支点间的长度、分支点的分支角度等特征量作为静脉数据。之后,认证部18在从手掌图像提取出的静脉数据、和预先登记的信息终端10的所有者本人等的静脉数据之间计算匹配度。此时,通过预先登记多个许可信息终端10的使用的人物的静脉数据,不仅能够执行一对一认证,也能够执行一对N认证。而且,认证部18在先前计算出的匹配度中最大的匹配度在规定的阈值以上的情况下,判定为手掌静脉认证成功。另外,认证部18在最大的匹配度在规定的不足以上的情况下,判定为手掌静脉认证失败。像这样通过认证部18执行了手掌静脉认证的认证结果输出给执行锁定解除、登录认证的OS、应用程序。此外,认证部18能够采用细节方式、图案匹配方式、频率解析法等任意的匹配方式。
这里,认证部18并不一定通过静脉传感器13拍摄到手掌图像后立即执行手掌静脉认证。即,认证部18每当通过静脉传感器13拍摄到手掌图像,判定该手掌图像所映出的手掌是否配置在适当的位置。例如,认证部18能够在通过静脉传感器13拍摄到的手掌图像所映出的手指的粗度与预先登记的静脉数据的手指的粗度的差在规定的阈值以内的情况下,执行手掌静脉认证。另外,认证部18能够在从信息终端10的使用者接受了规定的声音消息,例如“OK”等输入的情况下,执行手掌静脉认证。此外,认证部18即使在手掌静脉认证失败的情况下,也能够在手掌静脉认证的重试的次数达到规定的次数为止,通过显示控制部17使手掌图像显示在触摸面板11上,并且使手掌静脉认证重试。
此外,上述的视点检测部16、显示控制部17以及认证部18能够通过使CPU(CentralProcessingUnit:中央处理器)、MPU(MicroProcessingUnit:微处理器)等执行图像处理程序来实现。另外,上述的各功能部也能够通过ASIC(ApplicationSpecificIntegratedCircuit:专用集成电路)、FPGA(FieldProgrammableGateArray:现场可编程门阵列)等硬接线逻辑来实现。
另外,上述的适当配置存储部15能够采用半导体存储器元件、存储装置。例如,作为半导体存储器元件的一个例子,能够列举VRAM(VideoRandomAccessMemory:显存),RAM(RandomAccessMemory:随机存储器)、ROM(ReadOnlyMemory:只读存储器)、闪存(flashmemory)等。另外,作为存储装置的一个例子,能够列举硬盘、光盘等存储装置。
[处理的流程]
图7是表示实施例1所涉及的认证处理的顺序的流程图。该认证处理作为一个例子,在触摸面板11上进行了与屏幕的锁定解除或者登录认证等指令对应的触摸操作的情况下,启动处理。
如图7所示,若通过照相机12拍摄到脸图像,并且通过静脉传感器13拍摄到手掌图像(步骤S101),则视点检测部16检测在步骤S101拍摄到的脸图像上的使用者的眼睛的位置(步骤S102)。
接着,视点检测部16通过使距离传感器14向与在步骤S102检测出的脸图像上的眼睛的位置对应的方向送出波动,使距离传感器14测量距离传感器14以及信息终端10的使用者的眼睛之间的距离(步骤S103)。
其后,视点检测部16根据在步骤S103测量出的到信息终端10的使用者的眼睛的距离、在步骤S102检测出的脸图像上的眼睛的位置、以及距离传感器14的坐标计算信息终端10的使用者的眼睛位于的三维空间上的坐标,即视点的位置(步骤S104)。
然后,显示控制部17读出存储于适当配置存储部15的适当配置(步骤S105)。之后,显示控制部17通过对连结在步骤S104检测出的视点、和在步骤S105读出的适当配置所包含的顶点的直线的每一个,计算该直线与屏幕的交点的坐标,来决定手掌图像的显示区域,即显示位置以及显示尺寸(步骤S106)。
接着,显示控制部17根据在步骤S106决定出的显示位置以及显示尺寸使在步骤S101拍摄到的手掌图像显示于触摸面板11(步骤S107)。
然后,反复执行上述的步骤S101~步骤S107的处理,直到通过认证部18判定为手掌图像所包含的手掌配置在适当的位置为止(步骤S108否)。
其后,若手掌图像所包含的手掌配置在适当的位置(步骤S108是),则认证部18执行以下那样的处理。即,认证部18通过对从在步骤S101拍摄到的手掌图像提取的静脉数据、和预先登记的静脉数据进行匹配来执行手掌静脉认证(步骤S109),并将认证结果输出给在信息终端10上动作的OS、应用程序,并结束处理。
[实施例1的效果]
如上述那样,本实施例所涉及的信息终端10在利用设置在画面的背面的静脉传感器13拍摄手掌的情况下,根据设置在与画面相同的侧的面的照相机12所映的眼睛的位置来变更显示于画面的手掌图像的位置以及大小。例如,在手的一部分,例如指尖越过屏幕露出的情况下,能够以手掌位于手掌图像的中央,并且,手掌图像所映的手掌、手指的规模符合露出的实物的指尖的规模的方式进行对位。因此,在本实施例所涉及的信息终端10中,即使在静脉传感器13设置在画面的背面的情况下,也能够提高对位的精度。因此,根据本实施例所涉及的信息终端10,能够使认证精度提高。
实施例2
接下来,虽然在上述的实施例1中,例示了为了检测信息终端10的使用者的视点的位置而使用距离传感器14的情况,但根据信息终端的种类有时并不一定具有距离传感器14。因此,在本实施例中,不使用距离传感器14,而以下对推定使用者的视点的位置的信息终端20进行说明。
图8是表示实施例2所涉及的信息终端20的功能构成的框图。图8所示的信息终端20与图1所示的信息终端10相比,具有距离存储部21以及视点位置推定部22这一点不同。此外,在图8对与图1所示的信息终端10之间功能存在差异的处理部附加不同的符号,对具有相同的功能的处理部附加相同的符号并省略其说明。
距离存储部21是存储到信息终端20的距离的存储部。作为一方式,距离存储部21存储将通过照相机12拍摄到标准的人物的情况下的脸图像上的形成脸的横向宽度的像素数与在该标准的人物的脸以及信息终端20之间测量出的距离建立对应关系的数据。这里所说的“标准的人物”作为一个例子,是指脸的横向宽度为统计平均值、中央值的人物。此外,这里,虽然例示了将脸的横向宽度与到信息终端20的距离建立对应关系进行存储的情况,但只要是特征点间的距离即可,也可以将脸的纵向宽度,或者左右眼的距离与到信息终端20的距离建立对应关系进行存储。另外,这里,例示了存储通过照相机12拍摄到标准的人物的情况下的脸图像上的脸的横向宽度以及测量距离的情况,但也可以预先采取通过照相机12拍摄到信息终端20的所有者本人的情况下的脸的横向宽度、测量距离。
视点位置推定部22与图1所示的视点检测部16相比,在到确定脸图像上的右眼、左眼或者两眼的位置为止共用处理,另一方面其以后的处理不同。若对其进行具体说明,则视点位置推定部22从距离存储部21读出拍摄到标准的人物的情况下的脸的横向宽度以及到信息终端20的测量距离。然后,视点位置推定部22根据通过照相机12拍摄到的脸图像通过执行肤色检测、模板匹配等图像处理来对形成信息终端20的使用者的脸的横向宽度的像素数进行计数。接着,视点位置推定部22在根据脸图像对像素数进行计数的信息终端20的使用者的脸的横向宽度与标准的人物被照相机12拍摄到的情况下的脸图像上的脸的横向宽度的像素数之间计算比率,例如将前者的横向宽度除以后者的横向宽度后的除法值。之后,视点位置推定部22通过对从距离存储部21读出的标准的人物的脸以及信息终端20之间的测量距离乘以先前计算出的比率的倒数,即除法值的倒数来推定信息终端20的使用者的脸以及信息终端20之间的距离。
由此,将信息终端20的使用者的脸的横向宽度视为标准的人物的横向宽度,并配合这次的脸图像的拍摄得到的脸的横向宽度的缩放能够修正预先以标准的人物进行拍摄的情况下的测量距离。例如,在与预先拍摄了标准的人物的脸时相比信息终端20的使用者的脸接近屏幕的情况下,较大地检测到使用者的脸的横向宽度。此时,上述的比率比1大地被计算出,所以通过乘以比率的倒数能够较小地修正预先以标准的人物进行拍摄的情况下的测量距离。另一方面,在与预先拍摄了标准的人物的脸时相比信息终端20的使用者的脸远离屏幕的情况下,较小地检测到使用者的脸的横向宽度。此时,上述的比率比1小地被计算出,所以通过乘以比率的倒数能够较大地修正预先以标准的人物进行拍摄的情况下的测量距离。此外,这里,例示了计算比率的情况,但也可以计算两者的差。例如,在信息终端20的使用者的脸的横向宽度比预先以标准的人物进行拍摄的脸的横向宽度小的情况下,较大地修正测量距离,另一方面在信息终端20的使用者的脸的横向宽度比预先以标准的人物进行拍摄的脸的横向宽度大的情况下,较小地修正测量距离即可。
其后,视点位置推定部22根据先前推定出的到信息终端20的使用者的脸的距离、先前检测出的脸图像上的眼睛的位置、以及信息终端20的坐标,例如屏幕的重心的坐标来推定信息终端20的使用者的眼睛位于的三维空间上的坐标,即视点的位置。
图9是表示实施例2所涉及的认证处理的顺序的流程图。该认证处理也与图7所示的流程图相同,在触摸面板11上进行了与屏幕的锁定解除或者登录认证等指令对应的触摸操作的情况下,启动处理。
如图9所示,若通过照相机12拍摄到脸图像,并且通过静脉传感器13拍摄到手掌图像(步骤S101),则视点位置推定部22检测在步骤S101拍摄到的脸图像上的使用者的眼睛的位置(步骤S102)。
接着,视点位置推定部22根据在步骤S101拍摄到的脸图像通过执行肤色检测、模板匹配等图像处理来对形成信息终端20的使用者的脸的横向宽度的像素数进行计数(步骤S201)。
然后,视点位置推定部22通过使用在步骤S201计数出的脸的横向宽度的像素数与存储于距离存储部21的脸图像上的脸的横向宽度的像素数的比率,修正存储于距离存储部21的标准的人物的脸以及信息终端20之间的测量距离来推定信息终端20的使用者的脸以及信息终端20之间的距离(步骤S202)。
其后,视点位置推定部22根据在步骤S202推定出的到信息终端20的使用者的眼睛的距离、在步骤S102检测出的脸图像上的眼睛的位置、以及信息终端20的坐标来推定信息终端20的使用者的眼睛位于的三维空间上的坐标,即视点的位置(步骤S203)。
然后,显示控制部17读出存储于适当配置存储部15的适当配置(步骤S105)。之后,显示控制部17通过对连结在步骤S203推定出的视点、和在步骤S105读出的适当配置所包含的顶点的直线的每一个,计算该直线与屏幕的交点的坐标,来决定手掌图像的显示区域,即显示位置以及显示尺寸(步骤S106)。
接着,显示控制部17根据在步骤S106决定出的显示位置以及显示尺寸使在步骤S101拍摄到的手掌图像显示于触摸面板11(步骤S107)。
然后,反复执行上述的步骤S101~步骤S107的处理,直到通过认证部18判定为手掌图像所包含的手掌配置在适当的位置为止(步骤S108否)。
其后,若手掌图像所包含的手掌配置在适当的位置(步骤S108是),则认证部18执行以下那样的处理。即,认证部18通过对从在步骤S101拍摄到的手掌图像提取的静脉数据、和预先登记的静脉数据进行匹配来执行手掌静脉认证(步骤S109),并将认证结果输出给在信息终端20上动作的OS、应用程序,并结束处理。
[实施例2的效果]
如上述那样,根据本实施例所涉及的信息终端20,即使在静脉传感器13设置在画面的背面的情况下,也能够提高对位的精度,所以与上述的实施例1相同,能够使认证精度提高。
并且,在本实施例所涉及的信息终端20中,将信息终端20的使用者的脸的横向宽度视为标准的人物的横向宽度,并配合这次的脸图像的拍摄得到的脸的横向宽度的缩放来修正预先以标准的人物进行拍摄的情况下的测量距离,所以即使没有距离传感器14等硬件也能够推定视点的位置。
实施例3
接下来,虽然在上述的实施例2中,例示了根据通过照相机12拍摄到的脸图像所映出的脸的横向宽度来推定信息终端20的使用者的视点的位置的情况,但也可以视点的位置的推定并不一定使用脸的横向宽度。因此,在本实施例中,以下对使用通过静脉传感器13拍摄到的手掌图像,推定使用者的视点的位置得信息终端30进行说明。
图10是表示实施例3所涉及的信息终端30的功能构成的框图。图10所示的信息终端30与图8所示的信息终端20相比,具有距离存储部31以及视点位置推定部32这一点不同。此外,在图10对在与图8所示的信息终端20之间功能存在差异的处理部附加不同的符号,对具有相同的功能的处理部附加相同的符号并省略其说明。
距离存储部31是存储到信息终端30的距离的存储部。作为一方式,距离存储部31存储将通过静脉传感器13拍摄标准的人物的情况下的形成手掌图像上的手掌的横向宽度的像素数与在该标准的人物的脸以及信息终端30之间测量出的距离建立对应关系的数据。这里所说的“标准的人物”,作为一个例子,是指手掌的横向宽度为统计平均值、中央值的人物。此外,这里,例示了将手掌的横向宽度与到信息终端30的距离建立对应关系进行存储的情况,但除此之外,也可以将手掌的纵向宽度,或者手指的长度与测量距离建立对应关系进行存储。另外,这里,例示了存储通过静脉传感器13拍摄标准的人物的情况下的手掌图像上的手掌的横向宽度以及测量距离的情况,但也可以预先采取通过静脉传感器13拍摄信息终端30的所有者本人的情况下的手掌的横向宽度、测量距离。
视点位置推定部32与图8所示的视点位置推定部22相比,到确定脸图像上的右眼、左眼或者两眼的位置为止共用处理,另一方面其以后的处理不同。若对其进行具体说明,则视点位置推定部32从距离存储部31读出拍摄标准的人物的情况下的手掌的横向宽度以及到信息终端30的测量距离。然后,视点位置推定部32根据通过静脉传感器13拍摄到的手掌图像通过执行肤色检测、模板匹配等图像处理来对形成信息终端30的使用者的手掌的横向宽度的像素数进行计数。接着,视点位置推定部32在根据手掌图像对像素数进行计数的信息终端30的使用者的手掌的横向宽度与通过静脉传感器13拍摄标准的人物的情况下的手掌图像上的手掌的横向宽度的像素数之间计算比率,例如将前者的横向宽度除以后者的横向宽度后的除法值。之后,视点位置推定部32通过对从距离存储部31读出的标准的人物的脸以及信息终端30之间的测量距离,乘以先前计算出的比率,即除法值来推定信息终端30的使用者的脸以及信息终端30之间的距离。
由此,信息终端30的使用者的手掌的横向宽度与信息终端30以及信息终端30的使用者的眼睛之间的距离均依据体格,所以能够视为具有比例关系,并配合这次的手掌图像的拍摄得到的手掌的横向宽度的缩放修正预先以标准的人物进行拍摄的情况下的测量距离。例如,在与预先拍摄的标准的人物的手掌相比信息终端30的使用者的手掌较大的情况,较大地检测到手掌的横向宽度。该情况下,上述的比率比1大地被计算出,通过乘以比率能够较大地修正预先以标准的人物进行拍摄的情况下的测量距离。另一方面,在与预先拍摄的标准的人物的手掌相比信息终端30的使用者的手掌较小的情况下,较小地检测到手掌的横向宽度。此时,上述的比率比1小地被计算出,所以通过乘以比率能够较小地修正预先以标准的人物进行拍摄的情况下的测量距离。此外,这里,例示了计算比率的情况,但也可以计算两者的差。例如,在信息终端30的使用者的手掌的横向宽度比预先以标准的人物进行拍摄的手掌的横向宽度小的情况下,较小地修正测量距离,另一方面在信息终端30的使用者的手掌的横向宽度比预先以标准的人物进行拍摄的手掌的横向宽度大的情况下,较大地修正测量距离即可。
其后,视点位置推定部32根据先前推定出的到信息终端30的使用者的脸的距离、先前检测出的脸图像上的眼睛的位置、以及信息终端30的坐标,例如屏幕的重心的坐标来推定信息终端30的使用者的眼睛位于的三维空间上的坐标,即视点的位置。
图11是表示实施例3所涉及的认证处理的顺序的流程图。该认证处理也与图7所示的流程图相同,在触摸面板11上进行了与屏幕的锁定解除或者登录认证等指令对应的触摸操作的情况下,启动处理。
如图11所示,若通过照相机12拍摄到脸图像,并且通过静脉传感器13拍摄到手掌图像(步骤S101),则视点位置推定部32检测在步骤S101拍摄到的脸图像上的使用者的眼睛的位置(步骤S102)。
接着,视点位置推定部32根据在步骤S101拍摄到的手掌图像通过执行肤色检测、模板匹配等图像处理来对形成信息终端30的使用者的手掌的横向宽度的像素数进行计数(步骤S301)。
然后,视点位置推定部32通过使用在步骤S301计数出的手掌的横向宽度的像素数与存储于距离存储部31的手掌图像上的手掌的横向宽度的像素数的比率,修正存储于距离存储部31的标准的人物的脸以及信息终端30之间的测量距离来推定信息终端30的使用者的脸以及信息终端30之间的距离(步骤S302)。
其后,视点位置推定部32根据在步骤S302推定出的到信息终端30的使用者的眼睛的距离、在步骤S102检测出的脸图像上的眼睛的位置、以及信息终端30的坐标来推定信息终端30的使用者的眼睛位于的三维空间上的坐标,即视点的位置(步骤S303)。
然后,显示控制部17读出存储于适当配置存储部15的适当配置(步骤S105)。之后,显示控制部17通过对连结在步骤S303推定出的视点、和在步骤S105读出的适当配置所包含的顶点的直线的每一个,计算该直线与屏幕的交点的坐标,来决定手掌图像的显示区域,即显示位置以及显示尺寸(步骤S106)。
接着,显示控制部17根据在步骤S106决定出的显示位置以及显示尺寸使在步骤S101拍摄到的手掌图像显示于触摸面板11(步骤S107)。
然后,反复执行上述的步骤S101~步骤S107的处理,直到通过认证部18判定为手掌图像所包含的手掌配置在适当的位置为止(步骤S108否)。
其后,若手掌图像所包含的手掌配置在适当的位置(步骤S108是),则认证部18执行以下那样的处理。即,认证部18通过对从在步骤S101拍摄到的手掌图像提取的静脉数据、和预先登记的静脉数据进行匹配来执行手掌静脉认证(步骤S109),并将认证结果输出给在信息终端20上动作的OS、应用程序,并结束处理。
[实施例3的效果]
如上述那样,根据本实施例所涉及的信息终端30,即使在静脉传感器13设置在画面的背面的情况下,也能够提高对位的精度,所以与上述的实施例1相同,能够使认证精度提高。
并且,在本实施例所涉及的信息终端30中,视为信息终端30的使用者的手掌的横向宽度与信息终端30以及信息终端30的使用者的眼睛之间的距离具有比例关系,并配合在这次的手掌图像的拍摄得到的手掌的横向宽度的缩放来修正预先以标准的人物进行拍摄的情况下的测量距离。由此,根据本实施例所涉及的信息终端30,即使没有距离传感器14等硬件也能够推定视点的位置。
实施例4
接下来,虽然到此为止对与公开的装置有关的实施例进行了说明,但本发明除了上述的实施例以外,还可以以各种不同的方式实施。因此,以下,对本发明所包含的其他的实施例进行说明。
[照相机12的代替]
在上述的实施例1~实施例3中,例示了信息终端10、20或者30具有照相机12的情况,但也可以并不一定具有照相机12。例如,也能够代替检测脸图像上的眼睛的位置,而视为信息终端10、20或者30的使用者的视点以终端为基准存在于特定的方向、屏幕的中心的法线方向,并将该视点相对于信息终端10、20或者30位于的方向保持在内部存储器等。由此,即使照相机12不设在与画面同一面侧,也能够检测或者推定视点的位置。
[认证方式]
在上述的实施例1~实施例3中,例示了在执行手掌静脉认证的情况下执行上述的图像处理的情况,但也能够应用于执行这以外的认证的情况。即,在用户的眼睛的位置与认证部位之间存在具有照相机、画面以及认证用的传感器的装置,且认证用的传感器与认证部位远离的情况下同样能够应用上述的图像处理。例如,在利用设置在信息终端10、20或者30的背面的拍摄设备拍摄掌纹、手背或者掌形(手形)来执行掌纹认证、手背认证或者掌形认证的情况下,也能够执行上述的图像处理,即图7、图9、图11所示的处理。
[分散以及合并]
另外,图示的各装置的各构成要素不需要在物理上一定如图示那样构成。即,各装置的分散、合并的具体方式并不限定于图示,而能够根据各种负载、使用状况等,将其全部或者一部分以任意的单位在功能上或者物理上分散、合并来构成。例如,也可以将视点检测部16或者显示控制部17作为信息终端10的外部装置经由网络进行连接。另外,也可以其它的装置分别具有视点检测部16或者显示控制部17,并通过网络连接进行配合,来实现上述的信息终端10的功能。
[图像处理程序]
另外,在上述的实施例说明的各种处理能够通过在个人计算机、工作站等计算机执行预先准备的程序来实现。因此,以下,使用图12,对执行具有与上述的实施例相同的功能的图像处理程序的计算机的一个例子进行说明。
图12是用于说明执行实施例1~实施例3所涉及的图像处理程序的计算机的一个例子的图。如图12所示,计算机100具有操作部110a、扬声器110b、照相机110c、显示器120、以及通信部130。并且,该计算机100具有CPU150、ROM160、HDD170、以及RAM180。这些110~180各部经由总线140连接。
如图12所示,在HDD170预先存储有发挥与在上述的实施例1示出的视点检测部16以及显示控制部17相同的功能的图像处理程序170a。另外,也可以在HDD170预先存储有发挥与在上述的实施例2示出的视点位置推定部22以及显示控制部17相同的功能得图像处理程序170a。另外,也可以在HDD170预先存储有发挥与在上述的实施例3示出的视点位置推定部32以及显示控制部17相同的功能的图像处理程序170a。对于该图像处理程序170a,与图1、图8或者图10所示的各个功能部的各构成要素相同,也可以适当地合并或者分离。即,储存于HDD170的各数据不需要全部的数据一直储存于HDD170,仅处理所需要的数据储存于HDD170即可。
而且,CPU150从HDD170读出图像处理程序170a并展开在RAM180。由此,如图12所示,图像处理程序170a作为图像处理工序180a发挥作用。该图像处理工序180a将从HDD170读出的各种数据适当地展开在RAM180上的分配给自身的区域,并基于该展开的各种数据执行各种处理。此外,图像处理工序180a包括在图1、图8或者图10所示的各功能部执行的处理,例如图7、图9以及图11所示的处理。另外,在CPU150上假想地实现的各处理部不需要全部的处理部一直在CPU150上动作,只要仅假想地实现处理所需要的处理部即可。
此外,对于上述的图像处理程序170a来说,并不需要从最初开始即存储于HDD170、ROM160。例如,也可以使各程序存储于插入计算机100的软盘、所谓的FD、CD-ROM、DVD盘、光磁盘、IC卡等“便携式物理介质”。然后,计算机100从这些便携式物理介质各获取程序并执行。另外,也可以使各程序预先存储于经由公用线路、网络、LAN、WAN等与计算机100连接的其他的计算机或者服务器装置等,且计算机100从它们获取各程序并执行。
符号说明
10…信息终端,11…触摸面板,12…照相机,13…静脉传感器,14…距离传感器,15…适当配置存储部,16…视点检测部,17…显示控制部,18…认证部。
Claims (12)
1.一种图像处理程序,其特征在于,
使具备画面、设在配置了该画面的面的背面的第一传感器、以及第二传感器的信息终端执行以下处理,即
在使通过所述第一传感器拍摄到的第一被拍摄体的图像显示于所述画面时,根据通过设在所述信息终端的第二传感器拍摄到的第二被拍摄体的位置变更该图像的缩放程度以及显示位置。
2.根据权利要求1所述的图像处理程序,其特征在于,
还使所述信息终端执行以下处理,即
使用测量距离的距离传感器,测量所述信息终端以及所述第二被拍摄体的距离;以及
根据所述信息终端以及所述第二被拍摄体的距离检测所述第二被拍摄体的位置。
3.根据权利要求1所述的图像处理程序,其特征在于,
所述第二被拍摄体包括所述信息终端的使用者的脸,
所述图像处理程序还使所述信息终端执行以下处理,即
使用从通过所述第二传感器拍摄到的图像得到的脸的特征点间的距离,推定所述信息终端以及所述信息终端的使用者的脸之间的距离;以及
根据所述信息终端以及所述信息终端的使用者的脸之间的距离推定所述第二被拍摄体的位置。
4.根据权利要求1所述的图像处理程序,其特征在于,
所述第一被拍摄体包括所述信息终端的使用者的生物体,
所述图像处理程序还使所述信息终端执行以下处理,即
使用从通过所述第一传感器拍摄到的图像得到的生物体的大小,推定所述信息终端以及所述信息终端的使用者的脸之间的距离;以及
根据所述信息终端以及所述信息终端的使用者的脸之间的距离推定所述第二被拍摄体的位置。
5.一种图像处理方法,其特征在于,
具备画面、设在配置了该画面的面的背面的第一传感器、以及第二传感器的信息终端执行以下处理,即
在使通过所述第一传感器拍摄到的第一被拍摄体的图像显示于所述画面时,根据通过设在所述信息终端的第二传感器拍摄到的第二被拍摄体的位置变更该图像的缩放程度以及显示位置。
6.根据权利要求5所述的图像处理方法,其特征在于,
所述信息终端还执行以下处理,即
使用测量距离的距离传感器,测量所述信息终端以及所述第二被拍摄体的距离;以及
根据所述信息终端以及所述第二被拍摄体的距离检测所述第二被拍摄体的位置。
7.根据权利要求5所述的图像处理方法,其特征在于,
所述第二被拍摄体包括所述信息终端的使用者的脸,
所述信息终端还执行以下处理,即
使用从通过所述第二传感器拍摄到的图像得到的脸的特征点间的距离,推定所述信息终端以及所述信息终端的使用者的脸之间的距离;以及
根据所述信息终端以及所述信息终端的使用者的脸之间的距离推定所述第二被拍摄体的位置。
8.根据权利要求5所述的图像处理方法,其特征在于,
所述第一被拍摄体包括所述信息终端的使用者的生物体,
所述信息终端还执行以下处理,即
使用从通过所述第一传感器拍摄到的图像得到的生物体的大小,推定所述信息终端以及所述信息终端的使用者的脸之间的距离;以及
根据所述信息终端以及所述信息终端的使用者的脸之间的距离推定所述第二被拍摄体的位置。
9.一种信息终端,其特征在于,
是具备画面、设在配置了该画面的面的背面的第一传感器、以及第二传感器的信息终端,具有:
显示控制部,其在使通过所述第一传感器拍摄到的第一被拍摄体的图像显示于所述画面时,根据通过设在所述信息终端的第二传感器拍摄到的第二被拍摄体的位置变更该图像的缩放程度以及显示位置。
10.根据权利要求9所述的信息终端,其特征在于,还具有:
测量部,其测量所述信息终端以及所述第二被拍摄体的距离;以及
检测部,其根据所述信息终端以及所述第二被拍摄体的距离检测所述第二被拍摄体的位置。
11.根据权利要求9所述的信息终端,其特征在于,
所述第二被拍摄体包括所述信息终端的使用者的脸,
所述信息终端还具有:推定部,其使用从通过所述第二传感器拍摄到的图像得到的脸的特征点间的距离,推定所述信息终端以及所述信息终端的使用者的脸之间的距离,并根据所述信息终端以及所述信息终端的使用者的脸之间的距离推定所述第二被拍摄体的位置。
12.根据权利要求9所述的信息终端,其特征在于,
所述第一被拍摄体包括所述信息终端的使用者的生物体,
所述信息终端还具有:推定部,其使用从通过所述第一传感器拍摄到的图像得到的生物体的大小,推定所述信息终端以及所述信息终端的使用者的脸之间的距离,并根据所述信息终端以及所述信息终端的使用者的脸之间的距离推定所述第二被拍摄体的位置。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2013/062431 WO2014174674A1 (ja) | 2013-04-26 | 2013-04-26 | 画像処理プログラム、画像処理方法及び情報端末 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN105144228A true CN105144228A (zh) | 2015-12-09 |
CN105144228B CN105144228B (zh) | 2018-07-06 |
Family
ID=51791278
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201380075945.3A Active CN105144228B (zh) | 2013-04-26 | 2013-04-26 | 图像处理方法以及信息终端 |
Country Status (6)
Country | Link |
---|---|
US (1) | US9697415B2 (zh) |
EP (1) | EP2991027B1 (zh) |
JP (1) | JP6052399B2 (zh) |
KR (1) | KR101711781B1 (zh) |
CN (1) | CN105144228B (zh) |
WO (1) | WO2014174674A1 (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106774937A (zh) * | 2017-01-13 | 2017-05-31 | 宇龙计算机通信科技(深圳)有限公司 | 一种增强现实技术中的图像交互方法及其装置 |
CN109754419A (zh) * | 2017-11-06 | 2019-05-14 | 株式会社日立制作所 | 位置推测系统 |
CN111164603A (zh) * | 2017-10-03 | 2020-05-15 | 富士通株式会社 | 姿势识别系统、图像修正程序以及图像修正方法 |
CN111183456A (zh) * | 2017-10-03 | 2020-05-19 | 富士通株式会社 | 识别程序、识别方法以及识别装置 |
CN113590250A (zh) * | 2021-07-29 | 2021-11-02 | 网易(杭州)网络有限公司 | 图像处理方法、装置、设备及存储介质 |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6287450B2 (ja) * | 2014-03-26 | 2018-03-07 | 富士通株式会社 | 携帯型情報処理装置、及びプログラム |
CN105809049B (zh) * | 2014-12-30 | 2019-11-05 | 中兴通讯股份有限公司 | 加解密的方法、装置及移动终端 |
CN105045395A (zh) * | 2015-08-28 | 2015-11-11 | 京东方科技集团股份有限公司 | 一种显示装置及画面显示方法 |
JP6583025B2 (ja) * | 2016-02-01 | 2019-10-02 | 富士通株式会社 | 生体情報処理装置、生体情報処理方法、生体情報処理プログラム、および距離検知装置 |
US10255507B2 (en) * | 2016-12-19 | 2019-04-09 | Canon Kabushiki Kaisha | Detection of an object in a distorted image |
JP6825397B2 (ja) | 2017-02-07 | 2021-02-03 | 富士通株式会社 | 生体認証装置、生体認証方法及び生体認証プログラム |
CN109960964A (zh) * | 2017-12-14 | 2019-07-02 | 红石生物特征科技有限公司 | 非接触式掌纹获取装置及其方法 |
WO2020234653A1 (en) * | 2019-05-20 | 2020-11-26 | Aranz Healthcare Limited | Automated or partially automated anatomical surface assessment methods, devices and systems |
US11615639B1 (en) * | 2021-01-27 | 2023-03-28 | Jackson Klein | Palm vein identification apparatus and method of use |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101159018A (zh) * | 2007-11-16 | 2008-04-09 | 北京中星微电子有限公司 | 一种图像特征点定位方法及装置 |
CN101968846A (zh) * | 2010-07-27 | 2011-02-09 | 上海摩比源软件技术有限公司 | 一种人脸跟踪方法 |
JP2011066699A (ja) * | 2009-09-17 | 2011-03-31 | Casio Computer Co Ltd | 撮像装置及び撮像装置の表示用プログラム |
JP2012054886A (ja) * | 2010-09-03 | 2012-03-15 | Nec Casio Mobile Communications Ltd | 画像表示制御方法、画像表示制御装置、およびプログラム |
Family Cites Families (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4286556B2 (ja) | 2003-02-24 | 2009-07-01 | 株式会社東芝 | 画像表示装置 |
US20060044399A1 (en) * | 2004-09-01 | 2006-03-02 | Eastman Kodak Company | Control system for an image capture device |
JP2006141589A (ja) * | 2004-11-18 | 2006-06-08 | Shigematsu:Kk | 個人認証装置及び個人認証方法 |
JP4588577B2 (ja) | 2005-08-16 | 2010-12-01 | Kddi株式会社 | 掌紋認証装置、掌紋認証プログラム、及び掌紋認証方法、並びに掌紋画像の抽出方法、並びに掌紋認証装置を備えた携帯電話端末 |
US7609955B2 (en) * | 2005-11-22 | 2009-10-27 | Panasonic Corporation | Image taking device, portable terminal device, image taking method, and program |
JP5034359B2 (ja) * | 2006-08-07 | 2012-09-26 | 富士通株式会社 | 画像認証装置、画像認証方法、画像認証プログラム、記録媒体及び電子機器 |
JP4680158B2 (ja) | 2006-09-13 | 2011-05-11 | 株式会社日立製作所 | 生体認証装置 |
JP2008160703A (ja) * | 2006-12-26 | 2008-07-10 | Sky Kk | カメラ及びカメラ用プログラム |
KR101615472B1 (ko) | 2007-09-24 | 2016-04-25 | 애플 인크. | 전자 장치 내의 내장형 인증 시스템들 |
JP4557058B2 (ja) | 2007-12-07 | 2010-10-06 | ソニー株式会社 | 情報表示端末、情報表示方法、およびプログラム |
US9513765B2 (en) | 2007-12-07 | 2016-12-06 | Sony Corporation | Three-dimensional sliding object arrangement method and system |
JP4781440B2 (ja) * | 2009-02-05 | 2011-09-28 | ソニー エリクソン モバイル コミュニケーションズ, エービー | 画像撮影装置、画像撮影装置の制御方法及び制御プログラム |
US8754831B2 (en) * | 2011-08-02 | 2014-06-17 | Microsoft Corporation | Changing between display device viewing modes |
JP2013077678A (ja) | 2011-09-30 | 2013-04-25 | Sony Corp | 撮像素子、電子機器、並びに、製造方法 |
WO2013051259A1 (ja) * | 2011-10-07 | 2013-04-11 | パナソニック株式会社 | 撮影装置及び撮影方法 |
-
2013
- 2013-04-26 JP JP2015513466A patent/JP6052399B2/ja not_active Expired - Fee Related
- 2013-04-26 CN CN201380075945.3A patent/CN105144228B/zh active Active
- 2013-04-26 EP EP13882966.8A patent/EP2991027B1/en active Active
- 2013-04-26 KR KR1020157030235A patent/KR101711781B1/ko active IP Right Grant
- 2013-04-26 WO PCT/JP2013/062431 patent/WO2014174674A1/ja active Application Filing
-
2015
- 2015-10-16 US US14/885,004 patent/US9697415B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101159018A (zh) * | 2007-11-16 | 2008-04-09 | 北京中星微电子有限公司 | 一种图像特征点定位方法及装置 |
JP2011066699A (ja) * | 2009-09-17 | 2011-03-31 | Casio Computer Co Ltd | 撮像装置及び撮像装置の表示用プログラム |
CN101968846A (zh) * | 2010-07-27 | 2011-02-09 | 上海摩比源软件技术有限公司 | 一种人脸跟踪方法 |
JP2012054886A (ja) * | 2010-09-03 | 2012-03-15 | Nec Casio Mobile Communications Ltd | 画像表示制御方法、画像表示制御装置、およびプログラム |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106774937A (zh) * | 2017-01-13 | 2017-05-31 | 宇龙计算机通信科技(深圳)有限公司 | 一种增强现实技术中的图像交互方法及其装置 |
CN106774937B (zh) * | 2017-01-13 | 2020-01-10 | 宇龙计算机通信科技(深圳)有限公司 | 一种增强现实技术中的图像交互方法及其装置 |
CN111164603A (zh) * | 2017-10-03 | 2020-05-15 | 富士通株式会社 | 姿势识别系统、图像修正程序以及图像修正方法 |
CN111183456A (zh) * | 2017-10-03 | 2020-05-19 | 富士通株式会社 | 识别程序、识别方法以及识别装置 |
CN109754419A (zh) * | 2017-11-06 | 2019-05-14 | 株式会社日立制作所 | 位置推测系统 |
CN109754419B (zh) * | 2017-11-06 | 2023-03-10 | 株式会社日立制作所 | 位置推测系统 |
CN113590250A (zh) * | 2021-07-29 | 2021-11-02 | 网易(杭州)网络有限公司 | 图像处理方法、装置、设备及存储介质 |
CN113590250B (zh) * | 2021-07-29 | 2024-02-27 | 网易(杭州)网络有限公司 | 图像处理方法、装置、设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
KR101711781B1 (ko) | 2017-03-02 |
EP2991027A1 (en) | 2016-03-02 |
JP6052399B2 (ja) | 2016-12-27 |
EP2991027B1 (en) | 2020-02-19 |
US9697415B2 (en) | 2017-07-04 |
CN105144228B (zh) | 2018-07-06 |
US20160034747A1 (en) | 2016-02-04 |
WO2014174674A1 (ja) | 2014-10-30 |
JPWO2014174674A1 (ja) | 2017-02-23 |
EP2991027A4 (en) | 2016-04-20 |
KR20150133262A (ko) | 2015-11-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105144228A (zh) | 图像处理程序、图像处理方法以及信息终端 | |
JP7452571B2 (ja) | 生体認証装置、生体認証方法および生体認証プログラム | |
US8933886B2 (en) | Instruction input device, instruction input method, program, recording medium, and integrated circuit | |
CN109381165B (zh) | 一种皮肤检测方法及移动终端 | |
WO2015115173A1 (ja) | 電子機器 | |
EP2966854A1 (en) | Imaging device, imaging method and program | |
US20220012904A1 (en) | Distance Measurement Method and Electronic Device | |
KR20180067624A (ko) | 지문 입력 제시 방법 및 장치 | |
CN110123257A (zh) | 一种视力检测方法、装置、视力检测仪及计算机存储介质 | |
CN107807772A (zh) | 图像数据处理方法、装置及移动终端 | |
CN110163833A (zh) | 确定刀闸的开合状态的方法和装置 | |
CN108012026B (zh) | 一种保护视力方法及移动终端 | |
KR20150058871A (ko) | 촬상 장치 및 촬상 이미지 스티칭 방법 | |
JP2024088711A (ja) | 画像処理装置 | |
KR102221036B1 (ko) | 이동단말기 및 그 제어방법 | |
CN106961546A (zh) | 信息处理装置和方法、摄像装置、显示装置、控制方法 | |
CN112749590B (zh) | 目标检测方法、装置、计算机设备和计算机可读存储介质 | |
CN109101119A (zh) | 终端控制方法、装置以及移动终端 | |
CN111127541B (zh) | 车辆尺寸的确定方法、装置及存储介质 | |
CN111538009B (zh) | 雷达点的标记方法和装置 | |
CN109559280B (zh) | 一种图像处理方法及终端 | |
CN110458870A (zh) | 一种图像配准、融合、遮挡检测方法、装置和电子设备 | |
CN113191976A (zh) | 图像拍摄方法、装置、终端及存储介质 | |
WO2013187282A1 (ja) | 撮像画像表示装置、撮像画像表示方法、記録媒体 | |
CN113763460A (zh) | 经颅磁刺激线圈的定位方法、装置及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |