[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

WO2006126310A1 - 表示装置 - Google Patents

表示装置 Download PDF

Info

Publication number
WO2006126310A1
WO2006126310A1 PCT/JP2006/302143 JP2006302143W WO2006126310A1 WO 2006126310 A1 WO2006126310 A1 WO 2006126310A1 JP 2006302143 W JP2006302143 W JP 2006302143W WO 2006126310 A1 WO2006126310 A1 WO 2006126310A1
Authority
WO
WIPO (PCT)
Prior art keywords
display
finger
unit
display device
fingerprint
Prior art date
Application number
PCT/JP2006/302143
Other languages
English (en)
French (fr)
Inventor
Kei Saitoh
Tsutomu Iwata
Original Assignee
Sharp Kabushiki Kaisha
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Kabushiki Kaisha filed Critical Sharp Kabushiki Kaisha
Priority to EP06713286A priority Critical patent/EP1892611A4/en
Priority to US11/665,120 priority patent/US20090201257A1/en
Priority to JP2007517728A priority patent/JPWO2006126310A1/ja
Publication of WO2006126310A1 publication Critical patent/WO2006126310A1/ja

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/02Constructional features of telephone sets
    • H04M1/0202Portable telephone sets, e.g. cordless phones, mobile phones or bar type handsets
    • H04M1/0206Portable telephones comprising a plurality of mechanically joined movable body parts, e.g. hinged housings
    • H04M1/0208Portable telephones comprising a plurality of mechanically joined movable body parts, e.g. hinged housings characterized by the relative motions of the body parts
    • H04M1/021Portable telephones comprising a plurality of mechanically joined movable body parts, e.g. hinged housings characterized by the relative motions of the body parts using combined folding and rotation motions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1615Constructional details or arrangements for portable computers with several enclosures having relative motions, each enclosure supporting at least one I/O or computing function
    • G06F1/1616Constructional details or arrangements for portable computers with several enclosures having relative motions, each enclosure supporting at least one I/O or computing function with folding flat displays, e.g. laptop computers or notebooks having a clamshell configuration, with body parts pivoting to an open position around an axis parallel to the plane they define in closed position
    • G06F1/162Constructional details or arrangements for portable computers with several enclosures having relative motions, each enclosure supporting at least one I/O or computing function with folding flat displays, e.g. laptop computers or notebooks having a clamshell configuration, with body parts pivoting to an open position around an axis parallel to the plane they define in closed position changing, e.g. reversing, the face orientation of the screen with a two degrees of freedom mechanism, e.g. for folding into tablet PC like position or orienting towards the direction opposite to the user to show to a second user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1675Miscellaneous details related to the relative movement between the different enclosures or enclosure parts
    • G06F1/1677Miscellaneous details related to the relative movement between the different enclosures or enclosure parts for detecting open or closed state or particular intermediate positions assumed by movable parts of the enclosure, e.g. detection of display lid position with respect to main body in a laptop, detection of opening of the cover of battery compartment
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03547Touch pads, in which fingers can move on a surface
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0485Scrolling or panning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/24Aligning, centring, orientation detection or correction of the image
    • G06V10/242Aligning, centring, orientation detection or correction of the image by image rotation, e.g. by 90 degrees
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/13Sensors therefor
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04BTRANSMISSION
    • H04B1/00Details of transmission systems, not covered by a single one of groups H04B3/00 - H04B13/00; Details of transmission systems not characterised by the medium used for transmission
    • H04B1/38Transceivers, i.e. devices in which transmitter and receiver form a structural unit and in which at least one part is used for functions of transmitting and receiving
    • H04B1/40Circuits
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2200/00Indexing scheme relating to G06F1/04 - G06F1/32
    • G06F2200/16Indexing scheme relating to G06F1/16 - G06F1/18
    • G06F2200/161Indexing scheme relating to constructional details of the monitor
    • G06F2200/1614Image rotation following screen orientation, e.g. switching from landscape to portrait mode
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/033Indexing scheme relating to G06F3/033
    • G06F2203/0338Fingerprint track pad, i.e. fingerprint sensor used as pointing device tracking the fingertip image
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/12Details of telephonic subscriber devices including a sensor for measuring a physical value, e.g. temperature or motion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/52Details of telephonic subscriber devices including functional features of a camera

Definitions

  • the present invention relates to display devices such as mobile phones, personal computers, and PDAs (Personal Digital Assistants), and more particularly to a display device capable of changing the orientation of the display content of the screen.
  • display devices such as mobile phones, personal computers, and PDAs (Personal Digital Assistants)
  • PDAs Personal Digital Assistants
  • a gyro is mounted on each of the portions corresponding to the X, ⁇ , and ⁇ axes of the image display device, and an analog value of gyroscopic force is converted by an AZD converter. Convert to digital value.
  • This digital value is processed by the CPU to detect how many directions the image display device itself has rotated, and based on the information, the image displayed is rotated by the angle at which the image display device itself has rotated. Then, the force is displayed as if the viewpoint had moved.
  • Patent Document 1 Japanese Patent Application Laid-Open No. 6-318058
  • the present invention has been made to solve the above-mentioned problems, and the purpose thereof is the direction and function of the display content of the device without pressing a special function button or changing the direction of the device. It is providing a display which can change control easily.
  • the display device includes the display means, the detection means for detecting the displacement of the finger, and the inside of the display of the display means according to the displacement of the finger detected by the detection means. And changing means for changing the direction of the volume.
  • the detection means detects the direction of the finger.
  • the detection means detects the movement direction of the finger.
  • the detection means includes a fingerprint sensor.
  • the display device further includes an operation means for operating display content of the display means, and the detection means is provided on the operation means.
  • the operation means is a viewing button for displaying a television screen.
  • the detection means detects the direction of the finger or the movement direction of the finger by detecting the shape of the finger.
  • the detection means detects the direction of the finger or the movement direction of the finger by detecting a fingerprint.
  • the changing unit is configured to display the display content of the display unit when the direction of the finger detected by the detection unit or the angle between the movement direction of the finger and the orientation of the display content of the display unit is a predetermined value or more. Change the direction.
  • the changing means corrects the orientation of the display content of the display means in accordance with the positional relationship between the display means and the detection means.
  • the display device further includes an operation unit provided with a detection unit, a first detection unit for detecting a rotation angle of the display unit with respect to the operation unit, and an opening / closing of the display unit with respect to the operation unit.
  • second detecting means for detecting an angle, the changing means displaying means based on the rotation angle detected by the first detecting means and the open / close angle detected by the second detecting means. Correct the orientation of the displayed content of.
  • the changing unit changes the orientation of the display content of the display unit according to the displacement of the finger detected by the detecting unit. It is possible to change the direction of the display content of the display means.
  • the displacement of the finger may be the difference in angle between the direction of the finger registered in advance and the direction of the finger detected by the detecting means, or if the finger is rotated while touching the detecting means.
  • Angle such as the angle difference between the reference direction (such as the upward direction) and the movement direction, etc. are included when the finger is moved
  • the detection means detects the direction of the finger, the user can change the direction of the display content of the display means only by pressing the finger on the detection means.
  • the detection means detects the moving direction of the finger, the user can change the direction of the display content of the display means only by moving the finger on the detection means.
  • the detection means includes the fingerprint sensor, only the user who has registered the fingerprint can change the display content of the display means.
  • the detection means is provided on the operation means, the user can change the direction of the display content of the display means simultaneously with the operation of the operation means.
  • the operation means is a viewing button for displaying a television screen, it is possible to change the direction of the display content of the display means at the same time as displaying the television screen.
  • the detection means detects the direction of the finger or the direction of movement of the finger by detecting the shape of the finger, it is possible to detect the direction of the finger or the direction of movement of the finger more easily than detecting a fingerprint. It becomes possible.
  • the detection means detects the direction of the finger or the movement direction of the finger by detecting the fingerprint, it is possible to detect the direction of the finger or the movement direction of the finger more accurately.
  • the change unit detects that the direction of the finger detected by the detection unit or the movement direction of the finger and the direction of the display content of the display unit are equal to or larger than a predetermined value, the direction of the display content of the display Since the change is made, the direction of the display content of the display means can be accurately changed even if the direction of the finger or the movement direction of the finger is deviated to some extent.
  • the change means corrects the direction of the display content of the display means according to the positional relationship between the display means and the detection means, for example, even a display device equipped with a swivel function may be used by the user. It is possible to change the display content in a desired direction.
  • the changing means is the rotation angle detected by the first detection means and the second detection means Since the direction of the display content of the display means is corrected based on the opening and closing angle detected by the above, it is possible to accurately change the display content in the direction desired by the user.
  • FIG. 1A is a view showing a state in which a case 11 and a case 12 of a mobile phone which is an example of a display device according to a first embodiment of the present invention are closed.
  • FIG. 1B is a view showing a state in which a casing 11 of a mobile phone is opened.
  • FIG. 2 is a block diagram showing a hardware configuration of a mobile phone as an example of a display device according to a first embodiment of the present invention.
  • FIG. 3A is a view showing the display unit 13 before the direction of the display content is changed according to the direction of the finger detected by the fingerprint sensor.
  • FIG. 3B is a view showing the display unit 13 after the direction of the display content is changed according to the direction of the finger detected by the fingerprint sensor.
  • FIG. 4 is a flowchart for explaining the processing procedure of the display device in the first embodiment of the present invention.
  • FIG. 5 is a flowchart for explaining in further detail the processing procedure of the display device in the first embodiment of the present invention.
  • FIG. 6A is a view showing the display unit 13 before the direction of the display content is changed by the movement direction of the finger detected by the fingerprint sensor.
  • FIG. 6B is a view showing the display unit 13 after the direction of the display content is changed according to the movement direction of the finger detected by the fingerprint sensor.
  • FIG. 7 is a flowchart for explaining the processing procedure of the display device in the second embodiment of the present invention.
  • FIG. 8A is a view for explaining detection of an open / close angle and a rotation angle of a housing 11 of a display device.
  • FIG. 8B A view showing a case where a housing 11 is rotated 180 ° around the Y axis.
  • FIG. 9A A view showing a state where the direction of the display content of the display unit 13 is changed by the user pressing the fingerprint sensor 34.
  • FIG. 9B Rotate the housing 11 by rotating the housing 11 provided with the display unit 13 by 180 ° about the Y axis. It is a figure which shows the place closed.
  • FIG. 9C A diagram showing the position of the display content of the display unit 13 corrected.
  • FIG. 10 is a flowchart for explaining the processing procedure of the display device in the third embodiment of the present invention.
  • FIGS. 1A to 1B are views showing an appearance example of a mobile phone which is an example of a display device according to a first embodiment of the present invention.
  • FIG. 1A shows the case 11 and the case 12 of the mobile phone closed.
  • the housing 11 is attached to the housing 12 so as to be rotatable about the Z axis.
  • FIG. 1B shows a state in which the casing 11 of the mobile phone is opened.
  • a display unit 13 is provided in the housing 11, and an operation unit 14 is provided in the housing 12.
  • the housing 11 is attached to the housing 12 so as to be rotatable about the Y-axis, so that a so-called swivel function can be realized.
  • FIG. 2 is a block diagram showing a hardware configuration of a mobile phone as an example of the display device according to the first embodiment of the present invention.
  • the mobile phone detects the operation of the operation unit 14 by the user by detecting the operation of the operation unit 14 by detecting the operation of the display unit 13, the operation unit 14, the antenna 15, the tuner unit 16, the program etc.
  • a directional determination unit 18 that determines the image processing unit 19 that performs image processing when determining the direction of the finger, and a volatile memory 20 that temporarily stores fingerprint data and the like acquired by the fingerprint sensor.
  • Display driver 21 for controlling the display of the display unit 13, a rotation detection unit 22 for detecting opening / closing and rotation of the housing 11, and a display for detecting the orientation of the display device according to the detection result by the rotation detection unit 22
  • main control unit 24 for controlling the entire device.
  • Operation unit 14 includes a normal key 31 such as a ten key and a fingerprint sensor attached key 32.
  • the fingerprint sensor is provided, for example, on the viewing key of the television screen. As a result, when the user presses the viewing key, it is possible to simultaneously display the television screen and determine the direction of the display content.
  • the fingerprint sensor attached key 32 referred to here may have any form or structure, as long as it has a structure that can be touched by human fingers such as a mechanical key and a touch panel key.
  • Tuner unit 16 receives radio waves via antenna 15, demodulates television images, sounds, data and the like, and outputs the result to main control unit 24. Further, the tuner unit 16 modulates voice, data and the like received from the main control unit 24 and outputs it as a radio wave through the antenna 15.
  • the image processing unit 19 determines by image processing whether the fingerprint detected by the fingerprint sensor attached key 32 matches the fingerprint of the user registered in advance. If the fingerprints match, the orientation determining unit 18 determines the direction of the finger from the direction of the fingerprint, and notifies the main control unit 24 of the direction of the finger.
  • the fingerprint of the user registered in advance is stored in the non-volatile memory 17.
  • This registered fingerprint may be fingerprint information of the same person or a plurality of fingers, fingerprints of the same finger or different places, or the like, in addition to registration for each user as described above.
  • the main operation unit 24 is configured by a CPU (Central Processing Unit) or the like, and performs overall control of the display device by executing a program stored in the non-volatile memory 17 or the like.
  • the main control unit 24 receives the direction of the finger from the orientation determination unit 18, the main control unit 24 controls display data such as a television image to be transferred to the display driver 21 and changes the direction of the display content to match the direction of the finger. And display on the display unit 13.
  • a CPU Central Processing Unit
  • FIGS. 3A to 3B are diagrams for describing changing of the direction of the display content of the display unit 13 according to the direction of the finger detected by the fingerprint sensor.
  • fingerprint sensor 33 is provided on display unit 13
  • FIG. 3A it is assumed that the display unit 13 displays a person in a horizontally long state.
  • FIG. 3B when the finger is pressed on the fingerprint sensor 33, the direction of the finger is determined by the directivity determination unit 18, and the direction of the display content of the display unit 13 (person) is matched with the direction of the finger.
  • Direction is changed, The display unit 13 displays a person in a vertically long state.
  • FIG. 4 is a flowchart for explaining the processing procedure of the display device in the first embodiment of the present invention.
  • the main control unit 24 performs display on the display unit 13 by outputting display data such as a television image to the display driver 21 (Sl 1).
  • the image processing unit 19 detects whether or not the finger is pressed on the fingerprint sensor attached key 32 by taking in the image data from the fingerprint sensor attached key 32 (S12). If the finger is not pressed (S12, No), the process of step S12 is repeated.
  • contact sensors such as pressure sensors may be used to detect pressing of a finger.
  • the main control unit 24 determines whether or not finger direction information has been acquired from the orientation determination unit 18. If the main control unit 24 does not acquire finger direction information (S13, No), that is, if the fingerprint authentication is not confirmed, the process returns to step S12 and the subsequent processing is repeated.
  • the main control unit 24 acquires finger direction information (S13, Yes), that is, when authentication of the fingerprint is confirmed, the current display orientation of the screen corresponds to the finger direction. It is determined whether or not it is determined (S14). If the direction of the display content on the current screen matches the direction of the finger (S14, No), the process returns to step S12 and the subsequent processes are repeated.
  • the main control unit 24 causes the direction of the display content of the screen to coincide with the direction of the finger. Then, the display content is changed to redisplay the screen (S15).
  • FIG. 5 is a flowchart for describing the processing procedure of the display device in the first embodiment of the present invention in more detail.
  • the same processing steps as in the flowchart shown in FIG. 4 carry the same step numbers, and the detailed description thereof will not be repeated.
  • step S21 the image processing unit 19 acquires a fingerprint by capturing image data from the fingerprint sensor attached key 32. Then, the image processing unit 19 compares the fingerprint registered in advance with the fingerprint detected by the fingerprint sensor attached key 32 to determine whether the force matches the registered fingerprint (S22). If it does not match the registered fingerprint
  • step S22, No Return to step S12 and repeat the subsequent processing. If the registered fingerprint matches (S22, Yes), the orientation determination unit 18 uses the orientation of the registered fingerprint as a reference to acquire the displacement amount of the acquired fingerprint with respect to that. Then, the direction of the finger is determined (S23). Then, the determination process of step S14 is performed.
  • step S14 it is determined whether or not the screen is to be redisplayed based on whether or not the direction of the display content on the display unit 13 matches the direction of the finger. If the angle between the direction and the direction of the finger is less than a predetermined value, the screen will not be redisplayed as the direction matches.
  • the orientation determination unit 18 obtains the displacement amount of the acquired fingerprint with respect to the registered fingerprint, thereby detecting the force of the finger.
  • 9 may determine the shape of the finger by image processing, and may determine the shape of the finger and the direction of the finger.
  • the direction of the finger is determined from the fingerprint detected by the fingerprint sensor attached key 32, and the direction of the finger and the direction of the display content of the display unit 13 Since the screen was re-displayed so as to match, the user was able to easily change the orientation of the displayed contents of the screen.
  • the image processing unit 19 determines the direction of the finger by comparing the fingerprint detected by the fingerprint sensor key 32 with the fingerprint registered in advance, the use of the fingerprint is registered. Only the person can change the orientation of the display content on the screen.
  • the user can display the television screen and at the same time determine the direction of the display content of the display unit 13, which improves the operability of the user. It became possible to improve the fingerprint sensor attached key 32 as a viewing key
  • the display image can be rotated and scrolled based on the rotation direction, the rotation angle, and the movement direction.
  • priority may be set to these sensors, and the display direction may be changed according to the direction of the finger detected by the sensor with high priority.
  • priority may be given to registered fingerprint data, and the display direction may be changed according to the direction of the finger detected by the sensor in which the high priority fingerprint is detected.
  • the screen is divided into two and display contents corresponding to the direction of each finger are displayed. Let's display it in the direction.
  • the hardware configuration of the display device in the second embodiment of the present invention is the same as the hardware configuration of the display device in the first embodiment shown in FIG. Therefore, detailed descriptions of duplicate configurations and functions are not repeated! /.
  • FIG. 6A to 6B are diagrams for describing changing of the direction of the display content of the display unit 13 according to the movement direction of the finger detected by the fingerprint sensor.
  • FIG. 6A it is assumed that the display unit 13 displays a person in a horizontally long state.
  • the direction determining unit 18 determines the moving direction of the finger, and displays so as to match the moving direction of the finger.
  • the direction (direction of the person) of the display content of the unit 13 is changed, and the display unit 13 displays the person in the vertically long state.
  • the display content is changed so that the direction in which the finger moves is downward of the screen.
  • FIG. 7 is a flowchart for explaining the processing procedure of the display device in the second embodiment of the present invention.
  • the main control unit 24 performs display on the display unit 13 by outputting display data such as a television image to the display driver 21 (Sl 1).
  • the image processing unit 19 detects whether or not the finger is pressed on the fingerprint sensor attached key 32 by taking in the image data from the fingerprint sensor attached key 32 (S12). If the finger is not pressed (S12, No), the process of step S12 is repeated.
  • a contact sensor such as a pressure sensor may be used to detect pressing of a finger.
  • the orientation determining unit 18 acquires the position information of the finger from the image processing unit 19 (S41). Then, after waiting for a predetermined time (S42), the directivity determination unit 18 acquires finger position information from the image processing unit 19 again (S43).
  • the orientation determination unit 18 determines the movement direction of the finger from the position information of the finger acquired in steps S41 and S43, and notifies the main control unit 24 of the movement direction.
  • the main control unit 24 determines whether or not the lower direction of the display content on the current screen matches the movement direction of the finger (S44). If the lower direction of the display content of the current screen matches the movement direction of the finger (S44, No), Return to step S12 and repeat the subsequent processing.
  • the main control unit 24 matches the direction of the display content of the screen with the direction of the finger. As described above, the orientation of the display content is changed and the screen is redisplayed (S15).
  • the finger movement is obtained by acquiring the finger position again. Since the screen is redisplayed so that the direction of movement is determined and the direction of movement of the finger matches the lower direction of the display content of the display unit 13, the same effect as the effect described in the first embodiment can be obtained. It became possible.
  • the hardware configuration of the display device in the third embodiment of the present invention is the same as the hardware configuration of the display device in the first embodiment shown in FIG. Therefore, detailed descriptions of duplicate configurations and functions will not be repeated.
  • the display device in the present embodiment corrects the direction of the display content of the display unit 13 by the opening and closing angle and the rotation angle of the housing 11 provided with the display unit 13.
  • the display device includes an open / close magnet 41-1 provided on the display unit 13 side of the housing 11 and an open / close magnet provided on the opposite side of the display unit 13 of the housing 11.
  • An open / close sensor 42-1 paired with the magnet 41-2 and the open / close magnet 41-1 and an open / close sensor 42-2 paired with the open / close magnet 41-2 and rotation sensors 43-1 and 43-2 , Rotation magnets 44-1 and 44-2, Y-axis rotation sensor 45, and Z-axis rotation sensor 46.
  • the open / close sensor 42-1 detects the magnetic force of the open / close magnet 41-1, Detect opening and closing of case 11
  • the opening / closing sensor 42-2 detects the magnetic force of the opening / closing magnet 41-2 to open / close the housing 11. To detect Therefore, it can be determined in which direction the display unit 13 is closed and the case 11 is closed depending on which open / close sensor has detected the magnetic force.
  • rotating magnets 441 and 442 respectively have opposing magnetic poles of N pole and S pole, and it is possible to determine which magnetic pole of rotation sensors 43-1 and 43-2 respectively detected. Thus, it can be determined which side the housing 11 is facing.
  • the Y-axis rotation sensor 45 can detect the rotation angle of the housing 11 around the Y-axis.
  • the Z-axis rotation sensor 46 can detect the open / close angle of the housing 11 around the Z-axis.
  • the open / close sensors 42-1, 42-2, the rotation sensors 43-1, 43-2, the Y-axis rotation sensor 45, and the Z-axis rotation sensor 46 correspond to the rotation detection unit 22 shown in FIG.
  • 9A to 9C are diagrams for explaining the correction of the orientation of the display content of the display device in the third example of the present invention.
  • 9A to 9C show the case where the fingerprint sensor 34 is provided separately from the keys of the operation unit 14.
  • FIG. 9A shows a state where the display unit 13 and the operation unit 14 are further opened from the state shown in FIG. 1B until it becomes horizontal.
  • the orientation of the display content of the display unit 13 is as shown in FIG. 9A.
  • FIG. 9B shows the case where the case 11 is closed by rotating the case 11 provided with the display unit 13 by 180 ° around the Y axis.
  • the display content of the display unit 13 is oriented as shown in FIG. 9B, and the display content is reversed.
  • FIG. 9C shows that the display contents of the display unit 13 are corrected by the display device in the present embodiment. By this correction, the display content of the display unit 13 is oriented correctly.
  • FIG. 10 is a flowchart for explaining the processing procedure of the display device in the third embodiment of the present invention.
  • the main control unit 24 performs display on the display unit 13 by outputting display data such as a television image to the display driver 21 (Sl 1).
  • the image processor 19 takes in the image data from the fingerprint sensor 34 to detect whether or not the finger is pressed on the fingerprint sensor 34 (S12). If your finger is not pressed If (SI 2, No), repeat the processing of step SI 2.
  • the main control unit 24 determines whether or not finger direction information has been acquired from the orientation determination unit 18. If the main control unit 24 does not acquire finger direction information (S13, No), that is, if the fingerprint authentication is not confirmed, the process returns to step S12 and the subsequent processing is repeated.
  • the display device direction detection unit 23 receives a signal from the rotation detection unit 22.
  • the rotation angle of the display unit 13 with respect to the operation unit 14 is detected (S31).
  • step S14 the direction of the display content of the display unit 13 is corrected by 180 °, and the determination is performed.
  • the process returns to step S12 and the subsequent processing is repeated. If the orientation of the display content on the current screen does not match the orientation of the finger (S14, Yes), the main control unit 24 causes the orientation of the display content on the screen to coincide with the orientation of the finger. The direction is changed and the screen is displayed again (S15).
  • the rotation angle of the display unit 13 is detected by the display device direction detection unit 23, and the display content of the display unit 13 is displayed according to the rotation angle. Since the direction is corrected, it becomes possible to change the display content in the direction desired by the user even with the display device shown in FIGS. 8A-8B, for example.
  • the fine angle can be controlled, and the rotation angle or image of the character on the screen
  • the amount of movement on the surface can be controlled finely, but with the middle finger, display control such as rotation in 4 or 8 directions or movement of characters at regular intervals can be performed.
  • the user may be able to set the on / off of the function of changing the direction of the display content.
  • the display state is maintained even if the finger is released after the authentication is completed. If the fingerprint is not registered, the display direction is displayed only when the finger is touching the detection means. By making it change, it becomes convenient when showing an image temporarily to a friend etc.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Mathematical Physics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Software Systems (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Position Input By Displaying (AREA)
  • Transforming Electric Information Into Light Information (AREA)
  • Control Of Indicators Other Than Cathode Ray Tubes (AREA)
  • Image Input (AREA)

Abstract

 画像処理部(19)は、予め登録された指紋と、指紋センサ付キー(32)によって検知された指紋とを比較し、一致するか否かを判定する。指紋が一致する場合には、指向判断部(18)が指紋の変位量から指の方向を判断する。そして、主制御部(24)は、指向判断部(18)によって判断された指の方向に応じて、表示部(13)の表示内容の向きを変更する。したがって、利用者は簡単な操作で表示手段の表示内容の向きを変更することが可能となる。

Description

明 細 書
表示装置
技術分野
[0001] 本発明は、携帯電話、パーソナルコンピュータ、 PDA (Personal Digital Assistants )などの表示装置に関し、特に、画面の表示内容の向きを変更することが可能な表示 装置に関する。
背景技術
[0002] 近年、携帯電話などの表示装置の多機能化が進んでおり、たとえば、携帯電話の 利用者は外出先でもテレビを視聴することができる。一般に、このようなテレビ画面に おいては、利用者の好みに応じて表示内容の向きを変更することが可能である。これ に関連する技術として、特開平 6— 318058号公報に開示された発明がある。
[0003] 特開平 6— 318058号公報に開示された画像表示装置においては、ジャイロを画 像表示装置の X、 Υ、 Ζ軸にあたる部分にそれぞれ実装し、ジャイロ力ものアナログ値 を AZD変換器でデジタル値に変換する。このデジタル値を CPUで処理して画像表 示装置自体がどの方向に何度回転したかを検出し、その情報を基に表示している画 像を画像表示装置自体が回転した角度分だけ回転させて、あた力も視点が移動した かのような表示を行なう。
特許文献 1:特開平 6 - 318058号公報
発明の開示
発明が解決しょうとする課題
[0004] しかし、上述した特開平 6— 318058号公報に開示された画像表示装置は、ジャィ 口で画像表示装置自体がどの方向に何度回転したかを検出しているため、画面が水 平状態に置かれて 、る場合には利用できな 、と 、つた問題点があった。
[0005] また、画像を回転させるためには、画像表示装置自体を回転させなければならない ので、手間がかかるといった問題点もあった。
[0006] 本発明は、上記問題点を解決するためになされたものであり、その目的は、特別な 機能ボタンの押下や機器の向きを変えたりしなくとも機器の表示内容の向きや機能 制御を容易に変更することが可能な表示装置を提供することである。
課題を解決するための手段
[0007] 本発明のある局面に従えば、表示装置は、表示手段と、指の変位を検知するため の検知手段と、検知手段によって検知された指の変位に応じて、表示手段の表示内 容の向きを変更するための変更手段とを含む。
[0008] 好ましくは、検知手段は、指の方向を検知する。
好ましくは、検知手段は、指の移動方向を検知する。
[0009] 好ましくは、検知手段は、指紋センサを含む。
好ましくは、表示装置はさらに、表示手段の表示内容を操作するための操作手段を 含み、検知手段は、操作手段上に設けられる。
[0010] さらに好ましくは、操作手段は、テレビ画面を表示するための視聴ボタンである。
好ましくは、検知手段は、指の形を検知することにより指の方向または指の移動方 向を検知する。
[0011] 好ましくは、検知手段は、指紋を検知することにより指の方向または指の移動方向 を検知する。
[0012] 好ましくは、変更手段は、検知手段によって検知された指の方向または指の移動方 向と表示手段の表示内容の向きとの角度が所定値以上の場合に、表示手段の表示 内容の向きを変更する。
[0013] 好ましくは、変更手段は、表示手段と検知手段との位置関係に応じて、表示手段の 表示内容の向きを補正する。
[0014] さらに好ましくは、表示装置はさらに、検知手段が設けられる操作部と、操作部に対 する表示手段の回転角度を検出するための第 1の検出手段と、操作部に対する表示 手段の開閉角度を検出するための第 2の検出手段とを含み、変更手段は、第 1の検 出手段によって検出された回転角度と第 2の検出手段によって検出された開閉角度 とに基づいて、表示手段の表示内容の向きを補正する。
発明の効果
[0015] 本発明のある局面によれば、変更手段が、検知手段によって検知された指の変位 に応じて、表示手段の表示内容の向きを変更するので、利用者は簡単な操作で表 示手段の表示内容の向きを変更することが可能となる。
[0016] なお、指の変位には、予め登録されている指の方向と検知手段で検知した指の方 向との角度差、検知手段に触れたまま指を回転させた場合にはその回転角、指を移 動させたときには基準となる方向(上方向など)と移動方向との角度差などが含まれる
[0017] また、検知手段は、指の方向を検知するので、利用者は検知手段の上に指を押下 するだけで、表示手段の表示内容の向きを変更することが可能となる。
[0018] また、検知手段は、指の移動方向を検知するので、利用者は検知手段の上で指を 移動させるだけで、表示手段の表示内容の向きを変更することが可能となる。
[0019] また、検知手段が指紋センサを含むので、指紋を登録した利用者のみが表示手段 の表示内容の変更を行うことが可能となる。
[0020] また、検知手段が操作手段上に設けられるので、利用者は操作手段の操作と同時 に表示手段の表示内容の向きの変更を行うことが可能となる。
[0021] また、操作手段がテレビ画面を表示するための視聴ボタンであるので、テレビ画面 を表示すると同時に表示手段の表示内容の向きの変更を行うことが可能となる。
[0022] また、検知手段が指の形を検知することにより指の方向または指の移動方向を検知 するので、指紋を検知するよりも容易に指の方向または指の移動方向を検知すること が可能となる。
[0023] また、検知手段が指紋を検知することにより指の方向または指の移動方向を検知す るので、より正確に指の方向または指の移動方向を検知することが可能となる。
[0024] また、変更手段が、検知手段によって検知された指の方向または指の移動方向と 表示手段の表示内容の向きとの角度が所定値以上の場合に、表示手段の表示内容 の向きを変更するので、指の方向または指の移動方向がある程度ずれていても表示 手段の表示内容の向きを正確に変更することが可能となる。
[0025] また、変更手段が、表示手段と検知手段との位置関係に応じて、表示手段の表示 内容の向きを補正するので、たとえば、スィーベル機能を搭載した表示装置であって も利用者の所望の方向に表示内容を変更することが可能となる。
[0026] また、変更手段は、第 1の検出手段によって検出された回転角度と第 2の検出手段 によって検出された開閉角度とに基づいて、表示手段の表示内容の向きを補正する ので、利用者の所望の方向に表示内容を正確に変更することが可能となる。
図面の簡単な説明
[図 1A]本発明の第 1実施例における表示装置の一例である携帯電話の筐体 11と筐 体 12とが閉じられた状態を示す図である。
[図 1B]携帯電話の筐体 11を開いた状態を示す図である。
[図 2]本発明の第 1実施例における表示装置の一例である携帯電話のハードウェア 構成を示すブロック図である。
[図 3A]指紋センサによって検出される指の方向によって表示内容の方向が変更され る前の表示部 13を示す図である。
[図 3B]指紋センサによって検出される指の方向によって表示内容の方向が変更され た後の表示部 13を示す図である。
[図 4]本発明の第 1実施例における表示装置の処理手順を説明するためのフローチ ヤートである。
[図 5]本発明の第 1実施例における表示装置の処理手順をさらに詳細に説明するた めのフローチャートである。
[図 6A]指紋センサによって検出される指の移動方向によって表示内容の方向が変更 される前の表示部 13を示す図である。
[図 6B]指紋センサによって検出される指の移動方向によって表示内容の方向が変更 された後の表示部 13を示す図である。
[図 7]本発明の第 2実施例における表示装置の処理手順を説明するためのフローチ ヤートである。
[図 8A]表示装置の筐体 11の開閉角度および回転角度の検出を説明するための図 である。
[図 8B]筐体 11が Y軸を中心に 180° 回転されたところを示す図である。
[図 9A]利用者が指紋センサ 34を押下することによって、表示部 13の表示内容の向き が変更されたところを示す図である。
[図 9B]表示部 13が設けられた筐体 11を Y軸を中心に 180° 回転させて、筐体 11を 閉じたところを示す図である。
[図 9C]表示部 13の表示内容の向きを補正したところを示す図である。
[図 10]本発明の第 3実施例における表示装置の処理手順を説明するためのフローチ ヤートである。
符号の説明
[0028] 11, 12 筐体、 13 表示部、 14 操作部、 15 アンテナ、 16 チューナ部、 17 不 揮発性メモリ、 18 指向判断部、 19 画像処理部、 20 揮発性メモリ、 21 表示ドラ ィバ、 22 回転検知部、 23 表示装置向き検知部、 24 主制御部、 31 通常キー、 32 指紋センサ付キー、 33, 34 指紋センサ、 41— 1, 41— 2 開閉マグネット、 42 - 1, 42- 2 開閉センサ、 43— 1, 43— 2 回転センサ、 44 1, 44 2 回転マグ ネット、 45 Y軸回転センサ、 46 Z軸回転センサ。
発明を実施するための最良の形態
[0029] (実施例 1)
図 1A〜: LBは、本発明の第 1実施例における表示装置の一例である携帯電話の外 観例を示す図である。図 1Aは、携帯電話の筐体 11と筐体 12とが閉じられた状態を 示している。筐体 11は、 Z軸を中心に回転可能に筐体 12に取り付けられている。
[0030] 図 1Bは、携帯電話の筐体 11を開いた状態を示している。筐体 11には表示部 13が 設けられ、筐体 12には操作部 14が設けられている。筐体 11は、 Y軸を中心に回転 可能に筐体 12に取り付けられており、いわゆるスィーベル機能を実現できるようにな つている。
[0031] 図 2は、本発明の第 1実施例における表示装置の一例である携帯電話のハードゥエ ァ構成を示すブロック図である。携帯電話は、表示部 13と、操作部 14と、アンテナ 15 と、チューナ部 16と、プログラムなどが格納される不揮発性メモリ 17と、利用者による 操作部 14の操作を検知して指の方向を判断する指向判断部 18と、指の方向を判断 する際に画像処理を行なう画像処理部 19と、指紋センサによって取得された指紋デ ータなどを一時的に記憶する揮発性メモリ 20と、表示部 13の表示を制御する表示ド ライバ 21と、筐体 11の開閉や回転を検知する回転検知部 22と、回転検知部 22によ る検知結果に応じて表示装置の向きを検知する表示装置向き検知部 23と、表示装 置全体の制御を行なう主制御部 24とを含む。
[0032] 操作部 14は、テンキーなどの通常キー 31と、指紋センサ付キー 32とを含む。指紋 センサは、たとえばテレビ画面の視聴キー上に設けられる。これによつて、利用者が 視聴キーを押下することによって、テレビ画面の表示と表示内容の方向の決定とを同 時に行なうことが可能となる。
[0033] ここで言う指紋センサ付キー 32は、機構的なキー、タツチパネルキーなどの人間の 指が触れることができる構造のものであればよぐ形態や構造は問わな 、。
[0034] チューナ部 16は、アンテナ 15を介して電波を受信し、テレビ画像、音声、データな どを復調して主制御部 24に出力する。また、チューナ部 16は、主制御部 24から受け た音声やデータなどを変調し、電波としてアンテナ 15を介して出力する。
[0035] 画像処理部 19は、指紋センサ付キー 32によって検出された指紋が、予め登録され た利用者の指紋と一致するか否かを画像処理により判定する。指紋が一致する場合 には、指向判断部 18が指紋の方向から指の方向を判断し、指の方向を主制御部 24 に通知する。なお、予め登録された利用者の指紋は、不揮発性メモリ 17に格納され ている。
[0036] この登録された指紋は、上述のように利用者別に登録する他、同一人でも複数の 指の指紋情報、同じ指でも異なる場所の指紋などであってもよ!、。
[0037] 主操作部 24は CPU (Central Processing Unit)などによって構成され、不揮発性 メモリ 17などに格納されたプログラムを実行することによって、表示装置の全体的な 制御を行なう。主制御部 24は、指向判断部 18から指の方向を受けると、表示ドライ バ 21に転送するテレビ画像などの表示データを制御して、指の方向と一致するよう に表示内容の方向を変更して表示部 13に表示する。
[0038] 図 3A〜3Bは、指紋センサによって検出された指の方向によって表示部 13の表示 内容の方向を変更するところを説明するための図である。なお、説明を容易にするた め、指紋センサ 33が表示部 13上に設けられている場合について説明する。図 3Aに 示すように、表示部 13が横長の状態で人を表示しているとする。図 3Bに示すように、 指紋センサ 33に指が押下されると、指向判断部 18によって指の方向が判断され、そ の指の方向と一致するように表示部 13の表示内容の方向(人の方向)が変更され、 表示部 13が縦長の状態で人を表示するようになる。
[0039] 図 4は、本発明の第 1実施例における表示装置の処理手順を説明するためのフロ 一チャートである。まず、主制御部 24は、テレビ画像などの表示データを表示ドライ バ 21へ出力することによって、表示部 13に画面表示を行なう(Sl l)。
[0040] 次に、画像処理部 19が、指紋センサ付キー 32からの画像データを取り込むことに より、指紋センサ付キー 32に指が押下された力否かを検知する(S12)。指が押下さ れていなければ(S12, No)、ステップ S 12の処理を繰返す。
[0041] なお、指の押下の検知には上記画像認識による手段に限らず、例えば圧力センサ などの接触センサを用いてもょ 、。
[0042] 指が押下されていれば (S12, Yes)、主制御部 24は、指向判断部 18から指方向 情報を取得したか否かを判定する。主制御部 24が指方向情報を取得しな力つた場 合 (S13, No)、すなわち指紋の認証が確認されな力つた場合には、ステップ S12に 戻って以降の処理を繰返す。
[0043] また、主制御部 24が指方向情報を取得した場合 (S13, Yes)、すなわち指紋の認 証が確認された場合には、現在の画面の表示内容の向きが指の方向と一致している か否かを判定する(S 14)。現在の画面の表示内容の向きが指の方向と一致してい れば(S14, No)、ステップ S12に戻って以降の処理を繰返す。
[0044] 現在の画面の表示内容の向きが指の方向と一致していなければ(S14, Yes)、主 制御部 24は、画面の表示内容の向きと指の方向とがー致するように、表示内容の向 きを変更して画面の再表示を行なう(S15)。
[0045] 図 5は、本発明の第 1実施例における表示装置の処理手順をさらに詳細に説明す るためのフローチャートである。図 4に示すフローチャートと同じ処理手順には同じス テツプ番号を付し、その詳細な説明は繰返さない。
[0046] ステップ S21において、画像処理部 19は、指紋センサ付キー 32からの画像データ を取り込むことにより指紋を取得する。そして、画像処理部 19は、予め登録された指 紋と指紋センサ付キー 32によって検知された指紋とを比較することにより、登録済み の指紋と一致する力否かを判定する(S22)。登録済みの指紋と一致しない場合には
(S22, No)、ステップ S12に戻って以降の処理を繰返す。 [0047] また、登録済みの指紋と一致する場合には(S22, Yes)、指向判断部 18は、登録 済み指紋の向きを基準とし、それに対する、取得した指紋の変位量を取得することに より、指の方向を判断する(S23)。そして、ステップ S 14の判定処理が行なわれる。
[0048] なお、ステップ S14において、表示部 13の表示内容の向きと指の方向とがー致す る力否かによって画面の再表示を行なうか否かを判定した力 表示部 13の表示内容 の向きと指の方向との角度が所定値以下の場合には、向きが一致するとして画面の 再表示を行なわな 、ようにしてもょ 、。
[0049] また、指向判断部 18が、登録済み指紋に対する、取得した指紋の変位量を取得す ることによって、指の方向を判断するようにした力 指紋を検知せずに、画像処理部 1 9が指の形を画像処理によって判断し、その指の形力 指の方向を判断するようにし てもよい。
[0050] 以上説明したように、本実施例における表示装置によれば、指紋センサ付キー 32 によって検知された指紋から指の方向を判断し、指の方向と表示部 13の表示内容の 向きとがー致するように画面を再表示するようにしたので、利用者は画面の表示内容 の向きを容易に変更することが可能となった。
[0051] また、画像処理部 19が、指紋センサ付キー 32によって検知された指紋と予め登録 された指紋とを比較することによって指の方向を判断するようにしたので、指紋を登 録した利用者のみが画面の表示内容の向きを変更することが可能となる。
[0052] また、指紋センサ付キー 32を視聴キーとすることによって、利用者はテレビ画面の 表示を行なうと同時に、表示部 13の表示内容の向きを決定することができ、利用者 の操作性を向上させることが可能となった。
[0053] また、指紋センサに指を接触させた状態で回転'移動させれば、その回転方向や 回転角度、移動方向に基づいて表示画像を回転、スクロール表示することもできる。
[0054] 指紋センサが複数ある場合、それらセンサに優先度を設定し、優先度の高いセン サが検出している指の方向に応じて表示の向きを変えてもよい。また、登録されてい る指紋データに優先度をつけておき、優先度の高い指紋が検出されたセンサが検出 した指の方向に応じて表示の向きを変えてもよい。また、 2つの指がセンサに触れた 場合は、画面を 2分割表示して、それぞれの指の方向に対応するような表示内容の 向きで表示するようにしてもょ 、。
[0055] (実施例 2)
本発明の第 2実施例における表示装置のハードウェア構成は、図 2に示す第 1実施 例における表示装置のハードウェア構成と同様である。したがって、重複する構成お よび機能の詳細な説明は繰返さな!/、。
[0056] 図 6A〜6Bは、指紋センサによって検出された指の移動方向によって表示部 13の 表示内容の方向を変更するところを説明するための図である。図 6Aに示すように、 表示部 13が横長の状態で人を表示しているとする。図 6Bに示すように、指紋センサ 33に指が押下して図の右方向に指が移動すると、指向判断部 18によって指の移動 方向が判断され、その指の移動方向と一致するように表示部 13の表示内容の方向( 人の方向)が変更され、表示部 13が縦長の状態で人を表示するようになる。なお、図 6Bにおいては、指が移動した方向が画面の下向きとなるように表示内容を変更して いる。
[0057] 図 7は、本発明の第 2実施例における表示装置の処理手順を説明するためのフロ 一チャートである。まず、主制御部 24は、テレビ画像などの表示データを表示ドライ バ 21へ出力することによって、表示部 13に画面表示を行なう(Sl l)。
[0058] 次に、画像処理部 19が、指紋センサ付キー 32からの画像データを取り込むことに より、指紋センサ付キー 32に指が押下された力否かを検知する(S12)。指が押下さ れていなければ(S12, No)、ステップ S 12の処理を繰返す。
[0059] なお、指の押下の検知には上記画像認識による手段に限らず、例えば圧力センサ などの接触センサを用いてもょ 、。
[0060] 指が押下されていれば (S12, Yes)、指向判断部 18は、画像処理部 19から指の 位置情報を取得する (S41)。そして、一定時間待機した後 (S42)、指向判断部 18 は、再度画像処理部 19から指の位置情報を取得する(S43)。
[0061] 指向判断部 18は、ステップ S41および S43において取得された指の位置情報から 指の移動方向を判断し、主制御部 24に通知する。主制御部 24は、現在の画面の表 示内容の下の方向が指の移動方向と一致している力否かを判定する(S44)。現在 の画面の表示内容の下の方向が指の移動方向と一致していれば(S44, No)、ステ ップ S12に戻って以降の処理を繰返す。
[0062] 現在の画面の表示内容の下の方向が指の移動方向と一致していなければ(S44, Yes)、主制御部 24は、画面の表示内容の向きと指の方向とがー致するように、表示 内容の向きを変更して画面の再表示を行なう(S15)。
[0063] 以上説明したように、本実施例における表示装置によれば、指紋センサ付キー 32 によって検知された指紋力 指の位置を取得した後、再度指の位置を取得すること によって指の移動方向を判断し、指の移動方向と表示部 13の表示内容の下の方向 とが一致するように画面を再表示するようにしたので、第 1実施例において説明した 効果と同様の効果を奏することが可能となった。
[0064] (実施例 3)
本発明の第 3実施例における表示装置のハードウェア構成は、図 2に示す第 1実施 例における表示装置のハードウェア構成と同様である。したがって、重複する構成お よび機能の詳細な説明は繰返さない。本実施例における表示装置は、表示部 13を 備えた筐体 11の開閉角度および回転角度によって表示部 13の表示内容の向きを 補正するものである。
[0065] 図 8A〜8Bは、表示装置の筐体 11の開閉角度および回転角度の検出を説明する ための図である。図 8Aに示すように、本実施の形態における表示装置は、筐体 11の 表示部 13側に設けられた開閉マグネット 41— 1と、筐体 11の表示部 13の反対側に 設けられた開閉マグネット 41— 2と、開閉マグネット 41— 1と対になる開閉センサ 42 — 1と、開閉マグネット 41— 2と対になる開閉センサ 42— 2と、回転センサ 43— 1およ び 43— 2と、回転マグネット 44—1および 44— 2と、 Y軸回転センサ 45と、 Z軸回転セ ンサ 46とを含む。
[0066] 図 1 Aに示すように、表示部 13を内側にして筐体 11が閉じられている場合には、開 閉センサ 42— 1が開閉マグネット 41— 1の磁力を検知することによって、筐体 11の開 閉を検知する。また、図 8Bに示すように、筐体 11が Y軸を中心に 180° 回転された 場合は、開閉センサ 42— 2が開閉マグネット 41— 2の磁力を検知することによって、 筐体 11の開閉を検知する。したがって、いずれの開閉センサが磁力を検知したかに よって、表示部 13がどちら向きで筐体 11が閉じられたかを判定することができる。 [0067] また、回転マグネット 44 1および 44 2は、それぞれ N極および S極の相対する 磁極を有しており、回転センサ 43— 1および 43— 2のそれぞれ力 いずれの磁極を 検知したかによつて筐体 11がどちら側を向いているかを判定することができる。
[0068] Y軸回転センサ 45は、 Y軸を中心とする筐体 11の回転角度を検知することが可能 である。また、 Z軸回転センサ 46は、 Z軸を中心とする筐体 11の開閉角度を検知する ことが可能である。なお、 Y軸回転センサ 45および Z軸回転センサ 46を設ける場合に は、開閉マグネット 41— 1および 41— 2と、開閉センサ 42— 1および 42— 2と、回転 センサ 43— 1および 43— 2と、回転マグネット 44— 1および 44— 2とは不要である。
[0069] なお、開閉センサ 42—1、 42- 2,回転センサ 43— 1、 43— 2、 Y軸回転センサ 45 、 Z軸回転センサ 46は、図 2に示す回転検知部 22に相当する。
[0070] 図 9A〜9Cは、本発明の第 3実施例における表示装置の表示内容の向きの補正を 説明するための図である。なお、図 9A〜9Cにおいては、指紋センサ 34が操作部 14 のキーとは別個に設けられる場合を示している。図 9Aは、図 1Bに示す状態から、さ らに表示部 13と操作部 14とが水平になるまで開いたところを示している。利用者が 指紋センサ 34を押下することによって、表示部 13の表示内容の向きが図 9Aに示す 通りとなる。
[0071] 図 9Bは、表示部 13が設けられた筐体 11を Y軸を中心に 180° 回転させて、筐体 1 1を閉じたところを示している。本発明の第 1実施例においては、利用者が指紋セン サ 34を押下することによって、表示部 13の表示内容の向きが図 9Bに示す通りとなり 、表示内容が逆になる。
[0072] 図 9Cは、本実施例における表示装置によって、表示部 13の表示内容の向きを補 正したところを示している。この補正によって、表示部 13の表示内容が正しい向きと なる。
[0073] 図 10は、本発明の第 3実施例における表示装置の処理手順を説明するためのフロ 一チャートである。まず、主制御部 24は、テレビ画像などの表示データを表示ドライ バ 21へ出力することによって、表示部 13に画面表示を行なう(Sl l)。
[0074] 次に、画像処理部 19が、指紋センサ 34からの画像データを取り込むことにより、指 紋センサ 34に指が押下された力否かを検知する(S12)。指が押下されていなけれ ば(SI 2, No)、ステップ SI 2の処理を繰返す。
[0075] 指が押下されていれば (S12, Yes)、主制御部 24は、指向判断部 18から指方向 情報を取得したか否かを判定する。主制御部 24が指方向情報を取得しな力つた場 合 (S13, No)、すなわち指紋の認証が確認されな力つた場合には、ステップ S12に 戻って以降の処理を繰返す。
[0076] また、主制御部 24が指方向情報を取得した場合 (S13, Yes)、すなわち指紋の認 証が確認された場合には、表示装置向き検知部 23が回転検知部 22からの信号を取 得することによって、操作部 14に対する表示部 13の回転角度を検出する(S31)。
[0077] 次に、現在の画面の表示内容の向きが指の方向と一致している力否かを判定する
(S14)。このとき、ステップ S31において操作部 14に対する表示部 13の回転角度が 180° 近辺であれば、表示部 13の表示内容の向きを 180° だけ補正して、判定を 行なう。
[0078] 現在の画面の表示内容の向きが指の方向と一致していれば(S14, No)、ステップ S12に戻って以降の処理を繰返す。現在の画面の表示内容の向きが指の方向と一 致していなければ(S14, Yes)、主制御部 24は、画面の表示内容の向きと指の方向 とが一致するように、表示内容の向きを変更して画面の再表示を行なう(S15)。
[0079] なお、本実施例においては、現在の画面の表示内容の向きが指の方向と一致して いる力否かを判定するようにしたが、第 2実施例において説明したように、指の移動 方向と表示部 13の表示内容の下の方向とがー致するか否かを判定して、表示部 13 の表示内容の向きを補正するようにしてもょ 、。
[0080] 以上説明したように、本実施例における表示装置によれば、表示装置向き検知部 2 3によって表示部 13の回転角度を検知し、その回転角度に応じて表示部 13の表示 内容の向きを補正するようにしたので、たとえば、図 8A〜8Bで示した表示装置等で あっても利用者の所望の方向に表示内容を変更することが可能となった。
[0081] また、上述では特に具体的な説明はしな力つたが、複数の指と指紋とを関連付けて 、またそれに機器の機能も関連付けることにより、何れかの指で特別の表示に切り替 えたり、機能を動作指示することもできる。
[0082] たとえば、人差し指では細かい角度が制御でき画面上のキャラクタの回転角や画 面上の移動量を細かに制御できるが、中指では 4方向や 8方向の回転や一定間隔で のキャラクタ移動などの表示制御ができる。
[0083] また、検知手段に触れるたびに表示内容の向きが変わるのが煩わしい場合のため に、表示内容の向きを変更する機能のオン Zオフを利用者が設定できるようにしても よい。
[0084] また、登録してある指紋であれば認証完了後に指を離しても表示状態は保たれる 力 登録していない指紋の場合は指が検知手段に触れているときだけ表示の向きが 変わるようにすることにより、友達などに画像を一時的に見せるときなどに便利になる
[0085] 今回開示された実施の形態は、すべての点で例示であって制限的なものではな!/ヽ と考えられるべきである。

Claims

請求の範囲
[I] 表示手段と、
指の変位を検知するための検知手段と、
前記検知手段によって検知された指の変位に応じて、前記表示手段の表示内容の 向きを変更するための変更手段とを含む表示装置。
[2] 前記検知手段は、指の方向を検知する、請求項 1記載の表示装置。
[3] 前記検知手段は、指の移動方向を検知する、請求項 1記載の表示装置。
[4] 前記検知手段は、指の形を検知することにより指の方向または指の移動方向を検 知する、請求項 2または 3記載の表示装置。
[5] 前記検知手段は、指紋を検知することにより指の方向または指の移動方向を検知 する、請求項 2または 3記載の表示装置。
[6] 前記検知手段は、指紋センサを含む、請求項 1〜3のいずれかに記載の表示装置
[7] 前記表示装置はさらに、前記表示手段の表示内容を操作するための操作手段を 含み、
前記検知手段は、前記操作手段上に設けられる、請求項 1〜3のいずれかに記載 の表示装置。
[8] 前記操作手段は、テレビ画面を表示するための視聴ボタンである、請求項 7記載の 表示装置。
[9] 前記変更手段は、前記検知手段によって検知された指の方向または指の移動方 向と前記表示手段の表示内容の向きとの角度が所定値以上の場合に、前記表示手 段の表示内容の向きを変更する、請求項 1記載の表示装置。
[10] 前記変更手段は、前記表示手段と前記検知手段との位置関係に応じて、前記表示 手段の表示内容の向きを補正する、請求項 1記載の表示装置。
[II] 前記表示装置はさらに、前記検知手段が設けられる操作部と、
前記操作部に対する前記表示手段の回転角度を検出するための第 1の検出手段 と、
前記操作部に対する前記表示手段の開閉角度を検出するための第 2の検出手段 とを含み、
前記変更手段は、前記第 1の検出手段によって検出された回転角度と前記第 2の 検出手段によって検出された開閉角度とに基づいて、前記表示手段の表示内容の 向きを補正する、請求項 10記載の表示装置。
PCT/JP2006/302143 2005-05-27 2006-02-08 表示装置 WO2006126310A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
EP06713286A EP1892611A4 (en) 2005-05-27 2006-02-08 DISPLAY DEVICE
US11/665,120 US20090201257A1 (en) 2005-05-27 2006-02-08 Display Device
JP2007517728A JPWO2006126310A1 (ja) 2005-05-27 2006-02-08 表示装置

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2005-155974 2005-05-27
JP2005155974 2005-05-27

Publications (1)

Publication Number Publication Date
WO2006126310A1 true WO2006126310A1 (ja) 2006-11-30

Family

ID=37451743

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2006/302143 WO2006126310A1 (ja) 2005-05-27 2006-02-08 表示装置

Country Status (6)

Country Link
US (1) US20090201257A1 (ja)
EP (1) EP1892611A4 (ja)
JP (1) JPWO2006126310A1 (ja)
KR (1) KR101015352B1 (ja)
CN (1) CN101506760A (ja)
WO (1) WO2006126310A1 (ja)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008252679A (ja) * 2007-03-30 2008-10-16 Casio Hitachi Mobile Communications Co Ltd 指紋センサ装置、および、移動体通信端末
WO2012004852A1 (ja) * 2010-07-05 2012-01-12 富士通株式会社 電子機器、制御プログラムおよび制御方法
JP2013065295A (ja) * 2011-08-29 2013-04-11 Kyocera Corp 装置、方法、及びプログラム
WO2013128511A1 (ja) * 2012-03-02 2013-09-06 Necカシオモバイルコミュニケーションズ株式会社 携帯端末装置、表示画面制御方法、及びプログラム
JP2014071833A (ja) * 2012-10-01 2014-04-21 Toshiba Corp 電子機器、表示変更方法、及び表示変更プログラム
JP2015153231A (ja) * 2014-02-17 2015-08-24 キヤノン株式会社 情報処理装置、情報処理方法、コンピュータプログラム、及び記録媒体
CN105094611A (zh) * 2015-07-23 2015-11-25 京东方科技集团股份有限公司 显示装置、显示方法
US9477396B2 (en) 2008-11-25 2016-10-25 Samsung Electronics Co., Ltd. Device and method for providing a user interface
US9552154B2 (en) 2008-11-25 2017-01-24 Samsung Electronics Co., Ltd. Device and method for providing a user interface
CN107066137A (zh) * 2008-11-25 2017-08-18 三星电子株式会社 提供用户界面的设备和方法
WO2018079001A1 (ja) * 2016-10-24 2018-05-03 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
JP2020501172A (ja) * 2016-09-30 2020-01-16 インテル コーポレイション バイオメトリックセンサを使用してディスプレイの向きを制御する方法、装置及び製品

Families Citing this family (67)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DK1629624T3 (da) 2003-05-30 2013-06-24 Privaris Inc In-circuit sikkerhedssystem og fremgangsmåder til at styre adgang til og anvendelse af følsomme data
US7657849B2 (en) 2005-12-23 2010-02-02 Apple Inc. Unlocking a device by performing gestures on an unlock image
JP4669423B2 (ja) * 2006-03-20 2011-04-13 富士通株式会社 電子機器、スクロール制御装置、およびプログラム
JP4350740B2 (ja) * 2006-12-05 2009-10-21 レノボ・シンガポール・プライベート・リミテッド 携帯式電子機器、画面の表示方向の変更方法、プログラムおよび記憶媒体
CN104200145B (zh) * 2007-09-24 2020-10-27 苹果公司 电子设备中的嵌入式验证系统
US8600120B2 (en) 2008-01-03 2013-12-03 Apple Inc. Personal computing device control using face detection and recognition
JP5537044B2 (ja) * 2008-05-30 2014-07-02 キヤノン株式会社 画像表示装置及びその制御方法、コンピュータプログラム
US20100153313A1 (en) * 2008-12-15 2010-06-17 Symbol Technologies, Inc. Interface adaptation system
JP2010277197A (ja) * 2009-05-26 2010-12-09 Sony Corp 情報処理装置、情報処理方法およびプログラム
JP5458783B2 (ja) 2009-10-01 2014-04-02 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
US20110102334A1 (en) * 2009-11-04 2011-05-05 Nokia Corporation Method and apparatus for determining adjusted position for touch input
JP5667984B2 (ja) * 2010-01-26 2015-02-12 パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America 表示制御装置、表示制御方法、プログラムおよび集積回路
US20120319977A1 (en) * 2010-02-16 2012-12-20 Sharp Kabushiki Kaisha Display device with touch panel, control method therefor, control program, and recording medium
US8528072B2 (en) 2010-07-23 2013-09-03 Apple Inc. Method, apparatus and system for access mode control of a device
US20120127069A1 (en) * 2010-11-24 2012-05-24 Soma Sundaram Santhiveeran Input Panel on a Display Device
US9537848B2 (en) * 2011-07-07 2017-01-03 Bottomline Technologies, Inc. Application security system and method
US9002322B2 (en) 2011-09-29 2015-04-07 Apple Inc. Authentication with secondary approver
US8769624B2 (en) 2011-09-29 2014-07-01 Apple Inc. Access control utilizing indirect authentication
CN103076960A (zh) * 2011-10-26 2013-05-01 华为终端有限公司 控制屏幕显示方向的方法及其终端
US8903141B2 (en) 2012-05-03 2014-12-02 Authentec, Inc. Electronic device including finger sensor having orientation based authentication and related methods
CN106133748B (zh) 2012-05-18 2020-01-31 苹果公司 用于基于指纹传感器输入来操纵用户界面的设备、方法和图形用户界面
CN102736854B (zh) * 2012-05-24 2016-03-30 惠州Tcl移动通信有限公司 移动通讯终端及基于该移动通讯终端的屏幕调整方法
JP5862888B2 (ja) * 2012-07-09 2016-02-16 コニカミノルタ株式会社 操作表示装置およびプログラム
KR101312097B1 (ko) * 2012-10-29 2013-09-25 크루셜소프트 주식회사 지문 인식 방법, 장치 및 컴퓨터 판독 가능한 기록 매체
FR3001062B1 (fr) * 2013-01-11 2017-09-29 Freebox Appareil electronique portatif avec determination automatique de l'orientation "portrait" ou "paysage"
CN103246431B (zh) * 2013-04-27 2016-12-28 深圳市金立通信设备有限公司 一种调节屏幕显示方向方法、装置及系统
US20150022558A1 (en) * 2013-07-18 2015-01-22 Eric Li Orientation Control For a Mobile Computing Device Based On User Behavior
US9898642B2 (en) 2013-09-09 2018-02-20 Apple Inc. Device, method, and graphical user interface for manipulating user interfaces based on fingerprint sensor inputs
CN105453013A (zh) * 2013-09-10 2016-03-30 惠普发展公司,有限责任合伙企业 将用户界面定向于一边
CN104063170B (zh) * 2014-04-09 2017-08-25 上海惠诚科教器械股份有限公司 一种基于手势控制屏幕画面移动的方法
US9483763B2 (en) 2014-05-29 2016-11-01 Apple Inc. User interface for payments
US20160080552A1 (en) * 2014-09-17 2016-03-17 Qualcomm Incorporated Methods and systems for user feature tracking on a mobile device
CN104732212A (zh) * 2015-03-20 2015-06-24 酷派软件技术(深圳)有限公司 方向控制方法、方向控制系统和终端
WO2016149930A1 (zh) * 2015-03-26 2016-09-29 华为技术有限公司 一种应用程序的访问方法、装置和终端设备
CN104834520A (zh) * 2015-04-17 2015-08-12 惠州Tcl移动通信有限公司 智能终端应用启动的方法及智能终端
CN105653115A (zh) * 2015-04-30 2016-06-08 宇龙计算机通信科技(深圳)有限公司 一种显示控制方法和装置
US11762989B2 (en) 2015-06-05 2023-09-19 Bottomline Technologies Inc. Securing electronic data by automatically destroying misdirected transmissions
US10229657B2 (en) 2015-06-17 2019-03-12 International Business Machines Corporation Fingerprint directed screen orientation
CN105159571A (zh) * 2015-07-07 2015-12-16 努比亚技术有限公司 控制页面滑动的方法及移动终端
CN105005386B (zh) * 2015-07-23 2017-05-17 广东欧珀移动通信有限公司 一种调整屏幕显示方向的方法及终端
CN105094555A (zh) * 2015-07-24 2015-11-25 努比亚技术有限公司 一种通过滑动手势切换应用程序的方法及装置
CN105138320B (zh) * 2015-07-30 2018-09-04 广东欧珀移动通信有限公司 控制屏幕显示方向的方法和相关设备
CN104992103B (zh) * 2015-08-10 2019-01-15 联想(北京)有限公司 一种控制方法及装置
CN105045395A (zh) * 2015-08-28 2015-11-11 京东方科技集团股份有限公司 一种显示装置及画面显示方法
US20170163664A1 (en) 2015-12-04 2017-06-08 Bottomline Technologies (De) Inc. Method to secure protected content on a mobile device
DK179186B1 (en) 2016-05-19 2018-01-15 Apple Inc REMOTE AUTHORIZATION TO CONTINUE WITH AN ACTION
US11163955B2 (en) 2016-06-03 2021-11-02 Bottomline Technologies, Inc. Identifying non-exactly matching text
DK179978B1 (en) 2016-09-23 2019-11-27 Apple Inc. IMAGE DATA FOR ENHANCED USER INTERACTIONS
CN106547445A (zh) * 2016-10-09 2017-03-29 珠海市魅族科技有限公司 一种判断用户操作方向的方法、装置及智能设备
CN106774859A (zh) * 2016-11-29 2017-05-31 努比亚技术有限公司 移动终端及其控制方法
CN107194222A (zh) * 2017-04-28 2017-09-22 广东欧珀移动通信有限公司 屏幕显示模式控制方法及相关产品
CN107690654A (zh) * 2017-08-21 2018-02-13 深圳市汇顶科技股份有限公司 基于多指纹传感器的指纹模板注册方法、装置及电子设备
EP4156129A1 (en) 2017-09-09 2023-03-29 Apple Inc. Implementation of biometric enrollment
KR102185854B1 (ko) 2017-09-09 2020-12-02 애플 인크. 생체측정 인증의 구현
CN108182046A (zh) * 2017-12-29 2018-06-19 努比亚技术有限公司 控制屏幕旋转的方法及移动终端
US11170085B2 (en) 2018-06-03 2021-11-09 Apple Inc. Implementation of biometric authentication
US10860096B2 (en) 2018-09-28 2020-12-08 Apple Inc. Device control using gaze information
US11100349B2 (en) 2018-09-28 2021-08-24 Apple Inc. Audio assisted enrollment
US11416713B1 (en) 2019-03-18 2022-08-16 Bottomline Technologies, Inc. Distributed predictive analytics data set
CN113614580A (zh) 2019-03-29 2021-11-05 索尼集团公司 超透镜部件、电子装置和方法
US11042555B1 (en) 2019-06-28 2021-06-22 Bottomline Technologies, Inc. Two step algorithm for non-exact matching of large datasets
CN110488980B (zh) * 2019-08-23 2024-03-22 大连成者科技有限公司 一种投影系统人机交互系统
US11269841B1 (en) 2019-10-17 2022-03-08 Bottomline Technologies, Inc. Method and apparatus for non-exact matching of addresses
US11449870B2 (en) 2020-08-05 2022-09-20 Bottomline Technologies Ltd. Fraud detection rule optimization
EP4264460A1 (en) 2021-01-25 2023-10-25 Apple Inc. Implementation of biometric authentication
US11694276B1 (en) 2021-08-27 2023-07-04 Bottomline Technologies, Inc. Process for automatically matching datasets
US11544798B1 (en) 2021-08-27 2023-01-03 Bottomline Technologies, Inc. Interactive animated user interface of a step-wise visual path of circles across a line for invoice management

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002044727A (ja) * 2000-07-26 2002-02-08 Hitachi Ltd 携帯電話機および携帯電話システム
JP2003330590A (ja) * 2002-03-08 2003-11-21 Sony Corp 携帯型情報処理装置および方法、記録媒体、並びにプログラム
JP2004206230A (ja) * 2002-12-24 2004-07-22 Casio Comput Co Ltd 電子機器

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1021041A (ja) * 1996-06-28 1998-01-23 Matsushita Electric Ind Co Ltd 操作パネル
JP2000311174A (ja) * 1999-04-28 2000-11-07 Hitachi Ltd 表示装置
JP4545884B2 (ja) * 1999-07-22 2010-09-15 キヤノン株式会社 情報処理装置及びその制御方法、コンピュータ可読メモリ
US7289102B2 (en) * 2000-07-17 2007-10-30 Microsoft Corporation Method and apparatus using multiple sensors in a device with a display
DE10120067C1 (de) * 2001-04-24 2002-06-13 Siemens Ag Mobiles Kommunikationsendgerät
FI117488B (fi) * 2001-05-16 2006-10-31 Myorigo Sarl Informaation selaus näytöllä
JP3864776B2 (ja) * 2001-12-14 2007-01-10 コニカミノルタビジネステクノロジーズ株式会社 画像形成装置
JP2003296015A (ja) * 2002-01-30 2003-10-17 Casio Comput Co Ltd 電子機器
JP2003271284A (ja) * 2002-03-19 2003-09-26 Fuji Xerox Co Ltd 表示システム
JP2004102941A (ja) * 2002-09-12 2004-04-02 Sony Corp 携帯電子機器
JP2004178547A (ja) * 2002-09-30 2004-06-24 Sanyo Electric Co Ltd 携帯型電子装置
EP1567927B1 (en) * 2002-11-29 2013-07-10 Koninklijke Philips Electronics N.V. System and method for user interface with displaced representation of touch area
JP2004302734A (ja) * 2003-03-31 2004-10-28 Mitsubishi Electric Corp 情報端末並びにその動作切替えをコンピュータに実行させるプログラム
US20040201595A1 (en) * 2003-04-11 2004-10-14 Microsoft Corporation Self-orienting display
KR20050107430A (ko) * 2003-05-21 2005-11-11 가부시키가이샤 히다치 하이테크놀로지즈 지문센서내장 휴대 단말장치
DK1629624T3 (da) * 2003-05-30 2013-06-24 Privaris Inc In-circuit sikkerhedssystem og fremgangsmåder til at styre adgang til og anvendelse af følsomme data
JP2005018229A (ja) * 2003-06-24 2005-01-20 Seiko Epson Corp 文書閲覧端末、文書表示制御方法及び文書表示制御プログラム
US7587072B2 (en) * 2003-08-22 2009-09-08 Authentec, Inc. System for and method of generating rotational inputs
JP2005100084A (ja) * 2003-09-25 2005-04-14 Toshiba Corp 画像処理装置及び方法
FI117217B (fi) * 2003-10-01 2006-07-31 Nokia Corp Menetelmä ja järjestelmä käyttöliittymän (User Interface) hallitsemiseksi, vastaava laite ja ohjelmalliset (Software) välineet menetelmän toteuttamiseksi
US20050091431A1 (en) * 2003-10-23 2005-04-28 Robert Olodort Portable communication devices
JP4015133B2 (ja) * 2004-04-15 2007-11-28 三菱電機株式会社 端末装置
JP4385864B2 (ja) * 2004-06-23 2009-12-16 日本電気株式会社 携帯端末及び情報入力方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002044727A (ja) * 2000-07-26 2002-02-08 Hitachi Ltd 携帯電話機および携帯電話システム
JP2003330590A (ja) * 2002-03-08 2003-11-21 Sony Corp 携帯型情報処理装置および方法、記録媒体、並びにプログラム
JP2004206230A (ja) * 2002-12-24 2004-07-22 Casio Comput Co Ltd 電子機器

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP1892611A4 *

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008252679A (ja) * 2007-03-30 2008-10-16 Casio Hitachi Mobile Communications Co Ltd 指紋センサ装置、および、移動体通信端末
CN107066137A (zh) * 2008-11-25 2017-08-18 三星电子株式会社 提供用户界面的设备和方法
US9477396B2 (en) 2008-11-25 2016-10-25 Samsung Electronics Co., Ltd. Device and method for providing a user interface
US9552154B2 (en) 2008-11-25 2017-01-24 Samsung Electronics Co., Ltd. Device and method for providing a user interface
WO2012004852A1 (ja) * 2010-07-05 2012-01-12 富士通株式会社 電子機器、制御プログラムおよび制御方法
JP5423894B2 (ja) * 2010-07-05 2014-02-19 富士通株式会社 電子機器、制御プログラムおよび制御方法
US9075454B2 (en) 2010-07-05 2015-07-07 Fujitsu Limited Electronic apparatus, control program, and control method
JP2013065295A (ja) * 2011-08-29 2013-04-11 Kyocera Corp 装置、方法、及びプログラム
WO2013128511A1 (ja) * 2012-03-02 2013-09-06 Necカシオモバイルコミュニケーションズ株式会社 携帯端末装置、表示画面制御方法、及びプログラム
JP2014071833A (ja) * 2012-10-01 2014-04-21 Toshiba Corp 電子機器、表示変更方法、及び表示変更プログラム
JP2015153231A (ja) * 2014-02-17 2015-08-24 キヤノン株式会社 情報処理装置、情報処理方法、コンピュータプログラム、及び記録媒体
CN105094611A (zh) * 2015-07-23 2015-11-25 京东方科技集团股份有限公司 显示装置、显示方法
US10204257B2 (en) 2015-07-23 2019-02-12 Boe Technology Group Co., Ltd. Display apparatus and display method
JP2020501172A (ja) * 2016-09-30 2020-01-16 インテル コーポレイション バイオメトリックセンサを使用してディスプレイの向きを制御する方法、装置及び製品
JP7077305B2 (ja) 2016-09-30 2022-05-30 インテル コーポレイション バイオメトリックセンサを使用してディスプレイの向きを制御する方法、装置及び製品
WO2018079001A1 (ja) * 2016-10-24 2018-05-03 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
CN109844693A (zh) * 2016-10-24 2019-06-04 索尼公司 信息处理设备、信息处理方法以及程序
JPWO2018079001A1 (ja) * 2016-10-24 2019-09-12 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
US11494470B2 (en) 2016-10-24 2022-11-08 Sony Corporation Information processing apparatus and information processing method

Also Published As

Publication number Publication date
EP1892611A1 (en) 2008-02-27
KR101015352B1 (ko) 2011-02-16
CN101506760A (zh) 2009-08-12
EP1892611A4 (en) 2013-03-06
KR20070110130A (ko) 2007-11-15
US20090201257A1 (en) 2009-08-13
JPWO2006126310A1 (ja) 2008-12-25

Similar Documents

Publication Publication Date Title
WO2006126310A1 (ja) 表示装置
JP4767723B2 (ja) 指紋認証装置、指紋認証方法、指紋認証プログラム及び携帯端末装置
KR101672212B1 (ko) 휴대 단말기 및 그 동작 방법
JP5769704B2 (ja) 携帯型情報処理端末
US9438713B2 (en) Method and apparatus for operating electronic device with cover
CN105282313B (zh) 移动终端和用于该移动终端的控制方法
KR101617289B1 (ko) 휴대 단말기 및 그 동작 제어방법
JP4699955B2 (ja) 情報処理装置
US20170163872A1 (en) Electronic device and method for controlling image display
US20150378557A1 (en) Foldable electronic apparatus and interfacing method thereof
US20100255862A1 (en) Electronic device and input interface switching method
KR20130120599A (ko) 이동 단말기 및 그 제어방법
KR20130032596A (ko) 휴대용 단말기에서 자동 화면 회전을 방지하기 위한 장치 및 방법
KR20120009851A (ko) 이동 단말기에서 보호 모드 실행방법 및 그 방법을 이용한 이동 단말기
EP2977884A1 (en) Mobile terminal and method for controlling the same
WO2011115215A1 (ja) 携帯端末装置
CN115080943A (zh) 电子设备和用于登记指纹数据和解锁电子设备的对应方法
CN107402711A (zh) 音量调节方法、装置及计算机可读存储介质
US20160357274A1 (en) Pen terminal and method for controlling the same
WO2006043581A1 (ja) 機能制御方法及び端末装置
JP2008052584A (ja) 携帯電子機器
JP5463979B2 (ja) 携帯電子機器及びそのキーロック制御方法,プログラム
WO2010150765A1 (ja) 携帯電話機
KR20160068534A (ko) 이동단말기 및 그 제어방법
KR101779504B1 (ko) 이동 단말기 및 이동 단말기의 제어 방법

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 200680009394.0

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 11665120

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 2007517728

Country of ref document: JP

WWE Wipo information: entry into national phase

Ref document number: 2006713286

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 1020077022826

Country of ref document: KR

NENP Non-entry into the national phase

Ref country code: DE

WWW Wipo information: withdrawn in national office

Ref document number: DE

NENP Non-entry into the national phase

Ref country code: RU

WWW Wipo information: withdrawn in national office

Ref document number: RU

WWP Wipo information: published in national office

Ref document number: 2006713286

Country of ref document: EP