ES2748044T3 - Aparato de pantalla y procedimiento de control del mismo - Google Patents
Aparato de pantalla y procedimiento de control del mismo Download PDFInfo
- Publication number
- ES2748044T3 ES2748044T3 ES13188170T ES13188170T ES2748044T3 ES 2748044 T3 ES2748044 T3 ES 2748044T3 ES 13188170 T ES13188170 T ES 13188170T ES 13188170 T ES13188170 T ES 13188170T ES 2748044 T3 ES2748044 T3 ES 2748044T3
- Authority
- ES
- Spain
- Prior art keywords
- screen
- controller
- rotation
- gesture
- display apparatus
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/1615—Constructional details or arrangements for portable computers with several enclosures having relative motions, each enclosure supporting at least one I/O or computing function
- G06F1/1616—Constructional details or arrangements for portable computers with several enclosures having relative motions, each enclosure supporting at least one I/O or computing function with folding flat displays, e.g. laptop computers or notebooks having a clamshell configuration, with body parts pivoting to an open position around an axis parallel to the plane they define in closed position
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04817—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/0486—Drag-and-drop
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/14—Digital output to display device ; Cooperation and interconnection of the display device with other functional units
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M1/00—Substation equipment, e.g. for use by subscribers
- H04M1/02—Constructional features of telephone sets
- H04M1/0202—Portable telephone sets, e.g. cordless phones, mobile phones or bar type handsets
- H04M1/0206—Portable telephones comprising a plurality of mechanically joined movable body parts, e.g. hinged housings
- H04M1/0208—Portable telephones comprising a plurality of mechanically joined movable body parts, e.g. hinged housings characterized by the relative motions of the body parts
- H04M1/0214—Foldable telephones, i.e. with body parts pivoting to an open position around an axis parallel to the plane they define in closed position
- H04M1/0216—Foldable in one direction, i.e. using a one degree of freedom hinge
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M1/00—Substation equipment, e.g. for use by subscribers
- H04M1/02—Constructional features of telephone sets
- H04M1/0202—Portable telephone sets, e.g. cordless phones, mobile phones or bar type handsets
- H04M1/0206—Portable telephones comprising a plurality of mechanically joined movable body parts, e.g. hinged housings
- H04M1/0241—Portable telephones comprising a plurality of mechanically joined movable body parts, e.g. hinged housings using relative motion of the body parts to change the operational status of the telephone set, e.g. switching on/off, answering incoming call
- H04M1/0243—Portable telephones comprising a plurality of mechanically joined movable body parts, e.g. hinged housings using relative motion of the body parts to change the operational status of the telephone set, e.g. switching on/off, answering incoming call using the relative angle between housings
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2200/00—Indexing scheme relating to G06F1/04 - G06F1/32
- G06F2200/16—Indexing scheme relating to G06F1/16 - G06F1/18
- G06F2200/161—Indexing scheme relating to constructional details of the monitor
- G06F2200/1614—Image rotation following screen orientation, e.g. switching from landscape to portrait mode
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2200/00—Indexing scheme relating to G06F1/04 - G06F1/32
- G06F2200/16—Indexing scheme relating to G06F1/16 - G06F1/18
- G06F2200/163—Indexing scheme relating to constructional details of the computer
- G06F2200/1637—Sensing arrangement for detection of housing movement or orientation, e.g. for controlling scrolling or cursor movement on the display of an handheld computer
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M2250/00—Details of telephonic subscriber devices
- H04M2250/16—Details of telephonic subscriber devices including more than one display unit
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- General Physics & Mathematics (AREA)
- Computer Hardware Design (AREA)
- Signal Processing (AREA)
- Mathematical Physics (AREA)
- User Interface Of Digital Computer (AREA)
- Controls And Circuits For Display Device (AREA)
Abstract
Un aparato de pantalla que comprende: un primer cuerpo (2, 191a) en el que se proporciona una primera pantalla (190a); un segundo cuerpo (4, 191b) en el que se proporciona una segunda pantalla (190b); una bisagra (185) configurada para conectar el primer cuerpo (2, 191a) y el segundo cuerpo (4, 191b); un almacenamiento (170) configurado para almacenar información de operación de control que se corresponde con un estado girado del primer cuerpo (2, 191a) y el segundo cuerpo (4, 191b) y una dirección de rotación del primer cuerpo (2, 191a) y el segundo cuerpo (4, 191b); un primer sensor incluido en el primer cuerpo (2, 191a) y configurado para detectar una rotación del primer cuerpo (2, 191a); un segundo sensor incluido en el segundo cuerpo (4, 191b) y configurado para detectar una rotación del segundo cuerpo (4, 191b); y un controlador (130) configurado para: determinar el estado rotado del primer cuerpo (2, 191a) y el segundo cuerpo (4, 191b) y la dirección de rotación del primer cuerpo (2, 191a) y el segundo cuerpo (4, 191b) a base de la rotación detectada del primer cuerpo (2, 191a) y la rotación detectada del segundo cuerpo (4, 191b), mostrar una interfaz de usuario, UI, correspondiente al estado de rotación determinado y la dirección de rotación determinada en un área predeterminada de un monitor de la primera pantalla (190a) o la segunda pantalla (190b), utilizando la información de operación de control correspondiente al estado girado del cuerpo girado entre el primer cuerpo (2, 191a) y el segundo cuerpo (4, 191b) y la dirección de rotación del cuerpo girado, y cambiar el tamaño de la UI de acuerdo con una dirección de arrastre de la UI cuando se ingresa el arrastre de la UI, en el que cuando el arrastre de la UI comienza en una pantalla en el que se muestra la UI, entre la primera pantalla (190a) y la segunda pantalla (190b) y termina en la otra pantalla, entre la primera pantalla (190a) y la segunda pantalla (190b), la UI se expande de una pantalla a la otra.
Description
DESCRIPCIÓN
Aparato de pantalla y procedimiento de control del mismo
La presente invención se refiere a un aparato de pantalla y a un procedimiento para controlarlo, y más particularmente, a un aparato de pantalla configurado para mostrar monitores de tareas usando pantallas múltiples y para mostrar una UI correspondiente a la manipulación de un usuario, y un procedimiento para controlar la misma.
Se han utilizado diversos tipos de pantallas recientemente. En tales pantallas, se instalan y ejecutan diversas aplicaciones según la selección del usuario. El usuario puede controlar un aparato de pantalla usando un aparato de entrada. En particular, un dispositivo electrónico portátil, que pueden llevar los usuarios, generalmente se desarrolla como un aparato de pantalla, que utiliza una interfaz de usuario en formato de monitor táctil debido a su pequeño tamaño. Por consiguiente, un aparato de pantalla puede proporcionar diversos tipos de interfaces gráficas de usuario (GUI), que pueden ser tocadas por los usuarios.
Se puede proporcionar una GUI en una forma óptima para que el usuario pueda ver intuitivamente el funcionamiento de las aplicaciones en ejecución y controlar el aparato de manera más fácil y rápida.
Sin embargo, las interfaces de usuario de la técnica relacionada se han producido principalmente para un aparato de pantalla que tiene una sola unidad de pantalla. Por consiguiente, el desarrollo de un procedimiento de interfaz de usuario apropiado para un aparato de pantallas múltiples que tiene una pluralidad de unidades de pantalla no ha sido del todo satisfactorio.
En particular, como se ha desarrollado la tecnología de una unidad central de procesamiento (CPU) y software, un dispositivo portátil puede proporcionar una pluralidad de pantallas de tareas para mostrar una sola o una pluralidad de aplicaciones. La pluralidad de pantallas de tareas puede proporcionarse usando una o más pantallas táctiles, que puede estar física o gráficamente separada.
Los documentos KR2012-0092037A, US2012/084706A1, US2011/216064, WO2012/108715A2 y US2010/0225601A1 se refieren a dispositivos portátiles que comprenden una pluralidad de pantallas.
Por consiguiente, existe la necesidad de un procedimiento GUI para un monitor táctil de un aparato de pantallas múltiples para que el usuario pueda usar el aparato de pantallas múltiples de manera más intuitiva y conveniente.
El presente concepto inventivo proporciona un aparato de pantallas múltiples que tiene una interfaz de usuario que permite a un usuario controlar el aparato de pantallas múltiples y ejecutar aplicaciones de forma intuitiva y conveniente, y un procedimiento de control del mismo.
Las características y utilidades adicionales del presente concepto inventivo general se expondrán en parte en la descripción que sigue.
De acuerdo con un aspecto de la presente invención, se proporciona un aparato de pantalla según la reivindicación 1 y un procedimiento de control del aparato de pantalla según la reivindicación 11.
Las realizaciones preferidas de la presente invención se definen en las reivindicaciones dependientes.
Las realizaciones y/o ejemplos de la siguiente descripción que no están cubiertos por las reivindicaciones se proporcionan únicamente con fines ilustrativos y solo están destinados a ayudar al lector a comprender la presente invención. Sin embargo, tales realizaciones y/o ejemplos que no están cubiertos por las reivindicaciones no forman parte de la presente invención, que se define únicamente por las reclamaciones.
Estas y/u otras características y utilidades del presente concepto inventivo general se harán evidentes y se apreciarán más fácilmente a partir de la siguiente descripción de las realizaciones, tomadas en conjunto con los dibujos adjuntos, de los cuales:
La figura 1 es un diagrama de bloques esquemático de una configuración de un aparato de pantallas múltiples según una realización ejemplar del presente concepto inventivo;
La figura 2 es un diagrama de flujo que ilustra la operación de proporcionar una interfaz de usuario que corresponde a un gesto de plegado de acuerdo con una realización ejemplar del presente concepto inventivo;
Las figuras 3 a 15 ilustran ejemplos de una operación de proporcionar una interfaz de usuario como se ilustra en la figura 2;
La figura 16 es un diagrama de flujo que ilustra la operación que corresponde a un gesto de plegado y plano de acuerdo con una realización ejemplar del presente concepto inventivo;
Las figuras 17 a 19 ilustran ejemplos de una operación que corresponde a un gesto de plegado y plano como se ilustra en la figura 16;
La figura 20 es un diagrama de flujo que ilustra la operación que corresponde a un gesto de plegado y retención según una realización ejemplar del presente concepto inventivo;
Las figuras 21 a 22 ilustran ejemplos de una operación que corresponde a un gesto de plegado y retención como se ilustra en la figura 20;
La figura 23 es un diagrama de flujo que ilustra la operación de expandir o reducir una nueva área de pantalla de acuerdo con una realización ejemplar del presente concepto inventivo;
Las figuras 24 a 27 ilustran ejemplos de una operación de expansión o reducción de una nueva área de pantalla como se ilustra en la figura 23;
La figura 28 es un diagrama de flujo que ilustra una realización ejemplar de una operación de cambiar una nueva área de pantalla de acuerdo con una rotación del aparato de pantalla múltiple;
La figura 29 ilustra la realización ejemplar de la operación de cambiar la nueva área de pantalla de acuerdo con la rotación del aparato de pantalla múltiple como se ilustra en la figura 28;
La figura 30 es un diagrama de flujo que ilustra una realización ejemplar de una operación de cambiar una nueva área de pantalla de acuerdo con una rotación del aparato de pantalla múltiple;
La figura 31 ilustra la realización ejemplar de la operación de cambiar la nueva área de pantalla de acuerdo con la rotación del aparato de pantalla múltiple como se ilustra en la figura 30;
La figura 32 es un diagrama de flujo que ilustra la operación de simbolizar una interfaz de usuario del portapapeles de acuerdo con una realización ejemplar del presente concepto inventivo;
Las figuras 33 y 34 ilustran ejemplos de una operación de simbolizar una interfaz de usuario del portapapeles como se ilustra en la figura 32;
La figura 35 es un diagrama de flujo que ilustra la operación de objetivar una interfaz de usuario del portapapeles de acuerdo con una realización ejemplar del presente concepto inventivo;
La figura 36 ilustra un ejemplo de una operación de objetivar una interfaz de usuario del portapapeles como se ilustra en la figura 35; La figura 37 es un diagrama de flujo que ilustra la operación de eliminar un símbolo de una interfaz de usuario del portapapeles de acuerdo con una realización ejemplar del presente concepto inventivo; La figura 38 ilustra un ejemplo de una operación de eliminación de un símbolo de una interfaz de usuario del portapapeles como se ilustra en la figura 37;
La figura 39 es un diagrama de bloques detallado de una configuración del aparato de pantallas múltiples de acuerdo con una realización ejemplar del presente concepto inventivo;
La figura 40 es un diagrama de bloques detallado que ilustra un ejemplo de una configuración del controlador como se ilustra en la figura 39;
La figura 41 ilustra un ejemplo de una configuración de hardware de la pantalla;
Las figuras 42 y 43 son diagramas de bloques esquemáticos de configuraciones del controlador de pantalla de cristal líquido (LCD) configurado para controlar las dos pantallas del aparato de pantallas múltiples de acuerdo con una realización ejemplar del presente concepto inventivo;
La figura 44 es una vista en sección transversal que ilustra la pantalla de acuerdo con una realización ejemplar del presente concepto inventivo;
La figura 45 ilustra una estructura jerárquica del aparato de pantallas múltiples de acuerdo con una realización ejemplar del presente concepto inventivo;
La figura 46 es una vista en perspectiva detallada del aparato de pantallas múltiples de acuerdo con una realización ejemplar del presente concepto inventivo; y
Las figuras 47 a 50 ilustran realizaciones ejemplares de acuerdo con un ángulo de intervalo 0 entre el primer cuerpo y el segundo cuerpo del aparato de pantallas múltiples de acuerdo con una realización ejemplar del presente concepto inventivo.
Un aparato de pantallas múltiples puede incluir una pluralidad de pantallas, por ejemplo en forma de monitor táctil, que puede ser un aparato para ejecutar una aplicación o para mostrar contenido. Por ejemplo, el aparato de pantallas múltiples puede ser una tableta de ordenador personal (PC), un ordenador portátil, un reproductor multimedia portátil (PMP), un asistente digital personal (PDA), un teléfono inteligente, un teléfono móvil, una trama digital, y similares. Las realizaciones ejemplares del presente concepto inventivo se describen con respecto a un aparato de pantallas múltiples, que puede implementarse con un teléfono celular o un teléfono inteligente. Sin embargo, la presente invención no se limita a los mismos.
La figura 1 es un diagrama de bloques esquemático de una configuración de un aparato 100 de pantallas múltiples de acuerdo con una realización ejemplar del presente concepto inventivo.
Con referencia a la figura 1, el aparato 100 de pantallas múltiples, también denominado aparato de pantalla, de acuerdo con una realización ejemplar del presente concepto inventivo, puede incluir una primera pantalla 190a provista en un primer cuerpo 191a, una segunda pantalla 190b provista en un segundo cuerpo 191b, una bisagra 185 configurada para conectar el primer cuerpo 191a y el segundo cuerpo 191b, un controlador 130, un sensor 150 y un almacenamiento 170.
Se pueden implementar las pantallas primera y segunda 190a y 190b, por ejemplo, con pantallas táctiles, que puede sentir el toque del usuario. Por ejemplo, cada una de las pantallas primera y segunda 190a y 190b puede proporcionarse apilando una porción de detección táctil (no ilustrada) y una porción de pantalla (no ilustrada). La porción de detección táctil puede implementarse, por ejemplo, con un sensor táctil para detectar el tacto del usuario y un sensor de proximidad para detectar el enfoque del tacto del usuario. La porción de pantalla puede implementarse, por ejemplo. con un panel de pantalla de cristal líquido (LCD).
La primera y segunda pantallas 190a y 190b pueden mostrar diversas pantallas, tales como, por ejemplo, un monitor de fondo de pantalla que incluye diversos iconos, un monitor de navegación web, un monitor de ejecución de la aplicación, un monitor de reproducción de contenido diversa, como vídeos e imágenes, un monitor de interfaz de
usuario, etc., de acuerdo con el control del controlador 130.
La bisagra 185 puede conectar el primer cuerpo 191a y el segundo cuerpo 191b, y puede soportarlos para que puedan girar. Por ejemplo, la bisagra 185 puede conectar las pantallas primera y segunda 190a y 190b físicamente. La primera pantalla 190a puede proporcionarse en el primer cuerpo 191a, y la segunda pantalla 190b puede proporcionarse en el segundo cuerpo 191b.
La bisagra 185 puede conectar físicamente el primer cuerpo 191a y el segundo cuerpo 191b y puede actuar como un eje para que el primer cuerpo 191a y el segundo cuerpo 191b puedan girar respectivamente en un estado conectado. La bisagra 185 puede formarse en un solo cuerpo para conectarse al primer cuerpo 191a y al segundo cuerpo 191b, o puede formarse en un cuerpo plural para conectarse a ambos bordes del primer cuerpo 191a y el segundo cuerpo 191b.
Una estructura externa más detallada del primer y segundo cuerpos 191a y 191b y la bisagra 185 se describe a continuación, con referencia a los dibujos. Para conveniencia de la descripción, a continuación, se supone que la bisagra 185 puede conectar directamente la primera pantalla 190a y la segunda pantalla 190b.
La primera pantalla 190a y la segunda pantalla 190b pueden girar sobre la bisagra 185. Por consiguiente, la primera pantalla 190a y la segunda pantalla 190b pueden estar cerradas y en contacto, o pueden doblarse hacia atrás y abrirse en sentido inverso para que las caras traseras de la primera pantalla 190a y la segunda pantalla 190b puedan estar en contacto.
Además, de acuerdo con la estructura de la bisagra 185, la primera pantalla 190a y la segunda pantalla 190b pueden abrirse a 180 grados en una forma completamente plana. El aparato 100 de pantallas múltiples puede funcionar en diversos modos de funcionamiento según el grado en que la primera pantalla 190a y la segunda pantalla 190b pueden abrirse a base de la bisagra 185.
Diversos modos de funcionamiento se describen a continuación, en detalle con referencia a los dibujos.
Cuando se produce un gesto de plegado en el que el primer cuerpo 191a o el segundo cuerpo 191b gira sobre la bisagra 185, el sensor 150 puede detectar un ángulo entre el primer cuerpo 191a y el segundo cuerpo 191b.
El gesto de plegado puede ser, por ejemplo, uno de los gestos del usuario para controlar el aparato 100 de pantallas múltiples que usa una característica del aparato 100 de pantallas múltiples en el que el primer cuerpo 191a y el segundo cuerpo 191b pueden girar sobre la bisagra 185.
Un ejemplo del gesto de plegado puede ser un gesto de plegado y plano en el que el primer cuerpo 191a o el segundo cuerpo 191b pueden plegarse girando sobre la bisagra 185 en una primera dirección y pueden volverse planos girando en una segunda dirección opuesta a la primera dirección dentro de un tiempo predeterminado.
Un ejemplo del gesto de plegado puede ser un gesto de plegado y retención en el que el primer cuerpo 191a o el segundo cuerpo 191b pueden plegarse girando sobre la bisagra 185 en una primera dirección y manteniendo esta posición.
El sensor 150 puede detectar la rotación del aparato 100 de pantallas múltiples. Por ejemplo, el usuario puede girar el aparato 100 de pantallas múltiples horizontal o verticalmente. En este caso, un ángulo de inclinación, un ángulo de balanceo, un ángulo de guiñada, etc. puede cambiar. El sensor 150 puede detectar estos ángulos.
Por ejemplo, el sensor 150 puede incluir un sensor 151 táctil, un sensor 152 geomagnético, un sensor 153 de aceleración, un sensor 154 de bisagra y/o un sensor 155 de proximidad (véase la figura 39). A continuación, se proporciona una descripción detallada de estos sensores con referencia a los dibujos.
El almacenamiento 170 puede almacenar información de operación de control que se corresponde de manera diferente según un cuerpo giratorio y su dirección de rotación. Por ejemplo, el almacenamiento 170 puede almacenar información de operación de control que, cuando el primer cuerpo 191a gira en una primera dirección, se puede visualizar una interfaz de usuario (UI) de iniciador rápido en un área predeterminada de un monitor de la primera pantalla 190a o la segunda pantalla 190b.
Además, el almacenamiento 170 puede almacenar diversos programas y datos que pueden usarse para el funcionamiento del aparato 100 de pantallas múltiples.
El almacenamiento 170 puede ser un medio de almacenamiento que se puede proporcionar por separado con, por ejemplo, una memoria 135 de solo lectura (ROM) y una memoria 137 de acceso aleatorio (RAM) que puede proporcionarse en el controlador 130 (véase la figura 40). El almacenamiento 170 puede implementarse, por ejemplo, con una unidad de disco duro (HDD), una unidad de estado sólido (SSD), una memoria flash, un bus serie universal (USB) o similar.
Cuando un ángulo de intervalo 0 (véase la figura 3) entre el primer cuerpo 191a y el segundo cuerpo 191b satisface condiciones predeterminadas, el controlador 130 puede realizar una operación correspondiente al gesto de plegado
que usa el cuerpo giratorio y controlar la información de la operación correspondiente a la dirección de rotación.
Las condiciones predeterminadas pueden ser, por ejemplo, un cambio en el tamaño del ángulo del intervalo y un tiempo válido (duración) del ángulo del intervalo.
Por ejemplo, en el gesto de plegado y plano, que es un ejemplo del gesto de plegado, cuando el tamaño del ángulo de intervalo 0 cambia de 180 grados a 150 grados (por ejemplo, el rango de 145 a 155 grados) y cuando el tiempo válido del ángulo de intervalo 9 tomado para volver a 180 grados es, por ejemplo, dentro de 0,5 segundos, Se puede determinar que se cumplen las condiciones predeterminadas.
Por otra parte, otro ejemplo del gesto de plegado es el gesto de plegado y retención. En el gesto de plegar y sostener, cuando el tamaño del ángulo de intervalo 0 cambia de 180 grados a 150 grados (por ejemplo, el rango de 145 a 155 grados) y cuando ha transcurrido un tiempo de duración predeterminado (por ejemplo, 0,5 segundos) a 150 grados, Se puede determinar que se cumplen las condiciones predeterminadas.
El cambio en el tamaño del ángulo de intervalo 0, que puede ser una de las condiciones predeterminadas, por ejemplo, cambiando de 180 grados a 150 grados o de 180 grados a 120 grados, puede distinguirse, y una operación de control correspondiente puede coincidir con la misma.
Para conveniencia de la descripción, en un estado de inicialización de operación, el ángulo de intervalo 0 se ha descrito como 180 grados, pero no se limita a los mismos. Las condiciones predeterminadas pueden ser predeterminadas por un fabricante o pueden ser designadas por el usuario.
De acuerdo con una realización ejemplar de entre las diversas realizaciones ejemplares del presente concepto inventivo, el controlador 130 puede cambiar un monitor visualizada en una pantalla del cuerpo giratorio u otro cuerpo, y puede mostrar una UI correspondiente a un gesto de plegado en un área del monitor. En este caso, el monitor existente puede ser empujado en una dirección, puede abrirse una nueva área del monitor y la UI puede mostrarse en la nueva área abierta del monitor. Como alternativa, la UI puede superponerse en el monitor existente.
El tamaño, la posición de pantalla y la forma de la UI pueden ser ajustadas arbitrariamente por el usuario.
Por ejemplo, cuando se ingresa una manipulación para arrastrar la UI, el controlador 130 puede expandir o reducir la UI de acuerdo con una dirección de arrastre. Por ejemplo, supongamos que la UI se muestra en un área de borde lejos de la bisagra 185. Cuando se arrastra la UI hacia la bisagra 185, la UI puede expandirse de acuerdo con el arrastre. En este caso, cuando el arrastre continúa sobre la bisagra 185 a la otra pantalla, la UI puede expandirse a la otra pantalla. La expansión o reducción de la UI mediante el arrastre se puede realizar tocando cualquier punto de la UI o tocando solo un área predeterminada de la UI. Por ejemplo, se puede mostrar una marca en un área del borde de la UI, y cuando se toca y arrastra la marca, la UI puede expandirse o reducirse según la dirección de arrastre. Además, cuando se ingresa una manipulación para arrastrar la UI, el controlador 130 puede ajustar, por ejemplo, la posición o la forma de la UI de acuerdo con la dirección de arrastre. Es decir, la UI, que puede mostrarse en un área del borde izquierdo del monitor de la primera pantalla 190a, puede ser movida, por ejemplo, a un área del borde derecho del monitor de la primera pantalla 190a, o puede moverse a un área del borde superior o inferior.
Además, cuando el controlador 130 detecta la rotación del aparato 100 de pantallas múltiples, el controlador 130 puede cambiar una dirección de disposición de los objetos en la UI de acuerdo con la dirección de rotación.
Los objetos pueden indicar, por ejemplo, texto, imágenes e iconos incluidos en la UI.
Además, cuando se gira el aparato 100 de pantallas múltiples, el controlador 130 puede cambiar la posición de pantalla de la nueva área de pantalla de acuerdo con la dirección de rotación.
El tipo de UI puede variar de acuerdo con las realizaciones ejemplares del presente concepto inventivo. Por ejemplo, diversas interfaces de usuario como, por ejemplo, una UI del portapapeles, una UI de configuración de la aplicación, una UI de inicio rápido, una UI de configuración del aparato 100 de pantallas múltiples, una opción que configura la UI, una UI del monitor del navegador web, se puede mostrar una UI de reproducción de contenido y/o un widget que muestra la UI.
La UI puede variar según el cuerpo que gira y según la dirección en que gira el cuerpo.
Aquí se describen diversas realizaciones ejemplares del presente concepto inventivo relacionadas con una operación de control del aparato 100 de pantallas múltiples.
La figura 2 es un diagrama de flujo que ilustra una operación de proporcionar una UI que corresponde a un gesto de plegado de acuerdo con una realización ejemplar del presente concepto inventivo.
Más específicamente, la figura 2 ilustra una realización ejemplar del presente concepto inventivo de proporcionar selectivamente una pluralidad de UI de acuerdo con un tipo de gesto de plegado del aparato 100 de pantallas múltiples.
Con referencia a la figura 2, el aparato 100 de pantallas múltiples puede detectar el gesto de plegado del usuario
utilizando el sensor 150. Más específicamente, el aparato 100 de pantallas múltiples puede detectar el gesto de plegado del usuario en la operación S2010, y puede determinar qué cuerpo entre el primer cuerpo 191a y el segundo cuerpo 191b gira en qué dirección.
Para la determinación, el primer cuerpo 191a y el segundo cuerpo 191b pueden incluir cada uno un sensor de rotación tal como, por ejemplo, el sensor 152 geomagnético, el sensor 153 de aceleración, y/o un sensor giroscópico (véase la figura 39). Es decir, cuando cambia el ángulo de inclinación o el ángulo de balanceo del primer cuerpo 191a, el aparato 100 de pantallas múltiples puede determinar que el primer cuerpo 191a gira, y cuando cambia el ángulo de inclinación o el ángulo de balanceo del segundo cuerpo, el aparato 100 de pantallas múltiples puede determinar que el segundo cuerpo 191b gira. Además, el aparato 100 de pantallas múltiples puede determinar cuántos grados gira el primer o segundo cuerpo 191a o 191b en qué dirección.
Además, el aparato 100 de pantallas múltiples puede determinar qué cuerpo gira controlando un cambio en un punto de contacto entre la bisagra 185 y los cuerpos 191a y 191b. Por ejemplo, puede proporcionarse un diodo emisor de luz (LED) (no ilustrado) en cada cuerpo 191a y 191b en una porción en la que cada cuerpo 191a y 191b y la bisagra 185 están en contacto, y puede proporcionarse una matriz de fotodiodos (no ilustrada) en la bisagra 185. En este caso, el controlador 130 puede identificar un punto de recepción de luz del conjunto de fotodiodos y puede determinar cuánto gira cada cuerpo 191a y 191b en qué dirección. La dirección de rotación puede ser, por ejemplo, una dirección hacia adelante o hacia atrás. En una realización ejemplar del presente concepto inventivo, la dirección hacia adelante puede indicar una dirección frontal de la primera o segunda pantalla 190a o 190b, y la dirección hacia atrás puede indicar una dirección trasera de la primera o segunda pantalla 190a o 190b.
Como resultado de una determinación, cuando el gesto de plegado ocurre en el primer cuerpo 191a en la operación S2020-Y, y cuando el gesto de plegado ocurre hacia adelante en la operación S2031-Y, el aparato 100 de pantallas múltiples puede abrir una nueva área de pantalla en la primera pantalla 191a en la operación S2032. La nueva área de pantalla puede indicar un área de la pantalla provista para mostrar una UI entre toda el área del monitor visualizada en la primera pantalla 191a. Para conveniencia de la descripción, un área del monitor para mostrar una UI se puede denominar a continuación, como la nueva área de pantalla.
En la operación S2033, el aparato 100 de pantallas múltiples puede mostrar una UI de iniciador rápido en la nueva área de pantalla abierta. La UI del iniciador rápido puede ser una UI que muestra iconos, imágenes y/o texto configurados para ejecutar directamente diversas aplicaciones.
Además, como resultado de una determinación en la operación S2020, cuando el gesto de plegado se produce en el primer cuerpo 191a en la operación S2020-Y, y cuando el gesto de plegado se produce hacia atrás en la operación S2031-N, el aparato 100 de pantallas múltiples puede abrir una nueva área de pantalla en la primera pantalla 190a en la operación S2034 y puede mostrar una UI de configuración del aparato 100 de pantallas múltiples en la nueva área de pantalla abierta en la operación S2035. La UI de configuración del aparato 100 de pantallas múltiples puede ser una UI que establece entornos operativos del aparato 100 de pantallas múltiples.
Además, cuando el gesto de plegado ocurre en el segundo cuerpo en la operación S2020-N, y cuando el gesto de plegado ocurre hacia adelante en la operación S2041-Y, el aparato 100 de pantallas múltiples puede abrir una nueva área de pantalla en la segunda pantalla 190b en la operación S2042, y puede mostrar una UI del portapapeles en la nueva área de pantalla abierta en la operación S2043. La UI del portapapeles puede ser una UI que almacena objetos copiados mediante un comando de copia (o corte) y que llama a un objeto copiado cuando lo desea.
Además, como resultado de la determinación en la operación S2020, cuando el gesto de plegado ocurre en el segundo cuerpo en la operación S2020-N, y cuando el gesto de plegado no ocurre hacia adelante en la operación S2041-N, el aparato 100 de pantallas múltiples puede abrir una nueva área de pantalla en la segunda pantalla 190b en la operación 52044, y puede mostrar una UI de configuración de aplicación en la nueva área de pantalla abierta en la operación 52045. La UI de configuración de la aplicación puede ser una UI que establece los entornos operativos de una aplicación en ejecución.
Se proporciona una descripción más detallada de las UI con referencia a las figuras 3 a 15.
Las figuras 3 a 6 ilustran ejemplos de operaciones de detectar un gesto de plegado.
La figura 3 ilustra un ejemplo de una operación de plegado del primer cuerpo 191a hacia adelante. Como se ilustra en una vista (a) de la figura 3, el primer cuerpo 191a y el segundo cuerpo 191b del aparato 100 de pantallas múltiples en esta realización ejemplar del presente concepto inventivo pueden desplegarse en un ángulo de intervalo 0 de 180 grados sobre la base de la bisagra 135. Esta posición puede referirse como un modo de expansión. A continuación, en el presente documento, todas las operaciones pueden comenzar en el modo de expansión, es decir, en un ángulo de intervalo 0 de 180 grados entre el primer cuerpo 191a y el segundo cuerpo 191b sobre la base de la bisagra 135. Sin embargo, no están limitados a esto, y el ángulo de intervalo 0 para comenzar las operaciones puede ser establecido de manera diversa por el fabricante o el usuario. En otras palabras, cuando se produce un gesto de plegado adicional en un ángulo de intervalo 0 de 90 grados, se puede mostrar una UI correspondiente al gesto de plegado.
En el estado en el que el primer cuerpo 191a y el segundo cuerpo 191b pueden desplegarse como se ilustra en una
vista (a) de la figura 3, cuando el primer cuerpo 191a, que incluye la primera pantalla 190a, es plegado hacia adelante en un ángulo relativo predeterminado de 0 por el usuario, como se ilustra en una vista (b) de la figura 3, y luego vuelve a su posición original dentro de un tiempo predeterminado, como se ilustra en una vista (c) de la figura 3, el aparato 100 de pantallas múltiples puede proceder a la operación S2031-Y.
La figura 4 ilustra un ejemplo de operaciones S2010, S2020 y S2041-Y de la figura 2 en detalle. Como se ilustra en una vista (a) de la figura 4, cuando el segundo cuerpo 191b, que incluye la segunda pantalla 190b, es plegado hacia adelante en un ángulo de intervalo predeterminado 0 por el usuario, como se ilustra en una vista (b) de la figura 4, y luego vuelve a la posición original dentro de un tiempo predeterminado, como se ilustra en una vista (c) de la figura 4, el aparato 100 de pantallas múltiples puede proceder a la operación S2041-Y.
Las figuras 5 y 6 ilustran ejemplos en los que el primer cuerpo 191a y el segundo cuerpo 191b se pliegan hacia atrás a más de un ángulo de intervalo predeterminado de 0 y luego regresan a la posición original. La figura 5 ilustra un ejemplo de operaciones S2010, S2020 y S2031-N de la figura 2 en detalle, y la figura 6 ilustra un ejemplo de operaciones S2010, S2020 y S2041-N de la figura 2 en detalle. Las figuras 3 a 6 ilustran ejemplos de los gestos de plegado y plano, pero sin limitación. Otros gestos de plegado, es decir, Se pueden implementar otros tipos de gestos de plegado y plano. El gesto de plegado y plano y el gesto de plegado y retención se describen con referencia a las figuras 16 y 20 en mayor detalle.
Las figuras 7 y 8 ilustran un ejemplo de UI mostradas según los gestos de plegado.
Cuando el primer cuerpo 191a, que incluye la primera pantalla 190a se pliega hacia adelante como se ilustra en la figura 7, el aparato 100 de pantallas múltiples puede mostrar una UI 1000-1 de iniciador rápido en un área predeterminada del monitor de la primera pantalla 190a.
Además, cuando el segundo cuerpo 191b, que incluye la segunda pantalla 190b, se dobla hacia adelante, el aparato 100 de pantallas múltiples puede mostrar una UI 1000-2 de portapapeles en un área predeterminada del monitor de la segunda pantalla 190b.
La figura 8 ilustra un ejemplo del aparato 100 de pantallas múltiples plegado hacia atrás. Cuando el primer cuerpo 191a, que incluye la primera pantalla 190a, está plegado hacia atrás como se ilustra en la figura 8, el aparato 100 de pantallas múltiples puede mostrar una UI 1000-3 de configuración de dispositivo del aparato 100 de pantallas múltiples en un área predeterminada del monitor de la primera pantalla 190a.
Además, cuando el segundo cuerpo 191b, que incluye la segunda pantalla 190b, se pliega hacia atrás, el aparato 100 de pantallas múltiples puede mostrar una U i 1000-4 de configuración de aplicación en un área predeterminada del monitor de la segunda pantalla 190b.
En la descripción anterior, las pantallas 190a y 190b del aparato 100 de pantallas múltiples están dispuestas horizontalmente, pero también puede ser posible que las pantallas 190a y 190b estén dispuestas verticalmente.
Las figuras 9 y 10 ilustran ejemplos de UI que proporcionan operaciones del aparato 100 de pantallas múltiples en el que las pantallas 190a y 190b están dispuestas verticalmente. Como se ilustra en las figuras 9 y 10, cuando el primer cuerpo 191a o el segundo cuerpo 191b gira hacia adelante o hacia atrás, el primer cuerpo 191a o el segundo cuerpo 191b pueden mostrar diversas UI tales como, por ejemplo, la UI 1000-1 de iniciador rápido, la UI 1000-2 de portapapeles, la UI 1000-3 de configuración del aparato 100 de pantallas múltiples, y/o la UI 1000-4 de configuración de aplicación. A diferencia de las realizaciones del presente concepto inventivo ilustrado en las figuras 7 y 8, se puede mostrar cada UI, por ejemplo, en un área de borde superior o inferior del monitor.
En las realizaciones ejemplares anteriores del presente concepto inventivo, una UI puede mostrarse en una pantalla de un cuerpo girado. Por el contrario, se puede mostrar una UI en la pantalla de un cuerpo que no se puede girar. Por ejemplo, cuando el primer cuerpo 191a está plegado hacia atrás, las pantallas completas que se muestran en el primer y segundo cuerpo 191a y 191b pueden moverse hacia el primer cuerpo 191a como si estuvieran tiradas por plegado y una UI puede mostrarse en un borde del segundo cuerpo 191b, que puede estar más alejado del primer cuerpo 191a. La UI puede no ser un formulario de ventana emergente, pero puede mostrarse en una forma estirada por el plegado.
Las figuras 11 a 15 ilustran ejemplos de formas específicas de diversas interfaces de usuario que se muestran mediante plegado. La figura 11 ilustra realizaciones ejemplares del presente concepto inventivo de configuraciones de la UI 1000-1 de iniciador rápido y la UI 1000-3 de configuración del aparato 100 de pantallas múltiples. La UI 1000-1 de iniciador rápido puede ser una UI que muestra iconos, imágenes y/o texto configurados para ejecutar directamente diversas aplicaciones como se describió anteriormente. Como se ilustra en una vista (a) de la figura 11, la UI 1000-1 de iniciador rápido puede mostrar aplicaciones, tales como, por ejemplo, un teléfono, un mensajero, un servicio de red social (SNS), una cámara y similares, usando iconos y/o imágenes. El usuario puede ver la UI 1000-1 de iniciador rápido usando un gesto de doblar el primer cuerpo 191a hacia adelante sin presionar un botón (no ilustrado) para cambiar a un monitor de inicio o un monitor de selección de aplicación. Además, el usuario puede seleccionar y ejecutar directamente una aplicación que el usuario desea usar en la UI 1000-1 de iniciador rápido.
Una vista (b) de la figura 11 ilustra una realización ejemplar del presente concepto inventivo de la UI 1000-3 de
configuración del aparato 100 de pantallas múltiples. La UI 1000-3 de configuración del aparato 100 de pantallas múltiples puede ser una UI que establece entornos operativos del aparato 100 de pantallas múltiples como se describe anteriormente. Por ejemplo, la UI 1000-3 de configuración del aparato 100 de pantallas múltiples puede mostrar diversos menús de configuración tales como configuraciones de resolución de pantalla, ajustes de sonido, configuración de red, configuraciones de imagen de fondo y similares, en forma de icono, una imagen y/o un texto. Mientras se ejecuta una aplicación, el usuario puede ejecutar un menú de configuración del aparato 100 de pantallas múltiples seleccionando una configuración para establecer usando la UI 1000-3 de configuración del aparato 100 de pantallas múltiples.
Las figuras 12 a 15 ilustran ejemplos de configuración de la UI 1000-2 de portapapeles y la UI 1000-4 de configuración de aplicación que corresponden a diversas aplicaciones. Es decir, la UI 1000-2 de portapapeles y la UI 1000-4 de configuración de aplicación pueden ser interfaces de usuario que se muestran cuando un cuerpo designado entre el primer cuerpo 191a y el segundo cuerpo 191b se gira en una dirección designada como se describió anteriormente. Sin embargo, los contenidos que pueden mostrarse en la UI 1000-2 de portapapeles y la UI 1000-4 de configuración de aplicación pueden variar según una aplicación que se ejecute en el aparato 100 de pantallas múltiples.
La figura 12 ilustra ejemplos de configuración de la UI 1000-2 de portapapeles y la UI 1000-4 de configuración de aplicación que puede mostrarse mediante un gesto de plegado mientras se ejecuta una aplicación de música.
Una vista (a) de la figura 12 ilustra una realización ejemplar del presente concepto inventivo de la UI 1000-2 de portapapeles que corresponde a la aplicación de música. La UI 1000-2 de portapapeles puede mostrar funciones y contenidos que pueden ocurrir mientras el usuario escucha música, tal como, por ejemplo, una captura de música destacada, una vista de vídeo musical relacionada, una actualización de SNS y/o una parte de música, una copia de la letra, y similares.
Una vista (b) de la figura 12 ilustra una realización ejemplar del presente concepto inventivo de la UI 1000-4 de configuración de aplicación que corresponde a la aplicación de música. La UI 1000-4 de configuración de aplicación puede mostrar funciones y contenidos, tales como, por ejemplo, ajustes del ecualizador, ajustes del efecto ecualizador, ajustes líricos, ajustes de volumen y similares.
La figura 13 ilustra ejemplos de la configuración de la UI 1000-2 de portapapeles y la UI 1000-4 de configuración de aplicación mientras se ejecuta una aplicación de libro electrónico.
Como se ilustra en una vista (a) de la figura 13, la UI 1000-2 de portapapeles que corresponde a la aplicación de libro electrónico puede mostrar funciones y contenidos que pueden ocurrir mientras el usuario lee un libro electrónico, tal como, por ejemplo, una vista de información almacenada, un memo, una captura de texto, y similares. Cuando el usuario desea copiar un objeto como, por ejemplo, un texto o una imagen mientras lee el libro electrónico, el usuario puede abrir la UI 1000-2 de portapapeles, copie el objeto en la UI 1000-2 de portapapeles y verifique el texto o la imagen en la UI 1000-2 de portapapeles cuando lo desee.
Una vista (b) de la figura 13 ilustra una realización ejemplar del presente concepto inventivo de la UI 1000-4 de configuración de aplicación que corresponde a la aplicación de libro electrónico. La UI 1000-4 de configuración de aplicación puede mostrar funciones de configuración relacionadas con la lectura del libro electrónico, tal como, por ejemplo, configuración de estantería, ajustes de estilo de personaje, ajustes de tamaño de caracteres, ajustes de brillo y similares.
La figura 14 ilustra ejemplos de configuración de la UI 1000-2 de portapapeles y la UI 1000-4 de configuración de aplicación mientras se ejecuta una aplicación de navegador web.
Como se ilustra en una vista (a) de la figura 14, la UI 1000-2 de portapapeles que corresponde a la aplicación del navegador web puede mostrar funciones y contenidos, tales como, por ejemplo, una copia uniforme del localizador de recursos (URL), una actualización de SNS del texto seleccionado, una imagen o un vídeo, agregue una URL a favoritos y similares.
Una vista (b) de la figura 14 ilustra un ejemplo de la UI 1000-4 de configuración de aplicación que corresponde a la aplicación del navegador web. La UI 1000-4 de configuración de aplicación puede mostrar las funciones de configuración deseadas para ejecutar el navegador web, tal como, por ejemplo, buscar y transferir la configuración de eliminación del historial, configuración de la página de inicio, configuración de gestión de datos, configuraciones de seguridad y similares.
La figura 15 ilustra ejemplos de configuración de la UI 1000-2 de portapapeles y la UI 1000-4 de configuración de aplicación mientras se ejecuta una aplicación de vídeo.
Como se muestra en una vista (a) de la figura 15, la UI 1000-2 de portapapeles que corresponde a la aplicación de vídeo puede mostrar funciones y contenidos que pueden ocurrir mientras el usuario está viendo el vídeo, tal como, por ejemplo, una actualización SNS del vídeo, una captura de vídeo destacado, y similares.
Una vista (b) de la figura 15 ilustra un ejemplo de la UI 1000-4 de configuración de aplicación que corresponde a la
aplicación de vídeo. La UI 1000-4 de configuración de aplicación puede mostrar funciones de configuración deseadas para ver vídeo, como la configuración de volumen, ajustes de calidad de imagen, ajustes del modo de monitor y similares.
La figura 16 es un diagrama de flujo que ilustra una operación que corresponde a un gesto de plegado y plano de acuerdo con una realización ejemplar del presente concepto inventivo.
El gesto de plegado y plano puede ser un gesto en el que el primer cuerpo 191a o el segundo cuerpo 191b pueden plegarse girando sobre la bisagra 185 en una primera dirección y pueden volverse planos girando en una segunda dirección opuesta a la primera dirección dentro de un tiempo predeterminado.
El tiempo predeterminado puede ser igual o similar al tiempo válido, que se ha descrito anteriormente con referencia al controlador 130 de la figura 1.
Con referencia a la figura 16, cuando ocurre un gesto de plegado y plano y cuando un ángulo de intervalo 0 entre el primer cuerpo 191a y el segundo cuerpo 191b satisface condiciones predeterminadas, se puede realizar una operación correspondiente en la operación S1600. La operación correspondiente puede incluir operaciones de suministro de UI como se describe con referencia a las figuras 2 a 15, pero no se limita a los mismos. Es decir, la operación correspondiente puede ser diversas operaciones de control del aparato 100 de pantallas múltiples.
Durante la operación S1600, cuando se produce un gesto adicional de plegado y plano en la operación S1610-Y, el aparato 100 de pantallas múltiples puede finalizar la operación correspondiente y puede volver a su estado anterior antes de la operación S1600 en la operación S1620. Para conveniencia de la descripción, el primer gesto de plegado y plano puede denominarse primer gesto de plegado y plano, y el último gesto de plegado y plano puede denominarse un segundo gesto de plegado y plano.
Además, durante la operación S1600, cuando se produce un gesto táctil predeterminado en la operación S1630-Y, el aparato 100 de pantallas múltiples puede finalizar la operación correspondiente y puede volver a su estado anterior antes de la operación S1600 en la operación S1620.
El gesto táctil predeterminado puede ser un gesto táctil que se puede configurar para finalizar la UI proporcionada, que se describe a continuación, con mayor detalle.
Las figuras 17 a 19 ilustran ejemplos de una operación que corresponde a un gesto de plegado y plano como se ilustra en la figura 16.
La figura 17 ilustra un ejemplo de operación S1600 de la figura 16. Cuando el aparato 100 de pantallas múltiples está en modo de expansión, es decir, en un ángulo de intervalo 0 de 180 grados como se ilustra en una vista (a) de la figura 17, se gira a un ángulo de intervalo predeterminado 0 (por ejemplo, 150 grados), como se ilustra en una vista (b) de la figura 17, y vuelve a un ángulo de intervalo 0 de 180 grados dentro de un tiempo válido predeterminado (por ejemplo, 0,5 segundos), el aparato 100 de pantallas múltiples puede determinar que se introduce un gesto de plegado y plano, y puede realizar una operación correspondiente.
Una vista (c) de la figura 17 ilustra un ejemplo de la operación correspondiente de abrir una nueva área de pantalla en la segunda pantalla 190b y proporcionar una UI 1000 del portapapeles.
La UI puede eliminarse mediante el gesto de plegado o el gesto táctil del usuario.
La figura 18 ilustra un ejemplo de un procedimiento para eliminar una UI utilizando un gesto de plegado.
Una vista (a) de la figura 18 ilustra un ejemplo de una operación que corresponde a un primer gesto de plegado y plano. Como se ilustra en una vista (a) de la figura 18, cuando un segundo gesto de plegado y plano, que puede ser igual o similar al primer gesto de plegado y plano, ocurre, como se ilustra en una vista (b) de la figura 18, el aparato 100 de pantallas múltiples puede eliminar la UI 1000 y puede finalizar la operación de ejecución que corresponde al primer gesto de plegado y plano, como se ilustra en una vista (c) de la figura 18.
La figura 19 ilustra un ejemplo de un gesto táctil para eliminar una UI. Cuando se muestra una UI 1000 como se ilustra en una vista (a) de la figura 19, el usuario puede tocar y arrastrar la UI 1000 hacia un borde como se ilustra en una vista (b) de la figura 19. En consecuencia, la UI 1000 puede desaparecer como si se empujara hacia el borde, y el aparato 100 de pantallas múltiples puede volver al monitor sin la UI 1000 como se ilustra en una vista (c) de la figura 19.
La figura 20 es un diagrama de flujo que ilustra una operación que corresponde a un gesto de plegado y retención de acuerdo con una realización ejemplar del presente concepto inventivo.
El gesto de plegado y retención del gesto de plegado puede ser un gesto en el que el primer cuerpo 191a o el segundo cuerpo 191b pueden plegarse girando sobre la bisagra 185 en una primera dirección y manteniendo esta posición durante un tiempo predeterminado.
El tiempo predeterminado puede ser igual o similar al tiempo válido, que se ha descrito anteriormente con referencia al controlador 130 de la figura 1.
Con referencia a la figura 20, cuando se produce un gesto de plegado y retención y cuando un ángulo de intervalo 0 entre el primer cuerpo 191a y el segundo cuerpo 191b satisface condiciones predeterminadas, se puede realizar una operación correspondiente en la operación S2001. La operación correspondiente puede incluir operaciones de suministro de UI como se describe con referencia a las figuras 2 a 15, pero no se limita a los mismos. Es decir, la operación correspondiente puede ser diversas operaciones de control del aparato 100 de pantallas múltiples.
Durante la operación S2001, cuando se libera el estado de espera en la operación S2002-Y, el aparato 100 de pantallas múltiples puede finalizar la operación correspondiente y puede volver a su estado anterior antes de la operación S2001 en la operación S2003.
Las figuras 21 a 22 ilustran ejemplos de una operación que corresponde a un gesto de plegado y retención como se ilustra en la figura 20. La figura 21 ilustra un ejemplo de operación S2001 de la figura 20 en mayor detalle. Si el aparato 100 de pantallas múltiples está en modo de expansión, es decir, en un ángulo de intervalo 0 de 180 grados como se ilustra en una vista (a) de la figura 21, cuando se produce un gesto de plegado y retención en el que el segundo cuerpo 191b se gira hacia un ángulo de intervalo predeterminado 0 (por ejemplo, 150 grados) como se ilustra en una vista (b) de la figura 21 y mantiene su posición, el aparato 100 de pantallas múltiples puede mostrar una UI 1000 que corresponde al gesto de plegado y plano. Una vista (b) de la figura 21 ilustra que la UI 1000 puede mostrarse en un área predeterminada del monitor del segundo cuerpo 191b.
La figura 22 ilustra un ejemplo de un procedimiento para terminar el estado de mantenimiento. Cuando el estado de retención finaliza de modo que el primer cuerpo 191a y el segundo cuerpo 191b se vuelven planos, como se ilustra en la figura 22, la UI 1000 se puede eliminar automáticamente. Es decir, mientras se usa el aparato 100 de pantallas múltiples, el usuario puede verificar una UI 1000 que desea doblando el aparato 100 de pantallas múltiples, y luego puede volver al monitor anterior desplegando el aparato 100 de pantallas múltiples.
La figura 23 es un diagrama de flujo que ilustra una operación de expansión o reducción de una nueva área de pantalla de acuerdo con una realización ejemplar del presente concepto inventivo. La figura 23 es un diagrama de flujo que ilustra un ejemplo de una operación de cambiar una UI de acuerdo con una realización ejemplar de la presente invención.
Con referencia a la figura 23, cuando se introduce un gesto de plegado en el aparato 100 de pantallas múltiples y se cumplen las condiciones predeterminadas como se describe anteriormente, se puede abrir una nueva área de pantalla en una pantalla de un cuerpo girado en la operación S2101.
En la operación S2102, la nueva área de pantalla abierta puede mostrar una UI que corresponde al gesto de plegado utilizando información de operación de control que corresponde al cuerpo girado y la dirección de rotación.
En este caso, cuando un gesto táctil para arrastrar un borde de la nueva área de pantalla, que puede ser adyacente a la bisagra 185, ocurre en la operación S2103-Y, la nueva área de pantalla se puede ampliar o reducir de acuerdo con la dirección de arrastre en la operación S2104. Por otra parte, cuando se produce un gesto táctil para arrastrar la nueva área de pantalla en la operación S2105-Y, la posición o la forma de la nueva área de pantalla pueden ajustarse de acuerdo con la dirección de arrastre en la operación S2106. Por ejemplo, la posición de pantalla de la UI se puede mover a un borde superior, un borde inferior, un borde izquierdo o un borde derecho o un centro del monitor, o la forma de la UI puede modificarse de un cuadrángulo a un círculo, un triángulo u otra forma.
En la figura 23, cuando un borde, que puede ser adyacente a la bisagra 185, es arrastrado, el tamaño de la UI se puede cambiar, y cuando se toca y arrastra una parte de la UI, La posición de pantalla o la forma de la UI pueden modificarse. Sin embargo, estas operaciones pueden implementarse de manera diferente de acuerdo con realizaciones ejemplares del presente concepto inventivo. Por ejemplo, cuando se toca y arrastra una parte de la UI, la UI puede expandirse o reducirse según la dirección de arrastre. Además, por ejemplo, cuando se toca y se mueve la porción de la UI, La posición de pantalla o la forma de la UI se pueden cambiar de acuerdo con el movimiento.
Las figuras 24 a 27 ilustran ejemplos de una operación de expansión o reducción de una nueva área de pantalla y/o una UI como se ilustra en la figura 23.
Con referencia a una vista (a) de la figura 24, una UI 1000 que corresponde a un gesto de plegado puede mostrarse en la segunda pantalla 190b. Cuando se produce un gesto táctil para arrastrar la UI 1000 hacia la bisagra 185, la UI 1000 puede expandirse en la dirección de arrastre como se ilustra en una vista (b) de la figura 24. A medida que se expande la UI 1000, un número creciente de contenidos (icono o imágenes), que puede constituir la UI 1000, puede mostrarse en el área expandida.
La figura 25 ilustra un ejemplo en el que un gesto táctil puede no terminar en la segunda pantalla 190b, pero puede continuar más allá de la bisagra 185. Es decir, cuando comienza un gesto táctil en la segunda pantalla 190b y termina en la primera pantalla 190a como se ilustra en una vista (a) de la figura 25, la UI 1000 puede expandirse a la primera pantalla 190a como se ilustra en una vista (b) de la figura 25.
La figura 26 ilustra un ejemplo de una operación de reducción de una UI. Cuando un gesto táctil para arrastrar un borde de la UI 1000, que puede ser adyacente a la bisagra 195, en la dirección opuesta a la bisagra 185 se produce
como se ilustra en una vista (a) de la figura 26, la UI 1000 puede reducirse como se ilustra en una vista (b) de la figura 26. Por consiguiente, la cantidad de contenido (iconos o imágenes) que se muestra en la UI 1000 puede reducirse adecuadamente para el área reducida.
La figura 27 ilustra un ejemplo de una operación de cambiar la posición de pantalla de una UI. En el estado en que la UI 1000 se visualiza en la segunda pantalla 190b como se ilustra en una vista (a) de la figura 27, cuando se produce un gesto táctil para tocar y arrastrar un punto en la UI 1000 a otro punto, la posición y la forma de la UI 1000 pueden ajustarse como se ilustra en una vista (b) de la figura 27 según la dirección de arrastre.
A medida que cambia la posición y la forma de la UI 1000, el aparato 100 de pantallas múltiples puede mostrar contenidos (iconos o imágenes) que constituyen la UI 1000 en el área cambiada para que el usuario identifique intuitivamente los contenidos.
La posición y la forma de la UI 1000 se pueden cambiar mediante la rotación del aparato 100 de pantallas múltiples, así como con el toque o arrastre del usuario.
A continuación, se describe una operación para cambiar una nueva área de pantalla de acuerdo con una rotación del aparato 100 de pantallas múltiples. La figura 28 es un diagrama de flujo que ilustra una realización ejemplar de una operación de cambio de una UI de acuerdo con una rotación del aparato 100 de pantallas múltiples.
Con referencia a la figura 28, cuando se introduce un gesto de plegado en el aparato 100 de pantallas múltiples y se cumplen las condiciones predeterminadas como se describe anteriormente, se puede abrir una nueva área de pantalla en una pantalla de un cuerpo girado en la operación S2810.
En la operación S2820, la nueva área de pantalla abierta puede mostrar una UI que corresponde al gesto de plegado utilizando información de operación de control que corresponde al cuerpo girado y la dirección de rotación.
En este estado, cuando el aparato 100 de pantallas múltiples detecta su rotación horizontal o verticalmente en la operación S2830-Y, una dirección de disposición de los objetos en la UI mostrada en la nueva área de pantalla puede cambiarse en la operación S2840. Los objetos pueden incluir, por ejemplo, iconos, imágenes y/o texto que se muestran en la UI. Es decir, cuando se gira el aparato 100 de pantallas múltiples, los objetos en la UI pueden reorganizarse para que sean apropiados para la dirección de rotación, de modo que el usuario pueda usar la UI de manera consistente. La figura 29 ilustra la realización ejemplar de la operación de cambiar la nueva área de pantalla de acuerdo con la rotación del aparato 100 de pantallas múltiples como se ilustra en la figura 28.
Con referencia a una vista (a) de la figura 29, una UI 1000 que corresponde a un gesto de plegado puede mostrarse en la segunda pantalla 190b.
Cuando el usuario gira el aparato 100 de pantallas múltiples horizontalmente, la dirección de disposición de los objetos de la UI puede cambiarse como se ilustra en una vista (b) de la figura 29.
Debido a esta función, el usuario puede reconocer fácilmente los objetos de la UI cuando el aparato 100 de pantallas múltiples se gira vertical u horizontalmente.
La figura 30 es un diagrama de flujo que ilustra una realización ejemplar de una operación de cambio de una UI y/o una nueva área de pantalla de acuerdo con una rotación del aparato 100 de pantallas múltiples.
Con referencia a la figura 30, cuando se introduce un gesto de plegado en el aparato 100 de pantallas múltiples y se cumplen las condiciones predeterminadas como se describe anteriormente, se puede abrir una nueva área de pantalla en una pantalla de un cuerpo girado en la operación S3010.
En la operación S3020, la nueva área de pantalla abierta puede mostrar una UI que corresponde al gesto de plegado utilizando información de operación de control que corresponde al cuerpo girado y la dirección de rotación.
En este estado, cuando el aparato 100 de pantallas múltiples detecta su rotación horizontal o verticalmente en la operación S3030-Y, una posición de pantalla de los objetos de la nueva área de pantalla puede cambiarse de acuerdo con la dirección de rotación en la operación S3040.
La figura 31 ilustra la realización ejemplar de la operación de cambiar la nueva área de pantalla de acuerdo con la rotación del aparato 100 de pantallas múltiples como se ilustra en la figura 30.
Con referencia a una vista (a) de la figura 31, se puede mostrar una UI 1000, por ejemplo, en el borde derecho de la segunda pantalla 190b. En este estado, cuando el usuario gira el aparato 100 de pantallas múltiples hacia la derecha (como se ilustra con la flecha), la UI 1000 puede moverse y puede visualizarse en un borde derecho de la segunda pantalla 190b como se ilustra en una vista (b) de la figura 31. Debido a esta función, la UI 1000 se puede proporcionar en la misma ubicación con respecto a los ojos del usuario cuando el aparato 100 de pantallas múltiples se gira vertical u horizontalmente.
Una UI 1000-2 de portapapeles generado por un gesto de plegado como se describió anteriormente puede utilizarse
en diversos procedimientos.
Entre las funciones de la UI 1000-2 de portapapeles proporcionadas de acuerdo con una realización ejemplar del presente concepto inventivo, copiar (o cortar) y pegar se describen en el presente documento.
Básicamente, la UI 1000-2 de portapapeles puede almacenar objetos copiados, por un comando de copia (o corte), en un almacenamiento y así permitir al usuario llamar a un objeto copiado cuando lo desee. En las realizaciones ejemplares del presente concepto inventivo, la UI 1000-2 de portapapeles puede incluir más funciones como, por ejemplo, una actualización de SNS y una eliminación de registro.
La copia (o corte) puede realizarse mediante simbolización. La simbolización es expresar datos, tal como, por ejemplo, texto, imágenes, sonidos y vídeo, en imágenes y/o iconos simples.
El pegado puede realizarse por objetivación. La objetivación es un concepto opuesto a la simbolización, que consiste en convertir las imágenes y/o iconos simbolizados en datos originales como, por ejemplo, texto, imágenes, sonidos y datos.
La figura 32 es un diagrama de flujo que ilustra una operación de simbolizar una UI del portapapeles de acuerdo con una realización ejemplar del presente concepto inventivo.
Con referencia a la figura 32, se puede mostrar una UI del portapapeles en una nueva área de pantalla que corresponde a un gesto de plegado en la operación S3210.
En este caso, cuando un gesto táctil para seleccionar un objeto (por ejemplo, un texto, una imagen, un vídeo y/o un sonido) en el monitor de la pantalla y para mover el objeto al portapapeles se ingresa en la operación S3220-Y, el objeto seleccionado puede simbolizarse y mostrarse en la UI del portapapeles en la operación S3230.
Las figuras 33 y 34 ilustran ejemplos de una operación de simbolizar una UI del portapapeles como se ilustra en la figura 32.
La figura 33 ilustra un ejemplo de simbolización cuando se muestra una UI del portapapeles, y la figura 34 ilustra un ejemplo de simbolización cuando no se muestra una UI del portapapeles.
Con referencia a la figura 33, una aplicación de navegador web puede estar ejecutándose en la primera pantalla 190a. Cuando el texto que indica un localizador uniforme de recursos (URL), "WWW.XXX-" 1002, por ejemplo, es seleccionado por el usuario y se produce un gesto táctil para mover el texto a una UI 1000 de portapapeles, el texto puede convertirse en un icono y/o una imagen 1003 que muestra propiedades de datos y puede mostrarse en una porción de la UI 1000 del portapapeles como se ilustra en una vista (b) de la figura 33.
En simbolización, un objeto puede convertirse en un icono y/o imagen que corresponda a su característica. Por ejemplo, el texto, como se ilustra en una vista (b) de la figura 33, puede simbolizarse con "T1" y una imagen puede simbolizarse con una imagen en miniatura de la imagen original.
La figura 34 ilustra un ejemplo de simbolización cuando no se muestra una UI del portapapeles. Con referencia a una vista (a) de la figura 34, se puede mostrar una página web en la segunda pantalla 190b cuando se está ejecutando una aplicación de navegador web.
Cuando una dirección de Internet 1002, es decir, texto de una URL del navegador web "WWW.XXX-", por ejemplo, es seleccionado por el usuario y un gesto táctil para mover el texto a un área predeterminada como, por ejemplo, se produce un borde derecho del monitor, se puede generar una UI 1000 de portapapeles y se puede mostrar un símbolo 1003 de los datos seleccionados como se ilustra en una vista (b) de la figura 34.
El área predeterminada puede ser un área para abrir una nueva área de pantalla, que puede ser preestablecido por el fabricante o puede ser establecido por el usuario.
Además, una imagen y/o un icono del símbolo 1003 puede establecerse de acuerdo con las características del objeto, y puede ser preestablecido o establecido por el usuario.
La figura 35 es un diagrama de flujo que ilustra una operación de objetivar una UI del portapapeles de acuerdo con una realización ejemplar del presente concepto inventivo.
Con referencia a la figura 35, se puede mostrar una UI del portapapeles en una nueva área de visualización que corresponde a un gesto de plegado en la operación S3510.
En este caso, cuando se introduce un gesto táctil para seleccionar uno de los símbolos que se muestran en la UI del portapapeles y para mover el símbolo seleccionado al monitor de la pantalla en la operación S3520-Y, el símbolo seleccionado puede ser objetivado y puede mostrarse en la UI del portapapeles en la operación S3530.
La figura 36 ilustra un ejemplo de una operación de objetivar una UI del portapapeles como se ilustra en la figura 35.
Con referencia a la figura 36, una aplicación de navegador web puede estar ejecutándose en la primera pantalla 190a. Cuando un gesto táctil para mover el símbolo T1 1003, mostrado en la UI 1000 del portapapeles, en una ventana de dirección web del navegador web que se ejecuta en la primera pantalla 190a, el símbolo T1 10003 puede convertirse en el texto "WWW.XXX-" 1002 y puede ingresarse en la ventana de dirección como se ilustra en la figura 36(b). Es decir, se puede realizar la objetivación.
Mediante simbolización y objetivación, el usuario puede capturar fácilmente los datos deseados mientras usa una aplicación y puede ingresar nuevamente los datos capturados.
Entre las funciones de la UI 1000-2 de portapapeles proporcionadas de acuerdo con una realización ejemplar del presente concepto inventivo, en el presente documento se describe la eliminación de un símbolo.
Básicamente, la UI 1000-2 de portapapeles puede almacenar objetos copiados, por un comando de copia (o corte), en un almacenaje. Cuando no se desean algunos objetos almacenados, el usuario puede eliminar los objetos no deseados del almacenamiento.
La figura 37 es un diagrama de flujo que ilustra una operación de eliminación de un símbolo de una UI del portapapeles de acuerdo con una realización ejemplar del presente concepto inventivo.
Con referencia a la figura 37, se puede mostrar una UI del portapapeles en una nueva área de pantalla que corresponde a un gesto de plegado en la operación S3710.
En este caso, cuando se introduce un gesto de toque prolongado para tocar uno de los símbolos que se muestran en la UI del portapapeles durante mucho tiempo en la operación S3720-Y, se puede generar un icono de papelera de reciclaje en la UI del portapapeles en la operación S3730.
Posteriormente, cuando se introduce un gesto táctil para mover el símbolo de larga duración al icono de la papelera de reciclaje en la operación S3740-Y, el símbolo se puede eliminar de la UI del portapapeles en la operación S3750. Por consiguiente, los datos relacionados con el símbolo eliminado también pueden eliminarse del almacenamiento.
En la figura 37, la operación de eliminación se ha descrito generando el icono de la papelera de reciclaje, pero también se puede realizar, por ejemplo, mediante la generación de diversos tipos de iconos. Además, sin generar un icono, puede ser posible eliminar un símbolo ingresando un gesto táctil predeterminado (por ejemplo, un gesto táctil para arrastrar el símbolo dentro de la UI del portapapeles en la dirección opuesta a la pantalla).
La figura 38 ilustra un ejemplo de una operación de eliminación de un símbolo de una UI del portapapeles como se ilustra en la figura 37.
Cuando un gesto de toque prolongado para tocar el símbolo T1 1003, mostrado en la UI 1000 del portapapeles, se ingresa durante mucho tiempo como se ilustra en una vista (a) de la figura 38, se puede generar un icono de papelera de reciclaje 1004 en, por ejemplo, un borde inferior de la UI 1000 del portapapeles como se ilustra en la figura 38(b). Posteriormente, cuando se produce un gesto táctil para arrastrar y mover el símbolo T1 1003 a la papelera de reciclaje, el aparato 100 de pantallas múltiples puede eliminar el símbolo T1 1003 de la UI 1000 del portapapeles.
Como en la realización ejemplar anterior del presente concepto inventivo, el usuario puede eliminar objetos no deseados del portapapeles.
La figura 39 es un diagrama de bloques detallado de una configuración del aparato 100 de pantallas múltiples de acuerdo con una realización ejemplar del presente concepto inventivo.
El aparato 100 de pantallas múltiples puede configurarse para conectarse a un dispositivo externo (no ilustrado) usando al menos uno de un módulo 111 de comunicación celular, un módulo 112 de red de área local inalámbrica (WLAN), un módulo 113 de comunicación local y un conector 114 de un comunicador 110. El aparato 100 de pantallas múltiples puede incluir, por ejemplo, al menos uno de un teléfono móvil, una tableta PC, un servidor de ordenador y una televisión digital.
Con referencia a la figura 39, el aparato 100 de pantallas múltiples puede incluir dos pantallas 190a y 190b. En la figura 39, se ilustran las dos pantallas 190a y 190b, pero puede ser posible incluir tres o más pantallas.
El aparato 100 de pantallas múltiples, de acuerdo con una realización ejemplar del presente concepto inventivo, puede incluir el comunicador 110, una unidad 120 multimedia, el controlador 130, una unidad 140 de fotografía, el sensor 150, una unidad 160 de entrada/salida, el almacenamiento 170, un proveedor 180 de energía, y las pantallas primera y segunda 190a y 190b.
El comunicador 110 puede incluir, por ejemplo, el módulo 111 de comunicación celular, el módulo 112 WLAN, el módulo 113 de comunicación local, el conector 114, un módulo 115 del Sistema de Posicionamiento Global (GPS) y un módulo 116 de comunicación de difusión.
El módulo 111 de comunicación celular, de acuerdo con el control del controlador 130, puede permitir que el aparato 100 de pantallas múltiples se conecte a un dispositivo externo (no ilustrado) (en particular, una estación base de un
sistema celular) a través de al menos una antena (no mostrada) usando una tecnología de acceso inalámbrico de un protocolo de comunicación celular.
Además, el módulo 111 de comunicación celular puede intercambiar señales inalámbricas, que contiene llamada de voz, llamada de vídeo, mensajes del servicio de mensajes cortos (SMS) y/o mensajes del servicio de mensajes multimedia (MMS), con otros dispositivos comunicables como, por ejemplo, teléfonos móviles, teléfonos inteligentes, tableta PC y/u otros dispositivos que tienen una entrada de número de teléfono en el aparato 100 de pantallas múltiples.
Además, el comunicador 110 puede incluir, por ejemplo, al menos uno del módulo 112 WLAN y el módulo 113 de comunicación local. Por ejemplo, el comunicador 110 puede incluir solo el módulo 112 WLAN, incluya solo el módulo 113 de comunicación local, o incluya tanto el módulo 112 WLAN como el módulo 113 de comunicación local.
El módulo 112 WLAN, de acuerdo con el control del controlador 130, puede acceder a Internet en una ubicación en la que se pueda instalar un punto de acceso inalámbrico (AP) (no mostrado). El módulo 112 WLAN puede admitir el estándar WLAN (IEEE 802.11x) del Instituto de Ingenieros Eléctricos y Electrónicos (IEEE).
El módulo 113 de comunicación local, de acuerdo con el control del controlador 130, puede permitir la comunicación local inalámbrica entre el aparato 100 de pantallas múltiples y un dispositivo externo. Los procedimientos de comunicación local pueden incluir, por ejemplo, Bluetooth, asociación de datos infrarrojos (IrDA), y así sucesivamente.
El conector 114 puede proporcionar interfaces para diversos dispositivos, tal como, por ejemplo, un USB 2.0, un USB 3.0, un HDMI y/o un estándar IEEE 1394, y así sucesivamente.
El conector 114 puede actuar como una interfaz para conectar el aparato 100 de pantallas múltiples a un dispositivo externo o una fuente de alimentación. El aparato 100 de pantallas múltiples, de acuerdo con el control del controlador 130, puede transmitir datos almacenados en el almacenamiento 170 a un dispositivo externo o puede recibir datos de un dispositivo externo a través de, por ejemplo, un cable, que puede estar conectado al conector 114. Además, el aparato 100 de pantallas múltiples puede recibir energía de una fuente de energía o cargar su batería (no ilustrada) a través de un cable, que puede estar conectado al conector 114.
El módulo 115 GPS puede recibir ondas de radio de una pluralidad de satélites GPS (no ilustrados) que se mueven alrededor de la Tierra, y puede calcular una ubicación del aparato 100 de pantallas múltiples usando un tiempo de llegada desde los satélites GPS (no ilustrados) al aparato 100 de pantallas múltiples y parámetros GPS.
El módulo 116 de comunicación de difusión, de acuerdo con el control del controlador 130, puede recibir señales de transmisión (por ejemplo, señales de transmisión de TV, señales de transmisión de radio y/o señales de transmisión de datos) y/o información adicional de transmisión (por ejemplo, guía electrónica de programas (EPG) y/o guía electrónica de servicios (ESG) desde una estación de transmisión a través de una antena de comunicación de transmisión (no ilustrada).
La unidad 120 multimedia puede incluir, por ejemplo, un módulo 121 de reproducción de audio y un módulo 122 de reproducción de vídeo.
El módulo 121 de reproducción de audio, de acuerdo con el control del controlador 130, puede reproducir un archivo de audio digital (por ejemplo, un archivo con una extensión de nombre de archivo como mp3, wma, ogg o wav), que puede haber sido almacenado o recibido. El módulo 122 de reproducción de vídeo puede soportar diversas formas de códecs para reproducir un archivo de vídeo digital. Es decir, el módulo 122 de reproducción de vídeo, por ejemplo, puede reproducir un archivo de vídeo usando un códec previamente almacenado que puede ser adecuado para un formato de códec del archivo de vídeo. El módulo 121 de reproducción de audio o el módulo 122 de reproducción de vídeo de la unidad 120 multimedia pueden incluirse en el controlador 130.
El controlador 130 (véase la figura 40) puede incluir una unidad 131 central de procesamiento (CPU), una memoria 137 de solo lectura (ROM), que puede almacenar un programa de control para controlar el aparato 100 de pantallas múltiples y una memoria 135 de acceso aleatorio (RAM), que puede almacenar una señal o entrada de datos desde fuera del aparato 100 de pantallas múltiples y que puede usarse como un área de memoria para trabajos realizados por el aparato 100 de pantallas múltiples. La c Pu 131 puede incluir al menos uno de un procesador de núcleo único, un procesador de doble núcleo, un procesador de triple núcleo y un procesador de cuatro núcleos. La CPU 131, la ROM 137 y la RAM 135 pueden conectarse entre sí a través de un bus 139 local.
El controlador 130 puede controlar el comunicador 110, el módulo 115 GPS, la unidad 120 multimedia, la unidad 140 de fotografía, el sensor 150, la unidad 160 de entrada/salida, el almacenamiento 170, el proveedor 180 de energía, y la primera y segunda pantallas 190a y 190b.
La unidad 140 de fotografía puede incluir, por ejemplo, al menos una de una primera cámara 141 y una segunda cámara 142. En la figura 39, solo se ilustran la primera cámara 141 y la segunda cámara 142, pero puede ser posible agregar más cámaras de acuerdo con realizaciones ejemplares del presente concepto inventivo.
La unidad 140 de fotografía, de acuerdo con el control del controlador 130, puede incluir al menos una de la primera cámara 141 y la segunda cámara 142, que puede configurarse para fotografiar al menos una de una imagen fija y vídeo. De acuerdo con realizaciones ejemplares del presente concepto inventivo, la unidad 140 de fotografía puede incluir cámaras adicionales. La primera cámara 141 y la segunda cámara 142 pueden proporcionarse en los cuerpos 191a y 191b del aparato 100 de pantallas múltiples, o pueden configurarse para conectarse al aparato 100 de pantallas múltiples usando un medio de conexión separado. Al menos una de la primera cámara 141 y la segunda cámara 142 pueden incluir una fuente de luz suplementaria (por ejemplo, un flash (no ilustrado)) para proporcionar una cantidad de luz que puede ser necesaria para tomar una fotografía.
El sensor 150 puede incluir, por ejemplo, un sensor 151 táctil, un sensor 152 geomagnético, un sensor 153 de aceleración, un sensor 154 de bisagra y un sensor 155 de proximidad.
El sensor 151 táctil puede detectar un toque por un usuario en al menos una de la primera pantalla 190a y la segunda pantalla 190b. Los procedimientos para detectar el tacto del usuario usando el sensor 151 táctil pueden implementarse como un procedimiento capacitivo o un procedimiento piezoeléctrico. El sensor 151 táctil, de acuerdo con una realización ejemplar del presente concepto inventivo, puede implementarse en los dos procedimientos u otros procedimientos. El sensor 151 táctil puede incluirse en una pantalla 390 junto con un panel 360 de pantalla (véase la figura 44). A continuación, se proporciona una descripción detallada de los mismos con referencia a dibujos separados.
El sensor 152 geomagnético puede detectar un acimut al detectar, por ejemplo, magnetismo terrestre de modo que se pueda reconocer la orientación del aparato 100 de pantallas múltiples. El sensor 153 de aceleración puede procesar una señal de salida y puede medir una fuerza dinámica, tal como, por ejemplo, aceleración, vibración e impacto de un objeto, detectando de ese modo el cambio en una velocidad de movimiento del aparato 100 de pantallas múltiples o la resistencia de una fuerza. El sensor 154 de bisagra puede detectar un ángulo o un movimiento de la bisagra 135. El sensor 155 de proximidad puede detectar si el usuario puede acercarse o no al aparato 100 de pantallas múltiples.
Aunque no se ilustra en la figura 39, el sensor 150 del aparato 100 de pantallas múltiples puede incluir además, por ejemplo, al menos uno de un sensor de gravedad, que puede sentir en qué dirección está actuando la gravedad, un sensor giroscópico, que puede reconocer seis grados de movimiento en total al incluir movimiento de rotación a un sensor de aceleración existente, un sensor de orientación, que puede rotar y organizar automáticamente el contenido mediante la detección automática de marcos horizontales y verticales del contenido, tales como, por ejemplo, una imagen, un sensor de iluminación, que puede detectar una intensidad de iluminación alrededor del aparato 100 de pantallas múltiples, un sensor de medición de altitud, que puede medir la presión atmosférica, un sensor RGB, que puede sentir el color de un objeto, un sensor de medición de distancia, que puede medir una distancia usando ondas ultrasónicas y/o luz infrarroja, y un sensor de efecto Hall, que puede cambiar en una tensión de acuerdo con la resistencia de un campo magnético.
Cada sensor del sensor 150 puede detectar su estado, puede generar una señal correspondiente al estado detectado y puede transmitir la señal al controlador 130. Cada sensor del sensor 150 puede agregarse o eliminarse de acuerdo con las necesidades de rendimiento del aparato 100 de pantallas múltiples.
La unidad 160 de entrada/salida puede incluir, por ejemplo, un botón 161, un micrófono 162, un altavoz 163 y un motor 164 de vibración.
Se puede proporcionar al menos un botón 161 en el frente, un lado, o una parte posterior de los cuerpos 191a y 191b del aparato 100 de pantallas múltiples en un tipo de empuje o un tipo táctil, y puede incluir al menos uno de un botón de encendido/bloqueo, un botón de control de volumen, un botón de menú, un botón de inicio, un botón de retroceso y un botón de búsqueda.
El micrófono 162, de acuerdo con el control del controlador 130, puede recibir una voz o un sonido y puede generar una señal eléctrica.
El altavoz 163, de acuerdo con el control del controlador 130, puede emitir sonidos que corresponden a diversas señales (por ejemplo, señales inalámbricas, emitir señales, archivos de audio digital, archivos de vídeo digital y/o fotografía) del módulo 111 de comunicación celular, el módulo 112 WLAN, el módulo 113 de comunicación local, la unidad 120 multimedia, y/o la unidad 140 de fotografía hacia el exterior del aparato 100 de pantallas múltiples.
El altavoz 163 puede emitir sonidos (por ejemplo, sonidos de manipulación de botones o un tono de llamada que corresponde a la llamada) que corresponde a las funciones del aparato 100 de pantallas múltiples. Se pueden proporcionar uno o más altavoces 163 en ubicaciones apropiadas de los cuerpos 191a y 191b del aparato 100 de pantallas múltiples. Por ejemplo, el altavoz 163 puede incluir un módulo de altavoz interno, que puede proporcionarse en un lugar adecuado para estar cerca de los oídos del usuario cuando el usuario está hablando por teléfono, y un módulo de altavoz externo que puede tener una salida más alta adecuada para reproducir archivos de audio y vídeo o ver una transmisión y que puede proporcionarse en una ubicación apropiada de los cuerpos 191a y 191b del aparato 100 de pantallas múltiples.
El motor 164 de vibración, de acuerdo con el control del controlador 130, puede convertir una señal eléctrica en una vibración mecánica. Por ejemplo, cuando el aparato 100 de pantallas múltiples en modo de vibración recibe una
llamada de otro dispositivo (no ilustrado), el motor 164 de vibración puede funcionar. Se pueden proporcionar uno o más motores de vibración 164 dentro de los cuerpos 191a y 191b del aparato 100 de pantallas múltiples. El motor 164 de vibración puede funcionar en respuesta a al menos uno de los gestos táctiles del usuario, que puede detectarse en al menos una de las pantallas primera y segunda 190a y 190b, y un movimiento continuo del tacto, que puede detectarse en al menos una de las pantallas primera y segunda 190a y 190b.
El almacenamiento 170 puede almacenar diversos tipos de datos multimedia, que puede ser procesado por el controlador 130, datos de contenido y datos que pueden recibirse de una fuente externa.
Por ejemplo, el almacenamiento 170, de acuerdo con el control del controlador 130, puede almacenar una señal de entrada y/o salida, información o datos que corresponden a la operación de, por ejemplo, el módulo 111 de comunicación celular, el módulo 112 WLAN, el módulo 113 de comunicación local, el conector 114, el módulo 115 GPS, la unidad 120 multimedia, la unidad 140 de fotografía, el sensor 150, la unidad 160 de entrada/salida, y las pantallas primera y segunda 190a y 190b.
El almacenamiento 170 también puede almacenar programas de control configurados para controlar el aparato 100 de pantallas múltiples o el controlador 130, y aplicaciones. En lo sucesivo, el término "almacenamiento" puede incluir, por ejemplo, el almacenamiento 170, la ROM 137 (ver figura 40), la RAM 135 y/o una tarjeta de memoria (por ejemplo, una tarjeta digital segura (SD) y una tarjeta de memoria), que puede ser acoplable o desmontable del aparato 100 de pantallas múltiples. Además, el almacenamiento puede incluir, por ejemplo, una memoria no volátil, una memoria volátil, una unidad de disco duro (HDD) y/o una unidad de estado sólido (SSD).
El proveedor 180 de energía puede suministrar energía al aparato 100 de pantallas múltiples. El proveedor 180 de energía puede implementarse, por ejemplo, con una batería recargable y puede incluir además un convertidor de tensión que convierte la energía suministrada externamente y suministra la energía convertida a la batería recargable.
Según el control de gestión de energía del controlador 130, el proveedor 180 de energía puede suministrar energía al aparato 100 de pantallas múltiples en diversos modos, tal como, por ejemplo, un modo de máximo rendimiento, un modo general, un modo de ahorro de energía y un modo de espera.
La primera pantalla 190a y la segunda pantalla 190b pueden configurarse para conectarse entre sí por la bisagra 135. La primera pantalla 190a y la segunda pantalla 190b, de acuerdo con el control del controlador 130, puede mostrar contenidos multimedia, imágenes, vídeos y/o texto. La primera pantalla 190a y la segunda pantalla 190b pueden estar físicamente separadas entre sí. Las pantallas de la primera pantalla 190a y la segunda pantalla 190b pueden controlarse independientemente. Por ejemplo, las resoluciones de la primera pantalla 190a y la segunda pantalla 190b pueden establecerse individualmente. Además, las pantallas de la primera pantalla 190a y la segunda pantalla 190b pueden expandirse, rotar, moverse o dividirse individualmente.
Asimismo, la primera pantalla 190a y la segunda pantalla 190b pueden mostrar un solo monitor de pantalla usando una memoria intermedia de trama virtual integrada.
La primera pantalla 190a y la segunda pantalla 190b pueden implementarse con diversas tecnologías de pantalla tales como, por ejemplo, un panel de pantalla de cristal líquido (LCD), un panel de pantalla de plasma (PDP), un diodo emisor de luz orgánico (OLED), una pantalla fluorescente al vacío (VFD), una pantalla de emisión de campo (FED), una pantalla de electroluminiscencia (ELD), etc.
La primera pantalla 190a y la segunda pantalla 190b pueden implementarse, por ejemplo, con un panel de pantalla general, que puede no tener una función de entrada táctil, o puede implementarse con un panel de pantalla táctil, que puede reconocer la manipulación del usuario utilizando al menos uno de un sensor de proximidad y un sensor táctil. Cuando la primera pantalla 190a y la segunda pantalla 190b se implementan con un panel de pantalla táctil, la primera pantalla 190a y la segunda pantalla 190b pueden recibir la entrada de al menos un gesto táctil a través del cuerpo del usuario (por ejemplo, dedos que incluyen un pulgar) o un medio de entrada sensible (por ejemplo, un lápiz óptico).
Dicha UI puede incluir, por ejemplo, un área táctil predeterminada, una tecla programable y/o un menú programable. Una señal electrónica, que corresponde a al menos un gesto táctil que puede ingresarse a través de la UI, puede transmitirse a la primera pantalla 190a y la segunda pantalla 190b a través de un controlador LCD (no ilustrado). Además, la primera pantalla 190a y la segunda pantalla 190b pueden detectar un movimiento continuo del tacto y pueden transmitir una señal electrónica, que corresponde a un movimiento táctil continuo o discontinuo, al controlador LCD.
La primera pantalla 190a y la segunda pantalla 190b pueden implementarse, por ejemplo, en diversos procedimientos, como un procedimiento resistivo, un procedimiento capacitivo, un procedimiento infrarrojo, y/o un procedimiento de onda acústica. La primera pantalla 190a y la segunda pantalla 190b pueden convertir una señal que corresponde al gesto del usuario, que puede ser detectado por el sensor 151 táctil en una señal digital (por ejemplo, coordenadas X e Y), y puede transmitir la señal digital al controlador 130. El controlador 130 puede realizar una operación de control que corresponde al gesto del usuario de entrada utilizando la señal digital recibida. Por ejemplo, el controlador 130 puede seleccionar una tecla programable visualizada en al menos una de la primera pantalla 190a y la segunda pantalla 190b o puede, en respuesta al gesto del usuario, ejecutar una aplicación que corresponda a la tecla
programare.
El gesto del usuario no se limita al contacto directo entre las pantallas primera y segunda 190a y 190b y el cuerpo del usuario o un medio de entrada táctil, pero puede incluir procedimientos que no implican contacto. La sensibilidad al gesto del usuario, que puede ser detectado por al menos una de la primera pantalla 190a y la segunda pantalla 190b, puede variar de acuerdo con las necesidades de rendimiento y/o estructura del aparato 100 de pantallas múltiples.
El controlador 130 puede detectar diversos tipos de gestos del usuario utilizando el sensor 151 táctil y otros sensores.
En una realización ejemplar del presente concepto inventivo, un gesto táctil puede incluir todos los tipos de gestos del usuario que pueden ser detectados por el aparato 100 de pantallas múltiples cuando el usuario contacta el monitor táctil directamente o se acerca a el monitor táctil de cerca. Por ejemplo, el gesto táctil puede ser el gesto del usuario que selecciona una posición o posiciones continuas en el monitor táctil con un dedo (por ejemplo, un dedo índice) de al menos una de las manos derecha o izquierda, un pulgar o un objeto (por ejemplo, un lápiz óptico) que el monitor táctil puede detectar. Los gestos táctiles se describen en el presente documento con referencia a las siguientes tablas.
[Tabla 1]
La Tabla 1 ilustra las marcas asociadas con diversos tipos de gestos que se pueden hacer con un solo dedo.
Con referencia a la Tabla 1, los diversos tipos de gestos que se pueden hacer con un solo dedo pueden incluir, por ejemplo, un pulsado, un tocar y mantener, un doble pulsado, un arrastre, un arrastrar y soltar, y una sacudida. El pulsado puede ser un gesto para presionar ligeramente y luego soltar el monitor táctil. Tocar y mantener presionado puede ser un gesto para tocar el monitor táctil durante un tiempo relativamente largo. El doble pulsado puede ser un gesto para tocar el monitor táctil dos veces rápidamente. El arrastre puede ser un gesto para mover un objeto en el monitor táctil en una dirección mientras se mantiene el contacto con el monitor táctil. Arrastrar y soltar puede ser un gesto para tocar un objeto en el monitor táctil y mover el objeto de la posición a otra posición. La sacudida puede ser un gesto para arrastrar rápidamente.
[Tabla 2]
continuación
La Tabla 2 ilustra las marcas asociadas con diversos tipos de gestos que pueden realizarse con dos dedos.
Con referencia a la Tabla 2, los diversos tipos de gestos que se pueden hacer con dos dedos pueden incluir, por ejemplo, un toque con dos dedos, un toque & extender, un pellizco para aumentar, un pellizco para reducir, un arrastre de dos dedos, un cruce de dos dedos, y un toque y rotación. El toque con dos dedos puede ser un gesto para tocar con dos dedos al mismo tiempo. Toque & extender puede ser un gesto para presionar el monitor táctil con dos dedos al mismo tiempo y mover un dedo en línea recta sin mover el otro. El pellizco para aumentar puede ser un gesto para presionar el monitor táctil con dos dedos al mismo tiempo y arrastrar los dos dedos en direcciones opuestas. El pellizco para reducir puede ser un gesto para presionar el monitor táctil con dos dedos al mismo tiempo y arrastrar los dos dedos en direcciones enfrentadas. El arrastre de dos dedos puede ser un gesto para arrastrar utilizando dos dedos en la misma dirección. Los dos dedos cruzados pueden ser un gesto para arrastrar usando dos dedos en direcciones enfrentadas al mismo tiempo para que los dos dedos no se alcancen. Finalmente, tocar y rotar puede ser un gesto para tocar el monitor táctil con dos dedos y girar un dedo alrededor del otro sin mover el otro.
[Tabla 3]
La Tabla 3 ilustra las marcas asociadas con diversos tipos de gestos que se pueden hacer con tres o más dedos o con la palma de la mano.
Con referencia a la Tabla 3, los diversos tipos de gestos que se pueden hacer con tres o más dedos o con la palma pueden incluir, por ejemplo, un toque con tres dedos, un toque con cuatro dedos y un toque con cinco dedos. Además, gestos como un pulsado, un arrastre y una rotación como se describe anteriormente y se ilustra en las Tablas 1 y 2 se pueden realizar con tres o más dedos.
El controlador 130 puede reconocer los gestos táctiles mencionados anteriormente y puede realizar una operación que corresponde a los gestos táctiles. Por ejemplo, el controlador 130 puede ejecutar una aplicación, un widget o un navegador web, que puede almacenarse en el almacenamiento 170, y puede mostrar un monitor de ejecución en al menos una de las pantallas primera y segunda 190a y 190b.
En las realizaciones ejemplares mencionadas anteriormente del presente concepto inventivo, los cuerpos 191a y 191b del aparato 100 de pantallas múltiples pueden estar conectados entre sí por la bisagra 135, pero los cuerpos 191a y 191b también pueden estar conectados por un conector (no ilustrado), que puede estar hecho de un material flexible,
en lugar de la bisagra 135. Como alternativa, la bisagra puede implementarse como un conector hecho de un material flexible.
La figura 40 es un diagrama de bloques detallado que ilustra un ejemplo de una configuración del controlador 130 como se ilustra en la figura 39.
Como se ilustra en la figura 40, el aparato 100 de pantallas múltiples puede incluir el comunicador 110, la unidad 120 multimedia, el controlador 130, la unidad 140 de fotografía, el sensor 150, la unidad 160 de entrada/salida, el almacenamiento 170, el proveedor 180 de energía y una pantalla 190 dual. Desde los componentes, a excepción del controlador 130, se han descrito anteriormente en detalle, su descripción no se repite en el presente documento.
Con referencia a la figura 40, el controlador 130 puede incluir la CPU 131, una unidad de procedimiento gráfico (GPU) 133, la RAM 135, la ROM 137 y el bus 139 del sistema. Las funciones del controlador 130 se describen en el presente documento.
La CPU 131 puede controlar los componentes globales del aparato 100 de pantallas múltiples, así como los componentes del controlador 130. Por ejemplo, la CPU 131 puede controlar las funciones de los componentes mientras realiza la comunicación de datos con los componentes a través del bus 139 del sistema, puede recopilar resultados de control y puede controlar diversos dispositivos periféricos transmitiendo señales de control a los diversos dispositivos periféricos en función de los resultados de control.
Por ejemplo, la CPU 131 puede arrancar el sistema utilizando la información de arranque almacenada en la ROM 137. La CPU 131 puede leer datos almacenados en un almacenamiento (no ilustrado) en la RAM 135, y puede transmitir a la GPU 133 datos que pueden necesitar procesamiento gráfico de entre los datos almacenados en la RAM 135. La CPU 131 puede recibir los datos que han sido procesados gráficamente por la GPU 133, puede transmitir los datos a un controlador LCD (no ilustrado), que puede estar conectado al bus 139 del sistema y puede mostrar una imagen en la pantalla.
La CPU 131 puede almacenar temporalmente los datos de imagen procesados por la GPU 133 en un área de memoria intermedia de trama virtual, que puede asignarse en un área predeterminada de la RAM 135. La CPU 131 puede asignar el área de memoria intermedia de trama virtual para soportar la resolución máxima de la pantalla. Cuando hay dos pantallas, la CPU 131 puede asignar, por ejemplo, el área de la memoria intermedia de trama virtual debe tener un tamaño de 1024 por 200.
La CPU 131 puede realizar el procesamiento de la señal digital ingresando los datos que pueden almacenarse temporalmente en la memoria intermedia de trama virtual a la GPU 133.
La GPU 133 puede realizar un procesamiento gráfico de los datos de entrada de acuerdo con el control de la CPU 131. Por ejemplo, la GPU 133 puede generar, utilizando un operador (no ilustrado) y un renderizador (no ilustrado), un monitor que incluye diversos objetos, tal como, por ejemplo, un icono, una imagen y/o texto. El operador puede calcular los valores de propiedad de cada objeto, tal como, por ejemplo, un valor de coordenadas, una forma, un tamaño y/o un color, de acuerdo con un diseño del monitor. El renderizador puede generar el monitor que tiene diversos diseños que incluyen los objetos basados en los valores de propiedad calculados por el operador. El monitor generado por el renderizador puede transmitirse a las pantallas primera y segunda 190a y 190b a través del bus 139, y puede mostrarse en un área de pantalla o puede almacenarse en el almacenamiento 170.
La CPU 131 puede mostrar los datos que la GPU 133 procesa gráficamente en al menos una de las pantallas primera y segunda 190a y 190b, puede almacenar los datos en el almacenamiento 170, o puede ingresar los datos a un controlador de pantalla (no ilustrado).
La GPU 133 puede incluir un decodificador (no ilustrado), un renderizador (no ilustrado) y un escalador (no ilustrado). Por consiguiente, la GPU 133, de acuerdo con el control del controlador de pantalla (no ilustrado), puede decodificar contenido almacenado, puede configurar una trama representando los datos de contenido decodificados, y puede escalar el tamaño de la trama para que sea adecuado para el tamaño de la pantalla. Si el contenido se muestra en una de la primera pantalla 190a y la segunda pantalla 190b, la trama se puede escalar a la pantalla, o si el contenido se muestra en las dos pantallas 190a y 190b juntas, la trama se puede escalar al tamaño completo de ambas pantallas 190a y 190b. La GPU 133 puede transmitir la trama procesada a la pantalla para que la pantalla pueda mostrar el contenido.
El controlador 130 puede incluir además un procesador de audio (no ilustrado) y una interfaz (no ilustrada). La interfaz puede ser un componente configurado para interactuar con componentes periféricos.
El procesador de audio (no ilustrado) puede configurarse para interactuar con la unidad 120 multimedia a través de una interfaz de audio (no ilustrada), para procesar datos de audio y transmitir los datos de audio a una salida de audio significa, por ejemplo, por ejemplo, Un altavoz (no ilustrado). El procesador de audio puede realizar un procesamiento de señal de audio como, por ejemplo, decodificar datos de audio almacenados en el almacenamiento 170 o datos de audio recibidos a través del comunicador 110, filtrando el ruido y amplificando los datos de audio a un decibelio óptimo. En el ejemplo anterior, cuando el contenido es vídeo, el procesador de audio puede procesar datos de audio multiplexados del vídeo y puede transmitir los datos de audio al altavoz para que los datos de audio puedan
sincronizarse con la salida de la GPU 133.
Cuando los datos de navegación web incluyen datos de audio, la CPU 131 puede mostrar el monitor de navegación web y también puede controlar el procesador de audio para reproducir la señal de audio.
Cuando se ejecuta un programa de navegación web, la CPU 131 puede acceder a un servidor web a través de una interfaz de red (no ilustrada). Al recibir datos de la página web del servidor web, la CPU 131 puede controlar la GPU 133 para configurar un monitor de página web, y puede mostrar el monitor de página web en una pantalla 190 múltiple. (La pantalla 190 múltiple es un término colectivo para las pantallas primera y segunda 190a y 190b y la bisagra 185, que se han descrito anteriormente)
La ROM 137 puede almacenar un conjunto de comandos para iniciar el sistema. Cuando se ingresa un comando de encendido y se suministra la alimentación, La CPU 131, de acuerdo con los comandos almacenados en la ROM 137, puede copiar un sistema operativo (SO) almacenado en el almacenamiento 170 en la RAM 135 y puede ejecutar el SO para que el sistema pueda iniciarse. Cuando se completa el arranque, la CPU 131 puede copiar diversos programas de aplicación almacenados en el almacenamiento 170 en la RAM 135, y puede ejecutar programas de aplicación copiados para que se puedan realizar diversas operaciones. Como se ha mencionado anteriormente, la CPU 131 puede realizar diversas operaciones de acuerdo con la ejecución de los programas de aplicación almacenados en el almacenamiento 170.
Cuando el aparato 100 de pantallas múltiples detecta el tacto del usuario u otras manipulaciones como se describe anteriormente, el controlador 130 puede determinar si la manipulación del usuario fue intencional o no. Cuando el controlador 130 determina que la manipulación del usuario fue intencional, los controladores pueden leer, del almacenamiento 170, información sobre una operación que corresponde a la manipulación del usuario y puede realizar la operación correspondiente. Esta operación del controlador 130 puede realizarse ejecutando diversos programas almacenados en el almacenamiento 170.
El aparato 100 de pantallas múltiples puede incluir los componentes mencionados anteriormente. Dado que el aparato 100 de pantallas múltiples tiene una pluralidad de pantallas, las pantallas pueden proporcionar diversos monitores. Aquí se describen diversos ejemplos de una configuración detallada básica y del funcionamiento del aparato 100 de pantallas múltiples.
La figura 41 ilustra un ejemplo de una configuración de hardware de la pantalla. Para conveniencia de la descripción, la figura 41 ilustra solo la primera pantalla 190a, pero la segunda pantalla 190b puede implementarse en la misma forma o en una similar.
Con referencia a la figura 41, la primera pantalla 190a puede incluir un controlador 231 de temporización, un controlador 232 de puerta, un controlador 233 de datos, un controlador 234 de tensión y un panel 235 de pantalla.
El controlador 231 de temporización puede recibir, de una fuente externa (no ilustrada), una señal de reloj (DCLK) (no ilustrada), una señal de sincronización horizontal (Hsync) (no ilustrada) y una señal de sincronización vertical (Vsync) (no ilustrada), que puede ser adecuada para la resolución de, por ejemplo, el monitor táctil, puede generar una señal de control de puerta (una señal de control de exploración) y una señal de control de datos (una señal de datos), puede reorganizar los datos RGB y puede proporcionar los datos al controlador 233 de datos. Con respecto a la señal de control de la puerta, el controlador 231 de temporización puede generar un reloj de cambio de puerta (GSC) (no ilustrado), una habilitación de salida de puerta (GOE) (no ilustrada) y un pulso de inicio de puerta (GSP) (no ilustrada). El GSC puede ser una señal para determinar el momento en que un transistor de película delgada (TFT), que puede estar conectado a un elemento emisor de luz como, por ejemplo, un diodo emisor de luz orgánico RGB (OLED), se puede encender o apagar. El GOE puede ser una señal para controlar la salida del controlador 232 de puerta. El GSP puede ser una señal para indicar una primera línea de conducción del monitor en una sola señal de sincronización vertical.
Además, con respecto a la señal de control de datos, el controlador 231 de temporización puede generar un reloj de muestreo fuente (SSC) (no ilustrado), una habilitación de salida de fuente (SOE) (no ilustrada) y un pulso de inicio de fuente (SSP) (no ilustrado). El SSC puede usarse como un reloj de muestreo para retener los datos en el controlador 233 de datos, y puede determinar la frecuencia de activación de un circuito integrado (IC) del controlador de datos. El SOE puede transmitir los datos bloqueados por el SSC al panel 235 de pantalla. El SSP puede ser una señal para indicar el bloqueo de datos o el inicio del muestreo durante un solo período de sincronización horizontal.
El controlador 232 de puerta puede generar una señal de exploración, y puede conectarse al panel 235 de pantalla a través de las líneas de exploración Si, S2 y Sn. El controlador 232 de puerta puede transmitir una tensión de encendido/apagado de la puerta (Vgh/Vgl), recibido del controlador 234 de tensión, al panel 235 de pantalla de acuerdo con una señal de control de puerta generada por el controlador 231 de temporización. La puerta de tensión (Vgh) puede proporcionarse a las líneas de puerta secuencialmente desde la línea de puerta 1 (GLi) a la línea de puerta n (GLn) para obtener una imagen de trama unitaria.
El controlador 233 de datos puede generar una señal de datos y puede conectarse al panel 235 de pantalla a través de datos líneas D1, D2, D3 y Dn. El controlador 233 de datos puede completar el escalado y puede ingresar datos
RGB de una trama de imagen al panel 235 de pantalla de acuerdo con una señal de control de datos generada por el controlador 231 de temporización. El controlador 233 de datos puede convertir datos de imagen RGB en serie proporcionados por el controlador 231 de temporización en datos paralelos, puede convertir datos digitales en una tensión analógico y puede proporcionar datos de imagen para una sola línea horizontal al panel 235 de pantalla. Este procedimiento puede realizarse de acuerdo con cada línea horizontal en secuencia.
El controlador 234 de tensión puede generar cada tensión de activación y puede suministrar las tensiones generadas al controlador 232 de puerta, el controlador 233 de datos y el panel 235 de pantalla. Es decir, el controlador 234 de tensión puede recibir una tensión predominante, es decir, tensión de corriente alterna de 110V o 220V desde el exterior, puede generar tensión de alimentación (VDD), que puede ser necesario para el panel 235 de pantalla, y puede proporcionar el tensión de alimentación, o puede proporcionar una tensión de conexión a tierra (VSS). Además, el controlador 234 de tensión puede generar la puerta de tensión (Vgh) y puede proporcionar la puerta de tensión al controlador 232 de puerta. Para hacerlo, el controlador 234 de tensión puede incluir, por ejemplo, una pluralidad de módulos de activación de tensión (no ilustrados), que puede operar individualmente. La pluralidad de módulos de activación de tensión (no ilustrados) puede proporcionar, de acuerdo con el control del controlador 130, diferentes tensiones y el controlador 130 puede controlar el controlador 234 de tensión para que, por ejemplo, la pluralidad de módulos de activación de tensión puede proporcionar diferentes tensiones de activación de acuerdo con información predeterminada. Por ejemplo, cada uno de los módulos de conducción de tensión, de acuerdo con el control del controlador 130, puede proporcionar una primera tensión y una segunda tensión (establecidas como las tensiones predeterminadas), que puede ser diferente en función de información predeterminada.
De acuerdo con una realización ejemplar, el controlador 234 de tensión puede incluir una pluralidad de módulos de control de tensión (no ilustrados) que corresponden a cada área del panel 235 de pantalla, que puede dividirse en una pluralidad de áreas. En este caso, el controlador 130 puede controlar la pluralidad de módulos de activación de tensión para proporcionar diferentes primeras tensiones, es decir, diferentes tensiones de potencia de electroluminiscencia (EL) (ELVDD) de acuerdo con la información del monitor (o información de imagen de entrada) de la pluralidad de áreas. Es decir, La intensidad del ELVDD puede controlarse usando una señal de imagen que puede ingresarse al controlador 233 de datos. La información del monitor puede ser, por ejemplo, al menos uno de luminancia e información de escala de grises de una imagen de entrada.
El panel 235 de pantalla puede incluir una pluralidad de líneas de puerta (GLi a GLn) (no ilustradas) y una pluralidad de líneas de datos (DLi a DLn) que se cruzan entre sí y definen un área de píxeles 236. Elementos emisores de luz RGB, tales como, por ejemplo, OLED puede proporcionarse en el área de píxeles 236. Más precisamente, un elemento de conmutación (no ilustrado), es decir, Se puede proporcionar un transistor de película delgada (TFT) en, por ejemplo, el borde. Cuando el TFT está encendido, se puede suministrar tensión de escala de grises desde el controlador 233 de datos a cada uno de los elementos emisores de luz RGB. En este momento, los elementos emisores de luz RGB pueden emitir luz que corresponde a una cantidad de corriente proporcionada en función de la tensión de la escala de grises. Es decir, cuanto mayor sea la cantidad de corriente que se puede proporcionar, cuanto más brillante sea la luz, los elementos emisores de luz RGB pueden proporcionarla.
Las figuras 42 y 43 son diagramas de bloques esquemáticos de configuraciones del controlador de pantalla de cristal líquido (LCD) configuradas para controlar las dos pantallas 190a y 190b del aparato 100 de pantallas múltiples de acuerdo con una realización ejemplar del presente concepto inventivo.
La figura 42 es un diagrama de bloques esquemático de un ejemplo de una configuración del aparato 100 de pantallas múltiples configurado para controlar el funcionamiento de las pantallas 190a y 190b usando una pluralidad de memorias 134a-1 y 134b-1 intermedias de tramas.
Con referencia a la figura 42, el aparato 100 de pantallas múltiples puede incluir pantallas primera y segunda 190a y 190b y un controlador 134 de pantalla. El controlador 134 de pantalla puede proporcionarse por separado del controlador 130 o puede proporcionarse dentro del controlador 130.
Como se ilustra en la figura 42, el controlador 134 de pantalla puede incluir la primera memoria 134a-1 intermedia de trama, un primer controlador 134a-2 de pantalla, la segunda memoria 134b-1 intermedia de trama y un segundo controlador 134b-2 de pantalla.
La primera memoria 134a-1 intermedia de trama puede configurarse para proteger una imagen de trama para mostrar en la primera pantalla 190a, y la segunda memoria 134b-1 intermedia de trama puede configurarse para almacenar una trama de imagen para mostrar en la segunda primera pantalla 190b.
Por ejemplo, las tramas de imagen que han sido procesados en señales digitales por la GPU 133 pueden almacenarse en la primera y segunda memoria 134a-1 y 134b-1 intermedia de trama en forma de mapa de bits. En este caso, puede asignarse un área de almacenamiento intermedio de cada memoria 134a-1 y 134b-1 intermedia de trama, por ejemplo, para ser adecuado para el tamaño máximo de píxel que puede admitir cada pantalla 190a y 190b. El primer controlador 134a-2 de pantalla puede analizar la trama de imagen que puede almacenarse en la primera memoria 134a-1 intermedia de trama, puede convertir la trama de imagen en una primera señal fuente de imagen, y puede transmitir la primera señal fuente de imagen a la primera pantalla 190a para que la primera pantalla 190a pueda mostrar la trama
de imagen.
De la misma manera, el segundo controlador 134b-2 de pantalla puede analizar la trama de imagen que puede almacenarse en la segunda memoria 134b-1 intermedia de trama, puede convertir la trama de imagen en una segunda señal de fuente de imagen, y puede transmitir la segunda señal de fuente de imagen a la segunda pantalla 190b para que la segunda pantalla 190b pueda mostrar la trama de imagen.
En la figura 42, la primera memoria 134a-1 intermedia de trama y la segunda memoria 134b-1 intermedia de trama que corresponden a las pantallas 190a y 190b pueden proporcionarse por separado. Sin embargo, en la figura 43, se ilustra una única memoria intermedia de trama integrada de acuerdo con otra realización ejemplar del presente concepto inventivo.
La figura 43 es un diagrama de bloques esquemático de un ejemplo de una configuración del aparato 100 de pantallas múltiples configurado para controlar las pantallas 190a y 190b usando una memoria 134-1 intermedia de trama integrada. Si se utiliza la memoria 134-1 intermedia de trama integrada, el tamaño de la memoria de la memoria 134 1 intermedia de trama integrada puede asignarse para que sea mayor que la memoria requerida para soportar el tamaño de resolución máxima de cada una de las pantallas primera y segunda 190a y 190b.
Por ejemplo, cuando cada una de las pantallas primera y segunda 190a y 190b puede mostrar la resolución máxima de 1024X800, la memoria 134-1 intermedia de trama integrada puede tener un área de almacenamiento en un tamaño de memoria intermedia de trama configurado para mostrar la resolución de 1024X1600. Una primera área de la memoria 134-1 intermedia de trama integrada puede almacenar una primera trama de imagen que se mostrará en la primera pantalla 190a, y una segunda área de la memoria 134-1 intermedia de trama integrada puede almacenar una segunda trama de imagen para mostrarse en la segunda pantalla 190b.
El controlador 134-2 de pantalla puede transmitir la primera y la segunda trama de imagen, respectivamente, a las pantallas primera y segunda 190a y 190b usando direcciones de las tramas de imagen primera y segunda que pueden almacenarse en la memoria 134-1 intermedia de trama integrada para que cada pantalla 190a y 190b pueda accionarse.
La figura 44 es una vista en sección transversal que ilustra una pantalla 390 de acuerdo con una realización ejemplar del presente concepto inventivo.
Con referencia a la figura 44, la pantalla 390 puede incluir un panel 360 de pantalla que puede formarse colocando un sustrato 362 superior y un sustrato 361 inferior juntos, una placa 300 polarizadora superior, que puede proporcionarse en el sustrato 362 superior del panel 360 de pantalla, un electrodo 310 inferior, que puede proporcionarse en los bordes de la placa 300 polarizadora superior, un electrodo 330 transparente inferior, que puede conectarse al electrodo 310 inferior y puede proporcionarse en la placa 300 polarizadora superior, un monitor 340 táctil, que puede incluir un electrodo 342 transparente superior y puede estar unido al sustrato 362 superior, y una protuberancia 350, que puede proporcionarse entre el electrodo 342 transparente superior y el electrodo 330 transparente inferior. Además, la pantalla 390 puede incluir además una placa 301 polarizadora inferior, que puede proporcionarse debajo del sustrato 361 inferior.
El monitor 340 táctil puede incluir una película 341 base, el electrodo 342 transparente superior, que puede ubicarse sobre la película 341 base y debajo del electrodo 343, que puede ubicarse debajo del electrodo 342 transparente superior.
Se puede proporcionar una capa 363 de cristal líquido entre el sustrato 362 superior y el sustrato 361 inferior. El sustrato 362 superior y el sustrato 361 inferior pueden incluir un área de pantalla (no ilustrada) para mostrar una imagen, y un área periférica (no ilustrada), que se puede proporcionar en los bordes del área de pantalla.
Aunque no se ilustra en la figura 44, el área de pantalla del sustrato 361 inferior puede incluir una pluralidad de líneas de puerta, una pluralidad de líneas de datos, un transistor de película delgada (TFT), que puede proporcionarse en un área en la que la pluralidad de líneas de puerta y la pluralidad de líneas de datos se cruzan entre sí, un electrodo de píxeles, que puede estar conectado al TFT, y un electrodo de sostenimiento del cual una porción puede solaparse con el electrodo de píxel.
El área periférica del sustrato 361 inferior puede incluir una pluralidad de almohadillas (no ilustradas), que pueden estar conectadas a las líneas de puerta y las líneas de datos.
El sustrato 362 superior y el sustrato 361 inferior pueden sellarse con un miembro 364 de sellado tal como, por ejemplo, un sellador. Puede ser más efectivo que el miembro 364 de sellado se pueda proporcionar en las áreas periféricas del sustrato 362 superior y el sustrato 361 inferior.
En la pantalla 390 ilustrada en la figura 44, cuando se presiona el monitor 340 táctil con una resistencia predeterminada, la protuberancia 350 en un área presionada puede estar en contacto con el electrodo 330 transparente inferior de manera que el electrodo 330 transparente inferior y el electrodo 342 transparente superior pueden estar conectados eléctricamente entre sí. Debido a la conexión eléctrica, la corriente eléctrica que fluye a través del electrodo 342 transparente superior y/o el electrodo 330 transparente inferior puede cambiarse. Un sensor
separado (no ilustrado) puede detectar este cambio y puede transmitir una señal al controlador 130. El controlador 130 puede generar coordenadas del área en la que el flujo de la corriente eléctrica puede o puede haber cambiado utilizando la señal, y puede transmitir las coordenadas, por ejemplo, a un controlador predeterminado (no ilustrado). El controlador puede manipular una imagen mostrada en el panel 360 de pantalla que corresponde a las coordenadas recibidas como si fuera una herramienta de entrada (no ilustrada), como un ratón, manipula la imagen.
La figura 45 ilustra una estructura de sistema jerárquico del aparato 100 de pantallas múltiples de acuerdo con una realización ejemplar del presente concepto inventivo.
Con referencia a la figura 45, un hardware 410 puede incluir el comunicador 110, la unidad 120 multimedia, el controlador 130, la unidad 140 de fotografía, el sensor 150, la unidad 160 de entrada/salida, el almacenamiento 170 y el proveedor 180 de energía del aparato 100 de pantallas múltiples.
El sistema 420 operativo (OS) puede controlar el funcionamiento general del hardware 410 y puede gestionar el hardware 410. Es decir, el OS 420 puede ser una capa que realiza funciones básicas como, por ejemplo, gestión de hardware, memoria y seguridad. El OS 420 puede incluir módulos como un controlador de pantalla (no ilustrado) para controlar una pantalla múltiple, un controlador de comunicación (no ilustrado) para transmitir y recibir datos, un controlador de cámara (no ilustrado) para conducir una unidad de fotografía, un controlador de audio (no ilustrado) para controlar la unidad de audio y un administrador de fuente de alimentación (no ilustrado). Además, el OS 420 puede incluir además una biblioteca (no ilustrada) y un tiempo de ejecución (no ilustrado), que puede ser accesible por un desarrollador (no ilustrado).
Una 430 capa de trama puede estar en un nivel superior del OS 420. La trama 430 puede conectar una capa 440 de aplicación y la capa 420 de sistema operativo. Es decir, la capa 430 de trama puede incluir, por ejemplo, un gerente de locación (no ilustrado), un administrador de notificaciones (no ilustrado) y/o una memoria intermedia de trama (no ilustrado), que puede mostrar una imagen en el monitor táctil.
La capa 440 de aplicación puede existir por encima de la capa 430 de trama y puede realizar diversas funciones del aparato 100 de pantallas múltiples. Por ejemplo, la capa 440 de aplicación puede incluir diversos programas de aplicación tales como, por ejemplo, una solicitud 441 de llamada, una aplicación 442 multimedia, una aplicación 443 de cámara, una aplicación 444 de navegador y una aplicación 445 de gestos.
El exterior del aparato 100 de pantallas múltiples de acuerdo con una realización ejemplar del presente concepto inventivo se describe en el presente documento con referencia a las vistas en perspectiva adjuntas.
La figura 46 es una vista en perspectiva detallada del aparato 100 de pantallas múltiples de acuerdo con una realización ejemplar de la presente invención. En la realización ejemplar ilustrada en la figura 46, el aparato 100 de pantallas múltiples puede incluir dos pantallas 190a y 190b que pueden estar conectadas entre sí por la bisagra 185.
Con referencia a la figura 46, el aparato 100 de pantallas múltiples puede incluir un primer y un segundo cuerpos 2 y 4. El primer y segundo cuerpos 2 y 4 pueden estar conectados entre sí por la bisagra 185 y, por lo tanto, pueden ser móviles entre sí. La primera pantalla 190a puede proporcionarse en una cara del primer cuerpo 2, y al menos un botón 161 físico puede proporcionarse en un lado de la primera pantalla 190a. La segunda pantalla 190b puede proporcionarse en una cara del segundo cuerpo 4, y al menos un botón 161' físico puede proporcionarse en un lado de la segunda pantalla 190b. Los botones 161 y 161' físicos pueden incluir al menos uno de un botón pulsador y un botón táctil. En una realización ejemplar del presente concepto inventivo, la primera pantalla 190a en el primer cuerpo 2 puede incluir un altavoz 163 y un micrófono 162 y puede actuar como un monitor principal, y la segunda pantalla 190b en el segundo cuerpo 4 puede actuar como un monitor secundario. En una realización ejemplar del presente concepto inventivo, el primer cuerpo 2 puede incluir la primera cámara 141, y el segundo cuerpo 4 puede incluir la segunda cámara 142.
Cuando el aparato 100 de pantallas múltiples se coloca como se ilustra en la figura 46, cada una de las pantallas 190a y 190b puede mostrar su monitor en modo horizontal.
Si el primer y segundo cuerpos 2 y 4 del aparato 100 de pantallas múltiples están conectados entre sí por la bisagra 185 y, por lo tanto, se pueden mover entre sí, el aparato 100 de pantallas múltiples puede ser cualquier dispositivo tal como, por ejemplo, una PC portátil, una tableta PC y un PMP. Aunque se pueden proporcionar las pantallas 190a y 190b primera y segunda, respectivamente, en el primer y segundo cuerpos 2 y 4, la descripción a continuación, se puede aplicar a un dispositivo en el que se proporciona un monitor táctil a solo uno de los dos paneles. Además, se puede omitir al menos uno de los botones 161 y 161' de función en un lado de las pantallas 190a y 190b. Asimismo, aunque el primer y segundo cuerpos 2 y 4 pueden estar conectados por la bisagra 185 en esta realización ejemplar, la bisagra 185 puede reemplazarse con otros componentes siempre que el primer y el segundo cuerpos 2 puedan plegarse mediante movimientos entre sí.
La bisagra 185 puede incluir, por ejemplo, dos porciones de bisagra, que puede proporcionarse en una porción superior y una porción inferior de una porción de conexión del primer y segundo cuerpos 2 y 4 como se ilustra en la figura 46. Como alternativa, la bisagra 185, por ejemplo, puede incluir una sola bisagra, que puede proporcionarse en toda la porción de conexión del primer y segundo cuerpos 2 y 4.
El aparato 100 de pantallas múltiples puede incluir una unidad de pantalla, que puede incluir la primera pantalla 190a y la segunda pantalla 190b, que puede estar separada física o gráficamente, y puede soportar diversos modos de monitor usando las dos pantallas 190a y 190b como se ilustra en las figuras 47 a 50.
Las figuras 47 a 50 ilustran realizaciones ejemplares de acuerdo con el ángulo de intervalo 0 entre el primer cuerpo 2 y el segundo cuerpo 4 del aparato 100 de pantallas múltiples de acuerdo con una realización ejemplar del presente concepto inventivo.
El ángulo de intervalo 0 puede ser un ángulo de rotación del segundo cuerpo 4 con respecto al primer cuerpo 2 en, por ejemplo, una dirección predeterminada (por ejemplo, en sentido contrario de las manecillas del reloj).
Por ejemplo, el ángulo de intervalo 0 puede detectarse utilizando el sensor 154 de bisagra, que puede montarse en la bisagra 185. El sensor 154 de bisagra puede ser, por ejemplo, al menos uno de un sensor de efecto Hall, un sensor de presión, un sensor de detección inductivo, un sensor de contacto eléctrico, y/o un sensor óptico, y puede reconocer el ángulo de intervalo 0 detectando un movimiento de la bisagra 185 y la posición relativa de la bisagra 185. Además, el ángulo de intervalo 0 puede reconocerse detectando las posiciones del primer y segundo cuerpos 2 y 4 usando el sensor 152 geomagnético y el sensor 153 de aceleración, así como el sensor 154 de bisagra.
La figura 47 es una vista en perspectiva que ilustra el aparato 100 de pantallas múltiples plegado de acuerdo con una realización ejemplar del presente concepto inventivo. En la figura 47, la primera y segunda pantallas 190a y 190b en el primer y segundo cuerpos 2 y 4 pueden estar orientadas hacia el exterior, y el primer y segundo cuerpos 2 y 4 pueden estar en contacto entre sí, es decir, puede estar completamente doblado hacia afuera. Esta posición puede referirse como un modo único. En este caso, el ángulo de intervalo 0 es 0 grados.
En la figura 48, los primer y segundo cuerpos 2 y 4 pueden desplegarse con el ángulo de intervalo 0 de 180 grados o casi 180 grados, dentro de un rango predeterminado. Esta posición puede referirse como un modo de expansión.
En la figura 49, el ángulo de intervalo 0 del segundo cuerpo 4 con respecto al primer cuerpo 2 puede ser mayor de 180 grados, de modo que las dos pantallas 190a y 190b estén ligeramente dobladas hacia el interior.
En la figura 50, el ángulo de intervalo 0 del segundo cuerpo 4 con respecto al primer cuerpo 2 puede ser inferior a 180 grados, de modo que las dos pantallas 190a y 190b están casi dobladas en direcciones opuestas, es decir, las dos pantallas 190a y 190b están ligeramente dobladas hacia el interior. Esta posición puede denominarse modo de equipo de herramientas.
En las diversas realizaciones ejemplares anteriores del presente concepto inventivo, los primer y segundo cuerpos 2 y 4 pueden estar conectados entre sí por la bisagra 185, pero también puede estar conectado por un conector (no ilustrado), que puede estar hecho de un material flexible, en lugar de la bisagra 185.
De acuerdo con las diversas realizaciones ejemplares del presente concepto inventivo, Se puede proporcionar una UI que permita al usuario controlar tanto el dispositivo como una aplicación en ejecución de manera más intuitiva y conveniente para el usuario.
El procedimiento de control de operación del aparato de pantallas múltiples y el procedimiento que proporciona la interfaz UI de acuerdo con las diversas realizaciones ejemplares del presente concepto inventivo pueden implementarse en un programa y pueden proporcionarse a aparatos de pantallas múltiples.
Por ejemplo, un programa que realiza operaciones, incluyendo el almacenamiento de información de operación de control que puede coincidir con un cuerpo girado y una dirección de rotación, detectar un ángulo de intervalo entre un primer cuerpo y un segundo cuerpo cuando se produce un gesto de plegado para rotar el primer cuerpo o el segundo cuerpo en una bisagra, y realizar una operación correspondiente al gesto de plegado utilizando la información de la operación de control correspondiente al cuerpo girado y la dirección de rotación cuando el ángulo del intervalo satisface condiciones predeterminadas, puede almacenarse en un medio legible por ordenador no transitorio y puede proporcionarse.
El presente concepto inventivo general también puede incorporarse como códigos legibles por ordenador en un medio legible por ordenador. El medio legible por ordenador puede incluir un medio de grabación legible por ordenador y un medio de transmisión legible por ordenador. El medio de grabación legible por ordenador es cualquier dispositivo de almacenamiento de datos que puede almacenar datos como un programa que luego puede ser leído por un sistema informático. Los ejemplos del medio de grabación legible por ordenador incluyen memoria de solo lectura (ROM), memoria de acceso aleatorio (RAM), CD-ROM, cintas magnéticas, disquetes y dispositivos ópticos de almacenamiento de datos. El medio de grabación legible por ordenador también se puede distribuir a través de sistemas informáticos acoplados a la red para que el código legible por ordenador se almacene y ejecute de manera distribuida. El medio de transmisión legible por ordenador se puede transmitir a través de ondas o señales portadoras (por ejemplo, transmisión de datos por cable o inalámbrica a través de Internet). Asimismo, programas funcionales, los programadores expertos en la materia a los que pertenece el presente concepto inventivo general pueden interpretar fácilmente códigos y segmentos de código para lograr el presente concepto inventivo general.
Un medio legible por ordenador no transitorio es un medio que no almacena datos temporalmente como un registro, efectivo y memoria, pero almacena datos de forma semipermanente y los dispositivos pueden leerlos. Por ejemplo, las diversas aplicaciones o programas antes mencionados pueden almacenarse y proporcionarse en un medio legible por ordenador no transitorio, como un disco compacto (CD), un disco de vídeo digital (DVD), un disco duro, un disco Blu-ray, un bus serie universal (USB), tarjeta de memoria y/o una memoria de solo lectura (ROM).
Aunque se han mostrado y descrito algunas realizaciones de la presente invención, Los expertos en la materia apreciarán que se pueden realizar cambios en estas realizaciones sin apartarse del ámbito de la invención tal como se define en las reivindicaciones adjuntas.
Claims (11)
1. Un aparato de pantalla que comprende:
un primer cuerpo (2, 191a) en el que se proporciona una primera pantalla (190a);
un segundo cuerpo (4, 191b) en el que se proporciona una segunda pantalla (190b);
una bisagra (185) configurada para conectar el primer cuerpo (2, 191a) y el segundo cuerpo (4, 191b);
un almacenamiento (170) configurado para almacenar información de operación de control que se corresponde con un estado girado del primer cuerpo (2, 191a) y el segundo cuerpo (4, 191b) y una dirección de rotación del primer cuerpo (2, 191a) y el segundo cuerpo (4, 191b);
un primer sensor incluido en el primer cuerpo (2, 191a) y configurado para detectar una rotación del primer cuerpo (2, 191a);
un segundo sensor incluido en el segundo cuerpo (4, 191b) y configurado para detectar una rotación del segundo cuerpo (4, 191b); y
un controlador (130) configurado para:
determinar el estado rotado del primer cuerpo (2, 191a) y el segundo cuerpo (4, 191b) y la dirección de rotación del primer cuerpo (2, 191a) y el segundo cuerpo (4, 191b) a base de la rotación detectada del primer cuerpo (2, 191a) y la rotación detectada del segundo cuerpo (4, 191b),
mostrar una interfaz de usuario, UI, correspondiente al estado de rotación determinado y la dirección de rotación determinada en un área predeterminada de un monitor de la primera pantalla (190a) o la segunda pantalla (190b), utilizando la información de operación de control correspondiente al estado girado del cuerpo girado entre el primer cuerpo (2, 191a) y el segundo cuerpo (4, 191b) y la dirección de rotación del cuerpo girado, y cambiar el tamaño de la UI de acuerdo con una dirección de arrastre de la UI cuando se ingresa el arrastre de la UI,
en el que cuando el arrastre de la UI comienza en una pantalla en el que se muestra la UI, entre la primera pantalla (190a) y la segunda pantalla (190b) y termina en la otra pantalla, entre la primera pantalla (190a) y la segunda pantalla (190b), la UI se expande de una pantalla a la otra.
2. El aparato de pantalla de acuerdo con la reivindicación 1, que comprende además un sensor (150) configurado para detectar la rotación del propio aparato de pantalla, y cuando se detecta la rotación del aparato de pantalla, el controlador (130) cambia la dirección de disposición de los objetos mostrados en la UI de acuerdo con una dirección de rotación.
3. El aparato de pantalla de acuerdo con la reivindicación 1 o 2, que comprende además un sensor (150) configurado para detectar la rotación del propio aparato de pantallas múltiples, y cuando se detecta la rotación del aparato de pantallas múltiples, el controlador (130) cambia una posición de pantalla de la UI de acuerdo con una dirección de rotación.
4. El aparato de pantalla de acuerdo con una cualquiera de las reivindicaciones anteriores, en el que cuando el primer cuerpo (2, 191a) se gira en una primera dirección, el controlador (130) muestra una UI del portapapeles en un área predeterminada de un monitor de la primera pantalla (190a);
cuando el primer cuerpo (2, 191a) gira en una segunda dirección opuesta a la primera dirección, el controlador (130) muestra una UI de configuración de la aplicación en el área predeterminada del monitor de la primera pantalla (190a); cuando el segundo cuerpo (4, 191a) gira en una tercera dirección, el controlador (130) muestra una UI de inicio rápido en un área predeterminada de un monitor de la segunda pantalla (190b), y
cuando el segundo cuerpo (4, 191b) gira en una cuarta dirección opuesta a la tercera dirección, el controlador (130) muestra una UI de configuración en el área predeterminada del monitor de la segunda pantalla (190b).
5. El aparato de pantalla de acuerdo con la reivindicación 4, en el que cuando se introduce un primer gesto táctil para seleccionar uno de los objetos en el monitor que se muestra en una de la primera pantalla (190a) y la segunda pantalla (190b) y para mover el objeto seleccionado a la UI del portapapeles, el controlador (130) simboliza el objeto seleccionado y muestra el símbolo en la UI del portapapeles, y
cuando se introduce un segundo gesto táctil para seleccionar uno de los símbolos que se muestran en la UI del portapapeles y mover el símbolo seleccionado al monitor a que se muestra en una de la primera pantalla (190a) y se ingresa la segunda pantalla (190b), el controlador (130) objetiva el símbolo seleccionado y muestra el objeto en el monitor.
6. El aparato de pantalla de acuerdo con la reivindicación 4, en el que cuando se introduce un primer gesto táctil para tocar uno de los símbolos que se muestran en la UI del portapapeles durante un tiempo predeterminado, el controlador (130) muestra un icono de papelera de reciclaje en la Ui del portapapeles y
cuando se introduce un segundo gesto táctil para mover el símbolo tocado al icono de la papelera de reciclaje, el controlador (130) elimina el símbolo tocado de la UI del portapapeles.
7. El aparato de pantalla de acuerdo con la reivindicación 1, en el que el controlador (130) está configurado para determinar un gesto de plegado para rotar al menos uno del primer cuerpo (2, 191a) y el segundo cuerpo (191b) con respecto a la bisagra (185), basado en el ángulo determinado,
en el que el gesto de plegado es un gesto de plegado y plano en el que el primer cuerpo (2, 191a) o el segundo cuerpo (4, 191b) se gira en una primera dirección sobre la base de la bisagra (185) y se gira en una segunda dirección opuesta a la primera dirección dentro de un tiempo predeterminado.
8. El aparato de pantalla de acuerdo con la reivindicación 7, en el que cuando ocurre el gesto de plegado y plano, el controlador (130) muestra un monitor correspondiente al gesto de plegado y plano en al menos una de la primera y segunda pantallas (190a, 190b), y
cuando el gesto de plegado y plano ocurre nuevamente mientras se realiza la operación anterior, el controlador (130) finaliza la operación anterior y vuelve a su estado original.
9. El aparato de pantalla de acuerdo con la reivindicación 1, en el que el controlador (130) está configurado para determinar un gesto de plegado para rotar al menos uno del primer cuerpo (2, 191a) y el segundo cuerpo (4, 191b) con respecto a la bisagra (185), basado en el ángulo determinado,
en el que el gesto de plegado es un gesto de plegado y retención en el que el primer cuerpo (2, 191a) o el segundo cuerpo (4, 191b) se gira en una primera dirección sobre la base de la bisagra (185) y se mantiene en esta posición durante un tiempo predeterminado.
10. El aparato de pantalla de acuerdo con la reivindicación 9, en el que cuando ocurre el gesto de plegar y sostener, el controlador (130) muestra un monitor correspondiente al gesto de plegado y retención en al menos una de la primera y segunda pantallas (190a y 190b) en un estado de retención, y
cuando se libera el estado de espera, el controlador (130) finaliza la operación anterior y vuelve a su estado original.
11. Un procedimiento de control de un aparato de pantalla que comprende un primer cuerpo (2, 191a) en el que se proporciona una primera pantalla (190a), un segundo cuerpo (4, 191b) en el que se proporciona una segunda pantalla (190b), una bisagra (185) configurada para conectar el primer cuerpo (2, 191a) y el segundo cuerpo (4, 191b), un primer sensor incluido en el primer cuerpo (2, 191a) y configurado para detectar una rotación del primer cuerpo (2, 191a), y un segundo sensor incluido en el segundo cuerpo (4, 191b) y configurado para detectar una rotación del segundo cuerpo (4, 191b), comprendiendo el procedimiento:
almacenar información de operación de control que coincide con una dirección de rotación del primer cuerpo (2, 191a) y el segundo cuerpo (4, 191b) y un estado girado del primer cuerpo (2, 191a) y el segundo cuerpo (4, 191b); determinar la dirección de rotación del primer cuerpo (2, 191a) y el segundo cuerpo (4, 191b) y el estado girado del primer cuerpo (2, 191a) y el segundo cuerpo (4, 191b) a base de la rotación detectada del primer cuerpo (2, 191a) y la rotación detectada del segundo cuerpo (4, 191b);
visualizar una interfaz de usuario (UI) correspondiente a la dirección de rotación y el estado girado en un área predeterminada de un monitor de la primera pantalla (190a) o la segunda pantalla (190b), utilizando la información de operación de control correspondiente al estado girado del cuerpo girado entre el primer cuerpo (2, 191a) y el segundo cuerpo (4, 191b) y la dirección de rotación del cuerpo girado; y
cambiar el tamaño de la UI de acuerdo con la dirección de arrastre de la UI cuando se ingresa el arrastre de la UI, y cuando el arrastre de la UI comienza en una pantalla en la que se muestra la UI, entre la primera pantalla (190a) y la segunda pantalla (190b) y termina en la otra pantalla, entre la primera pantalla (190a) y la segunda pantalla (190b), expandiendo la UI de una pantalla a la otra pantalla.
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020120112687A KR102083918B1 (ko) | 2012-10-10 | 2012-10-10 | 멀티 디스플레이 장치 및 그 제어 방법 |
Publications (1)
Publication Number | Publication Date |
---|---|
ES2748044T3 true ES2748044T3 (es) | 2020-03-12 |
Family
ID=49513717
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
ES13188170T Active ES2748044T3 (es) | 2012-10-10 | 2013-10-10 | Aparato de pantalla y procedimiento de control del mismo |
Country Status (5)
Country | Link |
---|---|
US (1) | US9348504B2 (es) |
EP (1) | EP2720132B1 (es) |
KR (1) | KR102083918B1 (es) |
CN (1) | CN103729157B (es) |
ES (1) | ES2748044T3 (es) |
Families Citing this family (75)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
MX2011005460A (es) * | 2008-11-24 | 2011-09-06 | Sang Kyu Ryu | Dispositivo de pantalla blanda para terminal portatil. |
US9417754B2 (en) | 2011-08-05 | 2016-08-16 | P4tents1, LLC | User interface system, method, and computer program product |
USD734355S1 (en) * | 2013-01-04 | 2015-07-14 | Samsung Electronics Co., Ltd. | Portable electronic device with graphical user interface |
USD759036S1 (en) * | 2013-08-01 | 2016-06-14 | Sears Brands, L.L.C. | Display screen or portion thereof with icon |
USD758379S1 (en) * | 2013-08-01 | 2016-06-07 | Sears Brands, L.L.C. | Display screen or portion thereof with icon |
USD773479S1 (en) * | 2013-09-06 | 2016-12-06 | Microsoft Corporation | Display screen with icon group |
KR20150076885A (ko) * | 2013-12-27 | 2015-07-07 | 삼성디스플레이 주식회사 | 표시장치 및 이의 표시방법 |
KR102255274B1 (ko) | 2014-02-21 | 2021-05-24 | 삼성전자주식회사 | 사용자 인터페이스를 제공하는 방법 및 이를 수행하기 위한 플렉시블 디바이스 |
US9547422B2 (en) * | 2014-03-07 | 2017-01-17 | Blackberry Limited | System and method for capturing notes on electronic devices |
KR102311221B1 (ko) * | 2014-04-28 | 2021-10-13 | 삼성전자주식회사 | 오브젝트 운용 방법 및 이를 지원하는 전자 장치 |
KR20150132918A (ko) * | 2014-05-19 | 2015-11-27 | 엘지전자 주식회사 | 디스플레이 디바이스 및 그의 제어 방법 |
KR102276108B1 (ko) | 2014-05-26 | 2021-07-12 | 삼성전자 주식회사 | 폴더형 표시부를 가지는 전자 장치 및 이의 운영 방법 |
KR102218041B1 (ko) * | 2014-06-17 | 2021-02-19 | 엘지전자 주식회사 | 이동 단말기 |
KR20160001602A (ko) * | 2014-06-26 | 2016-01-06 | 삼성전자주식회사 | 폴더블 전자 장치의 인터페이싱 방법 및 그 폴더블 전자 장치 |
KR101592113B1 (ko) * | 2014-08-14 | 2016-02-04 | 엘지전자 주식회사 | 이동 단말기 |
US10635296B2 (en) * | 2014-09-24 | 2020-04-28 | Microsoft Technology Licensing, Llc | Partitioned application presentation across devices |
US9686384B2 (en) * | 2014-12-09 | 2017-06-20 | Sukjun Song | Electronic device with rotating input unit and method for operating the same |
KR102358110B1 (ko) | 2015-03-05 | 2022-02-07 | 삼성디스플레이 주식회사 | 표시 장치 |
CN106155604B (zh) * | 2015-03-27 | 2020-02-21 | 联想(北京)有限公司 | 显示处理方法和电子设备 |
CN106155605B (zh) * | 2015-03-27 | 2020-03-24 | 联想(北京)有限公司 | 显示处理方法和电子设备 |
KR102343990B1 (ko) | 2015-06-15 | 2021-12-28 | 삼성전자주식회사 | 디스플레이의 서로 다른 영역을 독립적으로 제어하는 전자 장치 및 방법 |
US10003749B1 (en) * | 2015-07-01 | 2018-06-19 | Steven Mark Audette | Apparatus and method for cloaked outdoor electronic signage |
CN106713597A (zh) * | 2015-07-20 | 2017-05-24 | 联想移动通信软件(武汉)有限公司 | 一种终端的控制方法、装置及终端 |
US9936138B2 (en) | 2015-07-29 | 2018-04-03 | Samsung Electronics Co., Ltd. | User terminal apparatus and control method thereof |
US11284003B2 (en) | 2015-07-29 | 2022-03-22 | Samsung Electronics Co., Ltd. | User terminal apparatus and control method thereof |
US9904502B2 (en) * | 2015-08-05 | 2018-02-27 | Apple Inc. | Dual display equipment with enhanced visibility and suppressed reflections |
KR20170019808A (ko) * | 2015-08-12 | 2017-02-22 | 삼성전자주식회사 | 전자 장치에서 사용자 입력을 처리하는 방법 및 그 전자 장치 |
CN105353838A (zh) * | 2015-09-28 | 2016-02-24 | 淄博环能海臣环保技术服务有限公司 | 一种设有u面触控屏自设定握姿输入键盘笔记本电脑 |
CN105259990A (zh) * | 2015-11-26 | 2016-01-20 | 上海斐讯数据通信技术有限公司 | 一种手持终端的背面显示装置及显示方法 |
KR102366904B1 (ko) * | 2015-12-04 | 2022-02-23 | 안범주 | 인체공학적 드로잉 장치 |
US9977530B2 (en) * | 2015-12-11 | 2018-05-22 | Google Llc | Use of accelerometer input to change operating state of convertible computing device |
KR102505878B1 (ko) | 2016-01-29 | 2023-03-06 | 삼성디스플레이 주식회사 | 플렉서블 디스플레이 장치 |
KR102568386B1 (ko) * | 2016-09-30 | 2023-08-21 | 삼성디스플레이 주식회사 | 터치 센서를 포함하는 표시 장치 |
US10248224B2 (en) * | 2016-10-25 | 2019-04-02 | Microsoft Technology Licensing, Llc | Input based on interactions with a physical hinge |
USD809547S1 (en) * | 2016-10-31 | 2018-02-06 | Navitaire Llc | Display screen with animated graphical user interface |
US10346117B2 (en) | 2016-11-09 | 2019-07-09 | Microsoft Technology Licensing, Llc | Device having a screen region on a hinge coupled between other screen regions |
CN106775517B (zh) * | 2016-11-14 | 2020-06-19 | 沈阳中科创达软件有限公司 | 一种不同分辨率显示设备同步显示的系统及方法 |
US10788934B2 (en) | 2017-05-14 | 2020-09-29 | Microsoft Technology Licensing, Llc | Input adjustment |
US11079995B1 (en) | 2017-09-30 | 2021-08-03 | Apple Inc. | User interfaces for devices with multiple displays |
CN107678827A (zh) * | 2017-10-19 | 2018-02-09 | 广东欧珀移动通信有限公司 | 视频播放器的显示方法、装置、终端及存储介质 |
CN107656653A (zh) * | 2017-10-30 | 2018-02-02 | 京东方科技集团股份有限公司 | 显示控制装置及方法、显示装置 |
US10761569B2 (en) * | 2018-02-14 | 2020-09-01 | Microsoft Technology Licensing Llc | Layout for a touch input surface |
US11354030B2 (en) * | 2018-02-22 | 2022-06-07 | Kyocera Corporation | Electronic device, control method, and program |
USD891426S1 (en) * | 2018-05-11 | 2020-07-28 | Fuvi Cognitive Network Corp. | Mobile device for visual and cognitive communication assistance |
KR20200002686A (ko) * | 2018-06-29 | 2020-01-08 | 삼성전자주식회사 | 플렉서블 디스플레이를 관리하기 위한 방법 및 그 전자 장치 |
US11422765B2 (en) | 2018-07-10 | 2022-08-23 | Apple Inc. | Cross device interactions |
CN108765208A (zh) * | 2018-07-12 | 2018-11-06 | 惠州赛尔雷新能源科技有限公司 | 一种可弯折智能化电子菜单 |
US11921987B2 (en) | 2018-09-30 | 2024-03-05 | Huawei Technologies Co., Ltd. | System navigation bar display method, system navigation bar control method, graphical user interface, and electronic device |
CN109683761B (zh) | 2018-12-17 | 2021-07-23 | 北京小米移动软件有限公司 | 内容收藏方法、装置及存储介质 |
CN109828706B (zh) * | 2019-01-31 | 2021-02-09 | 维沃移动通信有限公司 | 一种信息显示方法及终端 |
US11510328B2 (en) | 2019-02-20 | 2022-11-22 | Samsung Electronics Co., Ltd. | Foldable device |
CN109960482A (zh) * | 2019-02-28 | 2019-07-02 | 努比亚技术有限公司 | 一种3d图像显示方法、终端及计算机可读存储介质 |
US11223801B2 (en) * | 2019-03-22 | 2022-01-11 | Robert Berkeley | High security two-way virtual cross-barrier observation and communication device |
US11632523B2 (en) * | 2019-03-22 | 2023-04-18 | Robert Berkeley | High security two-way virtual cross-barrier observation and communication device |
KR20200137075A (ko) * | 2019-05-28 | 2020-12-09 | 삼성디스플레이 주식회사 | 표시 장치 및 그의 구동 방법 |
KR20210010148A (ko) | 2019-07-19 | 2021-01-27 | 삼성전자주식회사 | 폴더블 전자 장치 및 상기 폴더블 전자 장치에서 복수의 카메라들을 이용한 사진 촬영 방법 |
KR20210013800A (ko) | 2019-07-29 | 2021-02-08 | 삼성전자주식회사 | 이벤트에 따라 형태가 전환되는 접이식 전자 장치 및 그 접이식 전자 장치의 형태를 전환하는 방법 |
CN112416190B (zh) * | 2019-08-23 | 2022-05-06 | 珠海金山办公软件有限公司 | 一种显示文档的方法及装置 |
CN110532054B (zh) * | 2019-08-30 | 2023-04-07 | 维沃移动通信有限公司 | 一种背景设置方法及移动终端 |
JP2022546877A (ja) * | 2019-09-03 | 2022-11-09 | ジェイ ユアー マイケル | ばね式展開型ディスプレイ付き携帯電子デバイス |
WO2021045264A1 (ko) * | 2019-09-05 | 2021-03-11 | 엘지전자 주식회사 | 이동 단말기 |
KR102675268B1 (ko) | 2019-09-24 | 2024-06-17 | 삼성전자주식회사 | 폴더블 전자 장치 및 이를 이용한 멀티 윈도우 운용 방법 |
US11127321B2 (en) * | 2019-10-01 | 2021-09-21 | Microsoft Technology Licensing, Llc | User interface transitions and optimizations for foldable computing devices |
KR20210075438A (ko) * | 2019-12-13 | 2021-06-23 | 삼성전자주식회사 | 폴더블 전자 장치 및 상기 폴더블 전자 장치에서 사용자 인터페이스를 표시하는 방법 |
JP7447494B2 (ja) * | 2020-01-08 | 2024-03-12 | 富士フイルムビジネスイノベーション株式会社 | 表示装置及び表示制御プログラム |
KR20210144461A (ko) | 2020-05-22 | 2021-11-30 | 삼성전자주식회사 | 기능 실행 화면을 제공하기 위한 전자 장치 및 그 동작 방법 |
US11494197B2 (en) * | 2020-06-01 | 2022-11-08 | Dell Products L.P. | Enabling a pre-boot screen to be accessed remotely |
KR20220015266A (ko) | 2020-07-30 | 2022-02-08 | 삼성전자주식회사 | 플렉서블한 디스플레이 모듈을 포함하는 전자 장치와 이의 동작 방법 |
KR20220017078A (ko) | 2020-08-04 | 2022-02-11 | 삼성전자주식회사 | 화면 회전을 제어하기 위한 폴더블 전자 장치 및 그의 동작 방법 |
KR20220043600A (ko) * | 2020-09-29 | 2022-04-05 | 삼성전자주식회사 | 유저 인터페이스를 표시하는 방법 및 이를 지원하는 전자 장치 |
CN114327314B (zh) * | 2020-09-29 | 2024-04-12 | 华为技术有限公司 | 显示控制方法、终端及存储介质 |
JP7521372B2 (ja) * | 2020-10-15 | 2024-07-24 | セイコーエプソン株式会社 | 表示方法、及び表示装置 |
EP4358502A1 (en) * | 2022-09-06 | 2024-04-24 | Samsung Electronics Co., Ltd. | Foldable electronic device and utilization method of foldable electronic device |
WO2024063381A1 (ko) * | 2022-09-19 | 2024-03-28 | 삼성전자 주식회사 | 컨트롤러를 표시하는 전자 장치 및 그 동작 방법 |
CN116910830B (zh) * | 2023-09-14 | 2023-12-01 | 深圳市东陆科技有限公司 | 基于旋钮的可旋转显示模组及其用户界面输入方法和系统 |
Family Cites Families (86)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2796768B2 (ja) | 1992-11-20 | 1998-09-10 | 株式会社ピーエフユー | マルチディスプレイ装置 |
US5522025A (en) | 1993-10-25 | 1996-05-28 | Taligent, Inc. | Object-oriented window area display system |
CA2139094C (en) | 1994-12-23 | 1999-04-13 | Abdel Naser Al-Karmi | Optical character recognition of handwritten or cursive text |
US6750848B1 (en) * | 1998-11-09 | 2004-06-15 | Timothy R. Pryor | More useful man machine interfaces and applications |
JP3462986B2 (ja) | 1998-08-31 | 2003-11-05 | 株式会社日立製作所 | カメラ付きペン型入力装置 |
US6545669B1 (en) | 1999-03-26 | 2003-04-08 | Husam Kinawi | Object-drag continuity between discontinuous touch-screens |
JP2001021972A (ja) | 1999-07-07 | 2001-01-26 | Minolta Co Ltd | ペンシル型のデジタルスチルカメラ |
JP2001209470A (ja) | 2000-01-26 | 2001-08-03 | Fujitsu Ltd | 表示インターフェイス方法及び装置並びにプログラム記憶媒体 |
US7120317B1 (en) | 2001-03-01 | 2006-10-10 | Silicon Motion, Inc. | Method and system for a programmable image transformation |
JP2002281135A (ja) | 2001-03-21 | 2002-09-27 | Nec Viewtechnology Ltd | 携帯電話 |
US7929185B2 (en) | 2002-03-25 | 2011-04-19 | Transpacific Systems, Llc | System and method for switching screens from overview and preview |
US6904737B2 (en) | 2002-08-01 | 2005-06-14 | General Mills, Inc. | Dispensing apparatus and method of dispensing |
KR20040035019A (ko) | 2002-10-18 | 2004-04-29 | 엘지전자 주식회사 | 휴대용 컴퓨터의 스피커 시스템 및 스피커 구동방법 |
KR20040091272A (ko) | 2003-04-21 | 2004-10-28 | 홍충식 | 더블 폴더 휴대폰 |
US9164540B2 (en) | 2010-10-01 | 2015-10-20 | Z124 | Method and apparatus for moving display during a device flip |
KR20040104777A (ko) | 2003-06-04 | 2004-12-13 | 주식회사 팬택앤큐리텔 | 듀얼 카메라 장착 단말기 |
KR20050068127A (ko) | 2003-12-29 | 2005-07-05 | 엘지전자 주식회사 | 입체사진 촬영이 가능한 휴대용 단말기 |
KR100959796B1 (ko) | 2004-01-31 | 2010-05-28 | 엘지전자 주식회사 | 부분 윈도우 화면 표시방법 |
JP3738358B2 (ja) | 2004-04-20 | 2006-01-25 | カシオ計算機株式会社 | ウィンドウ表示制御装置 |
JP4177434B2 (ja) | 2004-05-06 | 2008-11-05 | 隆敏 柳瀬 | ウィンドウ表示システム、情報処理システム、クライアント装置、電話機、情報機器、家電機器及び機器 |
KR101117835B1 (ko) | 2004-05-06 | 2012-03-22 | 다카토시 야나세 | 윈도우 표시시스템, 윈도우 표시방법, 프로그램 개발지원장치 및 서버장치 |
KR20050109190A (ko) | 2004-05-14 | 2005-11-17 | 주식회사 팬택 | 듀얼 카메라를 이용한 와이드 이미지 생성 장치 및 방법 |
JP2006030379A (ja) | 2004-07-13 | 2006-02-02 | Toshiba Corp | マルチディスプレイシステム及びコンピュータ |
US8381135B2 (en) | 2004-07-30 | 2013-02-19 | Apple Inc. | Proximity detector in handheld device |
US7561737B2 (en) | 2004-09-22 | 2009-07-14 | Microsoft Corporation | Mathematical expression recognition |
KR100606797B1 (ko) | 2004-11-12 | 2006-08-02 | 엘지전자 주식회사 | 듀얼 카메라를 갖는 이동통신 단말기 |
KR101094769B1 (ko) | 2004-12-21 | 2011-12-16 | 엘지전자 주식회사 | 듀얼 카메라를 구비한 이동통신 단말기의 파노라마 영상표시 방법 |
KR100960577B1 (ko) | 2005-02-08 | 2010-06-03 | 오블롱 인더스트리즈, 인크 | 제스처 기반의 제어 시스템을 위한 시스템 및 방법 |
KR20060092621A (ko) | 2005-02-18 | 2006-08-23 | 최기훈 | 듀얼액정이 구비되는 전자책 단말기 |
KR20070014586A (ko) | 2005-07-29 | 2007-02-01 | 삼성전자주식회사 | Pip 표시 제어방법 |
KR100653965B1 (ko) | 2005-08-01 | 2006-12-05 | 심재용 | 휴대용 단말기의 서로 다른 카메라를 이용한 3차원입체영상 처리 장치 |
KR100773853B1 (ko) | 2005-08-22 | 2007-11-06 | 캐논 가부시끼가이샤 | 오브젝트 조작 장치 및 오브젝트 조작방법 |
KR100742588B1 (ko) | 2005-11-14 | 2007-07-25 | 주식회사 디엔피시스템 | 듀얼 모니터의 모니터간 데이터 공유 방법 |
US8587526B2 (en) | 2006-04-12 | 2013-11-19 | N-Trig Ltd. | Gesture recognition feedback for a dual mode digitizer |
US8180114B2 (en) | 2006-07-13 | 2012-05-15 | Northrop Grumman Systems Corporation | Gesture recognition interface system with vertical display |
JP2008033686A (ja) | 2006-07-28 | 2008-02-14 | Fujitsu Frontech Ltd | 電子ブック |
US8516393B2 (en) | 2006-12-18 | 2013-08-20 | Robert Pedersen, II | Apparatus, system, and method for presenting images in a multiple display environment |
KR100803504B1 (ko) | 2007-01-16 | 2008-02-14 | (주)케이티에프테크놀로지스 | 듀얼 카메라를 구비한 휴대용 단말기 |
CN101286310A (zh) | 2007-04-13 | 2008-10-15 | 群康科技(深圳)有限公司 | 显示器屏幕显示控制系统及其操作方法 |
KR100936816B1 (ko) | 2007-05-26 | 2010-01-14 | 이문기 | 카메라와 마크 출력에의한 포인팅 장치 |
KR20080113832A (ko) | 2007-06-26 | 2008-12-31 | (주)이에스비 | 액정표시장치상의 특정 패턴을 촬영하는 카메라를 내장하여위치를 판독하는 전자펜과 이를 이용한 전자칠판 |
WO2009028585A1 (ja) | 2007-08-29 | 2009-03-05 | Kyocera Corporation | 電子機器および入力インターフェース切替方法 |
KR20090065040A (ko) | 2007-12-17 | 2009-06-22 | 삼성전자주식회사 | 동작과 터치를 이용한 이중 포인팅 장치 및 방법 |
KR100942783B1 (ko) | 2008-02-27 | 2010-02-18 | 웹싱크 주식회사 | 통합 프레임 버퍼를 사용하는 디지털 멀티비전 시스템 |
US8866840B2 (en) * | 2008-09-08 | 2014-10-21 | Qualcomm Incorporated | Sending a parameter based on screen size or screen resolution of a multi-panel electronic device to a server |
US8860765B2 (en) | 2008-09-08 | 2014-10-14 | Qualcomm Incorporated | Mobile device with an inclinometer |
US8803816B2 (en) | 2008-09-08 | 2014-08-12 | Qualcomm Incorporated | Multi-fold mobile device with configurable interface |
US9009984B2 (en) | 2008-09-08 | 2015-04-21 | Qualcomm Incorporated | Multi-panel electronic device |
US8836611B2 (en) | 2008-09-08 | 2014-09-16 | Qualcomm Incorporated | Multi-panel device with configurable interface |
US8860632B2 (en) | 2008-09-08 | 2014-10-14 | Qualcomm Incorporated | Multi-panel device with configurable interface |
US8933874B2 (en) | 2008-09-08 | 2015-01-13 | Patrik N. Lundqvist | Multi-panel electronic device |
US20100073306A1 (en) | 2008-09-25 | 2010-03-25 | Panasonic Automotive Systems Company Of America, Division Of Panasonic Corporation Of North America | Dual-view touchscreen display system and method of operation |
KR101569776B1 (ko) | 2009-01-09 | 2015-11-19 | 삼성전자주식회사 | 접히는 표시부를 가지는 휴대 단말기 및 이의 운용 방법 |
KR101544364B1 (ko) | 2009-01-23 | 2015-08-17 | 삼성전자주식회사 | 듀얼 터치 스크린을 구비한 휴대 단말기 및 그 컨텐츠 제어방법 |
JP4697558B2 (ja) * | 2009-03-09 | 2011-06-08 | ソニー株式会社 | 情報処理装置、情報処理方法及び情報処理プログラム |
KR101564108B1 (ko) | 2009-03-20 | 2015-10-28 | 엘지전자 주식회사 | 듀얼 디스플레이부를 구비한 이동 통신 단말기에서의 아이템 제어 방법 및 이를 적용한 이동 통신 단말기 |
US8446377B2 (en) | 2009-03-24 | 2013-05-21 | Microsoft Corporation | Dual screen portable touch sensitive computing system |
KR20100115547A (ko) | 2009-04-20 | 2010-10-28 | 에스케이 텔레콤주식회사 | 컨텐츠 주밍 방법과 그를 위한 터치 스크린 단말기 및 컴퓨터로 읽을 수 있는 기록매체 |
JP5256109B2 (ja) | 2009-04-23 | 2013-08-07 | 株式会社日立製作所 | 表示装置 |
KR101556329B1 (ko) | 2009-05-11 | 2015-10-01 | 에스케이텔레콤 주식회사 | 단말기에서의 모드별 다중 스피커 제어 방법 및 그 장치 |
KR101578005B1 (ko) | 2009-06-10 | 2015-12-16 | 엘지전자 주식회사 | 이동 단말기 및 이것에 구비된 카메라를 이용한 사용자 동작 입력 방법 |
US8847984B2 (en) * | 2009-07-27 | 2014-09-30 | Disney Enterprises, Inc. | System and method for forming a composite image in a portable computing device having a dual screen display |
JP5212310B2 (ja) | 2009-08-17 | 2013-06-19 | 株式会社リコー | ネットワークシステム、サーバ装置、及びグループウェアプログラム |
JP5518868B2 (ja) | 2009-09-03 | 2014-06-11 | クゥアルコム・インコーポレイテッド | インクリノメータをもつモバイルデバイス |
KR101505705B1 (ko) | 2009-09-03 | 2015-03-24 | 퀄컴 인코포레이티드 | 그래픽 사용자 인터페이스 엘리먼트의 위치 및 방향을 표시하는 방법 |
US8681124B2 (en) | 2009-09-22 | 2014-03-25 | Microsoft Corporation | Method and system for recognition of user gesture interaction with passive surface video displays |
US20110102314A1 (en) | 2009-10-30 | 2011-05-05 | Xerox Corporation | Dual-screen electronic reader with tilt detection for page navigation |
KR101710545B1 (ko) | 2009-11-05 | 2017-02-27 | 엘지전자 주식회사 | 이동 단말기 및 이를 이용한 정보 제공 방법 |
CN101930333B (zh) * | 2009-12-03 | 2012-10-17 | 明基电通有限公司 | 多屏幕显示控制方法 |
US8724301B2 (en) | 2010-01-29 | 2014-05-13 | Mohamed K. Mahmoud | Laptop book |
US20110191704A1 (en) | 2010-02-04 | 2011-08-04 | Microsoft Corporation | Contextual multiplexing gestures |
US9454304B2 (en) | 2010-02-25 | 2016-09-27 | Microsoft Technology Licensing, Llc | Multi-screen dual tap gesture |
JP2011221229A (ja) | 2010-04-08 | 2011-11-04 | Sharp Corp | 表示システム、表示方法、およびディスプレイ |
KR101196253B1 (ko) | 2010-04-20 | 2012-11-05 | 주식회사 유니온앤이씨 | 기업 정보 관리를 위한 가상 컨텐츠 공급 장치 및 방법 |
US20110296333A1 (en) * | 2010-05-25 | 2011-12-01 | Bateman Steven S | User interaction gestures with virtual keyboard |
US9009594B2 (en) | 2010-06-10 | 2015-04-14 | Microsoft Technology Licensing, Llc | Content gestures |
US8638303B2 (en) | 2010-06-22 | 2014-01-28 | Microsoft Corporation | Stylus settings |
KR101686866B1 (ko) | 2010-06-30 | 2016-12-15 | 엘지전자 주식회사 | 이동 단말기 |
KR101701839B1 (ko) | 2010-07-13 | 2017-02-02 | 엘지전자 주식회사 | 이동 단말기 및 그 제어 방법 |
KR101718027B1 (ko) | 2010-09-09 | 2017-03-20 | 엘지전자 주식회사 | 이동 단말기 및 그의 메모 관리방법 |
US8842080B2 (en) | 2010-10-01 | 2014-09-23 | Z124 | User interface with screen spanning icon morphing |
KR101798965B1 (ko) | 2010-10-14 | 2017-11-17 | 엘지전자 주식회사 | 전자 기기 및 전자 기기의 제어 방법 |
US9501217B2 (en) * | 2011-01-14 | 2016-11-22 | Apple Inc. | Target region for removing icons from dock |
KR101933452B1 (ko) * | 2011-02-10 | 2019-01-02 | 삼성전자주식회사 | 디바이스 패널들의 상대적 이동을 이용한 사용자 명령들을 입력하는 방법 및 장치 |
CN106293580B (zh) * | 2011-02-10 | 2020-06-09 | 三星电子株式会社 | 便携式设备及其控制方法 |
KR101229699B1 (ko) | 2011-05-12 | 2013-02-05 | 주식회사 케이티 | 애플리케이션 간의 콘텐츠 이동 방법 및 이를 실행하는 장치 |
-
2012
- 2012-10-10 KR KR1020120112687A patent/KR102083918B1/ko active IP Right Grant
-
2013
- 2013-10-09 CN CN201310467025.8A patent/CN103729157B/zh not_active Expired - Fee Related
- 2013-10-10 EP EP13188170.8A patent/EP2720132B1/en not_active Not-in-force
- 2013-10-10 US US14/050,803 patent/US9348504B2/en not_active Expired - Fee Related
- 2013-10-10 ES ES13188170T patent/ES2748044T3/es active Active
Also Published As
Publication number | Publication date |
---|---|
EP2720132A2 (en) | 2014-04-16 |
US9348504B2 (en) | 2016-05-24 |
EP2720132B1 (en) | 2019-08-07 |
CN103729157B (zh) | 2018-10-19 |
US20140101575A1 (en) | 2014-04-10 |
KR20140046346A (ko) | 2014-04-18 |
EP2720132A3 (en) | 2017-04-05 |
KR102083918B1 (ko) | 2020-03-04 |
CN103729157A (zh) | 2014-04-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
ES2748044T3 (es) | Aparato de pantalla y procedimiento de control del mismo | |
KR102063952B1 (ko) | 멀티 디스플레이 장치 및 멀티 디스플레이 방법 | |
US9335887B2 (en) | Multi display device and method of providing tool therefor | |
KR102157270B1 (ko) | 펜을 이용하는 사용자 단말 장치 및 그 제어 방법 | |
US20200073443A1 (en) | Flexible display apparatus and operating method thereof | |
KR101948665B1 (ko) | 플렉서블 장치 및 그 제어 방법 | |
US10635232B2 (en) | Mobile apparatus displaying end effect and control method thereof | |
US20130234951A1 (en) | Portable device and method for controlling the same | |
EP2720141A1 (en) | Display apparatus and method of controlling display thereof | |
TW201419042A (zh) | 多顯示設備及其控制方法 | |
BR102013030676A2 (pt) | Dispositivo eletrônico para fornecer efeitos de entrada que paira no ar e método para controlar os mesmos | |
US10319345B2 (en) | Portable terminal and method for partially obfuscating an object displayed thereon | |
KR102183445B1 (ko) | 투과 영역을 포함하는 커버를 가지는 휴대 단말기의 디스플레이 방법 및 장치 | |
KR102205410B1 (ko) | 플렉서블 디스플레이 장치 및 그 디스플레이 방법 | |
KR102266191B1 (ko) | 스크린을 제어하는 휴대 단말 및 방법 | |
KR20150049936A (ko) | 디스플레이 장치의 기능 수행 방법 및 디스플레이 장치 |