WO2024135877A1 - Electronic device and method for identifying visual object from among plurality of visual objects - Google Patents
Electronic device and method for identifying visual object from among plurality of visual objects Download PDFInfo
- Publication number
- WO2024135877A1 WO2024135877A1 PCT/KR2022/020894 KR2022020894W WO2024135877A1 WO 2024135877 A1 WO2024135877 A1 WO 2024135877A1 KR 2022020894 W KR2022020894 W KR 2022020894W WO 2024135877 A1 WO2024135877 A1 WO 2024135877A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- input
- time
- visual object
- processor
- electronic device
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04842—Selection of displayed objects or displayed text elements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/0416—Control or interface arrangements specially adapted for digitisers
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
Definitions
- the descriptions below relate to an electronic device and method for identifying a visual object among a plurality of visual objects.
- An electronic device can display a visual object through a software application.
- the electronic device may display at least one visual object through a software application.
- the electronic device can display a plurality of visual objects through a plurality of software applications.
- the electronic device may receive input from a user and identify a visual object based on the user's input.
- the user's input may include touch input.
- touch input may be input through a part of the user's body (eg, finger) or an external electronic device (eg, pen).
- the electronic device may include a display.
- the electronic device may include a processor.
- the processor may be configured to display on the display a first executable object for executing a first function through a first software application in response to a touch input.
- the processor displays, on the display, a second executable object for executing a second function via a second software application in response to a touch input, partially overlapping the first executable object. It can be configured to do so.
- the processor is configured to, in response to input including a point of contact on an area where the first executable object and the second executable object overlap, the input from the indicated first time of the second executable object. and may be configured to identify a length of time up to the identified second time.
- the processor may be configured to execute the first function in response to the length of time being less than or equal to the reference length.
- the processor may be configured to execute the second function in response to the time length being longer than the reference length.
- a method performed by an electronic device includes displaying, on a display of the electronic device, a first executable object for executing a first function through a first software application in response to a touch input. It can be included.
- the method includes displaying, on the display, a second executable object for executing a second function via a second software application in response to a touch input, partially overlapping the first executable object. It may include actions such as:
- the method in response to an input comprising a point of contact on an area where the first executable object and the second executable object overlap, the input from a displayed first time of the second executable object. It may include an operation of identifying the length of time up to the identified second time.
- the method may include executing the first function in response to the length of time being less than or equal to the reference length.
- the method may include executing the second function in response to the time length being longer than the reference length.
- FIG. 1 is a block diagram of an electronic device in a network environment according to various embodiments.
- Figures 2A to 2E show examples in which a plurality of visual objects are displayed in an overlapped state according to an embodiment of the present disclosure.
- FIG. 3 illustrates an example of functional components of an electronic device for identifying a visual object among a plurality of visual objects according to an embodiment of the present disclosure.
- FIG. 4A is a flowchart illustrating an example of a method for identifying a visual object corresponding to an input among a plurality of visual objects according to an embodiment of the present disclosure.
- FIG. 4B is a flowchart illustrating an example of a method for identifying a visual object corresponding to an input among a plurality of visual objects based on touch frequency according to an embodiment of the present disclosure.
- FIG. 4C is a flowchart illustrating an example of a method for identifying a visual object corresponding to an input among a plurality of visual objects based on a touch area according to an embodiment of the present disclosure.
- Figure 5 shows examples of positional relationships between a plurality of visual objects according to an embodiment of the present disclosure.
- FIG. 6A shows an example of identifying a reference length according to an embodiment of the present disclosure.
- FIG. 6B shows an example of the relationship between a reference length and an input according to an embodiment of the present disclosure.
- FIG. 7 illustrates examples of identifying a visual object corresponding to an input among a plurality of visual objects based on touch frequency according to an embodiment of the present disclosure.
- FIG. 8 illustrates an example of identifying a visual object corresponding to an input among a plurality of visual objects based on a touch area according to an embodiment of the present disclosure.
- FIG. 9 is a flowchart illustrating an example of a method for identifying a reference length based on a software application according to an embodiment of the present disclosure.
- FIG. 10 is a flowchart illustrating an example of a method for identifying a visual object corresponding to an input among a plurality of visual objects based on history information according to an embodiment of the present disclosure.
- FIG. 11 is a flowchart illustrating an example of a method for identifying a visual object corresponding to an input among a plurality of visual objects based on the priority of a software application according to an embodiment of the present disclosure.
- Terms referring to the configuration of the device used in the following description e.g. processor, camera, display, module, etc.
- terms for the operation state e.g. step, operation
- terms referring to signals e.g. signal, information, etc.
- terms referring to data e.g. parameters, values, etc.
- the expressions greater than or less than may be used to determine whether a specific condition is satisfied or fulfilled, but this is only a description for expressing an example, and the description of more or less may be used. It's not exclusion. Conditions written as ‘more than’ can be replaced with ‘more than’, conditions written as ‘less than’ can be replaced with ‘less than’, and conditions written as ‘more than and less than’ can be replaced with ‘greater than and less than’.
- 'A' to 'B' means at least one of the elements from A to (including A) and B (including B).
- FIG. 1 is a block diagram of an electronic device in a network environment according to various embodiments.
- FIG. 1 is a block diagram of an electronic device 101 in a network environment 100, according to various embodiments.
- the electronic device 101 communicates with the electronic device 102 through a first network 198 (e.g., a short-range wireless communication network) or a second network 199. It is possible to communicate with at least one of the electronic device 104 or the server 108 through (e.g., a long-distance wireless communication network). According to one embodiment, the electronic device 101 may communicate with the electronic device 104 through the server 108.
- a first network 198 e.g., a short-range wireless communication network
- a second network 199 e.g., a second network 199.
- the electronic device 101 may communicate with the electronic device 104 through the server 108.
- the electronic device 101 includes a processor 120, a memory 130, an input module 150, an audio output module 155, a display module 160, an audio module 170, and a sensor module ( 176), interface 177, connection terminal 178, haptic module 179, camera module 180, power management module 188, battery 189, communication module 190, subscriber identification module 196 , or may include an antenna module 197.
- at least one of these components eg, the connection terminal 178) may be omitted or one or more other components may be added to the electronic device 101.
- some of these components e.g., sensor module 176, camera module 180, or antenna module 197) are integrated into one component (e.g., display module 160). It can be.
- the processor 120 for example, executes software (e.g., program 140) to operate at least one other component (e.g., hardware or software component) of the electronic device 101 connected to the processor 120. It can be controlled and various data processing or operations can be performed. According to one embodiment, as at least part of data processing or computation, the processor 120 stores commands or data received from another component (e.g., sensor module 176 or communication module 190) in volatile memory 132. The commands or data stored in the volatile memory 132 can be processed, and the resulting data can be stored in the non-volatile memory 134.
- software e.g., program 140
- the processor 120 stores commands or data received from another component (e.g., sensor module 176 or communication module 190) in volatile memory 132.
- the commands or data stored in the volatile memory 132 can be processed, and the resulting data can be stored in the non-volatile memory 134.
- the processor 120 includes a main processor 121 (e.g., a central processing unit or an application processor) or an auxiliary processor 123 that can operate independently or together (e.g., a graphics processing unit, a neural network processing unit ( It may include a neural processing unit (NPU), an image signal processor, a sensor hub processor, or a communication processor).
- a main processor 121 e.g., a central processing unit or an application processor
- auxiliary processor 123 e.g., a graphics processing unit, a neural network processing unit ( It may include a neural processing unit (NPU), an image signal processor, a sensor hub processor, or a communication processor.
- the electronic device 101 includes a main processor 121 and a secondary processor 123
- the secondary processor 123 may be set to use lower power than the main processor 121 or be specialized for a designated function. You can.
- the auxiliary processor 123 may be implemented separately from the main processor 121 or as part of it.
- the auxiliary processor 123 may, for example, act on behalf of the main processor 121 while the main processor 121 is in an inactive (e.g., sleep) state, or while the main processor 121 is in an active (e.g., application execution) state. ), together with the main processor 121, at least one of the components of the electronic device 101 (e.g., the display module 160, the sensor module 176, or the communication module 190) At least some of the functions or states related to can be controlled.
- co-processor 123 e.g., image signal processor or communication processor
- may be implemented as part of another functionally related component e.g., camera module 180 or communication module 190. there is.
- the auxiliary processor 123 may include a hardware structure specialized for processing artificial intelligence models.
- Artificial intelligence models can be created through machine learning. For example, such learning may be performed in the electronic device 101 itself on which the artificial intelligence model is performed, or may be performed through a separate server (e.g., server 108).
- Learning algorithms may include, for example, supervised learning, unsupervised learning, semi-supervised learning, or reinforcement learning, but It is not limited.
- An artificial intelligence model may include multiple artificial neural network layers.
- Artificial neural networks include deep neural network (DNN), convolutional neural network (CNN), recurrent neural network (RNN), restricted boltzmann machine (RBM), belief deep network (DBN), bidirectional recurrent deep neural network (BRDNN), It may be one of deep Q-networks or a combination of two or more of the above, but is not limited to the examples described above.
- artificial intelligence models may additionally or alternatively include software structures.
- the memory 130 may store various data used by at least one component (eg, the processor 120 or the sensor module 176) of the electronic device 101. Data may include, for example, input data or output data for software (e.g., program 140) and instructions related thereto.
- Memory 130 may include volatile memory 132 or non-volatile memory 134.
- the program 140 may be stored as software in the memory 130 and may include, for example, an operating system 142, middleware 144, or application 146.
- the input module 150 may receive commands or data to be used in a component of the electronic device 101 (e.g., the processor 120) from outside the electronic device 101 (e.g., a user).
- the input module 150 may include, for example, a microphone, mouse, keyboard, keys (eg, buttons), or digital pen (eg, stylus pen).
- the sound output module 155 may output sound signals to the outside of the electronic device 101.
- the sound output module 155 may include, for example, a speaker or a receiver. Speakers can be used for general purposes such as multimedia playback or recording playback.
- the receiver can be used to receive incoming calls. According to one embodiment, the receiver may be implemented separately from the speaker or as part of it.
- the display module 160 can visually provide information to the outside of the electronic device 101 (eg, a user).
- the display module 160 may include, for example, a display, a hologram device, or a projector, and a control circuit for controlling the device.
- the display module 160 may include a touch sensor configured to detect a touch, or a pressure sensor configured to measure the intensity of force generated by the touch.
- the audio module 170 can convert sound into an electrical signal or, conversely, convert an electrical signal into sound. According to one embodiment, the audio module 170 acquires sound through the input module 150, the sound output module 155, or an external electronic device (e.g., directly or wirelessly connected to the electronic device 101). Sound may be output through the electronic device 102 (e.g., speaker or headphone).
- the electronic device 102 e.g., speaker or headphone
- the sensor module 176 detects the operating state (e.g., power or temperature) of the electronic device 101 or the external environmental state (e.g., user state) and generates an electrical signal or data value corresponding to the detected state. can do.
- the sensor module 176 includes, for example, a gesture sensor, a gyro sensor, an air pressure sensor, a magnetic sensor, an acceleration sensor, a grip sensor, a proximity sensor, a color sensor, an IR (infrared) sensor, a biometric sensor, It may include a temperature sensor, humidity sensor, or light sensor.
- the interface 177 may support one or more designated protocols that can be used to connect the electronic device 101 directly or wirelessly with an external electronic device (eg, the electronic device 102).
- the interface 177 may include, for example, a high definition multimedia interface (HDMI), a universal serial bus (USB) interface, an SD card interface, or an audio interface.
- HDMI high definition multimedia interface
- USB universal serial bus
- SD card interface Secure Digital Card interface
- audio interface audio interface
- connection terminal 178 may include a connector through which the electronic device 101 can be physically connected to an external electronic device (eg, the electronic device 102).
- the connection terminal 178 may include, for example, an HDMI connector, a USB connector, an SD card connector, or an audio connector (eg, a headphone connector).
- the haptic module 179 can convert electrical signals into mechanical stimulation (e.g., vibration or movement) or electrical stimulation that the user can perceive through tactile or kinesthetic senses.
- the haptic module 179 may include, for example, a motor, a piezoelectric element, or an electrical stimulation device.
- the camera module 180 can capture still images and moving images.
- the camera module 180 may include one or more lenses, image sensors, image signal processors, or flashes.
- the power management module 188 can manage power supplied to the electronic device 101.
- the power management module 188 may be implemented as at least a part of, for example, a power management integrated circuit (PMIC).
- PMIC power management integrated circuit
- the battery 189 may supply power to at least one component of the electronic device 101.
- the battery 189 may include, for example, a non-rechargeable primary battery, a rechargeable secondary battery, or a fuel cell.
- Communication module 190 is configured to provide a direct (e.g., wired) communication channel or wireless communication channel between electronic device 101 and an external electronic device (e.g., electronic device 102, electronic device 104, or server 108). It can support establishment and communication through established communication channels. Communication module 190 operates independently of processor 120 (e.g., an application processor) and may include one or more communication processors that support direct (e.g., wired) communication or wireless communication.
- processor 120 e.g., an application processor
- the communication module 190 is a wireless communication module 192 (e.g., a cellular communication module, a short-range wireless communication module, or a global navigation satellite system (GNSS) communication module) or a wired communication module 194 (e.g., : LAN (local area network) communication module, or power line communication module) may be included.
- a wireless communication module 192 e.g., a cellular communication module, a short-range wireless communication module, or a global navigation satellite system (GNSS) communication module
- GNSS global navigation satellite system
- wired communication module 194 e.g., : LAN (local area network) communication module, or power line communication module
- the corresponding communication module is a first network 198 (e.g., a short-range communication network such as Bluetooth, wireless fidelity (WiFi) direct, or infrared data association (IrDA)) or a second network 199 (e.g., legacy It may communicate with an external electronic device 104 through a telecommunication network such as a cellular network, a 5G network, a next-generation communication network, the Internet, or a computer network (e.g., LAN or WAN).
- a telecommunication network such as a cellular network, a 5G network, a next-generation communication network, the Internet, or a computer network (e.g., LAN or WAN).
- a telecommunication network such as a cellular network, a 5G network, a next-generation communication network, the Internet, or a computer network (e.g., LAN or WAN).
- a telecommunication network such as a cellular network, a 5G network, a next-generation communication network
- the wireless communication module 192 uses subscriber information (e.g., International Mobile Subscriber Identifier (IMSI)) stored in the subscriber identification module 196 to communicate within a communication network such as the first network 198 or the second network 199.
- subscriber information e.g., International Mobile Subscriber Identifier (IMSI)
- IMSI International Mobile Subscriber Identifier
- the wireless communication module 192 may support 5G networks after 4G networks and next-generation communication technologies, for example, NR access technology (new radio access technology).
- NR access technology provides high-speed transmission of high-capacity data (enhanced mobile broadband (eMBB)), minimization of terminal power and access to multiple terminals (massive machine type communications (mMTC)), or ultra-reliable and low-latency (URLLC). -latency communications)) can be supported.
- the wireless communication module 192 may support high frequency bands (eg, mmWave bands), for example, to achieve high data rates.
- the wireless communication module 192 uses various technologies to secure performance in high frequency bands, for example, beamforming, massive array multiple-input and multiple-output (MIMO), and full-dimensional multiplexing.
- MIMO massive array multiple-input and multiple-output
- the wireless communication module 192 may support various requirements specified in the electronic device 101, an external electronic device (e.g., electronic device 104), or a network system (e.g., second network 199). According to one embodiment, the wireless communication module 192 supports Peak data rate (e.g., 20 Gbps or more) for realizing eMBB, loss coverage (e.g., 164 dB or less) for realizing mmTC, or U-plane latency (e.g., 164 dB or less) for realizing URLLC.
- Peak data rate e.g., 20 Gbps or more
- loss coverage e.g., 164 dB or less
- U-plane latency e.g., 164 dB or less
- the antenna module 197 may transmit or receive signals or power to or from the outside (eg, an external electronic device).
- the antenna module 197 may include an antenna including a radiator made of a conductor or a conductive pattern formed on a substrate (eg, PCB).
- the antenna module 197 may include a plurality of antennas (eg, an array antenna). In this case, at least one antenna suitable for a communication method used in a communication network such as the first network 198 or the second network 199 is, for example, connected to the plurality of antennas by the communication module 190. can be selected. Signals or power may be transmitted or received between the communication module 190 and an external electronic device through the at least one selected antenna.
- other components eg, radio frequency integrated circuit (RFIC) may be additionally formed as part of the antenna module 197.
- RFIC radio frequency integrated circuit
- the antenna module 197 may form a mmWave antenna module.
- a mmWave antenna module includes a printed circuit board, an RFIC disposed on or adjacent to a first side (e.g., bottom side) of the printed circuit board and capable of supporting a designated high frequency band (e.g., mmWave band); And a plurality of antennas (e.g., array antennas) disposed on or adjacent to the second side (e.g., top or side) of the printed circuit board and capable of transmitting or receiving signals in the designated high frequency band. can do.
- a mmWave antenna module includes a printed circuit board, an RFIC disposed on or adjacent to a first side (e.g., bottom side) of the printed circuit board and capable of supporting a designated high frequency band (e.g., mmWave band); And a plurality of antennas (e.g., array antennas) disposed on or adjacent to the second side (e.g., top or side) of the
- peripheral devices e.g., bus, general purpose input and output (GPIO), serial peripheral interface (SPI), or mobile industry processor interface (MIPI)
- signal e.g. commands or data
- commands or data may be transmitted or received between the electronic device 101 and the external electronic device 104 through the server 108 connected to the second network 199.
- Each of the external electronic devices 102 or 104 may be of the same or different type as the electronic device 101.
- all or part of the operations performed in the electronic device 101 may be executed in one or more of the external electronic devices 102, 104, or 108.
- the electronic device 101 may perform the function or service instead of executing the function or service on its own.
- one or more external electronic devices may be requested to perform at least part of the function or service.
- One or more external electronic devices that have received the request may execute at least part of the requested function or service, or an additional function or service related to the request, and transmit the result of the execution to the electronic device 101.
- the electronic device 101 may process the result as is or additionally and provide it as at least part of a response to the request.
- cloud computing distributed computing, mobile edge computing (MEC), or client-server computing technology can be used.
- the electronic device 101 may provide an ultra-low latency service using, for example, distributed computing or mobile edge computing.
- the external electronic device 104 may include an Internet of Things (IoT) device.
- Server 108 may be an intelligent server using machine learning and/or neural networks.
- the external electronic device 104 or server 108 may be included in the second network 199.
- the electronic device 101 may be applied to intelligent services (e.g., smart home, smart city, smart car, or healthcare) based on 5G communication technology and IoT-related technology.
- the electronic device 101 may display a visual object through a software application.
- the electronic device 101 may include a device including a display capable of identifying a user's touch input, a PC, an AR/VR device, or a metaverse device.
- the electronic device 101 may display at least one visual object through one software application. Additionally, the electronic device 101 may display a plurality of visual objects through a plurality of software applications. According to one embodiment, the electronic device 101 may receive input from a user of the electronic device 101 and identify a visual object based on the user's input.
- the user's input may include touch input.
- touch input may be input through a part of the user's body (eg, finger) or an external electronic device (eg, pen).
- touch input may be input through a part of the user's body (eg, finger) or an external electronic device (eg, pen).
- Figures 2A to 2E show examples in which a plurality of visual objects are displayed in an overlapped state according to an embodiment of the present disclosure.
- the electronic device 101 of FIGS. 2A to 2E may include some or all of the components of the electronic device 101 of FIG. 1 .
- the electronic device 101 may display visual objects including the visual object 201 using a first software application.
- the electronic device 101 may display visual objects through a display (eg, the display module 160 of FIG. 1) using a first software application that provides a game service.
- the visual object 201 may execute a first function through a first software application in response to a user's input (eg, touch input).
- the first function may include a function of checking status information about the user's game character. While the visual object 201 is displayed through the first software application, the visual object 202 may be displayed through the second software application.
- the visual object 202 for message notification may be displayed with at least some overlap with the visual object 201 through a second software application for sending and receiving messages.
- the visual object 202 may be displayed in a pop-up manner.
- the visual object 202 may execute a second function through a second software application in response to the user's input.
- the second function may include switching to the screen 205 for confirming message transmission and reception.
- the electronic device 101 displays the visual object 202 displayed to overlap the visual object 201 within the area 203. It can be identified by the response, and the second function can be executed. Accordingly, the electronic device 101 may execute functions unintended by the user and provide an uncomfortable user experience to the user.
- the electronic device 101 may display visual objects including the visual object 201 using a first software application.
- the electronic device 101 may display visual objects through a display (e.g., the display module 160 in FIG. 1) using a first software application that provides a news reading service. You can.
- the visual object 221 may execute a first function through a first software application in response to a user's input (eg, touch input).
- the first function may include a function of moving to a page where specific content about news corresponding to the visual object 221 can be confirmed. While the visual object 221 is displayed through the first software application, the visual object 222 may be displayed through the second software application.
- the visual object 222 for message notification may be displayed at least partially overlapping with the visual object 221 through a second software application for sending and receiving messages.
- visual object 222 may toast or pop-up.
- the toast pop-up is a type of pop-up and may represent a pop-up style that bounces from the lower part of the display of the electronic device 101.
- the visual object 222 may execute a second function through a second software application in response to the user's input.
- the second function may include switching to a screen for confirming message transmission and reception. Referring to the above, while the user of the electronic device 101 is scrolling the display to check more news provided through the first software application, the visual object 222 is displayed through the second software application.
- the electronic device 101 may be displayed, and the user may perform input on the visual object 221. If the user inputs the visual object 221 through the area 223, the electronic device 101 displays the visual object 222 displayed to overlap the visual object 221 within the area 223. It can be identified by the response, and the second function can be executed. Accordingly, the electronic device 101 may execute functions unintended by the user and provide an uncomfortable user experience to the user.
- the electronic device 101 may display visual objects including the visual object 241 using a first software application.
- the electronic device 101 may display visual objects through a display (e.g., the display module 160 of FIG. 1) using a first software application that provides an online shopping service.
- the visual object 241 may execute a first function through a first software application in response to a user's input (eg, touch input).
- the first function may include a function of moving to a page where specific contents about sales information corresponding to the visual object 241 can be confirmed. While the visual object 241 is displayed through the first software application, the visual object 242 may be displayed through the second software application.
- a visual object 242 that displays a widget for screen settings may be displayed at least partially overlapping with the visual object 241 through a second software application.
- visual object 242 may pop up and float.
- the floating pop-up is a type of pop-up and may represent a method of popping up in a floating style relative to another object.
- the visual object 242 may execute a second function through a second software application in response to the user's input.
- the second function may include displaying a visual object 245 for quick setting of screen settings. Referring to the above, when the user of the electronic device 101 wants to select the visual object 241 corresponding to one of the sales products provided through the first software application, the visual object 242 is selected through the second software application. ) may be displayed.
- the electronic device 101 When the user performs an input to the visual object 241 through area 243, the electronic device 101 responds to the visual object 242 displayed to overlap the visual object 241 within area 243.
- the visual object 245 may be identified and a second function may be performed to display the visual object 245 . Accordingly, the electronic device 101 may execute functions unintended by the user and provide an uncomfortable user experience to the user.
- the electronic device 101 may display visual objects including the visual object 261 using a first software application.
- the electronic device 101 may display visual objects through a display (eg, the display module 160 of FIG. 1) using a first software application that provides a game service.
- the visual object 261 may execute a first function through a first software application in response to a user's input (eg, touch input).
- the first function may include a function for displaying the process of acquiring a user's game character. While the visual object 261 is displayed through the first software application, the visual object 262 may be displayed through the second software application.
- the visual object 262 for message notification may be displayed at least partially overlapping with the visual object 261 through a second software application for sending and receiving messages.
- the visual object 262 may be displayed in a pop-up manner.
- the visual object 262 may execute a second function through a second software application in response to the user's input.
- the second function may include switching to a screen for confirming message transmission and reception (eg, screen 265 in FIG. 2A).
- the electronic device 101 overlaps the visual object 261 within the area 263.
- the electronic device 101 may execute functions unintended by the user and provide an uncomfortable user experience to the user.
- the electronic device 101 may display visual objects including the visual object 281 using a first software application.
- the electronic device 101 may display visual objects through a display (eg, the display module 160 of FIG. 1) using a first software application that displays a virtual space.
- the electronic device 101 may include a wearable device.
- the wearable device may include a device that operates while worn on a part of the user's body, and may include, for example, a virtual reality (VR) device, an augmented reality (AR) device, or a mixed reality (MR) device. You can.
- the visual object 281 may execute a first function through a first software application in response to a user's input (eg, touch input).
- the first function may include a function for displaying information about the virtual space. While the visual object 281 is displayed through the first software application, the visual object 282 may be displayed through the second software application.
- the visual object 282 for message notification may be displayed at least partially overlapping with the visual object 281 through a second software application for sending and receiving messages.
- the visual object 282 may be displayed in a pop-up manner.
- the visual object 282 may execute a second function through a second software application in response to the user's input.
- the second function may include switching to a screen for confirming message transmission and reception (e.g., screen 285 in FIG. 2A).
- the electronic device 101 may execute functions unintended by the user and provide an uncomfortable user experience to the user.
- the electronic device 101 may use another software application (e.g., the second software application) even when using one software application (e.g., the first software application) to increase convenience.
- notification information can be provided to the user.
- the notification information provided to increase convenience may reduce user immersion and cause an unsatisfactory user experience.
- an apparatus and method for identifying a visual object corresponding to an input among a plurality of visual objects will provide a visual object according to the user's intention, based on a reference length. can be identified. Additionally, the apparatus and method according to embodiments of the present disclosure can display a visual object corresponding to the user's intention even if an unexpected screen is suddenly displayed. Accordingly, the device and method according to embodiments of the present disclosure can provide a more comfortable and immersive user experience and increase input accuracy.
- FIG. 3 illustrates an example of functional components of an electronic device for identifying a visual object among a plurality of visual objects according to an embodiment of the present disclosure.
- an electronic device 101 including functional components 300, 310, 320, and 330 for identifying a visual object corresponding to an input among a plurality of visual objects.
- the electronic device 101 of FIG. 3 may include some or all of the components of the electronic device 101 of FIG. 1 .
- the electronic device 101 includes an input identification module 300, an input data collection module 310, and an input data processing module 320 for identifying a visual object corresponding to an input among a plurality of visual objects. , and may include an application application module 330.
- the input identification module 300, the input data collection module 310, the input data processing module 320, and the application application module 330 are connected to at least one processor of the electronic device 101 (e.g., the processor 120 of FIG. 1). )) can be controlled by.
- the input identification module 300 can identify the input to the electronic device 101.
- the input identification module 300 may include a touch screen panel (TSP) driver or a mouse tracking module. Based on the TSP driver or mouse tracking, the input identification module 300 can identify a touch input through the display of the user's electronic device 101 (eg, the display module 160 of FIG. 1).
- TSP driver or mouse tracking is merely an example for convenience of explanation, and embodiments of the present disclosure are not limited thereto.
- Embodiments of the present disclosure may include an input identification module 300 for identifying inputs including a user's touch input. Additionally, the touch input is merely an example of an input for the convenience of the following description, and embodiments of the present disclosure are not limited thereto.
- the input identification module 300 may identify input obtained based on the user's eye movement or gesture.
- the input data collection module 310 may collect information about the input identified through the input identification module 300.
- the input data collection module 310 may include an event hub and an input reader.
- the input data collection module 310 may receive, process, and store information about the identified input based on the event hub and input reader.
- the event hub and input reader are merely examples for convenience of explanation, and embodiments of the present disclosure are not limited thereto.
- Embodiments of the present disclosure may include an input data collection module 310 for receiving and storing inputs.
- the input data processing module 320 is configured to identify a visual object corresponding to the user's input, based on information about the input received, processed, and stored through the input data collection module 310. Processing can be performed. For example, the input data processing module 320 may identify the visual object corresponding to the input among a plurality of visual objects based on a reference length identified based on information about the input. there is. The reference length may represent a time during which a user of the electronic device 101 can read a visual object displayed through the display of the electronic device 101.
- the input data processing module 320 compares the difference between the reference length and the time when the specific visual object is displayed and the time when the user's input for the specific visual object is identified, thereby The corresponding visual object can be identified. Specific details related to this are described in FIG. 4A below.
- the input data processing module 320 may identify the frequency of input (hereinafter, touch frequency) and the area of input (hereinafter, touch area).
- the input data processing module 320 may identify a visual object corresponding to the user's input based on the touch frequency and/or touch area. Specific details related to this are described in FIGS. 4B and 4C below.
- the application application module 330 may apply a software application based on a visual object identified through the input data processing module 320.
- the application application module 330 may execute a function of the software application based on identifying a response to the identified visual object.
- the functionality may vary based on the identified visual object and/or the software application.
- FIG. 4A is a flowchart illustrating an example of a method for identifying a visual object corresponding to an input among a plurality of visual objects according to an embodiment of the present disclosure.
- the method of FIG. 4A may be performed by the electronic device 101 of FIG. 1 .
- the method of FIG. 4A may be performed by a processor (eg, processor 120 of FIG. 1).
- the plurality of visual objects may be displayed on the display of the electronic device 101 through a plurality of software applications.
- one software application among the plurality of software applications may display at least one visual object.
- the processor 120 may display a first visual object through a first software application.
- the processor 120 may display the first visual object for executing a first function through a first software application in response to a touch input to a display of the electronic device 101 (e.g., FIG. It can be displayed through the display module 160 of 1.
- the first visual object is an object for executing the first function and may be referred to as a first executable object.
- the processor 120 may display a plurality of visual objects through the first software application, and the plurality of visual objects may include the first visual object.
- the plurality of visual objects may include at least one executable object.
- the background image may represent a set comprised of at least some of the plurality of visual objects displayed through the first software application.
- the background image may display a virtual space.
- the background image may include an image for the virtual space.
- processor 120 may display a second visual object via a second software application.
- the processor 120 may display the second visual object for executing a second function through a second software application in response to a touch input, on the display of the electronic device 101 (e.g., FIG. It can be displayed through the display module 160 of 1.
- the processor 120 may display the second visual object on the display such that at least a portion of the first visual object overlaps.
- the second visual object may partially overlap with the first visual object.
- the second visual object may completely overlap with the first visual object.
- the second visual object is an object for executing the second function and may be referred to as a second executable object.
- the processor 120 may display a plurality of visual objects through the second software application, and the plurality of visual objects may include the second visual object.
- the plurality of visual objects may include at least one executable object.
- the second visual object may pop-up.
- the second visual object may pop up as a toast.
- the toast pop-up is a type of pop-up and may represent a pop-up style that bounces from the lower part of the display of the electronic device 101.
- the second visual object may be floating and pop-up.
- the floating pop-up is a type of pop-up and may represent a method of popping up in a floating style relative to another object.
- the second visual object may pop up and be displayed for a certain period of time and then be eliminated from the display.
- the second visual object may pop up based on a specific event, and after the predetermined time has elapsed, if the input to the second visual object is not identified, it may disappear.
- the second visual object may be removed from the display of the electronic device 101 when the second function is not executed in response to a touch input. Specific details related to this are described in operation 410 below.
- processor 120 may display one visual object for each of three software applications.
- processor 120 may display one visual object for one software application and a plurality of visual objects for another software application.
- the processor 120 may identify whether the second function is executed through a second software application in response to an input for a second visual object. For example, the processor 120 may identify an input (eg, a touch input) on the area where the second visual object is located. The processor 120 may identify whether the second function is executed through the second software application in response to the input. In other words, the processor 120 may identify whether the second visual object is an executable object.
- the processor 120 when the second function is executed in response to an input for the second visual object, the processor 120 may perform operation 420. Alternatively, when the second function is not executed, the processor 120 may perform operation 415.
- the processor 120 may identify information about a visual object that can be displayed through a software application (eg, a first software application, a second software application). For example, information about the visual object may include whether or not it is an executable object.
- the processor 120 may identify in advance whether a visual object that can be displayed through each software application is executable. If the processor 120 identifies whether the visual object is executable based on the software application, operation 410 may be omitted.
- processor 120 may remove the second visual object. For example, when the processor 120 identifies that a function is not executed in response to a touch input for the second visual object, the processor 120 may remove the second visual object. According to one embodiment, after operation 415, when processor 120 identifies an input with respect to a region where the first visual object and the second visual object overlap, the first visual object associated with the first visual object The function can be executed. Since the second visual object has been removed, the processor 120 may identify the input to the overlapping area as the input to the first visual object, and the first visual object related to the first visual object. The function can be executed.
- the processor 120 may identify a reference length for the second visual object. For example, the processor 120 may set a readable time indicating the time until the user of the electronic device 101 recognizes the second visual object and identifies the content of the second visual object. can be identified.
- the readable time may be referred to as the reference length.
- the processor 120 may determine the length of content included in the second visual object, the location of an area in which the second visual object is displayed on the display of the electronic device 101, and the second visual object.
- the reference length may be identified based on at least one of information about the transparency of a visual object or the attention of the user of the electronic device 101 to the display. For example, when the text included in the second visual object is long, the processor 120 sets the reference length indicating a relatively longer length value compared to when the text is short. can be identified.
- the reference length indicating a relatively longer length value can be identified.
- the processor 120 may identify the reference length indicating a relatively longer length value when the transparency of the second visual object is higher than when the transparency is lower.
- the processor 120 may identify the reference length indicating a relatively longer length value when the user is not looking at the display compared to when the user is looking at the display.
- the processor 120 may identify the user's eye movements based on the sensor of the electronic device 101 and determine whether the user is paying attention to the display.
- processor 120 may identify an input that includes a point of contact on an overlapping area. For example, the processor 120 may identify an input that includes a contact point on an area where a first area where the first visual object is displayed and a second area where the second visual object is displayed overlap. For example, the first area and the second area may partially overlap or completely overlap.
- the contact point on the overlapped area may represent at least one contact point that can be identified as an input for the area where the first area and the second area overlap.
- processor 120 may identify the length of time from the time the second visual object is displayed to the identification of the input. For example, processor 120 may identify the length of time that represents the difference from a first time a second visual object is displayed to a second time the input containing a point of contact on the overlapped region is identified. there is.
- processor 120 may identify whether the time length has a value greater than the reference length. For example, processor 120 may determine that the length of time representing the difference between a first time at which the second visual object is displayed and a second time at which an input to the overlapping region is identified is for the second visual object. It can be identified whether it has a value greater than the reference length indicating the readable time.
- the fact that the time length has a value greater than the reference length may indicate that the time length is longer than the reference length.
- the processor 120 when the processor 120 identifies the time length as having a value greater than the reference length, there is sufficient time to identify the second visual object, and the user's overlapping Input to the area may be identified as the intended input to the second visual object.
- the processor 120 identifies the time length as a value that is less than or equal to the reference length, there was not enough time to identify the second visual object, so the processor 120 is located in the overlapping area of the user.
- the input to the second visual object may be identified as an unintended input to the second visual object.
- the processor 120 may identify the input to the overlapping area as the input to the first visual object.
- the processor 120 may perform operation 440 when it identifies that the reference length is longer than the time length.
- the processor 120 may perform operation 445.
- a second function may be executed through a second software application.
- the processor 120 may identify a user's input to the overlapping area as an input to the second visual object, and execute the second function according to the input to the second visual object. You can.
- a first function may be executed through a first software application.
- the processor 120 may identify a user's input to the overlapping area as an input to the first visual object, and execute the first function according to the input to the first visual object. You can.
- the processor 120 records the frequency of the user's input (or touch frequency), the area of the user's input (or the touch area), the history of the use of the software application, Alternatively, a visual object corresponding to an input among a plurality of visual objects may be identified based on at least one of priorities among software applications.
- an apparatus and method for identifying a visual object corresponding to an input among a plurality of visual objects identifies a visual object according to the user's intention based on the reference length. can do. Additionally, the apparatus and method according to embodiments of the present disclosure can display a visual object corresponding to the user's intention even if an unexpected screen is suddenly displayed. Accordingly, the device and method according to embodiments of the present disclosure can provide a more comfortable and immersive user experience and increase input accuracy.
- FIG. 4B is a flowchart illustrating an example of a method for identifying a visual object corresponding to an input among a plurality of visual objects based on touch frequency according to an embodiment of the present disclosure.
- the method of FIG. 4B may be performed by the electronic device 101 of FIG. 1 .
- the method of FIG. 4B may be performed by a processor (eg, processor 120 of FIG. 1).
- the plurality of visual objects may be displayed on the display of the electronic device 101 through a plurality of software applications.
- one software application among the plurality of software applications may display at least one visual object.
- the method of FIG. 4B may include operations performed after operation 435 but before operation 440.
- operation 450 may be performed after operation 435.
- processor 120 may identify a first touch frequency. For example, the processor 120 may select the time at which the second visual object is displayed (e.g., the time at which the second visual object is displayed) among the plurality of inputs including an input including a point of contact on the overlapping region of operation 425. The frequency of inputs on the overlapped area before (the first time) can be identified.
- processor 120 may identify the second touch frequency. For example, the processor 120 may configure the overlap between the time after the second visual object is displayed among the plurality of inputs and before the time elapsed by the reference length indicating the readable time (e.g., the reference time). The frequency of inputs on the selected area can be identified.
- the processor 120 may execute a function based on the first touch frequency and the second touch frequency. For example, when the value representing the first touch frequency represents high and the value representing the second touch frequency represents high like the first touch frequency, An input that includes a point of contact on the overlapped area of action 425 may be identified as an input to the first visual object. Additionally, when the value representing the first touch frequency represents medium and the value representing the second touch frequency represents medium like the first touch frequency, the processor 120 performs operation 425. ) may be identified as an input to the first visual object. Accordingly, the processor 120 can execute the first function through the first software application.
- the processor 120 performs operation 425 when the value representing the first touch frequency represents high and the value representing the second touch frequency represents medium or low. ) may be identified as an input to the second visual object. Alternatively, if the value representing the first touch frequency represents medium and the value representing the second touch frequency represents low, the processor 120 may perform operation 425 on the overlapped region. An input including a contact point on the image may be identified as an input for the second visual object. Alternatively, when the value representing the first touch frequency represents low and the value representing the second touch frequency represents low, the processor 120 performs operation 425 on the overlapped region. An input including a contact point on the image may be identified as an input for the second visual object. Accordingly, the processor 120 can execute the second function through the second software application. Details of specific examples related to this are described in FIG. 7 below.
- the processor 120 determines the visual object intended by the user's input based on a change in the frequency of the user's input to the electronic device 101 in the time domain before and after the second visual object is displayed. Objects can be identified. According to one embodiment, even if the reference length is identified as being longer than the time length in operation 435, the processor 120 does not immediately execute the second function, but performs the first function or The second function can be performed.
- FIG. 4C is a flowchart illustrating an example of a method for identifying a visual object corresponding to an input among a plurality of visual objects based on a touch area according to an embodiment of the present disclosure.
- the method of FIG. 4C may be performed by the electronic device 101 of FIG. 1.
- the method of FIG. 4C may be performed by a processor (eg, processor 120 of FIG. 1).
- the plurality of visual objects may be displayed on the display of the electronic device 101 through a plurality of software applications.
- one software application among the plurality of software applications may display at least one visual object.
- the method of FIG. 4C may include operations performed after operation 435 but before operation 440.
- operation 470 may be performed after operation 435.
- the processor 120 may identify a touch area. For example, processor 120 may identify a touch area of the input that includes a point of contact on the overlapping area of action 425 . For example, the processor 120 may identify the touch area of the input including the touch point on the overlapped area through a sensor of the display (e.g., display module 160) of the electronic device 101. .
- a sensor of the display e.g., display module 160
- the processor 120 may identify whether the second area within the touch area is wider than the first area.
- the second area may represent an area included in the overlapped area among the touch areas.
- the first area may represent an area of the touch area that is not the overlapped area.
- the first area may include an area on the display where the first visual object is displayed through the first software application.
- the processor 120 may perform operation 480.
- the processor 120 may perform operation 485.
- the processor 120 when the processor 120 identifies the second area as being wider than the first area, the processor 120 identifies the user's input to the overlapped area as the intended input to the second visual object. can do. In contrast, when the processor 120 identifies the second area as being narrower or equal to the first area, the processor 120 identifies the user's input to the overlapped area as an unintended input to the second visual object. can do. In other words, the processor 120 may identify the input to the overlapping area as the input to the first visual object.
- the processor 120 may execute a second function through a second software application. For example, the processor 120 may identify a user's input to the overlapping area as an input to the second visual object, and execute the second function according to the input to the second visual object. You can.
- a first function may be executed through a first software application.
- the processor 120 may identify a user's input to the overlapping area as an input to the first visual object, and execute the first function according to the input to the first visual object. You can.
- the processor 120 may identify the visual object intended by the user's input based on the area of the user's input to the electronic device 101. According to one embodiment, even if the reference length is identified as being longer than the time length in operation 435, the processor 120 does not immediately execute the second function, but performs the first function or The second function can be performed.
- the processor 120 is described as if it selectively performs FIG. 4B or FIG. 4C after FIG. 4A, but this is only for convenience of explanation, and embodiments of the present disclosure are limited thereto. That is not the case.
- the processor 120 may identify the visual object intended by the user's input based on both the touch frequency and the touch area.
- Figure 5 shows examples of positional relationships between a plurality of visual objects according to an embodiment of the present disclosure.
- the electronic device 101 of FIG. 5 may include some or all of the components of the electronic device 101 of FIG. 1 .
- the plurality of visual objects may be displayed on the display of the electronic device 101 through a plurality of software applications.
- one software application among the plurality of software applications may display at least one visual object.
- the positional relationship may represent a relationship with respect to positions where the plurality of visual objects are displayed on the display.
- examples 501, 502, 503, 504, and 505 of displaying the first visual object related to the first software application and the second visual object related to the second software application are shown.
- the first visual object 510 is shown as being displayed through the entire area of the display of the electronic device 101, but the embodiment of the present disclosure It is not limited to this.
- the first visual object 510 may be displayed through a partial display area of the electronic device 101.
- the electronic device 101 may display a first visual object 510 and a second visual object 520.
- the electronic device 101 may display the first visual object 510 through a first software application, and the first visual object 510 may be displayed on the entire area of the display.
- the electronic device 101 may display a second visual object 520 through a second software application, and the second visual object 520 may be displayed on a partial area of the display.
- the first visual object 510 is displayed in the entire display area
- the second visual object 520 may be displayed completely overlapping with the first visual object 510.
- the embodiment of the present disclosure is not limited to this, and the second visual object 520 may be displayed partially overlapping with the first visual object 510.
- the first visual object 510 may be displayed through a virtual first layer when displayed on the display, and the second visual object 520 may be displayed on the virtual first layer. It can be displayed through the second layer located at (on). For example, the second visual object 520 may be displayed by floating with respect to the first visual object 510.
- the second visual object 520 may be displayed in a bar-type shape.
- the second visual object 520 may be displayed in the shape of a horizontally long bar type to provide brief notification.
- the second visual object 520 may be displayed in the upper portion of the display of the electronic device 101.
- the second visual object 520 may be removed (or disappear) from the display after being displayed for a certain period of time. Alternatively, referring to what is described in FIG. 4A, if the second visual object 520 is not an executable object, it may be removed (or disappear) from the display.
- the electronic device 101 may display a first visual object 510 and a second visual object 520.
- the electronic device 101 may display the first visual object 510 through a first software application, and the first visual object 510 may be displayed on the entire area of the display.
- the electronic device 101 may display a second visual object 520 through a second software application, and the second visual object 520 may be displayed on a partial area of the display.
- the first visual object 510 is displayed in the entire display area
- the second visual object 520 may be displayed completely overlapping with the first visual object 510.
- the embodiment of the present disclosure is not limited to this, and the second visual object 520 may be displayed partially overlapping with the first visual object 510.
- the first visual object 510 may be displayed through a virtual first layer when displayed on the display, and the second visual object 520 may be displayed on the virtual first layer. It can be displayed through the second layer located at (on). For example, the second visual object 520 may be displayed by floating with respect to the first visual object 510.
- the second visual object 520 may be displayed in a toast view shape.
- the second visual object 520 may be displayed through a toast pop-up style that bounces from the lower portion of the display of the electronic device 101.
- the second visual object 520 may be removed (or disappear) from the display after being displayed for a certain period of time.
- the second visual object 520 may be removed (or disappear) from the display.
- the electronic device 101 may display a first visual object 510 and a second visual object 520.
- the electronic device 101 may display the first visual object 510 through a first software application, and the first visual object 510 may be displayed on the entire area of the display.
- the electronic device 101 may display a second visual object 520 through a second software application, and the second visual object 520 may be displayed on a partial area of the display.
- the first visual object 510 is displayed in the entire display area
- the second visual object 520 may be displayed completely overlapping with the first visual object 510.
- the embodiment of the present disclosure is not limited to this, and the second visual object 520 may be displayed partially overlapping with the first visual object 510.
- the first visual object 510 may be displayed through a virtual first layer when displayed on the display, and the second visual object 520 may be displayed on the virtual first layer. It can be displayed through the second layer located at (on). For example, the second visual object 520 may be displayed by floating with respect to the first visual object 510.
- the second visual object 520 may be displayed in a bubble view shape.
- the second visual object 520 may be displayed in a circular shape in any area (eg, right side) of the display of the electronic device 101.
- the second visual object 520 may be removed (or disappear) from the display after being displayed for a certain period of time.
- the second visual object 520 may be removed (or disappear) from the display.
- the electronic device 101 may display a first visual object 510 and a plurality of second visual objects 520-1 and 520-2.
- the electronic device 101 may display a first visual object 510 through a first software application, and the first visual object 510 may be displayed on a partial area of the display.
- the electronic device 101 may display second visual objects 520-1 and 520-2 through a second software application, and the second visual objects 520-1 and 520-2 are part of the display. It can be displayed on the area.
- each of the plurality of second visual objects 520-1 and 520-2 may be displayed partially overlapping with the first visual object 510.
- each of the plurality of second visual objects 520-1 and 520-2 may be displayed through a virtual first layer.
- the first visual object 510 may be displayed through a second layer located on the first layer.
- the first visual object 510 may be displayed by floating with respect to the second visual objects 520-1 and 520-2.
- the first visual object 510 may be displayed with transparency equal to a certain value.
- the first visual object 510 may be displayed in a semi-transparent state, and accordingly, the second visual objects 520-1 and 520-2 located below the first visual object 510.
- Each area e.g., a portion overlapping with the first visual object 510) may be exposed and displayed.
- the electronic device 101 may display a first visual object 510 and a second visual object 520.
- the electronic device 101 may display a first visual object 510 through a first software application, and the first visual object 510 may be displayed on a partial area of the display.
- the electronic device 101 may display a second visual object 520 through a second software application, and the second visual object 520 may be displayed on a partial area of the display.
- the second visual object 520 may be displayed partially overlapping with the first visual object 510.
- the second visual object 520 may be displayed through the virtual first layer.
- the first visual object 510 may be displayed through a second layer located on the first layer.
- the first visual object 510 may be displayed by floating with respect to the second visual object 520.
- the first visual object 510 may be displayed with transparency equal to a certain value.
- the first visual object 510 may be displayed in a semi-transparent state, and accordingly, the area of the second visual object 520 located below the first visual object 510 (e.g., 1 (a portion overlapping with the visual object 510) may be exposed and displayed.
- examples 501, 502, 503, 504, and 505 illustrate examples of displaying visual objects through two layers, but embodiments of the present disclosure are not limited thereto.
- embodiments of the present disclosure may include displaying visual objects through three or more layers.
- FIG. 6A shows an example of identifying a reference length according to an embodiment of the present disclosure.
- FIG. 6B shows an example of the relationship between a reference length and an input according to an embodiment of the present disclosure.
- the electronic device 101 of FIG. 6A may be understood as substantially the same as the electronic device 101 of FIG. 1 .
- the electronic device 101 of FIG. 6A may include some or all of the components of the electronic device 101 of FIG. 1.
- the relationship between the reference length and the input in FIG. 6B may represent the relationship between the reference length identified by the electronic device 101 in FIG. 6A and the input to the electronic device 101.
- a second visual object 621 is displayed in an area (e.g., right side) of the center portion of the display (e.g., display module 160 of FIG. 1) of the electronic device 101.
- An example 601 and an example 602 in which a second visual object 621 is displayed on the lower portion of the display of the electronic device 101 are shown.
- first visual object 610 may be displayed over the entire area of the display.
- a first visual object 610 may be related to the first software application, and a plurality of second visual objects 621 and 622 may be related to the second software application.
- the electronic device 101 may display a first visual object 610 through the first software application and display a plurality of second visual objects 610 through the second software application.
- Visual objects 621 and 622 may be displayed.
- the second visual object 621 may be a visual object for executing a second function
- the second visual object 622 may be a visual object for displaying a preview of the content of the second visual object 621. It can be.
- the second visual object 622 may include content “I got it.”
- the second visual objects 621 and 622 may be displayed in a middle area with respect to the top and bottom of the display of the electronic device 101.
- second visual objects 621 and 622 may be displayed in the lower area of the display of the electronic device 101.
- a user may input a touch input 630 on a first visual object 610 of a first software application.
- the second visual objects 621 and 622 do not overlap the user's body part (e.g., hand), so the user can easily identify the second visual objects 621 and 622.
- the second visual objects 621 and 622 overlap with the user's body part (e.g., hand), so the user can easily identify the second visual objects 621 and 622. You may not.
- the reference length indicating the readable time for the second visual objects 621 and 622 by the user is longer in case of example 601 than in case of example 602. It can be short. This is because the positions of the second visual objects 621 and 622 in the example 601 can be more easily identified by the user than the positions of the second visual objects 621 and 622 in the example 601.
- the reference length may be identified based on the length of the content (eg, I got it) of the second visual object 622.
- the reference length may be identified based on the transparency of the second visual objects 621 and 622.
- the reference length may be identified based on the user's degree of attention to the second visual objects 621 and 622. For example, if the user is performing input 630 as in example 601 and example 602, the electronic device 101 (or processor) allows the user to use the second visual objects 621 and 622. It can be identified that the user's level of attention is high, and the reference length can be set to be shorter (or a lower value) than when the user is not looking at the electronic device 101.
- an example 650 is shown from when the second visual objects 621 and 622 of FIG. 6A begin to appear until they begin to disappear.
- the first visual object 610 is displayed, and the inputs 660 and 670 of FIG. 6B are the first visual object 610 and the second visual object. It is assumed that fields 621 and 622 are inputs to overlapping areas.
- the first time (T1) 652 may represent the time when the second visual objects 621 and 622 started to be displayed through the display of the electronic device 101.
- the reference time (T ref ) 654 may represent the time elapsed from the first time 652 to the reference length for the second visual objects 621 and 622 .
- the second time T2 may represent the time at which the input 660 or the input 670 is identified.
- the third time (T3) 656 may represent the time at which the second visual objects 621 and 622 disappear. The difference between the third time 656 and the first time 652 may represent the time at which the second visual objects 621 and 622 are displayed through the display.
- input 660 may be identified as an unintended input.
- Processor 120 may identify input 660 as an input for first visual object 610 .
- input 660 may be performed after the first time 652 but before the reference time 654.
- the length of time from the first time 652 until the input 660 is identified (e.g., the second time T2) is shorter than the reference length representing the difference between the reference time 654 and the first time 652.
- the input 660 may be identified as an unintended input, and the input 660 may be identified as an input for the first visual object 610 rather than the second visual objects 621 and 622.
- input 670 may be identified as the intended input.
- the processor 120 may identify the input 670 as an input for the second visual objects 621 and 622.
- input 670 may be performed before a third time 656 after reference time 654.
- the length of time from the first time 652 until the input 670 is identified (e.g., the second time T2) is longer than the reference length representing the difference between the reference time 654 and the first time 652.
- the input 670 may be identified as the intended input, and the input 670 may be identified as the input for the second visual objects 621 and 622.
- the processor 120 executes a function (e.g., the second function in FIG. 4A) that can be executed in response to the input for the second visual objects 621 and 622.
- the data 680 may be preloaded from after the reference time 654.
- the processor 120 at a reference time 654 that has elapsed by a reference length since the first time 652 in which the second visual objects 621 and 622 were displayed, displays the user after the first time 652. If the input of is not identified, the data 680 may be preloaded at the reference time 654.
- data 680 may be preloaded in the background of the electronic device 101.
- FIG. 7 illustrates examples of identifying a visual object corresponding to an input among a plurality of visual objects based on touch frequency according to an embodiment of the present disclosure.
- Examples 701, 702, 703, and 704 of FIG. 7 illustrate examples of identifying a visual object corresponding to an input among a plurality of visual objects based on touch frequency.
- identifying the visual object may be performed by the electronic device 101 of FIG. 1.
- identifying the visual object of examples 701, 702, 703, and 704 may be performed by processor 120.
- the plurality of visual objects may be displayed on the display of the electronic device 101 through a plurality of software applications.
- one software application among the plurality of software applications may display at least one visual object.
- first time 710 may represent the time at which the second visual object began to be displayed.
- the reference time 720 may represent a reference length of time elapsed from the first time 710 .
- Examples 701, 702, 703, and 704 assume that a first visual object is displayed before the second visual object is displayed, and the second visual object is displayed overlapping with the first visual object.
- the input representing the touch frequency of examples 701, 702, 703, and 704 may represent an input including a contact point on an area where the first visual object and the second visual object overlap.
- touch frequency may indicate touch action on the display.
- touch frequency may indicate the number of touch actions per second.
- the touch frequency may be set differently for each software application. For example, if the software application is a game, the value indicating high touch frequency is 10 (i.e., 10 times per second), and the value indicating medium is 5 (i.e., 5 times per second). , the value representing low may be 1 (once per second). For example, if the software application is a web browser, the value indicating high touch frequency is 5 (i.e., 5 times per second), and the value indicating medium is 2 (i.e. 2 times per second), and the value indicating low may be 1 (1 time per second).
- the above examples are merely examples of absolute values representing high, medium, and low touch frequencies, and embodiments of the present disclosure are not limited thereto. Values representing high, medium, and low touch frequencies may be configured as relative values.
- the processor 120 determines a first touch frequency for input before a first time 710 and a second touch after a first time 710 but before a reference time 720 .
- the frequency and the third touch frequency for input after the reference time 720 can be identified.
- the processor 120 may identify that an input including a contact point on the overlapped area is input between the first time 710 and the reference time 720. For example, the processor 120 may indicate that the value representing the first touch frequency is high (or medium), and the value representing the second touch frequency is as high as the first touch frequency. If it is identified that it represents (high) (or medium), the input including the contact point on the overlapped area can be identified as the input for the first visual object. Additionally, the processor 120 may identify that an input including a contact point on the overlapped area is input before a third time (not shown) after the reference time 720. The third time may represent the time at which the second visual object that started to be displayed at the first time 710 disappears.
- the processor 120 indicates that the value representing the second touch frequency is high (or medium), and the value representing the third touch frequency is as high as the second touch frequency. If it is identified that it represents (high) (or medium), the input including the contact point on the overlapped area can be identified as the input for the first visual object. Accordingly, the processor 120 can execute the first function through the first software application.
- processor 120 may identify that an input including a contact point on the overlapped area is input between a first time 710 and a reference time 720. For example, the processor 120 identifies that the value representing the first touch frequency represents low and the value representing the second touch frequency represents low like the first touch frequency. In one case, an input including a contact point on the overlapped area may be identified as an input for the second visual object. Additionally, the processor 120 may identify that an input including a contact point on the overlapped area is input before a third time (not shown) after the reference time 720. The third time may represent the time at which the second visual object that started to be displayed at the first time 710 disappears.
- the processor 120 identifies that the value representing the second touch frequency represents low and the value representing the third touch frequency represents low like the second touch frequency.
- an input including a contact point on the overlapped area may be identified as an input for the second visual object. Accordingly, the processor 120 can execute the second function through the second software application.
- processor 120 may identify that an input including a contact point on the overlapped area is input between a first time 710 and a reference time 720. For example, when the processor 120 identifies that the value representing the first touch frequency represents high and the value representing the second touch frequency represents medium or low. , an input including a contact point on the overlapped area may be identified as an input to the second visual object. Additionally, the processor 120 may identify that an input including a contact point on the overlapped area is input before a third time (not shown) after the reference time 720. The third time may represent the time at which the second visual object that started to be displayed at the first time 710 disappears.
- the processor 120 may determine that the value representing the second touch frequency represents medium or low, and the value representing the third touch frequency represents medium like the second touch frequency. ) or low, the input including the contact point on the overlapped area can be identified as the input for the second visual object. Accordingly, the processor 120 can execute the second function through the second software application.
- the processor 120 may identify that an input including a contact point on the overlapped area is input between the first time 710 and the reference time 720. For example, when the processor 120 identifies that the value representing the first touch frequency represents medium and the value representing the second touch frequency represents low, the overlapped area An input including a contact point on the image may be identified as an input for the second visual object. Additionally, the processor 120 may identify that an input including a contact point on the overlapped area is input before a third time (not shown) after the reference time 720. The third time may represent the time at which the second visual object that started to be displayed at the first time 710 disappears.
- the processor 120 identifies that the value representing the second touch frequency represents low and the value representing the third touch frequency represents low like the second touch frequency.
- an input including a contact point on the overlapped area may be identified as an input for the second visual object. Accordingly, the processor 120 can execute the second function through the second software application.
- processor 120 may identify that an input including a contact point on the overlapped area is input between a first time 710 and a reference time 720. For example, the processor 120 identifies that the value representing the first touch frequency represents high and the value representing the second touch frequency represents high like the first touch frequency. In one case, an input including a contact point on the overlapped area may be identified as an input for the second visual object. Additionally, the processor 120 may identify that an input including a contact point on the overlapped area is input before a third time (not shown) after the reference time 720. The third time may represent the time at which the second visual object that started to be displayed at the first time 710 disappears.
- the processor 120 when the processor 120 identifies that the value representing the second touch frequency represents high and the value representing the third touch frequency represents low, the overlapped area An input including a contact point on the image may be identified as an input for the second visual object. Accordingly, the processor 120 can execute the second function through the second software application.
- the processor 120 may identify that an input including a contact point on the overlapped area is input between the first time 710 and the reference time 720. For example, the processor 120 identifies that the value representing the first touch frequency represents medium and the value representing the second touch frequency represents medium like the first touch frequency. In one case, an input including a contact point on the overlapped area may be identified as an input for the second visual object. Additionally, the processor 120 may identify that an input including a contact point on the overlapped area is input before a third time (not shown) after the reference time 720. The third time may represent the time at which the second visual object that started to be displayed at the first time 710 disappears.
- the processor 120 when the processor 120 identifies that the value representing the second touch frequency represents medium and the value representing the third touch frequency represents low, the overlapped area An input including a contact point on the image may be identified as an input for the second visual object. Accordingly, the processor 120 can execute the second function through the second software application.
- processor 120 in response to identifying an input that includes a point of contact on an overlapping area, based on the touch frequency between the time the input was identified and the previous time and a value representing the touch frequency.
- a visual object corresponding to the input can be identified.
- the device and method according to an embodiment of the present disclosure can identify the user's intention based on the touch frequency.
- FIG. 8 illustrates an example of identifying a visual object corresponding to an input among a plurality of visual objects based on a touch area according to an embodiment of the present disclosure.
- Example 800 of FIG. 8 shows an example of identifying a visual object corresponding to an input among a plurality of visual objects based on a touch area.
- identifying the visual object may be performed by electronic device 101 of FIG. 1 .
- identifying the visual object of example 800 may be performed by processor 120.
- the plurality of visual objects may be displayed on the display of the electronic device 101 through a plurality of software applications.
- one software application among the plurality of software applications may display at least one visual object.
- processor 120 can display first visual object 810 and second visual object 820.
- the first visual object 810 is shown as being displayed in the entire display area of the electronic device 101, but embodiments of the present disclosure are not limited thereto.
- the first visual object 810 may be displayed in a partial area of the display.
- an input for a visual object may be input to the area 830 spanning the first visual object 810 and the second visual object 820.
- Area 830 may be referred to as a touch area.
- the input may represent an input including a contact point on an area where the first visual object 810 and the second visual object 820 overlap.
- the input area 830 may include a first area 831 and a second area 832.
- the second area 832 may represent an area where the first visual object 810 and the second visual object 820 overlap.
- the first area 831 is an area excluding the second area 832 from the area 830 and may include only the area of the first visual object 810.
- the processor 120 may compare the first area 831 and the second area 832. For example, the processor 120 may identify whether the second area 832 is wider than the first area 831 within the area 830. If the processor 120 identifies the second area 832 as being wider than the first area 831, the processor 120 may identify the input as the intended input for the second visual object 820. For example, the processor 120 may execute a second function through a second software application. Alternatively, if the processor 120 identifies the second area 832 as being narrower than or equal to the first area 831, the processor 120 may identify the input as an unintended input to the second visual object 820. there is. In other words, the processor 120 may identify the input as an input for the first visual object 810. For example, the processor 120 may execute a first function through a first software application.
- FIG. 9 is a flowchart illustrating an example of a method for identifying a reference length based on a software application according to an embodiment of the present disclosure.
- the method of FIG. 9 may be performed by the electronic device 101 of FIG. 1 .
- the method of FIG. 9 may be performed by a processor (eg, processor 120 of FIG. 1).
- the reference length may represent a readable time until the user of the electronic device 101 recognizes the second visual object and identifies the content of the second visual object.
- the processor 120 may identify whether the first software application is a software application for displaying a virtual space.
- the virtual space may include an augmented reality (AR) space, a virtual reality (VR) space, or a mixed reality (MR) space.
- the processor 120 may identify whether the first software application is a software application for displaying a virtual space, based on information on the first software application.
- the information may include an intent filter, which is coding information related to the first software application.
- the intent filter may be referred to as an instruction.
- operation 910 when the processor 120 identifies that the first software application is a software application for displaying a virtual space, operation 910 may be performed. Alternatively, when the processor 120 identifies that the first software application is not a software application for displaying a virtual space, operation 905 may be performed.
- the processor 120 may identify the reference length based on at least one of information about the second visual object or information about the user's attention.
- the information about the second visual object may include the length of content included in the second visual object, the location of the area where the second visual object is displayed on the display of the electronic device 101, or the It may include at least one of the transparency of the second visual object.
- the information about the user's attention may include information indicating whether the user is looking at the electronic device 101 or whether the user is using the electronic device 101. For example, when the text included in the second visual object is long, the processor 120 sets the reference length indicating a relatively longer length value compared to when the text is short. can be identified.
- the reference length indicating a relatively longer length value can be identified.
- the processor 120 may identify the reference length indicating a relatively longer length value when the transparency of the second visual object is higher than when the transparency is lower.
- the processor 120 may identify the reference length indicating a relatively longer length value when the user is not looking at the display compared to when the user is looking at the display.
- the processor 120 may identify the user's eye movements based on the sensor of the electronic device 101 and determine whether the user is paying attention to the display.
- the processor 120 collects information about the second visual object, information about the user's attention, or information about the background image of the first visual object.
- a reference length may be identified based on at least one of the following.
- the background image of the first visual object may include at least a portion of the plurality of visual objects displayed through the first software application.
- the processor 120 may identify the reference length based on the complexity of the background image. For example, when the complexity of the background image is high, it is difficult for the processor 120 to identify the second visual object, so compared to when the complexity of the background image is lower, the processor 120 indicates a relatively longer length value.
- the standard length can be identified.
- FIG. 10 is a flowchart illustrating an example of a method for identifying a visual object corresponding to an input among a plurality of visual objects based on history information according to an embodiment of the present disclosure.
- the method of FIG. 10 may be performed by the electronic device 101 of FIG. 1 .
- the method of FIG. 10 may be performed by a processor (eg, processor 120 of FIG. 1).
- the plurality of visual objects may be displayed on the display of the electronic device 101 through a plurality of software applications.
- one software application among the plurality of software applications may display at least one visual object.
- the record information may include information indicating a history of the user of the electronic device 101 using the plurality of software applications.
- the plurality of software applications may include a first software application and a second software application.
- the processor 120 may identify input before the second visual object is displayed. For example, the processor 120 displays information on the display of the user's electronic device 101 (e.g., the display module 160 of FIG. 1) until the time at which the second visual object is displayed (e.g., the first time). touch input can be identified. Information about input before the second visual object is displayed may be referred to as the record information.
- the record information may include information on the frequency and touch area of a user's touch on a visual object related to a specific software application.
- the processor 120 may identify a software application used immediately before the time at which the second visual object is displayed (e.g., the first time). For example, the processor 120 may identify a software application used immediately before the time the second visual object is displayed, based on the record information. For example, the processor 120 may determine, based on the user's touch frequency and touch area on a visual object (e.g., the first visual object) related to the first software application, that the software application used immediately before the time is the first software application. It can be identified as an application. Alternatively, the processor 120 may identify that the software application used immediately before the time is the second software application based on the user's touch frequency and touch area on the visual object related to the second software application.
- a software application used immediately before the time is the second software application based on the user's touch frequency and touch area on the visual object related to the second software application.
- processor 120 may execute a function based on the identified software application. For example, the processor 120 may execute a function through the identified software application in response to an input including a contact point on an area where the first visual object and the second visual object overlap. For example, when the identified software application is the first software application, the processor 120 performs the first function in response to an input including a contact point on an area where the first visual object and the second visual object overlap. You can run . For example, when the identified software application is the second software application, the processor 120 performs a second function in response to an input including a contact point on an area where the first visual object and the second visual object overlap. You can run .
- processor 120 can apply a higher priority to the software application with which the user last interacted and can identify recently used software applications. . Accordingly, the processor 120 can identify an input to an area where a plurality of visual objects related to software applications overlap as an input for a recently used software application, and perform a function through the identified software application. It can be run.
- FIG. 11 is a flowchart illustrating an example of a method for identifying a visual object corresponding to an input among a plurality of visual objects based on the priority of a software application according to an embodiment of the present disclosure.
- the method of FIG. 11 may be performed by the electronic device 101 of FIG. 1 .
- the method of FIG. 11 may be performed by a processor (eg, processor 120 of FIG. 1).
- the plurality of visual objects may be displayed on the display of the electronic device 101 through a plurality of software applications.
- one software application among the plurality of software applications may display at least one visual object.
- the plurality of software applications may include a first software application and a second software application.
- the processor 120 may identify priorities for a plurality of software applications. For example, the processor 120 may identify a designated priority corresponding to each of a plurality of software applications. Alternatively, the processor 120 may classify a plurality of software applications according to a category and identify a designated priority corresponding to the category. The designated priority may be identified by the user of the electronic device 101 or may be identified based on the frequency of use of the software application. The category may represent criteria for classifying software applications according to their type. For example, the category may include games, notification services, settings, etc. Alternatively, the processor 120 may identify priorities based on settings between a plurality of software applications.
- priorities for software applications may be identified based on a software application that establishes a relationship between a plurality of software applications.
- the software application that sets the relationship may be set to “appear on top” for one software application among the plurality of software applications.
- the processor 120 may identify priorities between the plurality of software applications based on the relationship identified through the software application that sets the relationship. According to one embodiment, the processor 120 may identify a first priority for the first software application. Additionally, the processor 120 may identify a second priority for the second software application.
- processor 120 may identify whether the second priority is higher than the first priority. In operation 1105, the processor 120 may perform operation 1110 when the second priority is higher than the first priority. Alternatively, the processor 120 may perform operation 1115 when the second priority is lower than or equal to the first priority.
- the processor 120 may identify that an input including a contact point on an area where the user's first visual object and the second visual object overlap is the second visual object.
- the processor 120 may execute a second function through a second software application in response to an input for the second visual object.
- the processor 120 may identify that an input including a contact point on an area where the user's first visual object and the second visual object overlap is the first visual object.
- the processor 120 may execute a first function through a first software application in response to an input for the first visual object.
- an apparatus and method for identifying a visual object corresponding to an input among a plurality of visual objects identifies a visual object according to the user's intention based on the reference length. can do. Additionally, the apparatus and method according to embodiments of the present disclosure can display a visual object corresponding to the user's intention even if an unexpected screen is suddenly displayed. Accordingly, the device and method according to embodiments of the present disclosure can provide a more comfortable and immersive user experience and increase input accuracy.
- the electronic device 101 may include a display 160.
- the electronic device 101 may include a processor 120.
- the processor 120 displays a first executable object for executing a first function through a first software application in response to a touch input, on the display 160. It can be configured to do so.
- the processor 120 displays a second executable object for executing a second function through a second software application in response to a touch input, partially overlapping the first executable object.
- On 160 it may be configured to display.
- the processor 120 in response to an input including a point of contact on an area where the first executable object and the second executable object overlap, displays a first time of the second executable object. and be configured to identify a length of time from to an identified second time of the input.
- the processor 120 may be configured to execute the first function in response to the time length being less than or equal to the reference length.
- the processor 120 may be configured to execute the second function in response to the time length being longer than the reference length.
- the processor 120 collects data of the second software application for performing the second function in the background from a reference time that has passed by the reference length from the first time. Can be configured to preload.
- the processor 120 may be configured to identify a first touch frequency for touch input before the first time.
- the processor 120 may be configured to identify a second touch frequency for touch input from after the first time until before the reference time that has passed by the reference length.
- the processor 120 Based on the first value representing the first touch frequency and the first value representing the second touch frequency, be configured to execute the first function in response to the input after the first time but before the reference time. You can.
- the processor 120 based on the first value representing the first touch frequency and a second value lower than the first value representing the second touch frequency, Can be configured to execute the second function in response to input.
- the processor 120 determines the first time based on the third value indicating the second touch frequency and a third value lower than the first value and the second value indicating the first touch frequency. It may then be configured to execute the second function in response to the input before the reference time.
- the processor 120 may be configured to identify a touch area for the input.
- the processor 120 may be configured to execute the first function when the area of the contact point on the area is smaller than the area of the remaining area excluding the area from the touch area.
- the processor 120 may be configured to identify the reference length indicating the time at which the second executable object is readable by a user of the electronic device 101. there is.
- the reference length is the length of the content included in the second executable object, the location of the area where the second executable object is displayed on the display 160, and the transparency of the second executable object. ), or information about the user's attention to the display 160.
- the reference length is set to the display 160 as a background image of the first executable object.
- the reference length can be identified based on the complexity of the image of the virtual space displayed through ).
- the processor 120 may be configured to display a visual object on the display 160 through a third software application.
- the processor 120 may be configured to identify whether a third function can be executed through the third software application in response to the input on the area where the visual object is displayed.
- the processor 120 may be configured to remove the visual object from the display 160 if the third function cannot be executed.
- the processor 120 may be configured to identify a reference length indicating the time at which the visual object is readable by a user of the electronic device 101 when the third function can be executed. there is.
- the first executable object may be displayed through a first layer on the display 160.
- the second executable object may be displayed by floating through a second layer on the display 160.
- the second layer may be positioned on the first layer.
- the processor 120 may be configured to identify a software application that received a touch input before the first time.
- the processor 120 may be configured to execute the first function in response to the input when the identified software application is the first software application.
- the processor 120 may be configured to execute the second function in response to the input when the identified software application is the second software application.
- the processor 120 may be configured to identify a first priority preset for the first software application.
- the processor 120 may be configured to identify a second priority preset for the second software application.
- the processor 120 may be configured to execute the first function when the first priority is higher than or equal to the second priority.
- the processor 120 may be configured to execute the second function when the first priority is lower than the second priority.
- a method performed by an electronic device 101 comprising a first executable device for executing a first function through a first software application in response to a touch input. It may include an operation of displaying an (executable) object on the display 160 of the electronic device 101.
- the method includes creating a second executable object for executing a second function via a second software application in response to a touch input, partially overlapping the first executable object, on the display 160. In the above, it may include a display operation.
- the method in response to an input comprising a point of contact on an area where the first executable object and the second executable object overlap, the input from a displayed first time of the second executable object. It may include an operation of identifying the length of time up to the identified second time.
- the method may include executing the first function in response to the length of time being less than or equal to the reference length.
- the method may include executing the second function in response to the time length being longer than the reference length.
- the method preloads data of the second software application for performing the second function in the background from a reference time that has passed by the reference length from the first time. (preload) operation may be included.
- the method may include identifying a first touch frequency for a touch input on the area before the first time.
- the method may include an operation of identifying a second touch frequency on the touch area from after the first time to before a reference time that has passed by the reference length.
- the method may perform the first function in response to the input after the first time but before the reference time, based on the first value representing the first touch frequency and the first value representing the second touch frequency. It can include actions to execute.
- the method responds to the input after the first time but before the reference time based on the first value representing the first touch frequency and a second value lower than the first value representing the second touch frequency. This may include an operation of executing the second function.
- the method includes, based on the first value representing the first touch frequency and the third value being lower than the second value, and the third value representing the second touch frequency, after the first time, the reference It may include executing the second function in response to the input before the time.
- the method may include identifying a touch area for the input.
- the method may include executing the first function when the area of the contact point on the area is smaller than the area of the remaining area excluding the area from the touch area.
- the method may include an operation of identifying the reference length indicating a time at which the second executable object is readable by a user of the electronic device 101.
- the reference length is the length of the content included in the second executable object, the location of the area where the second executable object is displayed on the display 160, and the transparency of the second executable object. ), or information about the user's attention to the display 160.
- the reference length is set to the display 160 as a background image of the first executable object.
- the reference length can be identified based on the complexity of the image of the virtual space displayed through ).
- the method may include displaying a visual object on the display 160 through a third software application.
- the method may include identifying whether a third function can be executed through the third software application in response to the input on the area where the visual object is displayed.
- the method may include removing the visual object from the display 160 when the third function cannot be executed.
- the method may include an operation of identifying a reference length indicating a time at which the visual object is readable by a user of the electronic device 101 when the third function can be executed.
- the first executable object may be displayed through a first layer on the display 160.
- the second executable object may be displayed by floating through a second layer on the display 160.
- the second layer may be positioned on the first layer.
- the method may include an operation of identifying a software application that received a touch input before the first time.
- the method may include executing the first function in response to the input when the identified software application is the first software application.
- the method may include executing the second function in response to the input when the identified software application is the second software application.
- the method may include identifying a first priority preset for the first software application.
- the method may include identifying a second priority preset for the second software application.
- the method may include executing the first function when the first priority is higher than or equal to the second priority.
- the method may include executing the second function when the first priority is lower than the second priority.
- Electronic devices may be of various types. Electronic devices may include, for example, portable communication devices (e.g., smartphones), computer devices, portable multimedia devices, portable medical devices, cameras, wearable devices, or home appliances. Electronic devices according to embodiments of this document are not limited to the above-described devices.
- first, second, or first or second may be used simply to distinguish one element from another, and may be used to distinguish such elements in other respects, such as importance or order) is not limited.
- One (e.g. first) component is said to be “coupled” or “connected” to another (e.g. second) component, with or without the terms “functionally” or “communicatively”.
- any of the components can be connected to the other components directly (e.g. wired), wirelessly, or through a third component.
- module used in various embodiments of this document may include a unit implemented in hardware, software, or firmware, and is interchangeable with terms such as logic, logic block, component, or circuit, for example. It can be used as A module may be an integrated part or a minimum unit of the parts or a part thereof that performs one or more functions. For example, according to one embodiment, the module may be implemented in the form of an application-specific integrated circuit (ASIC).
- ASIC application-specific integrated circuit
- Various embodiments of the present document are one or more instructions stored in a storage medium (e.g., built-in memory 136 or external memory 138) that can be read by a machine (e.g., electronic device 101). It may be implemented as software (e.g., program 140) including these.
- a processor e.g., processor 120
- the one or more instructions may include code generated by a compiler or code that can be executed by an interpreter.
- a storage medium that can be read by a device may be provided in the form of a non-transitory storage medium.
- 'non-transitory' only means that the storage medium is a tangible device and does not contain signals (e.g. electromagnetic waves). This term refers to cases where data is stored semi-permanently in the storage medium. There is no distinction between temporary storage cases.
- Computer program products are commodities and can be traded between sellers and buyers.
- the computer program product may be distributed in the form of a machine-readable storage medium (e.g. compact disc read only memory (CD-ROM)) or through an application store (e.g. Play StoreTM) or on two user devices (e.g. It can be distributed (e.g. downloaded or uploaded) directly between smart phones) or online.
- a machine-readable storage medium e.g. compact disc read only memory (CD-ROM)
- an application store e.g. Play StoreTM
- two user devices e.g. It can be distributed (e.g. downloaded or uploaded) directly between smart phones) or online.
- at least a portion of the computer program product may be at least temporarily stored or temporarily created in a machine-readable storage medium, such as the memory of a manufacturer's server, an application store's server, or a relay server.
- each component (e.g., module or program) of the above-described components may include a single or plural entity, and some of the plurality of entities may be separately placed in other components. there is.
- one or more of the components or operations described above may be omitted, or one or more other components or operations may be added.
- multiple components eg, modules or programs
- the integrated component may perform one or more functions of each component of the plurality of components identically or similarly to those performed by the corresponding component of the plurality of components prior to the integration. .
- operations performed by a module, program, or other component may be executed sequentially, in parallel, iteratively, or heuristically, or one or more of the operations may be executed in a different order, or omitted. Alternatively, one or more other operations may be added.
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
This electronic device may comprise a display and a processor. The processor may be configured to display, on the display through a first software application, a first executable object for executing a first function. The processor may be configured to display, on the display through a second software application, a second executable object for executing a second function. The processor may be configured to identify, in response to an input on an area where the first executable object and the second executable object overlap each other, the length of a time from a first time at which the second executable object is displayed until a second time at which the input is identified. The processor may be configured to execute the first function in response to the time length being equal to or less than a reference length and execute the second function in response to the time length being greater than the reference length.
Description
아래의 설명들은, 복수의 시각적 객체(visual object)들 중 시각적 객체를 식별하기 위한 전자 장치(electronic device) 및 방법(method)에 관한 것이다.The descriptions below relate to an electronic device and method for identifying a visual object among a plurality of visual objects.
전자 장치(electronic device)는 소프트웨어 어플리케이션(software application)을 통해 시각적 객체(visual object)를 표시(display)할 수 있다. 예를 들어, 전자 장치는, 소프트웨어 어플리케이션을 통해 적어도 하나의 시각적 객체를 표시할 수 있다. 또한, 전자 장치는, 복수의 소프트웨어 어플리케이션들을 통해 복수의 시각적 객체들을 표시할 수 있다. 전자 장치는, 사용자(user)로부터 입력을 수신할 수 있고, 사용자의 입력에 기반하여 시각적 객체를 식별할 수 있다. 예를 들어, 사용자의 입력은, 터치 입력(touch input)을 포함할 수 있다. 예를 들어, 터치 입력은, 사용자의 신체 일부(예: 손가락(finger)) 또는 외부 전자 장치(예: 펜(pen))를 통해 입력될 수 있다.An electronic device can display a visual object through a software application. For example, the electronic device may display at least one visual object through a software application. Additionally, the electronic device can display a plurality of visual objects through a plurality of software applications. The electronic device may receive input from a user and identify a visual object based on the user's input. For example, the user's input may include touch input. For example, touch input may be input through a part of the user's body (eg, finger) or an external electronic device (eg, pen).
전자 장치(electronic device)가 제공된다. 상기 전자 장치는 디스플레이(display)를 포함할 수 있다. 상기 전자 장치는 프로세서(processor)를 포함할 수 있다. 상기 프로세서는, 터치 입력(touch input)에 응답하여 제1 소프트웨어 어플리케이션(software application)을 통해 제1 기능을 실행하기 위한 제1 실행가능한(executable) 객체를, 상기 디스플레이 상에서 표시하도록 구성될 수 있다. 상기 프로세서는, 터치 입력에 응답하여 제2 소프트웨어 어플리케이션을 통해 제2 기능을 실행하기 위한 제2 실행가능한 객체를, 상기 제1 실행가능한 객체 상에 부분적으로(partially) 중첩되도록, 상기 디스플레이 상에서, 표시하도록 구성될 수 있다. 상기 프로세서는, 상기 제1 실행가능한 객체 및 상기 제2 실행가능한 객체가 중첩된 영역 상의 접촉점(point of contact)을 포함하는 입력에 응답하여, 상기 제2 실행가능한 객체의 표시된 제1 시간으로부터 상기 입력의 식별된 제2 시간까지의 시간 길이를 식별하도록 구성될 수 있다. 상기 프로세서는, 기준 길이보다 짧거나 상기 기준 길이와 같은 상기 시간 길이에 응답하여, 상기 제1 기능을 실행하도록 구성될 수 있다. 상기 프로세서는, 상기 기준 길이보다 긴 상기 시간 길이에 응답하여, 상기 제2 기능을 실행하도록, 구성될 수 있다. An electronic device is provided. The electronic device may include a display. The electronic device may include a processor. The processor may be configured to display on the display a first executable object for executing a first function through a first software application in response to a touch input. The processor displays, on the display, a second executable object for executing a second function via a second software application in response to a touch input, partially overlapping the first executable object. It can be configured to do so. The processor is configured to, in response to input including a point of contact on an area where the first executable object and the second executable object overlap, the input from the indicated first time of the second executable object. and may be configured to identify a length of time up to the identified second time. The processor may be configured to execute the first function in response to the length of time being less than or equal to the reference length. The processor may be configured to execute the second function in response to the time length being longer than the reference length.
전자 장치(electronic device)에 의해 수행되는 방법이 제공된다. 상기 방법은, 터치 입력(touch input)에 응답하여 제1 소프트웨어 어플리케이션(software application)을 통해 제1 기능을 실행하기 위한 제1 실행가능한(executable) 객체를, 상기 전자 장치의 디스플레이 상에서 표시하는 동작을 포함할 수 있다. 상기 방법은, 터치 입력에 응답하여 제2 소프트웨어 어플리케이션을 통해 제2 기능을 실행하기 위한 제2 실행가능한 객체를, 상기 제1 실행가능한 객체 상에 부분적으로(partially) 중첩되도록, 상기 디스플레이 상에서, 표시하는 동작을 포함할 수 있다. 상기 방법은, 상기 제1 실행가능한 객체 및 상기 제2 실행가능한 객체가 중첩된 영역 상의 접촉점(point of contact)을 포함하는 입력에 응답하여, 상기 제2 실행가능한 객체의 표시된 제1 시간으로부터 상기 입력의 식별된 제2 시간까지의 시간 길이를 식별하는 동작을 포함할 수 있다. 상기 방법은, 기준 길이보다 짧거나 상기 기준 길이와 같은 상기 시간 길이에 응답하여, 상기 제1 기능을 실행하는 동작을 포함할 수 있다. 상기 방법은, 상기 기준 길이보다 긴 상기 시간 길이에 응답하여, 상기 제2 기능을 실행하는 동작을 포함할 수 있다.A method performed by an electronic device is provided. The method includes displaying, on a display of the electronic device, a first executable object for executing a first function through a first software application in response to a touch input. It can be included. The method includes displaying, on the display, a second executable object for executing a second function via a second software application in response to a touch input, partially overlapping the first executable object. It may include actions such as: The method, in response to an input comprising a point of contact on an area where the first executable object and the second executable object overlap, the input from a displayed first time of the second executable object. It may include an operation of identifying the length of time up to the identified second time. The method may include executing the first function in response to the length of time being less than or equal to the reference length. The method may include executing the second function in response to the time length being longer than the reference length.
도 1은 다양한 실시예들에 따른 네트워크 환경 내의 전자 장치의 블록도이다.1 is a block diagram of an electronic device in a network environment according to various embodiments.
도 2a 내지 도 2e는 본 개시의 일 실시예에 따른 복수의 시각적 객체(visual object)들이 중첩된(overlapped) 상태로 표시되는 예들을 도시한다.Figures 2A to 2E show examples in which a plurality of visual objects are displayed in an overlapped state according to an embodiment of the present disclosure.
도 3은 본 개시의 일 실시예에 따른 복수의 시각적 객체들 중 시각적 객체를 식별하기 위한 전자 장치의 기능적 구성요소들의 예를 도시한다. FIG. 3 illustrates an example of functional components of an electronic device for identifying a visual object among a plurality of visual objects according to an embodiment of the present disclosure.
도 4a는 본 개시의 일 실시예에 따른 복수의 시각적 객체들 중 입력에 대응하는 시각적 객체를 식별하기 위한 방법에 대한 예를 도시하는 흐름도이다. FIG. 4A is a flowchart illustrating an example of a method for identifying a visual object corresponding to an input among a plurality of visual objects according to an embodiment of the present disclosure.
도 4b는 본 개시의 일 실시예에 따른 터치 빈도(touch frequency)에 기반하여, 복수의 시각적 객체들 중 입력에 대응하는 시각적 객체를 식별하기 위한 방법에 대한 예를 도시하는 흐름도이다. FIG. 4B is a flowchart illustrating an example of a method for identifying a visual object corresponding to an input among a plurality of visual objects based on touch frequency according to an embodiment of the present disclosure.
도 4c는 본 개시의 일 실시예에 따른 터치 영역(touch area)에 기반하여, 복수의 시각적 객체들 중 입력에 대응하는 시각적 객체를 식별하기 위한 방법에 대한 예를 도시하는 흐름도이다. FIG. 4C is a flowchart illustrating an example of a method for identifying a visual object corresponding to an input among a plurality of visual objects based on a touch area according to an embodiment of the present disclosure.
도 5는 본 개시의 일 실시예에 따른 복수의 시각적 객체들 사이의 위치 관계를 나타내는 예들을 도시한다.Figure 5 shows examples of positional relationships between a plurality of visual objects according to an embodiment of the present disclosure.
도 6a는 본 개시의 일 실시예에 따른 기준 길이(reference length)를 식별하는 예를 도시한다.FIG. 6A shows an example of identifying a reference length according to an embodiment of the present disclosure.
도 6b는 본 개시의 일 실시예에 따른 기준 길이(reference length)와 입력 사이의 관계를 나타내는 예를 도시한다.FIG. 6B shows an example of the relationship between a reference length and an input according to an embodiment of the present disclosure.
도 7은 본 개시의 일 실시예에 따른 터치 빈도(touch frequency)에 기반하여, 복수의 시각적 객체들 중 입력에 대응하는 시각적 객체를 식별하는 예들을 도시한다.FIG. 7 illustrates examples of identifying a visual object corresponding to an input among a plurality of visual objects based on touch frequency according to an embodiment of the present disclosure.
도 8은 본 개시의 일 실시예에 따른 터치 영역(touch area)에 기반하여, 복수의 시각적 객체들 중 입력에 대응하는 시각적 객체를 식별하는 예를 도시한다.FIG. 8 illustrates an example of identifying a visual object corresponding to an input among a plurality of visual objects based on a touch area according to an embodiment of the present disclosure.
도 9는 본 개시의 일 실시예에 따른 소프트웨어 어플리케이션(software application)에 기반하여, 기준 길이를 식별하는 방법의 예를 도시하는 흐름도이다. FIG. 9 is a flowchart illustrating an example of a method for identifying a reference length based on a software application according to an embodiment of the present disclosure.
도 10은 본 개시의 일 실시예에 따른 기록(history) 정보에 기반하여, 복수의 시각적 객체들 중 입력에 대응하는 시각적 객체를 식별하는 방법의 예를 도시하는 흐름도이다.FIG. 10 is a flowchart illustrating an example of a method for identifying a visual object corresponding to an input among a plurality of visual objects based on history information according to an embodiment of the present disclosure.
도 11은 본 개시의 일 실시예에 따른 소프트웨어 어플리케이션의 우선 순위에 기반하여, 복수의 시각적 객체들 중 입력에 대응하는 시각적 객체를 식별하는 방법의 예를 도시하는 흐름도이다.FIG. 11 is a flowchart illustrating an example of a method for identifying a visual object corresponding to an input among a plurality of visual objects based on the priority of a software application according to an embodiment of the present disclosure.
본 개시에서 사용되는 용어들은 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 다른 실시 예의 범위를 한정하려는 의도가 아닐 수 있다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함할 수 있다. 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 용어들은 본 개시에 기재된 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가질 수 있다. 본 개시에 사용된 용어들 중 일반적인 사전에 정의된 용어들은, 관련 기술의 문맥상 가지는 의미와 동일 또는 유사한 의미로 해석될 수 있으며, 본 개시에서 명백하게 정의되지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다. 경우에 따라서, 본 개시에서 정의된 용어일지라도 본 개시의 실시 예들을 배제하도록 해석될 수 없다.Terms used in the present disclosure are merely used to describe specific embodiments and may not be intended to limit the scope of other embodiments. Singular expressions may include plural expressions unless the context clearly indicates otherwise. Terms used herein, including technical or scientific terms, may have the same meaning as commonly understood by a person of ordinary skill in the technical field described in this disclosure. Among the terms used in this disclosure, terms defined in general dictionaries may be interpreted to have the same or similar meaning as the meaning they have in the context of related technology, and unless clearly defined in this disclosure, have an ideal or excessively formal meaning. It is not interpreted as In some cases, even terms defined in the present disclosure cannot be interpreted to exclude embodiments of the present disclosure.
이하에서 설명되는 본 개시의 다양한 실시 예들에서는 하드웨어적인 접근 방법을 예시로서 설명한다. 하지만, 본 개시의 다양한 실시 예들에서는 하드웨어와 소프트웨어를 모두 사용하는 기술을 포함하고 있으므로, 본 개시의 다양한 실시 예들이 소프트웨어 기반의 접근 방법을 제외하는 것은 아니다.In various embodiments of the present disclosure described below, a hardware approach method is explained as an example. However, since various embodiments of the present disclosure include technology using both hardware and software, the various embodiments of the present disclosure do not exclude software-based approaches.
이하 설명에서 사용되는 장치의 구성 지칭하는 용어(예: 프로세서(processor), 카메라(camera), 디스플레이(display), 모듈(module) 등), 연산 상태를 위한 용어(예: 단계(step), 동작(operation), 절차(procedure)), 신호를 지칭하는 용어(예: 신호(signal), 정보(information) 등), 데이터를 지칭하기 위한 용어(예: 파라미터(parameter), 값(value) 등)는 설명의 편의를 위해 예시된 것이다. 따라서, 본 개시가 후술되는 용어들에 한정되는 것은 아니며, 동등한 기술적 의미를 가지는 다른 용어가 사용될 수 있다.Terms referring to the configuration of the device used in the following description (e.g. processor, camera, display, module, etc.), terms for the operation state (e.g. step, operation) (operation, procedure), terms referring to signals (e.g. signal, information, etc.), terms referring to data (e.g. parameters, values, etc.) is an example for convenience of explanation. Accordingly, the present disclosure is not limited to the terms described below, and other terms having equivalent technical meaning may be used.
또한, 본 개시에서, 특정 조건의 만족(satisfied), 충족(fulfilled) 여부를 판단하기 위해, 초과 또는 미만의 표현이 사용될 수 있으나, 이는 일 예를 표현하기 위한 기재일 뿐 이상 또는 이하의 기재를 배제하는 것이 아니다. '이상'으로 기재된 조건은 '초과', '이하'로 기재된 조건은 '미만', '이상 및 미만'으로 기재된 조건은 '초과 및 이하'로 대체될 수 있다. 또한, 이하, 'A' 내지 'B'는 A부터(A 포함) B까지의(B 포함) 요소들 중 적어도 하나를 의미한다.In addition, in the present disclosure, the expressions greater than or less than may be used to determine whether a specific condition is satisfied or fulfilled, but this is only a description for expressing an example, and the description of more or less may be used. It's not exclusion. Conditions written as ‘more than’ can be replaced with ‘more than’, conditions written as ‘less than’ can be replaced with ‘less than’, and conditions written as ‘more than and less than’ can be replaced with ‘greater than and less than’. In addition, hereinafter, 'A' to 'B' means at least one of the elements from A to (including A) and B (including B).
도 1은 다양한 실시예들에 따른 네트워크 환경 내의 전자 장치의 블록도이다. 1 is a block diagram of an electronic device in a network environment according to various embodiments.
도 1은, 다양한 실시예들에 따른, 네트워크 환경(100) 내의 전자 장치(101)의 블록도이다. 도 1을 참조하면, 네트워크 환경(100)에서 전자 장치(101)는 제1 네트워크(198)(예: 근거리 무선 통신 네트워크)를 통하여 전자 장치(102)와 통신하거나, 또는 제2 네트워크(199)(예: 원거리 무선 통신 네트워크)를 통하여 전자 장치(104) 또는 서버(108) 중 적어도 하나와 통신할 수 있다. 일 실시예에 따르면, 전자 장치(101)는 서버(108)를 통하여 전자 장치(104)와 통신할 수 있다. 일 실시예에 따르면, 전자 장치(101)는 프로세서(120), 메모리(130), 입력 모듈(150), 음향 출력 모듈(155), 디스플레이 모듈(160), 오디오 모듈(170), 센서 모듈(176), 인터페이스(177), 연결 단자(178), 햅틱 모듈(179), 카메라 모듈(180), 전력 관리 모듈(188), 배터리(189), 통신 모듈(190), 가입자 식별 모듈(196), 또는 안테나 모듈(197)을 포함할 수 있다. 어떤 실시예에서는, 전자 장치(101)에는, 이 구성요소들 중 적어도 하나(예: 연결 단자(178))가 생략되거나, 하나 이상의 다른 구성요소가 추가될 수 있다. 어떤 실시예에서는, 이 구성요소들 중 일부들(예: 센서 모듈(176), 카메라 모듈(180), 또는 안테나 모듈(197))은 하나의 구성요소(예: 디스플레이 모듈(160))로 통합될 수 있다.1 is a block diagram of an electronic device 101 in a network environment 100, according to various embodiments. Referring to FIG. 1, in the network environment 100, the electronic device 101 communicates with the electronic device 102 through a first network 198 (e.g., a short-range wireless communication network) or a second network 199. It is possible to communicate with at least one of the electronic device 104 or the server 108 through (e.g., a long-distance wireless communication network). According to one embodiment, the electronic device 101 may communicate with the electronic device 104 through the server 108. According to one embodiment, the electronic device 101 includes a processor 120, a memory 130, an input module 150, an audio output module 155, a display module 160, an audio module 170, and a sensor module ( 176), interface 177, connection terminal 178, haptic module 179, camera module 180, power management module 188, battery 189, communication module 190, subscriber identification module 196 , or may include an antenna module 197. In some embodiments, at least one of these components (eg, the connection terminal 178) may be omitted or one or more other components may be added to the electronic device 101. In some embodiments, some of these components (e.g., sensor module 176, camera module 180, or antenna module 197) are integrated into one component (e.g., display module 160). It can be.
프로세서(120)는, 예를 들면, 소프트웨어(예: 프로그램(140))를 실행하여 프로세서(120)에 연결된 전자 장치(101)의 적어도 하나의 다른 구성요소(예: 하드웨어 또는 소프트웨어 구성요소)를 제어할 수 있고, 다양한 데이터 처리 또는 연산을 수행할 수 있다. 일 실시예에 따르면, 데이터 처리 또는 연산의 적어도 일부로서, 프로세서(120)는 다른 구성요소(예: 센서 모듈(176) 또는 통신 모듈(190))로부터 수신된 명령 또는 데이터를 휘발성 메모리(132)에 저장하고, 휘발성 메모리(132)에 저장된 명령 또는 데이터를 처리하고, 결과 데이터를 비휘발성 메모리(134)에 저장할 수 있다. 일 실시예에 따르면, 프로세서(120)는 메인 프로세서(121)(예: 중앙 처리 장치 또는 어플리케이션 프로세서) 또는 이와는 독립적으로 또는 함께 운영 가능한 보조 프로세서(123)(예: 그래픽 처리 장치, 신경망 처리 장치(NPU: neural processing unit), 이미지 시그널 프로세서, 센서 허브 프로세서, 또는 커뮤니케이션 프로세서)를 포함할 수 있다. 예를 들어, 전자 장치(101)가 메인 프로세서(121) 및 보조 프로세서(123)를 포함하는 경우, 보조 프로세서(123)는 메인 프로세서(121)보다 저전력을 사용하거나, 지정된 기능에 특화되도록 설정될 수 있다. 보조 프로세서(123)는 메인 프로세서(121)와 별개로, 또는 그 일부로서 구현될 수 있다.The processor 120, for example, executes software (e.g., program 140) to operate at least one other component (e.g., hardware or software component) of the electronic device 101 connected to the processor 120. It can be controlled and various data processing or operations can be performed. According to one embodiment, as at least part of data processing or computation, the processor 120 stores commands or data received from another component (e.g., sensor module 176 or communication module 190) in volatile memory 132. The commands or data stored in the volatile memory 132 can be processed, and the resulting data can be stored in the non-volatile memory 134. According to one embodiment, the processor 120 includes a main processor 121 (e.g., a central processing unit or an application processor) or an auxiliary processor 123 that can operate independently or together (e.g., a graphics processing unit, a neural network processing unit ( It may include a neural processing unit (NPU), an image signal processor, a sensor hub processor, or a communication processor). For example, if the electronic device 101 includes a main processor 121 and a secondary processor 123, the secondary processor 123 may be set to use lower power than the main processor 121 or be specialized for a designated function. You can. The auxiliary processor 123 may be implemented separately from the main processor 121 or as part of it.
보조 프로세서(123)는, 예를 들면, 메인 프로세서(121)가 인액티브(예: 슬립) 상태에 있는 동안 메인 프로세서(121)를 대신하여, 또는 메인 프로세서(121)가 액티브(예: 어플리케이션 실행) 상태에 있는 동안 메인 프로세서(121)와 함께, 전자 장치(101)의 구성요소들 중 적어도 하나의 구성요소(예: 디스플레이 모듈(160), 센서 모듈(176), 또는 통신 모듈(190))와 관련된 기능 또는 상태들의 적어도 일부를 제어할 수 있다. 일실시예에 따르면, 보조 프로세서(123)(예: 이미지 시그널 프로세서 또는 커뮤니케이션 프로세서)는 기능적으로 관련 있는 다른 구성요소(예: 카메라 모듈(180) 또는 통신 모듈(190))의 일부로서 구현될 수 있다. 일실시예에 따르면, 보조 프로세서(123)(예: 신경망 처리 장치)는 인공지능 모델의 처리에 특화된 하드웨어 구조를 포함할 수 있다. 인공지능 모델은 기계 학습을 통해 생성될 수 있다. 이러한 학습은, 예를 들어, 인공지능 모델이 수행되는 전자 장치(101) 자체에서 수행될 수 있고, 별도의 서버(예: 서버(108))를 통해 수행될 수도 있다. 학습 알고리즘은, 예를 들어, 지도형 학습(supervised learning), 비지도형 학습(unsupervised learning), 준지도형 학습(semi-supervised learning) 또는 강화 학습(reinforcement learning)을 포함할 수 있으나, 전술한 예에 한정되지 않는다. 인공지능 모델은, 복수의 인공 신경망 레이어들을 포함할 수 있다. 인공 신경망은 심층 신경망(DNN: deep neural network), CNN(convolutional neural network), RNN(recurrent neural network), RBM(restricted boltzmann machine), DBN(deep belief network), BRDNN(bidirectional recurrent deep neural network), 심층 Q-네트워크(deep Q-networks) 또는 상기 중 둘 이상의 조합 중 하나일 수 있으나, 전술한 예에 한정되지 않는다. 인공지능 모델은 하드웨어 구조 이외에, 추가적으로 또는 대체적으로, 소프트웨어 구조를 포함할 수 있다. The auxiliary processor 123 may, for example, act on behalf of the main processor 121 while the main processor 121 is in an inactive (e.g., sleep) state, or while the main processor 121 is in an active (e.g., application execution) state. ), together with the main processor 121, at least one of the components of the electronic device 101 (e.g., the display module 160, the sensor module 176, or the communication module 190) At least some of the functions or states related to can be controlled. According to one embodiment, co-processor 123 (e.g., image signal processor or communication processor) may be implemented as part of another functionally related component (e.g., camera module 180 or communication module 190). there is. According to one embodiment, the auxiliary processor 123 (eg, neural network processing unit) may include a hardware structure specialized for processing artificial intelligence models. Artificial intelligence models can be created through machine learning. For example, such learning may be performed in the electronic device 101 itself on which the artificial intelligence model is performed, or may be performed through a separate server (e.g., server 108). Learning algorithms may include, for example, supervised learning, unsupervised learning, semi-supervised learning, or reinforcement learning, but It is not limited. An artificial intelligence model may include multiple artificial neural network layers. Artificial neural networks include deep neural network (DNN), convolutional neural network (CNN), recurrent neural network (RNN), restricted boltzmann machine (RBM), belief deep network (DBN), bidirectional recurrent deep neural network (BRDNN), It may be one of deep Q-networks or a combination of two or more of the above, but is not limited to the examples described above. In addition to hardware structures, artificial intelligence models may additionally or alternatively include software structures.
메모리(130)는, 전자 장치(101)의 적어도 하나의 구성요소(예: 프로세서(120) 또는 센서 모듈(176))에 의해 사용되는 다양한 데이터를 저장할 수 있다. 데이터는, 예를 들어, 소프트웨어(예: 프로그램(140)) 및, 이와 관련된 명령에 대한 입력 데이터 또는 출력 데이터를 포함할 수 있다. 메모리(130)는, 휘발성 메모리(132) 또는 비휘발성 메모리(134)를 포함할 수 있다. The memory 130 may store various data used by at least one component (eg, the processor 120 or the sensor module 176) of the electronic device 101. Data may include, for example, input data or output data for software (e.g., program 140) and instructions related thereto. Memory 130 may include volatile memory 132 or non-volatile memory 134.
프로그램(140)은 메모리(130)에 소프트웨어로서 저장될 수 있으며, 예를 들면, 운영 체제(142), 미들 웨어(144) 또는 어플리케이션(146)을 포함할 수 있다. The program 140 may be stored as software in the memory 130 and may include, for example, an operating system 142, middleware 144, or application 146.
입력 모듈(150)은, 전자 장치(101)의 구성요소(예: 프로세서(120))에 사용될 명령 또는 데이터를 전자 장치(101)의 외부(예: 사용자)로부터 수신할 수 있다. 입력 모듈(150)은, 예를 들면, 마이크, 마우스, 키보드, 키(예: 버튼), 또는 디지털 펜(예: 스타일러스 펜)을 포함할 수 있다. The input module 150 may receive commands or data to be used in a component of the electronic device 101 (e.g., the processor 120) from outside the electronic device 101 (e.g., a user). The input module 150 may include, for example, a microphone, mouse, keyboard, keys (eg, buttons), or digital pen (eg, stylus pen).
음향 출력 모듈(155)은 음향 신호를 전자 장치(101)의 외부로 출력할 수 있다. 음향 출력 모듈(155)은, 예를 들면, 스피커 또는 리시버를 포함할 수 있다. 스피커는 멀티미디어 재생 또는 녹음 재생과 같이 일반적인 용도로 사용될 수 있다. 리시버는 착신 전화를 수신하기 위해 사용될 수 있다. 일실시예에 따르면, 리시버는 스피커와 별개로, 또는 그 일부로서 구현될 수 있다.The sound output module 155 may output sound signals to the outside of the electronic device 101. The sound output module 155 may include, for example, a speaker or a receiver. Speakers can be used for general purposes such as multimedia playback or recording playback. The receiver can be used to receive incoming calls. According to one embodiment, the receiver may be implemented separately from the speaker or as part of it.
디스플레이 모듈(160)은 전자 장치(101)의 외부(예: 사용자)로 정보를 시각적으로 제공할 수 있다. 디스플레이 모듈(160)은, 예를 들면, 디스플레이, 홀로그램 장치, 또는 프로젝터 및 해당 장치를 제어하기 위한 제어 회로를 포함할 수 있다. 일실시예에 따르면, 디스플레이 모듈(160)은 터치를 감지하도록 설정된 터치 센서, 또는 상기 터치에 의해 발생되는 힘의 세기를 측정하도록 설정된 압력 센서를 포함할 수 있다. The display module 160 can visually provide information to the outside of the electronic device 101 (eg, a user). The display module 160 may include, for example, a display, a hologram device, or a projector, and a control circuit for controlling the device. According to one embodiment, the display module 160 may include a touch sensor configured to detect a touch, or a pressure sensor configured to measure the intensity of force generated by the touch.
오디오 모듈(170)은 소리를 전기 신호로 변환시키거나, 반대로 전기 신호를 소리로 변환시킬 수 있다. 일실시예에 따르면, 오디오 모듈(170)은, 입력 모듈(150)을 통해 소리를 획득하거나, 음향 출력 모듈(155), 또는 전자 장치(101)와 직접 또는 무선으로 연결된 외부 전자 장치(예: 전자 장치(102))(예: 스피커 또는 헤드폰)를 통해 소리를 출력할 수 있다.The audio module 170 can convert sound into an electrical signal or, conversely, convert an electrical signal into sound. According to one embodiment, the audio module 170 acquires sound through the input module 150, the sound output module 155, or an external electronic device (e.g., directly or wirelessly connected to the electronic device 101). Sound may be output through the electronic device 102 (e.g., speaker or headphone).
센서 모듈(176)은 전자 장치(101)의 작동 상태(예: 전력 또는 온도), 또는 외부의 환경 상태(예: 사용자 상태)를 감지하고, 감지된 상태에 대응하는 전기 신호 또는 데이터 값을 생성할 수 있다. 일실시예에 따르면, 센서 모듈(176)은, 예를 들면, 제스처 센서, 자이로 센서, 기압 센서, 마그네틱 센서, 가속도 센서, 그립 센서, 근접 센서, 컬러 센서, IR(infrared) 센서, 생체 센서, 온도 센서, 습도 센서, 또는 조도 센서를 포함할 수 있다. The sensor module 176 detects the operating state (e.g., power or temperature) of the electronic device 101 or the external environmental state (e.g., user state) and generates an electrical signal or data value corresponding to the detected state. can do. According to one embodiment, the sensor module 176 includes, for example, a gesture sensor, a gyro sensor, an air pressure sensor, a magnetic sensor, an acceleration sensor, a grip sensor, a proximity sensor, a color sensor, an IR (infrared) sensor, a biometric sensor, It may include a temperature sensor, humidity sensor, or light sensor.
인터페이스(177)는 전자 장치(101)가 외부 전자 장치(예: 전자 장치(102))와 직접 또는 무선으로 연결되기 위해 사용될 수 있는 하나 이상의 지정된 프로토콜들을 지원할 수 있다. 일실시예에 따르면, 인터페이스(177)는, 예를 들면, HDMI(high definition multimedia interface), USB(universal serial bus) 인터페이스, SD카드 인터페이스, 또는 오디오 인터페이스를 포함할 수 있다.The interface 177 may support one or more designated protocols that can be used to connect the electronic device 101 directly or wirelessly with an external electronic device (eg, the electronic device 102). According to one embodiment, the interface 177 may include, for example, a high definition multimedia interface (HDMI), a universal serial bus (USB) interface, an SD card interface, or an audio interface.
연결 단자(178)는, 그를 통해서 전자 장치(101)가 외부 전자 장치(예: 전자 장치(102))와 물리적으로 연결될 수 있는 커넥터를 포함할 수 있다. 일실시예에 따르면, 연결 단자(178)는, 예를 들면, HDMI 커넥터, USB 커넥터, SD 카드 커넥터, 또는 오디오 커넥터(예: 헤드폰 커넥터)를 포함할 수 있다.The connection terminal 178 may include a connector through which the electronic device 101 can be physically connected to an external electronic device (eg, the electronic device 102). According to one embodiment, the connection terminal 178 may include, for example, an HDMI connector, a USB connector, an SD card connector, or an audio connector (eg, a headphone connector).
햅틱 모듈(179)은 전기적 신호를 사용자가 촉각 또는 운동 감각을 통해서 인지할 수 있는 기계적인 자극(예: 진동 또는 움직임) 또는 전기적인 자극으로 변환할 수 있다. 일실시예에 따르면, 햅틱 모듈(179)은, 예를 들면, 모터, 압전 소자, 또는 전기 자극 장치를 포함할 수 있다.The haptic module 179 can convert electrical signals into mechanical stimulation (e.g., vibration or movement) or electrical stimulation that the user can perceive through tactile or kinesthetic senses. According to one embodiment, the haptic module 179 may include, for example, a motor, a piezoelectric element, or an electrical stimulation device.
카메라 모듈(180)은 정지 영상 및 동영상을 촬영할 수 있다. 일실시예에 따르면, 카메라 모듈(180)은 하나 이상의 렌즈들, 이미지 센서들, 이미지 시그널 프로세서들, 또는 플래시들을 포함할 수 있다.The camera module 180 can capture still images and moving images. According to one embodiment, the camera module 180 may include one or more lenses, image sensors, image signal processors, or flashes.
전력 관리 모듈(188)은 전자 장치(101)에 공급되는 전력을 관리할 수 있다. 일실시예에 따르면, 전력 관리 모듈(188)은, 예를 들면, PMIC(power management integrated circuit)의 적어도 일부로서 구현될 수 있다.The power management module 188 can manage power supplied to the electronic device 101. According to one embodiment, the power management module 188 may be implemented as at least a part of, for example, a power management integrated circuit (PMIC).
배터리(189)는 전자 장치(101)의 적어도 하나의 구성요소에 전력을 공급할 수 있다. 일실시예에 따르면, 배터리(189)는, 예를 들면, 재충전 불가능한 1차 전지, 재충전 가능한 2차 전지 또는 연료 전지를 포함할 수 있다.The battery 189 may supply power to at least one component of the electronic device 101. According to one embodiment, the battery 189 may include, for example, a non-rechargeable primary battery, a rechargeable secondary battery, or a fuel cell.
통신 모듈(190)은 전자 장치(101)와 외부 전자 장치(예: 전자 장치(102), 전자 장치(104), 또는 서버(108)) 간의 직접(예: 유선) 통신 채널 또는 무선 통신 채널의 수립, 및 수립된 통신 채널을 통한 통신 수행을 지원할 수 있다. 통신 모듈(190)은 프로세서(120)(예: 어플리케이션 프로세서)와 독립적으로 운영되고, 직접(예: 유선) 통신 또는 무선 통신을 지원하는 하나 이상의 커뮤니케이션 프로세서를 포함할 수 있다. 일실시예에 따르면, 통신 모듈(190)은 무선 통신 모듈(192)(예: 셀룰러 통신 모듈, 근거리 무선 통신 모듈, 또는 GNSS(global navigation satellite system) 통신 모듈) 또는 유선 통신 모듈(194)(예: LAN(local area network) 통신 모듈, 또는 전력선 통신 모듈)을 포함할 수 있다. 이들 통신 모듈 중 해당하는 통신 모듈은 제1 네트워크(198)(예: 블루투스, WiFi(wireless fidelity) direct 또는 IrDA(infrared data association)와 같은 근거리 통신 네트워크) 또는 제2 네트워크(199)(예: 레거시 셀룰러 네트워크, 5G 네트워크, 차세대 통신 네트워크, 인터넷, 또는 컴퓨터 네트워크(예: LAN 또는 WAN)와 같은 원거리 통신 네트워크)를 통하여 외부의 전자 장치(104)와 통신할 수 있다. 이런 여러 종류의 통신 모듈들은 하나의 구성요소(예: 단일 칩)로 통합되거나, 또는 서로 별도의 복수의 구성요소들(예: 복수 칩들)로 구현될 수 있다. 무선 통신 모듈(192)은 가입자 식별 모듈(196)에 저장된 가입자 정보(예: 국제 모바일 가입자 식별자(IMSI))를 이용하여 제1 네트워크(198) 또는 제2 네트워크(199)와 같은 통신 네트워크 내에서 전자 장치(101)를 확인 또는 인증할 수 있다. Communication module 190 is configured to provide a direct (e.g., wired) communication channel or wireless communication channel between electronic device 101 and an external electronic device (e.g., electronic device 102, electronic device 104, or server 108). It can support establishment and communication through established communication channels. Communication module 190 operates independently of processor 120 (e.g., an application processor) and may include one or more communication processors that support direct (e.g., wired) communication or wireless communication. According to one embodiment, the communication module 190 is a wireless communication module 192 (e.g., a cellular communication module, a short-range wireless communication module, or a global navigation satellite system (GNSS) communication module) or a wired communication module 194 (e.g., : LAN (local area network) communication module, or power line communication module) may be included. Among these communication modules, the corresponding communication module is a first network 198 (e.g., a short-range communication network such as Bluetooth, wireless fidelity (WiFi) direct, or infrared data association (IrDA)) or a second network 199 (e.g., legacy It may communicate with an external electronic device 104 through a telecommunication network such as a cellular network, a 5G network, a next-generation communication network, the Internet, or a computer network (e.g., LAN or WAN). These various types of communication modules may be integrated into one component (e.g., a single chip) or may be implemented as a plurality of separate components (e.g., multiple chips). The wireless communication module 192 uses subscriber information (e.g., International Mobile Subscriber Identifier (IMSI)) stored in the subscriber identification module 196 to communicate within a communication network such as the first network 198 or the second network 199. The electronic device 101 can be confirmed or authenticated.
무선 통신 모듈(192)은 4G 네트워크 이후의 5G 네트워크 및 차세대 통신 기술, 예를 들어, NR 접속 기술(new radio access technology)을 지원할 수 있다. NR 접속 기술은 고용량 데이터의 고속 전송(eMBB(enhanced mobile broadband)), 단말 전력 최소화와 다수 단말의 접속(mMTC(massive machine type communications)), 또는 고신뢰도와 저지연(URLLC(ultra-reliable and low-latency communications))을 지원할 수 있다. 무선 통신 모듈(192)은, 예를 들어, 높은 데이터 전송률 달성을 위해, 고주파 대역(예: mmWave 대역)을 지원할 수 있다. 무선 통신 모듈(192)은 고주파 대역에서의 성능 확보를 위한 다양한 기술들, 예를 들어, 빔포밍(beamforming), 거대 배열 다중 입출력(massive MIMO(multiple-input and multiple-output)), 전차원 다중입출력(FD-MIMO: full dimensional MIMO), 어레이 안테나(array antenna), 아날로그 빔형성(analog beam-forming), 또는 대규모 안테나(large scale antenna)와 같은 기술들을 지원할 수 있다. 무선 통신 모듈(192)은 전자 장치(101), 외부 전자 장치(예: 전자 장치(104)) 또는 네트워크 시스템(예: 제2 네트워크(199))에 규정되는 다양한 요구사항을 지원할 수 있다. 일실시예에 따르면, 무선 통신 모듈(192)은 eMBB 실현을 위한 Peak data rate(예: 20Gbps 이상), mMTC 실현을 위한 손실 Coverage(예: 164dB 이하), 또는 URLLC 실현을 위한 U-plane latency(예: 다운링크(DL) 및 업링크(UL) 각각 0.5ms 이하, 또는 라운드 트립 1ms 이하)를 지원할 수 있다.The wireless communication module 192 may support 5G networks after 4G networks and next-generation communication technologies, for example, NR access technology (new radio access technology). NR access technology provides high-speed transmission of high-capacity data (enhanced mobile broadband (eMBB)), minimization of terminal power and access to multiple terminals (massive machine type communications (mMTC)), or ultra-reliable and low-latency (URLLC). -latency communications)) can be supported. The wireless communication module 192 may support high frequency bands (eg, mmWave bands), for example, to achieve high data rates. The wireless communication module 192 uses various technologies to secure performance in high frequency bands, for example, beamforming, massive array multiple-input and multiple-output (MIMO), and full-dimensional multiplexing. It can support technologies such as input/output (FD-MIMO: full dimensional MIMO), array antenna, analog beam-forming, or large scale antenna. The wireless communication module 192 may support various requirements specified in the electronic device 101, an external electronic device (e.g., electronic device 104), or a network system (e.g., second network 199). According to one embodiment, the wireless communication module 192 supports Peak data rate (e.g., 20 Gbps or more) for realizing eMBB, loss coverage (e.g., 164 dB or less) for realizing mmTC, or U-plane latency (e.g., 164 dB or less) for realizing URLLC. Example: Downlink (DL) and uplink (UL) each of 0.5 ms or less, or round trip 1 ms or less) can be supported.
안테나 모듈(197)은 신호 또는 전력을 외부(예: 외부의 전자 장치)로 송신하거나 외부로부터 수신할 수 있다. 일실시예에 따르면, 안테나 모듈(197)은 서브스트레이트(예: PCB) 위에 형성된 도전체 또는 도전성 패턴으로 이루어진 방사체를 포함하는 안테나를 포함할 수 있다. 일실시예에 따르면, 안테나 모듈(197)은 복수의 안테나들(예: 어레이 안테나)을 포함할 수 있다. 이런 경우, 제1 네트워크(198) 또는 제2 네트워크(199)와 같은 통신 네트워크에서 사용되는 통신 방식에 적합한 적어도 하나의 안테나가, 예를 들면, 통신 모듈(190)에 의하여 상기 복수의 안테나들로부터 선택될 수 있다. 신호 또는 전력은 상기 선택된 적어도 하나의 안테나를 통하여 통신 모듈(190)과 외부의 전자 장치 간에 송신되거나 수신될 수 있다. 어떤 실시예에 따르면, 방사체 이외에 다른 부품(예: RFIC(radio frequency integrated circuit))이 추가로 안테나 모듈(197)의 일부로 형성될 수 있다. The antenna module 197 may transmit or receive signals or power to or from the outside (eg, an external electronic device). According to one embodiment, the antenna module 197 may include an antenna including a radiator made of a conductor or a conductive pattern formed on a substrate (eg, PCB). According to one embodiment, the antenna module 197 may include a plurality of antennas (eg, an array antenna). In this case, at least one antenna suitable for a communication method used in a communication network such as the first network 198 or the second network 199 is, for example, connected to the plurality of antennas by the communication module 190. can be selected. Signals or power may be transmitted or received between the communication module 190 and an external electronic device through the at least one selected antenna. According to some embodiments, in addition to the radiator, other components (eg, radio frequency integrated circuit (RFIC)) may be additionally formed as part of the antenna module 197.
다양한 실시예에 따르면, 안테나 모듈(197)은 mmWave 안테나 모듈을 형성할 수 있다. 일실시예에 따르면, mmWave 안테나 모듈은 인쇄 회로 기판, 상기 인쇄 회로 기판의 제1 면(예: 아래 면)에 또는 그에 인접하여 배치되고 지정된 고주파 대역(예: mmWave 대역)을 지원할 수 있는 RFIC, 및 상기 인쇄 회로 기판의 제2 면(예: 윗 면 또는 측 면)에 또는 그에 인접하여 배치되고 상기 지정된 고주파 대역의 신호를 송신 또는 수신할 수 있는 복수의 안테나들(예: 어레이 안테나)을 포함할 수 있다.According to various embodiments, the antenna module 197 may form a mmWave antenna module. According to one embodiment, a mmWave antenna module includes a printed circuit board, an RFIC disposed on or adjacent to a first side (e.g., bottom side) of the printed circuit board and capable of supporting a designated high frequency band (e.g., mmWave band); And a plurality of antennas (e.g., array antennas) disposed on or adjacent to the second side (e.g., top or side) of the printed circuit board and capable of transmitting or receiving signals in the designated high frequency band. can do.
상기 구성요소들 중 적어도 일부는 주변 기기들간 통신 방식(예: 버스, GPIO(general purpose input and output), SPI(serial peripheral interface), 또는 MIPI(mobile industry processor interface))을 통해 서로 연결되고 신호(예: 명령 또는 데이터)를 상호간에 교환할 수 있다.At least some of the components are connected to each other through a communication method between peripheral devices (e.g., bus, general purpose input and output (GPIO), serial peripheral interface (SPI), or mobile industry processor interface (MIPI)) and signal ( (e.g. commands or data) can be exchanged with each other.
일 실시예에 따르면, 명령 또는 데이터는 제2 네트워크(199)에 연결된 서버(108)를 통해서 전자 장치(101)와 외부의 전자 장치(104)간에 송신 또는 수신될 수 있다. 외부의 전자 장치(102, 또는 104) 각각은 전자 장치(101)와 동일한 또는 다른 종류의 장치일 수 있다. 일실시예에 따르면, 전자 장치(101)에서 실행되는 동작들의 전부 또는 일부는 외부의 전자 장치들(102, 104, 또는 108) 중 하나 이상의 외부의 전자 장치들에서 실행될 수 있다. 예를 들면, 전자 장치(101)가 어떤 기능이나 서비스를 자동으로, 또는 사용자 또는 다른 장치로부터의 요청에 반응하여 수행해야 할 경우에, 전자 장치(101)는 기능 또는 서비스를 자체적으로 실행시키는 대신에 또는 추가적으로, 하나 이상의 외부의 전자 장치들에게 그 기능 또는 그 서비스의 적어도 일부를 수행하라고 요청할 수 있다. 상기 요청을 수신한 하나 이상의 외부의 전자 장치들은 요청된 기능 또는 서비스의 적어도 일부, 또는 상기 요청과 관련된 추가 기능 또는 서비스를 실행하고, 그 실행의 결과를 전자 장치(101)로 전달할 수 있다. 전자 장치(101)는 상기 결과를, 그대로 또는 추가적으로 처리하여, 상기 요청에 대한 응답의 적어도 일부로서 제공할 수 있다. 이를 위하여, 예를 들면, 클라우드 컴퓨팅, 분산 컴퓨팅, 모바일 에지 컴퓨팅(MEC: mobile edge computing), 또는 클라이언트-서버 컴퓨팅 기술이 이용될 수 있다. 전자 장치(101)는, 예를 들어, 분산 컴퓨팅 또는 모바일 에지 컴퓨팅을 이용하여 초저지연 서비스를 제공할 수 있다. 다른 실시예에 있어서, 외부의 전자 장치(104)는 IoT(internet of things) 기기를 포함할 수 있다. 서버(108)는 기계 학습 및/또는 신경망을 이용한 지능형 서버일 수 있다. 일실시예에 따르면, 외부의 전자 장치(104) 또는 서버(108)는 제2 네트워크(199) 내에 포함될 수 있다. 전자 장치(101)는 5G 통신 기술 및 IoT 관련 기술을 기반으로 지능형 서비스(예: 스마트 홈, 스마트 시티, 스마트 카, 또는 헬스 케어)에 적용될 수 있다. According to one embodiment, commands or data may be transmitted or received between the electronic device 101 and the external electronic device 104 through the server 108 connected to the second network 199. Each of the external electronic devices 102 or 104 may be of the same or different type as the electronic device 101. According to one embodiment, all or part of the operations performed in the electronic device 101 may be executed in one or more of the external electronic devices 102, 104, or 108. For example, when the electronic device 101 must perform a certain function or service automatically or in response to a request from a user or another device, the electronic device 101 may perform the function or service instead of executing the function or service on its own. Alternatively, or additionally, one or more external electronic devices may be requested to perform at least part of the function or service. One or more external electronic devices that have received the request may execute at least part of the requested function or service, or an additional function or service related to the request, and transmit the result of the execution to the electronic device 101. The electronic device 101 may process the result as is or additionally and provide it as at least part of a response to the request. For this purpose, for example, cloud computing, distributed computing, mobile edge computing (MEC), or client-server computing technology can be used. The electronic device 101 may provide an ultra-low latency service using, for example, distributed computing or mobile edge computing. In another embodiment, the external electronic device 104 may include an Internet of Things (IoT) device. Server 108 may be an intelligent server using machine learning and/or neural networks. According to one embodiment, the external electronic device 104 or server 108 may be included in the second network 199. The electronic device 101 may be applied to intelligent services (e.g., smart home, smart city, smart car, or healthcare) based on 5G communication technology and IoT-related technology.
일 실시예에 따르면, 전자 장치(101)는 소프트웨어 어플리케이션(software application)을 통해 시각적 객체(visual object)를 표시(display)할 수 있다. 상기 전자 장치(101)는, 사용자의 터치 입력을 식별가능한 디스플레이를 포함하는 장치, PC, AR/VR 기기, 또는 메타버스(metaverse) 기기를 포함할 수 있다.According to one embodiment, the electronic device 101 may display a visual object through a software application. The electronic device 101 may include a device including a display capable of identifying a user's touch input, a PC, an AR/VR device, or a metaverse device.
예를 들어, 전자 장치(101)는, 하나의 소프트웨어 어플리케이션을 통해 적어도 하나의 시각적 객체를 표시할 수 있다. 또한, 전자 장치(101)는, 복수의 소프트웨어 어플리케이션들을 통해 복수의 시각적 객체들을 표시할 수 있다. 일 실시예에 따르면, 전자 장치(101)는, 전자 장치(101)의 사용자(user)로부터 입력을 수신할 수 있고, 사용자의 입력에 기반하여 시각적 객체를 식별할 수 있다. 예를 들어, 사용자의 입력은, 터치 입력(touch input)을 포함할 수 있다. 예를 들어, 터치 입력은, 사용자의 신체 일부(예: 손가락(finger)) 또는 외부 전자 장치(예: 펜(pen))를 통해 입력될 수 있다. 전자 장치(101)는 복수의 시각적 객체들이 부분적으로(partially) 또는 완전히(fully) 중첩되는(overlapped) 경우 사용자가 입력하고자 하는 대상인 시각적 객체가 식별할 필요가 있다. 복수의 시각적 객체들이 중첩된 상태로 표시되는 경우의 예들은 이하 도 2a 내지 도 2e에서 서술된다. For example, the electronic device 101 may display at least one visual object through one software application. Additionally, the electronic device 101 may display a plurality of visual objects through a plurality of software applications. According to one embodiment, the electronic device 101 may receive input from a user of the electronic device 101 and identify a visual object based on the user's input. For example, the user's input may include touch input. For example, touch input may be input through a part of the user's body (eg, finger) or an external electronic device (eg, pen). When a plurality of visual objects partially or fully overlap, the electronic device 101 needs to identify the visual object that the user wants to input. Examples of cases where a plurality of visual objects are displayed in an overlapping state are described below in FIGS. 2A to 2E.
도 2a 내지 도 2e는 본 개시의 일 실시예에 따른 복수의 시각적 객체(visual object)들이 중첩된(overlapped) 상태로 표시되는 예들을 도시한다. 도 2a 내지 도 2e의 전자 장치(101)는 도 1의 전자 장치(101)의 구성 요소들의 일부 또는 전부를 포함할 수 있다. Figures 2A to 2E show examples in which a plurality of visual objects are displayed in an overlapped state according to an embodiment of the present disclosure. The electronic device 101 of FIGS. 2A to 2E may include some or all of the components of the electronic device 101 of FIG. 1 .
도 2a의 예(200)를 참조하면, 전자 장치(101)는, 제1 소프트웨어 어플리케이션(software application)을 이용하여 시각적 객체(201)를 포함하는 시각적 객체들을 표시할 수 있다. 예를 들어, 전자 장치(101)는, 게임(game) 서비스를 제공하는 제1 소프트웨어 어플리케이션을 이용하여 시각적 객체들을 디스플레이(예: 도 1의 디스플레이 모듈(160))을 통해 표시할 수 있다. 시각적 객체(201)는 사용자의 입력(예: 터치 입력(touch input))에 응답하여, 제1 소프트웨어 어플리케이션을 통해 제1 기능(function)을 실행(execute)할 수 있다. 예를 들어, 상기 제1 기능은, 사용자의 게임 캐릭터(game character)에 대한 상태 정보를 확인하는 기능을 포함할 수 있다. 제1 소프트웨어 어플리케이션을 통해 시각적 객체(201)가 표시되는 동안, 제2 소프트웨어 어플리케이션을 통해 시각적 객체(202)가 표시될 수 있다. 예를 들어, 메시지(message) 송수신을 위한 제2 소프트웨어 어플리케이션을 통해 메시지 알림을 위한 시각적 객체(202)가 시각적 객체(201)와 적어도 일부 중첩된 상태로 표시될 수 있다. 예를 들어, 시각적 객체(202)는 팝업(pop-up)되어 표시될 수 있다. 시각적 객체(202)는 사용자의 입력에 응답하여, 제2 소프트웨어 어플리케이션을 통해 제2 기능을 실행할 수 있다. 예를 들어, 상기 제2 기능은, 메시지 송수신을 확인을 위한 화면(205)으로의 전환을 포함할 수 있다. 상술한 바를 참조하면, 전자 장치(101)의 사용자가 제1 소프트웨어 어플리케이션을 통해 제공되는 게임을 진행하는 중, 제2 소프트웨어 어플리케이션을 통해 시각적 객체(202)가 표시될 때, 사용자가 시각적 객체(201)에 대한 입력을 수행할 수 있다. 만약, 사용자가 영역(203)을 통해 시각적 객체(201)에 대한 입력을 수행하는 경우, 전자 장치(101)는 영역(203)내 시각적 객체(201)와 중첩되도록 표시된 시각적 객체(202)에 대한 응답으로 식별할 수 있고, 제2 기능을 실행할 수 있다. 이에 따라, 전자 장치(101)는 사용자가 의도하지 않은 기능을 실행할 수 있고, 사용자에게 불편한(uncomfortable) 사용자 경험을 제공할 수 있다.Referring to the example 200 of FIG. 2A, the electronic device 101 may display visual objects including the visual object 201 using a first software application. For example, the electronic device 101 may display visual objects through a display (eg, the display module 160 of FIG. 1) using a first software application that provides a game service. The visual object 201 may execute a first function through a first software application in response to a user's input (eg, touch input). For example, the first function may include a function of checking status information about the user's game character. While the visual object 201 is displayed through the first software application, the visual object 202 may be displayed through the second software application. For example, the visual object 202 for message notification may be displayed with at least some overlap with the visual object 201 through a second software application for sending and receiving messages. For example, the visual object 202 may be displayed in a pop-up manner. The visual object 202 may execute a second function through a second software application in response to the user's input. For example, the second function may include switching to the screen 205 for confirming message transmission and reception. Referring to the above, while the user of the electronic device 101 is playing a game provided through the first software application, when the visual object 202 is displayed through the second software application, the user displays the visual object 201 ) can be input. If the user performs an input on the visual object 201 through the area 203, the electronic device 101 displays the visual object 202 displayed to overlap the visual object 201 within the area 203. It can be identified by the response, and the second function can be executed. Accordingly, the electronic device 101 may execute functions unintended by the user and provide an uncomfortable user experience to the user.
도 2b의 예(220)를 참조하면, 전자 장치(101)는, 제1 소프트웨어 어플리케이션(software application)을 이용하여 시각적 객체(201)를 포함하는 시각적 객체들을 표시할 수 있다. 예를 들어, 전자 장치(101)는, 뉴스(news) 리딩(reading) 서비스를 제공하는 제1 소프트웨어 어플리케이션을 이용하여 시각적 객체들을 디스플레이(예: 도 1의 디스플레이 모듈(160))을 통해 표시할 수 있다. 시각적 객체(221)는 사용자의 입력(예: 터치 입력(touch input))에 응답하여, 제1 소프트웨어 어플리케이션을 통해 제1 기능(function)을 실행(execute)할 수 있다. 예를 들어, 상기 제1 기능은, 시각적 객체(221)에 대응하는 뉴스에 대한 구체적인 컨텐츠(contents)를 확인가능한 페이지로의 이동하는 기능을 포함할 수 있다. 제1 소프트웨어 어플리케이션을 통해 시각적 객체(221)가 표시되는 동안, 제2 소프트웨어 어플리케이션을 통해 시각적 객체(222)가 표시될 수 있다. 예를 들어, 메시지(message) 송수신을 위한 제2 소프트웨어 어플리케이션을 통해 메시지 알림을 위한 시각적 객체(222)가 시각적 객체(221)와 적어도 일부 중첩된 상태로 표시될 수 있다. 예를 들어, 시각적 객체(222)는 토스트(toast) 팝업(pop-up)될 수 있다. 상기 토스트 팝업은, 팝업의 일 종류로, 전자 장치(101)의 디스플레이의 하단 부분으로부터 튀어 오르는 스타일로 팝업되는 방식을 나타낼 수 있다. 시각적 객체(222)는 사용자의 입력에 응답하여, 제2 소프트웨어 어플리케이션을 통해 제2 기능을 실행할 수 있다. 예를 들어, 상기 제2 기능은, 메시지 송수신을 확인을 위한 화면으로의 전환을 포함할 수 있다. 상술한 바를 참조하면, 전자 장치(101)의 사용자가 제1 소프트웨어 어플리케이션을 통해 제공되는 더 많은 뉴스들을 확인하기 위하여 디스플레이를 스크롤(scroll)하는 중, 제2 소프트웨어 어플리케이션을 통해 시각적 객체(222)가 표시될 수 있고, 사용자가 시각적 객체(221)에 대한 입력을 수행할 수 있다. 만약, 사용자가 영역(223)을 통해 시각적 객체(221)에 대한 입력을 수행하는 경우, 전자 장치(101)는 영역(223) 내 시각적 객체(221)와 중첩되도록 표시된 시각적 객체(222)에 대한 응답으로 식별할 수 있고, 제2 기능을 실행할 수 있다. 이에 따라, 전자 장치(101)는 사용자가 의도하지 않은 기능을 실행할 수 있고, 사용자에게 불편한(uncomfortable) 사용자 경험을 제공할 수 있다.Referring to example 220 of FIG. 2B, the electronic device 101 may display visual objects including the visual object 201 using a first software application. For example, the electronic device 101 may display visual objects through a display (e.g., the display module 160 in FIG. 1) using a first software application that provides a news reading service. You can. The visual object 221 may execute a first function through a first software application in response to a user's input (eg, touch input). For example, the first function may include a function of moving to a page where specific content about news corresponding to the visual object 221 can be confirmed. While the visual object 221 is displayed through the first software application, the visual object 222 may be displayed through the second software application. For example, the visual object 222 for message notification may be displayed at least partially overlapping with the visual object 221 through a second software application for sending and receiving messages. For example, visual object 222 may toast or pop-up. The toast pop-up is a type of pop-up and may represent a pop-up style that bounces from the lower part of the display of the electronic device 101. The visual object 222 may execute a second function through a second software application in response to the user's input. For example, the second function may include switching to a screen for confirming message transmission and reception. Referring to the above, while the user of the electronic device 101 is scrolling the display to check more news provided through the first software application, the visual object 222 is displayed through the second software application. It may be displayed, and the user may perform input on the visual object 221. If the user inputs the visual object 221 through the area 223, the electronic device 101 displays the visual object 222 displayed to overlap the visual object 221 within the area 223. It can be identified by the response, and the second function can be executed. Accordingly, the electronic device 101 may execute functions unintended by the user and provide an uncomfortable user experience to the user.
도 2c의 예(240)를 참조하면, 전자 장치(101)는, 제1 소프트웨어 어플리케이션(software application)을 이용하여 시각적 객체(241)를 포함하는 시각적 객체들을 표시할 수 있다. 예를 들어, 전자 장치(101)는, 온라인 쇼핑(online shopping) 서비스를 제공하는 제1 소프트웨어 어플리케이션을 이용하여 시각적 객체들을 디스플레이(예: 도 1의 디스플레이 모듈(160))을 통해 표시할 수 있다. 시각적 객체(241)는 사용자의 입력(예: 터치 입력(touch input))에 응답하여, 제1 소프트웨어 어플리케이션을 통해 제1 기능(function)을 실행(execute)할 수 있다. 예를 들어, 상기 제1 기능은, 시각적 객체(241)에 대응하는 판매 정보에 대한 구체적인 컨텐츠(contents)를 확인가능한 페이지로의 이동하는 기능을 포함할 수 있다. 제1 소프트웨어 어플리케이션을 통해 시각적 객체(241)가 표시되는 동안, 제2 소프트웨어 어플리케이션을 통해 시각적 객체(242)가 표시될 수 있다. 예를 들어, 제2 소프트웨어 어플리케이션을 통해 화면 설정을 위한 위젯(widget)을 표시하는 시각적 객체(242)가 시각적 객체(241)와 적어도 일부 중첩된 상태로 표시될 수 있다. 예를 들어, 시각적 객체(242)는 플로팅(floating) 팝업될 수 있다. 상기 플로팅 팝업은, 팝업의 일 종류로, 다른 객체에 대하여 떠 있는 스타일로 팝업되는 방식을 나타낼 수 있다. 시각적 객체(242)는 사용자의 입력에 응답하여, 제2 소프트웨어 어플리케이션을 통해 제2 기능을 실행할 수 있다. 예를 들어, 상기 제2 기능은, 화면 설정에 대한 빠른 설정(quick setting)을 위한 시각적 객체(245)의 표시를 포함할 수 있다. 상술한 바를 참조하면, 전자 장치(101)의 사용자가 제1 소프트웨어 어플리케이션을 통해 제공되는 판매 제품들 중 하나에 대응하는 시각적 객체(241)를 선택하려는 경우, 제2 소프트웨어 어플리케이션을 통해 시각적 객체(242)가 표시되어 있는 상태일 수 있다. 사용자가 영역(243)을 통해 시각적 객체(241)에 대한 입력을 수행하는 경우, 전자 장치(101)는 영역(243) 내 시각적 객체(241)와 중첩되도록 표시된 시각적 객체(242)에 대한 응답으로 식별할 수 있고, 제2 기능을 실행하여 시각적 객체(245)를 표시할 수 있다. 이에 따라, 전자 장치(101)는 사용자가 의도하지 않은 기능을 실행할 수 있고, 사용자에게 불편한(uncomfortable) 사용자 경험을 제공할 수 있다.Referring to example 240 of FIG. 2C, the electronic device 101 may display visual objects including the visual object 241 using a first software application. For example, the electronic device 101 may display visual objects through a display (e.g., the display module 160 of FIG. 1) using a first software application that provides an online shopping service. . The visual object 241 may execute a first function through a first software application in response to a user's input (eg, touch input). For example, the first function may include a function of moving to a page where specific contents about sales information corresponding to the visual object 241 can be confirmed. While the visual object 241 is displayed through the first software application, the visual object 242 may be displayed through the second software application. For example, a visual object 242 that displays a widget for screen settings may be displayed at least partially overlapping with the visual object 241 through a second software application. For example, visual object 242 may pop up and float. The floating pop-up is a type of pop-up and may represent a method of popping up in a floating style relative to another object. The visual object 242 may execute a second function through a second software application in response to the user's input. For example, the second function may include displaying a visual object 245 for quick setting of screen settings. Referring to the above, when the user of the electronic device 101 wants to select the visual object 241 corresponding to one of the sales products provided through the first software application, the visual object 242 is selected through the second software application. ) may be displayed. When the user performs an input to the visual object 241 through area 243, the electronic device 101 responds to the visual object 242 displayed to overlap the visual object 241 within area 243. The visual object 245 may be identified and a second function may be performed to display the visual object 245 . Accordingly, the electronic device 101 may execute functions unintended by the user and provide an uncomfortable user experience to the user.
도 2d의 예(260)를 참조하면, 전자 장치(101)는, 제1 소프트웨어 어플리케이션(software application)을 이용하여 시각적 객체(261)를 포함하는 시각적 객체들을 표시할 수 있다. 예를 들어, 전자 장치(101)는, 게임(game) 서비스를 제공하는 제1 소프트웨어 어플리케이션을 이용하여 시각적 객체들을 디스플레이(예: 도 1의 디스플레이 모듈(160))을 통해 표시할 수 있다. 시각적 객체(261)는 사용자의 입력(예: 터치 입력(touch input))에 응답하여, 제1 소프트웨어 어플리케이션을 통해 제1 기능(function)을 실행(execute)할 수 있다. 예를 들어, 상기 제1 기능은, 사용자의 게임 캐릭터(game character)를 획득하는 과정을 표시하기 위한 기능을 포함할 수 있다. 제1 소프트웨어 어플리케이션을 통해 시각적 객체(261)가 표시되는 동안, 제2 소프트웨어 어플리케이션을 통해 시각적 객체(262)가 표시될 수 있다. 예를 들어, 메시지(message) 송수신을 위한 제2 소프트웨어 어플리케이션을 통해 메시지 알림을 위한 시각적 객체(262)가 시각적 객체(261)와 적어도 일부 중첩된 상태로 표시될 수 있다. 예를 들어, 시각적 객체(262)는 팝업(pop-up)되어 표시될 수 있다. 시각적 객체(262)는 사용자의 입력에 응답하여, 제2 소프트웨어 어플리케이션을 통해 제2 기능을 실행할 수 있다. 예를 들어, 상기 제2 기능은, 메시지 송수신을 확인을 위한 화면(예: 도 2a의 화면(265))으로의 전환을 포함할 수 있다. 상술한 바를 참조하면, 전자 장치(101)의 사용자가 제1 소프트웨어 어플리케이션을 통해 제공되는 게임을 진행하는 중, 제2 소프트웨어 어플리케이션을 통해 시각적 객체(262)가 표시될 때, 사용자가 시각적 객체(261)에 대한 입력을 수행할 수 있다. 만약, 사용자가 영역(263)을 포함하도록 시각적 객체(261)에 대한 입력(예: 스크롤(scroll))을 수행하는 경우, 전자 장치(101)는 영역(263) 내 시각적 객체(261)와 중첩되도록 표시된 시각적 객체(262)에 대한 응답으로 식별할 수 있고, 제2 기능을 실행할 수 있다. 이에 따라, 전자 장치(101)는 사용자가 의도하지 않은 기능을 실행할 수 있고, 사용자에게 불편한(uncomfortable) 사용자 경험을 제공할 수 있다.Referring to the example 260 of FIG. 2D, the electronic device 101 may display visual objects including the visual object 261 using a first software application. For example, the electronic device 101 may display visual objects through a display (eg, the display module 160 of FIG. 1) using a first software application that provides a game service. The visual object 261 may execute a first function through a first software application in response to a user's input (eg, touch input). For example, the first function may include a function for displaying the process of acquiring a user's game character. While the visual object 261 is displayed through the first software application, the visual object 262 may be displayed through the second software application. For example, the visual object 262 for message notification may be displayed at least partially overlapping with the visual object 261 through a second software application for sending and receiving messages. For example, the visual object 262 may be displayed in a pop-up manner. The visual object 262 may execute a second function through a second software application in response to the user's input. For example, the second function may include switching to a screen for confirming message transmission and reception (eg, screen 265 in FIG. 2A). Referring to the above, while the user of the electronic device 101 is playing a game provided through the first software application, when the visual object 262 is displayed through the second software application, the user displays the visual object 261 ) can be input. If the user performs an input (e.g., scrolling) on the visual object 261 to include the area 263, the electronic device 101 overlaps the visual object 261 within the area 263. Preferably in response to the displayed visual object 262, it can be identified and the second function can be executed. Accordingly, the electronic device 101 may execute functions unintended by the user and provide an uncomfortable user experience to the user.
도 2e의 예(280)를 참조하면, 전자 장치(101)는, 제1 소프트웨어 어플리케이션(software application)을 이용하여 시각적 객체(281)를 포함하는 시각적 객체들을 표시할 수 있다. 예를 들어, 전자 장치(101)는, 가상 공간(virtual space)을 표시하는 제1 소프트웨어 어플리케이션을 이용하여 시각적 객체들을 디스플레이(예: 도 1의 디스플레이 모듈(160))을 통해 표시할 수 있다. 예를 들어, 전자 장치(101)는 웨어러블 장치(wearable device)를 포함할 수 있다. 상기 웨어러블 장치는, 사용자의 신체 부분에 착용된 상태로 구동하는 장치를 포함할 수 있고, 예를 들어 VR(virtual reality) 기기, AR(augmented reality) 기기, 또는 MR(mixed reality) 기기를 포함할 수 있다. 시각적 객체(281)는 사용자의 입력(예: 터치 입력(touch input))에 응답하여, 제1 소프트웨어 어플리케이션을 통해 제1 기능(function)을 실행(execute)할 수 있다. 예를 들어, 상기 제1 기능은, 상기 가상 공간에 대한 정보를 나타내기 위한 기능을 포함할 수 있다. 제1 소프트웨어 어플리케이션을 통해 시각적 객체(281)가 표시되는 동안, 제2 소프트웨어 어플리케이션을 통해 시각적 객체(282)가 표시될 수 있다. 예를 들어, 메시지(message) 송수신을 위한 제2 소프트웨어 어플리케이션을 통해 메시지 알림을 위한 시각적 객체(282)가 시각적 객체(281)와 적어도 일부 중첩된 상태로 표시될 수 있다. 예를 들어, 시각적 객체(282)는 팝업(pop-up)되어 표시될 수 있다. 시각적 객체(282)는 사용자의 입력에 응답하여, 제2 소프트웨어 어플리케이션을 통해 제2 기능을 실행할 수 있다. 예를 들어, 상기 제2 기능은, 메시지 송수신을 확인을 위한 화면(예: 도 2a의 화면(285))으로의 전환을 포함할 수 있다. 상술한 바를 참조하면, 전자 장치(101)의 사용자가 제1 소프트웨어 어플리케이션을 통해 제공되는 게임을 진행하는 중, 제2 소프트웨어 어플리케이션을 통해 시각적 객체(282)가 표시될 때, 사용자가 시각적 객체(281)에 대한 입력을 수행할 수 있다. 만약, 사용자가 영역(283)을 포함하도록 시각적 객체(281)에 대한 입력(예: 스크롤(scroll))을 수행하는 경우, 전자 장치(101)는 영역(283) 내 시각적 객체(281)와 중첩되도록 표시된 시각적 객체(282)에 대한 응답으로 식별할 수 있고, 제2 기능을 실행할 수 있다. 이에 따라, 전자 장치(101)는 사용자가 의도하지 않은 기능을 실행할 수 있고, 사용자에게 불편한(uncomfortable) 사용자 경험을 제공할 수 있다.Referring to example 280 of FIG. 2E, the electronic device 101 may display visual objects including the visual object 281 using a first software application. For example, the electronic device 101 may display visual objects through a display (eg, the display module 160 of FIG. 1) using a first software application that displays a virtual space. For example, the electronic device 101 may include a wearable device. The wearable device may include a device that operates while worn on a part of the user's body, and may include, for example, a virtual reality (VR) device, an augmented reality (AR) device, or a mixed reality (MR) device. You can. The visual object 281 may execute a first function through a first software application in response to a user's input (eg, touch input). For example, the first function may include a function for displaying information about the virtual space. While the visual object 281 is displayed through the first software application, the visual object 282 may be displayed through the second software application. For example, the visual object 282 for message notification may be displayed at least partially overlapping with the visual object 281 through a second software application for sending and receiving messages. For example, the visual object 282 may be displayed in a pop-up manner. The visual object 282 may execute a second function through a second software application in response to the user's input. For example, the second function may include switching to a screen for confirming message transmission and reception (e.g., screen 285 in FIG. 2A). Referring to the above, while the user of the electronic device 101 is playing a game provided through the first software application, when the visual object 282 is displayed through the second software application, the user displays the visual object 281 ) can be input. If the user performs an input (e.g., scrolling) on the visual object 281 to include the area 283, the electronic device 101 overlaps the visual object 281 within the area 283. Preferably in response to the displayed visual object 282, it can be identified and the second function can be executed. Accordingly, the electronic device 101 may execute functions unintended by the user and provide an uncomfortable user experience to the user.
도 2a 내지 도 2e를 참조하면, 전자 장치(101)는, 편의성 증대를 위하여 하나의 소프트웨어 어플리케이션(예: 상기 제1 소프트웨어 어플리 케이션)을 이용하는 경우라도, 다른 소프트웨어 어플리케이션(예: 상기 제2 소프트웨어 어플리케이션)을 통해 알림 정보를 사용자에게 제공할 수 있다. 그러나, 편의성 증대를 위해 제공하는 상기 알림 정보가, 오히려 사용자의 몰입도를 떨어트릴 수 있고, 만족스럽지 않은 사용자 경험을 야기할 수 있다. 2A to 2E, the electronic device 101 may use another software application (e.g., the second software application) even when using one software application (e.g., the first software application) to increase convenience. ), notification information can be provided to the user. However, the notification information provided to increase convenience may reduce user immersion and cause an unsatisfactory user experience.
이하, 본 개시의 실시예들에 따른 복수의 시각적 객체들 중 입력에 대응하는 시각적 객체를 식별하는 장치 및 방법은, 기준 길이(reference length)에 기반하여, 사용자의 의도(intention)에 따른 시각적 객체를 식별할 수 있다. 또한, 본 개시의 실시예들에 따른 장치 및 방법은, 예상하지 못한(unexpected) 화면이 갑작스럽게 표시되더라도, 사용자의 의도에 대응하는 시각적 객체를 표시할 수 있다. 이에 따라, 본 개시의 실시예들에 따른 장치 및 방법은, 보다 편안하고 몰입도 높은 사용자 경험을 제공할 수 있고, 입력의 정확도를 높일 수 있다. Hereinafter, an apparatus and method for identifying a visual object corresponding to an input among a plurality of visual objects according to embodiments of the present disclosure will provide a visual object according to the user's intention, based on a reference length. can be identified. Additionally, the apparatus and method according to embodiments of the present disclosure can display a visual object corresponding to the user's intention even if an unexpected screen is suddenly displayed. Accordingly, the device and method according to embodiments of the present disclosure can provide a more comfortable and immersive user experience and increase input accuracy.
도 3은 본 개시의 일 실시예에 따른 복수의 시각적 객체들 중 시각적 객체를 식별하기 위한 전자 장치의 기능적 구성요소들의 예를 도시한다. FIG. 3 illustrates an example of functional components of an electronic device for identifying a visual object among a plurality of visual objects according to an embodiment of the present disclosure.
도 3을 참조하면, 복수의 시각적 객체들 중 입력에 대응하는 시각적 객체를 식별하기 위한 기능적 구성요소들(300, 310, 320, 330)을 포함하는 전자 장치(101)를 도시한다. 도 3의 전자 장치(101)는 도 1의 전자 장치(101)의 구성 요소들의 일부 또는 전부를 포함할 수 있다.Referring to FIG. 3 , an electronic device 101 is shown including functional components 300, 310, 320, and 330 for identifying a visual object corresponding to an input among a plurality of visual objects. The electronic device 101 of FIG. 3 may include some or all of the components of the electronic device 101 of FIG. 1 .
일 실시예에 따르면, 전자 장치(101)는 복수의 시각적 객체들 중 입력에 대응하는 시각적 객체를 식별하기 위한 입력 식별 모듈(300), 입력 데이터 수집 모듈(310), 입력 데이터 처리 모듈(320), 및 어플리케이션 적용 모듈(330)을 포함할 수 있다. 입력 식별 모듈(300), 입력 데이터 수집 모듈(310), 입력 데이터 처리 모듈(320) 및 어플리케이션 적용 모듈(330)은 전자 장치(101)의 적어도 하나의 프로세서(예: 도 1의 프로세서(120)))에 의해 제어될 수 있다.According to one embodiment, the electronic device 101 includes an input identification module 300, an input data collection module 310, and an input data processing module 320 for identifying a visual object corresponding to an input among a plurality of visual objects. , and may include an application application module 330. The input identification module 300, the input data collection module 310, the input data processing module 320, and the application application module 330 are connected to at least one processor of the electronic device 101 (e.g., the processor 120 of FIG. 1). )) can be controlled by.
일 실시예에 따르면, 입력 식별 모듈(300)은, 전자 장치(101)에 대한 입력을 식별할 수 있다. 예를 들어, 입력 식별 모듈(300)은, TSP(touch screen panel) 드라이버(driver), 또는 마우스 트래킹(mouse tracking) 모듈을 포함할 수 있다. TSP 드라이버, 또는 마우스 트래킹에 기반하여, 입력 식별 모듈(300)은 사용자의 전자 장치(101)의 디스플레이(예: 도 1의 디스플레이 모듈(160))을 통한 터치 입력을 식별할 수 있다. TSP 드라이버, 또는 마우스 트래킹은 설명의 편의를 위한 예시에 불과할 뿐, 본 개시의 실시예들이 이에 제한되는 것은 아니다. 본 개시의 실시예들은, 사용자의 터치 입력을 포함하는 입력들을 식별하기 위한 입력 식별 모듈(300)을 포함할 수 있다. 또한, 상기 터치 입력은, 이하의 설명의 편의를 위한 입력의 예시에 불과할 뿐, 본 개시의 실시예들이 이에 제한되는 것은 아니다. 예를 들어, 입력 식별 모듈(300)은 사용자의 안구 움직임 또는 제스처(gesture)에 기반하여 획득되는 입력을 식별할 수 있다.According to one embodiment, the input identification module 300 can identify the input to the electronic device 101. For example, the input identification module 300 may include a touch screen panel (TSP) driver or a mouse tracking module. Based on the TSP driver or mouse tracking, the input identification module 300 can identify a touch input through the display of the user's electronic device 101 (eg, the display module 160 of FIG. 1). The TSP driver or mouse tracking is merely an example for convenience of explanation, and embodiments of the present disclosure are not limited thereto. Embodiments of the present disclosure may include an input identification module 300 for identifying inputs including a user's touch input. Additionally, the touch input is merely an example of an input for the convenience of the following description, and embodiments of the present disclosure are not limited thereto. For example, the input identification module 300 may identify input obtained based on the user's eye movement or gesture.
일 실시예에 따르면, 입력 데이터 수집 모듈(310)은, 입력 식별 모듈(300)을 통해 식별된 입력에 대한 정보(information)를 수집할 수 있다. 예를 들어, 입력 데이터 수집 모듈(310)은, 이벤트 허브(event hub) 및 입력 리더(input reader)를 포함할 수 있다. 입력 데이터 수집 모듈(310)은, 상기 이벤트 허브 및 입력 리더에 기반하여, 식별된 상기 입력에 대한 정보를 수신하고, 처리(process)하고, 처리된 정보를 저장할 수 있다. 이벤트 허브및 입력 리더는 설명의 편의를 위한 예시에 불과할 뿐, 본 개시의 실시예들이 이에 제한되는 것은 아니다. 본 개시의 실시예들은, 입력들을 수신하고 저장하기 위한 입력 데이터 수집 모듈(310)을 포함할 수 있다.According to one embodiment, the input data collection module 310 may collect information about the input identified through the input identification module 300. For example, the input data collection module 310 may include an event hub and an input reader. The input data collection module 310 may receive, process, and store information about the identified input based on the event hub and input reader. The event hub and input reader are merely examples for convenience of explanation, and embodiments of the present disclosure are not limited thereto. Embodiments of the present disclosure may include an input data collection module 310 for receiving and storing inputs.
일 실시예에 따르면, 입력 데이터 처리 모듈(320)은, 입력 데이터 수집 모듈(310)을 통해 수신, 처리 및 저장된 상기 입력에 대한 정보에 기반하여, 사용자의 입력에 대응하는 시각적 객체를 식별하기 위한 처리를 수행할 수 있다. 예를 들어, 입력 데이터 처리 모듈(320)은, 상기 입력에 대한 정보에 기반하여 식별된 기준 길이(reference length)에 기반하여, 복수의 시각적 객체들 중 입력에 대응하는 상기 시각적 객체를 식별할 수 있다. 상기 기준 길이는, 전자 장치(101)의 사용자가 전자 장치(101)의 디스플레이를 통해 표시된 시각적 객체에 대하여 판독가능한(readable) 시간을 나타낼 수 있다. 일 실시예에 따르면, 입력 데이터 처리 모듈(320)은, 상기 기준 길이와 특정 시각적 객체가 표시된 시간으로부터 상기 특정 시각적 객체에 대한 사용자의 입력을 식별한 시간 사이의 차이를 비교함으로써, 상기 사용자의 입력에 대응하는 시각적 객체를 식별할 수 있다. 이와 관련된 구체적인 내용은, 이하 도 4a에서 서술된다.According to one embodiment, the input data processing module 320 is configured to identify a visual object corresponding to the user's input, based on information about the input received, processed, and stored through the input data collection module 310. Processing can be performed. For example, the input data processing module 320 may identify the visual object corresponding to the input among a plurality of visual objects based on a reference length identified based on information about the input. there is. The reference length may represent a time during which a user of the electronic device 101 can read a visual object displayed through the display of the electronic device 101. According to one embodiment, the input data processing module 320 compares the difference between the reference length and the time when the specific visual object is displayed and the time when the user's input for the specific visual object is identified, thereby The corresponding visual object can be identified. Specific details related to this are described in FIG. 4A below.
일 실시예에 따르면, 입력 데이터 처리 모듈(320)은, 입력의 빈도(이하, 터치 빈도(touch frequency)) 및 입력의 영역(이하, 터치 영역(touch area))을 식별할 수 있다. 입력 데이터 처리 모듈(320)은 터치 빈도 및/또는 터치 영역에 기반하여, 상기 사용자의 입력에 대응하는 시각적 객체를 식별할 수 있다. 이와 관련된 구체적인 내용은, 이하 도 4b 및 도 4c에서 서술된다.According to one embodiment, the input data processing module 320 may identify the frequency of input (hereinafter, touch frequency) and the area of input (hereinafter, touch area). The input data processing module 320 may identify a visual object corresponding to the user's input based on the touch frequency and/or touch area. Specific details related to this are described in FIGS. 4B and 4C below.
일 실시예에 따르면, 어플리케이션 적용 모듈(330)은, 입력 데이터 처리 모듈(320)을 통해 식별된 시각적 객체에 기반하여, 소프트웨어 어플리케이션에 적용할 수 있다. 예를 들어, 어플리케이션 적용 모듈(330)은, 상기 식별된 시각적 객체에 대한 응답을 식별함에 기반하여, 상기 소프트웨어 어플리케이션의 기능(function)을 실행할 수 있다. 상기 기능은, 상기 식별된 시각적 객체 및/또는 상기 소프트웨어 어플리케이션에 기반하여 달라질 수 있다. According to one embodiment, the application application module 330 may apply a software application based on a visual object identified through the input data processing module 320. For example, the application application module 330 may execute a function of the software application based on identifying a response to the identified visual object. The functionality may vary based on the identified visual object and/or the software application.
도 4a는 본 개시의 일 실시예에 따른 복수의 시각적 객체들 중 입력에 대응하는 시각적 객체를 식별하기 위한 방법에 대한 예를 도시하는 흐름도이다. FIG. 4A is a flowchart illustrating an example of a method for identifying a visual object corresponding to an input among a plurality of visual objects according to an embodiment of the present disclosure.
도 4a의 방법은, 도 1의 전자 장치(101)에 의해 수행될 수 있다. 예를 들어, 도 4a의 방법은, 프로세서(예: 도 1의 프로세서(120))에 의해 수행될 수 있다. 상기 복수의 시각적 객체들은, 복수의 소프트웨어 어플리케이션들을 통해 전자 장치(101)의 디스플레이 상에서 표시될 수 있다. 예를 들어, 상기 복수의 소프트웨어 어플리케이션들 중 하나의 소프트웨어 어플리케이션은 적어도 하나의 시각적 객체를 표시할 수 있다.The method of FIG. 4A may be performed by the electronic device 101 of FIG. 1 . For example, the method of FIG. 4A may be performed by a processor (eg, processor 120 of FIG. 1). The plurality of visual objects may be displayed on the display of the electronic device 101 through a plurality of software applications. For example, one software application among the plurality of software applications may display at least one visual object.
일 실시예에 따르면, 동작(400)에서, 프로세서(120)는, 제1 소프트웨어 어플리케이션을 통해 제1 시각적 객체를 표시할 수 있다. 예를 들어, 프로세서(120)는, 터치 입력(touch input)에 응답하여 제1 소프트웨어 어플리케이션을 통해 제1 기능을 실행하기 위한 상기 제1 시각적 객체를, 전자 장치(101)의 디스플레이(예: 도 1의 디스플레이 모듈(160))을 통해 표시할 수 있다. 상기 제1 시각적 객체는, 상기 제1 기능을 실행하기 위한 객체로, 제1 실행가능한 객체로 참조될 수 있다. 일 실시예에 따르면, 프로세서(120)는 상기 제1 소프트웨어 어플리케이션을 통해 복수의 시각적 객체들을 표시할 수 있고, 상기 복수의 시각적 객체들은 상기 제1 시각적 객체를 포함할 수 있다. 상기 복수의 시각적 객체들은, 적어도 하나의 실행가능한 객체를 포함할 수 있다. According to one embodiment, in operation 400, the processor 120 may display a first visual object through a first software application. For example, the processor 120 may display the first visual object for executing a first function through a first software application in response to a touch input to a display of the electronic device 101 (e.g., FIG. It can be displayed through the display module 160 of 1. The first visual object is an object for executing the first function and may be referred to as a first executable object. According to one embodiment, the processor 120 may display a plurality of visual objects through the first software application, and the plurality of visual objects may include the first visual object. The plurality of visual objects may include at least one executable object.
일 실시예에 따르면, 상기 제1 소프트웨어 어플리케이션을 통해 표시되는 상기 복수의 시각적 객체들의 적어도 일부는, 배경 이미지(background image)로 구성될 수 있다. 예를 들어, 상기 배경 이미지는, 상기 제1 소프트웨어 어플리케이션을 통해 표시되는 상기 복수의 시각적 객체들의 적어도 일부가 구성하는 세트(set)를 나타낼 수 있다. 일 실시예에 따르면, 상기 배경 이미지는, 가상 공간(virtual space)을 표시할 수 있다. 예를 들어, 상기 제1 소프트웨어 어플리케이션이 상기 가상 공간을 표시하기 위한 소프트웨어 어플리케이션인 경우, 상기 배경 이미지는 상기 가상 공간에 대한 이미지를 포함할 수 있다. According to one embodiment, at least some of the plurality of visual objects displayed through the first software application may be configured as a background image. For example, the background image may represent a set comprised of at least some of the plurality of visual objects displayed through the first software application. According to one embodiment, the background image may display a virtual space. For example, when the first software application is a software application for displaying the virtual space, the background image may include an image for the virtual space.
일 실시예에 따르면, 동작(405)에서, 프로세서(120)는 제2 소프트웨어 어플리케이션을 통해 제2 시각적 객체를 표시할 수 있다. 예를 들어, 프로세서(120)는, 터치 입력(touch input)에 응답하여 제2 소프트웨어 어플리케이션을 통해 제2 기능을 실행하기 위한 상기 제2 시각적 객체를, 전자 장치(101)의 디스플레이(예: 도 1의 디스플레이 모듈(160))를 통해 표시할 수 있다. 프로세서(120)는, 상기 제2 시각적 객체를 상기 제1 시각적 객체의 적어도 일부가 중첩되도록 상기 디스플레이 상에서 표시할 수 있다. 예를 들어, 상기 제2 시각적 객체는 상기 제1 시각적 객체에 대하여 부분적으로 중첩될 수 있다. 또는, 상기 제2 시각적 객체는 상기 제1 시각적 객체에 대하여 완전히 중첩될 수 있다. 상기 제2 시각적 객체는, 상기 제2 기능을 실행하기 위한 객체로, 제2 실행가능한 객체로 참조될 수 있다. 일 실시예에 따르면, 프로세서(120)는 상기 제2 소프트웨어 어플리케이션을 통해 복수의 시각적 객체들을 표시할 수 있고, 상기 복수의 시각적 객체들은 상기 제2 시각적 객체를 포함할 수 있다. 상기 복수의 시각적 객체들은, 적어도 하나의 실행가능한 객체를 포함할 수 있다. According to one embodiment, in operation 405, processor 120 may display a second visual object via a second software application. For example, the processor 120 may display the second visual object for executing a second function through a second software application in response to a touch input, on the display of the electronic device 101 (e.g., FIG. It can be displayed through the display module 160 of 1. The processor 120 may display the second visual object on the display such that at least a portion of the first visual object overlaps. For example, the second visual object may partially overlap with the first visual object. Alternatively, the second visual object may completely overlap with the first visual object. The second visual object is an object for executing the second function and may be referred to as a second executable object. According to one embodiment, the processor 120 may display a plurality of visual objects through the second software application, and the plurality of visual objects may include the second visual object. The plurality of visual objects may include at least one executable object.
일 실시예에 따르면, 상기 제2 시각적 객체는 팝업(pop-up)될 수 있다. 예를 들어, 상기 제2 시각적 객체는, 토스트(toast) 팝업될 수 있다. 상기 토스트 팝업은, 팝업의 일 종류로, 전자 장치(101)의 디스플레이의 하단 부분으로부터 튀어 오르는 스타일로 팝업되는 방식을 나타낼 수 있다. 예를 들어, 상기 제2 시각적 객체는, 플로팅(floating) 팝업될 수 있다. 상기 플로팅 팝업은, 팝업의 일 종류로, 다른 객체에 대하여 떠 있는 스타일로 팝업되는 방식을 나타낼 수 있다.According to one embodiment, the second visual object may pop-up. For example, the second visual object may pop up as a toast. The toast pop-up is a type of pop-up and may represent a pop-up style that bounces from the lower part of the display of the electronic device 101. For example, the second visual object may be floating and pop-up. The floating pop-up is a type of pop-up and may represent a method of popping up in a floating style relative to another object.
일 실시예에 따르면, 상기 제2 시각적 객체는, 일정 시간 동안 팝업되어 표시된 후, 디스플레이 상에서 제거(eliminate)될 수 있다. 예를 들어, 상기 제2 시각적 객체는, 특정 이벤트에 기반하여 팝업될 수 있고, 상기 일정 시간이 경과된 후, 상기 제2 시각적 객체에 대한 입력이 식별되지 않는 경우, 사라질 수 있다. 또는, 상기 제2 시각적 객체는, 터치 입력에 대응하여 상기 제2 기능이 실행되지 않는 경우, 전자 장치(101)의 디스플레이 상에서 제거될 수 있다. 이와 관련된 구체적인 내용은, 이하 동작(410)에서 서술된다. According to one embodiment, the second visual object may pop up and be displayed for a certain period of time and then be eliminated from the display. For example, the second visual object may pop up based on a specific event, and after the predetermined time has elapsed, if the input to the second visual object is not identified, it may disappear. Alternatively, the second visual object may be removed from the display of the electronic device 101 when the second function is not executed in response to a touch input. Specific details related to this are described in operation 410 below.
동작(400) 및 동작(405)을 참조하면, 프로세서(120)가 2개의 소프트웨어 어플리케이션에 대하여 2개의 시각적 객체들을 표시하는 예가 서술되나, 본 개시의 실시예들은 이에 제한되는 것은 아니다. 예를 들면, 프로세서(120)는 3개의 소프트웨어 어플리케이션들 각각이 1개의 시각적 객체들을 표시할 수 있다. 또는, 프로세서(120)는 1개의 소프트웨어 어플리케이션이 1개의 시각적 객체, 다른 1개의 소프트웨어 어플리케이션이 복수의 시각적 객체들을 표시할 수도 있다. Referring to operations 400 and 405, an example in which the processor 120 displays two visual objects for two software applications is described, but embodiments of the present disclosure are not limited thereto. For example, processor 120 may display one visual object for each of three software applications. Alternatively, the processor 120 may display one visual object for one software application and a plurality of visual objects for another software application.
일 실시예에 따르면, 동작(410)에서, 프로세서(120)는, 제2 시각적 객체에 대한 입력에 응답하여, 제2 소프트웨어 어플리케이션을 통해 상기 제2 기능이 실행되는지 여부를 식별할 수 있다. 예를 들어, 프로세서(120)는, 상기 제2 시각적 객체가 위치하는 영역 상의 입력(예: 터치 입력)을 식별할 수 있다. 프로세서(120)는 상기 입력에 대응하여 상기 제2 소프트웨어 어플리케이션을 통해 상기 제2 기능이 실행되는지 여부를 식별할 수 있다. 다시 말해서, 프로세서(120)는, 제2 시각적 객체가 실행가능한 객체인지 여부를 식별할 수 있다. 동작(410)에서, 상기 제2 시각적 객체에 대한 입력에 응답하여 상기 제2 기능이 실행되는 경우, 프로세서(120)는 동작(420)을 수행할 수 있다. 이와 달리, 상기 제2 기능이 실행되지 않는 경우, 프로세서(120)는 동작(415)을 수행할 수 있다.According to one embodiment, in operation 410, the processor 120 may identify whether the second function is executed through a second software application in response to an input for a second visual object. For example, the processor 120 may identify an input (eg, a touch input) on the area where the second visual object is located. The processor 120 may identify whether the second function is executed through the second software application in response to the input. In other words, the processor 120 may identify whether the second visual object is an executable object. In operation 410, when the second function is executed in response to an input for the second visual object, the processor 120 may perform operation 420. Alternatively, when the second function is not executed, the processor 120 may perform operation 415.
일 실시예에 따르면, 프로세서(120)는 소프트웨어 어플리케이션(예: 제1 소프트웨어 어플리케이션, 제2 소프트웨어 어플리케이션)을 통해 표시될 수 있는 시각적 객체에 대한 정보를 식별할 수 있다. 예를 들어, 상기 시각적 객체에 대한 정보는, 실행가능한 객체인지 아닌지 여부를 포함할 수 있다. 프로세서(120)는 각 소프트웨어 어플리케이션을 통해 표시될 수 있는 시각적 객체의 실행가능 여부를 미리 식별할 수도 있다. 프로세서(120)가 소프트웨어 어플리케이션에 기반하여 시각적 객체의 입력에 대응하는 실행 가능 여부를 식별하는 경우, 동작(410)은 생략될 수도 있다. According to one embodiment, the processor 120 may identify information about a visual object that can be displayed through a software application (eg, a first software application, a second software application). For example, information about the visual object may include whether or not it is an executable object. The processor 120 may identify in advance whether a visual object that can be displayed through each software application is executable. If the processor 120 identifies whether the visual object is executable based on the software application, operation 410 may be omitted.
일 실시예에 따르면, 동작(415)에서, 프로세서(120)는, 제2 시각적 객체를 제거할 수 있다. 예를 들어, 프로세서(120)는, 상기 제2 시각적 객체에 대한 터치 입력에 대응하여 기능이 실행되지 않음을 식별하는 경우, 상기 제2 시각적 객체를 제거할 수 있다. 일 실시예에 따르면, 동작(415) 이후, 프로세서(120)가 상기 제1 시각적 객체 및 상기 제2 시각적 객체가 중첩된 영역에 대하여 입력을 식별하는 경우, 상기 제1 시각적 객체와 관련된 상기 제1 기능을 실행할 수 있다. 프로세서(120)는, 상기 제2 시각적 객체가 제거된 상태이기 때문에, 상기 중첩된 영역에 대한 입력을 상기 제1 시각적 객체에 대한 입력으로 식별할 수 있고, 상기 제1 시각적 객체와 관련된 상기 제1 기능을 실행할 수 있다.According to one embodiment, in operation 415, processor 120 may remove the second visual object. For example, when the processor 120 identifies that a function is not executed in response to a touch input for the second visual object, the processor 120 may remove the second visual object. According to one embodiment, after operation 415, when processor 120 identifies an input with respect to a region where the first visual object and the second visual object overlap, the first visual object associated with the first visual object The function can be executed. Since the second visual object has been removed, the processor 120 may identify the input to the overlapping area as the input to the first visual object, and the first visual object related to the first visual object. The function can be executed.
일 실시예에 따르면, 동작(420)에서, 프로세서(120)는, 제2 시각적 객체에 대한 기준 길이(reference length)를 식별할 수 있다. 예를 들어, 프로세서(120)는, 전자 장치(101)의 사용자가 상기 제2 시각적 객체를 인식하고, 상기 제2 시각적 객체의 콘텐트(content)를 식별하기까지를 나타내는 판독가능한(readable) 시간을 식별할 수 있다. 상기 판독가능한 시간은, 상기 기준 길이로 참조될 수 있다. According to one embodiment, in operation 420, the processor 120 may identify a reference length for the second visual object. For example, the processor 120 may set a readable time indicating the time until the user of the electronic device 101 recognizes the second visual object and identifies the content of the second visual object. can be identified. The readable time may be referred to as the reference length.
일 실시예에 따르면, 프로세서(120)는, 상기 제2 시각적 객체가 포함하는 콘텐츠의 길이, 상기 제2 시각적 객체가 전자 장치(101)의 디스플레이 상에서 표시되는 영역(area)의 위치, 상기 제2 시각적 객체의 투명도(transparency), 또는 전자 장치(101)의 사용자의 상기 디스플레이에 대한 주의(attention)에 대한 정보 중 적어도 하나에 기반하여, 상기 기준 길이를 식별할 수 있다. 예를 들어, 프로세서(120)는, 상기 제2 시각적 객체가 포함하는 텍스트(text)의 길이가 긴 경우, 텍스트의 길이가 짧은 경우에 비하여, 상대적으로 더 긴 길이의 값을 나타내는 상기 기준 길이를 식별할 수 있다. 예를 들어, 프로세서(120)는, 상기 제2 시각적 객체가 표시되는 영역의 위치가, 사용자의 신체에 의해 가려지기 쉬운 영역(예: 전자 장치(101)의 가장자리(periphery) 부분)인 경우, 그렇지 않은 영역(예: 전자 장치(101)의 디스플레이 중심 부분)인 경우에 비하여, 상대적으로 더 긴 길이의 값을 나타내는 상기 기준 길이를 식별할 수 있다. 예를 들어, 프로세서(120)는, 상기 제2 시각적 객체의 투명도가 더 높은 경우, 투명도가 더 낮은 경우에 비하여, 상대적으로 더 긴 길이의 값을 나타내는 상기 기준 길이를 식별할 수 있다. 예를 들어, 프로세서(120)는, 사용자가 디스플레이를 바라보지 않는 경우, 사용자가 디스플레이를 바라보고 있는 경우에 비하여, 상대적으로 더 긴 길이의 값을 나타내는 상기 기준 길이를 식별할 수 있다. 프로세서(120)는, 전자 장치(101)의 센서에 기반하여 사용자의 안구 움직임을 식별할 수 있고, 사용자의 디스플레이에 대한 주의 여부를 식별할 수 있다.According to one embodiment, the processor 120 may determine the length of content included in the second visual object, the location of an area in which the second visual object is displayed on the display of the electronic device 101, and the second visual object. The reference length may be identified based on at least one of information about the transparency of a visual object or the attention of the user of the electronic device 101 to the display. For example, when the text included in the second visual object is long, the processor 120 sets the reference length indicating a relatively longer length value compared to when the text is short. can be identified. For example, if the location of the area where the second visual object is displayed is an area that is likely to be obscured by the user's body (e.g., the periphery of the electronic device 101), Compared to other areas (e.g., the center portion of the display of the electronic device 101), the reference length indicating a relatively longer length value can be identified. For example, the processor 120 may identify the reference length indicating a relatively longer length value when the transparency of the second visual object is higher than when the transparency is lower. For example, the processor 120 may identify the reference length indicating a relatively longer length value when the user is not looking at the display compared to when the user is looking at the display. The processor 120 may identify the user's eye movements based on the sensor of the electronic device 101 and determine whether the user is paying attention to the display.
일 실시예에 따르면, 동작(425)에서, 프로세서(120)는, 중첩된 영역 상의 접촉점(point of contact)을 포함하는 입력을 식별할 수 있다. 예를 들어, 프로세서(120)는, 상기 제1 시각적 객체가 표시되는 제1 영역 및 상기 제2 시각적 객체가 표시되는 제2 영역이 중첩되는 영역 상의 접촉점을 포함하는 입력을 식별할 수 있다. 예를 들어, 상기 제1 영역 및 상기 제2 영역은 부분적으로 중첩되거나, 완전하게 중첩될 수 있다. 상기 중첩된 영역 상의 접촉점은 상기 제1 영역과 상기 제2 영역이 중첩된 영역에 대하여 입력으로 식별될 수 있는 적어도 하나의 접촉점을 나타낼 수 있다. According to one embodiment, at operation 425, processor 120 may identify an input that includes a point of contact on an overlapping area. For example, the processor 120 may identify an input that includes a contact point on an area where a first area where the first visual object is displayed and a second area where the second visual object is displayed overlap. For example, the first area and the second area may partially overlap or completely overlap. The contact point on the overlapped area may represent at least one contact point that can be identified as an input for the area where the first area and the second area overlap.
일 실시예에 따르면, 동작(430)에서, 프로세서(120)는, 제2 시각적 객체가 표시된 시간으로부터, 입력의 식별까지의 시간 길이를 식별할 수 있다. 예를 들어, 프로세서(120)는, 제2 시각적 객체가 표시된 제1 시간으로부터, 상기 중첩된 영역 상의 접촉점을 포함하는 상기 입력이 식별되는 제2 시간 까지의 차이를 나타내는 상기 시간 길이를 식별할 수 있다.According to one embodiment, in operation 430, processor 120 may identify the length of time from the time the second visual object is displayed to the identification of the input. For example, processor 120 may identify the length of time that represents the difference from a first time a second visual object is displayed to a second time the input containing a point of contact on the overlapped region is identified. there is.
일 실시예에 따르면, 동작(435)에서, 프로세서(120)는, 시간 길이가 기준 길이보다 큰 값을 갖는지 여부를 식별할 수 있다. 예를 들어, 프로세서(120)는, 상기 제2 시각적 객체가 표시된 제1 시간으로부터 상기 중첩된 영역에 대한 입력이 식별되는 제2 시간 사이의 차이를 나타내는 상기 시간 길이가, 제2 시각적 객체에 대한 판독가능한 시간을 나타내는 상기 기준 길이보다 큰 값을 갖는지 여부를 식별할 수 있다. 여기서, 상기 시간 길이가 상기 기준 길이보다 큰 값을 갖는다는 것은, 상기 시간 길이가 상기 기준 길이보다 긴 것을 나타낼 수 있다. According to one embodiment, at operation 435, processor 120 may identify whether the time length has a value greater than the reference length. For example, processor 120 may determine that the length of time representing the difference between a first time at which the second visual object is displayed and a second time at which an input to the overlapping region is identified is for the second visual object. It can be identified whether it has a value greater than the reference length indicating the readable time. Here, the fact that the time length has a value greater than the reference length may indicate that the time length is longer than the reference length.
일 실시예에 따르면, 프로세서(120)는, 상기 시간 길이가 상기 기준 길이보다 큰 값을 갖는 것으로 식별한 경우, 상기 제2 시각적 객체를 식별하기까지 충분한 시간이 존재하였는 바, 사용자의 상기 중첩된 영역에 대한 입력을 상기 제2 시각적 객체에 대한 의도된 입력으로 식별할 수 있다. 이와 달리, 프로세서(120)는, 상기 시간 길이가 상기 기준 길이보다 작거나 같은 값으로 식별한 경우, 상기 제2 시각적 객체를 식별하기까지 충분한 시간이 존재하지 않았는 바, 사용자의 상기 중첩된 영역에 대한 입력을 상기 제2 시각적 객체에 대한 의도되지 않은 입력으로 식별할 수 있다. 다시 말해서, 프로세서(120)는, 상기 중첩된 영역에 대한 입력을 상기 제1 시각적 객체에 대한 입력으로 식별할 수 있다. According to one embodiment, when the processor 120 identifies the time length as having a value greater than the reference length, there is sufficient time to identify the second visual object, and the user's overlapping Input to the area may be identified as the intended input to the second visual object. On the other hand, when the processor 120 identifies the time length as a value that is less than or equal to the reference length, there was not enough time to identify the second visual object, so the processor 120 is located in the overlapping area of the user. The input to the second visual object may be identified as an unintended input to the second visual object. In other words, the processor 120 may identify the input to the overlapping area as the input to the first visual object.
일 실시예에 따르면, 프로세서(120)는, 상기 기준 길이가 상기 시간 길이보다 긴 것을 식별한 경우, 동작(440)을 수행할 수 있다. 프로세서(120)는, 상기 기준 길이가 상기 시간 길이보다 짧거나 같음을 식별한 경우, 동작(445)을 수행할 수 있다. According to one embodiment, the processor 120 may perform operation 440 when it identifies that the reference length is longer than the time length. When the processor 120 identifies that the reference length is shorter than or equal to the time length, the processor 120 may perform operation 445.
일 실시예에 따르면, 동작(440)에서, 제2 소프트웨어 어플리케이션을 통한 제2 기능을 실행할 수 있다. 예를 들어, 프로세서(120)는, 사용자의 상기 중첩된 영역에 대한 입력을 상기 제2 시각적 객체에 대한 입력으로 식별할 수 있고, 상기 제2 시각적 객체에 대한 입력에 따른 상기 제2 기능을 실행할 수 있다. According to one embodiment, in operation 440, a second function may be executed through a second software application. For example, the processor 120 may identify a user's input to the overlapping area as an input to the second visual object, and execute the second function according to the input to the second visual object. You can.
일 실시예에 따르면, 동작(445)에서, 제1 소프트웨어 어플리케이션을 통한 제1 기능을 실행할 수 있다. 예를 들어, 프로세서(120)는, 사용자의 상기 중첩된 영역에 대한 입력을 상기 제1 시각적 객체에 대한 입력으로 식별할 수 있고, 상기 제1 시각적 객체에 대한 입력에 따른 상기 제1 기능을 실행할 수 있다. According to one embodiment, in operation 445, a first function may be executed through a first software application. For example, the processor 120 may identify a user's input to the overlapping area as an input to the first visual object, and execute the first function according to the input to the first visual object. You can.
도 4a에서 도시하지 않았으나, 일 실시예에 따르면, 프로세서(120)는, 사용자의 입력의 빈도(또는 터치 빈도), 사용자의 입력의 영역(또는 터치 영역), 소프트웨어 어플리케이션의 사용 기록(history), 또는 소프트웨어 어플리케이션들 사이의 우선 순위 중 적어도 하나에 기반하여 복수의 시각적 객체들 중 입력에 대응하는 시각적 객체를 식별할 수 있다. Although not shown in FIG. 4A, according to one embodiment, the processor 120 records the frequency of the user's input (or touch frequency), the area of the user's input (or the touch area), the history of the use of the software application, Alternatively, a visual object corresponding to an input among a plurality of visual objects may be identified based on at least one of priorities among software applications.
상술한 바를 참조하면, 본 개시의 실시예들에 따른 복수의 시각적 객체들 중 입력에 대응하는 시각적 객체를 식별하는 장치 및 방법은, 상기 기준 길이에 기반하여, 사용자의 의도에 따른 시각적 객체를 식별할 수 있다. 또한, 본 개시의 실시예들에 따른 장치 및 방법은, 예상하지 못한(unexpected) 화면이 갑작스럽게 표시되더라도, 사용자의 의도에 대응하는 시각적 객체를 표시할 수 있다. 이에 따라, 본 개시의 실시예들에 따른 장치 및 방법은, 보다 편안하고 몰입도 높은 사용자 경험을 제공할 수 있고, 입력의 정확도를 높일 수 있다. Referring to the above, an apparatus and method for identifying a visual object corresponding to an input among a plurality of visual objects according to embodiments of the present disclosure identifies a visual object according to the user's intention based on the reference length. can do. Additionally, the apparatus and method according to embodiments of the present disclosure can display a visual object corresponding to the user's intention even if an unexpected screen is suddenly displayed. Accordingly, the device and method according to embodiments of the present disclosure can provide a more comfortable and immersive user experience and increase input accuracy.
도 4b는 본 개시의 일 실시예에 따른 터치 빈도(touch frequency)에 기반하여, 복수의 시각적 객체들 중 입력에 대응하는 시각적 객체를 식별하기 위한 방법에 대한 예를 도시하는 흐름도이다. FIG. 4B is a flowchart illustrating an example of a method for identifying a visual object corresponding to an input among a plurality of visual objects based on touch frequency according to an embodiment of the present disclosure.
도 4b의 방법은, 도 1의 전자 장치(101)에 의해 수행될 수 있다. 예를 들어, 도 4b의 방법은, 프로세서(예: 도 1의 프로세서(120))에 의해 수행될 수 있다. 상기 복수의 시각적 객체들은, 복수의 소프트웨어 어플리케이션들을 통해 전자 장치(101)의 디스플레이 상에서 표시될 수 있다. 예를 들어, 상기 복수의 소프트웨어 어플리케이션들 중 하나의 소프트웨어 어플리케이션은 적어도 하나의 시각적 객체를 표시할 수 있다. 도 4b의 방법은, 동작(435) 이후 동작(440) 이전에 수행되는 동작을 포함할 수 있다. 예를 들어, 동작(450)은, 동작(435) 이후에 수행될 수 있다. The method of FIG. 4B may be performed by the electronic device 101 of FIG. 1 . For example, the method of FIG. 4B may be performed by a processor (eg, processor 120 of FIG. 1). The plurality of visual objects may be displayed on the display of the electronic device 101 through a plurality of software applications. For example, one software application among the plurality of software applications may display at least one visual object. The method of FIG. 4B may include operations performed after operation 435 but before operation 440. For example, operation 450 may be performed after operation 435.
일 실시예에 따르면, 동작(450)에서, 프로세서(120)는, 제1 터치 빈도를 식별할 수 있다. 예를 들어, 프로세서(120)는, 동작(425)의 상기 중첩된 영역 상의 접촉점을 포함하는 입력을 포함하는 복수의 입력들 중, 상기 제2 시각적 객체가 표시되는 시간(예: 도 4a의 상기 제1 시간) 이전의 상기 중첩된 영역 상의 입력들의 빈도를 식별할 수 있다. According to one embodiment, in operation 450, processor 120 may identify a first touch frequency. For example, the processor 120 may select the time at which the second visual object is displayed (e.g., the time at which the second visual object is displayed) among the plurality of inputs including an input including a point of contact on the overlapping region of operation 425. The frequency of inputs on the overlapped area before (the first time) can be identified.
일 실시예에 따르면, 동작(455)에서, 프로세서(120)는, 제2 터치 빈도를 식별할 수 있다. 예를 들어, 프로세서(120)는, 상기 복수의 입력들 중 상기 제2 시각적 객체가 표시되는 시간 이후로부터 판독가능한 시간을 나타내는 상기 기준 길이 만큼 지난 시간(예: 기준 시간) 이전까지의, 상기 중첩된 영역 상의 입력들의 빈도를 식별할 수 있다. According to one embodiment, at operation 455, processor 120 may identify the second touch frequency. For example, the processor 120 may configure the overlap between the time after the second visual object is displayed among the plurality of inputs and before the time elapsed by the reference length indicating the readable time (e.g., the reference time). The frequency of inputs on the selected area can be identified.
일 실시예에 따르면, 동작(460)에서, 프로세서(120)는, 상기 제1 터치 빈도 및 상기 제2 터치 빈도에 기반하여, 기능을 실행할 수 있다. 예를 들어, 프로세서(120)는, 상기 제1 터치 빈도를 나타내는 값이 높음(high)을 나타내고, 상기 제2 터치 빈도를 나타내는 값이 상기 제1 터치 빈도와 같이 높음(high)을 나타내는 경우, 동작(425)의 상기 중첩된 영역 상의 접촉점을 포함하는 입력을 상기 제1 시각적 객체에 대한 입력으로 식별할 수 있다. 또한, 프로세서(120)는, 제1 터치 빈도를 나타내는 값이 중간(medium)을 나타내고, 상기 제2 터치 빈도를 나타내는 값이 상기 제1 터치 빈도와 같이 중간(medium)을 나타내는 경우, 동작(425)의 상기 중첩된 영역 상의 접촉점을 포함하는 입력을 상기 제1 시각적 객체에 대한 입력으로 식별할 수 있다. 이에 따라, 프로세서(120)는, 상기 제1 소프트웨어 어플리케이션을 통해 상기 제1 기능을 실행할 수 있다. According to one embodiment, in operation 460, the processor 120 may execute a function based on the first touch frequency and the second touch frequency. For example, when the value representing the first touch frequency represents high and the value representing the second touch frequency represents high like the first touch frequency, An input that includes a point of contact on the overlapped area of action 425 may be identified as an input to the first visual object. Additionally, when the value representing the first touch frequency represents medium and the value representing the second touch frequency represents medium like the first touch frequency, the processor 120 performs operation 425. ) may be identified as an input to the first visual object. Accordingly, the processor 120 can execute the first function through the first software application.
이와 달리, 프로세서(120)는, 상기 제1 터치 빈도를 나타내는 값이 높음(high)을 나타내고, 상기 제2 터치 빈도를 나타내는 값이 중간(medium) 또는 낮음(low)을 나타내는 경우, 동작(425)의 상기 중첩된 영역 상의 접촉점을 포함하는 입력을 상기 제2 시각적 객체에 대한 입력으로 식별할 수 있다. 또는, 프로세서(120)는, 상기 제1 터치 빈도를 나타내는 값이 중간(medium)을 나타내고, 상기 제2 터치 빈도를 나타내는 값이 낮음(low)을 나타내는 경우, 동작(425)의 상기 중첩된 영역 상의 접촉점을 포함하는 입력을 상기 제2 시각적 객체에 대한 입력으로 식별할 수 있다. 또는, 프로세서(120)는, 상기 제1 터치 빈도를 나타내는 값이 낮음(low)을 나타내고, 상기 제2 터치 빈도를 나타내는 값이 낮음(low)을 나타내는 경우, 동작(425)의 상기 중첩된 영역 상의 접촉점을 포함하는 입력을 상기 제2 시각적 객체에 대한 입력으로 식별할 수 있다. 이에 따라, 프로세서(120)는 상기 제2 소프트웨어 어플리케이션을 통해 상기 제2 기능을 실행할 수 있다. 이와 관련된 구체적인 예시들에 대한 내용은, 이하 도 7에서 서술된다.In contrast, the processor 120 performs operation 425 when the value representing the first touch frequency represents high and the value representing the second touch frequency represents medium or low. ) may be identified as an input to the second visual object. Alternatively, if the value representing the first touch frequency represents medium and the value representing the second touch frequency represents low, the processor 120 may perform operation 425 on the overlapped region. An input including a contact point on the image may be identified as an input for the second visual object. Alternatively, when the value representing the first touch frequency represents low and the value representing the second touch frequency represents low, the processor 120 performs operation 425 on the overlapped region. An input including a contact point on the image may be identified as an input for the second visual object. Accordingly, the processor 120 can execute the second function through the second software application. Details of specific examples related to this are described in FIG. 7 below.
상술한 바를 참조하면, 프로세서(120)는, 제2 시각적 객체가 표시되기 전과 후의 시간 영역에서, 사용자의 전자 장치(101)에 대한 입력의 빈도의 변경에 기반하여, 사용자의 입력이 의도하는 시각적 객체를 식별할 수 있다. 일 실시예에 따르면, 프로세서(120)는, 동작(435)에서 상기 기준 길이가 상기 시간 길이보다 긴 것으로 식별되더라도, 상기 제2 기능을 바로 실행하는 것이 아니라, 터치 빈도에 기반하여 제1 기능 또는 제2 기능을 실행할 수 있다. Referring to the above, the processor 120 determines the visual object intended by the user's input based on a change in the frequency of the user's input to the electronic device 101 in the time domain before and after the second visual object is displayed. Objects can be identified. According to one embodiment, even if the reference length is identified as being longer than the time length in operation 435, the processor 120 does not immediately execute the second function, but performs the first function or The second function can be performed.
도 4c는 본 개시의 일 실시예에 따른 터치 영역(touch area)에 기반하여, 복수의 시각적 객체들 중 입력에 대응하는 시각적 객체를 식별하기 위한 방법에 대한 예를 도시하는 흐름도이다. FIG. 4C is a flowchart illustrating an example of a method for identifying a visual object corresponding to an input among a plurality of visual objects based on a touch area according to an embodiment of the present disclosure.
도 4c의 방법은, 도 1의 전자 장치(101)에 의해 수행될 수 있다. 예를 들어, 도 4c의 방법은, 프로세서(예: 도 1의 프로세서(120))에 의해 수행될 수 있다. 상기 복수의 시각적 객체들은, 복수의 소프트웨어 어플리케이션들을 통해 전자 장치(101)의 디스플레이 상에서 표시될 수 있다. 예를 들어, 상기 복수의 소프트웨어 어플리케이션들 중 하나의 소프트웨어 어플리케이션은 적어도 하나의 시각적 객체를 표시할 수 있다. 도 4c의 방법은, 동작(435) 이후 동작(440) 이전에 수행되는 동작을 포함할 수 있다. 예를 들어, 동작(470)은, 동작(435) 이후에 수행될 수 있다. The method of FIG. 4C may be performed by the electronic device 101 of FIG. 1. For example, the method of FIG. 4C may be performed by a processor (eg, processor 120 of FIG. 1). The plurality of visual objects may be displayed on the display of the electronic device 101 through a plurality of software applications. For example, one software application among the plurality of software applications may display at least one visual object. The method of FIG. 4C may include operations performed after operation 435 but before operation 440. For example, operation 470 may be performed after operation 435.
일 실시예에 따르면, 동작(470)에서, 프로세서(120)는, 터치 영역(touch area)을 식별할 수 있다. 예를 들어, 프로세서(120)는 동작(425)의 상기 중첩된 영역 상의 접촉점을 포함하는 입력의 터치 영역을 식별할 수 있다. 예를 들어, 프로세서(120)는 전자 장치(101)의 디스플레이(예: 디스플레이 모듈(160))의 센서(sensor)를 통해 상기 중첩된 영역 상의 접촉점을 포함하는 입력의 터치 영역을 식별할 수 있다. According to one embodiment, in operation 470, the processor 120 may identify a touch area. For example, processor 120 may identify a touch area of the input that includes a point of contact on the overlapping area of action 425 . For example, the processor 120 may identify the touch area of the input including the touch point on the overlapped area through a sensor of the display (e.g., display module 160) of the electronic device 101. .
일 실시예에 따르면, 동작(475)에서, 프로세서(120)는, 상기 터치 영역 내, 제2 영역이 제1 영역 보다 넓은 지 여부를 식별할 수 있다. 상기 제2 영역은, 상기 터치 영역 중 상기 중첩된 영역 내에 포함되는 영역을 나타낼 수 있다. 상기 제1 영역은, 상기 터치 영역 중 상기 중첩된 영역이 아닌 영역을 나타낼 수 있다. 예를 들어, 상기 제1 영역은, 상기 제1 소프트웨어 어플리케이션을 통해 상기 제1 시각적 객체가 표시되는 디스플레이 상의 영역을 포함할 수 있다. 일 실시예에 따르면, 프로세서(120)는 동작(475)에서, 상기 제2 영역이 상기 제1 영역보다 넓은 것으로 식별한 경우, 동작(480)을 수행할 수 있다. 이와 달리, 프로세서(120)는 동작(475)에서 상기 제2 영역이 상기 제1 영역보다 좁거나 같은 것으로 식별한 경우, 동작(485)을 수행할 수 있다.According to one embodiment, in operation 475, the processor 120 may identify whether the second area within the touch area is wider than the first area. The second area may represent an area included in the overlapped area among the touch areas. The first area may represent an area of the touch area that is not the overlapped area. For example, the first area may include an area on the display where the first visual object is displayed through the first software application. According to one embodiment, if the processor 120 determines that the second area is wider than the first area in operation 475, the processor 120 may perform operation 480. Alternatively, if the processor 120 determines in operation 475 that the second area is narrower than or equal to the first area, the processor 120 may perform operation 485.
일 실시예에 따르면, 프로세서(120)는, 상기 제2 영역이 상기 제1 영역 보다 넓은 것으로 식별한 경우, 사용자의 상기 중첩된 영역에 대한 입력을 상기 제2 시각적 객체에 대한 의도된 입력으로 식별할 수 있다. 이와 달리, 프로세서(120)는, 상기 제2 영역이 상기 제1 영역 보다 좁거나 같은 것으로 식별한 경우, 사용자의 상기 중첩된 영역에 대한 입력을 상기 제2 시각적 객체에 대한 의도되지 않은 입력으로 식별할 수 있다. 다시 말해서, 프로세서(120)는, 상기 중첩된 영역에 대한 입력을 상기 제1 시각적 객체에 대한 입력으로 식별할 수 있다. According to one embodiment, when the processor 120 identifies the second area as being wider than the first area, the processor 120 identifies the user's input to the overlapped area as the intended input to the second visual object. can do. In contrast, when the processor 120 identifies the second area as being narrower or equal to the first area, the processor 120 identifies the user's input to the overlapped area as an unintended input to the second visual object. can do. In other words, the processor 120 may identify the input to the overlapping area as the input to the first visual object.
일 실시예에 따르면, 동작(480)에서, 프로세서(120)는, 제2 소프트웨어 어플리케이션을 통한 제2 기능을 실행할 수 있다. 예를 들어, 프로세서(120)는, 사용자의 상기 중첩된 영역에 대한 입력을 상기 제2 시각적 객체에 대한 입력으로 식별할 수 있고, 상기 제2 시각적 객체에 대한 입력에 따른 상기 제2 기능을 실행할 수 있다. According to one embodiment, in operation 480, the processor 120 may execute a second function through a second software application. For example, the processor 120 may identify a user's input to the overlapping area as an input to the second visual object, and execute the second function according to the input to the second visual object. You can.
일 실시예에 따르면, 동작(485)에서, 제1 소프트웨어 어플리케이션을 통한 제1 기능을 실행할 수 있다. 예를 들어, 프로세서(120)는, 사용자의 상기 중첩된 영역에 대한 입력을 상기 제1 시각적 객체에 대한 입력으로 식별할 수 있고, 상기 제1 시각적 객체에 대한 입력에 따른 상기 제1 기능을 실행할 수 있다. According to one embodiment, in operation 485, a first function may be executed through a first software application. For example, the processor 120 may identify a user's input to the overlapping area as an input to the first visual object, and execute the first function according to the input to the first visual object. You can.
상술한 바를 참조하면, 프로세서(120)는, 사용자의 전자 장치(101)에 대한 입력의 영역에 기반하여, 사용자의 입력이 의도하는 시각적 객체를 식별할 수 있다. 일 실시예에 따르면, 프로세서(120)는, 동작(435)에서 상기 기준 길이가 상기 시간 길이보다 긴 것으로 식별되더라도, 상기 제2 기능을 바로 실행하는 것이 아니라, 터치 영역에 기반하여 제1 기능 또는 제2 기능을 실행할 수 있다. Referring to the above, the processor 120 may identify the visual object intended by the user's input based on the area of the user's input to the electronic device 101. According to one embodiment, even if the reference length is identified as being longer than the time length in operation 435, the processor 120 does not immediately execute the second function, but performs the first function or The second function can be performed.
도 4b 및 도 4c를 참조하면, 프로세서(120)가 도 4a 이후 도 4b 또는 도 4c를 선택적으로 수행하는 것처럼 서술되나, 이는 설명의 편의를 위한 것에 불과할 뿐, 본 개시의 실시예들은 이에 제한되는 것은 아니다. 일 실시예에 따르면, 프로세서(120)는 터치 빈도 및 터치 영역 모두에 기반하여, 사용자의 입력이 의도하는 시각적 객체를 식별할 수 있다. Referring to FIGS. 4B and 4C, the processor 120 is described as if it selectively performs FIG. 4B or FIG. 4C after FIG. 4A, but this is only for convenience of explanation, and embodiments of the present disclosure are limited thereto. That is not the case. According to one embodiment, the processor 120 may identify the visual object intended by the user's input based on both the touch frequency and the touch area.
도 5는 본 개시의 일 실시예에 따른 복수의 시각적 객체들 사이의 위치 관계를 나타내는 예들을 도시한다. Figure 5 shows examples of positional relationships between a plurality of visual objects according to an embodiment of the present disclosure.
도 5의 전자 장치(101)는, 도 1의 전자 장치(101)의 구성 요소들의 일부 또는 전부를 포함할 수 있다. 상기 복수의 시각적 객체들은, 복수의 소프트웨어 어플리케이션들을 통해 전자 장치(101)의 디스플레이 상에서 표시될 수 있다. 예를 들어, 상기 복수의 소프트웨어 어플리케이션들 중 하나의 소프트웨어 어플리케이션은 적어도 하나의 시각적 객체를 표시할 수 있다. 상기 위치 관계는, 상기 복수의 시각적 객체들이 상기 디스플레이 상에서 표시되는 위치에 대한 관계를 나타낼 수 있다.The electronic device 101 of FIG. 5 may include some or all of the components of the electronic device 101 of FIG. 1 . The plurality of visual objects may be displayed on the display of the electronic device 101 through a plurality of software applications. For example, one software application among the plurality of software applications may display at least one visual object. The positional relationship may represent a relationship with respect to positions where the plurality of visual objects are displayed on the display.
도 5를 참조하면, 상기 제1 소프트웨어 어플리케이션과 관련된 상기 제1 시각적 객체 및 상기 제2 소프트웨어 어플리케이션과 관련된 상기 제2 시각적 객체를 표시하는 예들(501, 502, 503, 504, 505)을 도시한다. 도 5의 예들(501, 502, 503)에서는, 설명의 편의를 위해, 제1 시각적 객체(510)가 전자 장치(101)의 디스플레이의 전체 영역을 통해 표시되는 것으로 도시하나, 본 개시의 실시예가 이에 제한되는 것은 아니다. 예를 들어, 예들(504, 505)과 같이, 제1 시각적 객체(510)는 전자 장치(101)의 디스플레이 일부 영역을 통해 표시될 수도 있다.Referring to FIG. 5 , examples 501, 502, 503, 504, and 505 of displaying the first visual object related to the first software application and the second visual object related to the second software application are shown. In the examples 501, 502, and 503 of FIG. 5, for convenience of explanation, the first visual object 510 is shown as being displayed through the entire area of the display of the electronic device 101, but the embodiment of the present disclosure It is not limited to this. For example, as in examples 504 and 505, the first visual object 510 may be displayed through a partial display area of the electronic device 101.
예(501)를 참조하면, 전자 장치(101)는, 제1 시각적 객체(510) 및 제2 시각적 객체(520)를 표시할 수 있다. 예를 들어, 전자 장치(101)는 제1 소프트웨어 어플리케이션을 통해 제1 시각적 객체(510)를 표시할 수 있고, 제1 시각적 객체(510)는 디스플레이의 전체 영역 상에서 표시될 수 있다. 전자 장치(101)는 제2 소프트웨어 어플리케이션을 통해 제2 시각적 객체(520)를 표시할 수 있고, 제2 시각적 객체(520)는 디스플레이의 일부 영역 상에서 표시될 수 있다. 예(501)에서는, 제1 시각적 객체(510)가 디스플레이 전체 영역에서 표시되는 바, 제2 시각적 객체(520)는 제1 시각적 객체(510)에 대하여 완전하게 중첩되어 표시될 수 있다. 다만, 본 개시의 실시예가 이에 제한되는 것은 아니며, 제2 시각적 객체(520)는 제1 시각적 객체(510)에 대하여 부분적으로 중첩되어 표시될 수 있다. 일 실시예에 따르면, 제1 시각적 객체(510)는 상기 디스플레이 상에서 표시될 때 가상의 제1 레이어(layer)를 통해 표시될 수 있고, 제2 시각적 객체(520)는 상기 가상의 제1 레이어 상(on)에 위치하는 제2 레이어를 통해 표시될 수 있다. 예를 들어, 제2 시각적 객체(520)는 제1 시각적 객체(510)에 대하여 플로팅됨으로써(by floating) 표시될 수 있다.Referring to example 501, the electronic device 101 may display a first visual object 510 and a second visual object 520. For example, the electronic device 101 may display the first visual object 510 through a first software application, and the first visual object 510 may be displayed on the entire area of the display. The electronic device 101 may display a second visual object 520 through a second software application, and the second visual object 520 may be displayed on a partial area of the display. In example 501, since the first visual object 510 is displayed in the entire display area, the second visual object 520 may be displayed completely overlapping with the first visual object 510. However, the embodiment of the present disclosure is not limited to this, and the second visual object 520 may be displayed partially overlapping with the first visual object 510. According to one embodiment, the first visual object 510 may be displayed through a virtual first layer when displayed on the display, and the second visual object 520 may be displayed on the virtual first layer. It can be displayed through the second layer located at (on). For example, the second visual object 520 may be displayed by floating with respect to the first visual object 510.
일 실시예에 따르면, 제2 시각적 객체(520)는 바(bar) 타입의 형상으로 표시될 수 있다. 예를 들어, 제2 시각적 객체(520)는 간결한 알림(brief notification)을 제공하기 위하여, 가로로 긴 바 타입의 형상으로 표시될 수 있다. 예를 들어, 제2 시각적 객체(520)는 전자 장치(101)의 디스플레이의 상단 부분에서 표시될 수 있다. 일 실시예에 따르면, 제2 시각적 객체(520)는 일정 시간 표시된 이후, 디스플레이 상에서 제거될 수 있다(또는 사라질 수 있다.). 또는, 도 4a에서 서술된 바를 참조할 때, 제2 시각적 객체(520)는 실행가능한 객체가 아닌 경우, 디스플레이 상에서 제거될 수도 있다(또는 사라질 수 있다.). According to one embodiment, the second visual object 520 may be displayed in a bar-type shape. For example, the second visual object 520 may be displayed in the shape of a horizontally long bar type to provide brief notification. For example, the second visual object 520 may be displayed in the upper portion of the display of the electronic device 101. According to one embodiment, the second visual object 520 may be removed (or disappear) from the display after being displayed for a certain period of time. Alternatively, referring to what is described in FIG. 4A, if the second visual object 520 is not an executable object, it may be removed (or disappear) from the display.
예(502)를 참조하면, 전자 장치(101)는, 제1 시각적 객체(510) 및 제2 시각적 객체(520)를 표시할 수 있다. 예를 들어, 전자 장치(101)는 제1 소프트웨어 어플리케이션을 통해 제1 시각적 객체(510)를 표시할 수 있고, 제1 시각적 객체(510)는 디스플레이의 전체 영역 상에서 표시될 수 있다. 전자 장치(101)는 제2 소프트웨어 어플리케이션을 통해 제2 시각적 객체(520)를 표시할 수 있고, 제2 시각적 객체(520)는 디스플레이의 일부 영역 상에서 표시될 수 있다. 예(502)에서는, 제1 시각적 객체(510)가 디스플레이 전체 영역에서 표시되는 바, 제2 시각적 객체(520)는 제1 시각적 객체(510)에 대하여 완전하게 중첩되어 표시될 수 있다. 다만, 본 개시의 실시예가 이에 제한되는 것은 아니며, 제2 시각적 객체(520)는 제1 시각적 객체(510)에 대하여 부분적으로 중첩되어 표시될 수 있다. 일 실시예에 따르면, 제1 시각적 객체(510)는 상기 디스플레이 상에서 표시될 때 가상의 제1 레이어(layer)를 통해 표시될 수 있고, 제2 시각적 객체(520)는 상기 가상의 제1 레이어 상(on)에 위치하는 제2 레이어를 통해 표시될 수 있다. 예를 들어, 제2 시각적 객체(520)는 제1 시각적 객체(510)에 대하여 플로팅됨으로써(by floating) 표시될 수 있다.Referring to example 502, the electronic device 101 may display a first visual object 510 and a second visual object 520. For example, the electronic device 101 may display the first visual object 510 through a first software application, and the first visual object 510 may be displayed on the entire area of the display. The electronic device 101 may display a second visual object 520 through a second software application, and the second visual object 520 may be displayed on a partial area of the display. In example 502, since the first visual object 510 is displayed in the entire display area, the second visual object 520 may be displayed completely overlapping with the first visual object 510. However, the embodiment of the present disclosure is not limited to this, and the second visual object 520 may be displayed partially overlapping with the first visual object 510. According to one embodiment, the first visual object 510 may be displayed through a virtual first layer when displayed on the display, and the second visual object 520 may be displayed on the virtual first layer. It can be displayed through the second layer located at (on). For example, the second visual object 520 may be displayed by floating with respect to the first visual object 510.
일 실시예에 따르면, 제2 시각적 객체(520)는 토스트 뷰(toast view) 형상으로 표시될 수 있다. 예를 들어, 제2 시각적 객체(520)는, 전자 장치(101)의 디스플레이의 하단 부분에서 튀어 오르는 스타일인 토스트 팝업을 통해 표시될 수 있다. 일 실시예에 따르면, 제2 시각적 객체(520)는 일정 시간 표시된 이후, 디스플레이 상에서 제거될 수 있다(또는 사라질 수 있다.). 또는, 도 4a에서 서술된 바를 참조할 때, 제2 시각적 객체(520)는 실행가능한 객체가 아닌 경우, 디스플레이 상에서 제거될 수도 있다(또는 사라질 수 있다.).According to one embodiment, the second visual object 520 may be displayed in a toast view shape. For example, the second visual object 520 may be displayed through a toast pop-up style that bounces from the lower portion of the display of the electronic device 101. According to one embodiment, the second visual object 520 may be removed (or disappear) from the display after being displayed for a certain period of time. Alternatively, referring to what is described in FIG. 4A, if the second visual object 520 is not an executable object, it may be removed (or disappear) from the display.
예(503)를 참조하면, 전자 장치(101)는, 제1 시각적 객체(510) 및 제2 시각적 객체(520)를 표시할 수 있다. 예를 들어, 전자 장치(101)는 제1 소프트웨어 어플리케이션을 통해 제1 시각적 객체(510)를 표시할 수 있고, 제1 시각적 객체(510)는 디스플레이의 전체 영역 상에서 표시될 수 있다. 전자 장치(101)는 제2 소프트웨어 어플리케이션을 통해 제2 시각적 객체(520)를 표시할 수 있고, 제2 시각적 객체(520)는 디스플레이의 일부 영역 상에서 표시될 수 있다. 예(503)에서는, 제1 시각적 객체(510)가 디스플레이 전체 영역에서 표시되는 바, 제2 시각적 객체(520)는 제1 시각적 객체(510)에 대하여 완전하게 중첩되어 표시될 수 있다. 다만, 본 개시의 실시예가 이에 제한되는 것은 아니며, 제2 시각적 객체(520)는 제1 시각적 객체(510)에 대하여 부분적으로 중첩되어 표시될 수 있다. 일 실시예에 따르면, 제1 시각적 객체(510)는 상기 디스플레이 상에서 표시될 때 가상의 제1 레이어(layer)를 통해 표시될 수 있고, 제2 시각적 객체(520)는 상기 가상의 제1 레이어 상(on)에 위치하는 제2 레이어를 통해 표시될 수 있다. 예를 들어, 제2 시각적 객체(520)는 제1 시각적 객체(510)에 대하여 플로팅됨으로써(by floating) 표시될 수 있다.Referring to example 503, the electronic device 101 may display a first visual object 510 and a second visual object 520. For example, the electronic device 101 may display the first visual object 510 through a first software application, and the first visual object 510 may be displayed on the entire area of the display. The electronic device 101 may display a second visual object 520 through a second software application, and the second visual object 520 may be displayed on a partial area of the display. In example 503, since the first visual object 510 is displayed in the entire display area, the second visual object 520 may be displayed completely overlapping with the first visual object 510. However, the embodiment of the present disclosure is not limited to this, and the second visual object 520 may be displayed partially overlapping with the first visual object 510. According to one embodiment, the first visual object 510 may be displayed through a virtual first layer when displayed on the display, and the second visual object 520 may be displayed on the virtual first layer. It can be displayed through the second layer located at (on). For example, the second visual object 520 may be displayed by floating with respect to the first visual object 510.
일 실시예에 따르면, 제2 시각적 객체(520)는 버블 뷰(bubble view) 형상으로 표시될 수 있다. 예를 들어, 제2 시각적 객체(520)는, 전자 장치(101)의 디스플레이의 임의의 일 영역(예: 우측면)에서 원 형상으로 표시될 수 있다. 일 실시예에 따르면, 제2 시각적 객체(520)는 일정 시간 표시된 이후, 디스플레이 상에서 제거될 수 있다(또는 사라질 수 있다.). 또는, 도 4a에서 서술된 바를 참조할 때, 제2 시각적 객체(520)는 실행가능한 객체가 아닌 경우, 디스플레이 상에서 제거될 수도 있다(또는 사라질 수 있다.).According to one embodiment, the second visual object 520 may be displayed in a bubble view shape. For example, the second visual object 520 may be displayed in a circular shape in any area (eg, right side) of the display of the electronic device 101. According to one embodiment, the second visual object 520 may be removed (or disappear) from the display after being displayed for a certain period of time. Alternatively, referring to what is described in FIG. 4A, if the second visual object 520 is not an executable object, it may be removed (or disappear) from the display.
예(504)를 참조하면, 전자 장치(101)는, 제1 시각적 객체(510) 및 복수의 제2 시각적 객체들(520-1, 520-2)을 표시할 수 있다. 예를 들어, 전자 장치(101)는 제1 소프트웨어 어플리케이션을 통해 제1 시각적 객체(510)를 표시할 수 있고, 제1 시각적 객체(510)는 디스플레이의 일부 영역 상에서 표시될 수 있다. 전자 장치(101)는 제2 소프트웨어 어플리케이션을 통해 제2 시각적 객체들(520-1, 520-2)을 표시할 수 있고, 제2 시각적 객체들(520-1, 520-2)은 디스플레이의 일부 영역 상에서 표시될 수 있다. 예(504)에서는, 복수의 제2 시각적 객체들(520-1, 520-2) 각각은 제1 시각적 객체(510)와 부분적으로 중첩되어 표시될 수 있다. 일 실시예에 따르면, 복수의 제2 시각적 객체들(520-1, 520-2) 각각은 가상의 제1 레이어를 통해 표시될 수 있다. 제1 시각적 객체(510)는 상기 제1 레이어 상(on)에 위치하는 제2 레이어를 통해 표시될 수 있다. 예를 들어, 제1 시각적 객체(510)는 제2 시각적 객체들(520-1, 520-2)에 대하여 플로팅됨으로써(by floating) 표시될 수 있다.Referring to example 504, the electronic device 101 may display a first visual object 510 and a plurality of second visual objects 520-1 and 520-2. For example, the electronic device 101 may display a first visual object 510 through a first software application, and the first visual object 510 may be displayed on a partial area of the display. The electronic device 101 may display second visual objects 520-1 and 520-2 through a second software application, and the second visual objects 520-1 and 520-2 are part of the display. It can be displayed on the area. In example 504, each of the plurality of second visual objects 520-1 and 520-2 may be displayed partially overlapping with the first visual object 510. According to one embodiment, each of the plurality of second visual objects 520-1 and 520-2 may be displayed through a virtual first layer. The first visual object 510 may be displayed through a second layer located on the first layer. For example, the first visual object 510 may be displayed by floating with respect to the second visual objects 520-1 and 520-2.
일 실시예에 따르면, 제1 시각적 객체(510)는, 일정 값만큼 투명도(transparency)를 갖는 상태로, 표시될 수 있다. 예를 들어, 제1 시각적 객체(510)는, 반투명한 상태로 표시될 수 있고, 이에 따라, 제1 시각적 객체(510) 보다 아래에 위치하는 제2 시각적 객체들(520-1, 520-2) 각각의 영역(예: 제1 시각적 객체(510)와 중첩된 부분)이 노출되어 표시될 수 있다. According to one embodiment, the first visual object 510 may be displayed with transparency equal to a certain value. For example, the first visual object 510 may be displayed in a semi-transparent state, and accordingly, the second visual objects 520-1 and 520-2 located below the first visual object 510. ) Each area (e.g., a portion overlapping with the first visual object 510) may be exposed and displayed.
예(505)를 참조하면, 전자 장치(101)는, 제1 시각적 객체(510) 및 제2 시각적 객체(520)를 표시할 수 있다. 예를 들어, 전자 장치(101)는 제1 소프트웨어 어플리케이션을 통해 제1 시각적 객체(510)를 표시할 수 있고, 제1 시각적 객체(510)는 디스플레이의 일부 영역 상에서 표시될 수 있다. 전자 장치(101)는 제2 소프트웨어 어플리케이션을 통해 제2 시각적 객체(520)를 표시할 수 있고, 제2 시각적 객체(520)는 디스플레이의 일부 영역 상에서 표시될 수 있다. 예(505)에서는, 제2 시각적 객체(520)는 제1 시각적 객체(510)와 부분적으로 중첩되어 표시될 수 있다. 일 실시예에 따르면, 제2 시각적 객체(520)는 가상의 제1 레이어를 통해 표시될 수 있다. 제1 시각적 객체(510)는 상기 제1 레이어 상(on)에 위치하는 제2 레이어를 통해 표시될 수 있다. 예를 들어, 제1 시각적 객체(510)는 제2 시각적 객체(520)에 대하여 플로팅됨으로써(by floating) 표시될 수 있다.Referring to example 505, the electronic device 101 may display a first visual object 510 and a second visual object 520. For example, the electronic device 101 may display a first visual object 510 through a first software application, and the first visual object 510 may be displayed on a partial area of the display. The electronic device 101 may display a second visual object 520 through a second software application, and the second visual object 520 may be displayed on a partial area of the display. In example 505, the second visual object 520 may be displayed partially overlapping with the first visual object 510. According to one embodiment, the second visual object 520 may be displayed through the virtual first layer. The first visual object 510 may be displayed through a second layer located on the first layer. For example, the first visual object 510 may be displayed by floating with respect to the second visual object 520.
일 실시예에 따르면, 제1 시각적 객체(510)는, 일정 값만큼 투명도(transparency)를 갖는 상태로, 표시될 수 있다. 예를 들어, 제1 시각적 객체(510)는, 반투명한 상태로 표시될 수 있고, 이에 따라, 제1 시각적 객체(510) 보다 아래에 위치하는 제2 시각적 객체(520)의 영역(예: 제1 시각적 객체(510)와 중첩된 부분)이 노출되어 표시될 수 있다. According to one embodiment, the first visual object 510 may be displayed with transparency equal to a certain value. For example, the first visual object 510 may be displayed in a semi-transparent state, and accordingly, the area of the second visual object 520 located below the first visual object 510 (e.g., 1 (a portion overlapping with the visual object 510) may be exposed and displayed.
상술한 바를 참조하면, 예들(501, 502, 503, 504, 505)은 2개의 레이어들을 통해 시각적 객체들을 표시하는 예를 도시하나, 본 개시의 실시예들이 이에 제한되는 것은 아니다. 예를 들어, 본 개시의 실시예들은 3개 이상의 레이어들을 통해 시각적 객체들을 표시하는 경우를 포함할 수 있다.Referring to the above, examples 501, 502, 503, 504, and 505 illustrate examples of displaying visual objects through two layers, but embodiments of the present disclosure are not limited thereto. For example, embodiments of the present disclosure may include displaying visual objects through three or more layers.
도 6a는 본 개시의 일 실시예에 따른 기준 길이(reference length)를 식별하는 예를 도시한다. 도 6b는 본 개시의 일 실시예에 따른 기준 길이(reference length)와 입력 사이의 관계를 나타내는 예를 도시한다.FIG. 6A shows an example of identifying a reference length according to an embodiment of the present disclosure. FIG. 6B shows an example of the relationship between a reference length and an input according to an embodiment of the present disclosure.
도 6a의 전자 장치(101)는 도 1의 전자 장치(101)와 실질적으로 동일하게 이해될 수 있다. 예를 들어, 도 6a의 전자 장치(101)는 도 1의 전자 장치(101)의 구성요소들 중 일부 또는 전부를 포함할 수 있다. 도 6b의 기준 길이와 입력 사이의 관계는, 도 6a의 전자 장치(101)에 의해 식별되는 기준 길이 및 전자 장치(101)에 대한 입력 사이의 관계를 나타낼 수 있다. The electronic device 101 of FIG. 6A may be understood as substantially the same as the electronic device 101 of FIG. 1 . For example, the electronic device 101 of FIG. 6A may include some or all of the components of the electronic device 101 of FIG. 1. The relationship between the reference length and the input in FIG. 6B may represent the relationship between the reference length identified by the electronic device 101 in FIG. 6A and the input to the electronic device 101.
도 6a를 참조하면, 전자 장치(101)의 디스플레이(예: 도 1의 디스플레이 모듈(160))의 중간(center) 부분의 일 영역(예: 우측면)에 제2 시각적 객체(621)가 표시되는 예(601)와 전자 장치(101)의 디스플레이의 하단 부분에 제2 시각적 객체(621)가 표시되는 예(602)를 도시한다. 예(601) 및 예(602)를 참조하면, 제1 시각적 객체(610)는 디스플레이의 전체 영역 상에서 표시될 수 있다. 제1 시각적 객체(610)는 상기 제1 소프트웨어 어플리케이션과 관련될 수 있고, 복수의 제2 시각적 객체들(621, 622)은 상기 제2 소프트웨어 어플리케이션과 관련될 수 있다. Referring to FIG. 6A, a second visual object 621 is displayed in an area (e.g., right side) of the center portion of the display (e.g., display module 160 of FIG. 1) of the electronic device 101. An example 601 and an example 602 in which a second visual object 621 is displayed on the lower portion of the display of the electronic device 101 are shown. Referring to examples 601 and 602, first visual object 610 may be displayed over the entire area of the display. A first visual object 610 may be related to the first software application, and a plurality of second visual objects 621 and 622 may be related to the second software application.
예(601) 및 예(602)를 참조하면, 전자 장치(101)는 상기 제1 소프트웨어 어플리케이션을 통해 제1 시각적 객체(610)를 표시할 수 있고, 상기 제2 소프트웨어 어플리케이션을 통해 복수의 제2 시각적 객체들(621, 622)을 표시할 수 있다. 제2 시각적 객체(621)는 제2 기능을 실행하기 위한 시각적 객체일 수 있고, 제2 시각적 객체(622)는 제2 시각적 객체(621)의 콘텐트에 대한 프리뷰(preview)를 표시하기 위한 시각적 객체일 수 있다. 예를 들어, 제2 시각적 객체(622)는 "I got it"이라는 콘텐트를 포함할 수 있다. 예(601)를 참조하면, 제2 시각적 객체들(621, 622)은 전자 장치(101)의 디스플레이의 상단 및 하단에 대하여(with respect to) 중간 영역에서 표시될 수 있다. 예(602)를 참조하면, 제2 시각적 객체들(621, 622)은 전자 장치(101)의 디스플레이의 하단 영역에서 표시될 수 있다. Referring to examples 601 and 602, the electronic device 101 may display a first visual object 610 through the first software application and display a plurality of second visual objects 610 through the second software application. Visual objects 621 and 622 may be displayed. The second visual object 621 may be a visual object for executing a second function, and the second visual object 622 may be a visual object for displaying a preview of the content of the second visual object 621. It can be. For example, the second visual object 622 may include content “I got it.” Referring to example 601, the second visual objects 621 and 622 may be displayed in a middle area with respect to the top and bottom of the display of the electronic device 101. Referring to example 602, second visual objects 621 and 622 may be displayed in the lower area of the display of the electronic device 101.
예(601) 및 예(602)에서, 사용자는 제1 소프트웨어 어플리케이션의 제1 시각적 객체(610)에 대하여 터치 입력(630)을 입력할 수 있다. 예(601)에서, 제2 시각적 객체들(621, 622)은 사용자의 신체 부분(예: 손)에 겹치지 않는 바, 사용자는 제2 시각적 객체들(621, 622)을 용이하게 식별할 수 있다. 그러나, 예(602)의 경우, 제2 시각적 객체들(621, 622)은 사용자의 신체 부분(예: 손)에 겹치지는 바, 사용자는 제2 시각적 객체들(621, 622)의 식별은 용이하지 않을 수 있다. In examples 601 and 602, a user may input a touch input 630 on a first visual object 610 of a first software application. In example 601, the second visual objects 621 and 622 do not overlap the user's body part (e.g., hand), so the user can easily identify the second visual objects 621 and 622. . However, in the case of example 602, the second visual objects 621 and 622 overlap with the user's body part (e.g., hand), so the user can easily identify the second visual objects 621 and 622. You may not.
상술한 바를 참조할 때, 일 실시예에 따르면, 사용자가 제2 시각적 객체들(621, 622)에 대한 판독가능한 시간을 나타내는 기준 길이는, 예(601)의 경우가 예(602)의 경우보다 짧을 수 있다. 예(601)의 제2 시각적 객체들(621, 622)의 위치가 사용자에게 예(601)의 제2 시각적 객체들(621, 622)의 위치 보다 쉽게 식별될 수 있기 때문이다. 일 실시예에 따르면, 제2 시각적 객체(622)의 콘텐트(예: I got it)의 길이에 기반하여 상기 기준 길이가 식별될 수 있다. 일 실시예에 따르면, 제2 시각적 객체들(621, 622)의 투명도(transparency)에 기반하여 상기 기준 길이가 식별될 수 있다. 일 실시예에 따르면, 제2 시각적 객체들(621, 622)에 대한 사용자의 주의 정도에 기반하여 상기 기준 길이가 식별될 수 있다. 예를 들어, 예(601) 및 예(602)와 같이 사용자가 입력(630)을 수행하고 있는 경우라면, 전자 장치(101)(또는 프로세서)는 사용자가 제2 시각적 객체들(621, 622)에 대하여 사용자의 주의 정도가 높은 것으로 식별할 수 있고, 상기 기준 길이는 사용자가 전자 장치(101)를 바라보지 않고 있는 경우에 비하여 짧게(또는 낮은 값)으로 형성될 수 있다. Referring to the above, according to one embodiment, the reference length indicating the readable time for the second visual objects 621 and 622 by the user is longer in case of example 601 than in case of example 602. It can be short. This is because the positions of the second visual objects 621 and 622 in the example 601 can be more easily identified by the user than the positions of the second visual objects 621 and 622 in the example 601. According to one embodiment, the reference length may be identified based on the length of the content (eg, I got it) of the second visual object 622. According to one embodiment, the reference length may be identified based on the transparency of the second visual objects 621 and 622. According to one embodiment, the reference length may be identified based on the user's degree of attention to the second visual objects 621 and 622. For example, if the user is performing input 630 as in example 601 and example 602, the electronic device 101 (or processor) allows the user to use the second visual objects 621 and 622. It can be identified that the user's level of attention is high, and the reference length can be set to be shorter (or a lower value) than when the user is not looking at the electronic device 101.
도 6b를 참조하면, 도 6a의 제2 시각적 객체들(621, 622)이 표시되기 시작하고, 사라지기 시작할 때까지의 예(650)가 도시된다. 이 때, 도 6a의 예들(601, 602)과 같이, 제1 시각적 객체(610)가 표시되고 있으며, 도 6b의 입력들(660, 670)은 제1 시각적 객체(610)와 제2 시각적 객체들(621, 622)이 중첩된 영역에 대한 입력임을 가정한다. Referring to FIG. 6B, an example 650 is shown from when the second visual objects 621 and 622 of FIG. 6A begin to appear until they begin to disappear. At this time, as in the examples 601 and 602 of FIG. 6A, the first visual object 610 is displayed, and the inputs 660 and 670 of FIG. 6B are the first visual object 610 and the second visual object. It is assumed that fields 621 and 622 are inputs to overlapping areas.
예(650)를 참조하면, 제1 시간(T1)(652)은 제2 시각적 객체들(621, 622)이 전자 장치(101)의 디스플레이를 통해 표시되기 시작한 시간을 나타낼 수 있다. 기준 시간(Tref)(654)은 상기 제1 시간(652)으로부터 제2 시각적 객체들(621, 622)에 대한 상기 기준 길이만큼 경과된 시간을 나타낼 수 있다. 제2 시간(T2)은, 입력(660) 또는 입력(670)이 식별된 시간을 나타낼 수 있다. 제3 시간(T3)(656)은 제2 시각적 객체들(621, 622)이 사라지는 시간을 나타낼 수 있다. 상기 제3 시간(656)과 상기 제1 시간(652) 사이의 차이는 제2 시각적 객체들(621, 622)이 디스플레이를 통해 표시되는 시간을 나타낼 수 있다. Referring to the example 650, the first time (T1) 652 may represent the time when the second visual objects 621 and 622 started to be displayed through the display of the electronic device 101. The reference time (T ref ) 654 may represent the time elapsed from the first time 652 to the reference length for the second visual objects 621 and 622 . The second time T2 may represent the time at which the input 660 or the input 670 is identified. The third time (T3) 656 may represent the time at which the second visual objects 621 and 622 disappear. The difference between the third time 656 and the first time 652 may represent the time at which the second visual objects 621 and 622 are displayed through the display.
일 실시예에 따르면, 입력(660)은, 의도하지 않은 입력으로 식별될 수 있다. 프로세서(120)는 입력(660)을 제1 시각적 객체(610)에 대한 입력으로 식별할 수 있다. 예를 들어, 입력(660)은 제1 시간(652) 이후 기준 시간(654) 이전에 수행될 수 있다. 제1 시간(652)으로부터 입력(660)이 식별되기 까지의 시간 길이(예: 제2 시간(T2))는 기준 시간(654)과 제1 시간(652) 사이의 차이를 나타내는 기준 길이보다 짧은 바, 입력(660)은 의도하지 않은 입력으로 식별될 수 있고, 입력(660)은 제2 시각적 객체들(621, 622)이 아닌 제1 시각적 객체(610)에 대한 입력으로 식별될 수 있다. 이와 달리, 입력(670)은, 의도된 입력으로 식별될 수 있다. 프로세서(120)는 입력(670)을 제2 시각적 객체들(621, 622)에 대한 입력으로 식별할 수 있다. 예를 들어, 입력(670)은 기준 시간(654) 이후 제3 시간(656) 이전에 수행될 수 있다. 제1 시간(652)으로부터 입력(670)이 식별되기 까지의 시간 길이(예: 제2 시간(T2))는 기준 시간(654)과 제1 시간(652) 사이의 차이를 나타내는 기준 길이보다 긴 바, 입력(670)은 의도된 입력으로 식별될 수 있고, 입력(670)은 제2 시각적 객체들(621, 622)에 대한 입력으로 식별될 수 있다. According to one embodiment, input 660 may be identified as an unintended input. Processor 120 may identify input 660 as an input for first visual object 610 . For example, input 660 may be performed after the first time 652 but before the reference time 654. The length of time from the first time 652 until the input 660 is identified (e.g., the second time T2) is shorter than the reference length representing the difference between the reference time 654 and the first time 652. Bar, the input 660 may be identified as an unintended input, and the input 660 may be identified as an input for the first visual object 610 rather than the second visual objects 621 and 622. Alternatively, input 670 may be identified as the intended input. The processor 120 may identify the input 670 as an input for the second visual objects 621 and 622. For example, input 670 may be performed before a third time 656 after reference time 654. The length of time from the first time 652 until the input 670 is identified (e.g., the second time T2) is longer than the reference length representing the difference between the reference time 654 and the first time 652. Bar, the input 670 may be identified as the intended input, and the input 670 may be identified as the input for the second visual objects 621 and 622.
일 실시예에 따르면, 입력(670)이 되기 전에, 프로세서(120)는 제2 시각적 객체들(621, 622)에 대한 입력에 응답하여 실행될 수 있는 기능(예: 도 4a의 제2 기능)을 위한 데이터(680)를 기준 시간(654) 이후로부터 미리 로드(preload)할 수 있다. 예를 들어, 프로세서(120)는, 제2 시각적 객체들(621, 622)가 표시된 제1 시간(652) 이후 기준 길이만큼 경과한 기준 시간(654)에서, 제1 시간(652) 이후에 사용자의 입력이 식별되지 않는 경우, 기준 시간(654)에 데이터(680)를 미리 로드(preload)할 수 있다. 이는, 상기 기준 길이만큼 경과한 경우, 사용자의 입력은 제2 시각적 객체들(621, 622)에 대한 입력으로 식별될 가능성이 높은 바, 끊김없이(seamless) 제2 시각적 객체들(621, 622)에 대한 기능을 빠르게 수행하기 위함일 수 있다. 일 실시예에 따르면, 데이터(680)는, 전자 장치(101)의 백그라운드(background)에서 미리 로드될 수 있다.According to one embodiment, before the input 670, the processor 120 executes a function (e.g., the second function in FIG. 4A) that can be executed in response to the input for the second visual objects 621 and 622. The data 680 may be preloaded from after the reference time 654. For example, the processor 120, at a reference time 654 that has elapsed by a reference length since the first time 652 in which the second visual objects 621 and 622 were displayed, displays the user after the first time 652. If the input of is not identified, the data 680 may be preloaded at the reference time 654. This means that when the reference length has elapsed, the user's input is likely to be identified as an input to the second visual objects 621 and 622, and the second visual objects 621 and 622 are displayed seamlessly. This may be to quickly perform the function. According to one embodiment, data 680 may be preloaded in the background of the electronic device 101.
도 7은 본 개시의 일 실시예에 따른 터치 빈도(touch frequency)에 기반하여, 복수의 시각적 객체들 중 입력에 대응하는 시각적 객체를 식별하는 예들을 도시한다. FIG. 7 illustrates examples of identifying a visual object corresponding to an input among a plurality of visual objects based on touch frequency according to an embodiment of the present disclosure.
도 7의 예들(701, 702, 703, 704)은, 터치 빈도(touch frequency)에 기반하여, 복수의 시각적 객체들 중 입력에 대응하는 시각적 객체를 식별하는 예를 도시한다. 도 7의 예들(701, 702, 703, 704)에서, 상기 시각적 객체를 식별하는 것은 도 1의 전자 장치(101)에 의해 수행될 수 있다. 예를 들어, 예들(701, 702, 703, 704)의 시각적 객체를 식별하는 것은 프로세서(120)에 의해 수행될 수 있다. 상기 복수의 시각적 객체들은, 복수의 소프트웨어 어플리케이션들을 통해 전자 장치(101)의 디스플레이 상에서 표시될 수 있다. 예를 들어, 상기 복수의 소프트웨어 어플리케이션들 중 하나의 소프트웨어 어플리케이션은 적어도 하나의 시각적 객체를 표시할 수 있다. Examples 701, 702, 703, and 704 of FIG. 7 illustrate examples of identifying a visual object corresponding to an input among a plurality of visual objects based on touch frequency. In examples 701, 702, 703, and 704 of FIG. 7, identifying the visual object may be performed by the electronic device 101 of FIG. 1. For example, identifying the visual object of examples 701, 702, 703, and 704 may be performed by processor 120. The plurality of visual objects may be displayed on the display of the electronic device 101 through a plurality of software applications. For example, one software application among the plurality of software applications may display at least one visual object.
예들(701, 702, 703, 704)에서, 제1 시간(710)은 제2 시각적 객체가 표시되기 시작한 시간을 나타낼 수 있다. 기준 시간(720)은 제1 시간(710)으로부터 기준 길이가 지난 시간을 나타낼 수 있다. 예들(701, 702, 703, 704)은, 제2 시각적 객체가 표시되기 전, 제1 시각적 객체가 표시되고 있고, 상기 제2 시각적 객체가 상기 제1 시각적 객체와 중첩되어 표시되는 경우를 가정한다. 예들(701, 702, 703, 704)의 터치 빈도를 나타내는 입력은 상기 제1 시각적 객체와 상기 제2 시각적 객체가 중첩된 영역 상의 접촉점을 포함하는 입력을 나타낼 수 있다.In examples 701, 702, 703, and 704, first time 710 may represent the time at which the second visual object began to be displayed. The reference time 720 may represent a reference length of time elapsed from the first time 710 . Examples 701, 702, 703, and 704 assume that a first visual object is displayed before the second visual object is displayed, and the second visual object is displayed overlapping with the first visual object. . The input representing the touch frequency of examples 701, 702, 703, and 704 may represent an input including a contact point on an area where the first visual object and the second visual object overlap.
예들(701, 702, 703, 704)에서, 터치 빈도(touch frequency)는 디스플레이에 대한 터치 행동(touch action)을 나타낼 수 있다. 예를 들어, 터치 빈도는, 1초 마다 상기 터치 행동의 횟수를 나타낼 수 있다. 예를 들어, 상기 터치 빈도는 소프트웨어 어플리케이션 별로 다르게 설정될 수 있다. 예를 들어, 소프트웨어 어플리케이션이 게임인 경우, 상기 터치 빈도가 높음(high)을 나타내는 값은 10(즉, 1초당 10회), 중간(medium)을 나타내는 값은 5(즉, 1초당 5회), 낮음(low)을 나타내는 값은 1(1초당 1회)일 수 있다. 예를 들어, 소프트웨어 어플리케이션이 웹 브라우저(web browser)인 경우, 상기 터치 빈도가 높음(high)을 나타내는 값은 5(즉, 1초당 5회), 중간(medium)을 나타내는 값은 2(즉, 1초당 2회), 낮음(low)을 나타내는 값은 1(1초당 1회)일 수 있다. 다만, 상기 예들은 터치 빈도의 높음, 중간, 및 낮음을 나타내는 절대적인 값의 예시에 불과할 뿐, 본 개시의 실시예가 이에 제한되는 것은 아니다. 상기 터치 빈도가 높음, 중간, 및 낮음을 나타내는 값은 상대적인 값으로 구성될 수도 있다.In examples 701, 702, 703, and 704, touch frequency may indicate touch action on the display. For example, touch frequency may indicate the number of touch actions per second. For example, the touch frequency may be set differently for each software application. For example, if the software application is a game, the value indicating high touch frequency is 10 (i.e., 10 times per second), and the value indicating medium is 5 (i.e., 5 times per second). , the value representing low may be 1 (once per second). For example, if the software application is a web browser, the value indicating high touch frequency is 5 (i.e., 5 times per second), and the value indicating medium is 2 (i.e. 2 times per second), and the value indicating low may be 1 (1 time per second). However, the above examples are merely examples of absolute values representing high, medium, and low touch frequencies, and embodiments of the present disclosure are not limited thereto. Values representing high, medium, and low touch frequencies may be configured as relative values.
예들(701, 702, 703, 704)에서, 프로세서(120)는, 제1 시간(710) 전의 입력에 대한 제1 터치 빈도, 제1 시간(710) 이후로부터 기준 시간(720) 전의 제2 터치 빈도, 및 기준 시간(720) 이후의 입력에 대한 제3 터치 빈도를 식별할 수 있다. In examples 701 , 702 , 703 , and 704 , the processor 120 determines a first touch frequency for input before a first time 710 and a second touch after a first time 710 but before a reference time 720 . The frequency and the third touch frequency for input after the reference time 720 can be identified.
예(701)를 참조하면, 프로세서(120)는, 상기 중첩된 영역 상의 접촉점을 포함하는 입력이 제1 시간(710)과 기준 시간(720) 사이에 입력됨을 식별할 수 있다. 예를 들어, 프로세서(120)는, 상기 제1 터치 빈도를 나타내는 값이 높음(high)(또는 중간(medium))을 나타내고, 상기 제2 터치 빈도를 나타내는 값이 상기 제1 터치 빈도와 같이 높음(high) (또는 중간(medium))을 나타냄을 식별한 경우, 상기 중첩된 영역 상의 접촉점을 포함하는 입력을 상기 제1 시각적 객체에 대한 입력으로 식별할 수 있다. 또한, 프로세서(120)는, 상기 중첩된 영역 상의 접촉점을 포함하는 입력이 기준 시간(720) 이후 제3 시간(미도시) 전에 입력됨을 식별할 수 있다. 상기 제3 시간은 제1 시간(710)에 표시되기 시작한 제2 시각적 객체가 사라지는 시간을 나타낼 수 있다. 예를 들어, 프로세서(120)는, 상기 제2 터치 빈도를 나타내는 값이 높음(high)(또는 중간(medium))을 나타내고, 상기 제3 터치 빈도를 나타내는 값이 상기 제2 터치 빈도와 같이 높음(high) (또는 중간(medium))을 나타냄을 식별한 경우, 상기 중첩된 영역 상의 접촉점을 포함하는 입력을 상기 제1 시각적 객체에 대한 입력으로 식별할 수 있다. 이에 따라, 프로세서(120)는, 상기 제1 소프트웨어 어플리케이션을 통해 상기 제1 기능을 실행할 수 있다.Referring to example 701, the processor 120 may identify that an input including a contact point on the overlapped area is input between the first time 710 and the reference time 720. For example, the processor 120 may indicate that the value representing the first touch frequency is high (or medium), and the value representing the second touch frequency is as high as the first touch frequency. If it is identified that it represents (high) (or medium), the input including the contact point on the overlapped area can be identified as the input for the first visual object. Additionally, the processor 120 may identify that an input including a contact point on the overlapped area is input before a third time (not shown) after the reference time 720. The third time may represent the time at which the second visual object that started to be displayed at the first time 710 disappears. For example, the processor 120 indicates that the value representing the second touch frequency is high (or medium), and the value representing the third touch frequency is as high as the second touch frequency. If it is identified that it represents (high) (or medium), the input including the contact point on the overlapped area can be identified as the input for the first visual object. Accordingly, the processor 120 can execute the first function through the first software application.
예(702)를 참조하면, 프로세서(120)는, 상기 중첩된 영역 상의 접촉점을 포함하는 입력이 제1 시간(710)과 기준 시간(720) 사이에 입력됨을 식별할 수 있다. 예를 들어, 프로세서(120)는, 상기 제1 터치 빈도를 나타내는 값이 낮음(low)을 나타내고, 상기 제2 터치 빈도를 나타내는 값이 상기 제1 터치 빈도와 같이 낮음(low)을 나타냄을 식별한 경우, 상기 중첩된 영역 상의 접촉점을 포함하는 입력을 상기 제2 시각적 객체에 대한 입력으로 식별할 수 있다. 또한, 프로세서(120)는, 상기 중첩된 영역 상의 접촉점을 포함하는 입력이 기준 시간(720) 이후 제3 시간(미도시) 전에 입력됨을 식별할 수 있다. 상기 제3 시간은 제1 시간(710)에 표시되기 시작한 제2 시각적 객체가 사라지는 시간을 나타낼 수 있다. 예를 들어, 프로세서(120)는, 상기 제2 터치 빈도를 나타내는 값이 낮음(low)을 나타내고, 상기 제3 터치 빈도를 나타내는 값이 상기 제2 터치 빈도와 같이 낮음(low)을 나타냄을 식별한 경우, 상기 중첩된 영역 상의 접촉점을 포함하는 입력을 상기 제2 시각적 객체에 대한 입력으로 식별할 수 있다. 이에 따라, 프로세서(120)는, 상기 제2 소프트웨어 어플리케이션을 통해 상기 제2 기능을 실행할 수 있다.Referring to example 702, processor 120 may identify that an input including a contact point on the overlapped area is input between a first time 710 and a reference time 720. For example, the processor 120 identifies that the value representing the first touch frequency represents low and the value representing the second touch frequency represents low like the first touch frequency. In one case, an input including a contact point on the overlapped area may be identified as an input for the second visual object. Additionally, the processor 120 may identify that an input including a contact point on the overlapped area is input before a third time (not shown) after the reference time 720. The third time may represent the time at which the second visual object that started to be displayed at the first time 710 disappears. For example, the processor 120 identifies that the value representing the second touch frequency represents low and the value representing the third touch frequency represents low like the second touch frequency. In one case, an input including a contact point on the overlapped area may be identified as an input for the second visual object. Accordingly, the processor 120 can execute the second function through the second software application.
예(703)를 참조하면, 프로세서(120)는, 상기 중첩된 영역 상의 접촉점을 포함하는 입력이 제1 시간(710)과 기준 시간(720) 사이에 입력됨을 식별할 수 있다. 예를 들어, 프로세서(120)는, 상기 제1 터치 빈도를 나타내는 값이 높음(high)을 나타내고, 상기 제2 터치 빈도를 나타내는 값이 중간(medium) 또는 낮음(low)을 나타냄을 식별한 경우, 상기 중첩된 영역 상의 접촉점을 포함하는 입력을 상기 제2 시각적 객체에 대한 입력으로 식별할 수 있다. 또한, 프로세서(120)는, 상기 중첩된 영역 상의 접촉점을 포함하는 입력이 기준 시간(720) 이후 제3 시간(미도시) 전에 입력됨을 식별할 수 있다. 상기 제3 시간은 제1 시간(710)에 표시되기 시작한 제2 시각적 객체가 사라지는 시간을 나타낼 수 있다. 예를 들어, 프로세서(120)는, 상기 제2 터치 빈도를 나타내는 값이 중간(medium) 또는 낮음(low)을 나타내고, 상기 제3 터치 빈도를 나타내는 값이 상기 제2 터치 빈도와 같이 중간(medium) 또는 낮음(low)을 나타냄을 식별한 경우, 상기 중첩된 영역 상의 접촉점을 포함하는 입력을 상기 제2 시각적 객체에 대한 입력으로 식별할 수 있다. 이에 따라, 프로세서(120)는, 상기 제2 소프트웨어 어플리케이션을 통해 상기 제2 기능을 실행할 수 있다.Referring to example 703, processor 120 may identify that an input including a contact point on the overlapped area is input between a first time 710 and a reference time 720. For example, when the processor 120 identifies that the value representing the first touch frequency represents high and the value representing the second touch frequency represents medium or low. , an input including a contact point on the overlapped area may be identified as an input to the second visual object. Additionally, the processor 120 may identify that an input including a contact point on the overlapped area is input before a third time (not shown) after the reference time 720. The third time may represent the time at which the second visual object that started to be displayed at the first time 710 disappears. For example, the processor 120 may determine that the value representing the second touch frequency represents medium or low, and the value representing the third touch frequency represents medium like the second touch frequency. ) or low, the input including the contact point on the overlapped area can be identified as the input for the second visual object. Accordingly, the processor 120 can execute the second function through the second software application.
또한, 예(703)를 참조하면, 프로세서(120)는, 상기 중첩된 영역 상의 접촉점을 포함하는 입력이 제1 시간(710)과 기준 시간(720) 사이에 입력됨을 식별할 수 있다. 예를 들어, 프로세서(120)는, 상기 제1 터치 빈도를 나타내는 값이 중간(medium)을 나타내고, 상기 제2 터치 빈도를 나타내는 값이 낮음(low)을 나타냄을 식별한 경우, 상기 중첩된 영역 상의 접촉점을 포함하는 입력을 상기 제2 시각적 객체에 대한 입력으로 식별할 수 있다. 또한, 프로세서(120)는, 상기 중첩된 영역 상의 접촉점을 포함하는 입력이 기준 시간(720) 이후 제3 시간(미도시) 전에 입력됨을 식별할 수 있다. 상기 제3 시간은 제1 시간(710)에 표시되기 시작한 제2 시각적 객체가 사라지는 시간을 나타낼 수 있다. 예를 들어, 프로세서(120)는, 상기 제2 터치 빈도를 나타내는 값이 낮음(low)을 나타내고, 상기 제3 터치 빈도를 나타내는 값이 상기 제2 터치 빈도와 같이 낮음(low)을 나타냄을 식별한 경우, 상기 중첩된 영역 상의 접촉점을 포함하는 입력을 상기 제2 시각적 객체에 대한 입력으로 식별할 수 있다. 이에 따라, 프로세서(120)는, 상기 제2 소프트웨어 어플리케이션을 통해 상기 제2 기능을 실행할 수 있다.Additionally, referring to example 703, the processor 120 may identify that an input including a contact point on the overlapped area is input between the first time 710 and the reference time 720. For example, when the processor 120 identifies that the value representing the first touch frequency represents medium and the value representing the second touch frequency represents low, the overlapped area An input including a contact point on the image may be identified as an input for the second visual object. Additionally, the processor 120 may identify that an input including a contact point on the overlapped area is input before a third time (not shown) after the reference time 720. The third time may represent the time at which the second visual object that started to be displayed at the first time 710 disappears. For example, the processor 120 identifies that the value representing the second touch frequency represents low and the value representing the third touch frequency represents low like the second touch frequency. In one case, an input including a contact point on the overlapped area may be identified as an input for the second visual object. Accordingly, the processor 120 can execute the second function through the second software application.
예(704)를 참조하면, 프로세서(120)는, 상기 중첩된 영역 상의 접촉점을 포함하는 입력이 제1 시간(710)과 기준 시간(720) 사이에 입력됨을 식별할 수 있다. 예를 들어, 프로세서(120)는, 상기 제1 터치 빈도를 나타내는 값이 높음(high)을 나타내고, 상기 제2 터치 빈도를 나타내는 값이 상기 제1 터치 빈도와 같이 높음(high)을 나타냄을 식별한 경우, 상기 중첩된 영역 상의 접촉점을 포함하는 입력을 상기 제2 시각적 객체에 대한 입력으로 식별할 수 있다. 또한, 프로세서(120)는, 상기 중첩된 영역 상의 접촉점을 포함하는 입력이 기준 시간(720) 이후 제3 시간(미도시) 전에 입력됨을 식별할 수 있다. 상기 제3 시간은 제1 시간(710)에 표시되기 시작한 제2 시각적 객체가 사라지는 시간을 나타낼 수 있다. 예를 들어, 프로세서(120)는, 상기 제2 터치 빈도를 나타내는 값이 높음(high)을 나타내고, 상기 제3 터치 빈도를 나타내는 값이 낮음(low)을 나타냄을 식별한 경우, 상기 중첩된 영역 상의 접촉점을 포함하는 입력을 상기 제2 시각적 객체에 대한 입력으로 식별할 수 있다. 이에 따라, 프로세서(120)는, 상기 제2 소프트웨어 어플리케이션을 통해 상기 제2 기능을 실행할 수 있다.Referring to example 704, processor 120 may identify that an input including a contact point on the overlapped area is input between a first time 710 and a reference time 720. For example, the processor 120 identifies that the value representing the first touch frequency represents high and the value representing the second touch frequency represents high like the first touch frequency. In one case, an input including a contact point on the overlapped area may be identified as an input for the second visual object. Additionally, the processor 120 may identify that an input including a contact point on the overlapped area is input before a third time (not shown) after the reference time 720. The third time may represent the time at which the second visual object that started to be displayed at the first time 710 disappears. For example, when the processor 120 identifies that the value representing the second touch frequency represents high and the value representing the third touch frequency represents low, the overlapped area An input including a contact point on the image may be identified as an input for the second visual object. Accordingly, the processor 120 can execute the second function through the second software application.
프로세서(120)는, 상기 중첩된 영역 상의 접촉점을 포함하는 입력이 제1 시간(710)과 기준 시간(720) 사이에 입력됨을 식별할 수 있다. 예를 들어, 프로세서(120)는, 상기 제1 터치 빈도를 나타내는 값이 중간(medium)을 나타내고, 상기 제2 터치 빈도를 나타내는 값이 상기 제1 터치 빈도와 같이 중간(medium)을 나타냄을 식별한 경우, 상기 중첩된 영역 상의 접촉점을 포함하는 입력을 상기 제2 시각적 객체에 대한 입력으로 식별할 수 있다. 또한, 프로세서(120)는, 상기 중첩된 영역 상의 접촉점을 포함하는 입력이 기준 시간(720) 이후 제3 시간(미도시) 전에 입력됨을 식별할 수 있다. 상기 제3 시간은 제1 시간(710)에 표시되기 시작한 제2 시각적 객체가 사라지는 시간을 나타낼 수 있다. 예를 들어, 프로세서(120)는, 상기 제2 터치 빈도를 나타내는 값이 중간(medium)을 나타내고, 상기 제3 터치 빈도를 나타내는 값이 낮음(low)을 나타냄을 식별한 경우, 상기 중첩된 영역 상의 접촉점을 포함하는 입력을 상기 제2 시각적 객체에 대한 입력으로 식별할 수 있다. 이에 따라, 프로세서(120)는, 상기 제2 소프트웨어 어플리케이션을 통해 상기 제2 기능을 실행할 수 있다.The processor 120 may identify that an input including a contact point on the overlapped area is input between the first time 710 and the reference time 720. For example, the processor 120 identifies that the value representing the first touch frequency represents medium and the value representing the second touch frequency represents medium like the first touch frequency. In one case, an input including a contact point on the overlapped area may be identified as an input for the second visual object. Additionally, the processor 120 may identify that an input including a contact point on the overlapped area is input before a third time (not shown) after the reference time 720. The third time may represent the time at which the second visual object that started to be displayed at the first time 710 disappears. For example, when the processor 120 identifies that the value representing the second touch frequency represents medium and the value representing the third touch frequency represents low, the overlapped area An input including a contact point on the image may be identified as an input for the second visual object. Accordingly, the processor 120 can execute the second function through the second software application.
상술한 바를 참조하면, 프로세서(120)는, 중첩된 영역 상의 접촉점을 포함하는 입력을 식별함에 대응하여, 상기 입력이 식별되는 시간과 이전 시간 사이의 터치 빈도 및 상기 터치 빈도를 나타내는 값에 기반하여 상기 입력에 대응하는 시각적 객체를 식별할 수 있다. 다시 말해서, 본 개시의 실시예에 따른 장치 및 방법은, 터치 빈도에 기반하여 사용자의 의도를 식별할 수 있다.Referring to the above, processor 120, in response to identifying an input that includes a point of contact on an overlapping area, based on the touch frequency between the time the input was identified and the previous time and a value representing the touch frequency. A visual object corresponding to the input can be identified. In other words, the device and method according to an embodiment of the present disclosure can identify the user's intention based on the touch frequency.
도 8은 본 개시의 일 실시예에 따른 터치 영역(touch area)에 기반하여, 복수의 시각적 객체들 중 입력에 대응하는 시각적 객체를 식별하는 예를 도시한다. FIG. 8 illustrates an example of identifying a visual object corresponding to an input among a plurality of visual objects based on a touch area according to an embodiment of the present disclosure.
도 8의 예(800)는, 터치 영역(touch area)에 기반하여, 복수의 시각적 객체들 중 입력에 대응하는 시각적 객체를 식별하는 예를 도시한다. 도 8의 예(800)에서, 상기 시각적 객체를 식별하는 것은 도 1의 전자 장치(101)에 의해 수행될 수 있다. 예를 들어, 예(800)의 시각적 객체를 식별하는 것은 프로세서(120)에 의해 수행될 수 있다. 상기 복수의 시각적 객체들은, 복수의 소프트웨어 어플리케이션들을 통해 전자 장치(101)의 디스플레이 상에서 표시될 수 있다. 예를 들어, 상기 복수의 소프트웨어 어플리케이션들 중 하나의 소프트웨어 어플리케이션은 적어도 하나의 시각적 객체를 표시할 수 있다. Example 800 of FIG. 8 shows an example of identifying a visual object corresponding to an input among a plurality of visual objects based on a touch area. In example 800 of FIG. 8 , identifying the visual object may be performed by electronic device 101 of FIG. 1 . For example, identifying the visual object of example 800 may be performed by processor 120. The plurality of visual objects may be displayed on the display of the electronic device 101 through a plurality of software applications. For example, one software application among the plurality of software applications may display at least one visual object.
예(800)에서, 프로세서(120)는 제1 시각적 객체(810) 및 제2 시각적 객체(820)를 표시할 수 있다. 예(800)에서 제1 시각적 객체(810)는 전자 장치(101)의 디스플레이 전체 영역에서 표시되는 것으로 도시하나, 본 개시의 실시예가 이에 제한되는 것은 아니다. 예를 들어, 도 5의 예들(504, 505)과 같이, 제1 시각적 객체(810)는 디스플레이 일부 영역에서 표시될 수 있다. 일 실시예에 따르면, 시각적 객체에 대한 입력은 제1 시각적 객체(810)와 제2 시각적 객체(820)에 걸쳐진 영역(830)에 입력될 수 있다. 영역(830)은 터치 영역으로 참조될 수 있다. 상기 입력은, 제1 시각적 객체(810)와 제2 시각적 객체(820)가 중첩된 영역 상의 접촉점을 포함하는 입력을 나타낼 수 있다. 일 실시예에 따르면, 입력된 영역(830)은 제1 영역(831) 및 제2 영역(832)을 포함할 수 있다. 제2 영역(832)은 제1 시각적 객체(810)와 제2 시각적 객체(820)가 중첩된 영역을 나타낼 수 있다. 제1 영역(831)은, 영역(830)에서 제2 영역(832)을 제외한 영역으로, 제1 시각적 객체(810)의 영역만을 포함할 수 있다. In example 800, processor 120 can display first visual object 810 and second visual object 820. In example 800, the first visual object 810 is shown as being displayed in the entire display area of the electronic device 101, but embodiments of the present disclosure are not limited thereto. For example, as in examples 504 and 505 of FIG. 5 , the first visual object 810 may be displayed in a partial area of the display. According to one embodiment, an input for a visual object may be input to the area 830 spanning the first visual object 810 and the second visual object 820. Area 830 may be referred to as a touch area. The input may represent an input including a contact point on an area where the first visual object 810 and the second visual object 820 overlap. According to one embodiment, the input area 830 may include a first area 831 and a second area 832. The second area 832 may represent an area where the first visual object 810 and the second visual object 820 overlap. The first area 831 is an area excluding the second area 832 from the area 830 and may include only the area of the first visual object 810.
일 실시예에 따르면, 프로세서(120)는, 제1 영역(831)과 제2 영역(832)을 비교할 수 있다. 예를 들어, 프로세서(120)는 영역(830) 내, 제2 영역(832)이 제1 영역(831) 보다 넓은 지 여부를 식별할 수 있다. 프로세서(120)는, 제2 영역(832)이 제1 영역(831) 보다 넓은 것으로 식별한 경우, 입력을 제2 시각적 객체(820)에 대한 의도된 입력으로 식별할 수 있다. 예를 들어, 프로세서(120)는, 제2 소프트웨어 어플리케이션을 통한 제2 기능을 실행할 수 있다. 이와 달리, 프로세서(120)는, 제2 영역(832)이 제1 영역(831) 보다 좁거나 같은 것으로 식별한 경우, 입력을 제2 시각적 객체(820)에 대한 의도되지 않은 입력으로 식별할 수 있다. 다시 말해서, 프로세서(120)는, 입력을 제1 시각적 객체(810)에 대한 입력으로 식별할 수 있다. 예를 들어, 프로세서(120)는, 제1 소프트웨어 어플리케이션을 통한 제1 기능을 실행할 수 있다.According to one embodiment, the processor 120 may compare the first area 831 and the second area 832. For example, the processor 120 may identify whether the second area 832 is wider than the first area 831 within the area 830. If the processor 120 identifies the second area 832 as being wider than the first area 831, the processor 120 may identify the input as the intended input for the second visual object 820. For example, the processor 120 may execute a second function through a second software application. Alternatively, if the processor 120 identifies the second area 832 as being narrower than or equal to the first area 831, the processor 120 may identify the input as an unintended input to the second visual object 820. there is. In other words, the processor 120 may identify the input as an input for the first visual object 810. For example, the processor 120 may execute a first function through a first software application.
도 9는 본 개시의 일 실시예에 따른 소프트웨어 어플리케이션(software application)에 기반하여, 기준 길이를 식별하는 방법의 예를 도시하는 흐름도이다.FIG. 9 is a flowchart illustrating an example of a method for identifying a reference length based on a software application according to an embodiment of the present disclosure.
도 9의 방법은, 도 1의 전자 장치(101)에 의해 수행될 수 있다. 예를 들어, 도 9의 방법은, 프로세서(예: 도 1의 프로세서(120))에 의해 수행될 수 있다. 상기 기준 길이는, 전자 장치(101)의 사용자가 제2 시각적 객체를 인식하고, 상기 제2 시각적 객체의 콘텐트(content)를 식별하기 까지를 나타내는 판독가능한(readable) 시간을 나타낼 수 있다. The method of FIG. 9 may be performed by the electronic device 101 of FIG. 1 . For example, the method of FIG. 9 may be performed by a processor (eg, processor 120 of FIG. 1). The reference length may represent a readable time until the user of the electronic device 101 recognizes the second visual object and identifies the content of the second visual object.
일 실시예에 따르면, 동작(900)에서, 프로세서(120)는, 제1 소프트웨어 어플리케이션이 가상의 공간(virtual space)을 표시하기 위한 소프트웨어 어플리케이션인지 여부를 식별할 수 있다. 예를 들어, 상기 가상의 공간은 AR(augmented reality) 공간, VR(virtual reality) 공간, 또는 MR(mixed reality) 공간을 포함할 수 있다. 예를 들어, 프로세서(120)는 상기 제1 소프트웨어 어플리케이션의 정보에 기반하여, 상기 제1 소프트웨어 어플리케이션이 가상의 공간을 표시하기 위한 소프트웨어 어플리케이션인지 여부를 식별할 수 있다. 상기 정보는, 제1 소프트웨어 어플리케이션과 관련된 코딩 정보(coding information)인 인텐트 필터(intent filter)를 포함할 수 있다. 상기 인텐트 필터는, 인스트럭션(instruction)으로 지칭될 수 있다.According to one embodiment, in operation 900, the processor 120 may identify whether the first software application is a software application for displaying a virtual space. For example, the virtual space may include an augmented reality (AR) space, a virtual reality (VR) space, or a mixed reality (MR) space. For example, the processor 120 may identify whether the first software application is a software application for displaying a virtual space, based on information on the first software application. The information may include an intent filter, which is coding information related to the first software application. The intent filter may be referred to as an instruction.
동작(900)에서, 프로세서(120)가 제1 소프트웨어 어플리케이션이 가상의 공간을 표시하기 위한 소프트웨어 어플리케이션임을 식별한 경우, 동작(910)을 수행할 수 있다. 이와 달리, 프로세서(120)가 제1 소프트웨어 어플리케이션이 가상의 공간을 표시하기 위한 소프트웨어 어플리케이션이 아님을 식별한 경우, 동작(905)을 수행할 수 있다. In operation 900, when the processor 120 identifies that the first software application is a software application for displaying a virtual space, operation 910 may be performed. Alternatively, when the processor 120 identifies that the first software application is not a software application for displaying a virtual space, operation 905 may be performed.
일 실시예에 따르면, 동작(905)에서, 프로세서(120)는 제2 시각적 객체에 대한 정보, 또는 사용자의 주의(attention)에 대한 정보 중 적어도 하나에 기반하여, 기준 길이를 식별할 수 있다. 예를 들어, 상기 제2 시각적 객체에 대한 정보는, 상기 제2 시각적 객체가 포함하는 콘텐츠의 길이, 상기 제2 시각적 객체가 전자 장치(101)의 디스플레이 상에서 표시되는 영역(area)의 위치 또는 상기 제2 시각적 객체의 투명도(transparency) 중 적어도 하나를 포함할 수 있다. 상기 사용자의 주의에 대한 정보는, 사용자가 전자 장치(101)를 바라보고 있거나, 사용자가 전자 장치(101)를 사용하고 있는 지 여부를 나타내는 정보를 포함할 수 있다. 예를 들어, 프로세서(120)는, 상기 제2 시각적 객체가 포함하는 텍스트(text)의 길이가 긴 경우, 텍스트의 길이가 짧은 경우에 비하여, 상대적으로 더 긴 길이의 값을 나타내는 상기 기준 길이를 식별할 수 있다. 예를 들어, 프로세서(120)는, 상기 제2 시각적 객체가 표시되는 영역의 위치가, 사용자의 신체에 의해 가려지기 쉬운 영역(예: 전자 장치(101)의 가장자리(periphery) 부분)인 경우, 그렇지 않은 영역(예: 전자 장치(101)의 디스플레이 중심 부분)인 경우에 비하여, 상대적으로 더 긴 길이의 값을 나타내는 상기 기준 길이를 식별할 수 있다. 예를 들어, 프로세서(120)는, 상기 제2 시각적 객체의 투명도가 더 높은 경우, 투명도가 더 낮은 경우에 비하여, 상대적으로 더 긴 길이의 값을 나타내는 상기 기준 길이를 식별할 수 있다. 예를 들어, 프로세서(120)는, 사용자가 디스플레이를 바라보지 않는 경우, 사용자가 디스플레이를 바라보고 있는 경우에 비하여, 상대적으로 더 긴 길이의 값을 나타내는 상기 기준 길이를 식별할 수 있다. 프로세서(120)는, 전자 장치(101)의 센서에 기반하여 사용자의 안구 움직임을 식별할 수 있고, 사용자의 디스플레이에 대한 주의 여부를 식별할 수 있다.According to one embodiment, in operation 905, the processor 120 may identify the reference length based on at least one of information about the second visual object or information about the user's attention. For example, the information about the second visual object may include the length of content included in the second visual object, the location of the area where the second visual object is displayed on the display of the electronic device 101, or the It may include at least one of the transparency of the second visual object. The information about the user's attention may include information indicating whether the user is looking at the electronic device 101 or whether the user is using the electronic device 101. For example, when the text included in the second visual object is long, the processor 120 sets the reference length indicating a relatively longer length value compared to when the text is short. can be identified. For example, if the location of the area where the second visual object is displayed is an area that is likely to be obscured by the user's body (e.g., the periphery of the electronic device 101), Compared to other areas (e.g., the center portion of the display of the electronic device 101), the reference length indicating a relatively longer length value can be identified. For example, the processor 120 may identify the reference length indicating a relatively longer length value when the transparency of the second visual object is higher than when the transparency is lower. For example, the processor 120 may identify the reference length indicating a relatively longer length value when the user is not looking at the display compared to when the user is looking at the display. The processor 120 may identify the user's eye movements based on the sensor of the electronic device 101 and determine whether the user is paying attention to the display.
일 실시예에 따르면, 동작(910)에서, 프로세서(120)는 제2 시각적 객체에 대한 정보, 사용자의 주의(attention)에 대한 정보, 또는 제1 시각적 객체의 배경 이미지(background image)에 대한 정보 중 적어도 하나에 기반하여, 기준 길이를 식별할 수 있다. 상기 제1 시각적 객체의 배경 이미지는, 상기 제1 소프트웨어 어플리케이션을 통해 표시되는 상기 복수의 시각적 객체들의 적어도 일부를 포함할 수 있다. 일 실시예에 따르면, 프로세서(120)는, 상기 배경 이미지의 복잡도(complexity)에 기반하여 기준 길이를 식별할 수 있다. 예를 들어, 프로세서(120)는, 상기 배경 이미지의 복잡도가 높은 경우 제2 시각적 객체를 식별하기 어려운 바, 상기 배경 이미지의 복잡도가 더 낮은 경우에 비하여, 상대적으로 더 긴 길이의 값을 나타내는 상기 기준 길이를 식별할 수 있다.According to one embodiment, in operation 910, the processor 120 collects information about the second visual object, information about the user's attention, or information about the background image of the first visual object. A reference length may be identified based on at least one of the following. The background image of the first visual object may include at least a portion of the plurality of visual objects displayed through the first software application. According to one embodiment, the processor 120 may identify the reference length based on the complexity of the background image. For example, when the complexity of the background image is high, it is difficult for the processor 120 to identify the second visual object, so compared to when the complexity of the background image is lower, the processor 120 indicates a relatively longer length value. The standard length can be identified.
도 10은 본 개시의 일 실시예에 따른 기록(history) 정보에 기반하여, 복수의 시각적 객체들 중 입력에 대응하는 시각적 객체를 식별하는 방법의 예를 도시하는 흐름도이다.FIG. 10 is a flowchart illustrating an example of a method for identifying a visual object corresponding to an input among a plurality of visual objects based on history information according to an embodiment of the present disclosure.
도 10의 방법은, 도 1의 전자 장치(101)에 의해 수행될 수 있다. 예를 들어, 도 10의 방법은, 프로세서(예: 도 1의 프로세서(120))에 의해 수행될 수 있다. 상기 복수의 시각적 객체들은, 복수의 소프트웨어 어플리케이션들을 통해 전자 장치(101)의 디스플레이 상에서 표시될 수 있다. 예를 들어, 상기 복수의 소프트웨어 어플리케이션들 중 하나의 소프트웨어 어플리케이션은 적어도 하나의 시각적 객체를 표시할 수 있다. 상기 기록 정보는, 전자 장치(101)의 사용자가 상기 복수의 소프트웨어 어플리케이션들을 사용한 이력을 나타내는 정보를 포함할 수 있다. 상기 복수의 소프트웨어 어플리케이션들은 제1 소프트웨어 어플리케이션 및 제2 소프트웨어 어플리케이션을 포함할 수 있다. The method of FIG. 10 may be performed by the electronic device 101 of FIG. 1 . For example, the method of FIG. 10 may be performed by a processor (eg, processor 120 of FIG. 1). The plurality of visual objects may be displayed on the display of the electronic device 101 through a plurality of software applications. For example, one software application among the plurality of software applications may display at least one visual object. The record information may include information indicating a history of the user of the electronic device 101 using the plurality of software applications. The plurality of software applications may include a first software application and a second software application.
일 실시예에 따르면, 동작(1000)에서, 프로세서(120)는, 제2 시각적 객체가 표시되기 전까지의 입력을 식별할 수 있다. 예를 들어, 프로세서(120)는, 제2 시각적 객체가 표시되는 시간(예: 제1 시간) 이전까지의 사용자의 전자 장치(101)의 디스플레이(예: 도 1의 디스플레이 모듈(160))에 대한 터치 입력을 식별할 수 있다. 상기 제2 시각적 객체가 표시되기 전까지의 입력에 대한 정보는, 상기 기록 정보로 참조될 수 있다. 상기 기록 정보는, 사용자가 특정 소프트웨어 어플리케이션과 관련된 시각적 객체에 대한 터치 빈도 및 터치 영역에 대한 정보를 포함할 수 있다. According to one embodiment, in operation 1000, the processor 120 may identify input before the second visual object is displayed. For example, the processor 120 displays information on the display of the user's electronic device 101 (e.g., the display module 160 of FIG. 1) until the time at which the second visual object is displayed (e.g., the first time). touch input can be identified. Information about input before the second visual object is displayed may be referred to as the record information. The record information may include information on the frequency and touch area of a user's touch on a visual object related to a specific software application.
일 실시예에 따르면, 동작(1005)에서, 프로세서(120)는, 제2 시각적 객체가 표시되는 시간(예: 제1 시간) 직전에 이용된 소프트웨어 어플리케이션을 식별할 수 있다. 예를 들어, 프로세서(120)는, 상기 기록 정보에 기반하여, 상기 제2 시각적 객체가 표시되는 시간 직전에 이용된 소프트웨어 어플리케이션을 식별할 수 있다. 예를 들어, 프로세서(120)는 제1 소프트웨어 어플리케이션과 관련된 시각적 객체(예: 제1 시각적 객체)에 대한 사용자의 터치 빈도 및 터치 영역에 기반하여, 상기 시간 직전에 이용된 소프트웨어 어플리케이션이 제1 소프트웨어 어플리케이션임을 식별할 수 있다. 또는, 프로세서(120)는 제2 소프트웨어 어플리케이션과 관련된 시각적 객체에 대한 사용자의 터치 빈도 및 터치 영역에 기반하여, 상기 시간 직전에 이용된 소프트웨어 어플리케이션이 제2 소프트웨어 어플리케이션임을 식별할 수 있다.According to one embodiment, in operation 1005, the processor 120 may identify a software application used immediately before the time at which the second visual object is displayed (e.g., the first time). For example, the processor 120 may identify a software application used immediately before the time the second visual object is displayed, based on the record information. For example, the processor 120 may determine, based on the user's touch frequency and touch area on a visual object (e.g., the first visual object) related to the first software application, that the software application used immediately before the time is the first software application. It can be identified as an application. Alternatively, the processor 120 may identify that the software application used immediately before the time is the second software application based on the user's touch frequency and touch area on the visual object related to the second software application.
일 실시예에 따르면, 동작(1010)에서, 프로세서(120)는, 식별된 소프트웨어 어플리케이션에 기반하여, 기능을 실행할 수 있다. 예를 들어, 프로세서(120)는, 상기 제1 시각적 객체와 상기 제2 시각적 객체가 중첩된 영역 상의 접촉점을 포함하는 입력에 응답하여, 상기 식별된 소프트웨어 어플리케이션을 통한 기능을 실행할 수 있다. 예를 들어, 상기 식별된 소프트웨어 어플리케이션이 상기 제1 소프트웨어 어플리케이션인 경우, 프로세서(120)는 상기 제1 시각적 객체와 상기 제2 시각적 객체가 중첩된 영역 상의 접촉점을 포함하는 입력에 응답하여 제1 기능을 실행할 수 있다. 예를 들어, 상기 식별된 소프트웨어 어플리케이션이 상기 제2 소프트웨어 어플리케이션인 경우, 프로세서(120)는 상기 제1 시각적 객체와 상기 제2 시각적 객체가 중첩된 영역 상의 접촉점을 포함하는 입력에 응답하여 제2 기능을 실행할 수 있다. According to one embodiment, in operation 1010, processor 120 may execute a function based on the identified software application. For example, the processor 120 may execute a function through the identified software application in response to an input including a contact point on an area where the first visual object and the second visual object overlap. For example, when the identified software application is the first software application, the processor 120 performs the first function in response to an input including a contact point on an area where the first visual object and the second visual object overlap. You can run . For example, when the identified software application is the second software application, the processor 120 performs a second function in response to an input including a contact point on an area where the first visual object and the second visual object overlap. You can run .
상술한 바를 참조하면, 프로세서(120)는 사용자가 마지막(last)으로 상호작용(interact)한 소프트웨어 어플리케이션에 더 높은 우선순위를 적용할 수 있고, 최근에(latest) 이용한 소프트웨어 어플리케이션을 식별할 수 있다. 이에 따라, 프로세서(120)는, 소프트웨어 어플리케이션들과 관련된 복수의 시각적 객체들이 중첩된 영역에 대한 입력에 대하여, 최근에 이용한 소프트웨어 어플리케이션에 대한 입력으로 식별할 수 있고, 식별된 소프트웨어 어플리케이션을 통해 기능을 실행할 수 있다. Referring to the above, processor 120 can apply a higher priority to the software application with which the user last interacted and can identify recently used software applications. . Accordingly, the processor 120 can identify an input to an area where a plurality of visual objects related to software applications overlap as an input for a recently used software application, and perform a function through the identified software application. It can be run.
도 11은 본 개시의 일 실시예에 따른 소프트웨어 어플리케이션의 우선 순위에 기반하여, 복수의 시각적 객체들 중 입력에 대응하는 시각적 객체를 식별하는 방법의 예를 도시하는 흐름도이다.FIG. 11 is a flowchart illustrating an example of a method for identifying a visual object corresponding to an input among a plurality of visual objects based on the priority of a software application according to an embodiment of the present disclosure.
도 11의 방법은, 도 1의 전자 장치(101)에 의해 수행될 수 있다. 예를 들어, 도 11의 방법은, 프로세서(예: 도 1의 프로세서(120))에 의해 수행될 수 있다. 상기 복수의 시각적 객체들은, 복수의 소프트웨어 어플리케이션들을 통해 전자 장치(101)의 디스플레이 상에서 표시될 수 있다. 예를 들어, 상기 복수의 소프트웨어 어플리케이션들 중 하나의 소프트웨어 어플리케이션은 적어도 하나의 시각적 객체를 표시할 수 있다. 상기 복수의 소프트웨어 어플리케이션들은 제1 소프트웨어 어플리케이션 및 제2 소프트웨어 어플리케이션을 포함할 수 있다.The method of FIG. 11 may be performed by the electronic device 101 of FIG. 1 . For example, the method of FIG. 11 may be performed by a processor (eg, processor 120 of FIG. 1). The plurality of visual objects may be displayed on the display of the electronic device 101 through a plurality of software applications. For example, one software application among the plurality of software applications may display at least one visual object. The plurality of software applications may include a first software application and a second software application.
일 실시예에 따르면, 동작(1100)에서, 프로세서(120)는, 복수의 소프트웨어 어플리케이션들에 대한 우선 순위(priority)를 식별할 수 있다. 예를 들어, 프로세서(120)는, 복수의 소프트웨어 어플리케이션들 각각에 대응하는 지정된 우선 순위를 식별할 수 있다. 또는, 프로세서(120)는, 복수의 소프트웨어 어플리케이션들을 카테고리(category)에 따라 분류할 수 있고, 상기 카테고리에 대응하는 지정된 우선 순위를 식별할 수 있다. 상기 지정된 우선 순위는, 전자 장치(101)의 사용자에 의해 식별되거나, 소프트웨어 어플리케이션의 사용 빈도에 기반하여 식별될 수 있다. 상기 카테고리는, 소프트웨어 어플리케이션의 종류에 따라 분류하기 위한 기준을 나타낼 수 있다. 예를 들어, 상기 카테고리는, 게임(game), 알림 서비스(notification service), 설정(setting) 등을 포함할 수 있다. 또는, 프로세서(120)는, 복수의 소프트웨어 어플리케이션들 사이의 설정(setting)에 기반하여 우선순위를 식별할 수 있다. 예를 들어, 복수의 소프트웨어 어플리케이션들 사이의 관계를 설정하는 소프트웨어 어플리케이션에 기반하여, 소프트웨어 어플리케이션들에 대한 우선 순위를 식별할 수 있다. 상기 관계를 설정하는 소프트웨어 어플리케이션은, 상기 복수의 소프트웨어 어플리케이션들 중 하나의 소프트웨어 어플리케이션에 대하여 "맨 위에서 표시(appear on top)"와 같이 설정할 수 있다. 프로세서(120)는, 상기 관계를 설정하는 소프트웨어 어플리케이션을 통해 식별된 상기 관계에 기반하여, 상기 복수의 소프트웨어 어플리케이션들 사이의 우선 순위를 식별할 수 있다. 일 실시예에 따르면, 프로세서(120)는, 상기 제1 소프트웨어 어플리케이션에 대한 제1 우선 순위를 식별할 수 있다. 또한, 프로세서(120)는 상기 제2 소프트웨어 어플리케이션에 대한 제2 우선 순위를 식별할 수 있다. According to one embodiment, in operation 1100, the processor 120 may identify priorities for a plurality of software applications. For example, the processor 120 may identify a designated priority corresponding to each of a plurality of software applications. Alternatively, the processor 120 may classify a plurality of software applications according to a category and identify a designated priority corresponding to the category. The designated priority may be identified by the user of the electronic device 101 or may be identified based on the frequency of use of the software application. The category may represent criteria for classifying software applications according to their type. For example, the category may include games, notification services, settings, etc. Alternatively, the processor 120 may identify priorities based on settings between a plurality of software applications. For example, priorities for software applications may be identified based on a software application that establishes a relationship between a plurality of software applications. The software application that sets the relationship may be set to “appear on top” for one software application among the plurality of software applications. The processor 120 may identify priorities between the plurality of software applications based on the relationship identified through the software application that sets the relationship. According to one embodiment, the processor 120 may identify a first priority for the first software application. Additionally, the processor 120 may identify a second priority for the second software application.
일 실시예에 따르면, 동작(1105)에서, 프로세서(120)는, 제2 우선 순위가 제1 우선 순위보다 높은 지 여부를 식별할 수 있다. 동작(1105)에서, 프로세서(120)는, 제2 우선 순위가 제1 우선 순위보다 높은 경우, 동작(1110)을 수행할 수 있다. 이와 달리, 프로세서(120)는, 제2 우선 순위가 제1 우선 순위보다 낮거나 같은 경우, 동작(1115)을 수행할 수 있다. According to one embodiment, at operation 1105, processor 120 may identify whether the second priority is higher than the first priority. In operation 1105, the processor 120 may perform operation 1110 when the second priority is higher than the first priority. Alternatively, the processor 120 may perform operation 1115 when the second priority is lower than or equal to the first priority.
일 실시예에 따르면, 동작(1110)에서, 프로세서(120)는, 사용자의 제1 시각적 객체와 제2 시각적 객체가 중첩된 영역 상의 접촉점을 포함하는 입력이 제2 시각적 객체임을 식별할 수 있다. 프로세서(120)는, 제2 시각적 객체에 대한 입력에 응답하여, 제2 소프트웨어 어플리케이션을 통해 제2 기능을 실행할 수 있다.According to one embodiment, in operation 1110, the processor 120 may identify that an input including a contact point on an area where the user's first visual object and the second visual object overlap is the second visual object. The processor 120 may execute a second function through a second software application in response to an input for the second visual object.
일 실시예에 따르면, 동작(1115)에서, 프로세서(120)는, 사용자의 제1 시각적 객체와 제2 시각적 객체가 중첩된 영역 상의 접촉점을 포함하는 입력이 제1 시각적 객체임을 식별할 수 있다. 프로세서(120)는, 제1 시각적 객체에 대한 입력에 응답하여, 제1 소프트웨어 어플리케이션을 통해 제1 기능을 실행할 수 있다.According to one embodiment, in operation 1115, the processor 120 may identify that an input including a contact point on an area where the user's first visual object and the second visual object overlap is the first visual object. The processor 120 may execute a first function through a first software application in response to an input for the first visual object.
상술한 바를 참조하면, 본 개시의 실시예들에 따른 복수의 시각적 객체들 중 입력에 대응하는 시각적 객체를 식별하는 장치 및 방법은, 상기 기준 길이에 기반하여, 사용자의 의도에 따른 시각적 객체를 식별할 수 있다. 또한, 본 개시의 실시예들에 따른 장치 및 방법은, 예상하지 못한(unexpected) 화면이 갑작스럽게 표시되더라도, 사용자의 의도에 대응하는 시각적 객체를 표시할 수 있다. 이에 따라, 본 개시의 실시예들에 따른 장치 및 방법은, 보다 편안하고 몰입도 높은 사용자 경험을 제공할 수 있고, 입력의 정확도를 높일 수 있다. Referring to the above, an apparatus and method for identifying a visual object corresponding to an input among a plurality of visual objects according to embodiments of the present disclosure identifies a visual object according to the user's intention based on the reference length. can do. Additionally, the apparatus and method according to embodiments of the present disclosure can display a visual object corresponding to the user's intention even if an unexpected screen is suddenly displayed. Accordingly, the device and method according to embodiments of the present disclosure can provide a more comfortable and immersive user experience and increase input accuracy.
상술한 바와 같은, 전자 장치(101)(electronic device)는 디스플레이(160)(display)를 포함할 수 있다. 상기 전자 장치(101)는 프로세서(120)(processor)를 포함할 수 있다. 상기 프로세서(120)는, 터치 입력(touch input)에 응답하여 제1 소프트웨어 어플리케이션(software application)을 통해 제1 기능을 실행하기 위한 제1 실행가능한(executable) 객체를, 상기 디스플레이(160) 상에서 표시하도록 구성될 수 있다. 상기 프로세서(120)는, 터치 입력에 응답하여 제2 소프트웨어 어플리케이션을 통해 제2 기능을 실행하기 위한 제2 실행가능한 객체를, 상기 제1 실행가능한 객체 상에 부분적으로(partially) 중첩되도록, 상기 디스플레이(160) 상에서, 표시하도록 구성될 수 있다. 상기 프로세서(120)는, 상기 제1 실행가능한 객체 및 상기 제2 실행가능한 객체가 중첩된 영역 상의 접촉점(point of contact)을 포함하는 입력에 응답하여, 상기 제2 실행가능한 객체의 표시된 제1 시간으로부터 상기 입력의 식별된 제2 시간까지의 시간 길이를 식별하도록 구성될 수 있다. 상기 프로세서(120)는, 기준 길이보다 짧거나 상기 기준 길이와 같은 상기 시간 길이에 응답하여, 상기 제1 기능을 실행하도록 구성될 수 있다. 상기 프로세서(120)는, 상기 기준 길이보다 긴 상기 시간 길이에 응답하여, 상기 제2 기능을 실행하도록, 구성될 수 있다. As described above, the electronic device 101 may include a display 160. The electronic device 101 may include a processor 120. The processor 120 displays a first executable object for executing a first function through a first software application in response to a touch input, on the display 160. It can be configured to do so. The processor 120 displays a second executable object for executing a second function through a second software application in response to a touch input, partially overlapping the first executable object. On 160, it may be configured to display. The processor 120, in response to an input including a point of contact on an area where the first executable object and the second executable object overlap, displays a first time of the second executable object. and be configured to identify a length of time from to an identified second time of the input. The processor 120 may be configured to execute the first function in response to the time length being less than or equal to the reference length. The processor 120 may be configured to execute the second function in response to the time length being longer than the reference length.
일 실시예에 따르면, 상기 프로세서(120)는 상기 제1 시간에서 상기 기준 길이만큼 지난 기준 시간으로부터, 상기 제2 기능을 수행하기 위한 상기 제2 소프트웨어 어플리케이션의 데이터(data)를 백그라운드(background)에서 미리 로드(preload)하도록, 구성될 수 있다.According to one embodiment, the processor 120 collects data of the second software application for performing the second function in the background from a reference time that has passed by the reference length from the first time. Can be configured to preload.
일 실시예에 따르면, 상기 프로세서(120)는 상기 제1 시간 이전의 터치 입력에 대한 제1 터치 빈도(frequency)를 식별하도록 구성될 수 있다. 상기 프로세서(120)는 상기 제1 시간 이후로부터 상기 기준 길이만큼 지난 기준 시간 이전 까지의, 터치 입력에 대한 제2 터치 빈도를 식별하도록 구성될 수 있다. 상기 프로세서(120)는, 상기 제1 터치 빈도를 나타내는 제1 값 및 상기 제2 터치 빈도를 나타내는 상기 제1 값에 기반하여, 상기 제1 시간 이후 상기 기준 시간 이전의 상기 입력에 응답하여 상기 제1 기능을 실행하도록 구성될 수 있다. 상기 프로세서(120)는, 상기 제1 터치 빈도를 나타내는 상기 제1 값 및 상기 제2 터치 빈도를 나타내는 상기 제1 값보다 낮은 제2 값에 기반하여, 상기 제1 시간 이후 상기 기준 시간 이전의 상기 입력에 응답하여 상기 제2 기능을 실행하도록 구성될 수 있다. 상기 프로세서(120)는, 상기 제1 터치 빈도를 나타내는, 상기 제1 값 및 상기 제2 값보다 낮은, 제3 값 및 상기 제2 터치 빈도를 나타내는 상기 제3 값에 기반하여, 상기 제1 시간 이후 상기 기준 시간 이전의 상기 입력에 응답하여 상기 제2 기능을 실행하도록, 구성될 수 있다.According to one embodiment, the processor 120 may be configured to identify a first touch frequency for touch input before the first time. The processor 120 may be configured to identify a second touch frequency for touch input from after the first time until before the reference time that has passed by the reference length. The processor 120, Based on the first value representing the first touch frequency and the first value representing the second touch frequency, be configured to execute the first function in response to the input after the first time but before the reference time. You can. The processor 120, based on the first value representing the first touch frequency and a second value lower than the first value representing the second touch frequency, Can be configured to execute the second function in response to input. The processor 120 determines the first time based on the third value indicating the second touch frequency and a third value lower than the first value and the second value indicating the first touch frequency. It may then be configured to execute the second function in response to the input before the reference time.
일 실시예에 따르면, 상기 프로세서(120)는 상기 입력에 대한 터치 영역을 식별하도록 구성될 수 있다. 상기 프로세서(120)는 상기 영역 상의 상기 접촉점에 대한 면적이, 상기 터치 영역에서 상기 영역을 제외한 나머지 영역에 대한 면적보다 좁은 경우, 상기 제1 기능을 실행하도록, 구성될 수 있다.According to one embodiment, the processor 120 may be configured to identify a touch area for the input. The processor 120 may be configured to execute the first function when the area of the contact point on the area is smaller than the area of the remaining area excluding the area from the touch area.
일 실시예에 따르면, 상기 프로세서(120)는, 상기 전자 장치(101)의 사용자(user)가 상기 제2 실행가능한 객체를 판독가능한(readable) 시간을 나타내는 상기 기준 길이를 식별하도록, 구성될 수 있다. 상기 기준 길이는, 상기 제2 실행가능한 객체가 포함하는 컨텐트(content)의 길이, 상기 제2 실행가능한 객체가 상기 디스플레이(160) 상에서 표시되는 영역의 위치, 상기 제2 실행가능한 객체의 투명도(transparency), 또는 상기 사용자의 상기 디스플레이(160)에 대한 주의(attention)에 대한 정보 중 적어도 하나에 기반하여 식별될 수 있다. According to one embodiment, the processor 120 may be configured to identify the reference length indicating the time at which the second executable object is readable by a user of the electronic device 101. there is. The reference length is the length of the content included in the second executable object, the location of the area where the second executable object is displayed on the display 160, and the transparency of the second executable object. ), or information about the user's attention to the display 160.
일 실시예에 따르면, 상기 제1 소프트웨어 어플리케이션이 가상의(virtual) 공간을 표시하기 위한 소프트웨어 어플리케이션인 경우, 상기 기준 길이는, 상기 제1 실행가능한 객체의 배경 이미지(background image)로서 상기 디스플레이(160)를 통해 표시되는 상기 가상의 공간에 대한 이미지(image)의 복잡도(complexity)에 기반하여 식별될 수 있다.According to one embodiment, when the first software application is a software application for displaying a virtual space, the reference length is set to the display 160 as a background image of the first executable object. ) can be identified based on the complexity of the image of the virtual space displayed through ).
일 실시예에 따르면, 상기 프로세서(120)는, 제3 소프트웨어 어플리케이션을 통해 시각적 객체를, 상기 디스플레이(160) 상에서 표시하도록 구성될 수 있다. 상기 프로세서(120)는, 상기 시각적 객체가 표시되는 영역 상의 상기 입력에 응답하여, 상기 제3 소프트웨어 어플리케이션을 통해 제3 기능이 실행될 수 있는지 여부를 식별하도록 구성될 수 있다. 상기 프로세서(120)는, 상기 제3 기능이 실행될 수 없는 경우, 상기 시각적 객체를 상기 디스플레이(160) 상에서 제거하도록 구성될 수 있다. 상기 프로세서(120)는, 상기 제3 기능이 실행될 수 있는 경우, 상기 전자 장치(101)의 사용자(user)가 상기 시각적 객체를 판독가능한(readable) 시간을 나타내는 기준 길이를 식별하도록, 구성될 수 있다.According to one embodiment, the processor 120 may be configured to display a visual object on the display 160 through a third software application. The processor 120 may be configured to identify whether a third function can be executed through the third software application in response to the input on the area where the visual object is displayed. The processor 120 may be configured to remove the visual object from the display 160 if the third function cannot be executed. The processor 120 may be configured to identify a reference length indicating the time at which the visual object is readable by a user of the electronic device 101 when the third function can be executed. there is.
일 실시예에 따르면, 상기 제1 실행가능한 객체는 상기 디스플레이(160) 상에서 제1 레이어(layer)를 통해 표시될 수 있다. 상기 제2 실행가능한 객체는 상기 디스플레이(160) 상에서 제2 레이어를 통해 플로팅됨으로써(by floating) 표시될 수 있다. 상기 제2 레이어는 상기 제1 레이어 상에 위치될 수 있다.According to one embodiment, the first executable object may be displayed through a first layer on the display 160. The second executable object may be displayed by floating through a second layer on the display 160. The second layer may be positioned on the first layer.
일 실시예에 따르면, 상기 프로세서(120)는, 상기 제1 시간 이전까지 터치 입력이 입력된 소프트웨어 어플리케이션을 식별하도록 구성될 수 있다. 상기 프로세서(120)는, 상기 식별된 소프트웨어 어플리케이션이 상기 제1 소프트웨어 어플리케이션인 경우, 상기 입력에 응답하여 상기 제1 기능을 실행하도록 구성될 수 있다. 상기 프로세서(120)는, 상기 식별된 소프트웨어 어플리케이션이 상기 제2 소프트웨어 어플리케이션인 경우, 상기 입력에 응답하여 상기 제2 기능을 실행하도록, 구성될 수 있다. According to one embodiment, the processor 120 may be configured to identify a software application that received a touch input before the first time. The processor 120 may be configured to execute the first function in response to the input when the identified software application is the first software application. The processor 120 may be configured to execute the second function in response to the input when the identified software application is the second software application.
일 실시예에 따르면, 상기 프로세서(120)는, 상기 제1 소프트웨어 어플리케이션에 대하여 미리 설정된 제1 우선 순위를 식별하도록 구성될 수 있다. 상기 프로세서(120)는, 상기 제2 소프트웨어 어플리케이션에 대하여 미리 설정된 제2 우선 순위를 식별하도록 구성될 수 있다. 상기 프로세서(120)는, 상기 제1 우선 순위가 상기 제2 우선 순위보다 높거나 같은 경우, 상기 제1 기능을 실행하도록 구성될 수 있다. 상기 프로세서(120)는, 상기 제1 우선 순위가 상기 제2 우선 순위보다 낮은 경우, 상기 제2 기능을 실행하도록, 구성될 수 있다. According to one embodiment, the processor 120 may be configured to identify a first priority preset for the first software application. The processor 120 may be configured to identify a second priority preset for the second software application. The processor 120 may be configured to execute the first function when the first priority is higher than or equal to the second priority. The processor 120 may be configured to execute the second function when the first priority is lower than the second priority.
상술한 바와 같은, 전자 장치(101)(electronic device)에 의해 수행되는 방법, 터치 입력(touch input)에 응답하여 제1 소프트웨어 어플리케이션(software application)을 통해 제1 기능을 실행하기 위한 제1 실행가능한(executable) 객체를, 상기 전자 장치(101)의 디스플레이(160) 상에서 표시하는 동작을 포함할 수 있다. 상기 방법은, 터치 입력에 응답하여 제2 소프트웨어 어플리케이션을 통해 제2 기능을 실행하기 위한 제2 실행가능한 객체를, 상기 제1 실행가능한 객체 상에 부분적으로(partially) 중첩되도록, 상기 디스플레이(160) 상에서, 표시하는 동작을 포함할 수 있다. 상기 방법은, 상기 제1 실행가능한 객체 및 상기 제2 실행가능한 객체가 중첩된 영역 상의 접촉점(point of contact)을 포함하는 입력에 응답하여, 상기 제2 실행가능한 객체의 표시된 제1 시간으로부터 상기 입력의 식별된 제2 시간까지의 시간 길이를 식별하는 동작을 포함할 수 있다. 상기 방법은, 기준 길이보다 짧거나 상기 기준 길이와 같은 상기 시간 길이에 응답하여, 상기 제1 기능을 실행하는 동작을 포함할 수 있다. 상기 방법은, 상기 기준 길이보다 긴 상기 시간 길이에 응답하여, 상기 제2 기능을 실행하는 동작을 포함할 수 있다.A method performed by an electronic device 101, as described above, comprising a first executable device for executing a first function through a first software application in response to a touch input. It may include an operation of displaying an (executable) object on the display 160 of the electronic device 101. The method includes creating a second executable object for executing a second function via a second software application in response to a touch input, partially overlapping the first executable object, on the display 160. In the above, it may include a display operation. The method, in response to an input comprising a point of contact on an area where the first executable object and the second executable object overlap, the input from a displayed first time of the second executable object. It may include an operation of identifying the length of time up to the identified second time. The method may include executing the first function in response to the length of time being less than or equal to the reference length. The method may include executing the second function in response to the time length being longer than the reference length.
일 실시예에 따르면, 상기 방법은, 상기 제1 시간에서 상기 기준 길이만큼 지난 기준 시간으로부터, 상기 제2 기능을 수행하기 위한 상기 제2 소프트웨어 어플리케이션의 데이터(data)를 백그라운드(background)에서 미리 로드(preload)하는 동작을 포함할 수 있다. According to one embodiment, the method preloads data of the second software application for performing the second function in the background from a reference time that has passed by the reference length from the first time. (preload) operation may be included.
일 실시예에 따르면, 상기 방법은, 상기 제1 시간 이전의 상기 영역 상의 터치 입력에 대한 제1 터치 빈도(frequency)를 식별하는 동작을 포함할 수 있다. 상기 방법은, 상기 제1 시간 이후로부터 상기 기준 길이만큼 지난 기준 시간 이전 까지의, 터치 영역에 대한 제2 터치 빈도를 식별하는 동작을 포함할 수 있다. 상기 방법은, 상기 제1 터치 빈도를 나타내는 제1 값 및 상기 제2 터치 빈도를 나타내는 상기 제1 값에 기반하여, 상기 제1 시간 이후 상기 기준 시간 이전의 상기 입력에 응답하여 상기 제1 기능을 실행하는 동작을 포함할 수 있다. 상기 방법은, 상기 제1 터치 빈도를 나타내는 상기 제1 값 및 상기 제2 터치 빈도를 나타내는 상기 제1 값보다 낮은 제2 값에 기반하여, 상기 제1 시간 이후 상기 기준 시간 이전의 상기 입력에 응답하여 상기 제2 기능을 실행하는 동작을 포함할 수 있다. 상기 방법은, 상기 제1 터치 빈도를 나타내는, 상기 제1 값 및 상기 제2 값보다 낮은, 제3 값 및 상기 제2 터치 빈도를 나타내는 상기 제3 값에 기반하여, 상기 제1 시간 이후 상기 기준 시간 이전의 상기 입력에 응답하여 상기 제2 기능을 실행하는 동작을 포함할 수 있다.According to one embodiment, the method may include identifying a first touch frequency for a touch input on the area before the first time. The method may include an operation of identifying a second touch frequency on the touch area from after the first time to before a reference time that has passed by the reference length. The method may perform the first function in response to the input after the first time but before the reference time, based on the first value representing the first touch frequency and the first value representing the second touch frequency. It can include actions to execute. The method responds to the input after the first time but before the reference time based on the first value representing the first touch frequency and a second value lower than the first value representing the second touch frequency. This may include an operation of executing the second function. The method includes, based on the first value representing the first touch frequency and the third value being lower than the second value, and the third value representing the second touch frequency, after the first time, the reference It may include executing the second function in response to the input before the time.
일 실시예에 따르면, 상기 방법은, 상기 입력에 대한 터치 영역을 식별하는 동작을 포함할 수 있다. 상기 방법은, 상기 영역 상의 상기 접촉점에 대한 면적이, 상기 터치 영역에서 상기 영역을 제외한 나머지 영역에 대한 면적보다 좁은 경우, 상기 제1 기능을 실행하는 동작을 포함할 수 있다.According to one embodiment, the method may include identifying a touch area for the input. The method may include executing the first function when the area of the contact point on the area is smaller than the area of the remaining area excluding the area from the touch area.
일 실시예에 따르면, 상기 방법은, 상기 전자 장치(101)의 사용자(user)가 상기 제2 실행가능한 객체를 판독가능한(readable) 시간을 나타내는 상기 기준 길이를 식별하는 동작을 포함할 수 있다. 상기 기준 길이는, 상기 제2 실행가능한 객체가 포함하는 컨텐트(content)의 길이, 상기 제2 실행가능한 객체가 상기 디스플레이(160) 상에서 표시되는 영역의 위치, 상기 제2 실행가능한 객체의 투명도(transparency), 또는 상기 사용자의 상기 디스플레이(160)에 대한 주의(attention)에 대한 정보 중 적어도 하나에 기반하여 식별될 수 있다. According to one embodiment, the method may include an operation of identifying the reference length indicating a time at which the second executable object is readable by a user of the electronic device 101. The reference length is the length of the content included in the second executable object, the location of the area where the second executable object is displayed on the display 160, and the transparency of the second executable object. ), or information about the user's attention to the display 160.
일 실시예에 따르면, 상기 제1 소프트웨어 어플리케이션이 가상의(virtual) 공간을 표시하기 위한 소프트웨어 어플리케이션인 경우, 상기 기준 길이는, 상기 제1 실행가능한 객체의 배경 이미지(background image)로서 상기 디스플레이(160)를 통해 표시되는 상기 가상의 공간에 대한 이미지(image)의 복잡도(complexity)에 기반하여 식별될 수 있다. According to one embodiment, when the first software application is a software application for displaying a virtual space, the reference length is set to the display 160 as a background image of the first executable object. ) can be identified based on the complexity of the image of the virtual space displayed through ).
일 실시예에 따르면, 상기 방법은, 제3 소프트웨어 어플리케이션을 통해 시각적 객체를, 상기 디스플레이(160) 상에서 표시하는 동작을 포함할 수 있다. 상기 방법은, 상기 시각적 객체가 표시되는 영역 상의 상기 입력에 응답하여, 상기 제3 소프트웨어 어플리케이션을 통해 제3 기능이 실행될 수 있는지 여부를 식별하는 동작을 포함할 수 있다. 상기 방법은, 상기 제3 기능이 실행될 수 없는 경우, 상기 시각적 객체를 상기 디스플레이(160) 상에서 제거하는 동작을 포함할 수 있다. 상기 방법은, 상기 제3 기능이 실행될 수 있는 경우, 상기 전자 장치(101)의 사용자(user)가 상기 시각적 객체를 판독가능한(readable) 시간을 나타내는 기준 길이를 식별하는 동작을 포함할 수 있다.According to one embodiment, the method may include displaying a visual object on the display 160 through a third software application. The method may include identifying whether a third function can be executed through the third software application in response to the input on the area where the visual object is displayed. The method may include removing the visual object from the display 160 when the third function cannot be executed. The method may include an operation of identifying a reference length indicating a time at which the visual object is readable by a user of the electronic device 101 when the third function can be executed.
일 실시예에 따르면, 상기 제1 실행가능한 객체는 상기 디스플레이(160) 상에서 제1 레이어(layer)를 통해 표시될 수 있다. 상기 제2 실행가능한 객체는 상기 디스플레이(160) 상에서 제2 레이어를 통해 플로팅됨으로써(by floating) 표시될 수 있다. 상기 제2 레이어는 상기 제1 레이어 상에 위치될 수 있다.According to one embodiment, the first executable object may be displayed through a first layer on the display 160. The second executable object may be displayed by floating through a second layer on the display 160. The second layer may be positioned on the first layer.
일 실시예에 따르면, 상기 방법은, 상기 제1 시간 이전까지 터치 입력이 입력된 소프트웨어 어플리케이션을 식별하는 동작을 포함할 수 있다. 상기 방법은, 상기 식별된 소프트웨어 어플리케이션이 상기 제1 소프트웨어 어플리케이션인 경우, 상기 입력에 응답하여 상기 제1 기능을 실행하는 동작을 포함할 수 있다. 상기 방법은, 상기 식별된 소프트웨어 어플리케이션이 상기 제2 소프트웨어 어플리케이션인 경우, 상기 입력에 응답하여 상기 제2 기능을 실행하는 동작을 포함할 수 있다.According to one embodiment, the method may include an operation of identifying a software application that received a touch input before the first time. The method may include executing the first function in response to the input when the identified software application is the first software application. The method may include executing the second function in response to the input when the identified software application is the second software application.
일 실시예에 따르면, 상기 방법은, 상기 제1 소프트웨어 어플리케이션에 대하여 미리 설정된 제1 우선 순위를 식별하는 동작을 포함할 수 있다. 상기 방법은, 상기 제2 소프트웨어 어플리케이션에 대하여 미리 설정된 제2 우선 순위를 식별하는 동작을 포함할 수 있다. 상기 방법은, 상기 제1 우선 순위가 상기 제2 우선 순위보다 높거나 같은 경우, 상기 제1 기능을 실행하는 동작을 포함할 수 있다. 상기 방법은, 상기 제1 우선 순위가 상기 제2 우선 순위보다 낮은 경우, 상기 제2 기능을 실행하는 동작을 포함할 수 있다.According to one embodiment, the method may include identifying a first priority preset for the first software application. The method may include identifying a second priority preset for the second software application. The method may include executing the first function when the first priority is higher than or equal to the second priority. The method may include executing the second function when the first priority is lower than the second priority.
본 문서에 개시된 실시예들에 따른 전자 장치는 다양한 형태의 장치가 될 수 있다. 전자 장치는, 예를 들면, 휴대용 통신 장치(예: 스마트폰), 컴퓨터 장치, 휴대용 멀티미디어 장치, 휴대용 의료 기기, 카메라, 웨어러블 장치, 또는 가전 장치를 포함할 수 있다. 본 문서의 실시예에 따른 전자 장치는 전술한 기기들에 한정되지 않는다.Electronic devices according to embodiments disclosed in this document may be of various types. Electronic devices may include, for example, portable communication devices (e.g., smartphones), computer devices, portable multimedia devices, portable medical devices, cameras, wearable devices, or home appliances. Electronic devices according to embodiments of this document are not limited to the above-described devices.
본 문서의 다양한 실시예들 및 이에 사용된 용어들은 본 문서에 기재된 기술적 특징들을 특정한 실시예들로 한정하려는 것이 아니며, 해당 실시예의 다양한 변경, 균등물, 또는 대체물을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 또는 관련된 구성요소에 대해서는 유사한 참조 부호가 사용될 수 있다. 아이템에 대응하는 명사의 단수 형은 관련된 문맥상 명백하게 다르게 지시하지 않는 한, 상기 아이템 한 개 또는 복수 개를 포함할 수 있다. 본 문서에서, "A 또는 B", "A 및 B 중 적어도 하나", "A 또는 B 중 적어도 하나", "A, B 또는 C", "A, B 및 C 중 적어도 하나", 및 "A, B, 또는 C 중 적어도 하나"와 같은 문구들 각각은 그 문구들 중 해당하는 문구에 함께 나열된 항목들 중 어느 하나, 또는 그들의 모든 가능한 조합을 포함할 수 있다. "제1", "제2", 또는 "첫째" 또는 "둘째"와 같은 용어들은 단순히 해당 구성요소를 다른 해당 구성요소와 구분하기 위해 사용될 수 있으며, 해당 구성요소들을 다른 측면(예: 중요성 또는 순서)에서 한정하지 않는다. 어떤(예: 제1) 구성요소가 다른(예: 제2) 구성요소에, "기능적으로" 또는 "통신적으로"라는 용어와 함께 또는 이런 용어 없이, "커플드" 또는 "커넥티드"라고 언급된 경우, 그것은 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로(예: 유선으로), 무선으로, 또는 제3 구성요소를 통하여 연결될 수 있다는 것을 의미한다.The various embodiments of this document and the terms used herein are not intended to limit the technical features described in this document to specific embodiments, but should be understood to include various changes, equivalents, or replacements of the embodiments. In connection with the description of the drawings, similar reference numbers may be used for similar or related components. The singular form of a noun corresponding to an item may include one or more of the above items, unless the relevant context clearly indicates otherwise. As used herein, “A or B”, “at least one of A and B”, “at least one of A or B”, “A, B or C”, “at least one of A, B and C”, and “A Each of phrases such as “at least one of , B, or C” may include any one of the items listed together in the corresponding phrase, or any possible combination thereof. Terms such as "first", "second", or "first" or "second" may be used simply to distinguish one element from another, and may be used to distinguish such elements in other respects, such as importance or order) is not limited. One (e.g. first) component is said to be "coupled" or "connected" to another (e.g. second) component, with or without the terms "functionally" or "communicatively". Where mentioned, it means that any of the components can be connected to the other components directly (e.g. wired), wirelessly, or through a third component.
본 문서의 다양한 실시예들에서 사용된 용어 "모듈"은 하드웨어, 소프트웨어 또는 펌웨어로 구현된 유닛을 포함할 수 있으며, 예를 들면, 로직, 논리 블록, 부품, 또는 회로와 같은 용어와 상호 호환적으로 사용될 수 있다. 모듈은, 일체로 구성된 부품 또는 하나 또는 그 이상의 기능을 수행하는, 상기 부품의 최소 단위 또는 그 일부가 될 수 있다. 예를 들면, 일실시예에 따르면, 모듈은 ASIC(application-specific integrated circuit)의 형태로 구현될 수 있다. The term “module” used in various embodiments of this document may include a unit implemented in hardware, software, or firmware, and is interchangeable with terms such as logic, logic block, component, or circuit, for example. It can be used as A module may be an integrated part or a minimum unit of the parts or a part thereof that performs one or more functions. For example, according to one embodiment, the module may be implemented in the form of an application-specific integrated circuit (ASIC).
본 문서의 다양한 실시예들은 기기(machine)(예: 전자 장치(101)) 의해 읽을 수 있는 저장 매체(storage medium)(예: 내장 메모리(136) 또는 외장 메모리(138))에 저장된 하나 이상의 명령어들을 포함하는 소프트웨어(예: 프로그램(140))로서 구현될 수 있다. 예를 들면, 기기(예: 전자 장치(101))의 프로세서(예: 프로세서(120))는, 저장 매체로부터 저장된 하나 이상의 명령어들 중 적어도 하나의 명령을 호출하고, 그것을 실행할 수 있다. 이것은 기기가 상기 호출된 적어도 하나의 명령어에 따라 적어도 하나의 기능을 수행하도록 운영되는 것을 가능하게 한다. 상기 하나 이상의 명령어들은 컴파일러에 의해 생성된 코드 또는 인터프리터에 의해 실행될 수 있는 코드를 포함할 수 있다. 기기로 읽을 수 있는 저장 매체는, 비일시적(non-transitory) 저장 매체의 형태로 제공될 수 있다. 여기서, ‘비일시적’은 저장 매체가 실재(tangible)하는 장치이고, 신호(signal)(예: 전자기파)를 포함하지 않는다는 것을 의미할 뿐이며, 이 용어는 데이터가 저장 매체에 반영구적으로 저장되는 경우와 임시적으로 저장되는 경우를 구분하지 않는다.Various embodiments of the present document are one or more instructions stored in a storage medium (e.g., built-in memory 136 or external memory 138) that can be read by a machine (e.g., electronic device 101). It may be implemented as software (e.g., program 140) including these. For example, a processor (e.g., processor 120) of a device (e.g., electronic device 101) may call at least one command among one or more commands stored from a storage medium and execute it. This allows the device to be operated to perform at least one function according to the at least one instruction called. The one or more instructions may include code generated by a compiler or code that can be executed by an interpreter. A storage medium that can be read by a device may be provided in the form of a non-transitory storage medium. Here, 'non-transitory' only means that the storage medium is a tangible device and does not contain signals (e.g. electromagnetic waves). This term refers to cases where data is stored semi-permanently in the storage medium. There is no distinction between temporary storage cases.
일 실시예에 따르면, 본 문서에 개시된 다양한 실시예들에 따른 방법은 컴퓨터 프로그램 제품(computer program product)에 포함되어 제공될 수 있다. 컴퓨터 프로그램 제품은 상품으로서 판매자 및 구매자 간에 거래될 수 있다. 컴퓨터 프로그램 제품은 기기로 읽을 수 있는 저장 매체(예: compact disc read only memory(CD-ROM))의 형태로 배포되거나, 또는 어플리케이션 스토어(예: 플레이 스토어™)를 통해 또는 두 개의 사용자 장치들(예: 스마트 폰들) 간에 직접, 온라인으로 배포(예: 다운로드 또는 업로드)될 수 있다. 온라인 배포의 경우에, 컴퓨터 프로그램 제품의 적어도 일부는 제조사의 서버, 어플리케이션 스토어의 서버, 또는 중계 서버의 메모리와 같은 기기로 읽을 수 있는 저장 매체에 적어도 일시 저장되거나, 임시적으로 생성될 수 있다.According to one embodiment, methods according to various embodiments disclosed in this document may be provided and included in a computer program product. Computer program products are commodities and can be traded between sellers and buyers. The computer program product may be distributed in the form of a machine-readable storage medium (e.g. compact disc read only memory (CD-ROM)) or through an application store (e.g. Play Store™) or on two user devices (e.g. It can be distributed (e.g. downloaded or uploaded) directly between smart phones) or online. In the case of online distribution, at least a portion of the computer program product may be at least temporarily stored or temporarily created in a machine-readable storage medium, such as the memory of a manufacturer's server, an application store's server, or a relay server.
다양한 실시예들에 따르면, 상기 기술한 구성요소들의 각각의 구성요소(예: 모듈 또는 프로그램)는 단수 또는 복수의 개체를 포함할 수 있으며, 복수의 개체 중 일부는 다른 구성요소에 분리 배치될 수도 있다. 다양한 실시예들에 따르면, 전술한 해당 구성요소들 중 하나 이상의 구성요소들 또는 동작들이 생략되거나, 또는 하나 이상의 다른 구성요소들 또는 동작들이 추가될 수 있다. 대체적으로 또는 추가적으로, 복수의 구성요소들(예: 모듈 또는 프로그램)은 하나의 구성요소로 통합될 수 있다. 이런 경우, 통합된 구성요소는 상기 복수의 구성요소들 각각의 구성요소의 하나 이상의 기능들을 상기 통합 이전에 상기 복수의 구성요소들 중 해당 구성요소에 의해 수행되는 것과 동일 또는 유사하게 수행할 수 있다. 다양한 실시예들에 따르면, 모듈, 프로그램 또는 다른 구성요소에 의해 수행되는 동작들은 순차적으로, 병렬적으로, 반복적으로, 또는 휴리스틱하게 실행되거나, 상기 동작들 중 하나 이상이 다른 순서로 실행되거나, 생략되거나, 또는 하나 이상의 다른 동작들이 추가될 수 있다.According to various embodiments, each component (e.g., module or program) of the above-described components may include a single or plural entity, and some of the plurality of entities may be separately placed in other components. there is. According to various embodiments, one or more of the components or operations described above may be omitted, or one or more other components or operations may be added. Alternatively or additionally, multiple components (eg, modules or programs) may be integrated into a single component. In this case, the integrated component may perform one or more functions of each component of the plurality of components identically or similarly to those performed by the corresponding component of the plurality of components prior to the integration. . According to various embodiments, operations performed by a module, program, or other component may be executed sequentially, in parallel, iteratively, or heuristically, or one or more of the operations may be executed in a different order, or omitted. Alternatively, one or more other operations may be added.
Claims (15)
- 전자 장치(101)(electronic device)에 있어서,In the electronic device 101,디스플레이(160)(display); 및display 160 (display); and프로세서(120)(processor)를 포함하고, Includes a processor 120 (processor),상기 프로세서(120)는, The processor 120,터치 입력(touch input)에 응답하여 제1 소프트웨어 어플리케이션(software application)을 통해 제1 기능을 실행하기 위한 제1 실행가능한(executable) 객체를, 상기 디스플레이(160) 상에서 표시하고,displaying on the display (160) a first executable object for executing a first function via a first software application in response to touch input;터치 입력에 응답하여 제2 소프트웨어 어플리케이션을 통해 제2 기능을 실행하기 위한 제2 실행가능한 객체를, 상기 제1 실행가능한 객체 상에 부분적으로(partially) 중첩되도록, 상기 디스플레이(160) 상에서, 표시하고,displaying, on the display 160, a second executable object, partially overlapping the first executable object, for executing a second function via a second software application in response to a touch input; ,상기 제1 실행가능한 객체 및 상기 제2 실행가능한 객체가 중첩된 영역 상의 접촉점(point of contact)을 포함하는 입력에 응답하여, 상기 제2 실행가능한 객체의 표시된 제1 시간으로부터 상기 입력의 식별된 제2 시간까지의 시간 길이를 식별하고,In response to input comprising a point of contact on an area where the first executable object and the second executable object overlap, the identified first time of the input from the displayed first time of the second executable object Identify the length of time up to 2 hours,기준 길이보다 짧거나 상기 기준 길이와 같은 상기 시간 길이에 응답하여, 상기 제1 기능을 실행하고,In response to the time length being less than or equal to the reference length, executing the first function,상기 기준 길이보다 긴 상기 시간 길이에 응답하여, 상기 제2 기능을 실행하도록, 구성되는,configured to execute the second function in response to the length of time being longer than the reference length,전자 장치(101).Electronic device (101).
- 청구항 1에 있어서,In claim 1,상기 프로세서(120)는:The processor 120:상기 제1 시간에서 상기 기준 길이만큼 지난 기준 시간으로부터, 상기 제2 기능을 수행하기 위한 상기 제2 소프트웨어 어플리케이션의 데이터(data)를 백그라운드(background)에서 미리 로드(preload)하도록, 구성되는, Configured to preload data of the second software application for performing the second function in the background from a reference time that has passed by the reference length from the first time,전자 장치(101).Electronic device (101).
- 청구항 1에 있어서,In claim 1,상기 프로세서(120)는:The processor 120:상기 제1 시간 이전의 터치 입력에 대한 제1 터치 빈도(frequency)를 식별하고, Identifying a first touch frequency for the touch input before the first time,상기 제1 시간 이후로부터 상기 기준 길이만큼 지난 기준 시간 이전 까지의, 터치 입력에 대한 제2 터치 빈도를 식별하고,Identifying a second touch frequency for touch input from after the first time until before the reference time that has passed by the reference length,상기 제1 터치 빈도를 나타내는 제1 값 및 상기 제2 터치 빈도를 나타내는 상기 제1 값에 기반하여, 상기 제1 시간 이후 상기 기준 시간 이전의 상기 입력에 응답하여 상기 제1 기능을 실행하고,Based on the first value representing the first touch frequency and the first value representing the second touch frequency, executing the first function in response to the input after the first time but before the reference time,상기 제1 터치 빈도를 나타내는 상기 제1 값 및 상기 제2 터치 빈도를 나타내는 상기 제1 값보다 낮은 제2 값에 기반하여, 상기 제1 시간 이후 상기 기준 시간 이전의 상기 입력에 응답하여 상기 제2 기능을 실행하고,Based on the first value representing the first touch frequency and a second value lower than the first value representing the second touch frequency, the second touch value is displayed in response to the input after the first time but before the reference time. run the function,상기 제1 터치 빈도를 나타내는, 상기 제1 값 및 상기 제2 값보다 낮은, 제3 값 및 상기 제2 터치 빈도를 나타내는 상기 제3 값에 기반하여, 상기 제1 시간 이후 상기 기준 시간 이전의 상기 입력에 응답하여 상기 제2 기능을 실행하도록, 구성되는,A third value lower than the first value and the second value, representing the first touch frequency, and based on the third value representing the second touch frequency, the first time but before the reference time. configured to execute the second function in response to input,전자 장치(101).Electronic device (101).
- 청구항 1에 있어서,In claim 1,상기 프로세서(120)는:The processor 120:상기 입력에 대한 터치 영역을 식별하고,Identifying a touch area for the input,상기 영역 상의 상기 접촉점에 대한 면적이, 상기 터치 영역에서 상기 영역을 제외한 나머지 영역에 대한 면적보다 좁은 경우, 상기 제1 기능을 실행하도록, 구성되는, configured to execute the first function when the area for the contact point on the area is smaller than the area for the remaining area excluding the area in the touch area,전자 장치(101).Electronic device (101).
- 청구항 1에 있어서,In claim 1,상기 프로세서(120)는,The processor 120,상기 전자 장치(101)의 사용자(user)가 상기 제2 실행가능한 객체를 판독가능한(readable) 시간을 나타내는 상기 기준 길이를 식별하도록, 구성되고,configured to identify the reference length indicating a time at which the second executable object is readable by a user of the electronic device (101),상기 기준 길이는, 상기 제2 실행가능한 객체가 포함하는 컨텐트(content)의 길이, 상기 제2 실행가능한 객체가 상기 디스플레이(160) 상에서 표시되는 영역의 위치, 상기 제2 실행가능한 객체의 투명도(transparency), 또는 상기 사용자의 상기 디스플레이(160)에 대한 주의(attention)에 대한 정보 중 적어도 하나에 기반하여 식별되는, The reference length is the length of the content included in the second executable object, the location of the area where the second executable object is displayed on the display 160, and the transparency of the second executable object. ), or identified based on at least one of information about the user's attention to the display 160,전자 장치(101).Electronic device (101).
- 청구항 5에 있어서, In claim 5,상기 제1 소프트웨어 어플리케이션이 가상의(virtual) 공간을 표시하기 위한 소프트웨어 어플리케이션인 경우, 상기 기준 길이는, 상기 제1 실행가능한 객체의 배경 이미지(background image)로서 상기 디스플레이(160)를 통해 표시되는 상기 가상의 공간에 대한 이미지(image)의 복잡도(complexity)에 기반하여 식별되는,When the first software application is a software application for displaying a virtual space, the reference length is the background image of the first executable object displayed through the display 160. Identified based on the complexity of the image of the virtual space,전자 장치(101).Electronic device (101).
- 청구항 1에 있어서,In claim 1,상기 프로세서(120)는,The processor 120,제3 소프트웨어 어플리케이션을 통해 시각적 객체를, 상기 디스플레이(160) 상에서 표시하고,displaying a visual object on the display 160 via a third software application;상기 시각적 객체가 표시되는 영역 상의 상기 입력에 응답하여, 상기 제3 소프트웨어 어플리케이션을 통해 제3 기능이 실행될 수 있는지 여부를 식별하고,In response to the input on the area where the visual object is displayed, identify whether a third function can be executed through the third software application,상기 제3 기능이 실행될 수 없는 경우, 상기 시각적 객체를 상기 디스플레이(160) 상에서 제거하고,If the third function cannot be executed, remove the visual object from the display (160),상기 제3 기능이 실행될 수 있는 경우, 상기 전자 장치(101)의 사용자(user)가 상기 시각적 객체를 판독가능한(readable) 시간을 나타내는 기준 길이를 식별하도록, 구성되는, configured to identify a reference length indicating a time when the visual object is readable by a user of the electronic device 101 when the third function can be executed,전자 장치(101).Electronic device (101).
- 청구항 1에 있어서,In claim 1,상기 제1 실행가능한 객체는 상기 디스플레이(160) 상에서 제1 레이어(layer)를 통해 표시되고,The first executable object is displayed through a first layer on the display 160,상기 제2 실행가능한 객체는 상기 디스플레이(160) 상에서 제2 레이어를 통해 플로팅됨으로써(by floating) 표시되고,the second executable object is displayed by floating through a second layer on the display (160),상기 제2 레이어는 상기 제1 레이어 상에 위치되는,The second layer is located on the first layer,전자 장치(101).Electronic device (101).
- 청구항 1에 있어서, In claim 1,상기 프로세서(120)는, The processor 120,상기 제1 시간 이전까지 터치 입력이 입력된 소프트웨어 어플리케이션을 식별하고,Identifying a software application in which a touch input was input before the first time,상기 식별된 소프트웨어 어플리케이션이 상기 제1 소프트웨어 어플리케이션인 경우, 상기 입력에 응답하여 상기 제1 기능을 실행하고,If the identified software application is the first software application, execute the first function in response to the input,상기 식별된 소프트웨어 어플리케이션이 상기 제2 소프트웨어 어플리케이션인 경우, 상기 입력에 응답하여 상기 제2 기능을 실행하도록, 구성되는,configured to execute the second function in response to the input when the identified software application is the second software application,전자 장치(101).Electronic device (101).
- 청구항 1에 있어서, In claim 1,상기 프로세서(120)는, The processor 120,상기 제1 소프트웨어 어플리케이션에 대하여 미리 설정된 제1 우선 순위를 식별하고,Identifying a first priority preset for the first software application,상기 제2 소프트웨어 어플리케이션에 대하여 미리 설정된 제2 우선 순위를 식별하고,Identifying a preset second priority for the second software application,상기 제1 우선 순위가 상기 제2 우선 순위보다 높거나 같은 경우, 상기 제1 기능을 실행하고,If the first priority is higher than or equal to the second priority, execute the first function,상기 제1 우선 순위가 상기 제2 우선 순위보다 낮은 경우, 상기 제2 기능을 실행하도록, 구성되는, configured to execute the second function when the first priority is lower than the second priority,전자 장치(101).Electronic device (101).
- 전자 장치(101)(electronic device)에 의해 수행되는 방법에 있어서,In a method performed by an electronic device 101,상기 방법은,The method is:터치 입력(touch input)에 응답하여 제1 소프트웨어 어플리케이션(software application)을 통해 제1 기능을 실행하기 위한 제1 실행가능한(executable) 객체를, 상기 전자 장치(101)의 디스플레이(160) 상에서 표시하는 동작;Displaying on the display 160 of the electronic device 101 a first executable object for executing a first function through a first software application in response to a touch input. movement;터치 입력에 응답하여 제2 소프트웨어 어플리케이션을 통해 제2 기능을 실행하기 위한 제2 실행가능한 객체를, 상기 제1 실행가능한 객체 상에 부분적으로(partially) 중첩되도록, 상기 디스플레이(160) 상에서, 표시하는 동작;displaying, on the display 160, a second executable object for executing a second function via a second software application in response to a touch input, partially overlapping the first executable object. movement;상기 제1 실행가능한 객체 및 상기 제2 실행가능한 객체가 중첩된 영역 상의 접촉점(point of contact)을 포함하는 입력에 응답하여, 상기 제2 실행가능한 객체의 표시된 제1 시간으로부터 상기 입력의 식별된 제2 시간까지의 시간 길이를 식별하는 동작;In response to input including a point of contact on an area where the first executable object and the second executable object overlap, the identified first time of the input from the displayed first time of the second executable object Actions that identify lengths of time up to 2 hours;기준 길이보다 짧거나 상기 기준 길이와 같은 상기 시간 길이에 응답하여, 상기 제1 기능을 실행하는 동작; 및executing the first function in response to the time length being less than or equal to the reference length; and상기 기준 길이보다 긴 상기 시간 길이에 응답하여, 상기 제2 기능을 실행하는 동작을 포함하는,In response to the time length being longer than the reference length, executing the second function,방법.method.
- 청구항 11에 있어서,In claim 11,상기 방법은,The method is,상기 제1 시간에서 상기 기준 길이만큼 지난 기준 시간으로부터, 상기 제2 기능을 수행하기 위한 상기 제2 소프트웨어 어플리케이션의 데이터(data)를 백그라운드(background)에서 미리 로드(preload)하는 동작을 포함하는,Comprising an operation of preloading data of the second software application for performing the second function in the background from a reference time that has passed by the reference length from the first time,방법.method.
- 청구항 11에 있어서,In claim 11,상기 방법은,The method is:상기 제1 시간 이전의 상기 영역 상의 터치 입력에 대한 제1 터치 빈도(frequency)를 식별하는 동작;Identifying a first touch frequency for a touch input on the area before the first time;상기 제1 시간 이후로부터 상기 기준 길이만큼 지난 기준 시간 이전 까지의, 터치 영역에 대한 제2 터치 빈도를 식별하는 동작;Identifying a second touch frequency for a touch area from after the first time to before a reference time that has passed by the reference length;상기 제1 터치 빈도를 나타내는 제1 값 및 상기 제2 터치 빈도를 나타내는 상기 제1 값에 기반하여, 상기 제1 시간 이후 상기 기준 시간 이전의 상기 입력에 응답하여 상기 제1 기능을 실행하는 동작;Executing the first function in response to the input after the first time but before the reference time, based on the first value representing the first touch frequency and the first value representing the second touch frequency;상기 제1 터치 빈도를 나타내는 상기 제1 값 및 상기 제2 터치 빈도를 나타내는 상기 제1 값보다 낮은 제2 값에 기반하여, 상기 제1 시간 이후 상기 기준 시간 이전의 상기 입력에 응답하여 상기 제2 기능을 실행하는 동작;Based on the first value representing the first touch frequency and a second value lower than the first value representing the second touch frequency, the second touch value is displayed in response to the input after the first time but before the reference time. The action of executing a function;상기 제1 터치 빈도를 나타내는, 상기 제1 값 및 상기 제2 값보다 낮은, 제3 값 및 상기 제2 터치 빈도를 나타내는 상기 제3 값에 기반하여, 상기 제1 시간 이후 상기 기준 시간 이전의 상기 입력에 응답하여 상기 제2 기능을 실행하는 동작을 포함하는,A third value lower than the first value and the second value, representing the first touch frequency, and based on the third value representing the second touch frequency, the first time but before the reference time. Executing the second function in response to input,방법.method.
- 청구항 11에 있어서,In claim 11,상기 방법은,The method is:상기 입력에 대한 터치 영역을 식별하는 동작;Identifying a touch area for the input;상기 영역 상의 상기 접촉점에 대한 면적이, 상기 터치 영역에서 상기 영역을 제외한 나머지 영역에 대한 면적보다 좁은 경우, 상기 제1 기능을 실행하는 동작을 포함하고,When the area of the contact point on the area is smaller than the area of the remaining area excluding the area in the touch area, executing the first function;방법.method.
- 청구항 11에 있어서,In claim 11,상기 방법은,The method is:상기 전자 장치(101)의 사용자(user)가 상기 제2 실행가능한 객체를 판독가능한(readable) 시간을 나타내는 상기 기준 길이를 식별하는 동작을 포함하고,An operation of identifying the reference length indicating a time at which the second executable object is readable by a user of the electronic device 101,상기 기준 길이는, 상기 제2 실행가능한 객체가 포함하는 컨텐트(content)의 길이, 상기 제2 실행가능한 객체가 상기 디스플레이(160) 상에서 표시되는 영역의 위치, 상기 제2 실행가능한 객체의 투명도(transparency), 또는 상기 사용자의 상기 디스플레이(160)에 대한 주의(attention)에 대한 정보 중 적어도 하나에 기반하여 식별되는, The reference length is the length of the content included in the second executable object, the location of the area where the second executable object is displayed on the display 160, and the transparency of the second executable object. ), or identified based on at least one of information about the user's attention to the display 160,방법.method.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020220178774A KR20240096272A (en) | 2022-12-19 | 2022-12-19 | Electronic device and method for identifying a visual object of a plurality of visual objects |
KR10-2022-0178774 | 2022-12-19 |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2024135877A1 true WO2024135877A1 (en) | 2024-06-27 |
Family
ID=91589140
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/KR2022/020894 WO2024135877A1 (en) | 2022-12-19 | 2022-12-20 | Electronic device and method for identifying visual object from among plurality of visual objects |
Country Status (2)
Country | Link |
---|---|
KR (1) | KR20240096272A (en) |
WO (1) | WO2024135877A1 (en) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20140164989A1 (en) * | 2012-12-10 | 2014-06-12 | Stefan KUHNE | Displaying windows on a touchscreen device |
KR101867513B1 (en) * | 2012-05-29 | 2018-06-15 | 엘지전자 주식회사 | Mobile terminal and control method thereof |
KR102033599B1 (en) * | 2010-12-28 | 2019-10-17 | 삼성전자주식회사 | Method for moving object between pages and interface apparatus |
KR20220015847A (en) * | 2020-07-31 | 2022-02-08 | 삼성전자주식회사 | Apparatus and method for displaying always on display |
KR20220100521A (en) * | 2019-11-27 | 2022-07-15 | 지티이 코포레이션 | Electronic device and its driving method, driving module, and computer-readable storage medium |
-
2022
- 2022-12-19 KR KR1020220178774A patent/KR20240096272A/en active Pending
- 2022-12-20 WO PCT/KR2022/020894 patent/WO2024135877A1/en unknown
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102033599B1 (en) * | 2010-12-28 | 2019-10-17 | 삼성전자주식회사 | Method for moving object between pages and interface apparatus |
KR101867513B1 (en) * | 2012-05-29 | 2018-06-15 | 엘지전자 주식회사 | Mobile terminal and control method thereof |
US20140164989A1 (en) * | 2012-12-10 | 2014-06-12 | Stefan KUHNE | Displaying windows on a touchscreen device |
KR20220100521A (en) * | 2019-11-27 | 2022-07-15 | 지티이 코포레이션 | Electronic device and its driving method, driving module, and computer-readable storage medium |
KR20220015847A (en) * | 2020-07-31 | 2022-02-08 | 삼성전자주식회사 | Apparatus and method for displaying always on display |
Also Published As
Publication number | Publication date |
---|---|
KR20240096272A (en) | 2024-06-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2022055255A1 (en) | Electronic device providing user interface, and method therefor | |
WO2022030890A1 (en) | Multi-window image capturing method and electronic device therefor | |
WO2023018158A1 (en) | Electronic device supporting multi-window and control method thereof | |
WO2022211307A1 (en) | Electronic device supporting display of always-on display content, and control method therefor | |
WO2023149782A1 (en) | Electronic device and method for providing haptic function | |
WO2022149695A1 (en) | Electronic device including dual device and connection device connecting same dual device | |
WO2022177162A1 (en) | Processor for initializing model file of application, and electronic device comprising same | |
WO2024135877A1 (en) | Electronic device and method for identifying visual object from among plurality of visual objects | |
WO2023132610A1 (en) | Display module control method, and electronic device for performing method | |
WO2022119055A1 (en) | Electronic device having foldable display and method for controlling same | |
WO2022092772A1 (en) | Electronic device for providing notification view, and control method therefor | |
WO2024158207A1 (en) | Electronic device for switching state of window and operation method thereof | |
WO2025127661A1 (en) | Electronic device comprising flexible display, and operation method thereof | |
WO2022186477A1 (en) | Content playback method and electronic device supporting same | |
WO2024162683A1 (en) | Electronic device, and home screen display method using same | |
WO2023033311A1 (en) | Electronic device for performing function matched with graphic affordance, and operating method of electronic device | |
WO2024191052A1 (en) | Electronic device for providing user interface associated with power-saving function and operation method thereof | |
WO2022215915A1 (en) | Electronic device and operating method thereof | |
WO2024063380A1 (en) | Electronic device and method for controlling screen displayed on flexible display | |
WO2025121918A1 (en) | Electronic device for editing widget and method for operating same | |
WO2024025082A1 (en) | Electronic device and method for displaying screen via flexible display | |
WO2025121732A1 (en) | Electronic device comprising flexible display and method for operating same | |
WO2024080553A1 (en) | Electronic device and operating method thereof | |
WO2024080680A1 (en) | Electronic device, method and non-transitory computer-readable storage medium displaying user interface for context-specific settings | |
WO2024063564A1 (en) | Foldable electronic device and method for operating foldable electronic device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 22969311 Country of ref document: EP Kind code of ref document: A1 |