[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

WO2014007437A1 - 온라인 게임에서의 유저 제스처 입력 처리 방법 - Google Patents

온라인 게임에서의 유저 제스처 입력 처리 방법 Download PDF

Info

Publication number
WO2014007437A1
WO2014007437A1 PCT/KR2012/009450 KR2012009450W WO2014007437A1 WO 2014007437 A1 WO2014007437 A1 WO 2014007437A1 KR 2012009450 W KR2012009450 W KR 2012009450W WO 2014007437 A1 WO2014007437 A1 WO 2014007437A1
Authority
WO
WIPO (PCT)
Prior art keywords
gesture
drag
input
user
online game
Prior art date
Application number
PCT/KR2012/009450
Other languages
English (en)
French (fr)
Inventor
권원석
김재윤
박재현
Original Assignee
(주)위메이드엔터테인먼트
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)위메이드엔터테인먼트 filed Critical (주)위메이드엔터테인먼트
Priority to US14/412,805 priority Critical patent/US20150157932A1/en
Priority to CN201280075683.6A priority patent/CN104603823A/zh
Publication of WO2014007437A1 publication Critical patent/WO2014007437A1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/214Input arrangements for video game devices characterised by their sensors, purposes or types for locating contacts on a surface, e.g. floor mats or touch pads
    • A63F13/2145Input arrangements for video game devices characterised by their sensors, purposes or types for locating contacts on a surface, e.g. floor mats or touch pads the surface being also a display device, e.g. touch screens
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • A63F13/428Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving motion or position input signals, e.g. signals representing the rotation of an input controller or a player's arm motions sensed by accelerometers or gyroscopes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text

Definitions

  • the present invention relates to a method for processing user gesture input in an online game.
  • a virtual keypad screen, a virtual direction key, and a virtual operation key are output to a touch screen without a separate keypad, but such a virtual user interface has a small size. Since it occupies a part of the display screen of the mobile terminal, it interfered with the visibility of the user and acted as an element that hindered the play screen of the online game.
  • the gesture system has been used for many applications or functions as the smart phone or tablet PC has been spread and evolved, but the application is limited due to technical limitations in online games.
  • MMOPRG MMORPG
  • it is difficult to apply a gesture system because it must detect a gesture input while continuously checking a character's state or a monster's state.
  • the movement of the character's 3D space is implemented as a touch-drag input, there is a problem that it is difficult to separate the touch-drag for spatial movement and the touch-drag for character application.
  • an online game when playing an online game using a mobile terminal, an online game capable of minimizing a touch required to perform an efficient and quick operation, improving a feeling of operation, and providing a comfortable field of view.
  • an online game capable of minimizing a touch required to perform an efficient and quick operation, improving a feeling of operation, and providing a comfortable field of view.
  • an online game when playing an online game using a mobile terminal, an online game capable of minimizing a touch required to perform an efficient and quick operation, improving a feeling of operation, and providing a comfortable field of view.
  • a recording medium recording a method for processing a user gesture input in the.
  • Another embodiment of the present invention when playing an online game using a mobile terminal, it is possible to minimize the touch required to perform an efficient and fast operation, to improve the feeling of operation and to provide a comfortable view online It is to provide a mobile terminal for processing user gesture input in the game.
  • a method of processing a user gesture input in an online game performed through a mobile terminal capable of touch-drag input determines whether a target character of the online game is targeted. Making; And performing a function corresponding to a gesture including at least one drag direction when the target character is targeted, and moving the user character according to the touch-drag input when the target character is not targeted. Characterized in that.
  • the user gesture input processing method in the online game may include: determining an effective range of the gesture input when the target character is targeted; And in the case of a gesture input within the effective range, performing a function corresponding to the input gesture, wherein the valid range is within a play area of the target character and the user character in a display area of the mobile terminal. It is characterized by.
  • the user gesture input processing method in the online game may be determined as a gesture input within the valid range when the starting point of the drag constituting the gesture is within the valid range.
  • the user gesture input processing method in the online game may be determined as a gesture input within the valid range regardless of the end point of the drag when the starting point of the drag constituting the gesture is within the valid range.
  • the user gesture input processing method in the online game may further include outputting a trail of the gesture at a position of a display area of the mobile terminal corresponding to a starting point of drag forming the gesture when the target character is targeted. It is characterized by including.
  • the gesture may include a unidirectional drag, and when the unidirectional drag is within at least one of the valid ranges set in the X and Y axes, the gesture is determined as a gesture input within the valid range.
  • the gesture is composed of multidirectional drags, and for each of the first direction drag to the Nth direction drag (N is an integer of 2 or more), the gesture is within an effective range of at least one of the effective ranges set on the X and Y axes, respectively. When the N-th drags are valid, the N-1 drags are determined to be gesture input within an effective range.
  • the user gesture input processing method in the online game may determine whether a gesture composed of multidirectional drag including the first direction drag to the Nth direction drag is a gesture input within an effective range, regardless of the start order of the directions. It is done.
  • the user gesture input processing method in the online game may perform a function corresponding to a gesture similar to the input gesture when it is not a gesture input within the valid range.
  • the function may include at least one skill that can be used by the user character.
  • the user gesture input processing method in the online game may include a gesture guide including at least one or more functions that can be used by the user character and gestures including the at least one drag direction mapped to the functions. It is characterized by displaying in the display area of.
  • the online game may be an RPG game including an MMORPG / MORPG, an Aeon (Aeon of Strife) game, a Real Time Strategy (RTS) game, a First / Third Person Shooters (FPS) game, or a sports game. .
  • RPG Real Time Strategy
  • FPS First / Third Person Shooters
  • a method of processing a user gesture input in an online game performed through a mobile terminal capable of touch-drag input targets a target character in the online game. Determining whether it has been received; When the target character is targeted, determining a gesture input based on at least one of a drag direction and a drag number; And when a valid gesture is input as a result of the determination of the gesture input, performing a function corresponding to the input gesture.
  • the user gesture input processing method in the online game may further include moving a user character according to the touch-drag input when the target character is not targeted.
  • the mobile terminal for processing the user gesture input in the online game is capable of touch-drag input, it is determined whether the target character of the online game is targeted A targeting determination unit; And performing a function corresponding to a gesture including at least one drag direction when the target character is targeted, and controlling to move the user character according to the touch-drag input when the target character is not targeted. It characterized in that it comprises a control unit.
  • a recording medium recording a program for implementing a method for processing a user gesture input in an online game through a mobile terminal capable of touch-drag input according to another embodiment of the present invention
  • First program code for determining whether a target character of the online game is targeted
  • Second program code for performing a function corresponding to a gesture including at least one drag direction when the target character is targeted
  • third program code for moving a user character according to the touch-drag input when the target character is not targeted.
  • the method for processing a user gesture input in an online game performed through a mobile terminal capable of touch-drag input performs an efficient and quick operation when playing an online game using a mobile terminal.
  • the touch required to do so can be minimized, the operation feeling can be improved, and a comfortable view can be provided.
  • FIG. 1 is a schematic diagram illustrating a mobile terminal 110 and 120 for processing a user gesture input in an online game system 100 according to an embodiment of the present invention.
  • FIG. 2 is a flowchart illustrating a method of processing a user gesture input in an online game according to another embodiment of the present invention.
  • FIG. 3 is a flowchart illustrating a method of processing a user gesture input in an online game according to another embodiment of the present invention.
  • FIG. 4 is an exemplary diagram for describing a user gesture input and expression according to an embodiment of the present invention.
  • FIG. 5 is another exemplary diagram for explaining a user gesture input and expression according to an exemplary embodiment.
  • FIG. 6 is another exemplary diagram for describing a user gesture input and expression according to an embodiment of the present invention.
  • FIG. 7 is another exemplary view for explaining a user gesture input and expression according to an embodiment of the present invention.
  • FIG. 8 is an exemplary diagram for describing a user gesture determination according to an exemplary embodiment.
  • FIG. 9 is an example diagram for describing a gesture including a unidirectional drag as an example of a user gesture determination according to an exemplary embodiment.
  • FIG. 10 is a diagram for explaining a gesture including multidirectional drag as another example of determining a user gesture according to an exemplary embodiment.
  • 11 to 17 are exemplary diagrams for describing various types of user gestures and functions according to an embodiment of the present invention.
  • “communication”, “communication network” and “network” may be used as the same meaning.
  • the three terms refer to wired and wireless local and wide area data transmission and reception networks capable of transmitting and receiving files between a user terminal, a terminal of other users, and a download server.
  • a “game server” refers to a server computer to which users access to use game contents.
  • a plurality of game programs may be operated in one game server.
  • the game server may be connected to the server to perform the middleware or payment processing for the database, the description thereof will be omitted in the present invention.
  • the online game means game content that can be used by users by accessing the above-mentioned game server. In particular, it refers to a game in which a large number of users can simultaneously access and enjoy the game, and increase the level through actions such as acquiring experience value while nurturing characters through the game. In addition, in order to facilitate the progress of the game in the game, it means a game that can purchase a variety of items.
  • various community systems can be used. For example, a guild or clan of an online game may be formed. The above concept means that users who use an online game gather to form a group and organize a group.
  • Each organization may increase the guild or clan's reputation, depending on the number of users or the level of their characters, and thus may utilize various benefits in the game. For example, if the guild or clan's reputation increases, the character's display on the game screen may change (e.g. the effect of changing the color of the displayed character's name), or the use of items and villages in the game. You can enjoy the benefits of
  • a community system that can be used in online games is party play.
  • the party play is a group in game play through requests, invitations, and acceptances among users, and the formed party members may use their own chat system or use a specific display for identifying the party members on the game screen.
  • users who perform party play may distribute items to each other or share the result content obtained as a result of game play.
  • the sharing method may also be set by each having a result content, or distributing at least a part of the result content to other characters.
  • the result content refers to all content that can be obtained by the characters of the users as a result of the play during the game play.
  • the experience content and cyber money that can be obtained at the end of a game may belong to the result content, and in the case of a sports game, the experience content and cyber money that can be obtained at the end of a game, etc.
  • the result content may be the experience gained from completing a specific quest or killing a monster, and reward cyber money.
  • the resultant content is basically belonged to the user's character.
  • at least a part of the obtained content may be distributed to characters of other users belonging to the party, the guild, the clan, and the like.
  • the item means all data that can help the progress of the game and generally can be understood as an item in the game.
  • an experience value obtained when a character on behalf of a user defeats a monster, an item that allows for more gain, an item that can change the appearance of the character, and the like correspond to the item in the present invention. can do.
  • FIG. 1 is a schematic diagram illustrating a mobile terminal 110 and 120 for processing a user gesture input in an online game system 100 according to an embodiment of the present invention.
  • a tablet PC or a notebook 110 and a mobile phone or a smart phone 120 are illustrated, and an online game is connected to a game server 140 through a network 130.
  • the network 130 includes a wired or wireless communication network.
  • the game server 140 provides an online game to the mobile terminal.
  • the online game may be a role playing game including MMORPG or MORPG.
  • MMORPGs and MORPGs can be categorized, or as a general rule, if you create a "room” and only battle and hunt between users connected to the room, MORPG; Can be distinguished.
  • the online game may be an AOS (Aeon of Strife) game, a Real Time Strategy (RTS) game, a First / Third Person Shooters (FPS / TPS) game, or a sports game.
  • AOS Application of Strife
  • RTS Real Time Strategy
  • FPS First / Third Person Shooters
  • sports game a sports game.
  • Programs required for game implementation may be installed and executed in the mobile terminal.
  • the mobile terminal is implemented with a touch-drag function, and the game is possible through the touch-drag function when performing an online game.
  • the mobile terminal processes a user gesture input in an online game.
  • the mobile terminal determines whether the target character of the online game is targeted, and when the target character is targeted, performs a function corresponding to a gesture including at least one drag direction. On the other hand, if the target character is not targeted to control the user character to move according to the touch-drag input.
  • the target character includes a monster or a character of another user in the RPG game
  • the first person and third person shooting game includes the enemy, and the opponent character in the sports game.
  • the gesture may include various predefined drag directions, and may include up, down, left, and right directions, eight directions including diagonal directions, circular gestures, and repeated gestures.
  • the function may be a skill that can be used by a user character.
  • a specific skill When a specific skill is mapped to a specific gesture, a specific skill may be used for the target character.
  • FIG. 2 is a flowchart illustrating a method of processing a user gesture input in an online game according to another embodiment of the present invention.
  • the mobile terminal accesses a game server to start an online game.
  • step 204 it is determined whether the target character of the online game is targeted.
  • the target character may be a monster that is a target of combat and hunting in the RPG game as an opponent of the user character in the online game.
  • the targeting method may perform targeting by touching a corresponding target character.
  • a gesture including drag is input, and when a gesture is input, a function corresponding to the gesture is performed.
  • the function may be, for example, a weapon, an attack method, and the like that the user character may use in battle and hunting. These functions may vary depending on the level of the user character, and of course, the same can be applied to not only RPG games but also other genres of games.
  • step 204 if the target character is not targeted, the user character is moved according to the touch-drag input. For example, in space or 3D space, the user character is moved to a position corresponding to the touched coordinates, or the user character is moved in the dragged direction.
  • the method for processing a user gesture input in an online game can efficiently and quickly perform a function by minimizing a required touch when performing a function of a user character in an online game.
  • a function only by the gesture input including the touch-drag to enhance the user's operation feeling of manipulating the user character, by not displaying a separate virtual keypad or operation keys on the display area of the mobile terminal, a wide field of view Can be provided to the user.
  • FIG. 3 is a flowchart illustrating a method of processing a user gesture input in an online game according to another embodiment of the present invention.
  • step 300 the target character is targeted.
  • step 302 if there is a drag input from the user, in step 304 it is determined whether the starting point of the drag is valid.
  • the starting point of the drag refers to a point where the user first touches the drag.
  • the dragging point is determined by whether the first touched point is within a part of the display area of the mobile terminal, for example, the play area of the user character and the target character. Determine if the starting point is valid. If the starting point of the drag is outside the valid range, the drag input is ignored.
  • step 306 if the starting point of the drag is valid, in step 306 it is determined whether the input drag is a valid gesture.
  • the gesture includes a combination of unidirectional drag or multidirectional drag. The determination of the gesture will be described later with reference to FIGS. 8 to 10.
  • step 306 if the input drag is a valid gesture, in step 308 it is determined whether there are a plurality of valid gestures. If the valid gesture is singular, then at step 314, the function corresponding to the gesture is performed. If there are multiple valid gestures, in step 310 the number and order of gestures are determined. In operation 312, a function according to the number and order of gestures is performed.
  • step 302 if it is not a drag input, in step 316, in case of a touch input, in step 318, the user character is moved to a position corresponding to the touched coordinate.
  • FIG. 4 is an exemplary diagram for describing a user gesture input and expression according to an embodiment of the present invention.
  • an area 400 corresponding to an effective range of a gesture input is shown on a display screen of a mobile terminal.
  • the effective range area 400 is within the play area of the user character 410 and the target character 420.
  • a gesture including at least one drag direction is input.
  • the starting point 441 of the downward gesture 440 is within the effective range area 400, but the end point is outside the effective range area 400, and the starting point 451 of the upward gesture 450 is an effective range. Outside the area 400, the endpoint 452 is within the effective range area 400.
  • the gesture input of the user in order to ensure the validity of the gesture input of the user, when the start position of the gesture is within the effective range area, it is determined as a valid gesture, but the gesture input is determined regardless of the end position. That is, in FIG. 4, the gesture 440 is determined to be a valid gesture, but the gesture 450 is determined to be an invalid gesture.
  • a gesture input on the menu 460 in which the user can use the function by touch is determined as an invalid gesture. That is, the down gesture 440 performs the corresponding function, and the up gesture 450 does not perform the corresponding function.
  • FIG. 5 is another exemplary diagram for explaining a user gesture input and expression according to an exemplary embodiment.
  • a trail 510 of a gesture is output based on a touch point or a starting point 500 of the drag.
  • the targeting is released, the trail according to the touch is not output. The trail will automatically disappear after a period of time after output.
  • FIG. 6 is another exemplary diagram for describing a user gesture input and expression according to an embodiment of the present invention.
  • the gesture guide 600 is output at the bottom right of the screen.
  • the gesture guide includes respective gestures 620 corresponding to functions 610 that the user character can use.
  • a gesture shape of the corresponding function may be output on the function icon.
  • the gesture guide 600 may appear or disappear at a certain area of the screen, for example, at the bottom right, by the user's selection.
  • FIG. 7 is another exemplary view for explaining a user gesture input and expression according to an embodiment of the present invention.
  • a gesture shape 710 of a function performed at the bottom of the screen is output, and at the top of the screen.
  • the icon 720 of the function is output.
  • the output gesture guide 700 disappears. For example, the gesture guide 700 may disappear until the next gesture is input.
  • FIG. 8 is an exemplary diagram for describing a user gesture determination according to an exemplary embodiment.
  • patterns of drag in eight directions are shown.
  • Four directions (first pattern, third pattern, fifth pattern, and seventh pattern) of up, down, left and right, and four directions (second pattern, fourth pattern, sixth pattern, and eighth pattern) of each diagonal line Include.
  • first pattern, third pattern, fifth pattern, and seventh pattern of up, down, left and right
  • second pattern, fourth pattern, sixth pattern, and eighth pattern of each diagonal line
  • Analysis of the drag pattern is calculated by accumulating the amount of change in the coordinates moved by the drag.
  • the amount of change in the left and right (X-axis) and the top and bottom (Y-axis) is stored, and the stored change amount is analyzed and determined as one pattern as shown in FIG. 8.
  • the functions are classified and performed according to the number of patterns, and when the accumulated change amount exceeds the set minimum value, the upper, lower, and left and right values are stored as one bit. For example, a pattern value of eight directions can be used in total. A more specific pattern determination method will be described with reference to FIGS. 9 and 10.
  • FIG. 9 is an example diagram for describing a gesture including a unidirectional drag as an example of a user gesture determination according to an exemplary embodiment.
  • FIG. 9A an invalid range 900 and an effective range 910 are shown. It is determined whether the accumulated change amount of the coordinates moved by the drag on the X and Y axes is in the invalid range 900 or the effective range 910.
  • the drag 901 illustrated in FIG. 9A is in the invalid range 900 in both the X-axis and Y-axis directions, it is determined that the drag 901 is not a valid gesture, and a function corresponding to the gesture is not performed.
  • the drag 902 illustrated in FIG. 9B is in the effective range 910 in both the X-axis and Y-axis directions, it is determined that the drag 902 is a valid gesture, and performs a function corresponding to the gesture.
  • the drag 903 shown in FIG. 9C is in the effective range 910 in the X-axis direction, but in the invalid range 900 in the Y-axis direction. In this case, it is judged that it is a valid gesture when it is in an effective range in either axial direction.
  • the drag 903 illustrated in FIG. 9C determines that the gesture corresponds to the pattern 3 illustrated in FIG. 8, and performs a function corresponding to the corresponding gesture.
  • FIG. 10 is a diagram for explaining a gesture including multidirectional drag as another example of determining a user gesture according to an exemplary embodiment.
  • FIG. 10 a method of determining a gesture composed of multidirectional drags, unlike a gesture composed of unidirectional drags illustrated in FIG. 9, will be described.
  • a circular gesture is shown in FIG. 10A and a repeat gesture is shown in FIG. 10B.
  • the A direction drag to the D direction drag are all determined to be valid gestures on the X and Y axes.
  • Direction drag is pattern 2
  • B drag is pattern 4
  • C drag is pattern 6
  • D drag is pattern 8, respectively.
  • a final gesture is determined.
  • the A direction drag is a valid gesture on the X axis and an invalid gesture on the Y axis.
  • Dragging in the B direction is determined to be a valid gesture on both the X-axis and the Y-axis, and is determined by the pattern 6.
  • the drag in the C direction is a valid gesture on the X axis, an invalid gesture on the Y axis, and is determined by pattern 3. Therefore, the gesture shown in FIG. 10B determines that the patterns 3, 6, and 3 are repeated gestures.
  • the pattern determination method has been described with a specific pattern shape, but the present disclosure is not limited thereto, and the same determination method may be applied to various patterns.
  • the function corresponding to the closest pattern may be performed. Therefore, the user's intention, that is, the intention to use the function can be reflected as much as possible.
  • 11 to 17 are exemplary diagrams for describing various types of user gestures and functions according to an embodiment of the present invention.
  • the target character 1210 is targeted 1220 and the user inputs the left drag 1250
  • a function corresponding to the input gesture is provided.
  • the user character 1200 is an assassin
  • the evasion throwing function and the warrior perform a function corresponding to the breaking axis.
  • a gesture 1230 and a function icon 1240 corresponding thereto are output.
  • the target character 1410 is targeted 1420 and the user inputs the right upward drag 1450, it is determined that the gesture input is in a valid range, and a function corresponding to the input gesture is provided.
  • a function corresponding to the input gesture is provided.
  • the user character 1400 is an assassin
  • the user character 1400 performs a function corresponding to Seung Ryong Charm.
  • the gesture 1430 and the corresponding function icon 1440 are output.
  • the gesture input has a valid range, and a function corresponding to the input gesture, for example, For example, if the user character 1500 is an assassin, he / she performs a function corresponding to a blood blast charmer and a warrior armor.
  • a shape 1530 of the gesture and a function icon 1540 corresponding thereto are output.
  • the target character 1610 is targeted 1620 and the user inputs a circular drag 1650
  • a function corresponding to the input gesture is illustrated. For example, if the user character 1600 is an assassin, he performs a function corresponding to a blood blow and a jin injection.
  • the gesture 1630 and the function icon 1640 corresponding thereto are output.
  • the method for processing a user gesture input in an online game performed through a mobile terminal capable of touch-drag input includes an application basically installed in the mobile terminal (which is basically mounted in the terminal). It may be executed by a platform, operating system, etc.), the application directly installed on the terminal through an application providing server, such as an application store server, an application or a web server associated with the service (ie, Program).
  • an application ie, a program
  • the method for processing a user gesture input according to an embodiment of the present invention described above is implemented as an application (ie, a program) that is basically installed in a terminal or directly installed by a user, and can be read by a computer such as a terminal. Can be recorded on the medium.
  • Such a program is recorded on a recording medium readable by a computer and executed by a computer so that the above functions can be executed.
  • the above-described program is encoded in a computer language such as C, C ++, JAVA, or machine language that can be read by a computer processor (CPU).
  • Code may be included.
  • Such code may include a function code associated with a function or the like that defines the above-described functions, and may include execution procedure-related control code necessary for a processor of the computer to execute the above-described functions according to a predetermined procedure.
  • the code may further include memory reference-related code for additional information or media required for a processor of the computer to execute the above-described functions at which location (address address) of the computer's internal or external memory. .
  • the code indicates that the processor of the computer is a communication module of the computer (eg, a wired and / or wireless communication module).
  • the communication code may further include communication related codes such as how to communicate with any other computer or server in the remote, and what information or media should be transmitted and received during communication.
  • codes and code segments associated therewith may be used in consideration of a system environment of a computer that reads a recording medium and executes the program. It may be easily inferred or changed by.
  • Examples of recording media that can be read by a computer recording a program as described above include, for example, a ROM, a RAM, a CD-ROM, a magnetic tape, a floppy disk, an optical media storage device, and the like.
  • a computer-readable recording medium having recorded a program as described above may be distributed to computer systems connected through a network so that computer-readable codes may be stored and executed in a distributed manner.
  • at least one of the plurality of distributed computers may execute some of the functions presented above, and transmit the result to at least one of the other distributed computers, and transmit the result.
  • the receiving computer may also execute some of the functions presented above, and provide the results to other distributed computers as well.
  • a computer-readable recording medium recording an application which is a program for executing a method of processing a user gesture input
  • an application store server an application
  • an application or a corresponding service.
  • It may be a storage medium (eg, a hard disk, etc.) included in an application provider server such as a web server or the application providing server itself.
  • the computer which can read the recording medium which recorded the application which is a program for executing the method of processing the user gesture input according to each embodiment of the present invention is not only a general PC such as a desktop or a notebook computer, but also a smart phone and a tablet PC. It may include a mobile terminal such as PDA (Personal Digital Assistants) and a mobile communication terminal, as well as to be interpreted as any computing device (Computing).
  • a general PC such as a desktop or a notebook computer, but also a smart phone and a tablet PC. It may include a mobile terminal such as PDA (Personal Digital Assistants) and a mobile communication terminal, as well as to be interpreted as any computing device (Computing).
  • PDA Personal Digital Assistants
  • a computer capable of reading a recording medium recording an application which is a program for executing a method of processing a user gesture input may be a smart phone, a tablet PC, a personal digital assistant (PDA), a mobile communication terminal, or the like.
  • the application may be downloaded from the application providing server to a general PC and installed on the mobile terminal through a synchronization program.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Business, Economics & Management (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Tourism & Hospitality (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • Economics (AREA)
  • General Business, Economics & Management (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

본 발명은 온라인 게임에서의 유저 제스처 입력을 처리하는 방법에 관한 것으로, 본 발명의 일 실시 예에 따른 터치-드래그 입력이 가능한 모바일 단말을 통해 수행되는 온라인 게임에서의 유저 제스처 입력을 처리하는 방법은 모바일 단말을 이용하여 온라인 게임을 하는 경우에, 효율적이고 신속한 조작을 수행하기 위해 필요한 터치를 최소화할 수 있고, 조작감을 향상시키고, 쾌적한 시야를 제공할 수 있다.

Description

온라인 게임에서의 유저 제스처 입력 처리 방법
본 발명은 온라인 게임에서의 유저 제스처 입력을 처리하는 방법에 관한 것이다.
최근, 스마트 폰, 태블릿 PC 등의 모바일 단말이 급속도로 확산하면서 모바일 게임시장 또한 크게 성장되어 왔다. 초기에는 단말기의 성능 문제로 게임의 질이 떨어질 수밖에 없었으나 현재에 이르러 충분한 CPU 및 그래픽 성능이 지원됨에도 불구하고, 키보드, 마우스 등의 사용자 인터페이스의 지원이 충분하지 못하여 모바일 단말을 이용하여 온라인 게임을 하는 데 어려움을 주고 있다.
이에, 전면 터치 스크린을 적용한 모바일 단말이 개발되면서, 별도의 키 패드가 없이, 터치 스크린 화면에 가상 키패드 화면, 가상의 방향 키, 가상의 조작 키를 출력하지만, 이러한 가상의 사용자 인터페이스는, 작은 사이즈의 모바일 단말의 디스플레이 화면의 일 부분을 차지하기 때문에 유저의 시인성에 방해하고, 온라인 게임의 플레이 화면을 방해하는 요소로 작용하였다.
한편, 제스처 시스템은 스마트 폰 또는 태블릿 PC의 보급 및 진화되면서 많은 애플리케이션이나 기능에 사용되었으나, 온라인 게임에는 기술적 한계로 인하여 적용이 한정되었다. 예를 들면, MMOPRG(Massive Multiplayer Online Role Playing Game, 이하 MMORPG라 한다)를 포함하는 온라인 게임에서 캐릭터의 상태나 몬스터의 상태를 지속적으로 체크 하면서 제스처 입력을 감지해야 하기 때문에, 제스처 시스템의 적용이 어려웠다. 또한, 캐릭터의 3D 공간의 이동이 터치-드래그 입력으로 구현되기 때문에, 공간 이동을 위한 터치-드래그와 캐릭터의 스킬 적용을 위한 터치-드래그를 분리하기 어렵다는 문제점이 있었다.
본 발명의 일 실시 예는, 모바일 단말을 이용하여 온라인 게임을 하는 경우에, 효율적이고 신속한 조작을 수행하기 위해 필요한 터치를 최소화할 수 있고, 조작감을 향상시키고, 쾌적한 시야를 제공할 수 있는 온라인 게임에서의 유저 제스처 입력을 처리하는 방법을 제공하는 것이다.
본 발명의 다른 실시 예는, 모바일 단말을 이용하여 온라인 게임을 하는 경우에, 효율적이고 신속한 조작을 수행하기 위해 필요한 터치를 최소화할 수 있고, 조작감을 향상시키고, 쾌적한 시야를 제공할 수 있는 온라인 게임에서의 유저 제스처 입력을 처리하는 방법을 기록한 기록매체를 제공하는 것이다.
본 발명의 또 다른 실시 예는, 모바일 단말을 이용하여 온라인 게임을 하는 경우에, 효율적이고 신속한 조작을 수행하기 위해 필요한 터치를 최소화할 수 있고, 조작감을 향상시키고, 쾌적한 시야를 제공할 수 있는 온라인 게임에서의 유저 제스처 입력을 처리하는 모바일 단말을 제공하는 것이다.
상기 기술적 과제를 달성하기 위한, 본 발명의 일 실시 예에 따른 터치-드래그 입력이 가능한 모바일 단말을 통해 수행되는 온라인 게임에서의 유저 제스처 입력을 처리하는 방법은 상기 온라인 게임의 대상 캐릭터가 타겟팅되었는지 판단하는 단계; 및 상기 대상 캐릭터가 타겟팅된 경우, 적어도 하나 이상의 드래그 방향을 포함하는 제스처에 상응하는 기능을 수행하고, 상기 대상 캐릭터가 타겟팅되지 않은 경우, 상기 터치-드래그 입력에 따라 유저 캐릭터를 이동시키는 단계를 포함하는 것을 특징으로 한다.
상기 온라인 게임에서의 유저 제스처 입력 처리 방법은 상기 대상 캐릭터가 타겟팅된 경우, 상기 제스처 입력의 유효 범위를 판단하는 단계; 및 상기 유효 범위 내의 제스처 입력인 경우에, 상기 입력된 제스처에 상응하는 기능을 수행하는 단계를 포함하고, 상기 유효 범위는, 상기 모바일 단말의 디스플레이 영역 중 상기 대상 캐릭터 및 상기 유저 캐릭터의 플레이 영역 내인 것을 특징으로 한다.
상기 온라인 게임에서의 유저 제스처 입력 처리 방법은 상기 제스처를 구성하는 드래그의 시작 포인트가 상기 유효 범위 내인 경우에, 상기 유효 범위 내의 제스처 입력으로 판단하는 것을 특징으로 한다.
상기 온라인 게임에서의 유저 제스처 입력 처리 방법은 상기 제스처를 구성하는 드래그의 시작 포인트가 상기 유효 범위 내인 경우, 상기 드래그의 종료 포인트에 관계없이 상기 유효 범위 내의 제스처 입력으로 판단하는 것을 특징으로 한다.
상기 온라인 게임에서의 유저 제스처 입력 처리 방법은 상기 대상 캐릭터가 타겟팅된 경우, 상기 제스처를 구성하는 드래그의 시작 포인트에 상응하는 상기 모바일 단말의 디스플레이 영역의 위치에서 상기 제스처의 트레일을 출력하는 단계를 더 포함하는 것을 특징으로 한다.
상기 온라인 게임에서의 유저 제스처 입력 처리 방법은 상기 제스처에 상응하는 기능을 수행된 경우, 상기 수행된 기능에 상응하는 아이콘과 상기 제스처를 나타내는 모양을 상기 모바일 단말의 디스플레이 영역에 디스플레이하는 것을 특징으로 한다.
상기 제스처는, 단방향의 드래그로 구성되며, 상기 단방향의 드래그가 X축과 Y축 각각에 설정된 유효 범위 중 적어도 하나의 유효 범위 내에 있는 경우, 유효 범위 내의 제스처 입력으로 판단하는 것을 특징으로 한다.
상기 제스처는, 다방향의 드래그로 구성되며, 제1 방향 드래그 내지 제N 방향 드래그(N은 2 이상의 정수) 각각에 대해, X축과 Y축 각각에 설정된 유효 범위 중 적어도 하나의 유효 범위 내에 있고, 제N-1개의 드래그가 유효한 경우, 유효 범위 내의 제스처 입력이라고 판단하는 것을 특징으로 한다.
상기 온라인 게임에서의 유저 제스처 입력 처리 방법은 상기 제1 방향 드래그 내지 제N 방향 드래그를 포함하는 다방향 드래그로 구성된 제스처는 방향의 시작 순서에 관계없이, 유효 범위 내의 제스처 입력인지를 판단하는 것을 특징으로 한다.
상기 온라인 게임에서의 유저 제스처 입력 처리 방법은 상기 유효 범위 내의 제스처 입력이 아닌 경우, 상기 입력된 제스처와 유사한 제스처에 상응하는 기능을 수행하는 것을 특징으로 한다.
상기 기능은, 상기 유저 캐릭터가 사용할 수 있는 적어도 하나 이상의 스킬을 포함하는 것을 특징으로 한다.
상기 온라인 게임에서의 유저 제스처 입력 처리 방법은 상기 유저 캐릭터가 사용할 수 있는 적어도 하나 이상의 기능들과, 상기 기능들에 매핑된 상기 적어도 하나 이상의 드래그 방향을 포함하는 제스처들을 포함하는 제스처 가이드를 상기 모바일 단말의 디스플레이 영역에 디스플레이하는 것을 특징으로 한다.
상기 온라인 게임은, MMORPG/MORPG를 포함하는 RPG 게임, AOS(Aeon of Strife) 게임, RTS(Real Time Strategy) 게임, FPS/TPS(First/Third Person Shooters) 게임, 또는 스포츠 게임인 것을 특징으로 한다.
상기 다른 기술적 과제를 달성하기 위한, 본 발명의 다른 실시 예에 따른 터치-드래그 입력이 가능한 모바일 단말을 통해 수행되는 온라인 게임에서의 유저 제스처 입력을 처리하는 방법은 상기 온라인 게임에서의 대상 캐릭터가 타겟팅되었는지 판단하는 단계; 상기 대상 캐릭터가 타겟팅된 경우, 드래그 방향 및 드래그 개수 중 적어도 하나를 기초로 제스처 입력을 판단하는 단계; 및 상기 제스처 입력의 판단 결과, 유효한 제스처가 입력된 경우, 입력된 제스처에 상응하는 기능을 수행하는 단계를 포함한다.
상기 온라인 게임에서의 유저 제스처 입력 처리 방법은 상기 대상 캐릭터가 타겟팅되지 않은 경우, 상기 터치-드래그 입력에 따라 유저 캐릭터를 이동시키는 단계를 더 포함하는 것을 특징으로 한다.
상기 또 다른 기술적 과제를 달성하기 위한, 본 발명의 또 다른 실시 예에 따른 온라인 게임에서의 유저 제스처 입력을 처리하는 모바일 단말은 터치-드래그 입력이 가능하며, 상기 온라인 게임의 대상 캐릭터가 타겟팅되었는지 판단하는 타겟팅 판단부; 및 상기 대상 캐릭터가 타겟팅된 경우, 적어도 하나 이상의 드래그 방향을 포함하는 제스처에 상응하는 기능을 수행하고, 상기 대상 캐릭터가 타겟팅되지 않은 경우, 상기 터치-드래그 입력에 따라 유저 캐릭터를 이동시키도록 제어하는 제어부를 포함하는 것을 특징으로 한다.
상기 또 다른 기술적 과제를 달성하기 위한, 본 발명의 또 다른 실시 예에 따른 온라인 게임에서의 유저 제스처 입력을 처리하는 방법을 터치-드래그 입력이 가능한 모바일 단말을 통해 구현하기 위한 프로그램을 기록한 기록매체는 상기 온라인 게임의 대상 캐릭터가 타겟팅되었는지 판단하는 제1 프로그램 코드; 상기 대상 캐릭터가 타겟팅된 경우, 적어도 하나 이상의 드래그 방향을 포함하는 제스처에 상응하는 기능을 수행하는 제2 프로그램 코드; 및 상기 대상 캐릭터가 타겟팅되지 않은 경우, 상기 터치-드래그 입력에 따라 유저 캐릭터를 이동시키는 제3 프로그램 코드를 포함하는 것을 특징으로 한다.
본 발명의 일 실시 예에 따른 터치-드래그 입력이 가능한 모바일 단말을 통해 수행되는 온라인 게임에서의 유저 제스처 입력을 처리하는 방법은 모바일 단말을 이용하여 온라인 게임을 하는 경우에, 효율적이고 신속한 조작을 수행하기 위해 필요한 터치를 최소화할 수 있고, 조작감을 향상시키고, 쾌적한 시야를 제공할 수 있다.
도 1은 본 발명의 일 실시 예에 따른, 온라인 게임 시스템(100)에서, 유저 제스처 입력을 처리하는 모바일 단말(110 및 120)을 설명하기 위한 개략 도이다.
도 2는 본 발명의 다른 실시 예에 따른, 온라인 게임에서의 유저 제스처 입력을 처리하는 방법을 설명하기 위한 흐름도이다.
도 3은 본 발명의 또 다른 실시 예에 따른, 온라인 게임에서의 유저 제스처 입력을 처리하는 방법을 설명하기 위한 흐름도이다.
도 4는 본 발명의 일 실시 예에 따른 유저 제스처 입력 및 표현을 설명하기 위한 일 예시 도이다.
도 5는 본 발명의 일 실시 예에 따른 유저 제스처 입력 및 표현을 설명하기 위한 다른 예시 도이다.
도 6은 본 발명의 일 실시 예에 따른 유저 제스처 입력 및 표현을 설명하기 위한 또 다른 예시 도이다.
도 7은 본 발명의 일 실시 예에 따른 유저 제스처 입력 및 표현을 설명하기 위한 또 다른 예시 도이다.
도 8은 본 발명의 일 실시 예에 따른 유저 제스처 판단을 설명하기 위한 일 예시 도이다.
도 9는 본 발명의 일 실시 예에 따른 유저 제스처 판단의 일 예로, 단방향 드래그를 포함하는 제스처를 설명하기 위한 예시 도이다.
도 10은 본 발명의 일 실시 예에 따른 유저 제스처 판단의 다른 예로, 다방향 드래그를 포함하는 제스처를 설명하기 위한 예시 도이다.
도 11 내지 17은 본 발명의 일 실시 예에 따른 다양한 유형의 유저 제스처와 이에 따른 기능을 설명하기 위한 예시 도들이다.
이하, 첨부된 도면을 참조하여, 본 발명의 각 실시 예에 따른 온라인 게임에서의 유저 제스처 입력을 처리하는 방법, 유저 제스처 입력을 처리하는 방법을 기록한 기록매체, 유저 제스처 입력을 처리하는 모바일 단말에 대하여 설명하기로 한다.
이하의 설명에서 본 발명에 대한 이해를 명확히 하기 위하여, 본 발명의 특징에 대한 공지의 기술에 대한 설명은 생략하기로 한다. 이하의 실시 예는 본 발명의 이해를 돕기 위한 상세한 설명이며, 본 발명의 권리 범위를 제한하는 것이 아님은 당연할 것이다. 따라서, 본 발명과 동일한 기능을 수행하는 균등한 발명 역시 본 발명의 권리 범위에 속할 것이다. 이하의 설명에서 동일한 식별 기호는 동일한 구성을 의미하며, 불필요한 중복적인 설명 및 공지 기술에 대한 설명은 생략하기로 한다.
본 발명의 실시 예에서 “통신”, “통신망” 및 “네트워크”는 동일한 의미로 사용될 수 있다. 상기 세 용어들은, 파일을 사용자 단말, 다른 사용자들의 단말 및 다운로드 서버 사이에서 송수신할 수 있는 유무선의 근거리 및 광역 데이터 송수신망을 의미한다. 이하의 설명에서 “게임 서버”란, 사용자들이 접속하여 게임 콘텐츠를 이용하기 위하여 접속하게 되는 서버 컴퓨터를 의미한다. 용량이 작거나 이용자 수가 작은 게임의 경우 하나의 게임 서버에 다수의 게임 프로그램이 운영될 수 있다. 또한, 용량이 매우 크거나 실시간 접속 인원 수가 많은 게임의 경우, 게임의 기능에 따라서 하나의 게임의 운영을 위한 게임 서버가 하나 이상 존재할 수도 있다. 또한, 게임 서버에는 데이터 베이스에 대한 미들웨어나 결제 처리를 수행하는 서버들이 연결될 수 있으나, 본 발명에서는 이에 대한 설명은 생략하기로 한다. 본 발명에서 온라인 게임은, 상기 언급한 게임 서버에 접속하여 사용자들이 이용할 수 있는 게임 콘텐츠를 의미한다. 특히, 게임상에서 다수의 사용자가 동시에 접속하여 즐길 수 있으며, 게임을 진행하여 캐릭터를 육성하면서 경험치를 획득하는 등의 행위를 통해 레벨을 상승시키는 게임을 의미한다. 또한, 게임상에서 게임의 진행을 원활하게 하기 위해서, 다양한 종류의 아이템을 구매할 수 있는 게임을 의미한다. 또한, 온라인 게임에서는, 다양한 커뮤니티 시스템을 이용할 수 있다. 예를 들어, 온라인 게임의 길드, 또는 클랜 등이 형성될 수 있다. 상기의 개념은, 온라인 게임을 이용하는 유저들이 모여서, 하나의 그룹을 형성하고, 단체를 조직한 것을 의미한다. 각 단체는 유저들의 수 또는 유저들의 캐릭터들의 레벨에 따라서, 길드 또는 클랜의 명성이 높아질 수 있으며, 이에 따라서 게임 내에서의 다양한 혜택을 이용할 수 있다. 예를 들어, 길드 또는 클랜의 명성이 높아지면, 캐릭터의 게임 화면상의 표시가 달라질 수 있거나(예를 들어 표시되는 캐릭터의 이름의 색이 바뀌는 효과), 게임 내에서 아이템 및 마을 등을 이용하는 데 있어서의 혜택을 누릴 수 있다. 또한, 온라인 게임에서의 이용할 수 있는 커뮤니티 시스템은 파티 플레이가 있다. 파티 플레이는, 사용자들끼리 요청, 초대 및 수락을 통해 이루어지는 게임 플레이상의 그룹으로서, 결성된 파티원들끼리는 독자적인 채팅 시스템을 이용하거나, 게임화면상에서 파티원들을 식별할 수 있는 특정 표시 등을 이용할 수 있다. 또한, 파티 플레이를 하는 유저들끼리는, 아이템을 서로 분배하거나, 게임 플레이 결과 획득한 결과 콘텐츠를 공유할 수 있다. 공유하는 방식 역시, 각자 결과 콘텐츠를 보유하거나, 결과 콘텐츠의 적어도 일부를 다른 캐릭터들에게 분배하는 등으로 설정할 수 있다.
본 발명의 실시 예에서 결과 콘텐츠는, 게임의 플레이 중 플레이 결과 유저들의 캐릭터가 얻을 수 있는 모든 콘텐츠를 의미한다. 예를 들어, 슈팅 게임의 경우, 한 게임이 끝날 때 얻을 수 있는 경험치 및 사이버 머니 등이 결과 콘텐츠에 속할 수 있으며, 스포츠 게임의 경우 한 경기가 끝날 때 얻을 수 있는 경험치 및 사이버 머니 등이 결과 콘텐츠가 될 수 있다. 롤플레잉 게임의 경우, 특정 퀘스트를 완료하거나 몬스터를 처치 시 얻을 수 있는 경험치, 보상 사이버 머니 등이 결과 콘텐츠가 될 수 있다.
온라인 게임에서의 유저의 캐릭터가 특정한 결과 콘텐츠를 획득 시에는, 유저의 캐릭터에게 결과 콘텐츠가 모두 속하도록 되어 있는 것이 기본이다. 그러나 파티 플레이 또는 길드, 클랜 등에 속해 있을 때는, 자신이 획득한 결과 콘텐츠의 적어도 일부가, 파티, 길드, 클랜 등에 속해 있는 다른 유저들의 캐릭터에 분배될 수 있다.
여기서 아이템이란, 게임의 진행에 도움을 줄 수 있고, 일반적으로 게임상의 아이템이라 했을 때 이해될 수 있는 모든 데이터를 의미한다. 예를 들어, 롤플레잉 게임에 있어서, 사용자를 대신하는 캐릭터가 몬스터를 제압했을 때 얻는 경험치를, 더욱 많이 얻을 수 있게 해 주는 아이템, 캐릭터의 외관을 바꿀 수 있는 아이템 등이 본 발명에서 아이템에 해당할 수 있다.
도 1은 본 발명의 일 실시 예에 따른, 온라인 게임 시스템(100)에서의 유저 제스처 입력을 처리하는 모바일 단말(110 및 120)을 설명하기 위한 개략 도이다.
도 1을 참조하면, 모바일 단말의 예시로, 태블릿 PC 또는 노트 북(110)과 휴대폰 또는 스마트 폰(120)이 도시되어 있으며, 네트워크(130)를 통해 게임 서버(140)에 접속하여 온라인 게임을 수행한다. 여기서, 네트워크(130)는 유선 또는 무선 통신망을 포함한다. 게임 서버(140)는 온라인 게임을 모바일 단말에 제공한다. 여기서, 온라인 게임은 MMORPG 또는 MORPG를 포함하는 역할 수행 게임일 수 있다. 접속자의 수에 따라 MMORPG와 MORPG로 구분하거나, 일반적으로 "방"을 만들어 그 방에 접속한 유저들끼리만 전투 및 사냥을 한다면 MORPG, 모든 유저들의 왕래가 가능한 공개 지역에서 전투 및 사냥을 한다면 MMORPG로 구분할 수 있다.
또한, 온라인 게임은 AOS(Aeon of Strife) 게임, RTS(Real Time Strategy) 게임, FPS/TPS(First/Third Person Shooters) 게임, 스포츠 게임일 수 있다.
모바일 단말에는 게임 구현에 필요한 프로그램이 설치 및 실행될 수도 있다.
모바일 단말은 터치-드래그 기능이 구현되며, 온라인 게임 수행 시 터치-드래그 기능을 통해 게임이 가능하다. 본 발명의 일 실시 예에 따른 모바일 단말은, 온라인 게임에서의 유저 제스처 입력을 처리한다. 모바일 단말은 온라인 게임의 대상 캐릭터가 타겟팅되었는지 판단하고, 대상 캐릭터가 타겟팅된 경우, 적어도 하나 이상의 드래그 방향을 포함하는 제스처에 상응하는 기능을 수행한다. 한편, 대상 캐릭터가 타겟팅되지 않은 경우에는 터치-드래그 입력에 따라 유저 캐릭터를 이동시키도록 제어한다. 여기서, 대상 캐릭터는, RPG 게임에서는 몬스터 또는 다른 유저의 캐릭터를 포함하고, 1인칭/3인칭 슈팅 게임은 적을 포함하고, 스포츠 게임에서는 상대방 캐릭터를 포함한다. 제스처는 미리 정의된 다양한 드래그 방향을 포함하며, 상하 좌우 방향과, 각각의 대각선 방향을 포함하는 8방향과, 원형 제스처, 반복 제스처 등을 포함할 수 있다. 기능은 RPG 게임의 경우, 유저 캐릭터가 사용할 수 있는 스킬일 수 있으며, 특정 제스처에 특정 스킬이 매핑되어, 특정 제스처가 입력된 경우, 특정 스킬을 대상 캐릭터에 사용할 수 있다.
도 2는 본 발명의 다른 실시 예에 따른, 온라인 게임에서의 유저 제스처 입력을 처리하는 방법을 설명하기 위한 흐름도이다.
도 2를 참조하면, 단계 200 및 202에서, 모바일 단말에서 게임 서버에 접속하여 온라인 게임을 시작한다.
단계 204에서, 온라인 게임의 대상 캐릭터가 타겟팅되었는지 판단한다. 여기서, 대상 캐릭터는 온라인 게임에서 유저 캐릭터의 상대방으로서, 예를 들면 RPG 게임에서 전투 및 사냥의 대상이 되는 몬스터일 수 있다. 타겟팅 방법은 해당 대상 캐릭터를 터치하여 타겟팅을 수행할 수 있다.
단계 204에서, 대상 캐릭터가 타겟팅된 경우, 드래그를 포함하는 제스처가 입력되었는지 판단하고, 제스처가 입력된 경우 제스처에 상응하는 기능을 수행한다. 기능은, 예를 들면 유저 캐릭터가 전투 및 사냥에서 사용할 수 있는 무기, 공격 방법 등일 수 있다. 이러한 기능은 유저 캐릭터의 레벨에 따라 다를 수 있으며, RPG 게임뿐만 아니라, 다른 장르의 게임에도 동일하게 적용할 수 있음은 물론이다.
단계 204에서, 대상 캐릭터가 타겟팅되지 않은 경우, 터치-드래그 입력에 따라 유저 캐릭터를 이동시킨다. 예를 들면 공간 또는 3D 공간상에서, 터치된 좌표에 상응하는 위치로 유저 캐릭터를 이동시키거나, 드래그된 방향으로 유저 캐릭터를 이동시킨다.
본 발명의 일 실시 예에 따른 온라인 게임에서의 유저 제스처 입력을 처리하는 방법은 온라인 게임에서의 유저 캐릭터의 기능 수행 시, 필요 터치의 최소화를 통해 효율적이고 신속하게 기능을 수행할 수 있다. 또한, 터치-드래그를 포함하는 제스처 입력만으로 기능을 수행하여, 유저 캐릭터를 조작하는 사용자 조작감을 향상시키며, 별도의 가상 키 패드 또는 조작 키를 모바일 단말의 디스플레이 영역에 디스플레이하지 않음으로써, 넓은 시야를 사용자에게 제공할 수 있다.
도 3은 본 발명의 또 다른 실시 예에 따른, 온라인 게임에서의 유저 제스처 입력을 처리하는 방법을 설명하기 위한 흐름도이다.
도 3을 참조하면, 단계 300에서, 대상 캐릭터가 타겟팅된다. 단계 302에서, 유저로부터 드래그 입력이 있는 경우, 단계 304에서, 드래그의 시작 포인트가 유효한지 판단한다. 드래그의 시작 포인트는 유저가 드래그를 위해 최초 터치한 지점을 의미하며, 최초 터치한 지점이 모바일 단말의 디스플레이 영역의 일부 영역, 예를 들면 유저 캐릭터와 대상 캐릭터의 플레이 영역 내인지에 따라, 드래그의 시작 포인트가 유효한지 판단한다. 드래그의 시작 포인트가 유효 영역 범위 밖인 경우, 드래그 입력을 무시한다. 단계 304에서, 드래그의 시작 포인트가 유효한 경우, 단계 306에서, 입력된 드래그가 유효한 제스처인지를 판단한다. 여기서, 제스처는 단방향의 드래그 또는 다방향의 드래그의 조합을 포함한다. 제스처의 판단과 관련하여서는 도 8 내지 10을 참조하여 후술한다.
단계 306에서, 입력된 드래그가 유효한 제스처인 경우, 단계 308에서, 유효한 제스처가 다수인지 판단한다. 유효한 제스처가 단수인 경우, 단계 314에서, 제스처에 상응하는 기능을 수행한다. 유효한 제스처가 다수인 경우, 단계 310에서, 제스처의 개수 및 순서를 판단한다. 단계 312에서, 제스처의 개수 및 순서에 따른 기능을 수행한다.
단계 302에서, 드래그 입력이 아닌 경우, 단계 316에서, 터치 입력인 경우, 단계 318에서, 터치된 좌표에 상응하는 위치로 유저 캐릭터를 이동시킨다.
도 4는 본 발명의 일 실시 예에 따른 유저 제스처 입력 및 표현을 설명하기 위한 일 예시 도이다.
도 4를 참조하면, 모바일 단말의 디스플레이 화면에 제스처 입력의 유효 범위에 해당하는 영역(400)이 도시되어 있다. 유효 범위 영역(400)은 유저 캐릭터(410)와 대상 캐릭터(420)의 플레이 영역 내이다. 대상 캐릭터(420)의 터치에 의해 대상 캐릭터(420)가 타겟팅(430)되고 나서, 적어도 하나의 드래그 방향을 포함하는 제스처가 입력된다. 여기서, 아래 방향의 제스처(440)의 시작점(441)은 유효 범위 영역(400) 내에 있지만, 끝점은 유효 범위 영역(400) 밖에 있고, 윗 방향의 제스처(450)의 시작점(451)은 유효 범위 영역(400) 밖에 있고, 끝점(452)은 유효 범위 영역(400) 내에 있다. 본 발명의 일 실시 예에서, 유저의 제스처 입력 유효성을 보장하기 위해, 제스처의 시작 위치가 유효 범위 영역 내에 있는 경우에는 유효한 제스처로 판단하지만, 끝 위치와는 무관하게 제스처 입력을 판단한다. 즉, 도 4에서, 제스처(440)는 유효한 제스처로 판단하지만, 제스처(450)는 유효하지 않은 제스처로 판단한다. 또한, 유저가 터치로 기능을 사용할 수 있는 메뉴(460) 위에서 입력된 제스처로 마찬가지로 유효하지 않은 제스처로 판단한다. 즉, 아래 방향 제스처(440)에 대해서는 해당 기능을 수행하고, 윗 방향 제스처(450)에 대해서는 해당 기능을 수행하지 않는다.
도 5는 본 발명의 일 실시 예에 따른 유저 제스처 입력 및 표현을 설명하기 위한 다른 예시 도이다.
도 5를 참조하면, 대상 캐릭터가 타겟팅된 경우, 유저가 드래그를 하는 경우, 터치 포인트 또는 드래그의 시작점(500)을 중심으로 제스처의 트레일(trail, 510)이 출력된다. 또한, 타겟팅 해제 시에는 터치에 따른 트레일을 출력하지 않는다. 트레일은 출력 후에 일정 시간 후에 자동으로 사라진다.
도 6은 본 발명의 일 실시 예에 따른 유저 제스처 입력 및 표현을 설명하기 위한 또 다른 예시 도이다.
도 6을 참조하면, 화면의 우 하단에 제스처 가이드(600)가 출력된다. 제스처 가이드는 유저 캐릭터가 사용할 수 있는 기능들(610)에 해당하는 각각의 제스처들(620)을 포함한다. 또한, 도 5에 도시된 트레일이 출력되는 동안에 기능 아이콘 위에 해당 기능의 제스처 모양이 출력될 수 있으며, 타겟팅이 해제될 경우, 제스처 모양이 사라진다. 여기서, 제스처 가이드(600)는 유저의 선택에 의해 화면의 일정 영역, 예를 들면 우 하단에 나타나거나, 사라질 수 있다.
도 7은 본 발명의 일 실시 예에 따른 유저 제스처 입력 및 표현을 설명하기 위한 또 다른 예시 도이다.
도 7을 참조하면, 대상 캐릭터가 타겟팅되고, 유저가 유효한 제스처를 입력하여 해당 제스처에 상응하는 기능이 수행된 경우, 화면 하단에 수행된 기능의 제스처 모양(710)이 출력되고, 화면 상단에는 수행된 기능의 아이콘(720)이 출력된다. 그리고 출력되었던 제스처 가이드(700)는 사라진다. 예를 들면, 다음 제스처가 입력될 때까지 제스처 가이드(700)는 사라질 수 있다.
도 8은 본 발명의 일 실시 예에 따른 유저 제스처 판단을 설명하기 위한 일 예시 도이다.
도 8을 참조하면, 8개 방향의 드래그의 패턴들이 도시되어 있다. 상하좌우의 4개 방향(제1 패턴, 제3 패턴, 제5 패턴 및 제7 패턴)과, 각각의 대각선의 4개 방향(제2 패턴, 제4 패턴, 제6 패턴, 제8 패턴)을 포함한다. 여기서, 8개 방향의 드래그의 패턴들로 구분하였지만, 이에 한정되지 않고, 그 이상 또는 그 이하의 구분으로 가능함은 물론이다.
본 발명의 일 실시 예에 따른 드래그 패턴의 분석은 드래그로 이동된 좌표의 변화량을 누적하여 계산한다. 또한, 좌우(X축), 상하(Y축)의 변화량을 각각 저장하여, 저장된 변화량을 분석하고, 도 8에 도시된 것처럼, 하나의 패턴으로 결정한다. 그리고 패턴의 개수에 따라 기능을 구분 및 수행하고, 누적된 변화량이 설정된 최소의 값을 초과하는 경우, 상하, 및 좌우의 값을 하나의 비트로 각각 저장한다. 예를 들면, 총 8개 방향의 패턴 값을 사용할 수 있다. 보다 구체적인 패턴 판단 방법은 도 9 및 10을 참조하여 설명한다.
도 9는 본 발명의 일 실시 예에 따른 유저 제스처 판단의 일 예로, 단방향 드래그를 포함하는 제스처를 설명하기 위한 예시 도이다.
도 8 및 도 9a를 참조하여, 도 9a에 도시된 패턴 4에 해당하는 드래그 방향의 제스처가 입력된 경우에 해당 제스처가 유효한지를 판단하는 방법을 설명한다. 도 4를 참조하여 설명한 것처럼, 드래그(901)의 시작점은 유효 영역의 범위 내에 있는지가 먼저 판단된 후, 드래그로 이동된 좌표의 변화량을 누적한다.
도 9a에는 무효 범위(900)와 유효 범위(910)가 도시되어 있다. 드래그로 이동된 좌표의 X축 및 Y축으로의 누적된 변화량이 무효 범위(900)에 있는지, 유효범위(910)에 있는지를 판단한다.
도 9a 내지 9c에는 드래그들(901 내지 903)이 각각 도시되어 있다.
도 9a에 도시된 드래그(901)는 X축 및 Y축 방향으로 모두 무효 범위(900)에 있으므로, 유효하지 않은 제스처라고 판단하고, 해당 제스처에 상응하는 기능은 수행되지 않는다.
도 9b에 도시된 드래그(902)는 X축 및 Y축 방향으로 모두 유효 범위(910)에 있으므로, 유효한 제스처라고 판단하고, 해당 제스처에 상응하는 기능을 수행한다.
도 9c에 도시된 드래그(903)는 X축 방향으로 유효 범위(910)에 있지만, Y축 방향으로 무효 범위(900)에 있다. 이 경우, 어느 한 축 방향으로 유효 범위에 있는 경우에 유효한 제스처라고 판단한다. 도 9c에 도시된 드래그(903)는 도 8에 도시된 패턴 3에 해당하는 제스처라고 판단하고, 해당 제스처에 상응하는 기능을 수행한다.
도 10은 본 발명의 일 실시 예에 따른 유저 제스처 판단의 다른 예로, 다방향 드래그를 포함하는 제스처를 설명하기 위한 예시 도이다.
도 10을 참조하여, 도 9에 도시된 단방향 드래그로 구성된 제스처와는 달리 다방향 드래그들로 구성된 제스처를 판단하는 방법을 설명한다. 도 10a에는 원형 제스처가 도시되어 있고, 도 10b에는 반복 제스처가 도시되어 있다.
도 10a를 참조하면, A 방향 드래그, B 방향 드래그, C 방향 드래그 및 D 방향 드래그가 유저 제스처로 입력되면, A 방향 드래그 내지 D 방향 드래그는 모두 X축 및 Y축으로 유효한 제스처로 판단되며, A 방향 드래그는 패턴 2, B 방향 드래그는 패턴 4, C 방향 드래그는 패턴 6 및 D 방향 드래그는 패턴 8로 각각 판단된다. 그리고 패턴 2, 4, 6, 8일 경우 원형 제스처로 최종 판단한다.
또한, 패턴 2, 4, 6, 8의 순서만 맞다면, 드래그가 패턴 4, 6, 8, 2로 판단되거나, 패턴 6, 8, 2, 4로 판단되어도, 유효한 원형 제스처로 판단할 수 있다. 즉, 전체 순서만 맞다면 시작 순서와는 관계없이 판단할 수 있다. 또한, 선택적으로, 패턴 2, 4, 6, 8일 경우만이 아니라, 3개의 패턴, 예를 들면 패턴 2, 4, 6, 패턴 4, 6, 8인 경우에도 유효한 원형 제스처로 판단할 수 있다. 따라서, 온라인 게임이 빠르게 진행된다는 특성상, 유저의 정확한 입력보다는 유저의 의도, 즉 기능을 사용하고자 하는 것을 최대한 반영해줌으로써, 온라인 게임의 신뢰도를 높일 수 있다.
도 10b를 참조하면, A 방향 드래그, B 방향 드래그 및 C 방향 드래그가 유저 제스처로 입력되면, A 방향 드래그는 X축으로 유효한 제스처이고, Y축으로는 유효하지 않은 제스처라고 판단하고, 패턴 3으로 판단한다. B 방향 드래그는 X축 및 Y축으로 모두 유효한 제스처라고 판단하고, 패턴 6으로 판단한다. C 방향 드래그는 X축으로 유효한 제스처이고, Y축으로는 유효하지 않은 제스처라고 판단하고, 패턴 3으로 판단한다. 따라서, 도 10b에 도시된 제스처는 패턴 3, 6, 3이 반복되는 반복 제스처라고 판단한다.
도 8 내지 10을 참조하여, 본 발명의 실시 예들에 따라, 특정 패턴 형태를 가지고, 패턴 판단 방법을 설명하였지만, 이에 한정되지 않고, 다양한 패턴들도 동일한 판단 방법이 적용될 수 있음은 물론이다.
또한, 선택적으로, 정확하게 정해진 드래그 패턴과 일치하는 패턴이 아니라고 판단되는 경우에, 가장 가까운 패턴에 상응하는 기능이 수행되도록 할 수도 있다. 따라서, 유저의 정확한 입력보다는 유저의 의도, 즉 기능을 사용하고자 하는 의도를 최대한 반영해 줄 수 있다.
도 11 내지 17은 본 발명의 일 실시 예에 따른 다양한 유형의 유저 제스처와 이에 따른 기능을 설명하기 위한 예시 도들이다.
도 11a 및 11b를 참조하면, 대상 캐릭터(1110)가 타겟팅(1120)되고, 유저가 오른쪽 드래그(1150)를 입력하면, 유효한 범위의 제스처 입력이라고 판단하고, 입력된 제스처에 상응하는 기능, 예를 들면 유저 캐릭터(1100)가 자객인 경우 암기투척, 전사인 경우 붕격에 해당하는 기능을 수행한다. 그리고 제스처의 모양(1130) 및 이에 상응하는 기능 아이콘(1140)을 출력한다.
도 12a 및 12b를 참조하면, 대상 캐릭터(1210)가 타겟팅(1220)되고, 유저가 왼쪽 드래그(1250)를 입력하면, 유효한 범위의 제스처 입력이라고 판단하고, 입력된 제스처에 상응하는 기능, 예를 들면 유저 캐릭터(1200)가 자객인 경우 회피투척, 전사인 경우 파회축에 해당하는 기능을 수행한다. 그리고 제스처의 모양(1230) 및 이에 상응하는 기능 아이콘(1240)을 출력한다.
도 13a 및 13b를 참조하면, 대상 캐릭터(1310)가 타겟팅(1320)되고, 유저가 아래쪽 드래그(1350)를 입력하면, 유효한 범위의 제스처 입력이라고 판단하고, 입력된 제스처에 상응하는 기능, 예를 들면 유저 캐릭터(1300)가 자객인 경우 격도, 전사인 경우 사자후에 해당하는 기능을 수행한다. 그리고 제스처의 모양(1330) 및 이에 상응하는 기능 아이콘(1340)을 출력한다.
도 14a 및 14b를 참조하면, 대상 캐릭터(1410)가 타겟팅(1420)되고, 유저가 우상향 드래그(1450)를 입력하면, 유효한 범위의 제스처 입력이라고 판단하고, 입력된 제스처에 상응하는 기능, 예를 들면 유저 캐릭터(1400)가 자객인 경우 천격, 전사인 경우 승룡참에 해당하는 기능을 수행한다. 그리고 제스처의 모양(1430) 및 이에 상응하는 기능 아이콘(1440)을 출력한다.
도 15a 및 15b를 참조하면, 대상 캐릭터(1510)가 타겟팅(1520)되고, 유저가 Z 드래그(1550)를 입력하면, 유효한 범위의 제스처 입력이라고 판단하고, 입력된 제스처에 상응하는 기능, 예를 들면 유저 캐릭터(1500)가 자객인 경우 혈풍참, 전사인 경우 갑주파괴에 해당하는 기능을 수행한다. 그리고 제스처의 모양(1530) 및 이에 상응하는 기능 아이콘(1540)을 출력한다.
도 16a 및 16b를 참조하면, 대상 캐릭터(1610)가 타겟팅(1620)되고, 유저가 원형 드래그(1650)를 입력하면, 유효한 범위의 제스처 입력이라고 판단하고, 입력된 제스처에 상응하는 기능, 예를 들면 유저 캐릭터(1600)가 자객인 경우 혈풍격, 전사인 경우 진기주입에 해당하는 기능을 수행한다. 그리고 제스처의 모양(1630) 및 이에 상응하는 기능 아이콘(1640)을 출력한다.
도 17a 및 17b를 참조하면, 대상 캐릭터(1710)가 타겟팅(1720)되고, 유저가 L 드래그(1750)를 입력하면, 유효한 범위의 제스처 입력이라고 판단하고, 입력된 제스처에 상응하는 기능, 예를 들면 유저 캐릭터(1700)가 자객인 경우 혈독 바르기, 전사인 경우 천무지세에 해당하는 기능을 수행한다. 그리고 제스처의 모양(1730) 및 이에 상응하는 기능 아이콘(1740)을 출력한다.
이상에서 전술한 본 발명의 실시 예에 따른 터치-드래그 입력이 가능한 모바일 단말을 통해 수행되는 온라인 게임에서의 유저 제스처 입력을 처리하는 방법은, 모바일 단말에 기본적으로 설치된 애플리케이션(이는 단말에 기본적으로 탑재된 플랫폼이나 운영체제 등에 포함된 프로그램을 포함할 수 있음)에 의해 실행될 수 있고, 사용자가 애플리케이션 스토어 서버, 애플리케이션 또는 해당 서비스와 관련된 웹 서버 등의 애플리케이션 제공 서버를 통해 단말에 직접 설치한 애플리케이션(즉, 프로그램)에 의해 실행될 수도 있다. 이러한 의미에서, 전술한 본 발명의 실시 예에 따른 유저 제스처 입력을 처리하는 방법은 단말기에 기본적으로 설치되거나 사용자에 의해 직접 설치된 애플리케이션(즉, 프로그램)으로 구현되고 단말기 등의 컴퓨터로 읽을 수 있는 기록매체에 기록될 수 있다.
이러한 프로그램은 컴퓨터에 의해 읽힐 수 있는 기록매체에 기록되고 컴퓨터에 의해 실행됨으로써 전술한 기능들이 실행될 수 있다. 이와 같이, 본 발명의 각 실시 예에 따른 유저 제스처 입력을 처리하는 방법을 실행시키기 위하여, 전술한 프로그램은 컴퓨터의 프로세서(CPU)가 읽힐 수 있는 C, C++, JAVA, 기계어 등의 컴퓨터 언어로 코드화된 코드(Code)를 포함할 수 있다. 이러한 코드는 전술한 기능들을 정의한 함수 등과 관련된 기능적인 코드(Function Code)를 포함할 수 있고, 전술한 기능들을 컴퓨터의 프로세서가 소정의 절차대로 실행시키는데 필요한 실행 절차 관련 제어 코드를 포함할 수도 있다. 또한, 이러한 코드는 전술한 기능들을 컴퓨터의 프로세서가 실행시키는데 필요한 추가 정보나 미디어가 컴퓨터의 내부 또는 외부 메모리의 어느 위치(주소 번지)에서 참조 되어야 하는지에 대한 메모리 참조 관련 코드를 더 포함할 수 있다.
또한, 컴퓨터의 프로세서가 전술한 기능들을 실행시키기 위하여 원격(Remote)에 있는 어떠한 다른 컴퓨터나 서버 등과 통신이 필요한 경우, 코드는 컴퓨터의 프로세서가 컴퓨터의 통신 모듈(예: 유선 및/또는 무선 통신 모듈)을 이용하여 원격(Remote)에 있는 어떠한 다른 컴퓨터나 서버 등과 어떻게 통신해야만 하는지, 통신 시 어떠한 정보나 미디어를 송수신해야 하는지 등에 대한 통신 관련 코드를 더 포함할 수도 있다.
그리고, 본 발명을 구현하기 위한 기능적인(Functional) 프로그램과 이와 관련된 코드 및 코드 세그먼트 등은, 기록매체를 읽어서 프로그램을 실행시키는 컴퓨터의 시스템 환경 등을 고려하여, 본 발명이 속하는 기술분야의 프로그래머들에 의해 용이하게 추론되거나 변경될 수도 있다.
이상에서 전술한 바와 같은 프로그램을 기록한 컴퓨터로 읽힐 수 있는 기록매체는, 일 예로, ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광 미디어 저장장치 등이 있다.
또한 전술한 바와 같은 프로그램을 기록한 컴퓨터로 읽힐 수 있는 기록매체는 네트워크로 커넥션된 컴퓨터 시스템에 분산되어, 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다. 이 경우, 다수의 분산된 컴퓨터 중 어느 적어도 하나의 컴퓨터는 상기에 제시된 기능들 중 일부를 실행하고, 그 결과를 다른 분산된 컴퓨터들 중 적어도 하나에 그 실행 결과를 전송할 수 있으며, 그 결과를 전송받은 컴퓨터 역시 상기에 제시된 기능들 중 일부를 실행하여, 그 결과를 역시 다른 분산된 컴퓨터들에 제공할 수 있다.
특히, 본 발명의 각 실시 예에 따른 유저 제스처 입력을 처리하는 방법을 실행시키기 위한 프로그램인 애플리케이션을 기록한 컴퓨터로 읽을 수 있는 기록매체는, 애플리케이션 스토어 서버(Application Store Server), 애플리케이션 또는 해당 서비스와 관련된 웹 서버 등의 애플리케이션 제공 서버(Application Provider Server)에 포함된 저장매체(예: 하드디스크 등)이거나, 애플리케이션 제공 서버 그 자체일 수도 있다.
본 발명의 각 실시 예에 따른 유저 제스처 입력을 처리하는 방법을 실행시키기 위한 프로그램인 애플리케이션을 기록한 기록매체를 읽을 수 있는 컴퓨터는, 일반적인 데스크 탑이나 노트북 등의 일반 PC 뿐만 아니라, 스마트 폰, 태블릿 PC, PDA(Personal Digital Assistants) 및 이동통신 단말기 등의 모바일 단말을 포함할 수 있으며, 이뿐만 아니라, 컴퓨팅(Computing) 가능한 모든 기기로 해석되어야 할 것이다.
또한, 본 발명의 실시 예에 따른 유저 제스처 입력을 처리하는 방법을 실행시키기 위한 프로그램인 애플리케이션을 기록한 기록매체를 읽을 수 있는 컴퓨터가 스마트 폰, 태블릿 PC, PDA(Personal Digital Assistants) 및 이동통신 단말기 등의 모바일 단말기인 경우, 애플리케이션은 애플리케이션 제공 서버에서 일반 PC로 다운로드 되어 동기화 프로그램을 통해 모바일 단말에 설치될 수도 있다.
이상에서, 본 발명의 실시 예를 구성하는 모든 구성 요소들이 하나로 결합되거나 결합되어 동작하는 것으로 설명되었다고 해서, 본 발명이 반드시 이러한 실시 예에 한정되는 것은 아니다. 즉, 본 발명의 목적 범위 안에서라면, 그 모든 구성 요소들이 적어도 하나로 선택적으로 결합하여 동작할 수도 있다. 또한, 그 모든 구성 요소들이 각각 하나의 독립적인 하드웨어로 구현될 수 있지만, 각 구성 요소들의 그 일부 또는 전부가 선택적으로 조합되어 하나 또는 복수 개의 하드웨어에서 조합된 일부 또는 전부의 기능을 수행하는 프로그램 모듈을 갖는 컴퓨터 프로그램으로서 구현될 수도 있다. 그 컴퓨터 프로그램을 구성하는 코드들 및 코드 세그먼트들은 본 발명의 기술 분야의 당업자에 의해 용이하게 추론될 수 있을 것이다. 이러한 컴퓨터 프로그램은 컴퓨터가 읽을 수 있는 저장매체(Computer Readable Media)에 저장되어 컴퓨터에 의하여 읽혀지고 실행됨으로써, 본 발명의 실시 예를 구현할 수 있다. 컴퓨터 프로그램의 저장매체로서는 자기 기록매체, 광 기록매체, 등이 포함될 수 있다.
또한, 이상에서 기재된 "포함하다", "구성하다" 또는 "가지다" 등의 용어는, 특별히 반대되는 기재가 없는 한, 해당 구성 요소가 내재될 수 있음을 의미하는 것이므로, 다른 구성 요소를 제외하는 것이 아니라 다른 구성 요소를 더 포함할 수 있는 것으로 해석되어야 한다. 기술적이거나 과학적인 용어를 포함한 모든 용어들은, 다르게 정의되지 않는 한, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 사전에 정의된 용어와 같이 일반적으로 사용되는 용어들은 관련 기술의 문맥 상의 의미와 일치하는 것으로 해석되어야 하며, 본 발명에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.
이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서, 본 발명에 개시된 실시 예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시 예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.

Claims (17)

  1. 터치-드래그 입력이 가능한 모바일 단말을 통해 수행되는 온라인 게임에서의 유저 제스처 입력을 처리하는 방법으로서,
    상기 온라인 게임의 대상 캐릭터가 타겟팅되었는지 판단하는 단계; 및
    상기 대상 캐릭터가 타겟팅된 경우, 적어도 하나 이상의 드래그 방향을 포함하는 제스처에 상응하는 기능을 수행하고, 상기 대상 캐릭터가 타겟팅되지 않은 경우, 상기 터치-드래그 입력에 따라 유저 캐릭터를 이동시키는 단계를 포함하는 것을 특징으로 하는 온라인 게임에서의 유저 제스처 입력 처리 방법.
  2. 제 1 항에 있어서,
    상기 대상 캐릭터가 타겟팅된 경우, 상기 제스처 입력의 유효 범위를 판단하는 단계; 및
    상기 유효 범위 내의 제스처 입력인 경우에, 상기 입력된 제스처에 상응하는 기능을 수행하는 단계를 포함하고,
    상기 유효 범위는,
    상기 모바일 단말의 디스플레이 영역 중 상기 대상 캐릭터 및 상기 유저 캐릭터의 플레이 영역 내인 것을 특징으로 하는 온라인 게임에서의 유저 제스처 입력 처리 방법.
  3. 제 2 항에 있어서,
    상기 제스처를 구성하는 드래그의 시작 포인트가 상기 유효 범위 내인 경우에, 상기 유효 범위 내의 제스처 입력으로 판단하는 것을 특징으로 하는 온라인 게임에서의 유저 제스처 입력 처리 방법.
  4. 제 2 항에 있어서,
    상기 제스처를 구성하는 드래그의 시작 포인트가 상기 유효 범위 내인 경우, 상기 드래그의 종료 포인트에 관계없이 상기 유효 범위 내의 제스처 입력으로 판단하는 것을 특징으로 하는 온라인 게임에서의 유저 제스처 입력 처리 방법.
  5. 제 1 항에 있어서,
    상기 대상 캐릭터가 타겟팅된 경우, 상기 제스처를 구성하는 드래그의 시작 포인트에 상응하는 상기 모바일 단말의 디스플레이 영역의 위치에서 상기 제스처의 트레일을 출력하는 단계를 더 포함하는 것을 특징으로 하는 온라인 게임에서의 유저 제스처 입력 처리 방법.
  6. 제 1 항에 있어서,
    상기 제스처에 상응하는 기능을 수행된 경우, 상기 수행된 기능에 상응하는 아이콘과 상기 제스처를 나타내는 모양을 상기 모바일 단말의 디스플레이 영역에 디스플레이하는 것을 특징으로 하는 온라인 게임에서의 유저 제스처 입력 처리 방법.
  7. 제 1 항에 있어서,
    상기 제스처는,
    단방향의 드래그로 구성되며,
    X축과 Y축 각각에 설정된 유효 범위 중 적어도 하나의 유효 범위 내에 있는 경우, 유효 범위 내의 제스처 입력으로 판단하는 것을 특징으로 하는 온라인 게임에서의 유저 제스처 입력 처리 방법.
  8. 제 1 항에 있어서,
    상기 제스처는,
    다방향의 드래그로 구성되며,
    제1 방향 드래그 내지 제N 방향 드래그(N은 2 이상의 정수) 각각에 대해, X축과 Y축 각각에 설정된 유효 범위 중 적어도 하나의 유효 범위 내에 있고, 제N-1개의 드래그가 유효한 경우, 유효 범위 내의 제스처 입력이라고 판단하는 것을 특징으로 하는 온라인 게임에서의 유저 제스처 입력 처리 방법.
  9. 제 8 항에 있어서,
    상기 제1 방향 드래그 내지 제N 방향 드래그를 포함하는 다방향 드래그로 구성된 제스처는 방향의 시작 순서에 관계없이, 유효 범위 내의 제스처 입력인지를 판단하는 것을 특징으로 하는 온라인 게임에서의 유저 제스처 입력 처리 방법.
  10. 제 7 항 내지 제 9 항 중 어느 한 항에 있어서,
    상기 유효 범위 내의 제스처 입력이 아닌 경우, 상기 입력된 제스처와 유사한 제스처에 상응하는 기능을 수행하는 것을 특징으로 하는 온라인 게임에서의 유저 제스처 입력 처리 방법.
  11. 제 1 항에 있어서,
    상기 기능은,
    상기 유저 캐릭터가 사용할 수 있는 적어도 하나 이상의 스킬을 포함하는 것을 특징으로 하는 온라인 게임에서의 유저 제스처 입력 처리 방법.
  12. 제 1 항에 있어서,
    상기 유저 캐릭터가 사용할 수 있는 적어도 하나 이상의 기능들과, 상기 기능들에 매핑된 상기 적어도 하나 이상의 드래그 방향을 포함하는 제스처들을 포함하는 제스처 가이드를 상기 모바일 단말의 디스플레이 영역에 디스플레이하는 것을 특징으로 하는 온라인 게임에서의 유저 제스처 입력 처리 방법.
  13. 제 1 항에 있어서,
    상기 온라인 게임은,
    MMORPG/MORPG를 포함하는 RPG 게임, AOS(Aeon of Strife) 게임, RTS(Real Time Strategy) 게임, FPS/TPS(First/Third Person Shooters) 게임, 또는 스포츠 게임인 것을 특징으로 하는 온라인 게임에서의 유저 제스처 입력 처리 방법.
  14. 터치-드래그 입력이 가능한 모바일 단말을 통해 수행되는 온라인 게임에서의 유저 제스처 입력을 처리하는 방법으로서,
    상기 온라인 게임의 대상 캐릭터가 타겟팅되었는지 판단하는 단계;
    상기 대상 캐릭터가 타겟팅된 경우, 드래그 방향 및 드래그 개수 중 적어도 하나를 기초로 제스처 입력을 판단하는 단계; 및
    상기 제스처 입력의 판단 결과, 유효한 제스처가 입력된 경우, 입력된 제스처에 상응하는 기능을 수행하는 단계를 포함하는 온라인 게임에서의 유저 제스처 입력 처리 방법.
  15. 제 14 항에 있어서,
    상기 대상 캐릭터가 타겟팅되지 않은 경우, 상기 터치-드래그 입력에 따라 유저 캐릭터를 이동시키는 단계를 더 포함하는 것을 특징으로 하는 온라인 게임에서의 유저 제스처 입력 처리 방법.
  16. 온라인 게임에서의 유저 제스처 입력을 처리하는 모바일 단말로서,
    상기 모바일 단말은,
    터치-드래그 입력이 가능하며,
    상기 온라인 게임에서의 대상 캐릭터가 타겟팅되었는지 판단하는 타겟팅 판단부; 및
    상기 대상 캐릭터가 타겟팅된 경우, 적어도 하나 이상의 드래그 방향을 포함하는 제스처에 상응하는 기능을 수행하고, 상기 대상 캐릭터가 타겟팅되지 않은 경우, 상기 터치-드래그 입력에 따라 유저 캐릭터를 이동시키도록 제어하는 제어부를 포함하는 것을 특징으로 하는 모바일 단말.
  17. 온라인 게임에서의 유저 제스처 입력을 처리하는 방법을 터치-드래그 입력이 가능한 모바일 단말을 통해 구현하기 위한 프로그램을 기록한 기록매체로서,
    상기 온라인 게임의 대상 캐릭터가 타겟팅되었는지 판단하는 제1 프로그램 코드;
    상기 대상 캐릭터가 타겟팅된 경우, 적어도 하나 이상의 드래그 방향을 포함하는 제스처에 상응하는 기능을 수행하는 제2 프로그램 코드; 및
    상기 대상 캐릭터가 타겟팅되지 않은 경우, 상기 터치-드래그 입력에 따라 유저 캐릭터를 이동시키는 제3 프로그램 코드를 포함하는 것을 특징으로 하는 기록매체.
PCT/KR2012/009450 2012-07-06 2012-11-09 온라인 게임에서의 유저 제스처 입력 처리 방법 WO2014007437A1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US14/412,805 US20150157932A1 (en) 2012-07-06 2012-11-09 Method of processing user gesture inputs in online game
CN201280075683.6A CN104603823A (zh) 2012-07-06 2012-11-09 处理在线游戏中的用户手势输入的方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2012-0074111 2012-07-06
KR1020120074111A KR101398086B1 (ko) 2012-07-06 2012-07-06 온라인 게임에서의 유저 제스처 입력 처리 방법

Publications (1)

Publication Number Publication Date
WO2014007437A1 true WO2014007437A1 (ko) 2014-01-09

Family

ID=49882171

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2012/009450 WO2014007437A1 (ko) 2012-07-06 2012-11-09 온라인 게임에서의 유저 제스처 입력 처리 방법

Country Status (4)

Country Link
US (1) US20150157932A1 (ko)
KR (1) KR101398086B1 (ko)
CN (1) CN104603823A (ko)
WO (1) WO2014007437A1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018066862A1 (ko) * 2016-10-06 2018-04-12 주식회사 핀콘 좌표 공략 게임 시스템 및 방법

Families Citing this family (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104346032B (zh) * 2013-08-09 2019-07-26 联想(北京)有限公司 一种信息处理方法及电子设备
KR101628780B1 (ko) 2014-07-01 2016-06-09 (주)위메이드엔터테인먼트 터치스크린 기반 사용자 조작 입력 처리 장치, 방법 및 애플리케이션
US9904463B2 (en) * 2014-09-23 2018-02-27 Sulake Corporation Oy Method and apparatus for controlling user character for playing game within virtual environment
KR101639037B1 (ko) * 2015-01-28 2016-07-12 주식회사 두바퀴소프트 실시간 선택 스킬을 적용한 게임화면 표시방법 및 어플리케이션
US10286314B2 (en) * 2015-05-14 2019-05-14 Activision Publishing, Inc. System and method for providing continuous gameplay in a multiplayer video game through an unbounded gameplay session
KR101739840B1 (ko) * 2015-06-10 2017-05-25 (주)엔도어즈 게임 서비스 제공 장치 및 그 제어 방법
CN105148517B (zh) * 2015-09-29 2017-08-15 腾讯科技(深圳)有限公司 一种信息处理方法、终端及计算机存储介质
CN105498202A (zh) * 2015-11-26 2016-04-20 珠海网易达电子科技发展有限公司 全触屏划屏射击操作方式
CN105549884A (zh) * 2015-12-11 2016-05-04 杭州勺子网络科技有限公司 一种触屏的手势输入识别方法
KR20170104819A (ko) * 2016-03-08 2017-09-18 삼성전자주식회사 제스처를 가이드하는 전자 장치 및 그의 제스처 가이드 방법
CN106237615A (zh) * 2016-07-22 2016-12-21 广州云火信息科技有限公司 多单位元素技能操作方式
WO2018084169A1 (ja) * 2016-11-01 2018-05-11 株式会社コロプラ ゲーム方法およびゲームプログラム
WO2018216079A1 (ja) 2017-05-22 2018-11-29 任天堂株式会社 ゲームプログラム、情報処理装置、情報処理システム、および、ゲーム処理方法
JP6921193B2 (ja) * 2017-05-22 2021-08-18 任天堂株式会社 ゲームプログラム、情報処理装置、情報処理システム、および、ゲーム処理方法
JP6921192B2 (ja) 2017-05-22 2021-08-18 任天堂株式会社 ゲームプログラム、情報処理装置、情報処理システム、および、ゲーム処理方法
US10413814B2 (en) * 2017-06-09 2019-09-17 Supercell Oy Apparatus and method for controlling user interface of computing apparatus
CN107450812A (zh) * 2017-06-26 2017-12-08 网易(杭州)网络有限公司 虚拟对象控制方法及装置、存储介质、电子设备
CN107469344A (zh) * 2017-08-04 2017-12-15 上海风格信息技术股份有限公司 一种实现多人在线游戏移动终端点触操控的方法
CN109491579B (zh) * 2017-09-12 2021-08-17 腾讯科技(深圳)有限公司 对虚拟对象进行操控的方法和装置
KR102072093B1 (ko) * 2018-08-31 2020-03-02 주식회사 게임빈 웹 기반 서버-클라이언트 시스템에서 이미지 기반 게임 클라이언트의 보상 요청의 유효성을 검증하는 방법
KR102072092B1 (ko) * 2017-12-29 2020-01-31 주식회사 게임빈 웹 기반 서버-클라이언트 시스템에서 코드 기반 게임 클라이언트의 보상 요청 신호에 대한 유효성 검증 방법
CN109126129B (zh) * 2018-08-31 2022-03-08 腾讯科技(深圳)有限公司 在虚拟环境中对虚拟物品进行拾取的方法、装置及终端
US11045719B2 (en) * 2018-09-12 2021-06-29 King.Com Ltd. Method and computer device for controlling a touch screen
CN109513209B (zh) 2018-11-22 2020-04-17 网易(杭州)网络有限公司 虚拟对象处理方法及装置、电子设备以及存储介质
CN110393916B (zh) 2019-07-26 2023-03-14 腾讯科技(深圳)有限公司 视角转动的方法、装置、设备及存储介质
CN111282266B (zh) * 2020-02-14 2021-08-03 腾讯科技(深圳)有限公司 三维虚拟环境中的技能瞄准方法、装置、终端及存储介质
CN111481932B (zh) * 2020-04-15 2022-05-17 腾讯科技(深圳)有限公司 虚拟对象的控制方法、装置、设备和存储介质
CN111530075B (zh) * 2020-04-20 2022-04-05 腾讯科技(深圳)有限公司 虚拟环境的画面显示方法、装置、设备及介质
JP7270008B2 (ja) * 2020-09-08 2023-05-09 カムツス コーポレーション ゲーム提供方法、コンピュータプログラム、コンピュータ読取可能な記録媒体、およびコンピュータ装置
CA3160509A1 (en) * 2021-05-14 2022-11-14 Tencent Technology (Shenzhen) Company Limited Virtual object control method, apparatus, device, and computer-readable storage medium

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006175059A (ja) * 2004-12-22 2006-07-06 Konami Co Ltd ゲーム装置及びゲームプログラム
JP2007130367A (ja) * 2005-11-14 2007-05-31 Nintendo Co Ltd ゲーム装置およびゲームプログラム
KR20100098972A (ko) * 2009-03-02 2010-09-10 주식회사 엔씨소프트 온라인게임에서의 캐릭터 액션 입력장치 및 그 방법

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4260770B2 (ja) * 2005-05-09 2009-04-30 任天堂株式会社 ゲームプログラムおよびゲーム装置
US20060277466A1 (en) * 2005-05-13 2006-12-07 Anderson Thomas G Bimodal user interaction with a simulated object
US20110273380A1 (en) * 2010-05-07 2011-11-10 Research In Motion Limited Portable electronic device and method of controlling same

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006175059A (ja) * 2004-12-22 2006-07-06 Konami Co Ltd ゲーム装置及びゲームプログラム
JP2007130367A (ja) * 2005-11-14 2007-05-31 Nintendo Co Ltd ゲーム装置およびゲームプログラム
KR20100098972A (ko) * 2009-03-02 2010-09-10 주식회사 엔씨소프트 온라인게임에서의 캐릭터 액션 입력장치 및 그 방법

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
"''[Galaxy S2 Start] Gamevil, 2012 Professional baseball/2012'' My pitcher//Android Professional baseball''", NAVER BLOG, 27 October 2011 (2011-10-27), Retrieved from the Internet <URL:http://blog.naver.com/thescales?Redirect=Log&logNo=50124716308> *
"Applications Game Review] Battle Heart(Battle heart)", TISTORY BLOG, 26 August 2011 (2011-08-26), Retrieved from the Internet <URL:http://mysticvision.tistory.com/33.> *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018066862A1 (ko) * 2016-10-06 2018-04-12 주식회사 핀콘 좌표 공략 게임 시스템 및 방법

Also Published As

Publication number Publication date
KR20140006642A (ko) 2014-01-16
CN104603823A (zh) 2015-05-06
US20150157932A1 (en) 2015-06-11
KR101398086B1 (ko) 2014-05-30

Similar Documents

Publication Publication Date Title
WO2014007437A1 (ko) 온라인 게임에서의 유저 제스처 입력 처리 방법
US9492753B2 (en) Game control device, program, recording medium, game control method, game control system
CN113101652A (zh) 信息展示方法、装置、计算机设备及存储介质
CN113786620B (zh) 游戏信息推荐方法、装置、计算机设备及存储介质
WO2022037529A1 (zh) 虚拟对象的控制方法、装置、终端及存储介质
KR20140135276A (ko) 게임 스크린에 대한 사용자의 제스쳐 입력을 처리하는 장치 및 방법
CN114159789A (zh) 游戏交互方法、装置、计算机设备及存储介质
KR101407483B1 (ko) 터치 스크린을 구비한 모바일 단말기를 이용하여 온라인 게임을 수행하는 방법 및 시스템.
KR101404635B1 (ko) 온라인 게임에서의 드래그 입력 처리 방법
KR102609293B1 (ko) 게임 동작 결정 장치 및 방법
JP5409861B1 (ja) ゲームシステム及びゲーム制御方法
KR102260409B1 (ko) 게임 인터페이스 방법 및 장치
KR101417947B1 (ko) 온라인 게임에서의 유저 제스처 입력 처리 방법
CN104684622A (zh) 可显示评论的游戏系统以及评论显示控制方法
KR102584901B1 (ko) 이벤트 정보 송신 장치 및 방법, 이벤트 정보 출력 장치 및 방법
WO2013085196A1 (ko) 온라인 게임에서의 소셜 네트워크 서비스 제공 방법 및 이를 수행하는 서버
CN115040867A (zh) 一种游戏卡牌控制方法、装置、计算机设备及存储介质
CN114225412A (zh) 信息处理方法、装置、计算机设备及存储介质
CN115999153A (zh) 虚拟角色的控制方法、装置、存储介质及终端设备
CN114053714A (zh) 虚拟对象的控制方法、装置、计算机设备及存储介质
WO2013085189A1 (ko) 아이템 사용 서비스 제공 방법 및 서버
WO2013085105A1 (ko) 온라인 게임에서의 친구간의 전적 제공 방법 및 서버
KR102712772B1 (ko) 콘텐츠 내 오브젝트 선택 장치 및 선택 방법
WO2023193605A1 (zh) 虚拟道具的处理方法、装置、终端、介质及程序产品
KR102551096B1 (ko) 클라우드 게임 서비스 제공 장치 및 클라우드 게임 서비스 제공 방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12880626

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 14412805

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

32PN Ep: public notification in the ep bulletin as address of the adressee cannot be established

Free format text: NOTING OF LOSS OF RIGHTS PURSUANT TO RULE 112(1) EPC (EPO FORM 1205A DATED 29/05/2015)

122 Ep: pct application non-entry in european phase

Ref document number: 12880626

Country of ref document: EP

Kind code of ref document: A1