[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP7390400B2 - 仮想オブジェクトの制御方法並びにその、装置、端末及びコンピュータプログラム - Google Patents

仮想オブジェクトの制御方法並びにその、装置、端末及びコンピュータプログラム Download PDF

Info

Publication number
JP7390400B2
JP7390400B2 JP2021564931A JP2021564931A JP7390400B2 JP 7390400 B2 JP7390400 B2 JP 7390400B2 JP 2021564931 A JP2021564931 A JP 2021564931A JP 2021564931 A JP2021564931 A JP 2021564931A JP 7390400 B2 JP7390400 B2 JP 7390400B2
Authority
JP
Japan
Prior art keywords
skill
virtual
terminal
control
target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021564931A
Other languages
English (en)
Other versions
JP2022535675A (ja
Inventor
ウエイ,ジィアチョン
フゥ,シュン
スゥ,シャンドォン
Original Assignee
テンセント・テクノロジー・(シェンジェン)・カンパニー・リミテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by テンセント・テクノロジー・(シェンジェン)・カンパニー・リミテッド filed Critical テンセント・テクノロジー・(シェンジェン)・カンパニー・リミテッド
Publication of JP2022535675A publication Critical patent/JP2022535675A/ja
Priority to JP2023180873A priority Critical patent/JP2024019394A/ja
Application granted granted Critical
Publication of JP7390400B2 publication Critical patent/JP7390400B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/55Controlling game characters or game objects based on the game progress
    • A63F13/56Computing the motion of game characters with respect to other game characters, game objects or elements of the game scene, e.g. for simulating the behaviour of a group of virtual soldiers or for path finding
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • A63F13/426Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving on-screen location information, e.g. screen coordinates of an area at which the player is aiming with a light gun
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/214Input arrangements for video game devices characterised by their sensors, purposes or types for locating contacts on a surface, e.g. floor mats or touch pads
    • A63F13/2145Input arrangements for video game devices characterised by their sensors, purposes or types for locating contacts on a surface, e.g. floor mats or touch pads the surface being also a display device, e.g. touch screens
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/53Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
    • A63F13/533Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game for prompting the player, e.g. by displaying a game menu
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/53Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
    • A63F13/537Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game using indicators, e.g. showing the condition of a game character on screen
    • A63F13/5378Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game using indicators, e.g. showing the condition of a game character on screen for displaying an additional top view, e.g. radar screens or maps
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/55Controlling game characters or game objects based on the game progress
    • A63F13/58Controlling game characters or game objects based on the game progress by computing conditions of game characters, e.g. stamina, strength, motivation or energy level
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/80Special adaptations for executing a specific game genre or game mode
    • A63F13/822Strategy games; Role-playing games
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/90Constructional details or arrangements of video game devices not provided for in groups A63F13/20 or A63F13/25, e.g. housing, wiring, connections or cabinets
    • A63F13/92Video game devices specially adapted to be hand-held while playing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0486Drag-and-drop
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/50Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by details of game servers
    • A63F2300/55Details of game data or player data management
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/63Methods for processing data by generating or executing the game program for controlling the execution of the game in time
    • A63F2300/638Methods for processing data by generating or executing the game program for controlling the execution of the game in time according to the timing of operation or a time limit

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • User Interface Of Digital Computer (AREA)

Description

関連出願の相互参照
本願は、2020年05月14日に提出された、出願番号202010408457.1、発明の名称「仮想オブジェクトの制御方法、装置、端末及び記憶媒体」の中国特許出願の優先権を主張し、その内容の全てが参照によって本願に組み込まれる。
本願は、マンマシンインタラクション分野に関し、特に仮想オブジェクトの制御方法、装置、端末及び記憶媒体に関する。
コンピュータ技術の発展及び端末機能の多様化に伴い、多くの携帯電話ゲームが登場してきており、その中でもMOBA(Multiplayer Online Battle Arena、マルチプレイヤーオンラインバトルアリーナ)ゲームは携帯電話ゲームで極めて重要な種類のゲームになりつつある。現在のMOBAゲームでは、プレイヤーはターゲット仮想オブジェクトがある位置にスキルを発動するように制御することにより、該位置で該スキルの適用効果をトリガすることができる。
通常、プレイヤーはスキルを発動するとき、まずあるスキルコントロールをクリックし、該スキルコントロールにルーレット式仮想スティックをトリガして表示し、ルーレット式仮想スティックにおけるルーレット部と仮想シーンにおけるスキルの適用範囲とがマッピング関係にあり、さらにルーレット式仮想スティックにおけるスティック部をドラッグすることにより適用範囲内におけるスキルの適用方向及び適用位置を調整し、調整が完了した後にプレイヤーが手を離すと、初めて仮想シーンにおけるスティック部がマッピングされた位置でこのスキルを発動することができる。
上記ルーレット式仮想スティックに基づく適用方式を適用すると、ルーレット式仮想スティックと適用範囲とがマッピング関係にあるが、ルーレット式仮想スティックの大きさが通常変わらないため、適用範囲が大きい一部のスキルについて、そのマッピング比率が大きすぎ、プレイヤーがスティック部をドラッグする過程で、わずかな移動が生じても最終適用位置が広範囲にオフセットしてしまうため、照準精度が低く、ユーザが正確な照準を行うために複数回の照準操作を行う必要があり、端末がユーザの複数回の照準操作を受信し、照準操作が仮想シーンにマッピングされた適用位置を複数回計算する必要があり、端末の計算量が大きすぎ、端末の負荷が重くなる。
本願の実施例は、仮想オブジェクトの制御方法、装置、端末及び記憶媒体を提供し、MOBAにおけるスキル発動の照準精度を向上させ、ユーザが正確な照準を行う操作を簡略化し、照準過程における端末の計算量を低減し、端末の負荷を低減することができる。該技術案は、以下のとおりである。
一態様では、仮想オブジェクトの制御方法を提供し、端末に適用され、該方法は、
スキルコントロールに対する第1クリック操作に応答して、前記スキルのスキルタイプを取得するステップと、
前記スキルのスキルタイプがターゲットスキルであることに応答して、制御された仮想オブジェクトの存在位置及び前記スキルの適用範囲に基づいて、仮想シーンにおける前記スキルの適用可能領域を表示するステップであって、前記ターゲットスキルは画面クリックに基づいて適用位置を選択することをサポートするスキルである、ステップと、
前記適用可能領域に対する第2クリック操作に応答して、前記制御された仮想オブジェクトが前記第2クリック操作によって示される適用位置で前記スキルを発動するように制御するステップと、を含む。
一態様では、仮想オブジェクトの制御装置を提供し、該装置は、
スキルコントロールに対する第1クリック操作に応答して、前記スキルのスキルタイプを取得することに用いられる検出モジュールと、
前記スキルのスキルタイプがターゲットスキルであることに応答して、制御された仮想オブジェクトの存在位置及び前記スキルの適用範囲に基づいて、仮想シーンにおける前記スキルの適用可能領域を表示することに用いられる決定モジュールであって、前記ターゲットスキルは画面クリックに基づいて適用位置を選択することをサポートするスキルである決定モジュールと、
前記適用可能領域に対する第2クリック操作に応答して、前記制御された仮想オブジェクトが前記第2クリック操作によって示される適用位置で前記スキルを発動するように制御することに用いられる制御モジュールと、を含む。
一態様では、端末を提供し、該端末は、1つ以上のプロセッサと、1つ以上のメモリとを含み、該1つ以上のメモリに少なくとも1つのプログラムコードが記憶されており、該少なくとも1つのプログラムコードは、上記可能な実施形態のいずれかに記載の仮想オブジェクトの制御方法によって実行される操作を実現するために、該1つ以上のプロセッサによってロードされ実行される。
一態様では、コンピュータ可読記憶媒体を提供し、該コンピュータ可読記憶媒体に少なくとも1つのプログラムコードが記憶されており、該少なくとも1つのプログラムコードは、上記可能な実施形態のいずれかに記載の仮想オブジェクトの制御方法によって実行される操作を実現するために、プロセッサによってロードされ実行される。
一態様では、コンピュータプログラム製品又はコンピュータプログラムを提供し、該コンピュータプログラム製品又はコンピュータプログラムはコンピュータコマンドを含み、該コンピュータコマンドはコンピュータ可読記憶媒体に記憶されている。コンピュータ装置のプロセッサはコンピュータ可読記憶媒体から該コンピュータコマンドを読み取り、プロセッサが該コンピュータコマンドを実行することにより、該コンピュータ装置に上記選択可能な実施形態による仮想オブジェクトの制御方法を実行させる。
本願の実施例による技術案がもたらす有益な効果は、少なくとも以下を含む。
スキルコントロールをクリックする操作を受信することにより、仮想シーンにおいてスキルの適用可能領域を表示し、適用可能領域でのクリック操作を受信することにより、選択した適用位置を決定し、適用位置で制御された仮想オブジェクトがスキルを発動するように制御する。このように、スキルコントロールをまずクリックしてから仮想シーンにおいて適用位置をクリックすることによりスキル発動を行うマンマシンインタラクション方式は、仮想シーンにおいてスキル適用位置を直接選択することができるため、ルーレット式仮想スティックと適用位置とのマッピングを経る必要がなく、且つルーレット式仮想スティックが適用位置にマッピングされるときに生じるオフセット誤差を回避し、仮想シーンを直感的に観察することによりスキルの適用位置を正確に選択することができるため、より高い照準精度、より低い操作難易度を有し、これにより、より効率的なマンマシンインタラクション効率をもたらす。照準を正確に行うために必要な操作回数を低減し、照準過程で端末が受信した無効又は不正確な照準操作の回数を低減し、照準操作に要する時間を短縮し、端末がこの部分の無効又は不正確な照準操作に対してそれぞれそのマッピングされた適用位置を計算する必要がなくなり、端末が照準過程において照準操作がマッピングされた適用位置を計算する計算量を低減し、端末の負荷を低減し、スキル照準及び適用過程における端末の演算効率を向上させる。
本願の実施例による仮想オブジェクトの制御方法の実施環境を示す図である。 本願の実施例による仮想オブジェクトの制御方法のフローチャートである。 本願の実施例によるルーレット式仮想スティックの概略図である。 本願の実施例による仮想オブジェクトの制御方法のフローチャートである。 本願の実施例によるインタフェースの概略図である。 本願の実施例によるインタフェースの概略図である。 本願の実施例によるインタフェースの概略図である。 本願の実施例によるインタフェースの概略図である。 本願の実施例による仮想オブジェクトの制御方法のフローチャートである。 本願の実施例による画面をタッチしてスキルを発動する原理を示す図である。 本願の実施例による仮想オブジェクトの制御装置の概略構成図である。 本願の実施例による端末の概略構成図である。
本願の目的、技術案及び利点をより明確にするために、以下、図面を参照して本願の実施形態をさらに詳細に説明する。
本願において、用語「第1」「第2」などは、実質的に同一の作用及び機能を有する同一又は類似のものを区別することに用いられるものであり、理解されるように、「第1」、「第2」、「第n」の間に論理的又は時系列的な依存関係はなく、数及び実行順序も限定されない。
本願において、用語「少なくとも1つ」とは、1つ以上であり、「複数」とは、2つ以上であり、例えば、複数の第1位置とは、2つ以上の第1位置である。
本願の実施例の技術的過程の理解を容易にするために、以下、本願の実施例に係るいくつかの名詞について解釈する。
仮想シーン:アプリケーションが端末上で実行されるときに表示(又は提供)される仮想シーンである。該仮想シーンは、実世界に対するシミュレーション環境であってもよいし、半シミュレーション半架空の仮想環境であってもよいし、純架空の仮想環境であってもよい。仮想シーンは、2次元仮想シーン、2.5次元仮想シーン又は3次元仮想シーンのいずれであってもよく、本願の実施例は仮想シーンの次元を限定するものではない。例えば、仮想シーンは、空、陸、海などを含んでもよく、該陸は、砂漠、都市などの環境要素を含んでもよく、ユーザは、仮想オブジェクトが該仮想シーンにおいて移動するように制御することができる。選択可能に、該仮想シーンは、少なくとも2つの仮想オブジェクトの間の仮想シーン対戦にも用いられてもよく、該仮想シーンにおいて少なくとも2つの仮想オブジェクトが用いることができる仮想資源を有する。選択可能に、該仮想シーンには、対称的な2つの領域が含まれてもよく、2つの敵対陣営に属する仮想オブジェクトは、それぞれ一方の領域を占有し、且つ相手領域の奥深くにあるターゲット建物/拠点/基地/クリスタルを破壊することを勝利目標とし、ここで、対称的な領域は、例えば左下領域及び右上領域、また例えば左側中部領域及び右側中部領域などである。
仮想オブジェクト:仮想シーン内のアクティブオブジェクトである。該アクティブオブジェクトは、例えば、仮想シーンにおいて表示される人物、動物、植物、ドラム缶、壁、石などのような、仮想人物、仮想動物、アニメ・漫画人物などであってもよい。該仮想オブジェクトは、該仮想シーン内のユーザを表すことに用いられる仮想的なアバタであってもよい。仮想シーンには、複数の仮想オブジェクトを含んでもよく、各仮想オブジェクトは、仮想シーンにおいて独自の形状及び体積を有し、仮想シーン内の空間の一部を占有する。選択可能に、仮想シーンが3次元仮想シーンである場合、選択可能に、仮想オブジェクトは、3次元立体モデルであってもよく、該3次元立体モデルは、3次元人体骨格技術に基づいて構築された3次元キャラクタであってもよく、同一の仮想オブジェクトは、異なるスキンを着せることにより異なる外観を示すことができる。いくつかの実施例では、仮想オブジェクトは、2.5次元又は2次元モデルを用いて実現されてもよく、本願の実施例はこれに限定されるものではない。
選択可能に、該仮想オブジェクトは、クライアントでの操作によって制御されるプレイヤーキャラクタであってもよいし、訓練によって仮想シーン対戦に設置された人工知能(Artificial Intelligence、AI)であってもよいし、仮想シーンインタラクションに設置された非プレイヤーキャラクタ(Non-Player Character、NPC)であってもよい。選択可能に、該仮想オブジェクトは、仮想シーン内で競技を行う仮想人物であってもよい。選択可能に、該仮想シーン内でインタラクションに参加する仮想オブジェクトの数は、予め設置されていてもよいし、インタラクションに参加するクライアントの数に応じて動的に決定されてもよい。
MOBA(Multiplayer Online Battle Arena、マルチプレイヤーオンラインバトルアリーナ)ゲーム:仮想シーンにおいて複数の拠点を提供し、異なる陣営にいるユーザが仮想オブジェクトを制御して仮想シーンで対戦させ、拠点を占領したり、敵対陣営拠点を破壊したりするゲームである。例えば、MOBAゲームは、ユーザを少なくとも2つの敵対陣営に分けることができ、少なくとも2つの敵対陣営に属する異なる仮想チームがそれぞれの地図領域を占有し、ある勝利条件を目標として競技する。該勝利条件は、拠点の占領又は敵対陣営拠点の破壊、敵対陣営の仮想オブジェクトの撃殺、指定されたシーン及び時間内での自身の生存保証、何らかの資源の奪取、指定時間内におけるインタラクションスコアが相手を超えることのうちの少なくとも1つを含むがこれらに限定されない。例えば、MOBAゲームは、ユーザを2つの敵対陣営に分けることができ、ユーザが制御する仮想オブジェクトを仮想シーンに分散させて競い合うことにより、敵の全拠点を破壊又は占領することを勝利条件とする。
選択可能に、各仮想チームは、1つ、2つ、3つ又は5つなどの1つ以上の仮想オブジェクトを含み、戦術競技に参加する各チーム内の仮想オブジェクトの数に応じて、戦術競技を1V1競技マッチ、2V2競技マッチ、3V3競技マッチ、5V5競技マッチなどに分けることができ、ここで、1V1とは「1対1」の意味であるため、ここでは説明を省略する。
選択可能に、MOBAゲームは、回(又はラウンドと呼ばれる)単位で行われてもよく、1回ごとに戦術競技の地図が同じであっても異なっていてもよい。1回のMOBAゲームの継続時間は、ゲームが開始する時点から勝利条件が達成される時点までである。
MOBAゲームでは、ユーザは、仮想オブジェクトが該仮想シーンの空を自由に落下したり、滑空したり、パラシュートを開いて落下したりすることなど、陸上を走ったり、跳ねたり、這いたり、腰をかがめて進んだりすることなどのように制御することができ、仮想オブジェクトが海で遊泳したり、浮揚したり、潜水したりすることなどのように制御することもできるが、ここでは上記シーンのみを例として説明し、本願の実施例はこれに特に限定されるものではない。
MOBAゲームでは、ユーザは、仮想オブジェクトがスキルを発動することにより他の仮想オブジェクトと戦うように制御することもでき、例えば、該スキルのスキルタイプは、攻撃スキル、防御スキル、治療スキル、補助スキル、斬殺スキルなどを含んでもよく、各仮想オブジェクトはそれぞれ特定の1つ以上のスキルを有することができ、異なる仮想オブジェクトは通常異なるスキルを有し、異なるスキルは異なる適用効果を発生させることができる。例えば、仮想オブジェクトが攻撃スキルを発動して敵対仮想オブジェクトに命中すると、敵対仮想オブジェクトに一定のダメージを与え、通常は敵対仮想オブジェクトの一部の仮想ライフ値を差し引くように表現され、また例えば、仮想オブジェクトが治療スキルを発動して友達側仮想オブジェクトに命中すると、友達側仮想オブジェクトに一定の治療を与え、通常は友達側仮想オブジェクトの一部の仮想ライフ値を回復するように表現され、他の各タイプのスキルはいずれも相応の適用効果を発生させることができ、ここでは1つずつ列挙しない。
以下、本願に係るシステムアーキテクチャについて紹介する。
図1は、本願の実施例による仮想オブジェクトの制御方法の実施環境を示す図である。図1を参照すると、該実施環境は、第1端末120と、サーバ140と、第2端末160とを含む。
第1端末120は、仮想シーンをサポートするアプリケーションをインストールして実行する。該アプリケーションは、MOBAゲーム、大規模なマルチプレイヤーオンラインロールプレイングゲーム(Massively Multiplayer Online Role Playing Game、MMORPG)、ファーストパーソン・シューティングゲーム(First-Person Shooting game、FPS)、サードパーソン・シューティングゲーム、仮想現実アプリケーション、3次元地図プログラム、軍事シミュレーションプログラム又はマルチプレイヤーガンバトルサバイバルゲームのいずれかであってもよい。第1端末120は、第1ユーザによって用いられる端末であってもよく、第1ユーザは、第1端末120を用いて仮想シーン内に位置する第1仮想オブジェクトを操作して活動させ、該活動は、スキル発動、身体姿勢調整、這い、歩行、ランニング、サイクリング、ジャンプ、運転、ピッキング、射撃、攻撃、投擲のうちの少なくとも1つを含むがこれらに限定されない。例示的に、第1仮想オブジェクトは、第1仮想人物であり、例えばシミュレーションキャラクタ又はアニメ・漫画キャラクタである。
サーバ140は、1つのサーバ、複数のサーバ、クラウドコンピューティングプラットフォーム又は仮想化センターのうちの少なくとも1つを含んでもよい。サーバ140は、仮想シーンをサポートするアプリケーションにバックグラウンドサービスを提供することに用いられる。選択可能に、サーバ140は主要な計算作業を担当してもよく、第1端末120及び第2端末160は副次的な計算作業を担当してもよく、又は、サーバ140は副次的な計算作業を担当し、第1端末120及び第2端末160は主要な計算作業を担当し、又は、サーバ140、第1端末120及び第2端末160の3つの間で分散計算アーキテクチャを用いて協調計算を行う。
第2端末160は、仮想シーンをサポートするアプリケーションをインストールして実行する。該アプリケーションは、MOBAゲーム、MMORPGゲーム、FPSゲーム、サードパーソン・シューティングゲーム、仮想現実アプリケーション、3次元地図プログラム、軍事シミュレーションプログラム又はマルチプレイヤーガンバトルサバイバルゲームのいずれかであってもよい。第2端末160は、第2ユーザによって用いられる端末であってもよく、第2ユーザは、第2端末160を用いて仮想シーン内に位置する第2仮想オブジェクトを操作して活動させ、該活動は、スキル発動、身体姿勢調整、這い、歩行、ランニング、サイクリング、ジャンプ、運転、ピッキング、射撃、攻撃、投擲のうちの少なくとも1つを含むがこれらに限定されない。例示的に、第2仮想オブジェクトは、第2仮想人物であり、例えばシミュレーションキャラクタ又はアニメ・漫画キャラクタである。
第1端末120及び第2端末160は、有線又は無線通信方式によってサーバ140と直接又は間接的に接続されてもよく、本願の実施例はここでは接続方式を限定しない。
いくつかの実施例では、第1端末120によって制御される第1仮想オブジェクト及び第2端末160によって制御される第2仮想オブジェクトは、同一の仮想シーンにあり、このとき、第1仮想オブジェクトは、仮想シーンにおいて第2仮想オブジェクトとインタラクションすることができる。上記第1仮想オブジェクト及び第2仮想オブジェクトは敵対関係であってもよく、例えば、第1仮想オブジェクトと第2仮想オブジェクトとは、異なるチーム及び陣営に属してもよく、敵対関係の仮想オブジェクト同士は、互いにスキルを発動するように対戦することができ、例えば、第1仮想オブジェクトは、第2仮想オブジェクトに攻撃スキルを発動する。他のいくつかの実施例では、第1仮想オブジェクト及び第2仮想オブジェクトは、チームメイト関係であってもよく、例えば、第1仮想人物及び第2仮想人物は、同一のチーム、同一の組織に属し、友人関係を有するか又は一時的な通信権限を有してもよく、この場合、第1仮想オブジェクトは、第2仮想オブジェクトに治療スキルを発動することができる。
上記サーバ140は、独立した物理サーバであってもよいし、複数の物理サーバからなるサーバクラスタ又は分散システムであってもよいし、クラウドサービス、クラウドデータベース、クラウドコンピューティング、クラウド関数、クラウドストレージ、ネットワークサービス、クラウド通信、ミドルウェアサービス、ドメインサービス、セキュリティサービス、コンテンツ配信ネットワーク(Content Delivery Network、CDN)及びビッグデータ及び人工知能プラットフォームなどの基盤クラウドコンピューティングサービスを提供するクラウドサーバであってもよい。
上記第1端末120又は第2端末160は、スマートフォン、タブレットコンピュータ、ノートパソコン、デスクトップコンピュータ、スマートスピーカー、スマートウォッチ、MP3(Moving Picture Experts Group Audio Layer III、動画像エキスパート圧縮標準オーディオレベル3)プレーヤー、MP4(Moving Picture Experts Group Audio Layer IV、動画像エキスパート圧縮標準オーディオレベル4)プレーヤー、電子書籍リーダーなどであってもよいが、これらに限定されない。
なお、第1端末120及び第2端末160にインストールされるアプリケーションは、同じであってもよく、又は2つの端末にインストールされるアプリケーションは、異なるオペレーティングシステムプラットフォームの同一のタイプのアプリケーションである。第1端末120は、複数の端末のうちの1つを包括的に指すことができ、第2端末160は、複数の端末のうちの1つを包括的に指すことができ、本実施例は、第1端末120及び第2端末160のみを例として説明する。第1端末120及び第2端末160の装置タイプは同じであってもよく、又は異なっていてもよい。当業者には理解されるように、上記端末の数は、より多くても少なくてもよい。例えば上記端末は1つのみであってもよく、又は上記端末は数十個、数百個、又はそれ以上であってもよい。本願の実施例は、端末の数及び装置タイプを限定するものではない。
図2は、本願の実施例による仮想オブジェクトの制御方法のフローチャートである。図2を参照すると、該実施例は、端末に適用され、該端末は、図1に示す第1端末120又は第2端末160であってもよく、該実施例は、下記ステップを含む。
201、スキルコントロールに対する第1クリック操作に応答して、端末は該スキルのスキルタイプを取得する。
ここで、該端末は、いずれかのユーザによって用いられる端末であってもよく、該端末が現在制御する仮想オブジェクトは、制御された仮想オブジェクトであり、制御された仮想オブジェクトは、スキルを発動することにより、仮想シーンにおける他の仮想オブジェクトとの間で対抗行為を行うことができ、ここで関わる発動したスキルは、制御された仮想オブジェクトに固有の1つ以上のスキルであってもよく、又は、該スキルは、制御された仮想オブジェクトがある仮想アイテムを装着した後に該仮想アイテムを適用することにより発動する1つ以上のスキルであってもよく、本願の実施例は、スキルソースを特に限定するものではない。選択可能に、該スキルのスキルタイプは攻撃スキル、防御スキル、治療スキル、補助スキル、斬殺スキルなどを含んでもよく、本願の実施例は、スキルタイプを特に限定するものではない。
いくつかの実施例では、端末はユーザのオープニング操作に応答して、オープニングインタフェースを表示し、該オープニングインタフェースは、仮想オブジェクトの選択コントロール、仮想アイテムの選択コントロールなどを含んでもよい。ここで、オープニング操作は、1回のゲームの起動をトリガすることに用いられ、これはオープニングコントロールに対するクリック操作などであってもよく、本願の実施例は、オープニング操作のタイプを限定するものではない。オープニングインタフェースは、今回の制御された仮想オブジェクトを制御することに用いられる。該端末は、該オープニングインタフェースにおける各仮想オブジェクトに対するユーザの選択操作をリアルタイムで検出し、選択された仮想オブジェクトを今回で戦う制御された仮想オブジェクトとして決定することができ、選択可能に、該選択操作は、クリック操作、長押し操作などであってもよいし、いずれかの仮想オブジェクトに対応するショートカットキーに対するトリガ操作であってもよく、本願の実施例はこれに限定されない。いくつかのMOBAゲームでは、ユーザは複数の仮想オブジェクトを一度に選択して戦い、且つ対戦で同時に複数の仮想オブジェクトを制御して戦うことができるため、本願の実施例における制御された仮想オブジェクトとは、ユーザが現在操作している仮想オブジェクトであり、俗に「主操作仮想オブジェクト」と呼ばれる。
ユーザがオープニングインタフェースにおいて制御された仮想オブジェクトを選択した後、端末は今回のゲームを開始し、仮想シーンをロードし、仮想シーンの仮想シーン画面及び制御された仮想オブジェクトが有する少なくとも1つのスキルのスキルコントロールを表示し、且つ仮想シーンにおいて制御された仮想オブジェクトを表示する。例示的に、スキルコントロールは、仮想シーンの仮想シーン画面の上層に表示され、即ち、スキルコントロールは、仮想シーン画面の一部を隠す。
選択可能な一実施形態では、端末はユーザインタフェースを表示し、ユーザインタフェースは仮想シーン画面とスキルコントロールとを含み、仮想シーン画面は制御された仮想オブジェクトを観察対象として仮想シーンを観察することにより得られる画面である。
該スキルコントロールは、スキルのユーザインタラクションインタフェースを提供することに用いられ、例えば、該スキルコントロールは、グラフィックスボタンの方式でユーザインタフェースにホバリング表示されてもよく、該グラフィックスボタンは、円形ボタン、矩形ボタン、又は不規則な形状のボタンであってもよく、本願の実施例は、スキルコントロールの表示方式を特に限定するものではない。選択可能に、スキルコントロールには、対応するスキルのスキル識別子を表示してもよく、該スキル識別子は1つの識別子パターンであってもよく、又は識別子テキストの文字列であってもよく、又は識別子コードの文字列であってもよい。
いくつかの実施例では、端末は、仮想シーンにおいて他のUI(User Interface、ユーザインタフェース)コントロール、例えば地図コントロール、ストアコントロール、移動スティックなどを表示してもよく、本開示の実施例は、仮想シーンにおいて表示されるコントロールコンテンツを特に限定するものではない。なお、本願の実施例では、スキルコントロール以外のUIコントロールについて、「非スキルコントロール」と呼ばれる。
ここで、地図コントロールは、全地図レーダー表示コントロールとも呼ばれ、ユーザが地図コントロールを観察することにより他の仮想単位の位置を取得するために、仮想環境における各仮想単位のリアルタイム位置を表示することに用いられる情報表示コントロールである。地図コントロールには、仮想シーンの俯瞰地図、即ち、小地図が表示される。小地図は、ユーザが仮想シーンの地形的特徴を観察するのを容易にする。小地図には、主要仮想単位の地図マークも表示され、地図マークは小地図に仮想単位のリアルタイム位置をラベル付けすることに用いられる。主要仮想単位は、ゲーム対戦進行に影響を与えることができる仮想オブジェクト、仮想建物、仮想乗り物、仮想動物、仮想アイテム、NPC(Non-Player Character、非プレイヤーキャラクタ)のうちの少なくとも1つを含む。例示的に、仮想オブジェクトは、ユーザ又は人工知能によって制御される仮想単位である。例示的に、仮想動物は、仮想野獣を含む。
ユーザがいずれかのスキルのスキルコントロールをクリックすることにより、端末は該スキルコントロールに対するユーザの第1クリック操作に応答して、該スキルのスキルタイプを取得し、ここで、該スキルタイプは、ターゲットスキルと、ターゲットスキル以外のスキルとを含んでもよく、該ターゲットスキルは、画面クリックに基づいて適用位置を選択することをサポートするスキルである。上記過程は、該スキルのスキルタイプがターゲットスキルであるか否かを検出する過程と見なすことができ、端末はターゲットスキルのスキルタイプにターゲットスキル識別子を追加することができ、これにより該スキルのスキルタイプがターゲットスキル識別子を有するか否かを検出することにより、該スキルのスキルタイプがターゲットスキルであるか否かを決定することができ、該スキルのスキルタイプがターゲットスキル識別子を有することを検出した場合、該スキルのスキルタイプがターゲットスキルであると決定し、下記ステップ202を実行し、そうでなければ、該スキルのスキルタイプがターゲットスキル識別子を有しないことを検出した場合、該スキルのスキルタイプがターゲットスキルではないと決定し、フローを終了し、選択可能に、該ターゲットスキル識別子は、IsFullScreenSkill識別子であってもよく、ターゲットスキルは、端末の画面全体でクリック操作によって発動をトリガすることができ、このような適用方式は、関連技術ではルーレット式仮想スティックに基づく操作メカニズムと区別されるため、ターゲットスキルは俗に「全画面スキル」、「画面タッチスキル」と呼ばれることもできる。
例示的に、スキルコントロールは、ルーレット式仮想スティックコントロールである。図3に示すように、第1ユーザインタフェースに円形のスキルコントロール325が表示され、ユーザがスキルコントロール325を押すことによりスキルコントロールのルーレット式仮想スティック327を呼び出すことができ、ルーレット式仮想スティックは、大円328(ルーレット部)と小円329(リモートセンシング部)とからなり、大円328はルーレット式仮想スティックの操作可能範囲であり、小円329はユーザの指が現在押している位置であり、ユーザは大円328の範囲内で小円329を任意にスライドさせることができる。例示的に、該ルーレット式仮想スティックは、方向型スティック又は位置型スティックであり、ルーレット式仮想スティックは、小円329が仮想スティックの中心点320からオフセットする方向又は位置に基づいて、ユーザが操作する方向又は位置を決定し、該方向又は位置に基づいて仮想シーンにおいて照準の方向又は位置を決定し、さらにユーザが現在の小円329が位置する位置で手を離すときに制御された仮想オブジェクトが仮想シーンにおける照準の方向又は位置でスキルを発動するように制御する。例示的に、ユーザがスキルコントロールを操作することによりスキルを発動する操作は、スキルコントロールを押したままルーレット式仮想スティックを呼び出し、ルーレット式仮想スティックをターゲット方向又はターゲット位置にドラッグし、ルーレット式仮想スティックを緩めてスキルを発動する。
関連技術では、ユーザはスキルを発動するとき、まずあるスキルコントロールをクリックし、該スキルコントロールにルーレット式仮想スティックをトリガして表示し、ルーレット式仮想スティックのルーレット部と仮想シーンにおけるスキルの適用範囲とがマッピング関係にあり、さらにルーレット式仮想スティックにおけるスティック部をドラッグすることにより適用範囲内における現在選択されているスキルの適用方向又は適用位置を調整し、調整が完了した後にユーザが手を離すと、初めてスティック部がマッピングされた位置でこのスキルを発動することができる。このようなルーレット式仮想スティックに基づく適用方式は、ルーレット式仮想スティックと適用範囲とがマッピング関係にあるが、ルーレット式仮想スティックの大きさが通常変わらないため、適用範囲が大きい一部のスキルについて、そのマッピング比率が大きすぎ、ユーザがスティック部をドラッグする過程で、わずかな移動が生じても最終適用位置が広範囲にオフセットしてしまうため、照準精度が低く、操作難易度が高く、マンマシンインタラクション効率が低く、さらにユーザ体験に影響を与える。
一方、本願の実施例では、ターゲットスキルは、ルーレット式仮想スティックに基づいて発動する必要がなく、画面に対するユーザのクリック操作に直接基づいて適用位置を選択することができるスキルであり、ユーザは直接仮想シーンにおいてある適用位置をクリックしてスキルを発動することができ、「見れば得られる」のインタラクション効果を達成することができ、ルーレット式仮想スティックと仮想シーンとの間のマッピングを経る必要がないため、適用範囲の大きい一部のスキルに対しても依然として良好な照準精度を維持することができ、つまりスキル発動の照準精度を大幅に向上させ、スキル発動の操作難易度を低減させることができ、これによりマンマシンインタラクション効率を向上させ、ユーザ体験を最適化し、以下、ターゲットスキルをどのように発動するかについて詳細に説明する。
202、該スキルのスキルタイプがターゲットスキルであることに応答して、端末は制御された仮想オブジェクトの存在位置及び該スキルの適用範囲に基づいて、該仮想シーンにおけるスキルの適用可能領域を表示し、該ターゲットスキルは画面クリックに基づいて適用位置を選択することをサポートするスキルである。
上記過程で、該スキルのスキルタイプがターゲットスキルであることを検出した場合、端末は制御された仮想オブジェクトの存在位置を適用可能領域の円心として決定し、該スキルの最も遠い適用距離を該適用可能領域の半径として決定することができ、これにより1つの円形の適用可能領域を決定する。例えば、ユーザがスキル1をクリックすると、スキル1の適用範囲が6尺であるため、仮想シーンにおいて、制御された仮想オブジェクトの存在位置の周囲6尺の円形領域をスキル1の適用可能領域として決定する。
いくつかの実施例では、端末は、該仮想シーンにおいて該適用可能領域の適用テンプレートを表示することもでき、該適用テンプレートは、該適用テンプレート以外の領域において該スキルを発動することが無効であることを示すことに用いられる。このとき、画面内の1つの位置点に対するユーザのクリック操作を検出すると、端末は、該位置点が該適用テンプレート内に位置するか否かを検出することにより、該位置点が適用可能領域内に位置するか否かを検出することができ、具体的には、該位置点が該適用テンプレート内に位置する場合、該位置点が適用可能領域内に位置すると決定し、下記ステップ203を実行し、そうでなければ、該位置点が該適用テンプレート内に位置しない場合、該位置点が適用可能領域外に位置すると決定し、スキルを発動せず、今回のクリック操作を無効操作又は誤操作と見なす。
スキルタイプはスキルを発動するマンマシンインタラクション操作方式からスキルを分類するものである。スキルは、スキルコントロールをクリックすると自動的に発動するスキル、スキルコントロールを押してルーレット式仮想スティックを呼び出し、ルーレット式仮想スティックを用いて仮想シーンにおいて適用方向に照準を合わせて手を離して発動するスキル、スキルコントロールを押してルーレット式仮想スティックを呼び出し、ルーレット式仮想スティックを用いて仮想シーンにおいて適用位置に照準を合わせて手を離して発動するスキルなど、スキル発動操作の違いによって複数のタイプに分類することができる。一方、ターゲットスキルとは、仮想シーン(仮想シーン画面)をクリックすることにより適用位置を選択し、さらにスキル発動を行うことができるスキルである。スキルのスキルタイプはターゲットスキルであり、即ち、該スキルは、スキルコントロールをクリックした後、仮想シーンにおいてクリック操作を行って適用位置を選択してスキルを発動するという発動操作によってスキルを発動することを可能とする。もちろん、同一のスキルは、複数の発動操作をサポートすることができ、例示的に、該スキルが画面クリックに基づいて適用位置を選択することを可能とするスキルであれば、該スキルのスキルタイプはターゲットスキルを含む。
203、該適用可能領域に対する第2クリック操作に応答して、端末は該制御された仮想オブジェクトが該第2クリック操作によって示される適用位置で該スキルを発動するように制御する。
上記過程で、端末が該適用可能領域に対するユーザの第2クリック操作を検出すると、端末は、該制御された仮想オブジェクトが該第2クリック操作によって示される適用位置で該スキルを発動するように制御し、該スキルの適用効果を決済する。スキルタイプによって、適用効果の決済ルールが異なる。
1つの例示的なシーンにおいて、単体攻撃の攻撃スキルについて、端末は、該適用位置に他の仮想オブジェクトが存在するか否かを検出することができ、該適用位置に他の仮想オブジェクトが存在する場合、該攻撃スキルが他の仮想オブジェクトに命中したと決定し、且つ他の仮想オブジェクトの仮想ライフ値を一定の数値で差し引き、そうでなければ、該適用位置に他の仮想オブジェクトが存在しない場合、該攻撃スキルが他の仮想オブジェクトに命中しなかったと決定し、今回発動されたスキルがターゲットからオフセットしたことを意味する。
1つの例示的なシーンにおいて、一部のAOE(Area Of Effect、範囲攻撃)スキルについて、ユーザがクリックした適用位置が実際にはスキル攻撃範囲の中心点であり、端末は、該適用位置の周囲のターゲット距離内に他の仮想オブジェクトが存在するか否かを検出することができ、該適用位置の周囲のターゲット距離内に他の仮想オブジェクトが存在する場合、該攻撃スキルが他の仮想オブジェクトに命中したと決定し、且つ他の仮想オブジェクトの仮想ライフ値を一定の数値で差し引き、そうでなければ、該適用位置の周囲のターゲット距離内に他の仮想オブジェクトが存在しない場合、該攻撃スキルが他の仮想オブジェクトに命中しなかったと決定し、今回発動されたスキルがターゲットからオフセットしたことを意味する。
上記2つの例示的なシーンにおいて、他の仮想オブジェクトは、他のユーザが端末を介して操作する仮想オブジェクトを指してもよく、仮想アイテム、仮想NPC、仮想兵士、仮想建物などを指してもよく、本開示の実施例は、スキルが命中可能な他の仮想オブジェクトのタイプを特に限定するものではない。
本願の実施例による方法は、仮想シーンにおけるいずれかのスキルに対する第1クリック操作に応答して、該スキルのスキルタイプを取得し、該スキルのスキルタイプが画面クリックに基づいて適用位置を選択することをサポートするターゲットスキルであることに応答して、制御された仮想オブジェクトの存在位置及び該スキルの適用範囲に基づいて、該仮想シーンにおいて該スキルの適用可能領域を決定し、該適用可能領域に対する第2クリック操作に応答して、該制御された仮想オブジェクトが該第2クリック操作によって示される適用位置で該スキルを発動するように制御し、このように、スキルをまずクリックしてから適用位置をクリックすることによりスキル発動を行うマンマシンインタラクション方式は、簡単な2回のクリック操作に基づいてスキルを発動することができ、ルーレット式仮想スティック及びスキルスティックに基づいて複雑なドラッグ操作を行う必要がなく、且つルーレット式仮想スティックが適用範囲にマッピングされるときに生じるオフセット誤差を回避するため、より高い照準精度、より低い操作難易度を有し、これにより、より効率的なマンマシンインタラクション効率をもたらし、ユーザ体験を改善する。
図4は、本願の実施例による仮想オブジェクトの制御方法のフローチャートである。図4を参照すると、該実施例は、端末に適用され、該端末は、図1に示す第1端末120又は第2端末160であってもよく、該実施例は、下記ステップを含む。
300、端末は仮想シーンを表示する。
端末は仮想シーンの仮想シーン画面とスキルコントロールとを表示し、仮想シーン画面は仮想シーン内に位置する制御された仮想オブジェクトを含む。スキルコントロールを表示する過程で、端末はターゲットプロファイルを読み取ることができ、該ターゲットプロファイルには該制御された仮想オブジェクトの構成情報が記憶されており、該ターゲットプロファイルにおける構成情報に基づいて、該制御された仮想オブジェクトが有する少なくとも1つのスキル、及び該少なくとも1つのスキルそれぞれのメタ情報を決定することができ、該メタ情報には、各スキルのスキル名、発動メカニズム、適用メカニズム、冷却時間長、持続時間長、適用効果などを含んでもよく、もちろん、該メタ情報には、クリックされたスキルがターゲットスキルであるか否かを検出するために、各スキルがターゲットスキル識別子(例えばIsFullScreenSkill識別子)を有するか否かを示すこともでき、後のステップ304で説明し、ここでは説明を省略する。
301、端末は画面に対する第1クリック操作を検出すると、該第1クリック操作によって示される位置にユーザインタフェースUIコントロールが存在することに応答して、該UIコントロールのコントロールタイプを取得する。
ここで、該UIコントロールのコントロールタイプはスキルコントロールと非スキルコントロールとを含み、該スキルコントロールはいずれかのスキルのUIコントロールであり、該非スキルコントロールはスキルコントロール以外のUIコントロールであり、該非スキルコントロールは、地図コントロール(俗に「小地図」と呼ばれる)、ストアコントロール(仮想装備又は仮想アイテムを購入することに用いられるコントロール)、移動スティック(制御された仮想オブジェクトが仮想シーンにおいて変位するように制御することに用いられるコントロール)などを含むがこれらに限定されず、なお、ここでの移動スティックは関連技術におけるスキルコントロールのルーレット式仮想スティックとは異なり、移動スティックは制御された仮想オブジェクトの移動を制御することに用いられるのに対し、スキルコントロールのルーレット式仮想スティックはスキルの適用方向又は適用位置に照準を合わせることに用いられる。
上記過程で、ユーザは画面内の1つの位置をクリックすることができ、端末は該仮想シーンに対するユーザの第1クリック操作を検出すると、該第1クリック操作によって示される位置にUIコントロールが存在するか否かを検出し、該位置にUIコントロールが存在する場合、該UIコントロールのコントロールタイプを取得する。具体的には、端末はユーザがクリックした該位置の画面座標を取得し、該位置の画面座標が全てのUIコントロールのカバー領域内に位置するか否かを検出することができ、該位置の画面座標がいずれかのUIコントロールのカバー領域内に位置する場合、該位置にUIコントロールが存在すると決定し、該UIコントロールのコントロールタイプを取得し、該UIコントロールのコントロールタイプがスキルコントロールである場合、下記ステップ302を実行し、そうでなければ、該位置の画面座標が全てのUIコントロールのカバー領域内に位置しない(該位置にUIコントロールが存在しないと決定する)か、又は該UIコントロールのコントロールタイプが非スキルコントロールである場合、フローを終了する。
これは、画面(ユーザインタフェース)において、UIコントロールが通常、仮想シーンの上層にホバリング表示されるため、ユーザが1つの位置をクリックすると、端末は該位置にUIコントロールが存在するか否かを検出し、及びUIコントロールのコントロールタイプを取得する必要があり、UIコントロールのコントロールタイプが非スキルコントロールである場合、今回のクリック操作によってトリガされたイベントがスキル発動イベントではないことを示し、フローを終了し、そうでなければ、UIコントロールのコントロールタイプがスキルコントロールである場合、下記ステップ302によってさらに判断する必要がある。
302、端末は該UIコントロールのコントロールタイプが該スキルに対応するスキルコントロールであることに応答して、他のスキルコントロールのトリガ状態を取得し、該他のスキルコントロールは該スキル以外の他のスキルのスキルコントロールである。
端末は上記ステップ301により該位置にスキルコントロールが存在するか否かを検出することができ、該位置にスキルコントロールが存在する場合、他のスキルコントロールのトリガ状態を検出し続け、トリガ済み状態にある他のスキルコントロールが存在する場合、ユーザが他のスキルを発動しているか、又はユーザが2つのスキルのスキルコントロールを同時に押したことを示し、ユーザが2つのスキルを同時に発動することができないため、今回のクリック操作を無効操作又は誤操作として決定し、フローを終了し、そうでなければ、トリガ済み状態にある他のスキルコントロールが存在しない場合、下記ステップ303を実行する。
いくつかの実施例では、いずれかのスキルのスキルコントロールがクリックされると、端末は該スキルに1つのマスキング識別子CurSkillを割り当てることができ、該マスキング識別子CurSkillは、現在操作しているスキルの一意性を保証するために、該スキル以外の他のスキルのクリックイベントをマスキングすることに用いられ、したがって、端末はトリガ済み状態にある他のスキルコントロールが存在するか否かを検出するとき、いずれかのスキルがマスキング識別子CurSkillを有することが現在存在するか否かを検出するだけで、いずれかのスキルがマスキング識別子CurSkillを有することが存在する場合、トリガ状態にある他のスキルコントロールが存在すると決定し、フローを終了し、そうでなければ、全てのスキルがマスキング識別子CurSkillを有しない場合、トリガ済み状態にある他のスキルコントロールが存在しないと決定し、下記ステップ303を実行する。
上記過程で、端末が該位置にUIコントロールが存在することに応答して、該UIコントロールのコントロールタイプがスキルコントロールである場合、ユーザが該スキルのスキルコントロールをクリックしたことを示し、一方、ユーザが2つのスキルを同時に操作することができないため、上記ステップ302により既に他のスキルが押されたか否かを判断する必要があり、何らかの他のスキルが押されていなかった場合にのみ、下記ステップ303を実行し、そうでなければフローを終了する。
303、端末は該他のスキルコントロールがトリガ済み状態ではないことに応答して、該仮想シーンにおける該スキルに対する第1クリック操作を検出したと決定する。
上記過程で、ステップ301によりユーザがクリックした位置にUIコントロールが存在することが保証され、ステップ302によりユーザが該スキルを既にクリックし、且つ現在2つのスキルを同時に操作しないことが保証され、したがって、該スキルに対するユーザの第1クリック操作を決定することができ、下記ステップ304を実行する。
図5は、本願の実施例によるインタフェースの概略図であり、図5を参照すると、仮想シーン400において、スキル1~4のそれぞれに対応するスキルコントロール401~404を含み、ユーザがスキルコントロール404をクリックした後、端末はタッチポイントにおけるUIコントロールのタイプがスキルコントロールであり、且つトリガ状態にある他のスキルコントロールが存在しないことを検出することにより、スキル4に対する第1クリック操作を検出したと決定することができる。
304、端末はスキルコントロールに対する第1クリック操作に応答して、該スキルのスキルタイプを取得する。
上記ステップ304において、ユーザが該仮想シーンにおけるいずれかのスキルのスキルコントロールをクリックすることにより、端末は該スキルに対するユーザの第1クリック操作に応答して、該スキルのスキルタイプを取得することができ、ここで、該スキルタイプはターゲットスキルと、ターゲットスキル以外のスキルとを含んでもよく、該ターゲットスキルは画面クリックに基づいて適用位置を選択することをサポートするスキルである。
上記過程は該スキルのスキルタイプがターゲットスキルであるか否かを検出する過程と見なすことができ、端末はターゲットプロファイルにおいて制御された仮想オブジェクトが備える少なくとも1つのスキルのうちのターゲットスキルのスキルタイプにターゲットスキル識別子を追加することができ、これによりターゲットプロファイルにおいて該スキルのスキルタイプがターゲットスキル識別子を有するか否かを検出することにより、該スキルのスキルタイプがターゲットスキルであるか否かを決定することができ、該スキルのスキルタイプがターゲットスキル識別子を有することを検出した場合、該スキルのスキルタイプがターゲットスキルであると決定し、次のステップ305を実行し、そうでなければ、該スキルのスキルタイプがターゲットスキル識別子を有しないことを検出した場合、該スキルのスキルタイプがターゲットスキルではないと決定し、フローを終了する。
1つの例示的なシーンにおいて、該ターゲットスキル識別子はIsFullScreenSkill識別子であってもよく、ターゲットプロファイルにおいて制御された仮想オブジェクトにスキルを配置するとき、ターゲットスキルのスキルタイプについて1つのIsFullScreenSkill識別子を、ターゲットスキル識別子の関連パラメータとして追加することができ、全画面タッチイベント(つまりいずれかのスキルに対するユーザのクリック操作)を検出すると、端末は現在クリックされているスキルコントロールに対応するスキルがプロファイルにおいてIsFullScreenSkill識別子が付けられているか否かを検出することができ、該スキルのスキルタイプがIsFullScreenSkill識別子を有する場合、このスキルが全画面タッチイベントによってトリガされたと見なすことができる。
305、端末は該スキルのスキルタイプがターゲットスキルであることに応答して、該仮想シーンにおいて該スキルの発動カウントダウン又は発動提示情報の少なくとも一方を表示し、該ターゲットスキルは画面クリックに基づいて適用位置を選択することをサポートするスキルである。
端末は上記ステップ304により該スキルのスキルタイプを取得し、該スキルのスキルタイプがターゲットスキルである場合、端末は仮想シーンにおいて該スキルの発動カウントダウン又は発動提示情報を表示することができ、ここで、該発動カウントダウンは該スキルが発動されるまでの残りの時間をユーザに提示することに用いられ、該発動提示情報は該スキルを発動するためにどのように操作するかをユーザに提示することに用いられる。
選択可能に、該発動カウントダウンの時間長又は該発動提示情報のコンテンツは、ターゲットプロファイルによって示されてもよく、該発動カウントダウン又は該発動提示情報は、テキスト形式で仮想シーンにおいて表示されてもよく、又は動画形式で、仮想シーン画面でホバリング再生されてもよく、又は音声アナウンスの形式でスマート提示されてもよく、本開示の実施例は、発動カウントダウン又は発動提示情報の表示方式を特に限定するものではない。
図6は、本願の実施例によるインタフェースの概略図であり、図6を参照すると、仮想シーン500において、スキル1~4のそれぞれに対応するスキルコントロール501~504を含み、ユーザがスキルコントロール504をクリックした後、端末はタッチポイントにおけるUIコントロールのタイプがスキルコントロールであり、且つトリガ状態にある他のスキルコントロールが存在しないことを検出することにより、スキル4に対するクリック操作を検出したと決定することができる。その後端末はスキル4がターゲットスキルに属することを検出し、これにより仮想シーンにおいてスキル4の発動カウントダウン505及び発動提示情報506を表示し、現在の発動カウントダウンが残り5秒であり、且つ発動提示情報506が「画面をクリックするとスキルを発動することができる」という文字メッセージであることが分かる。
例示的に、ユーザは最初にスキルコントロールをトリガした後、仮想シーンにおいて直接クリックして適用位置を選択することができ、ルーレット式仮想スティックを用いて適用位置を選択することもできる。端末はスキルコントロールに対応するルーレット式仮想スティック上でのスキル発動操作を受信したことに応答して、制御された仮想オブジェクトがスキル発動操作によって示される位置でスキルを発動するように制御する。
選択可能な一実施形態では、端末はスキルコントロールに対する第1クリック操作に応答して、スキルのスキルタイプを取得し、スキルのスキルタイプがターゲットスキルであることに応答して、制御された仮想オブジェクトの存在位置及びスキルの適用範囲に基づいて、仮想シーンにおけるスキルの適用可能領域を表示し、且つスキルの発動カウントダウンを表示し、発動カウントダウンの間、ユーザは仮想シーンにおける適用可能領域の任意の適用位置をクリックすることにより、制御された仮想オブジェクトがスキルを発動するように制御することができ、スキルコントロールを再び押してスキルコントロールのルーレット式仮想スティックを呼び出し、且つスティック部をドラッグして適用位置を選択し、そして手を離し、仮想オブジェクトが仮想シーンにおいてスティック部がマッピングされた位置でスキルを発動するように制御することもできる。
306、端末は制御された仮想オブジェクトの存在位置及び該スキルの適用範囲に基づいて、該仮想シーンにおけるスキルの適用可能領域を表示する。
いくつかの実施例では、該適用可能領域が円形領域であれば、端末は該仮想シーンにおいて、該制御された仮想オブジェクトの存在位置を該適用可能領域の円心として決定し、該スキルの最も遠い適用距離を該適用可能領域の半径として決定することができ、もちろん、該適用可能領域は円形領域に限定されず、扇形領域、矩形領域、不規則領域などであってもよく、例えば、適用可能領域が扇形領域である場合、ユーザは移動操作によって扇形領域の向きを制御し、且つ回転操作によって扇形領域の向きを回転させることができる。例えば、ユーザが適用可能領域において第1位置をクリックし、そして第2位置に移動すると、第1位置から第2位置に向かうのは扇形領域の向きであり、ユーザが第2位置から第3位置に移動し続けると、扇形領域を第1位置から第3位置に向かう向きに回転させる。
いくつかの実施例では、端末は該仮想シーンにおいて該適用可能領域に適用テンプレートを追加し、該適用テンプレートは該適用テンプレート以外の領域において該スキルを発動することが無効であることを示すことに用いられる。その後画面に対するユーザの第1クリック操作を再び検出すると、端末は該第1クリック操作によって示される位置点が該適用テンプレート内に位置するか否かを検出することにより、該位置点が適用可能領域内に位置するか否かを決定することができ、具体的には、該位置点が該適用テンプレート内に位置する場合、該位置点が適用可能領域内に位置すると決定し、下記ステップ307を実行し、そうでなければ、該位置点が該適用テンプレート内に位置しない場合、該位置点が適用可能領域外に位置すると決定し、スキルを発動せず、今回のクリック操作を無効操作又は誤操作と見なす。
307、端末は地図コントロールに対する第3クリック操作に応答して、該地図コントロールにおいてクリックされたターゲット領域を決定する。
上記過程で、仮想シーンが通常大きいのに対し、端末画面の大きさに限りがあり、端末画面において一部の仮想シーンしか表示することができないため、通常仮想シーンにおいて地図コントロールを表示することができ、該地図コントロールは画面において現在表示されている仮想シーンの一部を他の仮想シーンの一部にいつでも切り替えることに用いられ、このようにユーザは仮想オブジェクトが変位するように制御して視野角を切り替える必要がなく、代わりに、地図コントロールにおけるターゲット領域を直接クリックすることにより視野角切り替えを行うことができ、ユーザの操作が極めて便利である。
いくつかの実施例では、地図コントロールにおける各地図点は、仮想シーン全体が一定の比率で地図コントロールに縮小表示されるように、仮想シーンにおける1つの位置点に対応し、端末は地図コントロールに対するユーザの第3クリック操作を検出すると、地図コントロールにおいてユーザがクリックした地図点を決定し、且つ該地図点を中心として、1つの矩形領域を決定することができ、該矩形領域の縦横比は、端末画面の縦横比に等しく、該矩形領域のサイズは、ユーザが予め設定することができ、これにより、該矩形領域をクリックされたターゲット領域として決定する。
308、端末は仮想シーンにおいてターゲット領域に対応するターゲットシーンを表示し、該ターゲットシーンに該適用可能領域を含む。
上記過程で、端末は地図コントロールと仮想シーンとのマッピング関係に基づいて、該ターゲット領域をターゲットシーンにマッピングし、且つ端末画面において該ターゲットシーンを表示し、該ターゲットシーンに適用可能領域の一部又は全部を含むため、このときユーザは再度のクリック操作によってスキル発動を完了することができる。
図7は、本願の実施例によるインタフェースの概略図であり、図7を参照すると、仮想シーンにおいて、スキル1~4のそれぞれに対応するスキルコントロール601~604を含み、ユーザがスキルコントロール604をクリックした後、端末はタッチポイントにおけるUIコントロールのタイプがスキルコントロールであり、且つトリガ状態にある他のスキルコントロールが存在しないことを検出することにより、スキル4に対するクリック操作を検出したと決定することができる。その後端末はスキル4がターゲットスキルに属することを検出し、これにより仮想シーンにおいてスキル4の発動カウントダウン605及び発動提示情報606を表示し、現在の発動カウントダウンが残り3秒であり、且つ発動提示情報606が「画面をクリックするとスキルを発動することができる」という文字メッセージであることが分かる。さらに、仮想シーンにおいて地図コントロール607も表示され、ユーザが地図コントロール607をクリックした後、端末は該地図コントロール607においてクリックされたターゲット領域608を決定し、ターゲット領域608がマッピングされたターゲットシーン600を端末画面に表示する。
例示的に、端末に表示される仮想シーン画面は、仮想シーンにおけるカメラが仮想シーンを観察して捉えた画面であり、地図コントロールで受信した第3クリック操作に基づいて、端末はカメラ位置を決定することができ、これにより新たなカメラ位置に基づいて仮想環境画面にターゲットシーンを表示させる。
選択可能な一実施形態では、端末は、カメラ位置を変更する他の操作を受信し、これにより端末上の仮想シーン画面に表示されるターゲットシーンを変更することもできる。例えば、端末は、視野角移動領域での視野角移動操作を受信し、視野角移動操作がスライド操作であり、端末はスライド操作の方向及び距離に基づいて、カメラ移動の方向及び距離を決定し、これにより現在のカメラの位置に基づいてカメラ移動後の位置を計算し、さらに移動後のカメラがターゲットシーンの仮想シーン画面を捉えるようにする。また例えば、端末は、制御された仮想オブジェクトの移動を制御する移動操作を受信することもでき、カメラは、制御された仮想オブジェクトに追従して撮影するようにデフォルト設定されているため、仮想シーンにおける制御された仮想オブジェクトの位置が変化すると、カメラが追従して移動し、仮想シーン画面に表示されるターゲットシーンも追従して変化する。
ユーザは、上記のいずれかの方式を用いて端末にターゲットシーンの仮想シーン画面を表示させ、さらにターゲットシーンの仮想シーン画面において適用位置の選択を行うことができる。
309、端末は該適用可能領域に対する第2クリック操作を検出する。
上記過程で、端末は該ターゲットシーンにおいて適用可能領域に対するユーザの第2クリック操作を検出し、端末は上記ステップ306において適用可能領域に適用テンプレートを追加することができ、該適用テンプレートは該適用テンプレート以外の領域において該スキルを発動することが無効であることを示すことに用いられる。その後ターゲットシーンに対するユーザの第2クリック操作を再び検出すると、端末は該第2クリック操作によって示される適用位置が該適用テンプレート内に位置するか否かを検出することにより、該適用位置が適用可能領域内に位置するか否かを決定することができ、具体的には、該適用位置が該適用テンプレート内に位置する場合、該適用位置が適用可能領域内に位置すると決定し、下記ステップ310を実行し、そうでなければ、該適用位置が該適用テンプレート内に位置しない場合、該適用位置が適用可能領域外に位置すると決定し、スキルを発動せず、今回のクリック操作を無効操作又は誤操作と見なす。
310、端末は該適用可能領域に対する第2クリック操作に応答して、該制御された仮想オブジェクトが該第2クリック操作によって示される適用位置で該スキルを発動するように制御する。
上記過程で、端末が該適用可能領域に対するユーザの第2クリック操作を検出すると、端末は該適用可能領域に対するユーザの第2クリック操作に応答して、端末画面における該第2クリック操作によって示される適用位置の画面座標を取得し、該画面座標を該仮想シーンにおける該適用位置のシーン座標にマッピングすることができ、これにより該制御された仮想オブジェクトが該シーン座標で該スキルを発動するように制御する。
いくつかの実施例では、端末は、画面座標をシーン座標にマッピングするとき、下記式の逆行列を用いることができ、これにより2次元画面内の画面座標を3次元シーン内のシーン座標FocusPointに変換することができる。
Figure 0007390400000001
ここで、
Figure 0007390400000002

はカメラの内部参照行列であり、fxはカメラのx軸方向の焦点距離を示し、fyはカメラのy軸方向の焦点距離を示し、u0及びv0はいずれもカメラの絞りの中心である。
ここで、
Figure 0007390400000003

はカメラの外部参照行列であり、Rは回転行列を示し、Tはオフセットベクトルを示す。
ここで、Xw、Yw、Zwはそれぞれ3次元シーン内でx軸、y軸、z軸における適用位置のシーン座標を示し、u、vはそれぞれ2次元画面内でu軸、v軸における適用位置の画面座標を示し、Zcはカメラ座標系内における適用位置のz軸座標値を示し、fはカメラ焦点距離である。
さらに、スキルの適用位置のシーン座標を決定した後、スキルインジケータを呼び出し、これにより仮想シーンにおいて該スキルの適用予定位置を表示することができ、ユーザはスキルインジケータで適用予定位置が適用したい位置であるか否かを観察することができ、両者が一致する場合、ユーザが手を離すと制御された仮想オブジェクトがクリックされた適用位置で該スキルを発動するようにトリガすることができる。
いくつかの実施例では、両者が一致しない場合(つまりスキルインジケータによって表示される適用予定位置が理想的ではない場合)、このときユーザは手を離さずに画面においてドラッグ操作を実行することができ、これにより端末は該適用可能領域に対するユーザのドラッグ操作に応答して、ドラッグ操作のドラッグ軌跡に基づいて、該仮想シーンにおいて該ドラッグ操作によって示される適用位置を更新する。最終的に、ユーザがドラッグを完了して手を離した後、制御された仮想オブジェクトがドラッグ軌跡内の最新に更新された適用位置で該スキルを発動するようにトリガする。
なお、該スキルを発動した後、端末は該スキルの適用効果を決済することもできる。スキルタイプによって、適用効果の決済ルールが異なる。
選択可能な一実施形態では、端末は、適用可能領域に対する第2クリック操作を受信すると、第2クリック操作によって示される適用位置にスキル適用枠を表示する。例示的に、端末は、適用位置に第1スキル適用枠を表示し、第1スキル適用枠はスキルを発動することによりスキル効果を発生させることができる適用範囲を特定することに用いられ、制御された仮想オブジェクトが第1スキル適用枠においてスキルを発動するように制御する。
例示的に、スキル適用枠の形状及び大きさは、スキルのスキル適用範囲に基づいて決定され、例えば、スキル適用枠の形状は、円形又は楕円形であってもよく、スキル適用枠の中心点は、適用位置を選択する第2クリック操作によって選択された位置点に位置し、スキル適用枠の半径は、スキルが適用効果を発生させる最も遠い距離である。
例示的に、スキル適用枠は、スキルの実際の適用範囲を決定することに用いられる。スキルがAOEスキルである場合、スキルを発動するとスキル適用枠内に位置する全てのターゲットにスキル効果を発生させ、スキルが単体攻撃スキルである場合、スキルを発動した後、端末はスキル適用枠内に攻撃可能なターゲットが存在するか否かを判断し、存在し、且つターゲット数が1つである場合、該ターゲットに対してスキル効果を発生させ、ターゲット数が複数である場合、複数のターゲットから1つのターゲットを選択し、それに対してスキル効果を発生させ、ターゲットが存在しない場合、今回のスキル発動には適用ターゲットがなく、どの単位に対してもスキル効果を発生させない。
選択可能な一実施形態では、該スキルは、単一のターゲットに対してスキル効果を発生させることに用いられ、且つ第1スキル適用枠内に少なくとも2つのターゲットを含む。端末は、ターゲット決定原則に基づいて、第1スキル適用枠における少なくとも2つのターゲットから第1ターゲットを決定し、制御された仮想オブジェクトがスキルを発動して第1ターゲットに対してスキル効果を発生させるように制御し、ここで、ターゲット決定原則は、距離最寄優先原則、ヒットポイント最低優先原則、百分率ヒットポイント最低優先原則を含む。
ここで、距離最寄優先原則は、スキル適用枠において、スキル適用枠の中心点から最も近いターゲットを攻撃ターゲットとして決定することである。ヒットポイント最低優先原則は、スキル適用枠において、ヒットポイントが最も少ないターゲットを攻撃ターゲットとして決定することである。百分率ヒットポイント最低優先原則は、スキル適用枠において、現在のヒットポイントと総ヒットポイントとの比が最小のターゲットを攻撃ターゲットとして決定することである。
もちろん、他のターゲット決定原則に基づいて複数のターゲットから最終的な攻撃ターゲットを決定することもできる。例えば、ターゲットのタイプに基づいて、第1タイプのターゲットを攻撃ターゲットとして優先的に決定することもできる。例えば、ターゲットのタイプは、他のユーザによって制御される他の仮想オブジェクト、プログラムによって制御される野獣、小兵、建物などを含んでもよい。第1タイプは、他のユーザによって制御される他の仮想オブジェクトであってもよい。
また例えば、ターゲットの状態に基づいて、攻撃状態にあるターゲットを優先的に攻撃することもでき、一部の仮想オブジェクトが防御スキルを有し、防御状態にある仮想オブジェクトが高い防御値を有するため、このとき、端末は、攻撃状態にあるターゲットを優先的に選択して攻撃し、これにより防御値の高いターゲットを回避することができる。
図8は、本願の実施例によるインタフェースの概略図であり、図8を参照すると、仮想シーン700において、スキル1~4のそれぞれに対応するスキルコントロール701~704を含み、ユーザがスキルコントロール704をクリックした後、端末はタッチポイントにおけるUIコントロールのタイプがスキルコントロールであり、且つトリガ済み状態にある他のスキルコントロールが存在しないことを検出することにより、スキル4に対するクリック操作を検出したと決定することができる。その後端末はスキル4がターゲットスキルに属することを検出し、これにより仮想シーンにおいてスキル4の発動カウントダウン705及び発動提示情報706を表示し、現在の発動カウントダウンが残り4秒であり、且つ発動提示情報706が「画面をクリックするとスキルを発動することができる」という文字メッセージであることが分かる。ユーザが仮想シーンにおける適用可能領域内の適用位置707をクリックすることに応答して、端末は適用位置707に第1スキル適用枠710を表示し、且つ制御された仮想オブジェクトが第1スキル適用枠710内でスキル4を直接発動するように制御する。
上記全ての選択可能な技術案は、本開示の選択可能な実施例を形成するために任意の組み合わせを採用することができ、ここでは説明を省略する。
本願の実施例による方法は、仮想シーンにおけるいずれかのスキルに対する第1クリック操作に応答して、該スキルのスキルタイプを取得し、該スキルのスキルタイプが画面クリックに基づいて適用位置を選択することをサポートするターゲットスキルであることに応答して、制御された仮想オブジェクトの存在位置及び該スキルの適用範囲に基づいて、該仮想シーンにおいて該スキルの適用可能領域を決定し、該適用可能領域に対する第2クリック操作に応答して、該制御された仮想オブジェクトが該第2クリック操作によって示される適用位置で該スキルを発動するように制御し、このように、スキルをまずクリックしてから適用位置をクリックすることによりスキル発動を行うマンマシンインタラクション方式は、簡単な2回のクリック操作に基づいてスキルを発動することができ、ルーレット式仮想スティック及びスキルスティックに基づいて複雑なドラッグ操作を行う必要がなく、且つルーレット式仮想スティックが適用範囲にマッピングされるときに生じるオフセット誤差を回避するため、より高い照準精度、より低い操作難易度を有し、これにより、より効率的なマンマシンインタラクション効率をもたらし、ユーザ体験を改善する。
例示的に、ユーザは、適用可能領域において適用領域をボックス選択することもでき、これによりスキルの適用範囲をより正確に選択し、照準精度を向上させる。
図9は、本願の実施例による仮想オブジェクトの制御方法のフローチャートである。図9を参照すると、該実施例は、端末に適用され、該端末は、図1に示す第1端末120又は第2端末160であってもよく、該実施例は、下記ステップを含む。
801、仮想シーンにおけるいずれかのスキルに対する第1クリック操作に応答して、端末は該スキルのスキルタイプを取得する。
802、該スキルのスキルタイプがターゲットスキルであることに応答して、端末は制御された仮想オブジェクトの存在位置及び該スキルの適用範囲に基づいて、該仮想シーンにおいて該スキルの適用可能領域を決定し、該ターゲットスキルは画面クリックに基づいて適用位置を選択することをサポートするスキルである。
803、適用可能領域においてボックス選択操作を受信したことに応答して、端末は制御された仮想オブジェクトがボックス選択操作によって囲まれた適用領域においてスキルを発動するように制御し、ボックス選択操作は適用可能領域においてドラッグ軌跡によって閉鎖グラフィックスを囲むことに用いられ、適用領域は閉鎖グラフィックスであり、又は、適用領域は閉鎖グラフィックスの最小包囲円である。
ボックス選択操作は、ユーザが適用可能領域に閉鎖グラフィックスを描く操作(円を描く操作)と理解することができ、もちろん、ユーザのボックス選択操作によって描くのは、標準的な閉鎖グラフィックスでなくてもよく、例えば、描いたグラフィックスは、半閉鎖であってもよく、又は交差線が存在してもよく、このとき、端末は、ユーザの描いたグラフィックスを閉鎖グラフィックスに自動的に最適化し、これによりボックス選択操作に対応する閉鎖グラフィックスを得ることができる。
端末は、閉鎖グラフィックスをスキルの適用領域とすることができる。端末は該閉鎖グラフィックスの最小包囲円をスキルの適用領域とすることもでき、即ち、ユーザはボックス選択操作によってスキル適用領域の大まかな大きさをボックス選択し、そして端末は閉鎖グラフィックスの最小包囲円を最終的な適用領域として決定する。
例示的に、ユーザがボックス選択した適用領域が大きすぎることを防止するために、端末は、有効な適用領域として決定するために、適用領域が面積閾値よりも小さいことも確保する必要がある。
端末は適用可能領域においてボックス選択操作を受信したことに応答して、ボックス選択操作によって囲まれた適用領域の領域面積を計算し、領域面積が面積閾値よりも小さいことに応答して、制御された仮想オブジェクトがボックス選択操作によって囲まれた適用領域においてスキルを発動するように制御する。
領域面積が面積閾値よりも大きいことに応答して、端末は今回選択された適用領域が無効領域であると決定し、適用領域を選択し続けるようにユーザに提示するために操作無効の提示情報を表示するか、又は、今回のスキル発動フローを終了する。
例示的に、スキル適用枠についての前の実施例の説明を参照すると、本実施例では、スキルの実際の適用範囲を示すために、対応するスキル適用枠を適用領域に表示することもできる。
端末は領域面積が面積閾値よりも小さいことに応答して、第2スキル適用枠を適用領域に表示し、第2スキル適用枠はスキルを発動することによりスキル効果を発生させることができる適用範囲を特定することに用いられ、第2スキル適用枠の形状は適用領域と同じであり、制御された仮想オブジェクトが第2スキル適用枠でスキルを発動するように制御する。
例示的に、スキル適用枠に複数のターゲットが存在する場合に最終的な攻撃ターゲットをどのように決定するかについての前の実施例の説明を参照すると、本実施例では該方法で最終的な攻撃ターゲットを決定することもできる。
即ち、スキルは単一のターゲットに対してスキル効果を発生させることに用いられ、第2スキル適用枠に少なくとも2つのターゲットを含む。端末は、ターゲット決定原則に基づいて、第2スキル適用枠における少なくとも2つのターゲットから第2ターゲットを決定し、制御された仮想オブジェクトがスキルを発動して第2ターゲットに対してスキル効果を発生させるように制御し、ここで、ターゲット決定原則は、距離最寄優先原則、ヒットポイント最低優先原則、百分率ヒットポイント最低優先原則を含む。
以上のように、本実施例の方法は、適用可能領域において適用領域をボックス選択することにより、ユーザがスキル発動の領域の大きさを制御することができ、さらにユーザがスキル適用領域に照準を合わせる精度を向上させ、スキルを正確に発動する操作難易度を低減させ、これにより、より効率的なマンマシンインタラクション効率をもたらし、ユーザ体験を改善する。
図10は、本願の実施例による画面をタッチしてスキルを発動する原理を示す図であり、図10を参照すると、1つの例示的なシーンにおいて、800に示すように、端末は以下のフローによって画面タッチスキル(即ちターゲットスキル)を発動することができ、プレイヤーの指が画面をタッチすると、画面が押された状態にあり、端末はまず現在のタッチポイントが他のUIコントロールにあるか否かを判断し、つまりタッチポイントに他の仮想ボタン、例えば小地図(地図コントロール)、ストア(ストアコントロール)、移動スティックなどの非スキルコントロールの仮想ボタンがあるか否かを検出し、これらの非スキルコントロールにないタッチイベントこそが、今回のスキル発動に必要なタッチイベントと見なされ、次に現在のタッチポイントでスキルボタンが押されたか否かを検出し、つまり現在のタッチポイントがいずれかのスキルのスキルコントロールにあるか否かを検出し、現在のタッチポイントがいずれかのスキルのスキルコントロールにある場合、またプレイヤーが2つのスキルを同時に操作することができないため、他のスキルコントロールが既に押されているか否かを判断し、つまりトリガされた他の画面タッチ発動スキルがあるか否かをチェックする必要があり、何らかの他のスキルコントロールが押されていない場合にのみ、今回のタッチスキル操作を受信する。
また、スキルを配置するとき、画面タッチスキルに対して関連パラメータを配置し、例えばスキルにIsFullScreenSkill識別子を追加し、全画面タッチイベントを検出した場合、端末は現在のスキルコントロールに対応するスキルがIsFullScreenSkill識別子を有するか否かを検出し、該スキルがIsFullScreenSkill識別子を有する場合、該スキルが全画面タッチイベントにトリガされたと見なされ、このとき現在の全画面タッチイベントのタッチ識別子FingerID及びマスキング識別子CurSkillを設置することができ、ここで、タッチ識別子FingerIDは、現在の全画面タッチイベントと押された他のタッチイベントとを区別することに用いられ、マスキング識別子CurSkillは他のコントロールによって押されたイベントをマスキングし、現在操作しているスキルの一意性を保証することに用いられる。以上の全てのステップが順調に行われると、端末はスキルコントロール上のタッチポイント(適用位置の画面座標)に基づいて仮想シーンにおけるシーン座標FocusPointを計算し、且つシーン座標FocusPointに基づいてスキルインジケータの表現を処理し、これによりプレイヤーに適用予定位置のプレビュー効果を示す。
さらに、タッチポイントが画面上で移動するとき、画面ドラッグ状態にあり、まず現在押されているイベントのタッチ識別子FingerIDと直前にトリガされた全画面タッチイベントのFingerIDとが一致するか否かを検出し、つまりタッチポイントと直前のタッチ識別子FingerIDとが同じであるか否か及びマスキング識別子CurSkillが存在するか否かを検出し、タッチ識別子FingerIDが同じであり且つマスキング識別子CurSkillが存在するとき、次に現在押されているイベントによってトリガされたスキルが存在するか否かを判断し、これら2つの条件が共に満たされるとき、端末は現在のタッチポイントでシーン座標FocusPointを更新し、つまり新たなタッチポイントの画面座標でマッピングし、新たなシーン座標FocusPointを得る。
さらに、タッチポイントが持ち上がる(プレイヤーが手を離す)とき、画面手離し状態にあり、端末は同様に現在押されているイベントのFingerIDと直前にトリガされた全画面タッチイベントのFingerIDとが一致するか否かを検出し、つまりタッチポイントと直前のタッチ識別子FingerIDとが同じであるか否か及びマスキング識別子CurSkillが存在するか否かを検出し、タッチ識別子FingerIDが同じであり且つマスキング識別子CurSkillが存在するとき、現在押されているイベントによってトリガされたスキルが存在する場合、これら2つの条件が共に満たされるとき、端末は関連するスキルデータ(マスキング識別子CurSkill、最終的なシーン座標FocusPointなどを含む)を送信し、サーバにスキル発動を要求し、且つフレーム同期技術に基づいてゲームに参加する他の端末に同期する。
具体的には、画面をクリックしてスキルを起動することが可能な画面タッチスキルについて、プレイヤーがスキルコントロールをクリックした後、画面スキル起動モードに入り、画面の下側領域に画面スキル起動モードの終了カウントダウン(つまりスキルの発動カウントダウン)及び発動提示情報「画面をクリックするとスキルを発動することができる」を表示する。さらに、スキルの適用範囲内に適用テンプレートを追加し、適用テンプレートは該テンプレートがカバーする領域内でクリックしてスキルを起動することができることを示す。プレイヤーが領域外の場所をクリックすると、スキルを起動しない。カウントダウン過程で、プレイヤーが画面をクリックすると、仮想シーンの適用可能領域内におけるクリックされた適用位置でスキルを直接発動する。非画面内の位置への適用が必要な場合、プレイヤーはまず小地図をクリックして画面を対応する位置に移動させてから、画面をクリックしてスキルを発動することができる。
本願の実施例では、スキルの適用範囲が遠いスキルに対して、画面をクリックしてスキルをリリースする(つまり発動)メカニズムを追加し、プレイヤーは画面をクリックすることにより、クリックした適用位置に対して直接スキルを起動することができ、「見れば得られる」のインタラクション効果を達成することができ、スキル起動過程における照準精度を向上させ、プレイヤーのプレイ過程をより快適にし、ユーザ体験を最適化する。もちろん、画面をクリックしてスキルを起動することが可能な画面タッチスキルについても、端末は2つの互換性のあるスキル起動方式を提供することができ、ユーザは画面をクリックすることによりスキルを起動することができ、従来のルーレット式仮想スティックに基づいてスキルを起動することもでき、より豊富で多様なマンマシンインタラクション方式を提供する。
図11は、本願の実施例による仮想オブジェクトの制御装置の概略構成図であり、図11を参照すると、該装置は、
スキルコントロールに対する第1クリック操作に応答して、該スキルがターゲットスキルであるか否かを検出することに用いられる検出モジュール901であって、該ターゲットスキルは画面クリックに基づいて適用位置を選択することをサポートするスキルである検出モジュール901と、
該スキルがターゲットスキルであることに応答して、制御された仮想オブジェクトの存在位置及び該スキルの適用範囲に基づいて、仮想シーンにおける該スキルの適用可能領域を表示することに用いられる決定モジュール902と、
該適用可能領域に対する第2クリック操作に応答して、該制御された仮想オブジェクトが該第2クリック操作によって示される適用位置で該スキルを発動するように制御することに用いられる制御モジュール903と、を含む。
本願の実施例による装置は、仮想シーンにおけるいずれかのスキルに対する第1クリック操作に応答して、該スキルのスキルタイプを取得し、該スキルのスキルタイプが画面クリックに基づいて適用位置を選択することをサポートするターゲットスキルであることに応答して、制御された仮想オブジェクトの存在位置及び該スキルの適用範囲に基づいて、該仮想シーンにおいて該スキルの適用可能領域を決定し、該適用可能領域に対する第2クリック操作に応答して、該制御された仮想オブジェクトが該第2クリック操作によって示される適用位置で該スキルを発動するように制御し、このように、スキルをまずクリックしてから適用位置をクリックすることによりスキル発動を行うマンマシンインタラクション方式は、簡単な2回のクリック操作に基づいてスキルを発動することができ、ルーレット式仮想スティック及びスキルスティックに基づいて複雑なドラッグ操作を行う必要がなく、且つルーレット式仮想スティックが適用範囲にマッピングされるときに生じるオフセット誤差を回避するため、より高い照準精度、より低い操作難易度を有し、これにより、より効率的なマンマシンインタラクション効率をもたらし、ユーザ体験を改善する。
可能な一実施形態では、該制御モジュール903は、
該適用可能領域に対する第2クリック操作に応答して、該画面において該第2クリック操作によって示される適用位置の画面座標を取得することと、
該画面座標を該仮想シーンにおける該適用位置のシーン座標にマッピングすることと、
該制御された仮想オブジェクトが該シーン座標で該スキルを発動するように制御することと、に用いられる。
可能な一実施形態では、図11の装置構成に基づいて、該装置は、
地図コントロールに対する第3クリック操作に応答して、該地図コントロールにおいてクリックされたターゲット領域を決定することと、該仮想シーンにおいて該ターゲット領域に対応するターゲットシーンを表示することであって、該ターゲットシーンに該適用可能領域を含むことと、該ターゲットシーンにおいて該適用可能領域に対する第2クリック操作を検出することと、に用いられるマッピング検出モジュールをさらに含む。
可能な一実施形態では、該適用可能領域が円形領域であれば、該決定モジュール902は、
該仮想シーンにおいて、該制御された仮想オブジェクトの存在位置を該適用可能領域の円心として決定し、該スキルの最も遠い適用距離を該適用可能領域の半径として決定することと、
該仮想シーンにおいて該適用可能領域の適用テンプレートを表示することであって、該適用テンプレートは該適用テンプレート以外の領域において該スキルを発動することが無効であることを示すことに用いられることと、に用いられる。
可能な一実施形態では、図11の装置構成に基づいて、該装置は、
該スキルがターゲットスキルであることに応答して、該仮想シーンにおいて該スキルの発動カウントダウン又は発動提示情報の少なくとも一方を表示することに用いられる表示モジュールをさらに含む。
可能な一実施形態では、該制御モジュール903は、該スキルコントロールに対応するルーレット式仮想スティック上でのスキル発動操作を受信したことに応答して、該制御された仮想オブジェクトが該スキル発動操作によって示される位置で該スキルを発動するように制御することに用いられる。
可能な一実施形態では、該検出モジュール901は、
該画面に対する第1クリック操作を検出すると、該第1クリック操作によって示される位置にユーザインタフェースコントロールが存在することに応答して、該ユーザインタフェースコントロールのコントロールタイプを取得することと、
該ユーザインタフェースコントロールのコントロールタイプが該スキルに対応する該スキルコントロールであることに応答して、他のスキルコントロールのトリガ状態を取得することであって、該他のスキルコントロールは該スキル以外の他のスキルのスキルコントロールであることと、
該他のスキルコントロールがトリガ済み状態ではないことに応答して、該スキルコントロールに対する第1クリック操作を検出したと決定することと、にさらに用いられる。
可能な一実施形態では、図11の装置構成に基づいて、該装置は、
該適用可能領域に対するドラッグ操作に応答して、ドラッグ操作のドラッグ軌跡に基づいて、該仮想シーンにおいて該ドラッグ操作によって示される適用位置を更新することに用いられる更新モジュールをさらに含む。
可能な一実施形態では、該装置は、
該適用位置で第1スキル適用枠を表示することに用いられる表示モジュールであって、該第1スキル適用枠は該スキルを発動することによってスキル効果を発生させることができる適用範囲を特定することに用いられる表示モジュールをさらに含み、
該制御モジュールは、該制御された仮想オブジェクトが該第1スキル適用枠において該スキルを発動するように制御することに用いられる。
可能な一実施形態では、該スキルは、単一のターゲットに対してスキル効果を発生させることに用いられ、該第1スキル適用枠に少なくとも2つのターゲットを含み、
該制御モジュールは、ターゲット決定原則に基づいて、該第1スキル適用枠における少なくとも2つのターゲットから第1ターゲットを決定することに用いられ、
該制御モジュールは、該制御された仮想オブジェクトが該スキルを発動して該第1ターゲットに対してスキル効果を発生させるように制御することに用いられ、
ここで、該ターゲット決定原則は、距離最寄優先原則、ヒットポイント最低優先原則、百分率ヒットポイント最低優先原則を含む。
可能な一実施形態では、該制御モジュールは、該適用可能領域においてボックス選択操作を受信したことに応答して、該制御された仮想オブジェクトが該ボックス選択操作によって囲まれた適用領域において該スキルを発動するように制御することであって、該ボックス選択操作は該適用可能領域においてドラッグ軌跡によって閉鎖グラフィックスを囲むことに用いられ、該適用領域は該閉鎖グラフィックスであり、又は、該適用領域は該閉鎖グラフィックスの最小包囲円であることに用いられる。
可能な一実施形態では、該制御モジュールは、該適用可能領域においてボックス選択操作を受信したことに応答して、該ボックス選択操作によって囲まれた該適用領域の領域面積を計算することに用いられ、
該制御モジュールは、該領域面積が面積閾値よりも小さいことに応答して、該制御された仮想オブジェクトが該ボックス選択操作によって囲まれた該適用領域において該スキルを発動するように制御することに用いられる。
可能な一実施形態では、該装置は、
該領域面積が該面積閾値よりも小さいことに応答して、該適用領域に第2スキル適用枠を表示することに用いられる表示モジュールであって、該第2スキル適用枠は該スキルを発動することによってスキル効果を発生させることができる適用範囲を特定することに用いられ、該第2スキル適用枠の形状は該適用領域と同じである表示モジュールをさらに含み、
該制御モジュールは、該制御された仮想オブジェクトが該第2スキル適用枠において該スキルを発動するように制御することに用いられる。
可能な一実施形態では、該スキルは、単一のターゲットに対してスキル効果を発生させることに用いられ、該第2スキル適用枠に少なくとも2つのターゲットを含み、
該制御モジュールは、ターゲット決定原則に基づいて、該第2スキル適用枠における少なくとも2つのターゲットから第2ターゲットを決定することに用いられ、
該制御モジュールは、該制御された仮想オブジェクトが該スキルを発動して該第2ターゲットに対してスキル効果を発生させるように制御することに用いられ、
ここで、該ターゲット決定原則は、距離最寄優先原則、ヒットポイント最低優先原則、百分率ヒットポイント最低優先原則を含む。
なお、上記実施例による仮想オブジェクトの制御装置は、仮想オブジェクトを制御するとき、上記各機能モジュールの分割のみを例として説明したが、実際の適用では、必要に応じて異なる機能モジュールに割り当てて上記機能を完了させ、即ち、端末装置の内部構成を異なる機能モジュールに分割して、以上説明された全部又は一部の機能を完了する。また、上記実施例による仮想オブジェクトの制御装置は仮想オブジェクトの制御方法の実施例と同一の概念に属し、その具体的な実現過程が仮想オブジェクトの制御方法の実施例に詳細に示され、ここでは説明を省略する。
図12は、本願の実施例による端末の概略構成図である。該端末1000は、スマートフォン、タブレットコンピュータ、MP3プレーヤー(Moving Picture Experts Group Audio Layer III、動画像エキスパート圧縮標準オーディオレベル3)、MP4(Moving Picture Experts Group Audio Layer IV、動画像エキスパート圧縮標準オーディオレベル4)プレーヤー、ノートパソコン又はデスクトップコンピュータであってもよい。端末1000は、ユーザ装置、携帯端末、ラップトップ端末、デスクトップ端末などの他の名称と呼ばれることもある。
通常、端末1000は、プロセッサ1001と、メモリ1002とを含む。
プロセッサ1001は、1つ以上の処理コア、例えば4コアプロセッサ、8コアプロセッサなどを含んでもよい。プロセッサ1001は、DSP(Digital Signal Processing、デジタル信号処理)、FPGA(Field-Programmable Gate Array、現場でプログラム可能なゲートアレイ)、PLA(Programmable Logic Array、プログラマブル論理アレイ)のうちの少なくとも1つのハードウェア形態で実現されてもよい。プロセッサ1001は、メインプロセッサとコプロセッサとをさらに含んでもよく、メインプロセッサは、ウェイクアップ状態にあるデータを処理することに用いられるプロセッサであり、CPU(Central Processing Unit、中央プロセッサ)とも呼ばれ、コプロセッサは、待機状態にあるデータを処理することに用いられる低消費電力プロセッサである。いくつかの実施例では、プロセッサ1001は、ディスプレイに表示されるべきコンテンツのレンダリング及びレンダリングを担当することに用いられるGPU(Graphics Processing Unit、画像プロセッサ)を集積してもよい。いくつかの実施例では、プロセッサ1001は、機械学習に関する計算操作を処理することに用いられるAI(Artificial Intelligence、人工知能)プロセッサをさらに含んでもよい。
メモリ1002は、1つ以上のコンピュータ可読記憶媒体を含んでもよく、該コンピュータ可読記憶媒体は、非一時的であってもよい。メモリ1002は、高速ランダムアクセスメモリと、例えば1つ以上のディスク記憶装置、フラッシュ記憶装置などの不揮発性メモリとをさらに含むことができる。いくつかの実施例では、メモリ1002内の非一時的なコンピュータ可読記憶媒体は、少なくとも1つのコマンドを記憶することに用いられ、該少なくとも1つのコマンドは、本願における各実施例による仮想オブジェクトの制御方法を実現するために、プロセッサ1001によって実行されることに用いられる。
いくつかの実施例では、端末1000は、任意選択で、周辺機器インタフェース1003と少なくとも1つの周辺機器とをさらに含む。プロセッサ1001、メモリ1002及び周辺機器インタフェース1003の間は、バス又は信号線を介して接続されてもよい。各周辺機器は、バス、信号線、回路基板を介して周辺機器インタフェース1003に接続されてもよい。具体的には、周辺機器は、無線周波数回路1004、タッチディスプレイ1005、カメラコンポーネント1006、オーディオ回路1007、位置決めコンポーネント1008及び電源1009のうちの少なくとも1つを含む。
周辺機器インタフェース1003は、I/O(Input/Output、入力/出力)に関連する少なくとも1つの周辺機器をプロセッサ1001及びメモリ1002に接続することに用いられることができる。いくつかの実施例では、プロセッサ1001、メモリ1002及び周辺機器インタフェース1003は、同一のチップ又は回路基板に集積され、いくつかの実施例では、プロセッサ1001、メモリ1002及び周辺機器インタフェース1003のいずれか1つ又は2つは、別個のチップ又は回路基板に実現されてもよく、本実施例はこれを限定するものではない。
無線周波数回路1004は、電磁信号とも呼ばれるRF(Radio Frequency、無線周波数)信号を受信及び送信することに用いられる。無線周波数回路1004は、電磁信号を介して通信ネットワーク及び他の通信装置と通信する。無線周波数回路1004は、電気信号を電磁信号に変換して送信し、又は、受信した電磁信号を電気信号に変換する。選択可能に、無線周波数回路1004は、アンテナシステム、RFトランシーバ、1つ以上の増幅器、チューナ、発振器、デジタル信号プロセッサ、コーデックチップセット、ユーザアイデンティティモジュールカードなどを含む。無線周波数回路1004は、少なくとも1つの無線通信プロトコルによって他の端末と通信することができる。該無線通信プロトコルは、メトロポリタンエリアネットワーク、各世代移動体通信ネットワーク(2G、3G、4G及び5G)、無線ローカルエリアネットワーク及び/又はWiFi(Wireless Fidelity、ワイヤレスフィディリティ)ネットワークを含むがこれらに限定されない。いくつかの実施例では、無線周波数回路1004は、NFC(Near Field Communication、近距離無線通信)に関連する回路をさらに含んでもよく、本願はこれを限定するものではない。
タッチディスプレイ1005は、UI(User Interface、ユーザインタフェース)を表示することに用いられる。該UIは、グラフィックス、テキスト、アイコン、ビデオ、及びそれらの任意の組み合わせを含むことができる。タッチディスプレイ1005がタッチディスプレイである場合、タッチディスプレイ1005は、タッチディスプレイ1005の表面又は表面上方のタッチ信号を収集する能力も有する。該タッチ信号は制御信号としてプロセッサ1001に入力されて処理されてもよい。このとき、タッチディスプレイ1005は、ソフトボタン及び/又はソフトキーボードとも呼ばれる仮想ボタン及び/又は仮想キーボードを提供することに用いられてもよい。いくつかの実施例では、タッチディスプレイ1005は1つであってもよく、端末1000のフロントパネルに設置され、他のいくつかの実施例では、タッチディスプレイ1005は少なくとも2つであってもよく、それぞれ端末1000の異なる表面に設置されるか又は折り畳まれて設計され、さらにいくつかの実施例では、タッチディスプレイ1005は、フレキシブルディスプレイであってもよく、端末1000の湾曲表面又は折り畳み面に設置される。さらに、タッチディスプレイ1005は、矩形ではない不規則なグラフィックス、つまり異形ディスプレイとして設置されてもよい。タッチディスプレイ1005は、LCD(Liquid Crystal Display、液晶ディスプレイ)、OLED(Organic Light-Emitting Diode、有機発光ダイオード)などの材質で製造することができる。
電源1009は、端末1000内の各コンポーネントに電力を供給することに用いられる。電源1009は、交流、直流、使い捨て電池、又は充電式電池であってもよい。電源1009が充電式電池を含む場合、該充電式電池は、有線充電又は無線充電をサポートすることができる。該充電式電池は、急速充電技術をサポートすることに用いられることもできる。
当業者には理解されるように、図12に示す構成は、端末1000を限定するものではなく、図示されたものよりも多くの又は少ない構成要素を含むことができ、又はいくつかの構成要素を組み合わせることができ、又は異なる構成要素配置を採用することができる。
例示的な実施例では、コンピュータ可読記憶媒体をさらに提供し、例えば少なくとも1つのプログラムコードを含むメモリであり、上記少なくとも1つのプログラムコードは、上記実施例における仮想オブジェクトの制御方法を完了するために端末内のプロセッサによって実行されることができる。例えば、該コンピュータ可読記憶媒体は、ROM(Read-Only Memory、リードオンリーメモリ)、RAM(Random-Access Memory、ランダムアクセスメモリ)、CD-ROM(Compact Disc Read-Only Memory、コンパクトディスクリードオンリーメモリ)、磁気テープ、フレキシブルディスク、及び光データ記憶装置などであってもよい。
例示的な実施例では、コンピュータプログラム製品又はコンピュータプログラムをさらに提供し、該コンピュータプログラム製品又はコンピュータプログラムはコンピュータコマンドを含み、該コンピュータコマンドはコンピュータ可読記憶媒体に記憶されている。コンピュータ装置のプロセッサはコンピュータ可読記憶媒体から該コンピュータコマンドを読み取り、プロセッサは該コンピュータコマンドを実行し、該コンピュータ装置に上記選択可能な実現形態による仮想オブジェクトの制御方法を実行させる。

Claims (4)

  1. 端末が実行する仮想オブジェクトの制御方法であって、
    スキルコントロールに対する第1タッチ操作に応答して、スキルのスキルタイプを取得するステップと、
    前記スキルのスキルタイプがターゲットスキルであることに応答して、制御された仮想オブジェクトの存在位置及び前記スキルの適用範囲に基づいて、仮想シーンにおける前記スキルの適用可能領域を表示するステップであって、前記ターゲットスキルは画面タッチに基づいて適用位置を選択することをサポートするスキルである、ステップと、
    前記適用可能領域に対する第2タッチ操作に応答して、前記制御された仮想オブジェクトが前記第2タッチ操作によって示される適用位置で前記スキルを発動するように制御するステップと、を含
    前記適用可能領域に対する第2タッチ操作に応答して、前記制御された仮想オブジェクトが前記第2タッチ操作によって示される適用位置で前記スキルを発動するように制御する前記ステップの前に、前記方法は、
    地図コントロールに対する第3タッチ操作に応答して、前記地図コントロールにおいてタッチされたターゲット領域を決定するステップと、
    前記仮想シーンにおいて前記ターゲット領域に対応するターゲットシーンを表示するステップであって、前記ターゲットシーンに前記適用可能領域を含む、ステップと、
    前記ターゲットシーンにおいて前記適用可能領域に対する前記第2タッチ操作を検出するステップと、をさらに含む、
    ことを特徴とする仮想オブジェクトの制御方法。
  2. 前記適用可能領域に対する第2タッチ操作に応答して、前記制御された仮想オブジェクトが前記第2タッチ操作によって示される適用位置で前記スキルを発動するように制御する前記ステップは、
    前記適用可能領域に対する前記第2タッチ操作に応答して、画面において前記第2タッチ操作によって示される前記適用位置の画面座標を取得するステップと、
    前記画面座標を前記仮想シーンにおける前記適用位置のシーン座標にマッピングするステップと、
    前記制御された仮想オブジェクトが前記シーン座標で前記スキルを発動するように制御するステップと、を含む、
    ことを特徴とする請求項1に記載の方法。
  3. 端末であって、
    1つ以上のプロセッサと、1つ以上のメモリとを含み、前記1つ以上のメモリに少なくとも1つのプログラムコードが記憶されており、前記少なくとも1つのプログラムコードは、請求項1~請求項のいずれか一項に記載の仮想オブジェクトの制御方法によって実行される操作を実現するために、前記1つ以上のプロセッサによってロードされ実行される、
    ことを特徴とする端末。
  4. コンピュータに、請求項1~請求項のいずれか一項に記載の仮想オブジェクトの制御方法を実行させる、
    ことを特徴とするコンピュータプログラム。
JP2021564931A 2020-05-14 2021-04-27 仮想オブジェクトの制御方法並びにその、装置、端末及びコンピュータプログラム Active JP7390400B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2023180873A JP2024019394A (ja) 2020-05-14 2023-10-20 仮想オブジェクトの制御方法並びにその、装置、端末及びコンピュータプログラム

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN202010408457.1A CN111589140B (zh) 2020-05-14 2020-05-14 虚拟对象的控制方法、装置、终端及存储介质
CN202010408457.1 2020-05-14
PCT/CN2021/090301 WO2021227870A1 (zh) 2020-05-14 2021-04-27 虚拟对象的控制方法、装置、终端及存储介质

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2023180873A Division JP2024019394A (ja) 2020-05-14 2023-10-20 仮想オブジェクトの制御方法並びにその、装置、端末及びコンピュータプログラム

Publications (2)

Publication Number Publication Date
JP2022535675A JP2022535675A (ja) 2022-08-10
JP7390400B2 true JP7390400B2 (ja) 2023-12-01

Family

ID=72182440

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2021564931A Active JP7390400B2 (ja) 2020-05-14 2021-04-27 仮想オブジェクトの制御方法並びにその、装置、端末及びコンピュータプログラム
JP2023180873A Pending JP2024019394A (ja) 2020-05-14 2023-10-20 仮想オブジェクトの制御方法並びにその、装置、端末及びコンピュータプログラム

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2023180873A Pending JP2024019394A (ja) 2020-05-14 2023-10-20 仮想オブジェクトの制御方法並びにその、装置、端末及びコンピュータプログラム

Country Status (7)

Country Link
US (1) US20220032183A1 (ja)
EP (1) EP3944881A4 (ja)
JP (2) JP7390400B2 (ja)
KR (1) KR20210142739A (ja)
CN (1) CN111589140B (ja)
SG (1) SG11202111639RA (ja)
WO (1) WO2021227870A1 (ja)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111589140B (zh) * 2020-05-14 2023-03-14 腾讯科技(深圳)有限公司 虚拟对象的控制方法、装置、终端及存储介质
CN112426715B (zh) * 2020-11-24 2024-08-09 网易(杭州)网络有限公司 一种信息处理方法、装置、设备和存储介质
CN113559510B (zh) * 2021-07-27 2023-10-17 腾讯科技(上海)有限公司 虚拟技能的控制方法、装置、设备及计算机可读存储介质
JP7553131B2 (ja) * 2021-08-03 2024-09-18 テンセント・テクノロジー・(シェンジェン)・カンパニー・リミテッド 仮想オブジェクトによるスキル発動の制御方法及び装置、コンピュータ装置、並びにコンピュータプログラム
CN114712852A (zh) * 2022-03-02 2022-07-08 网易(杭州)网络有限公司 技能指示器的显示方法、装置和电子设备
CN114712859A (zh) * 2022-03-02 2022-07-08 网易(杭州)网络有限公司 技能伤害范围的确定方法、装置和电子设备
CN114939275B (zh) * 2022-05-24 2024-08-09 北京字跳网络技术有限公司 对象交互的方法、装置、设备和存储介质
CN115193064A (zh) * 2022-07-12 2022-10-18 网易(杭州)网络有限公司 虚拟对象的控制方法、装置、存储介质及计算机设备
JP7545137B2 (ja) 2022-08-02 2024-09-04 グリー株式会社 情報処理システム、情報処理方法、及び記憶媒体

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110292778A (zh) 2019-08-02 2019-10-01 网易(杭州)网络有限公司 一种游戏技能释放的方法和装置
CN110694261A (zh) 2019-10-21 2020-01-17 腾讯科技(深圳)有限公司 控制虚拟对象进行攻击的方法、终端及存储介质

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5522902B2 (ja) * 2008-03-24 2014-06-18 任天堂株式会社 情報処理プログラムおよび情報処理装置
US20140256389A1 (en) * 2013-03-06 2014-09-11 Ian Wentling Mobile game application
WO2014200255A1 (en) * 2013-06-11 2014-12-18 Wemade Entertainment Co., Ltd. Method and apparatus for automatically targeting target objects in a computer game
US9937416B2 (en) * 2013-06-11 2018-04-10 Microsoft Technology Licensing, Llc Adaptive touch input controls
KR101580210B1 (ko) * 2015-01-08 2016-01-04 라인플러스 주식회사 터치 방식에 적합한 스마트 제어를 제공하는 게임 방법 및 게임 시스템
JP5830806B1 (ja) * 2015-04-13 2015-12-09 株式会社Cygames ユーザ入力の操作性を向上させるプログラム、電子装置、及び方法
CN105335065A (zh) * 2015-10-10 2016-02-17 腾讯科技(深圳)有限公司 一种信息处理方法、终端及计算机存储介质
CN106991013B (zh) * 2017-04-18 2018-09-07 腾讯科技(深圳)有限公司 一种对资源请求进行处理的方法及装置
JP6184634B1 (ja) * 2017-04-19 2017-08-23 株式会社 ディー・エヌ・エー 情報処理装置、ゲームプログラム、及び、情報処理方法
CN109550241B (zh) * 2018-09-20 2023-04-07 厦门吉比特网络技术股份有限公司 一种单摇杆控制方法和系统
CN109513209B (zh) * 2018-11-22 2020-04-17 网易(杭州)网络有限公司 虚拟对象处理方法及装置、电子设备以及存储介质
US20210008458A1 (en) * 2019-07-12 2021-01-14 Superdraft, Inc. Fantasy sports app
CN111589140B (zh) * 2020-05-14 2023-03-14 腾讯科技(深圳)有限公司 虚拟对象的控制方法、装置、终端及存储介质

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110292778A (zh) 2019-08-02 2019-10-01 网易(杭州)网络有限公司 一种游戏技能释放的方法和装置
CN110694261A (zh) 2019-10-21 2020-01-17 腾讯科技(深圳)有限公司 控制虚拟对象进行攻击的方法、终端及存储介质

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
[モバイルレジェンド] 中級者向けの攻略,とろブロ [online],2019年08月23日,[2022年5月2日検索],インターネット<http://trokiss-gamer.com/smartphone-game/no-224/>
「[『LoL』0-1-2講座 STEP 4]チャンピオンごとの多彩な「スキル」を理解しよう」[online],2019年10月30日,[2022年12月23日検索],インターネット<https://esports-world.jp/column/2670>
「League of Legends 攻略ノート」[online],2016年03月05日,[2022年12月23日検索],インターネット<URL:https://lolwiki-note.info/data/7>

Also Published As

Publication number Publication date
WO2021227870A1 (zh) 2021-11-18
EP3944881A1 (en) 2022-02-02
CN111589140B (zh) 2023-03-14
SG11202111639RA (en) 2021-12-30
KR20210142739A (ko) 2021-11-25
CN111589140A (zh) 2020-08-28
JP2022535675A (ja) 2022-08-10
EP3944881A4 (en) 2022-07-13
US20220032183A1 (en) 2022-02-03
JP2024019394A (ja) 2024-02-09

Similar Documents

Publication Publication Date Title
JP7390400B2 (ja) 仮想オブジェクトの制御方法並びにその、装置、端末及びコンピュータプログラム
JP7395600B2 (ja) マルチプレイヤーオンライン対戦プログラムの提示情報送信方法、提示情報表示方法、提示情報送信装置、提示情報表示装置、端末、及びコンピュータプログラム
US11890541B2 (en) Virtual object control method and apparatus, device, and storage medium
JP7427728B2 (ja) 仮想オブジェクト制御方法並びにその、装置、コンピュータ装置及びプログラム
CN111265872B (zh) 虚拟对象的控制方法、装置、终端及存储介质
CN111672116B (zh) 控制虚拟对象释放技能的方法、装置、终端及存储介质
WO2021238870A1 (zh) 信息显示方法、装置、设备及存储介质
TWI821779B (zh) 虛擬對象的控制方法、裝置、計算機設備及儲存媒體
CN114225372B (zh) 虚拟对象的控制方法、装置、终端、存储介质及程序产品
CN112569607B (zh) 预购道具的显示方法、装置、设备及介质
CN112221135B (zh) 画面显示方法、装置、设备以及存储介质
JP2023164687A (ja) 仮想オブジェクトの制御方法及び装置並びにコンピュータ装置及びプログラム
WO2023024880A1 (zh) 虚拟场景中的表情显示方法、装置、设备以及介质
EP3984608A1 (en) Method and apparatus for controlling virtual object, and terminal and storage medium
KR102728565B1 (ko) 가상 객체 제어 방법 및 장치, 디바이스 및 저장 매체

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211119

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230110

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20230331

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230509

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230620

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231020

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20231030

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231114

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231120

R150 Certificate of patent or registration of utility model

Ref document number: 7390400

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150