[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2017035215A - Information processor, information processing system, and character movement control program - Google Patents

Information processor, information processing system, and character movement control program Download PDF

Info

Publication number
JP2017035215A
JP2017035215A JP2015157246A JP2015157246A JP2017035215A JP 2017035215 A JP2017035215 A JP 2017035215A JP 2015157246 A JP2015157246 A JP 2015157246A JP 2015157246 A JP2015157246 A JP 2015157246A JP 2017035215 A JP2017035215 A JP 2017035215A
Authority
JP
Japan
Prior art keywords
character
information processing
touch panel
flick
processing apparatus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015157246A
Other languages
Japanese (ja)
Inventor
亮 宮島
Akira Miyajima
亮 宮島
佑貴 戸塚
Yuki Tozuka
佑貴 戸塚
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Akatsuki Inc
Original Assignee
Akatsuki Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Akatsuki Inc filed Critical Akatsuki Inc
Priority to JP2015157246A priority Critical patent/JP2017035215A/en
Publication of JP2017035215A publication Critical patent/JP2017035215A/en
Pending legal-status Critical Current

Links

Landscapes

  • User Interface Of Digital Computer (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an information processor and the like performing improved character movement control by direct control.SOLUTION: An information processor is provided with a touch panel and performs movement control of characters displayed onto a screen by detecting a user's direct control of the touch panel. Detection of the direct control is performed at a timing at which a contact state of the touch panel is shifted to a non-contact state. When it is detected by the detection that a distance between a starting point and a terminal right before the timing is equal to or larger than a certain value and a time of a contact condition of the touch panel is below the certain value, it is determined that flick has occurred. In the case that (A1) the flick faces sideways, the character is made to perform an emergency avoiding motion; in the case that (A2) the flick looks downward, the character is made to perform a motion slipping a foothold.SELECTED DRAWING: Figure 1

Description

本発明は、キャラクタの移動操作を伴うゲーム等を進行する情報処理装置、情報処理システム、及びキャラクタ移動制御プログラムに関する。   The present invention relates to an information processing apparatus, an information processing system, and a character movement control program for progressing a game or the like accompanied by a character movement operation.

従来、タブレットやスマートフォン、携帯ゲーム、携帯電話等の情報処理端末装置のタッチパネル式ディスプレイ上に表示させたキャラクタオブジェクト等を、指やペン等を用いたタッチパネルに対する直接操作によって移動させる技術が提案されてきた。   Conventionally, a technique has been proposed in which a character object or the like displayed on a touch panel display of an information processing terminal device such as a tablet, a smartphone, a mobile game, or a mobile phone is moved by a direct operation on the touch panel using a finger or a pen. It was.

例えば、キャラクタオブジェクト等をより広い範囲で入力軌跡に沿って移動させることができる技術が提案されている(特許文献1)。   For example, a technique that can move a character object or the like along an input trajectory in a wider range has been proposed (Patent Document 1).

すわなち、特許文献1には、入力手段の入力に応じて仮想空間内を移動するオブジェクトを表示手段に表示する情報処理装置のオブジェクト移動制御プログラムであって、前記情報処理装置のプロセサに、前記仮想空間内の第1領域を示す第1画面と前記第1領域よりも広い第2領域を示す第2画面とを同時にまたは切り替えて前記表示手段に表示する表示制御ステップ、前記表示手段に表示された前記第2画面に対して前記入力手段によって入力された座標を検出する検出ステップ、前記検出ステップによって連続的に検出された座標の示す入力軌跡を記憶手段に記憶する軌跡取得ステップ、前記軌跡取得ステップによって記憶した前記入力軌跡に対応する前記仮想空間の座標に沿って前記オブジェクトを移動させる移動制御ステップ、および前記移動制御ステップによる前記オブジェクトの移動を前記第1 画面で表示する移動表示ステップを実行させる、オブジェクト移動制御プログラムが開示されている。   In other words, Patent Document 1 discloses an object movement control program for an information processing apparatus that displays an object that moves in a virtual space in response to an input from an input means on a display means. A display control step of displaying on the display means simultaneously or switching between a first screen showing the first area in the virtual space and a second screen showing a second area wider than the first area; A detection step of detecting coordinates input by the input means with respect to the second screen, a trajectory acquisition step of storing in the storage means an input trajectory indicated by the coordinates continuously detected by the detection step; A movement control step for moving the object along the coordinates of the virtual space corresponding to the input trajectory stored in the acquisition step; The movement of the object by fine said movement controlling step to execute the movement displaying step of displaying in said first window, movement control program is disclosed objects.

また、小型の機器で操作性のよい入力手段を実現させることは困難であるという課題に鑑みた提案もなされている(特許文献2)。   In addition, a proposal has been made in view of the problem that it is difficult to realize an input means with good operability with a small device (Patent Document 2).

すなわち、特許文献2には、GUI(Graphical User Interface)の画像を生成するGUI画像生成部と、前記GUI画像生成部が生成したGUIの画像を表示するディスプレイと、前記ディスプレイを覆い、ユーザが接触した位置を検知するタッチパネルと、前記タッチパネルが検知した接触点と表示中のGUIの画像との対応関係から、ユーザが行った操作内容を特定する操作情報変換部と、を備え、前記GUI画像生成部は、前記GUIの画像において、複数のGUIのグラフィックスの少なくとも一部を複合させた複合グラフィックスによって当該複数のGUIを複合した複合GUIの領域を設け、ユーザが前記複合GUIに新たに触れた際、前記操作情報変換部は、当該複合GUIで複合されている前記複数のGUIのうち、その接触が開始された点を含むグラフィックスに対応する一のGUIを特定し、前記GUI画像生成部は、前記複合GUIを、前記操作情報変換部が特定した一のGUIへ切り換えることで、前記タッチパネルの同じ検知領域を複数のGUIで共有させることを特徴とする入力装置が開示されている。   That is, Patent Document 2 discloses a GUI image generation unit that generates a GUI (Graphical User Interface) image, a display that displays a GUI image generated by the GUI image generation unit, covers the display, and is touched by the user. A touch panel for detecting the position of the touch panel, and an operation information conversion unit for specifying the content of the operation performed by the user based on the correspondence between the contact point detected by the touch panel and the GUI image being displayed. In the GUI image, a composite GUI area in which the plurality of GUIs are combined by composite graphics in which at least a part of the plurality of GUI graphics is combined is provided in the GUI image, and the user newly touches the composite GUI. In this case, the operation information conversion unit opens the contact among the plurality of GUIs combined with the composite GUI. The GUI image generation unit identifies one GUI corresponding to the graphics including the selected point, and the GUI image generation unit switches the composite GUI to the one GUI identified by the operation information conversion unit, thereby detecting the same touch panel. An input device is disclosed in which an area is shared by a plurality of GUIs.

特開2007−26129号公報JP 2007-26129 A 特開2012−168931号公報JP 2012-168931 A

しかしながら、タブレットやスマートフォン等の小型の情報機器には、元々そのサイズ上の制約があり、単に操作領域やソフトウェアオブジェクトの物理的・時間的な配置を工夫するだけには、自ずと限界があった。特に、画面上に表示させたキャラクタ等を、タッチパネルに対する直接操作によってより効率よく移動制御させる工夫については、さらなる改良が期待される。   However, small information devices such as tablets and smartphones originally have size restrictions, and there is a limit to simply devising the physical and temporal arrangement of operation areas and software objects. In particular, further improvements are expected for the device that controls the movement of characters and the like displayed on the screen more efficiently by direct operation on the touch panel.

そこで、本発明の一実施形態にかかる情報処理装置は、タッチパネルを備え、前記タッチパネルに対するユーザの直接操作を検知することによって画面上に表示させたキャラクタを移動制御させる情報処理装置であって、前記直接操作の検知は、前記タッチパネルへの接触状態から非接触状態へ遷移するタイミングで検知されるものであり、前記検知により、始点と前記タイミングの直前の終点との距離が一定の値以上であり、かつ前記タッチパネルの接触状態の時間が一定の値未満であることが検知された場合にフリックであると判断し、(A1)前記判断された前記フリックが横向きのフリックである場合には、前記キャラクタの緊急回避動作であると判断して前記キャラクタに緊急回避動作をさせること、(A2)前記判断された前記フリックが下向きのフリックである場合には、前記キャラクタの足場すり抜け動作であると判断して前記キャラクタに足場すり抜け動作をさせることの少なくともいずれか1つを実行することを特徴とする。   Therefore, an information processing apparatus according to an embodiment of the present invention is an information processing apparatus that includes a touch panel and controls movement of a character displayed on a screen by detecting a user's direct operation on the touch panel. The detection of the direct operation is detected at the timing when the touch panel touch state is changed to the non-contact state, and the distance between the start point and the end point immediately before the timing is a certain value or more by the detection. When the touch state of the touch panel is detected to be less than a certain value, the touch panel is determined to be a flick. (A1) When the determined flick is a horizontal flick, Determining that the character is in an emergency avoidance motion and causing the character to perform an emergency avoidance motion; (A2) Rick when a downward flick is characterized by performing at least one of be the scaffold slip through operation to said it is determined that the a scaffold slipping motion of the character the character.

また、本発明の一実施形態にかかるキャラクタ移動制御プログラムは、タッチパネルを備えた情報処理装置に、前記タッチパネルに対するユーザの直接操作を検知することによって画面上に表示させたキャラクタを移動制御させるコンピュータプログラムであって、前記情報処理装置上で実行されたとき、前記情報処理装置に、前記タッチパネルへの接触状態から非接触状態へ遷移するタイミングを検知させることにより前記直接操作を検知させるステップと、前記検知により、始点と前記タイミングの直前の終点との距離が一定の値以上であり、かつ前記タッチパネルの接触状態の時間が一定の値未満であることを検知させ、当該検知によりフリックであると判断させるステップと、(B1)前記判断された前記フリックが横向きのフリックである場合には、前記キャラクタの緊急回避動作であると判断させて前記キャラクタに緊急回避動作をさせるステップ、(B2)前記判断された前記フリックが下向きのフリックである場合には、前記キャラクタの足場すり抜け動作であると判断させて前記キャラクタに足場すり抜け動作をさせるステップの少なくともいずれか1つのステップを実行させることを特徴とする。   A character movement control program according to an embodiment of the present invention is a computer program that causes an information processing apparatus having a touch panel to move and control a character displayed on a screen by detecting a user's direct operation on the touch panel. And, when executed on the information processing apparatus, causing the information processing apparatus to detect the direct operation by detecting a timing of transition from a contact state to the touch panel to a non-contact state; and The detection detects that the distance between the start point and the end point immediately before the timing is equal to or greater than a certain value and the touch state of the touch panel is less than a certain value, and determines that the flick is detected by the detection. (B1) the determined flick is a horizontal flip. If it is, the step of causing the character to perform an emergency avoidance action by determining that it is an emergency avoidance action of the character; (B2) If the determined flick is a downward flick, It is characterized in that at least one step of causing the character to perform a scaffold slipping motion by determining that it is a scaffold slipping motion is executed.

本発明の一実施形態にかかる情報処理装置等によれば、タッチパネルに対する直接操作によって、画面上に表示させたキャラクタ等に対して改善された移動制御をさせることができるという特段の効果を奏する。   According to the information processing apparatus and the like according to an embodiment of the present invention, there is a special effect that improved movement control can be performed on a character or the like displayed on the screen by direct operation on the touch panel.

本発明の一実施形態にかかる情報処理装置の外観構成を説明する説明図である。It is explanatory drawing explaining the external appearance structure of the information processing apparatus concerning one Embodiment of this invention. 本発明の一実施形態にかかる情報処理装置の機能ブロックを説明する説明図である。It is explanatory drawing explaining the functional block of the information processing apparatus concerning one Embodiment of this invention. 本発明の一実施形態にかかる情報処理装置を含む情報処理システムの全体構成例を説明する説明図である。It is explanatory drawing explaining the example of whole structure of the information processing system containing the information processing apparatus concerning one Embodiment of this invention. 本発明の一実施形態にかかる情報処理装置を含む情報処理システムの動作例を説明する説明図である。It is explanatory drawing explaining the operation example of the information processing system containing the information processing apparatus concerning one Embodiment of this invention. 本発明の一実施形態にかかる情報処理装置に対する操作系の概念を説明する説明図である。It is explanatory drawing explaining the concept of the operation type | system | group with respect to the information processing apparatus concerning one Embodiment of this invention. 本発明の一実施形態にかかる情報処理装置ないしキャラクタ移動制御プログラムの処理例を説明するフローチャートである。It is a flowchart explaining the process example of the information processing apparatus thru | or character movement control program concerning one Embodiment of this invention. 本発明の一実施形態にかかる情報処理装置ないしキャラクタ移動制御プログラムによるキャラクタの動作制御例を説明する説明図である。It is explanatory drawing explaining the example of character motion control by the information processing apparatus thru | or one character movement control program concerning one Embodiment of this invention. 本発明の一実施形態にかかる情報処理装置ないしキャラクタ移動制御プログラムにおけるキャラクタの動作制御例を説明する説明図である。It is explanatory drawing explaining the example of character motion control in the information processing apparatus thru | or character movement control program concerning one Embodiment of this invention. 本発明の一実施形態にかかる情報処理装置における画面構成例を説明する説明図である。It is explanatory drawing explaining the example of a screen structure in the information processing apparatus concerning one Embodiment of this invention. 本発明の一実施形態にかかる情報処理装置ないしキャラクタ移動制御プログラムにおけるキャラクタの具体的な動作制御例を説明する説明図である。It is explanatory drawing explaining the example of a specific motion control in the information processing apparatus thru | or one character movement control program concerning one Embodiment of this invention. 本発明の一実施形態にかかる情報処理装置ないしキャラクタ移動制御プログラムの詳細な処理例を説明するフローチャートである。It is a flowchart explaining the detailed process example of the information processing apparatus thru | or character movement control program concerning one Embodiment of this invention. 本発明の一実施形態にかかる情報処理装置ないしキャラクタ移動制御プログラムの詳細な処理例を説明するフローチャートである。It is a flowchart explaining the detailed process example of the information processing apparatus thru | or character movement control program concerning one Embodiment of this invention. 本発明の一実施形態にかかる情報処理装置におけるキャラクタのジャンプ動作の概念を説明する説明図である。It is explanatory drawing explaining the concept of the jump operation | movement of the character in the information processing apparatus concerning one Embodiment of this invention. 本発明の一実施形態にかかる情報処理装置におけるキャラクタの2段階ジャンプ動作を指示する場合の操作例を従来の操作例と比較して説明する説明図である。It is explanatory drawing explaining the operation example in the case of instruct | indicating the two-step jump operation | movement of the character in the information processing apparatus concerning one Embodiment of this invention compared with the conventional operation example. 本発明の他の実施形態にかかる情報処理装置におけるキャラクタのジャンプ動作の制御概念を従来例と比較して説明する説明図である。It is explanatory drawing explaining the control concept of the jump operation | movement of the character in the information processing apparatus concerning other embodiment of this invention compared with a prior art example.

本発明の一実施形態にかかる情報処理装置及びキャラクタ移動制御プログラムについて、図面を参照しながら詳細に説明する。   An information processing apparatus and a character movement control program according to an embodiment of the present invention will be described in detail with reference to the drawings.

図1に、本発明の一実施形態にかかる情報処理装置としてのタブレット端末の外観構成を示す。図1において、情報処理装置(タブレット端末)15は、筐体部151とディスプレイ152と筐体151の下部中央部に設けられたハードウェアボタン153とからなる。ディスプレイ152は典型的には液晶ディスプレイ(LCD)等で構成され、文字や静止画像や動画など様々な情報を表示することができる。また、ディスプレイ152にメニューボタンやソフトウェアキーボードを表示させ、これを指ないしタッチペン(不図示)等で触れることによりタブレット端末15への指示(コマンド)とすることができる。この点で上記ハードウェアボタン153は必須の構成要素ではないが、本発明の説明の便宜上、一定の機能を担うボタンとして実装されている。もちろん、これらハードウェアボタン153を、ディスプレイ152の一部に表示させたメニューボタンで代替させることも可能である。   FIG. 1 shows an external configuration of a tablet terminal as an information processing apparatus according to an embodiment of the present invention. In FIG. 1, the information processing apparatus (tablet terminal) 15 includes a housing unit 151, a display 152, and a hardware button 153 provided at a lower center portion of the housing 151. The display 152 is typically composed of a liquid crystal display (LCD) or the like, and can display various information such as characters, still images, and moving images. Further, a menu button or a software keyboard is displayed on the display 152, and an instruction (command) to the tablet terminal 15 can be made by touching it with a finger or a touch pen (not shown). In this respect, the hardware button 153 is not an essential component, but is implemented as a button having a certain function for convenience of explanation of the present invention. Of course, these hardware buttons 153 can be replaced with menu buttons displayed on a part of the display 152.

また、ディスプレイ152には、マルチタッチ入力パネルが含まれており、タッチ入力パネル上でのタッチ入力位置座標が入力デバイスインタフェース(不図示)を介してタブレット端末15の処理系(CPU)へ送信され処理される。そして、このマルチタッチ入力パネルは、パネルに対する複数の接触点を同時に感知することができるよう構成されている。この検出(センサ)については様々な方法で実現することができ、必ずしも接触センサに限られず、例えば、光学式のセンサを利用してパネルに対する指示点を抽出することも可能である。さらに、センサには、接触式のセンサや光学式のセンサのほか、人の肌の接触を感知する静電容量方式のセンサを用いることも可能である。   The display 152 includes a multi-touch input panel, and touch input position coordinates on the touch input panel are transmitted to a processing system (CPU) of the tablet terminal 15 via an input device interface (not shown). It is processed. And this multi-touch input panel is comprised so that the several contact point with respect to a panel can be sensed simultaneously. This detection (sensor) can be realized by various methods, and is not necessarily limited to the contact sensor. For example, an indication point for the panel can be extracted using an optical sensor. Furthermore, in addition to a contact sensor or an optical sensor, a capacitive sensor that senses contact with human skin can be used as the sensor.

また、図1には現れていないが、タブレット端末15は、マイクやスピーカを備えることもできる。この場合にはマイクより拾ったユーザの声などを判別して入力コマンドとすることも可能である。さらに、図1には現れていないが、タブレット端末15の背面等には、CMOS等のカメラデバイスが実装されている。   Although not shown in FIG. 1, the tablet terminal 15 can also include a microphone and a speaker. In this case, it is possible to determine the voice of the user picked up from the microphone and use it as an input command. Further, although not shown in FIG. 1, a camera device such as a CMOS is mounted on the back surface of the tablet terminal 15 or the like.

図2に、本発明の一実施形態にかかるタブレット端末15を構成するハードウェアの機能ブロック図を例示する。タブレット端末15の動作は、以下に説明するハードウェアの個々の動作、及びソフトウェアとこれらハードウェアとの連携動作によって実現されている。   FIG. 2 illustrates a functional block diagram of hardware constituting the tablet terminal 15 according to the embodiment of the present invention. The operation of the tablet terminal 15 is realized by individual operations of hardware described below, and a cooperative operation between software and these hardware.

図2において、ハードウェアブロック全体としてのタブレット端末200は、大別すると、図1におけるハードウェアボタン153、ディスプレイ152に設けられたマルチタッチ入力パネル、マイク等で構成される入力部201と、プログラムやデータ等を記憶するためのハードディスク、RAM及び/又はROM等で構成される記憶部202と、プログラムによって様々な数値計算や論理演算を行うCPUによって構成される中央処理部203と、ディスプレイ152等で構成される表示部204と、チップや電気系統等の制御を行うための制御部205と、インターネットにアクセスするためのスロットや光通信を行うためのポート、及び通信インタフェースから構成される通信インタフェース部206と、スピーカやバイブレーション等の出力部207と、時刻等を計時するための計時部208と、CMOS等のイメージセンサからなるセンサ部209と、装置内の各モジュールに電源を供給するための電源部210とからなり、これらのモジュールは必要に応じて適宜通信バスや給電線(図2においては、便宜上各線が適宜区分された結線211としてひとまとめに表す)によって接続されている。
なお、センサ部209には、タブレット端末200(15)の位置を特定するためのGPSセンサモジュールを含めることとしても良い。また、センサ部209を構成するCMOS等のイメージセンサによって検知された信号は、入力部201において入力情報として処理することができる。
In FIG. 2, the tablet terminal 200 as a whole hardware block can be broadly divided into a hardware button 153 in FIG. 1, a multi-touch input panel provided on the display 152, a microphone, and the like, a program, Storage unit 202 configured by a hard disk, RAM, and / or ROM for storing data and data, a central processing unit 203 configured by a CPU that performs various numerical calculations and logical operations by a program, a display 152, and the like A communication interface including a display unit 204 configured by a control unit 205, a control unit 205 for controlling a chip and an electric system, a slot for accessing the Internet, a port for optical communication, and a communication interface Unit 206, speaker and vibration An output unit 207, etc., a time measuring unit 208 for measuring time, etc., a sensor unit 209 composed of an image sensor such as a CMOS, and a power source unit 210 for supplying power to each module in the apparatus, These modules are connected by a communication bus or a power supply line as needed (in FIG. 2, for convenience, each line is collectively shown as a connection 211 divided appropriately).
The sensor unit 209 may include a GPS sensor module for specifying the position of the tablet terminal 200 (15). Further, a signal detected by an image sensor such as a CMOS constituting the sensor unit 209 can be processed as input information in the input unit 201.

また、本発明の実施に必要なプログラムないしソフトウェアは、通常、記憶部202を構成するハードディスクディスク、SSD(Solid State Drive)、フラッシュメモリ等にインストールないし記憶され、プログラムないしソフトウェアの実行時には、必要に応じて記憶部202内のメモリにその全部又は一部のソフトウェアモジュールとして読み出され、CPU203において演算実行される。   The program or software necessary for carrying out the present invention is normally installed or stored in a hard disk disk, SSD (Solid State Drive), flash memory, or the like that constitutes the storage unit 202, and is necessary when executing the program or software. Accordingly, all or a part of the software modules are read out to the memory in the storage unit 202 and are calculated and executed by the CPU 203.

なお、演算実行は必ずしもCPU等の中央処理部203で行われる必要はなく、図示しないディジタルシグナルプロセッサ(DSP)等の補助演算装置を用いることもできる。   It should be noted that the execution of the calculation is not necessarily performed by the central processing unit 203 such as a CPU, and an auxiliary arithmetic unit such as a digital signal processor (DSP) (not shown) can be used.

図3に、本発明の一実施形態にかかる情報処理装置をサーバないしシステムに接続して使用した場合の情報処理システムの全体構成例を示す。本発明の特徴的な処理動作は、情報処理装置単体でも実施可能であるが、本発明はこれに限定されるものではなく、情報処理サーバやゲームサーバに接続したうえで実施することもできる。この場合、情報処理装置単体でも実行可能な処理ルーチンのうちの少なくとも一部はサーバで実施されることになる。また、情報処理装置を操作するプレーヤの情報やポイント等のデータがサーバにおいて保存管理されるという場合もある。以下、図3を参照して、サーバに接続された情報処理装置がシステム全体として本発明の一実施形態を実施する場合の態様を説明する。   FIG. 3 shows an example of the overall configuration of an information processing system when an information processing apparatus according to an embodiment of the present invention is used connected to a server or system. The characteristic processing operation of the present invention can be implemented by an information processing apparatus alone, but the present invention is not limited to this, and can also be implemented after being connected to an information processing server or game server. In this case, at least a part of the processing routine that can be executed by the information processing apparatus alone is executed by the server. In some cases, information on a player who operates the information processing apparatus and data such as points are stored and managed in the server. Hereinafter, with reference to FIG. 3, an aspect in which an information processing apparatus connected to a server implements an embodiment of the present invention as the entire system will be described.

図3に示されるように、情報処理システム30は、その最小限の構成として、情報処理サーバ31と、プレーヤが使用する各種情報処理装置(図において、例示的に、PC32及び33、携帯電話34、携帯情報端末ないしタブレット端末15が示されている。以下、総称して「端末」とも言うこともある)とで構成され、サーバ及び各種端末間は、図3に示されるように専用回線やインターネット等の公衆回線(有線の回線として、36〜38)で相互に通信可能に接続されている。また、回線は有線であっても無線であってもよく、無線の場合、携帯電話34及び携帯情報端末ないしタブレット端末15は、無線で図示しない基地局や無線ルータ等を介してインターネット39に乗り入れ、更に回線38を介して情報処理サーバ31と相互に通信可能に接続される。   As shown in FIG. 3, the information processing system 30 includes, as its minimum configuration, an information processing server 31 and various information processing devices used by players (in the figure, PCs 32 and 33, a mobile phone 34 exemplarily). A portable information terminal or a tablet terminal 15 is also shown below, and may be collectively referred to as a “terminal”), and between the server and various terminals, as shown in FIG. They are connected to each other via a public line such as the Internet (36 to 38 as a wired line). Further, the line may be wired or wireless, and in the case of wireless, the mobile phone 34 and the portable information terminal or tablet terminal 15 enter the Internet 39 via a base station, a wireless router or the like not shown wirelessly. Further, they are connected to the information processing server 31 via the line 38 so as to be able to communicate with each other.

なお、本願の出願時点での携帯電話や携帯情報端末ないしタブレットは、パーソナルコンピュータ(PC)に比肩する処理能力(通信処理速度や画像処理能力等)を備えているものも多く、小型のコンピュータとも言うべきものである。   Note that many mobile phones, personal digital assistants, and tablets at the time of filing of the present application have processing capabilities (communication processing speed, image processing capability, etc.) comparable to personal computers (PCs). It is something to say.

また、本発明の実施に必要なプログラムないしソフトウェアは、通常、PCや携帯情報端末の記憶部におけるHDD、SSD等にインストールないし記憶され、プログラムないしソフトウェアの実行時には、必要に応じて記憶部内のメモリにその全部又は一部のソフトウェアモジュールとして読み出され、CPUにおいて演算実行される。   In addition, a program or software necessary for implementing the present invention is normally installed or stored in an HDD, an SSD, or the like in a storage unit of a PC or a portable information terminal. When executing the program or software, a memory in the storage unit is necessary. Are read as all or a part of the software modules, and are executed by the CPU.

なお、演算実行は必ずCPU等の中央処理部で行われる必要はなく、図示しないディジタルシグナルプロセッサ(DSP)等の補助演算装置を用いることもできる。   It should be noted that the execution of the calculation is not necessarily performed by a central processing unit such as a CPU, and an auxiliary arithmetic unit such as a digital signal processor (DSP) (not shown) can be used.

また、情報処理サーバ31のハードウェア構成も、基本的にはPCを採用することができる。なお、本発明はこれに限定されるものではないが、情報処理サーバ31は、必要に応じてそのハードウェアスペックを上げるにあたり、複数のPC(一例として、数十台〜数万台)を並列的に作動させることによって大規模データの処理に適した構成をとることもできる。   Further, the hardware configuration of the information processing server 31 can basically adopt a PC. Although the present invention is not limited to this, the information processing server 31 has a plurality of PCs (several tens to tens of thousands as an example) in parallel to increase the hardware specifications as necessary. It is also possible to adopt a configuration suitable for processing large-scale data by operating in an automatic manner.

次に、図4の動作フローを用いて、本発明にかかる一実施形態における情報処理装置を含むシステム、情報処理装置(ユーザ端末)ないしコンピュータプログラムの動作を説明する。
既に述べたように、本発明の特徴的な動作は、情報処理装置単体としても実施可能であるとともに、少なくともその一部を情報処理サーバ等のサーバに実施させることができる。
Next, the operation of the system including the information processing apparatus, the information processing apparatus (user terminal), or the computer program according to the embodiment of the present invention will be described using the operation flow of FIG.
As already described, the characteristic operation of the present invention can be implemented as an information processing apparatus alone, and at least a part thereof can be implemented in a server such as an information processing server.

図4は、本発明の一実施形態における情報処理装置を含むシステムの全体動作フローの概略を示す。図4において、「ユーザ端末」は情報処理装置であり、図1におけるタブレット端末15のほか、同図のPC12、13、携帯電話14などがこれに対応し、「情報処理サーバ」は、図3における情報処理サーバ31がこれに対応する。また、図4中、t1〜t10は時系列の流れを示し、経時的に後述する動作や処理が行われるものである。   FIG. 4 shows an outline of the overall operation flow of the system including the information processing apparatus according to the embodiment of the present invention. In FIG. 4, “user terminal” is an information processing apparatus. In addition to the tablet terminal 15 in FIG. 1, the PCs 12 and 13 and the mobile phone 14 in FIG. The information processing server 31 corresponds to this. In FIG. 4, t1 to t10 indicate a time-series flow, and operations and processes described later are performed over time.

まず、日時t1において、ユーザ(プレーヤ)は、ユーザ端末を介して情報処理サーバから自身のユーザ端末を本発明にかかる情報処理装置として動作させるためのアプリケーションソフトウェアをダウンロードする(ステップS401)。このアプリケーションソフトウェアは、本発明にかかるプログラムの一部又は全部を処理するためのクライアントソフトウェアないしアプリケーションソフトウェアである。そして、ダウンロードしたアプリケーションソフトウェアをユーザ端末にインストールする(ステップS402)。このとき、時刻t2において、ユーザ端末からは、必要に応じてユーザ登録としてユーザ自身のメールアドレスのほか、一例として、次表のようなプロフィール情報を情報処理サーバへアップロード(ステップS403)して登録管理させることもできる(ステップS404)。
First, at the date and time t1, the user (player) downloads application software for operating his / her user terminal as the information processing apparatus according to the present invention from the information processing server via the user terminal (step S401). This application software is client software or application software for processing part or all of the program according to the present invention. Then, the downloaded application software is installed in the user terminal (step S402). At this time, the user terminal uploads the user's own mail address as user registration as necessary, and uploads the profile information shown in the following table to the information processing server as an example at time t2 (step S403). It can also be managed (step S404).

以上のデータ項目は、ユーザデータとして情報処理サーバ上で保存される(ステップS405)。時刻t3以降は、ユーザ(プレーヤ)が情報処理装置を操作することによりゲームを開始することができる。   The above data items are stored as user data on the information processing server (step S405). After time t3, the user (player) can start the game by operating the information processing apparatus.

次に、ユーザ端末にアプリをダウンロード及びインストールしたユーザは、時刻t4においてアプリケーションソフトウェアを起動する(ステップS406)。時刻t4〜時刻t5まで、例示的にユーザは情報処理装置(端末)でのゲーム遊戯に興じている。   Next, the user who downloaded and installed the application on the user terminal activates the application software at time t4 (step S406). From time t4 to time t5, the user exemplarily plays a game on the information processing apparatus (terminal).

時刻t5になると、ユーザはいったん本発明の一実施形態にかかるアプリケーションソフトウェアを中断ないし終了する。このとき、必要に応じて、アプリケーションのステータス情報(得点やレベルアップの有/無、あるいは、レベルアップに伴う使用可能なコンテンツの権限データ、到達したステージ情報等のゲームの状況を表わす情報等、ゲームを再開ないし継続するために必要な各種パラメータ情報)を情報処理サーバへ転送し(ステップS407)、サーバではこれを受信して当該ユーザのユーザ情報としてのステータス情報を更新(ステップS408)及び保存(ステップS409)する。図4においては、これらの処理は、時刻t6までに完了している。   At time t5, the user interrupts or terminates the application software according to the embodiment of the present invention. At this time, if necessary, the application status information (scores, presence / absence of level-up, content authority data that can be used with level-up, information indicating the status of the game such as reached stage information, etc.) Various parameter information necessary for restarting or continuing the game) is transferred to the information processing server (step S407), and the server receives this and updates the status information as the user information of the user (step S408) and saves it. (Step S409). In FIG. 4, these processes are completed by time t6.

なお、本発明の一実施形態にかかるアプリケーションソフトウェアを情報処理装置にインストールした後は、端末上で完全にクローズドに実行可能な形態とすることももちろん可能であり、この場合は、上述のステップS404〜ステップS405、並びに、ステップS408〜ステップS409を省略することができ、必要な情報があれば端末のメモリ上に保存管理される。   It should be noted that, after installing the application software according to the embodiment of the present invention in the information processing apparatus, it is of course possible to have a form that can be executed completely on the terminal. In this case, the above-described step S404 is possible. Step S405 and Step S408 to Step S409 can be omitted, and if necessary information is stored and managed in the memory of the terminal.

次に、図4において、時刻t7〜時刻t10では、本発明の一実施形態にかかるアプリケーションソフトウェアの少なくとも一部を情報処理サーバにおいて実施する場合の実施形態例を示している。この場合、ユーザ(プレーヤ)は、ログイン動作と、コマンド送信という2つの典型的なユーザ端末操作を行い、情報処理サーバから必要なデータ送信を受け、あるいは、サービス提供を受けることとなる。   Next, in FIG. 4, at time t <b> 7 to time t <b> 10, an embodiment example in which at least a part of application software according to an embodiment of the present invention is executed in the information processing server is shown. In this case, the user (player) performs two typical user terminal operations such as a login operation and command transmission, and receives necessary data transmission from the information processing server or receives service provision.

例えば、図4において、時刻t7においてユーザが自身の情報処理装置を介してサーバへのログイン処理を行う(ステップS410)と、情報処理サーバでは必要な認証処理が適宜行われ(ステップS411)、時刻t8において、ユーザがサービス提供を受けられるためのデータを送信する(ステップS412)。例えば、端末からのコマンドを受信可能に構成されたトップメニュー画面や、アプリケーションの起動画面等である。   For example, in FIG. 4, when the user performs login processing to the server via his / her information processing apparatus at time t7 (step S410), necessary authentication processing is appropriately performed in the information processing server (step S411). At t8, data for the user to receive service provision is transmitted (step S412). For example, a top menu screen configured to be able to receive commands from the terminal, an application startup screen, and the like.

時刻t9において、ユーザは情報処理装置を介して何らかのコマンドを送信する(ステップS413)。このコマンドは、メニュー画面に表示されたメニューの選択かもしれないし、アプリケーション起動画面であれば、アプリケーションを開始するための開始コマンドの場合もある。サーバ側では、このコマンドを受けて、サービス処理を開始する(ステップS414)。そして、時刻t10において、サーバから端末の要求に応じたサービスが提供される(ステップS415)。   At time t9, the user transmits some command via the information processing apparatus (step S413). This command may be a menu selection displayed on the menu screen, or may be a start command for starting an application if it is an application startup screen. The server side receives this command and starts service processing (step S414). Then, at time t10, a service corresponding to the terminal request is provided from the server (step S415).

なお、図4には図示していないが、時刻t10以降も、端末からは随時コマンドを送信することができ(例えば、ゲームアプリケーション実行中の操作コマンドなど)、都度、サーバでは端末からのコマンド受信を受けてサービスを提供することができる(例えば、ゲームアプリケーション実行中の操作コマンドを受けて対象となるオブジェクトを移動させたり、その他の演算処理をしたりするなど)。   Although not shown in FIG. 4, a command can be transmitted from the terminal at any time after the time t10 (for example, an operation command during execution of the game application), and the server receives a command from the terminal each time. Service can be provided (for example, a target object is moved in response to an operation command during execution of a game application, or other arithmetic processing is performed).

その他付加的に、ユーザ(プレーヤ)は、一例としてユーザ端末から特定の相手もしくは特定多数の相手に向けてメッセージを送信することもできる(図4において不図示)。このメッセージは、情報処理サーバにて中継され、特定の相手もしくは特定多数の相手に転送され相手方において受信される。また、送信したメッセージは自身の端末でも確認できる。このようなコミュニケーションツールはいわばオプションであり、必要に応じて実装することができる。   In addition, as an example, the user (player) can also send a message from a user terminal to a specific partner or a specific number of partners (not shown in FIG. 4). This message is relayed by the information processing server, transferred to a specific partner or a specific number of partners, and received at the other party. The sent message can also be confirmed on its own terminal. Such communication tools are optional, and can be implemented as needed.

(操作系の定義)
一般的に、タッチパネルに対する直接操作には、タップ、フリック等の操作があるが、本発明の一実施形態においては、一例として次のような操作系を定義する。
1.始点
タッチパネルに対し、ユーザの指等が非接触状態から接触状態となったときに触れた点。ただし、ジャンプ指示と判断されたフレームの直後は、その時点でタッチパネルに接触している点が新たな始点としてリセットされる(このリセット処理は、本発明の大きな特徴部分であり、後述する)。
(Operation system definition)
Generally, direct operations on the touch panel include operations such as tapping and flicking. In one embodiment of the present invention, the following operation system is defined as an example.
1. Start point A point touched on the touch panel when a user's finger, etc. changes from a non-contact state to a contact state. However, immediately after the frame determined to be a jump instruction, the point touching the touch panel at that time is reset as a new starting point (this reset process is a major feature of the present invention and will be described later).

2.終点
ある時点において、ユーザの指等がタッチパネルに対して始点から接触した状態を保ったまま接地している点(必ずしも、指等がタッチパネルから離れること、すなわち、非接触状態となることは、終点となるための必須条件ではない)。接触状態にある終点を「現接地点」とも言う。
また、現接地点にある指がタッチパネルに接触した状態を保って移動している場合には、一例として、現接地点から遡って一定の過去における一定時刻ごとの接地点座標から、刻々と変化する速度成分を算出することにより、「現接地点での移動速度」を抽出することもできる。
2. End point At a certain point in time, the user's finger or the like is in contact with the touch panel from the start point while being grounded (the finger or the like is not necessarily touched from the touch panel, that is, the non-contact state is the end point. Is not a necessary condition). The end point in contact is also referred to as the “current ground point”.
Also, when the finger at the current grounding point is moving while touching the touch panel, as an example, it changes every moment from the grounding point coordinates at a certain time in the past going back from the current grounding point. By calculating the speed component to be performed, the “moving speed at the current contact point” can be extracted.

3.タップ
ユーザの指等が画面に触れている状態(接触状態)から触れていない状態(非接触状態)へ遷移するタイミングで検知される操作であって、始点と直前の終点の距離が一定の値未満である場合に検知される直接操作。
3. Tap An operation that is detected when the user's finger touches the screen (contact state) and does not touch (non-contact state), and the distance between the start point and the previous end point is a constant value. Direct manipulation detected when less than.

4.フリック
ユーザの指等が画面に触れている状態(接触状態)から触れていない状態(非接触状態)へ遷移するタイミングで検知される操作であって、始点と直前の終点の距離が一定の値以上であり、かつユーザがタッチパネル画面に触れている時間が一定の値未満である場合に検知される直接操作。なお、フリックの向きは、始点と直前の終点を結ぶ直線の向きであるものとする。
4). Flick An operation that is detected when the user's finger touches the screen (contact state) and does not touch (non-contact state), and the distance between the start point and the previous end point is a constant value. This is the direct operation detected when the time when the user is touching the touch panel screen is less than a certain value. It is assumed that the direction of the flick is the direction of a straight line connecting the start point and the immediately preceding end point.

5.操作方向が「横向き」であること(横向きであると判断される条件例)
タッチパネルに接触したユーザの指等の始点と終点とを結ぶベクトルの水平成分が画面の水平軸に対して成す角度が一定の未満であること
5). The operation direction is “landscape” (example of condition that is judged to be landscape)
The angle formed by the horizontal component of the vector connecting the start point and end point of the user's finger touching the touch panel with respect to the horizontal axis of the screen is less than a certain level.

6.操作方向が「下向き」であること(下向きであると判断される条件例)
タッチパネルに接触したユーザの指等の始点と終点とを結ぶベクトルの垂直成分が画面の垂直軸に対して成す角度が一定の値未満であり、かつ始点よりも終点が鉛直下方向にあること。
6). The operation direction is “downward” (condition example that is determined to be downward)
The angle formed by the vertical component of the vector connecting the start point and the end point of the user's finger or the like touching the touch panel with respect to the vertical axis of the screen is less than a certain value, and the end point is vertically downward from the start point.

7.距離A及び距離B
本実施例においては、A<Bとなる所定長とする。
7). Distance A and distance B
In the present embodiment, the predetermined length is A <B.

そして、図5に、本発明の一実施形態にかかる情報処理装置に対する操作系を例示する。すなわち、図5(A)及び(B)に示されたものは、本発明の一実施形態にかかる情報処理装置が備えるタッチパネルに対するユーザの指等による操作例であり、本発明の一実施形態にかかる情報処理装置は、かかる操作を検知してキャラクタ等の動作に反映させる。   FIG. 5 illustrates an operation system for the information processing apparatus according to the embodiment of the present invention. That is, what is shown in FIGS. 5A and 5B is an example of an operation by a user's finger or the like on the touch panel provided in the information processing apparatus according to the embodiment of the present invention. Such an information processing apparatus detects such an operation and reflects it in the action of a character or the like.

図5(A)では、始点T1(黒丸)から現接地点T2(白丸に黒ドット)まで、ユーザの指等が接触状態を保ったままタッチパネルに対して描いた軌跡を表わしている。図5(B)では、図5(A)の状態から指等をタッチパネルから離した状態(非接触状態)を表わしており、現接地点T2は、非接触状態となる終点T3(白丸)となる。   FIG. 5A shows a locus drawn on the touch panel from the start point T1 (black circle) to the current grounding point T2 (white dot with black dots) while maintaining the contact state of the user's finger or the like. FIG. 5B shows a state where a finger or the like is separated from the touch panel (non-contact state) from the state of FIG. 5A, and the current grounding point T2 is an end point T3 (white circle) that becomes a non-contact state. Become.

図6に、本発明の一実施形態にかかる情報処理装置ないしキャラクタ移動制御プログラムの処理例を示す。典型的には、本発明の一実施形態にかかるキャラクタ移動制御プログラムは、ステップS401に示したような、情報処理サーバからダウンロードされるアプリケーションソフトウェアに組み込まれている。
このアプリケーションソフトウェアが情報処理装置にダウンロードされてインストールされると、キャラクタ移動制御プログラムは、情報処理装置が備えるタッチパネルと協働して作動し、ユーザの指等による直接操作を検知及び判断してアプリケーションソフトウェア上のキャラクタ等の移動等をさせる。
FIG. 6 shows a processing example of the information processing apparatus or character movement control program according to the embodiment of the present invention. Typically, the character movement control program according to the embodiment of the present invention is incorporated in application software downloaded from the information processing server as shown in step S401.
When this application software is downloaded and installed in the information processing apparatus, the character movement control program operates in cooperation with the touch panel provided in the information processing apparatus, and detects and determines a direct operation by a user's finger or the like. Move characters on the software.

あるいは、本発明の他の実施形態にかかるキャラクタ移動制御プログラムは、少なくともその一部が情報処理サーバ上に置かれ、ステップS414に示したようなサービス処理として作動する。この場合は、ユーザが直接操作する情報処理装置のタッチパネルとネットワーク等を介して協働して作動することとなる。   Alternatively, at least a part of the character movement control program according to another embodiment of the present invention is placed on the information processing server and operates as a service process as shown in step S414. In this case, the information processing apparatus directly operated by the user operates in cooperation with the touch panel and the network.

また、本発明の一実施形態にかかるアプリケーションソフトウェアは、典型的には、横スクロール型のアクションゲームという形態で実施されるが、本発明は必ずしもこれに制限されることはなく、スクロールやアクションを前提としないゲーム等としても実施可能である。   The application software according to one embodiment of the present invention is typically implemented in the form of a side scroll type action game, but the present invention is not necessarily limited to this, and scrolling and action can be performed. It can also be implemented as a game that is not assumed.

図6のステップS601において、ゲーム等のアプリケーションが開始(起動)されると、ステップS602に進み、一例として、情報処理装置の画面上にキャラクタや障害物等の配置を行う(その様子の具体例は、図8を参照して後述する)。   In step S601 of FIG. 6, when an application such as a game is started (activated), the process proceeds to step S602, and as an example, characters, obstacles, and the like are arranged on the screen of the information processing apparatus (a specific example of this state). Will be described later with reference to FIG.

次に、ステップS603において、タッチパネルへの直接操作を待つ(同ステップにおいて、Noとなるループ)。この処理は、典型的には、タッチパネルに対するユーザの指等の検知と、検知があった場合の位置、及び必要に応じてその位置(近辺)にキャラクタが描画されているかどうかの判断等を含むイベントドリブン型の検知処理が実行される。
なお、本発明は、全てのアクションや動作について、必ずしも、画面に表示された「キャラクタ」そのものに対する直接操作のみを検出することには限定されない。もちろん、キャラクタに直接触る操作に基づきキャラクタのアクションや動作をさせると、より直感性が増して良好なものとなる。しかしながら、本発明はこれに限定されるものではなく、必要に応じて、例えば、攻撃アクションや後述するジャンプ動作等については、キャラクタそのものではなく画面上のどこをタップしても発動させるように制御することも可能である。
Next, in step S603, a direct operation on the touch panel is awaited (a loop that is No in this step). This processing typically includes detection of a user's finger or the like with respect to the touch panel, a position when the detection is made, and determination of whether or not a character is drawn at that position (near) if necessary. Event-driven detection processing is executed.
Note that the present invention is not necessarily limited to detecting only direct operations on the “character” itself displayed on the screen for all actions and operations. Of course, if the action or action of the character is performed based on an operation of directly touching the character, the intuition is increased and the character is improved. However, the present invention is not limited to this, and as required, for example, an attack action or a jump action to be described later is controlled so that it can be activated by tapping anywhere on the screen instead of the character itself. It is also possible to do.

ここで、キャラクタへの直接操作があった(ステップS603において、Yes)場合は、ステップS604へ進み、画面上におけるその位置及び時刻を始点(X,Y,T)として保存すると共に、始点から終点までの速度計測及び/又は距離計測を開始する。 If there is a direct operation on the character (Yes in step S603), the process proceeds to step S604, where the position and time on the screen are stored as the starting point (X 0 , Y 0 , T 0 ). Start speed measurement and / or distance measurement from the start point to the end point.

なお、速度計測は、始点が検知された位置及び時刻と終点の位置及び時刻とから、単位時間当たりの速度を水平成分と垂直成分とに分けて都度算出される。また、距離計測は、始点位置と終点位置とから現時点での始点からの距離が都度算出される。
ここでの「都度算出」とは、一例として、毎秒数回〜数十回程度の頻度であり、図5のフローチャートでは、例えば、(1)ステップS603から進み、ステップS609において「No」となってステップS603へ復帰するループ、(B)ステップS603から進み、ステップS612において「No」となってステップS603へ復帰するループ、(C)ステップS603から進み、ステップS605、ステップS615、ステップS617、ステップS619においてそれぞれ「No」と判断され、更にステップS621からステップS603へ復帰するループが、上述の頻度で実行される。
The speed measurement is calculated each time the speed per unit time is divided into a horizontal component and a vertical component from the position and time at which the start point is detected and the position and time of the end point. In the distance measurement, the current distance from the start point is calculated each time from the start point position and the end point position.
Here, “calculated every time” is, for example, a frequency of several times to several tens of times per second. In the flowchart of FIG. 5, for example, (1) the process proceeds from step S603 and becomes “No” in step S609. (B) A loop that returns to step S603, (C) A loop that returns to step S603, (C) A loop that returns from step S603, step S605, step S615, step S617, step S603 The loop in which each determination is “No” in S619 and the process returns from Step S621 to Step S603 is executed at the above-described frequency.

つまり、上述の頻度でステップS606のアクション判定(後述)やステップS614の動作判定(後述)が行われることとなり、ユーザの直接操作に基づく速度計測や距離計測により、所定のアクションや動作を行うものと判断された場合には、それぞれ決められた後述のアクションや動作が行われる。   That is, the action determination (described later) in step S606 and the operation determination (described later) in step S614 are performed at the above-described frequency, and a predetermined action or operation is performed by speed measurement or distance measurement based on a user's direct operation. Are determined, actions and operations to be described later are performed.

(アクション系処理)
そして、ステップS605では、ユーザの指等がタッチパネルから離れたか(非接触となったか)が判断される。Yesの場合には、ステップS606へ進み、これまでに計測された距離計測や連続接触時間等に基づいてアクション判定が行われる。
(Action processing)
In step S605, it is determined whether the user's finger or the like has left the touch panel (whether contact has been made). In the case of Yes, it progresses to step S606 and action determination is performed based on the distance measurement, the continuous contact time, etc. measured so far.

ステップS606でアクション判定が行われると、判定結果に応じてキャラクタのアクションの振り分けが行われる。つまり、まずは一例として、ステップS607に進み、直前の直接操作が「タップ」と判断された(Yes)場合には、ステップS608へ進み、キャラクタによる攻撃動が実行される。   When action determination is performed in step S606, distribution of character actions is performed according to the determination result. That is, first, as an example, the process proceeds to step S607, and if the previous direct operation is determined to be “tap” (Yes), the process proceeds to step S608, and the attack action by the character is executed.

一方で、ステップS607において直前の直接操作が「タップ」ではない(No)と判断された場合には、ステップS609へ進み、直前の直接操作が「フリック」であったかどうかが判断される。ステップS609において、直前の直接操作が「フリック」と判断された(Yes)場合には、さらに、ステップS610へ進み、フリックの向きが横向きであったかどうかが判断され、横向き(ステップS610において、Yes)と判断された場合には、ステップS611へ進み、キャラクタの緊急回避動作が実行される。   On the other hand, if it is determined in step S607 that the previous direct operation is not “tap” (No), the process proceeds to step S609, and it is determined whether the previous direct operation is “flick”. If it is determined in step S609 that the previous direct operation is “flick” (Yes), the process further proceeds to step S610, where it is determined whether the direction of the flick is landscape orientation, and landscape orientation (Yes in step S610). If it is determined, the process proceeds to step S611, and the character's emergency avoidance action is executed.

ステップS610において、フリックの向きが横向きでない(No)と判断された場合には、さらに、ステップS612へ進み、フリックの向きが下向きであったかどうかが判断され、下向き(ステップS612において、Yes)と判断された場合には、ステップS613へ進み、足場すり抜け動作が実行される。   If it is determined in step S610 that the direction of the flick is not horizontal (No), the process further proceeds to step S612, where it is determined whether the direction of the flick is downward, and it is determined that the direction is downward (Yes in step S612). If so, the process proceeds to step S613, and the scaffold slipping operation is executed.

(動作系処理)
また、ステップS605において、接触状態が維持される(No)場合には、ステップS614へ進み、これまでに計測された速度計測や距離計測等に基づいて動作判定が行われる。
(Operational processing)
In step S605, when the contact state is maintained (No), the process proceeds to step S614, and the operation determination is performed based on the speed measurement, distance measurement, and the like measured so far.

ステップS614で動作判定が行われると、判定結果に応じてキャラクタの動作の振り分けが行われる。つまり、まずは一例として、ステップS615へ進み、現時点での直接操作が「歩き」と判断された(Yes)場合には、ステップS616へ進み、キャラクタは歩行動作となる(例えば、画面右方向への歩行の場合には、キャラクタの歩行と共に背景画面は左へスクロール処理される)。   When the motion determination is performed in step S614, the character motion is distributed according to the determination result. That is, first, as an example, the process proceeds to step S615. If the current direct operation is determined to be “walking” (Yes), the process proceeds to step S616, and the character performs a walking motion (for example, in the right direction on the screen). In the case of walking, the background screen is scrolled to the left as the character walks).

一方で、ステップS615において現時点での直接操作が「歩き」ではない(No)と判断された場合には、ステップS617へ進み、現時点での直接操作が「走り」であるかどうかが判断される。ステップS617において、現時点での直接操作が「走り」と判断された(Yes)場合には、ステップS618へ進み、キャラクタは歩行よりも速度の速い走行動作となる(例えば、画面右方向への走行の場合には、キャラクタの走行と共に背景画面は左へスクロール処理される。この場合のスクロール速度は、キャラクタの歩行時のスクロール速度よりも速い)。   On the other hand, if it is determined in step S615 that the current direct operation is not “walking” (No), the process proceeds to step S617 to determine whether or not the current direct operation is “run”. . If it is determined in step S617 that the current direct operation is “running” (Yes), the process proceeds to step S618, and the character performs a running action that is faster than walking (for example, running rightward on the screen). In this case, the background screen is scrolled to the left as the character travels (the scroll speed in this case is faster than the scroll speed when the character walks).

ステップS617において、現時点での直接操作が「走り」ではないと判断された(No)場合には、さらに、ステップS619へ進み、直接操作が「ジャンプ」であるかどうかが判断される。ステップS619において、現時点での直接操作が「ジャンプ」と判断された(Yes)場合には、ステップS620へ進み、キャラクタはジャンプ動作となる。   If it is determined in step S617 that the current direct operation is not “running” (No), the process further proceeds to step S619 to determine whether the direct operation is “jump”. If it is determined in step S619 that the current direct operation is “jump” (Yes), the process proceeds to step S620, and the character performs a jump action.

そして、ステップS621へ到達した処理は、ステップS603へ復帰する。   Then, the process that has reached step S621 returns to step S603.

(アクション/動作の判定基準例)
次に、上述したアクションや動作の判定基準例を説明する。いずれも、ユーザの指等のタッチパネルに対する直接操作を検知して、キャラクタのそれぞれのアクションコマンドや動作コマンドに割り当てるものであるが、直接操作を検知するものであるだけに、できる限り、直接操作とアクション/動作のイメージが合致するようなコマンド割り当てが好ましい。
(Example of action / motion criteria)
Next, an example of determination criteria for the above-described actions and operations will be described. In both cases, direct operation on the touch panel such as the user's finger is detected and assigned to each action command and action command of the character. Command assignments that match the action / action image are preferred.

1.攻撃コマンド
ユーザの指等による、タッチパネル(画面)上でのタップ操作が検出されること。必ずしも、キャラクタないしキャラクタ付近の位置をタップする必要はない。
1. Attack command A tap operation on the touch panel (screen) by a user's finger or the like is detected. It is not always necessary to tap a character or a position near the character.

2.緊急回避コマンド
ユーザの指等による、タッチパネル(画面)上での横向きのフリックが検出されること。必ずしも、キャラクタないしキャラクタ付近の位置でのフリックである必要はない。なお、緊急回避動作を行う方向は、検出されたフリックの方向と一致させるものとする。
2. Emergency avoidance command A horizontal flick on the touch panel (screen) by a user's finger or the like is detected. It is not always necessary to flick the character or a position near the character. The direction in which the emergency avoidance operation is performed is assumed to be the same as the detected flick direction.

3.足場すり抜けコマンド
ユーザの指等による、タッチパネル(画面)上での下向きのフリックが検出されること。必ずしも、キャラクタないしキャラクタ付近の位置でのフリックである必要はない。
3. Scaffold slip-through command A downward flick on the touch panel (screen) by the user's finger or the like is detected. It is not always necessary to flick the character or a position near the character.

4.歩行動作コマンド
ユーザの指等による、タッチパネル(画面)上での接触状態が継続している場合であって、始点と終点の距離がA以上B未満の範囲内にあること(一例として、A=1cm、B=2.5cmなど。A及びBの物理的長さは任意に設定可能である)。必ずしも、キャラクタないしキャラクタ付近の位置での直接操作である必要はない。
4). Walking operation command When the touch state on the touch panel (screen) by the user's finger or the like continues, the distance between the start point and the end point is within a range between A and B (for example, A = 1 cm, B = 2.5 cm, etc. The physical length of A and B can be arbitrarily set). It is not always necessary to perform a direct operation at a character or a position near the character.

5.走行動作コマンド
ユーザの指等による、タッチパネル(画面)上での接触状態が継続している場合であって、始点と終点の距離がB以上であること(一例として、B=2.0cmや2.5cmなど。Bの物理的長さは任意に設定可能である)。必ずしも、キャラクタないしキャラクタ付近の位置での直接操作である必要はない。
5). Traveling operation command When the touch state on the touch panel (screen) by the user's finger or the like continues, the distance between the start point and the end point is B or more (for example, B = 2.0 cm or 2 0.5 cm etc. The physical length of B can be set arbitrarily). It is not always necessary to perform a direct operation at a character or a position near the character.

6.ジャンプ動作コマンド
ユーザの指等による、タッチパネル(画面)上での接触状態が継続している場合であって、指等の接触点の移動速度の鉛直方向成分が一定の値以上に達したこと。必ずしも、キャラクタないしキャラクタ付近の位置での直接操作である必要はない。
なお、ジャンプ動作コマンドは、接触点の移動速度の鉛直方向成分を判断しているという点において、一定以上の距離及び一定未満の接触時間を判断するフリックとは異なるものである。
6). Jump operation command When the contact state on the touch panel (screen) by the user's finger or the like continues, the vertical component of the moving speed of the contact point of the finger or the like has reached a certain value or more. It is not always necessary to perform a direct operation at a character or a position near the character.
Note that the jump operation command is different from a flick that determines a distance greater than a certain distance and a contact time less than a certain distance in that it determines the vertical component of the moving speed of the contact point.

(キャラクタのアクション/動作の表現例)
図7A及び図7Bに、本発明の一実施形態にかかる情報処理装置ないしキャラクタ移動制御プログラムによるキャラクタの動作制御例を示す。
(Character action / motion expression example)
7A and 7B show examples of character motion control by the information processing apparatus or the character movement control program according to the embodiment of the present invention.

図7A(A)は、ステップS608に対応する攻撃アクションを行っているキャラクタの表現例である。上述の攻撃コマンドを検知してこのアクションを実行する。攻撃対象については本発明の対象外なので特に詳しくは説明しないが、典型的には、敵キャラクタや障害物等が攻撃対象となる。   FIG. 7A (A) is a representation example of a character performing an attack action corresponding to step S608. This action is executed when the above attack command is detected. Since the attack target is not the subject of the present invention, it will not be described in detail. Typically, enemy characters, obstacles, and the like are attack targets.

図7A(B)は、ステップS611に対応する緊急回避アクションを行っているキャラクタの表現例である。上述の緊急回避コマンドを検知してこのアクションを実行する。なお、このアクションは、上述したように横向きのフリックを検知しただけで、歩行や走行よりも素早い動作で、例えば真上からの攻撃や落下物を回避するための動作である。歩行や走行であれば、指等の接触状態を維持しなければコマンド発動しないため、横向きのフリックというより手短な操作コマンドによって、より俊敏で大きめの動作をさせる場合に有効な動作となる。   FIG. 7A (B) is a representation example of the character performing the emergency avoidance action corresponding to step S611. This action is executed upon detecting the above emergency avoidance command. In addition, this action is an operation | movement for avoiding the attack from the top, or a fallen object, for example by quick operation | movement rather than walking and a driving | running | working only by detecting a horizontal flick as mentioned above. When walking or running, the command is not activated unless the contact state of the finger or the like is maintained. Therefore, the operation is effective when a more agile and larger operation is performed by a short operation command such as a lateral flick.

図7A(C)は、ステップS613に対応する足場すり抜けアクションを行っているキャラクタの表現例である。上述の足場すり抜けコマンドを検知してこのアクションを実行する。なお、このアクションは、上述したように下向きのフリックを検知しただけで、すり抜け可能な足場を下方向にすり抜けることができる(より詳細な処理例については、図10を参照して後述する)。   FIG. 7A (C) is a representation example of a character performing a scaffold slipping action corresponding to step S613. This action is executed upon detecting the above-mentioned scaffold slip-through command. Note that this action can pass through a scaffold that can be slipped through only by detecting a downward flick as described above (a more detailed processing example will be described later with reference to FIG. 10).

図7B(A)は、ステップS616に対応する歩き(歩行)動作を行っているキャラクタの表現例である。上述の歩行動作コマンドを検知してこのアクションを実行する。   FIG. 7B (A) is a representation example of a character performing a walking (walking) motion corresponding to step S616. This action is executed by detecting the above-mentioned walking motion command.

図7B(B)は、ステップS618に対応する走り(走行)動作を行っているキャラクタの表現例である。上述の走行動作コマンドを検知してこのアクションを実行する。   FIG. 7B (B) is a representation example of a character performing a running (running) operation corresponding to step S618. This action is executed upon detection of the above-mentioned traveling operation command.

図7B(C)は、ステップS620に対応するジャンプ動作を行っているキャラクタの表現例である。上述のジャンプ動作コマンドを検知してこのアクションを実行する。
なお、本発明においては、このジャンプ動作についてさらなる改良を行っており、特徴の1つとなっている(より詳細には、図11等を参照して後述する)。
FIG. 7B (C) is a representation example of a character performing a jump motion corresponding to step S620. This action is executed upon detection of the jump operation command described above.
In the present invention, the jump operation is further improved and is one of the features (more details will be described later with reference to FIG. 11 and the like).

図8に、本発明の一実施形態にかかる情報処理装置における画面構成例を示す。同図では、ステップS602において情報処理装置の画面上にキャラクタや障害物等が配置されてから、そのキャラクタを直接操作により移動制御している様子を示している。   FIG. 8 shows a screen configuration example in the information processing apparatus according to the embodiment of the present invention. In the figure, after a character, an obstacle, or the like is arranged on the screen of the information processing apparatus in step S602, the character is controlled to be moved by direct operation.

図8において、画面152には、地面81と、障害物82と、その上を歩行ないし走行可能であって、必要に応じて(すり抜けコマンドが発動されれば)下方向へすり抜け可能な足場83とが配置されている。また、表示部84は、キャラクタ85の残りのスタミナや獲得したポイントやアイテム等のステータス情報を表示可能な表示エリアである。   In FIG. 8, a screen 152 has a scaffold 83 that can walk or run on the ground 81, the obstacle 82, and can be slipped downward if necessary (if a slip command is issued). And are arranged. The display unit 84 is a display area that can display status information such as the remaining stamina of the character 85 and the acquired points and items.

こうした環境において、キャラクタ85を直接操作して移動制御する。図8においては、キャラクタ85の動作態様のうちのいくつかを85a〜85cとして例示している。   In such an environment, the character 85 is directly operated to control movement. In FIG. 8, some of the movement modes of the character 85 are illustrated as 85a to 85c.

すなわち、キャラクタ85aは、歩行動作コマンドを受けて歩行中であり、キャラクタ85bは、その後、障害物82を乗り越えるためにジャンプ動作中である。
また、キャラクタ85cは、障害物82上に乗り上げたあと、しばらく歩行ないし走行によって足場83を画面右方向へ移動中であったが、例えば前方(画面右側)から敵が襲ってきたなどした(不図示)ために、足場すり抜けコマンドによって足場83を下方へすり抜けているところである。
That is, the character 85 a is walking in response to the walking motion command, and the character 85 b is subsequently jumping to get over the obstacle 82.
The character 85c, while riding on the obstacle 82, was moving the scaffold 83 to the right of the screen by walking or running for a while, but for example, an enemy attacked from the front (right side of the screen). For this reason, the scaffold 83 is being slipped downward by a scaffold slip command.

もちろん、図8には示されていないが、キャラクタ85に対して攻撃コマンドを発動したり、他のコマンド発動により走行動作や緊急回避動作をさせたりすることもできる(その処理フローや動作例は上述したとおりである)。   Of course, although not shown in FIG. 8, an attack command can be issued to the character 85, and a running operation or an emergency avoidance operation can be performed by issuing another command (the processing flow and operation example are As described above).

図9に、ステップS611の緊急回避動作が実行された場合のキャラクタの画面上の動作表示例を示す。本発明はこれに限定されるものではないが、図9に示されるとおり、緊急回避動作(一例として右方向)が開始されると、キャラクタは、図9(A)に示される姿勢から図9(E)に示される姿勢まで、地面ないし足場を1回転するようなアクションをとりつつ、素早く移動する。この移動距離と移動速度は、本発明の一実施形態であれば、歩行や走行よりも素早い動作となる(緊急回避動作は、同じ距離の移動であればより速く、同じ時間内での移動であればより遠くへ移動する動作である)。   FIG. 9 shows an example of an action display on the screen of the character when the emergency avoidance action in step S611 is executed. Although the present invention is not limited to this, as shown in FIG. 9, when the emergency avoidance action (right direction as an example) is started, the character moves from the posture shown in FIG. The robot moves quickly to the posture shown in (E) while taking an action of rotating the ground or the scaffold once. In the embodiment of the present invention, the movement distance and the movement speed are faster than walking or running (the emergency avoidance operation is faster if the movement is the same distance, and can be performed within the same time). If there is, it will move further.)

このようにして、本発明の一実施形態における緊急回避動作は、より手短な操作コマンド(一例として、下向きのフリック)によって、より大きな移動を瞬時に実現させることができ、アクションゲーム等に採用した場合には、ゲームの興趣を一層高めることができる。   Thus, the emergency avoidance operation in one embodiment of the present invention can instantly realize a larger movement with a shorter operation command (for example, a downward flick), and is adopted in an action game or the like. In this case, the interest of the game can be further enhanced.

なお、緊急回避動作時の動作表示例は、図9に示されたものの他にも、屈んだまま瞬時に移動させたり、立ったままあるいは特定のポーズをとったまま瞬時に移動させたり、様々な表現形態を採用することができる。   In addition to the example shown in FIG. 9, there are various examples of the operation display during the emergency avoidance operation, such as instantaneous movement while being bent or instantaneous movement while standing or taking a specific pose. Various expressions can be adopted.

図10に、ステップS613の足場すり抜け動作のより詳細な処理フローを示す。この動作は、一例として、キャラクタが地面81や障害物82の上にいるときには実行できないように設定することができる(その下にはゲームに関わる事象が何も設定されていない場合など)。図8に示した環境では、足場すり抜け動作が実行できるのは、すり抜け可能な足場83の上にキャラクタがいるときのみである。かかる判定処理を説明するフローが図10に示される処理フローである。   FIG. 10 shows a more detailed processing flow of the scaffold slipping operation in step S613. As an example, this operation can be set so that it cannot be executed when the character is on the ground 81 or the obstacle 82 (when no event related to the game is set below the character). In the environment shown in FIG. 8, the scaffold slip-through operation can be executed only when the character is on the slip-through scaffold 83. A flow for explaining such determination processing is the processing flow shown in FIG.

図10のステップS1001において、足場すり抜けコマンドが発動されると、ステップS1002において、現在キャラクタはすり抜け可能な足場の上にいるかどうかが判断され、そうである(Yes)場合は、ステップS1003へ進み、すり抜けアクションを実行する(図8に示されたキャラクタ85cのような動作となる)。一方で、ステップS1002において、現在キャラクタはすり抜け可能な足場の上にはいない(No)と判断された場合(例えば、キャラクタが、図8に示された地面81や障害物82の上にいる場合)には、何もせずにステップS1001へスキップする(この時、すり抜けができないことを表わすアクションや効果音を出すこともできる)。   In step S1001 of FIG. 10, when a scaffold slip command is issued, it is determined in step S1002 whether the current character is on a scaffold that can be slipped through. If yes (Yes), the process proceeds to step S1003. A slipping action is executed (behaves like the character 85c shown in FIG. 8). On the other hand, if it is determined in step S1002 that the current character is not on a slip-through scaffold (No) (for example, the character is on the ground 81 or the obstacle 82 shown in FIG. 8). ) Skips to step S1001 without doing anything (at this time, an action or sound effect indicating that the user cannot pass through can be output).

(ジャンプ動作のさらなる改良)
ジャンプ動作の基本的な動作は上述したとおりであるが、本発明の一実施形態においては、ジャンプ動作にさらなる改良を加えている。つまり、ジャンプ動作中のさらなるジャンプ(以下、2段階ジャンプという。)を実現するものである。本発明はこれに限定されるものではなく、ジャンプ中のさらなるジャンプ(3段階以上のジャンプ)を所定の判定条件と共に実装することもできるが、発明の理解の容易のため、まずは、2段階ジャンプについて説明する。
(Further improvement of jump operation)
Although the basic operation of the jump operation is as described above, in one embodiment of the present invention, further improvements are made to the jump operation. That is, a further jump during the jump operation (hereinafter referred to as a two-step jump) is realized. The present invention is not limited to this, and it is possible to implement further jumps during the jump (jumps of three or more stages) together with a predetermined determination condition. Will be described.

(2段階ジャンプの動作原理)
本発明の一実施形態において、2段階ジャンプは次の処理原理に基づき作動するように情報処理装置及び制御プログラムによって制御される。
(Operation principle of two-step jump)
In one embodiment of the present invention, the two-step jump is controlled by the information processing apparatus and the control program so as to operate based on the following processing principle.

ステップ1:
タップが検知される。
Step 1:
A tap is detected.

ステップ2:
上記タップ位置を始点して速度計測が開始される。
Step 2:
Speed measurement is started from the tap position.

ステップ3:
上記タップを越えた上向き(垂直成分が上向き)の動作であって、その垂直方向の速度成分が一定以上の動作が検知されたときに、キャラクタの第1ジャンプを開始させる。
Step 3:
The first jump of the character is started when an upward motion (vertical component upward) exceeding the tap and a motion whose vertical velocity component exceeds a certain level is detected.

ステップ4:
第1ジャンプを開始したと同時に、上記始点をリセットする(つまり、第1ジャンプを開始した位置を新たな始点とする)。第1ジャンプ開始後、指等をタッチパネルから離したとき(非接触状態となったとき)には、始点そのものがクリアされる。なお、第1ジャンプ開始後、指等がタッチパネルに触れ続けている場合(接触状態を維持している場合)には、キャラクタは、第1ジャンプが認定された時点(第1ジャンプが指示されたと判断された時点)での指等の速度の水平成分と垂直成分とから導出される仮想重力下での放物線等のジャンプ軌道を描きながらジャンプを行う。一方で、第1ジャンプ開始後、指等からタッチパネルから離れた場合には、その時点から鉛直(画面)下方向へ移動(落下)する。
Step 4:
Simultaneously with the start of the first jump, the start point is reset (that is, the position at which the first jump is started is set as a new start point). When the finger or the like is released from the touch panel after the first jump starts (when a non-contact state is reached), the starting point itself is cleared. If a finger or the like keeps touching the touch panel after the first jump starts (when the contact state is maintained), the character determines that the first jump is recognized (the first jump is instructed). Jump is performed while drawing a jump trajectory such as a parabola under virtual gravity derived from the horizontal and vertical components of the velocity of the finger or the like at the time of determination. On the other hand, after the start of the first jump, when the finger or the like leaves the touch panel, it moves (falls) vertically (screen) downward from that point.

ここで、「ジャンプ軌道」とは、一典型としては「放物線」を挙げることができるが、本発明はこれに限定されるものではなく、(キャラクタ等の)踏切点、(キャラクタ等のジャンプ後の)最高到達点、及び(キャラクタ等の)着地点とを含む軌道であれば良い。このとき、最高到達点は必ずしも1点のみとは限らず、例えば、最高到達点に達した後しばらく水平に移動することも含まれる。また、最高到達点が1点の場合であっても、この最高到達点は、水平軸でみたときに必ずしも踏切点と着地点との中間点になるとは限らない(例えば、仮想的な逆風に向かってキャラクタがジャンプする場合、キャラクタはジャンプ中に押し戻されるので、踏切点から最高到達点までの距離は、最高到達点から着地点までの距離よりも長くなることもある)。
さらに、ジャンプ軌道は、踏切点、最高到達点、着地点を各頂点とする三角形状で表現することもできる。
Here, the “jump trajectory” can include a “parabola” as a typical example, but the present invention is not limited to this, and a crossing point (such as a character) or a post-jump (such as a character). No.) and a trajectory including the highest arrival point and the arrival point (such as a character). At this time, the maximum reaching point is not necessarily only one point, and includes, for example, moving horizontally for a while after reaching the maximum reaching point. Even if the highest point is one point, this highest point is not always an intermediate point between the crossing point and the landing point when viewed on the horizontal axis (for example, a virtual headwind) When the character jumps toward the character, the character is pushed back during the jump, so the distance from the crossing point to the highest point may be longer than the distance from the highest point to the landing point).
Furthermore, the jump trajectory can also be expressed in a triangular shape with the crossing point, the highest arrival point, and the arrival point as vertices.

ステップ5:
第1ジャンプ中のキャラクタが、第2ジャンプコマンドを検知するまでに地面又は障害物に接すれば、第1ジャンプは第2ジャンプを発動させることなく終了する(単なる単一のジャンプとなる)。
Step 5:
If the character in the first jump touches the ground or an obstacle before detecting the second jump command, the first jump ends without activating the second jump (just a single jump).

ステップ6:
上記ステップ5で第1ジャンプが終了するまでに、画面上の任意の位置で新たなジャンプ動作が検知されたときには、第1ジャンプ中であってもその検知位置から第2ジャンプを開始させる。
このとき、第1ジャンプ認定開始後からずっと指等をタッチパネルに触れさせたままにする必要はない。より具体的には、第1ジャンプ開始後、指等をタッチパネルから離した場合は(キャラクタは鉛直下方向への落下となり)、それまで保持されていた始点はクリアされて、画面上の任意の位置での新たなジャンプ動作の検知に入る。一方で、第1ジャンプ開始後、指等をタッチパネルに触れさせたままの場合(この間、キャラクタはジャンプ軌道を描いてジャンプ中である)であっても、常に継続されている指等の動きの速度計測により、新たなジャンプ動作の検知は行われている。
Step 6:
If a new jump operation is detected at an arbitrary position on the screen before the first jump is completed in step 5, the second jump is started from the detected position even during the first jump.
At this time, it is not necessary to keep the finger touching the touch panel all the time after starting the first jump authorization. More specifically, when the finger or the like is released from the touch panel after the start of the first jump (the character is dropped vertically downward), the starting point held so far is cleared and any arbitrary on the screen is displayed. Detection of a new jump motion at the position starts. On the other hand, even if the finger or the like is kept touching the touch panel after the start of the first jump (while the character is jumping in a jump trajectory during this period) A new jump motion is detected by speed measurement.

ステップ7:
上記ステップ6において、新たなジャンプ(第2ジャンプ)が認定された場合(新たなジャンプ指示があったと判断された場合)は、そのジャンプが認定された時点での指等の新たな速度の水平成分と垂直成分とから導かれるジャンプ軌道を描いてキャラクタをジャンプさせる。
Step 7:
In step 6, when a new jump (second jump) is recognized (when it is determined that a new jump instruction has been issued), the level of the new speed such as a finger at the time when the jump is certified. The character is caused to jump by drawing a jump trajectory derived from the component and the vertical component.

ステップ8:
第2ジャンプ中のキャラクタが、地面又は障害物に接すれば、第2ジャンプは終了となる。
Step 8:
If the character in the second jump touches the ground or an obstacle, the second jump ends.

図11に、ステップS620のジャンプ動作(2段階ジャンプを含む)のより詳細な処理フローを示す。2段階ジャンプの処理概念は上述したとおりであるが、念のためフローチャートとして整理しておく。   FIG. 11 shows a more detailed processing flow of the jump operation (including the two-step jump) in step S620. Although the processing concept of the two-step jump is as described above, it is organized as a flowchart just in case.

図11のステップS1101において、キャラクタのジャンプ処理を開始すると、ステップS1102へ進み、始点をリセットするとともに速度計測を開始する。この時点(ジャンプ開始時点)では、まだ指等はタッチパネルに接触したままであるものとする。   When the character jump process is started in step S1101 in FIG. 11, the process proceeds to step S1102, where the start point is reset and speed measurement is started. At this time (jump start time), it is assumed that the finger or the like is still in contact with the touch panel.

次に、ステップS1103へ進み、指等がタッチパネルから離れたか(非接触状態となったか)どうかが判断され、Yesの場合は、ステップS1104へ進み、ジャンプ中のキャラクタの落下処理(鉛直下方へ落下する描画表現)をすると共に、再び指等がタッチパネルに接触した場合の速度判定をする。
このステップS1104での速度判定は、常に直近の所定時間における指等のタッチパネルに対する接触操作速度が計測されており、後述する第2ジャンプの条件が成立するかどうかが都度判断されている(一例として、毎秒数回〜数十回の頻度)。
Next, the process proceeds to step S1103, and it is determined whether or not the finger or the like has been removed from the touch panel (whether it is in a non-contact state). If yes, the process proceeds to step S1104, and the character falling processing (falling vertically downward) The speed is determined when a finger or the like touches the touch panel again.
In the speed determination in step S1104, the contact operation speed with respect to the touch panel such as a finger in the most recent predetermined time is always measured, and it is determined each time whether a second jump condition described later is satisfied (as an example) Frequency of several times to several tens of times per second).

次に、ステップS1105へ進み、第2ジャンプの条件が成立するかどうか(つまり、第1ジャンプが終了するまでに、画面上の任意の位置で新たなジャンプ動作が検知されたかどうか)が判断される。ステップS1105において新たなジャンプ動作が検知される(Yes)と、ステップS1110へ進むが、Noの場合はステップS1106へ進み、キャラクタが地面や障害物等に接地したかどうかが判断される。接地した(ステップS1106において、Yes)場合は、ステップS1115へ進み、ジャンプは単一のものとして終了するが、接地していない(ステップS1106において、No)の場合は、ステップS1104へ復帰する。   Next, proceeding to step S1105, it is determined whether or not the second jump condition is satisfied (that is, whether or not a new jump operation has been detected at an arbitrary position on the screen before the first jump is completed). The If a new jump motion is detected in step S1105 (Yes), the process proceeds to step S1110. If no, the process proceeds to step S1106, and it is determined whether the character touches the ground or an obstacle. If it is grounded (Yes in step S1106), the process proceeds to step S1115, and the jump ends as a single one, but if it is not grounded (No in step S1106), the process returns to step S1104.

一方で、ステップS1103において、指等がタッチパネルから離れていない(接触状態が維持されている)と判断された(No)場合は、ステップS1107へ進み、速度判定が行われる。
このステップS1107での速度判定は、常に直近の所定時間における指等のタッチパネルに対する接触操作速度が計測されており、後述する第2ジャンプの条件が成立するかどうかが都度判断されている(一例として、毎秒数回〜数十回の頻度)。
On the other hand, if it is determined in step S1103 that the finger or the like is not separated from the touch panel (the contact state is maintained) (No), the process proceeds to step S1107, and speed determination is performed.
In the speed determination in step S1107, the contact operation speed on the touch panel such as a finger at the most recent predetermined time is always measured, and it is determined each time whether a second jump condition described later is satisfied (as an example). Frequency of several times to several tens of times per second).

次に、ステップS1108へ進み、第2ジャンプの条件が成立するかどうか(つまり、第1ジャンプが終了するまでに、画面上の任意の位置で新たなジャンプ動作が検知されたかどうか)が判断される。ステップS1108において新たなジャンプ動作が検知される(Yes)と、ステップS1110へ進むが、Noの場合はステップS1109へ進み、キャラクタが地面や障害物等に接地したかどうかが判断される。接地した(ステップS1109において、Yes)場合は、ステップS1115へ進み、第2ジャンプは終了するが、接地していない(ステップS1109において、No)の場合は、ステップS1107復帰する。   Next, proceeding to step S1108, it is determined whether or not the second jump condition is satisfied (that is, whether or not a new jump operation has been detected at an arbitrary position on the screen before the first jump is completed). The If a new jump motion is detected in step S1108 (Yes), the process proceeds to step S1110. If no, the process proceeds to step S1109, where it is determined whether the character touches the ground or an obstacle. If it is grounded (Yes in step S1109), the process proceeds to step S1115, and the second jump ends, but if it is not grounded (No in step S1109), the process returns to step S1107.

ステップS1110では、第2ジャンプが開始され、次に、ステップS1111へ進み、指等がタッチパネルから離れたか(非接触状態となったか)どうかが判断される。   In step S1110, the second jump is started, and then the process proceeds to step S1111 where it is determined whether or not the finger or the like has been released from the touch panel (whether it is in a non-contact state).

ステップS1111において、Yesと判断された場合には、ステップS1112へ進み、キャラクタの落下処理が行われる。次に、ステップS1113に進み、キャラクタが地面や障害物等に接地したかどうかが判断され、Yesの場合はステップS1115へ進むが、Noの場合はステップS1112へ復帰する。   If YES is determined in step S1111, the process proceeds to step S1112 and character drop processing is performed. Next, the process proceeds to step S1113, where it is determined whether or not the character touches the ground or an obstacle. If yes, the process proceeds to step S1115, but if no, the process returns to step S1112.

一方で、ステップS1111において、Noと判断された場合は、キャラクタはジャンプ軌道を描いてジャンプを継続し、ステップS1114において地面や障害物等に接地したかどうかが判断される。ステップS1114において、Yesの場合はステップS1115へ進むが、Noの場合はステップS1111へ復帰する。   On the other hand, if it is determined No in step S1111, the character continues to jump while drawing a jump trajectory, and in step S1114, it is determined whether or not the character touches the ground or an obstacle. If YES in step S1114, the process proceeds to step S1115, but if NO, the process returns to step S1111.

図12に、本発明の一実施形態にかかるキャラクタの2段階ジャンプの様子を概念的に示す。P11〜P23までは2段階ジャンプを行っているキャラクタの位置の軌跡である。P11において第1ジャンプが認定(判断)されると、キャラクタは、その時点での指等の速度の水平成分と垂直成分とから導出される仮想重力下でのジャンプ軌道を描きながらジャンプを開始する(図中、P11〜P17まで)。   FIG. 12 conceptually shows the state of the two-step jump of the character according to one embodiment of the present invention. P11 to P23 are trajectories of the position of the character performing the two-step jump. When the first jump is recognized (determined) in P11, the character starts jumping while drawing a jump trajectory under virtual gravity derived from the horizontal and vertical components of the speed of the finger or the like at that time. (In the figure, from P11 to P17).

次に、キャラクタがP17にあるときに、上述の第2ジャンプが認定(判断)され、キャラクタは、再びその時点での指等の速度の水平成分と垂直成分とから導出される仮想重力下でのジャンプ軌道を描きながら第2のジャンプを開始する(図中、P17〜P23まで)。   Next, when the character is at P17, the second jump described above is recognized (determined), and the character is again under virtual gravity derived from the horizontal component and the vertical component of the speed of the finger or the like at that time. The second jump is started while drawing the jump trajectory (from P17 to P23 in the figure).

ここで、図12に示されるとおり、P11〜P17のジャンプ中は、キャラクタは順調にジャンプ軌道を描いており、上述の例に従えば、ユーザの指等はタッチパネルから離れることなく接触状態を維持していることが分かる。   Here, as shown in FIG. 12, during the jump of P11 to P17, the character smoothly draws a jump trajectory, and according to the above example, the user's finger or the like maintains the contact state without leaving the touch panel. You can see that

一方で、図12における第2のジャンプにおいて、例えば、P22地点でユーザの指等がタッチパネルから離れた(非接触状態となった)場合には、キャラクタはP22地点から鉛直下方に落下する(図中、破線矢印の方向へ落下)。一方で、第2ジャンプ中もユーザの指等がタッチパネルから離れることなく接触状態が維持された場合には、P23からP23へと放物運動を継続する(図中、P23から実線矢印の方向へ)。   On the other hand, in the second jump in FIG. 12, for example, when the user's finger or the like is separated from the touch panel at point P22 (becomes a non-contact state), the character falls vertically downward from point P22 (FIG. 12). Middle, falling in the direction of the dashed arrow). On the other hand, if the contact state is maintained without the user's finger or the like moving away from the touch panel even during the second jump, the parabolic motion is continued from P23 to P23 (in the figure, from P23 to the direction of the solid line arrow). ).

(本発明の顕著な効果例)
図13に、本発明の一実施形態にかかる情報処理装置におけるキャラクタの2段階ジャンプ動作を指示する場合の操作例を従来の操作例と比較して示す。図13(A)に示された操作軌跡は従来の操作例に基づいて2段階ジャンプをさせようとした場合の操作軌跡であり、図13(B)及び(C)に示された操作軌跡は本発明の一実施形態にかかる操作に基づいて2段階ジャンプをさせた場合の操作軌跡である。
(Example of remarkable effects of the present invention)
FIG. 13 shows an operation example in the case of instructing a two-step jump action of a character in the information processing apparatus according to the embodiment of the present invention, as compared with a conventional operation example. The operation trajectory shown in FIG. 13A is an operation trajectory when a two-step jump is attempted based on a conventional operation example, and the operation trajectory shown in FIGS. 13B and 13C is It is an operation locus at the time of performing a two-step jump based on the operation concerning one embodiment of the present invention.

図13(A)では、タッチパネルに対する指等の軌跡T11〜T12までの指等の速度成分により第1ジャンプが認定され、位置T12において第1ジャンプが開始されたとしても、始点は位置T11の座標から変わらないため、位置T12から位置T13へ向けてさらに大きな第2ジャンプを試みたとしても、位置T11から位置T13までの速度成分が計測されることとなる。つまり、同図(A)に示されるように画面がはみ出た位置まで勢いよく指等をスライドさせなければ第2ジャンプは認定されない。その結果(画面サイズの制約上、位置T12から位置T13までは指等をスライドさせることができないために)、この位置からの第2ジャンプを指示することはできない。   In FIG. 13A, even if the first jump is recognized by the speed component of the finger or the like from the trajectory T11 to T12 of the finger or the like with respect to the touch panel and the first jump is started at the position T12, the start point is the coordinates of the position T11. Therefore, even if a larger second jump is attempted from the position T12 to the position T13, the speed component from the position T11 to the position T13 is measured. That is, the second jump is not recognized unless the finger or the like is slid to the position where the screen protrudes as shown in FIG. As a result (because of restrictions on the screen size, a finger or the like cannot be slid from position T12 to position T13), the second jump from this position cannot be instructed.

一方で、図13(B)では、タッチパネルに対する指等の軌跡T21〜T22までの指等の速度成分により第1ジャンプが認定され、位置T22において第1ジャンプが開始された場合には、始点はリセットされ、接触状態が維持された指等の新たな速度成分が計測され続けることとなる。従って、第1ジャンプ中に同図(A)で試みたのと同じ大きさの第2ジャンプを試みる場合には、位置T22から位置T23まで接触状態を維持したまま指等をスライドさせ(この間も、キャラクタはジャンプ軌道を描いてジャンプ中である)、次に、位置T23からT24まで勢いよく指等をスライドさせると、第2ジャンプは良好に認定されることとなる。   On the other hand, in FIG. 13B, when the first jump is recognized by the speed component of the finger or the like from the trajectory T21 to T22 of the finger or the like with respect to the touch panel, and the first jump is started at the position T22, the starting point is A new velocity component such as a finger that has been reset and maintained in contact will continue to be measured. Therefore, when a second jump having the same size as that shown in FIG. 5A is attempted during the first jump, a finger or the like is slid while maintaining the contact state from position T22 to position T23 (during this time as well). Then, the character is jumping while drawing a jump trajectory). Next, when the finger or the like is vigorously slid from position T23 to T24, the second jump is successfully recognized.

また、図13(C)においても、タッチパネルに対する指等の軌跡T31〜T32までの指等の速度成分により第1ジャンプが認定され、位置T32において第1ジャンプが開始された場合には、やはり始点はリセットされる。
今度は、位置T32から指等をタッチパネルから離して位置T33において改めて指等をタッチパネルに接触させ(この間は、上述の例に従えば、キャラクタは鉛直下方に落下することとなる)、位置T33から位置T34まで接触状態を維持したまま指等を勢いよくスライドさせると、図13(B)の場合と同様に、第2ジャンプは良好に認定されることとなる。
Also in FIG. 13C, when the first jump is recognized by the speed component of the finger or the like from the trajectory T31 to T32 of the finger or the like with respect to the touch panel, and the first jump is started at the position T32, the starting point is also used. Is reset.
This time, the finger or the like is moved away from the touch panel from the position T32, and the finger or the like is again brought into contact with the touch panel at the position T33 (during this time, according to the above example, the character falls vertically downward). If the finger or the like is slid swiftly while maintaining the contact state up to the position T34, the second jump will be recognized well as in the case of FIG. 13B.

(キャラクタのジャンプ中の軌跡のさらなる改良)
図14に、本発明の他の実施形態にかかる情報処理装置におけるキャラクタのジャンプ動作の制御概念を従来例と比較して示す。
(Further improvements in trajectory during character jumps)
FIG. 14 shows a control concept of a character jump motion in an information processing apparatus according to another embodiment of the present invention in comparison with the conventional example.

図14(A)は、従来例のジャンプ動作の制御例である。既に説明したように、ジャンプ開始後は、そのジャンプが認定された時点での指等の速度の水平成分と垂直成分とから導出される仮想重力下でのジャンプ軌道を描きながらジャンプを行うので、描かれるジャンプ軌道には頂点(同図(A)中のP06)が存在することとなる。   FIG. 14A is a control example of the jump operation of the conventional example. As already explained, after starting the jump, it jumps while drawing a jump trajectory under virtual gravity derived from the horizontal and vertical components of the speed of the finger etc. when the jump is certified, A vertex (P06 in FIG. 5A) exists in the drawn jump trajectory.

図14(B)では、本発明のさらなる工夫が施されており、ジャンプ中の軌跡の頂点付近の一定区間(例えば、同図(B)のP05〜P07までの、P06a〜P06cなど)は、キャラクタが水平移動するように制御する。   In FIG. 14 (B), a further contrivance of the present invention is applied, and a certain section (for example, P06a to P06c from P05 to P07 in FIG. Control the character to move horizontally.

このように制御することにより、キャラクタのジャンプ動作の柔らかさをうまく表現することができ、ユーザが鑑賞していても、ジャンプの躍動感やキャラクタへの愛着を増大させることができる。実装上は、毎秒15〜60フレーム程度で画面の描画が更新されるものとして、ジャンプ中の頂点付近の2〜4フレーム、あるいは数フレーム程度を水平移動するように制御すると好適である。   By controlling in this way, the softness of the character's jump motion can be expressed well, and even when the user is watching, the jumping feeling and attachment to the character can be increased. In terms of mounting, it is preferable that the screen drawing is updated at about 15 to 60 frames per second, and that 2 to 4 frames near the vertex being jumped or about several frames is controlled to move horizontally.

(本発明のさらなる改良)
上述した本発明の実施例に基づけば、本発明をさらに以下のように改良することは、当業者にとって自明である。
(1)上述したのと同様に容量で、第2ジャンプのあとに第3ジャンプ以降の1以上のジャンプを実装する。
(2)上述した第2ジャンプは、第1ジャンプの頂点を過ぎなければ発動できないように制御する。こうした制御により、第2ジャンプをうまく成功させるための技量をユーザ同士が競うこととなり、ゲーム等のアプリケーションの興趣が向上する。
(3)上述した第2ジャンプ以降のジャンプは、前ジャンプの頂点付近の一定区間において検知されるジャンプ動作コマンドによってのみ発動するように制御する。こうした制御により、第2ジャンプ以上のジャンプをうまく成功させるための技量をユーザ同士が競うこととなり、ゲーム等のアプリケーションの興趣が一層向上する。
(Further improvement of the present invention)
Based on the above-described embodiments of the present invention, it is obvious to those skilled in the art to further improve the present invention as follows.
(1) The capacity is the same as described above, and one or more jumps after the third jump are mounted after the second jump.
(2) The second jump described above is controlled so that it cannot be triggered unless it passes the vertex of the first jump. By such control, users compete for skills for successfully performing the second jump, and the interest of applications such as games is improved.
(3) The jump after the second jump described above is controlled so as to be activated only by a jump operation command detected in a certain section near the apex of the previous jump. By such control, users compete with each other for a skill for successfully making a jump over the second jump, and the interest of applications such as games is further improved.

以上、具体例に基づき、情報処理装置、情報処理システム、及びプログラム等の実施形態を説明したが、本発明の実施形態としては、システム又は装置を実施するための方法又はプログラムの他、プログラムが記録された記憶媒体(一例として、光ディスク、光磁気ディスク、CD−ROM、CD−R、CD−RW、磁気テープ、ハードディスク、メモリカード)等としての実施態様をとることも可能である。   As described above, the embodiments of the information processing apparatus, the information processing system, the program, and the like have been described based on specific examples. It is also possible to take an embodiment as a recorded storage medium (for example, optical disk, magneto-optical disk, CD-ROM, CD-R, CD-RW, magnetic tape, hard disk, memory card).

また、プログラムの実装形態としては、コンパイラによってコンパイルされるオブジェクトコード、インタプリタにより実行されるプログラムコード等のアプリケーションプログラムに限定されることはなく、オペレーティングシステムに組み込まれるプログラムモジュール等の形態であっても良い。   Further, the implementation form of the program is not limited to an application program such as an object code compiled by a compiler and a program code executed by an interpreter, but may be a form of a program module incorporated in an operating system. good.

さらに、プログラムは、必ずしも制御基板上のCPUにおいてのみ、全ての処理が実施される必要はなく、必要に応じて基板に付加された拡張ボードや拡張ユニットに実装された別の処理ユニット(DSP等)によってその一部又は全部が実施される構成とすることもできる。   Furthermore, it is not always necessary for the program to be executed only by the CPU on the control board, but if necessary, an expansion board attached to the board or another processing unit (DSP or the like) mounted on the expansion unit. ) May be partly or wholly implemented.

本明細書(特許請求の範囲、要約、及び図面を含む)に記載された構成要件の全て及び/又は開示された全ての方法又は処理の全てのステップについては、これらの特徴が相互に排他的である組合せを除き、任意の組合せで組み合わせることができる。   These features are mutually exclusive for all of the components described in this specification (including claims, abstract, and drawings) and / or for all steps of all disclosed methods or processes. Except for the combination, any combination can be used.

また、本明細書(特許請求の範囲、要約、及び図面を含む)に記載された特徴の各々は、明示的に否定されない限り、同一の目的、同等の目的、または類似する目的のために働く代替の特徴に置換することができる。したがって、明示的に否定されない限り、開示された特徴の各々は、包括的な一連の同一又は均等となる特徴の一例にすぎない。   Also, each feature described in the specification (including the claims, abstract, and drawings) serves the same purpose, equivalent purpose, or similar purpose, unless expressly denied. Alternative features can be substituted. Thus, unless expressly denied, each feature disclosed is one example only of a generic series of identical or equivalent features.

さらに、本発明は、上述した実施形態のいずれの具体的構成にも制限されるものではない。本発明は、本明細書(特許請求の範囲、要約、及び図面を含む)に記載された全ての新規な特徴又はそれらの組合せ、あるいは記載された全ての新規な方法又は処理のステップ、又はそれらの組合せに拡張することができる。   Furthermore, the present invention is not limited to any specific configuration of the above-described embodiment. The invention includes all novel features or combinations thereof described in the specification (including claims, abstract and drawings), or all novel methods or process steps described, or Can be extended to any combination.

15 タブレット端末(情報処理装置の一形態)
30 情報処理システム
31 情報処理サーバ
32、33 PC(情報処理装置の一形態)
34 携帯電話(情報処理装置の一形態)
39 公衆回線(専用線、インターネット等)
15 Tablet terminal (a form of information processing device)
30 Information processing system 31 Information processing servers 32 and 33 PC (one form of information processing apparatus)
34 Mobile phone (a form of information processing device)
39 Public lines (private lines, internet, etc.)

Claims (9)

タッチパネルを備え、前記タッチパネルに対するユーザの直接操作を検知することによって画面上に表示させたキャラクタを移動制御させる情報処理装置であって、
前記直接操作の検知は、前記タッチパネルへの接触状態から非接触状態へ遷移するタイミングで検知されるものであり、
前記検知により、始点と前記タイミングの直前の終点との距離が一定の値以上であり、かつ前記タッチパネルの接触状態の時間が一定の値未満であることが検知された場合にフリックであると判断し、
(A1)前記判断された前記フリックが横向きのフリックである場合には、前記キャラクタの緊急回避動作であると判断して前記キャラクタに緊急回避動作をさせること、
(A2)前記判断された前記フリックが下向きのフリックである場合には、前記キャラクタの足場すり抜け動作であると判断して前記キャラクタに足場すり抜け動作をさせること
の少なくともいずれか1つを実行する
ことを特徴とする情報処理装置。
An information processing apparatus that includes a touch panel and controls movement of a character displayed on the screen by detecting a user's direct operation on the touch panel,
The detection of the direct operation is detected at the timing of transition from a contact state to the touch panel to a non-contact state,
When the detection detects that the distance between the start point and the end point immediately before the timing is equal to or greater than a certain value and the touch state of the touch panel is less than a certain value, it is determined that the flick is detected And
(A1) If the determined flick is a horizontal flick, determine that the character is an emergency avoidance action and cause the character to perform an emergency avoidance action;
(A2) when the determination has been the flick is a downward flick is to perform at least one of be the scaffold slip through operation to said it is determined that the a scaffold slipping operation of Character Character An information processing apparatus characterized by the above.
前記(A1)又は(A2)の他に、歩行動作又は走行動作のいずれかを処理する請求項1に記載の情報処理装置であって、
前記情報処理装置が前記(A1)の処理動作を行う場合には、前記(A1)の処理動作は前記歩行動作又は走行動作よりも素早い動きとして処理する
ことを特徴とする情報処理装置。
The information processing apparatus according to claim 1, wherein, in addition to (A1) or (A2), the information processing apparatus processes either a walking action or a running action.
When the information processing apparatus performs the processing operation of (A1), the processing operation of (A1) is processed as a quicker motion than the walking operation or running operation.
前記情報処理装置が前記(A2)の処理動作を行う場合には、前記(A2)の処理動作を実行するときに、前記キャラクタの足場がすり抜け可能であるかどうかを判断し、前記すり抜けが可能であると判断されたときに、前記すり抜け動作処理を行う
ことを特徴とする請求項1に記載の情報処理装置。
When the information processing apparatus performs the processing operation (A2), when the processing operation (A2) is performed, it is determined whether or not the character's scaffold can be slipped through and the slipping is possible. The information processing apparatus according to claim 1, wherein the slipping-through operation process is performed when it is determined that
タッチパネルを備えた情報処理装置に、前記タッチパネルに対するユーザの直接操作を検知することによって画面上に表示させたキャラクタを移動制御させるコンピュータプログラムであって、前記情報処理装置上で実行されたとき、前記情報処理装置に、
前記タッチパネルへの接触状態から非接触状態へ遷移するタイミングを検知させることにより前記直接操作を検知させるステップと、
前記検知により、始点と前記タイミングの直前の終点との距離が一定の値以上であり、かつ前記タッチパネルの接触状態の時間が一定の値未満であることを検知させ、当該検知によりフリックであると判断させるステップと、
(B1)前記判断された前記フリックが横向きのフリックである場合には、前記キャラクタの緊急回避動作であると判断させて前記キャラクタに緊急回避動作をさせるステップ、
(B2)前記判断された前記フリックが下向きのフリックである場合には、前記キャラクタの足場すり抜け動作であると判断させて前記キャラクタに足場すり抜け動作をさせるステップ
の少なくともいずれか1つのステップを実行させることを特徴とするプログラム。
A computer program for controlling movement of a character displayed on a screen by detecting a user's direct operation on the touch panel on an information processing apparatus provided with a touch panel, and when executed on the information processing apparatus, In the information processing device,
Detecting the direct operation by detecting a timing of transition from a contact state to the touch panel to a non-contact state;
By the detection, it is detected that the distance between the start point and the end point immediately before the timing is a certain value or more, and the touch state of the touch panel is less than a certain value, and the detection is a flick. A step for judging,
(B1) If the determined flick is a horizontal flick, determining that the character is an emergency avoidance action and causing the character to perform an emergency avoidance action;
(B2) When the determined flick is a downward flick, it is determined that the character is a scaffold slipping motion, and at least one of the steps of causing the character to slip a scaffold slip is executed. A program characterized by that.
前記(B1)又は(B2)の他に、歩行動作又は走行動作のいずれかの処理ステップを処理する請求項4記載のプログラムであって、
前記情報処理装置が前記(B1)の処理動作を行う場合には、前記(B1)の処理動作は前記歩行動作又は走行動作よりも素早い動きとして処理する
ことを特徴とするプログラム。
The program according to claim 4, wherein a processing step of either walking or running is performed in addition to (B1) or (B2).
When the information processing apparatus performs the processing operation of (B1), the processing operation of (B1) is processed as a quicker motion than the walking operation or the running operation.
前記情報処理装置が前記(A2)の処理動作を行う場合には、前記(A2)の処理動作を実行するときに、前記キャラクタの足場がすり抜け可能であるかどうかを判断し、前記すり抜けが可能であると判断されたときに、前記すり抜け動作処理をさせるステップ
を実行することを特徴とする請求項4に記載のプログラム。
When the information processing apparatus performs the processing operation (A2), when the processing operation (A2) is performed, it is determined whether or not the character's scaffold can be slipped through and the slipping is possible. The program according to claim 4, wherein when it is determined that, the step of performing the slip-through operation process is executed.
ネットワークを介してサーバに接続され、前記サーバ及びタッチパネルを備えた情報処理装置に、前記タッチパネルに対するユーザの直接操作を検知することによって画面上に表示させたキャラクタを移動制御させるコンピュータプログラムであって、前記サーバ及び前記情報処理装置上で実行されたとき、前記サーバ又は前記情報処理装置に、
前記タッチパネルへの接触状態から非接触状態へ遷移するタイミングを検知させることにより前記直接操作を検知させるステップと、
前記検知により、始点と前記タイミングの直前の終点との距離が一定の値以上であり、かつ前記タッチパネルの接触状態の時間が一定の値未満であることを検知させ、当該検知によりフリックであると判断させるステップと、
(C1)前記判断された前記フリックが横向きのフリックである場合には、前記キャラクタの緊急回避動作であると判断させて前記キャラクタに緊急回避動作をさせるステップ、
(C2)前記判断された前記フリックが下向きのフリックである場合には、前記キャラクタの足場すり抜け動作であると判断させて前記キャラクタに足場すり抜け動作をさせるステップ
の少なくともいずれか1つのステップを実行させることを特徴とするプログラム。
A computer program that is connected to a server via a network and that controls movement of a character displayed on the screen by detecting a user's direct operation on the touch panel in an information processing apparatus including the server and the touch panel, When executed on the server and the information processing device, the server or the information processing device
Detecting the direct operation by detecting a timing of transition from a contact state to the touch panel to a non-contact state;
By the detection, it is detected that the distance between the start point and the end point immediately before the timing is a certain value or more, and the touch state of the touch panel is less than a certain value, and the detection is a flick. A step for judging,
(C1) If the determined flick is a horizontal flick, determining that the character is an emergency avoidance action and causing the character to perform an emergency avoidance action;
(C2) if the determination has been the flick is a downward flick to execute at least one of the steps of the step of the scaffold slipping operation on the character by determining that the a scaffold slipping motion of the character A program characterized by that.
前記(C1)又は(C2)の他に、歩行動作又は走行動作のいずれかの処理ステップを処理する請求項7記載のプログラムであって、
前記情報処理装置が前記(C1)の処理動作を行う場合には、前記(C1)の処理動作は前記歩行動作又は走行動作よりも素早い動きとして処理する
ことを特徴とするプログラム。
The program according to claim 7, wherein a processing step of either walking or running is performed in addition to (C1) or (C2).
When the information processing apparatus performs the processing operation of (C1), the processing operation of (C1) is processed as a quicker motion than the walking operation or the running operation.
前記情報処理装置が前記(C2)の処理動作を行う場合には、前記(C2)の処理動作を実行するときに、前記キャラクタの足場がすり抜け可能であるかどうかを判断し、前記すり抜けが可能であると判断されたときに、前記すり抜け動作処理をさせるステップ
を実行することを特徴とする請求項7に記載のプログラム。
When the information processing apparatus performs the processing operation (C2), it is determined whether or not the character's scaffold can slip through when the processing operation (C2) is performed, and the slipping is possible. The program according to claim 7, wherein the step of causing the slip-through operation processing is executed when it is determined that
JP2015157246A 2015-08-07 2015-08-07 Information processor, information processing system, and character movement control program Pending JP2017035215A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015157246A JP2017035215A (en) 2015-08-07 2015-08-07 Information processor, information processing system, and character movement control program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015157246A JP2017035215A (en) 2015-08-07 2015-08-07 Information processor, information processing system, and character movement control program

Publications (1)

Publication Number Publication Date
JP2017035215A true JP2017035215A (en) 2017-02-16

Family

ID=58048303

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015157246A Pending JP2017035215A (en) 2015-08-07 2015-08-07 Information processor, information processing system, and character movement control program

Country Status (1)

Country Link
JP (1) JP2017035215A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6255525B1 (en) * 2017-06-07 2017-12-27 株式会社 ディー・エヌ・エー Electronic game apparatus and electronic game program
WO2019211950A1 (en) * 2018-05-02 2019-11-07 任天堂株式会社 Information processing program, information processing device, information processing system, and information processing method
JP2021512418A (en) * 2018-02-09 2021-05-13 ▲騰▼▲訊▼科技(深▲セン▼)有限公司 Virtual object control methods, devices, electronic devices, and storage media
US11045736B2 (en) 2018-05-02 2021-06-29 Nintendo Co., Ltd. Storage medium storing information processing program, information processing apparatus, information processing system, and information processing method
US11103784B2 (en) 2018-05-02 2021-08-31 Nintendo Co., Ltd. Storage medium storing information processing program, information processing apparatus, information processing system, and information processing method

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009039178A (en) * 2007-08-06 2009-02-26 Taito Corp Game machine
JP2009268528A (en) * 2008-04-30 2009-11-19 Sega Corp Game device and method for controlling migration of character
JP2010125294A (en) * 2008-12-01 2010-06-10 Copcom Co Ltd Game program, storage medium and computer device
JP5701440B1 (en) * 2014-08-29 2015-04-15 株式会社Cygames Method to improve user input operability

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009039178A (en) * 2007-08-06 2009-02-26 Taito Corp Game machine
JP2009268528A (en) * 2008-04-30 2009-11-19 Sega Corp Game device and method for controlling migration of character
JP2010125294A (en) * 2008-12-01 2010-06-10 Copcom Co Ltd Game program, storage medium and computer device
JP5701440B1 (en) * 2014-08-29 2015-04-15 株式会社Cygames Method to improve user input operability

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
"消滅都市", IPHONE AC 番外レポート, JPN6018046987, 2 June 2014 (2014-06-02), JP, pages 1 - 5, ISSN: 0004053952 *
DAICHU: "【白猫攻略】まずはバトルの基礎を覚えよう!キャラの動かし方・攻撃の回避方法などの操作方法を解説するよ", カミアプ, JPN6018046986, 4 August 2014 (2014-08-04), JP, pages 1 - 5, ISSN: 0004053951 *
大乱闘スマッシュブラザーズ FOR NINTENDO 3DS 必勝!!ファイティングバイブル SMASH, vol. 第16巻, 第11号, JPN6018046988, 20 September 2014 (2014-09-20), pages 4 - 6, ISSN: 0004053953 *

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6255525B1 (en) * 2017-06-07 2017-12-27 株式会社 ディー・エヌ・エー Electronic game apparatus and electronic game program
JP2018202007A (en) * 2017-06-07 2018-12-27 株式会社 ディー・エヌ・エー Electronic game device and electronic game program
JP2021512418A (en) * 2018-02-09 2021-05-13 ▲騰▼▲訊▼科技(深▲セン▼)有限公司 Virtual object control methods, devices, electronic devices, and storage media
US11161041B2 (en) 2018-02-09 2021-11-02 Tencent Technology (Shenzhen) Company Limited Virtual object control method and apparatus, electronic apparatus, and storage medium
JP7166708B2 (en) 2018-02-09 2022-11-08 ▲騰▼▲訊▼科技(深▲セン▼)有限公司 VIRTUAL OBJECT CONTROL METHOD, APPARATUS, ELECTRONIC DEVICE, AND STORAGE MEDIUM
WO2019211950A1 (en) * 2018-05-02 2019-11-07 任天堂株式会社 Information processing program, information processing device, information processing system, and information processing method
JPWO2019211950A1 (en) * 2018-05-02 2020-09-24 任天堂株式会社 Information processing programs, information processing devices, information processing systems, and information processing methods
US11045736B2 (en) 2018-05-02 2021-06-29 Nintendo Co., Ltd. Storage medium storing information processing program, information processing apparatus, information processing system, and information processing method
US11103784B2 (en) 2018-05-02 2021-08-31 Nintendo Co., Ltd. Storage medium storing information processing program, information processing apparatus, information processing system, and information processing method
US11484783B2 (en) 2018-05-02 2022-11-01 Nintendo Co., Ltd. Storage medium storing information processing program, information processing apparatus, information processing system, and information processing method
US11673043B2 (en) 2018-05-02 2023-06-13 Nintendo Co., Ltd. Storage medium storing information processing program, information processing apparatus, information processing system, and information processing method

Similar Documents

Publication Publication Date Title
US10401964B2 (en) Mobile terminal and method for controlling haptic feedback
KR102105637B1 (en) Input through context-sensitive collision of objects and hands in virtual reality
US20230021260A1 (en) Gesture instruction execution method and apparatus, system, and storage medium
JP2018526693A (en) Hover behavior for gaze dialogue in virtual reality
CN111045511B (en) Gesture-based control method and terminal equipment
JP2017035215A (en) Information processor, information processing system, and character movement control program
EP3557384A1 (en) Device and method for providing dynamic haptic playback for an augmented or virtual reality environments
CN111831104B (en) Head-mounted display system, related method and related computer readable recording medium
US20240153219A1 (en) Systems, Methods, and Graphical User Interfaces for Adding Effects in Augmented Reality Environments
EP3367216A1 (en) Systems and methods for virtual affective touch
JP6088787B2 (en) Program, information processing apparatus, information processing method, and information processing system
CN108815844B (en) Mobile terminal, game control method thereof, electronic device and storage medium
JP2018187289A (en) Program and information processing device
JP2017035214A (en) Information processor, information processing system, and character movement control program
JP6018474B2 (en) Program, information processing apparatus, information processing method, and information processing system
KR102204599B1 (en) Method for outputting screen and display device for executing the same
JP2014102544A (en) Program, information processing device, information processing system, and information processing method
JP5705393B1 (en) Method to improve user input operability
KR102582745B1 (en) Method and system for providing a chat room in three-dimensional form and non-transitory computer-readable recording medium
CN112717409B (en) Virtual vehicle control method, device, computer equipment and storage medium
KR102308927B1 (en) Method for outputting screen and display device for executing the same
JP2020058666A (en) Game program, method, and information processing device
KR20170124593A (en) Intelligent interaction methods, equipment and systems
JP2020058667A (en) Game program, method, and information processing device
JP2020058668A (en) Game program, method, and information processing device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180207

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181130

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181211

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20190208

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20190618