[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2006051586A - Robot control system - Google Patents

Robot control system Download PDF

Info

Publication number
JP2006051586A
JP2006051586A JP2004236192A JP2004236192A JP2006051586A JP 2006051586 A JP2006051586 A JP 2006051586A JP 2004236192 A JP2004236192 A JP 2004236192A JP 2004236192 A JP2004236192 A JP 2004236192A JP 2006051586 A JP2006051586 A JP 2006051586A
Authority
JP
Japan
Prior art keywords
robot
control system
robot control
unit
command
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004236192A
Other languages
Japanese (ja)
Other versions
JP2006051586A5 (en
Inventor
Tomoaki Kasuga
知昭 春日
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
SPEECYS KK
Futaba Corp
Original Assignee
SPEECYS KK
Futaba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by SPEECYS KK, Futaba Corp filed Critical SPEECYS KK
Priority to JP2004236192A priority Critical patent/JP2006051586A/en
Publication of JP2006051586A publication Critical patent/JP2006051586A/en
Publication of JP2006051586A5 publication Critical patent/JP2006051586A5/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Toys (AREA)
  • Manipulator (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a robot control system capable of enhancing the operation property of a robot. <P>SOLUTION: The robot control system 100 has the robot 1 and a transmitter 2 to transmit a RAW command to the robot 1. The robot 1 is equipped with a plurality of servo motors 5, a sensor part 6, and a control part 3. When the control part 3 receives the RAW command, a motion command is set according to the condition of the robot 1 acquired from the sensing result of the sensor part 6 and a program executed by the control part, and the motions of the robot 1 are accomplished by driving the servo motors 5 on the basis of the motion command. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、ロボットコントロールシステムに関するものである。   The present invention relates to a robot control system.

ロボットを、送信機(遠隔操作手段)で操縦するロボットコントロールシステムが知られている(例えば、特許文献1参照)。   A robot control system for manipulating a robot with a transmitter (remote control means) is known (for example, see Patent Document 1).

特許文献1に記載のロボットコントロールシステムでは、ロボットをジョイスティック等のスティックタイプの送信機を使って操縦している。しかし、本来、スティックタイプの送信機は、例えば、模型の飛行機や自動車など、アナログ的に動作する舵、ハンドル等の1軸の方向に駆動可能な1つのサーボモータをスティックの一方向の動作で制御するもの、すなわち、一方向の姿勢制御をする場合、1個の駆動部を動かせば事足りるものに対して用いられるのが適している。一例として、飛行機は、その姿勢を変えようとする場合、エレベーターやラダーなどの姿勢制御翼を送信機のスティックの動きに比例して動かすよう構成されている。   In the robot control system described in Patent Document 1, the robot is operated using a stick-type transmitter such as a joystick. However, a stick-type transmitter is, for example, a model airplane or automobile, such as a rudder or steering wheel that operates in an analog manner, and a servo motor that can be driven in one axial direction, such as a steering wheel. In the case of controlling, that is, controlling the posture in one direction, it is suitable to be used for what is sufficient if one drive unit is moved. As an example, an airplane is configured to move attitude control wings such as elevators and ladders in proportion to the movement of the stick of the transmitter when changing its attitude.

ところが、ロボットの場合は、例えば、前進しているロボットに少し右方向に曲がっていくように指示する場合を考えると、右足の歩幅を少し短くし、左足の歩幅を少し長くするといった操作が必要であり、それらは、複数の足の関節(複数のサーボモータ)を微妙に制御して初めてなし得る操作であり、単にどこか1個のサーボモータの打角を変えれば良いと言うものではない。また、ロボットの場合は、単に右方向に動かすといっても、例えば、カニ歩きで右に歩行させる、上半身だけを右方向に動かす等、様々な動作のさせ方が考えられる。さらに、ロボットが歩行している歩行時等の通常時に限られず、例えば、転倒時等の非常時において、右方向に体を動かす場合には、足だけではなく、手等の体全体を使って体の向きを変える必要がある。すなわち、ロボットの場合は、1つの動作を行うに際して、ロボットの体勢や状態に対応して、動作させるサーボモータが全く変わってくるため、操作が非常に難しい(操作性が悪い)という問題がある。   However, in the case of a robot, for example, when considering instructing the robot that is moving forward to turn slightly to the right, it is necessary to perform operations such as slightly shortening the step length of the right foot and slightly increasing the step length of the left foot. These are operations that can only be performed by delicately controlling a plurality of foot joints (a plurality of servo motors), and do not simply mean that the striking angle of one servo motor should be changed. . In the case of a robot, it can be considered to perform various operations such as simply moving to the right, walking to the right by walking on a crab, or moving only the upper body to the right. In addition, it is not limited to normal times such as walking when the robot is walking. For example, when moving the body in the right direction in an emergency such as a fall, use not only the feet but the whole body such as the hand. It is necessary to change the direction of the body. That is, in the case of a robot, when one operation is performed, the servo motor to be operated changes completely according to the posture and state of the robot, so that there is a problem that the operation is very difficult (operability is poor). .

特開平8−108385号公報JP-A-8-108385

本発明の目的は、ロボットの操作性を向上させることができるロボットコントロールシステムを提供することにある。   The objective of this invention is providing the robot control system which can improve the operativity of a robot.

このような目的は、下記(1)〜(37)の本発明により達成される。
(1) ロボットと、前記ロボットに対してコマンドを送信する遠隔操作手段とを有するロボットコントロールシステムであって、
前記ロボットは、
複数の駆動部と、
当該ロボットの状態を判断する判断手段と、
前記遠隔操作手段から送信されたコマンドを受信する受信手段と、
前記受信手段により前記コマンドを受信したとき、前記判断手段により得られた当該ロボットの状態に応じた動作コマンドを設定し、該動作コマンドに基づいて前記複数の駆動部を、それぞれ駆動することにより当該ロボットの動作を実現する動作実現手段とを有することを特徴とするロボットコントロールシステム。
Such an object is achieved by the present inventions (1) to (37) below.
(1) A robot control system having a robot and remote control means for transmitting a command to the robot,
The robot is
A plurality of drive units;
A judging means for judging the state of the robot;
Receiving means for receiving a command transmitted from the remote control means;
When the command is received by the receiving means, an operation command corresponding to the state of the robot obtained by the determination means is set, and the plurality of driving units are driven based on the operation command, respectively. A robot control system comprising: an operation realizing means for realizing an operation of the robot.

(2) 前記判断手段は、少なくとも2つの異なる状態を判断できるものである上記(1)に記載のロボットコントロールシステム。   (2) The robot control system according to (1), wherein the determination unit can determine at least two different states.

(3) 前記ロボットは、歩行可能なロボットであり、
前記異なる状態は、少なくとも前記ロボットが、起立して歩行していない静止状態と、歩行を行っている歩行状態と、転倒している転倒状態とを含み、
前記動作実現手段は、前記静止状態と、前記歩行状態と、前記転倒状態との、それぞれに応じた動作コマンドを設定するものである上記(2)に記載のロボットコントロールシステム。
(3) The robot is a walking robot,
The different states include a stationary state where the robot is not standing and walking, a walking state where the robot is walking, and a falling state where the robot is falling,
The robot control system according to (2), wherein the motion realization means sets motion commands corresponding to the stationary state, the walking state, and the falling state.

(4) 前記動作コマンドは、予め設定されており、
前記動作実現手段は、前記判断手段による判定結果と前記コマンドとの組み合わせにより、前記予め設定された動作コマンドから適したものを選択して、前記ロボットの動作を実現する上記(1)ないし(3)のいずれかに記載のロボットコントロールシステム。
(4) The operation command is preset,
The motion realization means selects a suitable motion command from the preset motion commands based on a combination of the determination result by the determination means and the command, and realizes the motion of the robot (1) to (3) The robot control system according to any one of the above.

(5) 前記判断手段は、前記駆動部の駆動を実行させるプログラムと、前記ロボットの外部情報を検出する検出手段とを有し、前記プログラムと前記検出手段とのうちの少なくとも一方から前記ロボットの状態を判断する上記(1)ないし(4)のいずれかに記載のロボットコントロールシステム。   (5) The determination unit includes a program that causes the drive unit to be driven and a detection unit that detects external information of the robot. The determination unit is configured to detect the robot from at least one of the program and the detection unit. The robot control system according to any one of (1) to (4), wherein the state is determined.

(6) 前記検出手段は、互いに略直交するX軸、Y軸およびZ軸の回りの角速度をそれぞれ検出するジャイロセンサを有する上記(5)に記載のロボットコントロールシステム。   (6) The robot control system according to (5), wherein the detection unit includes a gyro sensor that detects angular velocities about the X axis, the Y axis, and the Z axis that are substantially orthogonal to each other.

(7) 前記検出手段は、略直交する三方向に対する加速度を検出する三次元の加速度センサを有する上記(5)または(6)に記載のロボットコントロールシステム。   (7) The robot control system according to (5) or (6), wherein the detection unit includes a three-dimensional acceleration sensor that detects acceleration in three directions substantially orthogonal to each other.

(8) 前記検出手段は、着床を検出する少なくとも1つの着床検出手段を有し、該着床検出手段の検出値に基づいて、前記ロボットの着床を判断する上記(5)ないし(7)のいずれかに記載のロボットコントロールシステム。   (8) The detection means includes at least one landing detection means for detecting the landing, and determines the landing of the robot based on the detection value of the landing detection means. The robot control system according to any one of 7).

(9) 前記着床検出手段は、圧力センサである上記(8)に記載のロボットコントロールシステム。   (9) The robot control system according to (8), wherein the landing detection means is a pressure sensor.

(10) 前記プログラムは、前記ロボットの静止または前記ロボットの歩行を実行させるものである上記(5)に記載のロボットコントロールシステム。   (10) The robot control system according to (5), wherein the program causes the robot to stop or to walk.

(11) 前記ロボットは、少なくとも足部と、前記駆動部により駆動する足関節と、腰部とを有する脚部を少なくとも1つ備える上記(1)ないし(10)のいずれかに記載のロボットコントロールシステム。   (11) The robot control system according to any one of (1) to (10), wherein the robot includes at least one leg portion including at least a foot portion, an ankle joint driven by the driving portion, and a waist portion. .

(12) 前記脚部は、接地面に対して略平行な方向に旋回する旋回動作を実行可能であり、
前記ロボットは、前記静止時に前記動作コマンドを受信した場合は、前記歩行動作または前記旋回動作を開始する上記(11)に記載のロボットコントロールシステム。
(12) The leg portion can perform a turning operation of turning in a direction substantially parallel to the ground contact surface,
The robot control system according to (11), wherein the robot starts the walking operation or the turning operation when the operation command is received when the robot is stationary.

(13) 前記ロボットは、前記歩行時に前記動作コマンドを受信した場合は、歩行速度および/または歩行方向を変更する上記(11)または(12)に記載のロボットコントロールシステム。   (13) The robot control system according to (11) or (12), wherein the robot changes a walking speed and / or a walking direction when the robot receives the operation command during the walking.

(14) 前記ロボットは、前記腰部に対して所定角度回転可能な胴体部をさらに有する上記(1)ないし(13)のいずれかに記載のロボットコントロールシステム。   (14) The robot control system according to any one of (1) to (13), wherein the robot further includes a body part that is rotatable by a predetermined angle with respect to the waist part.

(15) 前記ロボットは、前記歩行中に前記動作コマンドを受信した場合は、前記腰部に対して前記胴体部の回転角度を変更する上記(14)に記載のロボットコントロールシステム。   (15) The robot control system according to (14), wherein when the robot receives the operation command during the walking, the robot changes a rotation angle of the torso with respect to the waist.

(16) 前記遠隔操作手段は、傾き自在のスティックを有するジョイスティックを備える上記(1)ないし(15)のいずれかに記載のロボットコントロールシステム。   (16) The robot control system according to any one of (1) to (15), wherein the remote control unit includes a joystick having a tiltable stick.

(17) 前記ジョイスティックの所定部位に、操作部が設けられており、前記ジョイスティックの操作または前記操作部の操作により前記ロボットに対して前記コマンドを送信する上記(16)に記載のロボットコントロールシステム。   (17) The robot control system according to (16), wherein an operation unit is provided at a predetermined portion of the joystick, and the command is transmitted to the robot by the operation of the joystick or the operation unit.

(18) 前記ロボットの状態に応じて該ロボットの各部位の動作を制限する制限手段を有する上記(1)ないし(17)のいずれかに記載のロボットコントロールシステム。   (18) The robot control system according to any one of (1) to (17), further including a restricting unit that restricts an operation of each part of the robot according to the state of the robot.

(19) 前記制限手段は、前記ロボットが、起立して歩行していない静止状態と、歩行を行っている歩行状態と、転倒している転倒状態とに応じて、段階的または連続的に前記ロボットの各部位の動作を制限するものである上記(18)に記載のロボットコントロールシステム。   (19) The restricting means may be configured to be stepwise or continuously according to a stationary state where the robot is not standing and walking, a walking state where the robot is walking, and a falling state where the robot is falling. The robot control system according to (18), wherein the operation of each part of the robot is restricted.

(20) 前記制限手段は、前記ロボットの前記歩行状態における歩行速度を制限するものである上記(19)に記載のロボットコントロールシステム。   (20) The robot control system according to (19), wherein the limiting unit limits a walking speed of the robot in the walking state.

(21) 前記動作実現手段は、前記動作コマンドに基づいて、射撃用信号を発生する信号発生手段を有する上記(1)ないし(20)のいずれかに記載のロボットコントロールシステム。   (21) The robot control system according to any one of (1) to (20), wherein the operation realizing unit includes a signal generating unit that generates a shooting signal based on the operation command.

(22) 前記射撃用信号を受信する信号受信手段を有する上記(21)に記載のロボットコントロールシステム。   (22) The robot control system according to (21), further including a signal receiving unit that receives the shooting signal.

(23) 前記射撃用信号を受信する信号受信手段と、
前記ロボットの状態に応じて該ロボットの各部位の動作を制限する制限手段を有する上記(21)に記載のロボットコントロールシステム。
(23) signal receiving means for receiving the shooting signal;
The robot control system according to (21), further including a restricting unit that restricts the operation of each part of the robot according to the state of the robot.

(24) 前記制限手段は、前記射撃用信号の受信回数に応じて、段階的または連続的に前記ロボットの各部位の動作を制限するものである上記(23)に記載のロボットコントロールシステム。   (24) The robot control system according to (23), wherein the restricting unit restricts the operation of each part of the robot stepwise or continuously in accordance with the number of times the shooting signal is received.

(25) 前記制限手段は、前記ロボットが転倒している転倒状態において、前記信号発生手段における射撃用信号の発生速度および/または発生数を制限するものである上記(23)または(24)に記載のロボットコントロールシステム   (25) In the above (23) or (24), the limiting means limits the generation speed and / or the number of generations of the shooting signal in the signal generating means in the fall state where the robot is falling. The robot control system described

(26) 前記ロボットには、前記射撃用信号を受信したとき、被弾信号を送信する送信手段が設けられている上記(22)ないし(25)のいずれかに記載のロボットコントロールシステム。   (26) The robot control system according to any one of (22) to (25), wherein the robot is provided with a transmission unit that transmits an impact signal when the shooting signal is received.

(27) 前記判断手段は、前記信号受信手段が前記射撃用信号を受信した被弾状態を判断するものである上記(22)ないし(26)のいずれかに記載のロボットコントロールシステム。   (27) The robot control system according to any one of (22) to (26), wherein the determination unit is configured to determine a bulleted state in which the signal reception unit has received the shooting signal.

(28) 前記射撃用信号は、赤外光を用いた赤外線射撃用信号である上記(21)ないし(27)のいずれかに記載のロボットコントロールシステム。   (28) The robot control system according to any one of (21) to (27), wherein the shooting signal is an infrared shooting signal using infrared light.

(29) 前記ロボットの状態を視覚的および/または聴覚的に報知する報知手段を有する上記(1)ないし(28)のいずれかに記載のロボットコントロールシステム。   (29) The robot control system according to any one of (1) to (28), further including a notification unit configured to visually and / or audibly notify the state of the robot.

(30) 前記駆動部はサーボモータで構成され、前記動作コマンドは、前記サーボモータに対する回転角度指令である上記(1)ないし(29)のいずれかに記載のロボットコントロールシステム。   (30) The robot control system according to any one of (1) to (29), wherein the driving unit includes a servo motor, and the operation command is a rotation angle command for the servo motor.

(31) 前記遠隔操作手段と、前記受信手段との間で通信プロトコルを用いてデータの双方向通信を行うよう構成されている上記(1)ないし(30)のいずれかに記載のロボットコントロールシステム。   (31) The robot control system according to any one of (1) to (30), wherein the remote control unit and the receiving unit are configured to perform bidirectional data communication using a communication protocol. .

(32) 前記通信プロトコルはTCP/IPプロトコルである上記(31)に記載のロボットコントロールシステム。   (32) The robot control system according to (31), wherein the communication protocol is a TCP / IP protocol.

(33) 前記双方向通信は、無線LANを介して行われる上記(31)または(32)に記載のロボットコントロールシステム。   (33) The robot control system according to (31) or (32), wherein the bidirectional communication is performed via a wireless LAN.

(34) 前記双方向通信の少なくとも一部は、インターネットまたはイントラネットを介して行われる上記(31)ないし(33)のいずれかに記載のロボットコントロールシステム。   (34) The robot control system according to any one of (31) to (33), wherein at least part of the bidirectional communication is performed via the Internet or an intranet.

(35) 前記ロボットは、被写体像を電子画像として撮像する撮像手段を有する上記(1)ないし(34)のいずれかに記載のロボットコントロールシステム。   (35) The robot control system according to any one of (1) to (34), wherein the robot includes an imaging unit that captures a subject image as an electronic image.

(36) 前記判断手段は、前記撮像手段により得られた画像に基づいて、前記ロボットが転倒している転倒状態を判断する上記(35)に記載のロボットコントロールシステム。   (36) The robot control system according to (35), wherein the determination unit determines a fall state in which the robot is falling based on an image obtained by the imaging unit.

(37) 前記遠隔操作手段は、前記撮像手段により撮像された画像を表示する表示部を有する上記(35)または(36)に記載のロボットコントロールシステム。   (37) The robot control system according to (35) or (36), wherein the remote operation unit includes a display unit that displays an image captured by the imaging unit.

本発明によれば、ロボットの操作性(操縦性)を向上させることができるため、容易かつ確実にロボットに対して所望の動作を行わせることができる。   According to the present invention, since the operability (maneuverability) of the robot can be improved, it is possible to cause the robot to perform a desired operation easily and reliably.

特に、操作が一部自動化されるため、例えば、ロボットを見ていなくても的確な動作を行わせることができる。   In particular, since the operation is partially automated, for example, an accurate operation can be performed without looking at the robot.

以下、本発明のロボットコントロールシステムを添付図面に示す好適実施形態に基づいて詳細に説明する。   Hereinafter, a robot control system of the present invention will be described in detail based on preferred embodiments shown in the accompanying drawings.

図1は、本発明のロボットコントロールシステムの主要部を概略的に示すブロック図、図2は、図1に示すロボットコントロールシステムの送信機を示す斜視図、図3は、図1に示すロボットコントロールシステムのロボットを示す概略図、図4はサーボ制御系のブロック図、図5は、本発明のロボットコントロールシステムの第1実施形態におけるコマンド変換テーブルを示す図である。なお以下では、説明の都合上、図3中の上側を「上」、下側を「下」という。また、図3の矢印A方向がロボット1の前方(前側)であり、図3の左側がロボット1の右側であり、図3の右側がロボット1の左側である。   FIG. 1 is a block diagram schematically showing main parts of the robot control system of the present invention, FIG. 2 is a perspective view showing a transmitter of the robot control system shown in FIG. 1, and FIG. 3 is a robot control shown in FIG. FIG. 4 is a block diagram of a servo control system, and FIG. 5 is a diagram showing a command conversion table in the first embodiment of the robot control system of the present invention. In the following, for convenience of explanation, the upper side in FIG. 3 is referred to as “upper” and the lower side is referred to as “lower”. 3 is the front (front side) of the robot 1, the left side of FIG. 3 is the right side of the robot 1, and the right side of FIG.

これらの図に示す実施形態は、ロボット1と送信機(遠隔操作手段)2との間に本発明によるロボットコントロールシステムを適用したものであって、図1に示すように、ロボットコントロールシステム100は、ロボット1と、送信機2とを有している。以下、これらの各構成要素について順次説明する。   In the embodiments shown in these drawings, a robot control system according to the present invention is applied between a robot 1 and a transmitter (remote control means) 2. As shown in FIG. The robot 1 and the transmitter 2 are included. Hereinafter, each of these components will be described sequentially.

送信機2は、ロボット1と通信可能に接続され、ロボット1との間で双方向通信を行うことにより、ロボット1を遠隔操作(遠隔制御)するものである。   The transmitter 2 is communicably connected to the robot 1, and performs remote operation (remote control) of the robot 1 by performing bidirectional communication with the robot 1.

この送信機2は、CPU(Central Processing Unit)211を備える制御部21と、ジョイスティック(方向指示部)22と、ジョイスティック22に設置される操作ボタン(操作部)23と、無線LANインターフェース部24と、表示部25と、記憶部26とを有している。ジョイスティック22と、操作ボタン23と、無線LANインターフェース部24と、表示部25、記憶部26とは、それぞれ制御部21に電気的に接続されている。
なお、制御部21の各構成要素は、図示しないバスを介して電気的に接続されている。
The transmitter 2 includes a control unit 21 having a CPU (Central Processing Unit) 211, a joystick (direction instruction unit) 22, an operation button (operation unit) 23 installed on the joystick 22, a wireless LAN interface unit 24, The display unit 25 and the storage unit 26 are provided. The joystick 22, the operation button 23, the wireless LAN interface unit 24, the display unit 25, and the storage unit 26 are electrically connected to the control unit 21, respectively.
Each component of the control unit 21 is electrically connected via a bus (not shown).

無線LANインターフェース部24は、無線通信部であって、ロボット1に設けられた、後述する無線LANインターフェース部7との間において無線LANで接続されており、TCP/IPプロトコル等の通信プロトコルを用いて、後述するRAWコマンド(コマンド)を含む各種の情報の無線通信を行うためのインターフェースである。   The wireless LAN interface unit 24 is a wireless communication unit, and is connected to the wireless LAN interface unit 7 described later provided in the robot 1 by a wireless LAN, and uses a communication protocol such as a TCP / IP protocol. This is an interface for performing wireless communication of various types of information including a RAW command (command) to be described later.

また、無線LANインターフェース部24は、各種のコンピュータや端末装置などの電子機器と無線通信を行うようにすることもできる。   Further, the wireless LAN interface unit 24 can perform wireless communication with various electronic devices such as computers and terminal devices.

表示部25は、液晶表示素子(LCD)で構成されている。この表示部25では、例えば、後述するCCD(撮像手段)94からの画像(動画像、静止画像)、文字、記号、図形、キャラクター等が表示される。この表示部25は、照明(バックライト)機能を備えていてもよい。   The display unit 25 includes a liquid crystal display element (LCD). On the display unit 25, for example, an image (moving image, still image), a character, a symbol, a figure, a character, or the like from a CCD (imaging means) 94 described later is displayed. The display unit 25 may have an illumination (backlight) function.

記憶部26は、特に限定されないが、例えば、RAM(ランダムアクセスメモリ)やROM(リードオンリーメモリ)などの半導体メモリの他、各種情報を磁気情報として記憶するものなどを用いることができる。また、この記憶部26は、ロボット1に対して着脱自在(着脱可能)であってもよい。   The storage unit 26 is not particularly limited. For example, in addition to a semiconductor memory such as a RAM (Random Access Memory) and a ROM (Read Only Memory), a storage unit that stores various information as magnetic information can be used. The storage unit 26 may be detachable (detachable) from the robot 1.

また、操作ボタン23は、多方向に傾けることができるスイッチである。この操作ボタン23は、後述する静止状態および歩行状態においては、その操作に連動して腕部13または腕部14を駆動するよう構成されている。   The operation button 23 is a switch that can be tilted in multiple directions. The operation button 23 is configured to drive the arm portion 13 or the arm portion 14 in conjunction with the operation in a stationary state and a walking state described later.

この送信機2は、例えば、ジョイスティック22を所定方向に対して所定角度傾斜することや、ジョイスティック22に設けられた操作ボタン23を操作することで、ロボット1に対して所定の動作を行わせるRAWコマンド(コマンド)を送信する。このRAWコマンドは、例えば、”ジョイスティック22が右に10度傾いた”という角度情報を含むデジタルのコマンドと、”ボタン23が押された(ONした)”というデジタルのコマンドとで構成されている。   The transmitter 2 is, for example, a RAW that causes the robot 1 to perform a predetermined operation by inclining the joystick 22 by a predetermined angle with respect to a predetermined direction or operating an operation button 23 provided on the joystick 22. Send a command (command). This RAW command includes, for example, a digital command including angle information “joystick 22 is tilted 10 degrees to the right” and a digital command “button 23 is pressed (turned on)”. .

ロボット1は、送信機2から送信されたRAWコマンドを受信する無線LANインターフェース部7と、制御部3と、記憶部4と、ロボット1の各関節部に設けられた複数のサーボモータ5と、センサ部(検出手段)6と、撮像素子であるCCD(Charge−Coupled Device)94とを備えている。   The robot 1 includes a wireless LAN interface unit 7 that receives a RAW command transmitted from the transmitter 2, a control unit 3, a storage unit 4, and a plurality of servo motors 5 provided at each joint unit of the robot 1, A sensor unit (detection means) 6 and a CCD (Charge-Coupled Device) 94 that is an image sensor are provided.

制御部3は、ロボット1の複数のサーボモータの駆動処理等の各種処理を実行するCPU30を有している。   The control unit 3 includes a CPU 30 that executes various processes such as a drive process for a plurality of servo motors of the robot 1.

記憶部4は、送信機2から無線LANインターフェース部7を介して入力されるRAWコマンド、ロボット1の各部位の作動を実行するプログラム、後述するコマンド変換テーブル等の各種データを格納するものである。このプログラムには例えば、ロボット1を所定速度で歩行させる歩行プログラムや、ロボット1を所定の姿勢で静止させる静止プログラム(ポーズプログラム)等が含まれる。   The storage unit 4 stores various data such as a RAW command input from the transmitter 2 via the wireless LAN interface unit 7, a program for executing the operation of each part of the robot 1, and a command conversion table to be described later. . This program includes, for example, a walking program for walking the robot 1 at a predetermined speed, a stationary program (pause program) for stopping the robot 1 in a predetermined posture, and the like.

この記憶部4としては特に限定されないが、例えば、記憶部26と同様のものを用いることができる。   Although it does not specifically limit as this memory | storage part 4, For example, the thing similar to the memory | storage part 26 can be used.

センサ部6は、コリオリ力を利用して互いに直交するX軸、Y軸およびZ軸の回りの角速度をそれぞれ検出するジャイロセンサ31と、互いに直交するX軸、Y軸およびZ軸の各軸方向への加速度を検出する三次元加速度センサ(Gセンサ)32と、圧力センサ33とで構成されている。   The sensor unit 6 includes a gyro sensor 31 that detects angular velocities around the X axis, the Y axis, and the Z axis that are orthogonal to each other by using Coriolis force, and each axial direction of the X axis, the Y axis, and the Z axis that are orthogonal A three-dimensional acceleration sensor (G sensor) 32 for detecting the acceleration to the pressure sensor 33 and a pressure sensor 33 are configured.

また、三次元加速度センサ32としては、特に限定されないが、例えば、圧電型、サーボ型、ひずみゲージ型、CMOSを用いた半導体加速度センサ等が挙げられる。   The three-dimensional acceleration sensor 32 is not particularly limited, and examples thereof include a piezoelectric acceleration type, a servo type, a strain gauge type, and a semiconductor acceleration sensor using a CMOS.

無線LANインターフェース部7は、前述した無線LANインターフェース部24と同機能を有するものであり、その説明を省略する。
なお、制御部3の各構成要素は、図示しないバスを介して電気的に接続されている。
The wireless LAN interface unit 7 has the same function as the wireless LAN interface unit 24 described above, and a description thereof is omitted.
Each component of the control unit 3 is electrically connected via a bus (not shown).

CCD94は、例えば、図示しないレンズ等によりCCD94の受光面(撮像面)上に導かれて結像した被写体像(周囲の像)を撮像する。このCCD94から出力された信号(デジタル信号)は、例えば、図示しない増幅回路により増幅され、その後、制御部3に入力される。   The CCD 94 captures a subject image (surrounding image) that is guided and formed on the light receiving surface (imaging surface) of the CCD 94 by, for example, a lens (not shown). The signal (digital signal) output from the CCD 94 is amplified by, for example, an amplifier circuit (not shown), and then input to the control unit 3.

なお、サーボモータ5については、詳細を後述する。
この制御部3と、無線LANインターフェース部7とで受信手段の主要部が構成される。
The details of the servo motor 5 will be described later.
The control unit 3 and the wireless LAN interface unit 7 constitute a main part of receiving means.

また、制御部3と、ジャイロセンサ31と、三次元加速度センサ32と圧力センサ33とで判断手段の主要部が構成される。   The control unit 3, the gyro sensor 31, the three-dimensional acceleration sensor 32, and the pressure sensor 33 constitute a main part of the determination unit.

また、制御部3と、サーボモータ5とで、動作実現手段の主要部が構成される。
次に、ロボット1の全体構成について説明する。
The control unit 3 and the servo motor 5 constitute the main part of the operation realizing means.
Next, the overall configuration of the robot 1 will be described.

図3に示すように、ロボット1は、脚部および腕部にリンク機構を用いた2足歩行ロボットであって、頭部11と、胴体部12と、2つの腕部13、14と、脚部15とを有している。   As shown in FIG. 3, the robot 1 is a biped walking robot that uses a link mechanism for legs and arms, and includes a head 11, a torso 12, two arms 13 and 14, and legs. Part 15.

胴体部12には、ジャイロセンサ31と、三次元加速度センサ32とが設置されている。また、胴体部12には、頭部11と、腕部13、14と、脚部15とが連結されている。
脚部15は、右脚41と、左脚51と腰部50とを有している。
A gyro sensor 31 and a three-dimensional acceleration sensor 32 are installed on the body portion 12. In addition, a head portion 11, arm portions 13 and 14, and leg portions 15 are connected to the body portion 12.
The leg portion 15 includes a right leg 41, a left leg 51, and a waist portion 50.

脚式機構である右脚41は、右大腿部42と右下腿部43と右足部44とをリンク要素とするリンク機構であって、右大腿部42は右股関節47を介して腰部50に連結され、右下腿部43は右膝関節48を介して右大腿部42に連結され、右足部44は右足首関節49を介して右下腿部43に連結されている。   The right leg 41, which is a leg type mechanism, is a link mechanism having the right thigh 42, the right lower leg 43, and the right foot 44 as link elements, and the right thigh 42 is connected to the lumbar region via the right hip joint 47. The right leg part 43 is connected to the right thigh part 42 via the right knee joint 48, and the right foot part 44 is connected to the right leg part 43 via the right ankle joint 49.

右股関節47は、右足ヨー角サーボモータ(駆動部)LR1と、右足ピッチ角サーボモータLR2と、右足ロール角サーボモータLR3と、これらの各サーボモータLR1〜LR3の動力を右大腿部42に伝達させる減速機等からなる動力伝達機構(図示せず)とを有し、各サーボモータLR1〜LR3との駆動により動力伝達機構を介して右大腿部42が腰部50に対して駆動される。   The right hip joint 47 includes a right foot yaw angle servomotor (drive unit) LR1, a right foot pitch angle servomotor LR2, a right foot roll angle servomotor LR3, and the power of these servomotors LR1 to LR3 to the right thigh 42. A power transmission mechanism (not shown) including a reduction gear for transmission, and the right thigh 42 is driven with respect to the waist 50 through the power transmission mechanism by driving each servo motor LR1 to LR3. .

右膝関節48は、右足膝ピッチ角サーボモータLR4と、右足膝ピッチ角サーボモータLR4の動力を右下腿部43に伝達させる減速機等からなる動力伝達機構(図示せず)とを有し、右足膝ピッチ角サーボモータLR4の駆動により動力伝達機構を介して右下腿部43が右大腿部42に対して駆動される。   The right knee joint 48 includes a right foot knee pitch angle servomotor LR4 and a power transmission mechanism (not shown) including a speed reducer that transmits the power of the right foot knee pitch angle servomotor LR4 to the right lower leg 43. The right leg knee 43 is driven with respect to the right thigh 42 via the power transmission mechanism by driving the right foot knee pitch angle servomotor LR4.

右足首関節49は、右足平ピッチ角サーボモータLR5と、右足平ロール角サーボモータLR6、これらの各サーボモータLR5、LR6の動力を右足部44に伝達させる減速機等からなる動力伝達機構(図示せず)と、右足部44の裏側(下部)に設けられる圧力センサ(着床検出手段)33とを有し、各サーボモータLR5、LR6の駆動により動力伝達機構を介して右足部44が右下腿部43に対して駆動される。   The right ankle joint 49 includes a right foot pitch angle servomotor LR5, a right foot roll angle servomotor LR6, and a power transmission mechanism (such as a speed reducer) that transmits the power of these servomotors LR5 and LR6 to the right foot portion 44. And a pressure sensor (landing detection means) 33 provided on the back side (lower part) of the right foot portion 44, and the right foot portion 44 is moved to the right via a power transmission mechanism by driving each servo motor LR5, LR6. It is driven with respect to the crus 43.

脚式機構である左脚51は、左大腿部52と左下腿部53と左足部54とをリンク要素とするリンク機構であって、左大腿部52は左股関節57を介して腰部50に連結され、左下腿部53は左膝関節58を介して左大腿部52に連結され、左足部54は左足首関節59を介して左下腿部53に連結されている。   The left leg 51, which is a leg type mechanism, is a link mechanism having the left thigh 52, the left lower leg 53, and the left foot 54 as link elements, and the left thigh 52 is connected to the waist 50 through the left hip joint 57. The left lower leg 53 is connected to the left thigh 52 via the left knee joint 58, and the left foot 54 is connected to the left lower leg 53 via the left ankle joint 59.

左股関節57は、左足ヨー角サーボモータ(駆動部)LL1と、左足ピッチ角サーボモータ(駆動部)LL2と、左足ロール角サーボモータ(駆動部)LL3と、これらの各サーボモータLL1〜LL3の動力を左大腿部52に伝達させる減速機等からなる動力伝達機構(図示せず)とを有し、各サーボモータLL1〜LL3の駆動により動力伝達機構を介して左大腿部52が腰部50に対して駆動される。   The left hip joint 57 includes a left foot yaw angle servo motor (drive unit) LL1, a left foot pitch angle servo motor (drive unit) LL2, a left foot roll angle servo motor (drive unit) LL3, and servo motors LL1 to LL3. A power transmission mechanism (not shown) including a speed reducer that transmits power to the left thigh 52, and the left thigh 52 is connected to the waist through the power transmission mechanism by driving the servo motors LL1 to LL3. 50 is driven.

左膝関節58は、左足膝ピッチ角サーボモータ(駆動部)LL4と、左足膝ピッチ角サーボモータLL4の動力を左下腿部53に伝達させる減速機等からなる動力伝達機構(図示せず)とを有し、左足膝ピッチ角サーボモータLL4の駆動により動力伝達機構を介して左下腿部53が左大腿部52に対して駆動される。   The left knee joint 58 includes a left foot knee pitch angle servomotor (drive unit) LL4 and a power transmission mechanism (not shown) including a reduction gear that transmits the power of the left foot knee pitch angle servomotor LL4 to the left lower leg 53. The left lower leg 53 is driven with respect to the left thigh 52 via the power transmission mechanism by driving the left foot knee pitch angle servomotor LL4.

左足首関節59は、左足平ピッチ角サーボモータ(駆動部)LL5と、左足平ロール角サーボモータ(駆動部)LL6と、各サーボモータLL5、LL6の動力を左足部54に伝達させる減速機等からなる動力伝達機構(図示せず)と、足部54の裏側(下部)に設けられる圧力センサ(着床検出手段)33とを有し、各サーボモータLL5、LL6の駆動により動力伝達機構を介して左足部54が右下腿部15に対して駆動される。   The left ankle joint 59 includes a left foot pitch angle servomotor (drive unit) LL5, a left foot roll angle servomotor (drive unit) LL6, a speed reducer that transmits the power of the servomotors LL5 and LL6 to the left foot portion 54, and the like. And a pressure sensor (landing detection means) 33 provided on the back side (lower part) of the foot portion 54, and the power transmission mechanism is driven by driving the servo motors LL5 and LL6. Accordingly, the left foot 54 is driven with respect to the right lower leg 15.

腰部50は、腰関節46を介して、図3中、胴体部12の下側に胴体部12に対して所定角度回転可能に連結されている。   The waist part 50 is connected to the lower side of the body part 12 in FIG. 3 via the waist joint 46 so as to be rotatable by a predetermined angle with respect to the body part 12.

胴体部12は、ヨー角サーボモータ(駆動部)BC1と、ヨー角サーボモータBC1の動力を胴体部12に伝達させる減速機等からなる動力伝達機構(図示せず)とを有し、ヨー角サーボモータBC1の駆動により動力伝達機構を介して胴体部12が腰部50に対して駆動される。
なお、ヨー角サーボモータは、腰部50側に設けられていてもよい。
The body 12 includes a yaw angle servomotor (drive unit) BC1 and a power transmission mechanism (not shown) including a speed reducer that transmits the power of the yaw angle servomotor BC1 to the body 12. The body 12 is driven with respect to the waist 50 through the power transmission mechanism by driving the servo motor BC1.
Note that the yaw angle servomotor may be provided on the waist 50 side.

腕部(右腕部)13は、右上腕部62と右前腕部63と右手部64とをリンク要素とするリンク機構であって、右上腕部62は右肩関節67を介して胴体部12に連結され、右下腿部43は右肘関節68を介して右上腕部62に連結され、右手部64は右手首関節69を介して右前腕部63に連結されている。   The arm portion (right arm portion) 13 is a link mechanism having the upper right arm portion 62, the right forearm portion 63, and the right hand portion 64 as link elements, and the upper right arm portion 62 is connected to the body portion 12 via the right shoulder joint 67. The right leg part 43 is connected to the right upper arm part 62 via the right elbow joint 68, and the right hand part 64 is connected to the right forearm part 63 via the right wrist joint 69.

右肩関節67は、右手ピッチ角サーボモータ(駆動部)HR1と、右手ロール角サーボモータHR2と、各サーボモータHR1、HR2の動力を右上腕部62に伝達させる減速機等からなる動力伝達機構(図示せず)とを有し、各サーボモータHR1、HR2との駆動により動力伝達機構を介して右上腕部62が胴体部12に対して駆動される。   The right shoulder joint 67 includes a right-hand pitch angle servomotor (drive unit) HR1, a right-hand roll angle servomotor HR2, and a power transmission mechanism including a speed reducer that transmits the power of each servomotor HR1 and HR2 to the upper-right arm 62. (Not shown), and the upper right arm portion 62 is driven with respect to the body portion 12 through a power transmission mechanism by driving the servo motors HR1 and HR2.

右肘関節68は、右足肘ピッチ角サーボモータHR3と、右足肘ピッチ角サーボモータHR3の動力を右前腕部63に伝達させる減速機等からなる動力伝達機構(図示せず)とを有し、右足肘ピッチ角サーボモータHR3の駆動により動力伝達機構を介して右前腕部63が右上腕部62に対して駆動される。   The right elbow joint 68 includes a right foot elbow pitch angle servomotor HR3 and a power transmission mechanism (not shown) including a speed reducer that transmits the power of the right foot elbow pitch angle servomotor HR3 to the right forearm portion 63. The right forearm 63 is driven with respect to the upper right arm 62 through the power transmission mechanism by driving the right foot elbow pitch angle servomotor HR3.

右手首関節69は、右手ヨー角サーボモータHR4と、右手ヨー角サーボモータHR4の動力を右手部64に伝達させる減速機等からなる動力伝達機構(図示せず)とを有し、右手ヨー角サーボモータHR4の駆動により動力伝達機構を介して右手部64が右前腕部63に対して駆動される。   The right wrist joint 69 has a right hand yaw angle servomotor HR4 and a power transmission mechanism (not shown) including a speed reducer that transmits the power of the right hand yaw angle servomotor HR4 to the right hand portion 64. The right hand portion 64 is driven with respect to the right forearm portion 63 through the power transmission mechanism by driving the servo motor HR4.

腕部(左腕部)14は、左上腕部72と左前腕部73と左手部74とをリンク要素とするリンク機構であって、左上腕部72は左肩関節77を介して胴体部12に連結され、左下腿部43は左肘関節78を介して左上腕部72に連結され、左手部74は左手首関節79を介して左前腕部73に連結されている。   The arm part (left arm part) 14 is a link mechanism having a left upper arm part 72, a left forearm part 73, and a left hand part 74 as link elements, and the left upper arm part 72 is connected to the body part 12 via a left shoulder joint 77. The left lower leg portion 43 is connected to the left upper arm portion 72 via the left elbow joint 78, and the left hand portion 74 is connected to the left forearm portion 73 via the left wrist joint 79.

左肩関節77は、左手ピッチ角サーボモータ(駆動部)HL1と、左手ロール角サーボモータHL2と、各サーボモータHL1、HL2の動力を左上腕部72に伝達させる減速機等からなる動力伝達機構(図示せず)とを有し、各サーボモータHL1、HL2との駆動により動力伝達機構を介して左上腕部72が胴体部12に対して駆動される。   The left shoulder joint 77 includes a left-hand pitch angle servomotor (drive unit) HL1, a left-hand roll angle servomotor HL2, and a power transmission mechanism (such as a speed reducer that transmits the power of the servomotors HL1 and HL2 to the left upper arm portion 72). The left upper arm portion 72 is driven with respect to the body portion 12 through a power transmission mechanism by driving the servo motors HL1 and HL2.

左肘関節78は、左足肘ピッチ角サーボモータHL3と、左足肘ピッチ角サーボモータHL3の動力を左前腕部73に伝達させる減速機等からなる動力伝達機構(図示せず)とを有し、左足肘ピッチ角サーボモータHL3の駆動により動力伝達機構を介して左前腕部73が左上腕部72に対して駆動される。   The left elbow joint 78 includes a left foot elbow pitch angle servomotor HL3 and a power transmission mechanism (not shown) including a speed reducer that transmits the power of the left foot elbow pitch angle servomotor HL3 to the left forearm 73. The left forearm 73 is driven with respect to the left upper arm 72 through a power transmission mechanism by driving the left foot elbow pitch angle servomotor HL3.

左手首関節79は、左手ヨー角サーボモータHL4と、左手ヨー角サーボモータHL4の動力を左手部74に伝達させる減速機等からなる動力伝達機構(図示せず)とを有し、左手ヨー角サーボモータHL4の駆動により動力伝達機構を介して左手部74が左前腕部73に対して駆動される。   The left wrist joint 79 has a left-hand yaw angle servomotor HL4 and a power transmission mechanism (not shown) including a speed reducer that transmits the power of the left-hand yaw angle servomotor HL4 to the left hand portion 74. The left hand portion 74 is driven with respect to the left forearm portion 73 through the power transmission mechanism by driving the servo motor HL4.

頭部11は、首関節45を介して、胴体部12の上側に胴体部12に対して所定角度回転可能に連結されている。   The head portion 11 is connected to the upper side of the body portion 12 via the neck joint 45 so as to be rotatable by a predetermined angle with respect to the body portion 12.

この頭部11は、CCD94と、頭部ヨー角サーボモータ(駆動部)HC1と、頭部ピッチ角サーボモータHC2と、各サーボモータHC1、HC2の動力を胴体部12に伝達させる減速機等からなる動力伝達機構(図示せず)とを有し、各サーボモータHC1、HC2の駆動により動力伝達機構を介して頭部11が胴体部12に対して駆動される。   The head 11 includes a CCD 94, a head yaw angle servomotor (drive unit) HC1, a head pitch angle servomotor HC2, and a speed reducer that transmits the power of the servomotors HC1 and HC2 to the body unit 12. The head 11 is driven with respect to the body part 12 through the power transmission mechanism by driving the servo motors HC1 and HC2.

図4はサーボ制御系のブロック図である。
図4に示す駆動制御系は、前述した制御部3により、右脚41および左脚51の各関節47〜49、57〜59と、腕部13および腕部14の各関節67〜69、77〜79と、腰関節46と、首関節45との作動を制御する。
FIG. 4 is a block diagram of the servo control system.
The drive control system shown in FIG. 4 has the joints 47 to 49 and 57 to 59 of the right leg 41 and the left leg 51 and the joints 67 to 69 and 77 of the arm part 13 and the arm part 14 by the control unit 3 described above. ˜79, the waist joint 46, and the neck joint 45 are controlled.

また、制御部3は、足部44、54に設けられている圧力センサ33、33からの入力信号(検出信号)に基づいて、ロボット1の着床状態を判断する。   Further, the control unit 3 determines the landing state of the robot 1 based on input signals (detection signals) from the pressure sensors 33 and 33 provided on the foot portions 44 and 54.

制御部3は、無線LANインターフェース部7を介して送信機2からRAWコマンドを受信すると、CPU30は、現在実行されている前記プログラムと、ジャイロセンサ31、三次元加速度センサ32、圧力センサ33からの入力データとに基づいて、コマンド変換テーブルから動作コマンドを設定し、この動作コマンドに基づいて、シリアルバスを介してサーボモータ5を構成する各サーボモータLR1〜LR6、LL1〜LL6、HR1〜HR4、HL1〜HL4、BC1、HC1、HC2に駆動電流(駆動電圧)を出力する。これにより、対応する各サーボモータLR1〜LR6、LL1〜LL6、HR1〜HR4、HL1〜HL4、BC1、HC1、HC2が、それぞれ駆動する。これによって、ロボット1の動作が実現(実行)される。   When the control unit 3 receives the RAW command from the transmitter 2 via the wireless LAN interface unit 7, the CPU 30 receives the program currently being executed, the gyro sensor 31, the three-dimensional acceleration sensor 32, and the pressure sensor 33. Based on the input data, an operation command is set from the command conversion table, and on the basis of this operation command, the servo motors LR1 to LR6, LL1 to LL6, HR1 to HR4 constituting the servo motor 5 via the serial bus, A drive current (drive voltage) is output to HL1 to HL4, BC1, HC1, and HC2. As a result, the corresponding servo motors LR1 to LR6, LL1 to LL6, HR1 to HR4, HL1 to HL4, BC1, HC1, and HC2 are driven. Thereby, the operation of the robot 1 is realized (executed).

図5は、本実施形態のコマンド変換テーブルを示す図である。
本実施形態のRAWコマンドから設定される動作コマンドは、記憶部4に格納されているコマンド変換テーブルを用いて設定される。
FIG. 5 is a diagram showing a command conversion table of the present embodiment.
The operation command set from the RAW command of the present embodiment is set using a command conversion table stored in the storage unit 4.

このコマンド変換テーブルは、一例として、図5に示すようなものが挙げられる。111列の欄は現在ロボットで行われている動作(状態)を示す。112〜114列の欄は、ジョイスティック22の操作によって得られるRAWコマンドと、それに対応する動作を示す。また、115列の欄は、操作ボタン23の操作によって得られるRAWコマンドと、それに対応する動作を示す。図5中、「上半身」とは、頭部11、胴体部12を意味し、「下半身」とは、脚部15を意味する。また、斜線の部分は、RAWコマンドに対して対応する動作コマンドが存在しないことを示す。以下代表的に112列(ジョイスティック22の前後操作)について説明すると、ロボット1が停止中の場合は、ジョイスティック22を前に倒すと、前進を開始し、ジョイスティック22を後ろに倒すと後進(後退)を開始する。ロボット1が前進歩行中の場合は、ジョイスティック22を前に倒すと、前進速度が増大し、ジョイスティック22を後ろに倒すと前進速度が減少する。ロボット1が斜め前へ前進中の場合においては、前進歩行中と同様の動作を行う。ロボット1が転倒時の転倒直後1においては、ジョイスティック22を前に倒すと腕部13、14を胴体部12の前に振る動作を行い、ジョイスティック22を後ろに倒すと腕部13、14を胴体部12の後ろに振る動作を行う。ロボット1が転倒時の転倒直後2においては、ジョイスティック22を前に倒すと右脚41、左脚51を胴体部12の前に振る動作を行い、ジョイスティック22を後ろに倒すと右脚41、左脚51を胴体部12の後ろに振る動作を行う。ロボット1が転倒時に転倒直後1と転倒直後2のいずれの動作が行われるかは、ロボット1の転倒状態において制御部3が例えば、センサ部6の情報に基づいて適宜選択する。ロボット1のうつぶせ状態においては、ジョイスティック22を前後いずれに倒しても脚部15の各関節を曲げて体を縮める制御を行い、その後立ち上がる。ロボット1の仰向け状態においては、ジョイスティック22を前後いずれに倒しても腕部13、14を用いて上半身を起こし、その後立ち上がる。   An example of this command conversion table is shown in FIG. The column of column 111 shows the operation (state) currently being performed by the robot. Columns 112 to 114 show RAW commands obtained by operating the joystick 22 and corresponding operations. A column of 115 columns indicates a RAW command obtained by operating the operation button 23 and an operation corresponding to the RAW command. In FIG. 5, “upper body” means the head 11 and the trunk 12, and “lower body” means the leg 15. Also, the hatched portion indicates that there is no operation command corresponding to the RAW command. Hereinafter, the 112th row (back and forth operation of the joystick 22) will be described as a representative. When the robot 1 is stopped, the robot 1 starts moving forward when the joystick 22 is tilted forward, and moves backward (reverses) when the joystick 22 is tilted backward. To start. When the robot 1 is walking forward, the forward speed increases when the joystick 22 is tilted forward, and the forward speed decreases when the joystick 22 is tilted backward. When the robot 1 is moving forward diagonally, the same operation as during forward walking is performed. When the robot 1 falls, immediately after the fall, when the joystick 22 is tilted forward, the arm portions 13 and 14 are swung in front of the body portion 12, and when the joystick 22 is tilted back, the arm portions 13 and 14 are moved to the body. The operation of shaking behind the unit 12 is performed. Immediately after the fall of the robot 1, when the joystick 22 is tilted forward, the right leg 41 and the left leg 51 are swung in front of the body 12, and when the joystick 22 is tilted backward, the right leg 41, left An operation of swinging the legs 51 behind the trunk 12 is performed. When the robot 1 falls, whether the operation immediately after the fall 1 or the operation 2 immediately after the fall is performed is appropriately selected by the control unit 3 based on, for example, information from the sensor unit 6 in the fall state of the robot 1. In the state where the robot 1 is in the collapsed state, even if the joystick 22 is tilted forward or backward, control is performed to bend each joint of the leg portion 15 to contract the body, and then the robot 1 stands up. In the state where the robot 1 is turned upside down, the upper body is raised using the arm portions 13 and 14 even if the joystick 22 is tilted forward or backward, and then stands up.

なお、選択された動作コマンドに対して制御部3が各サーボモータに与える駆動指令は、記憶部4に予め設定されている。
図6は、データ受信ルーチンを説明するフローチャートである。
A drive command that the control unit 3 gives to each servo motor in response to the selected operation command is set in the storage unit 4 in advance.
FIG. 6 is a flowchart for explaining the data reception routine.

次に、ロボットコントロールシステム100の動作について、図6に示すフローチャートを用いて具体的に説明する。なお、図6に示すフローチャートは、一例としてロボット1の前進操作および後退操作に関しての、静止中、前進歩行中(歩行中)、転倒中の動作について示したものである。   Next, the operation of the robot control system 100 will be specifically described with reference to the flowchart shown in FIG. Note that the flowchart shown in FIG. 6 shows, as an example, operations of the robot 1 during a stationary operation, a forward walking (walking), and a fall with respect to the forward operation and the backward operation.

まず、ロボット1の制御部3は、送信機2から送信された信号を受信したか否かを判断する(ステップS101)。   First, the control unit 3 of the robot 1 determines whether or not a signal transmitted from the transmitter 2 has been received (step S101).

そして、制御部3は、信号を受信したと判断すると、それが、RAWコマンドか否かを判断する(ステップS102)。   Then, when determining that the signal has been received, the control unit 3 determines whether or not it is a RAW command (step S102).

制御部3は、RAWコマンドであると判断した場合は(ステップS102のYes)、後述する処理ルーチンへと移行し、処理ルーチンを実行する(ステップS103)。   If the control unit 3 determines that the command is a RAW command (Yes in step S102), the control unit 3 shifts to a processing routine described later and executes the processing routine (step S103).

一方、制御部3がRAWコマンドではないと判断した場合には(ステップS102のNo)、ステップS101に移行し、次のデータ受信があるまで、このステップS101で待機する。   On the other hand, when the control unit 3 determines that the command is not a RAW command (No in Step S102), the process proceeds to Step S101 and waits in Step S101 until the next data is received.

ステップS103において、処理ルーチンの実行が終了した場合には、ロボット1の各サーボモータを駆動する駆動電源がOFFであるか否かを判断し(ステップS104)、駆動電源がOFFの場合は(ステップS104のYes)、データ受信ルーチンを終了する。一方、駆動電源がOFFでない場合は(ステップS104のNo)、ステップS101に移行し、次のデータ受信があるまで、このステップS101で待機する。   In step S103, when the execution of the processing routine is completed, it is determined whether or not the driving power source for driving each servo motor of the robot 1 is OFF (step S104). In step S104, the data reception routine ends. On the other hand, if the drive power is not OFF (No in step S104), the process proceeds to step S101, and waits in step S101 until the next data is received.

次に、図6に示すフローチャートのステップS103における処理ルーチンについて図7を用いて説明する。図7は、処理ルーチンを示すフローチャートである。   Next, the processing routine in step S103 of the flowchart shown in FIG. 6 will be described with reference to FIG. FIG. 7 is a flowchart showing the processing routine.

まず、制御部3は、前述したジャイロセンサ31、三次元加速度センサ32および圧力センサ33により、それぞれ検出した検出値を記憶部4に格納する(ステップS201)。
次に、制御部3は、現在実行されているプログラムを確認する(ステップS202)。
First, the control unit 3 stores the detected values detected by the gyro sensor 31, the three-dimensional acceleration sensor 32, and the pressure sensor 33 in the storage unit 4 (step S201).
Next, the control unit 3 confirms the currently executed program (step S202).

次に、制御部3は、現在実行されているプログラムと、記憶部4に格納されている各センサ31、32、33により検出した検出値とに基づいて、ロボット1の状態が正常か否かを判断する(ステップS203)。   Next, the control unit 3 determines whether or not the state of the robot 1 is normal based on the currently executed program and the detection values detected by the sensors 31, 32, and 33 stored in the storage unit 4. Is determined (step S203).

具体的には、圧力センサ33の検出値により、右足部44と左足部54とのうちのいずれか片方または両方の足部が接地しているか否かを判断する。   Specifically, it is determined based on the detection value of the pressure sensor 33 whether one or both of the right foot portion 44 and the left foot portion 54 are grounded.

いずれか片方または両方の足部が接地している場合(歩行状態または静止状態である場合)は、制御部3は、ロボット1の状態が正常であると判断し(ステップS203のYes)、ステップS204に移行する。   If either one or both feet are in contact with the ground (in a walking state or a stationary state), the control unit 3 determines that the state of the robot 1 is normal (Yes in step S203), and the step The process proceeds to S204.

次に、制御部3は、ロボット1が起立して歩行していない静止状態(以下「静止状態」という)であるか否かを判断する(ステップS204)。   Next, the control unit 3 determines whether or not the robot 1 is in a stationary state (hereinafter referred to as “stationary state”) in which the robot 1 is not standing and walking (step S204).

具体的には、制御部3が、現在歩行プログラムが実行されているか否かを判断する。歩行プログラム(前進歩行プログラム)が実行されていれば、制御部3は、ロボット1が歩行状態である(歩行中である)と判断し(ステップS204のNo)、ステップS205に移行する。   Specifically, the control unit 3 determines whether or not a walking program is currently being executed. If the walking program (forward walking program) is being executed, the control unit 3 determines that the robot 1 is in a walking state (walking) (No in step S204), and proceeds to step S205.

次に、制御部3は、無線LANインターフェース部7を介して受信したRAWコマンドが、前進命令か否かを判断する(ステップS205)。   Next, the control unit 3 determines whether or not the RAW command received via the wireless LAN interface unit 7 is a forward command (step S205).

制御部3が、受信したRAWコマンドが前進命令であると判断した場合には(ステップS205のYes)、記憶部4に格納したコマンド変換テーブルを抽出し(ステップS206)、このコマンド変換テーブルによって得られた動作コマンドによって前進速度調整1を行う(ステップS207)。具体的には、制御部3は、ロボット1の前進速度(歩行速度)を早める制御を行う。これにより、歩行中であるロボット1は、その前進速度を増大させる。   When the control unit 3 determines that the received RAW command is a forward command (Yes in step S205), the command conversion table stored in the storage unit 4 is extracted (step S206) and obtained by this command conversion table. The forward speed adjustment 1 is performed according to the received operation command (step S207). Specifically, the control unit 3 performs control to increase the forward speed (walking speed) of the robot 1. Thereby, the robot 1 that is walking increases its forward speed.

一方、制御部3が、受信したRAWコマンドが前進命令ではないと判断した場合は(ステップS205のNo)、記憶部4に格納したコマンド変換テーブルを抽出し(ステップS208)、このコマンド変換テーブルによって得られた動作コマンドによって前進速度調整2を行う(ステップS209)。具体的には、制御部3は、ロボット1の前進速度(歩行速度)を遅くする制御を行う。これにより、歩行中であるロボット1は、その前進速度を減少させる。   On the other hand, when the control unit 3 determines that the received RAW command is not a forward command (No in step S205), the command conversion table stored in the storage unit 4 is extracted (step S208). Advance speed adjustment 2 is performed by the obtained operation command (step S209). Specifically, the control unit 3 performs control to slow down the forward speed (walking speed) of the robot 1. Thereby, the robot 1 that is walking reduces its forward speed.

また、ステップS204において、歩行プログラムが実行されていなければ、ロボット1は静止中である(静止プログラムが実行されている)と判断し(ステップS204のYes)ステップS210に移行する。   If the walking program is not executed in step S204, it is determined that the robot 1 is stationary (the stationary program is executed) (Yes in step S204), and the process proceeds to step S210.

次に、制御部3は、受信したRAWコマンドが、前進命令か否かを判断する(ステップS210)。   Next, the control unit 3 determines whether or not the received RAW command is a forward command (step S210).

制御部3が、受信したRAWコマンドが前進命令であると判断した場合には(ステップS210のYes)、記憶部4に格納したコマンド変換テーブルを抽出し(ステップS211)、このコマンド変換テーブルによって得られた動作コマンドによってロボット1の前進を開始する制御を行う(ステップS212)。これにより、静止中であるロボット1は、前進を開始する。   When the control unit 3 determines that the received RAW command is a forward command (Yes in step S210), the command conversion table stored in the storage unit 4 is extracted (step S211), and obtained by this command conversion table. The robot 1 is controlled to start advancing according to the received operation command (step S212). Thereby, the robot 1 that is stationary starts moving forward.

一方、制御部3が、受信したRAWコマンドが前進命令ではないと判断した場合は(ステップS210のNo)、記憶部4に格納したコマンド変換テーブルを抽出し(ステップS213)、このコマンド変換テーブルによって得られた動作コマンドによってロボット1の後退を開始する制御を行う(ステップS214)。これにより、静止中であるロボット1は、後退を開始する。   On the other hand, when the control unit 3 determines that the received RAW command is not a forward command (No in step S210), the command conversion table stored in the storage unit 4 is extracted (step S213). Control for starting the backward movement of the robot 1 is performed by the obtained operation command (step S214). As a result, the robot 1 that is stationary starts retreating.

また、ステップS203において、制御部3が、ロボット1の状態が、正常でないと判断した場合には(ステップS203のNo)、ロボット1が転倒している(転倒状態である)と判断し、ステップS215に移行する。   If the controller 3 determines in step S203 that the state of the robot 1 is not normal (No in step S203), the controller 3 determines that the robot 1 has fallen (is in a fallen state). The process proceeds to S215.

次に、制御部3は、CCDにより撮像された画像を記憶部4に取り込む(ステップS215)。   Next, the control part 3 takes in the image imaged by CCD in the memory | storage part 4 (step S215).

次に、制御部3は、CCDにより撮像されている画像信号に基づいて、ロボット1がうつぶせ状態か否かを判断する(ステップS216)
ここでは、一例として、制御部3は、得られた画像信号の明度により、ロボット1がうつぶせ状態か否かを判断する。
Next, the control unit 3 determines whether or not the robot 1 is in a collapsed state based on the image signal captured by the CCD (step S216).
Here, as an example, the control unit 3 determines whether or not the robot 1 is in a collapsed state based on the brightness of the obtained image signal.

そして、制御部3が、ロボット1がうつぶせ状態であると判断した場合は(ステップS216のYes)、記憶部4に格納したRAWコマンド変換テーブルを抽出し(ステップS217)、このコマンド変換テーブルによって得られた動作コマンドによってロボット1の脚部15の各関節を曲げて体を縮める制御を行い、その後立ち上がる(ステップS218)。   If the control unit 3 determines that the robot 1 is in the collapsed state (Yes in step S216), the RAW command conversion table stored in the storage unit 4 is extracted (step S217), and is obtained from the command conversion table. In accordance with the given operation command, control is performed to bend each joint of the leg portion 15 of the robot 1 to contract the body, and then stand up (step S218).

一方、制御部3が、ロボット1がうつぶせ状態ではないと判断した場合は、仰向け状態であると判断し(ステップ216のNo)、記憶部4に格納したコマンド変換テーブルを抽出し(ステップS219)、このコマンド変換テーブルによって得られた動作コマンド1128によってロボット1の腕部13、14を伸ばして、上半身を起こし、その後立ち上がる(ステップS220)。   On the other hand, when the control unit 3 determines that the robot 1 is not in the collapsed state, it determines that the robot 1 is in the supine state (No in step 216), and extracts the command conversion table stored in the storage unit 4 (step S219). The arms 13 and 14 of the robot 1 are extended by the operation command 1128 obtained from the command conversion table, the upper body is raised, and then stands up (step S220).

また、ステップS204においては、制御部3が、現在歩行プログラムが実行されているか否かを判断することにより、ロボット1が歩行状態である(歩行中である)と判断したが、それに限られず、例えば、電流検出手段(図示せず)により各サーボモータの消費電流を検出することにより、ロボット1が歩行状態であるか否かを判断してもよいし、ロボット1を静止状態に保つ静止プログラムが実行されているか否かを判断することにより、ロボット1が歩行状態であるか否かを判断してもよいし、三次元加速度センサによりロボット1の略直交する三方向への加速度を検出することによりロボット1が歩行状態であるか否かを判断してもよいし、これらを適宜組み合わせることによってロボットが歩行状態であるか否かを判断してもよい。なお、静止状態、転倒状態についても前記各プログラムおよび各センサからの情報を適宜選択することにより現在の状態を判断することができる。   In Step S204, the control unit 3 determines that the robot 1 is in a walking state (walking) by determining whether or not the current walking program is being executed. For example, it may be determined whether or not the robot 1 is in a walking state by detecting current consumption of each servo motor by a current detection means (not shown), or a stationary program for keeping the robot 1 in a stationary state. It may be determined whether or not the robot 1 is in a walking state by detecting whether or not is executed, and the acceleration of the robot 1 in three substantially orthogonal directions is detected by a three-dimensional acceleration sensor. Thus, it may be determined whether or not the robot 1 is in a walking state, or by appropriately combining these, it may be determined whether or not the robot is in a walking state. . Note that the current state of the stationary state and the falling state can be determined by appropriately selecting information from the programs and sensors.

以上説明したように、このロボットコントロールシステム100によれば、送信機2から送信されたRAWコマンドを無線LANインターフェース部7を介してロボット1の制御部3が受信したときに、ジャイロセンサ31、三次元加速度センサ32および圧力センサ33、33により得られた検出結果(検出値)と、静止プログラムや、歩行プログラム等のロボット1の各サーボモータの駆動を実行させるプログラムとによりロボットの現在の状態を判断し、コマンド変換テーブルを抽出して、ロボットの現在の状態に応じた動作コマンドを設定することによって、ロボット1に対して所望の動作を実現することができる。これにより、ロボット1の操作性が向上し、容易かつ確実にロボット1に対して所望の動作を行わせることができる。   As described above, according to the robot control system 100, when the control unit 3 of the robot 1 receives the RAW command transmitted from the transmitter 2 via the wireless LAN interface unit 7, the gyro sensor 31 and the tertiary Based on the detection results (detected values) obtained by the original acceleration sensor 32 and the pressure sensors 33 and 33, and the program for executing driving of each servo motor of the robot 1, such as a stationary program and a walking program, the current state of the robot is determined. By determining, extracting a command conversion table, and setting an operation command according to the current state of the robot, a desired operation can be realized for the robot 1. As a result, the operability of the robot 1 is improved, and a desired operation can be performed on the robot 1 easily and reliably.

特に、RAWコマンドから動作コマンドを設定することにより、ジョイスティック22の1つの動作に対して複数のサーボモータの駆動を行うことができるため、操作が一部自動化され、例えば、ロボット1を見ていなくても的確な動作を行わせることができる。   In particular, by setting an operation command from the RAW command, it is possible to drive a plurality of servo motors for one operation of the joystick 22, so that the operation is partially automated, for example, without looking at the robot 1 However, an accurate operation can be performed.

以下、本発明のロボットコントロールシステムをシューティングゲームシステムに適用した場合について説明する。   Hereinafter, a case where the robot control system of the present invention is applied to a shooting game system will be described.

図8は、本発明ロボットコントロールシステムを適用したシューティングゲームシステムの実施形態の全体構成図である。本実施形態のシューティングゲームシステム200は前述したロボット1を複数台有する構成であり、図8では、ロボットを2台用いる場合のシューティングゲームシステムを示している。   FIG. 8 is an overall configuration diagram of an embodiment of a shooting game system to which the robot control system of the present invention is applied. The shooting game system 200 of the present embodiment has a configuration having a plurality of the robots 1 described above, and FIG. 8 shows a shooting game system when two robots are used.

図9は、図8に示したシューティングゲームシステムを示すブロック図であり、ロボット1台分の構成を詳細に示している。図9において、図8と同一部分には同一符号を付している。   FIG. 9 is a block diagram showing the shooting game system shown in FIG. 8, and shows the configuration of one robot in detail. In FIG. 9, the same parts as those in FIG.

以下、2台のロボットは基本的に同一構成であり、また、同一の動作を行うので、説明の便宜上一方のロボット1aについて説明し、他方のロボット1bについては特に必要でない限り説明を省略するものとする。また、ロボット1aが有しているもの、およびロボット1aに装着されているものについては、符号の最後部に「a」をつけ、ロボット1bが有しているもの、およびロボット1bに装着されているものについては、符号の最後部に「b」をつけて説明する。   Since the two robots basically have the same configuration and perform the same operation, only one robot 1a will be described for convenience of description, and description of the other robot 1b will be omitted unless particularly necessary. And In addition, with respect to what the robot 1a has and what is attached to the robot 1a, “a” is added to the last part of the reference numeral, and what the robot 1b has and what is attached to the robot 1b. In the following description, “b” is added to the last part of the reference numeral.

シューティングゲームシステム200は、ロボット1aと、ロボット1aを無線で遠隔制御する送信機2aと、ロボット1bと、ロボット1bを無線で遠隔制御する送信機2bと、ロボット1a、1bの間の無線通信、勝敗の判定、勝敗の点数表示等を行う判定装置(判定手段)16とを備えている。   The shooting game system 200 includes a robot 1a, a transmitter 2a that wirelessly controls the robot 1a, a robot 1b, a transmitter 2b that wirelessly controls the robot 1b, and wireless communication between the robots 1a and 1b. And a determination device (determination means) 16 that performs determination of winning and losing, display of points of winning and losing, and the like.

また、ロボット1aには、判定装置16との間で通信を行うためのアンテナ10aと、複数(本実施形態では2つ)の赤外線センサ(信号受信手段)8aとを有するCPUを備えた信号変換回路(送信手段)9aが、ロボット1aに対して着脱可能に装着されている。この信号変換回路9aは、制御部3aと電気的に接続されている。   Further, the robot 1a has a signal conversion unit including a CPU having an antenna 10a for communicating with the determination device 16 and a plurality (two in the present embodiment) of infrared sensors (signal receiving means) 8a. A circuit (transmission means) 9a is detachably attached to the robot 1a. The signal conversion circuit 9a is electrically connected to the control unit 3a.

また、本実施形態のロボット1aは、左手部74に、赤外線信号を発生可能な赤外線信号発光装置(信号発生手段)17aを備えている。   In addition, the robot 1a of the present embodiment includes an infrared signal light emitting device (signal generating means) 17a capable of generating an infrared signal in the left hand portion 74.

本実施形態では、操作ボタン23を操作することによって、RAWコマンドがロボット1aに対して送信されることによりロボット1aに射撃体勢をとらせ赤外線信号発光装置17aを発生させる動作コマンドが設定されている。   In this embodiment, by operating the operation button 23, an operation command for setting the shooting posture to the robot 1a and generating the infrared signal light emitting device 17a by setting the RAW command to the robot 1a is set. .

前述した各構成要素のうち、シューティングゲームを主催する主催者は、判定装置16と、信号変換回路9a、9bとを有し、シューティングゲームを行う(プレイする)各操縦者(競技者)は、それぞれロボット1a、1bと、送信機2a、2bとを有している。   Among the constituent elements described above, the organizer that hosts the shooting game has the determination device 16 and the signal conversion circuits 9a and 9b, and each pilot (competitor) who performs (plays) the shooting game, Robots 1a and 1b and transmitters 2a and 2b are provided, respectively.

また、ロボット1a、1b、送信機2a、2b、判定装置16は、それぞれ互いに無線LANで接続されている。   The robots 1a and 1b, the transmitters 2a and 2b, and the determination device 16 are connected to each other via a wireless LAN.

図10は判定装置16の構成を示すブロック図である。判定装置16は、アンテナ300と、アンテナ300を介して各ロボット1a、1bからの信号を受信する受信手段としての受信回路301と、中央処理装置(CPU)を備え判定装置16全体の制御、被弾や勝敗の判定、各ロボット1a、1bの動作制御等を行う制御回路302と、各ロボット1a、1bの得点等の対戦内容を表示する表示回路303と、記憶装置304とを備えている。記憶装置304は、受信回路301で受信した被弾信号をテーブル形式で順次記憶する被弾データベース305と、制御回路302が前記被弾データベース305に基づいて算出した各ロボットの得点を記憶する得点データベース306とを有している。   FIG. 10 is a block diagram illustrating a configuration of the determination device 16. The determination device 16 includes an antenna 300, a reception circuit 301 as a reception unit that receives signals from the robots 1a and 1b via the antenna 300, and a central processing unit (CPU). And a control circuit 302 that performs determination of winning and losing, operation control of each robot 1a, 1b, and the like, a display circuit 303 that displays a battle content such as scores of each robot 1a, 1b, and a storage device 304. The storage device 304 includes a bullet database 305 that sequentially stores the bullet signals received by the reception circuit 301 in a table format, and a score database 306 that stores the score of each robot calculated by the control circuit 302 based on the bullet database 305. Have.

ロボット1aと送信機2aとが対となり、また、ロボット1bと送信機2bとが対となっている。ロボット1aとロボット1bは基本的には同一構成であるが、使用する信号の識別(ID)コードが相違するように構成されている。また、送信機2aと送信機2bとは基本的に同一構成であるが、送信機2a、送信機2bは、それぞれ、ロボット1b、1aは遠隔制御できず、ロボット1a、1bのみを遠隔制御できるように、相互に異なる周波数の無線信号あるいは相互に異なるIDコードを含む信号等を使用している。   The robot 1a and the transmitter 2a are paired, and the robot 1b and the transmitter 2b are paired. The robot 1a and the robot 1b have basically the same configuration, but are configured so that the identification (ID) codes of signals to be used are different. Although the transmitter 2a and the transmitter 2b have basically the same configuration, the transmitter 2a and the transmitter 2b cannot remotely control the robots 1b and 1a, respectively, and can only remotely control the robots 1a and 1b. As described above, radio signals having different frequencies or signals including different ID codes are used.

ロボット1aとロボット1bとが対戦を行う場合は、ロボット1aの操作者は、送信機2aのジョイスティック22を操作して、ロボット1aを操作し、ロボット1bを発見した場合、操作ボタン23を操作して、RAWコマンドをロボット1aに対して送信することにより、制御部3aは、動作コマンドを設定して、ロボット1aに射撃姿勢をとらせ、赤外線信号発光装置17aから射撃用赤外線信号(射撃信号)18aを発光させる。   When the robot 1a and the robot 1b play a battle, the operator of the robot 1a operates the joystick 22 of the transmitter 2a, operates the robot 1a, and operates the operation button 23 when the robot 1b is found. Then, by transmitting a RAW command to the robot 1a, the control unit 3a sets an operation command, causes the robot 1a to take a shooting posture, and sends an infrared signal for shooting (shooting signal) from the infrared signal light emitting device 17a. 18a emits light.

図11は、射撃用赤外線信号18aの信号フォーマットを示す図である。図11において、射撃用赤外線信号18aは、先頭に設けられた所定ビット数のスタートビット130と、射撃用赤外線信号18aを発射したロボット1aを表すための情報である発射ロボットID131と、信号の最後に設けられた所定ビット数のストップビット132とによって構成されている。   FIG. 11 is a diagram showing a signal format of the shooting infrared signal 18a. In FIG. 11, the shooting infrared signal 18a includes a start bit 130 having a predetermined number of bits provided at the head, a launching robot ID 131 that is information for indicating the robot 1a that has fired the shooting infrared signal 18a, and the end of the signal. And stop bits 132 having a predetermined number of bits.

ロボット1bが発射した射撃用赤外線信号18bがロボット1aの赤外線センサ8aに命中(被弾)した場合、ロボット1aは、被弾状態となり、被弾したロボット1aは判定装置16に対して、信号変換回路9aを介して射撃用赤外線信号18bを受光したことを表す信号、即ち、被弾した旨を示す被弾信号を無線で判定装置16に送信する。   When the shooting infrared signal 18b emitted by the robot 1b hits the (injected to) the infrared sensor 8a of the robot 1a, the robot 1a is in a hit state, and the hit robot 1a sends a signal conversion circuit 9a to the determination device 16. Then, a signal indicating that the shooting infrared signal 18b is received, that is, a bullet signal indicating that the bullet has been shot is transmitted to the determination device 16 wirelessly.

被弾した(被弾状態の)ロボット1aは、射撃用赤外線信号18bに含まれる発射ロボットID131および自己のID(受光ロボットID)を用いて、図12に示すような信号フォーマットの被弾信号を生成して送信する。図12において、被弾信号は、スタートビット80と、赤外線信号を発射(射撃)したロボットを示す発射ロボットID81と、被弾したロボットを示す受光ロボットID82と、前記射撃用赤外線信号18bを受光した受光時刻83と、ストップビット84とによって構成されている。   The robot 1a that has been hit (in a bulleted state) uses the launch robot ID 131 and its own ID (light receiving robot ID) included in the shooting infrared signal 18b to generate a shot signal in a signal format as shown in FIG. Send. In FIG. 12, the bullet signal includes a start bit 80, a launch robot ID 81 indicating a robot that fires (shoots) an infrared signal, a light receiving robot ID 82 indicating a robot that is bulleted, and a light reception time when the infrared signal 18b for shooting is received. 83 and a stop bit 84.

判定装置16は、前記被弾信号に基づいて、どのロボットが射撃用赤外線信号18を発射し、どのロボットが何時被弾したのかを認識することができるため、前記被弾信号に基づいて被弾させたロボットの得点を加算したり、加算結果による勝敗の判定したりすることができる。   The determination device 16 can recognize which robot emits the shooting infrared signal 18 based on the bulleted signal and which robot was bulleted at what time. Scores can be added and winning / losing can be determined based on the addition result.

判定装置16はその結果を蓄積し、各ロボットが何回被弾したかを示す情報をデータベースとして保有していて、その情報を表示回路303に表示したり、後述するロボットの各部位の動作を制限するのに用いたりすることができる。   The determination device 16 accumulates the results and holds information indicating how many times each robot has been hit as a database, and displays the information on the display circuit 303 or restricts the operation of each part of the robot described later. It can be used to do.

赤外線センサ8(8a、8b)、判定装置16とで、本実施形態のロボット1の被弾状態を判断する判断手段の主要部が構成される。また、制御部3と判定装置16とで本実施形態の制限手段の主要部が構成される。   The infrared sensor 8 (8a, 8b) and the determination device 16 constitute a main part of determination means for determining the bulleted state of the robot 1 of the present embodiment. In addition, the control unit 3 and the determination device 16 constitute a main part of the limiting unit of the present embodiment.

また、操作ボタン23を操作することにより送信されたRAWコマンドから設定される動作コマンドは、前述した記憶部4に格納されているコマンド変換テーブルを用いて設定される。   The operation command set from the RAW command transmitted by operating the operation button 23 is set using the command conversion table stored in the storage unit 4 described above.

次に、本実施形態のシューティングゲームシステム200を用いてゲームを行う場合の全体的な動作について説明する。   Next, the overall operation when a game is played using the shooting game system 200 of the present embodiment will be described.

図13は、本実施形態のシューティングゲームシステムにおける全体的な動作を示すフローチャートである。   FIG. 13 is a flowchart showing an overall operation in the shooting game system of the present embodiment.

以下では、一例として4体のロボット1(ロボット1a〜1d)を用いてゲームを行う例を示す。ここでは、ロボット1a、1bがAチームを構成し、ロボット1c、1dがBチームを構成しており、互いに対戦を行うよう構成されている。   In the following, an example is shown in which a game is played using four robots 1 (robots 1a to 1d) as an example. Here, the robots 1a and 1b constitute a team A, and the robots 1c and 1d constitute a team B, which are configured to play each other.

まず、操縦者の操作により、送信機2aは、ロボット1aの制御部3aに対してコマンドを送信する(図13のステップS41)。   First, the transmitter 2a transmits a command to the control unit 3a of the robot 1a by the operator's operation (step S41 in FIG. 13).

制御部3aは、送信機2aからのコマンドに応じて前述した動作コマンドを設定し、歩行などの所定の動作を行うようにロボット1aの各サーボモータを駆動する(ステップS42)。   The control unit 3a sets the operation command described above according to the command from the transmitter 2a, and drives each servo motor of the robot 1a so as to perform a predetermined operation such as walking (step S42).

このとき、判定装置16は、信号変換回路9a、9bからの被弾信号を受信可能な状態で待機する(ステップS43)。   At this time, the determination device 16 stands by in a state where it can receive the bullet signals from the signal conversion circuits 9a and 9b (step S43).

次に、Bチームのロボットに対して射撃を行う場合には、送信機2aの操作ボタン23aの操作によって、射撃を行うコマンド(以下射撃コマンドという)がロボット1aに対して送信され(ステップS44)、これに応じて制御部3aは、動作コマンドを設定し、各サーボモータを駆動して、射撃を行う射撃姿勢を取るとともに(ステップS45)、赤外線信号発光装置17aに対して、図11に示すような自己の発射ロボットID31を付加した射撃用赤外線信号18を出力させる(ステップS46)。   Next, when shooting the robot of Team B, a command for shooting (hereinafter referred to as a shooting command) is transmitted to the robot 1a by operating the operation button 23a of the transmitter 2a (step S44). In response to this, the control unit 3a sets an operation command, drives each servo motor to take a shooting posture for shooting (step S45), and the infrared signal light emitting device 17a is shown in FIG. The shooting infrared signal 18 to which the self launch robot ID 31 is added is output (step S46).

一方、ロボット1aが、ロボット1cまたはロボット1dからの射撃用赤外線信号18を赤外線センサ8aで受信した場合(ステップS47)、信号変換回路9aは、図13に示すような、受信した射撃用赤外線信号18に自己のID(受光ロボットID)と受光時刻情報を付加した被弾信号を判定装置16に無線で送信する(ステップS48)。   On the other hand, when the robot 1a receives the shooting infrared signal 18 from the robot 1c or the robot 1d by the infrared sensor 8a (step S47), the signal conversion circuit 9a receives the received shooting infrared signal as shown in FIG. The bullet signal to which the own ID (light receiving robot ID) and the light receiving time information are added to 18 is wirelessly transmitted to the determination device 16 (step S48).

判定装置16は、受信した被弾信号に基づく被弾データを記憶装置304の被弾データベース305に記憶し、被弾結果を判定する(ステップS49)。判定装置16は、判定結果に基づいて、被弾したロボットのIDを含む被弾確認信号を、被弾したロボットの信号変換回路9aに送信する(ステップS50)。   The determination device 16 stores the bullet data based on the received bullet signal in the bullet database 305 of the storage device 304, and determines the bullet result (step S49). Based on the determination result, the determination device 16 transmits a bullet confirmation signal including the ID of the robot that has been bulleted to the signal conversion circuit 9a of the robot that has been bulleted (step S50).

信号変換回路9aは、被弾確認信号に含まれるロボットのID情報を確認し、自己のIDと一致している場合は、被弾動作を行うように指示するための被弾動作指令信号を制御部3aに出力する(ステップS51)。   The signal conversion circuit 9a confirms the ID information of the robot included in the bullet confirmation signal, and if it matches with its own ID, the bullet conversion command signal for instructing to perform the bullet movement is sent to the control unit 3a. Output (step S51).

制御部3aは、被弾動作指令信号に応答して、被弾状態であると判断し、コマンド変換テーブルから適したものを選択して、ロボット1aの動作を実現する。本実施形態では、動作コマンドの一例として、記憶部4aの内部に格納されている被弾動作プログラムを読み出して実行することにより、ロボット1aの各サーボモータを駆動して、首を項垂れる等の所定の被弾動作を行う(ステップS52)。これにより、各競技者や観客は、どのロボットが被弾したのかを容易に判別することが可能になる。このとき、被弾させたロボットは、判定装置16からの情報で、自己が発光した射撃用赤外線信号18が、他のロボットに当たったことを確認できたら、被弾(命中)させたことを示す命中動作を行うようにしてもよい。   The control unit 3a determines that it is in a bulleted state in response to the bullet movement command signal, selects a suitable one from the command conversion table, and realizes the operation of the robot 1a. In the present embodiment, as an example of an operation command, a bulleted operation program stored in the storage unit 4a is read out and executed to drive each servo motor of the robot 1a and to hang a neck. A bullet movement is performed (step S52). Thereby, each player or spectator can easily determine which robot has been hit. At this time, if the robot that has been shot confirms that the shooting infrared signal 18 emitted by the robot hit the other robot by the information from the determination device 16, it indicates that the shot has been hit (hit). An operation may be performed.

また、被弾動作指令信号を受信した際には、その受信回数に応じて段階的または連続的に例えば、歩行動作や旋回動作におけるロボット1aの各サーボモータの動作(各サーボモータの打角(回転角度)や回転速度)および/または赤外線信号発光装置17aにおける射撃用赤外線信号18の発生速度や発生数を制限するのが好ましい。 また、ロボット1の転倒状態においても、例えば、射撃用赤外線信号18の発生間隔が静止状態と歩行状態とに比べて長くなる、または射撃用赤外線信号18が発生できない等、赤外線信号発光装置における射撃用赤外線信号18の発生速度や発生数を制限するのが好ましい。これらにより、より臨場感のある戦闘を行うことができる。   Further, when the bullet movement command signal is received, the operation of each servo motor of the robot 1a in the stepping motion or the turning motion (stepping angle (rotation angle of each servo motor), for example, stepwise or continuously depending on the number of times of reception. Angle) and rotation speed) and / or the generation speed and the number of generations of the infrared signal 18 for shooting in the infrared signal light emitting device 17a are preferably limited. In addition, even when the robot 1 is in a fall state, for example, the shooting interval in the infrared signal light emitting device is such that the generation interval of the shooting infrared signal 18 is longer than in the stationary state and the walking state, or the shooting infrared signal 18 cannot be generated. It is preferable to limit the generation speed and the number of generation of the infrared signal 18 for use. As a result, a more realistic battle can be performed.

一方、判定装置16は、被弾信号に基づく被弾の判定結果に基づいて、得点データベース306を更新し、表示回路303に得点表示を行う(ステップS53)。   On the other hand, the determination device 16 updates the score database 306 based on the determination result of the bullet based on the bullet signal, and displays the score on the display circuit 303 (step S53).

図15は、判定装置16で行う表示の例を示す図である。表示回路303は、各チーム毎の得点表示領域101と各ロボット毎の得点表示領域102に分かれている。制御回路302は、得点データベースに記憶されたロボット毎の得点、チーム毎の得点を用いて、表示回路303に表示する。図15では、Aチームの得点が100点、Bチームの得点が50点と表示されている。また、各ロボット1a〜1d毎の得点が表示されている。   FIG. 15 is a diagram illustrating an example of display performed by the determination device 16. The display circuit 303 is divided into a score display area 101 for each team and a score display area 102 for each robot. The control circuit 302 displays on the display circuit 303 using the score for each robot and the score for each team stored in the score database. In FIG. 15, the score of Team A is 100 points, and the score of Team B is 50 points. Moreover, the score for each robot 1a-1d is displayed.

ゲーム開始から所定時間経過するとゲームが終了する。判定装置16は、得点データベース306の得点データに基づいて、各ロボットおよび各チームの勝敗を判定する(ステップS54)。判定装置16は、判定結果に基づいて、勝敗の内容を表す勝敗認識信号を各ロボットの信号変換回路9aに送信する(ステップS55)。   The game ends when a predetermined time has elapsed since the game started. The determination device 16 determines the victory or defeat of each robot and each team based on the score data of the score database 306 (step S54). Based on the determination result, the determination device 16 transmits a win / loss recognition signal representing the contents of the win / loss to the signal conversion circuit 9a of each robot (step S55).

次に、ゲームが終了した後の動作について説明する。
図14は、前記勝敗認識信号の信号フォーマットである。図14において、勝敗認識信号は、スタートビット90、勝利チームを示す処理チーム情報部91、敗戦チームを示す敗戦チーム情報部92、ストップビット93から構成されている。
Next, the operation after the game is finished will be described.
FIG. 14 shows a signal format of the winning / losing recognition signal. In FIG. 14, the winning / losing recognition signal includes a start bit 90, a processing team information unit 91 indicating a winning team, a defeat team information unit 92 indicating a defeat team, and a stop bit 93.

ロボット1aは、信号変換回路9aによって前記勝敗認識信号を受信し、自己の属するチームが勝利チームと敗戦チームのいずれなのかを判別し、前記勝利チームと敗戦チームの何れに属するかに応じた勝敗動作指令信号を制御部3に出力する(ステップS56)。前記勝敗動作信号は、勝利チームに属するロボットの場合には、所定の勝利動作を行うように指示する勝利動作指令信号であり、敗戦チームに属するロボットの場合には、所定の敗戦動作を行うように支持する敗戦動作指令信号である。前記勝利動作としては、例えば、腕部を上下動させることによってバンザイを行う動作である。また、前記敗戦動作としては、例えば、頭部11を項垂れる動作である。   The robot 1a receives the winning / losing recognition signal by the signal conversion circuit 9a, determines whether the team to which the robot belongs is a winning team or a defeating team, and wins or loses according to which of the winning team or the defeating team it belongs to An operation command signal is output to the control unit 3 (step S56). The winning / losing motion signal is a winning motion command signal instructing to perform a predetermined winning motion in the case of a robot belonging to a winning team, and performing a predetermined defeating motion in the case of a robot belonging to a defeating team. It is a defeat operation command signal that is supported by The winning action is, for example, an action of performing a banzai by moving the arm part up and down. The defeat operation is, for example, an operation of drooping the head 11.

各ロボット1a〜1dは、それぞれ、前記勝敗動作指令信号に応答して各制御部3の勝敗動作用プログラムを読み出して実行し、チーム毎に勝敗動作を行う。このとき、勝利チームのロボットは前記勝利動作を行い、敗戦チームは前記敗戦動作を行う(ステップS57)。   Each of the robots 1a to 1d reads and executes a winning / losing operation program of each control unit 3 in response to the winning / losing operation command signal, and performs a winning / losing operation for each team. At this time, the winning team robot performs the winning action, and the defeat team performs the defeating action (step S57).

なお、ゲームの終了は、時間の経過に限定されず、例えば、いずれかのロボットの得点、あるいは、いずれかのチームのロボットの得点の合計が所定の得点になったときにゲームが終了する等、適宜選定できる。   Note that the end of the game is not limited to the passage of time. For example, the game ends when the score of any robot or the total score of the robots of any team reaches a predetermined score. Can be selected as appropriate.

また、個人での勝敗を判定した場合は、勝敗認識信号として、スタートビットとストップビットの間に勝利したロボットを示す勝利ロボットIDおよび敗戦したロボットを示す敗戦ロボットIDを挿入した信号を用いて、前記と同様にして、勝利したロボットと敗戦したロボットは各々勝敗動作を行う。このとき、勝利したロボットが勝利動作を行って勝ち名乗りを上げ、敗戦したロボットが敗戦動作を行う。   In addition, when it is determined whether an individual wins or loses, a signal obtained by inserting a winning robot ID indicating a winning robot and a defeating robot ID indicating a defeated robot between a start bit and a stop bit is used as a winning / losing recognition signal. In the same manner as described above, the winning robot and the losing robot each win or lose. At this time, the winning robot performs the winning action and raises the name of the winner, and the defeated robot performs the defeat action.

次に、判定装置16が被弾の判定を行う際の処理を説明する。図16は、判定装置16が被弾の判定を行う処理を示すフローチャートである。また、図17は、判定装置16の被弾判定処理を説明するためのタイミング図である。   Next, processing when the determination device 16 determines the impact of a bullet will be described. FIG. 16 is a flowchart illustrating a process in which the determination device 16 determines a shot. FIG. 17 is a timing diagram for explaining the impact determination processing of the determination device 16.

図16および図17において、判定装置16の制御回路302は、受信回路301で被弾信号を受信した後、所定時間内(相打ちの場合、通信時間が遅くても他の被弾信号を受信できる時間内(例えば1秒以内))に他の被弾信号を受信したか判断する(ステップS71)。   16 and 17, the control circuit 302 of the determination device 16 receives the bulleted signal by the receiving circuit 301 and then within a predetermined time (in the case of competing, within a time when other bulleted signals can be received even if the communication time is slow). It is determined whether another bullet signal is received (for example, within 1 second) (step S71).

制御回路302は、前記所定時間内に他の被弾信号を受信しなかった場合には、相打ちではなく、被弾信号に含まれる発射ロボットID81のロボットが受光ロボットID82のロボットに被弾させたと判断して、前記発射ロボットID81が付与されたロボットに得点を加算する(ステップS75)。これは、図17におけるケース1の場合であり、(A)〜(D)は、各々、ロボットBが射撃してロボットAが被弾、ロボットDが射撃してロボットBが被弾、ロボットAが射撃してロボットCが被弾、ロボットCが射撃してロボットDが被弾した例を示している。   If no other bullet signal is received within the predetermined time, the control circuit 302 determines that the robot with the launch robot ID 81 included in the bullet signal has landed the robot with the light receiving robot ID 82 instead of competing. The score is added to the robot assigned the launch robot ID 81 (step S75). This is the case 1 in FIG. 17, and (A) to (D) show that robot B fires and robot A hits, robot D hits and robot B hits, and robot A fires. In this example, the robot C is hit and the robot C is shot and the robot D is hit.

ステップS71において、制御回路302は、前記所定時間内に他の被弾信号を受信したと判断した場合には、前記所定時間内に受信した複数の被弾信号を解析して、同じロボット同士(例えばロボット1aとロボット1b)の打ち合いか否かを判断する(ステップS72)。   In step S71, when the control circuit 302 determines that another bullet signal has been received within the predetermined time, the control circuit 302 analyzes the plurality of bullet signals received within the predetermined time and analyzes the same robots (for example, robots). It is determined whether or not a meeting between 1a and the robot 1b) (step S72).

ステップS72において、制御回路302は、同じロボット同士ではないと判断した場合、例えば、複数の被弾信号における発射ロボットID81と受光ロボットID82が各々相違する場合には、被弾させた(命中した)ロボット(発射ロボットID81を有するロボット)に得点を加算した後、ステップS71に戻る(ステップS75)。   In step S72, when the control circuit 302 determines that the robots are not the same, for example, when the launch robot ID 81 and the light receiving robot ID 82 in the plurality of bullet signals are different from each other, After adding a score to the robot having the launch robot ID 81, the process returns to step S71 (step S75).

ステップS72において、制御回路302は、同じロボット同士と判断した場合、例えば、一方の被弾信号における発射ロボットID81と受光ロボットID82が他方の被弾信号における受光ロボットID82と発射ロボットID81に同じ場合、同じロボット同士の打ち合いによって相打ちが生じたと判断し、複数の被弾信号の受光時刻83を比較することによって、どちらのロボットが先に被弾したのかを判断する(ステップS73)。これは、図17におけるケース2の場合であり、(A)、(B)は、各々、所定時間内に、ロボットBが射撃してロボットAが被弾し、所定時間内にロボットAが射撃してロボットBが被弾した例を示している。   In step S72, if the control circuit 302 determines that the robots are the same, for example, if the firing robot ID 81 and the light receiving robot ID 82 in one bullet signal are the same as the light receiving robot ID 82 and the firing robot ID 81 in the other bullet signal, the same robot It is determined that a mutual strike has occurred due to the mutual collision, and by comparing the light reception times 83 of the plurality of bullet signals, it is determined which robot has been bulleted first (step S73). This is the case 2 in FIG. 17, and (A) and (B) show that the robot B fires and the robot A hits within a predetermined time, and the robot A fires within the predetermined time. In this example, the robot B is hit.

ステップS73において、制御回路302は、例えば、ロボット1bから受信した被弾信号の受光時刻83の方が、ロボット1aから受信した被弾信号の受光時刻83よりも早い場合には、ロボット1bがロボット1aよりも先に被弾したということであり、この場合、ロボット1aに得点を加算し、ロボット1bには得点を加算せずにステップS71に戻る(ステップS76)。   In step S73, for example, when the light reception time 83 of the bullet signal received from the robot 1b is earlier than the light reception time 83 of the bullet signal received from the robot 1a, the control circuit 302 determines that the robot 1b is more than the robot 1a. In this case, the score is added to the robot 1a, and the process returns to step S71 without adding the score to the robot 1b (step S76).

ステップS73において、制御回路302は、ロボット1aから受信した被弾信号の受光時刻83の方が、ロボット1bから受信した被弾信号の受光時刻83よりも早い場合には、ロボット1aがロボット1bよりも先に被弾したということであり、この場合、ロボット1bに得点を加算し、ロボット1aには得点を加算しないでステップS71に戻る(ステップS77)。   In step S73, if the light reception time 83 of the bullet signal received from the robot 1a is earlier than the light reception time 83 of the bullet signal received from the robot 1b, the control circuit 302 determines that the robot 1a is ahead of the robot 1b. In this case, the score is added to the robot 1b, and the process returns to step S71 without adding the score to the robot 1a (step S77).

ステップS73において、制御回路302は、ロボットが3台以上でゲームを行っており、被弾信号を3台以上のロボットから受信した場合には、受信した被弾信号中の受光時刻83に基づいて最も早く被弾させたロボットに得点を加算し、他のロボットには得点を加算せずにステップS71に戻る(ステップS74)。   In step S73, when the robot is playing a game with three or more robots and receives a bullet signal from three or more robots, the control circuit 302 is the earliest based on the light reception time 83 in the received bullet signal. The score is added to the robot that has been bulleted, and the process returns to step S71 without adding the score to the other robot (step S74).

以上のようにして、複数のロボット同士が相打ちした場合でも、現実に即した形で、どちらが被弾したかを適切に判定することが可能になる。   As described above, even when a plurality of robots are competing with each other, it is possible to appropriately determine which one has been hit in a form that is realistic.

以上述べたように前記各実施の形態に係るシューティングゲームシステムによれば、勝敗の判定を的確に行うことが可能になる。また、観客や競技者が、勝利したロボット、あるいは、勝利したチームを容易に認識することが可能になる。   As described above, according to the shooting game system according to each of the above-described embodiments, it is possible to accurately determine win / loss. In addition, it becomes possible for the spectators and athletes to easily recognize the winning robot or the winning team.

また、実際に形のある物同士が戦闘するシューティングゲームの臨場感を、屋外ではない一般のビル内や家庭内などで得ることが可能であり、またロボットの歩行性能や回避性能、銃器(赤外線信号発光装置)の破壊力などをプログラミングしたり、施設の形状を利用した回避作戦や戦闘作戦、補給作戦を立案したりするなど、参加者がゲームの勝敗を左右する工夫をする楽しみがあるので、シューティングゲームファンばかりではなく、ロボットや戦闘ゲームに対して知的な興味やエンジニアリング的な興味を持つ、より広範な人たちが熱中できるシューティングゲームを提供することが可能になる。   In addition, it is possible to obtain the sensation of a shooting game in which objects with shapes actually fight each other in ordinary buildings and homes that are not outdoors, as well as robot walking performance and avoidance performance, firearms (infrared rays) Because the participants have fun to devise ways to determine the outcome of the game, such as programming the destructive power of the signal light emitting device), planning avoidance operations, combat operations, and supply operations using the shape of the facility. It is possible to provide a shooting game that can be enjoyed not only by shooting game fans but also by a wider range of people with intellectual and engineering interests in robots and battle games.

また、複数台のロボットを使い、イベント会場や遊技場のような場所でシューティングゲームを行う場合を考えると、ゲームをより楽しく進行するには、銃器(赤外線信号発光装置)による射撃をうまく避けたり、ロボットのバッテリ交換を行ったりするなどメンテナンスを行うための安全地帯などが必要である。例えば、小さな丘や壁のような地形や木や林などの物体が施設内に必要となるが、ロボットが40センチメートル程度の大きさだとすれば、それらの環境を作っても、5メートル四方程度のスペースがあれば十分実現可能であり、一般のビル内のフロアに十分設置可能である。その程度の大きさの施設であるから、見学者が一望の下に全体のゲームの進行状況を直接自分の目で見て把握することが可能であり、参加者ばかりでなく見学者もゲームを十分楽しむことができる。   Also, if you use multiple robots and play shooting games in places such as event venues and amusement halls, you can avoid shooting with firearms (infrared signal light emitting devices) to make the game more enjoyable. Also, a safety zone for maintenance such as battery replacement of the robot is required. For example, terrain such as small hills and walls, and objects such as trees and forests are required in the facility, but if the robot is about 40 centimeters in size, even if it creates those environments, 5 meters square If there is enough space, it can be realized sufficiently, and can be installed on the floor in a general building. Because it is such a large facility, it is possible for the visitors to see the progress of the entire game directly with their own eyes with a single view, and not only the participants but also the visitors can play the game. I can enjoy it enough.

また、銃器(赤外線信号発光装置)として赤外線の発光装置を使うので、実際に樹脂製などの弾丸を発射するようなシステムと較べて安全である。   Also, since an infrared light emitting device is used as a firearm (infrared signal light emitting device), it is safer than a system that actually fires bullets made of resin or the like.

また、実際にロボットを動作させるには駆動源としてのバッテリが必要であり、当然動作時間には制限があるから、戦闘を短時間に効率良く行い、またバッテリの補給タイミングや方法についても考えて作戦を練る必要がある。また、ロボットの歩行性能や銃器(赤外線信号発光装置)の性能も千差万別である場合が多く、またロボットが施設内の現実の物につまずいて転倒した、といった不測の事態も起きることが有り、そういう場合の救済作戦を練るなど、知的な部分で戦況を有利にすることもできるので、一概にロボットの歩行性能や銃器(赤外線信号発光装置)の性能が良ければ勝てると決まっているわけでもないので、より作戦の有効性が問われることとなり、臨場感のある戦闘をしている感覚を味わうことができる。   In addition, a battery as a drive source is necessary to actually operate the robot, and naturally the operation time is limited. Therefore, the battle is efficiently performed in a short time, and the timing and method of recharging the battery are also considered. It is necessary to develop a strategy. Also, the robot's walking performance and firearm (infrared signal light emitting device) performance are often different, and unforeseen situations may occur, such as the robot falling over due to a real thing in the facility. Yes, it is possible to improve the battle situation in the intelligent part, such as planning a rescue operation in such a case, so it is generally decided that if the walking performance of the robot and the performance of the firearm (infrared signal light emitting device) are good, it can be won. Not necessarily, the effectiveness of the strategy will be questioned more and you will be able to enjoy the sensation of a realistic battle.

また、複数のロボット同士で戦うことで、1台では出来ない様な、例えば1台が囮になり敵を誘い出しておいて銃撃するなど、より実戦に近い作戦を立てることも可能であり、知的な戦闘の臨場感が得られる。   Also, by fighting with multiple robots, it is possible to make a strategy closer to the actual battle, such as one that becomes impossible to do with one robot, for example, one that becomes a trap and lures an enemy and shoots it. Realistic feeling of battle.

また、銃器(赤外線信号発光装置)の性能については、連射性能や赤外線の照射範囲、発光強度など、プログラミングでかなり自由に性能を変えることも出来るが、不公平にならないようにゲームの進行のルールでクラス分けをするなどで参加者の組み合わせを決めておけば、より公平なゲーム運営が可能となる。   In addition, as for the performance of firearms (infrared signal light emitting devices), it is possible to change the performance fairly freely by programming, such as continuous shooting performance, infrared irradiation range, light emission intensity, etc., but the rules of game progression so as not to be unfair If you decide on a combination of participants, such as by classifying, you will be able to manage the game more evenly.

また、あるロボットが、他のロボットから射撃されて赤外線が命中した場合は、その情報を元に命中した場合のポーズをロボットにとらせ、発射した方のロボットには勝ち誇った動作をさせるなどすれば、参加者や見学者も勝負がはっきり認識でき、より臨場感のある戦闘を行うことができる。   Also, if a robot is shot by another robot and hits an infrared ray, the robot will take a pose when it hits based on that information, and the robot that launched it will perform a boasting action. For example, participants and visitors can clearly recognize the game, and can perform more realistic battles.

公式なゲーム大会などで、ゲームの公平を期す必要が有る場合を考えると、判定装置や赤外線センサ、信号変換回路などはそれぞれの操縦者の所持するロボットとは別体になっていた方が好ましく、ゲームの主催者が同機能、同性能のものを独自に用意する方が良いので、ゲーム会場で簡易にロボットに装着できることが好ましい。   Considering the need for fair game in official game competitions, etc., it is preferable that the judgment device, infrared sensor, signal conversion circuit, etc. are separate from the robots owned by each pilot Since it is better for the game organizer to prepare the same function and performance, it is preferable that the game can be easily attached to the robot at the game venue.

特に、信号変換回路9aと、ロボット1aとが一体的に設けられている場合は、信号変換回路9aによって変換された被弾動作指令信号が、制御部3aによって書き換えられる恐れがあり、その場合は、判定装置16に送信される信号の信頼性が低く、公平な勝負判断が出来ない可能性があるが、本実施形態では、主催者側が用意した信号変換回路9aが、ロボット1aに対して別個に装着されるため、赤外線センサ8aによって得られた射撃用赤外線信号18が書き換えられることなく信号変換回路9aに入力され、判定装置16に対して送信される。   In particular, when the signal conversion circuit 9a and the robot 1a are provided integrally, the ball movement command signal converted by the signal conversion circuit 9a may be rewritten by the control unit 3a. Although the reliability of the signal transmitted to the determination device 16 is low and there is a possibility that a fair game determination cannot be made. In this embodiment, the signal conversion circuit 9a prepared by the organizer is separately provided for the robot 1a. Therefore, the shooting infrared signal 18 obtained by the infrared sensor 8 a is input to the signal conversion circuit 9 a without being rewritten and transmitted to the determination device 16.

これにより、使用するロボット(制御回路)に関わらず、判定の信頼性を向上させることができる。   Thereby, the reliability of determination can be improved regardless of the robot (control circuit) to be used.

また、信号変換回路9aと制御部3aとが一体的に形成されたロボットを使用した場合においても、信号変換回路9aと判定装置16とが、それぞれ、別個にCPUを有しているため、信号変換回路9aと判定装置16とが互いに所定の通信プロトコルにより、正しい信号をやり取りすることができる。   Even when a robot in which the signal conversion circuit 9a and the control unit 3a are integrally formed is used, the signal conversion circuit 9a and the determination device 16 each have a separate CPU. The conversion circuit 9a and the determination device 16 can exchange correct signals with each other using a predetermined communication protocol.

これにより、例えば、信号変換回路9aと、判定装置16との間で通信を行うことにより、信号変換回路9aが、判定装置16に対して送信した信号が正しく送られたか否かを判断し、正しく送られない場合には、信号変換回路9aが、信号の送信を所定回繰り返し、それでも送られない場合は、信号変換回路9aに例えばLEDや、ブザー等の視覚的や聴覚的に報知するような報知手段を設けるのが好ましい。これにより、ロボット1の状態に応じた色のLEDを発光させたり、音を出したりしてそれを報知することにより、例えば勝負に負けたことにする等の判定を行うことができる。   Thereby, for example, by performing communication between the signal conversion circuit 9a and the determination device 16, the signal conversion circuit 9a determines whether the signal transmitted to the determination device 16 is correctly transmitted, If the signal is not sent correctly, the signal conversion circuit 9a repeats the signal transmission a predetermined number of times. If the signal is still not sent, the signal conversion circuit 9a is notified visually or audibly such as an LED or a buzzer. It is preferable to provide an informing means. As a result, it is possible to determine, for example, that the player has lost the game by, for example, emitting an LED of a color according to the state of the robot 1 or making a sound and informing the user.

これにより、使用するロボット(制御部)に関わらず、判定の信頼性を向上させることができる。   Thereby, irrespective of the robot (control part) to be used, the reliability of determination can be improved.

また、判定手段と、送信手段とが、それぞれ、無線LANで接続されているため、互いに双方向通信を行うことができる。これにより、送信機2の表示部25に、例えば、射撃用赤外線信号18の発射回数、残弾数、他のロボットからの射撃用赤外線信号18の受信回数等の自己のロボットの(状態)状況に加えて、ゲームの残り時間、自己の属するチームの他のロボットの(状態)状況や判定手段で集計されている現在の得点等の勝負の状況を示す各種の情報が表示されるような構成とすることができるため、戦略の幅が広がり、さらに臨場感が得られる。   In addition, since the determination unit and the transmission unit are respectively connected by a wireless LAN, bidirectional communication can be performed. Thereby, the display unit 25 of the transmitter 2 displays, for example, the status (status) of the own robot such as the number of firing infrared signals 18 fired, the number of remaining bullets, and the number of times the infrared signal 18 received from other robots is received. In addition to the above, various information indicating the game remaining time such as the remaining time of the game, the (status) status of other robots of the team to which the player belongs and the current score that is counted by the judging means are displayed. As a result, the range of strategies is broadened and a sense of realism can be obtained.

なお、ロボット、送信機および判定装置間の信号の送受信は携帯電話やPHS(Personal Handy phone System)等使用して行う等、種々の変更が可能である。   It should be noted that various changes can be made such as transmission / reception of signals between the robot, the transmitter, and the determination device using a mobile phone, a PHS (Personal Handy phone System), or the like.

次に、本発明のロボットコントロールシステムの第2実施形態について説明する。
図18は、本発明のロボットコントロールシステムの第2実施形態を示すブロック図である。
Next, a second embodiment of the robot control system of the present invention will be described.
FIG. 18 is a block diagram showing a second embodiment of the robot control system of the present invention.

以下、第2実施形態のロボットコントロールシステム100について、前述した第1実施形態との相違点を中心に説明し、同様の事項については、その説明を省略する。   Hereinafter, the robot control system 100 according to the second embodiment will be described with a focus on differences from the first embodiment described above, and descriptions of similar matters will be omitted.

第2実施形態のロボットコントロールシステム100では、各ジョイスティック22に接続された複数のPC34(パーソナルコンピュータ)と、各ロボット1、各送信機2および各PC34がそれぞれ接続されるLAN300を有している。このLAN300は、ルータ(通信装置)35を介してインターネット400に接続可能に構成されている。   The robot control system 100 according to the second embodiment includes a plurality of PCs 34 (personal computers) connected to each joystick 22, and a LAN 300 to which each robot 1, each transmitter 2, and each PC 34 are connected. The LAN 300 is configured to be connectable to the Internet 400 via a router (communication device) 35.

なお、本実施形態のPC34は、第1実施形態の送信機2の制御部21、無線LANインターフェース部24および記憶部26の機能を有するものである。   Note that the PC 34 of this embodiment has the functions of the control unit 21, the wireless LAN interface unit 24, and the storage unit 26 of the transmitter 2 of the first embodiment.

なお、各PC34が、それぞれ個別にルータを有し、このルータを介してインターネット400に接続可能な構成であってもよい。   Each PC 34 may have a router individually and can be connected to the Internet 400 via this router.

操縦者は、LAN300に接続された送信機2を操作することによって、またはジョイスティック22、操作ボタン23を操作することによって、ロボット1を操縦することができる。   The operator can operate the robot 1 by operating the transmitter 2 connected to the LAN 300 or by operating the joystick 22 and the operation buttons 23.

本実施形態のロボットコントロールシステム100を前述したシューティングゲームシステムに適用した場合は、赤外線センサ8aを通じて射撃用赤外線が検知されたとき、その信号は、信号変換回路9aを通じて制御部3aに入力され、通信装置35を経てPC34に送信され、PC34内の判断ソフトウェアが判定装置16と同様の働きをして、被弾や勝敗の判定を行う。   When the robot control system 100 of the present embodiment is applied to the above-described shooting game system, when the infrared ray for shooting is detected through the infrared sensor 8a, the signal is input to the control unit 3a through the signal conversion circuit 9a, and communication is performed. The data is transmitted to the PC 34 via the device 35, and the determination software in the PC 34 performs the same function as the determination device 16 to determine the shot and win / loss.

このロボットコントロールシステム100によれば、前述した第1実施形態のロボットコントロールシステム100と同様の効果が得られる。   According to this robot control system 100, the same effect as the robot control system 100 of the first embodiment described above can be obtained.

そして、第2実施形態のロボットコントロールシステム100を前述したシューティングゲームシステムに適用した場合は、判定装置16等のシューティングゲーム専用の装置を必要としないため、システムの小型化を図ることができ、また、システム全体を比較的安価に構成することができる。   And when the robot control system 100 of 2nd Embodiment is applied to the shooting game system mentioned above, since the apparatus for exclusive use of shooting games, such as the determination apparatus 16, is not required, size reduction of a system can be achieved, The entire system can be configured at a relatively low cost.

また、送信機2、PC34、ロボット1は、ルータ35を介してインターネット400に接続されているため、例えば、操縦者および主催者のうちの1人または複数人が、シューティングゲームを行う会場に対して遠隔地(外国含む)にいる場合においても、インターネット400に接続することにより、遠隔地からロボット1の操縦や、判定が可能であり、容易かつ確実にシューティングゲームを行うことができる。この際送信機2を用いた場合は、CCD94にて撮像された画像を表示部25でモニタしながら、シューティングゲームを行うことができる。また、ジョイスティック22およびPC34を用いた場合は、表示部25の代わりに別途、表示部25と略同機能を有し、PC34と接続可能なディスプレイ(モニタ)をPC34に対して接続することにより、CCD94にて撮像された画像をディスプレイでモニタしながら、シューティングゲームを行うことができる。また、送信機2とディスプレイとが接続される構成となっていてもよい。これにより、視認性を向上させたり、表示する情報量を増大させたりすることができる。また、ロボット1と送信機2またはロボット1とPC34はインターネットを介して接続されているため高速通信が可能であり、表示部25またはディスプレイに対して随時画像データが送信され、さらに快適に臨場感のあるゲームを行うことができる。
また、インターネットの代わりにイントラネット等を用いてもよい。
In addition, since the transmitter 2, the PC 34, and the robot 1 are connected to the Internet 400 via the router 35, for example, one or more of the pilot and the organizer Even in remote locations (including foreign countries), by connecting to the Internet 400, the robot 1 can be operated and determined from a remote location, and a shooting game can be easily and reliably performed. In this case, when the transmitter 2 is used, a shooting game can be played while the image captured by the CCD 94 is monitored by the display unit 25. When the joystick 22 and the PC 34 are used, a display (monitor) that has substantially the same function as the display unit 25 and can be connected to the PC 34 is connected to the PC 34 separately from the display unit 25. A shooting game can be performed while an image captured by the CCD 94 is monitored on a display. Further, the transmitter 2 and the display may be connected. Thereby, visibility can be improved or the amount of information to be displayed can be increased. In addition, since the robot 1 and the transmitter 2 or the robot 1 and the PC 34 are connected via the Internet, high-speed communication is possible, and image data is transmitted to the display unit 25 or the display at any time, making it more comfortable and realistic. You can play games with
Further, an intranet or the like may be used instead of the Internet.

以上、本発明のロボットコントロールシステムを、図示の実施形態に基づいて説明したが、本発明はこれに限定されるものではなく、各部の構成は、同様の機能を有する任意の構成のものに置換することができる。また、本発明に、他の任意の構成物が付加されていてもよい。   The robot control system of the present invention has been described based on the illustrated embodiment. However, the present invention is not limited to this, and the configuration of each part is replaced with an arbitrary configuration having the same function. can do. In addition, any other component may be added to the present invention.

なお、本実施形態では速度センサ(角速度センサ)としてジャイロセンサ31を用いたが、それに限られないのは言うまでもない。   In the present embodiment, the gyro sensor 31 is used as the speed sensor (angular speed sensor), but it goes without saying that the present invention is not limited thereto.

また、本実施形態では、リンク機構の二足歩行ロボットを用いたが、本発明では特に限定されず、例えば一足、または三足以上の足を有する歩行ロボットでもよいし、車輪等の移動手段を有して移動可能なロボットでもよい。   In this embodiment, a biped walking robot with a link mechanism is used. However, the present invention is not particularly limited. For example, a walking robot having one leg or three or more legs may be used. It may be a movable robot.

また、本実施形態では、通信方式として無線LANを用いたが、本発明では特に限定されず、例えば赤外線方式等を用いることができる。   In this embodiment, a wireless LAN is used as a communication method. However, the present invention is not particularly limited, and for example, an infrared method can be used.

また、本実施形態では、着床検出手段として圧力センサを用いたが、本発明では特に限定されない。   In this embodiment, the pressure sensor is used as the landing detection means, but the present invention is not particularly limited.

また、ロボット1のシューティングの相手は、ロボットに限られず、例えば、人間やモニタに表示された射撃対象等でもよい。   Further, the shooting partner of the robot 1 is not limited to the robot, and may be, for example, a shooting target displayed on a person or a monitor.

また、本実施形態では、コマンド変換テーブルを用いて動作コマンドを設定したが、それに限られず、演算を行って動作コマンドを設定してもよい。   In this embodiment, the operation command is set using the command conversion table. However, the operation command is not limited to this, and the operation command may be set by performing an operation.

また、ロボットの所定個所、例えば、頭部等にロボットの制御部と電気的に接続され、該ロボットの状態に応じて発光する複数色、例えば、3色(R,G,B)のLED(発光素子)が設けられていてもよい。これにより、前述した各種のセンサによって得られた情報(ロボットの姿勢や状態(状況)等)に応じて、例えば、歩行時(歩行中)は青(B)、停止中は緑(G)、転倒等の異常時は赤(R)等を発光させることによって、歩行型ロボットの状態(状況)を把握し得るような構成であってもよい。   In addition, a plurality of colors (for example, three color (R, G, B) LEDs (for example, three colors (R, G, B)) that are electrically connected to a robot control unit at a predetermined portion of the robot, for example, the head, etc. A light emitting element) may be provided. Thereby, according to the information (robot posture and state (situation) etc.) obtained by the various sensors described above, for example, blue (B) when walking (walking), green (G) when stopped, The configuration may be such that the state (situation) of the walking robot can be grasped by emitting red (R) or the like in the event of an abnormality such as a fall.

また、発光素子は、前述した用途に限られず、その他の用途に用いてもよい。
また、コマンド変換テーブルは、RAWコマンドに対する動作コマンドが、操縦者の所望の動作となるように、カスタマイズできるような構成となっていてもよい。
Further, the light-emitting element is not limited to the above-described application, and may be used for other applications.
Further, the command conversion table may be configured such that the operation command for the RAW command can be customized so that the operation desired by the operator is achieved.

また、本発明のロボットコントロールシステムの用途は、前述したシューティングに限定されず、例えば、互いに格闘を行うロボット、競走を行うロボット等に適用することができる。   Moreover, the use of the robot control system of the present invention is not limited to the above-described shooting, and can be applied to, for example, a robot that fights against each other, a robot that races, and the like.

本発明のロボットコントロールシステムの主要部を概略的に示すブロック図である。It is a block diagram which shows roughly the principal part of the robot control system of this invention. 図1に示すロボットコントロールシステムの送信機を示す斜視図である。It is a perspective view which shows the transmitter of the robot control system shown in FIG. 図1に示すロボットコントロールシステムのロボットを示す概略図である。It is the schematic which shows the robot of the robot control system shown in FIG. サーボ制御系のブロック図である。It is a block diagram of a servo control system. 本発明のロボットコントロールシステムの第1実施形態におけるコマンド変換テーブルを示す図である。It is a figure which shows the command conversion table in 1st Embodiment of the robot control system of this invention. データ受信ルーチンを示すフローチャートである。It is a flowchart which shows a data reception routine. 処理ルーチンを示すフローチャートであるIt is a flowchart which shows a processing routine. 本発明のロボットコントロールシステムを適用したシューティングゲームシステムの実施形態の全体構成図である。1 is an overall configuration diagram of an embodiment of a shooting game system to which a robot control system of the present invention is applied. 図8に示すシューティングゲームシステムの詳細を示すブロック図である。It is a block diagram which shows the detail of the shooting game system shown in FIG. 図8に示すシューティングゲームシステムで使用する判定装置のブロック図である。It is a block diagram of the determination apparatus used with the shooting game system shown in FIG. 図8に示すシューティングゲームシステムで使用する信号フォーマットを示す図である。It is a figure which shows the signal format used with the shooting game system shown in FIG. 図8に示すシューティングゲームシステムで使用する信号フォーマットを示す図である。It is a figure which shows the signal format used with the shooting game system shown in FIG. 図8に示すシューティングゲームシステムの全体的な動作を示す流れ図である。It is a flowchart which shows the whole operation | movement of the shooting game system shown in FIG. 図8に示すシューティングゲームシステムで使用する信号フォーマットを示す図である。It is a figure which shows the signal format used with the shooting game system shown in FIG. 図8に示すシューティングゲームシステムで使用する判定装置の表示例を示す図である。It is a figure which shows the example of a display of the determination apparatus used with the shooting game system shown in FIG. 図8に示すシューティングゲームシステムで使用する判定装置の処理を示すフローチャートである。It is a flowchart which shows the process of the determination apparatus used with the shooting game system shown in FIG. 図8に示すシューティングゲームシステムで使用する判定装置の処理を説明するためのタイミング図である。It is a timing diagram for demonstrating the process of the determination apparatus used with the shooting game system shown in FIG. 本発明のロボットコントロールシステムの第2実施形態を示すブロック図である。It is a block diagram which shows 2nd Embodiment of the robot control system of this invention.

符号の説明Explanation of symbols

100 ロボットコントロールシステム
200 シューティングゲームシステム
1 ロボット
1a〜1d ロボット
2 送信機
3 制御部
2a、2b 送信機
4 記憶部
5 サーボモータ
6 センサ部
7 無線LANインターフェース部
8a、8b 赤外線センサ
9a、9b 信号変換回路
10a アンテナ
11 頭部
12 胴体部
13 腕部
14 腕部
15 脚部
16 判定装置
17a 赤外線信号発光装置
17b 赤外線信号発光装置
18 射撃用赤外線信号
18a 射撃用赤外線信号
18b 射撃用赤外線信号
21 制御部
211 CPU
22 ジョイスティック
23 操作ボタン
24 無線LANインターフェース部
25 表示部
26 記憶部
30 CPU
31 ジャイロセンサ
32 三次元加速度センサ
33 圧力センサ
34 PC
35 ルータ(通信装置)
41 右脚
42 右大腿部
43 右下腿部
44 右足部
45 首関節
46 腰関節
47 右股関節
48 右膝関節
49 右足首関節
50 腰部
51 左脚
52 左大腿部
53 左下腿部
54 左足部
57 左股関節
58 左膝関節
59 左足首関節
62 右上腕部
63 右前腕部
64 右手部
67 右肩関節
68 右肘関節
69 右手首関節
72 左上腕部
73 左前腕部
74 左手部
77 左肩関節
78 左肘関節
79 左手首関節
80 スタートビット
81 発射ロボットID
82 受光ロボットID
83 受光時刻
84 ストップビット
90 スタートビット
91 処理チーム情報部
92 敗戦チーム情報部
93 ストップビット
94 CCD
101 チーム毎の得点表示領域
102 ロボット毎の得点表示領域
111〜115 列
300 アンテナ
301 受信回路
302 制御回路
303 表示回路
304 記憶装置
305 被弾データベース
306 得点データベース
400 インターネット
BC1 ヨー角サーボモータ
LR1 右足ヨー角サーボモータ
LR2 右足ピッチ角サーボモータ
LR3 右足ロール角サーボモータ
LR4 右足膝ピッチ角サーボモータ
LR5 右足平ピッチ角サーボモータ
LR6 右足平ロール角サーボモータ
LL1 左足ヨー角サーボモータ
LL2 左足ピッチ角サーボモータ
LL3 左足ロール角サーボモータ
LL4 左足膝ピッチ角サーボモータ
LL5 左足平ピッチ角サーボモータ
LL6 左足平ロール角サーボモータ
HR1 右手ピッチ角サーボモータ
HR2 右足ロール角サーボモータ
HR3 右足肘ピッチ角サーボモータ
HR4 右手ヨー角サーボモータ
HL1 左手ピッチ角サーボモータ
HL2 左足ロール角サーボモータ
HL3 左足肘ピッチ角サーボモータ
HL4 左手ヨー角サーボモータ
HC1 頭部ヨー角サーボモータ
HC2 頭部ピッチ角サーボモータ
S41〜S57 ステップ
S71〜S77 ステップ
S101〜S104 ステップ
S201〜S220 ステップ
DESCRIPTION OF SYMBOLS 100 Robot control system 200 Shooting game system 1 Robot 1a-1d Robot 2 Transmitter 3 Control part 2a, 2b Transmitter 4 Memory | storage part 5 Servo motor 6 Sensor part 7 Wireless LAN interface part 8a, 8b Infrared sensor 9a, 9b Signal conversion circuit 10a Antenna 11 Head 12 Body 13 Arm 14 Arm 15 Leg 16 Judgment device 17a Infrared signal light emitting device 17b Infrared signal light emitting device 18 Infrared signal for shooting 18a Infrared signal for shooting 18b Infrared signal for shooting 21 Control unit 211 CPU
22 Joystick 23 Operation Button 24 Wireless LAN Interface Unit 25 Display Unit 26 Storage Unit 30 CPU
31 Gyro sensor 32 Three-dimensional acceleration sensor 33 Pressure sensor 34 PC
35 router (communication equipment)
41 Right leg 42 Right thigh 43 Right lower leg 44 Right foot 45 Neck joint 46 Lumbar joint 47 Right hip joint 48 Right knee joint 49 Right ankle joint 50 Lumbar 51 Left leg 52 Left thigh 53 Left lower thigh 54 Left foot 57 left hip joint 58 left knee joint 59 left ankle joint 62 right upper arm 63 right forearm 64 right hand 67 right shoulder joint 68 right elbow joint 69 right wrist joint 72 left upper arm 73 left forearm 74 left hand 77 left shoulder joint 78 left Elbow joint 79 Left wrist joint 80 Start bit 81 Launch robot ID
82 Light receiving robot ID
83 Light reception time 84 Stop bit 90 Start bit 91 Processing team information section 92 Defeat team information section 93 Stop bit 94 CCD
101 score display area for each team 102 score display area for each robot 111 to 115 columns 300 antenna 301 receiving circuit 302 control circuit 303 display circuit 304 storage device 305 hit database 306 score database 400 internet BC1 yaw angle servo motor LR1 right foot yaw angle servo Motor LR2 Right foot pitch angle servo motor LR3 Right foot roll angle servo motor LR4 Right foot knee pitch angle servo motor LR5 Right foot pitch angle servo motor LR6 Right foot roll angle servo motor LL1 Left foot yaw angle servo motor LL2 Left foot pitch angle servo motor LL3 Left foot roll angle servo motor Servo motor LL4 Left foot knee pitch angle servo motor LL5 Left foot pitch angle servo motor LL6 Left foot roll angle servo motor HR1 Right hand pitch angle servo motor H 2 Right foot roll angle servo motor HR3 Right foot elbow pitch angle servo motor HR4 Right hand yaw angle servo motor HL1 Left hand pitch angle servo motor HL2 Left foot roll angle servo motor HL3 Left foot elbow pitch angle servo motor HL4 Left hand yaw angle servo motor HC1 Head yaw angle servo Motor HC2 head pitch angle servo motor S41 to S57 Step S71 to S77 Step S101 to S104 Step S201 to S220 Step

Claims (37)

ロボットと、前記ロボットに対してコマンドを送信する遠隔操作手段とを有するロボットコントロールシステムであって、
前記ロボットは、
複数の駆動部と、
当該ロボットの状態を判断する判断手段と、
前記遠隔操作手段から送信されたコマンドを受信する受信手段と、
前記受信手段により前記コマンドを受信したとき、前記判断手段により得られた当該ロボットの状態に応じた動作コマンドを設定し、該動作コマンドに基づいて前記複数の駆動部を、それぞれ駆動することにより当該ロボットの動作を実現する動作実現手段とを有することを特徴とするロボットコントロールシステム。
A robot control system having a robot and remote control means for transmitting a command to the robot,
The robot is
A plurality of drive units;
A judging means for judging the state of the robot;
Receiving means for receiving a command transmitted from the remote control means;
When the command is received by the receiving means, an operation command corresponding to the state of the robot obtained by the determination means is set, and the plurality of driving units are driven based on the operation command, respectively. A robot control system comprising: an operation realizing means for realizing an operation of the robot.
前記判断手段は、少なくとも2つの異なる状態を判断できるものである請求項1に記載のロボットコントロールシステム。   The robot control system according to claim 1, wherein the determination unit is capable of determining at least two different states. 前記ロボットは、歩行可能なロボットであり、
前記異なる状態は、少なくとも前記ロボットが、起立して歩行していない静止状態と、歩行を行っている歩行状態と、転倒している転倒状態とを含み、
前記動作実現手段は、前記静止状態と、前記歩行状態と、前記転倒状態との、それぞれに応じた動作コマンドを設定するものである請求項2に記載のロボットコントロールシステム。
The robot is a walking robot,
The different states include a stationary state where the robot is not standing and walking, a walking state where the robot is walking, and a falling state where the robot is falling,
The robot control system according to claim 2, wherein the motion realization unit sets motion commands corresponding to the stationary state, the walking state, and the falling state.
前記動作コマンドは、予め設定されており、
前記動作実現手段は、前記判断手段による判定結果と前記コマンドとの組み合わせにより、前記予め設定された動作コマンドから適したものを選択して、前記ロボットの動作を実現する請求項1ないし3のいずれかに記載のロボットコントロールシステム。
The operation command is preset,
4. The robot according to claim 1, wherein the operation realizing unit selects an appropriate one of the preset operation commands based on a combination of the determination result of the determination unit and the command, and realizes the operation of the robot. The robot control system described in Crab.
前記判断手段は、前記駆動部の駆動を実行させるプログラムと、前記ロボットの外部情報を検出する検出手段とを有し、前記プログラムと前記検出手段とのうちの少なくとも一方から前記ロボットの状態を判断する請求項1ないし4のいずれかに記載のロボットコントロールシステム。   The determination unit includes a program for executing driving of the drive unit and a detection unit for detecting external information of the robot, and determines the state of the robot from at least one of the program and the detection unit. The robot control system according to any one of claims 1 to 4. 前記検出手段は、互いに略直交するX軸、Y軸およびZ軸の回りの角速度をそれぞれ検出するジャイロセンサを有する請求項5に記載のロボットコントロールシステム。   The robot control system according to claim 5, wherein the detection unit includes a gyro sensor that detects angular velocities about the X axis, the Y axis, and the Z axis substantially orthogonal to each other. 前記検出手段は、略直交する三方向に対する加速度を検出する三次元の加速度センサを有する請求項5または6に記載のロボットコントロールシステム。   The robot control system according to claim 5, wherein the detection unit includes a three-dimensional acceleration sensor that detects acceleration in three directions substantially orthogonal to each other. 前記検出手段は、着床を検出する少なくとも1つの着床検出手段を有し、該着床検出手段の検出値に基づいて、前記ロボットの着床を判断する請求項5ないし7のいずれかに記載のロボットコントロールシステム。   8. The detection unit according to claim 5, wherein the detection unit includes at least one landing detection unit that detects landing, and determines the landing of the robot based on a detection value of the landing detection unit. The robot control system described. 前記着床検出手段は、圧力センサである請求項8に記載のロボットコントロールシステム。   The robot control system according to claim 8, wherein the landing detection means is a pressure sensor. 前記プログラムは、前記ロボットの静止または前記ロボットの歩行を実行させるものである請求項5に記載のロボットコントロールシステム。   The robot control system according to claim 5, wherein the program causes the robot to stop or to walk. 前記ロボットは、少なくとも足部と、前記駆動部により駆動する足関節と、腰部とを有する脚部を少なくとも1つ備える請求項1ないし10のいずれかに記載のロボットコントロールシステム。   The robot control system according to any one of claims 1 to 10, wherein the robot includes at least one leg portion including at least a foot portion, an ankle joint driven by the driving portion, and a waist portion. 前記脚部は、接地面に対して略平行な方向に旋回する旋回動作を実行可能であり、
前記ロボットは、前記静止時に前記動作コマンドを受信した場合は、前記歩行動作または前記旋回動作を開始する請求項11に記載のロボットコントロールシステム。
The leg portion is capable of performing a turning operation of turning in a direction substantially parallel to the ground plane,
The robot control system according to claim 11, wherein the robot starts the walking motion or the turning motion when the motion command is received when the robot is stationary.
前記ロボットは、前記歩行時に前記動作コマンドを受信した場合は、歩行速度および/または歩行方向を変更する請求項11または12に記載のロボットコントロールシステム。   The robot control system according to claim 11 or 12, wherein the robot changes a walking speed and / or a walking direction when the operation command is received during the walking. 前記ロボットは、前記腰部に対して所定角度回転可能な胴体部をさらに有する請求項1ないし13のいずれかに記載のロボットコントロールシステム。   The robot control system according to any one of claims 1 to 13, wherein the robot further includes a body part that is rotatable by a predetermined angle with respect to the waist part. 前記ロボットは、前記歩行中に前記動作コマンドを受信した場合は、前記腰部に対して前記胴体部の回転角度を変更する請求項14に記載のロボットコントロールシステム。   The robot control system according to claim 14, wherein when the robot receives the operation command during the walking, the robot changes a rotation angle of the torso with respect to the waist. 前記遠隔操作手段は、傾き自在のスティックを有するジョイスティックを備える請求項1ないし15のいずれかに記載のロボットコントロールシステム。   The robot control system according to claim 1, wherein the remote control means includes a joystick having a tiltable stick. 前記ジョイスティックの所定部位に、操作部が設けられており、前記ジョイスティックの操作または前記操作部の操作により前記ロボットに対して前記コマンドを送信する請求項16に記載のロボットコントロールシステム。   The robot control system according to claim 16, wherein an operation unit is provided at a predetermined part of the joystick, and the command is transmitted to the robot by the operation of the joystick or the operation of the operation unit. 前記ロボットの状態に応じて該ロボットの各部位の動作を制限する制限手段を有する請求項1ないし17のいずれかに記載のロボットコントロールシステム。   The robot control system according to claim 1, further comprising a restricting unit that restricts an operation of each part of the robot according to a state of the robot. 前記制限手段は、前記ロボットが、起立して歩行していない静止状態と、歩行を行っている歩行状態と、転倒している転倒状態とに応じて、段階的または連続的に前記ロボットの各部位の動作を制限するものである請求項18に記載のロボットコントロールシステム。   The restricting means is configured such that each of the robots is stepwise or continuously according to a stationary state where the robot is not standing and walking, a walking state where the robot is walking, and a falling state where the robot is falling. The robot control system according to claim 18, wherein the movement of the part is limited. 前記制限手段は、前記ロボットの前記歩行状態における歩行速度を制限するものである請求項19に記載のロボットコントロールシステム。   The robot control system according to claim 19, wherein the limiting means limits a walking speed of the robot in the walking state. 前記動作実現手段は、前記動作コマンドに基づいて、射撃用信号を発生する信号発生手段を有する請求項1ないし20のいずれかに記載のロボットコントロールシステム。   The robot control system according to any one of claims 1 to 20, wherein the operation realizing unit includes a signal generation unit that generates a shooting signal based on the operation command. 前記射撃用信号を受信する信号受信手段を有する請求項21に記載のロボットコントロールシステム。   The robot control system according to claim 21, further comprising signal receiving means for receiving the shooting signal. 前記射撃用信号を受信する信号受信手段と、
前記ロボットの状態に応じて該ロボットの各部位の動作を制限する制限手段を有する請求項21に記載のロボットコントロールシステム。
Signal receiving means for receiving the shooting signal;
The robot control system according to claim 21, further comprising a restricting unit that restricts an operation of each part of the robot according to a state of the robot.
前記制限手段は、前記射撃用信号の受信回数に応じて、段階的または連続的に前記ロボットの各部位の動作を制限するものである請求項23に記載のロボットコントロールシステム。   24. The robot control system according to claim 23, wherein the limiting means limits the operation of each part of the robot stepwise or continuously in accordance with the number of times the shooting signal is received. 前記制限手段は、前記ロボットが転倒している転倒状態において、前記信号発生手段における射撃用信号の発生速度および/または発生数を制限するものである請求項23または24に記載のロボットコントロールシステム   25. The robot control system according to claim 23 or 24, wherein the limiting means limits a generation speed and / or generation number of a shooting signal in the signal generation means in a fall state where the robot is falling. 前記ロボットには、前記射撃用信号を受信したとき、被弾信号を送信する送信手段が設けられている請求項22ないし25のいずれかに記載のロボットコントロールシステム。   The robot control system according to any one of claims 22 to 25, wherein the robot is provided with a transmission means for transmitting a bullet signal when the shooting signal is received. 前記判断手段は、前記信号受信手段が前記射撃用信号を受信した被弾状態を判断するものである請求項22ないし26のいずれかに記載のロボットコントロールシステム。   The robot control system according to any one of claims 22 to 26, wherein the determination unit is configured to determine a bulleted state in which the signal reception unit has received the shooting signal. 前記射撃用信号は、赤外光を用いた赤外線射撃用信号である請求項21ないし27のいずれかに記載のロボットコントロールシステム。   28. The robot control system according to claim 21, wherein the shooting signal is an infrared shooting signal using infrared light. 前記ロボットの状態を視覚的および/または聴覚的に報知する報知手段を有する請求項1ないし28のいずれかに記載のロボットコントロールシステム。   The robot control system according to any one of claims 1 to 28, further comprising notification means for visually and / or audibly informing the state of the robot. 前記駆動部はサーボモータで構成され、前記動作コマンドは、前記サーボモータに対する回転角度指令である請求項1ないし29のいずれかに記載のロボットコントロールシステム。   The robot control system according to any one of claims 1 to 29, wherein the driving unit includes a servo motor, and the operation command is a rotation angle command for the servo motor. 前記遠隔操作手段と、前記受信手段との間で通信プロトコルを用いてデータの双方向通信を行うよう構成されている請求項1ないし30のいずれかに記載のロボットコントロールシステム。   The robot control system according to any one of claims 1 to 30, wherein the robot control system is configured to perform bidirectional data communication using a communication protocol between the remote control unit and the receiving unit. 前記通信プロトコルはTCP/IPプロトコルである請求項31に記載のロボットコントロールシステム。   The robot control system according to claim 31, wherein the communication protocol is a TCP / IP protocol. 前記双方向通信は、無線LANを介して行われる請求項31または32に記載のロボットコントロールシステム。   The robot control system according to claim 31 or 32, wherein the bidirectional communication is performed via a wireless LAN. 前記双方向通信の少なくとも一部は、インターネットまたはイントラネットを介して行われる請求項31ないし33のいずれかに記載のロボットコントロールシステム。   34. The robot control system according to claim 31, wherein at least part of the bidirectional communication is performed via the Internet or an intranet. 前記ロボットは、被写体像を電子画像として撮像する撮像手段を有する請求項1ないし34のいずれかに記載のロボットコントロールシステム。   The robot control system according to any one of claims 1 to 34, wherein the robot includes an imaging unit that captures a subject image as an electronic image. 前記判断手段は、前記撮像手段により得られた画像に基づいて、前記ロボットが転倒している転倒状態を判断する請求項35に記載のロボットコントロールシステム。   36. The robot control system according to claim 35, wherein the determination unit determines a fall state in which the robot is falling based on an image obtained by the imaging unit. 前記遠隔操作手段は、前記撮像手段により撮像された画像を表示する表示部を有する請求項35または36に記載のロボットコントロールシステム。
37. The robot control system according to claim 35 or 36, wherein the remote control unit includes a display unit that displays an image captured by the imaging unit.
JP2004236192A 2004-08-13 2004-08-13 Robot control system Pending JP2006051586A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004236192A JP2006051586A (en) 2004-08-13 2004-08-13 Robot control system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004236192A JP2006051586A (en) 2004-08-13 2004-08-13 Robot control system

Publications (2)

Publication Number Publication Date
JP2006051586A true JP2006051586A (en) 2006-02-23
JP2006051586A5 JP2006051586A5 (en) 2007-02-15

Family

ID=36029366

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004236192A Pending JP2006051586A (en) 2004-08-13 2004-08-13 Robot control system

Country Status (1)

Country Link
JP (1) JP2006051586A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009000286A (en) * 2007-06-21 2009-01-08 Taito Corp Game system and game robot operated by remote control
US7705552B2 (en) 2006-10-17 2010-04-27 Futaba Corporation Robotic system
JP2011115898A (en) * 2009-12-03 2011-06-16 Honda Motor Co Ltd Robot
CN106163626A (en) * 2014-03-24 2016-11-23 斯毕四斯株式会社 Humanoid, pedestal and humanoid system
CN112121394A (en) * 2020-09-04 2020-12-25 纳恩博(天津)科技有限公司 Method for controlling shooting, controller and vehicle
CN112469539A (en) * 2018-08-10 2021-03-09 川崎重工业株式会社 Robot system
CN116476101A (en) * 2023-06-25 2023-07-25 云南涟浪机器人科技有限公司 A controller and industrial robot for industrial robot

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06320457A (en) * 1993-05-13 1994-11-22 Fujitsu Ltd Intelligent robot system
JPH07275507A (en) * 1994-04-06 1995-10-24 Sega Enterp Ltd Automatic adjusting method for degree of playing difficulty in shooting game system
JPH08118262A (en) * 1994-10-20 1996-05-14 Komatsu Ltd Master-slave manipulator
JPH0950539A (en) * 1995-08-10 1997-02-18 Sega Enterp Ltd Method and device for generating virtual picture
JP2001138271A (en) * 1999-11-12 2001-05-22 Sony Corp Leg type mobile robot and at-overturn motion control method for robot
JP2001287180A (en) * 2000-04-04 2001-10-16 Sony Corp Robot remote-control system and software distribution method

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06320457A (en) * 1993-05-13 1994-11-22 Fujitsu Ltd Intelligent robot system
JPH07275507A (en) * 1994-04-06 1995-10-24 Sega Enterp Ltd Automatic adjusting method for degree of playing difficulty in shooting game system
JPH08118262A (en) * 1994-10-20 1996-05-14 Komatsu Ltd Master-slave manipulator
JPH0950539A (en) * 1995-08-10 1997-02-18 Sega Enterp Ltd Method and device for generating virtual picture
JP2001138271A (en) * 1999-11-12 2001-05-22 Sony Corp Leg type mobile robot and at-overturn motion control method for robot
JP2001287180A (en) * 2000-04-04 2001-10-16 Sony Corp Robot remote-control system and software distribution method

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7705552B2 (en) 2006-10-17 2010-04-27 Futaba Corporation Robotic system
JP2009000286A (en) * 2007-06-21 2009-01-08 Taito Corp Game system and game robot operated by remote control
JP2011115898A (en) * 2009-12-03 2011-06-16 Honda Motor Co Ltd Robot
CN106163626A (en) * 2014-03-24 2016-11-23 斯毕四斯株式会社 Humanoid, pedestal and humanoid system
CN106163626B (en) * 2014-03-24 2018-08-31 斯毕四斯株式会社 Humanoid, pedestal and humanoid system
US10621896B2 (en) 2014-03-24 2020-04-14 Speecys Corp. Figure, base, and figure system
CN112469539A (en) * 2018-08-10 2021-03-09 川崎重工业株式会社 Robot system
CN112469539B (en) * 2018-08-10 2024-02-13 川崎重工业株式会社 Robot system
CN112121394A (en) * 2020-09-04 2020-12-25 纳恩博(天津)科技有限公司 Method for controlling shooting, controller and vehicle
CN116476101A (en) * 2023-06-25 2023-07-25 云南涟浪机器人科技有限公司 A controller and industrial robot for industrial robot

Similar Documents

Publication Publication Date Title
US8632376B2 (en) Robotic game systems and methods
KR102156537B1 (en) Information processing apparatus, information processing method, and information medium
US20120142415A1 (en) Video Show Combining Real Reality and Virtual Reality
JP6352151B2 (en) Information processing apparatus, information processing system, and information processing method
JP2006034823A (en) Shooting game system
US20080194337A1 (en) Hunting Game Having Human And Electromechanical Players
WO2018205102A1 (en) Intelligent competition system and robot
JP2006051586A (en) Robot control system
JP7064513B2 (en) Robot devices, control methods and programs for robot devices
KR20170070520A (en) First-person shooter game system and method driven by user motion using airsoft gun
CN102671372A (en) Game device and method of using the same
JP2003210843A (en) Video-game toy
KR100863866B1 (en) Game machine
JP7282844B2 (en) entertainment system
JP6961723B2 (en) Moving body and moving body control method
KR101473422B1 (en) Toy driving system and application for controlling toy
US12048882B2 (en) Apparatus, system, and method for controlling a computing device interaction using an accessory
CN102631778A (en) Game device and method of using the same
JP2006025869A (en) Game device
JP3751627B2 (en) Game device
US20130059661A1 (en) Interactive video game console
KR20210079077A (en) Robot operation system for boarding experience

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20061227

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20061227

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20091208

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20100406