[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JPWO2016067474A1 - Robot toy - Google Patents

Robot toy Download PDF

Info

Publication number
JPWO2016067474A1
JPWO2016067474A1 JP2016556174A JP2016556174A JPWO2016067474A1 JP WO2016067474 A1 JPWO2016067474 A1 JP WO2016067474A1 JP 2016556174 A JP2016556174 A JP 2016556174A JP 2016556174 A JP2016556174 A JP 2016556174A JP WO2016067474 A1 JPWO2016067474 A1 JP WO2016067474A1
Authority
JP
Japan
Prior art keywords
robot
attack
action
robot toy
robot body
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016556174A
Other languages
Japanese (ja)
Other versions
JP6437566B2 (en
Inventor
幸弘 進藤
幸弘 進藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tomy Co Ltd
Original Assignee
Tomy Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tomy Co Ltd filed Critical Tomy Co Ltd
Publication of JPWO2016067474A1 publication Critical patent/JPWO2016067474A1/en
Application granted granted Critical
Publication of JP6437566B2 publication Critical patent/JP6437566B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F9/00Games not otherwise provided for
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H11/00Self-movable toy figures
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H11/00Self-movable toy figures
    • A63H11/18Figure toys which perform a realistic walking motion
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H11/00Self-movable toy figures
    • A63H11/18Figure toys which perform a realistic walking motion
    • A63H11/20Figure toys which perform a realistic walking motion with pairs of legs, e.g. horses
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/06Control stands, e.g. consoles, switchboards

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Multimedia (AREA)
  • Toys (AREA)

Abstract

【課題】1又は2以上の攻撃動作を実行可能であって、しかもそれらの攻撃動作の1つを実行させるために、別途専用の遠隔操作部等の付属品を必要としないロボット玩具を提供すること。【解決手段】1又は2以上の攻撃動作を実行可能なロボット本体(1)を有するロボット玩具であって、ロボット本体(1)の近辺に物体感知領域(4a,4b)を有する物体センサ(2a,2b,3a,3b)と、前記物体センサの出力に基づいて、前記物体感知領域(4a)における物体(7a)の状態により選択される1又は2以上の前記攻撃動作の実行を制御する制御部(108)とを包含する。【選択図】図2Provided is a robot toy that can execute one or more attack operations and that does not require an additional accessory such as a dedicated remote control unit to execute one of those attack operations. thing. A robot toy having a robot main body (1) capable of executing one or two or more attack operations, and having an object sensing area (4a, 4b) in the vicinity of the robot main body (1). , 2b, 3a, 3b) and control for controlling execution of one or more of the attack operations selected by the state of the object (7a) in the object sensing area (4a) based on the output of the object sensor Part (108). [Selection] Figure 2

Description

この発明は、ロボット玩具に係り、特に、ロボット同士を戦わせて遊ぶ対戦遊びなどに用いられる攻撃動作を実行可能なロボット玩具に関する。   The present invention relates to a robot toy, and more particularly, to a robot toy capable of executing an attacking action used in a battle play in which robots fight against each other.

ロボット同士を戦わせて遊ぶ対戦遊びなどに用いられる攻撃動作(例えば、パンチ動作など)を実行可能なロボット玩具としては、従来より、様々な形態のものが知られている。これらのロボット玩具は、静止型のものと移動型のものとに大別される。   Various types of robot toys that can execute an attacking action (for example, a punching action, etc.) used in a battle game in which robots fight with each other have been conventionally known. These robot toys are roughly classified into a stationary type and a movable type.

静止型のロボット玩具は、主として遊技場などに設置されるものであって、左右のパンチ動作が実行可能な二体の上半身ヒト型ロボットを互いのパンチ攻撃が届く距離に対向配置し、それぞれの背後に配置された操作盤上の操作ボタンを遊技者が指先で押圧操作することで任意のタイミングにおける左右のパンチ繰り出し動作を実行させると言ったものである。   Stationary robot toys are mainly installed in game halls, etc., and two upper body humanoid robots that can perform left and right punching operations are placed opposite each other at a distance where each other's punch attack can reach. It is said that the player performs a left and right punch feed operation at an arbitrary timing when the player presses the operation button on the operation panel arranged behind the fingertip.

移動型のロボット玩具は、主として家庭用に供されるものであって、左右のパンチ動作に加えて、歩行乃至走行動作が可能とされ、有線又は無線で接続された遠隔操作部から受信される動作指令に応答して、歩行乃至走行動作を実行することで、対戦相手となる他のロボット本体に接近させ、その状態にて、操作部から受信される動作指令に応答して、任意のタイミングにおける左右のパンチ繰り出し動作を実行させると言ったものである。   The mobile robot toy is mainly used for home use, and can be walked or run in addition to the left and right punching operations, and is received from a wired or wirelessly connected remote control unit. In response to the operation command, by executing a walking or running operation, the robot body is brought close to another opponent, and in that state, in response to the operation command received from the operation unit, any timing It is said that the left and right punch unwinding operation is executed.

有線又は無線によりロボット本体に接続される遠隔操作部としては、左右のパンチ動作の実行指令を生成するための操作ボタンを備えたボタン操作タイプのものと、左右のパンチ動作に相当する腕の動きを内蔵する感知器(例えば、加速度センサ)を介して検出して対応する動作指令を生成する感知器内蔵タイプのものとが知られている。   The remote operation unit connected to the robot body by wire or wirelessly includes a button operation type equipped with operation buttons for generating execution commands for left and right punch operations, and arm movements corresponding to left and right punch operations. There is known a sensor-incorporated type that detects a sensor through a sensor (for example, an acceleration sensor) and generates a corresponding operation command.

ボタン操作タイプの遠隔操作部は、指先の僅かな動き(ボタン操作)により、意図するパンチ動作を実現できる利点を有する反面、ロボット本体にパンチ動作を行わせようとするボディーアクションと操作部における操作ボタンを押圧しようとするボディーアクションとの間には、意志伝達系において幾分の乖離が存在することから、遊技者の意志をロボット本体の動作にスムーズに伝達することができず、対戦遊びの盛り上がりに欠けると言う問題がある。   The button operation type remote operation unit has the advantage that the intended punching operation can be realized by a slight movement of the fingertip (button operation). On the other hand, the body action to make the robot body perform the punching operation and the operation in the operation unit Since there is some discrepancy in the will transmission system with the body action that tries to press the button, the player's will cannot be smoothly transmitted to the operation of the robot body. There is a problem of lack of excitement.

これに対して、感知器内蔵タイプの遠隔操作部は、ロボット本体にパンチ動作を行わせようとするボディーアクションが、そのまま、動作指令を生成するためのボディーアクションに繋がることから、遊技者の意志をロボット本体の動作にスムーズに伝達することができ、対戦遊びを大きく盛り上げることができる利点がある。そのため、本出願人会社は、先に、そのような感知器内蔵タイプの遠隔操作部を有するロボット玩具を提案すると共に(特許文献1参照)、当該提案にかかるロボット玩具製品(商品名:バトロボーグ)を市場に提供して好評を得ている(非特許文献1)。   On the other hand, the remote control unit with a built-in sensor is connected to the body action for generating a motion command as it is because the body action to cause the robot body to perform a punching action is performed. Can be smoothly transmitted to the operation of the robot body, and there is an advantage that the play can be greatly increased. For this reason, the applicant company previously proposed a robot toy having such a remote control unit with a built-in sensor (see Patent Document 1), and a robot toy product according to the proposal (trade name: Batroborg). Has been well received by the market (Non-Patent Document 1).

特許第5426775号公報Japanese Patent No. 5426775

http://www.takaratomy.co.jp/products/battroborg/play.htmlhttp://www.takaratomy.co.jp/products/battroborg/play.html

特許文献1及び非特許文献1に記載のロボット玩具は、感知器内蔵タイプの遠隔操作部を有する。この遠隔操作部は、それぞれ棒状をなす2本の操作部筐体を適当な長さの電気コードで結んでなる、略ヌンチャク状の形態を有する。   The robot toy described in Patent Literature 1 and Non-Patent Literature 1 has a remote control unit of a built-in sensor type. This remote control unit has a substantially nunchaku shape formed by connecting two control unit casings each having a bar shape with an electric cord having an appropriate length.

遊技者は、それら2本の操作部筐体の一方を右手にまた他方を左手に把持して、左右のパンチに相当するボディーアクションを行う。すると、各操作部筐体に内蔵された感知器がこれを感知すると共に、この感知出力に応じて制御部の作用により対応する動作指令が生成され、こうして生成された動作指令は、2本の操作部筐体のいずれかに内蔵された送受信部を介して、ロボット本体側へと無線により送出される。ロボット本体の側では、遠隔操作部側から無線送出される動作指令を送受信部を介して受信すると共に、この受信された動作指令の内容に応じて、左右いずれかのパンチ動作並びに歩行動作を実現する。   The player holds one of the two operation unit housings with the right hand and the other with the left hand, and performs a body action corresponding to left and right punches. Then, a sensor built in each operation unit casing senses this, and a corresponding operation command is generated by the action of the control unit in accordance with this detection output. The data is transmitted wirelessly to the robot body side through a transmission / reception unit built in one of the operation unit casings. On the robot body side, an operation command transmitted wirelessly from the remote operation unit side is received via the transmission / reception unit, and either left or right punching operation or walking operation is realized according to the content of the received operation command. To do.

このようなロボット玩具によれば、2本の操作部筐体の一方を右手にまた他方を左手に把持して、左右のパンチに相当するボディーアクションを行うだけで、ロボット本体側における左右いずれかのパンチ動作並びに歩行動作を実現することができるから、遊技者からロボット本体への意志伝達がスムーズとなり、ロボット同士を戦わせて遊ぶ対戦遊びを熱狂させ、興奮を呼び起こすことができる。   According to such a robot toy, one of the two operation unit housings is gripped with the right hand and the other with the left hand, and the body action corresponding to the left and right punches is performed. Therefore, the player can smoothly transmit the will from the player to the robot body, enthusiastically play the fighting game in which the robots fight each other, and arouse excitement.

しかし、左右のパンチに相当するボディーアクションを行うだけで、ロボット本体側における左右いずれかのパンチ動作並びに歩行動作を実現することができるとはいえ、そのためには、左右の手にそれぞれ遠隔操作部を構成する棒状操作部筐体を把持するこが不可欠であるから、上述のロボット玩具にあっても、ロボット本体の価格に加えて、付属品である遠隔操作部の価格が上乗せされることとなり、その分だけ、この種のロボット玩具全体の価格を押し上げる結果となる。   However, it is possible to achieve either left or right punching and walking on the robot body simply by performing body actions corresponding to left and right punches. In addition to the price of the robot body, the price of the remote control part that is an accessory will be added to the robot toy described above. As a result, the price of this kind of robot toy will be increased.

加えて、この種のロボット玩具の対象遊技者には、幼児や低学年児童も含まれることを考慮すると、付属品である遠隔操作部を紛失する可能性も無視しがたく、ひとたび、そのような紛失が発生すれば、最早、付属品を購入し直さない限り、対戦遊びの遂行は不可能となる。   In addition, considering that the target players of this type of robot toy include infants and lower-grade children, it is difficult to ignore the possibility of losing the remote control that is an accessory. If a loss occurs, it will no longer be possible to perform the play unless the accessories are purchased again.

この発明は、上述の技術的背景に鑑みなされたものであり、その目的とするところは、1又は2以上の攻撃動作を実行可能であって、しかもそれらの攻撃動作の1つを実行させるために、別途専用の遠隔操作部等の付属品を必要としないロボット玩具を提供することにある。   The present invention has been made in view of the above-described technical background, and its object is to execute one or more attack operations and to execute one of those attack operations. Another object is to provide a robot toy that does not require any additional accessories such as a dedicated remote control unit.

この発明のさらに他の目的並びに作用効果については、明細書の以下の既述を参照することにより、当業者であれば容易に理解されるであろう。   Still other objects and operational effects of the present invention will be easily understood by those skilled in the art by referring to the following description of the specification.

<本発明に係るロボット玩具>
本発明に係るロボット玩具は、1又は2以上の攻撃動作を実行可能なロボット本体を有するロボット玩具であって、前記ロボット本体の近辺に物体感知領域を有する物体センサと、前記物体センサの出力に基づいて、前記物体感知領域における物体の状態により選択される1又は2以上の前記攻撃動作の実行を制御する制御部とを包含する、ものである。
<Robot toy according to the present invention>
A robot toy according to the present invention is a robot toy having a robot main body capable of executing one or more attack operations, an object sensor having an object detection area in the vicinity of the robot main body, and an output of the object sensor. And a control unit that controls execution of one or more attacking operations selected according to the state of the object in the object sensing area.

このような構成によれば、前記ロボット本体の近辺に何らかの物体(例えば、指先、拳、掌、等々)を意図的に存在させかつその物体を所定の状態とするだけで、それらの攻撃動作の1又は2以上を選択して実行させることができるから、攻撃動作の1つを実行させるために、別途専用の遠隔操作部等の付属品を必要としないロボット玩具を提供することができる。   According to such a configuration, any object (for example, fingertip, fist, palm, etc.) is intentionally present in the vicinity of the robot body, and the object can be attacked only by bringing the object into a predetermined state. Since one or two or more can be selected and executed, it is possible to provide a robot toy that does not require an additional accessory such as a dedicated remote control unit in order to execute one of the attack operations.

<第1の実施態様>
本発明の第1の実施態様においては、前記物体の状態により選択される1又は2以上の前記攻撃動作の実行は、前記物体の状態により決定される実行態様にて行われる、ものであってもよい。
<First Embodiment>
In the first embodiment of the present invention, execution of one or more of the attack operations selected according to the state of the object is performed in an execution mode determined by the state of the object, Also good.

このような構成によれば、感知領域への物体の存在させ方を制御するだけで、実行されるべき攻撃動作の選択のみならず、その実行態様までをも選択することができる。   According to such a configuration, it is possible to select not only the attack action to be executed but also the execution mode thereof only by controlling how the object exists in the sensing area.

一例としては、前記物体の状態が、前記物体感知領域に何らかの物体が出現したときには、前記攻撃動作の実行態様は、前記攻撃動作を単発的に実行すべきものとして決定される、ものであってもよい。   As an example, when an object appears in the object detection area, the execution mode of the attack operation is determined as the one in which the attack operation should be executed once. Good.

このような構成によれば、例えば、遊技者がパンチ動作に相当するボディーアクションを行って、その拳が前記物体感知領域に侵入しさえすれば、その侵入のタイミングで、ロボット本体の側において、選択された攻撃動作(例えば、パンチ動作)を単発的に実行させることができる。   According to such a configuration, for example, if a player performs a body action corresponding to a punching operation and the fist enters the object detection area, at the time of the intrusion, on the side of the robot body, The selected attacking action (for example, punching action) can be executed once.

他の一例としては、前記物体の状態が、前記物体感知領域に何らかの物体が所定時間以上に滞在しているときには、前記攻撃動作の実行態様は、前記攻撃動作を所定の複数回、一定時間、又はその滞在中に亘り、サイクリックに実行すべきものとして決定される、ものであってもよい。   As another example, when the state of the object is that an object stays in the object sensing area for a predetermined time or longer, the execution mode of the attack operation is the predetermined number of times for a predetermined time, Alternatively, it may be determined to be executed cyclically during the stay.

このような構成によれば、例えば、遊技者がパンチ動作に相当するボディーアクションを行って、その拳が前記物体感知領域に侵入しかつその侵入状態を保持しさえすれば、ロボット本体の側において、選択された攻撃動作(例えば、パンチ動作)を、所定の複数回、一定時間、又はその滞在中に亘り、サイクリックに実行(例えば、連打)させることができる。   According to such a configuration, for example, if the player performs a body action corresponding to a punching operation and the fist enters the object sensing area and maintains the intrusion state, the robot main body side The selected attack action (for example, punch action) can be cyclically executed (for example, repeated hits) for a predetermined number of times, for a certain period of time, or during the stay.

さらに他の一例としては、前記物体の状態が、前記物体感知領域に何らかの物体が所定速度以上で接近しているときには、前記攻撃動作の実行態様は、前記攻撃動作を通常よりも強力なパワーで実行すべきものとして決定される、ものであってもよい。   As yet another example, when the state of the object is that an object is approaching the object sensing area at a predetermined speed or more, the execution mode of the attack operation is that the attack operation is performed with a stronger power than usual. It may be determined to be executed.

このような構成によれば、例えば、遊技者がパンチ動作に相当するボディーアクションを行って、その拳が前記物体感知領域に高速に侵入しさえすれば、ロボット本体の側において、選択された攻撃動作(例えば、パンチ動作)を、通常よりも強力なパワーで実行させることができる。   According to such a configuration, for example, if the player performs a body action corresponding to a punching operation and the fist enters the object sensing area at high speed, the selected attack is performed on the robot body side. The operation (for example, punching operation) can be executed with a stronger power than usual.

<第2の実施態様>
本発明の第2の実施態様においては、前記物体感知領域は、前記ロボット本体の周面のうちで、想定される遊技者と相対する面の近辺に設定される、ものであってもよい。
<Second Embodiment>
In the second embodiment of the present invention, the object sensing area may be set in the vicinity of a surface facing the assumed player among the peripheral surfaces of the robot body.

このような構成によれば、遊技者は、その前方に向けて、例えば、パンチ動作に相当するボディーアクションを行うことにより、ロボット本体の側において、選択された攻撃動作(例えば、パンチ動作)を実行させることができる。   According to such a configuration, the player performs a selected attack action (for example, punch action) on the robot body side by performing a body action corresponding to the punch action, for example, toward the front. Can be executed.

一例としては、前記想定される遊技者と相対する前記面が、前記ロボット本体の背面であってもよい。   As an example, the surface facing the assumed player may be a back surface of the robot body.

このような構成によれば、遊技者は、敵方のロボット本体を正面から視認しつつ、攻撃動作に相当するボディーアクションを繰り出すことで、自己のロボット本体において、選択された攻撃動作を実行させることができる。   According to such a configuration, the player can execute the selected attack action in his / her robot body by paying out a body action corresponding to the attack action while viewing the enemy robot body from the front. be able to.

他の一例としては、前記想定される遊技者と相対する前記面が、前記ロボット本体の左側、及び/又は、右側の側面であってもよい。   As another example, the side facing the assumed player may be the left side and / or the right side of the robot body.

このような構成によれば、2台のロボット本体を相対峙させた状態において、それぞれの側面から、二人の遊技者による攻撃動作に相当するボディーアクションを行うことで、それぞれのロボット本体において、選択された攻撃動作(例えば、パンチ動作)を実行させることができる。   According to such a configuration, in the state where the two robot main bodies are relatively leaned, by performing a body action corresponding to an attacking action by two players from each side, in each robot main body, The selected attack action (for example, punch action) can be executed.

<第3の実施態様>
本発明の第3の実施態様においては、前記物体感知領域は、前記ロボット本体の想定される遊技者と相対する面に沿って分布される複数の小領域からなり、それら複数の小領域のそれぞれは、前記攻撃動作の1又は2以上と予め関連付けがなされており、かつ前記制御部は、前記複数の小領域のそれぞれ毎に、その小領域に関連づけられた1又は2以上の前記攻撃動作の実行を制御する、ものであってもよい。
<Third Embodiment>
In the third embodiment of the present invention, the object sensing area is composed of a plurality of small areas distributed along a plane facing the assumed player of the robot body, and each of the plurality of small areas is Is associated in advance with one or more of the attack actions, and the control unit, for each of the plurality of small areas, has one or more of the attack actions associated with the small areas. It may be one that controls execution.

このような構成によれば、遊技者は、物体感知領域を構成する複数の小領域のうちで、目的とする1又は2以上の攻撃動作に関連づけられた小領域に対して、攻撃動作(例えば、パンチ動作)に相当するボディーアクションを行うことで、ロボット本体において、選択された攻撃動作(例えば、パンチ動作)を実行させることができる。   According to such a configuration, the player performs an attack action (for example, on a small area associated with one or more target attack actions among a plurality of small areas constituting the object sensing area (for example, By performing a body action corresponding to a punch action, a selected attack action (for example, a punch action) can be executed in the robot body.

このとき、前記複数の小領域のそれぞれを前記ロボット本体と対面する側から観察したときの空間的レイアウトは、前記複数の攻撃動作の起点のそれぞれの空間的レイアウトと整合する、ものであってもよい。   At this time, the spatial layout when observing each of the plurality of small regions from the side facing the robot main body is consistent with the spatial layout of each of the starting points of the plurality of attack operations. Good.

このような構成によれば、人間工学的な観点より、複数の小領域のそれぞれと、対応する攻撃動作との関係を直感的に把握しやすくなり、目的とする攻撃動作に対応するボディーアクションをよりスムーズに行うことができる。   According to such a configuration, from an ergonomic viewpoint, it becomes easier to intuitively understand the relationship between each of the plurality of small areas and the corresponding attack action, and the body action corresponding to the target attack action can be obtained. It can be performed more smoothly.

このとき、さらに、前記複数の小領域のそれぞれは、前記ロボット本体の背面又は左、及び/又は、右の側面に沿って分布する、ものであってもよい。   At this time, each of the plurality of small regions may be distributed along the back surface or the left side and / or the right side surface of the robot body.

このような構成によれば、敵方のロボット本体を正面又は側面から観察しつつ、目的とする攻撃動作に相当するボディーアクションをよりスムーズに行うことができる。   According to such a configuration, the body action corresponding to the target attack action can be performed more smoothly while observing the enemy robot body from the front or side.

より具体的な一例を挙げるならば、前記ロボット本体は、左拳を用いた各種パンチ攻撃や左手に把持した武器による各種攻撃等々の左起点の攻撃動作と右拳を用いた各種パンチ攻撃や右手に把持した武器による各種攻撃等々の右起点の攻撃動作とを有するヒト型ロボットであり、前記物体感知領域は、前記ロボット本体の背面又は左、及び/又は、右の側面に沿って、左右にレイアウトされる2個の小領域を含み、かつ前記制御部は、前記2個の小領域のそれぞれ毎に、その小領域における物体の状態を解析し、左側の前記小領域の解析結果に基づいて、前記左起点の攻撃動作の実行を制御し、右側の前記小領域の解析結果に基づいて、前記右起点の攻撃動作の実行を制御する、ものであってもよい。   To give a more specific example, the robot body has a left-origin attack action such as various punch attacks using the left fist and various attacks using a weapon held in the left hand, various punch attacks using the right fist, and the right hand. And a right-type attack action such as various attacks by a weapon held by the robot, and the object sensing area is located on the left or right side of the robot body along the back or left side and / or the right side. The control unit includes two small areas to be laid out, and the control unit analyzes the state of the object in each of the two small areas, and based on the analysis result of the left small area Further, the execution of the attack operation from the left starting point may be controlled, and the execution of the attack operation from the right starting point may be controlled based on the analysis result of the small area on the right side.

このような構成によれば、遊技者は、物体感知領域を構成する2つの小領域のうちで、左側の小領域に対して目的とする攻撃動作に相当するボディーアクション(例えば、左パンチ動作)を行うことにより、ロボット本体において、左拳を用いた各種パンチ攻撃や左手に把持した武器による各種攻撃等々の左起点の攻撃動作を実行させることができる一方、右側の小領域に対して目的とする攻撃動作に相当するボディーアクション(例えば、右パンチ動作)を行うことにより、ロボット本体において、右拳を用いた各種パンチ攻撃や右手に把持した武器による各種攻撃等々の左起点の攻撃動作を実行させることができるから、恰も、自分がロボット本体になりきった如くに感情移入して、対戦遊びを楽しむことができる。   According to such a configuration, the player can perform a body action (for example, a left punching operation) corresponding to a target attacking action on the left small area among the two small areas constituting the object sensing area. In the robot body, the left-origin attack operation such as various punch attacks using the left fist and various attacks by the weapon held in the left hand can be executed on the right side of the robot. The body action (for example, right punching action) corresponding to the attacking action to be performed on the robot body performs left-origin attacking actions such as various punching attacks using the right fist and various attacks using the weapon held by the right hand. So you can empathize with yourself as if you were a robot body and enjoy playing against it.

より具体的な他の一例を挙げるならば、前記ロボット本体は、左拳を用いたストレートパンチやフックパンチ攻撃等々の左上起点の攻撃動作と、右拳を用いたストレートパンチやフックパンチ攻撃等々の右上起点の攻撃動作と、左拳を用いたアッパーパンチ攻撃等々の左下起点の攻撃動作と、右拳を用いたアッパーパンチ攻撃等々の右下起点の攻撃動作と、を有するヒト型ロボットであり、前記物体感知領域は、前記ロボット本体の背面又は左、及び/又は、右の側面に沿って、上下左右にレイアウトされる4個の小領域を含み、かつ前記指令生成部は、前記4個の小領域のそれぞれ毎に、その小領域における物体の状態を解析し、左上の前記小領域の解析結果に基づいて、前記左上起点の攻撃動作の実行を制御し、右上の前記小領域の解析結果に基づいて、前記右上起点の攻撃動の実行を制御し、左下の前記小領域の解析結果に基づいて、前記左下起点の制御動作の実行を制御し、右下の前記小領域の解析結果に基づいて、前記右下起点の攻撃動作の実行を制御する、ものであってもよい。   To give a more specific example, the robot body has an upper left starting attack operation such as a straight punch or hook punch attack using a left fist, and a straight punch or hook punch attack using a right fist. It is a humanoid robot that has an attack action starting from the upper right, an attack action starting from the lower left such as an upper punch attack using the left fist, and an attack action starting from the lower right such as an upper punch attack using the right fist, The object sensing area includes four small areas that are laid out vertically and horizontally along the back or left and / or right side of the robot body, and the command generator includes the four For each small area, analyze the state of the object in the small area, control the execution of the attack action of the upper left starting point based on the analysis result of the upper left area, and analyze the upper right small area Based on the results, control the execution of the attack motion of the upper right starting point, control the execution of the control operation of the lower left starting point based on the analysis result of the lower left small region, the analysis result of the lower right small region The execution of the attack operation of the lower right starting point may be controlled based on the above.

このような構成によれば、遊技者は、物体感知領域を構成する4つの小領域のうちで、左上の小領域に対して目的とする攻撃動作に相当するボディーアクション(例えば、左上パンチ動作)を行うことにより、左拳を用いたストレートパンチやフックパンチ攻撃等々の左上起点の攻撃動作を、右上の小領域に対して目的とする攻撃動作に相当するボディーアクション(例えば、右上パンチ動作)を行うことにより、右拳を用いたストレートパンチやフックパンチ攻撃等々の右上起点の攻撃動作を、左下の小領域に対して目的とする攻撃動作に相当するボディーアクション(例えば、左下パンチ動作)を行うことにより、左拳を用いたアッパーパンチ攻撃等々の左下起点の攻撃動作を、さらに、右下の小領域に対して目的とする攻撃動作に相当するボディーアクション(例えば、右下パンチ動作)を行うことにより、右拳を用いたアッパーパンチ攻撃等々の右下起点の攻撃動作を、対象となるロボット本体に対して実行させることができるから、恰も、自分がロボット本体になりきった如くに感情移入して、対戦遊びを楽しむことができる。   According to such a configuration, the player can perform a body action (for example, an upper left punching operation) corresponding to a target attack action on the upper left small area among the four small areas constituting the object sensing area. The body action (for example, the upper right punching action) corresponding to the target attacking action against the upper right small area, such as the straight punch using the left fist and the hook punch attack, is performed. As a result, the body action (for example, the lower left punching action) corresponding to the target attacking action is performed on the lower left small area, such as a straight punch using a right fist or a hook punch attack, etc. Therefore, the attack action of the lower left starting point such as the upper punch attack using the left fist is equivalent to the target attack action for the lower right small area. By performing body action (for example, lower right punch action), it is possible to cause the target robot body to perform attack actions starting from the lower right such as an upper punch attack using the right fist. , You can empathize as if you were a robot body, and enjoy the play.

<第4の実施態様>
本発明の第4の実施態様においては、前記物体センサが、前記ロボット本体側にあって、検出媒体となる放射体を前記物体感知領域へと送り出すトランスミッタと、前記ロボット本体側にあって、前記物体感知領域に存在する物体で反射された前記放射体を受け取るレシーバとを含み、かつ物体検出距離レンジが前記感知領域に整合するように感度調整され、前記レシーバからの出力に基づいて前記感知領域に物体の有無を示す信号を生成するようにした反射式物体センサであってもよい。
<Fourth embodiment>
In a fourth embodiment of the present invention, the object sensor is on the robot body side, a transmitter for sending a radiator serving as a detection medium to the object sensing area, and on the robot body side, A receiver for receiving the radiator reflected by an object present in the object sensing region, and sensitivity adjusted to match an object detection distance range to the sensing region, and the sensing region based on an output from the receiver A reflection type object sensor that generates a signal indicating the presence or absence of an object may be used.

このような構成によれば、電気的なハードウェア構成、並びに、領域内に物体の有無を判定するためのソフトウェア構成の簡素化により、物体センサの低コスト化を実現することができる。   According to such a configuration, the cost of the object sensor can be reduced by simplifying the electrical hardware configuration and the software configuration for determining the presence or absence of an object in the area.

このとき、前記感知領域は複数の小領域からなるものであり、かつ前記トランスミッタは前記小領域のそれぞれに検出媒体となる放射体を送り出す複数個のトランスミッタからなり、前記レシーバは前記小領域のそれぞれに存在する物体で反射された前記放射体を受け取る1又は2以上のレシーバからなり、さらに、各反射放射体がいずれの前記小領域から到来したかを識別可能とするための特徴付け処理を含む、ものであってもよい。   At this time, the sensing area is composed of a plurality of small areas, and the transmitter is composed of a plurality of transmitters that send out a radiator as a detection medium to each of the small areas, and the receiver is each of the small areas. Including one or more receivers that receive the radiators reflected by the objects present in the object, and further comprising a characterization process to enable identification of which of the subregions each reflected radiator has come from It may be a thing.

このような構成によれば、1のレシーバが2以上の小領域から反射された前記放射体を受け取ることによる物体位置の誤検出を確実に防止することができる。   According to such a configuration, it is possible to reliably prevent erroneous detection of an object position due to one receiver receiving the radiator reflected from two or more small regions.

このとき、前記トランスミッタは、前記放射体の送り出し方向を調整できるように角度調整可能に取り付けられていてもよい。   At this time, the transmitter may be attached so that the angle can be adjusted so that the delivery direction of the radiator can be adjusted.

このような構成によれば、前記放射体の送り出し方向を調整して、小領域間の干渉を確実に排除することにより、1のレシーバが2以上の小領域から反射された前記放射体を受け取ることによる物体位置の誤検出をより確実に防止することができる。   According to such a configuration, one receiver receives the radiator reflected from two or more small areas by adjusting the delivery direction of the radiator to reliably eliminate interference between the small areas. Thus, erroneous detection of the object position can be prevented more reliably.

前記特徴付け処理の一例としては、各反射放射体がいずれの前記小領域から到来したかを識別可能とするために、前記複数のトランスミッタのそれぞれからの放射体の送り出しタイミングを互いに異ならせるものであってもよい。   As an example of the characterization process, in order to be able to identify which small area each reflected radiator has come from, the sending timing of the radiator from each of the plurality of transmitters is different from each other. There may be.

このような構成によれば、放射体の送り出し間隔さえ適切に設定すれば、トランスミッタの数の低減により、物体センサの低コスト化を実現することができる。   According to such a configuration, the cost of the object sensor can be reduced by reducing the number of transmitters as long as the transmission interval of the radiator is set appropriately.

特徴付け処理の他の一例としては、前記特徴付け処理が、各反射放射体がいずれの前記小領域から到来したかを識別可能とするために、前記複数のトランスミッタのそれぞれから送り出される放射体に固有の識別符号を組み込むものであってもよい。   As another example of the characterization process, the characterization process may be applied to radiators sent from each of the plurality of transmitters in order to be able to identify which subregion each reflected radiator has come from. A unique identification code may be incorporated.

このような構成によれば、符号化処理並びに複合化処理の手間は必要であるものの、1のレシーバが2以上の小領域から反射された前記放射体を受け取ることによる物体位置の誤検出を確実に防止することができる。   According to such a configuration, although the time required for the encoding process and the decoding process is necessary, it is possible to reliably detect the object position erroneously when one receiver receives the radiator reflected from two or more small areas. Can be prevented.

上述の例において、前記検出媒体となる放射体が、赤外線をその一例として含む光、超音波をその一例として含む音波、又はマイクロ波をその一例として含む電磁波であってもよい。   In the above-described example, the radiator serving as the detection medium may be light including infrared rays as an example, sound waves including ultrasonic waves as an example, or electromagnetic waves including microwaves as an example.

<第5の実施態様>
本発明の第5の実施態様においては、前記ロボット本体が、それぞれ、1又は2以上の攻撃動作が可能なヒト型ロボット、ライオン、トラ、バッファロー等の野獣型ロボット、又はティラノザウルス、トリケラトプス等の恐竜型ロボットであってもよい。
<Fifth Embodiment>
In a fifth embodiment of the present invention, the robot body is a humanoid robot capable of one or more attacking operations, a beast robot such as a lion, a tiger, or a buffalo, or a tyrannosaurus, triceratops, or the like. It may be a dinosaur type robot.

このように、本発明に適用されるロボット本体の種類は、ヒト型ロボットに限定されるものではなく、その他、1又は2以上の攻撃動作が実行可能である限り、あらゆる種類のロボット玩具に及ぶものである。   As described above, the type of the robot main body applied to the present invention is not limited to the humanoid robot, and extends to all types of robot toys as long as one or more attack operations can be performed. Is.

前記ヒト型ロボットにて実行可能な1又は2以上の攻撃動作が、左右のストレート、フック、アッパー等のパンチ攻撃動作、又は刀剣等の武器を手にしての攻撃動作、を含む、ものであってもよい。   The one or more attack operations that can be executed by the humanoid robot include a punch attack operation such as a left and right straight, a hook, and an upper, or an attack operation using a weapon such as a sword. May be.

このように、攻撃動作としては、手や足など、体の一部によるもののみならず、武器を手にしてのものも含まれるから、この種の対戦遊びをより一層、興味深いものとすることができる。   In this way, attack actions include not only those caused by parts of the body, such as hands and feet, but also those that have weapons in hand, so this type of battle play should be made even more interesting. Can do.

前記野獣型ロボットにて実行可能な1又は2以上の攻撃動作が、左右の前足の爪を用いた攻撃動作、角を用いた攻撃動作、又は牙を用いた攻撃動作、を含む、ものであってもよい。   The one or more attack actions that can be executed by the beast robot include an attack action using left and right forefoot claws, an attack action using horns, or an attack action using fangs. May be.

このように、野獣型ロボットにあっても、その野獣に想定されるあらゆる攻撃動作を行うことで、この種の対戦遊びをより一層、興味深いものとすることができる。   In this way, even in the case of a beast-type robot, this type of battle play can be made even more interesting by performing all of the attacking actions assumed for the beast.

前記恐竜型ロボットにて実行可能な1又は2以上の攻撃動作が、左右の前足の爪を用いた攻撃動作、又は首を伸ばしての牙や角による攻撃動作、を含む、ものであってもよい。   Even if one or more of the attack actions that can be executed by the dinosaur robot include an attack action using the left and right forefoot claws, or an attack action using a fang or horn with the neck extended Good.

このように、恐竜型ロボットであっても、その恐竜に想定されるあらゆる攻撃動作を行うことで、この種の対戦遊びをより一層、興味深いものとすることができる。   In this way, even with a dinosaur-type robot, this type of battle play can be made even more interesting by performing all of the attacking actions assumed for the dinosaur.

<第6の実施態様>
本発明の第6の実施態様においては、前記ロボット本体は、走行移動又は歩行移動が可能とされている、ものであってもよい。
<Sixth Embodiment>
In the sixth embodiment of the present invention, the robot body may be capable of traveling or walking.

このような構成によれば、静止型ロボット玩具とは異なり、単に攻撃動作を行うのみならず、敵方ロボット本体の位置まで接近したり、敵方ロボット本体から逃走したり、逆に敵方ロボット本体を追いかけたりと言ったように、様々な行動を実行することにより、この種の対戦遊びをより一層、興味深いものとすることができる。   According to such a configuration, unlike a stationary robot toy, not only performs an attacking action, but also approaches the enemy robot body position, escapes from the enemy robot body, and conversely the enemy robot This kind of battle play can be made even more interesting by performing various actions, such as pursuing the body.

前記ロボット玩具は、手動移動モードと自動移動モードとを有し、前記手動移動モードは、遊技者のボディーアクションに応答して走行移動乃至歩行移動を実行するものであり、かつ前記自動移動モードは、プリセットされた移動軌跡にしたがって移動するプリセット移動モード、又は任意にプログラムされた移動軌跡にしたがって移動するプログラマブル移動モードを含む、ものであってもよい。   The robot toy has a manual movement mode and an automatic movement mode, and the manual movement mode executes a traveling movement or a walking movement in response to a body action of a player, and the automatic movement mode is It may include a preset movement mode that moves according to a preset movement locus, or a programmable movement mode that moves according to an arbitrarily programmed movement locus.

このような構成によれば、ロボット本体をして、任意の経路で移動させるについて、これを手動移動モードと自動移動モードとで選択的に行うことができる。加えて、手動移動モードにおいては、敵方ロボット本体の動きを見ながら、逐次進路を変更しつつ、自己のロボット本体を最適な攻撃姿勢に導くと言った作戦行動をとることができる一方、自動移動モードにおいては、相手方の動きを予測して予め最適な移動経路に設定することにより、予想結果の当否を見守ると言った楽しみを提供することもでき、この種の対戦遊びを一層興味深いものとすることができる。   According to such a configuration, the robot body can be selectively moved in the manual movement mode and the automatic movement mode with respect to the movement along an arbitrary route. In addition, in the manual movement mode, while watching the movement of the enemy robot body, while changing the course sequentially, it is possible to take a strategy action that guides the robot body to the optimal attack posture, while automatically In the movement mode, by predicting the opponent's movement and setting the optimal movement route in advance, it is possible to provide enjoyment of watching over the outcome of the prediction result, making this kind of battle play more interesting. can do.

このとき、前記自動モードに設定中に、なんなからのボディーアクションが物体センサを介して検出されたとき、前記自動モードから前記手動モードへと動作モードを強制的に切り換える処理を含む、ものであってもよい。   At this time, including a process for forcibly switching the operation mode from the automatic mode to the manual mode when any body action is detected through the object sensor while the automatic mode is set. There may be.

このような構成によれば、自動移動モードに設定して移動中に、敵方ロボット本体に遭遇した又は移動軌跡が敵方ロボット本体の方角から外れたような場合には、直ちに、自動移動モードから手動移動モードへと切り換えることしにより、適切な対応を取ることが可能となる。   According to such a configuration, if the enemy robot body is encountered while moving with the automatic movement mode set, or if the movement locus deviates from the direction of the enemy robot body, the automatic movement mode is immediately By switching from the manual movement mode to the manual movement mode, an appropriate response can be taken.

さらに、前記ロボット玩具は、前記走行移動又は歩行移動を、左右2個のマイクにより敵方であるロボット本体から発せられる音を頼りに相手の方向を認識して、自発的にに進路を取りつつ行なうサーチ移動モードを有する、ものであってもよい。   Further, the robot toy recognizes the direction of the other party by relying on the sound emitted from the enemy robot body by the left and right microphones for the traveling movement or walking movement, and spontaneously taking a course. It may have a search movement mode to be performed.

このような構成によれば、敵と味方のロボット本体を離間して配置したとしても、それら2台のロボット本体は、互いに相手を探して独りでに接近するから、互いに攻撃動作を実行する対戦動作のみならず、対戦に至る前段階における行動についても、楽しむことができるから、この種の対戦遊びを一層興味深いものとすることができる。   According to such a configuration, even if the enemy and the ally robot main body are arranged apart from each other, the two robot main bodies approach each other in search of the other party, so that only the battle operation for performing the attack operation with each other is performed. Not only that, you can also enjoy the action in the previous stage leading to the battle, so this kind of battle play can be made more interesting.

<本発明にかかるロボット玩具における攻撃動作の制御方法>
本発明に係る方法は、1又は2以上の攻撃動作を実行可能なロボット本体を有するロボット玩具における攻撃動作の制御方法であって、前記ロボット本体の近辺に物体感知領域を有する物体センサからその出力を取り込むステップと、前記取り込まれた前記物体センサの出力に基づいて、前記物体感知領域における物体の状態により選択される1又は2以上の前記攻撃動作の実行を制御するステップとをコンピュータにより実行する、ものである。
<Control Method of Attack Action in Robot Toy According to the Present Invention>
The method according to the present invention is a method for controlling an attack operation in a robot toy having a robot main body capable of executing one or two or more attack operations, the output from an object sensor having an object sensing area in the vicinity of the robot main body. And a step of controlling execution of one or more of the attack operations selected according to the state of the object in the object sensing area based on the output of the captured object sensor. , That is.

このような構成によれば、前記ロボット本体の近辺に何らかの物体(例えば、指先、拳、掌、等々)を意図的に存在させかつその物体を所定の状態とするだけで、それらの攻撃動作の1又は2以上を選択して実行させることができるから、攻撃動作の1つを実行させるために、別途専用の操作部等の付属品を必要としない利点がある。   According to such a configuration, any object (for example, fingertip, fist, palm, etc.) is intentionally present in the vicinity of the robot body, and the object can be attacked only by bringing the object into a predetermined state. Since one or two or more can be selected and executed, there is an advantage that an accessory such as a dedicated operation unit is not required to execute one of the attack operations.

<本発明に係るロボット玩具における攻撃動作制御用のコンピュータプログラム>
本発明に係るコンピュータプログラムは、1又は2以上の攻撃動作を実行可能なロボット本体を有するロボット玩具における攻撃動作制御用のコンピュータプログラムであって、前記ロボット本体の近辺に物体感知領域を有する物体センサからその出力を取り込むステップと、前記取り込まれた前記物体センサの出力に基づいて、前記物体感知領域における物体の状態により選択される1又は2以上の前記攻撃動作の実行を制御するステップとを包含する、ものである。
<Computer Program for Attack Action Control in Robot Toy According to the Present Invention>
A computer program according to the present invention is a computer program for controlling an attack operation in a robot toy having a robot body capable of executing one or more attack operations, and has an object sensing area in the vicinity of the robot body. And the step of controlling execution of one or more of the attack operations selected according to the state of the object in the object sensing area based on the captured output of the object sensor. To do.

このような構成によれば、コンピュータにより実行されることにより、前記ロボット本体の近辺に何らかの物体(例えば、指先、拳、掌、等々)を意図的に存在させかつその物体を所定の状態とするだけで、それらの攻撃動作の1又は2以上を選択して実行させることができるから、攻撃動作の1つを実行させるために、別途専用の操作部等の付属品を必要としない利点がある。   According to such a configuration, when executed by the computer, some object (eg, fingertip, fist, palm, etc.) is intentionally present in the vicinity of the robot body, and the object is brought into a predetermined state. Only one or more of those attack actions can be selected and executed, so there is an advantage that no additional accessories such as a dedicated operation unit are required to execute one of the attack actions. .

<本発明に係るロボット玩具における攻撃動作制御用のコンピュータプログラムを格納した記録媒体>
本発明に係る記録媒体は、1又は2以上の攻撃動作を実行可能なロボット本体を有するロボット玩具における攻撃動作制御用のコンピュータプログラムを格納した記録媒体であって、前記コンピュータプログラムが、前記ロボット本体の近辺に物体感知領域を有する物体センサからその出力を取り込むステップと、前記取り込まれた前記物体センサの出力に基づいて、前記物体感知領域における物体の状態により選択される1又は2以上の前記攻撃動作の実行を制御するステップとを包含する、ものである。
<Recording medium storing computer program for controlling attacking action in robot toy according to the present invention>
A recording medium according to the present invention is a recording medium storing a computer program for controlling attacking motion in a robot toy having a robot body capable of executing one or more attacking operations, wherein the computer program is stored in the robot body. Capturing the output from an object sensor having an object sensing area in the vicinity of the object, and one or more of the attacks selected according to the state of the object in the object sensing area based on the captured output of the object sensor And controlling the execution of the operation.

このような構成によれば、コンピュータから読み取られることにより、前記ロボット本体の近辺に何らかの物体(例えば、指先、拳、掌、等々)を意図的に存在させかつその物体を所定の状態とするだけで、それらの攻撃動作の1又は2以上を選択して実行させることができるから、攻撃動作の1つを実行させるために、別途専用の操作部等の付属品を必要としない利点がある。   According to such a configuration, by reading from the computer, any object (for example, fingertip, fist, palm, etc.) is intentionally present in the vicinity of the robot body, and the object is only in a predetermined state. Since one or more of these attack operations can be selected and executed, there is an advantage that an accessory such as a dedicated operation unit is not required in order to execute one of the attack operations.

本発明によれば、前記ロボット本体の近辺に何らかの物体(例えば、指先、拳、掌、等々)を意図的に存在させかつその物体を所定の状態とするだけで、それらの攻撃動作の1又は2以上を選択して実行させることができるから、攻撃動作の1つを実行させるために、別途専用の遠隔操作部等の付属品を必要としないロボット玩具を提供することができる。   According to the present invention, any object (for example, fingertip, fist, palm, etc.) is intentionally present in the vicinity of the robot body, and only one of those attacking actions can be performed by simply bringing the object into a predetermined state. Since two or more can be selected and executed, it is possible to provide a robot toy that does not require an additional accessory such as a dedicated remote control unit in order to execute one of the attack operations.

図1は、本発明に係るロボット玩具の一例を斜め後方より見た外観斜視図(その1)である。FIG. 1 is an external perspective view (No. 1) of an example of a robot toy according to the present invention viewed obliquely from the rear. 図2は、物体検知と攻撃動作との関係を示す説明図(その1)である。FIG. 2 is an explanatory diagram (part 1) illustrating the relationship between object detection and attack operation. 図3は、2台のロボット玩具を用いた対戦遊びの説明図(その1)である。FIG. 3 is an explanatory diagram (part 1) of a battle play using two robot toys. 図4は、本発明に係るロボット玩具の一例を斜め後方より見た外観斜視図(その2)である。FIG. 4 is an external perspective view (part 2) of an example of the robot toy according to the present invention as viewed obliquely from the rear. 図5は、2台のロボット玩具を用いた対戦遊びの説明図(その2)である。FIG. 5 is an explanatory diagram (part 2) of a battle play using two robot toys. 図6は、物体検知と攻撃動作との関係を示す説明図(その2−1)である。FIG. 6 is an explanatory diagram (2-1) showing the relationship between object detection and attack operation. 図7は、物体検知と攻撃動作との関係を示す説明図(その2−2)である。FIG. 7 is an explanatory diagram (Part 2-2) illustrating the relationship between object detection and attack operation. 図8は、本発明に係るロボット玩具の一例を斜め後方より見た外観斜視図(その3)である。FIG. 8 is an external perspective view (No. 3) of an example of the robot toy according to the present invention viewed obliquely from the rear. 図9は、物体検知と攻撃動作との関係を示す説明図(その3)である。FIG. 9 is an explanatory diagram (part 3) illustrating the relationship between object detection and attack operation. 図10は、2台のロボット玩具を用いた対戦遊びの説明図(その3)である。FIG. 10 is an explanatory diagram (part 3) of a battle play using two robot toys. 図11は、本発明に係るロボット玩具の他の一例における物体検知と攻撃動作との関係を示す説明図である。FIG. 11 is an explanatory diagram showing the relationship between object detection and attack action in another example of the robot toy according to the present invention. 図12は、本発明に係るロボット玩具の一例における電気的ハードウェア構成を示す回路図(その1)である。FIG. 12 is a circuit diagram (No. 1) showing an electrical hardware configuration in an example of the robot toy according to the present invention. 図13は、本発明に係るロボット玩具の一例における電気的ハードウェア構成を示す回路図(その2)である。FIG. 13 is a circuit diagram (No. 2) showing an electrical hardware configuration in an example of the robot toy according to the present invention. 図14は、物体の接近速度検出のための受光部の構成を示す部分回路図である。FIG. 14 is a partial circuit diagram illustrating a configuration of a light receiving unit for detecting an approaching speed of an object. 図15は、ロボット玩具におけるソフトウェア構成の全体を概略的に示すゼネラルフローチャートである。FIG. 15 is a general flowchart schematically showing the entire software configuration of the robot toy. 図16は、感知領域コード設定処理の詳細フローチャートである。FIG. 16 is a detailed flowchart of the sensing area code setting process. 図17は、手動運転時処理の詳細フローチャートである。FIG. 17 is a detailed flowchart of the manual operation process. 図18は、検知物体の状態に応じたロボット動作の詳細フローチャート(左系)である。FIG. 18 is a detailed flowchart (left system) of the robot operation according to the state of the detected object. 図19は、自動運転時処理の詳細フローチャートである。FIG. 19 is a detailed flowchart of the automatic driving process. 図20は、プリセット歩行処理の詳細フローチャートである。FIG. 20 is a detailed flowchart of the preset walking process. 図21は、プリセット歩行動作の説明図である。FIG. 21 is an explanatory diagram of the preset walking operation. 図22は、プログラマブル歩行処理の詳細フローチャートである。FIG. 22 is a detailed flowchart of the programmable walking process. 図23は、サーチ方向処理の詳細フローチャートである。FIG. 23 is a detailed flowchart of search direction processing. 図24は、手動運転モードへの強制復帰処理のフローチャートである。FIG. 24 is a flowchart of the forcible return processing to the manual operation mode. 図25は、手動運転時処理の詳細フローチャート(その2)である。FIG. 25 is a detailed flowchart (part 2) of the manual operation process. 図26は、手動運転時処理の詳細フローチャート(その3)である。FIG. 26 is a detailed flowchart (part 3) of the manual operation process. 図27は、赤外線発光素子(LED)の指向特性を示すグラフである。FIG. 27 is a graph showing the directivity characteristics of an infrared light emitting element (LED).

以下に、本発明に係るロボット玩具の好適な幾つかの実施の形態を添付図面を参照しながら詳細に説明する。   Several preferred embodiments of a robot toy according to the present invention will be described below in detail with reference to the accompanying drawings.

<<各実施形態と図面との関係>>
・ロボット玩具の第1実施形態
機構的な構成:図1及び図27参照
電気的なハードウェア構成:図12参照
電気的なソフトウェア構成:図15〜図25参照
作用説明:図1〜図3参照
・第1実施形態の第1変形例
機構的な構成:図4参照
電気的なハードウェア構成:第1実施形態に同じ
電気的なソフトウェア構成:第1実施形態に同じ
作用説明:図5参照
・第1実施形態の第2変形例
機構的な構成:図8参照
電気的なハードウェア構成:第1実施形態に同じ
電気的なソフトウェア構成:第1実施形態に同じ
作用説明:図9及び図10参照
・第1実施形態の第3変形例
機構的な構成:第1実施形態に同じ
電気的なハードウェア構成:図12及び図14参照
電気的なソフトウェア構成:図25参照
作用説明:第1実施形態に同じ
・ロボット玩具の第2実施形態
機構的な構成:図6及び図7参照
電気的なハードウェア構成:図13参照
電気的なソフトウェア構成:図26参照
作用説明:図6及び図7参照
・ロボット玩具の他の実施形態
機構的な構成:図11参照
<< Relationship Between Each Embodiment and Drawing >>
First embodiment of robot toy Mechanical configuration: see FIGS. 1 and 27 Electrical hardware configuration: see FIG. 12 Electrical software configuration: see FIGS. 15-25 Action description: see FIGS. 1-3 First modification of the first embodiment Mechanical configuration: see FIG. 4 Electrical hardware configuration: the same as in the first embodiment Electrical software configuration: the same as in the first embodiment Action description: see FIG. Second Modification of First Embodiment Mechanical configuration: see FIG. 8 Electrical hardware configuration: the same as the first embodiment Electrical software configuration: the same as the first embodiment Action description: FIGS. 9 and 10 Reference-Third modification of the first embodiment Mechanical configuration: the same as the first embodiment Electrical hardware configuration: see FIGS. 12 and 14 Electrical software configuration: see FIG. 25 Description of operation: First embodiment Same as form Second embodiment of bot toy Mechanical structure: see FIGS. 6 and 7 Electrical hardware structure: see FIG. 13 Electrical software structure: see FIG. 26 Description of operation: see FIG. 6 and FIG. Other embodiments Mechanical configuration: see FIG.

<<第1実施形態の説明>>
−機構的な構成−
第1実施形態に係るロボット玩具の模式的外観図が図1に示されている。同図に示されるように、このロボット玩具は、ヒト型二足歩行式ロボットとして構成されたロボット本体1を有する。このロボット本体1は、頭部11と、胴部12と、背部13の他に、詳細は後述するところの、左右の腕部材及び左右の脚部材を有する。
<< Description of First Embodiment >>
-Mechanical structure-
A schematic external view of the robot toy according to the first embodiment is shown in FIG. As shown in the figure, this robot toy has a robot body 1 configured as a human-type biped robot. In addition to the head 11, the trunk 12, and the back 13, the robot body 1 includes left and right arm members and left and right leg members, details of which will be described later.

左右腕部材を構成する右の腕部材は、この例では、右肩部14a、右上腕部15a、右下腕部16a、及び右拳部17aを順に連接してなるものであり、同様にして、左右の腕部材を構成する左の腕部材は、この例では、左肩部14b、左上腕部15b、左下腕部16b、及び左拳部17bを順に連接して構成されている。   In this example, the right arm member constituting the left and right arm members is formed by sequentially connecting the right shoulder portion 14a, the upper right arm portion 15a, the lower right arm portion 16a, and the right fist portion 17a. In this example, the left arm member constituting the left and right arm members is configured by sequentially connecting the left shoulder portion 14b, the left upper arm portion 15b, the left lower arm portion 16b, and the left fist portion 17b.

左右の脚部材を構成する右の脚部材は、右の脚部18aと右の足部19aとを連接してなるものであり、足部19aの下面側には、スムーズな一方向床面移動を可能とするための小径車輪10aが備えられている。同様にして、左右の脚部材を構成する左の脚部材は、左の脚部18bと左の足部19bとを連接してなるものであり、足部19bの下面側には、スムーズな一方向床面移動を可能とするための小径車輪10bが備えられている。   The right leg member constituting the left and right leg members is formed by connecting the right leg portion 18a and the right foot portion 19a, and on the lower surface side of the foot portion 19a, smooth one-way floor movement is possible. A small-diameter wheel 10a is provided to enable this. Similarly, the left leg member constituting the left and right leg members is formed by connecting the left leg portion 18b and the left foot portion 19b, and a smooth one is provided on the lower surface side of the foot portion 19b. A small-diameter wheel 10b is provided to enable directional floor movement.

そして、このロボット本体1は、右パンチによる攻撃動作と左パンチによる攻撃動作とからなる2種類の攻撃動作を任意のタイミングにて実行可能に構成されている。   The robot main body 1 is configured to be able to execute two types of attack operations consisting of an attack operation by a right punch and an attack operation by a left punch at an arbitrary timing.

ここで、右パンチによる攻撃動作とは、図1に示される上腕部15aと下腕部16aとが屈曲された待機状態から、上腕部15aをその上端部を支点として、回動軸線A1の周りに半時計回りに回転させつつ、屈曲された上腕部15aと下腕部16aとを伸張させることにより、右拳部17aを前方へと突き出す動作である(図2参照)。   Here, the attacking action by the right punch means that the upper arm portion 15a and the lower arm portion 16a shown in FIG. 1 are bent from the standby state around the rotation axis A1 with the upper arm portion 15a as a fulcrum. This is an operation of projecting the right fist portion 17a forward by extending the bent upper arm portion 15a and lower arm portion 16a while rotating counterclockwise (see FIG. 2).

なお、このとき、右パンチを繰り出すと同時に、左脚部18aは後方へと床面を蹴る一方、右脚部18aは前方へと踏み出すことにより、左へ旋回しつつ、一歩前進する動作が行われる。しかるのち、直ちに、上腕部15aと下腕部16aは再び屈曲された待機状態へと戻されると共に、左脚部18bは前方へと引き寄せられて、左右の脚部が揃った待機状態へと復帰する。   At this time, the left leg 18a kicks the floor backward while the right leg is fed out, while the right leg 18a steps forward to move leftward and move forward one step. Is called. Thereafter, the upper arm portion 15a and the lower arm portion 16a are immediately returned to the bent standby state, and the left leg portion 18b is drawn forward to return to the standby state in which the left and right leg portions are aligned. To do.

同様にして、左パンチによる攻撃動作とは、図1に示される上腕部15bと下腕部16bとが屈曲された待機状態から、上腕部15bをその上端部を支点として、回動軸線A1の周りに時計回りに回転させつつ、屈曲された上腕部15bと下腕部16bとを伸張させることにより、左拳部17bを前方へと突き出す動作である。   Similarly, the attacking action by the left punch refers to the state of the rotation axis A1 from the standby state in which the upper arm 15b and the lower arm 16b shown in FIG. 1 are bent, with the upper arm 15b as the fulcrum. This is an operation of projecting the left fist portion 17b forward by extending the bent upper arm portion 15b and lower arm portion 16b while rotating clockwise.

なお、このとき、左パンチを繰り出すと同時に、左脚部18bは後方へと床面を蹴る一方、左脚部18bは前方へと踏み出すことにより、右へ旋回しつつ、一歩前進する動作が行われる。しかるのち、直ちに、上腕部15bと下腕部16bは再び屈曲された待機状態へと戻されると共に、右脚部18aは前方へと引き寄せられて、左右の脚部が揃った待機状態へと復帰する。   At this time, the left leg 18b kicks the floor surface backward while the left punch is fed out, while the left leg 18b steps forward to perform a step forward while turning right. Is called. Thereafter, the upper arm portion 15b and the lower arm portion 16b are immediately returned to the bent standby state, and the right leg portion 18a is drawn forward and returned to the standby state in which the left and right leg portions are aligned. To do.

上述のパンチ繰り出し動作とこれに連動する歩進動作とは、この種の闘争用ロボット玩具において従来よりしばしば採用されている動作であり、当業者にはよく知られているように、特許第5426775号公報に代表される単一モータ式の上下肢駆動機構等により実現することができる。概説すれば、ロボット本体1の胴部12には、その回転軸を鉛直姿勢にして1個のモータが支持されており、このモータの駆動軸に連接された歯車列を介して左右一対の押圧レバーが、モータの回転方向に応じて、垂直軸線の周りに右回り又は左周りに回転し、これらのレバーにより、左右の上腕部15a.15bの回動軸線A1に連携する部材、及び左右の脚部18a,18bの回動軸線A3に連携する部材に力が作用することで、目的とするパンチ繰り出し動作及び歩進動作が実現される。   The above-described punch feeding operation and the stepping operation linked thereto are operations that are often used in this type of fighting robot toy, and as is well known to those skilled in the art, as disclosed in Japanese Patent No. 5426775. It can be realized by a single motor type upper and lower limb drive mechanism represented by No. Gazette. In brief, the body 12 of the robot body 1 supports a single motor with its rotating shaft in a vertical posture, and a pair of left and right presses via a gear train connected to the drive shaft of the motor. Depending on the direction of rotation of the motor, the lever rotates clockwise or counterclockwise around the vertical axis, and these levers cause the left and right upper arms 15a. A force is applied to the member associated with the rotation axis A1 of 15b and the member associated with the rotation axis A3 of the left and right legs 18a, 18b, thereby realizing the target punch feeding operation and stepping operation. .

次に、本発明に係るロボット玩具の要部について、説明する。上述のロボット本体には、ロボット本体の近辺に物体感知領域を有する物体センサと、物体センサの出力に基づいて、物体感知領域における物体の状態により選択される1又は2以上の攻撃動作の実行を制御する制御部が設けられている。   Next, the main part of the robot toy according to the present invention will be described. The robot body described above executes an object sensor having an object sensing area in the vicinity of the robot body, and executes one or more attack operations selected according to the state of the object in the object sensing area based on the output of the object sensor. A control unit for controlling is provided.

この例にあっては、物体センサとしては、2個の赤外線投光部2a,2bと2個の赤外線受光部3a,3bとから構成される反射式物体センサが採用されている。すなわち、図1に示されるように、それらの投光部2a,2b及び受光部3a,3bは、ロボット本体1の背部13の表面に横一列に配置されている。すなわち、左右方向の中央寄りの右側には、赤外線投光部2aが、また左右方向の中央寄りの左側には、赤外線投光部2bがそれぞれ配置される。左右方向の外側寄りの右側には、赤外線受光部3aが、また左右方向の外側寄りの左側には、赤外光受光部73bが配置される。   In this example, a reflective object sensor composed of two infrared light projecting units 2a and 2b and two infrared light receiving units 3a and 3b is employed as the object sensor. That is, as shown in FIG. 1, the light projecting portions 2 a and 2 b and the light receiving portions 3 a and 3 b are arranged in a horizontal row on the surface of the back portion 13 of the robot body 1. That is, the infrared projector 2a is arranged on the right side near the center in the left-right direction, and the infrared projector 2b is arranged on the left side near the center in the left-right direction. The infrared light receiving unit 3a is arranged on the right side near the outside in the left-right direction, and the infrared light receiving unit 73b is arranged on the left side near the outside in the left-right direction.

赤外線投光部2a,2bを構成する赤外線発光素子としては、図27に示されるように、ある程度の指向性を有する表面実装型の素子25が採用される。図1において拡大されて示されるように、この例にあっては、赤外線投光部2bは、矩形の薄皿上フレーム26と、この薄皿状フレーム26内にあって、左右の支点P1,P2により回動自在に支持されて、垂直方向へと角度調整可能な窓枠状フレーム27と、この窓枠状フレーム27内にあって、上下の支点P3,P4により回動自在に支持されて、水平方向へと角度調整可能な素子部品25とから構成されている。そのため、この赤外線受光部2a,2bは、その照射光軸を水平及び垂直方向へと角度調整可能となされ、これを利用することで、後述する感知小領域4a,4bの設定が容易となるように配慮されている。   As the infrared light emitting elements constituting the infrared light projecting portions 2a and 2b, as shown in FIG. 27, a surface mount type element 25 having a certain degree of directivity is employed. As shown in an enlarged view in FIG. 1, in this example, the infrared light projecting portion 2 b is in a rectangular thin dish upper frame 26 and in the thin dish shaped frame 26, and the left and right fulcrums P 1, A window frame-shaped frame 27 that is rotatably supported by P2 and is adjustable in angle in the vertical direction, and is rotatably supported by upper and lower fulcrums P3 and P4 in the window frame-shaped frame 27. The element part 25 is adjustable in angle in the horizontal direction. Therefore, the infrared light receiving units 2a and 2b can adjust the angle of the irradiation optical axis in the horizontal and vertical directions, and using this makes it easy to set the sensing small areas 4a and 4b described later. Is considered.

赤外線投光部2aの照射光軸は斜め左方向へ指向されており、赤外線投光部2bの照射光軸は斜め左方向へと指向されている。そのため、赤外線投光部2aから発せられる赤外光と赤外線投光部2bから発せられる赤外光とは、少なくとも、感知距離内においては干渉することかないように設定されている。なお、後述するように、赤外線投光部2a,2bから発せられる赤外光は、所定のキャリア周波数にて変調されるとともに、それぞれ小領域4a,4bに固有な領域コードにて変調(エンコード)されている。   The irradiation optical axis of the infrared light projecting unit 2a is directed diagonally to the left, and the irradiation optical axis of the infrared light projecting unit 2b is directed diagonally to the left. Therefore, the infrared light emitted from the infrared projector 2a and the infrared light emitted from the infrared projector 2b are set so as not to interfere at least within the sensing distance. As will be described later, the infrared light emitted from the infrared light projecting units 2a and 2b is modulated at a predetermined carrier frequency and modulated (encoded) with an area code unique to each of the small areas 4a and 4b. Has been.

赤外線受光部3aは、赤外線投光部2aから発せられたのち、何らかの物体で反射された反射赤外光を主として受光するように指向され、赤外線受光部3bは、赤外線投光部2bから発せられたのち、何らかの物体で反射された反射赤外光を主として受光するように指向されている。もっとも、勿論、赤外線受光部3a,3bのそれぞれにおいて、互いに意図しない赤外線投光素子2b,2aに起因する反射光を完全に遮断することは不可能であるが、受光部の出力側にてデコード処理並びにコード一致判定処理を施すことにより、物体位置を誤認する混信障害は防ぐことができる。   The infrared light receiving unit 3a is directed so as to mainly receive reflected infrared light reflected by some object after being emitted from the infrared light projecting unit 2a, and the infrared light receiving unit 3b is emitted from the infrared light projecting unit 2b. After that, it is directed to mainly receive reflected infrared light reflected by some object. Of course, in each of the infrared light receiving portions 3a and 3b, it is impossible to completely block the reflected light caused by the unintended infrared light projecting elements 2b and 2a, but decoding is performed on the output side of the light receiving portion. By performing the processing and the code matching determination processing, it is possible to prevent interference interference that misidentifies the object position.

赤外線投光部2a,2bの投光強度及び赤外線受光部3a,3bの受光感度を適切に設定することにより、ロボット本体1の背後における比較的近辺に、右側の物体感知小領域4aと左側の物体感知小領域4bとを設定することができる。なお、図において、ハッチングで示される5a,5bは、それぞれ、右側の物体感知小領域4aの感知限界距離の断面、左側の物体感知小領域4bの感知限界距離の断面を模式的に図示したものである。   By appropriately setting the light projection intensity of the infrared light projecting units 2a and 2b and the light receiving sensitivity of the infrared light receiving units 3a and 3b, the right object sensing small area 4a and the left side of the robot body 1 are relatively close to each other. The object sensing small area 4b can be set. In the figure, 5a and 5b indicated by hatching schematically show a cross section of the detection limit distance of the right object detection subregion 4a and a cross section of the detection limit distance of the left object detection subregion 4b, respectively. It is.

このように、図示のロボット本体1においては、赤外線投光部2a,2bと赤外線受光部3a,3bとにより、ロボット本体1の背後近辺に物体感知領域4a,4bを有する物体センサが構成される。   As described above, in the illustrated robot body 1, the infrared light projecting units 2a and 2b and the infrared light receiving units 3a and 3b constitute an object sensor having object sensing areas 4a and 4b in the vicinity of the back of the robot body 1. .

−電気的なハードウェア構成−
第1実施形態に係るロボット玩具の電気的なハードウェア構成が、図12の回路図に示されている。同図に示されるように、この回路の全体は、ロボット本体1側に組み込まれるものであって、電源回路部と、投光回路部と、受光回路部と、ロボット駆動部と、サウンド送受回路部と、各種設定操作部と、制御部として機能する中央処理部とから概略構成されている。
-Electrical hardware configuration-
The electrical hardware configuration of the robot toy according to the first embodiment is shown in the circuit diagram of FIG. As shown in the figure, the entire circuit is incorporated on the robot body 1 side, and includes a power supply circuit unit, a light projecting circuit unit, a light receiving circuit unit, a robot driving unit, and a sound transmission / reception circuit. Unit, various setting operation units, and a central processing unit functioning as a control unit.

電源処理部は、2個の電池101a,101bからなり、電源スイッチ102の投入により、回路全体へと通電可能となるように構成されている。   The power supply processing unit includes two batteries 101a and 101b, and is configured to be able to energize the entire circuit when the power switch 102 is turned on.

投光回路部は、赤外線投光部2aに含まれる赤外線発光ダイオード103aと、赤外線投光部2bに含まれる赤外線発光ダイオード103bと、右領域コードによる赤外線エンコード用のトランジスタ104a、左領域コードによる赤外線エンコード用のトランジスタ104bと、キャリア生成用のトランジスタ105とを含んで構成される。   The light projecting circuit unit includes an infrared light emitting diode 103a included in the infrared light projecting unit 2a, an infrared light emitting diode 103b included in the infrared light projecting unit 2b, an infrared encoding transistor 104a using a right region code, and an infrared using a left region code. An encoding transistor 104b and a carrier generation transistor 105 are included.

受光回路部は、赤外線受光部3aに対応する受光部IC106aと、赤外線受光部3bに対応する受光部IC106bとを含んで構成される。受光部IC106a,106bは、それぞれ受光した赤外線反射光を光電変換したのち、キャリア周波数成分の抽出、並びに、復調処理を行って、領域コードを復調する作用を有する。   The light receiving circuit unit includes a light receiving unit IC 106a corresponding to the infrared light receiving unit 3a and a light receiving unit IC 106b corresponding to the infrared light receiving unit 3b. The light receiving parts IC 106a and 106b have a function of demodulating the region code by performing photoelectric conversion of the received infrared reflected light and then performing extraction of carrier frequency components and demodulation processing.

ロボット駆動部は、ロボット本体のパンチ動作や歩進動作を行うためのモータ114と、モータ114への通電方向並びに通電電流の増減を行うためのH型トランジスタブリッジ回路IC113とを含んで構成される。ワンチップ・マイコン108のポートP23が第1の論理値(例えば、High)、ポートP24が第2の論理値(例えば、Low)のとき、モータ114に対して第1の方向の電流が流れて、モータ114は第1の方向へと回転し、ロボット本体においては、先に説明した右パンチ動作及び右脚歩進動作が実行される。このとき、ポートP23から所定のディーティ比を有するPWMパルス列を出力することで、モータ114の電流値をPWM制御することができる。   The robot drive unit includes a motor 114 for performing a punching operation and a stepping operation of the robot body, and an H-type transistor bridge circuit IC 113 for increasing and decreasing the energization direction and energization current to the motor 114. . When the port P23 of the one-chip microcomputer 108 has a first logic value (for example, High) and the port P24 has a second logic value (for example, Low), a current in the first direction flows to the motor 114. The motor 114 rotates in the first direction, and the above-described right punching operation and right leg stepping operation are executed in the robot body. At this time, the current value of the motor 114 can be PWM-controlled by outputting a PWM pulse train having a predetermined duty ratio from the port P23.

逆に、ポートP23が第2の論理値(例えば、Low)、ポートP24が第1の論理値(例えば、High)のとき、モータ114に対して第2の方向の電流が流れて、モータ114は第2の方向へと回転し、ロボット本体においては、先に説明した左パンチ動作及び左脚歩進動作が実行される。このとき、ポートP24から所定のディーティ比を有するPWMパルス列を出力することで、モータ114の電流値をPWM制御することができる。   Conversely, when the port P23 is at the second logic value (eg, Low) and the port P24 is at the first logic value (eg, High), a current in the second direction flows to the motor 114, and the motor 114 Rotates in the second direction, and the robot body performs the left punching operation and the left leg stepping motion described above. At this time, the current value of the motor 114 can be PWM-controlled by outputting a PWM pulse train having a predetermined duty ratio from the port P24.

サウンド送受回路部は、当該ロボット本体に固有なサウンドを発するスピーカ112と、敵方であるロボット本体から発せられるサウンドを聴き取る左側マイク109a及び右側マイク109bと、左側マイク109aの出力を増幅及びA/D変換するA/Dコンバータ110aと、右側マイク109bの出力を増幅及びA/D変換するA/Dコンバータ110bとを含んで構成される。   The sound transmission / reception circuit unit amplifies the output of the speaker 112 that emits a sound unique to the robot body, the left microphone 109a and the right microphone 109b that listen to the sound emitted from the enemy robot body, and the output of the left microphone 109a. An A / D converter 110a that performs / D conversion and an A / D converter 110b that amplifies and A / D converts the output of the right microphone 109b.

ここで、左側のマイク109a及び右側のマイク109bとしては、ある程度の指向性を有するものが採用され、それにより、左側のマイク109aは主として左前方からのサウンドを集中的に聴き取るように、また右側のマイク109bは主として右前方からのサウンドを集中的に聴き取るように仕向けるられている。   Here, as the left microphone 109a and the right microphone 109b, those having a certain degree of directivity are employed, so that the left microphone 109a mainly listens to the sound from the left front, and so on. The right microphone 109b is mainly set to listen mainly to the sound from the right front.

各種設定操作部は、領域コードその他各種の処理に必要な情報を設定するためのDIPスイッチ111により構成される。   The various setting operation units include a DIP switch 111 for setting area codes and other information necessary for various processes.

中央処理部は、マイクロプロセッサ、ROM、RAM、及び各種の周辺回路(例えば、サウンド合成LSI)等々をワンチップ化してなるワンチップ・マイクロコンピュータ(ワンチップ・マイコン)108により構成され、後述する各種のコンピュータ・プログラム(図15〜図26)を実行することにより、ロボット玩具として必要な各種の機能を実現するように構成されている。   The central processing unit is constituted by a one-chip microcomputer (one-chip microcomputer) 108 formed by integrating a microprocessor, a ROM, a RAM, various peripheral circuits (for example, a sound synthesis LSI), etc. into one chip. By executing the computer program (FIGS. 15 to 26), various functions required as a robot toy are realized.

なお、図示の構成では、2個の物体感知小領域4a,4bを有する物体センサを構成するについて、2個の赤外線受光部3a,3bを使用したが、それらの感知小領域4a,4bのそれぞれにおいて、投光の干渉の虞がないのであれば、それらの受光部3a,3bは2個の投光部2a,2bの中間に置かれた共通な1個の受光部で代用することもできる。   In the configuration shown in the figure, the two infrared light receiving portions 3a and 3b are used to construct the object sensor having the two object sensing small areas 4a and 4b. However, each of the sensing small areas 4a and 4b is used. However, if there is no possibility of interference of light projection, the light receiving portions 3a and 3b can be replaced by a common light receiving portion placed between the two light projecting portions 2a and 2b. .

−電気的なソフトウェア構成−
ロボット玩具におけるソフトウェア構成の全体を示すゼネラルフローチャートが図15に示されている。同図(a)に示されるように、電源投入により処理が開始されると、先ず、イニシャライズ処理(ステップ101)により、演算用の各種フラグやレジスタ等々の初期化処理が行われると共に、本発明に係る感知領域コード設定処理が実行される。
-Electrical software configuration-
A general flowchart showing the entire software configuration of the robot toy is shown in FIG. As shown in FIG. 5A, when the processing is started by turning on the power, first, initialization processing (step 101) is performed to initialize various flags and registers for calculation, and the present invention. The sensing area code setting process is executed.

感知領域コード設定処理の詳細が図16に示されている。この例では、最大4台のロボット本体を使用して4人の遊技者が対戦遊びに参加するものとし、そのうち任意の2台を使用して対戦させても、混信が起きることのないよう、DIPスイッチ111の号機設定に応じて、ロボット本体同士で、領域コードに重複が生じないように配慮している。   Details of the sensing area code setting process are shown in FIG. In this example, it is assumed that four players will participate in the battle game using a maximum of four robot bodies, and interference will not occur even if any two of them are used for battle. In consideration of the setting of the machine number of the DIP switch 111, consideration is given so that the robot codes do not overlap in the area code.

すなわち、処理が開始されるとろ、DIPスイッチ111の設定の読み込みが行われ(ステップ201)、さらに、号機番号の判読がなされたのち(ステップ202)、各号機番号に応じて最適な左右の領域コードの設定が行われる。すなわち、1号機と判定されると(ステップ203YES)、左領域コートは「A」及び右領域コードは「B」と設定され(ステップ204)、2号機と判定されると(ステップ205)、左領域コートは「C」及び右領域コードは「D」と設定され(ステップ206)、3号機と判定されると(ステップ207YES)、左領域コートは「E」及び右領域コードは「F」と設定され(ステップ208)、さらに4号機と判定されると(ステップ209YES)、左領域コートは「G」及び右領域コードは「H」と設定される(ステップ210)。   That is, when the process is started, the setting of the DIP switch 111 is read (step 201), and after the machine number is read (step 202), the right and left areas optimum for each machine number are read. The code is set. That is, when it is determined that the vehicle is No. 1 (step 203 YES), the left area code is set to “A” and the right area code is “B” (step 204). The area code is set to “C” and the right area code is set to “D” (step 206). When it is determined that the third machine is No. 3 (step 207 YES), the left area code is set to “E” and the right area code is set to “F”. If it is set (step 208) and it is further determined that it is No. 4 (step 209 YES), the left area code is set to “G” and the right area code is set to “H” (step 210).

図15(a)に戻って、イニシャライズ処理(ステップ101)が終了すると、ルーチン処理への移行が行われ、先ず、DIPスイッチ111から運転モード設定の読み込みが行われる(ステップ102)。次いで、運転モードの判定が行われ(ステップ103)、ここで、運転モードが「手動」と判定されると(ステップ103「手動」)、手動運転時処理(ステップ104)が実行されるのに対して、運転モードが「自動」と判定されると(ステップ103「自動」)、自動運転時処理(ステップ105)が実行される。以後、所定の終了処理(例えば、DIPスイッチ111のリセット)が行われるまで、以上の動作(ステップ102〜106)が繰り返される。   Returning to FIG. 15 (a), when the initialization process (step 101) is completed, a shift to a routine process is performed. First, the operation mode setting is read from the DIP switch 111 (step 102). Next, the operation mode is determined (step 103). When the operation mode is determined to be “manual” (step 103 “manual”), the manual operation process (step 104) is executed. On the other hand, when it is determined that the operation mode is “automatic” (step 103 “automatic”), an automatic operation process (step 105) is executed. Thereafter, the above operation (steps 102 to 106) is repeated until a predetermined end process (for example, reset of the DIP switch 111) is performed.

この間、微少の一定時間毎にタイマ割り込みによって、一連の処理(ステップ107〜109)が繰り返し実行される。   In the meantime, a series of processes (steps 107 to 109) are repeatedly executed by a timer interrupt every minute fixed time.

ここで、キャリア変調処理(ステップ107)では、マイコン108のポートP13からキャリア周波数のパルス列を出力して、トランジスタ105をスイッチングさせることで、左右の赤外線発光ダイオード103a,103bから発せられる赤外光をキャリア周波数で変調する。   Here, in the carrier modulation process (step 107), a pulse train having a carrier frequency is output from the port P13 of the microcomputer 108, and the transistor 105 is switched to generate infrared light emitted from the left and right infrared light emitting diodes 103a and 103b. Modulate with carrier frequency.

右側発光部変調処理(ステップ108)では、マイコン108のポートP21から右領域コードに相当するパルス列を出力することで、トランジスタ104aをこれに同期してスイッチングさせ、右側の赤外線発光ダイオード104aから発せられる光を右領域コードで変調(エンコード)する。   In the right side light emitting unit modulation processing (step 108), a pulse train corresponding to the right region code is output from the port P21 of the microcomputer 108, whereby the transistor 104a is switched in synchronization therewith and emitted from the right infrared light emitting diode 104a. The light is modulated (encoded) with the right region code.

左側発光部変調処理(ステップ109)では、マイコン108のポートP22から左領域コードに相当するパルス列を出力することで、トランジスタ104bをこれに同期してスイッチングさせ、左側の赤外線発光ダイオード104bから発せられる光を左領域コードで変調(エンコード)する。   In the left side light emitting unit modulation processing (step 109), a pulse train corresponding to the left region code is output from the port P22 of the microcomputer 108, whereby the transistor 104b is switched in synchronization therewith and emitted from the left infrared light emitting diode 104b. The light is modulated (encoded) with the left region code.

図15(a)に戻って、手動運転時処理(ステップ104)の詳細が図17に示されている。同図に示されるように、処理が開始されると、先ず、マイコン108のポートP14から受光部IC106bの出力を読み込むことにより(ステップ301)、反射光の有無を判定する(ステップ302)。ここで、反射光ありと判定されると(ステップ302YES)、読み取りコードの解読が行われ(ステップ303)、予め設定された左側領域コードとの一致が確認されたときに限り(ステップ304YES)、左系に関する検出物体の状態に応じた処理(ステップ305)が実行される。   Returning to FIG. 15A, details of the manual operation process (step 104) are shown in FIG. As shown in the figure, when the process is started, first, by reading the output of the light receiving unit IC 106b from the port P14 of the microcomputer 108 (step 301), the presence or absence of reflected light is determined (step 302). Here, when it is determined that there is reflected light (step 302 YES), the read code is decoded (step 303), and only when a match with the preset left region code is confirmed (step 304 YES), A process (step 305) corresponding to the state of the detected object relating to the left system is executed.

左系に関する検出物体の状態に応じた処理(ステップ305)の詳細が図18に示されている。同図に示されるように、処理が開始されると、先ず、左側領域コードとの一致が初回一致であるかの判定が行われる(ステップ401)。ここで、遊技者が左パンチに相当するボディーアクションを行ったことで、その左拳が左側の感知小領域4bに侵入すると、その瞬間に、初回一致の判定が行われる。そして、初回一致と判定されると(ステップ401YES)、左パンチ動作及び左足の歩進動作が単発的に実行され(ステップ402)、ロボット本体1は左パンチを繰り出すと共に、やや右に旋回しつつ一歩前進する。一方、初回一致ではないと判定されると(ステップ401NO)、続いて、連続一致回数がN回を超えたかの判定が行われる(ステップ403)。ここで、遊技者が左パンチに相当するボディーアクションを行ったことで、その左拳が左側の感知小領域4bに一定時間以上とどまっていると、連続一致回数がN回を超えたとの判定が行われる。そして、連続一致回数がN回を超えたとの判定が行われると(ステップ403YES)、左右交互のパンチ動作及び左右足交互の歩進動作が一定時間、一定回数、又は左拳がその状態に維持される限り、繰り返し的に実行される(ステップ404)。   The details of the processing (step 305) corresponding to the state of the detected object relating to the left system are shown in FIG. As shown in the figure, when the process is started, it is first determined whether or not the match with the left region code is the first match (step 401). Here, when the player performs the body action corresponding to the left punch and the left fist enters the left sensing small area 4b, the first match determination is performed at that moment. If it is determined as the first match (YES in step 401), the left punching operation and the left foot stepping operation are executed in a single operation (step 402), and the robot body 1 extends the left punch and turns slightly to the right. Take one step forward. On the other hand, if it is determined that it is not the first match (NO in step 401), it is subsequently determined whether the number of consecutive matches exceeds N (step 403). Here, if the player performs a body action corresponding to the left punch, and the left fist stays in the left sensing small area 4b for a certain time or more, it is determined that the number of consecutive matches has exceeded N times. Done. If it is determined that the number of consecutive matches exceeds N (step 403 YES), the left and right alternating punching operation and the left and right foot alternating stepping operation are maintained for a certain period of time, a certain number of times, or the left fist is kept in that state. As long as it is done, it is executed repeatedly (step 404).

なお、初回一致でもなく(ステップ401NO)、かつ連続一致回数がN回を超えていないと判定されると(ステップ403NO)、単発的処理(ステップ402)及び繰り返し的処理(ステップ404)はいずれも実行されずに、処理は終了する。   If it is not the first match (NO in step 401) and it is determined that the number of consecutive matches does not exceed N (NO in step 403), both the one-shot process (step 402) and the iterative process (step 404) are performed. The process ends without being executed.

図17に戻って、左受光出力に基づいて反射光なしと判定されると(ステップ302NO)、続いてマイコン108のポートP12から受光部IC106aの出力を読み込むことにより(ステップ306)、反射光の有無を判定する(ステップ307)。ここで、反射光ありと判定されると(ステップ307YES)、読み取りコードの解読が行われ(ステップ308)、予め設定された右側領域コードとの一致が確認されたときに限り(ステップ309YES)、右系に関する検出物体の状態に応じた処理(ステップ305)が実行される。   Returning to FIG. 17, when it is determined that there is no reflected light based on the left light reception output (NO in step 302), the output of the light receiving unit IC 106a is read from the port P12 of the microcomputer 108 (step 306). The presence or absence is determined (step 307). Here, if it is determined that there is reflected light (step 307 YES), the read code is decoded (step 308), and only when a match with the preset right region code is confirmed (step 309 YES), Processing according to the state of the detected object related to the right system (step 305) is executed.

右系に関する検出物体の状態に応じた処理(ステップ305)の詳細については、図18に示されフローチャートにおいて、左と右とを入れ替えるだけであるから、特に図示はしないが、遊技者が右パンチに相当するボディーアクションを行ったことで、その右拳が右側の感知小領域4aに侵入すると、その瞬間に、初回一致の判定が行われる。そして、初回一致と判定されると、右パンチ動作及び右足の歩進動作が単発的に実行され、ロボット本体1は右パンチを繰り出すと共に、やや左に旋回しつつ一歩前進する。一方、遊技者が右パンチに相当するボディーアクションを行ったことで、その右拳が右側の感知小領域4aに一定時間以上とどまっていると、連続一致回数がN回を超えたとの判定が行われる。そして、連続一致回数がN回を超えたとの判定が行われると、左右交互のパンチ動作及び左右足交互の歩進動作が一定時間、一定回数、又は左拳がその状態に維持される限り、繰り返し的に実行される。   The details of the process according to the state of the detected object relating to the right system (step 305) are merely shown in FIG. 18 where the left and the right are interchanged. When the right fist enters the right sensitive small area 4a by performing the body action corresponding to, the first match determination is performed at that moment. When it is determined as the first match, the right punching operation and the right foot stepping operation are executed in a single shot, and the robot body 1 advances the right punch and moves forward one step while turning slightly to the left. On the other hand, if the player has performed a body action equivalent to a right punch and the right fist stays in the right sensing small area 4a for a certain period of time, it is determined that the number of consecutive matches has exceeded N times. Is called. And if it is determined that the number of consecutive matches exceeds N times, as long as the left and right alternating punching operation and the left and right foot alternating stepping operation are maintained for a certain period of time, a certain number of times, It is executed repeatedly.

なお、初回一致でもなく、かつ連続一致回数がN回を超えていないと判定されると、単発的処理及び繰り返し的処理はいずれも実行されずに、処理は終了する。   If it is not the first match and it is determined that the number of continuous matches does not exceed N times, neither the single process nor the repetitive process is executed, and the process ends.

したがって、この手動運転モードによれば、遊技者は、例えば、左右交互のパンチ動作に相当するボディーアクションを右側の感知小領域4a及び左側の感知小領域4bに対して繰り返すことで、当該ロボット本体を前方へと歩進させたり、右パンチに相当するボディーアクションの頻度を増すことで当該ロボット本体を左旋回させつつ歩進させたり、逆に、右パンチに相当するボディーアクションの頻度を増すことで当該ロボット本体を左旋回させつつ歩進させたりすることができるから、これを利用すれば、敵方のロボット本体の動きを観察しながら、自己のロボット本体を任意の経路で歩進させつつ、敵方のロボット本体へと接近させることができる。   Therefore, according to this manual operation mode, for example, the player repeats the body action corresponding to the left and right alternating punching operations on the right sensing small area 4a and the left sensing small area 4b, thereby the robot body. Step forward, increase the frequency of body action equivalent to right punch, or turn the robot body while turning left, or conversely increase the frequency of body action equivalent to right punch The robot body can be stepped while turning left, so if this is used, the robot body can be stepped along an arbitrary route while observing the movement of the enemy robot body. , You can approach the enemy robot body.

そして、ひとたび接近したのちにあっては、右側の感知小領域4a及び左側の感知小領域4bに対して、右パンチ又は左パンチに相当するボディーアクションを適宜のタイミングで実行することで、自己のロボット本体から右パンチ又は左パンチによる攻撃動作を実行させたり、右パンチ又は左パンチに相当するボディーアクションに続いて、右又は左拳の突き出し状態を保持することで、自己のロボット本体から左右のパンチの連打による攻撃を実行させることができる。   Once approached, the body action corresponding to the right punch or the left punch is executed at an appropriate timing on the right sensing small area 4a and the left sensing small area 4b. By performing an attack action with the right or left punch from the robot body, or holding the right or left fist protruding state following the body action corresponding to the right or left punch, It is possible to execute an attack by repeated punches.

図15に戻って、自動運転時処理(ステップ105)の詳細が図19に示されている。同図に示されるように、処理が開始されると、先ず、図示しない設定器から歩行モード設定を読み込んだのち(ステップ501)、歩行モードが「プリセット」、「プログラマブル」、又は「サーチ」のいずれであるかを判定する(ステップ502)。   Returning to FIG. 15, the details of the automatic driving process (step 105) are shown in FIG. As shown in the figure, when the process is started, the walking mode setting is first read from a setting device (not shown) (step 501), and then the walking mode is set to “preset”, “programmable”, or “search”. Which one is determined (step 502).

ここで、「プリセット」と判定された場合には(ステップ502「プリセット」)、プリセット歩行処理(ステップ503)が、「プログラマブル」と判定された場合には(ステップ502「プログラマブル」)、プログラマブル歩行処理(ステップ504)が、「サーチ」と判定された場合には(ステップ502「サーチ」)、サーチ歩行処理(ステップ505)がそれぞれ実行される。   Here, when it is determined as “preset” (step 502 “preset”), when the preset walking process (step 503) is determined as “programmable” (step 502 “programmable”), programmable walking is performed. When the process (step 504) is determined as “search” (step 502 “search”), a search walking process (step 505) is executed.

プリセット歩行処理(ステップ503)の詳細が図20に示されている。同図に示されるように、処理が開始されると、図示しない設定器から歩行パターン設定を読み込んだのち(ステップ601)、歩行パターンが「8の字」、「直進」、又は「矩形」のいずれであるかの判定が行われる。ここで、図21(a)に示されるように、ワンチップ・マイコン108のROM内に設けられた歩行パターン記憶部には、ステップ番号と歩進データとが対となって予め複数パターンに亘り記憶されている。各パターンの記憶内容は、図21(b)に示される直進歩行パターン、8の字歩行パターン、及び矩形歩行パターンのそれぞれに対応している。すなわち、ステップ番号を更新しつつ、順次に、歩進データを読み出して、指定される歩進動作を行えば、当該ロボット本体は独りでに、直進歩行、8の字歩行、及び矩形歩行を実行可能になされている。   Details of the preset walking process (step 503) are shown in FIG. As shown in the figure, when the processing is started, after the walking pattern setting is read from a setting device (not shown) (step 601), the walking pattern is “8”, “straight”, or “rectangular”. A determination is made as to which. Here, as shown in FIG. 21A, in the walking pattern storage unit provided in the ROM of the one-chip microcomputer 108, a step number and step data are paired in advance in a plurality of patterns. It is remembered. The stored contents of each pattern correspond to the straight progress pattern, the figure 8 walking pattern, and the rectangular walking pattern shown in FIG. That is, if the step data is sequentially read out while updating the step number and the specified stepping operation is performed, the robot body can execute straight advancement, figure-walking, and rectangular walking alone. Has been made.

そのため、歩行パターン記憶部の内容を参照することにより、「8の字」と判定されると(ステップ602「8の字」)、8の字を描いて歩行するように歩進制御が行われ(ステップ603)、「直進」と判定されると(ステップ602「直進」)、前方へ直進するように歩行制御が行われ(ステップ605)、さらに、「矩形」と判定されると(ステップ602「矩形」)、矩形を描いて歩進するように歩進制御が行われる(ステップ604)。   Therefore, by referring to the contents of the walking pattern storage unit, if it is determined that the character is “8” (step 602 “8”), stepping control is performed so as to walk while drawing an 8 character. (Step 603) If it is determined to be “straight forward” (step 602 “straight forward”), walking control is performed so as to go straight ahead (step 605), and if it is determined to be “rectangular” (step 602). “Rectangle”), stepping control is performed so as to step in a rectangle (step 604).

したがって、このプリセット歩行モードを利用すれば、当該ロボット本体を規定の歩行パターンで自動歩行させることができる。   Therefore, if this preset walking mode is used, the robot body can be automatically walked in a prescribed walking pattern.

図19に戻って、プログラマブル歩進制御(ステップ504)の詳細が図22に示されている。同図に示されるように、処理が開始されると、図示しない設定器より動作モード設定の読み込みを行ったのち(ステップ701)、動作モードが「教示」か「再現」かの判定を行う(ステップ702)。   Returning to FIG. 19, details of the programmable step control (step 504) are shown in FIG. As shown in the figure, when the process is started, the operation mode setting is read from a setting device (not shown) (step 701), and then it is determined whether the operation mode is “teach” or “reproduction” (step 701). Step 702).

ここで、動作モードが「教示」と判定されると(ステップ702「教示」)、以後、ステップカウンタnの値を「1」から+1づつ更新しつつ、手動運転時に得られる歩進データ(「右歩進」又は「左歩進」)をステップカウンタ値と対応させて記憶する処理(ステップ705)が繰り返される。なお、図において、手動運転時の処理(ステップ704)の内容は、図17及び図18を参照しつつ、先に説明した通りである。   If it is determined that the operation mode is “teach” (step 702 “teach”), then the step counter n value is updated by “+1” from “1”, and step data (“ The process of storing “right step” or “left step” in association with the step counter value (step 705) is repeated. In the figure, the contents of the process (step 704) during manual operation are as described above with reference to FIGS.

そのため、一連の処理(ステップ704〜707)が繰り返されることにより、ワンチップ・マイコン108の書き込み可能なメモリの歩行パターン記憶部には、図21(a)の内容と同様な歩行パターンデータが格納され、これにより、任意の歩行パターンの教示が可能となる。   Therefore, by repeating a series of processes (steps 704 to 707), the walking pattern data similar to the contents of FIG. 21A is stored in the walking pattern storage unit of the writable memory of the one-chip microcomputer 108. Thus, any walking pattern can be taught.

その後、図示しない設定器を「教示」から「再現」に切り替えたことにより、動作モードが「再現」と判定されると(ステップ702「再現」)、以後、ステップカウンタnの値を「1」から+1づつ更新しつつ、プリセット歩行処理(ステップ709)を実行する処理が繰り返される。なお、図において、プリセット歩行処理(ステップ709)の内容は、図21及び図22を参照しつつ、先に説明した通りである。   Thereafter, when the setting mode (not shown) is switched from “teach” to “reproduction” and the operation mode is determined to be “reproduction” (step 702 “reproduction”), the value of the step counter n is thereafter set to “1”. The process of executing the preset walking process (step 709) is repeated while updating from +1. In the figure, the contents of the preset walking process (step 709) are as described above with reference to FIGS.

そのため、一連の処理(ステップ709〜711)が繰り返されることにより、教示された歩行パターンで歩行するように歩進制御が行われる。   Therefore, a series of processes (steps 709 to 711) are repeated, and step control is performed so as to walk with the taught walking pattern.

したがって、このプログラマブル歩進モードを利用すれば、当該ロボット本体を任意にプログラムされた歩行パターンで自動歩行させることができる。   Therefore, if this programmable stepping mode is used, the robot body can be automatically walked in an arbitrarily programmed walking pattern.

図19に戻って、サーチ歩行処理(ステップ505)の詳細が図23に示されている。同図に示されるように、処理が開始されると、ワンチップ・マイコン108のポートP61〜64から左マイク109bの受信音量に相当するデータを読み込む処理(ステップ801)、及び同マイコン108のポートP51〜54から右マイク109aの受信音量に相当するデータを読み込む処理(ステップ802)が実行される。   Returning to FIG. 19, the details of the search walking process (step 505) are shown in FIG. As shown in the figure, when the process is started, a process of reading data corresponding to the reception volume of the left microphone 109b from the ports P61 to 64 of the one-chip microcomputer 108 (step 801), and a port of the microcomputer 108 A process of reading data corresponding to the reception volume of the right microphone 109a from P51 to P54 (step 802) is executed.

続いて、それら読み込まれた2つの音量の比較が行われる(ステップ803)。ここで、左の音量よりも右の音量の方が大きいと判断されると(ステップ803「左>右」)、斜め左前方へ進むように歩行制御が行われ(ステップ804)、左の音量の方が右の音量よりも小さいと判断されると(ステップ803「左<右」)、斜め右前方に進むように歩行制御が行われ(ステップ806)、左の音量と右の音量とが等しいと判断されると(ステップ803「左=右」)、前方へ進むように歩行制御が行われる(ステップ805)。   Subsequently, the two read sound volumes are compared (step 803). Here, when it is determined that the right volume is larger than the left volume (step 803 “left> right”), walking control is performed so as to proceed diagonally left forward (step 804), and the left volume is determined. Is determined to be lower than the right volume (step 803 “left <right”), walking control is performed so as to move forward diagonally to the right (step 806), and the left volume and the right volume are If it is determined that they are equal (step 803 “left = right”), walking control is performed so as to proceed forward (step 805).

以上の処理(ステップ801〜805)が繰り返される結果、当該ロボット本体は、敵方のロボット本体から発せられるサウンドを頼りとして、独りでに向きを変えつつ、敵方のロボット本体へと徐々に接近して行くことになる。   As a result of the repetition of the above processing (steps 801 to 805), the robot body gradually turns closer to the enemy robot body while turning its direction alone, relying on the sound emitted from the enemy robot body. Will go.

したがって、このサーチ歩行モードを利用すれば、予め用意された歩行パターンを選択したり、特定の歩行パターンをプログラムしたりせずとも、当該ロボット本体を敵方ロボット本体が発するサウンドを頼りとして、自動的に、敵方ロボットをサーチしながら、接近させることができる。   Therefore, if this search walking mode is used, the robot body is automatically relied on by the sound emitted by the enemy robot body without selecting a prepared walking pattern or programming a specific walking pattern. The enemy robot can be approached while searching for it.

ところで、プリセット歩行モード(ステップ503)、プログラマブル歩行モード(ステップ504)、又はサーチ歩行モード(ステップ505)と行った自動運転モードは、敵方ロボットに接近するのが目的であるから、その途中で敵方ロボットに遭遇したときには、直ちに、それらのモードを手動運転モードに切り替えて、対戦行動を取らねばならない。   By the way, the automatic driving mode performed in the preset walking mode (step 503), the programmable walking mode (step 504), or the search walking mode (step 505) is intended to approach the enemy robot, When encountering an enemy robot, you must immediately switch these modes to the manual operation mode and take action.

そこで、この例にあっては、図24のフローチャートに示されるように、自動運転中に敵方ロボット本体に遭遇したときには、何らかの攻撃動作を行うことで、自動運転モードから手動運転モードへの復帰が強制的に行われるようにしている。   Therefore, in this example, as shown in the flowchart of FIG. 24, when an enemy robot body is encountered during automatic driving, some attacking action is performed to return from the automatic driving mode to the manual driving mode. Is forced to be done.

すなわち、同図に示されるように、パンチ操作の検出により処理が開始されると、歩行モードを読み込んだのち(ステップ901)、プリセット歩行中か(ステップ902)、プログラマブル歩行中か(ステップ903)、又はサーチ歩行中か(ステップ904)の判定が行われる。   That is, as shown in the figure, when processing is started by detecting a punch operation, after walking mode is read (step 901), whether it is during preset walking (step 902) or programmable walking (step 903) Whether or not the search walking is being performed (step 904) is determined.

ここで、上記3つの歩行中のいずれかであると判定されると(ステップ902YES、903YES、又は904YES)、直ちに、手動運転モードへの強制復帰が行われる(ステップ905)。   Here, if it is determined that one of the above three walks is being performed (step 902 YES, 903 YES, or 904 YES), the forced return to the manual operation mode is immediately performed (step 905).

したがって、この強制復帰処理(ステップ905)により、自動運転モードから手動運転モードへの切り替えをスムーズに行わせ、遊技者は、直ちに、対戦行動に移行することが可能となる。   Therefore, the forced return process (step 905) allows the player to smoothly switch from the automatic operation mode to the manual operation mode, and the player can immediately shift to the battle action.

−作用説明−
第1実施形態に係るロボット玩具の有する主要な作用について説明する。この第1実施形態のロボット玩具にあっては、ロボット本体1は、図1に示されるように、右側を起点とする右パンチ機構(14a〜17a)による攻撃動作と左側を起点とする左パンチ機構(14b〜17b)による攻撃動作とからなる2つの攻撃動作を有する。
-Description of action-
The main actions of the robot toy according to the first embodiment will be described. In the robot toy according to the first embodiment, as shown in FIG. 1, the robot body 1 includes an attack operation by the right punch mechanism (14a to 17a) starting from the right side and a left punch starting from the left side. It has two attack operations consisting of an attack operation by the mechanism (14b-17b).

右側を起点とする右パンチ機構(14a〜17a)による攻撃動作の起動のためには、背部13の右後方に位置して右物体感知小領域4aが設けられる。同様にして、左側を起点とする左パンチ機構(14b〜17b)による攻撃動作の起動のためには、背部13の左後方に位置して左物体感知小領域4bが設けられる。   In order to activate the attacking action by the right punch mechanism (14a to 17a) starting from the right side, the right object detection small area 4a is provided at the right rear of the back portion 13. Similarly, a left object sensing small area 4b is provided on the left rear side of the back portion 13 in order to activate an attacking action by the left punch mechanism (14b to 17b) starting from the left side.

図2に示されるように、遊技者が、例えば、右パンチ動作に相当するボディーアクションを行って、その右拳7aを、矢印A4に示されるように、右物体感知小領域4aに向けて突き出すと、右拳7aが感知限界距離Lmax内に侵入するのに応答して、赤外光反射式の物体センサ(2a,2b,3a,3b)の物体感知作用、並びに、ワンチップ・マイコン108を主体とする制御部の作用を介して(図12、図15〜図18参照)、ロボット本体1の右パンチによる攻撃動作が起動されて、ロボット本体1の右拳17aも、矢印A5に示されるように、前方へと突き出される。   As shown in FIG. 2, the player performs a body action corresponding to, for example, a right punch operation, and projects the right fist 7a toward the right object detection subregion 4a as indicated by an arrow A4. In response to the right fist 7a entering the sensing limit distance Lmax, the object sensing action of the infrared light reflection type object sensors (2a, 2b, 3a, 3b) and the one-chip microcomputer 108 are Through the action of the main control unit (see FIGS. 12, 15 to 18), the attack operation by the right punch of the robot body 1 is activated, and the right fist 17a of the robot body 1 is also indicated by an arrow A5. So that it sticks out forward.

同様に、遊技者が、例えば、左パンチ動作に相当するボディーアクションを行って、その左拳7bを左物体感知小領域4bに向けて突き出すと、左拳7bが感知限界距離Lmax内に侵入するのに応答して、赤外光反射式の物体センサ(2a,2b,3a,3b)の物体感知作用、並びに、ワンチップ・マイコン108を主体とする制御部の作用を介して(図12、図15〜図18参照)、ロボット本体1の左パンチによる攻撃動作が起動されて、ロボット本体1の左拳17bも前方へと突き出される。   Similarly, when the player performs a body action corresponding to, for example, a left punching operation and projects the left fist 7b toward the left object detection subregion 4b, the left fist 7b enters the detection limit distance Lmax. In response to the above, through the object sensing action of the infrared light reflection type object sensor (2a, 2b, 3a, 3b) and the action of the control unit mainly composed of the one-chip microcomputer 108 (FIG. 12, 15 to 18), the attack operation by the left punch of the robot main body 1 is activated, and the left fist 17 b of the robot main body 1 is also protruded forward.

そのため、図3に示されるように、2台のロボット本体1,1を向かい合わせて対戦遊びを行うときには、各ロボット本体の遊技者は、自己のロボット本体の背後に位置して、相手方ロボット本体を正面から観察しながら、適当なタイミングで、左右のパンチ動作に相当するボディーアクションを行うだけでよいため(図中矢印A6,A7参照)、従前のロボット玩具のように、遠隔操作部を左右の手に把持する必要がなく、その分だけコスト的に有利となり、しかも、自己のロボット本体に対して感情移入し易くなり、この種の対戦遊びにおいて、より興奮をかきたたせることができる。   Therefore, as shown in FIG. 3, when two robot main bodies 1 and 1 face each other and play a battle, the players of each robot main body are located behind their own robot main body, Since it is only necessary to perform body actions corresponding to left and right punching operations at appropriate timing (see arrows A6 and A7 in the figure), the remote control unit is moved left and right like a conventional robot toy. Therefore, it is advantageous in terms of cost, and it is easy to transfer emotions to the robot main body, which can make excitement more exciting in this kind of battle play.

また、この実施形態に係るロボット本体にあっては、各物体感知小領域Aa,4bへの拳突き出し態様(物体感知状態)に応じて、ロボット本体側のパンチ動作を単打と連打とに切り替えることもできるため(図18参照)、この種のロボット玩具における攻撃動作をより多様性に富んだものとすることができる。   In the robot main body according to this embodiment, the punching operation on the robot main body side is switched between single hit and continuous hit according to the fist protrusion mode (object detection state) to each object detection small area Aa, 4b. (See FIG. 18), the attacking action in this type of robot toy can be made more diverse.

さらに、この実施形態に係るロボット玩具にあっては、自動運転モードへの設定により(ステップ103)、プリリセット歩行モード(ステップ503)、プログラマブル歩行モード(ステップ504)、及びサーチ歩行モード(ステップ505)のいずれかを選択することにより、様々な歩行パターンを実現することができるため、対戦動作のみならず、対戦動作に至る前段階の歩行動作においても、この種の対戦遊びを遊技者にとってより興味深いものとすることができる。   Furthermore, in the robot toy according to this embodiment, by setting to the automatic operation mode (step 103), the pre-reset walking mode (step 503), the programmable walking mode (step 504), and the search walking mode (step 505). ), It is possible to realize various walking patterns, so this kind of battle play is more useful for the player not only in the battle motion but also in the walk motion before the battle motion. Can be interesting.

なお、それら自動運転モードの歩行パターンにあっては、相手方ロボット本体への接近過程においては有意義であるものの、ひとたび、相手方ロボット本体と遭遇したときには、直ちに、攻撃動作への移行が必要であるが、この実施形態にあっては、なんらかの攻撃動作を切っ掛けとして、自動運転モードから攻撃動作に適した手動運転モードへ自動復帰するように構成したため(図24参照)、自動運転モードから手動運転モードへの移行がスムーズとなる利点がある。   Although these automatic driving mode walking patterns are meaningful in the process of approaching the opponent robot body, once they encounter the opponent robot body, it is necessary to immediately switch to attacking action. In this embodiment, since it is configured to automatically return from the automatic operation mode to the manual operation mode suitable for the attack operation with some attack operation as a trigger (see FIG. 24), the automatic operation mode is switched to the manual operation mode. There is an advantage of smooth transition.

また、この実施形態にあっては、反射式の赤外線式物体センサを採用しているため、同一の感知小領域内において、異なる赤外線発光部からの照射赤外光が混在する状態は排除しなければならないが、各赤外線投光部のそれぞれは、投光軸の角度調整が可能となっているため(図1の要部拡大図参照)、これを利用して、照射赤外光同士の干渉を防止することで、物体の誤検出を確実に防止することができる。   Further, in this embodiment, since a reflective infrared object sensor is employed, a state in which irradiated infrared light from different infrared light emitting units is mixed within the same small sensing area must be excluded. However, since each of the infrared light projecting sections can adjust the angle of the light projecting axis (see an enlarged view of the main part in FIG. 1), this is used to interfere with the irradiated infrared light. By preventing this, erroneous detection of an object can be reliably prevented.

さらに、言うまでもないが、本発明の要旨は、1又は2以上の攻撃動作の存在を前提として、その起動を遠隔操作部を使用しないで行うことにあり、攻撃動作それ自体が公知のものか、新規なものかは問題とされない。図示例では、ヒト型ロボットを対象として、所謂ボクシング類似の攻撃動作を挙げたが、ヒト型ロボットにおいて、その他の攻撃動作としては、相撲の突き押し動作、張り手動作と言った手を主体として動作、突き蹴り動作、回し蹴り動作の如く、足を主体とした攻撃動作を挙げることができる。   Further, needless to say, the gist of the present invention is that the activation is performed without using a remote control unit on the premise of the presence of one or two or more attack operations, and the attack operation itself is known, Whether it is new or not is not a problem. In the example shown in the figure, a so-called boxing-like attack operation was given for a humanoid robot. However, in the humanoid robot, other attack operations are mainly performed by a hand such as a sumo thrusting operation or a tentacle operation. In addition, an attack operation mainly using a foot, such as a butt kick operation and a rotation kick operation, can be given.

<<第1実施形態の第1変形例>>
−機構的な構成−
第1実施形態の第1変形例に係るロボット玩具の模式的外観図が図4に示されている。同図に示されるように、このロボット玩具の特徴は、2個の赤外線投光部2c,2d及び2個の赤外線受光部3c,3dを背部13の右側面に上下一列に配置することにより、ロボット本体1を、その右側面からボディーアクションで操作することを可能とするものである。
<< First Modification of First Embodiment >>
-Mechanical structure-
A schematic external view of a robot toy according to a first modification of the first embodiment is shown in FIG. As shown in the figure, the feature of this robot toy is that two infrared light projecting parts 2c, 2d and two infrared light receiving parts 3c, 3d are arranged in a vertical line on the right side surface of the back part 13, The robot body 1 can be operated by a body action from the right side surface.

すなわち、上側の赤外線発光部2cから発せられる赤外光は、適当な高さに右感知小領域4cを形成するように、ロボット本体1の右側方へと放射される。なお、ハッチングで示された円形部分5cは感知限界距離における右感知小領域4cの断面を模式的に示すものである。下側の赤外線発光部2dから発せられる赤外光は、同じ高さに左感知小領域4dを形成するように、ロボット本体1の右側方へと放射される。なお、ハッチングで示された円形部分5dは感知限界距離における左感知小領域4dの断面を模式的に示すものである。その結果、ロボット本体1の右側方には、右感知小領域4cと左感知小領域4dとが左右同じ高さで形成される。   That is, the infrared light emitted from the upper infrared light emitting unit 2c is radiated to the right side of the robot body 1 so as to form the right sensing small region 4c at an appropriate height. A circular portion 5c shown by hatching schematically shows a cross section of the right sensing small region 4c at the sensing limit distance. Infrared light emitted from the lower infrared light emitting unit 2d is radiated to the right side of the robot body 1 so as to form the left sensing small region 4d at the same height. A circular portion 5d indicated by hatching schematically shows a cross section of the left detection small region 4d at the detection limit distance. As a result, the right sensing small region 4c and the left sensing small region 4d are formed on the right side of the robot body 1 at the same height on the left and right.

ここで、右側に位置する右感知小領域4cは、右側を起点とする右パンチ機構(14a〜17a)による攻撃動作を起動させるためのものであり、左側に位置する左感知小領域4dは、左側を起点とする左パンチ機構(14b〜17b)による攻撃動作を起動させるためのものである。   Here, the right sensing small area 4c located on the right side is for starting an attack operation by the right punch mechanism (14a to 17a) starting from the right side, and the left sensing small area 4d located on the left side is This is for starting an attack operation by the left punch mechanism (14b to 17b) starting from the left side.

そのため、ロボット本体1の遊技者は、ロボット本体1の右側方に位置して、左右のパンチ動作に相当するボディーアクションを行い、右拳6aを右感知小領域4cへ向けて突き出すか、又は左拳6bを左感知小領域4dへ向けて突き出すことにより、右側を起点とする右パンチ機構(14a〜17a)による攻撃動作を起動させたり、又は左感知小領域4dは、左側を起点とする左パンチ機構(14b〜17b)による攻撃動作を起動させることができるように構成されている。   Therefore, the player of the robot main body 1 is located on the right side of the robot main body 1 and performs a body action corresponding to the left and right punching operations, and protrudes the right fist 6a toward the right sensing small area 4c or left By projecting the fist 6b toward the left sensing small area 4d, an attack action by the right punch mechanism (14a to 17a) starting from the right side is started, or the left sensing small area 4d is left starting from the left side. It is comprised so that the attack operation | movement by a punch mechanism (14b-17b) can be started.

−電気的なハードウェア構成−
第1実施形態と同様であるから、説明は省略する。
-Electrical hardware configuration-
Since it is the same as that of 1st Embodiment, description is abbreviate | omitted.

−電気的なソフトウェア構成−
第1実施形態と同様であるから、説明は省略する。
-Electrical software configuration-
Since it is the same as that of 1st Embodiment, description is abbreviate | omitted.

−作用説明−
この変形例に係るロボット玩具によれば、図14に示されるように、2台のロボット本体1,1をテーブル上に左右方向へ向かい合わせに配置したのち、テーブルの手前に二人の遊技者6,6が左右に並んで座る。すると、左側の遊技者6のほぼ正面には、左側のロボット本体1の右感知小領域4cと左感知小領域4dとが位置する。同様に、右側の遊技者6のほぼ正面には、右側のロボット本体1の右感知小領域4c'と左感知小領域4d'とが位置する。
-Description of action-
According to the robot toy according to this modified example, as shown in FIG. 14, after two robot bodies 1 and 1 are arranged facing each other in the left-right direction on the table, two players are placed in front of the table. 6 and 6 sit side by side. Then, the right sensing small area 4c and the left sensing small area 4d of the left robot body 1 are positioned almost in front of the left player 6. Similarly, the right sensing small area 4c ′ and the left sensing small area 4d ′ of the right robot body 1 are positioned almost in front of the right player 6.

この状態において、左右の遊技者1,1が、左右のパンチ動作に相当するボディーアクションを行って、右の拳6a及び左の拳6bを前方へと突き出せば、先に、第1の実施形態で説明したと同様の作用を経て、左右のロボット本体1,1同士を戦わせることができる。具体的には、図示の例にあっては、右側の遊技者6が右の拳6aを、矢印A8に示されるように、右の感知小領域4c'内へと突き出したことにより、右側のロボット本体1においては右パンチによる攻撃動作が行われて、矢印A9に示されるように、右の拳17aが前方へと突き出されている。   In this state, if the left and right players 1 and 1 perform body actions corresponding to the left and right punching operations and project the right fist 6a and the left fist 6b forward, the first embodiment will be described first. The robot main bodies 1 and 1 can be made to fight with each other through the same operation as described above. Specifically, in the illustrated example, the right player 6 protrudes the right fist 6a into the right sensing subregion 4c ′ as indicated by the arrow A8, so that the right player 6 In the robot body 1, an attack operation by right punch is performed, and the right fist 17 a protrudes forward as indicated by an arrow A <b> 9.

このように、この変形例によれば、相対するロボット本体のそれぞれの背後ではなく、側方に位置して、対戦遊びを楽しむことができ、この種の遊びをより興味深いものとすることができる。   As described above, according to this modification, it is possible to enjoy the battle play by being positioned not on the back of each of the opposed robot bodies but on the side, and this type of play can be made more interesting. .

なお、赤外線投光部と赤外線受光部との配置は、予め背部13の両側面に設けておき、いずれか一つを切り替えて使用可能としたり、あるいは、投光部と受光部とを対にして共通の基板に搭載しておき、これを適当な接続具(例えば、ピンとジャック、プラグとレセプタクル)を介して、両側面に着脱可能とし、遊技者の座る位置に応じて、取り付けるようにしてもよい。   The arrangement of the infrared light projecting part and the infrared light receiving part is provided in advance on both side surfaces of the back part 13 so that either one of them can be switched or used, or the light projecting part and the light receiving part are paired. Are mounted on a common board, and can be attached to both sides via appropriate connectors (for example, pins and jacks, plugs and receptacles), and attached according to the position of the player. Also good.

<<第1実施形態の第2変形例>>
−機構的な構成−
第1実施形態の第2変形例に係るロボット玩具の模式的外観図が図8に示されている。同図に示されるように、このロボット玩具の特徴は、2個の赤外線投光部2c,2d及び2個の赤外線受光部3c,3dを背部13の背面に上下一列に配置すると共に、ロボット本体1Aの右手17aに剣17cを握らせることにより、ロボット本体1Aの背後における例えば指剣による振り下ろし動作に相当するボディーアクションにより、ロボット本体においては、剣17cの振り下ろしによる攻撃動作を可能としたものである。
<< Second Modification of First Embodiment >>
-Mechanical structure-
FIG. 8 shows a schematic external view of a robot toy according to a second modification of the first embodiment. As shown in the figure, the feature of this robot toy is that two infrared light projecting parts 2c, 2d and two infrared light receiving parts 3c, 3d are arranged in a row on the back of the back part 13 and the robot body By causing the right hand 17a of 1A to hold the sword 17c, the robot body can perform an attacking action by swinging down the sword 17c by a body action corresponding to, for example, swinging down with a finger sword behind the robot body 1A. Is.

すなわち、上側の赤外線発光部4aから発せられる赤外光は、適当な高さに上感知小領域4aを形成するように、ロボット本体1の後方へと放射される。なお、ハッチングで示された円形部分5aは感知限界距離における上感知小領域4aの断面を模式的に示すものである。下側の赤外線発光部2bから発せられる赤外光は、適当な高さに下感知小領域4bを形成するように、ロボット本体1の後方へと放射される。なお、ハッチングで示された円形部分5bは感知限界距離における下感知小領域4bの断面を模式的に示すものである。その結果、ロボット本体1の後方近辺には、上感知小領域4aと下感知小領域4bとが上下に形成される。   That is, the infrared light emitted from the upper infrared light emitting unit 4a is radiated to the rear of the robot body 1 so as to form the upper sensing small region 4a at an appropriate height. A circular portion 5a indicated by hatching schematically shows a cross section of the upper sensing small region 4a at the sensing limit distance. Infrared light emitted from the lower infrared light emitting section 2b is radiated to the rear of the robot body 1 so as to form the lower sensing small area 4b at an appropriate height. A circular portion 5b indicated by hatching schematically shows a cross section of the lower sensing small region 4b at the sensing limit distance. As a result, an upper sensing small area 4a and a lower sensing small area 4b are formed vertically near the rear of the robot body 1.

ここで、上側に位置する上感知小領域4aは、上側を起点とする剣の振り下ろしによる攻撃動作を起動させるためのものであり、下側に位置する下感知小領域4bは、その感知出力をマスクするか、あるいは、左側を起点とする左パンチ機構(14b〜17b)による攻撃動作を起動させるために使用される。   Here, the upper sensing small area 4a located on the upper side is for activating a sword swinging attack starting from the upper side, and the lower sensing small area 4b is located on the lower side. Or is used to activate an attacking action by the left punch mechanism (14b to 17b) starting from the left side.

−電気的なハードウェア構成−
第1実施形態と同様であるから、説明は省略する。
-Electrical hardware configuration-
Since it is the same as that of 1st Embodiment, description is abbreviate | omitted.

−電気的なソフトウェア構成−
第1実施形態と同様であるから、説明は省略する。
-Electrical software configuration-
Since it is the same as that of 1st Embodiment, description is abbreviate | omitted.

−作用説明−
この第2変形例に係るロボット玩具によれば、図10に示されるように、2台のロボット本体1A,1Aを向かい合わせに配置したのち、剣の振り下ろしに相当するボディーアクションを行い、矢印A12に示されるように、右の指剣6bを上感知小領域4aへ向けて突き出すか、又は振り下ろすことにより、矢印A13に示されるように、ロボット本体1Aにおいて、剣17aの振り下ろしによる攻撃動作を起動させ、武器を用いての対戦遊技を楽しむことができる。
-Description of action-
According to the robot toy according to the second modified example, as shown in FIG. 10, after two robot bodies 1A and 1A are arranged face to face, a body action equivalent to swinging down a sword is performed, As shown by A12, the right finger sword 6b protrudes or swings down toward the upper sensing small area 4a, and as shown by the arrow A13, the robot body 1A attacks the sword 17a by swinging down. Activate the action and enjoy the battle game using weapons.

このように、この変形例によれば、ヒト型ロボットであっても、体の一部のみならず、武器を持たせて攻撃動作を行うことができるから、この種のロボット玩具を用いた対戦遊びをより興味深いものとすることができる。   In this way, according to this modification, even a humanoid robot can perform an attacking action not only with a part of the body but also with a weapon, so a battle using this type of robot toy is possible. Play can be more interesting.

なお、武器としは、刀剣にかぎるものではなく、槍その他の任意の武器に適用することかでき、また防具として盾を使用すれば、この種の対戦遊びをより興味深いものとすることができることは言うまでもない。   It should be noted that weapons are not limited to swords but can be applied to spears and other arbitrary weapons, and if a shield is used as armor, this kind of battle play can be made more interesting. Needless to say.

<<第1実施形態の第3変形例>>
−機構的な構成−
新たに2つの低感度受光部が追加されることをのぞき、第1実施形態と同様であるから、説明は省略する。
<< Third Modification of First Embodiment >>
-Mechanical structure-
Except for the addition of two new low-sensitivity light receiving parts, the description is omitted because it is the same as in the first embodiment.

−電気的なハードウェア構成−
この第3変形例を実現するためには、図12に示される電気回路の一部(主として、受光部の構成)を変更する必要がある。この変更部分のみが図14に示されている。
-Electrical hardware configuration-
In order to realize the third modification, it is necessary to change a part of the electric circuit shown in FIG. 12 (mainly, the configuration of the light receiving unit). Only this change is shown in FIG.

同図に示されるように、この第3変形例にあっては、既存の2つの受光部IC106a,106bに加えて、さらに、2つの受光部IC122a,122bが設けられる。新たに設けられる右側の受光部IC122aは、好ましくは、既存の右側の受光部IC106aに隣接して配置され、既存の右側の受光部IC106aから想定される検出物体までの距離は、新設の右側の受光部IC122aから想定される検出物体までの距離と等しくなるように設定される。   As shown in the figure, in the third modified example, in addition to the existing two light receiving units IC 106a and 106b, two light receiving units IC 122a and 122b are further provided. The newly provided right light receiving part IC122a is preferably arranged adjacent to the existing right light receiving part IC106a, and the distance from the existing right light receiving part IC106a to the assumed detection object is the right side of the new right light receiving part IC106a. It is set to be equal to the distance from the light receiving unit IC 122a to the assumed detection object.

既存の受光部IC106aと新設の受光部IC122aとは同一の性能を有する。ただし、新設の受光部IC122aの前面側には、赤外光の透過を低減させる光学フィルタ(以下、「赤外光低減フィルタ」と称する)123aが介在されている。   The existing light receiving unit IC 106a and the newly installed light receiving unit IC 122a have the same performance. However, an optical filter (hereinafter referred to as “infrared light reducing filter”) 123a for reducing the transmission of infrared light is interposed on the front side of the newly installed light receiving unit IC 122a.

そのため、何らかの物体がロボット本体の右側の物体感知小領域4aへ向けて接近してくるとき、既存の受光部IC106aがこれを感知する接近距離L1と、新設の受光部IC122aがこれを感知する接近距離L2との間には、一定の距離差ΔL(=L1−L2:L1>L2)が存在する。   For this reason, when an object approaches toward the right-side object sensing subregion 4a of the robot body, the approach distance L1 at which the existing light receiving unit IC 106a senses this and the approach at which the new light receiving unit IC 122a senses this. A certain distance difference ΔL (= L1−L2: L1> L2) exists between the distance L2.

したがって、何らかの物体がロボット本体の右側の物体感知小領域4aへ向けて接近してくるとき、既存の受光部IC106aがこれを感知する時刻t1と新設の受光部IC122aがこれを感知する時刻t2との間には、物体の接近速度にほぼ反比例する時間差Δtが存在するから、この時間差Δtを測定することにより、対象となる右側の物体感知小領域4aにおいて、物体(例えば、右の拳)の接近距離を推定することができる。   Therefore, when any object approaches toward the object sensing small area 4a on the right side of the robot body, the time t1 when the existing light receiving unit IC 106a senses this and the time t2 when the new light receiving unit IC 122a senses this. Since there is a time difference Δt that is almost inversely proportional to the approaching speed of the object, by measuring this time difference Δt, the object (for example, the right fist) is detected in the right object sensing subregion 4a. The approach distance can be estimated.

同様にして、新たに設けられる右側の受光部IC122bは、好ましくは、既存の左側の受光部IC106bに隣接して配置され、既存の左側の受光部IC106bから想定される検出物体までの距離は、新設の左側の受光部IC122bから想定される検出物体までの距離と等しくなるように設定される。   Similarly, the newly provided right light receiving unit IC122b is preferably disposed adjacent to the existing left light receiving unit IC106b, and the distance from the existing left light receiving unit IC106b to the assumed detection object is: It is set to be equal to the distance from the newly installed left light receiving unit IC122b to the assumed detection object.

既存の受光部IC106bと新設の受光部IC122bとは同一の性能を有する。ただし、新設の受光部IC122bの前面側には、赤外光の透過を低減させる光学フィルタ(以下、「赤外光低減フィルタ」と称する)123bが介在されている。   The existing light receiving unit IC 106b and the newly installed light receiving unit IC 122b have the same performance. However, an optical filter (hereinafter referred to as “infrared light reducing filter”) 123b for reducing the transmission of infrared light is interposed on the front side of the new light receiving unit IC 122b.

そのため、何らかの物体がロボット本体の左側の物体感知小領域4bへ向けて接近してくるとき、既存の受光部IC106bがこれを感知する接近距離L1と、新設の受光部IC122bがこれを感知する接近距離L2との間には、一定の距離差ΔL(=L1−L2:L1>L2)が存在する。   Therefore, when an object approaches toward the object sensing small area 4b on the left side of the robot body, the approach distance L1 at which the existing light receiving unit IC 106b senses this and the approach at which the new light receiving unit IC 122b senses this. A certain distance difference ΔL (= L1−L2: L1> L2) exists between the distance L2.

したがって、何らかの物体がロボット本体の左側の物体感知小領域4bへ向けて接近してくるとき、既存の受光部IC106bがこれを感知する時刻t1と新設の受光部IC122bがこれを感知する時刻t2との間には、物体の接近速度にほぼ反比例する時間差Δtが存在するから、この時間差Δtを測定することにより、対象となる左側の物体感知小領域4bにおいて、物体(例えば、右の拳)の接近距離を推定することができる。   Therefore, when some object approaches toward the object sensing subregion 4b on the left side of the robot body, the time t1 when the existing light receiving unit IC 106b senses this and the time t2 when the new light receiving unit IC 122b senses this. Since there is a time difference Δt that is almost inversely proportional to the approach speed of the object, by measuring this time difference Δt, the object (for example, the right fist) is detected in the object detection subregion 4b on the left side. The approach distance can be estimated.

−電気的なソフトウェア構成−
第3変形例に係るロボット玩具のソフトウェア構成の要部が図25のフローチャートに示されている。同図に示されるように、処理が開始されると、まず、左側の高感度受光部IC106bの出力である左高感度受光出力を読み込んだのち(ステップ1001)、反射光の有無の判定(ステップ1002)が行われる。ここで、反射光ありと判定されると(ステップ1002YES)、続いて、読み取りコードを解読したのち(ステップ1003)、解読されたコードが予め設定された左領域コードと一致した場合に限り(ステップ1004YES)、時刻t1の記憶処理(ステップ1005)が行われる。
-Electrical software configuration-
The main part of the software configuration of the robot toy according to the third modification is shown in the flowchart of FIG. As shown in the figure, when the processing is started, first, the left high sensitivity light receiving output which is the output of the left high sensitivity light receiving unit IC 106b is read (step 1001), and then the presence / absence of reflected light is determined (step 1001). 1002) is performed. Here, if it is determined that there is reflected light (YES in step 1002), then, after decoding the read code (step 1003), only when the decoded code matches the preset left area code (step 1003). 1004 YES), storage processing (step 1005) at time t1 is performed.

以後、左側の低感度受光部IC123bの出力である低感度受光出力の読み込みを繰り返しながら、反射光ありとなるのを待機する(ステップ1007NO)。そして、反射光ありが確認されるのを待って(ステップ1007YES)、読み取りコードを解読したのち(ステップ1008)、解読されたコードが予め設定された左領域コードと一致した場合に限り(ステップ1009YES)、時刻t2の記憶処理(ステップ1005)を実行する。   Thereafter, while the reading of the low-sensitivity light receiving output, which is the output of the left-side low-sensitivity light receiving unit IC123b, is repeated, it waits for the presence of reflected light (NO in step 1007). Then, after waiting for the presence of reflected light to be confirmed (step 1007 YES), after decoding the read code (step 1008), only when the decoded code matches the preset left area code (step 1009 YES) ) And the storage process (step 1005) at time t2.

しかるのち、時刻t1と時刻t2との時間差Δtを求め(ステップ1011)、その時間差Δtを基準値ΔTrefと比較する(ステップ1012)。ここで、時間差Δtが基準値Δtrefよりも大きいと判定されると(ステップ1012NO)、左側の感知小領域4bへ向かってくる物体の接近速度は比較的に遅いと推定して、通常パワーによるロボット動作処理(ステップ1014)が行われるのに対して、時間差Δtが基準値Δtrefよりも小さいと判定されたときには(ステップ1012YES)、左側の感知小領域4bへ向かってくる物体の接近速度は比較的に速いと推定して、ハイパワーによるロボット動作処理(ステップ1013)が行われる。   Thereafter, a time difference Δt between time t1 and time t2 is obtained (step 1011), and the time difference Δt is compared with a reference value ΔTref (step 1012). Here, if it is determined that the time difference Δt is larger than the reference value Δtref (NO in step 1012), it is estimated that the approach speed of the object toward the left sensing small region 4b is relatively slow, and the robot with normal power When it is determined that the time difference Δt is smaller than the reference value Δtref (step 1012 YES) while the operation process (step 1014) is performed, the approaching speed of the object coming to the left sensing small area 4b is relatively high. The robot operation process (step 1013) with high power is performed.

ここで、先に説明しように、ロボット動作処理とは、ワンチップ・マイコン108のポートP23,P24のうちのいずれか一方の出力論理値を第1の論理値に固定することにより、モータ114を流れる電流の向きを、左側のパンチ動作が起動される方向へと設定したのち、他方のポートに出力されるPWMバルス列のデューティー比を所定の値とすることで、モータ114に流れる電流値を設定する処理である。   Here, as described above, the robot operation process is performed by fixing the output logic value of any one of the ports P23 and P24 of the one-chip microcomputer 108 to the first logic value, thereby causing the motor 114 to operate. After setting the direction of the flowing current in the direction in which the left punching operation is activated, the duty ratio of the PWM pulse train output to the other port is set to a predetermined value, so that the value of the current flowing to the motor 114 is It is a process to set.

このとき、通常パワーによるロボット動作処理(ステップ1014)では、予め決められた通常パワー用の低めのデューティー比によるPWM処理が行われるのに対して、ハイパワーによるロボット動作処理(ステップ1014)では、予め決められたハイパワー用の高めのデューティー比によるPWM処理が行われる。   At this time, in the robot operation processing with normal power (step 1014), PWM processing is performed with a predetermined low duty ratio for normal power, whereas with robot operation processing with high power (step 1014), PWM processing is performed with a predetermined high duty ratio for high power.

ステップ1002に戻って、反射光なしと判定されると(ステップ1002NO)、続いて、左系の処理から右系の処理へと移行して、同様な処理(ステップ1001〜1014)が実行される。   Returning to step 1002, if it is determined that there is no reflected light (NO in step 1002), then, the process shifts from the left system process to the right system process, and the same process (steps 1001 to 1014) is executed. .

すなわち、右側の高感度受光部IC106aの出力である右高感度受光出力を読み込んだのち、解読されたコードが予め設定された左領域コードと一致した場合に限り、時刻t1の記憶処理が行われる。以後、右側の低感度受光部IC123aの出力である低感度受光出力の読み込みを繰り返しながら、反射光ありが確認されるのを待って、読み取りコードを解読し、解読されたコードが予め設定された右領域コードと一致した場合に限り、時刻t2の記憶処理を実行する。   That is, after reading the right high-sensitivity light receiving output that is the output of the right high-sensitivity light receiving unit IC 106a, the storage process at time t1 is performed only when the decoded code matches the preset left region code. . Thereafter, while repeating reading of the low-sensitivity light receiving output, which is the output of the right-side low-sensitivity light receiving unit IC123a, waiting for the presence of reflected light to be confirmed, the read code is decoded, and the decoded code is preset. Only when it matches the right area code, the storage process at time t2 is executed.

しかるのち、時刻t1と時刻t2との時間差Δtを求め、その時間差Δtが基準値Δtrefよりも大きいと判定されると、右側の感知小領域4aへ向かってくる物体の接近速度は比較的に遅いと推定して、通常パワーによるロボット動作処理が行われるのに対して、時間差Δtが基準値Δtrefよりも小さいと判定されたときには、右側の感知小領域4aへ向かってくる物体の接近速度は比較的に速いと推定して、ハイパワーによるロボット動作処理が行われる。   Thereafter, the time difference Δt between the time t1 and the time t2 is obtained, and if it is determined that the time difference Δt is larger than the reference value Δtref, the approach speed of the object coming to the right sensing small region 4a is relatively slow. Assuming that the robot motion process is performed with the normal power, when it is determined that the time difference Δt is smaller than the reference value Δtref, the approach speed of the object coming to the right sensing small area 4a is compared. Therefore, the robot operation process is performed with high power.

ここで、右系のロボット動作処理とは、ワンチップ・マイコン108のポートP23,P24のうちのいずれか一方の出力論理値を第1の論理値に固定することにより、モータ114を流れる電流の向きを、右側のパンチ動作が起動される方向へと設定したのち、他方のポートに出力されるPWMバルス列のデューティー比を所定の値とすることで、モータ114に流れる電流値を設定する処理である。   Here, the right-hand robot operation processing means that the current flowing through the motor 114 is fixed by fixing the output logical value of one of the ports P23 and P24 of the one-chip microcomputer 108 to the first logical value. A process of setting the value of the current flowing through the motor 114 by setting the direction to the direction in which the right punching operation is activated and then setting the duty ratio of the PWM pulse train output to the other port to a predetermined value It is.

このとき、通常パワーによるロボット動作処理(ステップ1014)では、予め決められた通常パワー用の低めのデューティー比が設定されるのに対して、ハイパワーによるロボット動作処理(ステップ1014)では、予め決められたハイパワー用の高めのデューティー比が設定されるのである。   At this time, in the robot operation process using normal power (step 1014), a predetermined low duty ratio for normal power is set, whereas in the robot operation process using high power (step 1014), a predetermined value is set in advance. The higher duty ratio for the high power is set.

−作用説明−
この第3変形例に係るロボット玩具によれば、図1〜図3に示される構成において、遊技者が左右のパンチ動作に相当するボディーアクションを行って、例えば、右の拳7aを右の物体感知小領域4a内に突き出すと、その突き出すスピードの大小に応じて、ロボット本体1から繰り出される右パンチの強さが変わるから、遊技者のボディーアクションとロボット本体の攻撃動作との応答関係はより一層敏感となり、この種の対戦遊びをより興奮を呼び起こすものとすることかできる。
-Description of action-
According to the robot toy according to the third modified example, in the configuration shown in FIGS. 1 to 3, the player performs a body action corresponding to the left and right punching operation, for example, the right fist 7 a is moved to the right object. When projecting into the small sensing area 4a, the strength of the right punch fed out from the robot body 1 changes according to the speed of the projecting speed, so the response relationship between the player's body action and the attacking action of the robot body is more It becomes even more sensitive and can make this kind of play more exciting.

なお、以上の説明では、時間差Δtと比較されるべき基準値Δtrefの値を1つとしたが、これをΔtref1,Δtref2,Δtref3・・・の如く複数設定して多段階の比較を行うと共に、比較結果のそれぞれに応じて、デューティー比を多段に用意すれば、より高感度なパワー制御をなし得ることは勿論である。   In the above description, the reference value Δtref to be compared with the time difference Δt is assumed to be one, but a plurality of values such as Δtref1, Δtref2, Δtref3,... Of course, if the duty ratio is prepared in multiple stages according to each result, it is possible to achieve more sensitive power control.

<<第2実施形態>>
−機構説明−
第1実施形態並びにその変形例にあっては、物体感知小領域の数はいずれも2個であったが、その数は、1個でもよいし、3個以上でもよいことは勿論である。この例では、4個の物体感知小領域が設けられ、それらは別々の攻撃動作の起動に1対1に割り当てられている。
<< Second Embodiment >>
-Mechanism description-
In the first embodiment and the modification thereof, the number of small object sensing subregions is two, but it is needless to say that the number may be one or three or more. In this example, four object sensing subregions are provided, which are assigned one to one for activation of separate attack actions.

すなわち、この第2実施形態に係るロボット玩具に登場するロボット本体7は、図6に示される、右下起点の右アッパーカットパンチによる攻撃動作と、左下起点の左アッパーカットパンチによる攻撃動作と、図7に示される、右上起点の右フックパンチによる攻撃動作と、左上起点の左フックパンチによる攻撃動作との4つの攻撃動作を実行可能に構成されている。   That is, the robot body 7 appearing in the robot toy according to the second embodiment includes an attack operation by the right upper cut punch at the lower right starting point and an attack operation by the left upper cut punch at the lower left starting point shown in FIG. The four attack operations shown in FIG. 7, that is, the attack operation by the right hook punch starting from the upper right and the attack operation by the left hook punch starting from the upper left are configured to be executable.

なお、図において、71は頭部、72は胴部、73は背部、74aは右肩部、74bは左肩部、75aは右上腕部、75bは左上腕部、76aは右下腕部、76bは左下腕部、77aは右拳部、77bは左拳部であり、左右脚部の構成については、紙面の関係から割愛されている。   In the figure, 71 is the head, 72 is the torso, 73 is the back, 74a is the right shoulder, 74b is the left shoulder, 75a is the upper right arm, 75b is the upper left arm, 76a is the lower right arm, and 76b. Is the left lower arm part, 77a is the right fist part, 77b is the left fist part, and the configuration of the left and right leg parts is omitted from the relationship of the space.

このロボット本体7の基本的なパンチの繰り出し機構や歩行機構は、第1実施形態のそれとほぼ同様であるが、パンチの種類をアッパーカットパンチとフックパンチとに切り替えるために、この例にあっては、右及び左の上腕部75a,75bの付け根に位置する回動軸の軸線A1が、フックパンチ用の傾斜姿勢とアッパーカットパンチ用の水平姿勢とに切り替えられるように、図示しない傾動機構がロボット本体に組み込まれている。この傾動機構は、ボールねじ突きモータやソレノイドプランジャーなどの専用のアクチュエータ112(図13参照)により駆動される。   The basic punch feeding mechanism and walking mechanism of the robot body 7 are almost the same as those of the first embodiment, but in this example, the type of punch is switched between the upper cut punch and the hook punch. Has a tilt mechanism (not shown) so that the axis A1 of the rotation shaft positioned at the base of the right and left upper arm portions 75a and 75b can be switched between a tilt posture for hook punch and a horizontal posture for upper cut punch. Built into the robot body. This tilting mechanism is driven by a dedicated actuator 112 (see FIG. 13) such as a ball screw thrust motor or a solenoid plunger.

ロボット本体1の背部73の背面には、図6及び図7に示されるように、4個の赤外線投光部21a,21b.22a,22bと2個の赤外線受光部31,32が配置されている。中央上段に位置する赤外線受光部31は、上段左右に位置する2個の赤外線投光部21a,21bから発せられたのち、何らかの物体で反射された赤外線を受光するためのものであり、中央下段に位置する赤外線受光部32は、下段左右に位置する2個の赤外線投稿部22a,22bから発せられたのち、何らかの物体で反射された赤外線を受光するためのものである。   As shown in FIG. 6 and FIG. 7, four infrared light projecting units 21 a, 21 b. 22a, 22b and two infrared light receivers 31, 32 are arranged. The infrared light receiving unit 31 positioned at the upper center of the center is for receiving the infrared rays that are emitted from the two infrared light projecting units 21a and 21b positioned at the left and right of the upper level and then reflected by some object. The infrared light receiving unit 32 located at is for receiving infrared rays reflected by some object after being emitted from the two infrared posting units 22a and 22b located on the left and right sides of the lower stage.

背面の右上に位置する赤外線投光部21aの投光光軸はは、前方斜め左上方へ向けて赤外線を投光するものであり、これにより、遊技者から見て右上位置に感知小領域41aが形成される。なお、図中、ハッチングで示される51aは、感知限界距離断面を模式的に示す楕円である。   The light projecting optical axis of the infrared light projecting unit 21a located on the upper right side of the rear surface projects infrared rays toward the upper left obliquely upward, and thereby the small sensing area 41a is located at the upper right position when viewed from the player. Is formed. In the figure, 51a indicated by hatching is an ellipse schematically showing a cross section of the detection limit distance.

背面の左上に位置する赤外線投光部21bの投光光軸はは、前方斜め右上方へ向けて赤外線を投光するものであり、これにより、遊技者から見て左上位置に感知小領域41bが形成される。なお、図中、ハッチングで示される51bは、感知限界距離断面を模式的に示す楕円である。   The light projecting optical axis of the infrared light projecting unit 21b located on the upper left side of the rear surface projects infrared light obliquely upward and to the upper right, so that the sensing small area 41b is located in the upper left position when viewed from the player. Is formed. In the figure, 51b indicated by hatching is an ellipse schematically showing a detection limit distance section.

背面の右下に位置する赤外線投光部22aの投光光軸はは、前方斜め左下へ向けて赤外線を投光するものであり、これにより、遊技者から見て右下位置に感知小領域42aが形成される。なお、図中、ハッチングで示される52aは、感知限界距離断面を模式的に示す楕円である。   The light projecting optical axis of the infrared light projecting unit 22a located at the lower right side of the back surface projects infrared rays toward the front lower left, and thus, the sensing small area is located at the lower right position when viewed from the player. 42a is formed. In addition, in the figure, 52a shown by hatching is an ellipse schematically showing a detection limit distance section.

背面の左下に位置する赤外線投光部22bの投光光軸はは、前方斜め右下へ向けて赤外線を投光するものであり、これにより、遊技者から見て左下位置に感知小領域42bが形成される。なお、図中、ハッチングで示される52bは、感知限界距離断面を模式的に示す楕円である。   The light projecting optical axis of the infrared light projecting unit 22b located on the lower left side of the back surface projects infrared light toward the front diagonally lower right, and as a result, the small sensing area 42b is located at the lower left position when viewed from the player. Is formed. In the drawing, 52b indicated by hatching is an ellipse schematically showing a detection limit distance section.

−電気的なハードウェア構成−
第2実施形態に係るロボット玩具の電気的なハードウェア構成に相当する回路図が図13に示されている。図13に示される回路図において、図12に示される第1実施形態の回路図との相違は、傾動機構を駆動するためのアクチュエータ121を含む点、投光回路部を構成する赤外線発光ダイオードが4個ある点、及び4個の発光部に対して2個の受光部ICで対応している点である。
-Electrical hardware configuration-
A circuit diagram corresponding to the electrical hardware configuration of the robot toy according to the second embodiment is shown in FIG. In the circuit diagram shown in FIG. 13, the difference from the circuit diagram of the first embodiment shown in FIG. 12 is that it includes an actuator 121 for driving the tilting mechanism, and the infrared light emitting diode constituting the light projecting circuit unit. There are four points and two light receiving units IC corresponding to the four light emitting units.

すなわち、アクチュエータ121は、ボールねじ突きモータやソレノイドプランジャーなどで構成され、右及び左の上腕部75a,75bの付け根に位置する回動軸の軸線A1を、フックパンチ用の傾斜姿勢(図中A1'で示す)とアッパーカットパンチ用の水平姿勢(図中A1で示す)とに切り替えるための傾動機構を切り替え駆動するためのものである。このアクチュエータ121fは、ワンチップ・マイコン108のポートP31,P32から出力される信号で起動される。   That is, the actuator 121 is composed of a ball screw thrust motor, a solenoid plunger, or the like, and the axis A1 of the rotating shaft located at the base of the right and left upper arm portions 75a and 75b is inclined to the hook punch (in the drawing). A tilt mechanism for switching between a horizontal posture (indicated by A1 ′) and an upper cut punch horizontal posture (indicated by A1 in the drawing) is switched and driven. The actuator 121f is activated by a signal output from the ports P31 and P32 of the one-chip microcomputer 108.

投光回路部は、赤外線投光部21aに含まれる赤外線発光ダイオード115aと、赤外線投光部21bに含まれる赤外線発光ダイオード115bと、赤外線投光部22aに含まれる赤外線発光ダイオード116aと、赤外線投光部22bに含まれる赤外線発光ダイオード116bと、右上領域コードによる赤外線エンコード用のトランジスタ117a、左上領域コードによる赤外線エンコード用のトランジスタ117bと、右下領域コードによる赤外線エンコード用のトランジスタ118a、左下領域コードによる赤外線エンコード用のトランジスタ118bと、キャリア生成用のトランジスタ105とを含んで構成される。   The light projecting circuit unit includes an infrared light emitting diode 115a included in the infrared light projecting unit 21a, an infrared light emitting diode 115b included in the infrared light projecting unit 21b, an infrared light emitting diode 116a included in the infrared light projecting unit 22a, and an infrared light projecting unit. Infrared light emitting diode 116b included in the optical section 22b, an infrared encoding transistor 117a using an upper right region code, an infrared encoding transistor 117b using an upper left region code, an infrared encoding transistor 118a using a lower right region code, and a lower left region code And an infrared encoding transistor 118b and a carrier generation transistor 105.

受光回路部は、赤外線受光部31に対応する受光部IC119、赤外線受光部32に対応する受光部IC120とを含んで構成される。受光部IC119,120は、それぞれ受光した赤外線反射光を光電変換したのち、キャリア周波数成分の抽出、並びに、復調処理を行って、領域コードを復調する作用を有する。   The light receiving circuit unit includes a light receiving unit IC 119 corresponding to the infrared light receiving unit 31 and a light receiving unit IC 120 corresponding to the infrared light receiving unit 32. The light receiving units IC 119 and 120 have a function of demodulating the region code by performing photoelectric conversion of the received infrared reflected light and then performing extraction of carrier frequency components and demodulation processing.

なお、図示の構成では、4個の物体感知小領域41a,41b,42a,42bを有する物体センサを構成するについて、2個の赤外線受光部31,32を使用したが、それらの感知小領域41a,41b,42a,42bのそれぞれにおいて、投光の干渉の虞がないのであれば、それらの受光部31,32は、4個の投光部21a,21b,22a,22bの中間に置かれた共通な1個の受光部で代用することもできる。   In the configuration shown in the figure, the two infrared light receiving portions 31 and 32 are used to construct the object sensor having the four object sensing small areas 41a, 41b, 42a, and 42b. , 41b, 42a, and 42b, if there is no possibility of interference of light projection, the light receiving portions 31 and 32 are placed between the four light projection portions 21a, 21b, 22a, and 22b. A common light receiving unit can be substituted.

−電気的なソフトウェア構成−
第2実施形態に係るロボット玩具の電気的なソフトウェア構成に相当するフローチャートが図26に示されている。同図に示されるように、処理が開始されると、先ず、ロボット本体7の背面の上段中央に位置する赤外線受光部31を構成する受光部IC119から上受光出力を読み込んだのち(ステップ1101)、反射光の有無を判定する(ステップ1102)、ここで、反射光ありと判定されると(ステップ1102YES)、その後、一連の上系処理(ステップ1103〜1107)が実行される。
-Electrical software configuration-
A flowchart corresponding to the electrical software configuration of the robot toy according to the second embodiment is shown in FIG. As shown in the figure, when the process is started, first, the upper light receiving output is read from the light receiving unit IC 119 constituting the infrared light receiving unit 31 located at the upper center of the back surface of the robot body 7 (step 1101). The presence / absence of reflected light is determined (step 1102). If it is determined that reflected light is present (YES in step 1102), then a series of upper system processes (steps 1103 to 1107) are executed.

すなわち、先ず、読み取りコードを解読したのち(ステップ1103)、解読されたコードが左上領域41bに割り当てられた領域コードか、右上領域41aに割り当てられた領域コートかの判定が行われる(ステップ1104、1106)。ここで、左上領域コードと一致するものと判定されると(ステップ1104YES)、直ちに、左上系の検出物体の状態に応じたロボット動作(ステップ1105)が実行されるのに対して、右上領域コードと一致する者と判定されると(ステップ1106YES)、直ちに、右上系の検出物体の状態に応じたロボット動作(ステップ1107)が実行される。   That is, first, after decoding the read code (step 1103), it is determined whether the decoded code is an area code assigned to the upper left area 41b or an area code assigned to the upper right area 41a (step 1104, 1106). If it is determined that the upper left area code coincides (YES in step 1104), the robot operation (step 1105) corresponding to the state of the detected object in the upper left system is immediately executed, whereas the upper right area code. If it is determined that the person matches (step 1106 YES), the robot operation (step 1107) corresponding to the state of the detected object in the upper right system is immediately executed.

左上系の検出物体に応じたロボット動作(ステップ1105)においては、マイコン108のポートP31,P32を介してアクチュエータ121を作動させて、ロボロット本体7の胴部72に組み込まれた図示しない傾動機構を作動させることにより、左上腕部75bの付け根の回動軸線A1を、図7に示されるように、A1(水平姿勢)からA1'(傾斜姿勢)へと傾動させる。同時に、マイコン108のポートP23,P24のいずれか一方のポート(例えば、ポートP23)を第1の論理値に固定すると共に、他方のポートに所定デューティ比のPWMパルス列を出力することで、ロボット本体7に内蔵されたモータ114を第1の回転方向へと所定の電流値で回転させて、左上腕部75bを回動させることにより、左のフックパンチによる攻撃動作を実現する。   In the robot operation corresponding to the detection object of the upper left system (step 1105), the actuator 121 is operated via the ports P31 and P32 of the microcomputer 108, and a tilt mechanism (not shown) incorporated in the trunk portion 72 of the roborot body 7 is used. By actuating, the rotation axis A1 at the base of the left upper arm 75b is tilted from A1 (horizontal posture) to A1 ′ (tilted posture) as shown in FIG. At the same time, one of the ports P23 and P24 of the microcomputer 108 (for example, the port P23) is fixed to the first logical value, and a PWM pulse train having a predetermined duty ratio is output to the other port, whereby the robot body 7 is rotated at a predetermined current value in the first rotation direction to rotate the left upper arm portion 75b, thereby realizing an attack operation by the left hook punch.

右上系の検出物体に応じたロボット動作(ステップ1106)においては、マイコン108のポートP31,P32を介してアクチュエータ121を作動させて、ロボット本体7の胴部72に組み込まれた図示しない傾動機構を作動させることにより、左上腕部75bの付け根の回動軸線A1を、図7に示されるように、A1(水平姿勢)からA1'(傾斜姿勢)へと傾動させる。同時に、マイコン108のポートP23,P24のいずれか一方のポート(例えば、P24)を第1の論理値に固定すると共に、他方のポートに所定デューティ比のPWMパルス列を出力することで、ロボット本体7に内蔵されたモータ114を第2の回転方向へと所定の電流値で回転させて、右上腕部75aを回動させることにより、右のフックパンチによる攻撃動作を実現する。   In the robot operation (step 1106) corresponding to the detection object in the upper right system, the actuator 121 is operated via the ports P31 and P32 of the microcomputer 108, and a tilt mechanism (not shown) incorporated in the body 72 of the robot body 7 is used. By actuating, the rotation axis A1 at the base of the left upper arm 75b is tilted from A1 (horizontal posture) to A1 ′ (tilted posture) as shown in FIG. At the same time, either one of the ports P23 and P24 of the microcomputer 108 (for example, P24) is fixed to the first logical value, and a PWM pulse train having a predetermined duty ratio is output to the other port, whereby the robot body 7 The attacking action by the right hook punch is realized by rotating the motor 114 built in the motor in the second rotation direction at a predetermined current value and rotating the upper right arm 75a.

これに対して、上系の受光部IC119の出力に反射光なしと判定された場合には(ステップ1102NO)、下系の受光部IC120の出力を読み込んで(ステップ1108)、それに反射光ありと判定された場合に限り(ステップ1109YES)、一連の下系処理(ステップ1108〜1114)が実行される。   On the other hand, if it is determined that there is no reflected light in the output of the upper light receiving unit IC119 (NO in step 1102), the output of the lower light receiving unit IC120 is read (step 1108), and there is reflected light. Only when it is determined (YES in step 1109), a series of lower system processing (steps 1108 to 1114) is executed.

すなわち、先ず、読み取りコードを解読したのち(ステップ1110)、解読されたコードが左下領域42bに割り当てられた領域コードか、右下領域42aに割り当てられた領域コートかの判定が行われる(ステップ1111、1113)。ここで、左下領域コードと一致するものと判定されると(ステップ1111YES)、直ちに、左下系の検出物体の状態に応じたロボット動作(ステップ1112)が実行されるのに対して、右下領域コードと一致するものと判定されると(ステップ1113YES)、直ちに、右下系の検出物体の状態に応じたロボット動作(ステップ1114)が実行される。   That is, first, after the read code is decoded (step 1110), it is determined whether the decoded code is an area code assigned to the lower left area 42b or an area code assigned to the lower right area 42a (step 1111). 1113). If it is determined that the code matches the lower left area code (YES in step 1111), the robot operation (step 1112) corresponding to the state of the lower left detection object is immediately executed, whereas the lower right area If it is determined that it matches the code (YES in step 1113), the robot operation (step 1114) corresponding to the state of the lower right detection object is immediately executed.

左下系の検出物体に応じたロボット動作(ステップ1112)においては、マイコン108のポートP31,P32を介してアクチュエータ121を非作動することにより、ロボット本体7の胴部72に組み込まれた図示しない傾動機構を非作動させることにより、左上腕部75bの付け根の回動軸線A1を、図6に示されるように、A1(水平姿勢)に維持する。同時に、マイコン108のポートP23,P24のいずれか一方のポート(例えば、ポートP23)を第1の論理値に固定すると共に、他方のポートに所定デューティ比のPWMパルス列を出力することで、ロボット本体7に内蔵されたモータ114を第1の回転方向へと所定の電流値で回転させて、左上腕部75bを回動させることにより、左のアッパーカットパンチによる攻撃動作を実現する。   In the robot operation (step 1112) corresponding to the detection object in the lower left system, the actuator 121 is deactivated via the ports P31 and P32 of the microcomputer 108, whereby the tilting (not shown) incorporated in the body 72 of the robot body 7 is performed. By deactivating the mechanism, the rotation axis A1 of the base of the left upper arm 75b is maintained at A1 (horizontal posture) as shown in FIG. At the same time, one of the ports P23 and P24 of the microcomputer 108 (for example, the port P23) is fixed to the first logical value, and a PWM pulse train having a predetermined duty ratio is output to the other port, whereby the robot body 7 is rotated by a predetermined current value in the first rotation direction to rotate the left upper arm portion 75b, thereby realizing an attacking action by the left upper cut punch.

右下系の検出物体に応じたロボット動作(ステップ1114)においては、マイコン108のポートP31,P32を介してアクチュエータ121を非作動とし、ロボロット本体7の胴部72に組み込まれた図示しない傾動機構を非作動とすることにより、右上腕部75bの付け根の回動軸線A1を、図6に示されるように、A1(水平姿勢)に維持する。同時に、マイコン108のポートP23,P24のいずれか一方のポート(例えば、P24)を第1の論理値に固定すると共に、他方のポートに所定デューティ比のPWMパルス列を出力することで、ロボット本体7に内蔵されたモータ114を第2の回転方向へと所定の電流値で回転させて、右上腕部75aを回動させることにより、右のアッパーカットパンチみによる攻撃動作を実現する。   In the robot operation (step 1114) corresponding to the detection object in the lower right system, the actuator 121 is deactivated via the ports P31 and P32 of the microcomputer 108, and a tilt mechanism (not shown) incorporated in the body 72 of the roborot body 7 is used. Is deactivated, the rotation axis A1 at the base of the upper right arm 75b is maintained at A1 (horizontal posture) as shown in FIG. At the same time, either one of the ports P23 and P24 of the microcomputer 108 (for example, P24) is fixed to the first logical value, and a PWM pulse train having a predetermined duty ratio is output to the other port, whereby the robot body 7 By rotating the motor 114 built in the motor in the second rotation direction with a predetermined current value and rotating the upper right arm 75a, an attacking action by the right upper cut punch is realized.

−作用説明−
この第2実施形態に係るロボット玩具は、図6に示される、右下起点の右アッパーカットパンチによる攻撃動作と、左下起点の左アッパーカットパンチによる攻撃動作と、図7に示される、右上起点の右フックパンチによる攻撃動作と、左上起点の左フックパンチによる攻撃動作との4つの攻撃動作を実行可能に構成されている。
-Description of action-
The robot toy according to the second embodiment includes an attack operation by a right upper cut punch with a lower right starting point shown in FIG. 6, an attack operation by a left upper cut punch with a lower left starting point, and an upper right start point shown in FIG. The attack operation by the right hook punch and the attack operation by the left hook punch at the upper left starting point can be executed.

ロボット本体1の背後には、図7に示されるように、右上起点のフックパンチによる攻撃動作の起動に割り当てられた右上の物体感知小領域41aと、左上起点のフックパンチによる攻撃動作の起動に割り当てられた左上の物体感知小領域41bと、右下起点のアッパーカットパンチによる攻撃動作に割り当てられた右下の物体感知小領域42aと、左下起点のアッパーカットパンチ動作に割り当てられた右下の物体感知小領域42bとからなる4個の物体感知小領域が配置されている。   As shown in FIG. 7, behind the robot body 1, there is an upper right object detection small area 41 a assigned to start the attack operation by the hook punch at the upper right starting point, and the attack operation by the hook punch at the upper left starting point. The upper left object sensing small area 41b, the lower right object sensing small area 42a assigned to the attack action by the upper-cut punch at the lower right starting point, and the lower right object assigned to the upper cut punching action at the lower left starting point. Four object detection subregions including the object detection subregion 42b are arranged.

そして、図7に示されるように、左右のフックパンチに相当するボディーアクションを行って、例えば、図示の如く、右の拳6aを右上の物体感知小領域41aに向けて突き出すと、物体センサ(21a,21b,22a,22b,31,32)の感知作用、並びに、制御部(108)の作用により、右フックパンチによる攻撃動作が実行される。なお、同様にして、例えば、左の拳6bを左上の物体感知小領域41bに突き出せば、左フックパンチによる攻撃動作が実行される。   Then, as shown in FIG. 7, when a body action corresponding to the left and right hook punches is performed, for example, as shown in the figure, the right fist 6a is projected toward the upper right object sensing subregion 41a, the object sensor ( 21a, 21b, 22a, 22b, 31, 32), and the action of the control unit (108), the attack action by the right hook punch is executed. Similarly, for example, if the left fist 6b is protruded into the upper left object sensing small area 41b, an attack operation by the left hook punch is executed.

一方、図6に示されるように、左右のアッパーカットパンチに相当するボディーアクションを行って、例えば、図示の如く、右の拳6aを右下の物体感知小領域42aに向けて突き出すと、物体センサ(21a,21b,22a,22b,31,32)の感知作用、並びに、制御部(108)の作用により、右アッパーカットパンチによる攻撃動作が実行される。なお、同様にして、例えば、左の拳6bを左下の物体感知小領域42bに突き出せば、左アッパーカットパンチによる攻撃動作が実行される。   On the other hand, as shown in FIG. 6, when a body action corresponding to the left and right upper cut punches is performed, for example, as shown in the figure, the right fist 6a is projected toward the lower right object sensing small area 42a, the object The attack operation by the right upper cut punch is executed by the sensing action of the sensors (21a, 21b, 22a, 22b, 31, 32) and the action of the control unit (108). Similarly, for example, if the left fist 6b is protruded into the lower left object sensing small area 42b, an attack operation by the left upper cut punch is executed.

この第2の実施形態によれば、4つの攻撃動作をボディーアクションを介して起動させるものの、4つの攻撃動作の各起点の空間的レイアウトとそれを起動させるための4つの物体感知小領域の空間的レイアウトがほぼ一致するため、このことからも、遊技者は各攻撃動作とそれを起動するための物体感知小領域との関係を自然に理解することができ、より操作性が良好なものとなる。   According to the second embodiment, although the four attack actions are activated through the body action, the spatial layout of the starting points of the four attack actions and the space of the four object sensing subregions for activating it. This means that the player can naturally understand the relationship between each attack action and the small object sensing area to activate it, and the operability is better. Become.

<<その他の実施形態>>
本発明に適用可能なロボット玩具の形態は、ヒト型ロボットには限定されないことは勿論であり、その他、ライオン、トラ、バッファロー等の野獣型ロボット、又はティラノザウルス、トリケラトプス等の恐竜型ロボットにも本発明は適用できる。野獣型ロボットにて実行可能な1又は2以上の攻撃動作としては、左右の前足の爪を用いた攻撃動作、角を用いた攻撃動作、又は牙を用いた攻撃動作等を挙げることができ、恐竜型ロボットにて実行可能な1又は2以上の攻撃動作としては、左右の前足の爪を用いた攻撃動作、又は首を伸ばしての牙や角による攻撃動作等を挙げることができる。
<< Other Embodiments >>
Needless to say, the robot toy form applicable to the present invention is not limited to a human type robot, but also to beast type robots such as lions, tigers and buffalos, or dinosaur type robots such as tyrannosaurus and triceratops. The present invention is applicable. Examples of one or more attack actions that can be performed by a beast robot include attack actions using left and right forefoot claws, attack actions using horns, or attack actions using fangs. Examples of one or more attack operations that can be executed by the dinosaur robot include an attack operation using the left and right forefoot claws, and an attack operation using a fang or horn with the neck extended.

架空の怪獣ドラゴンに適用した例が図11に示されている。図において、81は尾部、82は脚部、83は爪を有する前脚、84は開閉可能な口を有する頭部、85は牙が臨む口部、86は開閉自在な翼である。   An example applied to a fictional monster dragon is shown in FIG. In the figure, 81 is a tail part, 82 is a leg part, 83 is a front leg having claws, 84 is a head part having an openable / closable mouth, 85 is a mouth part facing a fang, and 86 is an openable / closable wing.

尾部の基部には、1個の赤外線投光部2と、1個の赤外線受光部3とからなる物体センサが組み込まれ、それにより、ドラゴン型ロボット本体8の後方近辺には、単一の物体感知領域4が形成される。   An object sensor composed of one infrared light projecting unit 2 and one infrared light receiving unit 3 is incorporated in the base of the tail, so that a single object is located near the rear of the dragon-type robot body 8. A sensing area 4 is formed.

遊技者が、矢印A14に示されるように、右手の拳6aを物体感知領域4に向けて突き出すと、赤外線投光部2から後方へと発せられた赤外光9aが、右の拳6aに当たったことで生じた反射光9aが、赤外線受光部3に届くと、先に説明したような、制御部の作用により、ドラゴン型のロボット本体8においては、矢印A15に示されるように、首が伸びて頭部84が前方へ突出すると共に、矢印A16に示されるように、口部85が開いて牙が臨み、さらに、矢印17に示されるように、翼86が開いて、今にも、飛びかかりそうな形態が出現する。   When the player projects the right fist 6a toward the object sensing area 4 as indicated by the arrow A14, the infrared light 9a emitted backward from the infrared light projecting unit 2 is applied to the right fist 6a. When the reflected light 9a generated by hitting the infrared light receiving unit 3 reaches the infrared light receiving unit 3, the control unit as described above causes the dragon-type robot body 8 to have a neck as shown by an arrow A15. And the head 84 protrudes forward, the mouth 85 opens and the fangs face as shown by the arrow A16, and the wing 86 opens as shown by the arrow 17 and still jumps. Such a form appears.

このように、本発明は、1又は2以上の攻撃動作を実行可能な様々な形態のロボット玩具に適用することができる。   Thus, the present invention can be applied to various forms of robot toys capable of executing one or more attack operations.

本発明によれば、ロボット本体の近辺に何らかの物体(例えば、指先、拳、掌、等々)を意図的に存在させかつその物体を所定の状態とするだけで、それらの攻撃動作の1又は2以上を選択して実行させることができるから、攻撃動作の1つを実行させるために、別途専用の操作部等の付属品を必要としないロボット玩具を提供することができる。   According to the present invention, if any object (for example, fingertip, fist, palm, etc.) is intentionally present in the vicinity of the robot body and the object is in a predetermined state, one or two of these attacking actions can be performed. Since the above can be selected and executed, it is possible to provide a robot toy that does not require an additional accessory such as a dedicated operation unit in order to execute one of the attacking operations.

1 ヒト型二足歩行式ロボット本体
1A 剣の打ち下ろし動作が可能なヒト型二足歩行式ロボット本体
2a 赤外線投光部
2b 赤外線投光部
3a 赤外線受光部
3b 赤外線受光部
4a 右感知小領域
4b 左感知小領域
5a 右感知小領域の感知限界断面
6 遊技者
6a 遊技者の右拳
6b 遊技者の左拳
6c 遊技者の右指剣
7 左右のフック動作とアッパー動作とが実行可能なヒト型ロボット本体
7a 遊技者の右拳
7b 遊技者の左拳
8 ドラゴン型ロボット本体
9a 赤外線の照射光
9b 赤外線の反射光
10a 車輪
11 頭部
12 胴部
13 背部
14a 右肩部
14b 左肩部
15a 右上腕部
15b 左上腕部
16a 右下腕部
17a 右拳部
17a'剣を把持した右手
17b 左拳部
18a 右脚部
18b 左脚部
19a 右足部
19b 左足部
21a 赤外線投光部
21b 赤外線投光部
22a 赤外線投光部
22b 赤外線投光部
31 赤外線受光部
32 赤外線受光部
41a 右上感知小領域
41b 左上感知小領域
42a 右下感知小領域
42b 左下感知小領域
51a 右上感知小領域の感知限界断面
51b 左上感知小領域の感知限界断面
52a 右下感知小領域の感知限界断面
52b 左下感知小領域の感知限界断面
71 頭部
72 胴部
73 背部
74a 右肩部
74b 左肩部
75a 右上腕部
75b 左上腕部
76a 右下腕部
76b 左下腕部
77a 右拳部
77b 左拳部
81 尾部
82 脚部
83 前足部
84 開閉可能な口を有する頭部
85 牙を有する口部
86 翼
A1 右肩部の回動軸線
A2 右肘部の回動軸線
A3 脚付け根の回動軸線
A4 遊技者の右拳の突き出し方向を示す矢印
A5 ロボット本体の右拳の突き出し方向を示す矢印
A6 遊技者の右拳の突き出し方向を示す矢印
A7 ロボット本体の右拳の突き出し方向を示す矢印
A8 遊技者の右拳の突き出し方向を示す矢印
A9 ロボット本体の右拳の突き出し方向を示す矢印
A10 ロボット本体の右アッパーのスイング軌跡を示す矢印
A11 ロボット本体の右フックのスイング軌跡を示す矢印
A12 遊技者の指剣の振り下ろしのスイング軌跡を示す矢印
A13 ロボット本体の剣振り下ろしのスイング軌跡を示す矢印
A14 遊技者の右拳の突き出し方向を示す矢印
A15 ドラゴンロボットの首の伸張方向を示す矢印
A16 ドラゴンロボットの口の開き方向を示す矢印
A17 ドラゴンロボットの羽の浮き上がり方向を示す矢印
FL 床面
101a,101b 電池
102 電源スイッチ
103a 赤外線投光部2aに含まれる赤外線発光ダイオード
103b 赤外線投光部2bに含まれる赤外線発光ダイオード
104a 右領域コードによる赤外線エンコード用のトランジスタ
104b 左領域コードによる赤外線エンコード用のトランジスタ
105 キャリア生成用のトランジスタ
106a 赤外線受光部3aに対応する受光部IC
106b 赤外線受光部3bに対応する受光部IC
107 動作表示灯を構成する赤色発光ダイオード
108 ワンチップ・マイクロコンピュータ
109a 右マイク
109b 左マイク
110a 右A/Dコンバータ
110b 左A/Dコンバータ
111 各種設定用のDIPスイッチ
112 スピーカ
113 H型トランジスタブリッジ回路IC
114 駆動用モータ
115a 赤外線投光部21aに含まれる赤外線発光ダイオード
115b 赤外線投光部21bに含まれる赤外線発光ダイオード
116a 赤外線投光部22aに含まれる赤外線発光ダイオード
116b 赤外線投光部22bに含まれる赤外線発光ダイオード
117a 右上領域コードによる赤外線エンコード用のトランジスタ
117b 左上領域コードによる赤外線エンコード用のトランジスタ
118a 右下領域コードによる赤外線エンコード用のトランジスタ
118b 左下領域コードによる赤外線エンコード用のトランジスタ
119 赤外線受光部31に対応する受光部IC
120 赤外線受光部32に対応する受光部IC
121 肩部の傾動機構を駆動するためのアクチュエータ
122a 右低感度受光部を構成する受光部IC
122b 左低感度受光部を構成する受光部IC
123a 赤外光低減フィルタ
123b 赤外光低減フィルタ
1 Humanoid biped robot body 1A Humanoid biped robot body capable of sword down motion 2a Infrared light projecting unit 2b Infrared light projecting unit 3a Infrared light receiving unit 3b Infrared light receiving unit 4a Right sensing small area 4b Left sensitive small area 5a Sensing limit cross section of right sensitive small area 6 Player 6a Player's right fist 6b Player's left fist 6c Player's right finger sword 7 Human type capable of performing left and right hook actions and upper actions Robot body 7a Right fist of player 7b Left fist of player 8 Dragon type robot main body 9a Infrared irradiation light 9b Infrared reflected light 10a Wheel 11 Head 12 Body 13 Back 14a Right shoulder 14b Left shoulder 15a Upper right arm 15b Left upper arm portion 16a Right lower arm portion 17a Right fist portion 17a 'Right hand holding a sword 17b Left fist portion 18a Right leg portion 18b Left leg portion 19a Right foot portion 19b Left foot 21a Infrared projector 21b Infrared projector 22a Infrared projector 22b Infrared projector 31 Infrared receiver 32 Infrared receiver 41a Upper right sensing subregion 41b Upper left sensing subregion 42a Lower right sensing subregion 42b Lower left sensing subregion 51a Sensing limit section of upper right sensing small area 51b Sensing limit section of upper left sensing small area 52a Sensing limit section of lower right sensing small area 52b Sensing limit section of lower left sensing small area 71 Head 72 Body 73 Back part 74a Right shoulder 74b Left shoulder Part 75a Upper right arm part 75b Left upper arm part 76a Right lower arm part 76b Left lower arm part 77a Right fist part 77b Left fist part 81 Tail part 82 Leg part 83 Forefoot part 84 Head part with openable mouth 85 Mouth part with fangs 86 Wings A1 Rotating axis of right shoulder A2 Rotating axis of right elbow A3 Rotating axis of leg base A4 Protruding direction of player's right fist A5 Arrow indicating the protruding direction of the right fist of the robot body A6 Arrow indicating the protruding direction of the right fist of the player A7 Arrow indicating the protruding direction of the right fist of the robot body A8 Arrow indicating the protruding direction of the right fist of the player A9 Arrow indicating the protruding direction of the right fist of the robot main body A10 Arrow indicating the swing trajectory of the right upper of the robot main body A11 Arrow indicating the swing trajectory of the right hook of the robot main body A12 Indicates the swing trajectory of the player's finger sword Arrow A13 Arrow indicating the swing trajectory of the robot body swinging down the sword A14 Arrow indicating the direction in which the player's right fist is projected A15 Arrow indicating the direction of the dragon robot's neck extension A16 Arrow indicating the direction of the dragon robot's mouth opening A17 Dragon Arrow indicating the direction of lifting of the robot wing FL Floor 101a, 101b Battery 102 Power switch 103a Infrared light emitting diode included in infrared light projecting unit 2a 103b Infrared light emitting diode included in infrared light projecting unit 2b 104a Infrared encoding transistor based on right region code 104b Infrared encoding transistor based on left region code 105 Carrier generating transistor 106a Light receiving portion IC corresponding to infrared light receiving portion 3a
106b Light receiving portion IC corresponding to the infrared light receiving portion 3b
107 red light emitting diode constituting operation indicator 108 one-chip microcomputer 109a right microphone 109b left microphone 110a right A / D converter 110b left A / D converter 111 DIP switch for various settings 112 speaker 113 H-type transistor bridge circuit IC
114 Driving motor 115a Infrared light emitting diode included in the infrared light projecting unit 21a 115b Infrared light emitting diode included in the infrared light projecting unit 21b 116a Infrared light emitting diode included in the infrared light projecting unit 22a 116b Infrared light included in the infrared light projecting unit 22b Light emitting diode 117a Infrared encoding transistor by upper right region code 117b Infrared encoding transistor by upper left region code 118a Infrared encoding transistor by lower right region code 118b Infrared encoding transistor by lower left region code 119 Corresponding to infrared light receiving unit 31 Receiver IC
120 Light-receiving unit IC corresponding to the infrared light-receiving unit 32
121 Actuator 122a for Driving Shoulder Tilting Mechanism 122a Light Receiving Unit IC Constructing Right Low Sensitivity Photosensitive Unit
122b Light receiving part IC constituting left low sensitivity light receiving part
123a Infrared light reduction filter 123b Infrared light reduction filter

Claims (30)

1又は2以上の攻撃動作を実行可能なロボット本体を有するロボット玩具であって、
前記ロボット本体の近辺に物体感知領域を有する物体センサと、
前記物体センサの出力に基づいて、前記物体感知領域における物体の状態により選択される1又は2以上の前記攻撃動作の実行を制御する制御部とを包含する、ロボット玩具。
A robot toy having a robot main body capable of executing one or more attack operations,
An object sensor having an object sensing area in the vicinity of the robot body;
A robot toy including a control unit that controls execution of one or more of the attacking operations selected according to the state of the object in the object sensing area based on the output of the object sensor.
前記物体の状態により選択される1又は2以上の前記攻撃動作の実行は、前記物体の状態により決定される実行態様にて行われる、請求項1に記載のロボット玩具。   The robot toy according to claim 1, wherein execution of one or more of the attacking operations selected according to the state of the object is performed in an execution mode determined by the state of the object. 前記物体の状態が、前記物体感知領域に何らかの物体が出現したときには、前記攻撃動作の実行態様は、前記攻撃動作を単発的に実行すべきものとして決定される、請求項2に記載のロボット玩具。   3. The robot toy according to claim 2, wherein when an object appears in the object detection area, an execution mode of the attack operation is determined as a single execution of the attack operation. 前記物体の状態が、前記物体感知領域に何らかの物体が所定時間以上に滞在しているときには、前記攻撃動作の実行態様は、前記攻撃動作を所定の複数回、一定時間、又はその滞在中に亘り、サイクリックに実行すべきものとして決定される、請求項2に記載のロボット玩具。   When the state of the object is that an object has stayed in the object sensing area for a predetermined time or longer, the execution mode of the attack operation may be the predetermined number of times, during a certain time, or during the stay. The robot toy according to claim 2, which is determined to be executed cyclically. 前記物体の状態が、前記物体感知領域に何らかの物体が所定速度以上で接近しているときには、前記攻撃動作の実行態様は、前記攻撃動作を通常よりも強力なパワーで実行すべきものとして決定される、請求項2に記載のロボット玩具。   When the state of the object is that an object is approaching the object detection area at a predetermined speed or higher, the execution mode of the attack operation is determined as the attack operation to be executed with a stronger power than usual. The robot toy according to claim 2. 前記物体感知領域は、前記ロボット本体の周面のうちで、想定される遊技者と相対する面の近辺に設定される、請求項1に記載のロボット玩具。   2. The robot toy according to claim 1, wherein the object sensing area is set in the vicinity of a surface facing an assumed player among the peripheral surfaces of the robot body. 前記想定される遊技者と相対する前記面が、前記ロボット本体の背面である、請求項6に記載のロボット玩具。   The robot toy according to claim 6, wherein the surface facing the assumed player is a back surface of the robot body. 前記想定される遊技者と相対する前記面が、前記ロボット本体の左、及び/又は、右の側面である、請求項6に記載のロボット玩具。   The robot toy according to claim 6, wherein the surface facing the assumed player is a left side surface and / or a right side surface of the robot body. 前記物体感知領域は、前記ロボット本体の想定される遊技者と相対する面に沿って分布される複数の小領域からなり、それら複数の小領域のそれぞれは、前記攻撃動作の1又は2以上と予め関連付けがなされており、かつ
前記制御部は、前記複数の小領域のそれぞれ毎に、その小領域に関連づけられた1又は2以上の前記攻撃動作の実行を制御する、請求項1に記載のロボット玩具。
The object sensing area is composed of a plurality of small areas distributed along a surface facing the assumed player of the robot body, and each of the plurality of small areas is one or more of the attacking actions. The association is performed in advance, and the control unit controls execution of one or more of the attack operations associated with the small area for each of the plurality of small areas. Robot toy.
前記複数の小領域のそれぞれを前記ロボット本体と対面する側から観察したときの空間的レイアウトは、前記複数の攻撃動作の起点のそれぞれの空間的レイアウトと整合する、請求項9に記載のロボット玩具。   The robot toy according to claim 9, wherein a spatial layout when each of the plurality of small regions is observed from a side facing the robot main body matches a spatial layout of each of the starting points of the plurality of attack operations. . 前記複数の小領域のそれぞれは、前記ロボット本体の背面又は左、及び/又は右、の側面に沿って分布する、請求項10に記載のロボット玩具。   11. The robot toy according to claim 10, wherein each of the plurality of small regions is distributed along a back side or a left side and / or a right side of the robot body. 前記ロボット本体は、左拳を用いた各種パンチ攻撃や左手に把持した武器による各種攻撃等々の左起点の攻撃動作と右拳を用いた各種パンチ攻撃や右手に把持した武器による各種攻撃等々の右起点の攻撃動作とを有するヒト型ロボットであり、
前記物体感知領域は、前記ロボット本体の背面又は左右両側面に沿って、左右にレイアウトされる2個の小領域を含み、かつ
前記制御部は、前記2個の小領域のそれぞれ毎に、その小領域における物体の状態を解析し、左側の前記小領域の解析結果に基づいて、前記左起点の攻撃動作の実行を制御し、右側の前記小領域の解析結果に基づいて、前記右起点の攻撃動作の実行を制御する、請求項11に記載のロボット玩具。
The robot body has left-handed attack actions such as various punch attacks using the left fist and weapons held in the left hand, and various punch attacks using the right fist and various attacks using the weapon held in the right hand. A humanoid robot having a starting attack action,
The object sensing area includes two small areas laid out to the left and right along the back surface or both the left and right side surfaces of the robot body, and the control unit includes a control unit for each of the two small areas. Analyzing the state of the object in the small area, controlling the execution of the attack operation of the left origin based on the analysis result of the left small area, and based on the analysis result of the right small area, The robot toy according to claim 11, which controls execution of an attacking action.
前記ロボット本体は、左拳を用いたストレートパンチやフックパンチ攻撃等々の左上起点の攻撃動作と、右拳を用いたストレートパンチやフックパンチ攻撃等々の右上起点の攻撃動作と、左拳を用いたアッパーパンチ攻撃等々の左下起点の攻撃動作と、右拳を用いたアッパーパンチ攻撃等々の右下起点の攻撃動作と、を有するヒト型ロボットであり、
前記物体感知領域は、前記ロボット本体の背面又は左右両側面に沿って、上下左右にレイアウトされる4個の小領域を含み、かつ
前記指令生成部は、前記4個の小領域のそれぞれ毎に、その小領域における物体の状態を解析し、左上の前記小領域の解析結果に基づいて、前記左上起点の攻撃動作の実行を制御し、右上の前記小領域の解析結果に基づいて、前記右上起点の攻撃動の実行を制御し、左下の前記小領域の解析結果に基づいて、前記左下起点の制御動作の実行を制御し、右下の前記小領域の解析結果に基づいて、前記右下起点の攻撃動作の実行を制御する、請求項11に記載のロボット玩具。
The robot body uses an upper left starting attack operation such as a straight punch or hook punch attack using a left fist, an upper right starting attack operation such as a straight punch or hook punch attack using a right fist, and a left fist. It is a humanoid robot having an attack action of the lower left starting point such as an upper punch attack and an attack action of the lower right starting point such as an upper punch attack using the right fist,
The object sensing area includes four small areas laid out vertically and horizontally along the back surface or both left and right side surfaces of the robot body, and the command generation unit is provided for each of the four small areas. , Analyzing the state of the object in the small area, controlling the execution of the attack action of the upper left starting point based on the analysis result of the upper left small area, and based on the analysis result of the upper right small area Controls the execution of the attack action at the starting point, controls the execution of the control action at the lower left starting point based on the analysis result of the lower left small area, and controls the lower right based on the analysis result of the lower right small area. The robot toy according to claim 11, which controls execution of a starting attack operation.
前記物体センサが、前記ロボット本体側にあって、検出媒体となる放射体を前記物体感知領域へと送り出すトランスミッタと、前記ロボット本体側にあって、前記物体感知領域に存在する物体で反射された前記放射体を受け取るレシーバとを含み、かつ物体検出距離レンジが前記感知領域に整合するように感度調整され、前記レシーバからの出力に基づいて前記感知領域に物体の有無を示す信号を生成するようにした反射式物体センサである、請求項1に記載のロボット玩具。   The object sensor is on the robot body side and is reflected by the transmitter that sends a radiator serving as a detection medium to the object sensing area and the object that is on the robot body side and exists in the object sensing area. A receiver for receiving the radiator, and sensitivity adjusted to match an object detection distance range to the sensing area, and generating a signal indicating the presence or absence of an object in the sensing area based on an output from the receiver The robot toy according to claim 1, wherein the robot toy is a reflective object sensor. 前記感知領域は複数の小領域からなるものであり、かつ前記トランスミッタは前記小領域のそれぞれに検出媒体となる放射体を送り出す複数個のトランスミッタからなり、前記レシーバは前記小領域のそれぞれに存在する物体で反射された前記放射体を受け取る1又は2以上のレシーバからなり、さらに、各反射放射体がいずれの前記小領域から到来したかを識別可能とするための特徴付け処理を含む、請求項14に記載のロボット玩具。   The sensing area is composed of a plurality of small areas, and the transmitter is composed of a plurality of transmitters for sending a radiator serving as a detection medium to each of the small areas, and the receiver is present in each of the small areas. A characterization process comprising one or more receivers that receive the radiators reflected by an object, and further comprising a characterization process to enable identification of which subregion each reflected radiator came from. 14. The robot toy according to 14. 前記トランスミッタは、前記放射体の送り出し方向を調整できるように角度調整可能に取り付けられている、請求項15に記載のロボット玩具。   The robot toy according to claim 15, wherein the transmitter is attached so as to be adjustable in angle so that a delivery direction of the radiator can be adjusted. 前記特徴付け処理が、各反射放射体がいずれの前記小領域から到来したかを識別可能とするために、前記複数のトランスミッタのそれぞれからの放射体の送り出しタイミングを互いに異ならせるものである、請求項14に記載のロボット玩具。   The characterization process is such that the emission timing of the radiators from each of the plurality of transmitters is different from each other in order to be able to identify which small region each reflected radiator has come from. Item 15. The robot toy according to Item 14. 前記特徴付け処理が、各反射放射体がいずれの前記小領域から到来したかを識別可能とするために、前記複数のトランスミッタのそれぞれから送り出される放射体に固有の識別符号を組み込むものである、請求項14に記載のロボット玩具。   The characterization process incorporates an identification code that is unique to the radiators sent from each of the plurality of transmitters in order to be able to identify which subregion each reflected radiator came from. The robot toy according to claim 14. 前記検出媒体となる放射体が、赤外線をその一例として含む光、超音波をその一例として含む音波、又はマイクロ波をその一例として含む電磁波である、請求項15に記載のロボット玩具。   The robot toy according to claim 15, wherein the radiator serving as the detection medium is light including infrared rays as an example, sound waves including ultrasonic waves as an example, or electromagnetic waves including microwaves as an example. 前記ロボット本体が、それぞれ、1又は2以上の攻撃動作が可能なヒト型ロボット、ライオン、トラ、バッファロー等の野獣型ロボット、又はティラノザウルス、トリケラトプス等の恐竜型ロボットである、請求項1に記載のロボット玩具。   2. The robot body according to claim 1, wherein each of the robot bodies is a humanoid robot capable of performing one or more attack operations, a beast robot such as a lion, a tiger, and a buffalo, or a dinosaur robot such as tyrannosaurus and triceratops. Robot toys. 前記ヒト型ロボットにて実行可能な1又は2以上の攻撃動作が、左右のストレート、フック、アッパー等のパンチ攻撃動作、又は刀剣等の武器を手にしての攻撃動作、を含む、請求項20に記載のロボット玩具。   21. The one or more attack operations that can be executed by the humanoid robot include a punch attack operation such as a left and right straight, a hook, and an upper, or an attack operation using a weapon such as a sword. The robot toy described in 1. 前記野獣型ロボットにて実行可能な1又は2以上の攻撃動作が、左右の前足の爪を用いた攻撃動作、角を用いた攻撃動作、又は牙を用いた攻撃動作、を含む、請求項20に記載のロボット玩具。   The one or more attack operations that can be executed by the beast robot include an attack operation using left and right forefoot claws, an attack operation using horns, or an attack operation using fangs. The robot toy described in 1. 前記恐竜型ロボットにて実行可能な1又は2以上の攻撃動作が、左右の前足の爪を用いた攻撃動作、又は首を伸ばしての牙や角による攻撃動作、を含む、請求項20に記載のロボット玩具。   The one or more attack operations that can be executed by the dinosaur-type robot include an attack operation using left and right forefoot claws, or an attack operation using a fang or a horn with a stretched neck. Robot toys. 前記ロボット本体は、走行移動又は歩行移動が可能とされている、請求項1に記載のロボット玩具。   The robot toy according to claim 1, wherein the robot body is capable of traveling or walking. 手動移動モードと自動移動モードとを有し、
前記手動移動モードは、遊技者のボディーアクションに応答して走行移動乃至歩行移動を実行するものであり、かつ
前記自動移動モードは、プリセットされた移動軌跡にしたがって移動するプリセット移動モード、又は任意にプログラムされた移動軌跡にしたがって移動するプログラマブル移動モードを含む、請求項24に記載のロボット玩具。
It has a manual movement mode and an automatic movement mode,
The manual movement mode is for executing a traveling movement or a walking movement in response to a player's body action, and the automatic movement mode is a preset movement mode for moving according to a preset movement locus, or arbitrarily The robot toy according to claim 24, comprising a programmable movement mode that moves according to a programmed movement trajectory.
前記自動モードに設定中に、なんなからのボディーアクションが物体センサを介して検出されたとき、前記自動モードから前記手動モードへと動作モードを強制的に切り換える処理を含む、請求項25に記載のロボット玩具。   26. The method according to claim 25, further comprising: forcibly switching the operation mode from the automatic mode to the manual mode when any body action is detected through an object sensor while the automatic mode is set. Robot toys. 前記走行移動又は歩行移動を、左右2個のマイクにより敵方であるロボット本体から発せられる音を頼りに相手の方向を認識して、自発的にに進路を取りつつ行なうサーチ移動モードを有する、請求項24に記載のロボット玩具。   It has a search movement mode in which the traveling movement or walking movement is performed by recognizing the direction of the opponent by relying on the sound emitted from the enemy robot body by two right and left microphones, and spontaneously taking a course. The robot toy according to claim 24. 1又は2以上の攻撃動作を実行可能なロボット本体を有するロボット玩具における攻撃動作の制御方法であって、
前記ロボット本体の近辺に物体感知領域を有する物体センサからその出力を取り込むステップと、
前記取り込まれた前記物体センサの出力に基づいて、前記物体感知領域における物体の状態により選択される1又は2以上の前記攻撃動作の実行を制御するステップとをコンピュータにより実行する、ロボット玩具における攻撃動作の制御方法。
A method for controlling an attacking action in a robot toy having a robot body capable of executing one or more attacking actions,
Capturing the output from an object sensor having an object sensing area in the vicinity of the robot body;
An attack on the robot toy, wherein the step of controlling execution of one or more of the attacking operations selected by the state of the object in the object sensing area is executed by a computer based on the captured output of the object sensor How to control the operation.
1又は2以上の攻撃動作を実行可能なロボット本体を有するロボット玩具における攻撃動作制御用のコンピュータプログラムであって、
前記ロボット本体の近辺に物体感知領域を有する物体センサからその出力を取り込むステップと、
前記取り込まれた前記物体センサの出力に基づいて、前記物体感知領域における物体の状態により選択される1又は2以上の前記攻撃動作の実行を制御するステップとを包含する、ロボット玩具における攻撃動作制御用のコンピュータプログラム。
A computer program for attack action control in a robot toy having a robot main body capable of executing one or more attack actions,
Capturing the output from an object sensor having an object sensing area in the vicinity of the robot body;
Controlling the execution of one or more of the attack actions selected according to the state of the object in the object sensing area based on the captured output of the object sensor. Computer program.
1又は2以上の攻撃動作を実行可能なロボット本体を有するロボット玩具における攻撃動作制御用のコンピュータプログラムを格納した記録媒体であって、
前記コンピュータプログラムが、
前記ロボット本体の近辺に物体感知領域を有する物体センサからその出力を取り込むステップと、
前記取り込まれた前記物体センサの出力に基づいて、前記物体感知領域における物体の状態により選択される1又は2以上の前記攻撃動作の実行を制御するステップとを包含する、記録媒体。
A recording medium storing a computer program for controlling attacking actions in a robot toy having a robot main body capable of executing one or more attacking actions,
The computer program is
Capturing the output from an object sensor having an object sensing area in the vicinity of the robot body;
A step of controlling execution of one or more of the attack operations selected according to the state of the object in the object sensing area based on the captured output of the object sensor.
JP2016556174A 2014-10-31 2014-10-31 Robot toy Active JP6437566B2 (en)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2014/079145 WO2016067474A1 (en) 2014-10-31 2014-10-31 Robot toy

Publications (2)

Publication Number Publication Date
JPWO2016067474A1 true JPWO2016067474A1 (en) 2017-08-03
JP6437566B2 JP6437566B2 (en) 2018-12-12

Family

ID=55856852

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016556174A Active JP6437566B2 (en) 2014-10-31 2014-10-31 Robot toy

Country Status (2)

Country Link
JP (1) JP6437566B2 (en)
WO (1) WO2016067474A1 (en)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7055416B2 (en) * 2017-02-20 2022-04-18 友樹 橋本 Motion teaching / reproduction drive system and motion teaching / reproduction drive method for articulated robots
JP6575005B2 (en) * 2017-03-29 2019-09-18 Groove X株式会社 Joint structure suitable for robot joints
JP7220585B2 (en) * 2019-02-26 2023-02-10 株式会社タカラトミー fighting game device
CN109955268B (en) * 2019-04-25 2021-02-05 哈尔滨玄智科技有限公司 Cam energy storage modularization chiseling mechanism and fighting robot
JP2020203341A (en) * 2019-06-17 2020-12-24 株式会社ソニー・インタラクティブエンタテインメント Robot control system
JP7382743B2 (en) * 2019-06-17 2023-11-17 株式会社ソニー・インタラクティブエンタテインメント robot system
JP7041904B1 (en) 2020-11-30 2022-03-25 株式会社タカラトミー Toy system
CN113413620A (en) * 2021-06-25 2021-09-21 奥飞娱乐股份有限公司 Body-building synchronous toy

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0548711A (en) * 1991-08-09 1993-02-26 Toshiba Corp Mobile communication portable terminal device
JPH07178256A (en) * 1993-12-22 1995-07-18 Casio Comput Co Ltd Electronic equipment
JPH08215416A (en) * 1995-02-15 1996-08-27 Sony Corp Toy system with inter-matching robot
JP2001062157A (en) * 1999-08-24 2001-03-13 Bandai Co Ltd Electronic toy device
JP2001277163A (en) * 2000-04-03 2001-10-09 Sony Corp Device and method for controlling robot
JP2003053050A (en) * 2001-08-20 2003-02-25 Toybox:Kk Manipulated toy and its manipulating machine
JP2008080431A (en) * 2006-09-27 2008-04-10 Advanced Telecommunication Research Institute International Robot system
WO2013183328A1 (en) * 2012-06-05 2013-12-12 ソニー株式会社 Information processing device, information processing method, program and toy system

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6425887A (en) * 1987-07-21 1989-01-27 Takara Co Ltd Robot toy
JPH07325688A (en) * 1994-05-30 1995-12-12 Casio Comput Co Ltd Image display device
JP2009000286A (en) * 2007-06-21 2009-01-08 Taito Corp Game system and game robot operated by remote control

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0548711A (en) * 1991-08-09 1993-02-26 Toshiba Corp Mobile communication portable terminal device
JPH07178256A (en) * 1993-12-22 1995-07-18 Casio Comput Co Ltd Electronic equipment
JPH08215416A (en) * 1995-02-15 1996-08-27 Sony Corp Toy system with inter-matching robot
JP2001062157A (en) * 1999-08-24 2001-03-13 Bandai Co Ltd Electronic toy device
JP2001277163A (en) * 2000-04-03 2001-10-09 Sony Corp Device and method for controlling robot
JP2003053050A (en) * 2001-08-20 2003-02-25 Toybox:Kk Manipulated toy and its manipulating machine
JP2008080431A (en) * 2006-09-27 2008-04-10 Advanced Telecommunication Research Institute International Robot system
WO2013183328A1 (en) * 2012-06-05 2013-12-12 ソニー株式会社 Information processing device, information processing method, program and toy system

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
堀元純生、外2名: ""小型2足歩行ロボットとWiiリモコンを用いた格闘ゲームの開発"", 「第71回(平成21年)全国大会講演論文集(3)」, JPN6015002526, 10 March 2009 (2009-03-10), JP, pages 3 - 317, ISSN: 0003774401 *

Also Published As

Publication number Publication date
WO2016067474A1 (en) 2016-05-06
JP6437566B2 (en) 2018-12-12

Similar Documents

Publication Publication Date Title
JP6437566B2 (en) Robot toy
US8632376B2 (en) Robotic game systems and methods
US7568963B1 (en) Interactive toys
US20130288563A1 (en) Interactive toy system
US20160038842A1 (en) Interactive Toy Systems and Methods
US9836984B2 (en) Storytelling environment: story and playgroup creation
US10744405B2 (en) Video game incorporating safe live-action combat
US8876604B2 (en) Handheld electronic gesture game device and method
US8747179B2 (en) Robot toy
JP6352151B2 (en) Information processing apparatus, information processing system, and information processing method
US9927235B2 (en) Interactive turret robot
JP6910592B2 (en) Programming device and its control program, programming method
US10369487B2 (en) Storytelling environment: mapping virtual settings to physical locations
US8075400B2 (en) Game apparatus
JP2019170544A (en) Action device, action toy and system
JP5210570B2 (en) game machine
JP2018122033A (en) Toy and teaching material
JP2003181152A (en) Toy robot
JP6274718B2 (en) Operation device and game device
Behnke et al. NimbRo RS: A low-cost autonomous humanoid robot for multi-agent research
KR20040041743A (en) Device for a warrior robot and method for controlling the robot
KR20040063397A (en) intelligent game robot
JP7220585B2 (en) fighting game device
US11344793B2 (en) Game device
CN115847443A (en) Robot game method and device and computing equipment

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20170420

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170420

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180411

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180608

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181024

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181114

R150 Certificate of patent or registration of utility model

Ref document number: 6437566

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250