JPH0654488B2 - Processor - Google Patents
ProcessorInfo
- Publication number
- JPH0654488B2 JPH0654488B2 JP61052448A JP5244886A JPH0654488B2 JP H0654488 B2 JPH0654488 B2 JP H0654488B2 JP 61052448 A JP61052448 A JP 61052448A JP 5244886 A JP5244886 A JP 5244886A JP H0654488 B2 JPH0654488 B2 JP H0654488B2
- Authority
- JP
- Japan
- Prior art keywords
- cpu
- processing
- processor
- bus
- common bus
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Landscapes
- Multi Processors (AREA)
Description
【発明の詳細な説明】 〔産業上の利用分野〕 本発明は、シングル・プロセツサまたはマルチ・プロセ
ツサを構成するのに好適なプロセツサに関する。DETAILED DESCRIPTION OF THE INVENTION [Field of Industrial Application] The present invention relates to a processor suitable for constituting a single processor or a multi-processor.
従来、マルチ・プロセツサ・システムは、例えば特開昭
59-208666号公報に示されるように、1つのCPUとメ
モリ、他のプロセツサエレメントとマスタ・スレーブ動
作するバス・スイツチ等から成る。このような単一CP
Uによるプロセツサ・エレメントで構成されるマルチ・
プロセツサ・システムでは、外乱の少ない専用タスク処
理に関する限り問題はないが、知能化された制御処理等
システムに要求される処理内容が高級化してくると、デ
ータベースやシステムステータスの管理,データベース
やセンサ情報に基づく知識処理系の構成,多重割込み処
理,マルチ・ジヨブ機能等がバツク・グラウンド的な処
理系サポートが必須となり、リアルタイムマルチ・タス
キング,マルチ・ジヨブをサポートできる高級なオペレ
ーテイングシステム上で高級言語によりそれらの処理を
記述し、実行するのが一般的である。Conventionally, multi-processor systems have been disclosed in
As disclosed in Japanese Patent Laid-Open No. 59-208666, it comprises one CPU and memory, another processor element and a bus switch which operates as a master / slave. Such a single CP
Multi consisting of processor element by U
In the processor system, there is no problem as far as dedicated task processing with less disturbance, but as the processing contents required for the system such as intelligent control processing become sophisticated, database and system status management, database and sensor information A knowledge processing system configuration based on SQL, multiple interrupt processing, multi-job function, etc. are required to support back ground processing system, and real-time multi-tasking, multi-job support high-class language on a high-class operating system. It is general to describe and execute the processing by.
上述した従来のマルチ・プロセツサ・システムにおい
て、高速化のメインとなるリアルタイム制御処理もマル
チ・タスキングでサポートされるタスクの1つとして位
置付けられるため、タスク・スイツチ・オーバーヘツド
や並列処理スケジユールの乱れ等からきめ細かな密結並
列処理を行えないのが現状であるか。そのため、スーパ
ーバイザ・システムとしてスーパーミニコン等により知
能処理系を並列処理による制御処理系から分離する方式
を採ることが多いが、並列処理系と知能処理系の通信が
疎になりがちである、各プロセツサのローカルな内部ス
テータスを管理するのにオペレーテイングシステムオー
バーヘツドを要する知能処理の分散化,システム管理の
分散化などの特性が生かされず、実質的な価格性能比の
低下をもたらす、制御処理系の処理性能の拡張に応じて
それに見合つた知能処理系の処理性能の拡張及び2系間
の通信スループツト向上が図り難い等の問題がある。し
たがつて、特に制御処理系の制御ループが高速化した場
合、知能処理系と制御処理系とで比較的大きなデータが
高速に授受される必要があり、ハードウエア構成上上記
の問題が大きなネツクとなつて価格性能比を著しく低下
させることになる。In the above-mentioned conventional multi-processor system, real-time control processing, which is the main factor for speeding up, is also positioned as one of the tasks supported by multi-tasking, so task switches, overheads, and disturbances in parallel processing schedules, etc. Is it currently impossible to perform fine-grained dense parallel processing? Therefore, a supervisor system often uses a system such as a super minicomputer to separate the intelligent processing system from the control processing system by parallel processing, but the communication between the parallel processing system and the intelligent processing system tends to be sparse. The operating system overhead is required to manage the local internal status of the control system, which does not take advantage of such characteristics as decentralization of intelligent processing and decentralization of system management, resulting in a substantial reduction in price / performance ratio. There is a problem that it is difficult to increase the processing performance of the intelligent processing system and improve the communication throughput between the two systems according to the expansion of the processing performance. Therefore, especially when the control loop of the control processing system is speeded up, relatively large amount of data needs to be exchanged at high speed between the intelligent processing system and the control processing system, and the above problem is serious in the hardware configuration. Therefore, the price / performance ratio will be significantly reduced.
本発明の目的は、汎用的な処理に適したマルチ・プロセ
ツサ・システム又は単一プロセツサ・システムの実質的
な処理性能をバランス良く効率的に向上させることが可
能なプロセツサを提供することにある。An object of the present invention is to provide a processor capable of efficiently improving the substantial processing performance of a multi-processor system or a single processor system suitable for general-purpose processing in a well-balanced manner.
本発明の上記の目的は、シングル・プロセツサ又はマル
チ・プロセツサを構成するためのプロセツサにおいて、
そのプロセツサを構成するベース・プロセツサ・エレメ
ント内にそれぞれローカルメモリを有する2つのCPU
と、それらのフツクのCPUからアクセスできるデユア
ル・ポートRAM(DPR)と、2つのCPUが共に利
用可能な共通バスへいずれか一方のCPUを接続する共
通バス・スイツチ回路とを備えることにより達成され
る。The above-mentioned object of the present invention is a processor for constituting a single processor or a multi-processor,
Two CPUs each having a local memory in a base processor element that constitutes the processor
And a dual port RAM (DPR) accessible from the CPUs of those hooks, and a common bus switch circuit that connects one of the CPUs to a common bus that can be used by the two CPUs. It
本発明のプロセツサはベース・プロセツサ・エレメント
に設けた2つのCPUを1つのプロセツサのごとく動作
させるハードウエア・アーキテクチユアを提供する。ま
た、制御処理系とデータベースやセンサ情報に基づく知
能処理系の高い独立性に注目して、メインCPUのメイ
ン処理系に制御処理系を割り当てて制御演算等を他のベ
ース・プロセツサ・エレメントとの密結合並列処理によ
り実行させ、割込み処理やシステム管理,知識処理等、
バツクグラウンド的要素の強い処理を知能処理系として
メインCPUのバツクグラウンド処理系及びバツクグラ
ウンドCPUに割り当てて、メインCPUの制御処理系
をパツクアツプする。それによつて、タスク・スイツチ
・オーバーヘツドや並列処理を乱す割込み要因をできる
だけ取り除き、独立性の強い2つの処理系を高効率で並
列に運用することができるため、2台のCPUの処理性
能を加算して実質的にベース・プロセツサ・エレメント
の処理性能を2倍に向上させるとともに、ベース・プロ
セツサ・エレメントを複数結合するマルチ・プロセツサ
・システムにおいても、従来の2倍の総合処理性能と、
ベース・プロセツサ・エレメントの増設に対応して制御
処理系と知能処理系のバランスのとれた処理性能拡張と
を実現することができる。The processor of the present invention provides a hardware architecture for operating two CPUs provided in the base processor element as if they were one processor. In addition, paying attention to the high independence of the control processing system and the intelligent processing system based on the database and the sensor information, the control processing system is assigned to the main processing system of the main CPU so that the control calculation is performed with other base processor elements. Tightly coupled parallel processing is used to execute interrupt processing, system management, knowledge processing, etc.
A process having a strong background element is assigned to the background processing system of the main CPU and the background CPU as an intelligent processing system to backup the control processing system of the main CPU. As a result, task, switch, overhead, and interrupt factors that disturb the parallel processing can be removed as much as possible, and two highly independent processing systems can be operated in parallel with high efficiency. In addition to substantially improving the processing performance of the base processor element by a factor of two, even in a multi-processor system in which a plurality of base processor elements are combined, the total processing performance of the conventional double,
It is possible to realize a balanced processing performance expansion of the control processing system and the intelligent processing system in response to the expansion of the base processor element.
以下、本発明の実施例を図面を参照して説明する。Embodiments of the present invention will be described below with reference to the drawings.
第1図は本発明のプロセッサの構成を示すもので、この
図において、マルチ・プロセツサ・システムを構成する
ベース・プロセツサ・エレメント(BPE)1の内部構
成は、2つのCPU15,16(CPUθとCPU1)
から成り、この2つのCPU15,16間専用の通信機
構としてデユアルポートRAM(DPR)17と、他の
ベース・プロセツサ・エレメント(BPE)との通信を
行うためにいずれかのCPUを2つのCPU間の共通バ
スであるBPEローカルバス12へ接続するために、共
通バス・スイツチ制御回路22によつて矛盾なくスイツ
チ制御されるマルチ・プレクス・バスバツフア23とか
らなる共通バス・スイツチ24を設けてCPU15,1
6間、およびベース・プロセツサ・エレメント(BP
E)間の通信処理を行う構造を採つている。また、2つ
のCPU15,16は、それぞれにローカルメモリ1
8,20やローカルI/O19,21等を有し、通常は
独立して動作可能になつている。また、CPU間の通信
をサポートするデユアル・ポート・RAM(DPR)1
7の特徴として、互いのCPU15,16への通信用割
込みライン32,33を持つており、それを利用したオ
バーヘツドの小さいCPU15,16間通信機能を挙げ
ることができる。ベース・プロセツサ・エレメント1の
ローカルバス12上にはベース・プロセツサ・エレメン
トのローカルメモリ6やローカルI/O7が接続される
と共に、他のベース・プロセツサ・エレメントとの共通
のバスラインを構成し、しかもシステム共有メモリ9や
システム共有I/O10が接続されるシステムバス14
に接続するためのシステムバス・スイツチ8が設けられ
ている。このシステムバス・スイツチ8はアービテーシ
ヨンライン13によつてシステムバス14へのアクセス
に関するバス調停処理を行い、矛盾なくシステムバス1
4上の共有資源を利用したり、他のベース・プロセツサ
・エレメントとの通信処理を行つてベース・プロセツサ
・エレメント間で並列処理を実行できるようになつてい
る。FIG. 1 shows the configuration of a processor of the present invention. In this figure, the internal configuration of a base processor element (BPE) 1 that constitutes a multi-processor system is two CPUs 15 and 16 (CPU θ and CPU 1 )
And a dual port RAM (DPR) 17 as a dedicated communication mechanism between the two CPUs 15 and 16, and one of the CPUs between the two CPUs for communicating with another base processor element (BPE). In order to connect to the BPE local bus 12 which is a common bus of the CPU 15, a common bus switch 24 composed of a multiplex bus buffer 23 which is switch-controlled by the common bus switch control circuit 22 without inconsistency is provided. 1
Between 6 and the base processor element (BP
It adopts a structure for performing communication processing between E). In addition, the two CPUs 15 and 16 each have a local memory 1
It has 8, 20 and local I / Os 19, 21 and the like, and is usually operable independently. Also, a dual port RAM (DPR) 1 that supports communication between CPUs
The seventh feature is that it has communication interrupt lines 32 and 33 to the CPUs 15 and 16 of each other, and a communication function between the CPUs 15 and 16 having a small overhead is provided. The local memory 6 and the local I / O 7 of the base processor element are connected to the local bus 12 of the base processor element 1, and a common bus line with other base processor elements is formed. Moreover, the system bus 14 to which the system shared memory 9 and the system shared I / O 10 are connected
A system bus switch 8 is provided for connecting to the. The system bus switch 8 performs bus arbitration processing regarding access to the system bus 14 through the arbitration line 13, and the system bus 1 is consistent.
4 can be used to perform parallel processing between the base processor elements by performing communication processing with other base processor elements.
第5図は、デユアルポートRAM(DPR)17のハー
ドウエアブロツク図を示すもので、この図においてデユ
アルポートRAM(DPR)17は2つのCPU15,
16間の共有される共有メモリとみなすことができ、2
つのCPU15,16のデユアルポートRAM(DP
R)へのアクセスを符号77〜80で示す各プロセツサ
のアクセス要求信号、アクセス許可信号使つて調停する
アービタ60と、アービタ60からのイネーブル信号7
5,76に従つてCPUからのバス64,65を内部バ
ス66へスイツチするバス・スイツチ61,62と、内
部バス66のアドレス,制御線をデコードしメモリ・イ
ネーブル信号81や割込み制御信号73,74を発生す
るデコーダ67と、これに加えて各CPUへの割込み信
号32,33をセツト,リセツトするためにデコーダ6
7の発生する割込み制御信号73,74によつて動作す
るフリツプフロツプ68,69等から成つている。特徴
的なデユアルポートRAM(DPR)のCPU間通信用
割込み機能は、デユアルポートRAM(DPR)の特定
の番地にCPUθへ割込みを発生するレジスタとCPU
1へ割込みを発生するレジスタをそれぞれ設けて、同時
にそれらをお互いのCPUへの命令レジスタと定義し
て、命令の授受と割込みの発生とを同時に行う。CPU
1がCPUθへ命令を伝達する場合を例にとると、まず
CPU1がCPUθに実行させたい命令属性を自身のレ
ジスタ等にセツトしてそれをデユアルポートRAM(D
PR)上のCPUθへの命令レジスタ(割込み発生用レ
ジスタ)にストアすると、デコーダ67がCPUθへの
命令レジスタがアクセスされたことをデユアルポートR
AM(DPR)の内部バス67を監視しデコードするこ
とによつて知りCPUθへの命令レジスタ・アクセス信
号パルスをアクセス信号73を使つて送出してフリツプ
・プロツプ68に信号70の値をラツチする。なお、
初期状態はRESET信号72によつてQがHI,がLO
にセツトされているため、上記の動作でQにLO,に
HIが出力され、LOアクテイブであるCPUθへの割
込み信号30がCPUθに対してアクテイブになる。FIG. 5 is a hardware block diagram of the dual port RAM (DPR) 17, in which the dual port RAM (DPR) 17 has two CPUs 15,
It can be regarded as a shared memory shared between 16 and 2
Dual port RAM (DP
Arbiter 60 that arbitrates access to R) by using access request signals and access permission signals of each processor indicated by reference numerals 77 to 80, and enable signal 7 from arbiter 60.
Bus switches 61 and 62 for switching the buses 64 and 65 from the CPU to the internal bus 66 in accordance with 5, 76 and the memory enable signal 81 and the interrupt control signal 73 by decoding the address and control lines of the internal bus 66. Decoder 67 for generating 74 and decoder 6 for setting and resetting interrupt signals 32 and 33 to each CPU
7 are comprised of flip-flops 68, 69 and the like which are operated by interrupt control signals 73, 74. The interrupt function for inter-CPU communication of the characteristic dual port RAM (DPR) is a register that generates an interrupt to the CPU θ at a specific address of the dual port RAM (DPR) and the CPU.
1 are each provided with a register for generating an interrupt, and at the same time, they are defined as instruction registers for the CPUs of the other, and instructions are sent and received and an interrupt is generated at the same time. CPU
Taking the case where 1 transmits an instruction to the CPU θ as an example, first, the CPU 1 sets the instruction attribute which the CPU 1 wants the CPU θ to execute in its own register or the like and sets it in the dual port RAM (D
When the instruction register to the CPU θ on the PR is stored, the decoder 67 indicates that the instruction register to the CPU θ has been accessed.
By knowing by monitoring and decoding the internal bus 67 of the AM (DPR), an instruction register access signal pulse to the CPU θ is transmitted using the access signal 73 to latch the value of the signal 70 to the flip prop 68. In addition,
In the initial state, Q is HI and LO is LO by the RESET signal 72.
Since it is set to 0, the above operation outputs LO to HI and HI to Q, and the interrupt signal 30 to the CPU θ which is LO active becomes active to CPU θ.
次に割込みを受付けたCPUθは、自身の割込みサービ
スルーチンの中で、実行すべき命令を得るために再びC
PUθへの命令レジスタを参照し、指示されている命令
を設み出すと、同様にしてデコーダ67はそのアクセス
状況を監視しておりCPUθへの命令レジスタ・アクセ
ス信号パルスをアクセス信号73を使いフリツプ・フロ
ツプ68に対して出力して、HIである70をラツチ
しQにHIを出力する。すなわち、CPUθへの割込み
発生ライン32を非アクテイブにする。上述のシーケン
スにより一連の割込み発生から受付けに至る動作とソフ
トウエア的な命令授受に関する動作を同時にかつ最小の
オーバーヘツドで実行することができる。Next, the CPU θ that receives the interrupt again executes C in order to obtain the instruction to be executed in its interrupt service routine.
When the instructed instruction is found by referring to the instruction register to PUθ, the decoder 67 similarly monitors the access status, and the instruction register / access signal pulse to CPUθ is flipped using the access signal 73. Output to the flop 68, latch the HI 70 and output HI to Q. That is, the interrupt generation line 32 to the CPU θ is made inactive. By the above-mentioned sequence, it is possible to simultaneously execute a series of operations from generation of an interrupt to acceptance and operations related to software instruction exchange with a minimum overhead.
第1図に戻り、ベース・プロセツサ・エレメント(BP
E)1内のCPUθ又はCPU1のバス28又は29の
うちいずれか一つを選択し、CPUθとCPU1の共有
バスとみなせるBPEローカルバス12として出力する
ためのバス切換制御(バス・スイツチ)を行う共通バス
・スイツチ24は、前述したように共有バス・スイツチ
制御回路22とそれによつて制御されるマルチ・プレク
ス・バスバツフア23とから構成される。そのバス・ス
イツチ制御は、CPUθをマスタ、CPU1をスレーブ
とした場合に簡単には第4図に示すNOR回路83,N
AND回路84を備える共有バス・スイツチ・ロジツク
により行われる。その特徴的なバス・スイツチ制御シー
ケンスを第2図のタイム・チヤートとともに説明する。
まず2つのCPUのローカルバス28,29の獲得権
は、常にそれぞれのCPU側にあり他のバス上のデハイ
スから侵害を受けることはない(,)。CPUθの
共有バス(BPEローカルバス12)アクセク要求は
に示すように常にアクテイブになつており、CPU1の
共有バスアクセス要求はに示す常に必要に応じてアク
テイブになる。すなわち、CPU1が共有バスを獲得し
ている時、以外は、常にCPUθ側が共有バスを獲得し
ている。第2図に示す例ではaでCPU1が共有バス
アクセス要求87を出力し、それを受けてCPUθがそ
の時点で実行している命令処理を終え共有バス権を放棄
できる状態になつたら直ちにaでホールト・アクノリ
ツヂ82を出力して、aでCPUθ共有バス・アセク
ス許可信号85(ゲート83でドライブされる)を非ア
クテイブにするとともにaに示す様に共有バスを放棄
する。また、aでCPUθ自身はホールト状態にはい
り、同時にaでCPU1の共有バス・アクセス許可信
号86(ゲート84によつてドライブされる)がアクテ
イブになつてaに示すようにバス・スイツチ・バツフ
ア23のCPU1側が選択され、CPU1に共有バスの
使用権が移る。CPU1が共有バスの使用を終えて共有
バスを放棄しても良い時刻になつたら、CPU1共有バ
ス・アクセス要求87をbに示すように非アクテイブ
にする。すると直ちにbでCPUθ共有バス・アクセ
ス許可信号85がアクテイブになつてバス・スイツチ・
バツフア23のCPUθ側が選択され、CPUθに共有
バスの使用権が移つた後、bでCPUθのホールト・
アクノリツヂが解除され、bでCPUθはホールト状
態から実動状態へ移行する。及びはCPUθ及びC
PU1それぞれの実動状態を示している。上述したよう
なマスタ(CPUθ),スレーブ(CPU1)動作を行
うため、CPUθはCPU1に共有バスの使用権が移つ
ている間(a−b)と、バススイツチを行いかつバ
スの電気的,タイミング的特性を矛盾なく調整するわず
かの間(b−b)との合計時間ホールト状態となり
実動しない。すなわち、実動権から言えば、CPU1の
方がマスタ的に動作することになる。ホールト時間が長
くなりすぎてCPUθの動作がさまたげられないよう
に、1データ転送ごとに共有バスの使用権をCPUθへ
移すモードを設けている。しかし、後述するように、C
PUθをメインCPUとして、CPU1を知能処理等を
行うバツク・グラウンドCPUとしてCPUθを支援す
る形で使用し、かつマルチ・プロセツサ構成を採つた場
合にベース・プロセツサ・エレメント(BPE)単位で
機能分散構造の分散知識ベース形態を採用することによ
つて多くの必要データは自身の近くから入手可能とな
り、大半のデータ通信はデユアルポートRAM(DP
R)を利用して行うことができる。そのため、ベース・
プロセツサ・エレメント(BPE)間で知識情報の交信
を行う率は、CPUθが密結合並列処理のため他のベー
ス・プロセツサ・エレメント(BPE)と情報の交信を
行う率に比べて十分小さく、本発明によるCPUθの処
理能力損失はごくわずかであるとみなすことができる。
また、CPUθのバツク・アツプやシステム管理を行う
ものとしてCPU1の役割を固定した場合は、CPUθ
の動作制御権をCPU1に持たせる方が管理面等で有効
であり、本発明の共有バス制御は、上述したようなロー
カル分散処理に適したものであると言える。Returning to FIG. 1, the bass processor element (BP
E) Select either one of the CPU θ in 1 or the bus 28 or 29 of the CPU 1 and perform bus switching control (bus switch) for outputting as the BPE local bus 12 that can be regarded as a shared bus between the CPU θ and the CPU 1. The common bus switch 24 is composed of the shared bus switch control circuit 22 and the multiplex bus buffer 23 controlled by the shared bus switch control circuit 22 as described above. The bus switch control is simply performed by using the NOR circuits 83 and N shown in FIG. 4 when the CPU θ is the master and the CPU 1 is the slave.
This is performed by a shared bus switch logic provided with an AND circuit 84. The characteristic bus switch control sequence will be described together with the time chart of FIG.
First, the acquisition rights of the local buses 28 and 29 of the two CPUs are always on the respective CPUs side, and are not infringed by the Deheiss on other buses (,). The shared bus (BPE local bus 12) access request of the CPU θ is always active as shown in, and the shared bus access request of the CPU 1 is always active as shown in. That is, except when the CPU 1 acquires the shared bus, the CPU θ side always acquires the shared bus. In the example shown in FIG. 2, the CPU 1 outputs the shared bus access request 87 at a, and when the CPU θ receives the instruction and finishes the instruction processing being executed at that time, the shared bus right can be relinquished. The halt acknowledge 82 is output to deactivate the CPU θ shared bus access permission signal 85 (driven by the gate 83) at a and abandon the shared bus as shown at a. Further, at a, the CPU θ itself enters the halt state, and at the same time, at a, the shared bus access permission signal 86 (driven by the gate 84) of the CPU 1 becomes active, and the bus switch buffer 23 is activated as shown at a. The CPU1 side is selected and the right to use the shared bus is transferred to the CPU1. When it is time for the CPU 1 to finish using the shared bus and abandon the shared bus, the CPU 1 shared bus access request 87 is made inactive as shown in b. Immediately after that, at b, the CPU θ shared bus access permission signal 85 becomes active and the bus switch
After the CPU θ side of the buffer 23 is selected and the right to use the shared bus is transferred to the CPU θ, the CPU θ halt
The acknowledge is released, and the CPU θ shifts from the halt state to the production state at b. And are CPU θ and C
The actual operating state of each PU1 is shown. Since the master (CPU θ) and slave (CPU 1) operations described above are performed, the CPU θ performs bus switching while the right to use the shared bus is transferred to the CPU 1 (a-b), and the electrical and timing of the bus. For a short time (bb) during which the characteristics are adjusted without contradiction, a total time halt state occurs and no operation occurs. That is, in terms of the production right, the CPU 1 operates as a master. A mode is provided for transferring the right to use the shared bus to the CPU θ for each data transfer so that the halt time becomes too long and the operation of the CPU θ is not interrupted. However, as described below, C
When PUθ is used as a main CPU and CPU1 is used as a back ground CPU for intelligent processing to support CPUθ, and a multi-processor configuration is adopted, a base processor element (BPE) unit function distribution structure By adopting the distributed knowledge base form of MPU, most necessary data can be obtained near oneself, and most of the data communication is performed by the dual port RAM (DP).
R) can be used. Therefore, the base
The rate at which knowledge information is exchanged between the processor elements (BPE) is sufficiently smaller than the rate at which the CPU θ exchanges information with other base processor elements (BPE) due to the tightly coupled parallel processing. It can be considered that the CPU θ has a negligible processing power loss.
When the role of the CPU 1 is fixed to perform back-up and system management of the CPU θ,
It is more effective for the CPU 1 to have the operation control right of 1. from the viewpoint of management and the like, and it can be said that the shared bus control of the present invention is suitable for the local distributed processing as described above.
次に上述した本発明のプロセツサの一般動作を第2図に
より詳述する。Next, the general operation of the processor of the present invention described above will be described in detail with reference to FIG.
第3図はCPUθがメインの制御演算を行い、CPU1
が知識ベース(分散型)やセンサ情報等に基づく知能処
理やシステム管理を行いCPUθをバツクグラウンドで
バツクアツプするものとし、ローカル分散処理を行うと
仮定している。また、マルチ・プロセツサ構成を採つて
いる場合は、各ベース・プロセツサ・エレメント(BP
E)は他のベース・プロセツサ・エレメント(BPE)
とともにメインでは密結合並列処理,バツクグラウンド
では疎結合並列処理を行うものと仮定している。35は
時間軸に沿つたCPU1の処理の流れを示しており、3
6,37,38は同様にCPUθの処理の流れを示して
いる。共有資源としては、ベース・プロセツサ・エレメ
ント(BPE)内のCPUθ,CPU1間のローカルな
共有メモリであるデユアルポートRAM(DPR)と、
マルチ・プロセツサ構成の場合すべてのベース・プロセ
ツサ・エレメント(BPE)からアクセス可能なシステ
ムバス14上のシステム共有資源とがある。47,4
8,54,59がCPUθとDPRとの通信を示し、4
6,53,56,58がCPU1とDPRとの通信を示
している。同様に、57がCPUθとシステム共有資
源、51がCPU1とシステム共有資源との通信を示し
ており、システム共有資源側から観測すればいずれも、
ベース・プロセツサ・エレメント(BPE)からのアク
セスとみなされる。また、50がデユアルポートRAM
(DPR)上の割込み機能を利用したCPUθへの割込
みを示し、55が同様にCPU1への割込みを示してい
る。49はCPU1からCPUθへ共有バス・アクセス
要求信号と、それに対応するCPUθからの共有バス・
アクセス許可信号とのハンドシエークの状況を示してお
り、52は一旦CPU1によつて獲得された共有バスが
放棄されその使用権が再びCPUθへ移る様子を示して
いる。88,89は他のBPEからのシステム共有資源
へのアクセスを示している。90,91は知識の一部分
としてCPU1の処理中に外界情報であるローカルなセ
ンサ情報が取り込まれている様子を示しており、同様
に、92,93は他のBPEにも共有されている共有セ
ンサ情報がCPUθ,CPU1に取り込まれている様子
を示している。CPUθ及びCPU1の処理内容につい
ては、CPUθはメイン処理系で、他のベース・プロセ
ツサ・エレメント(BPE)のCPUθとともに知能機
械システムの一部分、例えば人間型知能ロボツトの腕の
部分の制御を行うために必要な数多くの制御演算タスク
をできるだけ並列度が向上するように分担し合い高効率
の密結合並列処理36b,38bを実行しているものと
し、演算プロセツサ等の補助プロセツサへ処理を依頼し
た後の空き時間や、他のベース・プロセツサ・エレメン
ト(BPE)との同期処理時に生ずる空き時間及び、他
のベース・プロセツサ・エレメントBPEやCPU1及
び共有資源からの割込みによる処理依頼時にバツクグラ
ウンド処理系としてCPU1と共同で36a,38aに
示す知能処理,システム管理等を行い、CPU1の処理
35と合わせて知能処理系を構成する。このベース・プ
ロセツサ・エレメント(BPE)で実行される知能処理
系は、腕部分のうちのさらに一部分、例えば筋肉部分に
関する情報群がデータ・べースとして保持されており、
ローカル・センサ情報もそれに関連の深いものが知覚情
報として取り込まれ、それらによつて構成されるローカ
ルな機能分散データベースを基本にして筋肉部分に関す
る知能処理を実行し、メイン処理系で実行されている制
御演算全体をバツクアップするものとしている。In FIG. 3, the CPU θ performs the main control calculation, and the CPU 1
Is assumed to perform intelligent processing and system management based on a knowledge base (distributed type) or sensor information to back up the CPU θ in the background, and to perform local distributed processing. Also, if a multi-processor configuration is adopted, each base processor element (BP
E) is another base processor element (BPE)
At the same time, it is assumed that the main performs tightly coupled parallel processing and the background performs loosely coupled parallel processing. Reference numeral 35 indicates a processing flow of the CPU 1 along the time axis, and 3
Similarly, reference numerals 6, 37 and 38 show the processing flow of the CPU θ. The shared resources include a dual port RAM (DPR) which is a local shared memory between the CPU θ and the CPU 1 in the base processor element (BPE),
In the case of a multi-processor configuration, there are system shared resources on the system bus 14 accessible by all base processor elements (BPEs). 47,4
8, 54 and 59 indicate communication between the CPU θ and DPR, 4
Reference numerals 6, 53, 56 and 58 indicate communication between the CPU 1 and the DPR. Similarly, 57 indicates the communication between the CPU θ and the system shared resource, and 51 indicates the communication between the CPU 1 and the system shared resource.
It is regarded as an access from the base processor element (BPE). 50 is a dual port RAM
An interrupt to the CPU θ using the interrupt function on (DPR) is shown, and 55 is also an interrupt to the CPU 1. 49 is a shared bus access request signal from the CPU 1 to the CPU θ and a corresponding shared bus from the CPU θ.
The state of handshake with the access permission signal is shown, and 52 shows how the shared bus once acquired by the CPU 1 is abandoned and its usage right is transferred to the CPU θ again. Reference numerals 88 and 89 denote access to system shared resources from other BPEs. Reference numerals 90 and 91 indicate that local sensor information, which is external information, is taken in during the processing of the CPU 1 as a part of the knowledge. Similarly, reference numerals 92 and 93 indicate shared sensors shared by other BPEs. It is shown that the information is taken in by the CPU θ and the CPU 1. Regarding the processing contents of the CPU θ and the CPU 1, the CPU θ is the main processing system, and together with the CPU θ of the other base processor element (BPE), controls a part of the intelligent mechanical system, for example, the arm part of the humanoid robot. It is assumed that a large number of necessary control calculation tasks are shared so that the degree of parallelism is improved and high-efficiency tightly coupled parallel processing 36b and 38b are executed, and the processing is requested to an auxiliary processor such as a calculation processor. Free time, free time that occurs during synchronization processing with other base processor elements (BPE), and CPU1 as a background processing system when processing is requested by an interrupt from another base processor element BPE or CPU1 and shared resources. Jointly conducts intelligence processing, system management, etc. shown in 36a and 38a. , Constituting the intelligent processing system with the processing 35 of the CPU 1. The intelligent processing system executed by this base processor element (BPE) holds a part of the arm part, for example, a group of information about the muscle part as a data base,
The local sensor information, which is deeply related to it, is taken in as perceptual information, and the intelligence processing about the muscle part is executed based on the local function distributed database constructed by them, and is executed by the main processing system. The entire control calculation is supposed to be backed up.
以上のような仮定に基づくシステムにおいて、第3図に
示すCPUθ及びCPU1の処理の流れを簡単に追つて
みる。まずCPUθ及びCPU1はそれぞれ第3図に示
す処理36,35を実行しており、CPU1は早急にC
PUθとの通信の必要が生じて39の時点でデユアルポ
ートRAM(DPR)に通信メツセージを書き込み、通
信内容を命令としてCPUθへの命令レジスタへ書き込
む操作46を行う。それに対応して、CPUθへの割込
み50が生じ、CPUθのバツクグラウンド処理系でデ
ユアルポートRAM(DPR)がアクセスされ必要な情
報の通信47が行われる。40の時点では、CPUθ
が、ハンドシエークする必要のないCPU間の共有デー
タをたれ流し的にデユアルポートRAM(DPR)へ書
き込んだり、デユアルポートRAM(DPR)から読み
出したりしている。種々のセンサ情報も、センサ側が主
体となつて割込みにより逐次処理されたり、必要に応じ
てプログラム中で参照されたりして知識の一部として取
り込まれる。次にCPU1が他のベース・プロセツサ・
エレメント(BPE)との交信を行うためシステム共有
資源との通信の必要が生じ、49で共通バス(BPEロ
ーカルバス)12の使用権を獲得し、41の時点でシス
テム共有メモリとの通信51を行い、完了したら52で
共通バスの使用権を再びCPUθへ移している。その間
CPUθはホールト状態37に保たれ、52によりホー
ルト状態が解除されると処理36の続きである処理38
を続行する。以後、42の時点ではCPU1とデユアル
ポートRAMと(DPR)でCPU間共有データのたれ
流し通信が行われ、43の時点ではCPUθからCPU
1へ命令付きのハンドシエーク・データの通信が39と
同様に実行されている。44ではCPUθとシステム共
有資源との通信57が行われており、通信内容は、バツ
クグラウンド処理38aにおいては知能処理に関する通
信、メイン処理38bにおいては、制御演算等に関する
密結合並列処理データの通信が行われ、その際CPU1
の処理や動作への影響はまつたく無い。45は、CPU
θ及びCPU1のデユアルポートRAM(DPR)との
たれ流し通信がほぼ同時刻に行われている様子を示して
いるが、アービタ60による適切なアービテーシヨン・
コントロールによつてお互いの処理や動作に何の支障も
なく通信処理が実行されている。In the system based on the above assumption, the processing flows of the CPU θ and the CPU 1 shown in FIG. 3 will be briefly followed. First, the CPU θ and the CPU 1 are executing the processes 36 and 35 shown in FIG. 3, respectively.
At a time point 39 when communication with PU θ is required, a communication message is written in the dual port RAM (DPR), and the operation 46 of writing the communication content as an instruction in the instruction register to the CPU θ is performed. Correspondingly, an interrupt 50 to the CPU θ occurs, the dual port RAM (DPR) is accessed in the background processing system of the CPU θ, and communication 47 of necessary information is performed. At the time of 40, CPU θ
However, shared data between CPUs that do not need to be handshaked is written to the dual port RAM (DPR) or read from the dual port RAM (DPR) in a spillover manner. Various sensor information is also taken in as a part of the knowledge by the sensor side being the subject and being sequentially processed by an interrupt, or being referred to in the program as necessary. Next, CPU1 is another bass processor
In order to communicate with the element (BPE), it becomes necessary to communicate with the system shared resource, and at 49, the right to use the common bus (BPE local bus) 12 is acquired, and at 41, communication 51 with the system shared memory is obtained. When completed, at 52, the right to use the common bus is transferred to the CPU θ again. During that time, the CPU θ is kept in the halt state 37, and when the halt state is released by 52, the process 38 which is a continuation of the process 36.
To continue. After that, at the time of 42, the CPU 1 and the dual-port RAM communicate (DPR) with the shared data between the CPUs, and at the time of 43, the CPU θ changes from the CPU θ to the CPU.
Communication of handshake data with an instruction to 1 is executed in the same manner as 39. In 44, communication 57 between the CPU θ and the system shared resource is performed. The communication content is communication related to intelligent processing in the background processing 38a and communication of tightly coupled parallel processing data related to control calculation in the main processing 38b. Done, CPU1
It does not affect the processing and operation of. 45 is a CPU
θ and the dual port RAM (DPR) of the CPU 1 show that the run-off communication is being performed at substantially the same time.
By the control, communication processing is executed without any hindrance to the processing and operation of each other.
以上の様な、ローカルな分散データベースにより知能処
理系及びそれにバツクアツプされた制御処理系を本発明
のプロセツサにより実現する場合、大半の知能処理はデ
ユアルポートRAM(DPR)を介してベース・プロセ
ツサ・エレメント(BPE)内のCPU間で実行すれば
良く、たまにその処理結果や他のベース・プロセツサ・
エレメント(BPE)による知能処理結果をやりとりす
るためにシステム共有資源をアクセスすれば良いため、
システム内の通信ノード間でごく自然に最良の通信スル
ープツトを実現できるとともに、それによつて制御処理
系と知能処理系がほぼ完全に独立して並列動作できるた
め処理性能を確実に2倍化することが可能となる。ま
た、BPEを増設することで、知能処理系の処理性能
と、制御処理系の処理性能が比例して増加し、常に両者
のバランスのとれた処理性能を提供することができる。When the processor of the present invention realizes the intelligent processing system and the control processing system backed up by the local distributed database as described above, most of the intelligent processing is performed by the base processor element via the dual port RAM (DPR). It may be executed between the CPUs in the (BPE), and sometimes the processing results and other base processors
Since it is sufficient to access the system shared resource in order to exchange the intelligent processing result by the element (BPE),
It is possible to realize the best communication throughput between the communication nodes in the system, and to double the processing performance because the control processing system and the intelligent processing system can operate almost completely independently and in parallel. Is possible. Further, by adding BPEs, the processing performance of the intelligent processing system and the processing performance of the control processing system increase in proportion to each other, and it is possible to always provide the processing performance in which both are balanced.
本発明の実施例によれば、マルチ・プロセツサ・システ
ム又は単一プロセツサ・システムの基本となるプロセツ
サ・エレメント(ベース・プロセツサ・エレメント:B
PE)を2つのCPUで構成し、それらを割込み機能付
のデユアルポートRAM(DPR)と、マスタ・スレー
ブ動作により外部から観測した場合、単一CPUのごと
く見える双方のCPUから共通に利用可能な共通バスと
で接続し、独立性の高いメイン処理系とバツクグラウン
ド処理系とを分離して2つのCPUにそれぞれ受け持た
せ、2つのCPU間でのローカルな情報交換はデユアル
ポートRAM(DPR)を介して行い、マルチ・プロセ
ツサ構成の場合の他のベース・プロセツサ・エレメント
(BPE)との通信は共通バス(BPEローカルバス)
を通してシステムバス上のシステム共有資源を介して行
うことによりBPEの性能を実質的に2倍化している。
また、本発明のプロセツサを使用してマルチ・プロセツ
サ・システムを構成する場合、バツクグラウンド処理系
のデータベースを機能分散化して各BPE単位で持つこ
とにより、バツクグラウンド処理系においては大半がプ
ロセツサ内のローカルな通信でクローズし他のプロセツ
サと頻繁に通信を行う必要かなく、それにより通信ノー
ド間での通信スループツトが最適化されるためメインで
実行されている密結合並列処理に大きな影響を与えるこ
となくメイン処理系及びバツクグラウンド処理系の双方
でごく自然に高効率な並列処理を行うことができる。さ
らに、本発明のプロセツサの増設により、常にメイン処
理及びバツクグラウンド処理系双方でバランスのとれた
処理能力向上が図れる。According to an embodiment of the present invention, a processor element (base processor element: B) that is the basis of a multi-processor system or a single processor system.
PE) is composed of two CPUs, which can be commonly used by both CPUs that look like a single CPU when observed from the outside by dual port RAM (DPR) with interrupt function and master / slave operation. It connects with a common bus, separates a highly independent main processing system and a background processing system, and separates them into two CPUs, and the local information exchange between the two CPUs is a dual port RAM (DPR). Common bus (BPE local bus) for communication with other base processor elements (BPE) in the case of multi-processor configuration.
The performance of the BPE is substantially doubled by performing through the system shared resource on the system bus.
Further, when a processor of the present invention is used to configure a multi-processor system, the database of the background processing system is functionally distributed and has each BPE unit, so that in the background processing system, most of the processors are in the processor. It does not have to be closed by local communication and frequently communicate with other processors, which optimizes the communication throughput between communication nodes, which has a great impact on the tightly coupled parallel processing executed in the main. Instead, both the main processing system and the background processing system can naturally perform highly efficient parallel processing. Further, by adding the processor of the present invention, it is possible to always improve the processing capacity in a balanced manner in both the main processing and the background processing system.
以上述べたように、本発明に上れば、汎用的な処理に適
したマルチ・プロセツサ・システム又は単一プロセツサ
・システムの実質的な処理性能をバランス良く効率的に
向上させることができる。As described above, according to the present invention, the substantial processing performance of a multi-processor system or a single processor system suitable for general-purpose processing can be efficiently improved in a well-balanced manner.
第1図は本発明のプロセツサにおけるベース・プロセツ
サ・エレメントの内部構成とそれによるマルチ・プロセ
ツサ・システムの一部分を示す図、第2図は本発明を構
成するベース・プロセツサ・エレメント内の2つのCP
U間での共通バス(BPEローカル)スイツチ・シーケ
ンスを示す図、第3図はベース・プロセツサ・エレメン
ト内の2CPU間での処理の流れを示す図、第4図は本
発明を構成する共有バス・スイツチの基本ロジツク図、
第5図は本発明を構成するデユアル・ポートRAMのロ
ジツク・ブロツク図である。 1…ベース・プロセツサ・エレメント(BPE)、8…
システム・バス・スイツチ、14…システム・バス、1
5…CPUθ(マスタ)、16…CPU1(スレー
ブ)、17…DPRロジツク、24…共通バス・スイツ
チ、32…CPUθへの命令割込みライン、33…CP
U1への命令割込みライン、73…CPUθへの割込み
発生用フリツプ・フロツプ、74…CPU1への割込み
発生用フリツプ・フロツプ、85…CPUθ共通バスア
クセス許可信号、86…CPU1共通バスアクセス許可
信号。FIG. 1 is a diagram showing an internal structure of a base processor element in a processor of the present invention and a part of a multi-processor system according to the internal structure, and FIG. 2 is two CPs in the base processor element constituting the present invention.
FIG. 4 is a diagram showing a common bus (BPE local) switch sequence between Us, FIG. 3 is a diagram showing a flow of processing between two CPUs in the base processor element, and FIG. 4 is a shared bus constituting the present invention. .Basic logic diagram of switch,
FIG. 5 is a logic block diagram of the dual port RAM which constitutes the present invention. 1 ... Base processor element (BPE), 8 ...
System bus switch, 14 ... System bus, 1
5 ... CPUθ (master), 16 ... CPU1 (slave), 17 ... DPR logic, 24 ... Common bus switch, 32 ... Instruction interrupt line to CPUθ, 33 ... CP
Instruction interrupt line to U1, 73 ... Flip-flop for generating interrupt to CPUθ, 74 ... Flip-flop for generating interrupt to CPU1, 85 ... CPUθ common bus access permission signal, 86 ... CPU1 common bus access permission signal.
Claims (7)
この第1の情報に関連する第2の情報とを処理するプロ
セッサにおいて、前記コモンバスを通して供給される第
1の情報を処理する第1のCPUと、前記コモンバスを
通して供給される第2の情報を処理する第2のCPU
と、前記第1のCPUまたは第2のCPUの要求に応答
して、第1のCPUまたは第2のCPUで処理した情報
を記憶し、また記憶した情報を第1のCPUまたは第2
のCPUに出力するデュアルポートRAMと、前記第1
のCPUあるいは第2のCPUを前記コモンバスに切替
えるスイッチ手段と、前記第1のCPUあるいは第2の
CPUからの信号に応答して、前記第1のCPUあるい
は第2のCPUと前記コモンバスとを接続するように、
前記スイッチ手段を制御する制御手段とを備えたことを
特徴とするプロセッサ。1. First information supplied from a common bus,
In a processor for processing second information related to the first information, a first CPU for processing the first information supplied through the common bus and a second information for processing the second information supplied through the common bus. Second CPU to do
And, in response to a request from the first CPU or the second CPU, stores information processed by the first CPU or the second CPU, and stores the stored information in the first CPU or the second CPU.
Dual port RAM for outputting to the CPU of the
Switch means for switching the CPU or the second CPU to the common bus, and connects the first CPU or the second CPU to the common bus in response to a signal from the first CPU or the second CPU. To do
A processor comprising: a control unit that controls the switch unit.
は第2のCPUの指示に応答して、前記第1のCPUあ
るいは第2のCPUが前記コモンバスに常接するように
前記スイッチ手段を制御することを特徴とする特許請求
の範囲第1項記載のプロセッサ。2. The control means, in response to an instruction from the first CPU or the second CPU, controls the switch means so that the first CPU or the second CPU is always in contact with the common bus. The processor according to claim 1, wherein:
は第2のCPUの指示に応答して、一方のCPUに常接
しているコモンバスを他方のCPUに切替え接続するよ
うにスイッチ手段を制御することを特徴とする特許請求
の範囲第1項記載のプロセッサ。3. The control means, in response to an instruction from the first CPU or the second CPU, controls the switch means so as to switch and connect a common bus which is always in contact with one CPU to the other CPU. The processor according to claim 1, wherein:
は、第2のCPUあるいは第1のCPUの動作を監視す
る手段を備えたことを特徴とする特許請求の範囲第1項
記載のプロセッサ。4. The first CPU or the second CPU
The processor according to claim 1, further comprising means for monitoring the operation of the second CPU or the first CPU.
処理系を構成し、前記第2のCPUは前記第1のCPU
における制御演算をバックアップする処理およびデータ
ベースやセンサ情報に基づく知能処理を行う知能処理系
を構成したことを特徴とする特許請求の範囲第1項記載
のプロセッサ。5. The first CPU constitutes a control processing system which is a main processing, and the second CPU is the first CPU.
The processor according to claim 1, wherein an intelligent processing system is configured to perform processing for backing up the control calculation in (3) and intelligent processing based on a database or sensor information.
ルポートRAM、スイッチ手段および制御手段を集積し
て1チップ化したことを特徴とする特許請求の範囲第1
項記載のプロセッサ。6. The first CPU, the second CPU, the dual port RAM, the switch means and the control means are integrated into a single chip.
The processor according to the paragraph.
スに複数接続したことを特徴とする特許請求の範囲第6
項記載のプロセッサ。7. The invention as set forth in claim 6, wherein a plurality of said one-chip processors are connected to a common bus.
The processor according to the paragraph.
Priority Applications (8)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP61052448A JPH0654488B2 (en) | 1986-03-12 | 1986-03-12 | Processor |
DE19873786583 DE3786583T2 (en) | 1986-03-12 | 1987-02-10 | Processor. |
EP19870101841 EP0240667B1 (en) | 1986-03-12 | 1987-02-10 | Processor |
US07/636,562 US5297260A (en) | 1986-03-12 | 1991-01-07 | Processor having a plurality of CPUS with one CPU being normally connected to common bus |
US08/007,061 US6379998B1 (en) | 1986-03-12 | 1993-01-21 | Semiconductor device and method for fabricating the same |
US08/182,695 US5568617A (en) | 1986-03-12 | 1994-01-13 | Processor element having a plurality of processors which communicate with each other and selectively use a common bus |
US08/449,722 US5909052A (en) | 1986-03-12 | 1995-05-24 | Semiconductor device having plural chips with the sides of the chips in face-to-face contact with each other in the same crystal plane |
US08/454,568 US5968150A (en) | 1986-03-12 | 1995-05-30 | Processor element having a plurality of CPUs for use in a multiple processor system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP61052448A JPH0654488B2 (en) | 1986-03-12 | 1986-03-12 | Processor |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP7203530A Division JP2965133B2 (en) | 1995-08-09 | 1995-08-09 | Processor system |
Publications (2)
Publication Number | Publication Date |
---|---|
JPS62210564A JPS62210564A (en) | 1987-09-16 |
JPH0654488B2 true JPH0654488B2 (en) | 1994-07-20 |
Family
ID=12915005
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP61052448A Expired - Fee Related JPH0654488B2 (en) | 1986-03-12 | 1986-03-12 | Processor |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPH0654488B2 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS62221062A (en) * | 1986-03-20 | 1987-09-29 | Nec Corp | Single chip microcomputer |
JPH07200490A (en) * | 1993-12-28 | 1995-08-04 | Nec Corp | Mpu |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4153942A (en) * | 1977-01-24 | 1979-05-08 | Motorola, Inc. | Industrial control processor |
US4495569A (en) * | 1982-06-28 | 1985-01-22 | Mitsubishi Denki Kabushiki Kaisha | Interrupt control for multiprocessor system with storage data controlling processor interrupted by devices |
JPS62152064A (en) * | 1985-12-26 | 1987-07-07 | Nec Corp | Single-chip microcomputer |
-
1986
- 1986-03-12 JP JP61052448A patent/JPH0654488B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JPS62210564A (en) | 1987-09-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US5568617A (en) | Processor element having a plurality of processors which communicate with each other and selectively use a common bus | |
JP2564805B2 (en) | Information processing device | |
CA2255634C (en) | Parallel processor with redundancy of processor pairs | |
US9753729B2 (en) | System for selecting a task to be executed according to an output from a task control circuit | |
JP4051703B2 (en) | Parallel processing system and parallel processing program by OS for single processor | |
JP4171910B2 (en) | Parallel processing system and parallel processing program | |
JP2539352B2 (en) | Hierarchical multi-computer system | |
EP0240667B1 (en) | Processor | |
Chen et al. | A three-slot asynchronous reader/writer mechanism for multiprocessor real-time systems | |
JPH0654488B2 (en) | Processor | |
Brewer | A highly scalable system utilizing up to 128 PA-RISC processors | |
JP2003345614A (en) | Parallel processing system by os for single processor | |
JP2965133B2 (en) | Processor system | |
He et al. | Satellite Control and Data Processing Unit Software Design Based on Multi-Core Processor | |
JP3039918B2 (en) | Processor system | |
Burkowski et al. | Architectural support for synchronous task communication | |
JPH0731661B2 (en) | Processor | |
Liu et al. | Inter-Core Communication Mechanisms for Microkernel Operating System based on Signal Transmission and Shared Memory | |
Chaudhry et al. | A case for the multithreaded processor architecture | |
Toong et al. | A general multi-microprocessor interconnection mechanism for non-numeric processing | |
JPH0340169A (en) | Multiple processor system and method of controlling plurality of processor | |
JPS603027A (en) | Resource control system of computer processing system | |
JP2806700B2 (en) | Multi-processing system | |
JPS62286155A (en) | Multi cpu control system | |
JPH0247751A (en) | Channel control system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
LAPS | Cancellation because of no payment of annual fees |