JP2004326237A - Test case creation device, test case creation method, test case, and test method - Google Patents
Test case creation device, test case creation method, test case, and test method Download PDFInfo
- Publication number
- JP2004326237A JP2004326237A JP2003117070A JP2003117070A JP2004326237A JP 2004326237 A JP2004326237 A JP 2004326237A JP 2003117070 A JP2003117070 A JP 2003117070A JP 2003117070 A JP2003117070 A JP 2003117070A JP 2004326237 A JP2004326237 A JP 2004326237A
- Authority
- JP
- Japan
- Prior art keywords
- test
- error
- test procedure
- resource
- generation unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Abstract
Description
【0001】
【発明の属する技術分野】
本発明は、機能試験を行う場合に、検証対象の製品が有する資源を、試験として活性化させた後、資源に対する期待値と実効値(活性化後の資源の値)との比較の結果エラーが発生した場合や、資源の変化するタイミングが期待値と異なる結果エラーが発生した場合に、エラーの原因を解析する際の作業負荷を軽減する機能検証システムに関するものである。
【0002】
【従来の技術】
機能試験を行う場合に、試験プログラムをシミュレータ上で実行した結果、エラーとなったテストケースを抽出後、エラーの原因を解析する為に、製品を構成する資源に対する試験プログラムを逐次シミュレータ上で実行する際に変化する推移情報を記録する為の市販のツールなどを利用しながら、エラーを再現する為に先程のテストケースを再度論理シミュレータ上で再実行する。また、再現した後、全ての資源に対する推移情報と、試験プログラムの実行順などを意識しながら、エラーが発生した試験プログラムの箇所と関与する資源及び時間を段階的に特定することで、エラーの原因を解明していた。
【0003】
【特許文献1】
特開2000−2753号公報
【特許文献2】
特開2001−5841号公報
【0004】
【発明が解決しようとする課題】
エラーとなったテストケースを抽出後再実行し、市販のツールなどを用いテストケースの実行途中の製品が保有する全ての資源の推移情報を記録するので、エラーを再現する際のテストケースのシミュレータ上での実行時間は、記録しない通常の実行時間よりも数倍の時間を要する。また、エラー解析作業においては、製品の高機能化が進むのにつれて、製品を構成する資源の数が増大し、製品の機能が複雑化するため、これを試験する為のテストケースもまた複雑化する。このため、試験の実行結果がエラーとなった際の、エラー解析作業において、プログラムの実行順を把握しながら、エラーが発生する箇所と関与する資源を抽出して、人手で解析するには、多大な時間と労力を要していた。
本発明は、システムLSI(大規模集積回路)等の機能検証方式、方法において、試験の再実行の抑止や、解析時間の大幅な短縮を実現することができるようにすることを目的とする。
【0005】
【課題を解決するための手段】
この発明のテストケース生成装置は、複数の資源を有する回路をモデル化した機能モデルの動作を試験する試験手続きを生成しテストケースとして記憶するテストケース生成部と、
テストケース生成部が生成した試験手続きによる機能モデルの動作の試験の結果がエラーになる場合、このエラー原因を解析するためのエラー原因解析情報を生成して記憶する原因解析情報生成部と
を備えたことを特徴とする。
【0006】
【発明の実施の形態】
以下に述べる実施の形態のシステムLSI(大規模集積回路)機能検証方式では、テストケースを生成する際に、各ステップで使用する製品の資源と、ステップの実行順と、資源の継承関係などをエラー原因解析情報として生成しメモリに記録する手段と、これらのエラー原因解析情報をテストケースに追加して記録する手段を有する事で、試験の再実行の抑止や、解析時間の大幅な短縮を実現する。
【0007】
本システムLSI機能検証方式によって、従来の方法において発生していた、エラーを再現させる為のテストケースを再実行する作業や、エラーの原因を解析する作業における多大な解析における労力と時間を軽減できる。
【0008】
実施の形態1.
以下、本発明の実施の形態を図面を用いて説明する。
図1は、本エラー解析支援付きシステムLSI検証方式の全体構成図である。
システムLSIの機能検証作業は、検証対象であるシステムLSIが機能的に正しく動作する事を確認する作業である。よって、システムLSIに関する機能説明が記載されている製品仕様書101から、システムLSIの機能を果たす為に保有しているH/W(ハードウェア)資源(以下、単に資源ともいう)を抽出した資源構成情報103と、システムLSIの各機能に関する試験を実施するためのテストシナリオ102を作成する。また、システムLSIに関する機能説明が記載されている製品仕様書101から、システムLSIの回路をモデル化した機能モデル104を作成する。機能モデル104は、検証対象であるシステムLSIの機能記述を記したものである。また、システムLSIに関する機能説明が記載されている製品仕様書101から、機能モデル104を試験するためのテストベンチ107を作成する。テストベンチ107は、機能モデル104と接続して機能モデルへの入出力を制御するものである。
【0009】
ここで、H/W資源とは、例えば、プログラムカウンタ、汎用レジスタ、メモリ、入出力(I/O)を制御するレジスタなどをいう。また、H/W資源の特定とは、プログラムカウンタのID、汎用レジスタの番号、メモリのアドレス、入出力(I/O)を制御するレジスタの番号などの識別子により複数のH/W資源の中から1種かつ1つのH/W資源を一意に定めるこという。また、H/W資源の実効値とは、H/W資源に設定される情報やデータや値をいい、例えばプログラムカウンタに設定される値、汎用レジスタに設定される値、メモリに設定される値、入出力(I/O)を制御するレジスタに設定される値などをいう。H/W資源の実効値は、H/W資源を識別子により識別して設定コマンドや書き込みコマンドを用いることによりH/W資源に保持される。また、読み込みコマンドによりH/W資源から読み込まれる。
【0010】
次に、テストケース生成部105は、資源構成情報103とテストシナリオ102から、検証対象であるシステムLSIの機能記述を記した機能モデル104及び、機能モデル104と接続して機能モデルへの入出力を制御するテストベンチ107を制御する為の試験プログラムであるテストケース106を生成する。テストケース106とは、試験プログラムのことであり、試験データを含んでもよいし含まなくてもよい。また、この実施の形態のテストケース106は後述するエラー解析を支援する各種の情報(エラー原因解析情報)を保持し、各種の情報に基づいてエラー結果を解析するメッセージを出力する。テストケース106はプログラムファイルとして磁気ディスク等の記録媒体に記録されている。
【0011】
このテストケース106と、機能モデル104と、テストベンチ107とをシミュレータ108で実行し、正常終了またはエラー終了を示すシミュレーション実行結果としてのテストケース実行結果109を得る。
【0012】
エラー解析部110は、例えば、テストケース106内に試験手続の一部として含まれており、テストケース106の実行後に動作するプログラムルーチンである。エラー解析部110は、独立したプログラムでもかまわない。
エラー解析部110は、このシミュレーション実行結果のうち、エラー終了したテストケース実行結果109に対し、エラーの発生した原因を解析する。この際に、従来は、人間が、製品仕様書101に書かれている機能説明と、機能モデル104が保有している各H/W資源の実効値と、試験の手続き内容を表すテストケース106とを総合的に参照することでエラー解析していたが、本システムLSI検証方式では、エラー解析を支援する情報(エラー原因解析情報)が含まれているテストケース106を出力することで、製品仕様書101や機能モデル104を特に調査しなくても、エラー解析部110が、エラーの原因を解明できる。エラー解析部110はテストケース106に含まれているエラー解析を支援する情報(エラー原因解析情報)を参照することにより、自動で或いは半自動でエラー解析をする。或いは、エラー解析部110は、テストケース106に含まれているエラー解析を支援する情報(エラー原因解析情報)を検索してエラーの原因を推定或いは判定しその推定判定結果をテストケースに表示し人間のエラー解析作業を支援する。
【0013】
このエラー解析を支援する情報(エラー原因解析情報)を出力する為に、本システムLSI検証方式では、図1に示す原因解析情報生成部156を有している。原因解析情報生成部156は、図1のように独立して存在していてもよいし、テストケース生成部105の内部にあってもよい。また、原因解析情報生成部156は、テストケース106の内部にあってもよい。原因解析情報生成部156は、テストケース106を生成する際に、試験手続き毎に使用するH/W資源との関係を記録する試験手続き別資源記録部105aと、各試験手続きの実行後に格納されるべき期待値をH/W資源別に生成する資源別期待値生成部の一例としての資源別アクセス順序・期待値生成部105bと、試験手続きの実行順序の期待値を生成する試験手続き実行順序期待値生成部105cと、テストケース実行結果でエラーと判定された場合に備え、エラーの原因を解析する作業を支援する為のメッセージを出力するエラー解析用メッセージ生成部105dと、エラーを予測して使用するH/W資源の近傍にデータを配置するための擬似データ生成部105eと、各試験手続きの継承関係を生成する試験手続き間継承関係生成部105fを備えている。
【0014】
上記擬似データ生成部105eは、エラー原因解析情報として、複数の資源それぞれに設定され、いずれの資源であるかを特定可能な擬似データを生成する。上記テストケース生成部105は、上記試験手続きの実行前に擬似データ生成部105eが生成した擬似データ値を各資源に設定した後に、機能モデルの動作を試験する試験手続きを生成する。こうして、上記テストケースの試験手続きが実行された結果、資源から得られる結果値からその結果値を提供した資源がいずれの資源であるかを特定可能にする。
【0015】
また、上記エラー解析用メッセージ生成部105dは、エラー原因解析情報として、想定されるエラー結果とそのエラー要因とを対応させたエラー解析用メッセージを生成する。
テストケース生成部105は、回路機能を構成する複数の資源の少なくとも1つの資源に対して試験が実行される場合その資源から得られるはずの期待値が既知の試験を実行し、その試験の実行の結果、その資源から得られる結果値と資源別アクセス順序・期待値生成部105bが生成した期待値とを比較することにより試験結果がエラーか否かを判定するとともに、試験結果がエラーであると判定される場合にエラー解析用メッセージを出力する試験手続きを生成する。
【0016】
図2は、試験手続き別資源記録部105aがメモリに生成しテストケース106に記録する試験手続き構成情報106aの説明図である。
テストケース106は、複数の試験手続き(以下、試験アクセスともいう)から構成されている。この試験手続きを生成する際に、試験手続きの内容を、システムLSIが保有する動作手段の概要やテストベンチが保有する動作手段の概要を記した「試験アクセス種類」と、これらを番号付けした「試験アクセスID」と、アドレスを格納する為に使用する「アドレス格納資源」と、データを格納する為に使用する「データ格納資源」と、アドレス格納資源を通してアクセスする「メモリアクセス資源」と、「データ格納資源」に値をセットする際の「即値」とに分類して記録する。「アドレス格納資源」と、「データ格納資源」と、「メモリアクセス資源」は、試験としてアクセスした際に使用するH/W資源である。
このように、テストケース生成部105は、所定の順序で実行される複数の試験手続きからなる試験手続きを生成するとともに、試験手続き別資源記録部105aは、エラー原因解析情報として試験手続き(試験アクセス)別に試験手続きの内容と試験手続きが使用するH/W資源の情報を生成し、試験手続き構成情報106bとしてメモリに記録する。
エラー解析用メッセージ生成部105dは、試験手続き別資源記録部105aがメモリに記録した試験手続き構成情報106aを用いてエラー解析用メッセージ情報106dを生成する。
試験手続き構成情報106bとエラー解析用メッセージ情報106dとは、テストケース106に出力され、記録される。
【0017】
図3は、資源別アクセス順序・期待値生成部105bがメモリに生成しテストケース106に記録する資源別アクセス順序・期待値情報106bの説明図である。
資源別アクセス順序・期待値生成部105bは、H/W資源別にそのH/W資源をアクセスする試験手続きのリストを生成する。
例えば、図3では、レジスタ3は、
試験アクセスID−0002
試験アクセスID−0005
試験アクセスID−0007
の順にアクセスされることを示している。
【0018】
また、資源別アクセス順序・期待値生成部105bは、試験手続き別資源記録部105aが生成した試験手続き構成情報106aの「試験アクセス種類」に従って、試験アクセスが使用するH/W資源に対する、試験アクセス実行後の値(変化後の値)または変化しない場合は試験アクセス実行直前に保持している値を、試験アクセス実行直後の「期待値」としてH/W資源別に保持しておく。ここで、「期待値」とは、機能モデルが正常に動作する場合に試験アクセス実行後にH/W資源から得ることができるはずの値である。
例えば、図3では、レジスタ3に保持される値は、
試験アクセスID−0002の実行後、値0になり、
試験アクセスID−0005の実行後、値3000になり、
試験アクセスID−0007の実行後、値3300になる
ことを示している。
【0019】
上記資源別アクセス順序・期待値生成部105bは、H/W資源別にそのH/W資源をアクセスする試験手続きのリストを生成し、試験手続きが実行され資源が試験されることにより資源に保持されることが期待される期待値を生成してメモリに記憶するとともに、テストケース106に記憶する。上記テストケース生成部105は、資源が試験された結果、その資源から得られる結果値と資源別アクセス順序・期待値生成部105bが生成した期待値とを比較することにより試験結果がエラーか否かを判定し、試験結果がエラーであると判定される場合に期待値を含むエラー解析用メッセージを出力する試験手続きを、例えば、エラー解析部110の一部として生成する。
【0020】
図4は、擬似データ生成部105eがメモリに生成しテストケース106に記録する資源別擬似データ情報106eの説明図である。
試験アクセスで、検証対象であるシステムLSIが誤って動作した際にその誤り方を特定するために、試験アクセスとしては全く使用しないが、誤った箇所を特定するために、使用するH/W資源の近傍に、擬似的なデータを予め設定しておく事を表す。ここで、擬似データとは、本来アクセスすべきH/W資源が特定できる値であり、擬似データの解析により、本来アクセスすべきメモリやレジスタなどのH/W資源を検出できる。
【0021】
例えば、機能モデルが32ビット単位の計算が可能な演算器を有しており、メモリを4バイト(4番地)単位でアクセスするものと仮定する。試験アクセスID−0005で、レジスタを経由してアクセスするメモリのアドレス2000番地(「RAM−2000」)に対し、擬似データを例えば、以下のように生成する。
アドレス1FF8番地(「RAM−1FF8」)に対し、擬似データを、「F88F1FF1」とする。
アドレス1FFC番地(「RAM−1FFC」)に対し、擬似データを、「FCCF1FF1」とする。
アドレス2004番地(「RAM−2004」)に対し、擬似データを、「04400220」とする。
アドレス2008番地(「RAM−2008」)に対し、擬似データを、「08802002」とする。
上記擬似データは、誤ってアクセスされるメモリのアドレスを所定のアルゴリズムで加工した値である。
【0022】
図2に示すように試験アクセスID−0005では、レジスタ2(REG2)に格納された値(アドレス2000番地)に対応する「RAM−2000」から、「RAM−2000」に格納されているデータ「3000」をレジスタ3(REG3)に格納する「CPU READ」というシステムLSI機能に対する試験アクセスを実行する。この試験アクセスID−0005において、システムLSIが誤って、隣の「RAM−2004」からデータを読み出してしまった場合には、REG3には期待値「3000」ではなく、擬似データである誤ったデータ「04400220」が格納されており、このデータが検索されることによって、データ「04400220」からアドレス2004番地が計算され、「本来アクセスすべきアドレス2000番地のメモリから4加算したアドレス2004番地へ誤ってアクセスした」事を検出できる。
【0023】
或いは、擬似データとして、以下のように、誤ってアクセスされるメモリのアドレスそのものを用いてもよい。
アドレス1FF8番地(「RAM−1FF8」)に対し、擬似データを、「00001FF8」とする。
アドレス1FFC番地(「RAM−1FFC」)に対し、擬似データを、「00001FFC」とする。
アドレス2004番地(「RAM−2004」)に対し、擬似データを、「00002004」とする。
アドレス2008番地(「RAM−2008」)に対し、擬似データを、「00002008」とする。
【0024】
或いは、擬似データとして、以下のように、本来アクセスすべきメモリのアドレスと誤ってアクセスされたメモリのアドレスとの差分値を用いてもよい。
アドレス1FF8番地(「RAM−1FF8」)に対し、擬似データを、「−8(10進数)」とする。
アドレス1FFC番地(「RAM−1FFC」)に対し、擬似データを、「−4(10進数)」とする。
アドレス2004番地(「RAM−2004」)に対し、擬似データを、「+4(10進数)」とする。
アドレス2008番地(「RAM−2008」)に対し、擬似データを、「+8(10進数)」とする。
【0025】
以上のように、上記擬似データ生成部105eは、エラー原因解析情報として、複数の資源(複数のアドレスのメモリ)それぞれに設定され、いずれの資源(いずれのアドレスのメモリ)であるかを特定可能な擬似データ値を生成する。
テストケース生成部105は、上記試験手続きの実行前に擬似データ生成部105eが生成した資源別擬似データ情報106eを各資源に設定した後に、機能モデルの動作を試験する試験手続きを生成する。エラー解析用メッセージ生成部105dは、擬似データ生成部105eが生成した資源別擬似データ情報106eを含むエラー解析用メッセージを生成する。こうして、上記テストケース106の試験手続きが実行された結果、資源から得られる結果値(資源別擬似データ情報106e)からその結果値を提供した資源がいずれの資源であるかが特定可能になる。
【0026】
図5は、試験手続き実行順序期待値生成部105cがメモリに生成しテストケース106に記録する試験手続き実行順序情報106cの説明図である。
試験手続き実行順序期待値生成部105cは、テストシナリオ102に従って、試験アクセスが逐次生成される際に、その実行順序の期待値を保有しておく。図5に示すように、試験アクセスの実行順序は、試験アクセスIDの小さい順とは限らない。
【0027】
このように、テストケース生成部105は、所定の順序で実行される複数の試験手続きからなる試験手続き(試験アクセス)を生成する。試験手続き実行順序期待値生成部105cは、エラー原因解析情報として複数の試験手続きの実行順序を生成し、試験手続き実行順序情報106cとして記録する。
エラー解析用メッセージ生成部105dは、実行順序期待値生成部105cが生成した試験手続き実行順序情報106cを用いて試験手続きの実行の順序に従ってエラー解析用メッセージを出力する試験手続きを、例えば、エラー解析部110の一部として生成する。
【0028】
図6は、試験手続き間継承関係生成部105fがメモリ生成しテストケース106に記録する試験アクセス間継承情報106fの説明図である。
テストケース生成部105は、テストシナリオ102を実現する為の複数の試験手続きを生成する。この試験手続きを実現する試験アクセスで使用するH/W資源をテストケース生成部105が決定する時に、これまでに生成した試験アクセスで使用したH/W資源の情報(図2に記した試験手続き別資源記録情報105a)と、試験アクセスの実行順序の期待値(図5に記した試験手続き実行順序情報106c)とを参照する。テストケース生成部105が今回生成すべき試験アクセスで使用するH/W資源を決定する際に、試験手続き間継承関係生成部105fは既にこのH/W資源を使用した試験アクセスIDを抽出する。
例えば、試験手続き間継承関係生成部105fは、試験アクセスID−0005では、REG2とREG3を使用するが、図5に記した試験手続き実行順序情報106cの実行順序の期待値に従うと、試験アクセスID−0005より以前に実行する試験アクセスIDの中で、REG2を使用した試験アクセスID−0001と、REG3を使用した試験アクセスID−0002を抽出し、試験アクセスID−0005にとって関連のある試験アクセスIDとして、実行順序と逆順序、すなわち、試験アクセスID−0002、試験アクセスID−0001の順に、継承関係を生成し試験手続き間継承情報106fとしてメモリに保持する。
【0029】
図7は、エラー解析用メッセージ生成部105eがメモリに生成しテストケース106に記録するエラー解析用メッセージ情報106eの説明図である。
エラー解析用メッセージ生成部105dは、試験手続き構成情報106a(図2)と、資源別アクセス順序・期待値情報106b(図3)と、資源別擬似データ情報106e(図4)と、試験手続き実行順序情報106c(図5)と、試験手続き間継承情報106f(図6)から、複数の試験アクセスのうち、資源の値を期待値と比較する試験アクセスを起点に、エラー解析用メッセージ情報106dをメモリに生成して、テストケース106内に出力する。
【0030】
例えば、図7に示す用に、試験アクセスID−0008は、REG3に関して期待値「3300」と、本試験アクセスを実行した段階でREG3に格納されている実行値とを比較する「試験アクセス種類」であるが、もしテストケース106をシミュレータ108で実行した結果、本試験アクセスID−0008の所でエラーを検出し、停止した場合に備え、試験アクセスIDで比較対象としている資源REG3に関して、期待値となる値であるエラー予測値を、そのエラー原因付きで表示する。すなわち、資源から得た結果値とエラー予測値(期待値)と予測される1つ以上のエラー原因を表示する。エラー原因が確定していれば、そのエラー原因のみを表示する。
【0031】
すなわち、試験手続き実行順序情報106c(図5)を参照し、試験アクセスID−0008より前に実行した試験アクセスIDの中から、資源REG3をアクセスした最も近い(直前の)試験アクセスIDを探索した結果、試験アクセスID−0007を抽出する。同様に、試験アクセスID−0007に対し、最も直前に資源REG3をアクセスした試験アクセスID−0005を抽出する。このとき、試験アクセスID−0005を実行した結果、REG3には期待値「3000」が格納されるべきであるため、本試験アクセスID−0008のエラー予測値の一つとして「3000」を採択して、メッセージとして「試験アクセス−0005までは正常、試験アクセス−0007が失敗」を表示する。同様に、幾つかのエラー予測値を提示する事によって、テストケース実行時に試験アクセスID−0008でエラー停止した段階のREG3の値が、これらエラー予測値の中のいずれかと一致した場合には、そのメッセージを読む事でエラー要因を迅速に指摘する事が出来る。
【0032】
図7では、資源の値を期待値と比較する試験アクセス(試験アクセスID−0008)を起点にする場合を示したが、比較する試験アクセスを起点にする場合に限らず、他の試験アクセスに対してエラー結果とエラー要因とを生成して出力するようにしてもよい。例えば、図7の試験アクセスID−0005において、図4に示す擬似データが設定されることを前提として以下のようなエラー結果とエラー要因を生成しておいて記憶していてもよい。
1.試験アクセスID−0005の第1のエラー結果とエラー要因
期待値比較エラー REG3:DATA−F88F1FF1。
試験アクセスID−0005が失敗、アドレス1FF8番地のデータ「F88F1FF1」を誤って受け取っている。
2.試験アクセスID−0005の第2のエラー結果とエラー要因
期待値比較エラー REG3:DATA−FCCF1FF1。
試験アクセスID−0005が失敗、アドレス1FFC番地のデータ「FCCF1FF1」を誤って受け取っている。
3.試験アクセスID−0005の第3のエラー結果とエラー要因
期待値比較エラー REG3:DATA−04400220。
試験アクセスID−0005が失敗、アドレス2004番地のデータ「04400220」を誤って受け取っている。
4.試験アクセスID−0005の第4のエラー結果とエラー要因
期待値比較エラー REG3:DATA−08802002。
試験アクセスID−0005が失敗、アドレス2008番地のデータ「08802002」を誤って受け取っている。
【0033】
以上のように、テストケース生成部105は、所定の順序で実行される複数の試験手続きからなる試験手続きを生成する。
原因解析情報生成部156は、エラー原因解析情報として試験手続き別に試験手続きの内容と試験手続きが使用する資源の情報を生成し、試験手続き構成情報106aとして記録する試験手続き別資源記録部105aと、
エラー原因解析情報として複数の試験手続きの実行順序を生成し、試験手続き実行順序期待値として試験手続き実行順序情報106cを記録する試験手続き実行順序期待値生成部105cと、
試験手続き別資源記録部105aが生成した試験手続き構成情報106aと試験手続き実行順序期待値生成部105cが生成した試験手続き実行順序情報106cとを用いて、試験手続きが実行された場合にエラー結果を引き起こす試験手続きを試験手続き間継承情報106fとして生成する試験手続き間継承関係生成部105fとを備えている。
そして、エラー解析用メッセージ生成部105dは、試験手続き間継承関係生成部105fが生成した試験手続き間継承情報106fを用いてエラー結果を引き起こす試験手続きをエラー要因としたエラー解析用メッセージ情報106dをメモリに記憶するとともにテストケース106に記録する。
【0034】
前述したエラー原因解析情報は、図2〜図7によるデータや情報でもよいが、これらの情報を利用して解析支援情報やエラー解析用メッセージを出力するプログラムやルーチンを含んでいてもよい。これらプログラムやルーチンは、エラー解析部110を構成する。
【0035】
以上のように、この実施の形態のシステムLSI機能検証方式は、エラー原因解析情報や解析支援情報やエラー解析用メッセージを出力することに特徴がある。すなわち、この実施の形態のシステムLSI機能検証方式は、あるシステムLSIを機能的な側面から検証する為に作成する、製品仕様書に基いた試験項目を具現化した、試験の手続き(ステップ)を表したプログラム(テストケース106)を作成する際に、テストケース106をシミュレータ108で実行しその結果がエラーと判定される場合に備え、エラーの発生した手続きと、エラーと判定対象とされたシステムLSIを構成する資源の値(実効値)との組み合わせ別に、エラーの原因を推定しておき、テストケース106に出力する手段を有することを特徴とする。
【0036】
また、この実施の形態のシステムLSI機能検証方式は、各試験手続きの情報を記録することに特徴がある。すなわち、この実施の形態のシステムLSI機能検証方式は、テストケース106の実行結果がエラーとなった場合に備え、テストケース106を構成する試験の手続き毎に、各手続きが使用するシステムLSIの資源に関する情報と手続きの内容をテストケース106に出力する手段を有することを特徴とする。
【0037】
また、この実施の形態のシステムLSI機能検証方式は、H/W資源のアクセス順序履歴を記録することに特徴がある。すなわち、この実施の形態のシステムLSI機能検証方式は、テストケース106の実行結果がエラーとなった場合に備え、システムLSIを構成する資源毎に、資源を使用した手続きを出力する手段を有することを特徴とする。
【0038】
また、この実施の形態のシステムLSI機能検証方式は、試験手続き間の継承を記録することに特徴がある。すなわち、この実施の形態のシステムLSI機能検証方式は、テストケース106の実行結果がエラーとなった場合に備え、システムLSIの資源に格納された値(実効値)を期待値と比較する手続きを起点とし、その手続きが比較対照とした資源を使用した他の試験手続きをテストケース106の実行時における、各手続きの実行順の期待値に基づいた継承関係をテストケース106に出力する手段を有することを特徴とする。
【0039】
また、この実施の形態のシステムLSI機能検証方式は、エラー原因の解析用情報をエラーが生じる可能性のある資源の周りにあらかじめ配置させておくことに特徴がある。すなわち、この実施の形態のシステムLSI機能検証方式は、テストケース106の実行結果がエラーとなった場合に備え、エラーを予測し、テストケース106で使用する資源の近傍あるいはすべてに、予め擬似的なデータを設定しておき、期待値比較対象の資源の実効値がこの擬似データと一致した場合に備え、擬似データに関する情報をテストケース106に出力する手段を有することを特徴とする。
【0040】
以上の結果、作成されたテストケース106は以下のような構成になる。
1.機能モデルの動作を試験する前に、擬似データを資源に設定する擬似データ設定部。
2.回路機能をモデル化した機能モデルの動作を試験する試験手続き部。
3.試験手続き部による機能モデルの動作の試験の結果がエラーになる場合、このエラー原因を解析するためのエラー原因解析情報を試験手続きに対応させて記憶する原因解析情報記憶部。
4.原因解析情報記憶部に記憶されたエラー原因解析情報を利用してエラー原因を解析するため情報を提供するエラー原因情報提供部(エラー解析部)。
【0041】
上記原因解析情報記憶部は、エラー原因解析情報として以下の情報を記憶する。
試験手続き構成情報106a(図2)
資源別アクセス順序・期待値情報106b(図3)
資源別擬似データ情報106e(図4)
試験手続き実行順序期待値情報106c(図5)
試験手続き間継承情報106f(図6)
エラー解析用メッセージ情報106d(図7)
【0042】
上記原因解析情報記憶部は、テストケース106内になくてもよい。メモリやディスクにファイル形式で独立して記録されていてもよい。
【0043】
また、上記エラー原因情報提供部(エラー解析部)も、テストケース106内になくてもよい。メモリやディスクにファイル形式で独立して記録されていてもよい。
【0044】
上記原因解析情報記憶部は、エラー原因解析情報として上記情報を全て記憶している必要はない。少なくとも1つ以上の情報を保持していればよい。望ましくは、エラー解析用メッセージ情報106d(図7)が、他の情報を多く含んでいること、及び、ユーザにメッセージを表示出力するために用いられるので、人間がエラー解析しやすくなることの理由によりエラー原因解析情報に含まれているのがよい。
【0045】
図8は、実施の形態1におけるプログラム生成装置(テストケース生成装置)の外観を示す図である。
図8において、プログラム生成装置(テストケース生成装置)100は、システムユニット200、CRT(Cathode Ray Tube)表示装置41、キーボード(K/B)42、マウス43、コンパクトディスク装置(CDD)86、プリンタ装置87、スキャナ装置88を備え、これらはケーブルで接続されている。さらに、プログラム生成装置(テストケース生成装置)100は、FAX機310、電話器320とケーブルで接続され、また、ローカルエリアネットワーク(LAN)5、ウェブサーバ500を介してインターネット501に接続されている。
【0046】
図9は、実施の形態1におけるプログラム生成装置(テストケース生成装置)のハードウェア構成図である。
図9において、プログラム生成装置(テストケース生成装置)100は、プログラムを実行するCPU(Central Processing Unit)37を備えている。CPU37は、バス38を介してROM39(不揮発性記憶装置の一例である)、RAM40(メモリ、揮発性記憶装置の一例である)、通信ボード44、CRT表示装置41、K/B42、マウス43、FDD(Flexible Disk Drive)45、磁気ディスク装置46(不揮発性記憶装置の一例である)、CDD86、プリンタ装置87、スキャナ装置88と接続されている。通信ボード44は、FAX機310、電話器320、LAN5等に接続されている。
例えば、通信ボード44、K/B42、FDD45は、情報入力部の一例となる。或いは、情報入力部がおこなう処理をプログラムで構成する場合、プログラムは、例えば、通信ボード44、K/B42、FDD45という入力装置を用いて処理をおこなってもよい。或いは、CPU37を用いてCPU37の内部処理としておこなってもよい。
また、例えば、通信ボード44は、出力部の一例となる。出力部がおこなう処理をプログラムで構成する場合、プログラムは、例えば、通信ボード44という出力装置を用いて処理をおこなってもよい。或いは、CPU37を用いてCPU37の内部処理としておこなってもよい。
また、例えば、ROM39、RAM40、磁気ディスク装置46は、記憶部の一例となる。記憶部がおこなう処理をプログラムで構成する場合、プログラムは、例えば、ROM39、RAM40、磁気ディスク装置46という記憶装置を用いて処理をおこなってもよい。
上記以外の各部がハードウェアで構成される場合、例えば、CPU37は、上記以外の各部の一例となる。上記以外の各部がおこなう処理をプログラムで構成する場合、プログラムは、CPU37に処理をさせる。
【0047】
ここで、通信ボードは、LAN5に限らず、直接、インターネット、或いはISDN等のWAN(ワイドエリアネットワーク)に接続されていても構わない。直接、インターネット、或いはISDN等のWANに接続されている場合、プログラム生成装置100は、インターネット、或いはISDN等のWANに接続され、ウェブサーバ500は不用となる。
磁気ディスク装置46には、オペレーティングシステム(OS)47、ウィンドウシステム48、プログラム群49、ファイル群50が記憶されている。プログラム群は、CPU37、OS47、ウィンドウシステム48により実行される。
【0048】
上記プログラム群49には、実施の形態の説明において「テストワーク」や「シミュレータ」や「〜部」として説明したものがプログラムで実現される場合、そのプログラムが記憶されている。また、「テストワーク」や「シミュレータ」や「〜部」と説明したものを「〜処理」、「〜ルーチン」、「〜手段」、「〜工程」、「〜ステップ」、「〜装置」と置き換えることにより、プログラムの発明、方法の発明、システムの発明とすることもできる。
【0049】
ファイル群には、上記実施の形態の説明において「テストシナリオ」、「テストケース」、「機能モデル」、「テストベンチ」、「〜結果」、「〜情報」として説明したものが「〜ファイル」として記憶されている。
【0050】
また、実施の形態の説明において「〜部」として説明したものは、ROM39に記憶されたファームウェアで実現されていても構わない。或いは、ソフトウェアのみ、或いは、ハードウェアのみ、或いは、ソフトウェアとハードウェアとの組み合わせ、さらには、ファームウェアとの組み合わせで実施されても構わない。
【0051】
また、実施の形態を実施させるプログラムは、また、磁気ディスク装置、FD(Flexible Disk)、光ディスク、CD(コンパクトディスク)、MD(ミニディスク)、DVD(Digital Versatile Disk)等のその他の記録媒体による記録装置を用いて記憶されても構わない。
【0052】
また、前述した説明において、「記憶する」、「保持する」という動作は、メモリや記憶装置に情報やデータを電気的又は磁気的にファイル形式やプログラム内の変数形式で保存することをいう。また、「試験する」、「実行する」、「生成する」、「解析する」、「判定する」という動作も、その結果がメモリや記憶装置に情報やデータを電気的又は磁気的にファイル形式やプログラム内の変数形式で保存されることを意味している。
【0053】
【発明の効果】
本発明により、例えば、試験対象であるシステムLSIに対する試験の手続きを表したテストケースをシミュレータ上で実行した結果、エラーとなった場合に発生する作業であるエラー解析作業を、テストケースに表示されている幾つかのエラー予測値と、テストケースの実行結果に表示されている、エラー発生箇所及びエラー対象資源の実効値とを比較する事で、大幅に軽減する事が可能である。
【図面の簡単な説明】
【図1】実施の形態1における全体構成図である。
【図2】試験手続き別資源記録部105aがメモリに生成しテストケース106に記録する試験手続き構成情報106aの説明図である。
【図3】資源別アクセス順序・期待値生成部105bがメモリに生成しテストケース106に記録する資源別アクセス順序・期待値情報106bの説明図である。
【図4】擬似データ生成部105eがメモリに生成しテストケース106に記録する資源別擬似データ情報106eの説明図である。
【図5】試験手続き実行順序期待値生成部105cがメモリに生成しテストケース106に記録する試験手続き実行順序情報106cの説明図である。
【図6】試験手続き間継承関係生成部105fがメモリ生成しテストケース106に記録する試験アクセス間継承情報106fの説明図である。
【図7】エラー解析用メッセージ生成部105eがメモリに生成しテストケース106に記録するエラー解析用メッセージ情報106eの説明図である。
【図8】実施の形態1におけるプログラム生成装置(テストケース生成装置)の外観を示す図である。
【図9】実施の形態1におけるプログラム生成装置(テストケース生成装置)のハードウェア構成図である。
【符号の説明】
5 LAN、37 CPU、38 バス、39 ROM、40 RAM、41CRT表示装置、42 K/B、43 マウス、44 通信ボート、45 FDD、46 磁気ディスク装置、47 OS、48 ウィンドウシステム、49プログラム群、50 ファイル群、86 CDD、87 プリンタ装置、88スキャナ装置、100 プログラム生成装置、101 製品仕様書、102 テストシナリオ、103 資源構成情報、104 機能モデル、105 テストケース生成部、105a 試験手続き別資源記録部、105b 資源別アクセス順序・期待値生成部、105c 試験手続き実行順序期待値生成部、105d エラー解析用メッセージ生成部、105e 擬似データ生成部、105f 試験手続き間継承関係生成部、106 テストケース、106a 試験手続き構成情報、106b 資源別アクセス順序・期待値情報、106c 試験手続き実行順序情報、106d エラー解析用メッセージ情報、106e 資源別擬似データ情報、106f 試験手続き間継承情報、107 テストベンチ、108 シミュレータ、109 テストケース実行結果、110 エラー解析部、200 システムユニット、310 FAX機、320 電話器、500 ウェブサーバ、501 インターネット。[0001]
TECHNICAL FIELD OF THE INVENTION
According to the present invention, when performing a function test, after activating a resource of a product to be verified as a test, a result of comparison between an expected value of the resource and an effective value (value of the resource after activation) is obtained. The present invention relates to a function verification system that reduces the workload when analyzing the cause of an error when the error occurs or when a result error occurs when the timing of resource change differs from an expected value.
[0002]
[Prior art]
When performing a functional test, the test program is executed on the simulator. After extracting the test cases that resulted in an error, the test programs for the resources that make up the product are sequentially executed on the simulator to analyze the cause of the error. In order to reproduce the error, the test case is re-executed on the logic simulator, using a commercially available tool for recording transition information that changes when the test is performed. After the reproduction, the location of the test program in which the error occurred, the resources involved, and the time involved are identified stepwise while considering the transition information for all resources and the execution order of the test program. The cause was clarified.
[0003]
[Patent Document 1]
JP-A-2000-2753
[Patent Document 2]
JP 2001-5841A
[0004]
[Problems to be solved by the invention]
The test case in which the error occurred is extracted and re-executed, and the transition information of all resources owned by the product during the execution of the test case is recorded using a commercially available tool, etc., so a simulator for the test case when reproducing the error The above execution time requires several times longer than the normal execution time without recording. In the error analysis work, as the functionality of the product increases, the number of resources that make up the product increases and the function of the product becomes more complex, so the test cases for testing this also become more complex. I do. For this reason, in the error analysis work when the test execution results in an error, while grasping the execution order of the program, extracting the location where the error occurs and the resources involved, and manually analyzing it, It took a lot of time and effort.
SUMMARY OF THE INVENTION It is an object of the present invention to provide a method and method for verifying functions of a system LSI (large-scale integrated circuit) or the like, which can suppress re-execution of a test and significantly reduce analysis time.
[0005]
[Means for Solving the Problems]
A test case generation device of the present invention includes: a test case generation unit that generates a test procedure for testing an operation of a functional model obtained by modeling a circuit having a plurality of resources and stores the test procedure as a test case;
If the result of the test of the operation of the functional model by the test procedure generated by the test case generation unit results in an error, a cause analysis information generation unit that generates and stores error cause analysis information for analyzing the cause of the error;
It is characterized by having.
[0006]
BEST MODE FOR CARRYING OUT THE INVENTION
In a system LSI (large-scale integrated circuit) function verification method according to an embodiment described below, when a test case is generated, a product resource used in each step, an execution order of the step, a resource inheritance relationship, and the like. By having a means to generate and record in the memory as error cause analysis information and a means to add and record this error cause analysis information to the test case, it is possible to suppress the re-execution of the test and significantly reduce the analysis time. Realize.
[0007]
This system LSI function verification method can reduce labor and time required for re-executing a test case for reproducing an error and analyzing a cause of an error, which have been generated in the conventional method, in a large amount of analysis. .
[0008]
Embodiment 1 FIG.
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
FIG. 1 is an overall configuration diagram of the system LSI verification method with error analysis support.
The function verification work of the system LSI is a work of confirming that the system LSI to be verified operates correctly and functionally. Therefore, H / W (hardware) resources (hereinafter, also simply referred to as resources), which are possessed to fulfill the functions of the system LSI, are extracted from the
[0009]
Here, the H / W resource refers to, for example, a program counter, a general-purpose register, a memory, a register for controlling input / output (I / O), and the like. The specification of the H / W resource means that a plurality of H / W resources are identified by identifiers such as a program counter ID, a general-purpose register number, a memory address, and a register number for controlling input / output (I / O). , One type and one H / W resource are uniquely determined. The effective value of the H / W resource refers to information, data, and a value set in the H / W resource, for example, a value set in a program counter, a value set in a general-purpose register, and set in a memory. Value, a value set in a register for controlling input / output (I / O), and the like. The effective value of the H / W resource is held in the H / W resource by identifying the H / W resource by an identifier and using a setting command or a write command. The data is read from the H / W resource by a read command.
[0010]
Next, the test
[0011]
The
[0012]
The
The
[0013]
In order to output information (error cause analysis information) supporting the error analysis, the present system LSI verification method has a cause analysis
[0014]
The pseudo data generation unit 105e generates pseudo data that is set for each of a plurality of resources as error cause analysis information and that can specify which resource the resource is. The
[0015]
Further, the error analysis message generation unit 105d generates an error analysis message in which an expected error result is associated with the error factor as error cause analysis information.
When a test is performed on at least one of a plurality of resources constituting the circuit function, the test
[0016]
FIG. 2 is an explanatory diagram of test procedure configuration information 106a generated by the test procedure-specific
The
As described above, the test
The error analysis message generation unit 105d generates the error analysis message information 106d using the test procedure configuration information 106a recorded in the memory by the test procedure-specific
The test
[0017]
FIG. 3 is an explanatory diagram of the resource-specific access order / expected
The resource-specific access order / expected value generation unit 105b generates a list of test procedures for accessing the H / W resource for each H / W resource.
For example, in FIG.
Test access ID-0002
Test access ID-0005
Test access ID-0007
In that order.
[0018]
Further, the resource-specific access order / expected value generation unit 105b performs a test access to the H / W resource used by the test access according to the “test access type” of the test procedure configuration information 106a generated by the test procedure-specific
For example, in FIG. 3, the value held in the register 3 is
After the execution of the test access ID-0002, the value becomes 0,
After the execution of the test access ID-0005, the value becomes 3000,
After execution of the test access ID-0007, the value becomes 3300
It is shown that.
[0019]
The resource-specific access order / expected value generation unit 105b generates a list of test procedures for accessing the H / W resource for each H / W resource, and executes the test procedure to test the resources and holds the list of resources. The expected value expected to be obtained is generated and stored in the memory, and also stored in the
[0020]
FIG. 4 is an explanatory diagram of the resource-specific
H / W resources that are not used at all as test accesses to identify the way in which a system LSI to be verified operates erroneously in test access, but used to identify erroneous locations Indicates that pseudo data is set in advance in the vicinity of. Here, the pseudo data is a value by which the H / W resource to be accessed originally can be specified. By analyzing the pseudo data, the H / W resource such as a memory or a register to be originally accessed can be detected.
[0021]
For example, it is assumed that the functional model has an arithmetic unit capable of performing calculations in 32-bit units, and that the memory is accessed in units of 4 bytes (4 addresses). With the test access ID-0005, pseudo data is generated as follows, for example, for the address 2000 (“RAM-2000”) of the memory accessed via the register.
For the address 1FF8 (“RAM-1FF8”), the pseudo data is “F88F1FF1”.
For the address 1FFC (“RAM-1FFC”), the pseudo data is “FCCF1FF1”.
The pseudo data for the address 2004 (“RAM-2004”) is “04400220”.
The pseudo data for the address 2008 (“RAM-2008”) is “08802002”.
The pseudo data is a value obtained by processing an address of a memory that is erroneously accessed by a predetermined algorithm.
[0022]
As shown in FIG. 2, in the test access ID-0005, the data “RAM-2000” corresponding to the value (address 2000) stored in the register 2 (REG2) is changed from the data “RAM-2000” stored in the “RAM-2000”. A test access to a system LSI function called “CPU READ” that stores “3000” in a register 3 (REG3) is executed. In the test access ID-0005, if the system LSI erroneously reads data from the adjacent “RAM-2004”, the REG3 is not the expected value “3000” but the erroneous data that is pseudo data. "04400220" is stored. By searching this data, the
[0023]
Alternatively, the address of a memory that is erroneously accessed may be used as the pseudo data as described below.
The pseudo data for the address 1FF8 (“RAM-1FF8”) is “00001FF8”.
The pseudo data for the address 1FFC (“RAM-1FFC”) is “00001FFC”.
The pseudo data for the address 2004 (“RAM-2004”) is “0000002004”.
The pseudo data for the address 2008 (“RAM-2008”) is “00002008”.
[0024]
Alternatively, as the pseudo data, a difference value between the address of the memory to be accessed originally and the address of the memory accessed erroneously may be used as described below.
For the address 1FF8 (“RAM-1FF8”), the pseudo data is “−8 (decimal number)”.
The pseudo data for the address 1FFC (“RAM-1FFC”) is “−4 (decimal number)”.
The pseudo data for the address 2004 (“RAM-2004”) is “+4 (decimal number)”.
For the address 2008 (“RAM-2008”), the pseudo data is set to “+8 (decimal number)”.
[0025]
As described above, the pseudo data generation unit 105e is set in each of a plurality of resources (memory of a plurality of addresses) as error cause analysis information, and can specify which resource (memory of which address). Generate a pseudo data value.
The test
[0026]
FIG. 5 is an explanatory diagram of the test procedure
The test procedure execution order expected
[0027]
As described above, the test
The error analysis message generation unit 105d executes a test procedure that outputs an error analysis message in accordance with the test procedure execution order using the test procedure
[0028]
FIG. 6 is an explanatory diagram of the inter-test-
The test
For example, the test procedure inheritance relationship generation unit 105f uses REG2 and REG3 for the test access ID-0005, but according to the expected value of the execution order of the test procedure
[0029]
FIG. 7 is an explanatory diagram of the error
The error analysis message generation unit 105d includes test procedure configuration information 106a (FIG. 2), resource-specific access order / expected
[0030]
For example, as shown in FIG. 7, the test access ID-0008 is a “test access type” that compares the expected value “3300” with respect to REG3 and the execution value stored in REG3 at the stage of executing the main test access. However, as a result of executing the
[0031]
That is, with reference to the test procedure
[0032]
FIG. 7 shows the case where the starting point is a test access (test access ID-0008) that compares the value of the resource with the expected value. However, the present invention is not limited to the case where the starting point is the test access to be compared. Alternatively, an error result and an error factor may be generated and output. For example, in the test access ID-0005 in FIG. 7, the following error results and error factors may be generated and stored on the assumption that the pseudo data shown in FIG. 4 is set.
1. First error result and error factor of test access ID-0005
Expected value comparison error REG3: DATA-F88F1FF1.
The test access ID-0005 has failed, and the data “F88F1FF1” at address 1FF8 has been erroneously received.
2. Second error result and error factor of test access ID-0005
Expected value comparison error REG3: DATA-FCCF1FF1.
The test access ID-0005 has failed, and the data “FCCF1FF1” at the address 1FFC has been erroneously received.
3. Third error result and error factor of test access ID-0005
Expected value comparison error REG3: DATA-04400220.
The test access ID-0005 has failed, and the data “04400220” at the
4. Fourth error result and error factor of test access ID-0005
Expected value comparison error REG3: DATA-08802002.
The test access ID-0005 has failed, and the data “08802002” at the
[0033]
As described above, the test
A cause analysis
A test procedure execution order expected
Using the test procedure configuration information 106a generated by the test procedure-specific
The error analysis message generation unit 105d stores the error analysis message information 106d in which a test procedure causing an error result is an error factor using the inter-test
[0034]
The error cause analysis information described above may be the data and information shown in FIGS. 2 to 7, but may include a program or a routine that outputs analysis support information or an error analysis message using such information. These programs and routines constitute the
[0035]
As described above, the system LSI function verification method of this embodiment is characterized in that error cause analysis information, analysis support information, and an error analysis message are output. That is, the system LSI function verification method according to the present embodiment includes a test procedure (step) that embodies a test item based on a product specification, which is created to verify a certain system LSI from a functional aspect. When a program (test case 106) is created, the
[0036]
Further, the system LSI function verification method of this embodiment is characterized in that information of each test procedure is recorded. That is, the system LSI function verification method according to the present embodiment prepares for the case where the execution result of the
[0037]
Further, the system LSI function verification method of this embodiment is characterized in that an access order history of H / W resources is recorded. That is, the system LSI function verification method of this embodiment has means for outputting a procedure using resources for each resource configuring the system LSI in case an execution result of the
[0038]
Further, the system LSI function verification method of this embodiment is characterized in that the inheritance between test procedures is recorded. That is, the system LSI function verification method according to the present embodiment includes a procedure for comparing a value (effective value) stored in the resources of the system LSI with an expected value in case an execution result of the
[0039]
Further, the system LSI function verification method of this embodiment is characterized in that information for analyzing the cause of an error is arranged in advance around resources where an error may occur. That is, the system LSI function verification method according to the present embodiment predicts an error and prepares a pseudo-simulation in the vicinity or all of the resources used in the
[0040]
As a result, the created
1. A pseudo data setting unit that sets pseudo data to a resource before testing the operation of the functional model.
2. A test procedure section that tests the operation of a functional model that models circuit functions.
3. A cause analysis information storage unit that stores error cause analysis information for analyzing the cause of the error when the result of the test of the operation of the functional model by the test procedure unit results in an error, in association with the test procedure.
4. An error cause information providing unit (error analysis unit) that provides information for analyzing an error cause using the error cause analysis information stored in the cause analysis information storage unit.
[0041]
The cause analysis information storage unit stores the following information as error cause analysis information.
Test procedure configuration information 106a (FIG. 2)
Resource-specific access order / expected
Resource-specific
Test procedure execution order expected
Test
Error analysis message information 106d (FIG. 7)
[0042]
The cause analysis information storage unit may not be provided in the
[0043]
Further, the error cause information providing unit (error analyzing unit) may not be provided in the
[0044]
The cause analysis information storage unit does not need to store all the information as the error cause analysis information. What is necessary is just to hold at least one or more pieces of information. Desirably, the error analysis message information 106d (FIG. 7) contains a large amount of other information and is used for displaying and outputting a message to a user. It may be included in the error cause analysis information.
[0045]
FIG. 8 is a diagram illustrating an appearance of a program generation device (test case generation device) according to the first embodiment.
8, a program generation device (test case generation device) 100 includes a system unit 200, a CRT (Cathode Ray Tube)
[0046]
FIG. 9 is a hardware configuration diagram of the program generation device (test case generation device) according to the first embodiment.
In FIG. 9, a program generation device (test case generation device) 100 includes a CPU (Central Processing Unit) 37 that executes a program. The
For example, the
Further, for example, the
Further, for example, the
When each unit other than the above is configured by hardware, for example, the
[0047]
Here, the communication board is not limited to the
The
[0048]
In the
[0049]
In the file group, those described as “test scenario”, “test case”, “functional model”, “test bench”, “—result”, and “—information” in the description of the above-described embodiment are “—files”. It is stored as
[0050]
Also, what is described as “-unit” in the description of the embodiment may be realized by firmware stored in the
[0051]
Further, the program for implementing the embodiment is also provided by other recording media such as a magnetic disk device, an FD (Flexible Disk), an optical disk, a CD (Compact Disk), an MD (Mini Disk), and a DVD (Digital Versatile Disk). It may be stored using a recording device.
[0052]
In the above description, the operation of “storing” and “holding” refers to electrically or magnetically storing information or data in a file format or a variable format in a program in a memory or a storage device. In addition, the operations of “test”, “execute”, “generate”, “analyze”, and “determine” are also performed by storing information or data in a memory or a storage device electrically or magnetically in a file format. Or in the form of variables in the program.
[0053]
【The invention's effect】
According to the present invention, for example, when a test case representing a test procedure for a system LSI to be tested is executed on a simulator, an error analysis operation, which is an operation that occurs when an error occurs, is displayed on the test case. It is possible to greatly reduce the number of errors by comparing the estimated error values with the effective values of the error occurrence location and the error target resource displayed in the execution result of the test case.
[Brief description of the drawings]
FIG. 1 is an overall configuration diagram according to a first embodiment.
FIG. 2 is an explanatory diagram of test procedure configuration information a generated by a test procedure-specific
FIG. 3 is an explanatory diagram of resource-specific access order / expected
FIG. 4 is an explanatory diagram of resource-specific
FIG. 5 is an explanatory diagram of test procedure
FIG. 6 is an explanatory diagram of test
FIG. 7 is an explanatory diagram of error
FIG. 8 is a diagram illustrating an appearance of a program generation device (test case generation device) according to the first embodiment.
FIG. 9 is a hardware configuration diagram of a program generation device (test case generation device) according to the first embodiment.
[Explanation of symbols]
5 LAN, 37 CPU, 38 bus, 39 ROM, 40 RAM, 41 CRT display device, 42 K / B, 43 mouse, 44 communication boat, 45 FDD, 46 magnetic disk device, 47 OS, 48 window system, 49 program group, 50 files, 86 CDD, 87 printer, 88 scanner, 100 program generator, 101 product specification, 102 test scenario, 103 resource configuration information, 104 functional model, 105 test case generator, 105a resource record for each test procedure Section, 105b resource-specific access order / expected value generator, 105c test procedure execution order expected value generator, 105d error analysis message generator, 105e pseudo data generator, 105f test procedure inheritance relationship generator, 106 test case, 106a Examination procedure Configuration information, 106b Access order / expected value information for each resource, 106c Test procedure execution order information, 106d Error analysis message information, 106e Pseudo data information for each resource, 106f Inheritance information between test procedures, 107 test bench, 108 simulator, 109 test Case execution result, 110 error analysis unit, 200 system unit, 310 fax machine, 320 telephone, 500 web server, 501 Internet.
Claims (10)
テストケース生成部が生成した試験手続きによる機能モデルの動作の試験の結果がエラーになる場合、このエラー原因を解析するためのエラー原因解析情報を生成して記憶する原因解析情報生成部と
を備えたことを特徴とするテストケース生成装置。A test case generation unit that generates a test procedure for testing the operation of a functional model obtained by modeling a circuit having a plurality of resources and stores the test procedure as a test case;
When a result of a test of the operation of the functional model by the test procedure generated by the test case generation unit results in an error, a cause analysis information generation unit that generates and stores error cause analysis information for analyzing the cause of the error is provided. A test case generation device.
上記テストケース生成部は、機能モデルの動作を試験する前に擬似データ生成部が生成した擬似データを各資源に設定する試験手続きを生成することを特徴とし、
上記試験手続きが実行された結果、資源から得られる結果値が擬似データである場合にその結果値を提供した資源がいずれの資源であるかを特定可能にすることを特徴とする請求項1記載のテストケース生成装置。The cause analysis information generation unit includes a pseudo data generation unit that generates pseudo data that is set for each of a plurality of resources as error cause analysis information and that can specify which resource the resource is,
The test case generation unit generates a test procedure for setting the pseudo data generated by the pseudo data generation unit to each resource before testing the operation of the functional model,
2. The method according to claim 1, wherein, as a result of the execution of the test procedure, when a result value obtained from the resource is pseudo data, it is possible to specify which resource provided the result value. Test case generator.
上記テストケース生成部は、資源に対して試験が実行された場合にその資源に保持されるはずの期待値が既知の試験を実行し、その試験の実行により、その資源から得られる結果値と期待値とを比較することにより試験結果がエラーか否かを判定するとともに、試験結果がエラーであると判定される場合にエラー解析用メッセージを出力する試験手続きを生成することを特徴とする請求項1または2記載のテストケース生成装置。The cause analysis information generation unit includes an error analysis message generation unit that generates a correspondence between an error result and the error factor and an error analysis message as error cause analysis information,
The test case generation unit executes a test in which an expected value to be held in the resource when the test is executed on the resource is known, and by executing the test, a result value obtained from the resource is obtained. Determining whether the test result is an error by comparing the expected value with an expected value, and generating a test procedure for outputting an error analysis message when the test result is determined to be an error. Item 3. The test case generation device according to item 1 or 2.
試験手続きが実行され資源が試験されることによりその資源に保持されることが期待される期待値を生成する資源別期待値生成部を備え、
上記テストケース生成部は、資源が試験されることによりその資源から得られる結果値と資源別期待値生成部が生成した期待値とを比較することにより試験結果がエラーか否かを判定する試験手続きを生成することを特徴とする請求項1〜3いずれか記載のテストケース生成装置。The cause analysis information generation unit includes:
An expected value generation unit for each resource that generates an expected value expected to be held in the resource when the test procedure is executed and the resource is tested,
The test case generator is configured to compare a result value obtained from the resource when the resource is tested with the expected value generated by the resource-specific expected value generator to determine whether the test result is an error. The test case generation device according to claim 1, wherein the test case generation device generates a procedure.
上記原因解析情報生成部は、エラー原因解析情報として試験手続き別に試験手続きの内容と試験手続きが使用する資源の情報を生成し、試験手続き構成情報として記録する試験手続き別資源記録部を備え、
上記エラー解析用メッセージ生成部は、試験手続き別資源記録部が記録した試験手続き構成情報を用いてエラー解析用メッセージを生成すること特徴とする請求項3に記載のテストケース生成装置。The test case generation unit generates a test procedure including a plurality of test procedures to be executed in a predetermined order,
The cause analysis information generating unit includes a test procedure-specific resource recording unit that generates test procedure contents and resource information used by the test procedure for each test procedure as error cause analysis information, and records the information as test procedure configuration information.
4. The test case generation apparatus according to claim 3, wherein the error analysis message generation unit generates the error analysis message using the test procedure configuration information recorded by the test procedure-specific resource recording unit.
上記原因解析情報生成部は、エラー原因解析情報として複数の試験手続きの実行順序を生成し、試験手続き実行順序期待値として記録する試験手続き実行順序期待値生成部を備え、
上記エラー解析用メッセージ生成部は、原因解析情報生成部が生成した試験手続き実行順序期待値を用いてエラー解析用メッセージを生成すること特徴とする請求項3記載のテストケース生成装置。The test case generation unit generates a test procedure including a plurality of test procedures to be executed in a predetermined order,
The cause analysis information generation unit includes a test procedure execution order expected value generation unit that generates an execution order of a plurality of test procedures as error cause analysis information and records the execution order as a test procedure execution order expected value.
4. The test case generation device according to claim 3, wherein the error analysis message generation unit generates the error analysis message using the test procedure execution order expected value generated by the cause analysis information generation unit.
上記原因解析情報生成部は、
エラー原因解析情報として試験手続き別に試験手続きの内容と試験手続きが使用する資源の情報を生成し、試験手続き構成情報として記録する試験手続き別資源記録部と、
エラー原因解析情報として複数の試験手続きの実行順序を生成し、試験手続き実行順序期待値として記録する試験手続き実行順序期待値生成部と、
試験手続き別資源記録部が生成した試験手続き構成情報と試験手続き実行順序期待値生成部が生成した試験手続き実行順序期待値とを用いて、試験手続きが実行された場合にエラー結果を引き起こす試験手続きを試験手続き間継承情報として生成する試験手続き間継承関係生成部とを備え、
上記エラー解析用メッセージ生成部は、試験手続き間継承関係生成部が生成した試験手続き間継承情報を用いてエラー結果を引き起こす試験手続きをエラー要因としたエラー解析用メッセージを生成することを特徴とする請求項3記載のテストケース生成装置。The test case generation unit generates a test procedure including a plurality of test procedures to be executed in a predetermined order,
The cause analysis information generation unit includes:
A test procedure-specific resource recording unit that generates test procedure contents and resource information used by the test procedure for each test procedure as error cause analysis information, and records the information as test procedure configuration information;
A test procedure execution order expected value generation unit that generates an execution order of a plurality of test procedures as error cause analysis information and records the test procedure execution order expected value;
A test procedure that causes an error result when a test procedure is executed using the test procedure configuration information generated by the test procedure resource recording unit and the test procedure execution order expected value generated by the test procedure execution order expected value generation unit. And an inter-procedure inheritance relationship generation unit that generates
The error analysis message generation unit generates an error analysis message using a test procedure that causes an error result as an error factor, using the inter-test procedure inheritance information generated by the inter-test procedure inheritance relationship generation unit. The test case generation device according to claim 3.
テストケース生成工程が生成した試験手続きによる機能モデルの動作の試験の結果がエラーになる場合、このエラー原因を解析するためのエラー原因解析情報を生成して記憶する原因解析情報生成工程と
を備えたことを特徴とするテストケース生成方法。A test case generating step of generating a test procedure for testing the operation of a functional model obtained by modeling a circuit having a plurality of resources and storing the test procedure as a test case;
A cause analysis information generation step of generating and storing error cause analysis information for analyzing the cause of the error when the result of the test of the operation of the functional model by the test procedure generated by the test case generation step results in an error; A test case generation method characterized in that:
試験手続き部による機能モデルの動作の試験の結果がエラーになる場合、このエラー原因を解析するためのエラー原因解析情報を試験手続きに対応させて記憶する原因解析情報記憶部と
を備えたことを特徴とするテストケース。A test procedure unit for testing the operation of the functional model that models the circuit,
When the result of the test of the operation of the functional model by the test procedure unit results in an error, a cause analysis information storage unit for storing error cause analysis information for analyzing the cause of the error in association with the test procedure is provided. Test case to be characterized.
エラー原因を解析するためのエラー原因解析情報を予め試験手続きに対応させて生成しメモリに記憶する原因解析情報生成工程と、
試験手続き工程による機能モデルの動作の試験の結果がエラーになる場合、原因解析情報生成工程でメモリに記憶したエラー原因解析情報を試験手続きに対応させて表示する原因解析情報表示工程と
を備えたことを特徴とするテスト方法。A test procedure for testing the operation of the functional model that models the circuit; and
A cause analysis information generating step of generating error cause analysis information for analyzing an error cause in advance corresponding to a test procedure and storing the information in a memory;
A cause analysis information display step of displaying the error cause analysis information stored in the memory in the cause analysis information generation step in accordance with the test procedure when the result of the test of the operation of the functional model in the test procedure step results in an error. A test method characterized by the following:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003117070A JP3833626B2 (en) | 2003-04-22 | 2003-04-22 | Test case generation apparatus and test case generation method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003117070A JP3833626B2 (en) | 2003-04-22 | 2003-04-22 | Test case generation apparatus and test case generation method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2004326237A true JP2004326237A (en) | 2004-11-18 |
JP3833626B2 JP3833626B2 (en) | 2006-10-18 |
Family
ID=33497086
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003117070A Expired - Fee Related JP3833626B2 (en) | 2003-04-22 | 2003-04-22 | Test case generation apparatus and test case generation method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3833626B2 (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008083781A (en) * | 2006-09-26 | 2008-04-10 | Fujitsu Ltd | Verification support program, recording medium for recording this program, verification support device, and verification support method |
JP2008210004A (en) * | 2007-02-23 | 2008-09-11 | Fujitsu Ltd | Device, method and program for generating verification scenario, and verification device |
CN110334003A (en) * | 2019-05-22 | 2019-10-15 | 梁俊杰 | A kind of flow designing method and relevant device |
CN110554956A (en) * | 2019-07-31 | 2019-12-10 | 交控科技股份有限公司 | BDMS automatic testing method |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH03157781A (en) * | 1989-11-16 | 1991-07-05 | Nec Corp | Logic circuit verifying system |
JPH04165431A (en) * | 1990-10-29 | 1992-06-11 | Matsushita Electric Ind Co Ltd | Bus system test device |
JPH05334202A (en) * | 1992-06-03 | 1993-12-17 | Fuji Electric Co Ltd | Check method for ram |
JPH09330242A (en) * | 1996-06-12 | 1997-12-22 | Hitachi Ltd | Test instruction string generation system for information processor |
JPH10339763A (en) * | 1997-06-06 | 1998-12-22 | Nec Corp | Detection method and system of input terminal competing pattern |
JPH11120022A (en) * | 1997-10-13 | 1999-04-30 | Meidensha Corp | Test device for printed board |
JP2001022610A (en) * | 1999-07-07 | 2001-01-26 | Hitachi Ltd | Logic simulation system for data processor |
-
2003
- 2003-04-22 JP JP2003117070A patent/JP3833626B2/en not_active Expired - Fee Related
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH03157781A (en) * | 1989-11-16 | 1991-07-05 | Nec Corp | Logic circuit verifying system |
JPH04165431A (en) * | 1990-10-29 | 1992-06-11 | Matsushita Electric Ind Co Ltd | Bus system test device |
JPH05334202A (en) * | 1992-06-03 | 1993-12-17 | Fuji Electric Co Ltd | Check method for ram |
JPH09330242A (en) * | 1996-06-12 | 1997-12-22 | Hitachi Ltd | Test instruction string generation system for information processor |
JPH10339763A (en) * | 1997-06-06 | 1998-12-22 | Nec Corp | Detection method and system of input terminal competing pattern |
JPH11120022A (en) * | 1997-10-13 | 1999-04-30 | Meidensha Corp | Test device for printed board |
JP2001022610A (en) * | 1999-07-07 | 2001-01-26 | Hitachi Ltd | Logic simulation system for data processor |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008083781A (en) * | 2006-09-26 | 2008-04-10 | Fujitsu Ltd | Verification support program, recording medium for recording this program, verification support device, and verification support method |
JP4707191B2 (en) * | 2006-09-26 | 2011-06-22 | 富士通株式会社 | Verification support program, recording medium storing the program, verification support apparatus, and verification support method |
JP2008210004A (en) * | 2007-02-23 | 2008-09-11 | Fujitsu Ltd | Device, method and program for generating verification scenario, and verification device |
CN110334003A (en) * | 2019-05-22 | 2019-10-15 | 梁俊杰 | A kind of flow designing method and relevant device |
CN110554956A (en) * | 2019-07-31 | 2019-12-10 | 交控科技股份有限公司 | BDMS automatic testing method |
CN110554956B (en) * | 2019-07-31 | 2023-05-23 | 交控科技股份有限公司 | BDMS automatic test method |
Also Published As
Publication number | Publication date |
---|---|
JP3833626B2 (en) | 2006-10-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10552301B2 (en) | Completing functional testing | |
US7272752B2 (en) | Method and system for integrating test coverage measurements with model based test generation | |
US7685471B2 (en) | System and method for detecting software defects | |
JP6070847B2 (en) | Verification method, verification apparatus, and verification program | |
JP2012150535A (en) | Program verification method and program verification program | |
JP2000112784A (en) | Program test support device and storage medium recording program test support program | |
US7506211B2 (en) | Automated atomic system testing | |
JP5504960B2 (en) | Simulation apparatus and simulation method | |
JP3833626B2 (en) | Test case generation apparatus and test case generation method | |
JP2005338987A (en) | Exception test support program and device | |
JP2007172542A (en) | Design apparatus, design method, and program therefor | |
JP4503203B2 (en) | Method and apparatus for creating test program for evaluating information processing apparatus, and program describing processing for the same | |
GB2397905A (en) | Method for automatically generating and ordering test scripts | |
US7689399B1 (en) | Automatic extraction of design properties | |
JP2012164098A (en) | Entry rewriting device and entry rewriting program | |
JP2008191796A (en) | Analysis device, analysis method and program | |
JPH10334125A (en) | Device, system, and method for cad software automatic test, and recording medium | |
JP6974707B2 (en) | Test program, test equipment and test method | |
JP2010211342A (en) | Test pattern management device, test pattern management method, and program | |
JP6397800B2 (en) | Test support system and test support method | |
CN116318861A (en) | Ether-mill intelligent contract return value non-testing method based on dynamic transaction information | |
JPH11149489A (en) | Simulation system | |
JP2021015481A (en) | Information processing program, information processing method, and information processing device | |
JP2024079324A (en) | Test system and test method | |
CN114741303A (en) | Test script generation method and device and electronic equipment |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20041026 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20060428 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20060516 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20060621 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20060718 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20060719 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |