JP2012103786A - Test support device, control method, and program - Google Patents
Test support device, control method, and program Download PDFInfo
- Publication number
- JP2012103786A JP2012103786A JP2010249796A JP2010249796A JP2012103786A JP 2012103786 A JP2012103786 A JP 2012103786A JP 2010249796 A JP2010249796 A JP 2010249796A JP 2010249796 A JP2010249796 A JP 2010249796A JP 2012103786 A JP2012103786 A JP 2012103786A
- Authority
- JP
- Japan
- Prior art keywords
- image
- screen
- detection
- detected
- test
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Landscapes
- Debugging And Monitoring (AREA)
Abstract
Description
本発明は、ソフトウェア・アプリケーション、またはソフトウェア・システムのテスト自動化技術に関し、特に画面に対するユーザインタフェース操作に関するテスト自動化技術に関する。 The present invention relates to a test automation technique for a software application or a software system, and more particularly to a test automation technique related to a user interface operation on a screen.
ソフトウェアの開発工程において、テスト及び評価の工程は、時間及び費用等のコスト面で大きなウェイトを占める。また、大規模なソフトウェア開発になるに従って、テスト及び評価の工程に投入が必要とされる作業工数及び人員は、比例的に増加し、開発コスト増及び納期延期等につながる。 In the software development process, the test and evaluation process occupies a large weight in terms of cost such as time and cost. Further, as the software development becomes large, the man-hours and personnel required to be input to the test and evaluation processes increase proportionally, leading to an increase in development cost and postponement of delivery time.
開発を行ったソフトウェアのテスト及び評価が十分に行われずに、ソフトウェアを製品として出荷した後、ソフトウェアの導入先のシステムにおける運用時に障害が発生した場合、それに伴う、ソフトウェアの対応あるいは修正によって、更に、作業工数及び人員増となり、開発コスト増となってしまう。また、生活のインフラに直結するようなシステムともなれば、その影響は計り知れないものになる。 If the developed software is not fully tested and evaluated, and the software is shipped as a product, and a failure occurs during operation in the system where the software is installed, the software response or modification accompanying it will further As a result, the number of man-hours and personnel increases, resulting in an increase in development costs. If the system is directly connected to the infrastructure of daily life, the impact will be immeasurable.
そこで、ソフトウェアのテスト及び評価の工程の効率化を図ることで、開発コスト増を抑止するために利用されるのが、テスト自動化ソフトウェアである。 Therefore, test automation software is used to suppress the increase in development cost by improving the efficiency of the software testing and evaluation process.
既存のテスト自動化ソフトウェアの仕組みは、テスト対象アプリケーションでの画面に対するユーザインタフェース操作をスクリプト形式のプログラムに保存し、作成保存したスクリプトを実行することで、保存したユーザインタフェース操作を再現し、テスト及び評価の実施を効率化し、またテスト及び評価を資源化することができる。 The existing test automation software mechanism saves user interface operations for screens in the application under test in a script format program and executes the created and saved scripts to reproduce the saved user interface operations for testing and evaluation. Can be made more efficient, and testing and evaluation can be resourceized.
また、自動テストを行う上で生成したスクリプトを部品化することでさらなる効率化を実現技術が開示されている(例えば、特許文献1参照) In addition, a technology has been disclosed that realizes further efficiency by componentizing a script generated in performing an automatic test (see, for example, Patent Document 1).
自動テストを実施するには、あらかじめテスト用のスクリプトを作成する必要があるが、該スクリプトを作成するには、ユーザインタフェース操作が施された位置を、画面に対する座標値から定め、該座標値を元に作成を行っている。 In order to perform an automatic test, it is necessary to create a test script in advance. To create the script, the position where the user interface operation is performed is determined from the coordinate value on the screen, and the coordinate value is set. Created based on the original.
ユーザインタフェース操作が施された位置を示す座標を定めるには、「ユーザインタフェース操作が施された位置の座標を直に定める」方法と、「ユーザインタフェース操作が施された位置の周辺画像を画面から検索し、座標を導き出す」方法の2通りある。 To determine the coordinates indicating the position where the user interface operation has been performed, the “determine the coordinates of the position where the user interface operation has been performed” method and the “peripheral image of the position where the user interface operation has been performed are displayed from the screen. There are two methods: “Search and derive coordinates”.
「ユーザインタフェース操作が施された位置の座標を直に定める」方法では、テスト用のスクリプトを実行する環境によって座標が変わる可能性があり、たとえば、テスト対象アプリケーションの表示位置がテスト用のスクリプト作成時とテスト実行時で異なる場合、座標がずれてしまい、期待通りの操作が行われず、現実的ではない。 In the method of “determining the coordinates of the position where the user interface operation has been performed directly”, the coordinates may change depending on the environment in which the test script is executed. For example, the display position of the test target application creates the test script. If the time is different from the time of test execution, the coordinates will be misaligned, and the expected operation will not be performed, which is not realistic.
「ユーザインタフェース操作が施された位置の周辺画像を画面から検索し、座標を導き出す」方法では、上記のような問題は発生せず、この方法で座標を導き出すのが現実的であるが、この点については、特許文献1に記載や示唆はない。
In the method of “deriving coordinates around the user interface operated position from the screen and deriving the coordinates”, the above-mentioned problems do not occur, and it is realistic to derive the coordinates by this method. Regarding the point, there is no description or suggestion in
また、実際にテスト用のスクリプトを作成する場合、ユーザは、ユーザインタフェースを用いて対象の周辺画像(例えば、ボタンの画像)を特定した後、周辺画像をスキャンして作成しなければならない。 Further, when actually creating a test script, the user must specify a target peripheral image (for example, an image of a button) using a user interface, and then scan and generate the peripheral image.
具体的な例をあげると、画面を全体、もしくは対象のウィンドウをデータとして保存し、該データを画像編集用のアプリケーションソフトに貼り付けて、そこから対象とすべく周辺画像を切り取るといった手順になる。 As a specific example, the procedure is such that the entire screen or the target window is saved as data, the data is pasted into the image editing application software, and the peripheral image is cut out from there as a target. .
そして、テスト実行時には、切り取った周辺画像とテスト対象となる画面との照合を行い、切り取った周辺画像に対応する画像を用いて座標を定めて、ユーザインタフェース操作を再現する。 When the test is executed, the cut-out peripheral image is compared with the screen to be tested, the coordinates are determined using the image corresponding to the cut-out peripheral image, and the user interface operation is reproduced.
従って、自動テストを行う準備段階に於いて、ユーザにとって非常に作業負荷がかかり、更に大規模なソフトウェア開発を実施する際には、操作手順の量が増えることは必至であり、テスト用のスクリプト作成の作業量も増え、開発コスト軽減を目的とするためのテスト自動化ソフトウェアが、開発コスト増といった結末を招く可能性が十分にあり得る。 Therefore, in the preparatory stage for performing an automatic test, it is very burdensome for the user, and it is inevitable that the amount of operation procedures will increase when large-scale software development is performed. The amount of work to create is also increased, and test automation software for the purpose of reducing development costs may have the potential to result in increased development costs.
本発明では、上記課題を解決するために、よりテスト精度の高いテスト用のスクリプトを作成すると共に、テスト用のスクリプト作成時に要する作業負荷を軽減することによって、テスト及び評価工程における開発コストを軽減することが可能なテスト支援装置を提供することを目的とする。 In the present invention, in order to solve the above-mentioned problems, a test script with higher test accuracy is created, and the development cost in the test and evaluation process is reduced by reducing the work load required when creating the test script. An object of the present invention is to provide a test support apparatus capable of performing the above.
上記目的を達成するための第一の発明は、画面に対する操作を検知する操作検知部と、連続して録画され得られた前記画面の画像データに基づいて、前記操作検知部によって操作を検知したタイミング前の前記画像データの画素の値と前記検知したタイミング後の前記画像データの画素の値とが異なる領域を検知画像として取得する検知画像解析部と、前記操作検知部によって検知した操作に関する操作情報と前記検知画像解析部によって取得した検知画像を特定するための特定情報とを用いてテスト用スクリプトを生成するスクリプト生成部と、前記スクリプト生成部によって生成したテスト用スクリプトに基づいて、テスト対象となる画面に対して前記特定情報によって特定される画像データが該当する位置座標を定め、前記位置座標を用いて前記操作情報に関する操作を行うスクリプト実行部と、を備えたことを特徴とする。 According to a first aspect of the invention for achieving the above object, an operation is detected by the operation detection unit that detects an operation on the screen, and the operation detection unit based on the image data of the screen that is continuously recorded. A detection image analysis unit that acquires, as a detection image, a region where the pixel value of the image data before the timing and the pixel value of the image data after the detected timing are detected, and an operation related to the operation detected by the operation detection unit A script generation unit that generates a test script using information and specific information for specifying a detection image acquired by the detection image analysis unit, and a test target based on the test script generated by the script generation unit The position coordinates corresponding to the image data specified by the specific information with respect to the screen to be determined are determined, and the position coordinates are A script execution unit for performing an operation related to the operation information have, characterized by comprising a.
上記目的を達成するための第二の発明は、画面に対する操作を検知する操作検知工程と、連続して録画され得られた前記画面の画像データに基づいて、前記操作検知工程によって操作を検知したタイミング前の前記画像データの画素の値と前記検知したタイミング後の前記画像データの画素の値とが異なる領域を検知画像として取得する検知画像解析工程と、前記操作検知工程によって検知した操作に関する操作情報と前記検知画像解析工程によって取得した検知画像を特定するための特定情報とを用いてテスト用スクリプトを生成するスクリプト生成工程と、前記スクリプト生成工程によって生成したテスト用スクリプトに基づいて、テスト対象となる画面に対して前記特定情報によって特定される画像データが該当する位置座標を定め、前記位置座標を用いて前記操作情報に関する操作を行うスクリプト実行工程と、を実行することを特徴とする。 The second invention for achieving the above object is to detect an operation by the operation detection step based on an operation detection step of detecting an operation on the screen and image data of the screen obtained by continuous recording. A detection image analysis step of acquiring a region where a pixel value of the image data before the timing and a pixel value of the image data after the detected timing are different as a detection image, and an operation related to the operation detected by the operation detection step A script generation step for generating a test script using information and specific information for specifying the detection image acquired by the detection image analysis step, and a test target based on the test script generated by the script generation step Determine the position coordinates corresponding to the image data specified by the specific information with respect to the screen, And executes and a script execution process for performing operations relating to the operation information by using the serial position coordinates.
上記目的を達成するための第三の発明は、テスト支援装置において実行されるプログラムであって、前記テスト支援装置を、画面に対する操作を検知する操作検知手段と、連続して録画され得られた前記画面の画像データに基づいて、前記操作検知手段によって操作を検知したタイミング前の前記画像データの画素の値と前記検知したタイミング後の前記画像データの画素の値とが異なる領域を検知画像として取得する検知画像解析手段と、前記操作検知手段によって検知した操作に関する操作情報と前記検知画像解析手段によって取得した検知画像を特定するための特定情報とを用いてテスト用スクリプトを生成するスクリプト生成手段と、前記スクリプト生成手段によって生成したテスト用スクリプトに基づいて、テスト対象となる画面に対して前記特定情報によって特定される画像データが該当する位置座標を定め、前記位置座標を用いて前記操作情報に関する操作を行うスクリプト実行手段と、して機能させるためのプログラム。 A third invention for achieving the above object is a program executed in a test support device, wherein the test support device can be continuously recorded with operation detection means for detecting an operation on a screen. Based on the image data of the screen, an area in which the pixel value of the image data before the timing when the operation is detected by the operation detection unit and the pixel value of the image data after the detected timing are different is used as a detected image. Detection image analysis means to be acquired, script generation means for generating a test script using operation information related to the operation detected by the operation detection means and identification information for specifying the detection image acquired by the detection image analysis means And a screen to be tested based on the test script generated by the script generation means The determined position coordinates of the image data specified falls by the specific information, said the script executing means for performing an operation on the operation information, and program for functioning by using the position coordinates for.
本発明によれば、ユーザインタフェース操作が施された位置の周辺画像からテスト用のスクリプトにて用いる当該位置の座標値を求めてテスト用のスクリプトを自動生成することで、ソフトウェア開発におけるテスト及び評価工程における開発コストを軽減することができる、という効果を奏する。 According to the present invention, testing and evaluation in software development can be performed by automatically generating a test script by obtaining a coordinate value of the position used in a test script from a peripheral image at a position where a user interface operation has been performed. There is an effect that the development cost in the process can be reduced.
以下、図面を参照して、本発明の実施形態を詳細に説明する。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
図1は、本発明の実施形態に係るテスト支援装置のハードウェアの構成を示す構成図である。 FIG. 1 is a configuration diagram showing a hardware configuration of a test support apparatus according to an embodiment of the present invention.
図1において、100は、作成したソフトウェアのテストを実行するコンピュータであるテスト支援装置であり、ROM102あるいは外部メモリ104には、CPU106の制御プログラムであるBIOS(Basic Input / Output System)やOS、または、テスト支援装置100の実行する機能を実現するために必要な後述する各種プログラム等が記憶されている。
In FIG. 1,
RAM108は、CPU106の主メモリ、ワークエリア等として機能する。CPU106は、処理の実行に際して必要なプログラム等をRAM108にロードして、プログラムを実行することで各種動作を実現するものである。
The
また、キーボードコントローラ(KBC)110は、キーボード112をポイントデバイスコントローラ(PDC)114はマウス116やその他のポインティングデバイスからの入力を制御する。ビデオコントローラ(VC)118は、ディスプレイ120等の表示機への表示を制御する。
A keyboard controller (KBC) 110 controls input from a
メモリコントローラ(MC)122は、ブートプログラム、ブラウザソフトウエア、各種のアプリケーション、フォントデータ、ユーザファイル、編集ファイル、各種データ等を記憶するハードディスク(HDD)やフロッピーディスク(登録商標 FD)或いはPCMCIAカードスロットにアダプタを介して接続されるコンパクトフラッシュメモリ等の外部メモリ104へのアクセスを制御する。 The memory controller (MC) 122 is a hard disk (HDD), floppy disk (registered trademark FD) or PCMCIA card slot for storing a boot program, browser software, various applications, font data, user files, editing files, various data, and the like. Controls access to an external memory 104 such as a compact flash memory connected via an adapter.
ROM102、CPU106、RAM108、キーボードコントローラ(KBC)110、イントデバイスコントローラ(PDC)114、ビデオコントローラ(VC)118、及びメモリコントローラ(MC)122は、システムバス124を介して接続されており、相互に制御信号の送受信を行っている。
図2は、本発明の実施形態に係るテスト支援装置100におけるモジュールの機能構成を示す構成図である。
FIG. 2 is a configuration diagram showing a functional configuration of modules in the
テスト支援装置100は、作成したソフトウェアのテストを実行するための環境が整備されており、テスト支援装置100には、作成したソフトウェアを示すテスト対象アプリケーション200、作成したソフトウェアに対して自動テストを行う際に利用するテスト用スクリプトを自動生成するスクリプト生成モジュール202、及び生成したテスト用スクリプトを用いてテスト対象アプリケーションの自動テストを実行するスクリプト実行モジュール204から構成されている。
The
図3は、本発明の実施形態に係るテスト支援装置100におけるモジュールの詳細な機能構成を示す構成図である。
FIG. 3 is a configuration diagram showing a detailed functional configuration of modules in the
スクリプト生成モジュール202は、画面録画部300を備えており、画面録画部300は、図1に示すディスプレイ120に連続して表示される画面の動画ファイルを画面動画302としてROM102や外部メモリ104等の記録媒体に記録する。
The
この場合、録画の開始を指示入力するための不図示の画面を準備し、当該画面に備えられた録画開始ボタン等がキーボード112やマウス116等のポインティングデバイスによって押下されたタイミングで録画を開始し、録画を中止する場合は、録画中止ボタン等が当該ポインティングデバイスによって押下されたタイミングで録画を中止する。
In this case, a screen (not shown) for inputting an instruction to start recording is prepared, and recording is started when a recording start button or the like provided on the screen is pressed by a pointing device such as the
GUI操作入力部304は、図1に示すキーボード112やマウス116等のポインティングデバイスを示しており、ユーザは、GUI操作入力部304を用いてテスト用スクリプトの生成や生成したテスト用スクリプトを実行することで、テスト対象アプリケーション200の自動テストを行う。
The GUI
また、スクリプト生成モジュール202は、GUI操作検知部306、GUI操作前画面画像生成部308、GUI操作後画面画像生成部310、及びスクリプト生成部312を備えており、GUI操作検知部306は、GUI操作入力部304、GUI操作前画面画像生成部308、GUI操作後画面画像生成部310、及びスクリプト生成部312に接続されている。
The
GUI操作検知部306は、GUI操作入力部304によって入力されたキーボード112の打鍵、マウス116によるカーソルの操作等の操作情報(例えば、キーボード112であれば、リターンキーや「↓」あるいは「↑」キーの押下等のイベント情報や、マウス116を用いた場合、カーソル移動、右クリック、及び左クリック等のイベント情報)を検知した時に、GUI操作前画面画像生成部308及びGUI操作後画面画像生成部310に検知したことを示す操作検知情報を送信すると共に、スクリプト生成部312に操作情報を送信する。
The GUI
GUI操作前画面画像生成部308は、操作検知情報を受信すると、受信したタイミングより所定時間前から受信したタイミング迄に画面録画部300によって記録された画面動画302を用いて、例えばビットマップ形式の画像ファイルを生成する(つまり、受信したタイミング直前の画面動画302の1フレームを取得して画像ファイルを生成する。)。生成された画像ファイルは、GUI操作前画面画像314としてROM102や外部メモリ104等の記録媒体に記録する。
When receiving the operation detection information, the pre-GUI operation screen
また、GUI操作後画面画像生成部310は、操作検知情報を受信すると、受信したタイミングから所定時間後迄に画面録画部300によって記録された画面動画302を用いて、例えばビットマップ形式の画像ファイルを生成する(つまり、受信したタイミング直後の画面動画302の1フレームを取得して画像ファイルを生成する。)。生成された画像ファイルは、GUI操作後画面画像316としてROM102や外部メモリ104等の記録媒体に記録する。
In addition, when the GUI operation post-screen
尚、GUI操作前画面画像314及びGUI操作後画面画像316が、GUI操作入力部304によって入力された操作に関連している画像ファイルであることを示すために、GUI操作前画面画像314を00001_before.bmpとして保存し、GUI操作後画面画像316を00001_after.bmpとして保存して、ファイル名に関連性があることを示す識別番号(本例では、00001を示す)を設定して保存を行う。
In order to indicate that the pre-GUI
スクリプト生成部312は、GUI操作検知部306によって送信された操作情報を受信し、受信した操作情報及び検知画像(詳細後述)を特定する特定情報に基づいて、テスト用スクリプト318を生成する。
The
また、スクリプト生成モジュール202は、検知画像解析部320を備えており、検知画像解析部320は、スクリプト生成部312と接続されており、GUI操作前画面画像314及びGUI操作後画面画像316を取得して解析を行い、ユーザがGUI操作入力部304を用いて入力を行った位置の周辺画像ファイルを、取得して解析を行ったGUI操作前画面画像314から切出して生成し、生成された周辺画像ファイルは、検知画像322としてROM102や外部メモリ104等の記録媒体に記録する。
The
尚、検知画像322を記録した記録媒体の所定領域(記録先のパス等)を特定情報としており、特定情報は、スクリプト生成部312へ送信される。
A predetermined area (such as a recording destination path) of the recording medium on which the detected
スクリプト実行モジュール204は、スクリプト実行部324を含んで構成されており、スクリプト実行部324は、スクリプト生成部312によって生成されたテスト用スクリプト318の操作情報及び特定情報、検知画像解析部320によって生成され記録された検知画像322に基づいて、テスト対象アプリケーション200に対して自動テストを実行する。
The
テスト用スクリプト318を実行させるには、実行を指示入力するための不図示の画面を準備し、当該画面に備えられたテスト開始ボタン等がキーボード112やマウス116等のポインティングデバイスによって押下されたタイミングでテスト用スクリプトを実行する。
In order to execute the
次に図4を用いて本発明の実施形態に係るテスト支援装置100におけるテスト用スクリプトを生成する処理を示すフローチャートである。尚、本フローチャートにおける各処理ステップは、CPU106の制御の下、実行される。
Next, it is a flowchart which shows the process which produces | generates the script for a test in the
ステップS100では、GUI操作入力部304によって、テスト対象アプリケーション200の起動指示がされたことを検知して、テスト対象アプリケーション200を起動し、次のステップS102では、画面録画部300によって、録画開始の指示入力がなされたことを検知して、ディスプレイ120に表示される画面の動画ファイルを画面動画302としてROM102や外部メモリ104等の記録媒体に記録する。
In step S100, the GUI
ステップS104では、画面録画部300によって、録画中止の指示入力がなされたか否かを検知したか否かを判定し、検知した場合は、ステップS116へ処理を進め、検知しない場合は、ステップS106へ処理を進める。
In step S104, it is determined whether or not the
ステップS106では、GUI操作検知部306によって、GUI操作入力部304によって操作が行われたことを検知したか否かを判定し、検知した場合は、GUI操作前画面画像生成部308及びGUI操作後画面画像生成部310へ操作を検知した旨を示す操作検知情報を送信すると共に、当該操作に関する操作情報(例えば、キーボード112であれば、リターンキーや「↓」あるいは「↑」キーの押下等のイベント情報や、マウス116を用いた場合、カーソル移動、右クリック、及び左クリック等のイベント情報)をスクリプト生成部312へ送信した後、ステップS108へ処理を進め、検知しない場合は、ステップS114の後続の処理へ進める。
In step S106, the GUI
ステップS108では、GUI操作前画面画像生成部308によって、ステップS106において送信された操作検知情報を受信し、受信したタイミングより所定時間前から受信したタイミング迄に画面録画部300によって記録された画面動画302を用いて、例えば、ビットマップ形式の画像ファイルを生成し(つまり、受信したタイミング直前の画面動画302の1フレームを取得して画像ファイルを生成し)、生成された画像ファイルを、GUI操作前画面画像314としてROM102や外部メモリ104等の記録媒体に記録する。
In step S108, the screen
ステップS110では、GUI操作後画面画像生成部310によって、ステップS106において送信された操作検知情報を受信し、受信したタイミングから所定時間後迄に画面録画部300によって記録された画面動画302を用いて、例えばビットマップ形式の画像ファイルを生成し(つまり、受信したタイミング直後の画面動画302の1フレームを取得して画像ファイルを生成し)、生成された画像ファイルを、GUI操作後画面画像316としてROM102や外部メモリ104等の記録媒体に記録する。尚、GUI操作前画面画像314及びGUI操作後画面画像316が関係していることを示すため、ファイル名には、関連が明示されるように識別番号を振ることで対応している。
In step S110, the operation detection information transmitted in step S106 is received by the screen
次にステップS112では、検知画像解析部320によって、ステップS108において記録媒体へ記録したGUI操作前画面画像314及びステップS110において記録媒体へ記録したGUI操作後画面画像316を取得して解析を行った後、ユーザがGUI操作入力部304を用いて入力を行った位置の周辺画像ファイルを、取得して解析を行ったGUI操作前画面画像314から切出して生成し、生成された周辺画像ファイルを、検知画像322としてROM102や外部メモリ104等の記録媒体の所定領域に記録する。
In step S112, the detected
尚、検知画像322を記録した記録媒体の所定領域(記録先のパス等)を特定情報として、スクリプト生成部312へ送信する。尚、本ステップにおける処理の詳細は、図5を用いて後述する。
A predetermined area (such as a recording destination path) of the recording medium on which the detected
次にステップS114では、スクリプト生成部312によって、ステップS106において送信された操作情報及びステップS112において記録媒体へ記録した検知画像322を用いてテスト用スクリプトを生成する。
In step S114, the
ステップS116では、画面録画部300によって、ディスプレイ120に表示される画面の動画の記録を中止し、次のステップS118では、テスト対象アプリケーション200を停止する。
In step S116, the
次に、検知画像解析処理における処理の詳細について、図5に示すフローチャートを用いて説明する。尚、本フローチャートにおける各処理ステップは、CPU106の制御の下、検知画像解析部320によって実行される。
Next, details of the processing in the detected image analysis processing will be described using the flowchart shown in FIG. Each processing step in this flowchart is executed by the detected
ステップS200では、ステップS108において記録媒体へ記録したGUI操作前画面画像314及びステップS110において記録媒体へ記録したGUI操作後画面画像316を取得して解析を行った後、ユーザがGUI操作入力部304を用いて入力を行った位置の周辺画像ファイルを、取得して解析を行ったGUI操作前画面画像314から切出して生成し、生成された周辺画像ファイルのなかから、検知画像322となり得る候補を特定し、GUI操作前画面画像314から特定されたものをGUI操作前範囲画像、GUI操作後画面画像316から特定されたものをGUI操作後範囲画像として、ROM102や外部メモリ104等の記録媒体に記録する。尚、本ステップにおける処理の詳細は、図6を用いて後述する。
In step S200, after obtaining and analyzing the pre-GUI
次にステップS202では、ステップS200において記録媒体へ記録されたGUI操作後範囲画像がリスト状態であるか否かを判定する。リスト状態とは、例えば、図14に示すGUI操作前に示される初期状態に対して、リストが選択されると、GUI操作後1に示すようにリストに複数のレコードが隣接して表示される。 Next, in step S202, it is determined whether the range image after GUI operation recorded on the recording medium in step S200 is in a list state. For example, in the list state, when a list is selected with respect to the initial state shown before the GUI operation shown in FIG. 14, a plurality of records are displayed adjacent to each other as shown in 1 after the GUI operation. .
その後、複数のレコードに対して、GUI操作後1に示すように「↓」キー等が押下されたことを検知することによって1レコード選択された場合、選択されたレコード(図面(*.vsd))がハイライト表示され、GUI操作前の画像ファイルとGUI操作後1の画像ファイルとを比較すると、差分が検知されるため検知画像322しても良いが、スクロール等の操作が行われると、リストに表示されたレコードは変化するため、GUI操作後1の画像ファイルとGUI操作後2の画像ファイルとを比較すると、差分が検知されるため、レコードを選択していないにも関わらず、複数の検知画像322が生じてしまう。
After that, when one record is selected by detecting that the “↓” key or the like is pressed as shown in 1 after GUI operation for a plurality of records, the selected record (drawing (* .vsd)) is selected. ) Is highlighted, and when the image file before the GUI operation is compared with the image file after the GUI operation, the detected
そのため、複数の検知画像322が生じた場合は、ユーザによって、表示されたレコードのうち選択がなされていないものとして、検知画像322の生成を行わないため本ステップを実行している。
Therefore, when a plurality of
ステップS204では、ステップS200において記録媒体に記録されたGUI操作前範囲画像を検知画像候補としてROM102や外部メモリ104等の記録媒体に記録する。
In step S204, the pre-GUI operation range image recorded in the recording medium in step S200 is recorded as a detected image candidate in a recording medium such as the
ステップS206では、ステップS204において記録媒体へ記録した検知候補画像が複数存在するか否かを判定し、複数存在する場合は、ステップS208へ処理を進め、複数存在しない場合は、処理を終了する。本ステップにおいて検知候補画像が複数存在する場合については、図11〜図13を用いて、後述する。 In step S206, it is determined whether or not there are a plurality of detection candidate images recorded in the recording medium in step S204. If there are a plurality of detection candidate images, the process proceeds to step S208. A case where there are a plurality of detection candidate images in this step will be described later with reference to FIGS.
ステップS208では、ステップS204において記録媒体へ記録した検知画像候補に対応するGUI操作後範囲画像の濃淡が濃い画像を検知画像322としてROM102や外部メモリ104等の記録媒体に記録する。尚、濃淡の比較については、図9〜図15を用いて詳細を説明する。
In step S208, the dark image in the range image after GUI operation corresponding to the detected image candidate recorded in the recording medium in step S204 is recorded as a detected
また、本ステップでは、検知画像322を記録した記録媒体の所定領域を特定情報としてRAM108へ記憶され、スクリプト生成部312において、テスト用スクリプト318を生成する際に、RAM108へ記憶された特定情報が用いられる。
In this step, a predetermined area of the recording medium on which the detected
次に、検知範囲画像取得処理における処理の詳細について、図6に示すフローチャートを用いて説明する。尚、本フローチャートにおける各処理ステップは、CPU106の制御の下、検知画像解析部320によって実行される。
Next, details of the processing in the detection range image acquisition processing will be described using the flowchart shown in FIG. Each processing step in this flowchart is executed by the detected
ステップS300では、ステップS110において記録媒体へ記録したGUI操作前画面画像314の画像ファイル及びGUI操作後画面画像316の画像ファイルの各画素の値を比較する。
In step S300, the value of each pixel of the image file of the pre-GUI
この場合、ファイル名に設定された識別番号に対して同一の識別番号を有するものを比較し、ステップS302では、ステップS300において、画素の値が異なるとされた画素を線で繋ぐ。 In this case, the identification numbers set in the file names are compared with those having the same identification number, and in step S302, pixels whose pixel values are different in step S300 are connected by a line.
次のステップS304では、線で繋がれた枠が四辺形であるか否かを判定し、四辺形であると判定した場合は、ステップS306へ処理を進め、四辺形でないと判定した場合は、ステップS308へ処理を進める。 In the next step S304, it is determined whether or not the frame connected by the line is a quadrilateral. If it is determined that the frame is a quadrilateral, the process proceeds to step S306, and if it is determined that the frame is not a quadrilateral, The process proceeds to step S308.
ステップS306では、線で繋がれた四辺形を矩形(あるいは正方形)に整形する。尚、矩形(あるいは正方形)への整形の方法については、図14に示すようにGUI操作前画面900の画像ファイルとGUI操作後画面904の画像ファイルとの比較から画素の値が異なるとされた画素を線で結んだ枠902と枠906とが示されており、これらの枠は、矩形(あるいは正方形)ではないため、枠として判定された箇所を含むようにして枠908のように矩形(あるいは正方形)に整形する。
In step S306, the quadrilateral connected by the line is shaped into a rectangle (or square). As for the method of shaping into a rectangle (or square), as shown in FIG. 14, the pixel values differ from the comparison between the image file on the
次にステップS308では、GUI操作前画面画像314に対して、ステップS306において矩形に整形された枠をGUI操作前範囲画像(周辺画像ファイル)としてROM102や外部メモリ104等の記録媒体に記録する。
Next, in step S308, the frame shaped into a rectangle in step S306 is recorded as a pre-GUI operation range image (peripheral image file) in a recording medium such as the
次にステップS310では、GUI操作後画面画像316に対して、ステップS306において矩形に整形された枠をGUI操作後範囲画像(周辺画像ファイル)としてROM102や外部メモリ104等の記録媒体に記録する。
Next, in step S310, the frame shaped into a rectangle in step S306 is recorded as a post-GUI operation range image (peripheral image file) in a recording medium such as the
次に、スクリプト生成処理における処理の詳細について、図7に示すフローチャートを用いて説明する。尚、本フローチャートにおける各処理ステップは、CPU106の制御の下、スクリプト生成部312によって実行される。
Next, details of the processing in the script generation processing will be described using the flowchart shown in FIG. Each processing step in this flowchart is executed by the
ステップS400では、ステップS106においてGUI操作検知部306から送信された操作情報を受信し、受信した操作情報をRAM108に記憶し、次のステップS402では、ステップS400においてRAM108に記憶した操作情報に基づいて、画像検索処理が必要であるか否かを判定する。
In step S400, the operation information transmitted from the GUI
尚、画像検索処理は、ユーザがGUI操作入力部304を用いて入力を行った位置の周辺画像ファイルから検知画像322を特定して、座標を求める方法を示しており、操作情報として、キーボード112であれば、リターンキーや「↓」あるいは「↑」キーの押下等のイベント情報や、マウス116を用いた場合、右クリック、及び左クリック等のイベント情報等の画面に配置されたボタンやリストを選択する際に用いる操作が行われた場合、当該画像検索処理が必要である。
Note that the image search processing shows a method of obtaining the coordinates by specifying the detected
ステップS404では、ステップS112において検知画像322が記録された記録媒体の所定領域を示すパス、つまりRAM108に記憶された特定情報を含めて画像検索処理をテスト用スクリプト318に追加する。
In step S404, an image search process is added to the
ステップS406では、ステップS400においてRAM108に記憶した操作情報に関する処理をテスト用スクリプト318に追加する。
尚、生成されたテスト用スクリプトの1例を図16に示す。
In step S406, a process related to the operation information stored in the
An example of the generated test script is shown in FIG.
2行目に示される関数Chkimg(“C:\image.bmp”)のChkimg( )が、ステップS402に記載された画像検索処理を示しており、C:\image.bmpについては、画像検索処理に必要な検知画像322が記憶された記録媒体の所定領域を示すパス、つまり特定情報を表わしており、当関数を使って、パスによって指定された所定領域に記録された検知画像322を取得することで、検索処理を行っている。
Chkimg () of the function Chkimg (“C: \ image.bmp”) shown in the second line indicates the image search process described in step S402. For C: \ image.bmp, the image search process This represents a path indicating a predetermined area of the recording medium in which the
また、3行目に示される関数BTN(LEFT、CLICK、598、261、10)のBTN( )がステップS402に記載された操作情報を示しており、BTN( )は、マウス116を用いた際の操作を示しており、BTN(右あるいは左の何れかを示す情報、クリック等のイベントを示す情報、テスト対象アプリケーション200における画面に対するX座標、テスト対象アプリケーション200における画面に対するY座標、・・・)というように定義される。
Further, the BTN () of the function BTN (LEFT, CLICK, 598, 261, 10) shown in the third line indicates the operation information described in
X座標、Y座標については、Chkimgで取得した検知画像322から、テスト対象アプリケーション200における画面に対して該当する位置を特定し、特定された位置の該画面に対する座標を設定する。
As for the X coordinate and the Y coordinate, the position corresponding to the screen in the
つまり、本例によると、2行目、3行目に記載されたスクリプトでは、C:\image.bmpに記憶された検知画像322を取得し、取得した検知画像322から、テスト対象アプリケーション200における画面に対して該当する位置を特定し、特定された位置の該画面に対するX座標が、598、Y座標が、261として設定され、LEFT、つまり左のボタンが、CLICK、つまりクリックされることを示している。
In other words, according to this example, the script described in the second and third lines acquires the
次に、テスト用スクリプトを用いてテスト対象アプリケーションに対して自動テストを実行する処理について、図8に示すフローチャートを用いて説明する。尚、本フローチャートにおける各処理ステップは、CPU106の制御の下、スクリプト実行部324によって実行される。
Next, a process for executing an automatic test on a test target application using a test script will be described with reference to a flowchart shown in FIG. Each processing step in this flowchart is executed by the
まず、ステップS500では、GUI操作入力部304によって、テスト対象アプリケーション200の起動指示がされたことを検知して、テスト対象アプリケーション200を起動し、更に不図示の画面に備えられたテスト開始ボタンがGUI操作入力部304によって入力されたことを検知すると、テスト用スクリプト318が実行される。
First, in step S500, when the GUI
次にステップS502では、テスト用スクリプト318に画像検索処理が存在するか否かを判定し、存在すると判定した場合は、ステップS504へ処理を進め、存在しないと判定し、かつテスト用スクリプト318が全て実行されていない場合は、ステップS502へ処理を進める。
Next, in step S502, it is determined whether or not an image search process exists in the
ステップS504では、画像検索処理において必要とする検知画像322をステップS112において記録された記録媒体の所定領域から取得し、取得した検知画像322とテスト対象アプリケーション200における画面に対して該当する位置を特定し、ステップS506では、ステップS503において特定された位置の該画面に対する座標を取得する。
In step S504, the
ステップS508では、ステップS506において取得した座標に対して、テスト用スクリプト318の操作情報に基づいて、ユーザインタフェースの操作を自動で実行を行う。尚、テスト用スクリプト318の全処理を行うまで、ステップS502からステップS508までの処理を繰り返す。
In step S508, the user interface operation is automatically executed on the coordinates acquired in step S506 based on the operation information of the
ステップS510では、テスト対象アプリケーション200を停止し、本フローチャートにおける処理を終了する。
In step S510, the
次に図5に示す検知画像解析処理の第1例(ボタンが押下された場合)について図9を用いて説明する。 Next, a first example (when the button is pressed) of the detected image analysis process shown in FIG. 5 will be described with reference to FIG.
テスト対象アプリケーション200における画面に対してなされたユーザインタフェース操作が検知された際に、GUI操作前範囲画像をGUI操作前画面400とし、GUI操作後範囲画像をGUI操作後画面402としており、GUI操作前画面400の画像ファイルとGUI操作後画面402の画像ファイルとの画素の値との比較から枠404と枠406が特定される。従って、枠404の周辺画像ファイルを検知画像408(検知画像322とする。)とする。
When a user interface operation performed on the screen in the
次に図5に示す検知画像解析処理の第2例(チェックボタンが押下された場合)について図10を用いて説明する。 Next, a second example (when the check button is pressed) of the detected image analysis process shown in FIG. 5 will be described with reference to FIG.
テスト対象アプリケーション200における画面に対してなされたユーザインタフェース操作が検知された際に、GUI操作前範囲画像をGUI操作前画面500とし、GUI操作後範囲画像をGUI操作後画面502としており、GUI操作前画面500の画像ファイルとGUI操作後画面502の画像ファイルとの各画素の値との比較から枠504と枠606が特定される。従って、枠504の周辺画像ファイルを検知画像508(検知画像322とする。)とする。
When a user interface operation performed on the screen of the
次に図5に示す検知画像解析処理の第3例(ラジオボタンが押下された場合)について図11を用いて説明する。 Next, a third example of detection image analysis processing (when a radio button is pressed) shown in FIG. 5 will be described with reference to FIG.
テスト対象アプリケーション200における画面に対してなされたユーザインタフェース操作が検知された際に、GUI操作前範囲画像をGUI操作前画面600とし、GUI操作後範囲画像をGUI操作後画面602としており、GUI操作前画面600の画像ファイルとGUI操作後画面602の画像ファイルとの各画素の値との比較から枠604と枠608、及び枠606と枠610との2つの組合せにて、画素の値が異なることを検知し、複数の検知候補画像が特定される。
When a user interface operation performed on the screen in the
枠604の検知候補画像を検知候補画像612とし、枠606の検知候補画像を検知候補画像614とすると、ユーザインタフェース操作が検知された後の画像の濃淡が濃い枠614を検知画像616(検知画像322とする。)とする。
Assuming that the detection candidate image in the
次に図5に示す検知画像解析処理の第4例(リストに表示されたレコードを選択する場合)について図12を用いて説明する。 Next, a fourth example of the detected image analysis process shown in FIG. 5 (when a record displayed in the list is selected) will be described with reference to FIG.
テスト対象アプリケーション200における画面に対してなされたユーザインタフェース操作が検知された際に、GUI操作前範囲画像をGUI操作前画面700とし、GUI操作後範囲画像をGUI操作後画面702としており、GUI操作前画面700の画像ファイとGUI操作後画面702の画像ファイルとの各画素の値との比較から枠704と枠708と、及び枠706と枠710との2つの組合せにて、画素の値が異なることを検知し、複数の検知候補画像が特定される。
When a user interface operation performed on the screen in the
枠704の検知候補画像を検知候補画像712とし、枠706の検知候補画像を検知候補画像714とすると、ユーザインタフェース操作が検知された後の画像の濃淡が濃い枠714を検知画像716(検知画像322とする。)とする。
Assuming that the detection candidate image in the
次に図5に示す検知画像解析処理の第5例(コンボボックス(スクロールなしの場合)に表示されたレコードを選択する場合)について図13を用いて説明する。 Next, a fifth example of the detected image analysis processing shown in FIG. 5 (when a record displayed in a combo box (without scrolling) is selected) will be described with reference to FIG.
テスト対象アプリケーション200における画面に対してなされたユーザインタフェース操作が検知された際に、GUI操作前範囲画像をGUI操作前画面800とし、GUI操作後範囲画像をGUI操作後画面802としており、GUI操作前画面800の画像ファイルとGUI操作後画面802との画像ファイルの各画素の値との比較から枠808と枠810との各画素の値が異なることを検知する。従って、枠808の周辺画像ファイルを検知画像812(検知画像322とする。)とする。
When a user interface operation performed on the screen in the
そして、次のユーザインタフェース操作が検知された際に、GUI操作前範囲画像をGUI操作後画面802とし、GUI操作後範囲画像をGUI操作後画面804としており、GUI操作後画面802の画像ファイルとGUI操作後画面804の画像ファイルとの各画素の値との比較から枠814と枠818と、及び枠816と枠820との2つの組合せにて、画素の値が異なることを検知し、複数の検知候補画像が特定される。
When the next user interface operation is detected, the pre-GUI operation range image is set to the
枠814の検知候補画像を検知候補画像822とし、枠816の検知候補画像を検知候補画像824とすると、ユーザインタフェース操作が検知された後の画像の濃淡が濃い枠824を検知画像826(検知画像322とする。)とする。
Assuming that the detection candidate image in the
GUI操作画面806については、ユーザインタフェース操作が検知されずに、枠820に表示されている内容を表示しているのみである。
For the
次に図5に示す検知画像解析処理の第6例(コンボボックス(スクロールありの場合)に表示されたレコードを選択する場合)について図14を用いて説明する。 Next, a sixth example of the detected image analysis process shown in FIG. 5 (when a record displayed in a combo box (when scrolling) is selected) will be described with reference to FIG.
テスト対象アプリケーション200における画面に対してなされたユーザインタフェース操作が検知された際に、GUI操作前範囲画像をGUI操作前画面900とし、GUI操作後範囲画像をGUI操作後画面904としており、GUI操作前画面900の画像ファイルとGUI操作後画面904の画像ファイルとの各画素の値との比較から枠902と枠906との各画素の値が異なることを検知する。
When a user interface operation performed on the screen in the
但し、検知された枠は、矩形(あるいは正方形)の形状をしていないため、枠908に示すように全ての枠を含むような形状で矩形(あるいは正方形)に整形する。前述の通り、テスト対象アプリケーション200における画面に対して検知画像の該当する位置を特定した後、当該位置を1組のX座標及びY座標といった座標値として求めているため、このように矩形(あるいは正方形)に整形を行っている。つまり、画像検索処理で利用する関数に応じて、整形を行っている。
However, since the detected frame does not have a rectangular (or square) shape, it is shaped into a rectangle (or square) in a shape that includes all the frames as indicated by a
次のユーザインタフェース操作が検知された際に、GUI操作前範囲画像をGUI操作後画面904とし、GUI操作後範囲画像をGUI操作後画面912としており、GUI操作後画面904の画像ファイルとGUI操作後画面910の画像ファイルの各画素の値との比較から、GUI操作後画面904のリストに表示されている各レコードの画素の値とGUI操作後画面910のリストに表示されている各レコードの画素の値とが異なることを検知し、複数の検知候補画像が特定される。
When the next user interface operation is detected, the pre-GUI operation range image is the
この場合、複数の検知候補画像が縦方向に連なっている状態、つまり、画面に対する検知候補画像の左端のX座標が同一であり、縦方向に隙間なく連なった状態、つまり1つの検知候補画像の下端のY座標と当該検知候補画像の1つ下に表示される検知候補画像の上端のY座標が同一であり、この状態を本発明の実施形態では、リスト状態としている。リスト状態であるか否かは、このように検知候補画像の左端のX座標、及び検知候補画像の上端と下端とのY座標により判定を行っている。 In this case, a state where a plurality of detection candidate images are continuous in the vertical direction, that is, the X coordinate of the left end of the detection candidate image with respect to the screen is the same, and a state in which the detection candidate images are continuous without gaps, that is, one detection candidate image The Y coordinate of the lower end and the Y coordinate of the upper end of the detection candidate image displayed immediately below the detection candidate image are the same, and this state is a list state in the embodiment of the present invention. Whether or not it is in the list state is thus determined based on the X coordinate of the left end of the detection candidate image and the Y coordinates of the upper end and the lower end of the detection candidate image.
このようなリスト状態においては、点線の枠912のように検知画像は存在しない(選択されたレコードは存在しない)と見做される。何故ならば、リストに表示されたレコードが選択されるということは、レコードが選択されたタイミングで、ユーザインタフェース操作が検知されるため、検知されたタイミングの前後の時間内では、必ず、GUI操作後画面904のリストに表示されたレコードとGUI操作後画面910のリストに表示されたレコードとが一致するためである。
In such a list state, it is considered that there is no detected image (the selected record does not exist) like the
次のユーザインタフェース操作が検知された際に、GUI操作前範囲画像をGUI操作後画面910とし、GUI操作後範囲画像をGUI操作後画面916としており、GUI操作後画面910の画像ファイルとGUI操作後画面916の画像ファイルの各画素の値との比較から枠914と枠918との各画素の値が異なることを検知する。従って、枠914の周辺画像ファイルを検知画像920(検知画像322とする。)とする。
When the next user interface operation is detected, the pre-GUI operation range image is the
GUI操作画面924については、ユーザインタフェース操作が検知されずに、枠918に表示されている内容を表示しているのみである。
As for the
尚、テスト用スクリプト318を作成するにあたり、コンボボックス(スクロールありの場合)の場合は、リスト状態でのユーザインタフェース操作(操作情報)は、「↓」キーダウン、あるいは「↑」キーダウンを実行し、検知画像920を検索するテスト用スクリプト318を生成するようにする。
When creating the
次に図5に示す検知画像解析処理の第7例(メニューに表示された項目を選択する場合)について図15を用いて説明する。 Next, a seventh example of detection image analysis processing shown in FIG. 5 (when an item displayed on a menu is selected) will be described with reference to FIG.
テスト対象アプリケーション200における画面に対してなされたユーザインタフェース操作が検知された際に、GUI操作前範囲画像をGUI操作前画面1000とし、GUI操作後範囲画像をGUI操作後画面1002としており、GUI操作前画面1000の画像ファイルとGUI操作後画面1002の画像ファイルの各画素の値との比較から枠1006と枠1008との各画素の値が異なることを検知する。従って、枠1006の周辺画像ファイルを検知画像1010とする。
When a user interface operation performed on the screen in the
そして、次のユーザインタフェース操作が検知された際に、GUI操作前範囲画像をGUI操作後画面1002とし、GUI操作後範囲画像をGUI操作後画面1004としており、GUI操作後画面1002の画像ファイルとGUI操作後画面1004の画像ファイルの各画素の値との比較から枠1012と枠1014との各画素の値が異なることを検知する。従って、枠1012の周辺画像ファイルを検知画像1016(検知画像322とする。)とする。
When the next user interface operation is detected, the pre-GUI operation range image is the
以上、本発明によれば、ユーザインタフェース操作が施された位置の周辺画像からテスト用のスクリプトにて用いる当該位置の座標値を求めてテスト用のスクリプトを自動生成することで、ソフトウェア開発におけるテスト及び評価工程における開発コストを軽減することができる。 As described above, according to the present invention, a test script in software development can be obtained by automatically generating a test script by obtaining a coordinate value of the position used in a test script from a peripheral image at a position where a user interface operation has been performed. In addition, the development cost in the evaluation process can be reduced.
以上、実施形態例を詳述したが、本発明は、例えば、方法、プログラムもしくは記憶媒体等としての実施態様をとることが可能であり、具体的には、複数の機器から構成されるシステムに適用しても良いし、また、一つの機器からなる装置に適用しても良い。また、本発明におけるプログラムは、各処理方法をコンピュータが実行可能(読み取り可能)なプログラムであり、本発明の記憶媒体は、各処理方法をコンピュータが実行可能
なプログラムが記憶されている。
Although the embodiment has been described in detail above, the present invention can take an embodiment as, for example, a method, a program, a storage medium, or the like. Specifically, the present invention is applied to a system composed of a plurality of devices. The present invention may be applied, or may be applied to an apparatus composed of one device. The program according to the present invention is a program that allows a computer to execute (read) each processing method, and the storage medium according to the present invention stores a program that allows the computer to execute each processing method.
なお、本発明におけるプログラムは、各装置の処理方法ごとのプログラムであってもよい。 The program in the present invention may be a program for each processing method of each device.
以上のように、前述した実施形態の機能を実現するプログラムを記録した記録媒体を、システムあるいは装置に供給し、そのシステムあるいは装置のコンピュータ(またはCPUやMPU)が記録媒体に格納されたプログラムを読取り実行することによっても、本発
明の目的が達成されることは言うまでもない。
As described above, a recording medium that records a program that implements the functions of the above-described embodiments is supplied to a system or apparatus, and a computer (or CPU or MPU) of the system or apparatus stores the program stored in the recording medium. It goes without saying that the object of the present invention can also be achieved by performing reading.
この場合、記録媒体から読み出されたプログラム自体が本発明の新規な機能を実現することになり、そのプログラムを記憶した記録媒体は本発明を構成することになる。 In this case, the program itself read from the recording medium realizes the novel function of the present invention, and the recording medium storing the program constitutes the present invention.
プログラムを供給するための記録媒体としては、例えば、フレキシブルディスク,ハードディスク,光ディスク,光磁気ディスク,CD−ROM,CD−R,DVD−ROM,磁気テープ,不揮発性のメモリカード,ROM,EEPROM,シリコンディスク等を用いることができる。 As a recording medium for supplying the program, for example, a flexible disk, hard disk, optical disk, magneto-optical disk, CD-ROM, CD-R, DVD-ROM, magnetic tape, nonvolatile memory card, ROM, EEPROM, silicon A disk or the like can be used.
また、コンピュータが読み出したプログラムを実行することにより、前述した実施形態の機能が実現されるだけでなく、そのプログラムの指示に基づき、コンピュータで稼働しているOS等が実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。 Further, by executing the program read by the computer, not only the functions of the above-described embodiments are realized, but also an OS or the like operating on the computer based on an instruction of the program is a part of the actual processing or It goes without saying that the case where the functions of the above-described embodiments are realized by performing all of the above processing is also included.
さらに、記録媒体から読み出されたプログラムが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書き込まれた後、そのプログラムコードの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPU等が実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。 Furthermore, after the program read from the recording medium is written to the memory provided in the function expansion board inserted into the computer or the function expansion unit connected to the computer, the function expansion board is based on the instructions of the program code. It goes without saying that the case where the CPU or the like provided in the function expansion unit performs part or all of the actual processing and the functions of the above-described embodiments are realized by the processing.
また、本発明は、複数の機器から構成されるシステムに適用しても、1つの機器からなる装置に適用してもよい。また、本発明は、システムあるいは装置にプログラムを供給することによって達成される場合にも適応できることは言うまでもない。この場合、本発明を達成するためのプログラムを格納した記録媒体を該システムあるいは装置に読み出すことによって、そのシステムあるいは装置が、本発明の効果を享受することが可能となる。 Further, the present invention may be applied to a system composed of a plurality of devices or an apparatus composed of a single device. Needless to say, the present invention can be applied to a case where the present invention is achieved by supplying a program to a system or apparatus. In this case, by reading a recording medium storing a program for achieving the present invention into the system or apparatus, the system or apparatus can enjoy the effects of the present invention.
さらに、本発明を達成するためのプログラムをネットワーク上のサーバ,データベース等から通信プログラムによりダウンロードして読み出すことによって、そのシステム、あるいは装置が、本発明の効果を享受することが可能となる。なお、上述した各実施形態およびその変形例を組み合わせた構成も全て本発明に含まれるものである。 Furthermore, by downloading and reading a program for achieving the present invention from a server, database, etc. on a network using a communication program, the system or apparatus can enjoy the effects of the present invention. In addition, all the structures which combined each embodiment mentioned above and its modification are also included in this invention.
100 テスト支援装置
102 ROM
104 外部メモリ
106 CPU
108 RAM
110 KBC
112 キーボード
114 PDC
116 マウス
118 VC
120 ディスプレイ
122 MC
124 バス
100
104
108 RAM
110 KBC
112
120
124 bus
Claims (5)
連続して録画され得られた前記画面の画像データに基づいて、前記操作検知部によって操作を検知したタイミング前の前記画像データの画素の値と前記検知したタイミング後の前記画像データの画素の値とが異なる領域を検知画像として取得する検知画像解析部と、
前記操作検知部によって検知した操作に関する操作情報と前記検知画像解析部によって取得した検知画像を特定するための特定情報とを用いてテスト用スクリプトを生成するスクリプト生成部と、
前記スクリプト生成部によって生成したテスト用スクリプトに基づいて、テスト対象となる画面に対して前記特定情報によって特定される画像データが該当する位置座標を定め、前記位置座標を用いて前記操作情報に関する操作を行うスクリプト実行部と、
を備えたことを特徴とするテスト支援装置。 An operation detector for detecting operations on the screen;
Based on the image data of the screen obtained by continuous recording, the pixel value of the image data before the timing when the operation is detected by the operation detection unit and the pixel value of the image data after the detected timing A detection image analysis unit that acquires a different region as a detection image;
A script generation unit that generates a test script using operation information related to an operation detected by the operation detection unit and specific information for specifying a detection image acquired by the detection image analysis unit;
Based on the test script generated by the script generation unit, a position coordinate corresponding to the image data specified by the specific information with respect to the screen to be tested is determined, and an operation related to the operation information is performed using the position coordinate. A script execution unit that performs
A test support apparatus characterized by comprising:
連続して録画され得られた前記画面の画像データに基づいて、前記操作検知工程によって操作を検知したタイミング前の前記画像データの画素の値と前記検知したタイミング後の前記画像データの画素の値とが異なる領域を検知画像として取得する検知画像解析工程と、
前記操作検知工程によって検知した操作に関する操作情報と前記検知画像解析工程によって取得した検知画像を特定するための特定情報とを用いてテスト用スクリプトを生成するスクリプト生成工程と、
前記スクリプト生成工程によって生成したテスト用スクリプトに基づいて、テスト対象となる画面に対して前記特定情報によって特定される画像データが該当する位置座標を定め、前記位置座標を用いて前記操作情報に関する操作を行うスクリプト実行工程と、
を実行することを特徴とするテスト支援装置の制御方法。 An operation detection process for detecting operations on the screen;
Based on the image data of the screen obtained by continuous recording, the pixel value of the image data before the timing when the operation is detected by the operation detection step and the pixel value of the image data after the detected timing A detection image analysis step of acquiring a different region as a detection image;
A script generation step for generating a test script using the operation information related to the operation detected by the operation detection step and the specific information for specifying the detection image acquired by the detection image analysis step;
Based on the test script generated by the script generation step, a position coordinate corresponding to the image data specified by the specific information with respect to a screen to be tested is determined, and an operation related to the operation information is performed using the position coordinate. Script execution process to perform
A method for controlling a test support apparatus, comprising:
前記テスト支援装置を、
画面に対する操作を検知する操作検知手段と、
連続して録画され得られた前記画面の画像データに基づいて、前記操作検知手段によって操作を検知したタイミング前の前記画像データの画素の値と前記検知したタイミング後の前記画像データの画素の値とが異なる領域を検知画像として取得する検知画像解析手段と、
前記操作検知手段によって検知した操作に関する操作情報と前記検知画像解析手段によって取得した検知画像を特定するための特定情報とを用いてテスト用スクリプトを生成するスクリプト生成手段と、
前記スクリプト生成手段によって生成したテスト用スクリプトに基づいて、テスト対象となる画面に対して前記特定情報によって特定される画像データが該当する位置座標を定め、前記位置座標を用いて前記操作情報に関する操作を行うスクリプト実行手段と、
して機能させるためのプログラム。 A program executed in the test support device,
The test support device;
An operation detection means for detecting an operation on the screen;
Based on the image data of the screen obtained by continuous recording, the pixel value of the image data before the timing when the operation is detected by the operation detection means and the pixel value of the image data after the detected timing A detection image analysis means for acquiring a different region as a detection image;
Script generation means for generating a test script using the operation information related to the operation detected by the operation detection means and the specific information for specifying the detected image acquired by the detected image analysis means;
Based on the test script generated by the script generation means, a position coordinate corresponding to the image data specified by the specific information with respect to the screen to be tested is determined, and an operation related to the operation information is performed using the position coordinate Script execution means for performing
Program to make it function.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010249796A JP2012103786A (en) | 2010-11-08 | 2010-11-08 | Test support device, control method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010249796A JP2012103786A (en) | 2010-11-08 | 2010-11-08 | Test support device, control method, and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2012103786A true JP2012103786A (en) | 2012-05-31 |
Family
ID=46394138
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010249796A Withdrawn JP2012103786A (en) | 2010-11-08 | 2010-11-08 | Test support device, control method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2012103786A (en) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2014117363A1 (en) * | 2013-01-31 | 2014-08-07 | Hewlett-Packard Development Company, L.P. | Generating software test script from video |
GB2522484A (en) * | 2014-03-07 | 2015-07-29 | Testplant Ltd | Method and system for creating reference data |
JP2016071397A (en) * | 2014-09-26 | 2016-05-09 | 株式会社野村総合研究所 | Test execution device, test execution method, and computer program |
US9471472B2 (en) | 2014-03-07 | 2016-10-18 | TestPlant Europe Limited | Method and system for entering information |
JP2017084185A (en) * | 2015-10-29 | 2017-05-18 | 富士通株式会社 | Operation recording reproduction program, operation recording program, operation recording reproduction method, and operation recording reproduction device |
JP2019197504A (en) * | 2018-05-11 | 2019-11-14 | 東芝テック株式会社 | Information processing apparatus and information processing program |
JP2020080172A (en) * | 2015-10-29 | 2020-05-28 | 富士通株式会社 | Operation recording program, operation recording method, operation recording system, operation playback program, operation playback method and operation playback system |
CN113344824A (en) * | 2021-06-30 | 2021-09-03 | 平安资产管理有限责任公司 | Interface image comparison method and device, computer equipment and storage medium |
WO2023281718A1 (en) * | 2021-07-08 | 2023-01-12 | 日本電信電話株式会社 | Processing device, processing method, and processing program |
-
2010
- 2010-11-08 JP JP2010249796A patent/JP2012103786A/en not_active Withdrawn
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2014117363A1 (en) * | 2013-01-31 | 2014-08-07 | Hewlett-Packard Development Company, L.P. | Generating software test script from video |
CN104956339B (en) * | 2013-01-31 | 2018-04-03 | 慧与发展有限责任合伙企业 | Software test script is generated from video |
CN104956339A (en) * | 2013-01-31 | 2015-09-30 | 惠普发展公司,有限责任合伙企业 | Generating software test script from video |
US9501388B2 (en) | 2014-03-07 | 2016-11-22 | TestPlant Europe Limited | Method and system for creating reference data |
US9471472B2 (en) | 2014-03-07 | 2016-10-18 | TestPlant Europe Limited | Method and system for entering information |
GB2522484B (en) * | 2014-03-07 | 2016-02-10 | Testplant Ltd | Method and system for creating reference data for an automated test of software with a graphical user interface |
GB2522484A (en) * | 2014-03-07 | 2015-07-29 | Testplant Ltd | Method and system for creating reference data |
JP2016071397A (en) * | 2014-09-26 | 2016-05-09 | 株式会社野村総合研究所 | Test execution device, test execution method, and computer program |
JP2017084185A (en) * | 2015-10-29 | 2017-05-18 | 富士通株式会社 | Operation recording reproduction program, operation recording program, operation recording reproduction method, and operation recording reproduction device |
JP2020080172A (en) * | 2015-10-29 | 2020-05-28 | 富士通株式会社 | Operation recording program, operation recording method, operation recording system, operation playback program, operation playback method and operation playback system |
JP2019197504A (en) * | 2018-05-11 | 2019-11-14 | 東芝テック株式会社 | Information processing apparatus and information processing program |
JP7106346B2 (en) | 2018-05-11 | 2022-07-26 | 東芝テック株式会社 | Information processing device and information processing program |
CN113344824A (en) * | 2021-06-30 | 2021-09-03 | 平安资产管理有限责任公司 | Interface image comparison method and device, computer equipment and storage medium |
WO2023281718A1 (en) * | 2021-07-08 | 2023-01-12 | 日本電信電話株式会社 | Processing device, processing method, and processing program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2012103786A (en) | Test support device, control method, and program | |
WO2019144680A1 (en) | Automatic testing method and apparatus, storage medium and electronic device | |
US20190146649A1 (en) | Scenario generation method in which various data are associated with each other, scenario execution method in which various data are associated with each other, scenario generation device, and scenario execution device | |
CN107025174B (en) | Method, device and readable storage medium for user interface anomaly test of equipment | |
US9280451B2 (en) | Testing device | |
US9298594B2 (en) | Testing apparatus and testing method | |
US20100211865A1 (en) | Cross-browser page visualization generation | |
JP2008293486A (en) | Source code analysis device, analysis program, and analysis method | |
CN108920380A (en) | Test method, device, server, equipment and the storage medium of the software compatibility | |
US8797338B2 (en) | Platform agnostic screen capture tool | |
CN104252410A (en) | Method and equipment for testing control in page | |
CN113282488B (en) | Terminal test method and device, storage medium and terminal | |
JP2009032099A (en) | Scenario creation apparatus and scenario creation program | |
US8984487B2 (en) | Resource tracker | |
US8773408B2 (en) | Display control apparatus, display control method and program | |
JP2006244195A (en) | Program test support device, and its method | |
KR20140132568A (en) | Device and method for synthesizing image to moving object | |
JP5038036B2 (en) | Test execution system, test execution apparatus, information processing apparatus, test execution method, program, and storage medium | |
JP4896909B2 (en) | Scenario generation apparatus and program | |
JP3942098B2 (en) | Information processing system, information registration information processing apparatus, information search information processing apparatus, information registration information processing method, information search information processing method, program, and recording medium | |
KR20150048365A (en) | System and method for verifying application | |
CN111309613A (en) | Application testing method, device, equipment and computer readable storage medium | |
JP2014041390A (en) | Design and development support system | |
CN109684525B (en) | Document display method and device, storage medium and test equipment | |
CN101655839A (en) | Window selecting type instant translation system and method thereof |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20130531 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20130531 |
|
A300 | Withdrawal of application because of no request for examination |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20140204 |