CN111061599A - 接口测试环境的检查点的生成方法 - Google Patents
接口测试环境的检查点的生成方法 Download PDFInfo
- Publication number
- CN111061599A CN111061599A CN201911246538.XA CN201911246538A CN111061599A CN 111061599 A CN111061599 A CN 111061599A CN 201911246538 A CN201911246538 A CN 201911246538A CN 111061599 A CN111061599 A CN 111061599A
- Authority
- CN
- China
- Prior art keywords
- interface
- generating
- interface test
- test environment
- check point
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F11/00—Error detection; Error correction; Monitoring
- G06F11/22—Detection or location of defective computer hardware by testing during standby operation or during idle time, e.g. start-up testing
- G06F11/2205—Detection or location of defective computer hardware by testing during standby operation or during idle time, e.g. start-up testing using arrangements specific to the hardware being tested
- G06F11/221—Detection or location of defective computer hardware by testing during standby operation or during idle time, e.g. start-up testing using arrangements specific to the hardware being tested to test buses, lines or interfaces, e.g. stuck-at or open line faults
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F11/00—Error detection; Error correction; Monitoring
- G06F11/22—Detection or location of defective computer hardware by testing during standby operation or during idle time, e.g. start-up testing
- G06F11/2273—Test methods
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Computer Hardware Design (AREA)
- Quality & Reliability (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Debugging And Monitoring (AREA)
Abstract
本发明公开了一种接口测试环境的检查点的生成方法,包括以下步骤:执行接口测试用例两次,并分别获取接口响应报文;根据每一次测试的接口响应报文生成对应的目标集合;获取两次测试对应的目标集合中的交集;以交集作为检查点。本发明的接口测试环境的检查点的生成方法能够生成检查点,提高了效率和覆盖率,提高了准确度。
Description
技术领域
本发明属于接口测试技术领域,尤其涉及一种接口测试环境的检查点的生成方法。
背景技术
在接口自动化测试中,往往需要测试人员手工配置检查点,效率较低,耗时较长,难以做到全面,覆盖率较低,并且,容易发生错误,准确率较低。
发明内容
本发明要解决的技术问题是为了克服现有技术中接口自动化测试中配置检查点的覆盖率较低的缺陷,提供一种接口测试环境的检查点的生成方法。
本发明是通过下述技术方案来解决上述技术问题:
本发明提供一种接口测试环境的检查点的生成方法,包括以下步骤:
执行接口测试用例两次,并分别获取接口响应报文;
根据每一次测试的接口响应报文生成对应的目标集合;
获取两次测试对应的目标集合中的交集;
以交集作为检查点。
较佳地,根据每一次测试的接口响应报文生成对应的数据集合的步骤包括:将接口响应报文解析为属性名和属性值的数据结构,将属性名和属性值存入一数据集合以生成目标集合。
较佳地,接口响应报文为JSON(JavaScript Object Notation,JS对象简谱)类型。
较佳地,接口响应报文为XML(可扩展标记语言)类型。
较佳地,两次执行接口测试用例之间间隔预设时间。
较佳地,两次执行接口测试用例的结果都是成功状态。
较佳地,获取两次测试对应的目标集合中的交集的步骤还包括:
去掉时间戳、ID(身份)字段。
本发明的积极进步效果在于:本发明的接口测试环境的检查点的生成方法能够生成检查点,提高了效率和覆盖率,提高了准确度。
附图说明
图1为本发明的一较佳实施例的接口测试环境的检查点的生成方法的流程图。
具体实施方式
下面通过一较佳实施例的方式进一步说明本发明,但并不因此将本发明限制在所述的实施例范围之中。
本实施例提供一种接口测试环境的检查点的生成方法。参照图1,该接口测试环境的检查点的生成方法包括以下步骤:
步骤S101、执行接口测试用例两次,并分别获取接口响应报文。
步骤S102、根据每一次测试的接口响应报文生成对应的目标集合。
步骤S103、获取两次测试对应的目标集合中的交集。
步骤S104、以交集作为检查点。
作为一种可选的实施方式,根据每一次测试的接口响应报文生成对应的数据集合的步骤包括:将接口响应报文解析为属性名和属性值的数据结构,将属性名和属性值存入一数据集合以生成目标集合。
在一种可选的实施方式中,接口响应报文为JSON类型。
在另一种可选的实施方式中,接口响应报文为XML类型。
作为一种可选的实施方式,两次执行接口测试用例之间间隔预设时间。
作为一种可选的实施方式,两次执行接口测试用例的结果都是成功状态。
作为一种可选的实施方式,获取两次测试对应的目标集合中的交集的步骤还包括:
去掉时间戳、ID字段。
具体实施时,先执行一次接口测试用例,确保测试结果为“成功”。获取接口响应报文,并基于接口响应报文生成“属性名+属性值”数据结构,将其存入第一目标集合中。
然后,间隔预设时间,再执行一次接口测试用例,确保测试结果为“成功”。获取接口响应报文,并基于接口响应报文生成“属性名+属性值”数据结构,将其存入第二目标集合中。
接下来,获取第一目标集合与第二目标集合的交集(即第一目标集合与第二目标集合的相同的部分),去掉时间戳、ID字段等。
然后,以交集作为检查点。在验证自动生成的检查点时通过判断响应报文中是否含有检查点来判断接口是否出现了问题。
虽然以上描述了本发明的具体实施方式,但是本领域的技术人员应当理解,这仅是举例说明,本发明的保护范围是由所附权利要求书限定的。本领域的技术人员在不背离本发明的原理和实质的前提下,可以对这些实施方式做出多种变更或修改,但这些变更和修改均落入本发明的保护范围。
Claims (7)
1.一种接口测试环境的检查点的生成方法,其特征在于,包括以下步骤:
执行接口测试用例两次,并分别获取接口响应报文;
根据每一次测试的所述接口响应报文生成对应的目标集合;
获取两次测试对应的所述目标集合中的交集;
以所述交集作为检查点。
2.如权利要求1所述的接口测试环境的检查点的生成方法,其特征在于,所述根据每一次测试的所述接口响应报文生成对应的数据集合的步骤包括:将所述接口响应报文解析为属性名和属性值的数据结构,将所述属性名和所述属性值存入一数据集合以生成所述目标集合。
3.如权利要求1所述的接口测试环境的检查点的生成方法,其特征在于,所述接口响应报文为JSON类型。
4.如权利要求1所述的接口测试环境的检查点的生成方法,其特征在于,所述接口响应报文为XML类型。
5.如权利要求1所述的接口测试环境的检查点的生成方法,其特征在于,两次执行所述接口测试用例之间间隔预设时间。
6.如权利要求5所述的接口测试环境的检查点的生成方法,其特征在于,两次执行所述接口测试用例的结果都是成功状态。
7.如权利要求1所述的接口测试环境的检查点的生成方法,其特征在于,所述获取两次测试对应的所述目标集合中的交集的步骤还包括:
去掉时间戳、ID字段。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911246538.XA CN111061599B (zh) | 2019-12-06 | 2019-12-06 | 接口测试环境的检查点的生成方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911246538.XA CN111061599B (zh) | 2019-12-06 | 2019-12-06 | 接口测试环境的检查点的生成方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111061599A true CN111061599A (zh) | 2020-04-24 |
CN111061599B CN111061599B (zh) | 2023-08-01 |
Family
ID=70300095
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911246538.XA Active CN111061599B (zh) | 2019-12-06 | 2019-12-06 | 接口测试环境的检查点的生成方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111061599B (zh) |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20130346804A1 (en) * | 2012-06-25 | 2013-12-26 | Infosys Limited | Methods for simulating message-oriented services and devices thereof |
US20150169432A1 (en) * | 2013-12-12 | 2015-06-18 | Vertafore, Inc. | Integration testing method and system for web services |
CN108769799A (zh) * | 2018-05-31 | 2018-11-06 | 联想(北京)有限公司 | 一种信息处理方法及电子设备 |
CN109710533A (zh) * | 2018-12-29 | 2019-05-03 | 亚信科技(中国)有限公司 | 一种接口测试方法、装置及服务器 |
CN109726128A (zh) * | 2018-12-29 | 2019-05-07 | 亚信科技(中国)有限公司 | 一种测试用例生成方法、装置及服务器 |
CN109766231A (zh) * | 2019-01-11 | 2019-05-17 | 未来电视有限公司 | 接口测试方法及装置 |
CN109871312A (zh) * | 2017-12-05 | 2019-06-11 | 航天信息股份有限公司 | 一种接口测试方法、装置、设备及可读存储介质 |
CN110007658A (zh) * | 2019-03-12 | 2019-07-12 | 百度在线网络技术(北京)有限公司 | 车辆can总线的异常监测方法和装置 |
-
2019
- 2019-12-06 CN CN201911246538.XA patent/CN111061599B/zh active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20130346804A1 (en) * | 2012-06-25 | 2013-12-26 | Infosys Limited | Methods for simulating message-oriented services and devices thereof |
US20150169432A1 (en) * | 2013-12-12 | 2015-06-18 | Vertafore, Inc. | Integration testing method and system for web services |
CN109871312A (zh) * | 2017-12-05 | 2019-06-11 | 航天信息股份有限公司 | 一种接口测试方法、装置、设备及可读存储介质 |
CN108769799A (zh) * | 2018-05-31 | 2018-11-06 | 联想(北京)有限公司 | 一种信息处理方法及电子设备 |
CN109710533A (zh) * | 2018-12-29 | 2019-05-03 | 亚信科技(中国)有限公司 | 一种接口测试方法、装置及服务器 |
CN109726128A (zh) * | 2018-12-29 | 2019-05-07 | 亚信科技(中国)有限公司 | 一种测试用例生成方法、装置及服务器 |
CN109766231A (zh) * | 2019-01-11 | 2019-05-17 | 未来电视有限公司 | 接口测试方法及装置 |
CN110007658A (zh) * | 2019-03-12 | 2019-07-12 | 百度在线网络技术(北京)有限公司 | 车辆can总线的异常监测方法和装置 |
Non-Patent Citations (2)
Title |
---|
IEEE: "610-1990 - IEEE Standard Computer Dictionary: A Compilation of IEEE Standard Computer Glossaries", 《IEEE》 * |
侯可佳;白晓颖;陆皓;李树芳;周立柱: "基于接口语义契约的Web服务测试数据生成", 《软件学报》 * |
Also Published As
Publication number | Publication date |
---|---|
CN111061599B (zh) | 2023-08-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109726093B (zh) | 用于执行测试用例的方法、设备和计算机程序产品 | |
CN111159049B (zh) | 接口自动化测试方法及系统 | |
US20150026664A1 (en) | Method and system for automated test case selection | |
CN106909510B (zh) | 一种获取测试用例的方法以及服务器 | |
US9547579B1 (en) | Method and apparatus for automatically detecting defects | |
US9558106B1 (en) | Testing service with control testing | |
US9703690B2 (en) | Determining test case efficiency | |
US9384117B2 (en) | Machine and methods for evaluating failing software programs | |
CN103973858B (zh) | 移动终端的自动测试系统 | |
CN109684188B (zh) | 测试方法和装置 | |
WO2018120965A1 (zh) | 自动化测试方法、计算机可读存储介质及装置 | |
US20240220401A1 (en) | Continuous integration automated test systems and methods, electronic devices, and storage media | |
CN112241360A (zh) | 一种测试用例生成方法、装置、设备及存储介质 | |
CN108009080B (zh) | 一种代码扫描工具的评估方法及装置 | |
CN106557419B (zh) | 程序的测试方法及装置 | |
US11573780B2 (en) | Automated generation of status chains for software updates | |
US20070245313A1 (en) | Failure tagging | |
CN104063326A (zh) | 一种用于软件测试数据分析的示波器及方法 | |
CN107102938B (zh) | 测试脚本的更新方法及装置 | |
CN111061599A (zh) | 接口测试环境的检查点的生成方法 | |
CN113254350A (zh) | 一种Flink作业测试方法、装置、设备及存储介质 | |
JP2009237654A (ja) | テストプログラム管理システム | |
US20140281719A1 (en) | Explaining excluding a test from a test suite | |
US20120167037A1 (en) | Software static testing apparatus and method | |
CN115576831A (zh) | 一种测试案例推荐方法、装置、设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |