[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

KR102239667B1 - An online examination service system based on difficulty of questions - Google Patents

An online examination service system based on difficulty of questions Download PDF

Info

Publication number
KR102239667B1
KR102239667B1 KR1020190008300A KR20190008300A KR102239667B1 KR 102239667 B1 KR102239667 B1 KR 102239667B1 KR 1020190008300 A KR1020190008300 A KR 1020190008300A KR 20190008300 A KR20190008300 A KR 20190008300A KR 102239667 B1 KR102239667 B1 KR 102239667B1
Authority
KR
South Korea
Prior art keywords
difficulty
question
individual
test
level
Prior art date
Application number
KR1020190008300A
Other languages
Korean (ko)
Other versions
KR20200091537A (en
Inventor
한장석
Original Assignee
(주)캠버스
한장석
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)캠버스, 한장석 filed Critical (주)캠버스
Priority to KR1020190008300A priority Critical patent/KR102239667B1/en
Publication of KR20200091537A publication Critical patent/KR20200091537A/en
Application granted granted Critical
Publication of KR102239667B1 publication Critical patent/KR102239667B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/20Education
    • G06Q50/205Education administration or guidance
    • G06Q50/2057Career enhancement or continuing education service
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/20Education
    • G06Q50/205Education administration or guidance
    • G06Q50/2053Education institution selection, admissions, or financial aid
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B7/00Electrically-operated teaching apparatus or devices working with questions and answers
    • G09B7/02Electrically-operated teaching apparatus or devices working with questions and answers of the type wherein the student is expected to construct an answer to the question which is presented or wherein the machine gives an answer to the question presented by a student

Landscapes

  • Business, Economics & Management (AREA)
  • Engineering & Computer Science (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • Theoretical Computer Science (AREA)
  • Strategic Management (AREA)
  • Tourism & Hospitality (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Resources & Organizations (AREA)
  • Economics (AREA)
  • General Health & Medical Sciences (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Health & Medical Sciences (AREA)
  • General Business, Economics & Management (AREA)
  • Electrically Operated Instructional Devices (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

본 발명은 문제 은행의 개별 문제들에 대하여 정답율 또는 오답율을 이용하여 난이도를 자동으로 산출하고, 난이도를 이용하여 개별 문제를 추출하고, 난이도를 반영하여 응시자의 성적을 분석하는, 난이도 기반 온라인 모의시험 제공 시스템에 관한 것으로서, 개별문제를 등록하여 문제은행을 구축하는 개별문제 등록부; 상기 문제은행에서 개별문제들을 추출하여 모의시험 문제를 구성하여 제공하는 모의시험 출제부; 상기 모의시험 문제의 각 개별문제의 답안을 입력받고, 입력받은 답안과 저장된 해당 개별문제의 정답을 비교하여 평가결과를 저장하는 모의시험 평가부; 상기 모의시험 문제의 평가결과에 따라, 각 응시자 또는 전체 응시자에 대한 평균 및 순위를 산출하는 시험결과 분석부; 및, 각 개별문제의 난이도를 설정하되, 각 개별문제에 대한 응시자의 정답 또는 오답의 평가 결과에 응시자의 수준을 반영하여 난이도를 설정하는 난이도 설정부를 포함하는 구성을 마련한다.
상기와 같은 시스템에 의하면, 응시자의 평균을 반영하여 난이도를 산정함으로써, 해당 문제의 응시자 샘플이 많지 않더라도 난이도를 보다 정확하게 산정할 수 있다.
The present invention is a difficulty-based online simulation that automatically calculates the difficulty level using the correct answer rate or the incorrect answer rate for individual questions of the question bank, extracts individual questions using the difficulty level, and analyzes the test taker's performance by reflecting the difficulty level. Regarding a test provision system, comprising: an individual question register for registering individual questions to establish a question bank; A mock test questionnaire for extracting individual questions from the question bank to construct and provide mock exam questions; A mock test evaluation unit that receives an answer of each individual question of the mock test question, compares the received answer with the stored correct answer of the individual question, and stores the evaluation result; A test result analysis unit for calculating an average and ranking for each test taker or all test takers according to the evaluation result of the mock test question; And a difficulty level setting unit for setting the difficulty level of each individual question, but reflecting the level of the test taker in the evaluation result of the test taker's correct or incorrect answer for each individual question.
According to the system as described above, by calculating the difficulty level by reflecting the average of the candidates, the difficulty level can be more accurately calculated even if there are not many samples of the candidates for the corresponding problem.

Description

난이도 기반 온라인 모의시험 제공 시스템 { An online examination service system based on difficulty of questions }{An online examination service system based on difficulty of questions}

본 발명은 출제자로부터 개별 문제를 시스템에 등록하게 하여 문제 은행을 구축하고, 응시자의 응시 요청에 있으면 문제 은행의 개별 문제들로 모의시험 문제를 구성하여 제공하고, 그 성적 및 분석 결과를 제공하는, 난이도 기반 온라인 모의시험 제공 시스템에 관한 것이다.The present invention establishes a question bank by allowing individual questions to be registered in the system from the questionnaire, and when the candidate's application request is made, a mock exam question is constructed and provided with individual questions of the question bank, and the results and analysis results are provided. It relates to a difficulty-based online practice test provision system.

특히, 본 발명은 문제 은행의 개별 문제들에 대하여 정답율 또는 오답율을 이용하여 난이도를 자동으로 산출하고, 난이도를 이용하여 개별 문제를 추출하고, 난이도를 반영하여 응시자의 성적을 분석하는, 난이도 기반 온라인 모의시험 제공 시스템에 관한 것이다.In particular, the present invention automatically calculates the difficulty level using the correct answer rate or the incorrect answer rate for individual questions of the question bank, extracts individual questions using the difficulty level, and analyzes the test taker's performance by reflecting the difficulty level. It relates to an online practice test delivery system.

일반적으로, 초중고 학생들이나 각종 자격시험에 응시하는 응시자들은 시험에 응시하기에 앞서 교과서나 각종 수험서 등을 통해 자신의 학습능력을 높인다. 즉, 학생들은 학교나 학원 등에서 각종 자격시험 응시자들은 학원 등에서 시험을 위한 각종 자료를 얻어 공부를 하고, 예상문제집 등을 통해 각종 시험에 대비하게 된다.In general, elementary, middle and high school students and candidates who take various qualification tests improve their learning ability through textbooks or various test books before taking the test. In other words, students study various qualification tests at schools or academies, etc. Students obtain various materials for examinations at academies, etc., and prepare for various tests through a collection of expected questions.

이렇게 수험서를 통해 예상문제를 푸는 것만으로는 응시자의 학습능력이나 자격 검증에 충분히 대처하지 못하는 한계가 있다. 즉, 수능시험이나 국가자격시험 등에서는 각 과목의 다양한 시험문제가 정해진 순서에 따라 출제되지 않고 서로 다른 배열로 출제된다.There is a limit in not being able to adequately cope with the test taker's learning ability or qualification verification simply by solving the predicted problems through the test book. In other words, in the SAT and National Qualification Test, various test questions for each subject are not presented in a fixed order, but in different arrangements.

그러나 학생들이나 자격시험 응시자들은 이러한 방식으로 출제되는 시험문제를 많이 접하지 못하기 때문에 실전에서 당황하여 제실력을 충분히 발휘하지 못하는 경우가 많다. 특히, 자신의 받을 수 있는 예상점수를 알 수 없어 어느 과목, 어느 분야를 더 공부해야 하는지 판단하기 힘들다 문제가 있다.However, because students or candidates for the qualification test do not have access to many test questions that are presented in this way, they are often confused in practice and do not fully demonstrate their ability. In particular, it is difficult to determine which subject and which field to study more because you cannot know the expected score you can receive.

뿐만 아니라 위와 같은 방식의 예비시험이 오프라인 상에서 주로 이루어지기 때문에 학생들이나 자격시험 응시자들은 자주 응시할 수 없을 뿐더러 시험 후 채점결과를 확인하는데도 많은 시간이 소요되는 문제점이 있다.In addition, since the preliminary test of the above method is mainly conducted offline, students and qualification test takers cannot take it often, and it takes a lot of time to check the scoring results after the test.

이러한 문제를 해결하고자, 네트워크 상에서 모의시험을 서비스 하는 기술이 제시되고 있다[특허문헌 1,2,3]. 특히, 상기 선행기술들은 난이도를 적용하여, 응시자가 난이도를 설정하면, 난이도에 따라 자동으로 시험문제를 구성한다. 또한, 응시자들의 정답과 오답의 분포 데이터를 축적하여 문제의 난이도를 자동으로 결정하는 기술도 제시되고 있다[특허문헌 4].In order to solve this problem, a technology to service simulation tests on a network has been proposed [Patent Documents 1,2,3]. In particular, the prior art applies a difficulty level, and when the candidate sets the difficulty level, a test question is automatically constructed according to the difficulty level. In addition, a technique for automatically determining the difficulty level of a problem by accumulating distribution data of the candidates' correct and incorrect answers has also been proposed [Patent Document 4].

그러나 상기 선행기술들은 모두 서비스 시스템에서 문제를 생성하여 관리하고, 관리자가 각 문제에 대한 난이도를 설정한다. 따라서 관리자가 문제은행의 문제들을 수집해야 하고 각 문제에 대한 난이도 평가를 해야 한다는 부담을 갖는다. 또한, 응시자들의 정답과 오답의 분포 데이터를 이용하여 자동으로 난이도를 생성하는 경우에도, 그 분포 데이터를 축적하기 전까지는 문제의 난이도를 정확하게 설정할 수 없다는 문제점도 있다.However, all of the above-described prior arts create and manage problems in the service system, and the administrator sets the difficulty level for each problem. Therefore, the manager has the burden of collecting the problems of the problem bank and evaluating the difficulty level for each problem. In addition, even when the difficulty level is automatically generated using distribution data of the correct and incorrect answers of candidates, there is a problem in that the difficulty level of the problem cannot be accurately set until the distribution data is accumulated.

한국등록특허공보 제10-1438756호(2014.09.05.공고)Korean Registered Patent Publication No. 10-1438756 (announced on September 5, 2014) 한국등록특허공보 제10-1101177호(2011.12.30.공고)Korean Registered Patent Publication No. 10-1101177 (announcement on Dec. 30, 2011) 한국등록특허공보 제10-0432148호(2004.05.17.공고)Korean Registered Patent Publication No. 10-0432148 (Announcement on May 17, 2004) 한국공개특허공보 제10-2004-0057219호(2004.07.02.공고)Korean Laid-Open Patent Publication No. 10-2004-0057219 (announced on July 2, 2004)

본 발명의 목적은 상술한 바와 같은 문제점을 해결하기 위한 것으로, 출제자로부터 개별 문제를 시스템에 등록하게 하여 문제 은행을 구축하고, 응시자의 응시 요청에 있으면 문제 은행의 개별 문제들로 모의시험 문제를 구성하여 제공하고, 그 성적 및 분석 결과를 제공하는, 난이도 기반 온라인 모의시험 제공 시스템을 제공하는 것이다.An object of the present invention is to solve the above-described problems, to establish a question bank by allowing individual questions to be registered in the system from the candidates, and to construct a mock test question with individual questions of the question bank when the candidate requests the test. It is to provide a system for providing online mock exams based on the difficulty level that provides the results and provides the results and results of analysis.

또한, 본 발명의 목적은 응시자들의 정답률 또는 오답률에 따라 개별 문제의 난이도를 자동으로 산정하되, 응시자의 평균을 반영하여 난이도를 산정하는, 난이도 기반 온라인 모의시험 제공 시스템을 제공하는 것이다.In addition, an object of the present invention is to provide a system for providing a difficulty-based online simulation test, which automatically calculates the difficulty level of an individual question according to the rate of correct or incorrect answers of candidates, and calculates the level of difficulty by reflecting the average of the candidates.

상기 목적을 달성하기 위해 본 발명은 난이도 기반 온라인 모의시험 제공 시스템에 관한 것으로서, 개별문제를 등록하여 문제은행을 구축하는 개별문제 등록부; 상기 문제은행에서 개별문제들을 추출하여 모의시험 문제를 구성하여 제공하는 모의시험 출제부; 상기 모의시험 문제의 각 개별문제의 답안을 입력받고, 입력받은 답안과 저장된 해당 개별문제의 정답을 비교하여 평가결과를 저장하는 모의시험 평가부; 상기 모의시험 문제의 평가결과에 따라, 각 응시자 또는 전체 응시자에 대한 평균 및 순위를 산출하는 시험결과 분석부; 및, 각 개별문제의 난이도를 설정하되, 각 개별문제에 대한 응시자의 정답 또는 오답의 평가 결과에 응시자의 수준을 반영하여 난이도를 설정하는 난이도 설정부를 포함하는 것을 특징으로 한다.In order to achieve the above object, the present invention relates to a system for providing online simulation tests based on difficulty, comprising: an individual question register for registering individual questions to establish a question bank; A mock test questionnaire for extracting individual questions from the question bank to construct and provide mock exam questions; A mock test evaluation unit that receives an answer of each individual question of the mock test question, compares the received answer with the stored correct answer of the individual question, and stores the evaluation result; A test result analysis unit for calculating an average and ranking for each test taker or all test takers according to the evaluation result of the mock test question; And a difficulty level setting unit that sets the difficulty level of each individual question, but reflects the level of the test taker in the evaluation result of the test taker's correct or incorrect answer for each individual question.

또, 본 발명은 난이도 기반 온라인 모의시험 제공 시스템에 있어서, 상기 개별문제는 분야로 분류되고, 상기 모의시험 출제부는 분야와 난이도에 대한 출제 조건을 입력받아, 상기 출제 조건을 만족하는 개별문제들을 추출하여 모의시험 문제를 구성하는 것을 특징으로 한다.In addition, in the present invention, in the difficulty-based online practice test provision system, the individual questions are classified into fields, and the practice test questionnaire receives the questionnaire conditions for the field and the difficulty level, and extracts individual questions that satisfy the questionnaire conditions. It is characterized by constructing a simulation test question.

또, 본 발명은 난이도 기반 온라인 모의시험 제공 시스템에 있어서, 상기 시험결과 분석부는 난이도를 반영하여 다음 [수식 1]로 응시자 p의 평균 m(p)을 산출하는 것을 특징으로 한다.In addition, the present invention is characterized in that in the difficulty-based online simulation test provision system, the test result analysis unit calculates the average m(p) of the candidate p by the following [Equation 1] by reflecting the difficulty level.

[수식 1][Equation 1]

Figure 112019007948518-pat00001
Figure 112019007948518-pat00001

단, L은 난이도의 개수를 나타내고, k는 난이도 또는 난이도 등급의 인덱스를 나타내고, mk(p)는 응시자 p의 난이도 k의 개별문제 평균을 나타내고, wk는 난이도에 따른 가중치를 나타내며, 난이도 가중치 wk는 난이도가 높을수록 높은 가중치를 갖음.However, L denotes the number of difficulty, k denotes the index of difficulty or difficulty level, m k (p) denotes the average of the individual problem of the test taker p's difficulty k, w k denotes the weight according to the difficulty level, and the degree of difficulty The weight w k has a higher weight as the difficulty level increases.

또, 본 발명은 난이도 기반 온라인 모의시험 제공 시스템에 있어서, 상기 난이도 설정부는 해당 개별문제를 풀은 응시자의 정답 또는 오답 결과에 응시자의 수준을 반영하여 해당 개별문제의 난이도 점수를 산출하되, 상기 응시자가 정답으로 맞춘 경우 상기 응시자의 수준 내의 값으로 난이도 점수를 산출하고, 오답으로 틀린 경우 상기 응시자의 수준 보다 높은 값으로 난이도 점수를 산출하는 것을 특징으로 한다.In addition, in the present invention, in the difficulty-based online practice test providing system, the difficulty setting unit calculates the difficulty score of the individual question by reflecting the level of the candidate to the correct answer or incorrect answer result of the candidate who solved the individual question. If the answer is correct, the difficulty score is calculated as a value within the level of the test taker, and if the answer is incorrect, the difficulty score is calculated with a value higher than the level of the test taker.

또, 본 발명은 난이도 기반 온라인 모의시험 제공 시스템에 있어서, 상기 난이도 설정부는 다음 수식 2으로 응시자 p가 개별문제 i를 풀었을 경우 난이도 점수를 산출하는 것을 특징으로 한다.In addition, the present invention is characterized in that in the difficulty-based online simulation test providing system, the difficulty setting unit calculates a difficulty score when the candidate p solves the individual question i by the following Equation 2.

[수식 2][Equation 2]

Figure 112019007948518-pat00002
Figure 112019007948518-pat00002

단, Qi(p)는 개별문제 i에 대해 응시자 p의 정답 또는 오답에 따른 난이도 점수를 나타내고, Qmax, Qmin 은 응시자 수준의 최대값 또는 최대값이고, Qp는 응시자의 수준을 나타냄.However, Q i (p) represents the difficulty score according to the correct or incorrect answer of the candidate p for each question i, Q max and Q min are the maximum or maximum value of the candidate level, and Q p represents the candidate's level. .

또, 본 발명은 난이도 기반 온라인 모의시험 제공 시스템에 있어서, 상기 시스템은, 출제자의 개별문제에 대하여 보상점수를 산출하여, 각 출제자에 대한 보상금액을 산정하되, 각 개별문제에 대한 보상점수는 샘플링 횟수에 난이도 점수를 가중하여 산정하는 출제보상 산출부를 더 포함하는 것을 특징으로 한다.In addition, in the present invention, in the difficulty-based online simulation test provision system, the system calculates a reward score for each questionnaire of the applicant, and calculates the reward amount for each questionnaire, but the reward score for each individual question is sampled. It characterized in that it further comprises a questionnaire compensation calculator for calculating by weighting the difficulty score to the number of times.

상술한 바와 같이, 본 발명에 따른 난이도 기반 온라인 모의시험 제공 시스템에 의하면, 출제자가 출제한 개별 문제를 직접 등록하게 하여 문제 은행을 구축함으로써, 문제 은행의 문제들을 여러 소스에서 공급받아 다양한 문제들을 확보할 수 있는 효과가 얻어진다.As described above, according to the difficulty-based online simulation test provision system according to the present invention, the question bank is established by allowing the questioner to directly register individual questions, thereby obtaining various problems by receiving the problems of the question bank from various sources. The possible effect is obtained.

또한, 본 발명에 따른 난이도 기반 온라인 모의시험 제공 시스템에 의하면, 응시자의 평균을 반영하여 난이도를 산정함으로써, 해당 문제의 응시자 샘플이 많지 않더라도 난이도를 보다 정확하게 산정할 수 있는 효과가 얻어진다.In addition, according to the difficulty-based online simulation test providing system according to the present invention, by calculating the difficulty level by reflecting the average of the candidates, the effect of more accurately calculating the difficulty level even if there are not many samples of the candidates for the corresponding question is obtained.

도 1은 본 발명을 실시하기 위한 전체 시스템에 대한 구성도.
도 2는 본 발명의 일실시예에 따른 난이도 기반 온라인 모의시험 제공 시스템의 구성에 대한 블록도.
도 3은 본 발명의 일실시예에 따른 난이도를 등급으로 나타낸 예시 표.
도 4는 본 발명의 일실시예에 따른 응시자의 수준을 반영하여 개별문제의 난이도를 산출하는 개념을 나타낸 도면.
1 is a block diagram of an entire system for implementing the present invention.
Figure 2 is a block diagram of the configuration of a difficulty-based online simulation test providing system according to an embodiment of the present invention.
Figure 3 is an exemplary table showing the degree of difficulty according to an embodiment of the present invention in grades.
4 is a view showing the concept of calculating the difficulty of individual questions by reflecting the level of the candidate according to an embodiment of the present invention.

이하, 본 발명의 실시를 위한 구체적인 내용을 도면에 따라서 설명한다.Hereinafter, specific details for the implementation of the present invention will be described with reference to the drawings.

또한, 본 발명을 설명하는데 있어서 동일 부분은 동일 부호를 붙이고, 그 반복 설명은 생략한다.In addition, in describing the present invention, the same portions are denoted by the same reference numerals, and repeated explanations thereof are omitted.

먼저, 본 발명을 실시하기 위한 전체 시스템의 구성을 도 1을 참조하여 설명한다.First, a configuration of an entire system for implementing the present invention will be described with reference to FIG. 1.

도 1에서 보는 바와 같이, 본 발명을 실시하기 위한 전체 시스템은 모의시험을 응시하는 응시자 단말(10), 개별 문제를 서버에 등록하는 출제자 단말(20), 및, 개별 문제를 등록하게 하여 문제 은행을 구축하고 문제 은행으로부터 개별 문제들을 추출하여 모의시험을 생성하여 제공하는 모의시험 서버(30)로 구성된다. 추가적으로, 문제 은행, 응시자의 시험 결과, 출제자의 정보 등을 저장하는 데이터베이스(40)를 더 포함하여 구성될 수 있다.As shown in FIG. 1, the entire system for implementing the present invention includes a candidate terminal 10 for taking a mock test, a tester terminal 20 for registering individual questions on the server, and a question bank by allowing individual questions to be registered. It consists of a simulation test server 30 that constructs and extracts individual problems from the problem bank to generate and provide a simulation test. Additionally, it may be configured to further include a database 40 that stores question banks, test results of candidates, information of candidates, and the like.

먼저, 응시자 단말(10)은 응시자가 이용하는 컴퓨팅 단말로서, 스마트폰, 패블릿, 태블릿PC, PC, 노트북 등 통상의 컴퓨팅 기능을 구비한 단말이다. 응시자는 모의시험과 관련된 작업을 수행할 때 응시자 단말(10)을 통해 해당 작업을 수행한다. 따라서 이하에서 설명의 편의를 위해 응시자가 수행하는 것으로 설명되나, 해당 작업들은 응시자 단말(10)에 의해 수행되는 것으로 간주한다.First, the candidate terminal 10 is a computing terminal used by the candidate, and is a terminal equipped with a general computing function such as a smartphone, phablet, tablet PC, PC, and notebook. When the candidate performs the task related to the mock test, the candidate performs the task through the candidate terminal 10. Therefore, it is described below as being performed by the candidate for convenience of explanation, but the tasks are considered to be performed by the candidate terminal 10.

한편, 응시자 단말(10)은 모의시험 서버(30)에 접속하여 모의시험을 요청한다. 이때, 모의시험의 시험 범위, 난이도 등 출제 조건을 응시자로부터 입력받아 모의시험 서버(30)로 전송한다.On the other hand, the candidate terminal 10 connects to the mock test server 30 and requests a mock test. At this time, the test conditions, such as the test range and difficulty of the mock exam, are received from the candidate and transmitted to the mock exam server 30.

또한, 응시자 단말(10)은 모의시험 서버(30)로부터 가져온 모의시험 문제들을 단말 상 화면에 표시하고, 사용자가 입력하는 각 문제의 답안을 입력받는다. 입력된 응시자의 답안은 모의시험 서버(30)로 전송된다.In addition, the candidate terminal 10 displays the mock exam questions obtained from the mock exam server 30 on the screen on the terminal, and receives answers to each question input by the user. The inputted candidate's answer is transmitted to the mock test server 30.

또한, 응시자 단말(10)은 모의시험 서버(30)로부터 응시자의 모의시험 결과를 수신하여, 그 결과를 화면 상에 표시할 수 있다. 이때 모의시험 결과는 해당 모의시험에 대한 개별 모의시험 분석결과, 또는, 누적된 모의시험 결과에 대한 분석결과 등으로 구성된다.In addition, the candidate terminal 10 may receive the candidate's simulation test result from the simulation test server 30, and display the result on the screen. At this time, the simulation test results are composed of the individual simulation test analysis results for the corresponding simulation test, or the analysis results of the accumulated simulation test results.

다음으로, 출제자 단말(20)은 출제자가 이용하는 컴퓨팅 단말로서, 스마트폰, 패블릿, 태블릿PC, PC, 노트북 등 통상의 컴퓨팅 기능을 구비한 단말이다. 출제자는 모의시험과 관련된 작업을 수행할 때 출제자 단말(20)을 통해 해당 작업을 수행한다. 따라서 이하에서 설명의 편의를 위해 출제자가 수행하는 것으로 설명되나, 해당 작업들은 출제자 단말(20)에 의해 수행되는 것으로 간주한다.Next, the tester terminal 20 is a computing terminal used by the tester, and is a terminal equipped with ordinary computing functions such as a smart phone, phablet, tablet PC, PC, and notebook. When the applicant performs the task related to the mock test, the candidate performs the task through the examiner terminal 20. Therefore, it will be described below as being performed by the questioner for convenience of explanation, but the tasks are considered to be performed by the questioner terminal 20.

출제자 단말(20)은 출제자에 의해 출제된 개별 문제를 모의시험 서버(30)에 등록한다. 즉, 개별 문제와 해당 문제의 정답을 함께 모의시험 서버(30)에 등록된다. 등록된 개별 문제는 문제 은행에 등록되어, 모의시험을 구성할 때 샘플링 되어 모의시험의 문제로 이용될 수 있다.The questioner terminal 20 registers the individual question questioned by the questioner in the mock test server 30. That is, the individual question and the correct answer to the corresponding question are registered in the simulation test server 30 together. Each registered question is registered with the question bank, and can be sampled when constructing a practice test and used as a question for the practice test.

또한, 출제자의 등록된 개별 문제는 모의시험으로 샘플링된 횟수, 난이도 등(이하 개별 문제의 이용 정보)이 계산된다. 출제자 단말(20)은 등록된 출제자의 개별 문제들의 목록을 요청하여 화면상에 표시할 수 있다. 이때, 각 개별 문제의 횟수, 난이도 등 이용정보도 수신하여 표시될 수 있다.In addition, the number of times and difficulty levels, etc. (hereinafter, information on the use of individual questions) are calculated for each question registered by the applicant. The questioner terminal 20 may request a list of individual questions of the registered questioner and display it on the screen. At this time, usage information, such as the number and difficulty of each individual problem, may also be received and displayed.

한편, 출제자의 개별 문제들은 샘플링 횟수와 난이도에 따라 보상이 부여된다. 출제자의 모든 개별 문제들의 보상이 합산되어 출제자의 보상이 산출된다. 출제자 단말(20)은 출제자의 요청에 따라 출제자의 보상이 화면상에 표시될 수 있다.On the other hand, individual questions of the applicants are rewarded according to the number of sampling times and difficulty. The rewards of all individual questions of the candidate are summed to calculate the reward of the candidate. The tester terminal 20 may display the tester's reward on the screen at the request of the tester.

다음으로, 모의시험 서버(30)는 웹 상에서 제공되는 통상의 서비스 서버로서, 모의시험을 위하여 개별문제를 등록시키고, 모의시험을 구성하여 제공한다. 또한, 모의시험 결과를 수신하여 모의시험 결과를 산출하거나 분석하고, 분석 결과를 응시자에게 제공한다.Next, the mock test server 30 is a normal service server provided on the web, and registers individual questions for mock exams, and configures and provides mock exams. In addition, the simulation test results are received, the simulation test results are calculated or analyzed, and the analysis results are provided to the candidate.

즉, 모의시험 서버(30)는 출제자 단말(20)로부터 개별 문제들을 등록받는다. 이때, 개별 문제와 그 정답을 수신하여 등록한다. 또한, 바람직하게는, 개별 문제의 분야(또는 시험과목, 단원 등)를 입력받는다. 각 개별 문제는 적어도 1개의 분야를 갖으며, 복수 개의 분야를 갖을 수 있다.That is, the simulation test server 30 receives individual questions from the tester terminal 20. At this time, individual questions and their correct answers are received and registered. Also, preferably, the field of an individual problem (or exam subject, unit, etc.) is input. Each individual problem has at least one field, and may have multiple fields.

또한, 모의시험 서버(30)는 등록된 개별 문제들을 데이터베이스 화하여 문제 은행으로 구축한다. 문제 은행은 다수의 개별 문제들로 구성되고, 각 개별 문제들은 분야에 따라 분류되어 저장된다.In addition, the simulation test server 30 converts the registered individual questions into a database and builds it into a question bank. The question bank is composed of a number of individual questions, and each individual question is classified and stored according to field.

또한, 모의시험 서버(30)는 응시자 단말(10)의 요청에 따라 모의시험 문제를 구성하여, 응시자 단말(10)에 해당 모의시험 문제를 제공한다. 이때, 모의시험 문제는 문제 은행에서 개별 문제들을 랜덤하게 추출하여 구성된다.In addition, the mock test server 30 configures the mock exam question according to the request of the candidate terminal 10, and provides the corresponding mock exam question to the candidate terminal 10. At this time, the simulation test questions are constructed by randomly extracting individual questions from the question bank.

특히, 응시 요청시, 응시자 단말(10)로부터 모의시험 문제의 분야(시험과목, 단원 등)를 입력받고, 해당 분야에 속하는 개별 문제들을 문제은행으로부터 추출하여 모의시험 문제가 구성된다.In particular, when requesting an exam, the field of the mock exam question (exam subject, unit, etc.) is inputted from the candidate terminal 10, and individual questions belonging to the field are extracted from the question bank to construct the mock exam question.

또한, 바람직하게는, 응시자 단말(10)은 모의시험 문제의 난이도를 설정할 수 있고, 난이도에 따라 모의시험 문제를 구성한다.In addition, preferably, the candidate terminal 10 may set the difficulty level of the simulation test question, and configure the simulation test problem according to the difficulty level.

그리고 모의시험 서버(30)는 모의시험 문제의 답안을 수신하여, 해당 모의시험 문제를 채점하고 그 결과를 응시자 단말(10)에 제공한다. 즉, 수신한 문제의 답안과, 저장된 해당 문제의 정답과 비교하여 채점을 수행한다.And the mock test server 30 receives the answer of the mock exam question, scores the mock exam question, and provides the result to the candidate terminal 10. That is, scoring is performed by comparing the answer of the received question with the stored correct answer of the question.

또한, 모의시험 서버(30)는 모의시험 문제의 각 개별 문제에 대한 분석을 수행하거나, 해당 응시자의 그동안 누적된 모의시험 결과에 대하여 분석한다. 그리고 분석결과를 응시자 단말(10)에 전송할 수 있다.In addition, the mock test server 30 analyzes each individual question of the mock exam question, or analyzes the accumulated mock test results of the corresponding candidate. And the analysis result can be transmitted to the candidate terminal 10.

또한, 모의시험 서버(30)는 각 개별 문제의 이용 현황(또는 샘플링 현황)을 산출한다. 즉, 각 개별문제의 샘플링 횟수나 난이도 등을 산출한다. 그리고 샘플링 횟수나 난이도를 이용하여 각 개별문제의 보상 점수를 산출한다. 그리고 각 출제자의 모든 개별문제의 보상 점수를 합산하여 출제자의 보상 점수를 산출한다. 출제자의 보상점수는 합산되어 출제자의 보상 금액이 결정된다.In addition, the simulation test server 30 calculates the usage status (or sampling status) of each individual problem. That is, the number of sampling times and difficulty of each individual problem is calculated. Then, the reward score for each individual problem is calculated using the number of sampling times or difficulty level. In addition, the reward points of the candidates are calculated by summing the reward points of all individual questions of each candidate. The applicant's reward points are summed to determine the applicant's reward amount.

다음으로, 데이터베이스(40)는 모의시험을 위한 개별 문제들을 저장하는 문제은행DB(41), 각 응시자의 모의시험 결과 및 분석결과를 저장하는 응시결과DB(42), 각 개별 문제의 이용 정보 및 보상 정보 등을 저장하는 출제보상DB(43)로 구성될 수 있다. 그러나 상기 데이터베이스(40)의 구성은 바람직한 일실시예일 뿐이며, 구체적인 장치를 개발하는데 있어서, 접근 및 검색의 용이성 및 효율성 등을 감안하여 데이터베이스 구축이론에 의하여 다른 구조로 구성될 수 있다.Next, the database 40 is a question bank DB 41 that stores individual questions for the mock exam, an exam result DB 42 that stores the mock exam results and analysis results of each candidate, and information on the use of each individual question, and It may be composed of a questionnaire compensation DB 43 that stores compensation information and the like. However, the configuration of the database 40 is only a preferred embodiment, and may be configured in a different structure according to the database construction theory in consideration of the ease and efficiency of access and search in developing a specific device.

다음으로, 본 발명의 일실시예에 따른 난이도 기반 온라인 모의시험 제공 시스템을 도 2를 참조하여 설명한다. Next, a system for providing a difficulty-based online simulation test according to an embodiment of the present invention will be described with reference to FIG. 2.

도 2에서 바와 같이, 본 발명에 따른 난이도 기반 온라인 모의시험 제공 시스템(30)은 사용자에 대한 정보를 수집하는 사용자정보 수집부(31), 의류에 대한 정보를 수집하는 의류정보 수집부(32); 사용자의 움직임 정도를 산출하는 움직임지수 산출부(33); 의류의 활동성 정도를 산출하는 의류지수 산출부(34); 및, 사용자의 움직임 지수에 맞는 의류 지수를 가지는 의류를 추천하는 의류 추천부(35)로 구성된다.As shown in FIG. 2, the difficulty-based online simulation test provision system 30 according to the present invention includes a user information collection unit 31 that collects information on a user, and a clothing information collection unit 32 that collects information on clothing. ; A motion index calculation unit 33 that calculates the degree of movement of the user; A clothing index calculation unit 34 that calculates a degree of activity of the clothing; And a clothing recommendation unit 35 that recommends clothing having a clothing index matching the user's motion index.

먼저, 개별문제 등록부(31)는 출제자 단말(20)로부터 개별문제를 수신받아 문제 은행에 개별문제를 등록한다.First, the individual question register 31 receives the individual question from the questioner terminal 20 and registers the individual question in the question bank.

즉, 개별 문제와 해당 문제의 정답을 수신하여 등록한다. 또한, 개별 문제의 분야를 입력받는다. 분야는 과목(시험과목), 단원 등으로 분류된다. 바람직하게는, 분야는 과목-대단원-중단원-소단원 등 단계적으로 분류될 수 있다. 또한, 개별 문제에 대한 분야는 복수 개로 입력되어 설정될 수 있다.That is, each question and the correct answer to the question are received and registered. Also, the field of the individual problem is input. Fields are classified into subjects (test subjects) and units. Preferably, the fields may be classified in stages, such as subject-unit-unit-break-unit-small unit, and so on. In addition, a plurality of fields for individual problems may be input and set.

또한, 개별문제 등록부(31)는 각 개별 문제에 대해 출제자 정보도 저장한다. 따라서 데이터베이스(40)를 참조하여, 각 출제자 별로 해당 출제자가 출제한 개별 문제들이 관리될 수 있다.In addition, the individual question registration unit 31 also stores questioner information for each individual question. Therefore, with reference to the database 40, individual questions submitted by the corresponding questioner can be managed for each questionnaire.

또한, 개별문제 등록부(31)는 각 개별 문제에 대한 난이도를 초기화 하여 설정한다. 바람직하게는, 초기값을 난이도의 평균값으로 설정하거나, 출제자가 설정한 난이도 값으로 설정할 수 있다.In addition, the individual problem registration unit 31 initializes and sets the difficulty level for each individual problem. Preferably, the initial value may be set as an average value of difficulty, or may be set to a difficulty value set by the questioner.

다음으로, 모의시험 출제부(32)는 응시자 단말(10)로부터 모의시험 요청을 받으면, 문제은행에서 개별 문제들을 추출하여 모의시험 문제를 구성한다.Next, when the mock exam questionnaire 32 receives a mock exam request from the candidate terminal 10, individual questions are extracted from the question bank to construct a mock exam question.

즉, 모의시험 출제부(32)는 응시자 단말(10)로부터 모의시험의 출제 조건을 입력받아, 출제 조건에 맞는 개별 문제들을 문제 은행에서 랜덤하게 추출한다.That is, the mock test questionnaire 32 receives the questionnaire conditions of the mock exam from the candidate terminal 10, and randomly extracts individual questions matching the exam conditions from the question bank.

출제 조건은 개별 문제의 분야를 제한하는 시험 범위, 개별 문제의 난이도를 정하는 난이도 조건을 포함한다. 그 외에도 문제의 개수 등도 더 포함될 수 있다.The exam conditions include the test range that limits the field of each question, and the difficulty condition that determines the difficulty level of the individual question. In addition, the number of problems may be further included.

시험 범위는 적어도 1개의 분야로 설정되며, 복수로 선택될 수 있다.The test range is set to at least one field and may be selected in plurality.

도 3에서 보는 바와 같이, 난이도는 등급으로 구분되어 등급에 따라 구분될 수 있다. 즉, 난이도 점수가 일정한 범위에 속하면, 해당 범위의 등급으로 난이도가 설정된다. 이와 같이 난이도가 등급으로 구성되는 경우, 응시자는 특정 난이도(난이도 등급)를 선택한다.As shown in FIG. 3, the degree of difficulty is divided into grades and can be classified according to grades. In other words, if the difficulty score falls within a certain range, the difficulty level is set as a grade within the range. In this case, when the difficulty level is composed of grades, the candidate selects a specific difficulty level (difficulty level).

모의시험 출제부(32)는 해당 난이도(또는 등급)에 속하는 개별 문제들을 랜덤하게 추출하여, 추출된 다수의 개별문제들로 구성되는 모의시험 문제를 생성(출제)한다.The simulation test questionnaire 32 randomly extracts individual questions belonging to the corresponding difficulty level (or grade), and generates (presents) a simulation test question composed of a plurality of extracted individual questions.

모의시험 출제부(32)는 생성된(출제된) 모의시험 문제를 응시자 단말(10)로 제공한다.The mock exam questionnaire 32 provides the generated (questioned) mock exam question to the candidate terminal 10.

다음으로, 모의시험 평가부(33)는 응시자 단말(10)로부터 모의시험 문제의 답안을 입력받고, 해당 응시자의 모의시험 문제의 결과를 평가한다. 즉, 입력받은 답안과, 저장된 해당 문제들의 정답을 비교하여, 동일하면 맞은 것으로 판단하고 다르면 틀린 것으로 판단한다.Next, the mock test evaluation unit 33 receives the answer of the mock exam question from the candidate terminal 10, and evaluates the result of the mock exam question of the candidate. That is, the input answer is compared with the correct answers of the stored questions, and if they are the same, they are judged as correct and if they are different, they are judged as incorrect.

즉, 모의시험 평가부(33)의 모의시험 문제의 각 개별 문제들의 정답 여부를 판단하여, 전체 모의시험 문제의 점수를 산출한다.That is, by determining whether each individual question of the simulation test question of the simulation test evaluation unit 33 is answered correctly, the score of the entire simulation test question is calculated.

또한, 모의시험 평가부(33)는 응시자의 모의시험 문제의 평가 결과를 저장한다. 이때, 전체 점수 외에도, 각 개별 문제별로 정답 또는 오답 여부 등을 함께 기록하여 저장한다.In addition, the mock test evaluation unit 33 stores the evaluation results of the candidate's mock exam questions. In this case, in addition to the total score, the correct answer or incorrect answer for each individual question is recorded and stored.

다음으로, 시험결과 분석부(34)는 각 응시자에 대한 모의시험 문제의 평가결과에 대하여 분석하고, 분석결과를 저장하거나, 응시자 단말(10)의 요청에 따라 분석결과를 제공한다.Next, the test result analysis unit 34 analyzes the evaluation result of the mock test question for each candidate, stores the analysis result, or provides the analysis result at the request of the candidate terminal 10.

특히, 시험결과 분석부(34)는 특정 모의시험 문제에 대한 개별시험에 대한 분석, 또는, 해당 응시자의 누적된 모의시험 결과에 대하여 분석을 수행한다. 전자를 개별분석이라 하고, 후자를 누적분석이라고 부르기로 한다.In particular, the test result analysis unit 34 analyzes an individual test for a specific mock test question, or analyzes the accumulated mock test results of a corresponding candidate. The former is referred to as individual analysis, and the latter is referred to as cumulative analysis.

먼저, 분석결과는 평균 점수, 정답율, 순위 등의 결과를 포함하며, 각 결과는 분야, 난이도 등에 따라 세분화된 결과를 포함할 수 있다. 또한, 각 결과는 다른 모든 응시자들의 성적 결과에 대비되어 분석될 수 있다.First, the analysis result includes results such as an average score, a correct answer rate, and a ranking, and each result may include a result subdivided according to field, difficulty, and the like. In addition, each result can be analyzed against the grades of all other candidates.

즉, 각 모의시험에 대하여 전체 평균점수, 정답율, 순위 등 결과를 산출한다. 또한, 그동안 누적된 시험에 대하여 평균점수, 정답율, 순위 등 결과를 산출할 수 있다. 순위는 다른 응시자들의 평균점수를 대비하여 평균점수에 의한 순위를 산정한다. 정답율, 순위, 평균 외에도 표준편차, 분산 등 다른 통계치도 산출할 수 있다. 또한, 다른 전체 응시자들의 전체 평균점수나, 정답율 등과 대비하는 대비 분석결과를 획득할 수 있다.In other words, the results such as the overall average score, correct answer rate, and ranking are calculated for each simulation test. In addition, results such as average score, correct answer rate, and ranking can be calculated for the tests accumulated so far. The ranking is calculated by the average score compared to the average score of other candidates. In addition to the percent correct, ranking, and average, other statistics such as standard deviation and variance can be calculated. In addition, it is possible to obtain a comparison analysis result compared to the overall average score of all other candidates or the percentage of correct answers.

또한, 각 분야별로 모의시험의 결과를 분석하여 제공할 수 있다. 즉, 특정 분야(특정 과목 및 단원) 내에서의 평균점수, 정답율, 순위 등을 결과를 산출할 수 있다. 즉, 특정 분야에 속하는 개별 문제들의 정답 또는 오답 여부를 추출하여, 이들 결과에 대하여 평균을 구하여 점수(평균)를 구하거나 정답율을 계산하거나, 순위를 산출한다.In addition, the results of simulation tests for each field can be analyzed and provided. In other words, the average score, correct answer rate, ranking, etc. within a specific field (specific subject and unit) can be calculated. That is, by extracting the correct or incorrect answers of individual questions belonging to a specific field, the average of these results is calculated to obtain a score (average), a correct answer rate, or a ranking.

또한, 난이도별로 모의시험의 결과를 분석하여 제공할 수 있다. 즉, 특정 난이도(예를 들어, 난이도 B) 내에서의 평균점수, 정답율, 순위 등 결과를 산출한다.In addition, it is possible to analyze and provide the results of the simulation test for each difficulty level. In other words, results such as average score, correct answer rate, and ranking within a specific difficulty level (eg, difficulty level B) are calculated.

또한, 모든 모의시험의 평가결과를 누적하여, 누적된 결과에 대한 평균점수, 정답율, 순위 등 누적결과를 산출할 수 있다. 또한, 누적된 결과에 대하여 분야(특정 과목 및 단원), 또는, 난이도로 세분화 하여 분석결과(평균점수, 정답율, 순위 등)를 산출할 수 있다. 즉, 모든 개별 문제는 난이도가 정해져 있고, 난이도별로 정답율이 있으며, 난이도별 순위를 산출할 수 있다.In addition, by accumulating the evaluation results of all simulation tests, the cumulative results such as average score, correct answer rate, and ranking for the accumulated results can be calculated. In addition, it is possible to calculate the analysis result (average score, correct answer rate, ranking, etc.) by subdividing the accumulated results into fields (specific subjects and units) or by difficulty. That is, for all individual questions, the difficulty level is set, there is a correct answer rate for each difficulty level, and a ranking for each level of difficulty can be calculated.

예를 들어, 고3 수험생이 수학모의고사를 응시하는데, 수학과목 내 방정식이 단원으로 분류되어 있다면, 이 수험생은 고3 성적, 수학성적, 방정식 성적에 대한 평균, 순위 등 성적 통계(성적 통계치)를 알 수 있다. 또한, 위 세가지 분야 문제에서 난이도 A, B, C. D형의 문제로 분류되고, 전체 응시자들의 정답율과 해당 응시자의 정답율을 비교할 수 있다.For example, if a high school 3 examinee is taking a math mock test, and the equation in a math subject is classified as a unit, the examinee will have grade statistics (graduation statistics) such as high school grades, math grades, averages for equation grades, and rankings. Able to know. In addition, the questions in the above three areas are classified as difficulty A, B, C, D type problems, and the correct answer rate of all candidates can be compared with the correct answer rate of the corresponding candidate.

한편, 시험결과 분석부(34)는 난이도를 반영하여 각 응시자의 평균, 정답율, 순위 등을 결과를 산출한다. 이러한 결과를 난이도 반영 평가결과(분석결과)라고 부르기로 한다.Meanwhile, the test result analysis unit 34 calculates a result of the average, correct answer rate, and ranking of each candidate by reflecting the difficulty level. This result will be referred to as the evaluation result (analysis result) reflecting the difficulty level.

특히, 응시자 p의 난이도 반영 평균 m(p)는 다음 수학식에 의해 산출된다.In particular, the average m(p) reflecting the difficulty level of the candidate p is calculated by the following equation.

[수학식 1][Equation 1]

Figure 112020096246306-pat00011
Figure 112020096246306-pat00011

여기서, L은 난이도의 개수를 나타내고, k는 난이도 또는 난이도 등급의 인덱스를 나타낸다. 앞서 도 3의 예에서는 4개의 난이도를 나타내므로, L = 4이다. 바람직하게는, k의 값이 높을수록 난이도가 높은 것을 나타낸다.Here, L denotes the number of difficulty, and k denotes an index of difficulty or difficulty grade. In the example of FIG. 3 above, since 4 difficulty levels are indicated, L = 4. Preferably, the higher the value of k, the higher the degree of difficulty.

mk(p)는 응시자 p의 난이도 k의 개별문제 평균을 나타내고, wk는 난이도에 따른 가중치를 나타낸다. 난이도 가중치 wk는 난이도가 높을수록 높은 가중치를 갖는다. 따라서 난이도의 k 인덱스 값이 높을수록 난이도가 높으면, 난이도 가중치 wk는 다음 수학식을 만족한다.m k (p) represents the average of the individual questions of the candidate p's difficulty k, and w k represents the weight according to the difficulty level. The difficulty weight w k has a higher weight as the difficulty level increases. Therefore, as the k index value of the difficulty level is higher, the difficulty level is higher, and the difficulty weight w k satisfies the following equation.

[수학식 2][Equation 2]

w1 < w2 < w3 < ... < wL w 1 <w 2 <w 3 <... <w L

난이도 반영 정답율도 앞서 수학식 1과 같이, 난이도에 따라 가중치를 부여하여 산출한다.The percentage of correct answers reflecting the difficulty level is also calculated by assigning a weight according to the difficulty level, as shown in Equation 1 above.

또한, 난이도 반영 순위는 난이도 반영 평균에 의하여, 모든 응시자의 난이도 반영 평균을 구한다. 그리고 난이도 반영 평균에 의하여, 각 응시자의 순위를 결정한다. 이때 결정된 순위가 난이도 반영 순위이다.In addition, the difficulty level reflection ranking is obtained by calculating the difficulty level reflection average of all candidates based on the difficulty level reflection average. Then, the ranking of each candidate is determined based on the average of the difficulty level. The ranking determined at this time is the ranking that reflects the difficulty level.

앞서 일반적인 분석결과 산출 방법과 같이, 난이도 반영 분석결과(평균, 정답율, 순위)는 분야(과목 및 단원)별로 산출될 수 있다.Like the general analysis result calculation method described above, the analysis result (average, correct answer rate, ranking) reflecting the difficulty level may be calculated for each field (subject and unit).

다음으로, 난이도 설정부(35)는 각 개별문제에 대한 난이도를 설정한다.Next, the difficulty level setting unit 35 sets the difficulty level for each individual problem.

제1 실시예에 따른 개별문제의 난이도 또는 난이도 점수(이하 제1 난이도 점수)를 구하는 방법은 해당 개별문제의 오답율을 이용한다. 즉, 개별문제에 대하여 해당 문제를 푼 모든 응시자의 오답률을 난이도 점수로 산정한다.The method of obtaining the difficulty or difficulty score (hereinafter, referred to as the first difficulty score) of the individual question according to the first embodiment uses the incorrect answer rate of the corresponding individual question. In other words, for each question, the percentage of incorrect answers of all candidates who solved the question is calculated as the difficulty score.

예를 들어, 개별문제 A를 푼 응시자가 모두 1,000명이고 이중에서 350명이 오답이었다면, 오답률인 35% 또는 35이 난이도 점수이다. 또한, 개별문제 B를 푼 응시자가 모두 2,000명이고 이중에서 1,500명이 오답이었다면, 오답률인 75% 또는 75가 난이도 점수이다.For example, if there are 1,000 candidates who solved individual question A and 350 of them were incorrect, the incorrect answer rate of 35% or 35 is the difficulty score. In addition, if all 2,000 candidates who solved individual question B and 1,500 of them answered incorrectly, the incorrect answer rate of 75% or 75 is the difficulty score.

그리고 도 3과 같이, 해당 다수의 난이도 등급에서, 해당되는 등급이 난이도로 설정된다. 앞서 예에서, 개별문제 A는 난이도 점수가 35이므로, 난이도는 등급 B이고, 개별문제 B는 난이도 점수가 75이므로 난이도는 등급 D이다.And, as shown in FIG. 3, in the plurality of difficulty levels, the corresponding level is set as the level of difficulty. In the previous example, since individual question A has a difficulty score of 35, the difficulty level is grade B, and individual question B has a difficulty score of 75, so the difficulty level is grade D.

그런데 오답률은 해당 개별문제를 응시한 응시자의 수(또는 개별문제의 샘플링 횟수)가 일정 횟수 이상이어야 한다. 즉, 확률로서 의미를 가지려면 샘플링 크기가 최소한 기준치 이상이어야 한다. 여기서 샘플링이란 해당 개별문제가 모의시험 문제로서 추출된 것을 의미하며, 응시자에 의해 개별문제가 풀어지고 정답 또는 오답의 결과가 나오는 것을 말한다. 즉, 10명의 응시자에 의해 해당 개별문제가 모의시험으로 채택되고, 10개의 정답 또는 오답 결과가 얻어지면, 샘플링 개수 또는 샘플링 크기는 10이다.However, the number of test takers (or sampling number of individual questions) must be more than a certain number of times for the incorrect answer rate. That is, in order to be meaningful as a probability, the sampling size must be at least a reference value or more. Here, sampling means that the corresponding individual question is extracted as a simulation test question, and the individual question is solved by the candidate and the result of the correct answer or incorrect answer comes out. That is, if the individual question is adopted as a simulation test by 10 candidates, and 10 correct or incorrect answers are obtained, the number of samples or the sample size is 10.

다음으로, 제2 실시예에 따른 개별문제의 난이도 또는 난이도 점수(이하 제2 난이도 점수)를 구하는 방법은 응시자의 정답 또는 오답 결과에 응시자의 수준을 반영한다.Next, the method of obtaining the difficulty or difficulty score (hereinafter referred to as the second difficulty score) of the individual question according to the second embodiment reflects the test taker's level in the test taker's correct or incorrect answer result.

도 4에서 보는 바와 같이, 응시자 A의 수준이 Q라고 가정한다. 최소 수준이 0이고, 최대 수준이 100이라면, 도 4와 같이, 0과 100 사이의 어느 한 지점에 Q가 위치할 것이다.As shown in Fig. 4, it is assumed that the level of candidate A is Q. If the minimum level is 0 and the maximum level is 100, as shown in FIG. 4, Q will be positioned at any one point between 0 and 100.

여기서, 응시자 수준은 응시자의 시험결과에 따른 수준으로서, 바람직하게는, 응시자의 평균점수로 산정한다. 더욱 바람직하게는, 응시자 수준은 난이도 반영 평균으로 설정한다.Here, the test taker level is a level according to the test result of the test taker, preferably, it is calculated by the average score of the test taker. More preferably, the test taker level is set to an average reflecting the difficulty level.

도 4(a)에서, 만약 응시자 A가 개별문제를 풀었는데 정답으로 맞았다면, 해당 개별문제의 난이도(또는 수준)은 0과 Q 사이의 어느 한 지점일 것이다. 즉, 응시자가 정답으로 맞춘 경우 상기 응시자의 수준 내의 값으로 난이도 점수를 산출한다. 도 4(a)에서 굵은 검은 지점 X가 평균적으로 예측되는 난이도일 것이다.In Fig. 4(a), if candidate A solves an individual question and the answer is correct, the difficulty (or level) of the individual question will be any point between 0 and Q. That is, if the candidate corrects the answer, the difficulty score is calculated with a value within the candidate's level. In Fig. 4(a), the thick black point X will be the average predicted difficulty.

또한, 도 4(b)에서, 응시자 A가 개별문제를 오답으로 틀렸다면, 해당 개별문제의 난이도(또는 수준)은 응시자의 수준 Q를 넘어설 것이다. 즉, 오답으로 틀린 경우 상기 응시자의 수준 보다 높은 값으로 난이도 점수를 산출한다. 따라서 도 4(b)에서 굵은 검은 지점 X가 평균적으로 예측되는 난이도일 것이다. In addition, in FIG. 4(b), if candidate A incorrectly answers each individual question, the difficulty (or level) of the individual question will exceed the candidate's level Q. That is, if the answer is incorrect, the difficulty score is calculated with a value higher than the test taker's level. Therefore, in FIG. 4(b), the thick black point X will be the average predicted difficulty level.

따라서 바람직하게는, 어느 한 응시자가 개별문제를 푼 경우의 해당 개별문제의 난이도 점수를 다음과 같은 수학식으로 정의할 수 있다.Therefore, preferably, the difficulty score of the individual question when a candidate solves the individual question can be defined by the following equation.

[수학식 3][Equation 3]

Figure 112019007948518-pat00004
Figure 112019007948518-pat00004

여기서, p는 응시자를 나타내고, i는 개별문제를 나타내는 인덱스이다.Here, p represents the candidate and i is an index representing individual questions.

Qi(p)는 개별문제 i에 대해 응시자 p의 정답 또는 오답에 따른 난이도 점수를 나타낸다. Qmax, Qmin 은 응시자 수준의 최대값 또는 최대값으로서, 바람직하게는, 100 또는 0을 나타낸다. 또한, Qp는 응시자의 수준을 나타낸다. 바람직하게는, 응시자의 수준은 응시자의 평균이다.Q i (p) represents the difficulty score according to the correct or incorrect answer of the candidate p for each question i. Q max and Q min represent the maximum or maximum value of the candidate level, and preferably, 100 or 0. In addition, Q p represents the test taker's level. Preferably, the test taker's level is an average of test takers.

만약 개별문제 i에 대하여 N명의 응시자가 풀어 정답 또는 오답의 결과가 나왔다면, N명의 개별문제 난이도 점수를 평균한 값을 해당 개별문제의 난이도로 설정한다.If N candidates solved each question i and yielded a correct or incorrect result, the average of the difficulty scores of the N individual questions is set as the difficulty level of the individual question.

한편, 난이도 설정부(35)는 제1 난이도 점수와 제2 난이도 점수를 가중 합산하여 최종 난이도 점수를 산출한다. 바람직하게는, 샘플링 크기에 따라 가중치를 부여하여 최종 난이도 점수를 구한다.Meanwhile, the difficulty setting unit 35 calculates a final difficulty score by weighting and adding the first difficulty score and the second difficulty score. Preferably, weights are assigned according to the sampling size to obtain a final difficulty score.

즉, 샘플링 크기가 작을수록 제2 난이도 점수의 가중치를 높게 하고, 샘플링 크기가 클수록 제1 난이도 점수의 가중치를 높게 설정한다.That is, the smaller the sampling size, the higher the weight of the second difficulty score, and the larger the sampling size, the higher the weight of the first difficulty score is set.

다음으로, 출제보상 산출부(36)는 출제자의 개별문제에 대하여 보상점수를 산출하여, 각 출제자에 대한 보상금액을 산정한다.Next, the questionnaire compensation calculation unit 36 calculates a compensation score for each question of the questionnaire, and calculates the amount of compensation for each questionnaire.

각 개별문제에 대한 보상점수는 샘플링 횟수에 난이도 점수를 가중하여 산정한다. 즉, 보상점수는 샘플링 횟수와 난이도 점수에 비례한다.The reward score for each individual problem is calculated by weighting the difficulty score to the number of sampling times. That is, the reward score is proportional to the number of sampling and the difficulty score.

출제된 개별문제가 많이 샘플링될수록 출제자에게 보다 많은 보상금액이 주어져야 한다. 따라서 샘플링 횟수에 비례하여 보상점수가 산출된다.The more individual questions asked are sampled, the more rewards should be given to the questioners. Therefore, the compensation score is calculated in proportion to the number of sampling.

또한, 난이도가 높은 문제는 출제하기 어렵기 때문에, 난이도가 높은 개별문제에 대해 더 많은 보상점수를 부여한다. In addition, since it is difficult to ask questions with high difficulty, more reward points are given for individual problems with high difficulty.

이상, 본 발명자에 의해서 이루어진 발명을 상기 실시 예에 따라 구체적으로 설명하였지만, 본 발명은 상기 실시 예에 한정되는 것은 아니고, 그 요지를 이탈하지 않는 범위에서 여러 가지로 변경 가능한 것은 물론이다.In the above, the invention made by the present inventor has been described in detail according to the above embodiment, but the invention is not limited to the above embodiment, and it goes without saying that various changes can be made without departing from the gist of the invention.

10 : 응시자 단말 20 : 출제자 단말
30 : 모의시험 서버 31 : 개별문제 등록부
32 : 모의시험 출제부 33 : 모의시험 평가부
34 : 시험결과 분석부 35 : 난이도 설정부
36 : 출제보상 산출부
40 : 데이터베이스 80 : 네트워크
10: test taker terminal 20: test taker terminal
30: practice test server 31: individual question register
32: Mock exam questionnaire 33: Mock exam evaluation section
34: test result analysis unit 35: difficulty setting unit
36: exam compensation calculation unit
40: database 80: network

Claims (6)

난이도 기반 온라인 모의시험 제공 시스템에 있어서,
개별문제를 등록하여 문제은행을 구축하는 개별문제 등록부;
상기 문제은행에서 개별문제들을 추출하여 모의시험 문제를 구성하여 제공하는 모의시험 출제부;
상기 모의시험 문제의 각 개별문제의 답안을 입력받고, 입력받은 답안과 저장된 해당 개별문제의 정답을 비교하여 평가결과를 저장하는 모의시험 평가부;
상기 모의시험 문제의 평가결과에 따라, 각 응시자 또는 전체 응시자에 대한 평균 및 순위를 산출하는 시험결과 분석부; 및,
각 개별문제의 난이도를 설정하되, 각 개별문제에 대한 응시자의 정답 또는 오답의 평가 결과에 응시자의 수준을 반영하여 난이도를 설정하는 난이도 설정부를 포함하고,
상기 난이도 설정부는 개별문제에 대하여 해당 개별문제를 푼 응시자의 오답률을 제1 난이도 점수로 산정하고,
상기 난이도 설정부는 해당 개별문제를 풀은 응시자의 정답 또는 오답 결과에 응시자의 수준을 반영하여 해당 개별문제의 제2 난이도 점수를 산출하되, 상기 응시자가 정답으로 맞춘 경우 상기 응시자의 수준 내의 값으로 제2 난이도 점수를 산출하고, 오답으로 틀린 경우 상기 응시자의 수준 보다 높은 값으로 제2 난이도 점수를 산출하고,
상기 난이도 설정부는 다음 [수식 2]로 응시자 p가 개별문제 i를 풀었을 경우 제2 난이도 점수를 산출하고,
상기 난이도 설정부는 개별문제 i에 대하여 N명의 응시자가 풀어 정답 또는 오답의 결과가 나왔다면, N명의 개별문제의 제2 난이도 점수를 평균한 값을 해당 개별문제의 제2 난이도 점수로 설정하고,
상기 난이도 설정부는 상기 제1 난이도 점수와 제2 난이도 점수를 가중 합산하여 최종 난이도 점수를 산출하되, 문제를 푼 응시자의 크기인 샘플링 크기가 작을수록 제2 난이도 점수의 가중치를 높게 하고, 샘플링 크기가 클수록 제1 난이도 점수의 가중치를 높게 설정하는 것을 특징으로 하는 난이도 기반 온라인 모의시험 제공 시스템.
[수식 2]
Figure 112020096246306-pat00012

단, Qi(p)는 개별문제 i에 대해 응시자 p의 정답 또는 오답에 따른 제2 난이도 점수를 나타내고, Qmax, Qmin 은 응시자 수준의 최대값 또는 최대값이고, Qp는 응시자의 수준을 나타냄.
In the difficulty-based online practice test provision system,
An individual question register that registers an individual question and establishes a question bank;
A mock test questionnaire for extracting individual questions from the question bank to construct and provide mock exam questions;
A mock test evaluation unit that receives an answer of each individual question of the mock test question, compares the received answer with the stored correct answer of the individual question, and stores the evaluation result;
A test result analysis unit for calculating an average and ranking for each test taker or all test takers according to the evaluation result of the mock test question; And,
It sets the difficulty level of each individual question, but includes a difficulty level setting unit that sets the level of difficulty by reflecting the level of the candidate in the evaluation result of the candidate's correct or incorrect answer for each individual question,
The difficulty setting unit calculates the wrong answer rate of the candidate who solved the individual question for an individual question as a first difficulty score,
The difficulty setting unit calculates the second difficulty score of the individual question by reflecting the candidate's level on the correct or incorrect answer result of the candidate who solved the individual question. 2 Calculate the difficulty score, and if the answer is incorrect, calculate the second difficulty score with a value higher than the test taker's level,
The difficulty setting unit calculates a second difficulty score when the candidate p solves the individual question i according to the following [Equation 2],
The difficulty setting unit sets the average value of the second difficulty score of the N individual questions as the second difficulty score of the corresponding individual question, if N candidates solved each question i for a correct answer or an incorrect result,
The difficulty setting unit weights the first difficulty score and the second difficulty score to calculate a final difficulty score, but the smaller the sampling size, which is the size of the candidate who solved the problem, increases the weight of the second difficulty score, and the sampling size is Difficulty-based online simulation test providing system, characterized in that the higher the weight of the first difficulty score is set.
[Equation 2]
Figure 112020096246306-pat00012

However, Q i (p) represents the second difficulty score according to the correct or incorrect answer of the candidate p for each question i, Q max and Q min are the maximum or maximum value of the candidate's level, and Q p is the candidate's level. Represents.
제1항에 있어서,
상기 개별문제는 분야로 분류되고,
상기 모의시험 출제부는 분야와 난이도에 대한 출제 조건을 입력받아, 상기 출제 조건을 만족하는 개별문제들을 추출하여 모의시험 문제를 구성하는 것을 특징으로 하는 난이도 기반 온라인 모의시험 제공 시스템.
The method of claim 1,
The individual problems are classified into fields,
The simulation test questionnaire unit receives question conditions for a field and difficulty level, and extracts individual questions that satisfy the questionnaire conditions to construct a mock exam question.
제1항에 있어서,
상기 시험결과 분석부는 난이도를 반영하여 다음 [수식 1]로 응시자 p의 평균 m(p)을 산출하는 것을 특징으로 하는 난이도 기반 온라인 모의시험 제공 시스템.
[수식 1]
Figure 112020096246306-pat00013

단, L은 난이도의 개수를 나타내고, k는 난이도 또는 난이도 등급의 인덱스를 나타내고, mk(p)는 응시자 p의 난이도 k의 개별문제 평균을 나타내고, wk는 난이도에 따른 가중치를 나타내며, 난이도 가중치 wk는 난이도가 높을수록 높은 가중치를 갖음.
The method of claim 1,
The test result analysis unit reflects the difficulty level and calculates the average m(p) of the candidates p by the following [Equation 1].
[Equation 1]
Figure 112020096246306-pat00013

However, L denotes the number of difficulty, k denotes the index of difficulty or difficulty level, m k (p) denotes the average of the individual problem of the test taker p's difficulty k, w k denotes the weight according to the difficulty level, and the degree of difficulty The weight w k has a higher weight as the difficulty level increases.
삭제delete 삭제delete 제1항에 있어서,
상기 시스템은, 출제자의 개별문제에 대하여 보상점수를 산출하여, 각 출제자에 대한 보상금액을 산정하되, 각 개별문제에 대한 보상점수는 샘플링 횟수에 난이도 점수를 가중하여 산정하는 출제보상 산출부를 더 포함하는 것을 특징으로 하는 난이도 기반 온라인 모의시험 제공 시스템.
The method of claim 1,
The system further includes a questionnaire compensation calculator that calculates a reward score for each questionnaire of the questioner, and calculates the compensation amount for each questioner, but the compensation score for each individual question is calculated by weighting the difficulty score to the number of sampling. Difficulty-based online practice test providing system, characterized in that.
KR1020190008300A 2019-01-22 2019-01-22 An online examination service system based on difficulty of questions KR102239667B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190008300A KR102239667B1 (en) 2019-01-22 2019-01-22 An online examination service system based on difficulty of questions

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190008300A KR102239667B1 (en) 2019-01-22 2019-01-22 An online examination service system based on difficulty of questions

Publications (2)

Publication Number Publication Date
KR20200091537A KR20200091537A (en) 2020-07-31
KR102239667B1 true KR102239667B1 (en) 2021-04-14

Family

ID=71834863

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190008300A KR102239667B1 (en) 2019-01-22 2019-01-22 An online examination service system based on difficulty of questions

Country Status (1)

Country Link
KR (1) KR102239667B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102692607B1 (en) 2023-06-08 2024-08-07 주식회사 화신이앤엘 (E&L) Apparatus and method for providing math contest questions to test takers using big data

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102640034B1 (en) * 2020-09-04 2024-02-23 선문대학교 산학협력단 Automatic setting questions for examination
KR102544662B1 (en) * 2021-09-02 2023-06-16 한성대학교 산학협력단 Apparatus and method for learning coordinating
KR102636703B1 (en) * 2021-11-09 2024-02-14 (주)엠디에스인텔리전스 Rating prediction service server that predicts a rating rating for an exam based on a sample question associated with the test and operating method thereof
KR102561666B1 (en) * 2022-05-09 2023-07-28 김나현 Efficiently study method of problem-bank presenting problems style using Artificial intelligence algorithm

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101030577B1 (en) * 2010-02-03 2011-04-21 주식회사 네오패드 Learner adaptive system and method for e-learning

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100432148B1 (en) 2001-04-13 2004-05-17 주식회사 케이티랩 A Trial Examination of Automatic Making questions System Using Internet
KR20040057219A (en) 2002-12-26 2004-07-02 (주) 이티씨에듀 The system and method under the computer based examination which is the adaptive system
KR101101177B1 (en) 2003-11-21 2011-12-30 주식회사 유웨이중앙교육 System and method for providing additional studying data based on learning level
KR20130026027A (en) * 2011-09-05 2013-03-13 강대식 Hierarchical problem setting and automatic test paper forming system using internet multiple servers
KR101438756B1 (en) 2012-01-19 2014-09-05 최내윤 Method for Providing Mock Test in Network, and Web-Server Used Therein
KR101490511B1 (en) * 2012-12-24 2015-02-10 주식회사 테라클 Method and apparatus for administering learning contents
KR20150072937A (en) * 2013-12-20 2015-06-30 권재원 Education system and method for the same
KR20150135584A (en) * 2014-05-22 2015-12-03 이원영 A Difficulty Level Based Question Posing Study System Which Self-renews The Difficulty Level of Questions Based on Standard Average Hit Rate and Standard Average Solving Time of Students

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101030577B1 (en) * 2010-02-03 2011-04-21 주식회사 네오패드 Learner adaptive system and method for e-learning

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102692607B1 (en) 2023-06-08 2024-08-07 주식회사 화신이앤엘 (E&L) Apparatus and method for providing math contest questions to test takers using big data

Also Published As

Publication number Publication date
KR20200091537A (en) 2020-07-31

Similar Documents

Publication Publication Date Title
KR102239667B1 (en) An online examination service system based on difficulty of questions
Cordes In pursuit of the common good: The spillover effects of charter schools on public school students in New York City
Behr et al. Early prediction of university dropouts–a random forest approach
Charbonneau et al. Performance measures and parental satisfaction with New York City schools
Crawford et al. The impact of placements on the academic performance of UK and international students in higher education
Baer et al. The literacy of America's college students.
Schildkamp et al. School performance feedback systems in the USA and in The Netherlands: A comparison
Heyd-Metzuyanim et al. Mathematical media literacy in the COVID-19 pandemic and its relation to school mathematics education
KR20180102785A (en) Customized admission information service providing method based on big data associated with school entrance
Chari et al. Understanding the importance of graduate admissions criteria according to prospective graduate students
Clayton et al. KEY careers: Increasing retention and graduation rates with career interventions
Marcenaro-Gutierrez et al. Balancing teachers’ math satisfaction and other indicators of the education system’s performance
US20150056578A1 (en) Methods and systems for gamified productivity enhancing systems
KR20160109575A (en) Method and apparatus for job mentoring
Hsieh A preliminary study of multiple college admission criteria in Taiwan: The relationship among motivation, standardized tests, high school achievements, and college success
Sigalingging et al. Usability Analysis Of My Telu Application Using System Usability Scale
Cutsinger et al. Differences of Instructor Presence Levels in Predominately Online Versus Predominantly Not Online Courses within the Community College Setting.
DuPaul et al. High school teacher ratings of academic, social, and behavioral difficulties: Factor structure and normative data for the School Functioning Scale.
CN111915224B (en) Teaching evaluation system
Rushton et al. Setting a standard for chemistry education in the next generation: A retrosynthetic analysis
Jurajda et al. Admission to selective schools, alphabetically
JP2018105897A (en) Information processing device, information processing method and system
Risco et al. A meta-analysis of the correlates of educational and vocational goals for Latina/o students
JP6644315B2 (en) Server device and self-scoring support method
Decock Calculating the College-to-University Transfer Rate in Ontario.

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant