• Title/Summary/Keyword: 서답형 평가

Search Result 26, Processing Time 0.019 seconds

Development and Application of an Online Scoring System for Constructed Response Items (서답형 문항 온라인 채점 시스템의 개발과 적용)

  • Cho, Jimin;Kim, Kyunghoon
    • The Journal of Korean Association of Computer Education
    • /
    • v.17 no.2
    • /
    • pp.39-51
    • /
    • 2014
  • In high-stakes tests for large groups, the efficiency with which students' responses are distributed to raters and how systematic scoring procedures are managed is important to the overall success of the testing program. In the scoring of constructed response items, it is important to understand whether the raters themselves are making consistent judgments on the responses, and whether these judgments are similar across all raters in order to establish measures of rater reliability. The purpose of this study was to design, develop and carry out a pilot test of an online scoring system for constructed response items administered in a paper-and-pencil test to large groups, and to verify the system's reliability. In this study, we show that this online system provided information on the scoring process of individual raters, including intra-rater and inter-rater consistency, compared to conventional scoring methods. We found this system to be especially effective for obtaining reliable and valid scores for constructed response items.

  • PDF

Analysis of Errors by Response Assessments of Korean Middle School Students on the 2013 National Assessment of Educational Achievement in Mathematics (문자와 식, 함수 영역에서 보이는 중학생의 수학적 오류 분석: 2013년 국가수준 학업성취도 평가 서답형 문항을 바탕으로)

  • Jo, Yun Dong;Ko, Ho Kyoung
    • Journal of Educational Research in Mathematics
    • /
    • v.25 no.3
    • /
    • pp.281-302
    • /
    • 2015
  • In the current study, answer sheets from 8007 students in 236 Korean schools were selected and analyzed to examine errors that emerge in the process of solving descriptive questions of the National Educational Achievement Assessment in mathematics. Questions used in the analysis were response assessment covering middle school mathematics topics: "mathematical symbols and equations" and "functions." The behavioral domain of the questions was that of "problem solving and computation," which requires establishing an equation for a word problem and allows the calculation of an answer that meets a certain condition. The analysis results revealed various errors in each stage of each question, from understanding to solving; the study attempts to conjecture causes for these errors and draw pedagogical implications.

A Study on the Classification of Constructed-Response Items in Geography Education: In Case of 4th Grade Items of the NAEP (지리과 서답형 문항의 주요 유형에 관한 연구 -NAEP의 지리과 4학년 문항을 사례로-)

  • Jang, Eui-Sun
    • Journal of the Korean Geographical Society
    • /
    • v.47 no.6
    • /
    • pp.934-954
    • /
    • 2012
  • Constructed-response items are useful to estimate a higher-order thinking abilities such as sense of place, graphicacy, and geographical imaginations which are aimed by geography education. This study aims to identify the conception of the constructed-response items, to classify those feasible items in geography education, and to propose some comments and suggestions for development and application in Korea. The author tries to classify the constructed-response items by analyzing the NAEP items in the formal aspect and the aspect of cognitive dimension respectively. In the formal aspect, they are classified as 'question-standalone' type and 'material-presenting' type. In the aspect of cognitive dimension, they are classified into three types as 'knowledge-requirement', 'understanding-requirement', and 'applying-requirement'. Some comments and suggestions are as follows. First, it is necessary to develope the constructed-response items that coherent to both content and cognitive dimensions. Second, it is required for students who take an examination to use a great variety of graphics, photos, thematic maps related to geography. Third, we need to inquire the rubric, grade, process to scoring because they are vital to success of the constructed-response items.

  • PDF

Performance Comparison of Automated Scoring System for Korean Short-Answer Questions (한국어 서답형 문항 자동채점 시스템의 성능 개선)

  • Cheon, Min-Ah;Kim, Chang-Hyun;Kim, Jae-Hoon;Noh, Eun-Hee;Sung, Kyung-Hee;Song, Mi-Young;Park, Jong-Im;Kim, Yuhyang
    • 한국어정보학회:학술대회논문집
    • /
    • 2016.10a
    • /
    • pp.181-185
    • /
    • 2016
  • 최근 교육과정에서 학생들의 능력 평가는 단순 암기보다 학생들의 종합적인 사고력을 판단할 수 있는 서답형 문항을 늘리는 방향으로 변하고 있다. 그러나 서답형 문항의 경우 채점하는 데 시간과 비용이 많이 들고, 채점자의 주관에 따라 채점 결과의 일관성과 신뢰성을 보장하기 어렵다는 문제가 있다. 이런 점을 해결하기 위해 해외의 사례를 참고하여 국내에서도 서답형 문항에 자동채점 시스템을 적용하는 연구를 진행하고 있다. 본 논문에서는 2014년도에 개발된 '한국어 문장 수준 서답형 문항 자동채점 시스템'의 성능분석을 바탕으로 언어 처리 기능과 자동채점 성능을 개선한 2015년도 자동채점 시스템을 간략하게 소개하고, 각 자동채점 시스템의 성능을 비교 분석한다. 성능 분석 대상으로는 2014년도 국가수준 학업성취도평가의 서답형 문항을 사용했다. 실험 결과, 개선한 시스템의 평균 완전 일치도와 평균 정확률이 기존의 시스템보다 각각 9.4%p, 8.9%p 증가했다. 자동채점 시스템의 목적은 가능한 채점 시간을 단축하면서 채점 기준의 일관성과 신뢰성을 확보하는 데 있으므로, 보완한 2015년 자동채점 시스템의 성능이 향상되었다고 판단할 수 있다.

  • PDF

Performance Comparison of Automated Scoring System for Korean Short-Answer Questions (한국어 서답형 문항 자동채점 시스템의 성능 개선)

  • Cheon, Min-Ah;Kim, Chang-Hyun;Kim, Jae-Hoon;Noh, Eun-Hee;Sung, Kyung-Hee;Song, Mi-Young;Park, Jong-Im;Kim, Yuhyang
    • Annual Conference on Human and Language Technology
    • /
    • 2016.10a
    • /
    • pp.181-185
    • /
    • 2016
  • 최근 교육과정에서 학생들의 능력 평가는 단순 암기보다 학생들의 종합적인 사고력을 판단할 수 있는 서답형 문항을 늘리는 방향으로 변하고 있다. 그러나 서답형 문항의 경우 채점하는 데 시간과 비용이 많이 들고, 채점자의 주관에 따라 채점 결과의 일관성과 신뢰성을 보장하기 어렵다는 문제가 있다. 이런 점을 해결하기 위해 해외의 사례를 참고하여 국내에서도 서답형 문항에 자동채점 시스템을 적용하는 연구를 진행하고 있다. 본 논문에서는 2014년도에 개발된 '한국어 문장 수준 서답형 문항 자동채점 시스템'의 성능분석을 바탕으로 언어 처리 기능과 자동채점 성능을 개선한 2015년도 자동채점 시스템을 간략하게 소개하고, 각 자동채점 시스템의 성능을 비교 분석한다. 성능 분석 대상으로는 2014년도 국가수준 학업성취도평가의 서답형 문항을 사용했다. 실험 결과, 개선한 시스템의 평균 완전 일치도와 평균 정확률이 기존의 시스템보다 각각 9.4%p, 8.9%p 증가했다. 자동채점 시스템의 목적은 가능한 채점 시간을 단축하면서 채점 기준의 일관성과 신뢰성을 확보하는 데 있으므로, 보완한 2015년 자동채점 시스템의 성능이 향상되었다고 판단할 수 있다.

  • PDF

Automatic Grading System for Subjective Questions Through Analyzing Question Type (질의문 유형 분석을 통한 서답형 자동 채점 시스템)

  • Kang, Won-Seog
    • The Journal of the Korea Contents Association
    • /
    • v.11 no.2
    • /
    • pp.13-21
    • /
    • 2011
  • It is not easy to develop the system as the subjective-type evaluation has the difficulty in natural language processing. This thesis designs and implements the automatic evaluation system with natural language processing technique. To solve the degradation of general evaluation system, we define the question type and improve the performance of evaluation through the adaptive process for each question type. To evaluate the system, we analyze the correlation between human evaluation and term-based evaluation, and between human evaluation and this system evaluation. We got the better result than term-based evaluation. It needs to expand the question type and improve the adaptive processing technique for each type.

Korean Automated Scoring System for Supply-Type Items using Semi-Supervised Learning (준지도학습 방법을 이용한 한국어 서답형 문항 자동채점 시스템)

  • Cheon, Min-Ah;Seo, Hyeong-Won;Kim, Jae-Hoon;Noh, Eun-Hee;Sung, Kyung-Hee;Lim, EunYoung
    • Annual Conference on Human and Language Technology
    • /
    • 2014.10a
    • /
    • pp.112-116
    • /
    • 2014
  • 서답형 문항은 학생들의 종합적인 사고능력을 판단하는데 매우 유용하지만 채점할 때, 시간과 비용이 매우 많이 소요되고 채점자의 공정성을 확보해야 하는 어려움이 있다. 이러한 문제를 개선하기 위해 본 논문에서는 서답형 문항에 대한 자동채점 시스템을 제안한다. 본 논문에서 제안하는 시스템은 크게 언어 처리 단계와 채점 단계로 나뉜다. 첫 번째로 언어 처리 단계에서는 형태소 분석과 같은 한국어 정보처리 시스템을 이용하여 학생들의 답안을 분석한다. 두 번째로 채점 단계를 진행하는데 이 단계는 아래와 같은 순서로 진행된다. 1) 첫 번째 단계에서 분석 결과가 완전히 일치하는 답안들을 하나의 유형으로 간주하여 각 유형에 속한 답안의 빈도수가 높은 순서대로 정렬하여 인간 채점자가 고빈도 학생 답안을 수동으로 채점한다. 2) 현재까지 채점된 결과와 모범답안을 학습말뭉치로 간주하여 자질 추출 및 자질 가중치 학습을 수행한다. 3) 2)의 학습 결과를 토대로 미채점 답안들을 군집화하여 분류한다. 4) 분류된 결과 중에서 신뢰성이 높은 채점 답안에 대해서 인간 채점자가 확인하고 학습말뭉치에 추가한다. 5) 이와 같은 방법으로 미채점 답안이 존재하지 않을 때까지 반복한다. 제안된 시스템을 평가하기 위해서 2013년 학업성취도 평가의 사회(중3) 및 국어(고2) 과목의 서답형 문항을 사용하였다. 각 과목에서 1000개의 학생 답안을 추출하여 채점시간과 정확률을 평가하였다. 채점시간을 전체적으로 약 80% 이상 줄일 수 있었고 채점 정확률은 사회 및 국어 과목에 대해 각각 98.7%와 97.2%로 나타났다. 앞으로 자동 채점 시스템의 성능을 개선하고 인간 채점자의 집중도를 높일 수 있도록 인터페이스를 개선한다면 국가수준의 대단위 평가에 충분히 활용할 수 있을 것으로 생각한다.

  • PDF

Exploring a Learning Progression for Eight Core Concepts of Middle School Science Using Constructed Response Items in the National Assessment of Educational Achievement (NAEA) (국가수준 학업성취도 평가의 서답형 문항을 이용한 중학교 과학 8개 핵심 개념에 대한 학습발달과정 탐색)

  • Lee, Kiyoung;Dong, Hyokwan;Choi, Wonho;Kwon, Gyeongpil;Lee, Inho;Kim, Yong-Jin
    • Journal of Science Education
    • /
    • v.41 no.3
    • /
    • pp.382-404
    • /
    • 2017
  • This study aims to explore a learning progression for eight core concepts of middle school science using constructed response items in the national assessment of educational achievement (NAEA). For this purpose, a total of 7,390 responses of the 9th graders on 8 constructed response items in NAEA conducted in 2015 were inputted by computer and the inputted answers were analyzed and classified into different levels. After completing this process, five levels were set for each construct and a construct map was created according to the levels. In this study, the construct map was written in a progression-based rubric format, which was used as a criterion for leveling the answers of all students. In addition, the Rasch model was applied to measure the scores and achievements of the respondents by means of statistical analysis to correlate the scores of the students with the achievement levels of the constructs. Lastly, a preliminary learning progression was created by revising the construct map reflecting the results of Rasch model application. This study was meaningful in that it explored the possibility of developing the learning process by using constructed response items in NAEA. However, the preliminary learning progression developed in this study is still hypothetical and inferential because it is not longitudinally traced to individual students. Therefore, it is necessary to continually revise and supplement through iterative research process.

Answer Template Description for Automatic Scoring of Korean Free-text or Constructed Answers (한국어 서답형 자동채점을 위한 정답 템플릿 기술 방법)

  • Park, Il-Nam;Noh, Eun-Hee;Sim, Jae-Ho;Kim, Myung-Hwa;Kang, Seung-Shik
    • Annual Conference on Human and Language Technology
    • /
    • 2012.10a
    • /
    • pp.138-141
    • /
    • 2012
  • 한국어 서답형 문항의 자동채점 프로그램을 개발하기 위해서는 모범답안, 오답, 부분점수 부여를 위한 세부적인 내용을 채점 기준표로 기술해야 한다. 자동채점에 필요한 구체적인 사항들을 기술하기 위하여 XML 형식으로 정답 템플릿을 정의하였다. 채점에 필요한 내용을 단위 개념으로 정의하고 이를 컴퓨터가 엑세스 가능한 형태의 정답 템플릿을 설계하였다. 정답 템플릿 형식에 맞게 편리하게 템플릿을 작성할 수 있는 작성 도구를 이용하여 학업 성취도평가 각 문항에 대한 채점 기준표를 정답 템플릿으로 작성하여 채점기준표를 작성하는 실험을 수행하였다.

  • PDF

The Study of the Mode Effect between Computer-based and Paper-based Science Tests in TIMSS 2019 (TIMSS 2019 과학 문항에서 컴퓨터 기반 평가와 지필 평가 간의 검사 매체 차이 탐색)

  • Kim, Hyun-Kyung
    • Journal of the Korean Chemical Society
    • /
    • v.65 no.1
    • /
    • pp.48-57
    • /
    • 2021
  • This study analyzed the science assessment items that were conducted by the paper and the computer-based assessment in the TIMSS 2019 pre-test, which is an international academic achievement assessment. We examined whether the test mode influenced the percentage of items answered correctly by each graders. As a result, there was no significant difference in the correct answer rates of science items according to the test media in 4th and 8th graders. Looking at the each graders, the difference in the percentage of correct answers was relatively large in the fourth grader rather than the eighth grader. In terms of items, the difference in the percentage of correct answers was relatively larger for the constructed items than the multiple choice questions. As a result of analyzing the content of science and assessment items on the influence of the test media, the multiple choice items showed little difference between the paper and the computer-based assessment items, but the answer-type items tended to have a lower percentage of correct answers than the paper-based assessment. In addition, by grade, 4th graders showed lower percentages of correct answers in the constructed items than 8th graders. This study provides implications related to the development and introduction of computer-based assessment in Korea, and suggests an educational implications for computer-based assessment to be well established as school evaluation.