초록
기계번역 품질 평가는 중대한 문제이다. 기계번역의 품질이 사용자 요구와 거리가 상당히 있는 현재의 상황에서 기계번역 시스템의 객관적 평가는 기계번역 소프트웨어 사용자와 판매자 간의 신뢰를 구축하고 개발자들 간에 생산적인 경쟁관계를 조성하게 하여 결과적으로 기계번역 품질의 고급화를 지속적으로 유도하는 역할을 할 것이다. 이를 위해서는 특히 언어학적 측면과 자료처리 측면에서 개선이 계속되고 있는지를 확인할 수 있도록 기계번역 시스템의 품질을 평가할 수 있는 연구가 있어야 한다. 본 논문에서는 이런 정들을 고려해 넣은 영한 기계번역의 언어학적 평가 방법을 제시하고 이를 몇 개의 상용 기계번역 시스템을 대상으로 실험하여 실험결과를 보고한다. 이 방법은 기본적으로 언어현상과 학습수준으로 분류된 3.373 영어 문장으로 구성된 평가자료에 기반하고 있다.
Machine translation (MT) quality assessment is an outstanding problem. In the present situation in which the quality of machine-translated products are far from the user\\`s satisfaction objective evaluation of MT system is a prerequisite to building mutual trust between the users and the vendors stimulating constructive competition among the developers and finally leading to improve the quality of MT systems. Especially there emerges a need for an intensive study on how to evaluate the quality of MT systems from both linguistic and data processing aspects and to secure a steady improvement of the translation quality. With due regard to such points we in this paper present a linguistic evaluation of English-to-Korean machine translation based on a test suite composed of 3.373 sentences that were classified into their linguistic phenomena and complexity levels and report the experimental results made from several commercial MT systems.