• Title/Summary/Keyword: 데이터 논문

Search Result 41,256, Processing Time 0.064 seconds

A Methodology of Measuring Data Quality from Viewpoint of Software user (소프트웨어 사용자 관점의 데이터 품질 측정 방안)

  • 양자영;최병주
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2001.10a
    • /
    • pp.436-438
    • /
    • 2001
  • 소프트웨어 제품의 품질을 보증하는 일은 중요하며, 이를 위해서는 실제 소프트웨어 제품이 실행될 때 최적의 결과에 영향을 주는 데이터, 즉 데이터의 품질이 보증 되어야 한다. 그러나 대부분의 소프트웨어 품질 관련 연구에서는 소프트웨어 품질 측정에 대한 모형만을 제시할 뿐 데이터 품질에 대해서는 다루어지고 있지 있다. 본 논문에서는 데이터 품질 평가를 위하여 데이터 품질을 측정하는 메트릭을 제안한다. 제안한 메트릭은 전체 데이터베이스에서 오류 데이터가 발생한 비율과 데이터 사용 목적에 따라 데이터 항목마다 다른 가중치를 적용하여 구해진다. 본 논문에서 제안하는 데이터 품질 메트릭은 특히 데이터를 주로 처리하는 소프트웨어 시스템의 품질 측정에 기여할 수 있다.

  • PDF

Cipher method of digital voice data using fixed time slot mode in PCM system (고정 타임슬롯 모드를 사용하는 PCM 시스템에서 디지털 음성 데이터 보안 기법)

  • Im, Sung Yeal
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2010.04a
    • /
    • pp.782-785
    • /
    • 2010
  • 본 논문은 연속된 음성 신호를 전송로 상에 전송하기 위해 음성 신호를 G.711 표준 권고인 PCM으로 다중화한 후 고정 타임슬롯을 배정하여 전송하는 시스템에서 PCM 화된 디지털 음성 데이터를 실시간으로 암호화하여 전송하는 스트림 암호화 기법에 관한 것이다. 실시간으로 처리되는 음성 데이터의 암호화 시에는 하드웨어 방식이 적합한 데, 본 논문에서는 고정 타임슬롯을 배정받는 음성 데이터의 실시간 암호화 기법에 관한 것이다. 일반적으로 아날로그 음성 신호 코딩 시에 국내에서는 북미 방식인 ${\mu}-law$ 코딩 기법을 적용하는 데 이는 표본화한 음성 데이터를 양자화전에 압축하고 복호화 후 신장하는 비선형 양자화 기법을 적용하는 것으로 표본화된 값을 8 비트의 PCM 데이터로 변화하여 E1(2.048Mbps) 급 속도로 전송한다. 본 논문에서는 PCM 전송로 상에 전송되기 전의 직렬 입력 데이터를 암호화 장치를 거쳐 해당 타임슬롯에 해당하는 8 비트의 데이터를 실시간으로 암호화하여 전송로 상으로 전송하고 역으로 수신 단에서는 PCM 전송로를 거친 직렬 입력 데이터를 암호화된 타임슬롯을 판별하여 해당 타임슬롯의 데이터를 복호화하여 원래 데이터를 복원한다. 본 논문에서는 고정 타임슬롯을 배정받은 PCM 데이터를 암호화하여 전송한 후 수신 단에서 복호화 과정을 거친 후 타임슬롯 단위로 데이터 암호화/복호화가 가능함을 보여준다.

The Spreadsheet-Based Tool Model for Efficient MMORPG Data Management (효율적인 MMORPG 데이터 관리를 위한 스프레드시트 기반 툴 모델)

  • Kang, Shin-Jin;Kim, Chang-Hun
    • Journal of Korea Multimedia Society
    • /
    • v.12 no.10
    • /
    • pp.1457-1465
    • /
    • 2009
  • In MMORPG development process, spreadsheet based data management has advantages in the handling of functions and analysis of large data set. But it has limitations in inserting, deleting, searching and relational management of that. In this paper, we proposed the spreadsheet based tool model for large data set for MMORPG development. Our system can reduce the risk of data management failure in MMORPG development process and improve the efficiency of data handling in the large-scale team.

  • PDF

A Metadata Model Design and User Interface Implemetation for Efficient Description of Multimedia Documents (멀티미디어 문서를 효과적으로 표현하기 위한 메타 데이터 모델 설계 및 사용자 인터페이스 구현)

  • 정예선;현순주;김흥배
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2000.10a
    • /
    • pp.95-97
    • /
    • 2000
  • 가장 방대한 정보 도서관인 월드 와이드 웹(WWW)에서는 지난 몇 년 동안 멀티미디어 문서의 사용이 폭발적으로 증가했다. 따라서 인터넷의 사용자나 정보 제공자들이 멀티미디어 문서를 저장하거나 교환할 때 멀티미디어 데이터를 어떻게 효과적으로 표현하느냐가 가장 중대한 문제점으로 부각되고 있다. 현재 메타 데이터 모델을 표현하는 데는 다양한 방법들이 존재한다. 본 논문에서는 그 중 가장 일반적으로 사용하는 Dublin Core와 활발한 연 활동이 이루어 지고 있는 MPEG-7의 두 개 표준을 사용하여 새로운 메타 데이터 모델을 제시하고자 한다. Dublin Core는 기존의 문서들의 메타 데이터를 15개의 중요 요소들로 표현하는 것이고, MPEG-7은 멀티미디어 데이터의 내용을 체계적으로 표현하고자 하는 표준안이다. 본 논문에서 제시한 새로운 메타 데이터 모델은 Dublin Core를 MPEG-7의 의미적 요소를 표현하도록 하여 두 표준의 장점을 살려 멀티미디어 데이터를 효과적으로 표현 할 수 있는 메타 데이터 모델을 제안하였다. 또한 이 메타 데이터 모델을 XML DTD로 표현하고자 한다. 그러나, XML DTD는 일반 사용자들이 처음부터 작성하기는 쉽지 않다. 따라서 본 논문에서는 제안한 메타 데이터 모델을 XML DTD 쉽게 작성할 수 있는 사용자 인터페이스를 구현하였다.

  • PDF

Schema Mapping and Data Conversion System for Integrating Article Metadata (메타데이터의 통합을 위한 스키마 매핑 및 데이터 변환 시스템)

  • Lee, Min-Ho;Lee, Won-Goo;Choi, Yun-Soo;Yoon, Hwa-Mook;Song, Sa-Kwang;Jung, Han-Min
    • Journal of the Korea Society of Computer and Information
    • /
    • v.17 no.10
    • /
    • pp.129-136
    • /
    • 2012
  • We devise data conversion methods and implement schema mapping and conversion system based on the study on research paper metadata characteristics analysis. Data conversion in unified form from databases of various systems is necessary for big data analysis. Legacy data conversion systems have drawbacks of syntax dependent problem and inconvenience for use. The implemented system, which is specialized system for research paper metadata, has easy schema mapping interface and can convert data with various syntax. In addition to that, Recompiling of the system is not necessary even if new schema which is not preregistered in the system comes in. We proved its usefulness by usability evaluation.

A Study on Meta Data Development of Food Information (식품정보 메타데이터 개발을 위한 연구)

  • Yang, Hye-Jeong;Lee, Jeong-Ryul
    • Proceedings of the Korea Contents Association Conference
    • /
    • 2011.05a
    • /
    • pp.389-390
    • /
    • 2011
  • 본 논문의 목적은 효과적인 식품정보 분류 체계 구축 및 관리를 위하여 식품정보의 메타데이터를 구축하고자 하는 것이다. 메타데이터는 데이터에 대한 데이터를 의미하며, 데이터의 분류체계, 구조, 내용요약을 함축적 의미로 표현하는 데이터이다. 이러한 메타데이터를 이용하여 식품정보를 체계적으로 분류하여 식품정보 조회, 분석, 활용을 위한 체계를 구축하였고, 식품정보에 대한 접근성을 향상시켰다. 따라서 본 논문을 통하여 식품정책, 식품산업, 식품기술 개발에 효과적인 정보를 제공하여 식품정보의 활용성 증대 및 효과적인 분류를 가능케 하였다.

  • PDF

Extraction of Data Quality Characteristics from Dirty Data (데이터 오류에서 추출한 데이터 품질 특성)

  • 김수경;최병주
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2000.04a
    • /
    • pp.549-551
    • /
    • 2000
  • 소프트웨어 제품의 품질을 보증하는 일은 매우 중요하며, 국제표준인 ISO/IEC 9126은 소프트웨어 품질 및 특성 및 측정 메트릭 표준을 제공하고 있다. 이때 ISO/IEC 9126에서는 소프트웨어를 프로그램, 절차, 규칙 및 관련문서로 한정하고 있기 때문에 데이터의 품질에는 적용할 수 없다. 본 논문에서는 데이터 품질 평가 및 제어를 위하여 데이터 오류 형태를 분류하고, 이를 기반으로 데이트 품질 특성 및 부특성을 분류한다. 데이터 품질 특성 분류는 ISO/IEC 9126에 정의한 소프트웨어 품질 특성을 데이터 오류 형태에 대응시켜 추출한다. 본 논문에서 제시하는 데이트 품질특성 분류는 지식 공학(knowledge engineering)시스템이 최종 사용자에게 제공하는 데이터나 지식의 품질 측정 및 제어에 기준이 된다.

  • PDF

KorSciQA: A Dataset for Machine Comprehension of Korean Scientific Paper (KorSciQA: 한국어 논문의 기계독해 데이터셋)

  • Hahm, Younggyun;Jeong, Youngbin;Jeong, Heeseok;Hwang, Hyekyong;Choi, Key-Sun
    • Annual Conference on Human and Language Technology
    • /
    • 2019.10a
    • /
    • pp.207-212
    • /
    • 2019
  • 본 논문에서는 한국어로 쓰여진 과학기술 논문에 대한 기계독해 과제(일명 KorSciQA)를 제안하고자 하며, 그와 수반하는 데이터 구축 및 평가를 보고한다. 다양한 제약조건이 부가된 크라우드소싱 디자인을 통하여, 498개의 논문 초록에 대해 일관성 있는 품질의 2,490개의 질의응답으로 구성된 기계독해 데이터셋을 구축하였다. 이 데이터셋은 어느 논문에서나 나타나는 논박 요소들인 논의하는 문제, 푸는 방법, 관련 데이터, 모델 등과 밀접한 질문으로 구성되고, 각 논박 요소의 의미, 목적, 이유 파악 및 다양한 추론을 하여 답을 할 수 있는 것이다. 구축된 KorSciQA 데이터셋은 실험을 통하여 기존의 기계독해 모델의 독해력으로는 풀기 어려운 도전과제로 평가되었다.

  • PDF

Implementation of Data Preparation System for Data Mining on Heterogenious Distributed Environment (이기종 분산환경에서 데이터마이닝을 위한 데이터준비 시스템 구현)

  • Lee sang hee;Lee won sup
    • Journal of the Korea Society of Computer and Information
    • /
    • v.9 no.3
    • /
    • pp.109-113
    • /
    • 2004
  • This paper is to investigate the efficiency of the process of data preparation for existing data mining tools, and present a design principle for a new efficient data preparation system . We compare the often used data mining tools based on the access method to local and remote databases, and on the exchange of information resources between different computers. The compared data mining tools are Answer Tree, Clementine, Enterprise Miner, and Weka. We propose a design principle for an efficient system for data preparation for data mining on the distributed networks.

  • PDF

Applying Service Quality to Big Data Quality (빅데이터 품질 확장을 위한 서비스 품질 연구)

  • Park, Jooseok;Kim, Seunghyun;Ryu, Hocheol;Lee, Zoonky;Lee, Jangho;Lee, Junyong
    • The Journal of Bigdata
    • /
    • v.2 no.2
    • /
    • pp.87-93
    • /
    • 2017
  • The research on data quality has been performed for a long time. However, the research focused on structured data. With the recent digital revolution or the fourth industrial revolution, quality control of big data is becoming more important. In this paper, we analyze and classify big data quality types through previous research. The types of big data quality can be classified into value, data structure, process, value chain, and maturity model. Based on these comparative studies, this paper proposes a new standard, service quality of big data.

  • PDF