• 제목/요약/키워드: 데이터 논문

검색결과 41,164건 처리시간 0.055초

소프트웨어 사용자 관점의 데이터 품질 측정 방안 (A Methodology of Measuring Data Quality from Viewpoint of Software user)

  • 양자영;최병주
    • 한국정보과학회:학술대회논문집
    • /
    • 한국정보과학회 2001년도 가을 학술발표논문집 Vol.28 No.2 (1)
    • /
    • pp.436-438
    • /
    • 2001
  • 소프트웨어 제품의 품질을 보증하는 일은 중요하며, 이를 위해서는 실제 소프트웨어 제품이 실행될 때 최적의 결과에 영향을 주는 데이터, 즉 데이터의 품질이 보증 되어야 한다. 그러나 대부분의 소프트웨어 품질 관련 연구에서는 소프트웨어 품질 측정에 대한 모형만을 제시할 뿐 데이터 품질에 대해서는 다루어지고 있지 있다. 본 논문에서는 데이터 품질 평가를 위하여 데이터 품질을 측정하는 메트릭을 제안한다. 제안한 메트릭은 전체 데이터베이스에서 오류 데이터가 발생한 비율과 데이터 사용 목적에 따라 데이터 항목마다 다른 가중치를 적용하여 구해진다. 본 논문에서 제안하는 데이터 품질 메트릭은 특히 데이터를 주로 처리하는 소프트웨어 시스템의 품질 측정에 기여할 수 있다.

  • PDF

고정 타임슬롯 모드를 사용하는 PCM 시스템에서 디지털 음성 데이터 보안 기법 (Cipher method of digital voice data using fixed time slot mode in PCM system)

  • 임성렬
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2010년도 춘계학술발표대회
    • /
    • pp.782-785
    • /
    • 2010
  • 본 논문은 연속된 음성 신호를 전송로 상에 전송하기 위해 음성 신호를 G.711 표준 권고인 PCM으로 다중화한 후 고정 타임슬롯을 배정하여 전송하는 시스템에서 PCM 화된 디지털 음성 데이터를 실시간으로 암호화하여 전송하는 스트림 암호화 기법에 관한 것이다. 실시간으로 처리되는 음성 데이터의 암호화 시에는 하드웨어 방식이 적합한 데, 본 논문에서는 고정 타임슬롯을 배정받는 음성 데이터의 실시간 암호화 기법에 관한 것이다. 일반적으로 아날로그 음성 신호 코딩 시에 국내에서는 북미 방식인 ${\mu}-law$ 코딩 기법을 적용하는 데 이는 표본화한 음성 데이터를 양자화전에 압축하고 복호화 후 신장하는 비선형 양자화 기법을 적용하는 것으로 표본화된 값을 8 비트의 PCM 데이터로 변화하여 E1(2.048Mbps) 급 속도로 전송한다. 본 논문에서는 PCM 전송로 상에 전송되기 전의 직렬 입력 데이터를 암호화 장치를 거쳐 해당 타임슬롯에 해당하는 8 비트의 데이터를 실시간으로 암호화하여 전송로 상으로 전송하고 역으로 수신 단에서는 PCM 전송로를 거친 직렬 입력 데이터를 암호화된 타임슬롯을 판별하여 해당 타임슬롯의 데이터를 복호화하여 원래 데이터를 복원한다. 본 논문에서는 고정 타임슬롯을 배정받은 PCM 데이터를 암호화하여 전송한 후 수신 단에서 복호화 과정을 거친 후 타임슬롯 단위로 데이터 암호화/복호화가 가능함을 보여준다.

효율적인 MMORPG 데이터 관리를 위한 스프레드시트 기반 툴 모델 (The Spreadsheet-Based Tool Model for Efficient MMORPG Data Management)

  • 강신진;김창헌
    • 한국멀티미디어학회논문지
    • /
    • 제12권10호
    • /
    • pp.1457-1465
    • /
    • 2009
  • Massively Multiplayer Online Role-Playing Game (MMORPG) 제작에서 최종 데이터 입력 수단으로 쓰이는 스프레드시트 기반 개발 환경은 대용량의 데이터의 수식 처리, 분석에 있어 장점이 있으나 데이터 삽입 삭제, 검색, 연계성 관리에 어려움이 있다. 본 논문에서 대용량 데이터 관리를 위한 스프레드시트 환경 기반 툴 모델을 제안함으로써 실무에서 발생할 수 있는 다양한 데이터 관리 문제들을 입력 단계에서 해결하고자 한다. 본 논문에서 제안된 툴 모델은 MMORPG 데이터 입력을 위해 다수의 데이터 입력자들이 있는 환경에서 데이터 관리 위험을 최소화시키며 동시에 데이터 입력과 관리 작업 효율을 높이는데 효용성을 가지고 있다.

  • PDF

멀티미디어 문서를 효과적으로 표현하기 위한 메타 데이터 모델 설계 및 사용자 인터페이스 구현 (A Metadata Model Design and User Interface Implemetation for Efficient Description of Multimedia Documents)

  • 정예선;현순주;김흥배
    • 한국정보과학회:학술대회논문집
    • /
    • 한국정보과학회 2000년도 가을 학술발표논문집 Vol.27 No.2 (1)
    • /
    • pp.95-97
    • /
    • 2000
  • 가장 방대한 정보 도서관인 월드 와이드 웹(WWW)에서는 지난 몇 년 동안 멀티미디어 문서의 사용이 폭발적으로 증가했다. 따라서 인터넷의 사용자나 정보 제공자들이 멀티미디어 문서를 저장하거나 교환할 때 멀티미디어 데이터를 어떻게 효과적으로 표현하느냐가 가장 중대한 문제점으로 부각되고 있다. 현재 메타 데이터 모델을 표현하는 데는 다양한 방법들이 존재한다. 본 논문에서는 그 중 가장 일반적으로 사용하는 Dublin Core와 활발한 연 활동이 이루어 지고 있는 MPEG-7의 두 개 표준을 사용하여 새로운 메타 데이터 모델을 제시하고자 한다. Dublin Core는 기존의 문서들의 메타 데이터를 15개의 중요 요소들로 표현하는 것이고, MPEG-7은 멀티미디어 데이터의 내용을 체계적으로 표현하고자 하는 표준안이다. 본 논문에서 제시한 새로운 메타 데이터 모델은 Dublin Core를 MPEG-7의 의미적 요소를 표현하도록 하여 두 표준의 장점을 살려 멀티미디어 데이터를 효과적으로 표현 할 수 있는 메타 데이터 모델을 제안하였다. 또한 이 메타 데이터 모델을 XML DTD로 표현하고자 한다. 그러나, XML DTD는 일반 사용자들이 처음부터 작성하기는 쉽지 않다. 따라서 본 논문에서는 제안한 메타 데이터 모델을 XML DTD 쉽게 작성할 수 있는 사용자 인터페이스를 구현하였다.

  • PDF

메타데이터의 통합을 위한 스키마 매핑 및 데이터 변환 시스템 (Schema Mapping and Data Conversion System for Integrating Article Metadata)

  • 이민호;이원구;최윤수;윤화묵;송사광;정한민
    • 한국컴퓨터정보학회논문지
    • /
    • 제17권10호
    • /
    • pp.129-136
    • /
    • 2012
  • 본 논문에서는 논문 메타 데이터 특성 분석 연구를 토대로 데이터 변환 방법들을 고안하고 스키마 매핑 및 변환시스템을 구현한다. 빅 데이터 분석을 위해서는 다양한 시스템의 데이터베이스에 축적된 데이터를 공통의 형식으로 변환하는데, 현재의 데이터 변환 시스템들은 구문 의존적 문제와 사용의 불편함을 가지고 있다. 본 논문에서 구현된 시스템은 논문 메타데이터 분야에 특화된 시스템으로, 사용하기 쉬운 스키마 매핑 인터페이스를 가지고 있으며 다양한 논문 데이터 구문을 변환할 수 있다. 또한 시스템에 등록되지 않은 새로운 스키마를 가진 데이터가 입력되더라도 시스템의 재 컴파일이 필요 없다. 본 시스템은 사용성 평가를 통하여 시스템 사용성 평균 점수로 89.25점을 받았다.

식품정보 메타데이터 개발을 위한 연구 (A Study on Meta Data Development of Food Information)

  • 양혜정;이정률
    • 한국콘텐츠학회:학술대회논문집
    • /
    • 한국콘텐츠학회 2011년도 춘계 종합학술대회 논문집
    • /
    • pp.389-390
    • /
    • 2011
  • 본 논문의 목적은 효과적인 식품정보 분류 체계 구축 및 관리를 위하여 식품정보의 메타데이터를 구축하고자 하는 것이다. 메타데이터는 데이터에 대한 데이터를 의미하며, 데이터의 분류체계, 구조, 내용요약을 함축적 의미로 표현하는 데이터이다. 이러한 메타데이터를 이용하여 식품정보를 체계적으로 분류하여 식품정보 조회, 분석, 활용을 위한 체계를 구축하였고, 식품정보에 대한 접근성을 향상시켰다. 따라서 본 논문을 통하여 식품정책, 식품산업, 식품기술 개발에 효과적인 정보를 제공하여 식품정보의 활용성 증대 및 효과적인 분류를 가능케 하였다.

  • PDF

데이터 오류에서 추출한 데이터 품질 특성 (Extraction of Data Quality Characteristics from Dirty Data)

  • 김수경;최병주
    • 한국정보과학회:학술대회논문집
    • /
    • 한국정보과학회 2000년도 봄 학술발표논문집 Vol.27 No.1 (A)
    • /
    • pp.549-551
    • /
    • 2000
  • 소프트웨어 제품의 품질을 보증하는 일은 매우 중요하며, 국제표준인 ISO/IEC 9126은 소프트웨어 품질 및 특성 및 측정 메트릭 표준을 제공하고 있다. 이때 ISO/IEC 9126에서는 소프트웨어를 프로그램, 절차, 규칙 및 관련문서로 한정하고 있기 때문에 데이터의 품질에는 적용할 수 없다. 본 논문에서는 데이터 품질 평가 및 제어를 위하여 데이터 오류 형태를 분류하고, 이를 기반으로 데이트 품질 특성 및 부특성을 분류한다. 데이터 품질 특성 분류는 ISO/IEC 9126에 정의한 소프트웨어 품질 특성을 데이터 오류 형태에 대응시켜 추출한다. 본 논문에서 제시하는 데이트 품질특성 분류는 지식 공학(knowledge engineering)시스템이 최종 사용자에게 제공하는 데이터나 지식의 품질 측정 및 제어에 기준이 된다.

  • PDF

KorSciQA: 한국어 논문의 기계독해 데이터셋 (KorSciQA: A Dataset for Machine Comprehension of Korean Scientific Paper)

  • 함영균;정용빈;정희석;황혜경;최기선
    • 한국정보과학회 언어공학연구회:학술대회논문집(한글 및 한국어 정보처리)
    • /
    • 한국정보과학회언어공학연구회 2019년도 제31회 한글 및 한국어 정보처리 학술대회
    • /
    • pp.207-212
    • /
    • 2019
  • 본 논문에서는 한국어로 쓰여진 과학기술 논문에 대한 기계독해 과제(일명 KorSciQA)를 제안하고자 하며, 그와 수반하는 데이터 구축 및 평가를 보고한다. 다양한 제약조건이 부가된 크라우드소싱 디자인을 통하여, 498개의 논문 초록에 대해 일관성 있는 품질의 2,490개의 질의응답으로 구성된 기계독해 데이터셋을 구축하였다. 이 데이터셋은 어느 논문에서나 나타나는 논박 요소들인 논의하는 문제, 푸는 방법, 관련 데이터, 모델 등과 밀접한 질문으로 구성되고, 각 논박 요소의 의미, 목적, 이유 파악 및 다양한 추론을 하여 답을 할 수 있는 것이다. 구축된 KorSciQA 데이터셋은 실험을 통하여 기존의 기계독해 모델의 독해력으로는 풀기 어려운 도전과제로 평가되었다.

  • PDF

이기종 분산환경에서 데이터마이닝을 위한 데이터준비 시스템 구현 (Implementation of Data Preparation System for Data Mining on Heterogenious Distributed Environment)

  • 이상희;이원섭
    • 한국컴퓨터정보학회논문지
    • /
    • 제9권3호
    • /
    • pp.109-113
    • /
    • 2004
  • 본 논문에서는 데이터 마이닝을 위한 데이터 준비 과정에 대하여 기존의 데이터 마이닝 도구들의 효율성을 비교하고, 새로운 효율적인 데이터 준비 시스템 설계 기준을 제안하고자 한다. 지역 및 원격 데이터베이스 접근방법 이기종 컴퓨터간의 정보 교환을 기준으로 기존의 데이터마이닝 도구들의 기능을 비교하였다. 본 논문에서는 앤서트리, 클레멘타인, 엔터프라이즈 마이너, 웨카를 비교하였다. 또한, 본 논문에서는 분산 네트워크 상에서 데이터 마이닝을 위한 효율적인 데이터 준비 시스템을 위한 설계기준을 제안한다.

  • PDF

빅데이터 품질 확장을 위한 서비스 품질 연구 (Applying Service Quality to Big Data Quality)

  • 박주석;김승현;류호철;이준기;이장호;이준용
    • 한국빅데이터학회지
    • /
    • 제2권2호
    • /
    • pp.87-93
    • /
    • 2017
  • 데이터 품질에 대한 연구는 오랜 기간 동안 수행되어 왔다. 하지만 이러한 데이터 품질관리 연구는 구조적 데이터를 대상으로 하였다. 최근에 디지털혁명 또는 4차산업혁명이 일어나면서 빅데이터에 대한 품질관리가 중요해 지고 있다. 본 논문에서는 기존 논문을 분석하여 빅데이터 품질 유형을 분류하고 비교 분석하였다. 요약하면, 빅데이터 품질 유형은 빅데이터 값, 빅데이터 구조, 빅데이터 품질 프로세스, 빅데이터 가치사슬 단계, 빅데이터 모형 성숙도 등으로 분류할 수 있다. 이러한 비교 연구를 바탕으로 본 논문에서는 새로운 기준을 제시하고자 한다.

  • PDF