• 제목/요약/키워드: 데이터 논문

검색결과 41,278건 처리시간 0.061초

SDTS와 GOTHIC간의 데이터 변환 시스템의 개발 (Development of a Data Conversion System between SDTS and Gothic)

  • 김준종;설영민;이강준;한기준
    • 한국정보과학회:학술대회논문집
    • /
    • 한국정보과학회 1998년도 가을 학술발표논문집 Vol.25 No.2 (1)
    • /
    • pp.170-172
    • /
    • 1998
  • 지리 정보 시스템(GIS)은 그 특성상 대용량의 GIS 데이터를 사용하며, 다양한 소프트웨어와 하드웨어 상에서 구현된다. 이렇게 상이한 하드웨어, 소프트웨어, 그리고 운영 체제상에서 공간 데이터들 간의 효율적인 데이터 교환이 불가능하다면 데이터 공유가 매우 어려울 뿐만 아니라 데이터의 중복 보관 및 관리로 인해 막대할 경제적 손실을 가져온다. 이와 같은 문제점을 해결하기 위해서 국가 차원에서 지리 정보 시스템에 관해 국가 표준을 설정하고, 공간 데이터베이스를 구축하고 있는데 공통데이터교환 포맷으로 채택된 것은 SDTS이다. 본 논문에서는 국가 공통데이타교환 포맷인 SDTS 데이터와 GOTHIC의 데이터를 상호 교환할 수 있는 데이터 변환 시스템을 설계 및 구현한다. 데이터 변환 시스템의 대상이 되는 GOTHIC은 영국 Laser-Scan에서 개발한 GIS 개발 도구로 실세계를 구성하는 개체들을 서로 구분될 수 있는 하나의 객체로 표현하고 있다. 본 논문에서는 우선 GOTHIC과 SDTS의 데이터 포맷 및 데이터의 저장 방법에 대해 분석한다. 그리고, 구현하려고 하는 데이터 변환 시스템의 전체적인 구조를 설계하고, 구조의 각 단계별로 수행될 작업을 구현함으로써 데이터 변환 시스템을 개발한다.

데이터 스트림 정보 요약 기법 (A Summarization Method for Data Streams)

  • 한상길;이원석
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2006년도 추계학술발표대회
    • /
    • pp.657-660
    • /
    • 2006
  • 최근까지 데이터웨어하우스와 OLAP 에 관한 연구와 더불어 데이터 큐브(data cube)는 많은 다차원 데이터웨어하우스에서 데이터 분석과 의사 결정 지원을 위해 빠르게 OLAP 연산을 처리하기 위한 중요한 역할을 수행해 왔다. 최근에는 빠른 속도로 생성됨과 동시에 지속적으로 발생되는 연속적인 데이터로 구성된 데이터 스트림이 네트워크 트래픽 모니터링, 증권, 날씨, 콜 센터 등과 같은 많은 분야에서 생성된다. 데이터 스트림은 무한의 집합이기 때문에 기존의 데이터 큐브 방법은 처리시간과 저장공간의 문제 때문에 데이터 스트림에 적용하기 어렵다. 이에 본 논문에서는 기존의 데이터 큐브와 같은 데이터의 요약 정보를 데이터 스트림 환경에서 제한된 메모리를 이용하여 관리 할 수 있는 전원트리를 이용한 데이터 스트림 요약 기법을 제안하고, 실험을 통해 본 논문에서 제안한 방법이 데이터 스트림 환경에서 적응적으로 동작함을 증명한다.

  • PDF

데이터베이스 테이터의 고장진단 및 복구를 위한 전문가 시스팀

  • 이길행;우왕돈;조주현
    • ETRI Journal
    • /
    • 제14권4호
    • /
    • pp.148-164
    • /
    • 1992
  • 본 논문에서는 TDX-10 데이터베이스 데이터의 고장을 주기적으로 진단하고 복구할 수 있는 고장진단 전문가 시스팀을 제안하고 구현하였다. 실시간 환경 및 분산구조를 갖는 데이터베이스 관리 시스팀에서 데이터베이스의 효과적인 접근을 위해서 필요한 데이터베이스의 데이터 즉, 디렉토리와 딕셔너리는 매우 중요하며 고장이 발생할 경우 데이터베이스 관리시스팀에 미치는 영향은 치명적이다. 따라서, 실시간 환경을 갖는 데이터베이스 관리 시스팀에서 데이터베이스 데이터에 대한 고장 진단 및 복구는 필수적이라고 할 수 있다. 본 논문에서 제안한 고장진단 전문가 시스팀은 데이터베이스 데이터를 운용중 변하는 부분과 변하지 않는 부분으로 분류하고 미리 주어진 고장진단 규칙에 따라 진단하는 방법이다. 데이터베이스 데이터의 고장진단 데이터, 고장진단 규칙, 고장진단 데이터 생성기, 고장진단 데이터 검증기, 그리고 고장진단기로 구성되어 있다. 고장진단 데이터는 고장진단기가 데이터베이스 데이터를 주기적으로 진단하기 위하여 사용하는 마스터 데이터로서 두개가 존재한다. 고장진단 데이터 생성기는 데이터베이스 데이터의 고장진단을 위한 데이터 구조를 생성하고 데이터베이스로부터 데이터베이스를 데이터를 중복하여 읽어들이는 역할을 한다. 이와 같은 과정은 시스팀이 초기에 동작을 시작하거나 운용중 운용자에 의해서 릴레이션의 추가 및 삭제, 그리고 튜플의 추가등과 같은 사건이 발생할 경우에 이루어진다. 데이터베이스 검증기는 고장진단 데이터 생성기가 중복하여 생성한 데이터에 대해서 데이터베이스 데이터의 제작시의 초기 오류를 검증해냄으로써 데이터베이스 관리 시스팀의 안전한 운용을 가능하게 하며 고장진단기가 데이터베이스 데이터를 주기적으로 진단할 데이터를 탄생시킨다. 마지막으로 고장진단기는 주기적으로 데이터베이스 데이터의 고장을 진단하여 고장이 발생한 데이터를 미리 분류한 규칙에 따라 원래의 데이터로 복구하거나 운용자에게 보고함으로써 고장에 대비하도록 한다. 그리고 데이터베이스 상의 운용자에 의한 변경을 감지하여 고장진단 데이터의 재생성을 지시한다. 본 논문에서 제시하고 구현한 데이터베이스 데이터의 고장진단 및 복구를 위한 전문가 시스팀은 실시간 환경과 고장허용 환경, 분산 구조 그리고 빈번한 접근을 갖는 데이터베이스 관리 시스팀에서 아주 중요한 역할을 할 수 있다.

  • PDF

결정계수 기반의 데이터 마이닝을 이용한 특수일 최대 전력 수요 예측 (Load Forecasting for the Holidays Using a Data mining with the Coefficient of Determination)

  • 위영민;송경빈;주성관
    • 대한전기학회:학술대회논문집
    • /
    • 대한전기학회 2008년도 제39회 하계학술대회
    • /
    • pp.552-553
    • /
    • 2008
  • 본 논문에서는 특수일 전력 수요 예측을 위한 알고리즘을 제시하였다. 논문에서 제안하는 전력 수요 예측 알고리즘은 데이터 마이닝을 이용한 데이터 전처리 부분과 전처리된 데이터를 사용하여 특수일 수요를 예측하는 다항 회귀분석 부분으로 나누어진다. 데이터 전처리에서는 전력 수요 예측을 위한 과거 데이터 중에 과거 특수일 수요의 패턴을 잘 보여주는 데이터를 찾기 위해 온도와 수요의 관계를 이용한다. 데이터 마이닝의 기준으로 결정계수를 사용하였으며, 알고리즘은 k-nearest neighbor 절차를 사용하였다. 또한 제안된 기법은 2006년 특수일 전력 수요 예측을 통하여 기존 논문의 결과와 비교 분석하여 기존 방식 대비 특수일 전력 수요예측 관련 우수성을 검증하였다.

  • PDF

RFID 기반 물류환경을 위한 물류정보 통합관리 모형의 설계

  • 정홍석;박대원;한기덕;권혁철
    • 한국지능정보시스템학회:학술대회논문집
    • /
    • 한국지능정보시스템학회 2005년도 춘계학술대회
    • /
    • pp.87-93
    • /
    • 2005
  • 다양한 정보의 교환 및 공유가 이루어지는 물류분야에서는 정보의 통합관리가 필요하다. 본 논문에서는 서로 다른 물류주체 간의 정보 교환 및 공유가 원활히 이루어지는 RFID에 기반을 둔 물류환경에 적합한 물류정보 통합관리 모형을 제시한다. 본 논문에서 제시하는 물류정보 통합관리 모형은 웹 서비스를 기반으로 물류정보를 저장/관리하는 시스템 모형으로 애플리케이션과의 데이터교환을 위한 인터페이스, 물류데이터 저장, 검색을 위한 모듈, 물류정보의 데이터 무결정과 의미추론을 위한 온톨로지 모듈, XML Repository 및 Respository access 모듈로 구성된다. 데이터 교환을 위한 인터페이스는 SOAP을 이용하며 애플리케이션 및 RFID 미들웨어와 물류정보를 주고 받는다. 데이터 처리모듈은 물류 데이터의 유형에 따라 데이터를 저장/관리하며, 애플리케이션의 정보요청에 대한 결과를 제공한다. 또한 물류정보의 데이터 무결성 검증, 의미추론을 위한 온톨로지 모듈을 포함한다. 본 논문은 XML형식의 물류정보 저장관리 및 시맨틱웹 개념 중심의 모형을 설계한다.

  • PDF

데이터 상호운용을 활용한 연구보고서 연계에 관한 연구 (A Study for R&D Reports Connection Using the Data Interoperability)

  • 박민우;최기석;김재수;이홍로;주원균
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2012년도 춘계학술발표대회
    • /
    • pp.1088-1090
    • /
    • 2012
  • 많은 연구기관에서 연구성과물로 연구보고서, 논문, 특허등의 산출물을 생산하고 있다. 이러한 데이터는 기관의 특성과 자체적으로 운영되고 있는 정보서비스의 성격에 따라 고유의 데이터 스키마와 형태를 가지고 있다. 또한 연구성과물(논문,연구보고서)을 체계적으로 관리하고, 데이터의 부가가치를 높이기 위해 서로의 데이터의 연계와 융합을 통해 새로운 정보서비스가 요구되고 있다. 본 논문에서는 서로 다른 네트워크간 에 있는 데이터를 연계하기 위해 데이터 상호 운용을 활용하고, 이를 위한 방안으로 MAS(Multi Agent System)기반의 연계프레임워크를 통해 연구보고서의 체계적인 수집 및 서비스를 위한 데이터의 융합을 위한 방안을 제시하고자 한다.

능동 학습 기법을 활용한 한국어 금융 도메인 개체명 인식 데이터 구축 (Constructing Korean Named Recognition Dataset for Financial Domain Using Active Learning)

  • 정동호;허민강;김형철;박상원
    • 한국정보과학회 언어공학연구회:학술대회논문집(한글 및 한국어 정보처리)
    • /
    • 한국정보과학회언어공학연구회 2020년도 제32회 한글 및 한국어 정보처리 학술대회
    • /
    • pp.82-86
    • /
    • 2020
  • 딥러닝 모델의 성능은 데이터의 품질과 양에 의해 향상된다. 그러나 데이터 구축은 많은 비용과 시간을 요구한다. 특히 전문 도메인의 데이터를 구축할 경우 도메인 지식을 갖춘 작업자를 활용할 비용과 시간이 더욱 제약적이다. 능동 학습 기법은 최소한의 데이터 구축으로 모델의 성능을 효율적으로 상승시키기 위한 방법이다. 다양한 데이터셋이 능동 학습 기법으로 구축된 바 있으나, 아직 전문 도메인의 한국어 데이터를 구축하는 연구는 활발히 수행되지 못한 것이 현실이다. 본 논문에서는 능동학습기법을 통해 금융 도메인의 개체명 인식 코퍼스를 구축하였고, 이를 통해 다음의 기여가 있다: (1) 금융 도메인 개체명 인식 코퍼스 구축에 능동 학습 기법이 효과적임을 확인하였고, (2) 이를 통해 금융 도메인 개체명 인식기를 개발하였다. 본 논문이 제안하는 방법을 통해 8,043문장 데이터를 구축하였고, 개체명 인식기의 성능은 80.84%로 달성되었다. 또한 본 논문이 제안하는 방법을 통해 약 12~25%의 예산 절감 효과가 있음을 실험으로 보였다.

  • PDF

빅데이터 분석 도구 R을 이용한 비정형 데이터 텍스트 마이닝과 시각화 (Text Mining and Visualization of Unstructured Data Using Big Data Analytical Tool R)

  • 남수태;신성윤;진찬용
    • 한국정보통신학회논문지
    • /
    • 제25권9호
    • /
    • pp.1199-1205
    • /
    • 2021
  • 빅데이터 시대에는 단순히 데이터베이스에 잘 정리된 정형 데이터뿐만 아니라 인터넷, 소셜 네트워크 서비스, 모바일 환경에서 실시간 생성되는 웹 문서, 이메일, 소셜 데이터 등 비정형 빅데이터를 효과적으로 분석하는 것이 매우 중요하다. 빅데이터 분석은 데이터 저장소에 저장된 빅데이터 속에서 의미 있는 새로운 상관관계, 패턴, 추세를 발견하여 새로운 가치를 창출하는 과정이다. 빅데이터 분석 도구인 R 언어를 이용하여 비정형 논문 데이터를 빈도분석을 통해 분석결과를 요약과 시각화하고자 한다. 본 연구에서 사용된 데이터는 한국정보통신학회 학회지 논문 중에서 2021년 1월호-5월호 총 논문 104편을 대상으로 분석하였다. 최종 분석결과 가장 많이 언급된 키워드는 "데이터"가 1,538회로 1위를 차지하였다. 따라서 분석결과를 바탕으로 연구의 한계와 이론적 실무적 시사점을 제시하고자 한다.

메타데이터 관리 국제 표준 활용성 향상 및 검증 방안 (Verifying and Improving Usability of the International Standards on Metadata Management)

  • 정동원
    • 한국컴퓨터정보학회:학술대회논문집
    • /
    • 한국컴퓨터정보학회 2014년도 제50차 하계학술대회논문집 22권2호
    • /
    • pp.9-12
    • /
    • 2014
  • 이 논문에서는 ISO/IEC JTC 1/SC 32/WG 2에서 개발한 메타데이터 관리 표준에 대한 검증 및 활용성 향상 방안을 제안한다. 메타데이터는 데이터의 데이터라고 정의하며 데이터를 표현하기 위한 다양한 데이터를 의미한다. 메타데이터는 데이터에 대한 해석 및 처리를 보다 용이하게 하기 위한 정보로서, 데이터에 대한 정확한 이해를 통해 데이터 불일치 문제를 해결하기 위해 이용된다. ISO/IEC JTC 1/SC 32는 데이터 교환 및 관리를 위한 표준을 개발하며 특히 WG 2는 메타데이터 관리를 위한 다양한 표준을 개발한다. WG 2에서 다양한 많은 표준을 개발하였으나 검증 및 활용성 측면에서 몇 가지 한계를 지닌다. 따라서 이 논문에서는 WG 2에서 개발한 표준에 대한 검증 및 활용성 향상을 위한 방안에 대하여 서술한다.

  • PDF

신뢰성 빅데이터 플렛폼의 연구 (Study of Trust Bigdata Platform)

  • 김정준;곽광진;이돈희;이용수
    • 한국인터넷방송통신학회논문지
    • /
    • 제16권6호
    • /
    • pp.225-230
    • /
    • 2016
  • 최근 네트워크와 인터넷의 발전으로 웹상에 대용량의 데이터가 생겨났으며, 이를 처리하기 위해 빅데이터 기술이라는 패러다임이 생겨났다. 빅데이터 기술은 기존의 정형 데이터뿐만 아니라 소셜 데이터 등 다양한 비정형 데이터를 이용해 다각적이고 정확한 분석을 목표로 연구되고 있다. 그러나 소셜 데이터는 전문성과 객관성을 가지고 있다고 보기는 힘들고 정보의 조작 및 은폐, 왜곡 등의 문제성이 제기되고 있다. 따라서, 본 논문에서는 신뢰성 빅데이터 플랫폼에 대하여 제안하며, 세부 관리자와 모듈에 대하여 설명한다. 본 논문에서 제안하는 신뢰성 빅데이터 플랫폼은 데이터 정제 관리자, 데이터 분석 관리자, 상호 신뢰 관리자, 시각화 관리자, 검색 관리자로 구성되어진다.