• 제목/요약/키워드: 데이터베이스 구조화

검색결과 339건 처리시간 0.032초

Web of Science 데이터학술지 게재 데이터논문의 지적구조 규명 (An Investigation of Intellectual Structure on Data Papers Published in Data Journals in Web of Science)

  • 정은경
    • 정보관리학회지
    • /
    • 제37권1호
    • /
    • pp.153-177
    • /
    • 2020
  • 오픈과학의 흐름에서 데이터 공유와 재이용은 중요한 연구자의 활동이 되어가고 있다. 데이터 공유와 재이용에 관한 여러 논의 중에서 데이터학술지와 데이터논문의 발간이 가시적인 결과를 보여주고 있다. 데이터학술지는 여러 학문 분야에서 발간되고 있으며, 논문의 수도 점차 증가하고 있다. 데이터논문은 데이터 자체와는 다르게 인용을 주고 받는 활동이 포함되어, 따라서 이들이 형성하는 고유한 지적구조가 생겨나게 된다. 본 연구는 데이터학술지와 데이터논문이 학술커뮤니티에서 구성하는 지적구조를 규명하고자 Web of Science에 색인된 14종의 데이터학술지와 6,086건의 데이터논문과 인용된 참고문헌 84,908건을 분석하였다. 저자사항과 함께 동시인용분석과 서지결합분석을 네트워크로 시각화하여 데이터논문이 형성한 세부 주제 분야를 규명하였다. 분석결과, 저자, 저자소속기관, 국가를 추출하여 출현빈도를 살펴보면, 전통적인 학술지 논문과 다른 양상을 보인다. 이러한 결과는 데이터의 생산이 용이한 기관과 국가에 주로 데이터논문을 출간하기 때문이라고 해석될 수 있다. 동시인용분석와 서지결합분석 모두 분석도구, 데이터베이스, 게놈구성 등이 주된 세부 주제 영역으로 나타났다. 동시인용분석결과는 9개의 군집으로 형성되었는데, 특정 주제 분야로 나타난 영역은 수질과 기후 등의 분야이다. 서지결합분석은 총 27개의 컴포넌트로 구성되었는데, 수질, 기후 이 외에도 해양, 대기 등의 세부 주제 영역이 파악되었다. 특기할만한 사항으로는 사회과학 분야의 주제 영역도 나타났다는 점이다.

딥러닝을 PC에 적용하기 위한 메모리 최적화에 관한 연구 (A Study On Memory Optimization for Applying Deep Learning to PC)

  • 이희열;이승호
    • 전기전자학회논문지
    • /
    • 제21권2호
    • /
    • pp.136-141
    • /
    • 2017
  • 본 논문에서는 딥러닝을 PC에 적용하기 위한 메모리 최적화에 관한 알고리즘을 제안한다. 제안된 알고리즘은 일반 PC에서 기존의 딥러닝 구조에서 요구되는 연산처리 과정과 데이터 량을 감소시켜 메모리 및 연산처리 시간을 최소화한다. 본 논문에서 제안하는 알고리즘은 분별력이 있는 랜덤 필터를 이용한 컨볼루션 층 구성 과정, PCA를 이용한 데이터 축소 과정, SVM을 사용한 CNN 구조 생성 등의 3과정으로 이루어진다. 분별력이 있는 랜덤 필터를 이용한 컨볼루션 층 구성 과정에서는 학습과정이 필요치 않아서 전체적인 딥러닝의 학습시간을 단축시킨다. PCA를 이용한 데이터 축소 과정에서는 메모리량과 연산처리량을 감소시킨다. SVM을 사용한 CNN 구조 생성에서는 필요로 하는 메모리량과 연산 처리량의 감소 효과를 극대화 시킨다. 제안된 알고리즘의 성능을 평가하기 위하여 예일 대학교의 Extended Yale B 얼굴 데이터베이스를 사용하여 실험한 결과, 본 논문에서 제안하는 알고리즘이 기존의 CNN 알고리즘과 비교하여 비슷한 성능의 인식률을 보이면서 연산 소요시간과 메모리 점유율에 있어 우수함이 확인되었다. 본 논문에서 제안한 알고리즘을 바탕으로 하여 일반 PC에서도 많은 데이터와 연산처리를 가진 딥러닝 알고리즘을 구현할 수 있으리라 기대된다.

응용시스템 구축을 위한 OLE/COM 기반의 GIS 데이터 제공자 컴포넌트 시스템에 관한 연구 (A Study on OLE/COM-based GIS Data Provider Component Development Toward Application System Development)

  • 김민수;김광수;오병우;이기원
    • Spatial Information Research
    • /
    • 제7권2호
    • /
    • pp.175-190
    • /
    • 1999
  • 최근 GIS 관련 기술이 급속도로 발전되고 안정화됨에 따라 기 구축된 우수한 GIS 기술들의 재사용 문제가 제기되고 있다. 현재 이러한 재사용 문제들은 GIS 모듈의 컴포넌트화와 표준 인터페이스 제정을 기본 방향으로 하는 GIS의 표준화 연구 방향으로 해결책을 모색하고 있다. [1] 현재 GIS 표준화 연구는 초기 단계로서 GIS 하부구조의 표준화, 다시 말하면 범세계적으로 통용될 수 있는 GIS 정보의 표준 하부구조의 구축에 역점을 두고 있다. 이러한 표준화 작업은 국제적인 GIS 선도 업체 위주로 구성된 개방형 GIS 정보의 표준 하부구조의 구축에 역점을 두고 있다. 이러한 표준화작업은 국제적인 GIS 선도 업체 위주로 구성된 개방향 GIS 컨소시엄(OGC : Open GIS Consortium)을 주축으로 하여 국제적인 GIS의 표준모델을 제시하고 있다. 특히 본 연구에서는 개방형 GIs 컨소시엄(OGC ; OpenGIS Consortium)에서 제안한 OLE/COM Simple Feature 구현 사양 1.1을 주축으로 하여 응용 시스템에 표준화된 방식으로 GIS 데이터를 서비스할 수 있는 데이터 제공자(Data Provider) 컴포넌트의 구축에 관한 사항을 종합적으로 살펴보고자 한다. 다양한 데이터베이스 시스템 또는 파일 시스템을 GIS 데이터의 기반으로 하여 표준화된 인터페이스를 제공할 수 있는 데이터 제공자 컴포넌트의 구축 방법, 데이터 제공자 컴포넌트들간의 GIS 데이터의 공유 방법 그리고 응용시스템에서의 데이터 제공자 컴포넌트 이용 방법에 관하여 중점적으로 살펴볼 것이다. 특히 이러한 OGC 사양의 데이터 제공자 컴포넌트를 구현하는 과정에서 야기되는 문제점들을 리스트하고 이의 해결방안에 대하여서도 논의할 것이다. 그리고 본 연구에서는 데이터 제공자 컴포넌트의 설계 및 분석과정을 수행함에 있어서 UML(Univied Modeling Language)을 이용함으로서 향후 타데이터 제공자 컴포넌트 개발을 위한 모델을 제시하고 있다.

  • PDF

도시철도역사 유형과 통행패턴과의 상관관계 분석 (An Analysis on the Correlation between Types of Urban Railway Stations and Users' Travel Patterns)

  • 김황배;오동규;이상화;진상규
    • 대한토목학회논문집
    • /
    • 제34권5호
    • /
    • pp.1553-1558
    • /
    • 2014
  • 도시철도역은 역사의 위치 및 기능에 따라 해당역의 이용객 수, 첨두집중률, 승강장 형태 등이 상이하고 이용행태도 서로 달라 이러한 특성을 고려한 역사 유형 구분이 필요하다. 그러나 현재 도시철도역사 유형은 각 연구의 목적에 따라 분류하고 있으며, 법적 기준 또한 단순히 보통역, 간이역으로 구분하고 있고, 열차유형, 승강장 형태, 설치 형태에 따라 분류하고 있다. 따라서 본 연구에서는 도시철도의 역사 유형을 분류하기 위한 기준을 정립하고, 그 기준에 따라 수도권의 모든 도시철도역사에 대한 전수조사를 수행하며, 이를 데이터베이스화하여 향후 다양한 정책 수립 및 연구개발에 활용하고자 하는 데에 목적이 있다. 본 연구에서는 도시철도역사 조사 자료를 활용하여 다양한 통계적 분석을 통해 역사의 물리적 지리적 특성과 이용자의 통행 패턴간에 서로 상관관계가 있음을 밝혀내었고, 상대적인 통계값을 이용하여 정책수립 및 연구 개발에 반영한다면 향후에 그 활용성이 더욱 클 것으로 기대된다.

동양사상으로 재조명한 GIS (GIS Viewed from Oriental Philosophical Perspective)

  • 김영표
    • Spatial Information Research
    • /
    • 제8권2호
    • /
    • pp.183-189
    • /
    • 2000
  • 동양인의 우주관에 따르면 모든 시스템은 시간·공간·인간이라는 세 요소를 갖출 때 비로소 완전해진다. 이 세 요소를 결합시킬 수 있는 유일한 컴퓨터 기술이 바로 GIS이다. 그러나 현재 활용되는 GIS데이터베이스와 시스템 구조는 대부분 시간요소와 인간요소를 배제한 채 주로 공간 위주의 자료를 관리하고 분석 처리하는 정도에 그치고 있다. 그렇지만 GIS기술은 앞으로 시간·공간·인간의 세 요소 결합체로 발전해 나갈 것임에 틀림없다. 한편 최근 인터넷이 보편화하면서 그 속에 ¨사이버 세계¨라는 새로운 소우주가 생겨나고 있다. 그러나 인터넷만으로는 공간적 개념이 없는 반쪽의 소우주밖에 만들 수 없다. 인터넷과 GIS기술을 합칠 때 비로소 컴퓨터와 정보통신망 속에 우리의 생활공간과 흡수한 ¨사이버 국토공간¨을 건설할 수 있다. 현재 세계 각국은 GIS분야에 엄청난 투자를 하고 있다. 이 같은 속도로 보아 몇 년 자나면 머지않아 ¨사이버 국토공간¨ 개념은 ¨사이버 지구공간¨ 개념으로 발전하여 이동전화기 하나만 가지면 언제, 어디서나 지구촌 곳곳을 탐색할 수 있게 될 것이다. 그렇게 되면 사이버 공간에 Digitiopia 즉 무릉도원을 건설할 수 있게 될 것이다. 이처럼 GIS가 인터넷과 결합하면서 우리에게 새로운 세상을 열어주고 있다.

  • PDF

안드로이드 플랫폼 기반 멀티 터치/상황인지형 융복합 디지털 사이니지 시스템 개발 (Development of Multi-Touch/Context-Aware Convergence Digital Signage System based on Android OS Platform)

  • 남의석
    • 디지털융복합연구
    • /
    • 제13권8호
    • /
    • pp.245-251
    • /
    • 2015
  • 디지털 사이니지 시스템이 윈도우 OS에 장착 된 PC에서 작동 될 경우, 구현 가격이 매우 높다. 이러한 문제점을 해소하고자, 최신 스마트폰에 활용되는 ARM Coretex계열의 멀티코어 프로세서가 탑재된 안드로이드 OS 플랫폼 기반의 저전력 저가격의 디지털 사이니지 시스템과, 원격제어기술을 응용하여 어디서나 광고단말기를 원격제어하고 원격콘텐츠를 관리할 수 있는 융복합형 웹서버 기반의 원격 콘텐츠 관리용 서버프로그램을 개발하였다. 구현된 시스템은 디스플레이를 포함한 일체화된 디지털 사이니지 시스템으로, 저전력 모바일 플랫폼을 최적화한 하드웨어 인터페이스로 설계 구현되었고, 상황정보센서를 이용하여 조도, 온도, 날씨, GPS등의 주변상황 정보를 습득한 서비스 융합형 모델을 구현하는 구조로 설계 구현되었다. 또한 콘텐츠 자동생성 모듈은 컨텐츠 사용자에게 전용 저작 도구와 SMIL 기반의 자동으로 가동되도록 프레임 워크에 의해 규정된 컨텐츠를 제공하고, 사용자 정보 데이터베이스에 저장된 사용자 정보를 참조하여 사용자별 맞춤형 SMIL 컨텐츠를 생성해주는 융복합형 기능이 구현되었다. 개발된 디지털 사이니지 시스템은 기존 윈도우 OS 환경 대비 50% 이상의 소비전력 저감과 16포인트 멀티터치 기능을 구현하였고 상용화를 위한 기본 환경시험성능을 모두 만족하였다.

MPEG-7 기술자를 이용한 TV 골프 프로그램의 이벤트검출 및 요약 (Semantic Event Detection and Summary for TV Golf Program Using MPEG-7 Descriptors)

  • 김천석;이희경;남제호;강경옥;노용만
    • 방송공학회논문지
    • /
    • 제7권2호
    • /
    • pp.96-106
    • /
    • 2002
  • 본 논문에서는 최근 증가하는 TV 골프 경기의 하이라이트 부분을 요약하기 위해 시청자가 관심을 갖는 주요 이벤트를 시각 특징정보들을 이용하여 자동 추출할 수 있는 알고리즘을 제시하였다. 본 알고리즘은 4단계로 구성된다. 첫 번째 단계에서는 입력된 비디오의 샷 (Shot) 및 키 프레임 (Key Frame)을 구하여 데이터베이스화하는 구조를 분석하고, 두 번째 단계에서는 이들 정보를 이용하여 하위 레벨의 특징정보를 추출한다. 세 번째 단계에서는 특징 전보들을 통합하여 샷의 의미를 부여하여, 이벤트 구성 요소들과 정합시킨다. 네 번째 단계에서는 사전에 정의된 추론 규칙과 시간 정보를 이용하여 구성 요소들을 통합하여 이벤트를 결정한다. 본 연구에서는 하위 레벨의 특징 정보를 상호 호환성과 재사용성이 가능하도록 MPEG-7 비주얼 특징 정보를 사용하였다 TV-Anytime의 하이라이트/이벤트 스키마(schema)를 이용하여 검출된 이벤트들로 구성된 요약문을 XML 문서로 작성하였다. 제안 알고리즘의 성능을 검사하기 위해 비디오 자동 요약 시스템과 브라우징을 제작하여 실험하였으며 평균 80%의 검색 율과 정확도를 얻었다.

국내 언론사 보건의료 뉴스의 Linked Open Data 구축 (Linked Open Data Construction for Korean Healthcare News)

  • 장종선;조완섭;이경희
    • 한국빅데이터학회지
    • /
    • 제1권2호
    • /
    • pp.79-89
    • /
    • 2016
  • 언론사들은 링크드 데이터(Linked Data) 기술을 활용하여 누적된 지적자산으로부터 새로운 가치를 찾는 노력을 하고 있다. 최근 들어 세계적인 언론 매체인 BBC에서는 링크드 데이터 모형을 이용해 자사의 뉴스 기사 가치를 지속해서 향상시키고 있다. 국내 인터넷 신문사들도 누적된 기사를 재활용하고, 이들로부터 새로운 가치를 찾아 뉴스 기사의 가치를 지속해서 향상시킬 필요성이 있다. 본 논문에서는 보건의료 관련 뉴스를 대상으로 링크드 데이터를 구축하는 연구를 소개한다. 기사문에서 보건의료와 관련된 개체명을 인식하여 데이터베이스화하고, 이를 공개된 다른 정보들과 연결하며, 구조화하여 링크드 데이터 서비스를 제공한다. 연구의 결과는 무분별하게 쌓여있는 뉴스데이터를 체계적으로 정리하고, 공개된 다른 정보들과 연결함으로써 기존에 발견하지 못했던 새로운 인사이트를 찾는 기회를 제공하고, 뉴스 데이터가 재활용될 수 있는데 기여할 수 있다. 마지막으로 SPARQL 질의 언어를 이용하여 뉴스 데이터를 대화식으로 탐색할 수 있는데 기여할 수 있다.

  • PDF

극대용량 서지 링크드 데이터 구축의 효율성을 위한 RDF 트리플 저장소 접근 최소화에 관한 연구 (Research on Minimizing Access to RDF Triple Store for Efficiency in Constructing Massive Bibliographic Linked Data)

  • 이문호;최성필
    • 한국도서관정보학회지
    • /
    • 제48권3호
    • /
    • pp.233-257
    • /
    • 2017
  • 본 논문에서는 세계 최대 규모의 생의학 분야 서지 데이터베이스인 MEDLINE 전체를 링크드 데이터로 변환 구축하는 효율적인 방안을 제시한다. 이를 위해서 우선 MEDLINE 레코드 구조를 세부적으로 분석하여 적합한 RDF 스키마를 도출하고 각 레코드를 도출된 스키마에 유효한 RDF 파일로 변환하는 과정을 거친다. 본 논문에서는 변환된 레코드 단위의 모든 RDF 파일을 병합하여 이를 단일 RDF 트리플 저장소에 저장할 때 주어 URI 중복 확인 절차를 효율화하는 이중 일괄 등록 방법을 적용한다. 이 방법을 통해서 RDF 파일 단위로 링크드 데이터를 순차적으로 구축하는 방법과 비교했을 때 주어 URI 중복 제거를 위한 RDF 트리플 저장소 접근 횟수가 26,597,850회에서 2,400회로 감소하는 결과를 가져왔다. 따라서 본 연구의 결과는 대용량 서지 레코드 집합을 링크드 데이터로 변환하는 과정에서의 비효율성을 제거하고 신속성과 시의성을 확보할 수 있는 중대한 계기를 제공할 것으로 기대한다.

수집과 빈도 분석을 이용한 인터넷 게시판의 스팸 메시지 차단 방법 (Spam Message Filtering for Internet Communities using Collection and Frequency Analysis)

  • 김태희;강문설
    • 정보처리학회논문지C
    • /
    • 제18C권2호
    • /
    • pp.61-70
    • /
    • 2011
  • 인터넷 환경의 빠른 발전과 함께 널리 사용되고 있는 인터넷 게시판이 기본적인 의사소통 수단으로 정착되고 있으나, 불특정 다수로부터 게시되는 스팸 메시지의 증가로 피해 규모가 날로 증가하고 있다. 현재 스팸 메일을 차단하기 위한 다양한 차단 방법들이 제안되고 있으나 게시판에 자동으로 등록되고 있는 스팸 메시지를 차단하는 방법에 대한 연구는 미미한 실정이다. 본 논문은 인터넷 게시판에 등록되는 스팸 메시지를 수집하여 메시지의 특성과 빈도를 분석하고 차단 규칙을 생성하여 차단하는 단계로 구성된 게시판 스팸 메시지 차단 방법을 제안하였다. 인터넷 게시판의 데이터베이스에 저장되는 모든 메시지를 대상으로 스팸 메시지를 수집하고, 수집한 스팸 메시지를 분석하여 스팸 메시지를 정의할 수 있는 정규화된 규칙을 생성한 후, 이 규칙을 이용하여 등록된 메시지에 대해 스팸 메시지를 검사하여 차단한다. 제안한 방법은 수집되는 스팸 메시지의 정보를 이용하여 다양한 유형의 스팸 메시지를 차단할 수 있으며, 변화하는 스팸 메시지의 형태에 대해서도 유연하게 대처할 수 있는 구조를 가지고 있다.