• 제목/요약/키워드: data dictionary

검색결과 346건 처리시간 0.021초

선인출 기반의 모바일 사전 (A Mobile Dictionary based on a Prefetching Method)

  • 홍순정;문양세;김혜숙;김진호;정영준
    • 한국정보과학회논문지:소프트웨어및응용
    • /
    • 제35권3호
    • /
    • pp.197-206
    • /
    • 2008
  • 모바일 인터넷 환경에서는 학습 내용을 검색 및 다운로드하기 위하여 모바일 기기와 서버 사이에 잦은 통신이 필요하다. 본 논문에서는 모바일 사전을 사용함에 있어서, 네트워크 비용을 절감하고 통신 효율을 높이기 위한 효율적인 선인출 기법을 제안한다. 이를 위해 본 논문에서는 다음 방법으로 연구를 전개한다. 첫째, 모바일 사전을 위한 선인출 기반의 동작 프레임워크를 제안한다. 둘째, 패킷 요금 방식과 정액 요금 방식으로 구분하여 선인출할 데이타의 양을 결정하는 방법을 제시한다. 셋째, 중 고등학생 대상의 모바일 영한사전에 초점을 맞춘 선인출 데이타 결정 방법을 제안한다. 넷째, 이러한 데이타 양 및 데이타 종류 결정 방법을 바탕으로 선인출 알고리즘을 제안한다. 다섯째, 실험을 통하여 제안한 선인출 방법의 우수성을 입증한다. 이 같은 연구에 따른 본 논문의 공헌은 다음과 같이 요약할 수 있다. 첫째, 선인출을 모바일 응용에 적용한 첫 번째 시도로서 의미를 갖는다. 둘째, 선인출을 모바일 사전에 적용하기 위한 체계적인 방법론을 제시하였다. 셋째, 선인출 적용을 통해 네트워크 기반 모바일 사전의 성능 향상을 도모하였다. 실제 실험 결과, 제안한 방법은 기존의 요구인출에 평균 $9.8%{\sim}33.2%$의 높은 성능 향상을 나타냈다. 이 같은 결과를 볼 때, 본 논문의 연구 결과는 모바일 사전뿐 아니라 선인출 기능을 필요로 하는 무선 인터넷 기반의 여러 응용에 적용될 수 있는 우수한 연구 결과라 사료된다.

불용어 시소러스를 이용한 비정형 텍스트 데이터 후처리 방법론에 관한 연구 (A Study on Unstructured text data Post-processing Methodology using Stopword Thesaurus)

  • 이원조
    • 문화기술의 융합
    • /
    • 제9권6호
    • /
    • pp.935-940
    • /
    • 2023
  • 인공지능과 빅데이터 분석을 위해 웹 스크래핑으로 수집된 대부분의 텍스트 데이터들은 일반적으로 대용량이고 비정형이기 때문에 빅데이터 분석을 위해서는 정제과정이 요구된다. 그 과정은 휴리스틱 전처리 정제단계와 후처리 머시인 정제단계를 통해서 분석이 가능한 정형 데이터가 된다. 따라서 본 연구에서는 후처리 머시인 정제과정에서 한국어 딕셔너리와 불용어 딕셔너리를 이용하여 워드크라우드 분석을 위한 빈도분석을 위해 어휘들을 추출하게 되는데 이 과정에서 제거되지 않은 불용어를 효율적으로 제거하기 위한 "사용자 정의 불용어 시소러스" 적용에 대한 방법론을 제안하고 R의 워드클라우드 기법으로 기존의 "불용어 딕셔너리" 방법의 문제점을 보완하기 위해 제안된 "사용자 정의 불용어 시소러스" 기법을 이용한 사례분석을 통해서 제안된 정제방법의 장단점을 비교 검증하여 제시하고 제안된 방법론의 실무적용에 대한 효용성을 제안한다.

사단업무 MIS를 위한 전산화 방안

  • 배태철
    • 한국국방경영분석학회지
    • /
    • 제10권2호
    • /
    • pp.15-32
    • /
    • 1984
  • This thesis is to investigate the general characteristics of MIS and provides a definite data base for computerization of the division operations based on the analysis and design of personnel business. Therefore, through the analysis of DFD (Data Flow Diagram), DD (Data Dictionary) and SD (System Dictionary), for designing of system, and the analysis of the requirement information, the relationships of business and the process of operations, for the current status analysis of division business, the computerized alternatives corresponding to a choice of a piece of information system were decided. The priority of a developing operations was also determined. A point of view is not so much the study about the division operations so far. This paper will be very helpful and will be achieved through the computerization of MIS.

  • PDF

데이터 사전 관리를 통한 프로젝트 관리 기법 (Project Management Methodology using Managing Data Dictionary)

  • 이병엽;박용훈;유재수
    • 한국콘텐츠학회논문지
    • /
    • 제9권3호
    • /
    • pp.72-80
    • /
    • 2009
  • 기업은 비즈니스 프로세스 조정 또는 기업의 전략적 목적을 달성하기 위하여 정보 기술을 도입하고 있다. 또한 데이터 일관성에 대한 요구에 대해서는, 소프트웨어 개발에 적용되어 표준화 규율을 채택하여 이를 따르는 소프트웨어 개발 회사들이 늘어나고 있다. 이는 사용자들의 요구일 뿐만 아니라 이러한 규율을 채택함으로써 적은 비용으로 더 나은 결과물을 얻을 수 있기 때문이다. 프로젝트 관리 도구를 사용한 체계적이고 일관적인 소프트웨어의 개발은 더욱 더 중요한 의미를 가지게 된다. 따라서, 본 논문은 효율적인 데이터 사전관리를 통하여 효과적으로 시스템 구축 지원을 할 수 있는 프로젝트 관리 기법에 대하여 기술한다.

Cloud Storage Security Deduplication Scheme Based on Dynamic Bloom Filter

  • Yan, Xi-ai;Shi, Wei-qi;Tian, Hua
    • Journal of Information Processing Systems
    • /
    • 제15권6호
    • /
    • pp.1265-1276
    • /
    • 2019
  • Data deduplication is a common method to improve cloud storage efficiency and save network communication bandwidth, but it also brings a series of problems such as privacy disclosure and dictionary attacks. This paper proposes a secure deduplication scheme for cloud storage based on Bloom filter, and dynamically extends the standard Bloom filter. A public dynamic Bloom filter array (PDBFA) is constructed, which improves the efficiency of ownership proof, realizes the fast detection of duplicate data blocks and reduces the false positive rate of the system. In addition, in the process of file encryption and upload, the convergent key is encrypted twice, which can effectively prevent violent dictionary attacks. The experimental results show that the PDBFA scheme has the characteristics of low computational overhead and low false positive rate.

Construction of Local Data Dictionary in the Field of Nuclear Medicine

  • Hwang, Kyung-Hoon;Lee, Haejun
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2010년도 추계학술발표대회
    • /
    • pp.465-465
    • /
    • 2010
  • A controlled medical vocabulary is a vital component of medical information management because it enables computers to use information meaningfully and different institutions to share the medical data. There are currently many standard medical vocabularies - SNOMED-CT, ICD-10, UMLS, GALEN, MED, etc, but none is universally accepted as an optimal controlled medical vocabulary for application to medical information system. Moreover, it is difficult to settle the well-designed local data dictionary consisting of controlled medical vocabularies for the individual hospital information system (HIS). One of the major reasons is the local terminology with poor contents have been used in the hospital. Thus, as a trial, the local controlled vocabulary referencing system has being constructed in a limited medical field - nuclear medicine. We selected practical nuclear medicine terms from interpretation reports and electronic medical records, and removed ambiguity and redundancy, mapping the selected terms to standard medical vocabularies. Relationship and hierarchy structure between terms have being made, referring to standard medical vocabularies. Further studies may be warranted.

LZSS 알고리즘과 엔트로피 부호를 이용한 사전탐색처리장치를 갖는 부호기/복호기 단일-칩의 VLSI 설계 및 구현 (A VLSI Design and Implementation of a Single-Chip Encoder/Decoder with Dictionary Search Processor(DISP) using LZSS Algorithm and Entropy Coding)

  • 김종섭;조상복
    • 대한전자공학회논문지SD
    • /
    • 제38권2호
    • /
    • pp.103-113
    • /
    • 2001
  • 본 논문은 0.6㎛ CMOS 기술로 LZSS 알고리즘과 엔트로피 부호를 이용한 부호기/복호기 단일-칩의 본 논문은 0.6uul CMOS 기술로 LZSS 알고리즘과 엔트로피 부호를 이용한 부호기/복호기 단일-칩의 VLSI 설계 및 구현에 관하여 기술하였다. 처리 속도 50MHz를 갖는 사전탐색처리장치(DISP)의 메모리는 2K×Bbit 크기를 사용하였다. 이것은 매번 33개 클럭 중 한 개의 클럭은 사전의 WINDOW 배열을 갱신으로 사용하고 나머지 클럭은 주기마다 한 개의 데이터 기호를 바이트 단위로 압축을 실행한다. 결과적으로, LZSS 부호어 출력에 엔트로피 부호를 적용하여 46%의 평균 압축률을 보였다. 이것은 LZSS에 보다 7% 정도의 압축 성능이 향상된 것이다.

  • PDF

위키피디아로부터 한국어-영어 병렬 문장 추출 (Extracting Korean-English Parallel Sentences from Wikipedia)

  • 김성현;양선;고영중
    • 한국정보과학회논문지:소프트웨어및응용
    • /
    • 제41권8호
    • /
    • pp.580-585
    • /
    • 2014
  • 본 연구는 '위키피디아 데이터를 이용한 병렬 문장 추출'이라는 주제에 대해서, 기존에 해외에서 사용되었던 다양한 방법을 한국어 위키피디아 데이터에 실제로 적용해보고 그 결과를 정리하여 보고한다. 실험 방식은 두 가지로 나눌 수 있는데, 첫 번째는 번역 확률을 이용하는 방법으로 세종 병렬 말뭉치 등의 기존 자원으로부터 번역 확률을 추출하여 사용한다. 두 번째는 사전을 이용하는 방법으로, 위키피디아 타이틀로 구성된 위키 사전(Wiki dictionary)을 기본으로 하여, MRD(machine readable dictionary) 정보와 숫자 사전을 추가로 사용한다. 실험 결과, 기존 자원만 이용한 경우보다 위키피디아 데이터를 결합하여 사용한 경우에 매우 큰 폭의 성능 향상을 얻어, 최종적으로 F1-score 57.6%의 우수한 성능을 산출하였다. 또한 토픽 모델(topic model)을 이용한 실험도 추가로 수행하였는데, F1-score 51.6%로 최종 성능 면에서는 낮았지만 비지도 학습 방법이라는 장점을 고려할 때 추가 연구에 대한 여지가 있다고 볼 수 있다.

사전과 말뭉치를 이용한 한국어 단어 중의성 해소 (Korean Word Sense Disambiguation using Dictionary and Corpus)

  • 정한조;박병화
    • 지능정보연구
    • /
    • 제21권1호
    • /
    • pp.1-13
    • /
    • 2015
  • 빅데이터 및 오피니언 마이닝 분야가 대두됨에 따라 정보 검색/추출, 특히 비정형 데이터에서의 정보 검색/추출 기술의 중요성이 나날이 부각되어지고 있다. 또한 정보 검색 분야에서는 이용자의 의도에 맞는 결과를 제공할 수 있는 검색엔진의 성능향상을 위한 다양한 연구들이 진행되고 있다. 이러한 정보 검색/추출 분야에서 자연어처리 기술은 비정형 데이터 분석/처리 분야에서 중요한 기술이고, 자연어처리에 있어서 하나의 단어가 여러개의 모호한 의미를 가질 수 있는 단어 중의성 문제는 자연어처리의 성능을 향상시키기 위해 우선적으로 해결해야하는 문제점들의 하나이다. 본 연구는 단어 중의성 해소 방법에 사용될 수 있는 말뭉치를 많은 시간과 노력이 요구되는 수동적인 방법이 아닌, 사전들의 예제를 활용하여 자동적으로 생성할 수 있는 방법을 소개한다. 즉, 기존의 수동적인 방법으로 의미 태깅된 세종말뭉치에 표준국어대사전의 예제를 자동적으로 태깅하여 결합한 말뭉치를 사용한 단어 중의성 해소 방법을 소개한다. 표준국어대사전에서 단어 중의성 해소의 주요 대상인 전체 명사 (265,655개) 중에 중의성 해소의 대상이 되는 중의어 (29,868개)의 각 센스 (93,522개)와 연관된 속담, 용례 문장 (56,914개)들을 결합 말뭉치에 추가하였다. 품사 및 센스가 같이 태깅된 세종말뭉치의 약 79만개의 문장과 표준국어대사전의 약 5.7만개의 문장을 각각 또는 병합하여 교차검증을 사용하여 실험을 진행하였다. 실험 결과는 결합 말뭉치를 사용하였을 때 정확도와 재현율에 있어서 향상된 결과가 발견되었다. 본 연구의 결과는 인터넷 검색엔진 등의 검색결과의 성능향상과 오피니언 마이닝, 텍스트 마이닝과 관련한 자연어 분석/처리에 있어서 문장의 내용을 보다 명확히 파악하는데 도움을 줄 수 있을 것으로 기대되어진다.

용어 사전의 특성이 문서 분류 정확도에 미치는 영향 연구 (Analyzing the Effect of Characteristics of Dictionary on the Accuracy of Document Classifiers)

  • 정해강;김남규
    • 경영과정보연구
    • /
    • 제37권4호
    • /
    • pp.41-62
    • /
    • 2018
  • 다양한 소셜 미디어 활동과 인터넷 뉴스 기사, 블로그 등을 통해 유통되는 비정형 데이터의 양이 급증함에 따라 비정형 데이터를 분석하고 활용하기 위한 연구가 활발히 진행되고 있다. 텍스트 분석은 주로 특정 도메인 또는 특정 주제에 대해 수행되므로, 도메인별 용어 사전의 구축과 적용에 대한 중요성이 더욱 강조되고 있다. 용어 사전의 품질은 비정형 데이터 분석 결과의 품질에 직접적인 영향을 미치게 되며, 분석 과정에서 정제의 역할을 수행함으로써 분석의 관점을 정의한다는 측면에서 그 중요성이 더욱 강조된다. 이렇듯 용어 사전의 중요성은 기존의 많은 연구에서도 강조되어 왔으나, 용어 사전이 분석 결과의 품질에 어떤 방식으로 어떤 영향을 미치는지에 대한 엄밀한 분석은 충분히 이루어지지 않았다. 따라서 본 연구에서는 전체 문서에서의 용어 빈도수에 기반을 두어 사전을 구축하는 일괄 구축 방식, 카테고리별 주요 용어를 추출하여 통합하는 용어 통합 방식, 그리고 카테고리별 주요 특질(Feature)을 추출하여 통합하는 특질 통합 방식의 세 가지 방식으로 사전을 구축하고 각 사전의 품질을 비교한다. 품질을 간접적으로 평가하기 위해 각 사전을 적용한 문서 분류의 정확도를 비교하고, 각 사전에 고유율의 개념을 도입하여 정확도의 차이가 나타나는 원인을 심층 분석한다. 본 연구의 실험에서는 5개 카테고리의 뉴스 기사 총 39,800건을 분석하였다. 실험 결과를 심층 분석한 결과 문서 분류의 정확도가 높게 나타나는 사전의 고유율이 높게 나타남을 확인하였으며, 이를 통해 사전의 고유율을 높임으로써 분류의 정확도를 더욱 향상시킬 수 있는 가능성을 발견하였다.