• Title/Summary/Keyword: 단위처리량

Search Result 569, Processing Time 0.038 seconds

A Study on Normalization of Oursourced Storage Auditing Scheme (외부 스토리지 무결성 검증 기법 일반화에 대한 연구)

  • Eun, Hasoo;Oh, Heekuck
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2013.11a
    • /
    • pp.882-885
    • /
    • 2013
  • 외부 스토리지 무결성 검증 기법이란, 외부에 저장된 사용자의 데이터가 손상되었는지 확인하는 기법으로써 2004년 Deswarte 등이 제안한 이래 꾸준히 연구되어왔다. 하지만, 대부분의 기법들이 준동형 해쉬를 이용한 기법으로서 데이터를 지수에 두고 연산을 하고 있다. 따라서 데이터의 크기가 커질수록 검증에 필요한 연산량이 늘게 된다. 이를 줄이기 위한 기법으로서 데이터를 블록단위로, 블록을 조각 단위로 나누어 연산 후, 결합하여 최종 증거를 생성하는 기법들이 제안되고 있다. 본 논문은 이들 기법을 일반화하고 정리해봄으로써 향후 외부 스토리지 검증기법의 연구 방향을 제시하는 것을 목표로 하고 있다. 이를 위해 본 논문에서는 외부 스토리지 무결성 기법의 일반화 모델을 세우고, 이를 이용해 최근에 제안된 Wang 등의 기법을 일반화하였다. 일반화된 Wang 등의 기법을 토대로 개선되어야 할 점을 분석하고, 향후 연구의 방향을 정리해본다.

Korean Morphological Analysis and Part-Of-Speech Tagging with LSTM-CRF based on BERT (BERT기반 LSTM-CRF 모델을 이용한 한국어 형태소 분석 및 품사 태깅)

  • Park, Cheoneum;Lee, Changki;Kim, Hyunki
    • Annual Conference on Human and Language Technology
    • /
    • 2019.10a
    • /
    • pp.34-36
    • /
    • 2019
  • 기존 딥 러닝을 이용한 형태소 분석 및 품사 태깅(Part-Of-Speech tagging)은 feed-forward neural network에 CRF를 결합하는 방법이나 sequence-to-sequence 모델을 이용한 방법 등의 다양한 모델들이 연구되었다. 본 논문에서는 한국어 형태소 분석 및 품사 태깅을 수행하기 위하여 최근 자연어처리 태스크에서 많은 성능 향상을 보이고 있는 BERT를 기반으로 한 음절 단위 LSTM-CRF 모델을 제안한다. BERT는 양방향성을 가진 트랜스포머(transformer) 인코더를 기반으로 언어 모델을 사전 학습한 것이며, 본 논문에서는 한국어 대용량 코퍼스를 어절 단위로 사전 학습한 KorBERT를 사용한다. 실험 결과, 본 논문에서 제안한 모델이 기존 한국어 형태소 분석 및 품사 태깅 연구들 보다 좋은 (세종 코퍼스) F1 98.74%의 성능을 보였다.

  • PDF

Multimedia Data Management System for the Store arid Retrieval of Large-scale Data (대용량 멀티미디어 데이터 저장 및 검색을 위한 데이터 관리 시스템)

  • Bok, Joong-Hyo;Kim, Kwang-Jong;Lee, Yon-Sik
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2000.10a
    • /
    • pp.739-742
    • /
    • 2000
  • 본 논문에서는 객체지향 데이터베이스 시스템을 이용하여 대용량 멀티미디어 데이터를 저장 및 검색하는 멀티미디어 데이터 관리 시스템(Multimedia Data Management System : MDMS)을 설계 구현한다. 따라서, 사용자, 응용 및 데이터베이스 각 계층에 객체지향 설계 방법을 적용시켜 일관된 인터페이스와 다양한 응용 분야의 확장을 유도하고 기존의 파일 단위의 관리 방법과 데이터베이스 저장 관리 방법을 선택 또는 동시 이용 할 수 있도록 하여 관리자 요구 수용의 폭을 넓힌다. 또한, 질의에 대한 효율적인 검색을 위하여 질의 분석기, 객체 질의기, 객체 추출기와 데이터베이스 연산전, 후의 데이터 일관성 유지를 위한 객체 관리기를 구현한다. 향후에는 제안된 시스템을 기반으로 내용 기반 질의 처리 및 웹 연동 통합 관리 시스템의 개발이 요구된다.

  • PDF

A Study on Optimizing Design for HD-NPS based Information Technology (IT 기반 HD 급 NPS(Network Production System) 설계 및 최적화 방안 연구)

  • Noh-sik Sohn
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2008.11a
    • /
    • pp.121-124
    • /
    • 2008
  • 2000 년대 들어 방송통신융합의 흐름에 따라 등장한 IT 기반의 Non Linear 제작공정은 2005 년까지 IMX-50, DV25/50 포맷 등 50Mbps 급 이하의 동영상 Data 를 중심으로 영상 콘텐츠 제작을 위해 부분적인 프로그램 장르에 국한하여 구축, 운용되어 왔다. 최근 초고속 네트워크를 통해 대용량의 고해상도 영상데이터를 안정적으로 수용 처리하는, 상대적으로 저렴하면서 효과적인 기능을 보유한 컴퓨터 기술 기반 단위 Application 들이 등장함에 따라 고해상도 프로그램 제작을 지향하는 Contents 생산기지들을 중심으로 IT 기반 제작공정으로의 전환과 차세대 제작시스템으로 HD 급 NPS 구축 필요성이 대두되었다. 본 논문에서는 IT 기반의 방송 시스템 구축의 단초로서 최초로 HD 급 대용량 구축모델의 프로토 타입을 설계하고 발전 로드맵을 분석, 최적화를 위한 방안을 제시한다.

A Study on Solutions for TCP Incast Problem (TCP Incast 문제 해결방안에 관한 연구)

  • Um, Jin-Yeong;Seok, Min-Su;Choi, Tae-Hwan;Ahn, Jong-Suk
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2016.04a
    • /
    • pp.64-66
    • /
    • 2016
  • 대규모 데이터 센터는 클라우드 컴퓨팅을 가능하게 하고, 빅데이터 처리를 위해 널리 쓰이는 HDFS 혹은 MapReduce, Dryad와 같은 프레임워크는 분산 처리 환경에서 운영하는 것을 기반으로 설계되어 있어 일대일이 아닌 다대일 통신이 빈번히 발생한다. TCP Incast 문제는 다대일 통신에서 발생하는 문제로 단일 상위 서버에서 다수의 하위 서버로 일을 요청할 때, 요청된 결과가 단일 상위 서버로 동시에 응답할 때 발생한다. 기존의 분산 처리 환경에서는 작은 데이터를 처리하기 때문에 단일 상위 서버에서의 데이터 처리 부담이 적었다. 하지만 빅데이터를 처리하는 분산 처리 환경에서는 블록 단위의 큰 데이터를 처리하므로 데이터 처리 시간에 민감한 메시지 데이터에서 지연이 발생할 수 있다. 본 논문에서는 급격한 처리량 붕괴를 일으킬 수 있는 TCP Incast 문제 완화 알고리즘에 대하여 기술한다.

Real time Storage Manager to store very large datausing block transaction (블록 단위 트랜잭션을 이용한 대용량 데이터의 실시간 저장관리기)

  • Baek, Sung-Ha;Lee, Dong-Wook;Eo, Sang-Hun;Chung, Warn-Ill;Kim, Gyoung-Bae;Oh, Young-Hwan;Bae, Hae-Young
    • Journal of Korea Spatial Information System Society
    • /
    • v.10 no.2
    • /
    • pp.1-12
    • /
    • 2008
  • Automatic semiconductor manufacture system generating transaction from 50,000 to 500,000 per a second needs storage management system processing very large data at once. A lot of storage management systems are researched for storing very large data. Existing storage management system is typical DBMS on a disk. It is difficult that the DBMS on a disk processes the 500,000 number of insert transaction per a second. So, the DBMS on main memory appeared to use memory. But it is difficultthat very large data stores into the DBMS on a memory because of limited amount of memory. In this paper we propose storage management system using insert transaction of a block unit that can process insert transaction over 50,000 and store data on low storage cost. A transaction of a block unit can decrease cost for a log and index per each tuple as transforming a transaction of a tuple unit to a block unit. Besides, the proposed system come cost to decompress all block of data because the information of each field be loss. To solve the problems, the proposed system generates the index of each compressed block to prevent reducing speed for searching. The proposed system can store very large data generated in semiconductor system and reduce storage cost.

  • PDF

Study on the Operation and Improvement of Excretory Treatment Facilities: Focusing on the case of Seoul City (분뇨처리시설 운영 및 개선 연구: 서울시를 중심으로)

  • Lee, Jang-Hown;Shin, Hyun-Gon
    • Journal of the Korea Organic Resources Recycling Association
    • /
    • v.30 no.4
    • /
    • pp.123-130
    • /
    • 2022
  • This study was conducted to prepare a plan for the operation and improvement of excretory treatment facilities in Seoul, where the amount of excrement is expected to continue to increase due to the increase in the installation of septic tanks, a private sewage treatment facility. As a result, there are problems due to the lack of treatment capacity and increase in the amount brought in. To improve this, it is necessary to expand the overall excretory treatment facility, adjust the area of some facilities, reduce the amount of excrement through the realization of excretory units, and reduce the amount of excrement due to the change of the type of sewage treatment facility.

Storage Manager Considering Spatial Data Characteristics (공간 데이터의 특성을 고려한 저장 관리자)

  • 김종훈;정현민;장성인;정미영
    • Journal of Korea Multimedia Society
    • /
    • v.4 no.6
    • /
    • pp.477-488
    • /
    • 2001
  • As total system performance depends on spatial dta management in spatial database system, low cost method is required. However, spatial data have many characters that are different from multimedia data, data size is almost similar by layer and variable from few bytes to tera bytes. So large data manager of EXODUS and Starburst and BLOB etc, make problems that is many Disk I/O and Disk space waste. This paper proposes new storage method for spatial data considering spatial dta characteristics.

  • PDF

단위근(單位根)과 공적분(共積分)의 경제학적(經濟學的) 의미(意味)와 그 검정법(檢定法)에 대한 개요(槪要)

  • Choe, Beom-Su
    • KDI Journal of Economic Policy
    • /
    • v.11 no.2
    • /
    • pp.119-141
    • /
    • 1989
  • 최근에 거시계량경제학(巨視計量經濟學)의 실증분석(實證分析)은 불안정적(不安定的) 시계열(時系列)(non-stationary time series)에 대한 인식과 그 통계적(統計的) 처리기법(處理技法)에 있어서 현저한 진전을 보였다. 주요한 거시경제변수(巨視經濟變數)들이 단위근(單位根)(unit root)을 가지기 때문에 계량경제학(計量經濟學)의 방법론(方法論) 단순적용할 수 없다는 주장이 대두되고 있는 한편 이러한 문제점을 극복하는 동시에 변수 상호간 장기균형관계(長期均衡關係)를 설명할 수 있는 공적분(共積分)(cointegration)이론(理論)이 개발되어 경제학(經濟學) 여러 분야에서 응용되고 있다. 본(本) 연구(硏究)에서는 단위근(單位根)과 공적분(共積分)의 개념과 그 통계학적(統計學的) 및 경제학적(經濟學的) 의미를 설명하고 여태까지 개발된 검정통계량(檢定統計量) 중 비교적 우수하다고 평가되는 몇가지의 검정력(檢定力)을 비교평가(比較評價)함으로써 이들을 이용한 실증분석(實證分析)의 지침을 제공하고자 하였다.

  • PDF

Chunking Annotation Corpus Construction for Keyword Extraction in News Domain (뉴스 기사 키워드 추출을 위한 구묶음 주석 말뭉치 구축)

  • Kim, Tae-Young;Kim, Jeong Ah;Kim, Bo Hui;Oh, Hyo Jung
    • Annual Conference on Human and Language Technology
    • /
    • 2020.10a
    • /
    • pp.595-597
    • /
    • 2020
  • 빅데이터 시대에서 대용량 문서의 의미를 자동으로 파악하기 위해서는 문서 내에서 주제 및 내용을 포괄하는 핵심 단어가 키워드 단위로 추출되어야 한다. 문서에서 키워드가 될 수 있는 단위는 복합명사를 포함한 단어가 될 수도, 그 이상의 묶음이 될 수도 있다. 한국어는 언어적 특성상 구묶음 개념이 적용되는 데, 이를 통해 주요 키워드가 될 수 있는 말덩이 추출이 가능하다. 따라서 본 연구에서는 문서에서 단어뿐만 아니라 다양한 단위의 키워드 묶음을 태깅하는 가이드라인 정의를 비롯해 태깅도구를 활용한 코퍼스 구축 방법론을 고도화하고, 그 방법론을 실제로 뉴스 도메인에 적용하여 주석 말뭉치를 구축함으로써 검증하였다. 본 연구의 결과물은 텍스트 문서의 내용을 파악하고 분석이 필요한 모든 텍스트마이닝 관련 기술의 기초 작업으로 활용 가능하다.

  • PDF