• 제목/요약/키워드: HDFs

검색결과 151건 처리시간 0.032초

Hadoop에서 SQL 기반 질의언어를 지원하는 공간 빅데이터 질의처리 시스템 (Spatial Big Data Query Processing System Supporting SQL-based Query Language in Hadoop)

  • 주인학
    • 한국정보전자통신기술학회논문지
    • /
    • 제10권1호
    • /
    • pp.1-8
    • /
    • 2017
  • 본 논문에서는 Hadoop에 공간 데이터를 저장하고 SQL 기반 질의언어에 의하여 공간 데이터를 질의할 수 있는 공간 빅데이터 질의처리 시스템을 제시한다. 제안한 시스템은 대용량의 공간 빅데이터를 HDFS 기반의 저장 시스템에 저장하고 공간 데이터 처리기능이 추가확장된 SQL 기반 질의언어로 질의를 할 수 있도록 지원하며 OGC 심플 피처모델 기반의 공간 데이터 표준 데이터타입과 함수를 지원한다. 본 논문에서는 질의언어 파싱, 질의언어 검증, 질의계획 생성, 저장시스템 연동 등 질의처리의 주요 기능 개발을 제시하였다. 제안한 시스템의 성능을 기존 시스템과 비교하였으며, 실험에서는 Hadoop에 저장된 공간 데이터에 대한 영역질의의 질의실행시간에 있어서 비교 시스템 대비 약 58%의 성능향상을 나타냄을 보였다.

전자조달공고 분석지원 시스템 개발 (Development of Procurement Announcement Analysis Support System)

  • 임일권;박동준;조한진
    • 한국융합학회논문지
    • /
    • 제9권8호
    • /
    • pp.53-60
    • /
    • 2018
  • 국내 공공전자조달은 국내외에 우수성을 인정받고 있다. 하지만 수요기관이 발주 시 조달업체가 관련 공고를 일일이 확인하거나, 전체 조달공고현황을 한눈에 파악하기에는 어려움이 있다. 그에 따라 본 논문에서는 효과적인 전자조달시스템의 활용을 위해 빅데이터 기술인 HDFS와 아파치 스파크 기술, 협업필터링 기술을 이용하여, 조달공고 추천서비스와 조달공고 계약 트렌드 분석 서비스 구현을 통한 전자조달공고 분석지원 시스템을 개발하였다. 조달공고 추천서비스는 조달업체의 특성과 성격에 맞는 공고를 추천함에 따라 조달업체가 일일이 공고를 검색하는 수고를 덜어 줄 수 있으며, 조달 공고 계약 트렌드 분석 서비스는 조달 공고/계약 정보를 시각화하여 조달업체와 수요기관에게 전자조달의 분석정보를 한눈에 확인할 수 있도록 구현하였다.

HDFS에서 소형 파일의 효율적인 접근을 위한 분산 캐시 관리 기법 (A Distributed Cache Management Scheme for Efficient Accesses of Small Files in HDFS)

  • 오현교;김기연;황재민;박준호;임종태;복경수;유재수
    • 한국콘텐츠학회논문지
    • /
    • 제14권11호
    • /
    • pp.28-38
    • /
    • 2014
  • 본 논문에서는 소형 파일을 효율적으로 접근하기 위한 분산 캐시 관리 기법을 제안한다. 제안하는 기법은 다수의 소형 파일을 병합하여 청크에 저장함으로써, 네임 노드에서 관리해야 할 메타데이터 수를 감소시킨다. 또한, 클라이언트와 데이터 노드의 캐시를 사용하여 요청된 파일들의 정보를 유지함으로써 소형 파일 접근 비용을 줄인다. 이때, 클라이언트의 캐시에는 사용자가 요청한 소형 파일과 메타데이터가 유지되며, 각 데이터 노드의 캐시에는 여러 사용자들이 빈번하게 요청했던 소형 파일을 유지한다. 성능 평가를 통해 제안하는 분산 캐시 관리 기법이 기존 기법에 비해 소형 파일 접근 비용을 크게 감소시킴을 보인다.

클라우드 스토리지 시스템에서 데이터 접근빈도와 Erasure Codes를 이용한 데이터 복제 기법 (Data Access Frequency based Data Replication Method using Erasure Codes in Cloud Storage System)

  • 김주경;김덕환
    • 전자공학회논문지
    • /
    • 제51권2호
    • /
    • pp.85-91
    • /
    • 2014
  • 클라우드 스토리지 시스템은 데이터의 저장과 관리를 위해서 분산 파일시스템을 사용한다. 기존 분산 파일시스템은 데이터 디스크의 손실 발생시 이를 복구하기 위해서 3개의 복제본을 만든다. 그러나 데이터 복제 기법은 저장공간을 원본 파일의 복제 횟수만큼 필요로하고 복제과정에서 입출력 발생이 증가하는 문제가 있다. 본 논문에서는 SSD 기반 클라우드 스토리지 시스템에서 저장공간 효율성 향상과 입출력 성능 향상을 위하여 Erasure Codes를 이용한 데이터 복제 기법을 제안한다. 특히, 데이터 접근 빈도에 따라 복제 횟수를 줄이더라도 Erasure Codes를 사용하여 데이터 복구 성능을 동일하게 유지하였다. 실험 결과 제안한 기법이 HDFS 보다 저장공간 효율성은 최대 약40% 향상되었으며, 읽기성능은 약11%, 쓰기성능은 약10% 향상됨을 확인하였다.

농업 빅데이터 수집 및 분석을 위한 플랫폼 설계 (Design of a Platform for Collecting and Analyzing Agricultural Big Data)

  • 뉘엔 반 퀴엣;뉘엔 신 녹;김경백
    • 디지털콘텐츠학회 논문지
    • /
    • 제18권1호
    • /
    • pp.149-158
    • /
    • 2017
  • 빅데이터는 경제개발에서 흥미로운 기회와 도전을 보여왔다. 예를 들어, 농업 분야에서 날씨 데이터 및 토양데이터와 같은 복합데이터의 조합과 이들의 분석 결과는 농업종사자 및 농업경영체들에게 귀중하고 도움되는 정보를 제공한다. 그러나 농업 데이터는 센서들과 농업 웹 마켓 등의 다양한 형태의 장치 및 서비스들을 통해 매 분마다 대규모로 생성된다. 이는 데이터 수집, 저장, 분석과 같은 빅데이터 이슈들을 발생시킨다. 비록 몇몇 시스템들이 이 문제를 해결하기 위해 제안되었으나, 이들은 다루는 데이터 종류의 제약, 저장 방식의 제약, 데이터 크기의 제약 등의 문제를 여전히 가지고 있다. 이 논문에서는 농업데이터의 수집과 분석 플랫폼의 새로운 설계를 제안한다. 제안하는 플랫폼은 (1) Flume과 MapReduce를 이용한 다양한 데이터 소스들로부터의 데이터 수집 방법, (2) HDFS, HBase, 그리고 Hive를 이용한 다양한 데이터 저장 방법, (3) Spark와 Hadoop을 이용한 빅데이터 분석 모듈들을 제공한다.

하둡 플랫폼을 이용한 대량의 스몰파일 처리방법 (Processing Method of Mass Small File Using Hadoop Platform)

  • 김창복;정재필
    • 한국항행학회논문지
    • /
    • 제18권4호
    • /
    • pp.401-408
    • /
    • 2014
  • 하둡(Hadoop)은 맵리듀스(MapReduce) 분산처리 프로그래밍 모델과 HDFS(Hadoop distributed file system) 분산 파일시스템으로 구성된다. 하둡은 빅데이터 처리에 적합한 프레임워크로서, 대량의 스몰파일 처리에 문제점이 있다. 하둡에서 대량의 스몰파일 처리는 하나의 파일마다 매퍼가 생성되며, 파일의 메타정보를 저장하기 위해 많은 메모리가 필요한 문제점이 있다. 본 논문은 하둡 플랫폼에서 다양한 방법으로 대량의 스몰파일 처리방법을 비교 검토하였다. 일반 압축은 데이터의 크기와 상관없이 하나의 매퍼로 처리해야 하기 때문에, 하둡 처리 포맷으로 적절하지 않다. 시퀀스 와 하둡 아카이브 파일의 처리는 스몰파일을 압축 및 병합을 통해 네임노드의 메모리 문제가 제거되었다. 하둡 아카이브 파일은 스몰파일의 병합시간이 시퀀스 파일보다 빠른 속도를 보였다. CombineFileInputFormat 클래스를 이용한 처리는 병합과정이 필요 없으며, 빅데이터 처리방법과 유사한 속도를 보였다.

우리나라 HD-FSS 주파수 분배에 대비한 40GHz 지상망과의 간섭영향 분석 (Analysis on sharing between terrestrial FS and FSS of 40GHz bands, related with HDFSS identification)

  • 이일용;성향숙
    • 한국통신학회논문지
    • /
    • 제29권2A호
    • /
    • pp.181-186
    • /
    • 2004
  • 2003년 세계전파통신회의(WRC-2003)에서 지상망과 고밀도 고정위성업무(HDFSS:High-Density fixed satellite service)의 주파수 공유 및 HDFSS용 하향링크 후보대역 선정문제로 이슈화된 40 ㎓ 대역에서 정지위성망과 지상망간 주파수 공유에 따른 간섭 영향을 우리나라에서 운용하는 것으로 설정해 분석하였다. 40 ㎓ 대역 정지위성망과 지상망의 전형적인 특성 파라미터를 이용하여 시뮬레이션한 결과, 우리나라 지상 고정업무 무선국의 안테나가 같은 40 ㎓ 대역을 공유하는 정지위성을 향할 경우, 40 ㎓ 지상망의 운용특성들이 맞물려. 간섭을 받을 수 있는 최악의 특정 조건이 이루어질 수 있음을 보았다. 이러한 상황은 고층건물이 밀집된 지역에 지상망을 설치할 때 발생할 수 있으므로. 향후 40 ㎓ 대역의 고밀도 지상고정업무(HDFS :High-Density fixed service) 무선국들이 설치될 때, 정지궤도 지향을 피하는 간섭경감기법이 강구되어야 할 것으로 보인다.

Improvement of the Biocompatibility of Chitosan Dermal Scaffold by Rigorous Dry Heat Treatment

  • Kim, Chun-Ho;Park, Hyun-Sook;Gin, Yong-Jae;Son, Young-Sook;Lim, Sae-Hwan;Park, Young-Ju;Park, Ki-Sook;Park, Chan-Woong
    • Macromolecular Research
    • /
    • 제12권4호
    • /
    • pp.367-373
    • /
    • 2004
  • We have developed a rigorous heat treatment method to improve the biocompatibility of chitosan as a tissue-engineered scaffold. The chitosan scaffold was prepared by the controlled freezing and lyophilizing method using dilute acetic acid and then it was heat-treated at 110$^{\circ}C$ in vacuo for 1-3 days. To explore changes in the physicochemical properties of the heat-treated scaffold, we analyzed the degree of deacetylation by colloid titration with poly(vinyl potassium sulfate) and the structural changes were analyzed by scanning electron microscopy, Fourier transform infrared (FT-IR) spectroscopy, wide-angle X-ray diffractometry (WAXD), and lysozyme susceptibility. The degree of deacetylation of chitosan scaffolds decreased significantly from 85 to 30% as the heat treatment time increased. FT-IR spectroscopic and WAXD data indicated the formation of amide bonds between the amino groups of chitosan and acetic acids carbonyl group, and of interchain hydrogen bonding between the carbonyl groups in the C-6 residues of chitosan and the N-acetyl groups. Our rigorous heat treatment method causes the scaffold to become more susceptible to lysozyme treatment. We performed further examinations of the changes in the biocompatibility of the chitosan scaffold after rigorous heat treatment by measuring the initial cell binding capacity and cell growth rate. Human dermal fibroblasts (HDFs) adhere and spread more effectively to the heat-treated chitosan than to the untreated sample. When the cell growth of the HDFs on the film or the scaffold was analyzed by an MTT assay, we found that rigorous heat treatment stimulated cell growth by 1.5∼1.95-fold relative to that of the untreated chitosan. We conclude that the rigorous dry heat treatment process increases the biocompatibility of the chitosan scaffold by decreasing the degree of deacetylation and by increasing cell attachment and growth.

클라우드 컴퓨팅에서 Hadoop 애플리케이션 특성에 따른 성능 분석 (A Performance Analysis Based on Hadoop Application's Characteristics in Cloud Computing)

  • 금태훈;이원주;전창호
    • 한국컴퓨터정보학회논문지
    • /
    • 제15권5호
    • /
    • pp.49-56
    • /
    • 2010
  • 본 논문에서는 클라우드 컴퓨팅을 위해 Hadoop 기반의 클러스터를 구축하고, RandomTextWriter, WordCount, PI 애플리케이션을 수행함으로써 애플리케이션 특성에 따른 클러스터의 성능을 평가한다. RandomTextWriter는 주어진 용량만큼 임의의 단어를 생성하여 HDFS에 저장하는 애플리케이션이고, WordCount는 입력 파일을 읽어서 블록 단위로 단어 빈도수를 계산하는 애플리케이션이다. 그리고 PI는 몬테카를로법을 사용하여 PI 값을 유도하는 애플리케이션이다. 이러한 애플리케이션을 실행시키면서 데이터 블록 크기와 데이터 복제본 수 증가에 따른 애플리케이션의 수행시간을 측정한다. 시뮬레이션을 통하여 RandomTextWriter 애플리케이션은 데이터 복제본 수 증가에 비례하여 수행시간이 증가함을 알 수 있었다. 반면에 WordCount와 PI 애플리케이션은 데이터 복제본 수에 큰 영향을 받지 않았다. 또한 WordCount 애플리케이션은 블록 크기가 64~256MB 일 때 최적의 수행시간을 얻을 수있었다. 따라서 이러한 애플리케이션의 특성을 고려한 스케줄링 정책을 개발한다면 애플리케이션의 실행시간을 단축하여 클라우드 컴퓨팅 시스템의 성능을 향상시킬 수 있음을 보인다.

Apache Kudu와 Impala를 활용한 Lambda Architecture 설계 (Lambda Architecture Used Apache Kudu and Impala)

  • 황윤영;이필원;신용태
    • 정보처리학회논문지:컴퓨터 및 통신 시스템
    • /
    • 제9권9호
    • /
    • pp.207-212
    • /
    • 2020
  • 데이터의 양은 기술의 발전으로 크게 증가하였고 이를 처리하기 위해 다양한 빅데이터 처리 플랫폼이 등장하고 있다. 이 중 가장 널리 사용되고 있는 플랫폼이 Apache 소프트웨어 재단에서 개발한 하둡이며, 하둡은 IoT 분야에도 사용된다. 그러나 기존에 하둡 기반 IoT 센서 데이터 수집 분석 환경은 하둡의 코어 프로젝트인 HDFS의 Small File로 인한 네임노드의 과부하 문제와 임포트된 데이터의 업데이트나 삭제가 불가능하다는 문제가 있다. 본 논문에서는 Apache Kudu와 Impala를 활용해 Lambda Architecture를 설계한다. 제안하는 구조는 IoT 센서 데이터를 Cold-Data와 Hot-Data로 분류해 각 성격에 맞는 스토리지에 저장하고 배치를 통해 생성된 배치뷰와 Apache Kudu와 Impala를 통해 생성된 실시간뷰를 활용해 기존 하둡 기반 IoT 센서 데이터 수집 분석 환경의 문제를 해결하고 사용자가 분석된 데이터에 접근하는 시간을 단축한다.