• 제목/요약/키워드: data block allocation

검색결과 46건 처리시간 0.022초

실시간 재생 서비스를 위한 비트맵 방식의 연속 블록 할당 기법 (A Bitmap-based Continuous Block Allocation Scheme for Realtime Retrieval Service)

  • 박기현
    • 한국멀티미디어학회논문지
    • /
    • 제5권3호
    • /
    • pp.316-322
    • /
    • 2002
  • 본 논문에서는 파일 데이터의 실시간 재생 서비스를 제공하기 위한 UNIX파일 시스템의 연속 블록 할당에 대하여 다루고 있다. 설계된 블록 할당 방식은 사용자가 저장 데이터와 함께 지정한 소비 전송율을 지원할 수 있도록 적절한 디스크 위치에 데이터를 배치하여 실시간 재생 서비스를 지원할 수 있도록 하고 있다. 이를 위하여 데이터 전송율에 영향을 미치는 요소 중에서 가변적인 특성인 연속 블록 수와 저장 데이터들의 실린더 간격과의 관계를 분석하여 특정 실린더 간격 별로 연속 블록을 저장하는 방식을 채택하였다. UNIX시스템의 블록 할당 방식은 임의의 실린더 위치에서 연속 블록을 찾는 것이 비효율적 이기 때문에 새로운 형태의 비트맵 방식의 유휴 블록 기법을 사용하였다. 비트맵 방식의 블록 관리 기법은 파일 시스템 블록들을 비트 단위로 사용/비사용 여부를 표시하여 임의의 실린더 위치에 존재하는 블록이 사용 가능한지를 효율적으로 검색할 수 있도록 하였다.

  • PDF

LDBAS: Location-aware Data Block Allocation Strategy for HDFS-based Applications in the Cloud

  • Xu, Hua;Liu, Weiqing;Shu, Guansheng;Li, Jing
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제12권1호
    • /
    • pp.204-226
    • /
    • 2018
  • Big data processing applications have been migrated into cloud gradually, due to the advantages of cloud computing. Hadoop Distributed File System (HDFS) is one of the fundamental support systems for big data processing on MapReduce-like frameworks, such as Hadoop and Spark. Since HDFS is not aware of the co-location of virtual machines in the cloud, the default scheme of block allocation in HDFS does not fit well in the cloud environments behaving in two aspects: data reliability loss and performance degradation. In this paper, we present a novel location-aware data block allocation strategy (LDBAS). LDBAS jointly optimizes data reliability and performance for upper-layer applications by allocating data blocks according to the locations and different processing capacities of virtual nodes in the cloud. We apply LDBAS to two stages of data allocation of HDFS in the cloud (the initial data allocation and data recovery), and design the corresponding algorithms. Finally, we implement LDBAS into an actual Hadoop cluster and evaluate the performance with the benchmark suite BigDataBench. The experimental results show that LDBAS can guarantee the designed data reliability while reducing the job execution time of the I/O-intensive applications in Hadoop by 8.9% on average and up to 11.2% compared with the original Hadoop in the cloud.

블록 클리닝 비용 분석에 기초한 MODA할당 정책 설계 및 구현 (Design and Implementation of MODA Allocation Scheme based on Analysis of Block Cleaning Cost)

  • 백승재;최종무
    • 한국정보과학회논문지:시스템및이론
    • /
    • 제34권11호
    • /
    • pp.599-609
    • /
    • 2007
  • 플래시 메모리는 덮어 쓰기 제약이나, 쓰기와 삭제 연산의 단위가 다르다는 등의 특징을 가지고 있다. 따라서 플래시 메모리를 저장장치로 사용하는 파일 시스템은 블록 클리닝을 필요로 하며 이는 파일 시스템의 주된 병목으로 작용한다. 이에 따라 본 논문에서는 플래시 메모리 기반 파일 시스템의 병목 요소인 블록 클리닝에 따른 성능향상에 대해 연구한다. 우선 블록 클리닝에 영향을 끼치는 성능 인자로서 이용률, 무효율, 순수도를 정의하였다. 이 세 가지 인자를 통해 블록 클리닝 비용을 분석한 결과, 파일 시스템 수준에서 제어 가능한 인자인 순수도가 블록 클리닝 비용에 많은 영향을 끼침을 확인할 수 있었다. 따라서 순수도를 높게 유지하여 블록 클리닝 비용을 최소화함으로서 파일시스템의 성능을 향상 시킬 수 있는 MODA 할당 정책(modification-aware)을 설계하였고, 이를 내장형 보드와 YAFFS(Yet Another Flash File System)상에 구현하였다. 실험 결과 MODA는 YAFFS의 순차 할당 기법에 비해 블록 클리닝 시간을 평균 123% 단축 시켰다.

기능분석을 이용한 항공기 설계요구의 할당 및 추적에 관한 연구 (A Study on the Requirements Allocation and Tracking by Implementing Functional Analysis)

  • 이재우
    • 한국군사과학기술학회지
    • /
    • 제2권2호
    • /
    • pp.52-60
    • /
    • 1999
  • By implementing the Systems Engineering process for the aircraft preliminary design, functional analysis study is performed, hence Functional Interface Data Flow(FIDF) and Functional Flow Block Diagram(FFBD) are generated. Based on FIDF and FFBD, allocable and non-allocable design/performance/RM&S requirements are allocated to the appropriate levels. Weight and cost tracking and design margin management methodologies are studied and implemented for the balanced aircraft design.

  • PDF

Correlated Locality Data Distribution Policy for Improving Performance in SSD

  • Park, Jung Kyu
    • 한국컴퓨터정보학회논문지
    • /
    • 제21권2호
    • /
    • pp.1-7
    • /
    • 2016
  • In this paper, we propose in this paper present a novel locality data allocation policy as COLD(Correlated Locality Data) allocation policy. COLD is defined as a set of data that will be updated together later. By distributing a COLD into a NAND block separately, it can preserve th locality. In addition, by handling multiple COLD simultaneously, it can obtain the parallelism among NAND chips. We perform two experiment to demonstrate the effectiveness of the COLD data allocation policy. First, we implement COLD detector, and then, analyze a well-known workload. And we confirm the amount of COLD found depending on the size of data constituting the COLD. Secondly, we compared the traditional page-level mapping policy and COLD for garbage collection overhead in actual development board Cosmos OpenSSD. Experimental results have shown that COLD data allocation policy is significantly reduces the garbage collection overhead. Also, we confirmed that garbage collection overhead vary depending on the COLD size.

플래시 메모리 파일 시스템을 위한 순수도 기반 페이지 할당 기법에 대한 연구 (A Study of Purity-based Page Allocation Scheme for Flash Memory File Systems)

  • 백승재;최종무
    • 정보처리학회논문지A
    • /
    • 제13A권5호
    • /
    • pp.387-398
    • /
    • 2006
  • 본 논문에서는 플래시 메모리 파일 시스템을 위한 새로운 페이지 할당 기법을 제안한다. 제안된 기법은 순수도를 고려하여 페이지를 할당하며, 이때 순수도는 플래시 메모리에서 유효한 페이지와 유효하지 않은 페이지가 공존하는 블록의 비율로 정의된다. 순수도는 플래시 메모리 파일 시스템의 블록 클리닝(block cleaning) 비용, 구체적으로 블록 클리닝을 수행할 때 복사해야할 페이지와 삭제해야할 블록의 양을 결정한다. 제안된 기법은 순수도를 향상시키기 위해 빈번하게 변경되는 데이터와 그렇지 않은 데이터를 구분하고, 이들을 서로 다른 블록에 할당한다 데 이터의 구분은 데이터의 속성 등의 정적 특성과 수행 시 변경 횟수 등의 동적 특성을 모두 고려한다 제안된 기법은 내장형 보드와 YAFFS 상에 구현되었으며, 성능 분석 결과 기존 YAFFS에 비해 최대 15.4초 (평균 7.8초) 블록 클리닝 시간을 단축시켰다. 또한 이용율이 증가함에 따라 제안된 기법이 더욱 좋은 성능을 제공하였다.

주기억장치 할당 문제의 블록 채우기 알고리즘 (Algorithm for Block Packing of Main Memory Allocation Problem)

  • 이상운
    • 한국인터넷방송통신학회논문지
    • /
    • 제22권6호
    • /
    • pp.99-105
    • /
    • 2022
  • 본 논문은 주기억장치의 사용자 공간이 컴파일 시간에 가변적 크기의 블록들로 분할된 상태에서, 준비상태 큐에 도착한 다중 프로세서들을 적절히 블록에 할당하는 문제를 다루었다. 기존의 할당법인 최초적합, 최적합, 최악적합과 다음 적합 방법들은 준비상태 큐에 도착한 모든 프로세서들을 할당하지 못해 특정 프로세서는 대기상태가 되는 단점을 갖고 있었다. 본 논문에서 제안된 알고리즘은 분할된 블록(홀)의 크기와 준비상태 큐에 있는 프로세서 크기를 내림차순으로 정렬하여 가장 큰 크기의 블록에 가능한 많은 프로세서들을 할당하는 단순한 블록 채우기 알고리즘이다. 제안된 알고리즘을 9개의 벤치마킹 실험 데이터에 적용한 결과 분할 오류로 인해 대기상태 프로세서가 발생하는 1개 데이터를 제외한 8개 데이터 모두에 대해 최소의 내부 단편(IF)을 가지면서도 모든 프로세서들을 할당하는 성능을 보였다.

KTX-II 고속 차량을 위한 신뢰도 할당 모델 (Reliability Allocation Model for KTX-II High Speed Train)

  • 이강원;정인수
    • 한국철도학회논문집
    • /
    • 제10권3호
    • /
    • pp.319-326
    • /
    • 2007
  • During the design phase of a system, which requires high reliability and safety such as aircraft, high speed train and nuclear power plant, reliability engineer must set up the target system reliability. To meet a reliability goal for the system, reliability allocation should be done gradually from the system to its element. For this end, first of all, we need to construct functional block diagram based on the design output and PWBS(Project Work Breakdown System). Another important input data for reliability allocation is the relationship between the cost and the reliability. In this study we investigate various reliability allocation models, which can be applicable to aircraft, vehicle, and power plant, and etc. And we suggest a proper reliability allocation model which can be effectively applicable to KTX-II high speed train to achieve the target system reliability.

다중 사용자 MIMO 환경에서 균등한 성능을 보장하는 데이터 스트림 할당 기법 (Data Stream Allocation for Fair Performance in Multiuser MIMO Systems)

  • 임동호;최권휴
    • 한국통신학회논문지
    • /
    • 제34권12A호
    • /
    • pp.1006-1013
    • /
    • 2009
  • 본 논문에서는 블록 대각화 기법을 사용하는 다중 사용자 MIMO (Multiple-Input Multiple-Output) 하향링크 채널 환경에서 모든 사용자의 성능을 동일하게 보장하기 위하여 데이터 스트림의 수를 할당하는 기법을 제안한다. 기존의 연구들은 전체 채널 용량의 최대화에 중점을 두고 있고, 각 사용자의 채널 환경에 따라서 채널 용량이 불균등하게 분배되어 사용자 간의 차이가 크다. 뿐만 아니라, water-filling 기법을 사용하여 전력을 제어함으로써, 채널 이득이 작은 사용자는 매우 작은 채널 용량만을 가질 수 있었다. 또한, 대부분의 연구에서는 모든 사용자에 대해 동일한 수의 데이터 스트림을 사용함으로써, 스스로 데이터 스트림의 분배에 의한 추가적인 이득을 제한했다. 본 논문에서는 사용자 채널의 크기에 따라 데이터 스트림을 분배하여 모든 사용자에게 균등한 채널 용량을 보장하는 조건에서 이를 최대화하는 기법을 제안하고 모의실험을 통하여 제안된 기법이 기존의 기법에 비해 송신전력과 채널 용량의 이득이 더 큰 것을 확인한다.

Resource allocation in downlink SWIPT-based cooperative NOMA systems

  • Wang, Longqi;Xu, Ding
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제14권1호
    • /
    • pp.20-39
    • /
    • 2020
  • This paper considers a downlink multi-carrier cooperative non-orthogonal multiple access (NOMA) transmission, where no direct link exists between the far user and the base station (BS), and the communication between them only relies on the assist of the near user. Firstly, the BS sends a superimposed signal of the far and the near user to the near user, and then the near user adopts simultaneous wireless information and power transfer (SWIPT) to split the received superimposed signal into two portions for energy harvesting and information decoding respectively. Afterwards, the near user forwards the signal of the far user by utilizing the harvested energy. A minimum data is required to ensure the quality of service (QoS) of the far user. We jointly optimize power allocation, subcarrier allocation, time allocation, the power allocation (PA) coefficient and the power splitting (PS) ratio to maximize the number of data bits received at the near user under the energy causality constraint, the minimum data constraint and the transmission power constraint. The block-coordinate descent method and the Lagrange duality method are used to obtain a suboptimal solution of this optimization problem. In the final simulation results, the superiority of the proposed NOMA scheme is confirmed compared with the benchmark NOMA schemes and the orthogonal multiple access (OMA) scheme.