• Title/Summary/Keyword: 메모리 할당

Search Result 257, Processing Time 0.055 seconds

Performance Estimation of Register Allocation using Graph Partitioning (그래프 분할을 사용한 레지스터 할당의 성능 예측)

  • 김원태;한경숙;표창우
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 1999.10a
    • /
    • pp.400-402
    • /
    • 1999
  • 그래프 분할을 사용한 레지스터 할당과 Chaitin의 레지스터 할당 방법의 성능을 비교하였다. 실험 데이터로 Appel이 제시한 간섭 그래프를 사용하였고, 각 알고리즘에서 요구되는 최소 레지스터 수를 비교하였다. 그 결과 그래프 분할을 사용한 방법에서 더 적은 수의 레지스터가 요구되었다. 가용 레지스터가 제한되어 있는 경우, 레지스터 요구 수가 감소되면 삽입되는 대피 코드의 수도 감소된다. 대피 코드의 발생이 줄어들면 메모리를 참조하는 인스트럭션의 수가 감소하여 실행시간을 단축시킬 수 있다. 따라서 컴파일러의 최적화 단계에서 그래프 분할 방법을 사용한 레지스터 할당으로 성능 향상을 기대할 수 있다.

  • PDF

EAST: An Efficient and Advanced Space-management Technique for Flash Memory using Reallocation Blocks (재할당 블록을 이용한 플래시 메모리를 위한 효율적인 공간 관리 기법)

  • Kwon, Se-Jin;Chung, Tae-Sun
    • Journal of KIISE:Computing Practices and Letters
    • /
    • v.13 no.7
    • /
    • pp.476-487
    • /
    • 2007
  • Flash memory offers attractive features, such as non-volatile, shock resistance, fast access, and low power consumption for data storage. However, it has one main drawback of requiring an erase before updating the contents. Furthermore, flash memory can only be erased limited number of times. To overcome limitations, flash memory needs a software layer called flash translation layer (FTL). The basic function of FTL is to translate the logical address from the file system like file allocation table (FAT) to the physical address in flash memory. In this paper, a new FTL algorithm called an efficient and advanced space-management technique (EAST) is proposed. EAST improves the performance by optimizing the number of log blocks, by applying the state transition, and by using reallocation blocks. The results of experiments show that EAST outperforms FAST, which is an enhanced log block scheme, particularly when the usage of flash memory is not full.

A Dynamic Buffer Allocation Scheme in Video-on-Demand System (주문형 비디오 시스템에서의 동적 버퍼 할당 기법)

  • Lee, Sang-Ho;Moon, Yang-Sae;Whang, Kyu-Young;Cho, Wan-Sup
    • Journal of KIISE:Computer Systems and Theory
    • /
    • v.28 no.9
    • /
    • pp.442-460
    • /
    • 2001
  • In video-on-demand(VOD) systems it is important to minimize initial latency and memory requirements. The minimization of initial latency enables the system to provide services with short response time, and the minimization of memory requirements enables the system to service more concurrent user requests with the same amount of memory. In VOD systems, since initial latency and memory requirement increase according to the increment of buffer size allocated to user requests, the buffer size allocated to user requests must be minimized. The existing static buffer allocation scheme, however, determines the buffer size based on the assumption that thy system is in fully loaded state. Thus, when the system is in partially loaded state, the scheme allocates user requests unnecessarily large buffers. This paper proposes a dynamics buffer allocation scheme that allocates user requests the minimum buffer size in fully loaded state as well as a partially loaded state. This scheme dynamically determines the buffer size based on the number of user requests in service and the number of user requests arriving while servicing current requests. In addition, through analyses and simulations, this paper validates that the dynamics buffer allocation outperforms the statics buffer allocation in initial latency and the number of concurrent user requests that can be supported. Our simulation results show that, in proportion to the static buffer allocation scheme, the dynamic buffer allocation scheme reduces the average initial latency by 29%~65%, and in a systems having several disks. increases the average number of concurrent user requests by 48%~68%. Our results show that the dynamic buffer allocation scheme significantly improves the performance and reduce the capacity requirements of VOD systems.

  • PDF

A Study of Object Pooling Scheme for Efficient Online Gaming Server (효율적인 온라인 게임 서버를 위한 객체풀링 기법에 관한 연구)

  • Kim, Hye-Young;Ham, Dae-Hyeon;Kim, Moon-Seong
    • Journal of Korea Game Society
    • /
    • v.9 no.6
    • /
    • pp.163-170
    • /
    • 2009
  • There is a request from the client, we almost apply dynamic memory allocating method using Accept() of looping method; thus, there could be process of connecting synchronously lots of client in most of On-line gaming server engine. However, this kind of method causes on-line gaming server which need to support and process the clients, longer loading and bottle necking. Therefore we propose the object pooling scheme to minimize the memory fragmentation and the load of the initialization to the client using an AcceptEx() and static allocating method for an efficient gaming server of the On-line in this paper. We design and implement the gaming server applying to our proposed scheme. Also, we show efficiency of our proposed scheme by performance analysis in this paper.

  • PDF

A Study of Purity-based Page Allocation Scheme for Flash Memory File Systems (플래시 메모리 파일 시스템을 위한 순수도 기반 페이지 할당 기법에 대한 연구)

  • Baek, Seung-Jae;Choi, Jong-Moo
    • The KIPS Transactions:PartA
    • /
    • v.13A no.5 s.102
    • /
    • pp.387-398
    • /
    • 2006
  • In this paper, we propose a new page allocation scheme for flash memory file system. The proposed scheme allocates pages by exploiting the concept of Purity, which is defined as the fraction of blocks where valid Pages and invalid Pages are coexisted. The Pity determines the cost of block cleaning, that is, the portion of pages to be copied and blocks to be erased for block cleaning. To enhance the purity, the scheme classifies hot-modified data and cold-modified data and allocates them into different blocks. The hot/cold classification is based on both static properties such as attribute of data and dynamic properties such as the frequency of modifications. We have implemented the proposed scheme in YAFFS and evaluated its performance on the embedded board equipped with 400MHz XScale CPU, 64MB SDRAM, and 64MB NAND flash memory. Performance measurements have shown that the proposed scheme can reduce block cleaning time by up to 15.4 seconds with an average of 7.8 seconds compared to the typical YAFFS. Also, the enhancement becomes bigger as the utilization of flash memory increases.

Garbage collection for small memory java application (소규모 메모리 자마 프로그램을 위한 가비지 콜렉션)

  • 권혜은;김상훈
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2002.04b
    • /
    • pp.343-345
    • /
    • 2002
  • 제한된 환경에서 자바 실행환경을 제공하는 KVM은 마크-회수 방식의 가비지 콜렉터를 사용하고 있다. 그러나 마크-회수 방식은 시간이 지남에 따라 심각한 메모리 단편화 문제로 충분한 메모리 공간이 있음에도 불구하고 프로그램의 실행이 중단되는 문제점을 가지고 있다. 본 논문에서는 단편화 문제의 개선을 위해 단일 링크드 리스트 형태로 구성되어 있던 프리 리스트를 이중 링크드로 구성하고 객체의 크기에 따라 할당 위치를 달리하는 방법을 제안한다. 이를 통하여 단편화 문제가 최소화되어 메모리 낭비를 줄일 수 있음을 실험을 통해 확인하였다.

  • PDF

Design of Memory State Visualization Language (메모리 상태 시각화 언어의 설계)

  • Kim, Je-Min;Yoo, Weon-Hee
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2013.05a
    • /
    • pp.948-950
    • /
    • 2013
  • 메모리를 다루는 프로그램의 시각화는 알고리즘 학습, 디버깅에 유용하게 사용될 수 있다. 본 논문에서는 도구에 독립적이며 프로그램 실행 후에도 재사용이 가능하도록 메모리 상태를 시각화하는 언어를 제안한다. 본 논문에서는 제안된 시각화 언어의 문법과 의미를 설명한다. 제안된 시각화 언어의 유용성을 간단한 메모리 할당, 해제를 수행하는 프로그램 소스의 예를 통해 설명한다.

Bus Splitting Techniques for MPSoC to Reduce Bus Energy (MPSoC 플랫폼의 버스 에너지 절감을 위한 버스 분할 기법)

  • Chung Chun-Mok;Kim Jin-Hyo;Kim Ji-Hong
    • Journal of KIISE:Computer Systems and Theory
    • /
    • v.33 no.9
    • /
    • pp.699-708
    • /
    • 2006
  • Bus splitting technique reduces bus energy by placing modules with frequent communications closely and using necessary bus segments in communications. But, previous bus splitting techniques can not be used in MPSoC platform, because it uses cache coherency protocol and all processors should be able to see the bus transactions. In this paper, we propose a bus splitting technique for MPSoC platform to reduce bus energy. The proposed technique divides a bus into several bus segments, some for private memory and others for shared memory. So, it minimizes the bus energy consumed in private memory accesses without producing cache coherency problem. We also propose a task allocation technique considering cache coherency protocol. It allocates tasks into processors according to the numbers of bus transactions and cache coherence protocol, and reduces the bus energy consumption during shared memory references. The experimental results from simulations say the bus splitting technique reduces maximal 83% of the bus energy consumption by private memory accesses. Also they show the task allocation technique reduces maximal 30% of bus energy consumed in shared memory references. We can expect the bus splitting technique and the task allocation technique can be used in multiprocessor platforms to reduce bus energy without interference with cache coherency protocol.

Improved Parallel Loop Scheduling Algorithm on Shared Memory Systems (공유메모리 시스템에서 개선된 병렬 루프 스케쥴링 알고리즘)

  • 이영규;박두순
    • Proceedings of the Korea Multimedia Society Conference
    • /
    • 2000.04a
    • /
    • pp.453-457
    • /
    • 2000
  • 병렬 시스템 환경에서 최적의 스케쥴링을 수행하기 위해서는 병렬성을 가진 iteration 들에 대해 최소의 동기화 오버헤드와 load balance 가 달성하도록 스케쥴링을 수행해야한다. 다중 프로세서들은 실행을 위하여 메모리로부터 iteration 들에 대한 chunk를 계산한 후 할당받게 된다. 이때, 각 프로세서들의 상호 배타적인 메모리 접근으로 많은 오버헤드 및 병목현상이 발생된다. 또한, 프로세서에게 할당된 chunk 내 iteration 들의 실행시간 분포가 서로 상이한 경우에는 load imbalance 의 원인이 되어 결과적으로 전체 스케쥴링에 나쁜 영향을 준다. 따라서, 최적의 스케쥴링을 수행하기 위해서 본 논문에서는 기존의 스케쥴링 방법들에서 문제점들을 도출하고 자료의 국부성과 프로세서 동족성을 고려한 개선된 병렬 루프 알고리즘을 제안하고, 성능평가를 통해 개선된 알고리즘이라는 것을 보였다.

  • PDF

A Study on Mechanism for Topology-aware based Granted Memory Management (토폴로지 인지 기반 공여 메모리 관리 메커니즘 연구)

  • Kim, Young-Ho;Ahn, Shin-Young;Lim, Eun-Ji;Cha, Gyu-Il
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2014.11a
    • /
    • pp.95-98
    • /
    • 2014
  • 본 논문에서는 고속 저지연 네트워크로 연결된 다수의 분산 메모리 공여 노드를 통해 분산 통합 메모리 서비스를 제공하는 메모리 가상화 시스템에서, 대용량 메모리와 다수의 호스트 채널 어댑터(HCA)를 장착한 공여 노드의 프로세서, 물리 메모리, 그리고 HCA의 연결구조와 정보로부터 토폴로지 구조를 추출하고, 프로세서 중심으로 자원 연관성 정보를 나타내는 토폴로지 맵을 생성한다. 토폴로지 맵을 기반으로 공여 메모리의 초기화, 등록, 할당 및 메모리 데이터 전송 등을 수행하는 공여 메모리 관리 메커니즘을 제안한다. 이를 통해 대용량 분산 통합 메모리를 이용하는 빅데이터 처리 환경에서 참조 데이터 대한 메모리의 응답 시간 및 접근 지연 시간을 최소화시킬 수 있다.