• 제목/요약/키워드: 캐시 파일

검색결과 90건 처리시간 0.023초

NAND 플래시 메모리 파일 시스템을 위한 더블 캐시를 활용한 페이지 관리 정책 (A Policy of Page Management Using Double Cache for NAND Flash Memory File System)

  • 박명규;김성조
    • 한국정보과학회논문지:시스템및이론
    • /
    • 제36권5호
    • /
    • pp.412-421
    • /
    • 2009
  • NAND 플래시 메모리는 특성상 덮어쓰기 연산이 불가능하기 때문에 지움 연산이 선행되어야 하므로 I/O 처리 속도가 느려지게 되어 성능저하의 원인이 된다. 또한 지움 횟수가 제한적 이어서 지움 연산이 빈번히 발생하게 되면, NAND 플래시 메모리의 수명이 줄어든다. 이러한 문제점을 해결하기 위해 NAND 플래시 메모리의 특성을 고려한 쓰기 지연 기법을 사용하면, 쓰기 횟수가 줄어들어 I/O 성능 향상에 도움이 되지만, 캐시 적중률이 낮아진다. 본 논문은 NAND 플래시 메모리 파일 시스템을 위한 더블캐시를 활용한 페이지 관리 정책을 제안한다. 더블 캐시는 실질적인 캐시인 Real Cache와 참조 페이지의 패턴을 관찰하기 위한 Ghost Cache로 구성된다. 이 정책은 Ghost Cache에서 쓰기를 지연함으로써 Real Cache에서의 적중률을 유지할 수 있고, Ghost Cache를 Dirty 리스트와 Clean 리스트로 구성하여 Dirty 페이지에 대한 탐색 시간을 줄임으로써 쓰기 연산 성능을 높인다. 기존 정책들과의 성능을 비교한 결과 제안된 정책이 기존 정책들에 비해 평균적으로 적중률은 20.57%, 그리고 I/O 성능은 20.59% 우수했고, 쓰기 횟수는 30.75% 줄었다.

SSD FTL 캐시 알고리즘 분석 및 제언 (Analysis and Advice on Cache Algorithms of SSD FTL)

  • 이형봉;정태윤
    • 정보처리학회논문지:컴퓨터 및 통신 시스템
    • /
    • 제12권1호
    • /
    • pp.1-8
    • /
    • 2023
  • SSD는 이미 할당된 페이지에 대한 제자리 덮어쓰기가 불가능하므로 쓰기 연산이 있을 때마다 새로운 클린 페이지로의 대체가 필요하다. 이 문제를 지원하기 위해 SSD는 운영체제의 파일시스템에서 관리하는 논리 페이지를 현재 할당된 물리 페이지로 매핑하는 플래시 변환 계층인 FTL을 내부에 둔다. 쓰기 연산으로 버려진 SSD 페이지는 초기화 작업을 거쳐 재활용되어야 하는데, 그 횟수에 제한이 있기 때문에 FTL은 기본인 페이지 매핑 기능 외에 쓰기 횟수를 줄일 수 있는 캐시 기능을 제공한다. 이 연구에서는 쓰기 횟수를 줄이기 위한 FTL의 캐시 방법론에 집중하여 관련된 알고리즘들을 분석하고, 쓰기 전용 캐시 전략을 제안한다. 시뮬레이터를 사용하여 쓰기 전용 캐시를 실험한 결과 최대 29%의 개선 효과를 보였다.

Device Caching Strategy Maximizing Expected Content Quality

  • Choi, Minseok
    • 한국컴퓨터정보학회논문지
    • /
    • 제26권1호
    • /
    • pp.111-118
    • /
    • 2021
  • 본 논문에서는 디바이스 캐싱 네트워크에서 다양한 퀄리티의 콘텐츠를 캐싱하는 기술을 제안한다. 하나의 파일을 온전히 캐싱하는 기존 기술들과 다르게, 저자는 콘텐츠의 일부 조각을 캐싱하는 것을 허용하였고, 사용자가 스스로 캐시 히트를 달성할 수 있는 경우를 고려하였다. 캐싱하는 콘텐츠의 퀄리티와 캐시 히트율 간의 트레이드오프를 분석하고, 사용자가 소비하는 콘텐츠의 기대 퀄리티를 최대화하는 디바이스 캐싱 기법을 제안한다. 퀄리티와 파일 크기의 관계 파라미터에 따라 볼록 최적화 문제와 DC programming 문제 두 가지 방식으로 나누어서 캐싱 문제를 풀어냈다. 퀄리티 증가 폭에 비해 파일 크기가 더 빠르게 증가하면, 인기도에 따라 캐싱할 콘텐츠의 부분 조각이 점차 증가하는 반면, 파일 크기가 더 느리게 증가하면, 일부 인기도가 높은 콘텐츠는 전체를 캐싱하고 그렇지 않은 콘텐츠는 아예 캐싱하지 않는 결과를 낸다.

방송 환경에서 데이터 방송을 위한 오브젝트 캐러셀 매니저 및 효율적인 캐싱 기법 제안 (Object Carousel Manager And Caching Strategy For Efficiency System In Data Broadcasting System)

  • 김세창;원재훈;고상원;전제민;김정선
    • 한국정보과학회:학술대회논문집
    • /
    • 한국정보과학회 2007년도 가을 학술발표논문집 Vol.34 No.2 (D)
    • /
    • pp.462-466
    • /
    • 2007
  • 본 논문에서는 데이터 방송 환경에서의 DSM-CC 관련 Object Carousel Manager를 구현하고, 성능향상을 위한 캐싱 기법을 제안한다. Object Carousel Manger 구현은 다음과 같은 순서로 이루어진다. 먼저, 방송스트림에서 해당 PID별로 얻어온 모듈을 캐시에 저장한 후, 모듈에서 BIOP 메세지 오브젝트별로 분석한 뒤 파싱 한다. 그런 후, 파싱된 BIOP 메시지 오브젝트를 해당 서비스 게이트웨이, 디렉터리. 파일로 변환해준다. 마지막으로, 변환된 파일시스템에서 해당하는 Xlet Application을 실행시켜 주게 된다. 시스템성능 향상을 위해서 제안하는 캐싱 기법은 다음과 같다. DII의 Caching Priority Descriptor를 이용하여, Object들을 포함하고 있는 각각의 모듈에 대해서 Version Number를 Checking하는 주기인 Transparency_level을 부여하고, Application 실행 시 보여 주는 화면 순서대로 필요한 모듈에 대해 우선순위를 부여하여, 캐시에 업데이트 시 이를 반영하여, 시스템 전체의 성능을 향상시킨다.

  • PDF

에너지 및 성능 효율적인 이종 모바일 저장 장치용 동적 부하 분산 (Energy and Performance-Efficient Dynamic Load Distribution for Mobile Heterogeneous Storage Devices)

  • 김영진;김지홍
    • 한국컴퓨터정보학회논문지
    • /
    • 제14권4호
    • /
    • pp.9-17
    • /
    • 2009
  • 본 논문에서는 운영체제 수준에서 에너지 절감과 함께 I/O 성능 개선을 목적으로 하여 소형 하드 디스크와 플래시 메모리를 이종의 저장 장치로 가지는 모바일 시스템에 대해 동적 부하 분산 기법을 제안한다. 제안 기법은 부하가 에너지 및 성능 효율적인 방법으로 하드디스크와 플래시 메모리의 이종성의 저장 장치 구성에 대해서 어떻게 효율적으로 분산될 수 있을 것인지를 발견하기 위하여 파일 배치 기법과 버퍼 캐시 관리 기법을 결합하는 접근법을 취한다. 제안한 기법은 폭넓은 시뮬레이션을 통해서 기존의 기법들과 비교하여 이종의 모바일 저장장치들에 대해서 더 개선된 실험 결과를 보이는 것으로 나타났다.

분산 파일시스템을 위한 효율적인 협력캐쉬 알고리즘 (Efficient Cooperative Caching Algorithm for Distributed File Systems)

  • 박새미;이석재;유재수
    • 한국콘텐츠학회:학술대회논문집
    • /
    • 한국콘텐츠학회 2003년도 추계종합학술대회 논문집
    • /
    • pp.234-244
    • /
    • 2003
  • 분산 파일시스템 환경에서는 디스크 접근 비용을 줄이기 위해 각 노드에 캐쉬된 데이터를 서로 공유하는 협력캐쉬 기법이 사용된다. 협력캐쉬 기법은 분산되어있는 시스템들의 캐쉬정보를 서로 공유하여 가상으로 더 큰 캐쉬를 형성함으로써 캐쉬 히트율을 높이고 디스크 접근을 줄이는 방법이다. 기존에 제안된 협력캐쉬 기법들은 캐쉬에 대한 근사정보를 이용하여 메시지 비용을 줄이고, 로컬캐쉬영역과 글로벌 캐쉬영역을 가변적으로 사용하여 캐쉬히트율을 높이고 있다. 또한 캐시교체시 교체된 블록을 비활동적인 노드로 보내어 계속 캐쉬에 유지하도록 하여 글로벌 캐시히트율을 높이는 장점을 갖는다. 그러나 잘못된 근사정보가 성능을 저하시킬 수 있으며 일관성 유지를 위한 메시지교환 비용이 많이 든다는 단점을 갖고 있다. 또한 비활동적인 노드를 선정하기 위해 사용되는 각 노드의 에이지정보 관리비용이 많이드는 단점을 갖고 있다. 본 논문에서는 정확한 캐쉬정보를 유지하며 일관성 유지비용과 캐시에이지정보 관리비용을 최소화시키는 협력캐쉬 알고리즘을 제안한다. 그리고 성능평가를 통해 기존의 협력캐쉬 기법과 비교하여 제안하는 알고리즘의 우수성을 보인다.

  • PDF

페이지 주소 캐시를 활용한 NAND 플래시 메모리 파일시스템에서의 효율적 주소 변환 테이블 관리 정책 (An Efficient Address Mapping Table Management Scheme for NAND Flash Memory File System Exploiting Page Address Cache)

  • 김정길
    • 디지털콘텐츠학회 논문지
    • /
    • 제11권1호
    • /
    • pp.91-97
    • /
    • 2010
  • 비휘발성, 저전력 소모, 안정성 등의 장점을 가진 NAND 플래시 메모리는 고집적화, 대용량화, 저가격화를 통하여 다양한 디지털시스템의 데이터 저장장치로 사용되고 있다. 플래시 메모리의 다양한 분야에서의 응용 확대와 동시에 플래시 메모리의 대용량화는 플래시 메모리의 주소 변환 테이블의 전체 크기를 증가시켜 SRAM에 저장하기에 용량이 부족한 문제점을 발생시킨다. 본 논문에서는 하이브리드 변환 기법 기반의 플래시 메모리 파일 시스템에서 페이지 주소 캐시를 이용한 효율적인 주소 테이블 관리 정책을 제안한다. 제안하는 기법은 다양한 메타 데이터 기반의 전체 테이블의 정보를 맵블록을 이용하여 효율적으로 통합 관리함으로써 높은 성능을 유지할 수 있다. PC 환경에서의 다양한 응용프로그램을 실험한 결과 제안하는 페이지 주소 캐시는 2.5% 이하의 낮은 미스율로 높은 효율성을 유지하며 전체 쓰기 연산 요청에서 평균 33%의 실제 쓰기 연산의 실행으로 전체 쓰기 연산에서 발생하는 오버헤드를 줄여 주었다.

영속 메모리를 이용한 스마트폰 버퍼 캐시의 선별적 플러시 정책 (Policy for Selective Flushing of Smartphone Buffer Cache using Persistent Memory)

  • 임수정;반효경
    • 한국인터넷방송통신학회논문지
    • /
    • 제22권1호
    • /
    • pp.71-76
    • /
    • 2022
  • 버퍼 캐시는 스토리지의 느린 속도를 완충하는 중요한 역할을 하지만, 데이터의 유실을 막기 위한 주기적인 플러시 연산으로 인해 스마트폰에서 그 효과가 크게 떨어진다. 본 논문에서는 소량의 영속 메모리에 선택적인 플러시 정책을 적용하여 스마트폰 버퍼 캐시의 플러시 오버헤드를 크게 줄일 수 있음을 보인다. 이는 스마트폰 앱의 I/O 분석 결과 대부분의 파일 쓰기가 소량의 핫 데이터에 집중돼 있는 반면 상당 부분의 파일 데이터는 1회성 쓰기에 국한한다는 점에 근거한다. 제안하는 기법은 플러시 상황 발생 시 자주 수정되는 데이터를 영속 메모리로 우회 플러시하고 그렇지 않은 데이터만을 스토리지로 플러시한다. 이를 통해 스토리지 쓰기량을 크게 줄이는 동시에 영속 메모리의 공간 효율성을 높인다. 인기 있는 스마트폰 앱의 I/O 트레이스를 이용한 재현 실험을 통해 제안하는 기법이 스토리지 쓰기량을 평균 25.8%, 최대 37.8%까지 줄임을 보인다.

게임이론 기반 무선 통신에서의 캐시 할당 기법 (Game Theoretic Cache Allocation Scheme in Wireless Networks)

  • 트라 후옹 티 리;김도현;홍충선
    • 정보과학회 논문지
    • /
    • 제44권8호
    • /
    • pp.854-859
    • /
    • 2017
  • 기지국(Base Station)에서 인기있는 콘텐츠(비디오)를 캐싱하는 것은 전송 대기 시간을 줄일 수 있는 효율적인 방법이다. 본 논문에서는 콘텐츠 제공자(CP)가 캐싱 절차에 참여하도록 동기를 부여하기 위해 무선 네트워크에서의 사전 인센티브 캐시 메커니즘을 제안한다. 하나 이상의 Infrastructure Provider(InP)와 많은 CP로 구성되어 있는 시스템에서, InP는 InP의 기지국에서 캐시하는 파일 수를 결정하기 위해 CP가 경쟁하는 동안 수익을 극대화할 수 있도록 CP에 청구되는 가격을 정의하는 것을 목표로 한다. 또한 InP와 CP는 Stackelberg 게임이론 내에서 각각 선도자와 추종자로 정의된다. Backward Induction을 기반으로, 각 CP가 각 기지국에서 임대한 캐시 공간의 양을 정확하게 측정한 후, 최적화 문제를 해결함으로써 InP가 각 CP를 임대하는 가격을 계산한다. 이것은 비 균일 가격 체계를 고려한 점에서 기존 연구와 차이가 있다. 수치 결과는 제안 된 방법을 통해 InP의 이익이 균일 가격 책정보다 높다는 것을 보여준다.

텍스처의 크기에 따라 인덱스를 자동 분할하는 텍스처 캐시 (Texture Cache with Automatical Index Splitting Based on Texture Size)

  • 김진우;박용진;김영식;한탁돈
    • 한국게임학회 논문지
    • /
    • 제8권2호
    • /
    • pp.57-68
    • /
    • 2008
  • 텍스처 매핑(texture mapping)은 실감 있는 영상을 만들기 위해 3차원 그래픽스 칩에서 사용되는 기술이다. 이 방식 중 이중선형 필터링 모드(bilinear filtering mode)에서는 1개의 픽셀(pixel)을 처리하기 위해 4개의 텍셀(texture element: texel)에 접근이 요구된다. 본 논문에서는 텍스처의 접근패턴을 분석하여 동시에 4개의 텍셀을 접근할 수 있는 고성능 텍스처 캐시의 구조를 제시하였다. 3차원 게임인 퀘이크3(Quake 3)와 언리얼 토너먼트 2004(Unreal Tournament 2004)의 텍스처 접근 추출파일을 이용한 시뮬레이션 결과로 성능평가를 하였으며, 제시한 텍스처 캐시의 구조는 물리적인 크기가 8KBytes 이하인 경우 콜은 성능을 갖게 됨을 분석하였다.

  • PDF