• 제목/요약/키워드: Data Caches

검색결과 61건 처리시간 0.022초

쓰기 횟수 감소를 위한 하이브리드 캐시 구조에서의 캐시간 직접 전송 기법에 대한 연구 (A Study on Direct Cache-to-Cache Transfer for Hybrid Cache Architecture to Reduce Write Operations)

  • 최주희
    • 반도체디스플레이기술학회지
    • /
    • 제23권1호
    • /
    • pp.65-70
    • /
    • 2024
  • Direct cache-to-cache transfer has been studied to reduce the latency and bandwidth consumption related to the shared data in multiprocessor system. Even though these studies lead to meaningful results, they assume that caches consist of SRAM. For example, if the system employs the non-volatile memory, the one of the most important parts to consider is to decrease the number of write operations. This paper proposes a hybrid write avoidance cache coherence protocol that considers the hybrid cache architecture. A new state is added to finely control what is stored in the non-volatile memory area, and experimental results showed that the number of writes was reduced by about 36% compared to the existing schemes.

  • PDF

콘텐츠 네트워크 환경에서 게임이론을 이용한 콘텐츠 캐싱 및 데이터 스폰서 기법 (Game-Based Content Caching and Data Sponsor Scheme for the Content Network)

  • 원중섭;김승욱
    • 정보처리학회논문지:컴퓨터 및 통신 시스템
    • /
    • 제8권7호
    • /
    • pp.167-176
    • /
    • 2019
  • 최근 소셜 네트워크, 비디오 스트리밍 등 이동통신망 환경에서 즐길 수 있는 서비스가 종류가 점점 증가함에 따라, 모바일 사용자(MU : Mobile User)는 이동통신 데이터를 소모하여 원하는 콘텐츠에 더욱 쉽게 접근할 수 있게 되었다. 하지만 이동통신 환경 아래서, 모바일 사용자는 콘텐츠를 즐기기 위해 네트워크 서비스 제공자(SP : Service Provider)에게 높은 이동통신 데이터 요금을 내야한다. 이를 해결하기 위한 방법으로 소개된 '데이터 스폰서(data sponsor)'기법은 모바일 사용자의 콘텐츠 접근성을 높이는 획기적인 방법으로 주목받고 있다. 본 논문에서는 서비스 제공자와 콘텐츠 제공자를 리더 그룹, 모바일 사용자를 추종자 그룹으로 하는 슈타켈버그 게임을 통해 최적의 요금 할인율을 결정짓는 알고리즘을 제안한다. 또한 모바일 사용자의 콘텐츠에 대한 접근성을 더욱 높이기 위해, 모바일 사용자에게 높은 인기가 있는 콘텐츠를 엣지 서버에 캐싱하는 엣지 캐싱을 게임이론의 다대다 매칭 게임을 통해 설계하는 알고리즘을 제안한다. 컴퓨터 시뮬레이션을 통해 기존에 제안된 데이터 스폰서 기법에 비해 본 논문에서 제안한 방법이 제공자들의 콘텐츠 소모에 대한 수익률 측면에서 6~11% 가량의 우위를 보였으며, 엣지 캐싱의 유무에 따라 콘텐츠 제공자의 수익률이 12% 향상됨을 확인하였다.

이동 컴퓨팅 환경에서 비동기적 데이터방송을 사용한 동시성 제어 기법 (Concurrency Control Method using the Asynchronous Data Broadcast in Mobile Computing Environments)

  • 고승민;김대인;임선모;황부현
    • 정보처리학회논문지D
    • /
    • 제12D권1호
    • /
    • pp.21-30
    • /
    • 2005
  • 이동 컴퓨팅 환경에서 이동 호스트는 대역폭의 사용을 줄이고 이동 트랜잭션의 응답 시간을 향상시키기 위하여 캐쉬를 사용한다. 그리고 서버는 이동 호스트의 캐쉬 일관성을 유지하기 위해서 주기적으로 갱신된 데이터를 방송한다. 그러나 무효화 보고서를 사용한 캐쉬 일관성 유지기법은 이동 트랜잭션의 완료 결정을 지연한다는 문제점을 가지고 있다. 본 논문에서는 캐슁된 데이터를 사용하여 이동 트랜잭션을 수행하는 경우 이동 트랜잭션의 직렬 가능한 수행을 보장하는 CCM-AD 방법을 제안한다. 제안하는 CCM-AD 방법은 서버에서 이동 호스트에게 방송한 데이터와 갱신된 데이터와의 교집합을 구하여 공통되는 데이터를 요청 데이터와 함께 방송함으로써 이동 트랜잭션의 직렬 가능한 수행을 보장한다. 그리고 수행 후 완료 결정을 위한 이동 트랜잭션의 지연도 줄일 수 있다. 또한 주기적으로 방송하는 무효화 보고서의 메시지 크기도 줄일 수 있다.

센서 네트워크에서 Event-driven 데이터의 신뢰성 있는 전송 및 버퍼 관리 기법 (A Reliable Transmission and Buffer Management Techniques of Event-driven Data in Wireless Sensor Networks)

  • 김대영;조진성
    • 한국통신학회논문지
    • /
    • 제35권6B호
    • /
    • pp.867-874
    • /
    • 2010
  • 무선 센서 네트워크에서는 멀티 홉 전송동안 높은 패킷 손실률이 발생하기 때문에 신뢰성 있는 데이터 전송방안이 필요하다. 특히, 화재 경보 시스템과 같은 event-driven 데이터가 발생하는 경우, 신뢰성 있는 데이터 전송을 위해서는 손실된 패킷을 복원하기 위한 재전송 방안이 제공되어야 한다. 손실된 데이터의 재전송은 데이터를 캐쉬하고 있는 노드에 요청이 되기 때문에, 데이터를 캐쉬하고 있는 노드는 모든 데이터 패킷을 버퍼에서 유지하고 있어야 한다. 그러나 일반적으로 센서 네트워크의 노드들은 제한된 자원을 가지 있다. 따라서 신뢰성 있는 데이터 전송을 위해서는 손실 패킷의 재전송 방안과 노드의 버퍼 관리 기법이 함께 제공되어야 한다. 본 논문에서는 전송 데이터의 신뢰도에 따라 데이터의 캐쉬지점을 결정하여 손실된 데이터를 복원하는 손실 복원 기법을 사용하는 데이터 전송에서의 효율적인 버퍼 관리기법을 제안하고, 컴퓨터 시뮬레이션을 통하여 제안하는 방안의 우수성을 검증하였다.

CCN 기반의 VANET에서 무선 채널에 따른 전송 성능에 관한 연구 (Data Transmission Performance Study of Wireless Channels over CCN-based VANETs)

  • 강승석
    • 문화기술의 융합
    • /
    • 제8권4호
    • /
    • pp.367-373
    • /
    • 2022
  • VANET은 애드 혹 네트워크의 한 종류로 네트워크 인프라 없이 도로를 운행하는 자동차 노드들 사이에서 혹은 자동차들과 RSU 사이에서 운전자에게 주변의 교통 정보를 제공하고 탑승자에게 다양한 부가 정보를 제공하기 위해 생성되는 네트워크이다. VANET을 구성할 때 CCN을 기반으로 하는 경우 사용자는 필요한 자료를 저장하는 서버 주소를 지정하지 않고 키워드 등으로 주변 교통 콘텐츠를 조회할 수 있고 네트워크에 참여하는 주변 노드들의 캐시 정보를 즉시 사용할 수 있으며 멀티캐스트 전송으로 다른 노드들과 쉽게 정보를 공유할 수 있다. 본 논문은 VCCN에 참여하는 노드들이 다양한 무선 채널을 사용하는 경우 각 무선 채널에 대해 데이터 전송 성능을 측정하고 평가하였다. 모의실험 결과 802.11a 무선 채널이 다른 채널에 비해 전반적으로 전송 성능이 우수하였다. 또한 채널의 데이터 전송 용량이 허용하는 범위 내에서 CCN의 멀티캐스트 통신 속성에 의해 동시에 여러 노드가 데이터를 수신하는 경우 물리적으로 제공하는 네트워크 대역폭 이상으로 데이터를 전송할 수 있다.

그리드 데이터베이스에서 질의 전달 최적화를 위한 캐쉬 관리 기법 (Cache Management Method for Query Forwarding Optimization in the Grid Database)

  • 신숭선;장용일;이순조;배해영
    • 한국멀티미디어학회논문지
    • /
    • 제10권1호
    • /
    • pp.13-25
    • /
    • 2007
  • 그리드 데이터베이스에서는 질의 전달 최적화를 위해 캐쉬를 사용한다. 캐쉬에 빈번히 사용되는 데이터의 메타 정보를 메타 데이터베이스에서 가져와 캐싱하며, 캐싱된 정보를 통하여 질의 전달의 비용을 감소시킨다. 기존의 캐쉬 관리 기법은 질의 전달 시 복제본의 사용빈도를 고려하지 않은 데이터의 임의의 메타 정보를 캐싱하기 때문에 사용이 불균형적인 문제가 있다. 그리고, 원본 데이터가 변경되었을 경우에 기존의 메타정보를 가진 캐쉬를 통하여 질의가 타 노드로 잘못 전달되며 이러한 과정은 여러 노드에서 반복 수행되어 네트워크 비용을 증가시킨다. 따라서 기존의 캐쉬 관리 기법은 복제본의 사용비율 불균형과 타 노드로의 잘못된 질의 전달로 인한 네트워크 비용 증가 문제의 해결이 필요하다. 본 논문에서는 질의 전달 최적화를 위한 캐쉬 관리 기법을 제안한다. 제안 기법은 캐쉬 매니저라는 관리 프로세서를 사용하여 캐쉬를 관리한다. 캐쉬 매니저는 자주 사용되는 복제본이 저장된 노드의 사용빈도를 비교하여 적게 사용된 노드의 복제본 메타 정보를 캐싱함으로써 질의 전달을 최적화한다. 또한 캐쉬 매니저를 통해 타 노드로 잘못 전달되는 질의를 줄여 질의 처리 시간을 단축하고 네트워크 비용을 줄인다. 제안 기법은 성능평가를 통해 네트워크 비용과 처리시간이 감소되어 기존의 방식에 비하여 향상된 성능을 보인다.

  • PDF

InnoDB 기반 DBMS에서 다중 버퍼 풀 오버헤드 분석 (An Analysis of the Overhead of Multiple Buffer Pool Scheme on InnoDB-based Database Management Systems)

  • 송용주;이민호;엄영익
    • 정보과학회 논문지
    • /
    • 제43권11호
    • /
    • pp.1216-1222
    • /
    • 2016
  • 대규모 웹 서비스의 등장으로 데이터의 규모가 점차 증가하는 추세이다. 이러한 대규모 데이터를 효율적으로 관리하기 위해 MySQL과 MariaDB와 같은 DBMS가 주로 사용되고 있으며, 이들은 데이터 관리를 위한 스토리지 엔진으로 InnoDB를 주로 사용한다. InnoDB는 ACID를 보장할 뿐만 아니라 대규모 데이터 처리에 적합하다는 장점이 있기 때문이다. InnoDB의 경우, I/O 성능 향상을 위해 버퍼 풀을 통해 데이터와 인덱스를 캐싱하며 락 경쟁(lock contention)을 줄이기 위해 다중 버퍼 풀을 지원한다. 그러나 다중 버퍼 풀 기법은 데이터 일관성 오버헤드를 증가시킨다. 본 논문에서는 다중 버퍼 풀 기법의 오버헤드를 분석한다. 실험 결과, 다중 버퍼 풀 기법을 사용함에 따라 락 경쟁이 최대 46.3%까지 완화되었지만 디스크 I/O와 fsync 명령이 증가하면서 DBMS의 처리량이 50.6%까지 떨어지는 현상을 확인하였다.

클라우드 스토리지 최적화를 위한 고속 캐싱 및 대용량 파일 전송 기법 (A Scheme on High-Performance Caching and High-Capacity File Transmission for Cloud Storage Optimization)

  • 김태훈;김정한;엄영익
    • 한국통신학회논문지
    • /
    • 제37권8C호
    • /
    • pp.670-679
    • /
    • 2012
  • 최근 클라우드 컴퓨팅 환경의 보급과 함께 스토리지의 데이터양이 급증함에 따라 그에 따른 스토리지 저장 비용이 빠르게 증가하고 있다. 더불어, 사용자들의 다양한 서비스 및 데이터 요청으로 클라우드 스토리지의 부하 또한 급증하고 있다. 이러한 문제를 해결하기 위해 분산 파일 시스템을 통한 저비용 고성능 스토리지 환경을 제공하고자 하는 기존의 연구가 있었으나, 이에는 데이터 병렬처리, 임의위치 접근처리, 빈번한 작은 워크로드 접근처리 등의 취약점이 존재한다. 최근에는 캐싱 기술을 이용하여 이를 개선하려는 연구가 주목받고 있다. 본 논문에서는 분산 파일 시스템 환경에서 병렬 캐싱, 분산 캐싱과 공유 자원을 고려한 데이터 병렬 전송방법을 제공하는 CHPC(Cloud storage High-Performance Caching) 구조를 제안하며, 또한 이를 기존의 방법들과 비교 평가하여 스토리지 부하를 최적화하는 방법을 제시한다. 더불어, 제안 기법이 기존 클라우드 시스템에 비하여 스토리지 서버의 디스크 입출력 감소, 서버로 데이터의 요청이 집중되어 발생하는 병목현상 방지, 각 클라이언트의 중복되는 페이지 캐시 제거, 데이터 전송률 향상의 장점을 가짐을 보인다.

이동 컴퓨팅 환경에서 데이타 그룰 정보를 이용한 동시성 제어 방법 (A Concurrency Control Method using Data Group Information in Mobile Computing Environments)

  • 김대인;황부현
    • 한국정보과학회논문지:데이타베이스
    • /
    • 제32권3호
    • /
    • pp.315-325
    • /
    • 2005
  • 이동 컴퓨팅 환경에서 이동 호스트는 제한된 대역폭을 효율적으로 사용하고 이동 트랜잭션의 응답 시간을 향상시키기 위하여 캐쉬를 사용한다. 그리고 이동 호스트에 캐슁된 데이타가 서버에서 갱신되는 경우 서버는 이동 호스트의 캐쉬 일관성을 유지하기 위하여 무효화 메시지를 방송한다. 그러나 주기적인 무효화 메시지 방송을 사용한 이동 호스트의 캐쉬 일관성 유지 방법은 이동 트랜잭션의 완료 결정을 무효화 메시지 수신 시점으로 지연함으로써 이동 트랜잭션의 응답 시간이 길어진다는 문제점이 있다. 본 연구에서는 캐슁된 데이타를 사용하여 이동 트랜잭션을 수행하는 경우에 이동 트랜잭션의 응답 시간을 향상시킬 수 있는 UGR-MT 방법을 제안한다. 제안하는 UGR-MT 방법은 데이타 그룹 정보를 사용하여 무효화 메시지 수신 이전에 이동 트랜잭션의 완료 결정을 내림으로써 이동 트랜잭션의 응답 시간을 향상시킬 수 있다. 또한 제안하는 방법은 이동 호스트의 단절 시간이 무효화 메시지 방송 구간보다 긴 경우에 발생할 수 있는 이동 호스트의 전체 캐쉬 내용의 버림을 방지함으로써 캐쉬의 효율성을 높일 수 있다.

고성능 내장형 마이크로프로세서를 위한 분기예측기의 설계 및 성능평가 (Branch Predictor Design and Its Performance Evaluation for A High Performance Embedded Microprocessor)

  • 이상혁;김일관;최린
    • 대한전자공학회:학술대회논문집
    • /
    • 대한전자공학회 2002년도 하계종합학술대회 논문집(2)
    • /
    • pp.129-132
    • /
    • 2002
  • AE64000 is the 64-bit high-performance microprocessor that ADC Co. Ltd. is developing for an embedded environment. It has a 5-stage pipeline and uses Havard architecture with a separated instruction and data caches. It also provides SIMD-like DSP and FP operation by enabling the 8/16/32/64-bit MAC operation on 64-bit registers. AE64000 processor implements the EISC ISA and uses the instruction folding mechanism (Instruction Folding Unit) that effectively deals with LERI instruction in EISC ISA. But this unit makes branch prediction behavior difficult. In this paper, we designs a branch predictor optimized for AE64000 Pipeline and develops a AES4000 simulator that has cycle-level precision to validate the performance of the designed branch predictor. We makes TAC(Target address cache) and BPT(branch prediction table) seperated for effective branch prediction and uses the BPT(removed indexed) that has no address tags.

  • PDF