• 제목/요약/키워드: (Network cache

검색결과 270건 처리시간 0.03초

High Performance Computing 환경을 위한 고성능, 무정지 파일시스템 구현 (The development of the high effective and stoppageless file system for high performance computing)

  • 박영배;최승환;이상호;김경수;공용준
    • 한국콘텐츠학회:학술대회논문집
    • /
    • 한국콘텐츠학회 2004년도 추계 종합학술대회 논문집
    • /
    • pp.395-401
    • /
    • 2004
  • In the current high network-centralized computing and enterprising environment, it is getting essential to transmit data reliably at very high rates. Until now previous client/server model based NFS(Network File System) or AFS(Andrew's Files System) have met the various demands but from now couldn't satisfy those of the today's scalable high-performance computing environment. Not only performance but data sharing service redundancy have risen as a serious problem. In case of NFS, the locking issue and cache cause file system to reboot and make problem when it is used simply as ip-take over for H/A service. In case of AFS, it provides file sharing redundancy but it is not possible until the storage supporting redundancy and equipments are prepared. Lustre is an open source based cluster file system developed to meet both demands. Lustre consists of three types of subsystems : MDS(Meta-Data Server) which offers the meta-data services, OST(Objec Storage Targets) which provide file I/O, and Lustre Clients which interact with OST and MDS. These subsystems with message exchanging and pursuing scalable high-performance file system service. In this paper, we compare the transmission speed of gigabytes file between Lustre and NFS on the basis of concurrent users and also present the high availability of the file system by removing more than one OST in operation.

  • PDF

무선 모바일 네트워크상에서 스트리밍 미디어 서비스를 위한 객체 버전 트랜스코딩 (Object version Transcoding for Streaming Media Service in Wireless Mobile Networks)

  • 이종득
    • 한국항행학회논문지
    • /
    • 제15권3호
    • /
    • pp.355-363
    • /
    • 2011
  • 무선 모바일 네트워크상에서 트랜스코딩은 지연을 줄이고, 스트림의 처리 성능을 향상시키는 중요한 메커니즘이다. 그러나 무선 모바일 스트리밍 미디어 서비스는 제한된 네트워크 대역폭과 자원 등으로 인하여 혼잡, 간섭 및 지연등과 같은 문제점이 발생하고 있다. 간섭과 지연은 QoS를 떨어뜨릴 뿐만 아니라 스트리밍 미디어 서비스의 응답성을 떨어뜨린다. 본 논문에서는 객체 버전 트랜스코딩 기법을 제안한다. 제안된 기법은 객체 버전들을 분석하여 트랜스코딩 그래프를 구축한다. 스트리밍을 효율적으로 제어하기 위하여 참조율 기반 제어 함수를 이용하며, 지연 절약을 위해 MVDS(Multiple Version Delay Saving)를 측정한다. 시뮬레이션 결과 제안된 기법이 다른 비교 결과 기법들에 비해서 지연율, 캐시 히트율이 증가됨을 보인다.

중첩 NEMO 환경에서 트리 기반 라우트 최적화 기법 (Tree based Route Optimization in Nested NEMO Environment)

  • 임형진;정태명
    • 인터넷정보학회논문지
    • /
    • 제9권1호
    • /
    • pp.9-19
    • /
    • 2008
  • 이 논문은 인터넷으로 중첩 NEMO 네트워크가 연결될 때 최적화가 요구되는 두 가지 연결성을 고려하고 있다. 하나는 인터넷과 중첩 NEMO 네트워크 사이의 연결이고, 다른 하나는 중첩 NEMO 네트워크 내부의 MR간의 연결성이다. 이러한 연결성은 IPv6에 기반하고 있으며, 중첩 NEMO 네트워크는 NEMO를 인식하는 AR(Access Router)에 의해 구성될 수 있다. 특히 이 논문은 중첩 NEMO의 토폴로지 특성을 나타내는 트리 기반한 토폴로지 정보를 포함하고, 트리 구조를 가지는 주소 체계를 제안한다. 이 제안은 기존에 대표적인 RO(Route Optimization) 제안들과 비교할 때, MR 홈 네트워크로의 BU(Binding Update) 성능은 가장 효율적인 접근과 비슷하였고, 내부라우팅 효율은 가장 효율적으로 나타났다.

  • PDF

Content-Aware D2D Caching for Reducing Visiting Latency in Virtualized Cellular Networks

  • Sun, Guolin;Al-Ward, Hisham;Boateng, Gordon Owusu;Jiang, Wei
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제13권2호
    • /
    • pp.514-535
    • /
    • 2019
  • Information-centric networks operate under the assumption that all network components have built-in caching capabilities. Integrating the caching strategies of information centric networking (ICN) with wireless virtualization improves the gain of virtual infrastructure content caching. In this paper, we propose a framework for software-defined information centric virtualized wireless device-to-device (D2D) networks. Enabling D2D communications in virtualized ICN increases the spectral efficiency due to reuse and proximity gains while the software-defined network (SDN) as a platform also simplifies the computational overhead. In this framework, we propose a joint virtual resource and cache allocation solution for latency-sensitive applications in the next-generation cellular networks. As the formulated problem is NP-hard, we design low-complexity heuristic algorithms which are intuitive and efficient. In our proposed framework, different services can share a pool of infrastructure items. We evaluate our proposed framework and algorithm through extensive simulations. The results demonstrate significant improvements in terms of visiting latency, end user QoE, InP resource utilization and MVNO utility gain.

Count-Min HyperLogLog : 네트워크 빅데이터를 위한 카디널리티 추정 알고리즘 (Count-Min HyperLogLog : Cardinality Estimation Algorithm for Big Network Data)

  • 강신정;양대헌
    • 정보보호학회논문지
    • /
    • 제33권3호
    • /
    • pp.427-435
    • /
    • 2023
  • 카디널리티 추정은 실생활의 많은 곳에서 사용되며, 큰 범위의 데이터를 처리하는 데 근본적 문제이다. 인터넷이 빅데이터의 시대로 넘어가며 데이터의 크기는 점점 커지고 있지만, 작은 온칩 캐시 메모리만을 이용하여 카디널리티 추정이 이뤄진다. 메모리를 효율적으로 사용하기 위해서, 지금까지 많은 방법이 제안되었다. 그러나, 이러한 알고리즘에서는 estimator 간의 노이즈 발생으로 인해 정확도가 떨어지는 일이 발생한다. 이 논문에서는 노이즈를 최소화하는데 중점을 뒀다. 우리는 여러 개의 데이터 구조를 제안하여 각 estimator가 데이터 구조 수만큼의 추정값을 가지고, 이 중 가장 작은 값을 선택하여 노이즈를 최소화한다. 실험을 통해 이 방법이 이전의 가장 좋은 방법과 비교했을 때, 플로우당 1 bit와 같은 작은 메모리를 사용하면서 더 좋은 성능을 보이는 것을 확인했다.

내장형 시스템을 위한 저전력 2-레벨 캐쉬 메모리의 설계 (Low-Power 2-level Cache Architectures for Embedded System)

  • 이종민;김순태;김경아;박수호;김용호
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2008년도 추계학술발표대회
    • /
    • pp.806-809
    • /
    • 2008
  • 온칩(on-chip) 캐쉬는 외부 메모리로의 접근을 감소시키는 중요한 역할을 한다. 본 연구에서는 내장형 시스템에 맞추어 설계된 2-레벨 캐쉬 메모리 구조를 제안하고자 한다. 레벨1(L1) 캐쉬의 구성으로 작은 크기, 직접사상(direct-mapped) 그리고 바로쓰기(write-through)를 채용한다. 대조적으로 레벨2(L2) 캐쉬는 일반적인 캐쉬 크기와 집합연관(Set-associativity) 그리고 나중쓰기(write-back) 정책을 채용한다. 결과적으로 L1캐쉬는 한 사이클 이내에 접근될 수 있고 L2캐쉬는 전체 캐쉬의 미스율(global miss rate)을 낮추는데 효과적이다. 두 캐쉬 계층간 바로쓰기(write-thorough) 정책에서 오는 빈번한 L2 캐쉬 접근으로 인한 에너지 소비를 줄이기 위해 본 연구에서는 One-way 접근 기법을 제안하였다. 본 연구에서 제안한 2-레벨 캐쉬 메모리 구조는 평균적으로 26%의 성능향상과 43%의 에너지 소비 그리고 77%의 에너지-지연 곱에서 이득을 보여주었다.

레이블 스위칭 네트웍 상에서 L2A 캐쉬 대체기법 (L2A Cache Replacement Scheme for Label Switching Network)

  • 김남기;황인철;윤현수
    • 한국멀티미디어학회:학술대회논문집
    • /
    • 한국멀티미디어학회 2000년도 춘계학술발표논문집
    • /
    • pp.386-389
    • /
    • 2000
  • 인터넷이 급속도로 발전되면서 트래픽이 폭발적으로 증가하여 현재 라우터에 많은 부담을 주고 있다. 반면 스위칭 기술은 라우팅보다 빠르게 데이터를 전송할수 있다. 그 결과 라우터 병목 현상을 해결하고자 IP 라우팅이 스위칭 기술을 접목한 레이블 스위칭 네트웍이 출현하게 되었다. 레이블 스위칭 기술중 데이터 기반 레이블 스위칭에서 매우 중요한 것은 캐쉬 테이블 관리이다. 캐쉬 테이블에는 흐름 분류를 위한 정보와 레이블 스위칭을 위한 정보를 저장하고 있는데 캐쉬 테이블 크기는 라우터자원에 의해 제약을 받으므로 캐쉬 대체기법이 필요하게 된다. 따라서 효율적이 캐쉬테이블 관리를 위해 인터넷 트래픽 특성을 고려한 캐쉬 대체 기법에 관한 연구가 필요하다. 본 논문에서는 인터넷 트래픽 특성을 고려해 LFC 기법과 LRU 기법의 단점을 보완한 L2A 캐쉬 대체 기법을 제안한다. L2A 기법은 기본적인 FIFO , LFC, LRU 기법보다 나은 성능을 보이며 특히 캐쉬 크기가 작을 경우에도 타 기법에 비해 탁월한 성능을 유지한다.

  • PDF

CC-NUMA 시스템에서의 프로세싱 노드간 네트워크 부하 분석 (Analysis of Network Communication Overhead Among Processing Nodes in CC-NUMA System)

  • 김태균
    • 한국정보과학회:학술대회논문집
    • /
    • 한국정보과학회 2000년도 가을 학술발표논문집 Vol.27 No.2 (3)
    • /
    • pp.609-611
    • /
    • 2000
  • CC-NUMA 시스템은 SMP 시스템의 장점인 프로그래밍의 편리함, 작업 환경의 유연함 및 관리의 용이함 등을 유지하는 한편, SMP의 단점이었던 확장성까지 제공한다. 더욱이 메모리 장벽 즉 급격히 빨라지는 프로세서의 처리 속도에 비해 메모리의 속도는 거의 변화가 없음으로 인하여 야기되는 문제를 극복할 수 있는 구조적인 대안으로 각광받고 있다. 이러한 CC-NUMA 시스템은 노드간의 논리적인 거리가 길기 때문에 프로세싱 노드간의 통신이 시스템의 성능에 영향을 미치는 가장 핵심 요소가 된다. 따라서 노드간의 통신을 최소화 해주기 위한 노력으로 각 노드에 장착되어지는 원격 캐쉬의 중요성이 강조된다. 본 논문에서는 CC-NUMA 시스템에서는 노드간 데이터 통신의 유형을 파악하고, 원격 캐쉬의 블록 사이즈에 따른 이들의 발생횟수의 변화를 분석하였다. 인스트럭션 시뮬레이터인 CacheMire와 II 벤치마크 중 하나인 FFT를 이용하여 실행-구동 시뮬레이션을 통해 원격캐쉬 블록의 크기가 증가할수록 노드간 통신의 횟수는 물론 전송되는 데이터의 절대적인 양이 감소한다는 사실을 알 수 있었다.

  • PDF

네트워크 트래픽 절감을 위한 캐시 배치 구조 (Cache Layout Management for Reducing Network Traffic)

  • 구태연;정영식;박종열
    • 한국정보과학회:학술대회논문집
    • /
    • 한국정보과학회 2012년도 한국컴퓨터종합학술대회논문집 Vol.39 No.1(D)
    • /
    • pp.249-250
    • /
    • 2012
  • 스마트 캐쉬 시스템은 콘텐츠 전달망에서 콘텐츠 트래픽 양을 감소시키기 위해 필수적인 기술로써 가입자 네트워크 구간에 콘텐츠를 자동 저장하여 중복 전송을 최소화 하는 시스템이다. 부하 분산 시스템을 통해 특정 스마트 캐쉬 서버로 집중되는 요청을 분산하고 콘텐츠 요청자의 주소에 따른 최적의 스마트 캐쉬를 지정하는 기술이다. 이를 통해 스마트 캐쉬를 적용한 글로벌 딜리버리 클라우드 플랫폼을 구축하여 콘텐츠 전송 플랫폼 기술의 국내 기업 경쟁력을 확보할 수 있고, 차세대 콘텐츠 유통 시장에서의 기술력 확보와 국내 업체의 세계 시장 지배력 강화할 수 있다.

An Effective Pre-refresh Mechanism for Embedded Web Browser of Mobile Handheld Devices

  • Li Huaqiang;Kim Young-Hak;Kim Tae-Hyung
    • 한국멀티미디어학회논문지
    • /
    • 제7권12호
    • /
    • pp.1754-1764
    • /
    • 2004
  • Lately mobile handheld devices such as Personal Digital Assistant (PDA) and cellular phones are getting more popular for personal web surfing. However, today most mobile handheld devices have relatively poor web browsing capability due to their low performance so their users have to suffer longer communication latency than those of desktop Personal Computers (PCs). In this paper, we propose an effective pre-refresh mechanism for embedded web browser of mobile handheld devices to reduce this problem. The proposed mechanism uses the idle time to pre-refresh the expired web objects in an embedded web browser's cache memory. It increases the utilization of Central Processing Unit (CPU) power and network bandwidth during the idle time and consequently reduces the client's latency and web browsing cost. An experiment was done using a simulator designed by us to evaluate the efficacy of the proposed mechanism. The experiment result demonstrates that it has a good performance to make web surfing faster.

  • PDF