• 제목/요약/키워드: Memory system

검색결과 3,598건 처리시간 0.028초

Dual Core 시스템에서 Shared Memory 기능 설계 (The Design of the Shared Memory in the Dual Core System)

  • 장승주;이광용;김재명
    • 한국정보통신학회논문지
    • /
    • 제12권8호
    • /
    • pp.1448-1455
    • /
    • 2008
  • 본 논문은 대부분의 Linux 운영체제에서 지원해 주는 System V의 IPC 중 하나인 Shared Memory를 Dual Core 시스템 상에서 동작하도록 설계한다. Linux에서 사용되는 Shared Memory는 동일한 메모리 영역에 여러 개의 프로세스가 접근할 수 있도록 해 주는 기술이 다. 본 논문에서는 Shared Memory의 큰 두 갈래 중 커널 단계에서 처리되는 SVR(System V Release) 형식의 Shared Memory를 다룬다. 본 논문에서는 리눅스 운영체제의 공유 메모리 기능을 Dual Core 시스템에서 동작하도록 설계한다. 본 논문에서 제안하는 Dual Core 시스템에서 공유 메모리 기능 설계 방안은 듀얼 코어를 활용하여 기존의 단일 처리기 시스템에서보다 성능을 향상시킬 수 있도록 한다. 공유 메모리를 이용한 프로세스의 동작이 별개의 CPU에서 동작되도록 함으로써 성능 향상을 꾀한다.

Dual Core 시스템에서 Shared Memory 기능 구현 (Implementation of the Shared Memory in the Dual Core System)

  • 장승주
    • 한국콘텐츠학회논문지
    • /
    • 제8권9호
    • /
    • pp.27-33
    • /
    • 2008
  • Linux에서 사용되는 Shared Memory는 동일한 메모리 영역에 여러 개의 프로세스가 접근할 수 있도록 해 주는 기술이다. 본 논문은 Linux 운영체제에서 지원해 주는 System V의 IPC 중 하나인 Shared Memory를 Dual Core 시스템 상에서 동작하도록 구현한다. 본 논문에서는 커널 단계에서 처리되는 SVR(System V Release) 형식의 Shared Memory를 다룬다. 기존의 공유메모리 방식은 단일 처리기를 이용한 방식이다. 본 논문에서는 dual core를 이용하여 공유메모리 처리를 할 수 있는 시스템을 제안한다. 본 논문에서 제안하는 Dual Core 시스템에서 공유 메모리 기능 구현은 기존의 단일 처리기 시스템에서보다 성능을 향상시킬 수 있도록 한다. 공유 메모리를 이용한 프로세스의 동작이 별개의 CPU에서 동작되도록 함으로써 성능 향상을 꾀한다.

플래시 메모리를 저장매체로 사용하는 임베디드 시스템에서의 정규파일 접근 (Regular File Access of Embedded System Using Flash Memory as a Storage)

  • 이은주;박현주
    • Journal of Information Technology Applications and Management
    • /
    • 제11권1호
    • /
    • pp.189-200
    • /
    • 2004
  • Recently Flash Memory which is small and low-powered is widely used as a storage of embedded system, because an embedded system requests portability and a fast response. To resolve a difference of access time between a storage and RAM, Linux is using disk caching which copies a part of file on disk into RAM. It is not also an exception on embedded system. A READ access-time of flash memory is similar to RAMs. So, when a process on an embedded system reads data, it is similar to the time to access cached data in RAM and to access directly data on a flash memory. On the embedded system using limited memory, using a disk cache is that wastes much time and memory spaces to manage it and can not reflects the characteristic of a flash memory. This paper proposes the regular file access of limited using a page cache in the file system based on a flash memory and reflects the characteristic of a flash memory. The proposed algorithm minimizes power consumption because access numbers of the RAM are reduced and doesn't waste a memory space because it accesses directly to a flash memory Therefore, the performance improvement of the system applying the proposed algorithm is expected.

  • PDF

Design of Memory-Resident GIS Database Systems

  • Lee, J. H.;Nam, K.W.;Lee, S.H.;Park, J.H.
    • 대한원격탐사학회:학술대회논문집
    • /
    • 대한원격탐사학회 2003년도 Proceedings of ACRS 2003 ISRS
    • /
    • pp.499-501
    • /
    • 2003
  • As semiconductor memory becomes cheaper, the memory capacity of computer system is increasing. Therefore computer system has sufficient memory for a plentiful spatial data. With emerging spatial application required high performance, this paper presents a GIS database system in main memory. Memory residence can provide both functionality and performance for a database management system. This paper describes design of DBMS for storing, querying, managing and analyzing for spatial and non-spatial data in main-memory. This memory resident GIS DBMS supports SQL for spatial query, spatial data model, spatial index and interface for GIS tool or applications.

  • PDF

로그기반 플래시 메모리 파일 시스템 성능 향상 기법 (A Technique to Enhance Performance of Log-based Flash Memory File Systems)

  • 류준길;박찬익
    • 대한임베디드공학회논문지
    • /
    • 제2권3호
    • /
    • pp.184-193
    • /
    • 2007
  • Flash memory adoption in the mobile devices is increasing or vanous multimedia services such as audio, videos, and games. Although the traditional research issues such as out-place update, garbage collection, and wear-leveling are important, the performance, memory usage, and fast mount issues of flash memory file system are becoming much more important than ever because flash memory capacity is rapidly increasing. In this paper, we address the problems of the existing log-based flash memory file systems analytically and propose an efficient log-based file system, which produces higher performance, less memory usage and mount time than the existing log-based file systems. Our ideas are applied to a well-known log-based flash memory file system (YAFFS2) and the performance tests are conducted by comparing our prototype with YAFFS2. The experimental results show that our prototype achieves higher performance, less system memory usage, and faster mounting than YAFFS2, which is better than JFFS2.

  • PDF

Memory Latency Penalty를 개선한 SIMT 기반 Stream Processor의 Memory Operation System Architecture 설계 (An Implementation of a Memory Operation System Architecture for Memory Latency Penalty Reduction in SIMT Based Stream Processor)

  • 이광엽
    • 전기전자학회논문지
    • /
    • 제18권3호
    • /
    • pp.392-397
    • /
    • 2014
  • 본 논문은 Memory Latency Penalty를 개선한 SIMT Architecture 기반 Stream Processor의 Memory Operation System Architecture를 제안한다. 제안하는 구조는 Non-Blocking Cache Architecture를 적용하여 기존의 Blocking Cache Architecture에서 발생하는 Cache Miss Penalty를 개선하였고 다양한 알고리즘의 처리속도를 비교하여 제안하는 Memory Operation System Architecture를 적용한 Stream Processor의 성능 향상을 검증하였다. 실험은 각 알고리즘의 Memory 명령어의 비율에 따라 향상된 성능을 측정하여 Stream Processor의 성능이 최소 8.2%에서 최대 46.5%까지 향상됨을 확인하였다.

LFM 기법을 이용한 플래시 메모리 스와핑 파일 시스템 설계 (A Design of a Flash Memory Swapping File System using LFM)

  • 한대만;구용완
    • 인터넷정보학회논문지
    • /
    • 제6권4호
    • /
    • pp.47-58
    • /
    • 2005
  • 플래시 메모리는 NOR 형과 NAND 형의 플래시 메모리 형태로 구분 할 수 있다. NOR 형태의 플래시 메모리는 빠른 읽기 속도와 Byte I/O 형태를 지원하기 때문에 ROM BIOS 와 같은 코드저장용으로 개발되어 진다. NAND 형태의 플래시 메모리는 NOR 형태의 플래시 메모리 보다 값이 싸고 임베디드 리눅스 시스템의 대용량 처리 장치 등에서와 같이 폭 넓게 사용되고 있다. 본 논문에서는 NAND 형태의 플래시 메모리를 이용하여 시스템의 성능을 저하 시키는 Swapping을 감소시키고, 수행시간을 보장할 수 있는 플래시 메모리 Swapping 알고리즘을 제안하여, 임베디드 시스템을 기반으로 하는 파일시스템을 설계한다. 실험과 플래시 파일 시스템 구현을 통하여 임베디드 시스템에서 요구하는 NAND 형 플래시 파일 시스템의 성능을 개선한다.

  • PDF

CPU-GPU간 긴밀성을 위한 효율적인 공유메모리 접근 방법과 검증 시스템 구현 (Implementation of Integrated CPU-GPU for Efficient Uniform Memory Access Method and Verification System)

  • 박현문;권진산;황태호;김동순
    • 대한임베디드공학회논문지
    • /
    • 제11권2호
    • /
    • pp.57-65
    • /
    • 2016
  • In this paper, we propose a system for efficient use of shared memory between CPU and GPU. The system, called Fusion Architecture, assures consistency of the shared memory and minimizes cache misses that frequently occurs on Heterogeneous System Architecture or Unified Virtual Memory based systems. It also maximizes the performance for memory intensive jobs by efficient allocation of GPU cores. To test between architectures on various scenarios, we introduce the Fusion Architecture Analyzer, which compares OpenMP, OpenCL, CUDA, and the proposed architecture in terms of memory overhead and process time. As a result, Proposed fusion architectures show that the Fusion Architecture runs benchmarks 55% faster and reduces memory overheads by 220% in average.

CF(Compact Flash)메모리 카드를 이용한 부트 시스템 구현에 관한 연구 1. CF메모리 카드를 이용한 부트 시스템 구현 (The Study of the Implementation of the Boot System Using CF(Compact Flash) memory card 1. Implementation of the Boot System Using CF memory card)

  • 이광철;김영길
    • 한국정보통신학회논문지
    • /
    • 제8권1호
    • /
    • pp.108-114
    • /
    • 2004
  • 본 논문은 CF 메모리카드를 이용한 부트 시스템을 제안하고 실제 구현에 관하여 연구한 것이다. 본 논문에서 제안하는 시스템은 고성능의 마이크로프로세서와 적은 양의 프로그램 메모리, CF 메모리카드를 기본으로 구성된다. 여기에 사용자 인터페이스를 위하여 LCD 모듈 및 터치 판넬을 추가된다. 구현된 시스템은 대용량의 Flash 메모리 대신 CF 메모리카드와 DRAM을 이용하여 시스템 단가를 낮출 수 있었으며, 시스템 프로그램이 DRAM에서 실행되기 때문에 시스템 성능이 향상된다.

Memory Design for Artificial Intelligence

  • Cho, Doosan
    • International Journal of Internet, Broadcasting and Communication
    • /
    • 제12권1호
    • /
    • pp.90-94
    • /
    • 2020
  • Artificial intelligence (AI) is software that learns large amounts of data and provides the desired results for certain patterns. In other words, learning a large amount of data is very important, and the role of memory in terms of computing systems is important. Massive data means wider bandwidth, and the design of the memory system that can provide it becomes even more important. Providing wide bandwidth in AI systems is also related to power consumption. AlphaGo, for example, consumes 170 kW of power using 1202 CPUs and 176 GPUs. Since more than 50% of the consumption of memory is usually used by system chips, a lot of investment is being made in memory technology for AI chips. MRAM, PRAM, ReRAM and Hybrid RAM are mainly studied. This study presents various memory technologies that are being studied in artificial intelligence chip design. Especially, MRAM and PRAM are commerciallized for the next generation memory. They have two significant advantages that are ultra low power consumption and nearly zero leakage power. This paper describes a comparative analysis of the four representative new memory technologies.