• Title/Summary/Keyword: 메모리

Search Result 5,937, Processing Time 0.052 seconds

자기조립된 금속나노입자를 이용한 비휘발성 메모리 소자

  • Lee, Jang-Sik
    • Proceedings of the Materials Research Society of Korea Conference
    • /
    • 2011.05a
    • /
    • pp.12-12
    • /
    • 2011
  • 최근 휴대용 전자기기의 사용이 증가함에 따라 비휘발성 메모리 소자에 대한 수요가 급증하고 있다. 다양한 메모리 소자 중에서 현재는 플래시 메모리를 기반으로 하는 비휘발성 메모리 소자의 연구 및 개발이 활발히 이루어지고 있으며, 플래시 메모리 소자의 경우 모든 반도체 메모리 소자 중에서 가장 빠른 발전 속도로 개발되고 있다. 이러한 플래시 메모리 소자의 발전을 기반으로 스마트폰, 디지털 카메라, 태블릿 PC 등의 개발 및 대중화를 가져왔다. 이러한 플래시 메모리를 기반으로 하는 비휘발성 메모리 소자의 경우 반도체 소자의 발전을 주도하며 발전하고 있으나, 새로운 전자기기 및 소자(flexible electronics, printed electronics, organic electronics 등) 응용을 위해서는 저비용으로 쉽게 제작할 수 있는 메모리 소자의 개발이 필요하다. 이에 적합한 메모리 소자 구조는 기존 플래시 메모리 소자와 유사한 트랜지스터 기반의 메모리 소자라고 할 수 있다. 본 발표에서는 플래시 메모리 소자와 유사한 구조 및 동작 특성을 갖는 자기조립된 금속나노입자를 정보저장층으로 이용하는 비휘발성 메모리 소자 개발에 대한 내용을 소개하고자 한다. MOS 캐패시터나 박막트랜지스터 내의 게이트 절연층에 자기조립된 금속 나노입자를 삽입하여 비휘발성 메모리 소자를 구현하였다. 게이트에 인가되는 전압에 따라 금속 나노입자 층에 전하를 trap/detrap 시킬 수 있으며, 이러한 거동에 따라 MOS 캐패시터 또는 트랜지스터 구조의 메모리 소자의 문턱전압 값이 변화하게 되어 program/erase 상태를 확인할 수 있다. 실리콘 게이트를 이용하는 메모리 소자, 다층의 정보저장층을 이용하는 메모리 소자, 프린팅 공정에 의해 형성된 메모리 소자 등 다양한 형태의 나노입자 기반 메모리 소자를 구현하였으며, 이러한 나노입자 기반 비휘발성 메모리 소자의 경우, 우수한 동작 특성 및 향상된 신뢰성을 보여주어, 차세대 메모리 소자로 이용하기에 적합한 특성을 나타내었다. 또한 대부분의 공정이 저온에서 가능하기 때문에 최종적인 메모리 소자의 플랫폼으로 플렉서블 플라스틱 기판을 이용하여, 유기트랜지스터 기반의 플렉서블 메모리 소자를 구현하였다. 본 발표에서는 다양한 형태의 나노입자 기반 비휘발성 메모리 소자의 제작 방법, 동작 특성, 신뢰성 평가 등에 대해 자세히 논의될 것이다.

  • PDF

A Memory Allocation Strategy for Minimizing External Fragmentation in Embedded Java Virtual Machine (임베디드 자바가상기계에서 외부 단편화 최소화를 위한 메모리 할당)

  • 김성수;양희재
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2004.04a
    • /
    • pp.940-942
    • /
    • 2004
  • 자바가상기계의 메모리 할당에서 서로 다른 크기의 메모리 할당과 해제는 힙 영역과 자바 스택 영역에 심각한 외부 단편화를 발생시킨다. 자바가상기계에서 외부 단편화는 가비지 콜렉션의 발생을 증가시키고 메모리를 할당하기 위한 메모리 접근이 증가되는 고비용의 동작이 발생하므로 소규모 메모리에서 동작하는 임베디드 자바가상기계에서 성능저하가 발생하게 된다. 본 논문에서는 임베디드 자바가상기계에서 외부 단편화를 최소화하고 메모리를 효율적으로 관리하기 위한 한 가지 방안으로 고정크기 메모리 할당 방법에 대한 연구이다. 고정크기 메모리 할당 기법은 자바가상기계의 힙 영역에 가장 큰 객체의 크기를 기준으로 할당하고 자바 스택 영역에 가장 큰 스택 프레임을 기준으로 할당하도록 하여, 힙 영역과 자바 스택 영역에 외부 단편화를 최소화하도록 하는 메모리 할당 정책이다. 고정 크기 메모리 할당은 내부 단편화에 따른 메모리 낭비가 발생될 수 있지만, 외부 단편화는 최소화되기 때문에 가비지 콜렉션 발생 횟수를 감소시킬 수 있으며, 회수된 메모리 공간을 재구성하는 고비용을 제거 할 수 있다. 또한 할당 해제된 영역들은 Free-List로 연결되어 메모리 할당을 위한 메모리 접근을 최소화시키는 장점을 가진다.

  • PDF

NAND-Type TLC Flash Memory Test Algorithm Using Cube Pattern (큐브 패턴을 이용한 NAND-Type TLC 플래시 메모리 테스트 알고리즘)

  • Park, Byeong-Chan;Chang, Hoon
    • Proceedings of the Korean Society of Computer Information Conference
    • /
    • 2018.07a
    • /
    • pp.357-359
    • /
    • 2018
  • 최근 메모리 반도체 시장은 SD(Secure Digital) 메모리 카드, SSD(Solid State Drive)등의 보급률 증가로 메모리 반도체의 시장이 대규모로 증가하고 있다. 메모리 반도체는 개인용 컴퓨터 뿐만 아니라 스마프폰, 테플릿 PC, 교육용 임베디드 보드 등 다양한 산업에서 이용 되고 있다. 또한 메모리 반도체 생산 업체가 대규모로 메모리 반도체 산업에 투자하면서 메모리 반도체 시장은 대규모로 성장되었다. 플래시 메모리는 크게 NAND-Type과 NOR-Type으로 나뉘며 플로팅 게이트 셀의 전압의 따라 SLC(Single Level Cell)과 MLC(Multi Level Cell) 그리고 TLC(Triple Level Cell)로 구분 된다. SLC 및 MLC NAND-Type 플래시 메모리는 많은 연구가 진행되고 이용되고 있지만, TLC NAND-Tpye 플래시 메모리는 많은 연구가 진행되고 있지 않다. 본 논문에서는 기존에 제안된 SLC 및 MLC NAND-Type 플래시 메모리에서 제안된 큐브 패턴을 TLC NAND-Type 플래시 메모리에서 적용 가능한 큐브 패턴 및 알고리즘을 제안한다.

  • PDF

A Study on English-Korean Messenger MT System based on Structured Translation Memory (구조화된 번역 메모리 기반 영한 메신저 자동 번역 시스템에 관한 연구)

  • Choi, Sung-Kwon;Kim, Young-Gil
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2011.04a
    • /
    • pp.361-364
    • /
    • 2011
  • 본 논문의 목표는 크게 두 가지이다. 하나는 2010년에 개발한 메신저 자동번역 시스템을 소개하는 것이고, 다른 하나는 메신저 대화체 문장을 더욱 고품질로 번역하기 위한 구조화된 번역 메모리(Structured Translation Memory)를 소개하는 것이다. 구조화된 번역 메모리는 기존의 문자열 기반의 번역 메모리와 자동 번역 시스템의 경계를 허무는 개념으로 구조를 표현하는 계층적 번역 메모리들로 구성된다. 구조화된 번역 메모리는 문자열 번역 메모리, 원형 어휘로 구성된 번역 메모리, 고유명사가 청킹된 번역 메모리, 날짜/숫자가 청킹된 번역 메모리, 기본명사구가 청킹된 번역 메모리, 문장 패턴 번역 메모리로 단계적으로 구성된다. 구조화된 번역 메모리를 적용하기 전의 2010년의 영한 메신저 자동 번역 시스템의 번역률이 81.67%였던 반면에, 구조화된 번역 메모리를 적용하려는 2011년의 영한 메신저 자동 번역 시스템의 시물레이션 번역률은 85.25%인 것으로 평가되었다. 따라서 구조화된 번역 메모리를 적용하였을 때는 기존의 번역률보다 3.58% 향상할 것으로 예측된다.

Fixed-Size Memory Allocation for Memory Space Reuse in Small Embedded Java Virtual Machine (소규모 내장형 자바가상기계에서 메모리 공간 재사용을 위한 고정 크기 메모리 할당)

  • 김성수;양희재
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2003.10a
    • /
    • pp.232-234
    • /
    • 2003
  • 자바가상기계는 힙 영역과 자바 스택 영역에 객체와 스택 프레임을 할당할 공간이 없을 때 가비지 콜렉션과 함께 이미 해제된 힙과 자바 스택 영역을 재사용 가능하도록 메모리 공간을 재구성하게 된다. 한편 메모리 단편화로 인해 객체 또는 스택 프레임을 더 이상 할당하지 못하는 경우 자바가상기계는 컴펙션을 수행하여 메모리 단편화를 제거하면서 메모리를 재구성한다. 하지만 자바가상기계에서 메모리 재구성은 가비지 콜렉션및 컴펙션과 함께 길고 예측할 수 없는 지연시간에 의해 내장형 자바가상기계의 성능을 저하시키는 단점을 가진다. 본 논문은 소규모 내장형 자바가상기계의 성능을 개선하기 위한 방안으로, 가변 크기를 가지는 객체와 스택 프레임을 고정 크기로 변환하여 메모리를 할당하는 고정 크기 메모리 할당에 대해 기술하고 있다. 고정 크기 메모리 할당은 메모리 전체 사용율은 떨어지지만 외부 단편화가 발생하지 않기 때문에 회수된 메모리 공간을 재구성하지 않고도 힙 영역과 자바 스택 영역에 객체와 스택 프레임을 할당 가능하다. 본 논문에서 기술한 고정 크기 메모리 할당 방식으로 객체와 스택 프레임을 할당하게 되면 가변 크기 메모리 할당 보다 약 10% ~ 30% 효율향상을 보였다.

  • PDF

WLRU: Remote Cache Management Policy for Distributed Shared Memory Architectures (WLRU: 분산 공유 메모리 구조에 적합한 원격 캐시 관리 정책)

  • Suh Hyo-Joong;Lee Byong-Ho
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2005.07a
    • /
    • pp.61-63
    • /
    • 2005
  • 분산 메모리에 기반한 다중 프로세서 시스템은 기존의 중앙 집중형 메모리 구조의 단점인 메모리 접근의 병목현상을 극복하고 프로세서와 메모리의 부가에 따라 메모리 대역폭을 확장시킬 수 있는 구조로써 최근의 다중 프로세서 시스템 구조의 주류로 대두되고 있다. 다중 프로세서 시스템의 성능은 메모리 접근 지연에 의하여 제한 받고 있는데 이러한 이유는 프로세서의 동작 주파수 속도에 비하여 메모리의 접근 지연이 수십 배 이상이 되기 때문이다. 특히 분산 메모리 다중 프로세서 시스템에 있어서 메모리 접근은 지역 메모리 접근과 원격 메모리 접근의 두 가지 유형으로 나눌 수 있는데 이 중 원격 메모리 접근 지연은 시스템의 상호 접속망 구조에 따라 지역 메모리 접근 지연에 비하여 수 배 내지 수십 배에 이르고 있다. 본 논문에서는 분산 메모리 다중 프로세서 시스템에서 상호 접속 망의 구조에 따라 원격 메모리 접근 간에도 시간 지연의 차이가 있음에 착안하여 원격 메모리 접근 시간 지연에 따른 최적화 된 원격 캐시 관리 정책을 제시하며 각 상호 접속 망의 구조에 따라 이러한 캐시 관리 정책에 의한 성능 향상의 정도를 측정한다.

  • PDF

A Memory Type System for Safe and Efficient Memory Reuse (메모리 타입 분석을 통한 안전하고 효율적인 메모리 재사용)

  • 이욱세;이광근
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2002.04b
    • /
    • pp.352-354
    • /
    • 2002
  • 메모리 재활용 방법 (gabage collection)은 안전하고 효율적이지만, 메모리를 재사용하려면 항상 메모리를 수거해야 하는 비용이 든다. 가능하면 메모리 수거없이 즉각적으로 메모리를 재사용하게 함으로써 비용을 줄일 수 있다. 본 논문에서는 실행시간 정보 전달을 통해 효과적으로 메모리를 즉각 재사용할 수 있는 방법을 제시하고, 그러한 메모리 재사용이 안전하다는 것을 증명하는 메모리 타입 시스템을 제시한다. 제시한 방법을 사용하여 프로그램 sieve를 28.1% 빠르게 실행할 수 있었다..

  • PDF

분리 메모리 시스템의 보안 기술 연구 동향

  • Yewon Yong;Changdae Kim;Taehoon Kim
    • Review of KIISC
    • /
    • v.33 no.5
    • /
    • pp.17-24
    • /
    • 2023
  • 최근 대규모 인공지능 데이터 처리를 위한 메모리 용량 한계 극복과 데이터센터의 메모리 효율성 향상을 위해 분리 메모리 시스템 기술이 각광 받고 있다. 그런데, 분리 메모리 시스템은 컴퓨팅 노드의 메모리 외의 디바이스 혹은 원격 노드의 메모리를 활용해 확장된 메모리를 제공하기 때문에 새로운 보안 위협이 발생한다. 본 논문은 분리 메모리 시스템의 보안 위협을 분석하고, 분리 메모리 시스템에 적용 가능한 보안 기술의 최근 연구 동향을 소개한다.

Queue Memory Management Method for Continuous Query Processing in Data Stream (데이터 스트림에서 연속질의 처리를 위한 큐 메모리 관리 기법)

  • Shin, Jae-Wan;Shin, Soong-Sun;Lee, Dong-Wook;Kim, Kyung-Bae;Bae, Hae-Young
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2008.06c
    • /
    • pp.179-183
    • /
    • 2008
  • 연속적이고 무한히 발생되는 데이터 스트림을 관리하는 데이터 스트림 관리시스템(DSMS)은 연속질의를 이용하여 스트림을 처리한다. 연속질의는 질의 별로 독립적인 큐를 유지하기 때문에 질의 개수가 증가함에 따라서 메모리 비용이 증가되며, 잦은 메모리 할당으로 인한 시스템의 성능 저하를 갖는다. 이러한 문제점을 해결하기 위한 기존의 연구로 메모리 풀을 이용한 메모리 관리 기법이 있다. 하지만 페이지의 크기가 고정되어 있기 때문에 각 질의마다 필요로 하는 데이터 스트림의 최적의 크기에 적합하게 할당되지 못하여 메모리를 낭비하는 문제점이 있다. 본 논문에서는 이러한 문제를 해결하기 위해 연속질의 처리를 위한 큐 메모리 관리 기법을 제안한다. 제안기법은 큐 관리 테이블에서 관리하는 각각의 큐 메모리들을 타임스탬프를 가지고 일정한 기간을 주기로 큐 메모리의 사용량을 분석한다. 분석된 큐 메모리들은 이전의 큐 메모리의 사용량과 현재 사용된 큐 메모리의 사용량을 비교함으로써 상한 값과 하한 값을 구함으로써 현재 큐 메모리에서 가지고 있는 사용량을 추가할 것인지, 줄일 것인지를 판단하여, 메모리의 사용량을 최적화 함으로써 시스템의 메모리 가용성을 향상한다. 제안 기법은 성능평가를 통해 메모리의 가용성이 기존의 방식에 비하여 향상된 성능을 보인다.

  • PDF

Evaluation of the Data Migration between CPU Memory and GPU Memory for a NVIDIA Pascal GPU Using Unified Memory (통합 메모리를 사용하는 NVIDIA 파스칼 GPU에서의 CPU 메모리와 GPU 메모리 간 데이터 통신 분석)

  • Shin, Philkyue;Hong, Seongsoo
    • Proceedings of the Korean Society of Computer Information Conference
    • /
    • 2018.07a
    • /
    • pp.7-10
    • /
    • 2018
  • 통합 메모리는 CPU 메모리와 GPU 메모리 간의 데이터 통신을 개발자에게 투명하게 내재적으로 수행하는 소프트웨어 런타임 환경으로 개발자에게 CPU 메모리와 GPU 메모리가 통합된 하나의 메모리로 보이게 해준다. 통합 메모리는 장점에도 불구하고 아직 널리 사용되지 못하고 있는데 그 이유는 내재적으로 수행되는 데이터 통신의 오버헤드가 큰 것으로 알려져 있기 때문이다. 하지만 이 데이터 통신이 구체적으로 어떻게 이루어지고 오버헤드는 어떻게 발생하는지 분석한 연구는 아직 존재하지 않는다. 우리는 NVIDIA 사의 최신 GPU 마이크로아키텍처 중 하나인 파스칼을 사용하는 GPU를 대상으로 하여, 통합 메모리를 사용할 시 데이터 통신이 이루어지는 조건과 GPU 응용의 수행시간에 데이터 통신이 끼치는 영향을 실험을 통해 분석한다. 실험 결과 통합 메모리의 오버헤드는 두 가지 원인 때문에 발생한다. 첫째, 통합 메모리를 사용하면 CPU 또는 GPU가 데이터에 접근할 때마다 이 데이터는 CPU 또는 GPU 메모리로 옮겨지고 옮겨진 데이터는 제거된다. 따라서 재사용할 데이터도 제거되어 추가적인 데이터 통신이 발생하고, 이 데이터 통신의 지연시간은 GPU 응용의 수행시간에 더해진다. 둘째, 통합 메모리를 사용하면 데이터 통신과 커널들이 서로 다른 스트림에 할당되어도 동시에 수행되지 못한다. 따라서 GPU 응용의 수행시간은 동시에 수행되던 데이터 통신과 커널의 수행시간만큼 증가한다.

  • PDF