• 제목/요약/키워드: latency hiding

검색결과 15건 처리시간 0.018초

안전한 사물인터넷을 위한 AES 기반 경량 화이트박스 암호 기법 (Lightweight AES-based Whitebox Cryptography for Secure Internet of Things)

  • 이진민;김소연;이일구
    • 한국정보통신학회논문지
    • /
    • 제26권9호
    • /
    • pp.1382-1391
    • /
    • 2022
  • 화이트박스 암호는 룩업 테이블 안에 키를 안전하게 숨기는 방법으로 메모리 접근 및 수정이 가능한 화이트박스 공격에 대응할 수 있다. 그러나, 룩업 테이블의 크기가 크고 암호화 속도가 느리기 때문에 IoT(Internet of Things) 기기같이 자원이 제한되어 있으면서도 실시간성이 필요한 장치에는 적용이 어렵다. 본 연구에서는 화이트박스 암호가 룩업 테이블 크기 기준으로 암호화를 처리하는 특성을 활용하여 짧은 길이의 평문을 모아서 한 번에 처리하는 방안을 제안한다. Chow와 XiaoLai 방식의 테이블 크기를 각각 720 KB(Kilobytes), 18,000KB로 가정한 제안 방식을 기존 방식과 비교한 결과, 메모리 사용량은 Chow와 XiaoLai 방식에서 평균 약 29.9%, 약 1.24% 감소하였다. 시간 지연도는 15Mbps(Mega bit per second) 이상의 트래픽 로드 속도일 때, Chow와 XiaoLai 방식에서 각각 평균 약 3.36%, 약 2.6% 감소하였다.

그래프 프로세싱을 위한 GRU 기반 프리페칭 (Gated Recurrent Unit based Prefetching for Graph Processing)

  • 시바니 자드하브;파만 울라;나정은;윤수경
    • 반도체디스플레이기술학회지
    • /
    • 제22권2호
    • /
    • pp.6-10
    • /
    • 2023
  • High-potential data can be predicted and stored in the cache to prevent cache misses, thus reducing the processor's request and wait times. As a result, the processor can work non-stop, hiding memory latency. By utilizing the temporal/spatial locality of memory access, the prefetcher introduced to improve the performance of these computers predicts the following memory address will be accessed. We propose a prefetcher that applies the GRU model, which is advantageous for handling time series data. Display the currently accessed address in binary and use it as training data to train the Gated Recurrent Unit model based on the difference (delta) between consecutive memory accesses. Finally, using a GRU model with learned memory access patterns, the proposed data prefetcher predicts the memory address to be accessed next. We have compared the model with the multi-layer perceptron, but our prefetcher showed better results than the Multi-Layer Perceptron.

  • PDF

원형 쉬프트 통신의 중첩 효과 분석 (Overlapping Effects of Circular Shift Communication and Computation)

  • 김정환;노정규;송하윤
    • 정보처리학회논문지A
    • /
    • 제9A권2호
    • /
    • pp.197-206
    • /
    • 2002
  • 통신과 계산 작업을 중첩 수행함으로써 통신 시간의 감춤 효과를 얻는 것은 일반적인 병렬 프로그램 최적화 방법 중의 하나이다. 본 논문에서는 데이타 병렬 프로그램에서 자주 사용되는 군집 통신(collective communication)의 하나인 원형 쉬프트(circular shift) 통신에 대해 중첩 효과를 실험하고 고찰하였다. 이더넷 스위치로 연결된 클러스터 시스템에서 원형 쉬프트 통신을 수행할 때, 중첩으로 얻을 수 있는 최대 이득과 중첩할 수 없는 시간을 측정하였다. 각 플랫폼 별로 이러한 측정값들을 얻어 퇴적화 컴파일러의 입력으로 활용할 수 있을 것이다. 한편 기존의 성능 모델을 통해 퇴적화하는 것은 크게 두가지 문제를 갖고 있다. 하나는 기본적인 점대점 통신에 입각한 모델을 제공하기 때문에 통신 라이브러리의 함수를 사용할 때의 종합적인 효과, 특히, 군집 통신과 같은 경우에는 적용하기 어렵다는 것이다. 다른 하나는 군집 통신의 성능은 분석은 가능하지만, 중첩 효과는 분석할 수 없다는 것이다. 본 논문에서는 이러한 기존 모델의 단점을 보완하여 확장하였다. 또한, 원형 쉬프트 통신에 대한 실험 결과를 토대로 확장된 모델의 매개 변수 값들을 추출하여 예제 프로그램을 통해 분석하였다.

Coloring이 적용된 Gauss-Seidel 해법을 통한 CPU와 GPU의 연산 효율에 관한 연구 (An Investigation of the Performance of the Colored Gauss-Seidel Solver on CPU and GPU)

  • 윤종선;전병진;최형권
    • 대한기계학회논문집B
    • /
    • 제41권2호
    • /
    • pp.117-124
    • /
    • 2017
  • 본 연구에서는 Coloring 기법을 적용한 Gauss-Seidel 해법의 연산 성능을 분석하기 위해 2차원과 3차원 전도 열전달 문제를 다양한 격자 크기에서 해석하였다. 지배방정식의 이산화는 유한차분법과 유한요소법을 사용하였다. CPU의 경우에는 상대적으로 작은 격자계에서 연산 성능이 좋으며, 계산에 사용되는 메모리의 크기가 캐시메모리보다 크게 되면 연산 성능이 급격히 떨어진다. 반면에, GPU는 메모리 지연시간 숨김 특성으로 인하여 격자의 수가 충분히 많을 때 연산 성능이 좋다. GPU에 기반한 Colored Gauss-Seidel 해법은 단일 CPU를 이용한 연산에 비해서 각각 최대 7배의 속도 향상을 보인다. 또한, GPU 기반에서 Colored Gauss-Seidel 해법은 Jacobi 보다 약 2배 빠름을 확인하였다.

GPU 성능 향상을 위한 MSHR 정보 기반 워프 스케줄링 기법 (A new warp scheduling technique for improving the performance of GPUs by utilizing MSHR information)

  • 김광복;김종면;김철홍
    • 한국차세대컴퓨팅학회논문지
    • /
    • 제13권3호
    • /
    • pp.72-83
    • /
    • 2017
  • GPU는 다수의 워프를 병렬적으로 수행함으로써 레이턴시를 숨기면서 높은 처리량을 제공할 수 있다. 만약 GPU에서 캐쉬에 대한 요청이 미스를 발생시킨다면 하위 메모리로부터 요청한 데이터를 받을 때까지 MSHR(Miss Status Holding Register)을 통해 미스 정보를 추적하고 다른 워프를 수행한다. 최신 GPU에서는 캐쉬 자원에 대한 과도한 요청이 발생한 경우 자원점유 실패가 발생하여 GPU 자원을 충분히 활용할 수 없는 경우가 자주 발생한다. 본 논문에서는 MSHR 자원 부족으로 인해 발생하는 성능 감소를 줄이고자 새로운 워프 스케줄링 기법을 제안한다. L1 데이터 캐쉬에서 각 워프별 캐쉬 미스율은 긴 사이클 동안 비슷하게 유지되는 특성을 이용하여 각 워프들의 캐쉬 미스율을 예측하고, 이를 바탕으로 MSHR의 자원을 더 이상 사용할 수 없는 상태에서는 낮은 캐쉬 미스율을 보일 것으로 예측되는 워프들과 연산 위주 워프들을 우선적으로 이슈 한다. 제안하는 기법은 예측된 캐쉬 미스율과 MSHR 상태를 기반으로 캐쉬 자원을 더 효율적으로 사용함으로써 GPU 성능을 향상시킨다. 실험 결과, 제안된 기법은 LRR(Loose Round Robin) 정책에 비해 자원점유실패 사이클이 25.7% 감소하고 IPC(Instruction Per Cycle)가 6.2% 증가한다.