Performance Analysis of Caching Instructions on SVLIW Processor and VLIW Processor

SVLIW 프로세서와 VLIW 프로세서의 명령어 캐싱에 따른 성능 분석

  • Ji, Sung-Hyun (Dept. of Computer Science, Chungbuk National Univ.) ;
  • Park, No-Kwang (Dept. of Computer Science, Chungbuk National Univ.) ;
  • Kim, Suk-Il (Dept. of Computer Science, Chungbuk National Univ.)
  • 지승현 (충북대학교 전자계산학과) ;
  • 박노광 (충북대학교 전자계산학과) ;
  • 김석일 (충북대학교 컴퓨터과학과)
  • Published : 1997.12.01

Abstract

SVLIW processor architectures can resolve resource collisions and data dependencies between the instructions while scheduling VLIW instructions at run-time. As a result, long NOP word instructions can be removed from the object code produced for the processor. Thus, the occurrence of cache misses on the SVLIW processor would be lesser than that on the same cache size VLIW processor. Less frequent cache misses on the SVLIW processor would incur less frequent memory access, and thus, the total execution cycles to complete an application would be shortened compared with cases on the VLIW processor. Such a feature eventually compromises effects of longer instruction pipeline stages than those of the VLIW processor. In this paper, we formulate and compare two execution cycle models of the two architectures. A simulation results show that the longer memory access cycles when cache miss occurs, the total execution cycles of SVLIW processor would be shorter than those of VLIW processor.

실시간에 VLIW 명령어를 스케줄링하는 SVLIW 프로세서 구조는 실행 중 LNOP(긴 NOP 명령어)를 삽입하여 자원 충돌이나 자료 종속 문제를 스스로 해결할 수 있다. 따라서 SVLIW 프로세서에서는 메모리나 캐시에 적재되는 목적 코드로부터 LNOP 명령어를 제거할 수 있다. 그러므로 SVLIW 프로세서에서는 같은 크기의 캐시를 가진 VLIW 프로세서에 비하여 프로그램의 실행 도중에 발생하는 캐시 미스의 발생 빈도가 적어진다. 캐시 미스가 적게 발생하면 결국 평균 메모리 참조 시간이 짧아지므로 프로그램을 수행하는데 걸리는 실행 사이클의 수가 적어지게 된다. 이러한 특징은 한편 명령어 파이프라인 단계를 늘림으로 인한 영향을 상쇄할 수 있기 때문에 전체적으로 성능을 향상시킬 수 있다. 본 논문에서는 두 가지 프로세서 구조에서 어떤 응용 프로그램을 수행할 때 소요되는 실행 사이클을 예측하는 모델을 확립하고 이를 비교하였다. 또한, 시뮬레이션 결과로부터 캐시 미스가 발생하였을 때 메모리를 참조하는데 걸리는 시간이 길어질수록 SVLIW 프로세서에서의 실행 사이클이 VLIW 프로세서의 경우에 비하여 짧아지는 것을 확인할 수 있었다.

Keywords

References

  1. Proc. Inter. Conf. Para. Pro. An analytical approach to scheduling code for superscalar and VLIW architectures Chen, Shyh-Kwei;Kent Fuchs, W.;Hwn, Wen-Meiw
  2. Proc. Inter. Conf. Para. Pro. On Performance and efficiency of VLIW and superscalar Moon, Soo-Mook;Ebcioglu, Kemal
  3. Proc. Inter. Conf. Para. Pro. A Percolation based VLIW architecture Abnous, Arthur;Potasman, Roni;Nicolau, Alex
  4. Trans. Para. Dist. Sys. v.5 no.6 Pipelining and bypassing in a VLIW processor Abnous, Arthur;Bagherzadeh, Nader
  5. Proc. Inter. Conf. Para. Pro. Partitioning of variables for multiple-register-flle VLIW architectures Capitanio, Andren;Dutt, Nikil;Nicolau, Alexadru
  6. Proc. 28th Inter. Symp. Micro. Dynamic Rescheduling: A technique for object code compatibility in VLlW architecture Conte, Thomas M.;Sathaye, Sumedh W.
  7. Proc. 26th Inter. Symp. Micro. Dynamically scheduled VLlW processors Rau, B.R.
  8. Proc. Trans. Comp. v.37 no.8 A VLIW architecture for a trace scheduling compiler Colwell, Robert P.;Nix, Robert P.(etc.)
  9. Proc. Inter. Symp. Comp. Arch. Instruction level profiling and evaluation of the IBM RS/6000 Stephens, Chriss;Cogswell, Bryce(etc.)
  10. Trans. Comp. v.C-30 no.7 Trace Scheduling: A technique for global microcode compaction Fisher, Joseph A.
  11. Advanced Computer Architecture Hwang, Kai
  12. Proc. Inter. Conf. Para. Pro. The VLIW Machine: multiprocessor for compiling scientific code Fisher, Joseph A.
  13. MIPS R4000 Microprocessor User's Manual
  14. Trans. Comp. v.C-33 no.11 Measuring the parallelism available for VLIW architectures Nicolau, Alexandru;Fisher, Joseph A.
  15. PDPTA'96 International Conference Hybrid Processor based on VLIW and PN -Superscalar Shusuke Okamoto;Masahiro Sowa
  16. Journal of KISS v.24 no.4 Design of VLlW Architectures minimizing Dynamic Resource Conllisions Jeong, Bo-Youn;Jeon, Joong-Nam;Kim, Su-Kil
  17. An Efficient Cache Design for Dymanic Instruction Scheduling Processors, Tech. Rept. CBUCS97-4 Park, No-Kwang;Jee, Sung-Hyun;Kim, Su-Kil