Abstract
By comparing Wiener's MMSE on stochastic signal transmission with Shannon's mutual information first proved by C.E. Shannon in terms of information theory, connections between two approaches were investigated. What Wiener wanted to see in signal transmission in noisy channel is to try to capture fundamental limits for signal quality in signal estimation. On the other hands, Shannon was interested in finding fundamental limits of signal quantity that maximize the uncertainty in mutual information using the entropy concept in noisy channel. First concern of this paper is to show that in deriving limits of Shannon's point to point fundamental channel capacity, Shannon's mutual information obtained by exploiting MMSE combiner and Wiener filter's MMSE are interelated by integro-differential equantion. Then, At the meeting point of Wiener's MMSE and Shannon's mutual information the upper bound of spectral efficiency and the lower bound of energy efficiency were computed. Choosing a proper lattice-type code of a mod-${\Lambda}$AWGN channel model and MMSE estimation of ${\alpha}$ confirmed to lead to the fundamental Shannon capacity limits.
통계적 신호 전송에 관한 위너의 MMSE와 정보이론 관점에서 처음으로 증명한 샤논의 상호 정보량을 비교함으로서 둘 사이의 관련성을 연구하였다. 위너가 신호 전송에서 보려했던 것은 잡음이 존재하는 채널에서 복원하려는 신호의 전송 품질의 근본적 극한(limit)를 계산해내려는 것이라 해석할 수 있다. 반면, 샤논은 엔트로피 개념을 적용하여 상호 정보에 대한 불확실성의 차를 최대화로 하는 전송 정보량의 근본적 상한(upper bound)의 극한(limits)을 계산을 계산하려는 것이라 해석할 수 있다. 본 논문의 관심은 샤논의 점 대 점 채널 용량의 근본적 극한을 계산하는 샤논의 공식을 유도함에 있어 위너의 최소 평균 자승 오차(MMSE) 컴바이너에 의한 최적 위너 필터를 사용했을 때 위너의 MMSE와 샤논의 상호 정보량이 미적분관계로 연결되어 있음을 확인하는 것이며, 위너 필터의 MMSE 와 샤논의 상호 정보량이 만나는 점에서 대역 효율성의 상한과 에너지 효율성의 하한을 계산하였다. mod-${\Lambda}$ AWGN 채널 모델에 의한 적절한 성형 격자 ${\Lambda}$의 선택과 ${\alpha}$의 MMSE 추정에 의해 격자형 부호 방식이 샤논의 원래 채널 용량 극한에 미치게 됨을 확인하였다.