• Title/Summary/Keyword: multi-decoder

Search Result 194, Processing Time 0.025 seconds

WiMAX용 LDPC 복호기의 비트오율 성능 분석 (An analysis of BER performance of LDPC decoder for WiMAX)

  • 김해주;신경욱
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국해양정보통신학회 2010년도 춘계학술대회
    • /
    • pp.771-774
    • /
    • 2010
  • 본 논문에서는 WiMAX용 LDPC(Low-Density Parity Check) 복호기의 비트오율 성능 분석을 통해 최적 설계 사양을 도출하였다. LLR SPA(LLR Sum-Product Algorithm)을 근사화 시킨 최소합 알고리듬(Min-Sum Algorithm; MSA)을 Matlab으로 모델링한 후, 시뮬레이션을 통해 LLR 비트 폭과 최대 반복 복호 횟수에 따른 비트오율(Bit Error Rate; BER) 성능을 분석하였다. 모델링된 LDPC 복호기는 IEEE 802.16e 표준에 제안된 블록길이 2304, 부호화율 1/2인 PCM(Parity Check Matrix)을 사용하였으며, QPSK 변조와 백색 가우시안 잡음채널 하에서 시뮬레이션 하였다. 비트오율 성능을 분석한 결과, LLR 비트 폭은 (8,6)이고 반복 복호 횟수는 7인 경우에 비트오율 성능이 가장 우수함을 확인하였다.

  • PDF

가상 음원 위치 정보를 이용한 능동 메트릭스 디코더 (A Perception Based Active Matrix Decoder with Virtual Source Location Information)

  • 문한길
    • 대한전자공학회논문지SP
    • /
    • 제47권5호
    • /
    • pp.18-24
    • /
    • 2010
  • 본 논문에서는 돌비 프로로직 II/IIx를 대체하기 위한 가상 음원 위치 정보 기반의 새로운 메트릭스 디코더 시스템을 제안하고자 한다. 제안하는 신규 메트릭스 디코더는 역행렬 계산을 통해 얻어지는 수동 메트릭스 디코딩부와 수동 메트릭스 디코딩을 통해서 얻은 신호들을 멀티채널 신호의 채널간 이미지 특성에 따라서 적응적으로 가변시키는 능동 메트릭스 디코딩부로 구성된다. 멀티채널 환경에서 채널 간에 형성되는 다수의 이미지는 실제 청각 시스템에 의해서 인지되어 만들어지는 가상의 사운드 이벤트와 연결이 되어 있다. 따라서 이 이미지의 위치와 크기에 기반하여 멀티채널 신호를 적응적으로 가변시키면, 인지적인 관점에서 우수한 성능의 메트릭스 디코더를 설계할 수 있다. 더불어 채널간 분리도를 향상시키기 위해서 비선형 삼각함수의 조합을 사용하였다.

생성 모델과 검색 모델을 이용한 한국어 멀티턴 응답 생성 연구 (A study on Korean multi-turn response generation using generative and retrieval model)

  • 이호동;이종민;서재형;장윤나;임희석
    • 한국융합학회논문지
    • /
    • 제13권1호
    • /
    • pp.13-21
    • /
    • 2022
  • 최근 딥러닝 기반의 자연어처리 연구는 사전 훈련된 언어 모델을 통해 대부분의 자연어처리 분야에서 우수한 성능을 보인다. 특히 오토인코더 (auto-encoder) 기반의 언어 모델은 다양한 한국어 이해 분야에서 뛰어난 성능과 쓰임을 증명하고 있다. 그러나 여전히 디코더 (decoder) 기반의 한국어 생성 모델은 간단한 문장 생성 과제에도 어려움을 겪고 있으며, 생성 모델이 가장 일반적으로 쓰이는 대화 분야에서의 세부 연구와 학습 가능한 데이터가 부족한 상황이다. 따라서 본 논문은 한국어 생성 모델을 위한 멀티턴 대화 데이터를 구축하고 전이 학습을 통해 생성 모델의 대화 능력을 개선하여 성능을 비교 분석한다. 또한, 검색 모델을 통해 외부 지식 정보에서 추천 응답 후보군을 추출하여 모델의 부족한 대화 생성 능력을 보완하는 방법을 제안한다.

중복 다치논리를 이용한 20 Gb/s CMOS 디멀티플렉서 설계 (Design of a 20 Gb/s CMOS Demultiplexer Using Redundant Multi-Valued Logic)

  • 김정범
    • 정보처리학회논문지A
    • /
    • 제15A권3호
    • /
    • pp.135-140
    • /
    • 2008
  • 본 논문은 중복 다치논리(redundant multi-valued logic)를 이용하여 초고속 디멀티플렉서(demultiplexer)를 CMOS 회로로 설계하였다. 설계한 회로는 중복 다치논리를 이용하여 직렬 이진 데이터를 병렬 다치 데이터로 변환하고 이를 다시 병렬 이진 데이터로 변환한다. 중복 다치논리는 중복된 다치 데이터 변환으로써 기존 방식 보다 더 높은 동작속도를 얻을 수 있다. 구현한 디멀티플렉서는 8개의 적분기로 구성되어 있으며, 각 적분기는 누적기, 비교기, 디코더, D 플립플롭으로 구성된다. 설계한 회로는 0.18um 표준 CMOS 공정으로 구현하였으며 HSPICE 시뮬레이션을 통해 검증하였다. 본 논문의 디멀티플렉서의 최대 데이터 전송률은 20 Gb/s이고 평균 전력소모는 58.5 mW이다.

2차원 성상도를 이용한 다차원 무직류 격자형부호 (Multi-dimensional DC-free trellis codes based on tow-dimensional constellation)

  • 정창기;황성준;주언경
    • 전자공학회논문지S
    • /
    • 제35S권3호
    • /
    • pp.47-53
    • /
    • 1998
  • Multi-dimensional DC-free trellis codes based on two-dimensional constellation which can be omplemented more easily than conventional codes are proposed and their performances are analyzed in this paper. 2N-dimensional constellation of the proposed codes is constructed by concatenating N 2-dimensional constellation. Thus, for the proposed codes, information bits can be assigned easily to each signal point of the 2-dimensional consteellation and DC-free characteristic can be simply obtained by the symmetric structure of the constellation. In addition, since Viterbi decoder can calculate multi-dimensional Euchlidean distance between signals by simple sum of each 2-dimensional Euclidean distanc, decoding complexity can be reduced. The performance analysis shows that the proposed codes have almost same spectral characteristic and error performance as compared with conventional codes. However, the complexity is shown to be reduced further due to the construction method of contellation and the simple decoding algorithm of the proposed codes.

  • PDF

Multi-focus Image Fusion using Fully Convolutional Two-stream Network for Visual Sensors

  • Xu, Kaiping;Qin, Zheng;Wang, Guolong;Zhang, Huidi;Huang, Kai;Ye, Shuxiong
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제12권5호
    • /
    • pp.2253-2272
    • /
    • 2018
  • We propose a deep learning method for multi-focus image fusion. Unlike most existing pixel-level fusion methods, either in spatial domain or in transform domain, our method directly learns an end-to-end fully convolutional two-stream network. The framework maps a pair of different focus images to a clean version, with a chain of convolutional layers, fusion layer and deconvolutional layers. Our deep fusion model has advantages of efficiency and robustness, yet demonstrates state-of-art fusion quality. We explore different parameter settings to achieve trade-offs between performance and speed. Moreover, the experiment results on our training dataset show that our network can achieve good performance with subjective visual perception and objective assessment metrics.

Multi-stage Transformer for Video Anomaly Detection

  • Viet-Tuan Le;Khuong G. T. Diep;Tae-Seok Kim;Yong-Guk Kim
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2023년도 추계학술발표대회
    • /
    • pp.648-651
    • /
    • 2023
  • Video anomaly detection aims to detect abnormal events. Motivated by the power of transformers recently shown in vision tasks, we propose a novel transformer-based network for video anomaly detection. To capture long-range information in video, we employ a multi-scale transformer as an encoder. A convolutional decoder is utilized to predict the future frame from the extracted multi-scale feature maps. The proposed method is evaluated on three benchmark datasets: USCD Ped2, CUHK Avenue, and ShanghaiTech. The results show that the proposed method achieves better performance compared to recent methods.

자율주행 차량을 위한 멀티 레이블 차선 검출 딥러닝 알고리즘 (Multi-label Lane Detection Algorithm for Autonomous Vehicle Using Deep Learning)

  • 박채송;이경수
    • 자동차안전학회지
    • /
    • 제16권1호
    • /
    • pp.29-34
    • /
    • 2024
  • This paper presents a multi-label lane detection method for autonomous vehicles based on deep learning. The proposed algorithm can detect two types of lanes: center lane and normal lane. The algorithm uses a convolution neural network with an encoder-decoder architecture to extract features from input images and produce a multi-label heatmap for predicting lane's label. This architecture has the potential to detect more diverse types of lanes in that it can add the number of labels by extending the heatmap's dimension. The proposed algorithm was tested on an OpenLane dataset and achieved 85 Frames Per Second (FPS) in end to-end inference time. The results demonstrate the usability and computational efficiency of the proposed algorithm for the lane detection in autonomous vehicles.

A Parallelization Technique with Integrated Multi-Threading for Video Decoding on Multi-core Systems

  • Hong, Jung-Hyun;Kim, Won-Jin;Chung, Ki-Seok
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제7권10호
    • /
    • pp.2479-2496
    • /
    • 2013
  • Increasing demand for Full High-Definition (FHD) video and Ultra High-Definition (UHD) video services has led to active research on high speed video processing. Widespread deployment of multi-core systems has accelerated studies on high resolution video processing based on parallelization of multimedia software. Even if parallelization of a specific decoding step may improve decoding performance partially, such partial parallelization may not result in sufficient performance improvement. Particularly, entropy decoding has often been considered separately from other decoding steps since the entropy decoding step could not be parallelized easily. In this paper, we propose a parallelization technique called Integrated Multi-Threaded Parallelization (IMTP) which takes parallelization of the entropy decoding step, with other decoding steps, into consideration in an integrated fashion. We used the Simultaneous Multi-Threading (SMT) technique with appropriate thread scheduling techniques to achieve the best performance for the entire decoding step. The speedup of the proposed IMTP method is up to 3.35 times faster with respect to the entire decoding time over a conventional decoding technique for H.264/AVC videos.

조명보상 기반 분산 다시점 비디오 코딩 (Distributed Multi-view Video Coding Based on Illumination Compensation)

  • 박시내;심동규;전병우
    • 대한전자공학회논문지SP
    • /
    • 제45권6호
    • /
    • pp.17-26
    • /
    • 2008
  • 본 논문에서는 분산 비디오 코딩기법을 이용한 조명 보상 기반의 다시점 비디오 코딩 방법을 제안한다. 다시점 비디오 코딩을 위한 분산 비디오 코딩은 주변 정보를 생성하는 방법에 따라 크게 움직임 예측 및 보간 방법과 시점 간 예측 및 보간 방법으로 나눌 수 있다. 시점 간 예측 및 보간 방법은 다시점 비디오의 특성을 이용하는 방법으로, 시점 간 상관성에 따른 보조 정보의 생성을 통하여 분산 코딩의 효율을 향상 시킬 수 있다. 그러나, 실제 다시점 영상의 특성상 시점 간 예측에서 각 시점의 카메라 파라미터 및 조명 조건 변화에 따라 부정확한 시점 간 예측 및 보간이 이루어질 수 있다. 본 논문에서는 다시점 비디오에 분산비디오 코딩기법을 적용함에 있어서, 조명 조건을 보상하는 방법을 제안한다. 이를 위하여 인코더에서 AC 변환계수의 패리티 비트에 추가하여 DC 정보를 전송하고, 디코더에서 보조 정보 생성 시 추가 전송된 DC 성분을 이용하여 조명 조건이 보상된, 보다 정확한 보조 정보를 생성하는 방법을 제안한다. 제안된 방법을 통하여 조명보상을 적용하지 않은 경우와 비교했을 때, 같은 비트율에서 $0.1{\sim}0.2dB$의 화질 향상을 얻을 수 있었다.