• 제목/요약/키워드: feature coding

검색결과 203건 처리시간 0.024초

Skin Lesion Segmentation with Codec Structure Based Upper and Lower Layer Feature Fusion Mechanism

  • Yang, Cheng;Lu, GuanMing
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제16권1호
    • /
    • pp.60-79
    • /
    • 2022
  • The U-Net architecture-based segmentation models attained remarkable performance in numerous medical image segmentation missions like skin lesion segmentation. Nevertheless, the resolution gradually decreases and the loss of spatial information increases with deeper network. The fusion of adjacent layers is not enough to make up for the lost spatial information, thus resulting in errors of segmentation boundary so as to decline the accuracy of segmentation. To tackle the issue, we propose a new deep learning-based segmentation model. In the decoding stage, the feature channels of each decoding unit are concatenated with all the feature channels of the upper coding unit. Which is done in order to ensure the segmentation effect by integrating spatial and semantic information, and promotes the robustness and generalization of our model by combining the atrous spatial pyramid pooling (ASPP) module and channel attention module (CAM). Extensive experiments on ISIC2016 and ISIC2017 common datasets proved that our model implements well and outperforms compared segmentation models for skin lesion segmentation.

VCM 을 위한 FPN 다중 스케일 특징 압축 (Compression of Multiscale Features of FPN for VCM)

  • 김동하;윤용욱;이주영;정세윤;김재곤;정대권
    • 한국방송∙미디어공학회:학술대회논문집
    • /
    • 한국방송∙미디어공학회 2022년도 하계학술대회
    • /
    • pp.143-145
    • /
    • 2022
  • MPEG-VCM(Video Coding for Machine)은 입력된 비디오 특징(feature)를 압축하는 Track1 과 입력 영상을 직접 압축하는 Track2 로 나뉘어 표준화가 진행중이다. 본 논문은 VCM Track 1 에 해당하는 Detectron2 FPN(Feature Pyramid Network)에서 추출한 다중 스케일 특징맵을 VVC 로 압축하는 MSFC(Multi-Scale Feature Compression)을 구조를 제안한다. 본 논문의 MSFC 에서는 다중 스케일 특징을 결합하여 부호화/복호화하는 기존의 구조에서 특징맵의 해상도를 줄여 압축하는 개선된 MSFC 를 제시한다. 제안 방법은 VCM 의 Track2 의 영상 앵커(image anchor) 보다 우수한 BPP-mAP 성능을 보이고 최대 -84.98%의 BD-rate 성능향상을 보인다.

  • PDF

적응적 멀티 레벨 코드 기반의 심전도 신호 압축 (ECG Signal Compression based on Adaptive Multi-level Code)

  • 김정준
    • 한국지능시스템학회논문지
    • /
    • 제23권6호
    • /
    • pp.519-526
    • /
    • 2013
  • 심전도 신호는 P, Q, R, S, T파를 한 주기로 하여 반복되는 특징을 가지고 있으며 일반적으로 높은 표본화 주파수로 샘플링 된다. 이러한 심전도 신호의 주기적인 특징을 이용하여 진단에 중요한 정보의 손실을 최소화하면서 압축 효율을 극대화시키는 방법이 필요하다. 그러나 이러한 주기적인 특징은 심검자와 측정 시기에 따라 진폭과 주기가 일정하지가 않다. 또한 환자의 경우, 같은 시기에 측정하더라도 주기적 특징이 다르게 나타나는 구간이 존재한다. 본 논문에서는 적응적 멀티 레벨 코드를 이용하여 주도적인 신호 구간과 비주도적인 신호 구간의 심전도 신호를 적응적으로 코드화하는 방법을 제안한다. 제안하는 방식은 주도적인 신호 구간과 비주도적인 신호 구간에 따른 손실 대비 압축률을 차등 적용함으로써 반복적인 신호를 멀티 레벨 코드를 이용하여 압축의 효율성을 극대화하는 것이다. 이는 심전도 신호의 주기성을 이용하지 않은 기존의 압축 방식에 비해 장시간 측정 데이터의 압축률을 극대화시키고 비주도적인 신호를 코드화하여 무손실 압축을 함으로써 진단에 중요한 정보를 손실 없이 보존할 수 있는 장점이 있다. MIT-BIH 부정맥 데이터베이스에 있는 심전도 신호에 대한 실험을 통하여 압축의 효용성을 검증하였다.

QRS 특징점 변화에 따른 바이너리 코딩 기반의 부정맥 분류 (Arrhythmia Classification based on Binary Coding using QRS Feature Variability)

  • 조익성;권혁숭
    • 한국정보통신학회논문지
    • /
    • 제17권8호
    • /
    • pp.1947-1954
    • /
    • 2013
  • 부정맥 검출을 위한 기존 연구들은 분류의 정확성을 높이기 위해 신경망, 퍼지 이론, SVM 등과 같은 비선형 방법이 주로 사용되어 왔다. 이러한 대부분의 방법들은 P-QRS-T 지점의 정확한 측정을 필요로 하며, 데이터의 가공 및 연산이 복잡하다. 또한 P파, T파의 개인차가 있어 파형을 구분할 수 없을 경우도 존재한다. 따라서 이러한 문제점을 극복하기 위해서는 최소한의 특징점을 추출함으로써 연산의 복잡도를 줄이고, 실시간으로 다양한 부정맥을 분류할 수 있는 적합한 알고리즘의 설계가 필요하다. 따라서 본 연구에서는 QRS 특징점 변화에 따른 바이너리 코딩 기반의 실시간 부정맥 분류 방법을 제안한다. 이를 위해 전처리를 통해 잡음이 제거된 심전도 신호에서 R파, RR 간격, QRS 폭을 추출하고, 각 특징점들의 문턱치(threshold) 만족 여부를 바이너리 코드화시킴으로써 실시간으로 부정맥을 분류 하였다. 제안한 방법의 우수성을 입증하기 위해 39개의 MIT-BIH 부정맥 데이터베이스 레코드를 대상으로 PVC, PAC, Normal, BBB, Paced beat의 검출률을 비교하였다. 실험결과 PVC, PAC, Normal, BBB, Paced beat는 각각 97.18%, 94.14%, 99.83%, 92.77%, 97.48%의 우수한 평균 검출률을 나타내었다.

EIV를 이용한 신경회로망 기반 고장진단 방법 (Neural-network-based Fault Detection and Diagnosis Method Using EIV(errors-in variables))

  • 한형섭;조상진;정의필
    • 한국소음진동공학회논문집
    • /
    • 제21권11호
    • /
    • pp.1020-1028
    • /
    • 2011
  • As rotating machines play an important role in industrial applications such as aeronautical, naval and automotive industries, many researchers have developed various condition monitoring system and fault diagnosis system by applying artificial neural network. Since using obtained signals without preprocessing as inputs of neural network can decrease performance of fault classification, it is very important to extract significant features of captured signals and to apply suitable features into diagnosis system according to the kinds of obtained signals. Therefore, this paper proposes a neural-network-based fault diagnosis system using AR coefficients as feature vectors by LPC(linear predictive coding) and EIV(errors-in variables) analysis. We extracted feature vectors from sound, vibration and current faulty signals and evaluated the suitability of feature vectors depending on the classification results and training error rates by changing AR order and adding noise. From experimental results, we conclude that classification results using feature vectors by EIV analysis indicate more than 90 % stably for less than 10 orders and noise effect comparing to LPC.

음악과 음성 판별을 위한 웨이브렛 영역에서의 특징 파라미터 (Feature Parameter Extraction and Analysis in the Wavelet Domain for Discrimination of Music and Speech)

  • 김정민;배건성
    • 대한음성학회지:말소리
    • /
    • 제61호
    • /
    • pp.63-74
    • /
    • 2007
  • Discrimination of music and speech from the multimedia signal is an important task in audio coding and broadcast monitoring systems. This paper deals with the problem of feature parameter extraction for discrimination of music and speech. The wavelet transform is a multi-resolution analysis method that is useful for analysis of temporal and spectral properties of non-stationary signals such as speech and audio signals. We propose new feature parameters extracted from the wavelet transformed signal for discrimination of music and speech. First, wavelet coefficients are obtained on the frame-by-frame basis. The analysis frame size is set to 20 ms. A parameter $E_{sum}$ is then defined by adding the difference of magnitude between adjacent wavelet coefficients in each scale. The maximum and minimum values of $E_{sum}$ for period of 2 seconds, which corresponds to the discrimination duration, are used as feature parameters for discrimination of music and speech. To evaluate the performance of the proposed feature parameters for music and speech discrimination, the accuracy of music and speech discrimination is measured for various types of music and speech signals. In the experiment every 2-second data is discriminated as music or speech, and about 93% of music and speech segments have been successfully detected.

  • PDF

다중스펙트럼 위성영상 압축을 위한 복합부호화 기법 (Hybrid Coding for Multi-spectral Satellite Image Compression)

  • 정경훈
    • 한국지리정보학회지
    • /
    • 제3권1호
    • /
    • pp.1-11
    • /
    • 2000
  • 본 논문에서는 인공위성으로부터 얻어진 다중스펙트럼영상의 부호화 방법을 다룬다. 위성영상의 공간 및 스펙트럼 해상도가 급속도로 향상되면서 처리해야 할 다중스펙트럼 영상의 데이터량은 엄청나게 증가하였다. 이에 따라 위성영상을 활용하기 위해서는 효율적으로 부호화하는 기술이 필요하다. 본 논문에서는 벡터양자화에 근거한 예측부호화, 영상의 quadtree 분할, 그리고 예측오차의 압축을 위한 DCT를 복합적으로 적용한 부호화 기법을 제시한다. 벡터양자화를 통해 대역영상간의 공간적인 특징이 동일하다는 점을 이용한 예측을 하고, 영상분할을 통해 영상의 공간적인 정보량에 따라 적응적으로 비트를 할당하며, DCT를 통해 예측오차의 공간적응적인 부호화를 수행한다. Landsat TM 영상을 대상으로 수행한 실험을 통해 제안 알고리듬의 위성영상 압축기법으로서의 타당성을 보였다.

  • PDF

조명 변화에 견고한 얼굴 특징 추출 (Robust Extraction of Facial Features under Illumination Variations)

  • 정성태
    • 한국컴퓨터정보학회논문지
    • /
    • 제10권6호
    • /
    • pp.1-8
    • /
    • 2005
  • 얼굴 분석은 얼굴 인식 머리 움직임과 얼굴 표정을 이용한 인간과 컴퓨터사이의 인터페이스, 모델 기반 코딩, 가상현실 등 많은 응용 분야에서 유용하게 활용된다. 이러한 응용 분야에서는 얼굴의 특징점들을 정확하게 추출해야 한다. 본 논문에서는 눈, 눈썹, 입술의 코너와 같은 얼굴 특징을 자동으로 추출하는 방법을 제안한다. 먼저, 입력 영상으로부터 AdaBoost 기반의 객체 검출 기법을 이용하여 얼굴 영역을 추출한다. 그 다음에는 계곡 에너지. 명도 에너지, 경계선 에너지의 세 가지 특징 에너지를 계산하여 결합한다. 구해진 특징 에너지 영상에 대하여 에너지 값이 큰 수평 방향향의 사각형을 탐색함으로써 특징 영역을 검출한다. 마지막으로 특징 영역의 가장자리 부분에서 코너 검출 알고리즘을 적용함으로써 눈, 눈썹, 입술의 코너를 검출한다. 본 논문에서 제안된 얼굴 특징 추출 방법은 세 가지의 특징 에너지를 결합하여 사용하고 계곡 에너지와 명도 에너지의 계산이 조명 변화에 적응적인 특성을 갖도록 함으로써, 다양한 환경 조건하에서 견고하게 얼굴 특징을 추출할 수 있다.

  • PDF

On Wavelet Transform Based Feature Extraction for Speech Recognition Application

  • Kim, Jae-Gil
    • The Journal of the Acoustical Society of Korea
    • /
    • 제17권2E호
    • /
    • pp.31-37
    • /
    • 1998
  • This paper proposes a feature extraction method using wavelet transform for speech recognition. Speech recognition system generally carries out the recognition task based on speech features which are usually obtained via time-frequency representations such as Short-Time Fourier Transform (STFT) and Linear Predictive Coding(LPC). In some respects these methods may not be suitable for representing highly complex speech characteristics. They map the speech features with same may not frequency resolutions at all frequencies. Wavelet transform overcomes some of these limitations. Wavelet transform captures signal with fine time resolutions at high frequencies and fine frequency resolutions at low frequencies, which may present a significant advantage when analyzing highly localized speech events. Based on this motivation, this paper investigates the effectiveness of wavelet transform for feature extraction of wavelet transform for feature extraction focused on enhancing speech recognition. The proposed method is implemented using Sampled Continuous Wavelet Transform (SCWT) and its performance is tested on a speaker-independent isolated word recognizer that discerns 50 Korean words. In particular, the effect of mother wavelet employed and number of voices per octave on the performance of proposed method is investigated. Also the influence on the size of mother wavelet on the performance of proposed method is discussed. Throughout the experiments, the performance of proposed method is discussed. Throughout the experiments, the performance of proposed method is compared with the most prevalent conventional method, MFCC (Mel0frequency Cepstral Coefficient). The experiments show that the recognition performance of the proposed method is better than that of MFCC. But the improvement is marginal while, due to the dimensionality increase, the computational loads of proposed method is substantially greater than that of MFCC.

  • PDF

거울 투영 이미지를 이용한 3D 얼굴 표정 변화 자동 검출 및 모델링 (Automatic 3D Facial Movement Detection from Mirror-reflected Multi-Image for Facial Expression Modeling)

  • 경규민;박민용;현창호
    • 대한전기학회:학술대회논문집
    • /
    • 대한전기학회 2005년도 심포지엄 논문집 정보 및 제어부문
    • /
    • pp.113-115
    • /
    • 2005
  • This thesis presents a method for 3D modeling of facial expression from frontal and mirror-reflected multi-image. Since the proposed system uses only one camera, two mirrors, and simple mirror's property, it is robust, accurate and inexpensive. In addition, we can avoid the problem of synchronization between data among different cameras. Mirrors located near one's cheeks can reflect the side views of markers on one's face. To optimize our system, we must select feature points of face intimately associated with human's emotions. Therefore we refer to the FDP (Facial Definition Parameters) and FAP (Facial Animation Parameters) defined by MPEG-4 SNHC (Synlhetic/Natural Hybrid Coding). We put colorful dot markers on selected feature points of face to detect movement of facial deformation when subject makes variety expressions. Before computing the 3D coordinates of extracted facial feature points, we properly grouped these points according to relative part. This makes our matching process automatically. We experiment on about twenty koreans the subject of our experiment in their late twenties and early thirties. Finally, we verify the performance of the proposed method tv simulating an animation of 3D facial expression.

  • PDF