• 제목/요약/키워드: temporal filtering

검색결과 110건 처리시간 0.026초

영상 데이터 압축을 위한 Temporal Filter의 구성 (Temporal Filter for Image Data Compression)

  • 김종훈;김성대
    • 한국통신학회논문지
    • /
    • 제18권11호
    • /
    • pp.1645-1654
    • /
    • 1993
  • 본 논문에서는 기존의 잡음 제거용 순환 filter와 달리 시간축 대역제한을 통해 시각특성의 개선과 영상데이타 압축 효과를 개선시키는데 그 목적을 두고 있다. 일반적으로 시간축 대역제한을 수행하려면 시간방향으로의 aliasing을 고려해야 한다. 신호 처리 관점에서 보면 신호에 aliasing이 생긴다면 이의 영향을 받지않고 (de-aliasing) filtering하는 것은 불가능하다고 알려져있다. 그러나 영상신호에서는 baseband spectrum 구조를 예측할 수 있고, 이를 토대로 aliasing의 영향을 받지않는 대역제한 방안을 생각할 수 있다. 이는 이동벡터의 궤적을 따라 공간 영역에서 대역제한(Motion Adaptive Spatial Filter)을 하는 것으로서 이들의 특성 및 구성방안으 제안한다. 이렇게 구성된 filter는 aliasing의 제기 뿐만아니라 시간축 잡음의 제거에도 기여를 하게 된다. 실험에서는 제안방법의 de-aliasing 특성과 영상부호화기로의 적용결과를 알아본다.

  • PDF

반복적 최적 자승 학습에 기반을 둔 움직임 적응적 시간영역 잡음 제거 필터링 (Motion Adaptive Temporal Noise Reduction Filtering Based on Iterative Least-Square Training)

  • 김성득;임경원
    • 대한전자공학회논문지SP
    • /
    • 제47권5호
    • /
    • pp.127-135
    • /
    • 2010
  • 동영상에 내재된 잡음을 제거하기 위해 사용되는 움직임 적응적 시간영역 잡음 제거 필터링에서는 움직임의 정도에 따라 필터링의 강도를 적절하게 조절하는 것이 매우 중요하다. 본 논문에서는 최적 자승 학습에 기반을 둔 움직임 적응적 시간영역필터링 방안을 제안한다. 움직임 정도에 따라 각 화소를 분류하여 분류코드를 지정하고, 각 분류코드에 따라 반복적 최적 자승학습에 기반을 둔 최적의 필터 계수를 유도한다. 반복적 학습과정은 사전에 미리 수행되어 학습된 결과만 룩업 테이블에 저장된다. 실제 잡음 제거 필터링 과정에서는 각 화소를 움직임 정도에 따라 분류한 후 분류코드에 따라 룩업 테이블에 있는 필터계수를 읽어 간결한 필터링을 취한다. 실험결과는 제안된 방법이 잡음 제거 응용에서 번짐을 방지하면서 동영상 잡음을 효과적으로 제거함을 보여준다.

공간 필터링에 근거한 시간축 내삽기 (Temporal interpolator based on spatial filtering)

  • 김종훈
    • 전자공학회논문지B
    • /
    • 제33B권8호
    • /
    • pp.60-67
    • /
    • 1996
  • In this paper, we propose a new temporal interpolation method based on spatial filtering. Compared with the conventional method, the proposed one may use a few adjacent frames and apply temporal lowpass filtering. To develop this method, we follow the basic approach of sampling rate conversion. Additionally, we use some assumption of video sequence : moving object has constant velocity rigid translational motion. From them, spatial filtering for temporal sampling rate conversion is described. This method has a lot of noise immunity on a motion vector and doesn't make a great difference from the original frame. The interpolated frame shows moderate change even there is a great time difference. This method has exactly same description of motion adaptive spatial filter which has an efficient temporal band-limiting characteristics. It imposes the possibility to make video sequence with good pictural quality.

  • PDF

Frequency-Temporal Filtering for a Robust Audio Fingerprinting Scheme in Real-Noise Environments

  • Park, Man-Soo;Kim, Hoi-Rin;Yang, Seung-Hyun
    • ETRI Journal
    • /
    • 제28권4호
    • /
    • pp.509-512
    • /
    • 2006
  • In a real environment, sound recordings are commonly distorted by channel and background noise, and the performance of audio identification is mainly degraded by them. Recently, Philips introduced a robust and efficient audio fingerprinting scheme applying a differential (high-pass filtering) to the frequency-time sequence of the perceptual filter-bank energies. In practice, however, the robustness of the audio fingerprinting scheme is still important in a real environment. In this letter, we introduce alternatives to the frequency-temporal filtering combination for an extension method of Philips' audio fingerprinting scheme to achieve robustness to channel and background noise under the conditions of a real situation. Our experimental results show that the proposed filtering combination improves noise robustness in audio identification.

  • PDF

훈련데이터 기반의 temporal filter를 적용한 4연숫자 전화음성 인식 (Recognition of Korean Connected Digit Telephone Speech Using the Training Data Based Temporal Filter)

  • 정성윤;배건성
    • 대한음성학회지:말소리
    • /
    • 제53호
    • /
    • pp.93-102
    • /
    • 2005
  • The performance of a speech recognition system is generally degraded in telephone environment because of distortions caused by background noise and various channel characteristics. In this paper, data-driven temporal filters are investigated to improve the performance of a specific recognition task such as telephone speech. Three different temporal filtering methods are presented with recognition results for Korean connected-digit telephone speech. Filter coefficients are derived from the cepstral domain feature vectors using the principal component analysis. According to experimental results, the proposed temporal filtering method has shown slightly better performance than the previous ones.

  • PDF

공간과 시간적 특징 융합 기반 유해 비디오 분류에 관한 연구 (Using the fusion of spatial and temporal features for malicious video classification)

  • 전재현;김세민;한승완;노용만
    • 정보처리학회논문지B
    • /
    • 제18B권6호
    • /
    • pp.365-374
    • /
    • 2011
  • 최근 인터넷, IPTV/SMART TV, 소셜 네트워크 (social network)와 같은 정보 유통 채널의 다양화로 유해 비디오 분류 및 차단 기술 연구에 대한 요구가 높아가고 있으나, 현재까지는 비디오에 대한 유해성을 판단하는 연구는 부족한 실정이다. 기존 유해 이미지 분류 연구에서는 이미지에서의 피부 영역의 비율이나 Bag of Visual Words (BoVW)와 같은 공간적 특징들 (spatial features)을 이용하고 있다. 그러나, 비디오에서는 공간적 특징 이외에도 모션 반복성 특징이나 시간적 상관성 (temporal correlation)과 같은 시간적 특징들 (temporal features)을 추가적으로 이용하여 유해성을 판단할 수 있다. 기존의 유해 비디오 분류 연구에서는 공간적 특징과 시간적 특징들에서 하나의 특징만을 사용하거나 두 개의 특징들을 단순히 결정 단계에서 데이터 융합하여 사용하고 있다. 일반적으로 결정 단계 데이터 융합 방법은 특징 단계 데이터 융합 방법보다 높은 성능을 가지지 못한다. 본 논문에서는 기존의 유해 비디오 분류 연구에서 사용되고 있는 공간적 특징과 시간적 특징들을 특징 단계 융합 방법을 이용하여 융합하여 유해 비디오를 분류하는 방법을 제안한다. 실험에서는 사용되는 특징이 늘어남에 따른 분류 성능 변화와 데이터 융합 방법의 변화에 따른 분류 성능 변화를 보였다. 공간적 특징만을 이용하였을 때에는 92.25%의 유해 비디오 분류 성능을 보이는데 반해, 모션 반복성 특징을 이용하고 특징 단계 데이터 융합 방법을 이용하게 되면 96%의 향상된 분류 성능을 보였다.

효율적인 스케일러블 비디오 부호화를 위한 향상된 움직임 보상 시간적 필터링 방법 (An Improved Motion Compensated Temporal Filtering for Efficient Scalable Video Coding)

  • 전기철;김종호;정제창
    • 한국통신학회논문지
    • /
    • 제32권5C호
    • /
    • pp.520-529
    • /
    • 2007
  • 본 논문에서는 웨이블릿 변환 기반 스케일러블 비디오 부호화에서 가장 중요한 요소 기술인 움직임 보상 시간적 필터링 방법의 성능에 관련된 요소들의 특성을 파악하고, 기존의 DCT 기반의 하이브리드 부호화에서 사용된 움직임 예측 방법과 가변 크기 블록을 사용한 움직임 예측 방법을 적용한 향상된 MCTF (Motion Compensated Temporal Filtering) 방법을 제안한다. 이를 통하여 시간적 필터링 과정에서의 연결성을 높이고, 프레임간 에너지를 저/고주파 프레임으로 효율적으로 분해할 수 있다. 그 결과, 고주파 프레임의 에너지를 줄여, 엔트로피 부호화 비트율을 줄일 수 있다. 본 논문에서 제안하는 방법을 적용하여 모의 실험한 결과, 고주파 프레임에 포함된 에너지가 최대 25.86%까지 감소하는 것을 확인하였다.

Telephone Speech Recognition with Data-Driven Selective Temporal Filtering based on Principal Component Analysis

  • Jung Sun Gyun;Son Jong Mok;Bae Keun Sung
    • 대한전자공학회:학술대회논문집
    • /
    • 대한전자공학회 2004년도 학술대회지
    • /
    • pp.764-767
    • /
    • 2004
  • The performance of a speech recognition system is generally degraded in telephone environment because of distortions caused by background noise and various channel characteristics. In this paper, data-driven temporal filters are investigated to improve the performance of a specific recognition task such as telephone speech. Three different temporal filtering methods are presented with recognition results for Korean connected-digit telephone speech. Filter coefficients are derived from the cepstral domain feature vectors using the principal component analysis.

  • PDF

다중 블록 크기의 움직임 예측과 SPECK을 이용한 고정 화질 움직임 보상 시간영역 필터링 동영상 압축 (Constant Quality Motion Compensated Temporal Filtering Video Compression using Multi-block size Motion Estimation and SPECK)

  • 박상주
    • 방송공학회논문지
    • /
    • 제11권2호
    • /
    • pp.153-163
    • /
    • 2006
  • 움직임 보상을 적용한 시간 영역 필터링(MCTF)을 이용한 화질 보장형의 새로운 동영상 압축 방식을 제안한다. SPECK은 그 자체의 단순한 알고리즘으로 인하여 빠른 동작 속도를 가지면서도 동시에 고주파 성분이 많은 영상의 압축에 탁월한 성능을 보여주는 우수한 웨이블릿 변환 기반의 영상 압축기법이다. 또한 제안한 계층적 구조의 다중 크기 블록 움직임 예측은 비교적 낮은 연산량에도 불구하고 기존의 고정 블록 크기의 움직임 예측기보다 우수한 성능을 보인다. 본 논문에서는 이러한 낮은 복잡도의 기술을 MCTF 기반 동영상 압축에 적용하여, 다중 재생률까지 지원이 가능한 동영상 압축 방식을 구현하였으며 H.263 압축방식에 비해 우수한 압축 성능을 보임을 확인하였다.

비전 센서의 앨리어싱 방지 필터링 모방 기법 (Emulation of Anti-alias Filtering in Vision Based Motion Mmeasurement)

  • 김정현
    • 로봇학회논문지
    • /
    • 제6권1호
    • /
    • pp.18-26
    • /
    • 2011
  • This paper presents a method, Exposure Controlled Temporal Filtering (ECF), applied to visual motion tracking, that can cancel the temporal aliasing of periodic vibrations of cameras and fluctuations in illumination through the control of exposure time. We first present a theoretical analysis of the exposure induced image time integration process and how it samples sensor impingent light that is periodically fluctuating. Based on this analysis we develop a simple method to cancel high frequency vibrations that are temporally aliased onto sampled image sequences and thus to subsequent motion tracking measurements. Simulations and experiments using the 'Center of Gravity' and Normalized Cross-Correlation motion tracking methods were performed on a microscopic motion tracking system to validate the analytical predictions.