• 제목/요약/키워드: Non-standard algorithm

검색결과 202건 처리시간 0.024초

Block Sparse Signals Recovery Algorithm for Distributed Compressed Sensing Reconstruction

  • Chen, Xingyi;Zhang, Yujie;Qi, Rui
    • Journal of Information Processing Systems
    • /
    • 제15권2호
    • /
    • pp.410-421
    • /
    • 2019
  • Distributed compressed sensing (DCS) states that we can recover the sparse signals from very few linear measurements. Various studies about DCS have been carried out recently. In many practical applications, there is no prior information except for standard sparsity on signals. The typical example is the sparse signals have block-sparse structures whose non-zero coefficients occurring in clusters, while the cluster pattern is usually unavailable as the prior information. To discuss this issue, a new algorithm, called backtracking-based adaptive orthogonal matching pursuit for block distributed compressed sensing (DCSBBAOMP), is proposed. In contrast to existing block methods which consider the single-channel signal reconstruction, the DCSBBAOMP resorts to the multi-channel signals reconstruction. Moreover, this algorithm is an iterative approach, which consists of forward selection and backward removal stages in each iteration. An advantage of this method is that perfect reconstruction performance can be achieved without prior information on the block-sparsity structure. Numerical experiments are provided to illustrate the desirable performance of the proposed method.

A THREE-TERM INERTIAL DERIVATIVE-FREE PROJECTION METHOD FOR CONVEX CONSTRAINED MONOTONE EQUATIONS

  • Noinakorn, Supansa;Ibrahim, Abdukarim Hassan;Abubakar, Auwal Bala;Pakkaranang, Nuttapol
    • Nonlinear Functional Analysis and Applications
    • /
    • 제26권4호
    • /
    • pp.839-853
    • /
    • 2021
  • Let 𝕽n be an Euclidean space and g : 𝕽n → 𝕽n be a monotone and continuous mapping. Suppose the convex constrained nonlinear monotone equation problem x ∈ 𝕮 s.t g(x) = 0 has a solution. In this paper, we construct an inertial-type algorithm based on the three-term derivative-free projection method (TTMDY) for convex constrained monotone nonlinear equations. Under some standard assumptions, we establish its global convergence to a solution of the convex constrained nonlinear monotone equation. Furthermore, the proposed algorithm converges much faster than the existing non-inertial algorithm (TTMDY) for convex constrained monotone equations.

국부 마스크의 표준편차를 이용한 에지 검출에 관한 연구 (A Study on Edge Detection using Standard Deviation of Local Masks)

  • 이창영;안영주;김남호
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국정보통신학회 2013년도 추계학술대회
    • /
    • pp.782-784
    • /
    • 2013
  • 디지털 영상 처리 기술이 발전함에 따라 에지는 여러 분야에서 활용되고 있다. 기존의 에지 검출 방법은 Sobel, Prewitt, Roberts, Laplacian 연산자 등을 활용한 마스크 방법이 있다. 이러한 기존의 에지 검출 방법들은 구현이 간단하다. 그러나, AWGN(additive white Gaussian noise) 잡음이 첨가된 영상을 처리할 경우, 에지 검출 특성이 다소 미흡하다. 따라서 이와 같은 기존의 에지 검출 방법들의 단점을 보완하기 위하여, 본 논문에서는 국부 마스크의 표준편차를 이용한 에지 검출 알고리즘을 제안하였으며, AWGN 환경에서 제안한 알고리즘은 우수한 에지 검출 특성을 나타내었다.

  • PDF

국부 마스크의 표준편차를 이용한 에지 검출 알고리즘에 관한 연구 (A Study on Edge Detection Algorithm using Standard Deviation of Local Mask)

  • 이창영;김남호
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국정보통신학회 2015년도 추계학술대회
    • /
    • pp.328-330
    • /
    • 2015
  • 에지는 영상에 포함된 물체의 크기, 방향, 위치 등을 쉽게 획득할 수 있는 특징 정보이며, 에지 검출은 물체 검출, 물체 인식 등의 여러 영상 처리 응용 분야에서 전처리 과정으로 활용되고 있다. 기존의 에지 검출 방법에는 Sobel, Prewitt, Roberts 에지 검출 방법 등이 있다. 이러한 기존의 에지 검출 방법들은 구현이 간단하며, 고정 가중치 마스크를 적용하므로 에지 검출 특성이 다소 미흡하다. 따라서 기존의 에지 검출 방법들의 문제점을 보완하기 위하여, 본 논문에서는 국부 마스크 내의 평균 및 표준편차에 따라 가중치를 적용한 후 에지를 검출하는 알고리즘을 제안하였다.

  • PDF

A Noisy Infrared and Visible Light Image Fusion Algorithm

  • Shen, Yu;Xiang, Keyun;Chen, Xiaopeng;Liu, Cheng
    • Journal of Information Processing Systems
    • /
    • 제17권5호
    • /
    • pp.1004-1019
    • /
    • 2021
  • To solve the problems of the low image contrast, fuzzy edge details and edge details missing in noisy image fusion, this study proposes a noisy infrared and visible light image fusion algorithm based on non-subsample contourlet transform (NSCT) and an improved bilateral filter, which uses NSCT to decompose an image into a low-frequency component and high-frequency component. High-frequency noise and edge information are mainly distributed in the high-frequency component, and the improved bilateral filtering method is used to process the high-frequency component of two images, filtering the noise of the images and calculating the image detail of the infrared image's high-frequency component. It can extract the edge details of the infrared image and visible image as much as possible by superimposing the high-frequency component of infrared image and visible image. At the same time, edge information is enhanced and the visual effect is clearer. For the fusion rule of low-frequency coefficient, the local area standard variance coefficient method is adopted. At last, we decompose the high- and low-frequency coefficient to obtain the fusion image according to the inverse transformation of NSCT. The fusion results show that the edge, contour, texture and other details are maintained and enhanced while the noise is filtered, and the fusion image with a clear edge is obtained. The algorithm could better filter noise and obtain clear fused images in noisy infrared and visible light image fusion.

A Coherent Algorithm for Noise Revocation of Multispectral Images by Fast HD-NLM and its Method Noise Abatement

  • Hegde, Vijayalaxmi;Jagadale, Basavaraj N.;Naragund, Mukund N.
    • International Journal of Computer Science & Network Security
    • /
    • 제21권12spc호
    • /
    • pp.556-564
    • /
    • 2021
  • Numerous spatial and transform-domain-based conventional denoising algorithms struggle to keep critical and minute structural features of the image, especially at high noise levels. Although neural network approaches are effective, they are not always reliable since they demand a large quantity of training data, are computationally complicated, and take a long time to construct the model. A new framework of enhanced hybrid filtering is developed for denoising color images tainted by additive white Gaussian Noise with the goal of reducing algorithmic complexity and improving performance. In the first stage of the proposed approach, the noisy image is refined using a high-dimensional non-local means filter based on Principal Component Analysis, followed by the extraction of the method noise. The wavelet transform and SURE Shrink techniques are used to further culture this method noise. The final denoised image is created by combining the results of these two steps. Experiments were carried out on a set of standard color images corrupted by Gaussian noise with multiple standard deviations. Comparative analysis of empirical outcome indicates that the proposed method outperforms leading-edge denoising strategies in terms of consistency and performance while maintaining the visual quality. This algorithm ensures homogeneous noise reduction, which is almost independent of noise variations. The power of both the spatial and transform domains is harnessed in this multi realm consolidation technique. Rather than processing individual colors, it works directly on the multispectral image. Uses minimal resources and produces superior quality output in the optimal execution time.

비균일 양자화 방식 기반 HSS 방식의 LDPC 복호기 성능 (Performance of LDPC Decoder of HSS based on Non-Uniform Quantization)

  • 김태훈;권해찬;정지원
    • 한국정보통신학회논문지
    • /
    • 제17권9호
    • /
    • pp.2029-2035
    • /
    • 2013
  • 본 논문에서는 DVB-S2에 제시된 LDPC 복호기에 대하여 구현을 하기 위한 비균일 양자화 방식을 제시하였다. 고속 복호를 구현하기 위해서는 알고리즘과 구현 측면에서 여러 가지 문제점이 있다. 알고리즘 측면에서 LDPC 부호화 방식은 큰 블록 사이즈 및 많은 반복 횟수를 요구하므로 복호 속도를 높이기 위해서는 동일한 성능을 유지하면서 반복 횟수를 줄일 수 있는 알고리즘이 필요하다. 본 논문에서는 이를 위해 체크노드를 기반으로 하여 복호화 과정을 거치는 Horizontal Shuffle Scheduling 알고리즘을 적용하여 기존의 반복횟수를 줄일 수 있는 방안을 연구하였다. 구현측면에서 복호 속도를 높이기 위해서는 여러 가지 알고리즘이 제시되지만 본 논문에서는 복호기에 입력되는 양자화 비트수를 비균일 양자화 방식을 적용하여 줄임으로써 복호속도를 개선하는 방식을 제시한다. 구현 결과 복호 속도가 약 12% 개선됨을 알 수 있다.

우리나라 초등학교 수학 교과서에서의 분수 나눗셈 알고리즘 정당화 과정 분석 (An Analysis on Processes of Justifying the Standard Fraction Division Algorithms in Korean Elementary Mathematics Textbooks)

  • 박교식
    • 한국초등수학교육학회지
    • /
    • 제18권1호
    • /
    • pp.105-122
    • /
    • 2014
  • 본 논문에서는 분수 나눗셈 알고리즘 지도 방법 개선을 위한 기초 작업의 일환으로, 우리나라 초등학교 수학 교과서에서의 분수 나눗셈 알고리즘 정당화 과정을 분석한다. 교과서에서는 간접적인 방법으로 분수 나눗셈식을 분수 곱셈식으로 변환시켜 알고리즘을 정당화하고 있다. 그 방법으로 추이성을 이용하는 것, 수 막대나 직사각형 모델을 이용하는 것의 두 가지가 있다. 2007 개정 교육과정에 따른 수학 교과서 ${\ll}5-2{\gg}$, ${\ll}6-1{\gg}$에서 분수 나눗셈 알고리즘은 외형상 6개이다. 그 중 4개는 형태상 제수의 역수를 곱하는 표준 알고리즘이다. 본 논문에서는 이러한 분석 결과를 바탕으로 다음의 세 가지 제언을 결론으로 제시한다. 첫째, 초등학교 5학년에서 역수라는 용어의 사용을 전향적으로 고려할 필요가 있다. 둘째, 비표준 알고리즘을 표준 알고리즘 형태로 도입하는 것을 고려할 필요가 있다. 셋째, 차후의 교육과정에서 분모가 1인 분수의 취급에 관해 논의할 필요가 있다.

  • PDF

3차원 튜브 뱅크 주위의 난류 유동장 및 열전달에 대한 수치 해석적 연구 (The Numerical Simulation of Flow Field and Heat Transfer around 3-D Tube Banks)

  • 박상길;김경원;유홍선;최영기
    • 설비공학논문집
    • /
    • 제8권3호
    • /
    • pp.375-385
    • /
    • 1996
  • Turbulent flow and heat transfer characteristics around staggered tube banks were studied using the 3-D Navier-Stokes equations and energy equation governing a steady incompressible flow, which were reformulated in a non-orthogonal coordinate system with cartesian velocity components and discretized by the finite volume method with a non-staggered variable arrangement. The predicted turbulent kinetic energy using RNG $k-{\varepsilon}$ model was lower than that of standard $k-{\varepsilon}$ model but showed same result for mean flow field quantities. The prediction of the skin friction coefficient using RNG $k-{\varepsilon}$ model showed better trend with experimental data than standard $k-{\varepsilon}$ model result. The inclined flow showed higher velocity and skin friction coefficient than transverse flow because of extra strain rate ($\frac{{\partial}w}{{\partial}y}$). Also, this was why the inclined flow showed higher local heat transfer coefficient than the transverse flow.

  • PDF

HEVC 엔트로피 부호화를 고려한 비균등 양자화 방법 (Non-fixed Quantization Considering Entropy Encoding in HEVC)

  • 권령희;한우진;이영렬
    • 방송공학회논문지
    • /
    • 제16권6호
    • /
    • pp.1036-1046
    • /
    • 2011
  • ITU-T VCEG과 ISO/IEC MPEG은 공동으로 JCT-VC(Joint Collaborative Team on Video Coding) 를 구성하여 차세대 비디오 코덱 HEVC(High Efficiency Video Coding)에 대한 표준화를 진행하고 있다. HEVC에서 사용되고 있는 양자화 및 역 양자화는 TU(Transform Unit)내 모든 위치의 변환계수에 동일한 크기의 양자화 및 역 양자화를 수행한다. TU내의 변환계수는 동일하게 분포되어 있지 않으므로 모든 위치의 변환계수에 동일한 크기의 양자화 및 역 양자화를 수행하는 것은 비효율적이다. 또한 주사 순서상 뒤쪽에 있는 양자화 된 계수는 엔트로피 부호화 방법상 비효율적 일 수도 있다. 이 논문에서는 엔트로피 부호화의 효율성을 고려하여 TU 내 변환계수의 위치에 따라 다른 크기의 양자화를 수행하여 성능을 향상시키는 알고리즘을 제시한다. 이 알고리즘의 원리는 양자화 된 계수 분포의 통계적 특징에 따른 TU의 주사 순서에 따라 다른 크기의 양자화 및 역 양자화를 수행하는 것이다. 이 알고리즘은 평균 Y BD-rate 0.34% 의 압축률 향상을 나타내었다.