• 제목/요약/키워드: Transformed image

검색결과 630건 처리시간 0.03초

웨이브렛 변환 영상 부호화용 고성능 범용 벡터양자화기의 설계 (Design of High Performance Robust Vector Quantizer for Wavelet Transformed Image Coding)

  • 정태연;도재수
    • 한국정보처리학회논문지
    • /
    • 제7권2호
    • /
    • pp.529-535
    • /
    • 2000
  • 본 논문에서는 웨이브렛 변환을 이용한 영상 부호화에서 입력 영상의 통계적 성질에 영향을 받지 않고 부호화 결과에 범용성을 갖는 새로운 벡터 양자화기 설계법을 제안한다. 기존의 벡터 양자화기의 가장 큰 문제점은 양자화대상 영상과 대표 벡터를 생성하기 위한 학습계열간의 통계적 성질의 불일치에 의한 부호화 성능의 열화이다. 그리하여, 본 논문에서는 벡터 양자화기의 대표벡터를 생성하기 위한 학습계열로 독립 난수에 영상의 상관과 에지 성분을 첨가한 모사 영상을 사용하여 종래 방식의 문제점을 해결하는 방법에 대하여 검토하였다. 제안방식에 의해 설계된 벡터양자화기와 대표 벡터 생성에 이용하는 학습계열에 부호화 대상이 되는 영상과 같은 실제의 영상을 사용한 종래 방식에 의해 설계된 벡터 양자화기와 부호화 성능을 컴퓨터 시뮬레이션을 통하여 비교하여 종래 방식의 문제점을 명확하게 밝힘과 동시에 제안 방식으로 설계된 벡터 양자화기가 부호화 성능이 뛰어남을 보인다.

  • PDF

Invariant Range Image Multi-Pose Face Recognition Using Fuzzy c-Means

  • Phokharatkul, Pisit;Pansang, Seri
    • 제어로봇시스템학회:학술대회논문집
    • /
    • 제어로봇시스템학회 2005년도 ICCAS
    • /
    • pp.1244-1248
    • /
    • 2005
  • In this paper, we propose fuzzy c-means (FCM) to solve recognition errors in invariant range image, multi-pose face recognition. Scale, center and pose error problems were solved using geometric transformation. Range image face data was digitized into range image data by using the laser range finder that does not depend on the ambient light source. Then, the digitized range image face data is used as a model to generate multi-pose data. Each pose data size was reduced by linear reduction into the database. The reduced range image face data was transformed to the gradient face model for facial feature image extraction and also for matching using the fuzzy membership adjusted by fuzzy c-means. The proposed method was tested using facial range images from 40 people with normal facial expressions. The output of the detection and recognition system has to be accurate to about 93 percent. Simultaneously, the system must be robust enough to overcome typical image-acquisition problems such as noise, vertical rotated face and range resolution.

  • PDF

Content-Based Image Retrieval Using Combined Color and Texture Features Extracted by Multi-resolution Multi-direction Filtering

  • Bu, Hee-Hyung;Kim, Nam-Chul;Moon, Chae-Joo;Kim, Jong-Hwa
    • Journal of Information Processing Systems
    • /
    • 제13권3호
    • /
    • pp.464-475
    • /
    • 2017
  • In this paper, we present a new texture image retrieval method which combines color and texture features extracted from images by a set of multi-resolution multi-direction (MRMD) filters. The MRMD filter set chosen is simple and can be separable to low and high frequency information, and provides efficient multi-resolution and multi-direction analysis. The color space used is HSV color space separable to hue, saturation, and value components, which are easily analyzed as showing characteristics similar to the human visual system. This experiment is conducted by comparing precision vs. recall of retrieval and feature vector dimensions. Images for experiments include Corel DB and VisTex DB; Corel_MR DB and VisTex_MR DB, which are transformed from the aforementioned two DBs to have multi-resolution images; and Corel_MD DB and VisTex_MD DB, transformed from the two DBs to have multi-direction images. According to the experimental results, the proposed method improves upon the existing methods in aspects of precision and recall of retrieval, and also reduces feature vector dimensions.

Self-Supervised Rigid Registration for Small Images

  • Ma, Ruoxin;Zhao, Shengjie;Cheng, Samuel
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제15권1호
    • /
    • pp.180-194
    • /
    • 2021
  • For small image registration, feature-based approaches are likely to fail as feature detectors cannot detect enough feature points from low-resolution images. The classic FFT approach's prediction accuracy is high, but the registration time can be relatively long, about several seconds to register one image pair. To achieve real-time and high-precision rigid registration for small images, we apply deep neural networks for supervised rigid transformation prediction, which directly predicts the transformation parameters. We train deep registration models with rigidly transformed CIFAR-10 images and STL-10 images, and evaluate the generalization ability of deep registration models with transformed CIFAR-10 images, STL-10 images, and randomly generated images. Experimental results show that the deep registration models we propose can achieve comparable accuracy to the classic FFT approach for small CIFAR-10 images (32×32) and our LSTM registration model takes less than 1ms to register one pair of images. For moderate size STL-10 images (96×96), FFT significantly outperforms deep registration models in terms of accuracy but is also considerably slower. Our results suggest that deep registration models have competitive advantages over conventional approaches, at least for small images.

어안렌즈와 천장의 위치인식 마크를 활용한 청소로봇의 자기 위치 인식 기술 (Location Identification Using an Fisheye Lens and Landmarks Placed on Ceiling in a Cleaning Robot)

  • 강태구;이재현;정광오;조덕연;임충혁;김동환
    • 제어로봇시스템학회논문지
    • /
    • 제15권10호
    • /
    • pp.1021-1028
    • /
    • 2009
  • In this paper, a location identification for a cleaning robot using a camera shooting forward a room ceiling which kas three point landmarks is introduced. These three points are made from a laser source which is placed on an auto charger. A fisheye lens covering almost 150 degrees is utilized and the image is transformed to a camera image grabber. The widly shot image has an inevitable distortion even if wide range is coverd. This distortion is flatten using an image warping scheme. Several vision processing techniques such as an intersection extraction erosion, and curve fitting are employed. Next, three point marks are identified and their correspondence is investigated. Through this image processing and image distortion adjustment, a robot location in a wide geometrical coverage is identified.

Ventricle Image Restoration and Enhancement with Multi-thresholding and Multi-Filtering

  • Ryu, Kwang-Ryol;Jung, Eun-Suk
    • Journal of information and communication convergence engineering
    • /
    • 제7권2호
    • /
    • pp.231-234
    • /
    • 2009
  • Speckle noise reduction for power Doppler ventricle coherent image for restoration and enhancement using Fast Wavelet Transform with multi-thresholding and multi-filtering on the each subbands is presented. Fast Wavelet Transform divides into low frequency component image to high frequency component image to be multi-resolved. Speckle noise is located on high frequency component in multi-resolution image mainly. A Doppler ventricle image is transformed and inversed with separated threshold function and filtering from low to high resolved images for restoration to utilize visualization for ventricle diagnosis. The experimental result shows that the proposed method has better performance in comparison with the conventional method.

독립성분 분석 계수의 합성에 의한 가변 얼굴 생체정보 생성 방법 (Generation of Changeable Face Template by Combining Independent Component Analysis Coefficients)

  • 정민이;이철한;최정윤;김재희
    • 대한전자공학회논문지SP
    • /
    • 제44권6호
    • /
    • pp.16-23
    • /
    • 2007
  • 개인 인증 방법 중 하나인 생체인식(Biometrics)은 개인 생체정보의 수가 한정되어 있기 때문에 생체정보의 도난 시 프라이버시 침해라는 문제를 가진다. 이 문제를 해결하기 위해 등장한 개념이 가변 생체인식(Changeable biometrics)이다. 가변 생체 인식은 생체정보가 훼손당했을 경우 새로운 생체정보로 대체하기 어렵다는 생체인식의 가장 큰 단점을 보완하기 위한 방법으로 원 생체정보가 아닌 변환된 생체정보로 개인을 인증한다. 이 논문에서는 가변 생체인식 가운데 얼굴인식을 위한 가변 생체인식에 대해 제안한다. 기존에 알려진 얼굴인식의 방법 가운데 하나인 외형 기반 기법(Appearance-based method) 중 독립성분 분석(Independent Component Analysis)의 계수(coefficient)를 변형하는 방법을 제안한다. 제안된 얼굴 생체정보 생성 방법은 계수의 일부분을 가우시안 분포(Gaussian distribution)에 따른 임의의 값으로 치환한 후 계수의 순서를 임의로 변경하여 무수히 많은 가변 얼굴 정보를 생성할 수 있도록 하였고 서로 다르게 변경된 계수들을 서로 합성함으로써 비가역성(Non-invertibility)을 만족시키려고 시도했다.

지역적 매칭쌍 특성에 기반한 고해상도영상의 자동기하보정 (Automatic Registration of High Resolution Satellite Images using Local Properties of Tie Points)

  • 한유경;번영기;최재완;한동엽;김용일
    • 한국측량학회지
    • /
    • 제28권3호
    • /
    • pp.353-359
    • /
    • 2010
  • 본 논문은 Scale Invariant Feature Transform(SIFT) 기술자를 이용한 매칭 방법을 개선하여 고해상도영상에서 보다 많은 매칭쌍(tie points)을 추출함으로써 고해상도영상 자동기하보정의 결과향상을 목적으로 한다. 이를 위해 기준(reference)영상과 대상(sensed)영상의 특징점(interest points)간의 위치관계를 추가적으로 이용하여 매칭쌍을 추출하였다. SIFT 기술자를 이용하여 어핀(affine)변환계수를 추정한 후, 이를 통해 대상영상의 특징점 좌표를 기준영상 좌표체계로 변환하였다. 변환된 대상영상의 특징점과 기준영상의 특징점간의 공간거리(spatial distance)정보를 이용하여 최종적으로 매칭쌍을 추출하였다. 추출된 매칭쌍으로 piecewise linear function을 구성하여 고해상도 영상간 자동기하보정을 수행하였다. 제안한 기법을 통하여, 기존 SIFT 기법에 의해 추출한 결과에 비해 영상 전역에 걸쳐 고르게 분포된 다수의 매칭쌍을 추출할 수 있었다.

에지 영역을 고려한 호모모르픽 웨이브렛 기반 MMSE 필터를 이용한 영상 신호의 스펙클 잡음 제거 (Reduction of Speckle Noise in Images Using Homomorphic Wavelet-Based MMSE Filter with Edge Detection)

  • 박원용;장익훈;김남철
    • 한국통신학회논문지
    • /
    • 제28권11C호
    • /
    • pp.1098-1110
    • /
    • 2003
  • 본 논문에서는 스펙클 잡음으로 열화 된 영상을 복원하기 위하여 에지 영역을 고려한 호모모르픽 웨이브렛 기반 MMSE 필터를 제안한다. 제안된 방법에서는 스펙클 잡음이 섞인 영상을 로그 영역으로 변환한 다음 호모모르픽 방향성 MMSE 필터로 복원된 영상에 DIP 연산자를 적용하여 각 화소를 평탄 영역과 에지 영역으로 분류한다. 평탄 영역에서는 호모모르픽 웨이브렛 기반 MMSE 필터링을 수행하고 에지 영역에서는 호모모르픽 웨이브렛 기반 MMSE 필터링의 결과와 호모모르픽 방향성 MMSE 필터링의 결과를 가중하여 합하는 가중 평균 필터링을 수행한다. 그런 다음 지수 함수를 이용하여 공간 영역으로 역 변환하여 복원된 영상을 얻는다. 실험 결과 제안된 방법으로 복원된 영상은 기존의 호모모르픽 평균 필터와 메디안 필터에 의하여 복원된 영상에 비하여 3.3-4.0 ㏈의 ISNR 성능 향상을 보였다. 또한 0.0103-0.0126의 에지 보존도 측정 파라미터 $\beta$ 성능 향상을 보이고, 에지가 잘 보존되면서 잡음이 잘 제거된 우수한 주관적 화질을 보였다.

A Color Image Watermarking Method for Embedding Audio Signal

  • Kim Sang Jin;Kim Chung Hwa
    • 대한전자공학회:학술대회논문집
    • /
    • 대한전자공학회 2004년도 학술대회지
    • /
    • pp.631-635
    • /
    • 2004
  • The rapid development of digital media and communication network urgently brings about the need of data certification technology to protect IPR (Intellectual property right). This paper proposed a new watermarking method for embedding contents owner's audio signal in order to protect color image IPR. Since this method evolves the existing static model and embeds audio signal of big data, it has the advantage of restoring signal transformed due to attacks. Three basic stages of watermarking include: 1) Encode analogue ID owner's audio signal using PCM and create new 3D audio watermark; 2) Interleave 3D audio watermark by linear bit expansion and 3) Transform Y signal of color image into wavelet and embed interleaved audio watermark in the low frequency band on the transform domain. The results demonstrated that the audio signal embedding in color image proposed in this paper enhanced robustness against lossy JPEG compression, standard image compression and image cropping and rotation which remove a part of image.

  • PDF