• Title/Summary/Keyword: 실험 영상

Search Result 10,218, Processing Time 0.032 seconds

Removing SAR Speckle Noise Based on the Edge Sharpenig Algorithm (경계선 보존을 기반으로 한 SAR 영상의 잡영 제거 알고리즘에 대한 연구)

  • 손홍규;박정환;피문희
    • Proceedings of the Korean Association of Geographic Inforamtion Studies Conference
    • /
    • 2003.04a
    • /
    • pp.3-8
    • /
    • 2003
  • 모든 SAR 영상에는 전자기파 간의 간섭으로 인한 스페클 잡영(speckle)이 존재하며, 이를 제거하는 것은 양질의 SAR 영상을 얻기 위한 필수적인 전처리 과정 중 하나라고 할 수 있다. 그러나 이러한 스페클 잡영을 제거하기 위하여 기존에 제안되었던 알고리즘은 잡영은 효과적으로 감소시키는 반면 경계선과 같은 영상의 고유 정보까지 함께 감소시키는 한계가 있었다. 따라서 본 연구에서는 SAR 영상의 경계선은 보존시키면서 영상으로부터 불필요한 잡영을 제거할 수 있는 알고리즘을 구현하고, 기존의 알고리즘과 비교하여 그 효율성을 평가하고자 한다. 영상의 통계적 특성에 근거하는 기존의 알고리즘과는 달리 웨이블렛 변환(Wavelet transform)으로 경계선 및 특징 정보의 여부를 판별한 후 평균 필터(mean filter)를 적용하는 경계선 보존(edge sharpening) 알고리즘은 경계 정보의 신뢰성을 향상시킬 수 있으며, 1차원 필터를 수평, 수직, 대각선, 역대각선 방향으로 적용함으로써 하나의 영상소를 중심으로 모든 방향에 대한 경계선 여부를 확인할 수 있는 장점이 있다. 본 연구에서는 512 × 512로 절취한 1-look SAR 영상에 대하여 창 크기 5 × 5의 경계선 보존 필터를 적용하고 동일영상에 대하여 기존의 Lee, Kuan, Frost 필터 등의 실험결과를 비교함으로써 그 적합성을 판단하고자 하였다. 실험결과에 대한 수치적인 평가는 ①정규화 평균을 이용하여 평균값의 보존 여부, ②편차 계수를 이용한 스페클 잡영의 제거 여부, ③경계선 보존지수(EPI)를 이용한 경계선의 보존 정도를 통해 이루어졌다. 본 연구의 실험결과를 통해 경계선 보존 필터는 평균값의 보존 여부 및 스페클 잡영 제거 정도에 있어 다른 필터들과 큰 차이가 없지만 경계선보존지수는 다른 필터들에 비하여 가장 우수함을 확인할 수 있었다.rbon 탐식효율을 조사한 결과 B, D 및 E 분획에서 유의적인 효과를 나타내었다. 이상의 결과를 종합해볼 때, ${\beta}$-glucan은 고용량일 때 직접적으로 또는 $IFN-{\gamma}$ 존재시에는 저용량에서도 복강 큰 포식세로를 활성화시킬 뿐 아니라, 탐식효율도 높임으로써 면역기능을 증진 시키는 것으로 나타났고, 그 효과는 crude ${\beta}$-glucan의 추출조건에 따라 달라지는 것을 알 수 있었다.eveloped. Design concepts and control methods of a new crane will be introduced in this paper.and momentum balance was applied to the fluid field of bundle. while the movement of′ individual material was taken into account. The constitutive model relating the surface force and the deformation of bundle was introduced by considering a representative prodedure that stands for the bundle movement. Then a fundamental equations system could be simplified considering a steady state of the process. On the basis of the simplified model, the simulation was performed and the results could be confirmed by the experiments under various conditions.뢰, 결속 등 다차원

  • PDF

The Evaluation of the Difference of the SUV Caused by DFOV Change in PET/CT (PET/CT 검사에서 확대된 표시시야가 표준섭취계수에 미치는 영향 평가)

  • Kwak, In-Suk;Lee, Hyuk;Choi, Sung-Wook;Seok, Jae-Dong
    • The Korean Journal of Nuclear Medicine Technology
    • /
    • v.15 no.2
    • /
    • pp.13-20
    • /
    • 2011
  • Purpose: The limited FOV(Field of View) of CT (Computed Tomography) can cause truncation artifact at external DFOV (Display Field of View) in PET/CT image. In our study, we measured the difference of SUV and compared the influence affecting to the image reconstructed with the extended DFOV. Materials and Methods: NEMA 1994 PET Phantom was filled with $^{18}F$(FDG) of 5.3 kBq/mL and placed at the center of FOV. Phantom images were acquired through emission scan. Shift the phantom's location to the external edge of DFOV and images were acquired with same method. All of acquired data through each experiment were reconstructed with same method, DFOV was applied 50 cm and 70 cm respectively. Then ROI was set up on the emission image, performed the comparative analysis SUV. In the clinical test, patient group shown truncation artifact was selected. ROI was set up at the liver of patient's image and performed the comparative analysis SUV according to the change of DFOV. Results: The pixel size was increase from 3.91 mm to 5.47 mm according to the DFOV increment in the centered location phantom study. When extended DFOV was applied, $_{max}SUV$ of ROI was decreased from 1.49 to 1.35. In case of shifted the center of phantom location study, $_{max}SUV$ was decreased from 1.30 to 1.20. The $_{max}SUV$ was 1.51 at the truncated region in the extended DFOV. The difference of the $_{max}SUV$ was 25.9% higher at the outside of the truncated region than inside. When the extended DFOV was applied, $_{max}SUV$ was decreased from 3.38 to 3.13. Conclusion: When the extended DFOV was applied, $_{max}SUV$ decreasing phenomenon can cause pixel to pixel noise by increasing of pixel size. In this reason, $_{max}SUV$ was underestimated. Therefore, We should consider the underestimation of quantitative result in the whole image plane in case of patient study applied extended DFOV protocol. Consequently, the result of the quantitative analysis may show more higher than inside at the truncated region.

  • PDF

MR-based Partial Volume Correction Using Hoffman Brain Phantom Data and Clinical Application (자기공명영상을 이용한 양전자방출단층촬영의 부분용적효과 보정 및 임상적용)

  • 김동현;이상호;정해조;윤미진;이종두;김희중
    • Progress in Medical Physics
    • /
    • v.14 no.3
    • /
    • pp.203-210
    • /
    • 2003
  • PET (positron emission tomography) permits the investigation of physiological and biochemical processes in vivo. The accuracy of quantifying PET data is affected by its finite spatial resolution, which causes partial volume effects. In this study, we developed a method for partial volume correction using Hoffman phantom PET and MR data, and applied various FWHM (full width at half maximum) levels. We also applied this method to PET images of normal controls and tested for the possibility of clinical application. $^{18}$ F-PET Hoffman phantom images were co-registered to MR slices. The gray matter and white matter regions were then segmented into binary images. Each binary image was convolved by 4, 8, 12, 16 mm FWHM levels. These convolved images of gray and white matter were merged corresponding to the same level of FWHM. The original PET images were then divided by the convolved binary images voxel-by-voxel. These corrected PET images were multiplied by binary images. The corrected PET images were evaluated by analyzing regions of interests, which were drawn on the gray and white matter regions of the original MR image slices. We calculated the ratio of white to gray matter. We also applied this method to the PET images of normal controls. On analyzing the corrected PET images of Hoffman phantom, the ratios of the corrected images increased more than that of the uncorrected images. With the normal controls, the ratio of the corrected images increased more than that of the uncorrected images. The ratio increase of the corrected PET images was lower than that of the corrected phantom PET images. In conclusion, the method developed for partial volume correction in PET data may be clinically applied, although further study may be required for optimal correction.

  • PDF

Effect of Video Education on the Moment of Hand Hygiene among Nursing student in Clinical Practicum. (임상실습 중인 간호학생의 손 위생 시점 동영상 실습교육의 효과)

  • Choi, Hye-Kyung;Ju, Youn-sook
    • Journal of the Korea Academia-Industrial cooperation Society
    • /
    • v.19 no.6
    • /
    • pp.526-535
    • /
    • 2018
  • Purpose: This study conducted a non-equivalent pre-post-test of quasi-experimental design that applied a video program about hand hygiene to nursing students to verify its effects on knowledge and performance of hand hygiene in clinical practicum. Methods: Data were collected from 92 students in three nursing colleges (44 in the experimental group and 48 in the control group) from 2 March to 30 June, 2017. Results: The results of the hypothesis tests were as follow. 1) Before and after the hand hygiene video program education, hand hygiene knowledge differed between the experimental group and the control group (t=6.30, p<0.001). 2) After the hand hygiene moment video program education, hand hygiene knowledge was higher in the experimental group than in the control group(t=6.34, p <0.001). 3) After the hand hygiene moment video program education, hand hygiene performance was higher in the experimental group than in the control group(t=3.82, p<0.001). 4). Knowledge and performance of hand hygiene moment are correlated(r=0.458, p <0.001). Conclusion: The hand hygiene moment education program may enhance hand hygiene knowledge and hand hygiene performance.

Grouping Images Based on Camera Sensor for Efficient Image Stitching (효율적인 영상 스티칭을 위한 카메라 센서 정보 기반 영상 그룹화)

  • Im, Jiheon;Lee, Euisang;Kim, Hoejung;Kim, Kyuheon
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 2017.06a
    • /
    • pp.256-259
    • /
    • 2017
  • 파노라마 영상은 카메라 시야각의 제한을 극복하여 넓은 시야를 가질 수 있으므로 컴퓨터 비전, 스테레오 카메라 등의 분야에서 효율적으로 연구되고 있다. 파노라마 영상을 생성하기 위해서는 영상 스티칭 기술이 필요하다. 영상 스티칭 기술은 여러 영상에서 추출한 특징점의 디스크립터를 생성하고, 특징점들 간의 유사도를 비교하여 영상들을 이어 붙여 큰 하나의 영상으로 만드는 것이다. 각각의 특징점은 수십 수백차원의 정보를 가지고 있고, 스티칭 할 영상이 많아질수록 데이터 처리 시간이 증가하게 된다. 본 논문에서는 이를 해결 하기 위해서 전처리 과정으로 겹치는 영역이 많을 것이라고 예상되는 영상들을 그룹화 하는 방법을 제안한다. 카메라 센서 정보를 기반으로 영상들을 미리 그룹화 하여 한 번에 스티칭 할 영상의 수를 줄임으로써 데이터 처리 시간을 줄일 수 있다. 후에 계층적으로 스티칭 하여 하나의 큰 파노라마를 만든다. 실험 결과를 통해 제안한 방법이 기존의 스티칭 처리 시간 보다 짧아진 것을 검증하였다.

  • PDF

Noise reduction Algorithm for CFA Images (컬러 필터 배열 영상에서의 잡음제거 알고리즘)

  • Lee, Min-Seok;Park, Sang-Wook;Kwon, Ji-Yong;Kang, Moon-Gi
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 2010.07a
    • /
    • pp.67-69
    • /
    • 2010
  • 대부분의 디지털 카메라는 컬러 필터 배열(Color Filter Array)을 가진 하나의 영상 획득 센서를 사용한다. 따라서 영상획득 이후에 컬러 보간 알고리즘이 필수적으로 진행된다. 또 영상 획득 과정에서 센서의 열화나 암전류 등과 같은 잡음이 발생하여 영상 잡음 제거 알고리즘이 필요하다. 하지만 기존의 대부분의 영상 잡음 제거 알고리즘은 컬러 필터 배열 영상의 특징인 모자이크 데이터 기반이 아닌 컬러 보간 이후의 풀 컬러영상에(YCbCr) 적용되고 있다. 따라서 잡음이 포함된 영상으로 컬러 보간을 할 경우 잡음의 공간적 상관관계(spatial correlation)가 커짐에 의한 잡음 번짐 때문에 컬러 보간 이후의 잡음제거는 더욱 어렵게 된다. 이와 같은 문제를 해결하기 위해 컬러 필터 배열 영상에 대한 잡음제거 알고리즘이 연구되고 있으며, 본 논문에서도 CMOS/CCD의 이미지 센서에서 획득된 베이어 컬러 필터 배열 영상에서 잡음을 제거하는 알고리즘을 제안한다. 이를 위해서 베이어 컬러 필터 배열 영상 데이터에서 경계(edge)의 방향성을 고려한 LMMSE 방법을 기반으로 한 잡음제거 알고리즘을 제안한다. 제안하는 알고리즘은 영상의 경계를 보존해주며 잡음제거 과정 다음에 진행되는 컬러 보간 과정에서의 잡음 번짐의 문제를 해결할 수 있다. 실험 결과를 통해 향상된 잡음 제거 효과를 확인하였다.

  • PDF

Omni-directional Image Generation Algorithm with Parametric Image Compensation (변수화된 영상 보정을 통한 전방향 영상 생성 방법)

  • Kim, Yu-Na;Sim, Dong-Gyu
    • Journal of Broadcast Engineering
    • /
    • v.11 no.4 s.33
    • /
    • pp.396-406
    • /
    • 2006
  • This paper proposes an omni-directional image generation algorithm with parametric image compensation. The algorithm generates an omni-directional image by transforming each planar image to the spherical image on spherical coordinate. Parametric image compensation method is presented in order to compensate vignetting and illumination distortions caused by properties of a camera system and lighting condition. The proposed algorithm can generates realistic and seamless omni-directional video and synthesize any point of view from the stitched omni-directional image on the spherical image. Experimental results show that the proposed omni-directional system with vignetting and illumination compensation is approximately $1{\sim}4dB$ better than that which does not consider the said effects.

Stereo Image Coding Using Zerotree (제로트리 기법을 이용한 스테레오 영상 부호화)

  • Bae, Jin-Woo;Shin, Choel;Yoo, Ji-Sang
    • The Journal of Korean Institute of Communications and Information Sciences
    • /
    • v.26 no.12A
    • /
    • pp.2092-2099
    • /
    • 2001
  • In the three-dimensional image system using stereoscopic images, efficient coding schemes which can get rid of redundancy between the left and right images are usually used. In this paper, we propose an efficient coding method by using relationship between a reference image and residual image. In the proposed algorithm, zero-tree method which guaranty a good quality in low bit rate is used for encoding the residual image. Zero-tree algorithm gives good coding performance, but it has computational complexity so that we used ADLS method to reduce time for the disparity estimation. Using the wavelet based zero-tree method, it is shown that high quality of image in the limited band-width can be preserved through computer simulation.

  • PDF

Novel Optical Image Encryption using Integral Unaging and Random Pixel-scrambling Schemes (집적영상 및 랜덤 픽셀-스크램블링 기법을 이용한 새로운 광 영상 암호화)

  • Piao, Yong-Ri;Kim, Seok-Tae;Kim, Eun-Soo
    • The Journal of Korean Institute of Communications and Information Sciences
    • /
    • v.34 no.4C
    • /
    • pp.380-387
    • /
    • 2009
  • In this paper, optical image encryption using integral imaging and pixel-scrambling technologies is proposed. In the encryption process, we use pixel scrambling to change the order of subsections into which the cover image is divided, and the utilize the integral imaging scheme to obtain the elemental image from the scrambled image. In order to achieve higher security, we reuse pixel scrambling to the elemental image. In the decryption process, we employ optical integral imaging reconstruction technique and inverse pixel scrambling methode. Computer simulation results prove the feasibility of the proposed method and robustness against data loss and noise.

Automatic fusion of T2-weighted image and diffusion weighted image in pelvis MRI (골반 T2강조 MR 영상과 확산강조 MR 영상 간 자동 융합)

  • Kang, Hye-Won;Jung, Ju-Lip;Hong, Helen;Hwang, Sung-Il
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2012.06c
    • /
    • pp.359-361
    • /
    • 2012
  • 본 논문은 T2강조 MR 영상과 확산강조 MR 영상의 강체 정합을 통해 크기, 위치, 회전 변환 왜곡을 보정하여 자궁내막암의 위치를 자동으로 찾는 방법을 제안한다. 영상해상도와 밝기값 분포가 서로 다른 두 영상간 정합의 정확성을 향상시키기 위해 잡음을 제거하고 두 영상의 밝기값 신호 분포의 유사성을 강화시킨다. 유사성이 향상된 두 영상의 크기, 위치, 회전 변환 왜곡을 보정하기 위해 정규화 상호정보를 최대화 하는 강체 정합을 반복적으로 수행한다. 정합된 영상에서 악성 종양을 쉽게 판별 할 수 있도록 현상확상계수지도를 컬러맵으로 생성하여 T2강조 MR 영상에서 얻은 종양의 후보군에 매핑하여 T2강조 MR 영상과 융합한다. 실험을 위하여 최적화 반복 과정에 따른 정규화 상호정보 수치 수렴 과정을 확인하고, 융합 후 종양 영역이 매핑되는 것을 육안평가를 통해 분석하였다. 제안방법을 통하여 T2강조 MR 영상과 확산강조 MR 영상을 융합함으로써 종양의 위치를 자동으로 파악하고 자궁내막암의 병기를 확정하는 용도로 활용할 수 있다.