• Title/Summary/Keyword: SRCNN

Search Result 17, Processing Time 0.02 seconds

Merging of multiple resolution-based precipitation data using super resolution convolution neural network (Super Resolution Convolutional Neural Network(SRCNN)를 이용한 다중 해상도 기반의 강수 데이타 병합)

  • Gyu-Ho Noh;Kuk-Hyun Ahn
    • Proceedings of the Korea Water Resources Association Conference
    • /
    • 2023.05a
    • /
    • pp.121-121
    • /
    • 2023
  • 다수의 서로 다른 해상도의 자료를 병합(Merge)하는 것은 강수 자료 사용에 중요한 절차 중 하나이다. 강수 자료는 다수의 소스(관측소, 레이더, 위성 등)에서 관측 자료를 제공한다. 연구자들은 각 원본 자료의 장점을 취하고 단점을 보완하기 위해 다중소스 기반의 재분석 강수 자료를 제작하여 사용하고 있다. 기존의 방법은 자료를 병합하기 위해 서로 다른 공간적 특성을 갖는 자료들을 공간적으로 동일한 위치로 보간(Interpolation) 하는 과정이 필요하다. 하지만 보간 절차는 원본자료에 인위적인 변형을 주기 때문에 많은 오차(Error)를 발생시키는 것으로 알려져 있다. 따라서 본 연구는 병합 과정에서 보간 절차를 제외하고 원본 해상도 자료를 그대로 입력하기 위해 머신 러닝 방법의 하나인 Super resolution convolutional neural network(SRCNN)에 기반한 병합 방법을 제안하고자 한다. 이 방법은 원본 자료의 영향을 모델이 직접 취사선택하여 최종 자료에 도달하기 때문에 병합 과정의 오류를 줄일 수 있을 것으로 기대된다.

  • PDF

A Research on Re-examining Discriminator Design Space for Performance Improvement of ESRGAN (ESRGAN의 성능 향상을 위한 판별자 설계 공간 재검토에 관한 연구)

  • Sung-Wook Park;Jun-Yeong Kim;Jun Park;Se-Hoon Jung;Chun-Bo Sim
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2023.05a
    • /
    • pp.513-514
    • /
    • 2023
  • 초해상은 저해상도의 영상을 고해상도 영상으로 합성하는 기술이다. 이 기술에 딥러닝이 적용되어, 2014년에는 SRCNN(Super Resolution Convolutional Neural Network) 모델이 발표됐다. 이후에는 SRCAE(Super Resolution Convolutional Autoencoders)와 GAN(Generative Adversarial Networks)을 기반으로 한 SRGAN(Super Resolution Generative Adversarial Networks) 등, SRCNN의 성능을 능가하는 모델들이 발표됐다. ESRGAN(Enhanced Super Resolution Generative Adversarial Networks)은 SRGAN 모델의 성능을 개선했지만, 완벽한 성능을 내지 못하는 문제점이 있다. 이에 본 논문에서는 판별자(Discriminator) 구조를 변경하여 ESRGAN의 성능을 개선한다. 실험 결과, 제안하는 모델이 ESRGAN보다 더 높은 성능을 보일 것으로 기대된다.

Super Resolution Performance Analysis of GAN according to Feature Extractor (특징 추출기에 따른 SRGAN의 초해상 성능 분석)

  • Park, Sung-Wook;Kim, Jun-Yeong;Park, Jun;Jung, Se-Hoon;Sim, Chun-Bo
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2022.11a
    • /
    • pp.501-503
    • /
    • 2022
  • 초해상이란 해상도가 낮은 영상을 해상도가 높은 영상으로 합성하는 기술이다. 딥러닝은 영상의 해상도를 높이는 초해상 기술에도 응용되며 실현은 2아4년에 발표된 SRCNN(Super Resolution Convolutional Neural Network) 모델로부터 시작됐다. 이후 오토인코더 (Autoencoders) 구조로는 SRCAE(Super Resolution Convolutional Autoencoders), 합성된 영상을 실제 영상과 통계적으로 구분되지 않도록 강제하는 GAN (Generative Adversarial Networks) 구조로는 SRGAN(Super Resolution Generative Adversarial Networks) 모델이 발표됐다. 모두 SRCNN의 성능을 웃도는 모델들이나 그중 가장 높은 성능을 끌어내는 SRGAN 조차 아직 완벽한 성능을 내진 못한다. 본 논문에서는 SRGAN의 성능을 개선하기 위해 사전 훈련된 특징 추출기(Pre-trained Feature Extractor) VGG(Visual Geometry Group)-19 모델을 변경하고, 기존 모델과 성능을 비교한다. 실험 결과, VGG-19 모델보다 윤곽이 뚜렷하고, 실제 영상과 더 가까운 영상을 합성할 수 있는 모델을 발견할 수 있을 것으로 기대된다.

Deep Learning-based Super Resolution Method Using Combination of Channel Attention and Spatial Attention (채널 강조와 공간 강조의 결합을 이용한 딥 러닝 기반의 초해상도 방법)

  • Lee, Dong-Woo;Lee, Sang-Hun;Han, Hyun Ho
    • Journal of the Korea Convergence Society
    • /
    • v.11 no.12
    • /
    • pp.15-22
    • /
    • 2020
  • In this paper, we proposed a deep learning based super-resolution method that combines Channel Attention and Spatial Attention feature enhancement methods. It is important to restore high-frequency components, such as texture and features, that have large changes in surrounding pixels during super-resolution processing. We proposed a super-resolution method using feature enhancement that combines Channel Attention and Spatial Attention. The existing CNN (Convolutional Neural Network) based super-resolution method has difficulty in deep network learning and lacks emphasis on high frequency components, resulting in blurry contours and distortion. In order to solve the problem, we used an emphasis block that combines Channel Attention and Spatial Attention to which Skip Connection was applied, and a Residual Block. The emphasized feature map extracted by the method was extended through Sub-pixel Convolution to obtain the super resolution. As a result, about PSNR improved by 5%, SSIM improved by 3% compared with the conventional SRCNN, and by comparison with VDSR, about PSNR improved by 2% and SSIM improved by 1%.

Generative Adversarial Network based CNN model for artifact reduction on HEVC-encoded video (HEVC 비디오 영상 압축 왜곡 제거를 위한 Generative Adversarial Network 적용 기법)

  • Jeon, Jin;Kim, Munchurl
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 2017.06a
    • /
    • pp.192-193
    • /
    • 2017
  • 본 논문에서는 비디오 영상 압축 왜곡 제거를 위해 Generative Adversarial Network (GAN)을 적용한 컨벌루션 뉴럴 네트워크 (CNN) 모델을 제안한다. GAN 모델의 생성 모델 (Generator)은 노이즈가 아닌 High Efficiency Video Coding (HEVC)로 압축된 영상을 입력 받은 뒤, 압축 왜곡이 제거된 영상을 출력하며, 분류 모델 (Discriminator)은 원본 영상과 압축된 영상을 입력 받은 뒤, 원본 영상과 압축 왜곡이 포함된 압축된 영상을 분류한다. 분류 모델은 5 개 층을 쌓은 컨벌루션 뉴럴 네트워크 구조를 사용하였고, 생성 모델은 5 개 층을 쌓은 SRCNN 구조와 VDSR 구조를 기반으로 한 두 개의 모델을 이용한 실험을 통해 얻은 결과를 비교하였다. 비디오 영상 압축 왜곡 제거 실험을 위해 원본 비디오 영상을 HEVC 을 이용하여 2Mbps, 4Mbps 로 압축된 영상을 사용하였으며, 압축된 영상 대비 왜곡이 제거된 영상을 얻을 수 있었다.

  • PDF

A Comparative Study on OCR using Super-Resolution for Small Fonts

  • Cho, Wooyeong;Kwon, Juwon;Kwon, Soonchu;Yoo, Jisang
    • International journal of advanced smart convergence
    • /
    • v.8 no.3
    • /
    • pp.95-101
    • /
    • 2019
  • Recently, there have been many issues related to text recognition using Tesseract. One of these issues is that the text recognition accuracy is significantly lower for smaller fonts. Tesseract extracts text by creating an outline with direction in the image. By searching the Tesseract database, template matching with characters with similar feature points is used to select the character with the lowest error. Because of the poor text extraction, the recognition accuracy is lowerd. In this paper, we compared text recognition accuracy after applying various super-resolution methods to smaller text images and experimented with how the recognition accuracy varies for various image size. In order to recognize small Korean text images, we have used super-resolution algorithms based on deep learning models such as SRCNN, ESRCNN, DSRCNN, and DCSCN. The dataset for training and testing consisted of Korean-based scanned images. The images was resized from 0.5 times to 0.8 times with 12pt font size. The experiment was performed on x0.5 resized images, and the experimental result showed that DCSCN super-resolution is the most efficient method to reduce precision error rate by 7.8%, and reduce the recall error rate by 8.4%. The experimental results have demonstrated that the accuracy of text recognition for smaller Korean fonts can be improved by adding super-resolution methods to the OCR preprocessing module.

Feasibility Study of CNN-based Super-Resolution Algorithm Applied to Low-Resolution CT Images

  • Doo Bin KIM;Mi Jo LEE;Joo Wan HONG
    • Korean Journal of Artificial Intelligence
    • /
    • v.12 no.1
    • /
    • pp.1-6
    • /
    • 2024
  • Recently, various techniques are being applied through the development of medical AI, and research has been conducted on the application of super-resolution AI models. In this study, evaluate the results of the application of the super-resolution AI model to brain CT as the basic data for future research. Acquiring CT images of the brain, algorithm for brain and bone windowing setting, and the resolution was downscaled to 5 types resolution image based on the original resolution image, and then upscaled to resolution to create an LR image and used for network input with the original imaging. The SRCNN model was applied to each of these images and analyzed using PSNR, SSIM, Loss. As a result of quantitative index analysis, the results were the best at 256×256, the brain and bone window setting PSNR were the same at 33.72, 35.2, and SSIM at 0.98 respectively, and the loss was 0.0004 and 0.0003, respectively, showing relatively excellent performance in the bone window setting CT image. The possibility of future studies aimed image quality and exposure dose is confirmed, and additional studies that need to be verified are also presented, which can be used as basic data for the above studies.