• 제목/요약/키워드: Fully convolutional Network

검색결과 120건 처리시간 0.024초

기계학습을 통한 복부 CT영상에서 요로결석 분할 모델 및 AI 웹 애플리케이션 개발 (Urinary Stones Segmentation Model and AI Web Application Development in Abdominal CT Images Through Machine Learning)

  • 이충섭;임동욱;노시형;김태훈;박성빈;윤권하;정창원
    • 정보처리학회논문지:컴퓨터 및 통신 시스템
    • /
    • 제10권11호
    • /
    • pp.305-310
    • /
    • 2021
  • 의료분야 인공지능 기술이 분석과 알고리즘 개발에 중점을 두었으나 점차 제품으로 서비스하기 위한 Web 애플리케이션 개발로 변화되고 있다. 본 연구는 복부 CT 영상에서 요로결석(Urinary Stone) 분할모델과 이를 기반으로 한 인공지능 웹 애플리케이션에 대해 기술한다. 이를 구현하기 위해 의료영상 분야에서 이미지 분할을 목적으로 제안된 End-to-End 방식의 Fully-Convolutional Network 기반 모델인 U-Net을 사용하여 모델을 개발하였다. 그리고 Python 기반의 Flask라는 마이크로 웹 프레임워크를 사용하여 AWS 클라우드 기반 웹 애플리케이션으로 개발하였다. 끝으로 모델 서빙으로 요로결석 분할모델이 예측한 결과를 인공지능 웹 애플리케이션 서비스 수행 결과로 보인다. 제안한 AI 웹 애플리케이션 서비스가 선별 검사에 활용되기를 기대한다.

레일리파와 딥러닝를 활용한 비접촉식 토양수분센서 개발 (The development of non-contact soil moisture sensors using Rayleigh waves and a fully convolutional network)

  • 이승민;우동국
    • 한국수자원학회:학술대회논문집
    • /
    • 한국수자원학회 2023년도 학술발표회
    • /
    • pp.223-223
    • /
    • 2023
  • 토양수분은 지표면과 지하 영역 사이에 존재하는 수분 및 열에너지의 분배를 제어하거나, 토양 영양분, 식물 성장 및 미생물 활동과 같은 다양한 환경 과정에 영향을 미치는 핵심 구성요소이다. 토양수분은 생태수문학 및 생지화학적 역학, 저수지 관리, 가뭄 및 홍수의 경고, 토양 수분 변화에 따른 작물 수확량 등을 이해하는 데 매우 중요한 역할을 한다. 따라서, 토양 수분의 정확한 측정은 필수적이며, 이러한 필요성에 따라 중력 측정법, 장력 측정법, 전기 저항법 및 시간-주파수 영역반사측정법 등의 다양한 측정 방법들이 다년간 개발되어 사용되었다. 다만, 앞선 방법들은 철저한 실험을 통해 높은 정확성을 확보하였지만, 토양 교란이 발생하는 단점이 존재하며 실험 현장 토양의 물리적, 생물학적, 그리고 화학적 특성의 보존은 매우 어려운 한계점을 가지고 있다. 따라서, 이러한 단점을 극복하기 위해, 본 연구에서는 레일리파를 이용한 비접촉식 비교란 토양수분 센서 개발을 목표로 한다. 모래, 실트, 점토와 같은 세 가지 특징적인 토양 유형에 따른 파동을 측정하고, 측정된 파동으로부터 토양 수분을 추정하기 위해 기존에 개발된 시간-주파수 방법을 활용하여 토양수분을 함께 측정하였다. 비접촉 파동신호를 토양수분으로 변환하기 위하여, fully convolutional network을 개발하였다. 개발한 모델의 결과 검증은 RMSE(Root Mean Square Error)를 활용하여 검증하였으며, 모래, 실트, 점토에서 각각 0.0131, 0.0021, 0.0034 m3 m-3으로 상대적으로 높은 정확성을 보였다. 즉, 본 연구에서 제시한 누출 레일리파를 사용한 비교란-비접촉 토양수분 측정 방법으로, 토양을 교란하지 않고 토양수분을 측정 할 수 있는 높은 가능성을 제시하였다.

  • PDF

딥러닝을 이용한 소규모 지역의 영상분류 적용성 분석 : UAV 영상을 이용한 농경지를 대상으로 (Applicability of Image Classification Using Deep Learning in Small Area : Case of Agricultural Lands Using UAV Image)

  • 최석근;이승기;강연빈;성선경;최도연;김광호
    • 한국측량학회지
    • /
    • 제38권1호
    • /
    • pp.23-33
    • /
    • 2020
  • 최근 UAV (Unmanned Aerial Vehicle)를 이용하여 고해상도 영상을 편리하게 취득할 수 있게 되면서 저비용으로 소규모 지역의 관측 및 공간정보 제작이 가능하게 되었다. 특히, 농업환경 모니터링을 위하여 작물생산 지역의 피복지도 생성에 대한 연구가 활발히 진행되고 있으며, 랜덤 포레스트와 SVM (Support Vector Machine) 및 CNN(Convolutional Neural Network) 을 적용하여 분류 성능을 비교한 결과 영상분류에서 딥러닝 적용에 대하여 활용도가 높은 것으로 나타났다. 특히, 위성영상을 이용한 피복분류는 위성영상 데이터 셋과 선행 파라메터를 사용하여 피복분류의 정확도와 시간에 대한 장점을 가지고 있다. 하지만, 무인항공기 영상은 위성영상과 공간해상도와 같은 특성이 달라 이를 적용하기에는 어려움이 있다. 이러한 문제점을 해결하기 위하여 위성영상 데이터 셋이 아닌 UAV를 이용한 데이터 셋과 국내의 소규모 복합 피복이 존재하는 농경지 분석에 활용이 가능한 딥러닝 알고리즘 적용 연구를 수행하였다. 본 연구에서는 최신 딥러닝의 의미론적 영상분류인 DeepLab V3+, FC-DenseNet (Fully Convolutional DenseNets), FRRN-B (Full-Resolution Residual Networks) 를 UAV 데이터 셋에 적용하여 영상분류를 수행하였다. 분류 결과 DeepLab V3+와 FC-DenseNet의 적용 결과가 기존 감독분류보다 높은 전체 정확도 97%, Kappa 계수 0.92로 소규모 지역의 UAV 영상을 활용한 피복분류의 적용가능성을 보여주었다.

딥러닝 모델을 이용한 항공정사영상의 비닐하우스 탐지 (Detection of Plastic Greenhouses by Using Deep Learning Model for Aerial Orthoimages)

  • 윤병현;성선경;최재완
    • 대한원격탐사학회지
    • /
    • 제39권2호
    • /
    • pp.183-192
    • /
    • 2023
  • 위성영상 및 항공사진과 같은 원격탐사 자료들은 영상판독과 영상처리 기법을 통하여 영상 내의 객체를 탐지하고 추출하는 데에 사용될 수 있다. 특히, 원격탐사 자료의 해상도가 향상되고, 딥러닝(deep learning) 모델 등과 같은 기술의 발전으로 인하여 관심객체를 자동으로 추출하여 지도갱신 및 지형 모니터링 등에 활용될 수 있는 가능성이 증대되고 있다. 이를 위해, 본 연구에서는 의미론적 분할에 사용되는 대표적인 딥러닝 모델인 fully convolutional densely connected convolutional network (FC-DenseNet)을 기반으로 하여 항공정사영상 내 존재하는 비닐하우스를 추출하고, 이에 대한 결과를 정량적으로 평가하였다. 농림축산식품부의 팜맵(farm map)을 이용하여 담양, 밀양지역의 비닐하우스에 대한 레이블링을 수행하여 훈련자료를 생성하고, 훈련자료를 이용하여 FC-DenseNet의 훈련을 수행하였다. 원격탐사자료에 딥러닝 모델을 효과적으로 이용하기 위하여, 각 밴드별 특성이 유지되도록 instance norm을 이용하여 정규화과정을 수행하였으며, attention module을 추가하여 각 밴드별 가중치를 효과적으로 산정하였다. 실험결과, 딥러닝 모델을 이용하여 영상 내 존재하는 비닐하우스 지역을 효과적으로 추출할 수 있음을 확인하였으며 팜맵, 토지피복지도 등의 갱신에 활용될 수 있을 것으로 판단하였다.

Evaluation of a multi-stage convolutional neural network-based fully automated landmark identification system using cone-beam computed tomography-synthesized posteroanterior cephalometric images

  • Kim, Min-Jung;Liu, Yi;Oh, Song Hee;Ahn, Hyo-Won;Kim, Seong-Hun;Nelson, Gerald
    • 대한치과교정학회지
    • /
    • 제51권2호
    • /
    • pp.77-85
    • /
    • 2021
  • Objective: To evaluate the accuracy of a multi-stage convolutional neural network (CNN) model-based automated identification system for posteroanterior (PA) cephalometric landmarks. Methods: The multi-stage CNN model was implemented with a personal computer. A total of 430 PA-cephalograms synthesized from cone-beam computed tomography scans (CBCT-PA) were selected as samples. Twenty-three landmarks used for Tweemac analysis were manually identified on all CBCT-PA images by a single examiner. Intra-examiner reproducibility was confirmed by repeating the identification on 85 randomly selected images, which were subsequently set as test data, with a two-week interval before training. For initial learning stage of the multi-stage CNN model, the data from 345 of 430 CBCT-PA images were used, after which the multi-stage CNN model was tested with previous 85 images. The first manual identification on these 85 images was set as a truth ground. The mean radial error (MRE) and successful detection rate (SDR) were calculated to evaluate the errors in manual identification and artificial intelligence (AI) prediction. Results: The AI showed an average MRE of 2.23 ± 2.02 mm with an SDR of 60.88% for errors of 2 mm or lower. However, in a comparison of the repetitive task, the AI predicted landmarks at the same position, while the MRE for the repeated manual identification was 1.31 ± 0.94 mm. Conclusions: Automated identification for CBCT-synthesized PA cephalometric landmarks did not sufficiently achieve the clinically favorable error range of less than 2 mm. However, AI landmark identification on PA cephalograms showed better consistency than manual identification.

딥러닝 기반 3차원 라이다의 반사율 세기 신호를 이용한 흑백 영상 생성 기법 (Deep Learning Based Gray Image Generation from 3D LiDAR Reflection Intensity)

  • 김현구;유국열;박주현;정호열
    • 대한임베디드공학회논문지
    • /
    • 제14권1호
    • /
    • pp.1-9
    • /
    • 2019
  • In this paper, we propose a method of generating a 2D gray image from LiDAR 3D reflection intensity. The proposed method uses the Fully Convolutional Network (FCN) to generate the gray image from 2D reflection intensity which is projected from LiDAR 3D intensity. Both encoder and decoder of FCN are configured with several convolution blocks in the symmetric fashion. Each convolution block consists of a convolution layer with $3{\times}3$ filter, batch normalization layer and activation function. The performance of the proposed method architecture is empirically evaluated by varying depths of convolution blocks. The well-known KITTI data set for various scenarios is used for training and performance evaluation. The simulation results show that the proposed method produces the improvements of 8.56 dB in peak signal-to-noise ratio and 0.33 in structural similarity index measure compared with conventional interpolation methods such as inverse distance weighted and nearest neighbor. The proposed method can be possibly used as an assistance tool in the night-time driving system for autonomous vehicles.

초기 볼트풀림 상태의 볼트 체결력 예측을 위한 주파수응답 유사성 기반의 합성곱 신경망 (Convolutional Neural Network-based Prediction of Bolt Clamping Force in Initial Bolt Loosening State Using Frequency Response Similarity)

  • 이제현;한정삼
    • 한국전산구조공학회논문집
    • /
    • 제36권4호
    • /
    • pp.221-232
    • /
    • 2023
  • 본 논문에서는 볼트로 체결된 구조체에 대하여 초기 볼트풀림 상태에서의 볼트 체결력 예측 합성곱 신경망 훈련 방법을 제시한다. 8개의 볼트의 체결력이 변경된 상태에서 계산한 주파수응답들을 완전 체결된 상태의 초기 모델과의 크기 및 모양 유사성을 표현하는 유사성 지도로 생성한다. 주파수응답 데이터들의 생성에는 크리로프 부공간법 기반의 모델차수축소법을 적용하여 효율적인 방법으로 수행할 수 있도록 한다. 합성곱 신경망 모델은 회귀 출력 계층을 사용하여 볼트의 체결력을 예측하도록 하였으며, 훈련 데이터의 개수와 합성곱 신경망 계층의 개수를 다르게 준비하여 훈련시킨 네트워크들을 비교하여 그 성능을 평가하였다. 주파수응답에서 파생되는 유사성 지도를 입력 데이터로 사용하여 초기 볼트풀림 영역에서 볼트 체결력의 진단 가능성과 유효성을 제시하였다.

인코더-디코더 사이의 특징 융합을 통한 멀티 모달 네트워크의 의미론적 분할 성능 향상 (Improved Semantic Segmentation in Multi-modal Network Using Encoder-Decoder Feature Fusion)

  • 손찬영;호요성
    • 한국방송∙미디어공학회:학술대회논문집
    • /
    • 한국방송∙미디어공학회 2018년도 추계학술대회
    • /
    • pp.81-83
    • /
    • 2018
  • Fully Convolutional Network(FCN)은 기존의 방법보다 뛰어난 성능을 보였지만, FCN은 RGB 정보만을 사용하기 때문에 세밀한 예측이 필요한 장면에서는 다소 부족한 성능을 보였다. 이를 해결하기 위해 인코더-디코더 구조를 이용하여 RGB와 깊이의 멀티 모달을 활용하기 위한 FuseNet이 제안되었다. 하지만, FuseNet에서는 RGB와 깊이 브랜치 사이의 융합은 있지만, 인코더와 디코더 사이의 특징 지도를 융합하지 않는다. 본 논문에서는 FCN의 디코더 부분의 업샘플링 과정에서 이전 계층의 결과와 2배 업샘플링한 결과를 융합하는 스킵 레이어를 적용하여 FuseNet의 모달리티를 잘 활용하여 성능을 개선했다. 본 실험에서는 NYUDv2와 SUNRGBD 데이터 셋을 사용했으며, 전체 정확도는 각각 77%, 65%이고, 평균 IoU는 47.4%, 26.9%, 평균 정확도는 67.7%, 41%의 성능을 보였다.

  • PDF

전이학습과 딥러닝 네트워크를 활용한 고해상도 위성영상의 변화탐지 (Change Detection for High-resolution Satellite Images Using Transfer Learning and Deep Learning Network)

  • 송아람;최재완;김용일
    • 한국측량학회지
    • /
    • 제37권3호
    • /
    • pp.199-208
    • /
    • 2019
  • 운용 가능한 위성의 수가 증가하고 기술이 진보함에 따라 영상정보의 성과물이 다양해지고 많은 양의 자료가 축적되고 있다. 본 연구에서는 기구축된 영상정보를 활용하여 부족한 훈련자료의 문제를 극복하고 딥러닝(deep learning) 기법의 장점을 활용하고자 전이학습과 변화탐지 네트워크를 활용한 고해상도 위성영상의 변화탐지를 수행하였다. 본 연구에서 활용한 딥러닝 네트워크는 공간 및 분광 정보를 추출하는 합성곱 레이어(convolutional layer)와 시계열 정보를 분석하는 합성곱 장단기 메모리 레이어(convolutional long short term memory layer)로 구성되었으며, 고해상도 다중분광 영상에 최적화된 정보를 추출하기 위하여 커널(kernel)의 차원에 따른 정확도를 비교하였다. 또한, 학습된 커널 정보를 활용하기 위하여 변화탐지 네트워크의 초기 합성곱 레이어를 고해상도 항공영상인 ISPRS (International Society for Photogrammetry and Remote Sensing) 데이터셋에서 추출된 40,000개의 패치로 학습된 값으로 초기화하였다. 다시기 KOMPSAT-3A (KOrean Multi-Purpose SATllite-3A) 영상에 대한 실험 결과, 전이학습과 딥러닝 네트워크를 활용할 경우 기복 변위 및 그림자 등으로 인한 변화에 덜 민감하게 반응하며 분류 항목이 달라진 지역의 변화를 보다 효과적으로 추출할 수 있었으며, 2차원 커널보다 3차원 커널을 사용할 때 변화탐지의 정확도가 높았다. 3차원 커널은 공간 및 분광정보를 모두 고려하여 특징 맵(feature map)을 추출하기 때문에 고해상도 영상의 분류뿐만 아니라 변화탐지에도 효과적인 것을 확인하였다. 본 연구에서는 고해상도 위성영상의 변화탐지를 위한 전이학습과 딥러닝 기법의 활용 가능성을 제시하였으며, 추후 훈련된 변화탐지 네트워크를 새롭게 취득된 영상에 적용하는 연구를 수행하여 제안기법의 활용범위를 확장할 예정이다.

CNN을 사용한 차선검출 시스템 (Lane Detection System using CNN)

  • 김지훈;이대식;이민호
    • 대한임베디드공학회논문지
    • /
    • 제11권3호
    • /
    • pp.163-171
    • /
    • 2016
  • Lane detection is a widely researched topic. Although simple road detection is easily achieved by previous methods, lane detection becomes very difficult in several complex cases involving noisy edges. To address this, we use a Convolution neural network (CNN) for image enhancement. CNN is a deep learning method that has been very successfully applied in object detection and recognition. In this paper, we introduce a robust lane detection method based on a CNN combined with random sample consensus (RANSAC) algorithm. Initially, we calculate edges in an image using a hat shaped kernel, then we detect lanes using the CNN combined with the RANSAC. In the training process of the CNN, input data consists of edge images and target data is images that have real white color lanes on an otherwise black background. The CNN structure consists of 8 layers with 3 convolutional layers, 2 subsampling layers and multi-layer perceptron (MLP) of 3 fully-connected layers. Convolutional and subsampling layers are hierarchically arranged to form a deep structure. Our proposed lane detection algorithm successfully eliminates noise lines and was found to perform better than other formal line detection algorithms such as RANSAC