• 제목/요약/키워드: DeepU-Net

검색결과 179건 처리시간 0.024초

휴식상태 EEG-to-MRI 크로스 모달리티 변환을 위한 스펙트로그램 기반 딥러닝 기법에 관한 예비 연구 (A Feasibility Study on Spectrogram-based Deep Learning Approach to Resting State EEG-to-MRI Cross-Modality Transfer)

  • 이규석;마히마 아리아;유원상
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2023년도 춘계학술발표대회
    • /
    • pp.13-14
    • /
    • 2023
  • 뇌의 전기적 신경활동을 측정하는 뇌전도(EEG)는 저렴하게 취득할 수 있고 높은 시간 해상도를 갖는 반면 공간적 정보를 제공하지는 않는다. 기능적 자기공명영상(fMRI)은 혈류변화를 감지하여 뇌활동을 측정하는 방식으로서 높은 공간 분해능을 갖지만 고가의 비용과 설비를 요구한다. 최근 저렴하게 취득할 수 있는 EEG 데이터로부터 딥러닝을 사용하여 fMRI 합성영상을 생성하는 기술이 제안되었지만, 저주파수 대역에서 EEG와 fMRI 간의 뇌과학적 상관관계를 반영하지는 않는다. 본 연구에서는 휴식상태에서 취득된 EEG 데이터를 스펙트로그램으로 변환한 후 저주파수 특성을 사용하여 fMRI 합성영상을 생성하는 U-net 기반의 크로스 모달리티 변환 모델의 실현가능성을 평가하였다.

농업용 저수지 CCTV 영상자료 기반 수위 인식 모델 적용성 검토 (A study on the application of the agricultural reservoir water level recognition model using CCTV image data)

  • 권순호;하창용;이승엽
    • 한국수자원학회논문집
    • /
    • 제56권4호
    • /
    • pp.245-259
    • /
    • 2023
  • 농업용 저수지는 농업용수 공급에 있어서 매우 중요한 생산기반시설로, 우리나라 농업용수의 60% 정도를 공급하고 있다. 다만, 여러 문제로 인해 농업용수의 효율적인 공급에 어려움이 발생하고 있으며, 효과적인 공급 및 관리 체계 구현을 위한 정확한 실시간 저수위 혹은 저수량 추정이 필요하다. 본 연구에서는 영상정보를 활용한 딥러닝 기반 농업용 저수지 수위 인식 모델을 제안하였다. 개발한 모델은 (1) CCTV 영상정보 자료 수집 및 분석, (2) U-Net 이미지 분할 방법을 통한 입력 자료 생성, 그리고 (3) CNN과 ResNet 모델을 통한 수위 인식 세 단계로 구성된다. 모델은 두 농업용 저수지(G저수지와 M저수지)의 영상자료와 저수위 시계열자료를 활용하여 구현하였다. 적용 결과 이미지 분할 모델의 성능은 매우 우수한 것으로 나타났으며, 수위 인식 모델의 경우 수위 분류 계급구간에 따라 성능이 상이한 것으로 나타났다. 특히 영상자료의 픽셀 변동이 클수록 정확도 80% 이상이 확보 가능한 것으로 확인되었으나, 그렇지 않은 경우, 정확도가 50% 수준인 것으로 나타났다. 본 연구에서 개발한 모델은 향후 이미지 자료가 추가로 확보될 경우, 그 활용도 및 정확도가 더 높아질 것으로 기대한다.

Evaluation of dose distribution from 12C ion in radiation therapy by FLUKA code

  • Soltani-Nabipour, Jamshid;Khorshidi, Abdollah;Shojai, Faezeh;Khorami, Khazar
    • Nuclear Engineering and Technology
    • /
    • 제52권10호
    • /
    • pp.2410-2414
    • /
    • 2020
  • Heavy ions have a high potential for destroying deep tumors that carry the highest dose at the peak of Bragg. The peak caused by a single-energy carbon beam is too narrow, which requires special measures for improvement. Here, carbon-12 (12C) ion with different energies has been used as a source for calculating the dose distribution in the water phantom, soft tissue and bone by the code of Monte Carlobased FLUKA code. By increasing the energy of the initial beam, the amount of absorbed dose at Bragg peak in all three targets decreased, but the trend for this reduction was less severe in bone. While the maximum absorbed dose per bone-mass unit in energy of 200 MeV/u was about 30% less than the maximum absorbed dose per unit mass of water or soft tissue, it was merely 2.4% less than soft tissue in 400 MeV/u. The simulation result showed a good agreement with experimental data at GSI Darmstadt facility of biophysics group by 0.15 cm average accuracy in Bragg peak positioning. From 200 to 400 MeV/u incident energy, the Bragg peak location increased about 18 cm in soft tissue. Correspondingly, the bone and soft tissue revealed a reduction dose ratio by 2.9 and 1.9. Induced neutrons did not contribute more than 1.8% to the total energy deposited in the water phantom. Also during 12C ion bombardment, secondary fragments showed 76% and 24% of primary 200 and 400 MeV/u, respectively, were present at the Bragg-peak position. The combined treatment of carbon ions with neutron or electron beams may be more effective in local dose delivery and also treating malignant tumors.

Deep Learning: High-quality Imaging through Multicore Fiber

  • Wu, Liqing;Zhao, Jun;Zhang, Minghai;Zhang, Yanzhu;Wang, Xiaoyan;Chen, Ziyang;Pu, Jixiong
    • Current Optics and Photonics
    • /
    • 제4권4호
    • /
    • pp.286-292
    • /
    • 2020
  • Imaging through multicore fiber (MCF) is of great significance in the biomedical domain. Although several techniques have been developed to image an object from a signal passing through MCF, these methods are strongly dependent on the surroundings, such as vibration and the temperature fluctuation of the fiber's environment. In this paper, we apply a new, strong technique called deep learning to reconstruct the phase image through a MCF in which each core is multimode. To evaluate the network, we employ the binary cross-entropy as the loss function of a convolutional neural network (CNN) with improved U-net structure. The high-quality reconstruction of input objects upon spatial light modulation (SLM) can be realized from the speckle patterns of intensity that contain the information about the objects. Moreover, we study the effect of MCF length on image recovery. It is shown that the shorter the fiber, the better the imaging quality. Based on our findings, MCF may have applications in fields such as endoscopic imaging and optical communication.

An active learning method with difficulty learning mechanism for crack detection

  • Shu, Jiangpeng;Li, Jun;Zhang, Jiawei;Zhao, Weijian;Duan, Yuanfeng;Zhang, Zhicheng
    • Smart Structures and Systems
    • /
    • 제29권1호
    • /
    • pp.195-206
    • /
    • 2022
  • Crack detection is essential for inspection of existing structures and crack segmentation based on deep learning is a significant solution. However, datasets are usually one of the key issues. When building a new dataset for deep learning, laborious and time-consuming annotation of a large number of crack images is an obstacle. The aim of this study is to develop an approach that can automatically select a small portion of the most informative crack images from a large pool in order to annotate them, not to label all crack images. An active learning method with difficulty learning mechanism for crack segmentation tasks is proposed. Experiments are carried out on a crack image dataset of a steel box girder, which contains 500 images of 320×320 size for training, 100 for validation, and 190 for testing. In active learning experiments, the 500 images for training are acted as unlabeled image. The acquisition function in our method is compared with traditional acquisition functions, i.e., Query-By-Committee (QBC), Entropy, and Core-set. Further, comparisons are made on four common segmentation networks: U-Net, DeepLabV3, Feature Pyramid Network (FPN), and PSPNet. The results show that when training occurs with 200 (40%) of the most informative crack images that are selected by our method, the four segmentation networks can achieve 92%-95% of the obtained performance when training takes place with 500 (100%) crack images. The acquisition function in our method shows more accurate measurements of informativeness for unlabeled crack images compared to the four traditional acquisition functions at most active learning stages. Our method can select the most informative images for annotation from many unlabeled crack images automatically and accurately. Additionally, the dataset built after selecting 40% of all crack images can support crack segmentation networks that perform more than 92% when all the images are used.

ISFRNet: A Deep Three-stage Identity and Structure Feature Refinement Network for Facial Image Inpainting

  • Yan Wang;Jitae Shin
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제17권3호
    • /
    • pp.881-895
    • /
    • 2023
  • Modern image inpainting techniques based on deep learning have achieved remarkable performance, and more and more people are working on repairing more complex and larger missing areas, although this is still challenging, especially for facial image inpainting. For a face image with a huge missing area, there are very few valid pixels available; however, people have an ability to imagine the complete picture in their mind according to their subjective will. It is important to simulate this capability while maintaining the identity features of the face as much as possible. To achieve this goal, we propose a three-stage network model, which we refer to as the identity and structure feature refinement network (ISFRNet). ISFRNet is based on 1) a pre-trained pSp-styleGAN model that generates an extremely realistic face image with rich structural features; 2) a shallow structured network with a small receptive field; and 3) a modified U-net with two encoders and a decoder, which has a large receptive field. We choose structural similarity index (SSIM), peak signal-to-noise ratio (PSNR), L1 Loss and learned perceptual image patch similarity (LPIPS) to evaluate our model. When the missing region is 20%-40%, the above four metric scores of our model are 28.12, 0.942, 0.015 and 0.090, respectively. When the lost area is between 40% and 60%, the metric scores are 23.31, 0.840, 0.053 and 0.177, respectively. Our inpainting network not only guarantees excellent face identity feature recovery but also exhibits state-of-the-art performance compared to other multi-stage refinement models.

Efficient Semi-automatic Annotation System based on Deep Learning

  • Hyunseok Lee;Hwa Hui Shin;Soohoon Maeng;Dae Gwan Kim;Hyojeong Moon
    • 대한임베디드공학회논문지
    • /
    • 제18권6호
    • /
    • pp.267-275
    • /
    • 2023
  • This paper presents the development of specialized software for annotating volume-of-interest on 18F-FDG PET/CT images with the goal of facilitating the studies and diagnosis of head and neck cancer (HNC). To achieve an efficient annotation process, we employed the SE-Norm-Residual Layer-based U-Net model. This model exhibited outstanding proficiency to segment cancerous regions within 18F-FDG PET/CT scans of HNC cases. Manual annotation function was also integrated, allowing researchers and clinicians to validate and refine annotations based on dataset characteristics. Workspace has a display with fusion of both PET and CT images, providing enhance user convenience through simultaneous visualization. The performance of deeplearning model was validated using a Hecktor 2021 dataset, and subsequently developed semi-automatic annotation functionalities. We began by performing image preprocessing including resampling, normalization, and co-registration, followed by an evaluation of the deep learning model performance. This model was integrated into the software, serving as an initial automatic segmentation step. Users can manually refine pre-segmented regions to correct false positives and false negatives. Annotation images are subsequently saved along with their corresponding 18F-FDG PET/CT fusion images, enabling their application across various domains. In this study, we developed a semi-automatic annotation software designed for efficiently generating annotated lesion images, with applications in HNC research and diagnosis. The findings indicated that this software surpasses conventional tools, particularly in the context of HNC-specific annotation with 18F-FDG PET/CT data. Consequently, developed software offers a robust solution for producing annotated datasets, driving advances in the studies and diagnosis of HNC.

머신러닝을 사용한 단층 탐지 기술 연구 동향 분석 (Research Trend Analysis for Fault Detection Methods Using Machine Learning)

  • 배우람;하완수
    • 자원환경지질
    • /
    • 제53권4호
    • /
    • pp.479-489
    • /
    • 2020
  • 단층은 근원암에서 형성된 석유 가스 등의 탄화수소가 이동하는 통로이자 탄화수소를 가두는 덮개암의 역할을 할 수 있는 지질구조로, 탄화수소가 축적된 저류층을 찾기 위한 탄성파 탐사의 주요 대상 중 하나이다. 하지만 기존의 유사성, 응집성, 분산, 기울기, 단층가능성 등 탄성파 자료의 측면 방향 불연속성을 활용하는 단층 감지 방법들은 전문지식을 갖춘 해석자가 많은 계산 비용과 시간을 투자해야 한다는 문제가 있다. 따라서 많은 연구자들이 단층 해석에 필요한 계산 비용과 시간을 절약하기 위한 다양한 연구를 진행하고 있고, 최근에는 머신러닝 기술을 활용한 연구들이 활발히 수행되고 있다. 단층 해석에는 다양한 머신러닝 기술들 중 서포트백터머신, 다층퍼셉트론, 심층 신경망, 합성곱 신경망 등의 알고리즘이 사용되고 있다. 특히 합성곱 신경망을 활용한 연구는 독자적인 구조의 모델을 사용한 연구뿐만 아니라, 이미지 처리 분야에서 성능이 검증된 모델을 활용한 연구 및 단층의 위치와 주향, 경사 등의 정보를 함께 해석하는 연구도 활발히 진행되고 있다. 이 논문에서는 이러한 연구들을 조사하고 분석하여, 현재까지 단층 위치 및 단층 정보 해석에 가장 효과적인 기술은 영상 처리 분야에서 검증된 U-Net 구조를 바탕으로 한 합성곱 신경망인 것을 확인했다. 이러한 합성곱 신경망에 전이학습 및 데이터 증식 기법을 접목하면 앞으로 더욱 효과적인 단층 감지 및 정보 해석이 가능할 것으로 기대된다.

3차원 뇌 자기공명 영상의 비지도 학습 기반 비강체 정합 네트워크 (Unsupervised Non-rigid Registration Network for 3D Brain MR images)

  • 오동건;김보형;이정진;신영길
    • 한국차세대컴퓨팅학회논문지
    • /
    • 제15권5호
    • /
    • pp.64-74
    • /
    • 2019
  • 비강체 정합은 임상적 필요성은 높으나 계산 복잡도가 높고, 정합의 정확성 및 강건성을 확보하기 어려운 분야이다. 본 논문은 비지도 학습 환경에서 3차원 뇌 자기공명 영상 데이터에 딥러닝 네트워크를 이용한 비강체 정합 기법을 제안한다. 서로 다른 환자의 두 영상을 입력받아 네트워크를 통하여 두 영상 간의 특징 벡터를 생성하고, 변위 벡터장을 만들어 기준 영상에 맞추어 다른 쪽 영상을 변형시킨다. 네트워크는 U-Net 형태를 기반으로 설계하여 정합 시 두 영상의 전역적, 지역적인 차이를 모두 고려한 특징 벡터를 만들 수 있고, 손실함수에 균일화 항을 추가하여 3차원 선형보간법 적용 후에 실제 뇌의 움직임과 유사한 변형 결과를 얻을 수 있다. 본 방법은 비지도 학습을 통해 임의의 두 영상만을 입력으로 받아 단일 패스 변형으로 비강체 정합을 수행한다. 이는 반복적인 최적화 과정을 거치는 비학습 기반의 정합 방법들보다 빠르게 수행할 수 있다. 실험은 50명의 뇌를 촬영한 3차원 자기공명 영상을 가지고 수행하였고, 정합 전·후의 Dice Similarity Coefficient 측정 결과 평균 0.690으로 정합 전과 비교하여 약 16% 정도의 유사도 향상을 확인하였다. 또한, 비학습 기반 방법과 비교하여 유사한 성능을 보여주면서 약 10,000배 정도의 속도 향상을 보여주었다. 제안 기법은 다양한 종류의 의료 영상 데이터의 비강체 정합에 활용이 가능하다.

구조형상 공간상관을 고려한 인공지능 기반 변위 추정 (Estimation of Displacements Using Artificial Intelligence Considering Spatial Correlation of Structural Shape)

  • 신승훈;김지영;우종열;김대건;진태석
    • 한국전산구조공학회논문집
    • /
    • 제36권1호
    • /
    • pp.1-7
    • /
    • 2023
  • 본 논문에서는 구조물의 부분 변위값으로 전체 구조물의 변위 형상을 예측할 수 있는 인공지능 학습기법을 개발하였으며, 개발된 기술의 성능을 실험을 통해 평가하였다. 3차원 공간에서 변위 형상 및 노드 위치 좌표의 특성을 학습에 반영할 수 있는 Image-to-Image 변위 형상 학습과 위치 특징을 결합한 변위 상관 학습 방법을 제시하였다. 개발된 인공지능 학습방법의 성능을 평가하기 위해 목업 구조 실험을 진행하였고, 3D 스캔으로 측정한 변위값과 인공지능으로 예측한 결과를 비교하였다. 비교 결과 인공지능 예측 결과는 3D 스캔 측정 결과에 비해 5.6~5.9%의 오차율을 보여 적정 성능을 보였다.