• 제목/요약/키워드: Ground truth

검색결과 298건 처리시간 0.023초

Automated 3D scoring of fluorescence in situ hybridization (FISH) using a confocal whole slide imaging scanner

  • Ziv Frankenstein;Naohiro Uraoka;Umut Aypar;Ruth Aryeequaye;Mamta Rao;Meera Hameed;Yanming Zhang;Yukako Yagi
    • Applied Microscopy
    • /
    • 제51권
    • /
    • pp.4.1-4.12
    • /
    • 2021
  • Fluorescence in situ hybridization (FISH) is a technique to visualize specific DNA/RNA sequences within the cell nuclei and provide the presence, location and structural integrity of genes on chromosomes. A confocal Whole Slide Imaging (WSI) scanner technology has superior depth resolution compared to wide-field fluorescence imaging. Confocal WSI has the ability to perform serial optical sections with specimen imaging, which is critical for 3D tissue reconstruction for volumetric spatial analysis. The standard clinical manual scoring for FISH is labor-intensive, time-consuming and subjective. Application of multi-gene FISH analysis alongside 3D imaging, significantly increase the level of complexity required for an accurate 3D analysis. Therefore, the purpose of this study is to establish automated 3D FISH scoring for z-stack images from confocal WSI scanner. The algorithm and the application we developed, SHIMARIS PAFQ, successfully employs 3D calculations for clear individual cell nuclei segmentation, gene signals detection and distribution of break-apart probes signal patterns, including standard break-apart, and variant patterns due to truncation, and deletion, etc. The analysis was accurate and precise when compared with ground truth clinical manual counting and scoring reported in ten lymphoma and solid tumors cases. The algorithm and the application we developed, SHIMARIS PAFQ, is objective and more efficient than the conventional procedure. It enables the automated counting of more nuclei, precisely detecting additional abnormal signal variations in nuclei patterns and analyzes gigabyte multi-layer stacking imaging data of tissue samples from patients. Currently, we are developing a deep learning algorithm for automated tumor area detection to be integrated with SHIMARIS PAFQ.

The radiation shielding proficiency and hyperspectral-based spatial distribution of lateritic terrain mapping in Irikkur block, Kannur, Kerala

  • S. Arivazhagan;K.A. Naseer;K.A. Mahmoud;N.K. Libeesh;K.V. Arun Kumar;K.ChV. Naga Kumar;M.I. Sayyed;Mohammed S. Alqahtani;E. El Shiekh;Mayeen Uddin Khandaker
    • Nuclear Engineering and Technology
    • /
    • 제55권9호
    • /
    • pp.3268-3276
    • /
    • 2023
  • The practice of identifying the potential zones for mineral exploration in a speedy and low-cost method includes the use of satellite imagery analysis as a part of remote sensing techniques. It is challenging to explore the iron mineralization of a region through conventional methods which are a time-consuming process. The current study utilizes the Hyperion satellite imagery for mapping the iron mineralization and associated geological features in the Irikkur region, Kannur, Kerala. Along with the remote sensing results, the field study and laboratory-based analysis were conducted to retrieve the ground truth point and geochemical proportion to verify the iron ore mineralization. The MC simulation showed for shielding properties indicate an increase in the linear attenuation coefficient with raising the Fe2O3+SiO2 concentrations in the investigated rocks where it is varied at 0.662 MeV in the range 0.190 cm-1 - 0.222 cm-1 with rising the Fe2O3+SiO2 content from 57.86 wt% to 71.15 wt%. The analysis also revealed that when the γ-ray energy increased from 0.221 MeV to 2.506 MeV, sample 1 had the largest linear attenuation coefficient, ranging from 9.33 cm1 to 0.12 cm-1. Charnockite rocks were found to have exceptional shielding qualities, making them an excellent natural choice for radiation shielding applications.

세그멘테이션 기반 차선 인식 네트워크를 위한 적응형 키포인트 추출 알고리즘 (Adaptive Key-point Extraction Algorithm for Segmentation-based Lane Detection Network)

  • 이상현;김덕수
    • 한국컴퓨터그래픽스학회논문지
    • /
    • 제29권1호
    • /
    • pp.1-11
    • /
    • 2023
  • 딥러닝 기반의 이미지 세그멘테이션은 차선 인식을 위해 널리 사용되는 접근 방식 중 하나로, 차선의 키포인트를 추출하기 위한 후처리 과정이 필요하다. 일반적으로 키포인트는 사용자가 지정한 임계값을 기준으로 추출한다. 하지만 최적의 임계값을 찾는 과정은 큰 노력을 요구하며, 데이터 세트(또는 이미지)마다 최적의 값이 다를 수 있다. 본 연구는 사용자의 직접 임계값 지정 대신, 대상의 이미지에 맞추어 적절한 임계값을 자동으로 설정하는 키포인트 추출 알고리즘을 제안한다. 본 논문의 키포인트 추출 알고리즘은 차선 영역과 배경의 명확한 구분을 위해 줄 단위 정규화를 사용한다. 그리고 커널 밀도 추정을 사용하여, 각 줄에서 각 차선의 키포인트를 추출한다. 제안하는 알고리즘은 TuSimple과 CULane 데이터 세트에 적용되었으며, 고정된 임계값 사용 대비 정확도 및 거리오차 측면에서 1.80%p와 17.27% 향상된 결과를 얻는 것을 확인하였다.

ToF와 스테레오 융합을 이용한 3차원 복원 데이터 정밀도 분석 기법 (Analysis of 3D Reconstruction Accuracy by ToF-Stereo Fusion)

  • 정석우;이연성;이경택
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국정보통신학회 2022년도 추계학술대회
    • /
    • pp.466-468
    • /
    • 2022
  • 3차원 복원은 AR, XR, 메타버스 등에서 활용되고 있는 중요한 주제입니다. 3차원 재구성을 하기 위해서는 스테레오 카메라, ToF 센서 등을 이용해 깊이 지도를 구해야 합니다. 우리는 두가지 센서를 모두 상호보완적으로 이용하여 3차원 정보를 정밀하게 구하는 방법을 고안하였습니다. 우선 두 카메라의 캘리브레이션을 적용하여 색상 정보와 깊이 정보를 일치시킵니다. 그리고 두 센서로부터의 깊이 지도는 3차원 정합과 재투사 방법을 통하여 융합하였습니다. 융합된 3차원 복원 데이터는 RTC360을 이용해 구한 정밀 데이터와 비교 분석하였습니다. 평균 거리 오차 분석을 위해 상용프로그램 Geomagic Wrap을 활용하였습니다. 제안하는 방법을 구현하고 실공간 데이터를 이용하여 실험을 진행했습니다.

  • PDF

18F-FDG PET 지연영상 생성에 대한 딥러닝 이미지 생성 방법론 비교 (Comparison of Paired and Unpaired Image-to-image Translation for 18F-FDG Delayed PET Generation)

  • 알마슬라마니 모아스;김강산;변병현;우상근
    • 한국컴퓨터정보학회:학술대회논문집
    • /
    • 한국컴퓨터정보학회 2023년도 제68차 하계학술대회논문집 31권2호
    • /
    • pp.179-181
    • /
    • 2023
  • 본 논문에서는 GAN 기반의 영상 생성 방법론을 이용해 delayed PET 영상을 생성하는 연구를 수행하였다. PET은 양전자를 방출하는 방사성 동위원소를 표지한 방사성의약품의 체내 분포를 시각화함으로서 암 세포 진단에 이용되는 의료영상 기법이다. 하지만 PET의 스캔 과정에서 방사성의약품이 체내에 분포하는 데에 걸리는 시간이 오래 걸린다는 문제점이 존재한다. 따라서 본 연구에서는 방사성의약품이 충분히 분포되지 않은 상태에서 얻은 PET 영상을 통해 목표로 하는 충분히 시간이 지난 후에 얻은 PET 영상을 생성하는 모델을 GAN (generative adversarial network)에 기반한 image-to-image translation(I2I)를 통해 수행했다. 특히, 생성 전후의 영상 간의 영상 쌍을 고려한 paired I2I인 Pix2pix와 이를 고려하지 않은 unpaired I2I인 CycleGAN 두 가지의 방법론을 비교하였다. 연구 결과, Pix2pix에 기반해 생성한 delayed PET 영상이 CycleGAN을 통해 생성한 영상에 비해 영상 품질이 좋음을 확인했으며, 또한 실제 획득한 ground-truth delayed PET 영상과의 유사도 또한 더 높음을 확인할 수 있었다. 결과적으로, 딥러닝에 기반해 early PET을 통해 delayed PET을 생성할 수 있었으며, paired I2I를 적용할 경우 보다 높은 성능을 기대할 수 있었다. 이를 통해 PET 영상 획득 과정에서 방사성의약품의 체내 분포에 소요되는 시간을 딥러닝 모델을 통해 줄여 PET 이미징 과정의 시간적 비용을 절감하는 데에 크게 기여할 수 있을 것으로 기대된다.

  • PDF

Improving Field Crop Classification Accuracy Using GLCM and SVM with UAV-Acquired Images

  • Seung-Hwan Go;Jong-Hwa Park
    • 대한원격탐사학회지
    • /
    • 제40권1호
    • /
    • pp.93-101
    • /
    • 2024
  • Accurate field crop classification is essential for various agricultural applications, yet existing methods face challenges due to diverse crop types and complex field conditions. This study aimed to address these issues by combining support vector machine (SVM) models with multi-seasonal unmanned aerial vehicle (UAV) images, texture information extracted from Gray Level Co-occurrence Matrix (GLCM), and RGB spectral data. Twelve high-resolution UAV image captures spanned March-October 2021, while field surveys on three dates provided ground truth data. We focused on data from August (-A), September (-S), and October (-O) images and trained four support vector classifier (SVC) models (SVC-A, SVC-S, SVC-O, SVC-AS) using visual bands and eight GLCM features. Farm maps provided by the Ministry of Agriculture, Food and Rural Affairs proved efficient for open-field crop identification and served as a reference for accuracy comparison. Our analysis showcased the significant impact of hyperparameter tuning (C and gamma) on SVM model performance, requiring careful optimization for each scenario. Importantly, we identified models exhibiting distinct high-accuracy zones, with SVC-O trained on October data achieving the highest overall and individual crop classification accuracy. This success likely stems from its ability to capture distinct texture information from mature crops.Incorporating GLCM features proved highly effective for all models,significantly boosting classification accuracy.Among these features, homogeneity, entropy, and correlation consistently demonstrated the most impactful contribution. However, balancing accuracy with computational efficiency and feature selection remains crucial for practical application. Performance analysis revealed that SVC-O achieved exceptional results in overall and individual crop classification, while soybeans and rice were consistently classified well by all models. Challenges were encountered with cabbage due to its early growth stage and low field cover density. The study demonstrates the potential of utilizing farm maps and GLCM features in conjunction with SVM models for accurate field crop classification. Careful parameter tuning and model selection based on specific scenarios are key for optimizing performance in real-world applications.

폐 CT 영상에서의 노이즈 감소를 위한 U-net 딥러닝 모델의 다양한 학습 파라미터 적용에 따른 성능 평가 (Performance Evaluation of U-net Deep Learning Model for Noise Reduction according to Various Hyper Parameters in Lung CT Images)

  • 이민관;박찬록
    • 한국방사선학회논문지
    • /
    • 제17권5호
    • /
    • pp.709-715
    • /
    • 2023
  • 본 연구의 목적은, U-net 딥러닝 모델을 이용하여 CT 영상에서의 노이즈 감소 효과를 다양한 하이퍼 파라미터를 적용하여 평가하였다. 노이즈가 포함된 입력 영상 생성을 위하여 Gaussian 노이즈를 적용하였고, 총 1300장의 CT 영상에서 train, validation, test 셋의 비율을 8:1:1로 유지하여 U-net 모델을 적용하여 학습하였다. 연구에서 적용된 하이퍼파라미터는 최적화 함수 Adagrad, Adam, AdamW와 학습횟수 10회, 50회, 100회와 학습률 0.01, 0.001, 0.0001을 적용하였으며, 최대 신호 대 잡음비와 영상의 변동계수 값을 계산하여 정량적으로 분석하였다. 결과적으로 U-net 딥러닝 모델을 적용한 노이즈 감소는 영상의 질을 향상시킬 수 있으며 노이즈 감소 측면에서 유용성을 입증하였다.

영상 기반 항만시설물 손상 위치 추정 및 외관조사망도 작성 (Estimation of Image-based Damage Location and Generation of Exterior Damage Map for Port Structures)

  • 김방현;소상윤;조수진
    • 한국구조물진단유지관리공학회 논문집
    • /
    • 제27권5호
    • /
    • pp.49-56
    • /
    • 2023
  • 본 연구에서는 영상 기반 자동화된 항만시설물 점검을 위한 손상 위치 정보 추정 기법을 제안하였다. 3D 모델링 과정을 거치지 않고 특징 탐지 기술 및 이상치 제거 기술을 활용하여 호모그래피 행렬을 계산하고 손상 정보만 저장함으로써 메모리 효율을 높였다. 항만시설물에 특화된 손상 위치 정보 추정 알고리즘 개발을 위해 항만시설물 이미지를 이용하여 제작한 참값 좌표쌍을 통해 알고리즘을 최적화하였다. 이를 샘플 및 실제 콘크리트 벽체에 적용하여 구한 위치 오차는 각각 (X: 6.5cm, Y: 1.3cm), (X: 12.7cm, Y: 6.4cm)로 나타났다. 또한, 실제 콘크리트벽체를 대상으로 알고리즘을 적용하여 외관조사망도 형태로 표출함으로써 제안 기법의 현장 활용 가능성을 보였다.

Enhancing Alzheimer's Disease Classification using 3D Convolutional Neural Network and Multilayer Perceptron Model with Attention Network

  • Enoch A. Frimpong;Zhiguang Qin;Regina E. Turkson;Bernard M. Cobbinah;Edward Y. Baagyere;Edwin K. Tenagyei
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제17권11호
    • /
    • pp.2924-2944
    • /
    • 2023
  • Alzheimer's disease (AD) is a neurological condition that is recognized as one of the primary causes of memory loss. AD currently has no cure. Therefore, the need to develop an efficient model with high precision for timely detection of the disease is very essential. When AD is detected early, treatment would be most likely successful. The most often utilized indicators for AD identification are the Mini-mental state examination (MMSE), and the clinical dementia. However, the use of these indicators as ground truth marking could be imprecise for AD detection. Researchers have proposed several computer-aided frameworks and lately, the supervised model is mostly used. In this study, we propose a novel 3D Convolutional Neural Network Multilayer Perceptron (3D CNN-MLP) based model for AD classification. The model uses Attention Mechanism to automatically extract relevant features from Magnetic Resonance Images (MRI) to generate probability maps which serves as input for the MLP classifier. Three MRI scan categories were considered, thus AD dementia patients, Mild Cognitive Impairment patients (MCI), and Normal Control (NC) or healthy patients. The performance of the model is assessed by comparing basic CNN, VGG16, DenseNet models, and other state of the art works. The models were adjusted to fit the 3D images before the comparison was done. Our model exhibited excellent classification performance, with an accuracy of 91.27% for AD and NC, 80.85% for MCI and NC, and 87.34% for AD and MCI.

핵의학 팬텀 영상에서 초매개변수 변화에 따른 YOLOv5 모델의 성능평가 (Performance Evaluation of YOLOv5 Model according to Various Hyper-parameters in Nuclear Medicine Phantom Images)

  • 이민관;박찬록
    • 한국방사선학회논문지
    • /
    • 제18권1호
    • /
    • pp.21-26
    • /
    • 2024
  • You only look once v5 (YOLOv5)는 객체 검출 과정에 우수한 성능을 보이고 있는 딥러닝 모델 중 하나다. 그러므로 본 연구의 목적은 양전차방출단층촬영 팬텀 영상에서 다양한 하이퍼 파라미터에 따른 YOLOv5 모델의 성능을 평가했다. 데이터 세트는 500장의 QIN PET segmentation challenge로부터 제공되는 오픈 소스를 사용하였으며, LabelImg 소프트웨어를 사용하여 경계박스를 설정했다. 학습의 적용된 하이퍼파라미터는 최적화 함수 SDG, Adam, AdamW, 활성화 함수 SiLu, LeakyRelu, Mish, Hardwish와 YOLOv5 모델 크기에 따라 nano, small, large, xlarge다. 학습성능을 평가하기 위한 정량적 분석방법으로 Intersection of union (IOU)를 사용하였다. 결과적으로, AdmaW의 최적화 함수, Hardwish의 활성화 함수, nano 크기에서 우수한 객체 검출성능을 보였다. 결론적으로 핵의학 영상에서의 객체 검출 성능에 대한 YOLOV5 모델의 유용성을 확인하였다.