• 제목/요약/키워드: Gray-Level Co-Occurrence Matrix (GLCM)

검색결과 57건 처리시간 0.022초

송아지 질병 결정 지원 모델 (A Calf Disease Decision Support Model)

  • 최동운;강윤정
    • 한국정보통신학회논문지
    • /
    • 제26권10호
    • /
    • pp.1462-1468
    • /
    • 2022
  • 송아지 질병 진단을 위해 사용되는 여러 데이터 중에서 분변은 질병 진단의 중요한 역할을 한다. 송아지 분변 이미지에서 형태, 색상, 질감으로 건강 상태를 알 수 있다. 건강 상태를 파악할 수 있는 분변 이미지는 분변 상태에 따라 정상 송아지 207개와 설사증 송아지 158개의 데이터를 전처리하여 사용하였다. 본 논문에서는 수집된 송아지 데이터 중에서 분변 변수의 이미지를 탐지하고 합성곱 네트워크 기술을 활용하여 질병 증상을 포함하고 있는 데이터 세트에 대해 CNN과 GLCM의 속성을 결합한 GLCM-CNN을 적용하여 이미지를 학습시켰다. CNN의 89.9% 정확도와 GLCM-CNN는 91.7%의 정확도를 보이는 GLCM-CNN는 1.8%의 높은 정확도를 나타내는 유의미한 차이가 있었다.

Improving Field Crop Classification Accuracy Using GLCM and SVM with UAV-Acquired Images

  • Seung-Hwan Go;Jong-Hwa Park
    • 대한원격탐사학회지
    • /
    • 제40권1호
    • /
    • pp.93-101
    • /
    • 2024
  • Accurate field crop classification is essential for various agricultural applications, yet existing methods face challenges due to diverse crop types and complex field conditions. This study aimed to address these issues by combining support vector machine (SVM) models with multi-seasonal unmanned aerial vehicle (UAV) images, texture information extracted from Gray Level Co-occurrence Matrix (GLCM), and RGB spectral data. Twelve high-resolution UAV image captures spanned March-October 2021, while field surveys on three dates provided ground truth data. We focused on data from August (-A), September (-S), and October (-O) images and trained four support vector classifier (SVC) models (SVC-A, SVC-S, SVC-O, SVC-AS) using visual bands and eight GLCM features. Farm maps provided by the Ministry of Agriculture, Food and Rural Affairs proved efficient for open-field crop identification and served as a reference for accuracy comparison. Our analysis showcased the significant impact of hyperparameter tuning (C and gamma) on SVM model performance, requiring careful optimization for each scenario. Importantly, we identified models exhibiting distinct high-accuracy zones, with SVC-O trained on October data achieving the highest overall and individual crop classification accuracy. This success likely stems from its ability to capture distinct texture information from mature crops.Incorporating GLCM features proved highly effective for all models,significantly boosting classification accuracy.Among these features, homogeneity, entropy, and correlation consistently demonstrated the most impactful contribution. However, balancing accuracy with computational efficiency and feature selection remains crucial for practical application. Performance analysis revealed that SVC-O achieved exceptional results in overall and individual crop classification, while soybeans and rice were consistently classified well by all models. Challenges were encountered with cabbage due to its early growth stage and low field cover density. The study demonstrates the potential of utilizing farm maps and GLCM features in conjunction with SVM models for accurate field crop classification. Careful parameter tuning and model selection based on specific scenarios are key for optimizing performance in real-world applications.

Cone-beam computed tomography texture analysis can help differentiate odontogenic and non-odontogenic maxillary sinusitis

  • Andre Luiz Ferreira Costa;Karolina Aparecida Castilho Fardim;Isabela Teixeira Ribeiro;Maria Aparecida Neves Jardini;Paulo Henrique Braz-Silva;Kaan Orhan;Sergio Lucio Pereira de Castro Lopes
    • Imaging Science in Dentistry
    • /
    • 제53권1호
    • /
    • pp.43-51
    • /
    • 2023
  • Purpose: This study aimed to assess texture analysis(TA) of cone-beam computed tomography (CBCT) images as a quantitative tool for the differential diagnosis of odontogenic and non-odontogenic maxillary sinusitis(OS and NOS, respectively). Materials and Methods: CBCT images of 40 patients diagnosed with OS (N=20) and NOS (N=20) were evaluated. The gray level co-occurrence (GLCM) matrix parameters, and gray level run length matrix texture (GLRLM) parameters were extracted using manually placed regions of interest on lesion images. Seven texture parameters were calculated using GLCM and 4 parameters using GLRLM. The Mann-Whitney test was used for comparisons between the groups, and the Levene test was performed to confirm the homogeneity of variance (α=5%). Results: The results showed statistically significant differences(P<0.05) between the OS and NOS patients regarding 3 TA parameters. NOS patients presented higher values for contrast, while OS patients presented higher values for correlation and inverse difference moment. Greater textural homogeneity was observed in the OS patients than in the NOS patients, with statistically significant differences in standard deviations between the groups for correlation, sum of squares, sum of entropy, and entropy. Conclusion: TA enabled quantitative differentiation between OS and NOS on CBCT images by using the parameters of contrast, correlation, and inverse difference moment.

원격탐사를 이용한 남해안의 적조영역 검출과 통계적 특징 분석에 관한 연구 (A Study on the Detection and Statistical Feature Analysis of Red Tide Area in South Coast Using Remote Sensing)

  • 서형수;이칠우
    • 정보처리학회논문지B
    • /
    • 제14B권2호
    • /
    • pp.65-70
    • /
    • 2007
  • 1990년대 이후 적조현상은 전 세계적으로 환경문제의 큰 관심이 되고 있으며 선진각국들은 해상용 위성을 이용하여 조기에 적조영역을 검출하는 연구를 진행하고 있다. 그러나 우리나라는 대부분의 해안이 굴곡이 심하고 연안에서 탁류가 많아 저해상도인 해상용 위성으로 소규모 적조 영역을 검출하기가 어렵다. 또한 기존의 적조영역 검출은 해상용 위성영상의 해색(sea color) 한 가지 특징에 의한 방법이 대부분이었다. 이처럼 해색과 같이 영상에서 소수의 특징을 가지고 적조영역을 검출한다는 것은 false negative 오류를 유발할 수 있다. 따라서 본 논문에서는 고정밀 육상용 위성의 남해안 영상에 대해 GLCM(Gray Level Co occurrence Matrix)의 질감 정보 6가지를 이용해서 질감정보를 취득하고 이 정보로부터 주성분 분석을 통해 차원을 축소하여 불필요한 성분을 제거한 후 2개의 주성분 누적 영상으로 변환시켰다. 실험결과 2개의 주성분 변환 누적 영상의 고유값은 94.6%였으며, 이를 해색 한 가지 만을 이용한 적조영역 영상 및 주성분을 모두 가지고 있는 영상들과 비교했을 때 가장 정확한 결과를 나타내었다. 그리고 검출된 적조영역을 질감에 대한 통계적 특성을 이용하여 탁류가 많은 연안 및 적조현상이 없는 바다와 비교하여 정량적으로 구분하였다.

CT영상의 텍스처 주성분 분석을 이용한 간종양 검출 (Liver Tumor Detection Using Texture PCA of CT Images)

  • 서형수;정민영;이칠우
    • 정보처리학회논문지B
    • /
    • 제13B권6호
    • /
    • pp.601-606
    • /
    • 2006
  • 의료기술의 비약적인 발전과 함께 의료기관에서 사용되는 영상 데이터량이 급속히 증가하고 있다. 따라서 대용량 의료 영상의 해석을 위해서는 의사들의 육안 검사보다 영상처리 기술을 이용한 자동화 방법이 필요하다. 본 논문에서는 복부 CT영상의 간 영역에 대해 GLCM(Gray Level Co-occurrence Matrix)을 이용하여 텍스처 정보를 취득하고, 이 데이터로부터 주성분 분석을 통해 간종양을 자동으로 검출하는 방법에 대해 제안한다. 기존의 간종양 검출은 명암도 한 가지 특징에 의한 방법이 대부분이었으나, 본 논문에서 CT영상에 대해 GLCM의 텍스처 정보 8가지를 이용해서 4개의 주성분 누적 영상으로 변환시켰다. 실험결과 4개의 주성분 누적 영상의 백분율 분산값은 89.9%였으며, 이를 명암도 한 가지 만을 이용한 간종양 검출방법과 면적을 비교했을 때 약 92%의 일치도를 보였다. 이는 영상데이터의 차원을 8개의 차원에서 그 절반인 4개의 차원으로 줄여도 간종양을 검출할 수 있음을 의미한다.

GLCM과 인공신경망을 이용한 미만성 갑상샘 질환 초음파 영상 분류 (Ultrasound Image Classification of Diffuse Thyroid Disease using GLCM and Artificial Neural Network)

  • 엄상희;남재현;예수영
    • 한국정보통신학회논문지
    • /
    • 제26권7호
    • /
    • pp.956-962
    • /
    • 2022
  • 미만성 갑상샘 질환은 그 진단 기준이 모호하고 숙련자의 주관적인 진단에 따라 오류가 많이 발생한다. 초음파 영상에 영상처리기술을 적용하고 정량적 데이터를 추출하여 컴퓨터 보조 진단 시스템에 적용하게 되면 보다 정확하고 정략적인 진단이 가능하다. 본 논문에서는 갑상샘 질환 환자를 정상, 경도, 중등도로 분류된 초음파 영상에 GLCM 알고리즘을 적용하여 19개의 파라미터를 추출하였다. 이들 파라미터를 이용하여 인공신경망을 적용하여 미만성 갑상샘 초음파 영상을 분류하여 최종 96.9%의 분류율을 얻었다. 본 연구의 결과를 이용하여 갑상샘 질환의 진단에 있어 육안 판독에 따른 오류를 감소시키고, 미만성 갑상샘 질환 진단의 2차적인 수단으로 활용 가능할 것으로 기대된다.

전립선비대증 초음파 영상에서 GLCM을 이용한 컴퓨터보조진단의 영상분석 (Image Analysis of Computer Aided Diagnosis using Gray Level Co-occurrence Matrix in the Ultrasonography for BPH)

  • 조진영;김창수;강세식;고성진;예수영
    • 한국콘텐츠학회:학술대회논문집
    • /
    • 한국콘텐츠학회 2015년도 춘계 종합학술대회 논문집
    • /
    • pp.191-192
    • /
    • 2015
  • 전립선비대증(Benign Prostatic Hyperplasia, BPH)은 전립선조직중에 이행구역의 결절성증식과 요도 주위의 과증식(Hyperplasia)이 특징이다. 경직장초음파(TRUS: transrectal ultrasonography)검사를 이용한 진단에 있어 정상조직과 비대되어 있는 조직의 영상 차이를 비교하고 수량화로 나타내었다, 영상분석에는 GLCM 통계적 파라미터 중에서 Autocorrelation, Cluster Prominence, Entropy, Sum average를 4개의 파라미터에서 병변 인식이 가능하였고 인식 효율은 92-98%가 나왔다. 전립선비대증식에 대한 초음파영상을 가지고 컴퓨터영상처리분석을 제안하여 진단시 참고 자료가 될 것으로 기대한다.

  • PDF

의도적인 공감각 기반 영상-음악 변환 시스템 구현 (Implementation of the System Converting Image into Music Signals based on Intentional Synesthesia)

  • 배명진;김성일
    • 전기전자학회논문지
    • /
    • 제24권1호
    • /
    • pp.254-259
    • /
    • 2020
  • 본 논문은 사전에 학습된 기억으로 공감각 현상을 지각할 수 있는 의도적인 공감각으로 영상에서 음악으로 변환하는 시스템을 구현하였다. 영상에서 변환정보로 색상(Color), 질감(Texture), 모양(Shape)을 사용하여 음악의 멜로디(Melody), 하모니(Harmony), 리듬(Rhythm) 정보로 변환하였다. 정적인 영상에서 단조로운 음이 반복되는 것을 최소화하고 영상에 있는 정보를 표현하기 위해 색상의 분포도에 따라 확률적으로 멜로디를 선택하여 출력함으로써 자연스럽게 음을 구성할 수 있도록 하였고, 영상에서 질감은 통계적 질감 특징 추출방식인 GLCM(Gray-Level Co-occurrence Matrix)의 7가지 특징으로 하모니의 장조와 단조를 표현하였다. 마지막으로 모양은 영상의 외곽선을 추출한 후 주파수 성분 분석인 허프 변환(Hough Transform)을 이용해 선 성분을 검출하여 각도의 분포에 따라 리듬을 선택하는 방식으로 음악을 생성하였다.

Accuracy Assessment of Forest Degradation Detection in Semantic Segmentation based Deep Learning Models with Time-series Satellite Imagery

  • Woo-Dam Sim;Jung-Soo Lee
    • Journal of Forest and Environmental Science
    • /
    • 제40권1호
    • /
    • pp.15-23
    • /
    • 2024
  • This research aimed to assess the possibility of detecting forest degradation using time-series satellite imagery and three different deep learning-based change detection techniques. The dataset used for the deep learning models was composed of two sets, one based on surface reflectance (SR) spectral information from satellite imagery, combined with Texture Information (GLCM; Gray-Level Co-occurrence Matrix) and terrain information. The deep learning models employed for land cover change detection included image differencing using the Unet semantic segmentation model, multi-encoder Unet model, and multi-encoder Unet++ model. The study found that there was no significant difference in accuracy between the deep learning models for forest degradation detection. Both training and validation accuracies were approx-imately 89% and 92%, respectively. Among the three deep learning models, the multi-encoder Unet model showed the most efficient analysis time and comparable accuracy. Moreover, models that incorporated both texture and gradient information in addition to spectral information were found to have a higher classification accuracy compared to models that used only spectral information. Overall, the accuracy of forest degradation extraction was outstanding, achieving 98%.

고해상도 위성영상을 이용한 산화피해림의 특징추출 (Feature Extraction of Forest Fire by Using High Resolution Image)

  • 윤보열;김천
    • 대한원격탐사학회:학술대회논문집
    • /
    • 대한원격탐사학회 2006년도 춘계학술대회 논문집
    • /
    • pp.275-278
    • /
    • 2006
  • 본 연구는 전정색(panchromatic) 고해상도 위성영상을 이용하여 산화피해림과 비산화림을 대상으로 수종별로 구분하여 조사하였다. 제안된 방법은 회색단계 공발생 행렬(Gray Level Co-occurrence Matrix, GLCM)을 통하여 생성된 질감 영상(textural images)과 웨이블릿 분해 영상(wavelet decomposition images)의 융합을 실시하여 질감 영상에서 추출될 수 있는 정보와 웨이블릿 분해를 통해 얻을 수 있는 정보를 획득하고자 하였다. 그 결과로 동일 수종을 형성하는 임반이나 산화피해 정도가 유사한 산림의 경우 영상의 밝기값의 분포가 일정한 범위 내에서 형성되어 수종 분류 및 산화피해 등급의 구분이 가능했으나, 영상 내 경계효과(edge effect) 현상은 일부 영상에서 나타났다.

  • PDF