• 제목/요약/키워드: Gray Level Co-occurrence Matrix (GLCM)

검색결과 57건 처리시간 0.022초

딥러닝 기반 카메라 모델 판별 (Camera Model Identification Based on Deep Learning)

  • 이수현;김동현;이해연
    • 정보처리학회논문지:소프트웨어 및 데이터공학
    • /
    • 제8권10호
    • /
    • pp.411-420
    • /
    • 2019
  • 멀티미디어 포렌식 분야에서 영상을 촬영한 카메라 모델 판별을 위한 연구가 지속되어 왔다. 점점 고도화되는 범죄 중에 불법 촬영 등의 범죄는 카메라가 소형화됨에 따라 피해자가 알아차리기 어렵기 때문에 높은 범죄 발생 건수를 차지하고 있다. 따라서 특정 영상이 어느 카메라로 촬영되었는지를 특정할 수 있는 기술이 사용된다면 범죄자가 자신의 범죄 행위를 부정할 때, 범죄 혐의를 입증할 증거로 사용될 수 있을 것이다. 본 논문에서는 영상을 촬영한 카메라 모델 판별을 위한 딥러닝 모델을 제안한다. 제안하는 모델은 4개의 컨볼루션 계층과 2개의 전연결 계층으로 구성되었으며, 데이터 전처리를 위한 필터로 High Pass Filter를 사용하였다. 제안한 모델의 성능 검증을 위하여 Dresden Image Database를 활용하였고, 데이터셋은 순차분할 방식을 적용하여 생성하였다. 제안하는 모델을 3 계층 모델과 GLCM 적용 모델 등 기존 연구들과 비교 분석을 수행하여 우수성을 보였고, 최신 연구 결과에서 제시하는 수준의 98% 정확도를 달성하였다.

Bone Microarchitecture at the Femoral Attachment of the Posterior Cruciate Ligament (PCL) by Texture Analysis of Magnetic Resonance Imaging (MRI) in Patients with PCL Injury: an Indirect Reflection of Ligament Integrity

  • Kim, Hwan;Shin, YiRang;Kim, Sung-Hwan;Lee, Young Han
    • Investigative Magnetic Resonance Imaging
    • /
    • 제25권2호
    • /
    • pp.93-100
    • /
    • 2021
  • Purpose: (1) To evaluate the trabecular pattern at the femoral attachment of the posterior cruciate ligament (PCL) in patients with a PCL injury; (2) to analyze bone microarchitecture by applying gray level co-occurrence matrix (GLCM)-based texture analysis; and (3) to determine if there is a significant relationship between bone microarchitecture and posterior instability. Materials and Methods: The study included 96 patients with PCL tears. Trabecular patterns were evaluated on T2-weighted MRI qualitatively, and were evaluated by GLCM texture analysis quantitatively. The grades of posterior drawer test (PDT) and the degrees of posterior displacement on stress radiographs were recorded. The 96 patients were classified into two groups: acute and chronic injury. And 27 patients with no PCL injury were enrolled for control. Pearson's correlation coefficient and one-way ANOVA with Bonferroni test were conducted for statistical analyses. This protocol was approved by the Institutional Review Board. Results: A thick and anisotropic trabecular bone pattern was apparent in normal or acute injury (n = 57/61;93.4%), but was not prominent in chronic injury and posterior instability (n = 31/35;88.6%). Grades of PDT and degrees of posterior displacement on stress radiograph were not correlated with texture parameters. However, the texture analysis parameters of chronic injury were significantly different from those of acute injury and control groups (P < 0.05). Conclusion: The trabecular pattern and texture analysis parameters are useful in predicting posterior instability in patients with PCL injury. Evaluation of the bone microarchitecture resulting from altered biomechanics could advance the understanding of PCL function and improve the detection of PCL injury.

전립선비대증 초음파 영상에서 GLCM을 이용한 컴퓨터보조진단의 영상분석 (Image Analysis of Computer Aided Diagnosis using Gray Level Co-occurrence Matrix in the Ultrasonography for Benign Prostate Hyperplasia)

  • 조진영;김창수;강세식;고성진;예수영
    • 한국콘텐츠학회논문지
    • /
    • 제15권3호
    • /
    • pp.184-191
    • /
    • 2015
  • 전립선 초음파영상은 전립선암, 전립선비대증, 전립선염을 진단하고 전립선암의 생검과 전립선비대에서 전립선 크기 확인 등을 위해서 사용된다. 전립선비대증은 노인 남성의 가장 흔한 질병 중의 하나이다. 전립선은 주변구역, 중심구역, 이행구역과 전방 섬유근 간질부분 4개 구획으로 나누어진다. 전립선비대증은 조직학적으로 전립선 이행구역에서 결절성 증식을 동반한 요도주위의 진행성 과증식이 특징으로 이 결절로 인한 요도 폐쇄를 야기함에 따라 하부요로 증상을 유발한다. 그러므로 본 연구에서는 정상 전립선 이행구역 영상과 전립선비대 이행구역 영상에 대한 컴퓨터 알고리즘을 이용하여 정량적인 분석을 하였다. GLCM을 적용하여 정상영상 60증례와 전립선비대증영상 60증례을 분석영역($50{\times}50$ 픽셀)으로 설정하고, 각 영상에서 Autocorrelation, Contrast, Cluster Prominence, Entropy, Max Probability, Sum average 6가지 파라미터를 비교하여 분석하였다. 결과적으로 Autocorrelation, Cluster Prominence, Entropy, Sum Average 4개의 파라미터에서는 병변의 질감 검출 효율이 92-98%로 높게 나왔다. 이에 전립선 이행구역의 결절성 증식 변화를 정량적인 영상분석으로 확인 할 수 있었다. 향후 전립선비대증 진단에 있어 2차적인 수단으로 가능할 것으로 기대되며, 다양한 전립선 초음파 영상에 있어 기초 자료가 될 것으로 사료된다.

IKONOS와 AIRSAR 영상을 이용한 계층적 토지 피복 분류 (Hierarchical Land Cover Classification using IKONOS and AIRSAR Images)

  • 염준호;이정호;김덕진;김용일
    • 대한원격탐사학회지
    • /
    • 제27권4호
    • /
    • pp.435-444
    • /
    • 2011
  • 고해상도 위성영상의 다중분광자료만을 이용하여 토지 피복도를 제작할 경우, 낮은 분광해상도와 단일 토지 피복 내에 존재하는 불균질성으로 인해 분류 결과의 정확도가 저하되는 문제가 발생한다. 특히 식생 클래스의 경우 단일 토지 피복임에도 불구하고 절감 특성에 따라 해당 영역 안에 산림, 초지, 농업지역 등이 함께 분류되는 문제가 두드러진다. 본 연구에서는 이러한 문제를 개선하기 위해 광학 영상 기반의 사전분류를 수행한 후 식생으로 분류된 영역에 대해 고해상도 위성영상의 다중분광정보와 SAR 영상 산란 정보를 통합하고 식생을 세분류하였다. 사전 분류와 식생분류는 최대우도 감독분류를 통해 수행되었으며 식생 세분류 결과와 사전 분류결과 중 비식생 클래스의 융합을 통해 계층적 분류 방법을 제안하였다. 제안 기법은 SAR 영상이나 GLCM 질감 정보를 영상 전체에 걸쳐 단순 통합한 분류결과뿐만 아니라 GLCM 질감 정보를 식생 지역에 적용한 계층적 분류결과에 비해 높은 정확도를 보였으며 특히 식생과 비식생의 분류 정확도가 모두 높게 나타났다.

A Novel Hyperspectral Microscopic Imaging System for Evaluating Fresh Degree of Pork

  • Xu, Yi;Chen, Quansheng;Liu, Yan;Sun, Xin;Huang, Qiping;Ouyang, Qin;Zhao, Jiewen
    • 한국축산식품학회지
    • /
    • 제38권2호
    • /
    • pp.362-375
    • /
    • 2018
  • This study proposed a rapid microscopic examination method for pork freshness evaluation by using the self-assembled hyperspectral microscopic imaging (HMI) system with the help of feature extraction algorithm and pattern recognition methods. Pork samples were stored for different days ranging from 0 to 5 days and the freshness of samples was divided into three levels which were determined by total volatile basic nitrogen (TVB-N) content. Meanwhile, hyperspectral microscopic images of samples were acquired by HMI system and processed by the following steps for the further analysis. Firstly, characteristic hyperspectral microscopic images were extracted by using principal component analysis (PCA) and then texture features were selected based on the gray level co-occurrence matrix (GLCM). Next, features data were reduced dimensionality by fisher discriminant analysis (FDA) for further building classification model. Finally, compared with linear discriminant analysis (LDA) model and support vector machine (SVM) model, good back propagation artificial neural network (BP-ANN) model obtained the best freshness classification with a 100 % accuracy rating based on the extracted data. The results confirm that the fabricated HMI system combined with multivariate algorithms has ability to evaluate the fresh degree of pork accurately in the microscopic level, which plays an important role in animal food quality control.

태양과 플랫폼의 방위각 및 고도각을 이용한 이종 센서 영상에서의 객체기반 건물 변화탐지 (Object-based Building Change Detection Using Azimuth and Elevation Angles of Sun and Platform in the Multi-sensor Images)

  • 정세정;박주언;이원희;한유경
    • 대한원격탐사학회지
    • /
    • 제36권5_2호
    • /
    • pp.989-1006
    • /
    • 2020
  • 건물탐지 기반의 건물 변화 모니터링은 발사예정인 차세대 중형위성 1, 2호와 같은 고해상도 다시기 광학 위성영상을 이용한 인공 구조물 모니터링 측면에서 가장 중요한 분야 중 하나이다. 하지만 지표면에 위치하는 건물들의 형태와 크기는 다양하며, 이들 주변에 존재하는 그림자 또는 나무 등에 의해 정확한 건물탐지에 어려움이 따른다. 또한, 영상 촬영 당시의 플랫폼의 방위각(Azimuth angle)과 고도각(Elevation angle)에 따라 생기는 기복 변위로 인해 건물 변화탐지 수행 시 다수의 변화 오탐지가 발생하게 된다. 이에 본 연구에서는 건물 변화탐지 결과 향상을 위해 다시기 영상 취득 당시의 태양의 방위각과 그에 따른 그림자의 주방향(Main direction)을 이용한 객체기반 건물탐지를 수행하였으며, 이후 플랫폼의 방위각과 고도각을 이용한 건물 변화탐지를 수행하였다. 고해상도 영상에 객체 분할 기법을 적용한 후, Shadow intensity를 통해 그림자 객체만을 분류하였으며, 건물 후보군 탐지를 위해 각 객체의 Rectangular fit, GLCM(Gray-Level Co-occurrence Matrix) homogeneity 그리고 면적(Area)과 같은 특징(Feature) 정보들을 이용하였다. 그 후, 건물 후보군으로 탐지된 객체들의 중심과 태양의 방위각에 따른 건물 그림자 사이의 방향과 거리를 이용하여 최종 건물을 탐지하였다. 각 영상에서 탐지된 건물 객체 간 변화탐지를 위해 객체들 간의 단순 중첩, 플랫폼의 고도각에 따른 객체의 크기 비교, 그리고 플랫폼의 방위각에 따른 객체 간의 방향 비교 총 3가지의 방법을 제안하였다. 본 연구에서는 주거 밀집 지역을 연구지역으로 선정하였으며, KOMPSAT-3와 무인항공기(Unmanned Aerial Vehicle, UAV)의 이종 센서에서 취득된 고해상도 영상을 이용하여 실험 데이터를 생성하였다. 실험 결과, 특징 정보를 이용해 탐지한 건물탐지 결과의 F1-score는 KOMPSAT-3 영상과 무인항공기 영상에서 각각 0.488 그리고 0.696인 반면, 그림자를 고려한 건물탐지 결과의 F1-score는 0.876 그리고 0.867로 그림자를 고려한 건물탐지 기법의 정확도가 더 높은 것을 확인할 수 있었다. 또한, 그림자를 이용한 건물탐지 결과를 바탕으로 제안한 3가지의 건물 변화탐지 제안기법 중 플랫폼의 방위각에 따른 객체 간의 방향을 고려한 방법의 F1-score가 0.891로 가장 높은 정확도를 보이는 것을 확인할 수 있었다.

유방 종양 세포 조직 영상의 분류 (Classification of Breast Tumor Cell Tissue Section Images)

  • 황해길;최현주;윤혜경;남상희;최흥국
    • 융합신호처리학회논문지
    • /
    • 제2권4호
    • /
    • pp.22-30
    • /
    • 2001
  • 본 논문은 유방질환 중에서 유관(duct )에 발생하는 유방종양을 Benign, DCIS(ductal carcinoma in situ) NOS (invasive ductal carcinoma)로 분류하기 위해 3가지 분류기 (classifier) 를 생성한 후, 비교 분석하였다. 분류기 생성에서 가장 중요한 단계인 특징 추출 단계에서 세포핵의 기하학적 특징을 형태학적 특징을 추출하여 분류기를 생성하고 염색질 패턴의 내부적 변화를 나타내는 질감 특징을 추출하여 2가지 배율(100/400배)에서 2개의 분류기를 생성하였다. 400배 배율의 유방질환 영상에서 세포핵을 추출하여 핵의 형태학적 특징값인 핵의 면적, 둘레. 가로, 세로(장. 단축) 의 길이, 원형성의 비율을 구한 후 이 특징값들을 조합하여 판별분석에 의해 분류기를 생생하고, 분류 정확도를 검증하였다. 100배 배율과 400배의 배율의 유방질환 영상에서 1, 2, 3, 4 단계(level)의 wavelet 변환를 적용한 후, 분할된 서브밴드에서 GLCM(Gray Level Co-occurrence Matrix)을 이용하여 질감 특징(entropy Energy, Contrast, Homogeneity)를 추출하고, 이 특징값들을 조합하여 판변 분석에 의해 분류기를 생성한 후 분류 정확도를 검증하였다. 이 세 분류기를 비교 분석 하였을때 현민경 100배 배율의 영상을 3단계 wavelet 변환을 적용하고 질감 특징을 추출하여 생성한 분류기가 다른 두 분류기보다 유방 질환 Benign, DCIS; NOS를 분류하는데 더 나은 결과를 보였다.

  • PDF