• 제목/요약/키워드: entropy image

검색결과 345건 처리시간 0.033초

Thermal Infrared Image Analysis for Breast Cancer Detection

  • Min, Sedong;Heo, Jiyoung;Kong, Youngsun;Nam, Yunyoung;Ley, Preap;Jung, Bong-Keun;Oh, Dongik;Shin, Wonhan
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제11권2호
    • /
    • pp.1134-1147
    • /
    • 2017
  • With the rise in popularity of photographic and video cameras, an increasing number of fields are now using thermal imaging cameras. One such application is in the diagnosis of breast cancer, as thermal imaging provides a low-cost and noninvasive method. Thermal imaging is particularly safe for pregnant women, and those with large, dense, or sensitive breasts. In addition, excessive doses of radiation, which may be used in traditional methods of breast cancer detection, can increase the risk of cancer. This paper presents one method of breast cancer detection. Breast images were taken using a thermal camera, with preliminary experiments conducted on Cambodian women. Then the experimental results were analyzed and compared using Shannon entropy and logistic regression.

Signal Set Partitioning을 이용한 격자 양자화의 비 손실 부호화 기법 (Lossless Coding Scheme for Lattice Vector Quantizer Using Signal Set Partitioning Method)

  • 김원하
    • 전자공학회논문지CI
    • /
    • 제38권6호
    • /
    • pp.93-105
    • /
    • 2001
  • 격자 벡터 양자화의 비 손실 과정에서는 생성된 코드단어들을 radius 열과 Index 열로 열거한다. radius 열은 run-length 부호화한 한 다음 Entropy 부호화한다. 또한 index 열들은 이진의 고정길이로 표현한다. 비트율이 증가함에 따라 index 비트는 선형적으로 증가하여서 부호화 성능을 감소시킨다. 이 논문에서는, 넓은 비트율의 범위에서 index 비트를 줄이기 위해서, set partitioning 방식을 채택한 새로운 열거 알고리즘을 개발하였다. 제안된 열거 방법은 큰 index 값을 작은 값들을 천이 시켜서 index 비트를 줄인다. 제안된 비손실 기법을 웨이블릿 기반의 영상 부호화에 적용시켰을 때, 0.3 bits/pixel 이상의 비트룰에서 기존의 비손실 부호화 방식보다 10%이상의 비트율을 감소시켰다.

  • PDF

Using CNN- VGG 16 to detect the tennis motion tracking by information entropy and unascertained measurement theory

  • Zhong, Yongfeng;Liang, Xiaojun
    • Advances in nano research
    • /
    • 제12권2호
    • /
    • pp.223-239
    • /
    • 2022
  • Object detection has always been to pursue objects with particular properties or representations and to predict details on objects including the positions, sizes and angle of rotation in the current picture. This was a very important subject of computer vision science. While vision-based object tracking strategies for the analysis of competitive videos have been developed, it is still difficult to accurately identify and position a speedy small ball. In this study, deep learning (DP) network was developed to face these obstacles in the study of tennis motion tracking from a complex perspective to understand the performance of athletes. This research has used CNN-VGG 16 to tracking the tennis ball from broadcasting videos while their images are distorted, thin and often invisible not only to identify the image of the ball from a single frame, but also to learn patterns from consecutive frames, then VGG 16 takes images with 640 to 360 sizes to locate the ball and obtain high accuracy in public videos. VGG 16 tests 99.6%, 96.63%, and 99.5%, respectively, of accuracy. In order to avoid overfitting, 9 additional videos and a subset of the previous dataset are partly labelled for the 10-fold cross-validation. The results show that CNN-VGG 16 outperforms the standard approach by a wide margin and provides excellent ball tracking performance.

ADCP를 활용한 제주 강정천의 평균유속 분포 추정 (A Study on the Mean Flow Velocity Distribution of Jeju Gangjung-Stream using ADCP)

  • 양세창;김용석;양성기;강명수;강보성
    • 한국환경과학회지
    • /
    • 제26권9호
    • /
    • pp.999-1011
    • /
    • 2017
  • In this study, the Chiu-2D velocity-flow rate distribution based on theoretical background of the entropy probability method was applied to actual ADCP measurement data of Gangjung Stream in Jeju from July 2011 to June 2015 to predict the parameter that take part in velocity distribution of the stream. In addition, surface velocity measured by SIV (Surface Image Velocimeter) was applied to the predicted parameter to calculate discharge. Calculated discharge was compared with observed discharge of ADCP observed during the same time to analyze propriety and applicability of depth of water velocity average conversion factor. To check applicability of the predicted stream parameter, surface velocity and discharge were calculated using SIV and compared with velocity and flow based on ADCP. Discharge calculated by applying velocity factor of SIV to the Chiu-2D velocity-flow rate distribution and discharge based on depth of water velocity average conversion factor of 0.85 were $0.7171m^3/sec$ and $0.5758m^3/sec$, respectively. Their error rates compared to average ADCP discharge of $0.6664m^3/sec$ were respectively 7.63% and 13.64%. Discharge based on the Chiu-2D velocity-flow distribution showed lower error rate compared to discharge based on depth of water velocity average conversion factor of 0.85.

JPEG2000 Encoder를 위한 EBCOT Tier-1의 하드웨어 구현 (Hardware Implementation of EBCOT TIER-1 for JPEG2000 Encoder)

  • 이성목;장원우;조성대;강봉순
    • 융합신호처리학회논문지
    • /
    • 제11권2호
    • /
    • pp.125-131
    • /
    • 2010
  • 본 논문은 JPEG2000 Encoder를 위한 EBCOT Tier-1의 하드웨어 구현에 관한 것이다. 2000년대 초반, JPEG의 단점을 극복하기 위해 차세대 정지영상 압축 표준으로 등장한 것이 JPEG2000이다. JPEG2000 표준은 DWT(Discrete Wavelet Transform)과 EBCOT Entropy coding 기술을 기반으로 하고 있다. 이 중 EBCOT(Embedded block coding with optimized truncation)은 JPEG2000 표준에서 실제 압축을 수행하는 가장 중요한 기술 중 하나이다. 하지만 EBCOT는 Bit-level 처리를 하기 때문에 JPEG2000 압축 과정 중 절반 정도의 연산 시간을 차지하는 단점을 가지고 있다. 그래서 이에 본 논문은 EBCOT 연산의 효율성을 높이기 위해 수정된 Context 추출 방법과 산술 부호화기 MQ- Coder를 하드웨어 구현하였다. 제안된 시스템은 Verilog-HDL로 구현되었으며 TSMC 0.25um ASIC 라이브러리로 합성한 결과, 게이트 카운트는 30,511개로 구현되었으며, 50MHz의 동작 조건을 만족한다.

비균일 양자화 기법에 기반을 둔 GLCM의 성능개선 (A Performance Improvement of GLCM Based on Nonuniform Quantization Method)

  • 조용현
    • 한국지능시스템학회논문지
    • /
    • 제25권2호
    • /
    • pp.133-138
    • /
    • 2015
  • 본 논문에서는 비균일 양자화에 기반을 둔 영상의 질감분석에 널리 이용되고 있는 gray level co-occurrence matrix(GLCM)의 성능개선을 제안하였다. 여기서 비균일 양자화는 평균자승오차의 최소화를 위한 반복계산 기법인 Lloyd 알고리즘을 이용하였다. 이는 영상에서의 비균일 양자화 과정으로 얻어지는 비선형의 명암레벨을 GLCM의 생성에 이용함으로써 행렬의 차원을 감소시켜, GLCM의 생성과 질감특성 파라미터들의 계산에 따른 부하를 줄이기 위함이다. 제안된 기법을 30개의 $120{\times}120$ 픽셀의 256 그레이 레벨을 가진 영상들을 대상으로 적용하여 angular second moment, contrast, variance, entropy, correlation, inverse difference moment 6개의 질감특성 파라미터들을 각각 계산한 실험결과, 양자화를 수행하지 않은 256 레벨 GLCM에 비해 계산시간과 저장 공간에서 개선된 성능이 있음을 확인하였다. 특히 48, 32, 16, 12, 8의 비균일 양자화 레벨 중에서 16일 때 가장 우수한 질감특성분석 성능이 있음을 알 수 있었다.

영역 기반의 Multi-level Thresholding에 의한 컬러 영상 분할 (Region-based Multi-level Thresholding for Color Image Segmentation)

  • 오준택;김욱현
    • 대한전자공학회논문지SP
    • /
    • 제43권6호
    • /
    • pp.20-27
    • /
    • 2006
  • Multi-level thresholding은 영상 분할 방법 중 하나로 널리 이용되고 있지만 대부분의 기존 논문들은 응용 분야에 직접적으로 이용되기에는 적합하지 않거나 영상 분할 단계까지 확장되지 않고 있다. 본 논문에서는 영상 분할을 위한 multi-level thresholding 방안으로써 영역 단위의 multi-level thresholding을 제안한다. 먼저, 영상의 색상별 성분에 대해서 EWFCM(Entropy-based Weighted Fuzzy C-Means) 알고리즘을 적용하여 2개의 군집으로 분류한 후 코드 영상을 생성한다. EWFCM 알고리즘은 화소들에 대한 공간 정보를 추가한 개선된 FCM 알고리즘으로 영상 내 존재하는 잡음을 제거한다. 그리고 코드 영상에 존재하는 군집의 수를 감소함으로써 좀 더 나은 영상 분할 결과를 얻을 수 있으며 군집의 감소는 하나의 군집내에 존재하는 영역들과 나머지 군집들간의 유사도를 기반으로 영역을 재분류함으로써 처리된다. 그러나 영상에는 여전히 많은 영역들이 존재하기 때문에 이를 해결하기 위한 하나의 후처리 방안으로써 영역간의 Kullback-Leibler 거리값을 기반으로 Bayesian 알고리즘에 의한 영역 합병을 수행한다. 실험 결과 제안한 영역 기반의 multi-level thresholding은 기존 방법이나 화소나 군집 기반의 multi-level thresholding보다 좋은 분할 결과를 보였으며 Bayesian 알고리즘을 이용한 후처리 방안에 의해 좀 더 나은 결과를 보였다.

변환영역 기반의 시각특성 파라미터를 이용한 영상 분석 (Image Analysis using Transform domain-based Human Visual Parameter)

  • 김윤호
    • 한국항행학회논문지
    • /
    • 제12권4호
    • /
    • pp.378-383
    • /
    • 2008
  • 본 논문에서는 DCT 변환과 퍼지추론을 이용하여 영상을 분석하는 방법을 제안 한 바, 병해충 과실 등의 특성을 분석 할 수 있는 퍼지추론 알고리즘과 변환계수에 시각특성파라미터를 접목하는 방법에 중점을 두었다. 전처리 과정에서 이산코사인 변환계수로부터 엔트로피와 텍스처 등의 시각특징 파라미터들을 구하였고, 이 변수들을 이용하여 퍼지 추론의 입력 변수를 생성 하였다. 맘다니 연산자와 ${\alpha}$-cut 함수를 적용하여 영상 분석을 실험한 결과, 제안한 방법의 응용가능성을 입증하였다.

  • PDF

Variational Expectation-Maximization Algorithm in Posterior Distribution of a Latent Dirichlet Allocation Model for Research Topic Analysis

  • Kim, Jong Nam
    • 한국멀티미디어학회논문지
    • /
    • 제23권7호
    • /
    • pp.883-890
    • /
    • 2020
  • In this paper, we propose a variational expectation-maximization algorithm that computes posterior probabilities from Latent Dirichlet Allocation (LDA) model. The algorithm approximates the intractable posterior distribution of a document term matrix generated from a corpus made up by 50 papers. It approximates the posterior by searching the local optima using lower bound of the true posterior distribution. Moreover, it maximizes the lower bound of the log-likelihood of the true posterior by minimizing the relative entropy of the prior and the posterior distribution known as KL-Divergence. The experimental results indicate that documents clustered to image classification and segmentation are correlated at 0.79 while those clustered to object detection and image segmentation are highly correlated at 0.96. The proposed variational inference algorithm performs efficiently and faster than Gibbs sampling at a computational time of 0.029s.

적응적인 Saliency Map 모델 구현 (Implementation of Image Adaptive Map)

  • 박상범;김기중;한영준;한헌수
    • 한국정밀공학회지
    • /
    • 제25권2호
    • /
    • pp.131-139
    • /
    • 2008
  • This paper presents a new saliency map which is constructed by providing dynamic weights on individual features in an input image to search ROI(Region Of Interest) or FOA(Focus Of Attention). To construct a saliency map on there is no a priori information, three feature-maps are constructed first which emphasize orientation, color, and intensity of individual pixels, respectively. From feature-maps, conspicuity maps are generated by using the It's algorithm and their information quantities are measured in terms of entropy. Final saliency map is constructed by summing the conspicuity maps weighted with their individual entropies. The prominency of the proposed algorithm has been proved by showing that the ROIs detected by the proposed algorithm in ten different images are similar with those selected by one-hundred person's naked eyes.