• 제목/요약/키워드: Low Contrast Image

검색결과 449건 처리시간 0.027초

Fatty Liver 환자의 컴퓨터단층촬영 영상을 이용한 질감특징분석 (Texture Feature analysis using Computed Tomography Imaging in Fatty Liver Disease Patients)

  • 박형후;박지군;최일홍;강상식;노시철;정봉재
    • 한국방사선학회논문지
    • /
    • 제10권2호
    • /
    • pp.81-87
    • /
    • 2016
  • 본 실험에서 제안된 질감특징분석 알고리즘은 지방간 환자의 CT영상을 이용하여 정상영상과 질환영상으로 구분하여, 정상 간 CT영상과 지방간 CT영상을 생성하고 제안된 질감특징분석을 이용한 컴퓨터보조 진단 시스템에 적용하여 6개의 파라메타로 정량적 분석을 통해 지방간 CT영상의 질환 인식률을 도출하고 평가하였다. 결과로 지방간 CT영상 30증례 중에서 각각의 파라메타별 질감특징 값에 대한 인식률은 평균 밝기의 경우 100%, 엔트로피의 경우 96.67%, 왜곡도의 경우 93.33%로 높게 나타났고, 평탄도의 경우 83.33%, 균일도의 경우 86.67%, 평균대조도의 경우 80%로 다소 낮은 질환 인식률을 보였다. 따라서 본 연구의 결과를 바탕으로 의료영상의 컴퓨터보조진단 시스템으로 발전된 프로그램을 구현한다면 지방간 CT영상의 질환부위 자동검출 및 정량적 진단이 가능해 컴퓨터보조진단 자료로서 활용이 가능할 것으로 판단되며 최종판독에서 객관성, 정확성, 판독시간 단축에 유용하게 사용 될 것으로 사료된다.

빈티지 패션의 색채 특성에 관한 연구 - 2003~2008년 파리 프레타포르테 컬렉션을 중심으로 - (The Color Characteristics of Vintage Fashion - Focused on Paris Pr$\hat{e}$t-$\grave{a}$-Porter Collections, from 2003 to 2008 -)

  • 양정희;박혜원
    • 패션비즈니스
    • /
    • 제14권1호
    • /
    • pp.86-105
    • /
    • 2010
  • Vintage fashion is a lot influenced by colors because an emotion is transmitted via images of "old feeling", "worn-out feeling" and "faded feeling" etc. Colors are visual sensation occurring at a time when lights stimulate an eye, which is a representative factor which humans first perceive when they touch objects. And colors in clothing function as a critical element which indicates an individual's impression and character as well as aesthetic sensation. In this study, I examined on the theoretical consideration and aesthetic characteristics via the previous literature on vintage fashion and colors. As an empirical study, I investigated on the colors of vintage fashion appearing in Pr$\hat{e}$t-$\grave{a}$-porter Collections, Paris from Spring/Summer, 2003 to Fall/Winter 2008. As a way for study, I investigated into the total 197 vintage fashion photos and calculated their RGB values by using photoshop. And I converted the values of the colors extracted into H V/C values by using Munsell Conversion Version 9.0.6 and analyzed on Munsell System of 10 Color Notation and the PCCS colors, classifying a color scheme by visual sensation measurement. The result of analyzing on the concept of vintage fashion and its color characteristics is as follows; Vintage fashion made an appearance the most in 2003 and 2004 and its colors appeared a lot in Y, YR, R and PB lines. Color tone concentrated on black and white, achromatic color and low chroma colors in a grayish line, chromatic color. Thus, the study found that colors suitable for a "worn-out", "faded" and "old" image are properly reflected in vintage fashion rather than a clear and bright background. In a color scheme, I found contrast color and same color appearing a lot, which gave an unharmonious feeling and a smack of the country. The study reveals that the color characteristic of vintage fashion is relatively diverse and complex in color, color tone or shade and color scheme, which shows a color trend which reflects a non-constructive and complex coordination characteristic instead of a standardized simple and clear image.

Focus DWI 검사에서 중심축 이동에 따른 화질 평가 (The Evaluation of Imaging Quality Depending the Shift of the Central Axis in FOCUS DWI Investigation)

  • 김용화;정문택;최남길
    • 한국방사선학회논문지
    • /
    • 제12권5호
    • /
    • pp.631-636
    • /
    • 2018
  • 기존의 자기공명영상검사에서 문제점으로 지적되어 왔던 위상부호화 방향에서의 긴 판독시간과 낮은 대역폭과 함께 기하학적 왜곡의 경향이 있어 이러한 영상왜곡을 감소하기 위한 여러 방법 중 FOCUS-DWI가 있다. 본 논문은 선택적인 위상 방향 및 슬라이스를 이용하는 FOCUS-DWI가 자기장 내 중심축에서 거리변화에 따른 인공물, 균일도를 기존의 Conventional-DWI와 비교하여 그에 대한 유용성을 확인하고자 하였다. 인공물 발생에 대한 결과는 Conventional-DWI 기법에서 불규칙적인 줄무늬 인공물이 발생하였는데 중심축에서 인공물의 발생이 심하게 나타났고, 영상의 겹침 정도가 급격하게 증가하였다. 하지만 FOCUS-DWI 기법은 줄무늬 모양의 인공물 발생이 나타나지 않았고 영상의 겹침 정도도 적게 나타났으며, 영역별 신호측정에 대한 균일도 결과는 중심축에서 거리의 변화에 관계없이 FOCUS-DWI가 훨씬 우수한 기법으로 나타났다. 결론적으로 FOCUS-DWI 기법은 인공물, 영상의 겹침 정도, 균일도 측정에서 Conventional-DWI 기법보다 우수한 결과를 보였고, 거리의 변화에 따른 두 기법에서는 차이가 없게 나타났다. 따라서 FOCUS-DWI 기법은 영상의 왜곡 정도가 적고 화질이 우수하여 임상에서 활용도가 높을 것이라 사료된다.

고성능, 저전력 임베디드 비디오 프로세서를 위한 YUV 인식 명령어의 시뮬레이션 (Simulation of YUV-Aware Instructions for High-Performance, Low-Power Embedded Video Processors)

  • 김철홍;김종면
    • 한국정보과학회논문지:컴퓨팅의 실제 및 레터
    • /
    • 제13권5호
    • /
    • pp.252-259
    • /
    • 2007
  • 멀티미디어 응용과 무선통신 네트워크의 발전 속도가 급속하게 빨라짐에 따라 고성능, 저전력 멀티미디어 처리기술에 대한 소비자의 요구가 급증하고 있다. 이에 본 논문은 고성능, 저전력 임베디드 비디오 프로세서를 위한 YUV (Y: 휘도신호, U, V: 색차신호) 인식 명령어를 제안하고자 한다. 기존의 멀티미디어 전용 명령어 (e.g., MMX, SSE, VIS, AltiVec)는 일반적인 서브워드 병렬 기법을 이용하여 적당한 성능향상을 꾀하는 반면, 제안하는 YUV 인식 명령어는 두 쌍의 16-bit YUV (6-bit Y, 5-bits U, V) 데이타를 32-bit 레지스터에 저장하여 동시에 처리함으로써 칼라 비디오 처리 성능을 효율적으로 향상시킬 수 있다. 또한 데이타 포맷 사이즈를 줄임으로써 전체 시스템의 비용을 절감할 수 있다. 임베디드 슈퍼 스칼라 프로세서에서 모의 실험한 결과, YUV 인식 명령어 기반 프로그램은 baseline 프로그램에 비해 3.9배 성능 향상을 보인 반면, 동일한 프로세서 환경에서 Intel의 대표적인 멀티미디어 명령어인 MMX기반 프로그램은 baseline 프로그램보다 단지 2.1배의 성능 향상을 보인다. 또한 YUV 인식 명령어는 멀티미디어 애플리케이션에 대해 평균 75.8% 소모 에너지를 감소시킨 반면, MMX는 단지 54.8%의 소모 에너지를 감소시키는 결과를 보인다.

Flangeless Esser PET Phantom 영상 자동 분석 프로그램의 유용성 평가 (Usefulness Assessment of Automatic Analysis Program for Flangeless Esser PET Phantom Images)

  • 남궁창경;남기표;김경식;김정선;임기천;신상기;조시만;동경래
    • 핵의학기술
    • /
    • 제13권1호
    • /
    • pp.63-66
    • /
    • 2009
  • Purpose: ACR (American College of Radiology) offers variable parameters to PET/CT quality control by using ACR Phantom. ACR Phantom was made to evaluate parameters which are uniformity, attenuation, scatter, contrast and resolution. Manual analysis method wasn't good for the use of QC because values of parameter were changed as it may user and it takes long time to analysis. Ki-Chun Lim, a nuclear scientist in AMC, developed program that automatically analysis values of parameter by using ACR Phantom to overcome above problems. In this study, we evaluated automatic analysis program's usability, through the comparing SUV of each method, reproducibility of SUV when repeated analysis and the time required. Materials and Methods: Using Flangeless Esser PET Phantom, the ideal ratio of 4 : 1 hot cylinder and BKG but it actually showed a ratio of 3.89 to 1 hot cylinder and BKG. SIEMENS Biograph True Point 40 was used in this study. We obtained images using ACR phantom at Fusion WB PET Scan condition (2 min/bed) and 120 kV, 100 mAs CT condition. Using True X method, 3 iterations, 14 subsets, Gaussian filter, FWHM 4 mm and Zoom Factor 1.0, $168{\times}168$ image size. We obtained Max. & Min. SUV and SUV Mean values at Cylinder (8, 12, 16, 25 mm, Air, Bone, Water, BKG) by automatic program and obtained SUV by manual method. After that, we compared manual and automatic method. we estimate the time required from opened the image data to final work sheet was completed. Results: Automatic program always showed same result and same the time required. At 8, 12, 16 and 25 m cylinder, manual method showed 6.69, 3.46, 2.59, 1.24 CV values. The larger cylinder size became, the smaller CV became. In manual method, bone, air, water's CV were over 9.9 except BKG (2.32). Obtained CV of Mean SUV showed BKG was low (0.85) and bone was high (7.52). The time required was 45 second, 882 second respectably. Conclusions: As a result of difference automatic method and manual method, automatic method showed always same result, manual method showed that the smaller hot cylinders became, the lager CV became. Hot cylinders mean region size, the smaller hot cylinder size becomes we had some trouble in doing ROI poison setting. And it means increase in variation of SUV. The Study showed the time required of automatic method was shorten then manual method.

  • PDF

전산화단층촬영 영상을 이용한 뇌출혈 질감특징분석 (Texture Feature Analysis Using a Brain Hemorrhage Patient CT Images)

  • 박형후;박지군;최일홍;강상식;노시철;정봉재
    • 한국방사선학회논문지
    • /
    • 제9권6호
    • /
    • pp.369-374
    • /
    • 2015
  • 본 연구에서 제안된 질감특징분석 알고리즘은 뇌출혈환자의 CT영상을 이용하여 정상영상과 질환영상으로 구분하여, 고유영상 및 실험영상을 생성하고 제안된 컴퓨터보조진단 시스템에 적용하여 6개의 파라메타로 정량적 분석을 통해 뇌출혈 CT영상의 인식률을 도출하고 평가하였다. 결과로 뇌출혈 CT영상 40증례 중에서 각각의 질감 특징값에 대한 인식률은 평균밝기의 경우 100%, 평균대조도의 경우 100%, 평탄도의 경우 100%, 왜곡도의 경우 100%로 높게 나타났고, 균일도의 경우 95%, 엔트로피의 경우 87.5%로 다소 낮은 질환 인식률을 보였다. 따라서 본 연구의 결과를 바탕으로 의료영상의 컴퓨터보조진단 시스템으로 발전된 프로그램을 구현한다면 뇌출혈 CT영상의 질환부위 자동검출 및 정량적 진단이 가능해 컴퓨터보조진단 자료로서 활용이 가능할 것으로 판단되며 최종판독에서 정확성과 판독시간 단축에 유용하게 사용 될 것으로 사료된다.

PVA-ECC단면 이미지의 섬유 분류 및 검출 기법 (Fiber Classification and Detection Technique Proposed for Applying on the PVA-ECC Sectional Image)

  • 김윤용;이방연;김진근
    • 콘크리트학회논문집
    • /
    • 제20권4호
    • /
    • pp.513-522
    • /
    • 2008
  • 섬유복합재료의 우수한 인장 성능은 섬유가 매트릭스의 균열 면에서 가교작용을 함으로써 발현되기 때문에 섬유의 분포 특성이 복합재료의 성능에 결정적인 영향을 미치게 된다. 그러나 PVA 섬유를 보강 섬유로 사용하는 섬유복합재료의 경우 PVA 섬유와 매트릭스 사이의 낮은 명암비와 PVA의 비전도성 특징으로 인하여 섬유의 위치 및 분포특성을 정량적으로 평가히는 방법은 연구가 미흡한 실정이다. 이 연구에서는 PVA 섬유를 보강 섬유로 사용하는 섬유복합재료의 섬유 분포 특성 등을 평가할 때 가장 중요한 과정인 섬유의 검출에 대하여 검출 성능을 향상 시킬 수 있는 알고리즘을 제시하였다. 제안한 알고리즘은 형광 현미경을 사용하여 얻은 섬유 이미지를 유형별로 분류하고, 분류된 분류된 섬유 이미지의 특성에 따라 분수령 알고리즘 (watershed algorithm)과 형태학적 재구성 (morphological reconstruction)을 이용하여 보다 정확히 섬유를 검출하는 과정으로 구성된다. 이 과정에서 섬유 이미지를 총 5가지 유형으로 분류하였으며, 인공신경회로망(ANN)을 분류기로 활용하기 위하여 형상 특성을 나타내는 5가지 특징값 즉, $F_s$, $F_c$, $F_p$, $F_l$$F_{rl}$을 추출하였다. 추출된 특징값에 대한 데이터베이스를 구축하여 ANN을 학습하여 분류기를 구축함으로써 섬유의 유형을 자동으로 분류할 수 있도록 하였다. 또한 5가지 섬유 이미지 유형 중에서 잘못 검출된 섬유이미지를 분수령 알고리즘과 형태학적 재구성을 통하여 섬유를 정확히 검출할 수 있는 기법을 제안하였다.

석조문화재 기초지반 파악을 위한 모형지반에서의 탐사기법 적용 (Application of Geophysical Survey to the Geological Engineering Model for the Effective Detection in Foundation of Stone Relics)

  • 김만일;이창주;김종태;김지수;김사덕;정교철
    • 지질공학
    • /
    • 제18권4호
    • /
    • pp.537-543
    • /
    • 2008
  • 지표 근접 지질조사 및 매설물 조사에 응용되는 GPR탐사를 통해 석조문화재 기초지반을 효과적으로 탐지하기 위해 토양층과 자갈층이 교호하는 지질공학적인 모형지반(천부 지층구조)을 3 m의 깊이로 재건하여 GPR탐사 및 탄성파 굴절법 탐사를 측선별로 수행하였다. GPR탐사에 사용되는 주파수를 다양하게 적용하여 주파수별 분해능에 따른 모형지반의 경계구분을 확인하였다. 그 결과 100 MHz의 주파수 대역에서 분해능은 낮지만 가장 효과적으로 지층경계를 구분할 수 있었으며, 225 MHz, 450 MHz, 900 MHz의 고주파수 대역을 사용한 결과에서는 전자파의 감쇠로 인해 하부경계를 구분할 수 없었으나 천부의 분해능은 향상되었다. 이로부터 심부에 대한 100 MHz의 자료와 천부에 대한 고주파수 단면도를 조합하여 최종단면도를 얻었다. 탄성파 굴절법 탐사에서는 모형지반의 정확한 경계 및 지층 간 경계면은 파악할 수 없었으나, 모형지반이 위치하고 있는 구간에서의 등속도선이 주변 지역에 비해 상대적으로 깊은 심도까지 분포하는 것으로 볼 때 원지반과 모형 경계의 속도 대비를 파악할 수 있는 것으로 나타났다.

Accuracy evaluation of liver and tumor auto-segmentation in CT images using 2D CoordConv DeepLab V3+ model in radiotherapy

  • An, Na young;Kang, Young-nam
    • 대한의용생체공학회:의공학회지
    • /
    • 제43권5호
    • /
    • pp.341-352
    • /
    • 2022
  • Medical image segmentation is the most important task in radiation therapy. Especially, when segmenting medical images, the liver is one of the most difficult organs to segment because it has various shapes and is close to other organs. Therefore, automatic segmentation of the liver in computed tomography (CT) images is a difficult task. Since tumors also have low contrast in surrounding tissues, and the shape, location, size, and number of tumors vary from patient to patient, accurate tumor segmentation takes a long time. In this study, we propose a method algorithm for automatically segmenting the liver and tumor for this purpose. As an advantage of setting the boundaries of the tumor, the liver and tumor were automatically segmented from the CT image using the 2D CoordConv DeepLab V3+ model using the CoordConv layer. For tumors, only cropped liver images were used to improve accuracy. Additionally, to increase the segmentation accuracy, augmentation, preprocess, loss function, and hyperparameter were used to find optimal values. We compared the CoordConv DeepLab v3+ model using the CoordConv layer and the DeepLab V3+ model without the CoordConv layer to determine whether they affected the segmentation accuracy. The data sets used included 131 hepatic tumor segmentation (LiTS) challenge data sets (100 train sets, 16 validation sets, and 15 test sets). Additional learned data were tested using 15 clinical data from Seoul St. Mary's Hospital. The evaluation was compared with the study results learned with a two-dimensional deep learning-based model. Dice values without the CoordConv layer achieved 0.965 ± 0.01 for liver segmentation and 0.925 ± 0.04 for tumor segmentation using the LiTS data set. Results from the clinical data set achieved 0.927 ± 0.02 for liver division and 0.903 ± 0.05 for tumor division. The dice values using the CoordConv layer achieved 0.989 ± 0.02 for liver segmentation and 0.937 ± 0.07 for tumor segmentation using the LiTS data set. Results from the clinical data set achieved 0.944 ± 0.02 for liver division and 0.916 ± 0.18 for tumor division. The use of CoordConv layers improves the segmentation accuracy. The highest of the most recently published values were 0.960 and 0.749 for liver and tumor division, respectively. However, better performance was achieved with 0.989 and 0.937 results for liver and tumor, which would have been used with the algorithm proposed in this study. The algorithm proposed in this study can play a useful role in treatment planning by improving contouring accuracy and reducing time when segmentation evaluation of liver and tumor is performed. And accurate identification of liver anatomy in medical imaging applications, such as surgical planning, as well as radiotherapy, which can leverage the findings of this study, can help clinical evaluation of the risks and benefits of liver intervention.

Development of a Malignancy Potential Binary Prediction Model Based on Deep Learning for the Mitotic Count of Local Primary Gastrointestinal Stromal Tumors

  • Jiejin Yang;Zeyang Chen;Weipeng Liu;Xiangpeng Wang;Shuai Ma;Feifei Jin;Xiaoying Wang
    • Korean Journal of Radiology
    • /
    • 제22권3호
    • /
    • pp.344-353
    • /
    • 2021
  • Objective: The mitotic count of gastrointestinal stromal tumors (GIST) is closely associated with the risk of planting and metastasis. The purpose of this study was to develop a predictive model for the mitotic index of local primary GIST, based on deep learning algorithm. Materials and Methods: Abdominal contrast-enhanced CT images of 148 pathologically confirmed GIST cases were retrospectively collected for the development of a deep learning classification algorithm. The areas of GIST masses on the CT images were retrospectively labelled by an experienced radiologist. The postoperative pathological mitotic count was considered as the gold standard (high mitotic count, > 5/50 high-power fields [HPFs]; low mitotic count, ≤ 5/50 HPFs). A binary classification model was trained on the basis of the VGG16 convolutional neural network, using the CT images with the training set (n = 108), validation set (n = 20), and the test set (n = 20). The sensitivity, specificity, positive predictive value (PPV), and negative predictive value (NPV) were calculated at both, the image level and the patient level. The receiver operating characteristic curves were generated on the basis of the model prediction results and the area under curves (AUCs) were calculated. The risk categories of the tumors were predicted according to the Armed Forces Institute of Pathology criteria. Results: At the image level, the classification prediction results of the mitotic counts in the test cohort were as follows: sensitivity 85.7% (95% confidence interval [CI]: 0.834-0.877), specificity 67.5% (95% CI: 0.636-0.712), PPV 82.1% (95% CI: 0.797-0.843), NPV 73.0% (95% CI: 0.691-0.766), and AUC 0.771 (95% CI: 0.750-0.791). At the patient level, the classification prediction results in the test cohort were as follows: sensitivity 90.0% (95% CI: 0.541-0.995), specificity 70.0% (95% CI: 0.354-0.919), PPV 75.0% (95% CI: 0.428-0.933), NPV 87.5% (95% CI: 0.467-0.993), and AUC 0.800 (95% CI: 0.563-0.943). Conclusion: We developed and preliminarily verified the GIST mitotic count binary prediction model, based on the VGG convolutional neural network. The model displayed a good predictive performance.