• 제목/요약/키워드: Korean normalization

검색결과 934건 처리시간 0.021초

2019 강릉-동해 산불 피해 지역에 대한 PlanetScope 영상을 이용한 지형 정규화 기법 분석 (Analysis on Topographic Normalization Methods for 2019 Gangneung-East Sea Wildfire Area Using PlanetScope Imagery)

  • 정민경;김용일
    • 대한원격탐사학회지
    • /
    • 제36권2_1호
    • /
    • pp.179-197
    • /
    • 2020
  • 지형 정규화 기법은 영상 촬영 시의 광원, 센서 및 지표면 특성에 따라 발생하는 밝기값 상의 지형적인 영향을 제거하는 방법으로, 지형 조건으로 인해 동일 피복의 픽셀들이 서로 다른 밝기값을 지닐 때 그 차이를 감소시킴으로써 평면 상의 밝기값과 같아 보이도록 보정한다. 이러한 지형적인 영향은 일반적으로 산악 지형에서 크게 나타나며, 이에 따라 산불 피해 지역 추정과 같은 산악 지형에 대한 영상 활용에서는 지형 정규화 기법이 필수적으로 고려되어야 한다. 그러나 대부분의 선행연구에서는 중저해상도의 위성영상에 대한 지형 보정 성능 및 분류 정확도 영향 분석을 수행함으로써, 고해상도 다시기 영상을 이용한 지형 정규화 기법 분석은 충분히 다루어지지 않았다. 이에 본 연구에서는 PlanetScope 영상을 이용하여 신속하고 정확한 국내 산불 피해 지역 탐지를 위한 각 밴드별 최적의 지형 정규화 기법 평가 및 선별을 수행하였다. PlanetScope 영상은 3 m 공간 해상도의 전세계 일일 위성영상을 제공한다는 점에서 신속한 영상 수급 및 영상 처리가 요구되는 재난 피해 평가 분야에 높은 활용 가능성을 지닌다. 지형 정규화 기법 비교를 위해 보편적으로 이용되고 있는 7가지 기법을 구현하였으며, 토지 피복 구성이 상이한 산불 전후 영상에 모두 적용, 분석함으로써 종합적인 피해 평가에 활용될 수 있는 밴드 별 최적 기법 조합을 제안하였다. 제안된 방법을 통해 계산된 식생 지수를 이용하여 화재 피해 지역 변화 탐지를 수행하였으며, 객체 기반 및 픽셀 기반 방법 모두에서 향상된 탐지 정확도를 나타내었다. 또한, 화재 피해 심각도(burn severity) 매핑을 통해 지형 정규화 기법이 연속적인 밝기값 분포에 미치는 효과를 확인하였다.

배치 정규화와 CNN을 이용한 개선된 영상분류 방법 (An Improved Image Classification Using Batch Normalization and CNN)

  • 지명근;전준철;김남기
    • 인터넷정보학회논문지
    • /
    • 제19권3호
    • /
    • pp.35-42
    • /
    • 2018
  • 딥 러닝은 영상 분류를 위한 여러 방법 중 높은 정확도를 보이는 방법으로 알려져 있다. 본 논문에서는 딥 러닝 방법 가운데 합성곱 신경망 (CNN:Convolutional Neural Network)을 이용하여 영상을 분류함에 있어 배치 정규화 방법이 추가된 CNN을 이용하여 영상 분류의 정확도를 높이는 방법을 제시하였다. 본 논문에서는 영상 분류를 더 정확하게 수행하기 위해 기존의 뉴럴 네트워크에 배치 정규화 계층 (layer)를 추가하는 방법을 제안한다. 배치 정규화는 각 계층에 존재하는 편향을 줄이기 위해 고안된 방법으로, 각 배치의 평균과 분산을 계산하여 이동시키는 방법이다. 본 논문에서 제시된 방법의 우수성을 입증하기 위하여 SHREC13, MNIST, SVHN, CIFAR-10, CIFAR-100의 5개 영상 데이터 집합을 이용하여 영상분류 실험을 하여 정확도와 mAP를 측정한다. 실험 결과 일반적인 CNN 보다 배치 정규화가 추가된 CNN이 영상 분류 시 보다 높은 분류 정확도와 mAP를 보임을 확인 할 수 있었다.

참조용어(Reference Terminology) 모델 확장을 위한 한의학용어 정형화(Normalization) 연구 (A study of Traditional Korean Medicine(TKM) term's Normalization for Enlarged Reference terminology model)

  • 전병욱;홍성천
    • 대한한의정보학회지
    • /
    • 제15권2호
    • /
    • pp.1-6
    • /
    • 2009
  • The discipline of terminology is based on its own theoretical principles and consists primarily of the following aspects: analysing the concepts and concept structures used in a field or domain of activity, identifying the terms assigned to the concepts, in the case of bilingual or multilingual terminology, establishing correspondences between terms in the various languages, creating new terms, as required. The word properties has syntax, morphology and orthography. The syntax is that how words are put together. The morphology is consist of inflection, derivation, and compounding. The orthography is spelling. Otherwise, the terms of TKM(Traditional Korean Medicine) is two important element of visual character and phonetic notation. A visual character consist of spell, sort words, stop words, etc. For example, that is a case of sort words in which this '다한', '한다', '多汗', '汗多' as same. A phonetic notation consist of palatalization, initial law, etc. For example, that is a case of palatalization in which this '수족랭', '수족냉', '手足冷', '手足冷' as same. Therefore, to enlarged reference terminology is a method by term's normalization. For such a reason, TKM's terms of normalization is necessary.

  • PDF

Comparison of Normalizations for cDNA Microarray Data

  • 김윤희;김호;박웅양;서진영;정진호
    • 한국통계학회:학술대회논문집
    • /
    • 한국통계학회 2002년도 춘계 학술발표회 논문집
    • /
    • pp.175-181
    • /
    • 2002
  • cDNA microarray experiments permit us to investigate the expression levels of thousands of genes simultaneously and to make it easy to compare gene expression from different populations. However, researchers are asked to be cautious in interpreting the results because of the unexpected sources of variation such as systematic errors from the microarrayer and the difference of cDNA dye intensity. And the scanner itself calculates both of mean and median of the signal and background pixels, so it follows a selection which raw data will be used in analysis. In this paper, we compare the results in each case of using mean and median from the raw data and normalization methods in reducing the systematic errors with arm's skin cells of old and young males. Using median is preferable to mean because the distribution of the test statistic (t-statistic) from the median is more close to normal distribution than that from mean. Scaled print tip normalization is better than global or lowess normalization due to the distribution of the test-statistic.

  • PDF

정규화 및 통합 방법이 순위의 변동성과 순위 역전에 미치는 영향 (Effects of Normalization and Aggregation Methods on the Volatility of Rankings and Rank Reversals)

  • 박영선
    • 품질경영학회지
    • /
    • 제41권4호
    • /
    • pp.709-724
    • /
    • 2013
  • Purpose: The purpose of this study is to examine five evaluation models constructed by different normalization and aggregation methods in terms of the volatility of rankings and rank reversals. We also explore how the volatility of rankings of the five models changes and how often the rank reversals occur when the outliers are removed. Methods: We used data published in the Complete University Guide 2014. Two universities with missing values were excluded from the data. The university rankings were derived by using the five models, and then each model's volatility of rankings was measured. The box-plot was used to detect outliers. Results: Model 1 has the lowest volatility among the five models whether or not the outliers are included. Model 5 has the lowest number of rank reversals. Model 3, which has been used by many institutions, appears to be in the middle among the five in terms of the volatility and the rank reversals. Conclusion: The university rankings vary from one evaluation model to another depending on what normalization and aggregation methods are used. No single model exhibits clear superiority over others in both the volatility and the rank reversal. The findings of this study are expected to provide a stepping stone toward a superior model which is both reliable and robust.

저전력 및 면적 효율적인 터보 복호기를 위한 정규화 유닛 설계 (Design of the Normalization Unit for a Low-Power and Area-Efficient Turbo Decoders)

  • 문제우;김식;황선영
    • 한국통신학회논문지
    • /
    • 제28권11C호
    • /
    • pp.1052-1061
    • /
    • 2003
  • 본 논문은 블록 MAP 터보 복호기의 상태 메트릭 계산 유닛을 위한 정규화 방식을 제안한다. 제안된 방식은 정규화를 위해 격자단(trellis stage)에서 하나의 상태 메트릭 값을 모든 상태 메트릭에 빼주고 쉬프트 시키는 구조를 갖게 되어, 상태 메트릭 계산이 많은 블록 MAP 복호기의 격자단에서 하나의 상태 메트릭을 줄여 파워 소모와 메모리 요구량을 줄일 수 있다. 시뮬레이션 결과 제안된 정규화 구조를 적용한 터보 복호기는 기존의 블록 MAP 터보 복호기에 비해 동적 파워 소모는 17.9%까지 감소하고 면적은 6.6%까지 감소함을 확인하였다.

마이크로어레이 자료의 사전 처리 순서에 따른 검색의 일치도 분석 (A Concordance Study of the Preprocessing Orders in Microarray Data)

  • 김상철;이재휘;김병수
    • 응용통계연구
    • /
    • 제22권3호
    • /
    • pp.585-594
    • /
    • 2009
  • 마이크로어레이 실험의 실험자들은 원 측정치인 영상을 조사하여 통계적 분석이 가능한 자료의 형태로 변환하는데 이러한 과정을 흔히 사전 처리라고 부른다. 마이크로어레이의 사전 처리는 불량 영상의 제거(filtering), 결측치의 대치와 표준화로 세분되어질 수 있다. 표준화 방법과 결측치 대치 방법 각각에 대하여서는 많은 연구가 보고되었으나, 사전 처리를 구성하는 원소들간의 적정한 순서에 대하여서는 연구가 미흡하다. 표준화 방법과 결측치 대치 방법 중 어느 것이 먼저 실시되어야 하는지에 대하여서 아직 알려진 바가 없다. 본 연구는 사전 처리 순서에 대한 탐색적 시도로서 대장암과 위암을 대상으로 실시한 두 조의 cDNA 마이크로어레이 실험 자료를 이용하여 사전 처리를 구성하는 원소들간의 다양한 순서에 따라 검색된 특이 발현 유전자 군이 어떻게 변화하는지를 분석하고 있다. 즉, 결측치대치와 표준화의 여러가지 방법들의 조합에 따라 검색된 특이 발현 유전자 군이 얼마나 일치적인가를 확인하고자 한다. 결측치 대치 방법으로는 K 최근접 이웃 방법과 베이지안 주성분 분석을 고려하였고, 표준화 방법으로는 전체 표준화, 블럭별 국소(within-print tip group) 평활 표준화 그리고 분산 안정화를 유도하는 표준화 방법을 적용하였다. 따라서 사전 처리를 구성하는 두개 원소가 각각 2개 수준과 3개 수준을 가지고 있고, 두개 원소의 순열에 따른 모든 가능한 사전 처리 개수 수는 12개가 된다. 본 연구에서는 12개 사전 처리 방법 각각에 따라 정상 조직과 암 조직간 특이적으로 발현하는 유전자 군을 검색하였고, 사전 처리 순서를 바꾸었을때 유전자 군이 얼마나 일치적으로 유지되는지를 파악하고 있다. 표준화 방법으로 분산 안정화 표준화를 사용할 경우는 사전 처리 순서에 따라 특이 발현 유전자 군이 다소 민감하게 변하는 것을 보이고 있다.

자동 PIF 추출을 통한 Hyperion 초분광영상의 상대 방사정규화 - 변화탐지를 목적으로 (Relative Radiometric Normalization of Hyperion Hyperspectral Images Through Automatic Extraction of Pseudo-Invariant Features for Change Detection)

  • 김대성;김용일
    • 한국측량학회지
    • /
    • 제26권2호
    • /
    • pp.129-137
    • /
    • 2008
  • 지상의 정보를 주기적으로 취득하는 위성영상은 여러 가지 원인으로 인해 동일 지점에 대해 일정한 화소값을 기대하기 어렵고, 이런 영상은 변화탐지 결과에 영향을 미칠 가능성이 높으므로 방사보정을 통해 화소값 차이를 최소화시킬 필요가 있다. 본 연구는 변화탐지를 위한 전처리 과정 중 하나인 방사정규화에 초점을 맞추고 있다. 이를 위해 시간적 불변특성을 보이는 화소인 PIF를 추출하고, 선형회귀 기법을 이용하여 상대 방사정규화를 수행하였다. 화소간 유사도 측정 기법인 분광각을 통해 PIF를 자동으로 추출함으로써, 초분광영상이 가지는 많은 밴드의 장점을 활용하였다 또한 반복적인 정량 평가를 통해 적절한 PIF 개수를 결정하는 연구도 함께 수행하였다. 영상회귀, 히스토그램 매칭, FLAASH 기법을 적용한 방사보정 결과와 비교하여 제안된 알고리즘의 성능을 평가하였으며, PIF 추출을 통한 선형회귀 기법이 변화탐지를 위한 방사보정에 보다 효과적으로 적용될 수 있음을 확인하였다.

항만효율성 측정 자료의 정규성과 변환 불변성 검증 소고 : DEA접근 (A Brief Verification Study on the Normalization and Translation Invariant of Measurement Data for Seaport Efficiency : DEA Approach)

  • 박노경;박길영
    • 한국항만경제학회지
    • /
    • 제23권2호
    • /
    • pp.109-120
    • /
    • 2007
  • 본 논문에서는 항만효율성 측정 시 문제가 되었던 두 가지 문제점(첫째, 각기 상이한 기본단위를 갖는 투입변수와 산출변수의 정규화문제, 둘째, DEA분석의 기본가정인 비음수조건에 벗어난 자료, 즉, 음수를 갖는 투입-산출자료의 변환불변성)를 해결하기 위해서 국내 26개항만의 자료를 이용하여 실증분석을 한 후에 검증을 함으로써 항만효율성 측정방법을 부분적으로 확장시켰다. 본 논문의 실증분석의 핵심적인 결과는 다음과 같다. 첫째, 항만효율성 측정 시 사용되는 자료의 정규성과 변환불변성은 실증분석 결과 분명하게 있는 것으로 검증되었다. 둘째, 항만효율성 측정 시 사용되는 자료가 마이너스(-)인 경우에 가장 큰 음수보다 더 큰 양수를 더해 주는 이른바 자료의 변환을 검증하는 변환불변성은 투입지향-산출지향 BCC 모형에서 확인되었다. 위와 같은 실증분석 결과는 다음과 같은 정책적인 함의를 갖고 있다. 즉, 효율성 측정시 사용되는 자료의 정규성과 변환불변성이 실증적으로 검증되었으므로, 국내 항만의 정책입안가들은 항만효율성 측정 시 이용되는 자료의 정규성과 변환불변성과 같은 사항을 고려하여 보다 세부적인 항만통계자료를 수집 정리 공표하는 것이 매우 필요하다. 예를 들면 항만사고와 같은 통계도 해역별이 아닌 항만별로 세부적으로 통계를 발행하도록 관련된 정책적인 지원이 필요하다.

  • PDF

Semi-supervised Software Defect Prediction Model Based on Tri-training

  • Meng, Fanqi;Cheng, Wenying;Wang, Jingdong
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제15권11호
    • /
    • pp.4028-4042
    • /
    • 2021
  • Aiming at the problem of software defect prediction difficulty caused by insufficient software defect marker samples and unbalanced classification, a semi-supervised software defect prediction model based on a tri-training algorithm was proposed by combining feature normalization, over-sampling technology, and a Tri-training algorithm. First, the feature normalization method is used to smooth the feature data to eliminate the influence of too large or too small feature values on the model's classification performance. Secondly, the oversampling method is used to expand and sample the data, which solves the unbalanced classification of labelled samples. Finally, the Tri-training algorithm performs machine learning on the training samples and establishes a defect prediction model. The novelty of this model is that it can effectively combine feature normalization, oversampling techniques, and the Tri-training algorithm to solve both the under-labelled sample and class imbalance problems. Simulation experiments using the NASA software defect prediction dataset show that the proposed method outperforms four existing supervised and semi-supervised learning in terms of Precision, Recall, and F-Measure values.