• 제목/요약/키워드: Kernel parameter

검색결과 119건 처리시간 0.024초

3차 회선 보간법에 적응적 매개변수를 적용한 영상 보간 (An Image Interpolation by Adaptive Parametric Cubic Convolution)

  • 유재욱;박대현;김윤
    • 한국컴퓨터정보학회논문지
    • /
    • 제13권6호
    • /
    • pp.163-171
    • /
    • 2008
  • 본 논문에서는 고화질, 고해상도로 영상을 확대하기 위한 적응적인 매개변수가 적용된 3차 회선 보간법을 제안한다. 제안하는 보간법에서는 영상이 가지는 주파수 특성을 반영한 보간을 수행하기 위해 1단계 보간 과정에서 새롭게 정의한 비용함수를 이용하여 3차 회선 보간법의 매개변수를 적응적으로 구하고, 2단계 보간 과정에서는 1단계에서 구한 적응적인 매개변수를 적용하여 3차 회선 보간법을 수행한다. 영상의 주파수 특성이 고려된 적응적인 매개변수의 사용은 보간 커널의 성능을 향상시켜 동일한 매개변수를 사용하는 이전의 3차 회선 보간법보다 결과 영상의 화질이 우수하다. 컴퓨터 실험 결과를 통해 제안하는 보간법이 이전의 보간법들보다 PSNR이 약 $0.5{\sim}4dB$ 높아 객관적인 성능에서 나은 결과를 나타냈으며, 결과 영상의 확대를 통한 비교에서 영상이 부드럽고 에지가 선명하게 나타남으로 주관적 화질이 우수함을 보였다.

  • PDF

표면 파라미터 계산시 모델링 인자에 따른 조정계산 추정 성능의 사전 비교분석 (A-priori Comparative Assessment of the Performance of Adjustment Models for Estimation of the Surface Parameters against Modeling Factors)

  • 서수영
    • Spatial Information Research
    • /
    • 제19권2호
    • /
    • pp.29-36
    • /
    • 2011
  • 본 연구는 표면 파라미터 추정시 고려하는 주요 인자별로 각 조정모델들을 분류하고 그들의 추정정확도를 사전분석함으로써 이들 모델링 인자들이 각 대상파라미터의 추정에 주는 영향을 정량적으로 분석하였다. 현재 지표면형상에 대한 정보를 취득하기 위하여 라이다영상, 항공영상, SAR영상 등 다양한 자료가 활용되고 있고, 이들로부터 지표면 형상을 정량적으로 분석하기 위해서는 임의지점 주위의 관측값들을 이용하여 해당 지점의 형상을 구체적으로 파악하게 된다. 이러한 형상정보는 관측값 범위지정, 가중치방식, 그리고 수학적모델링 등 여러 인자들을 선정하여 산정할 수 있지만, 각 선정인자에 따라 표면의 형상정보는 다르게 산정되고 또한 그 정확도도 상이하게 된다. 따라서, 본 연구에서는 표면의 형상정보추출시 조정계산 인자들 따른 이러한 정확도를 비교함으로써 인자별 추정 정확도 변화 경향에 대한 진단을 실시하였다. 본 연구에서는 표면형상정보로 표고, 경사, 곡면의 2차계수를 대상으로 하고, 수학적함수, 커널크기, 가중유형별로 조정계산모델들을 구성하여 사전통계량을 계산하였고, 이에 따라 전통계량 변화를 비교 분석함으로써, 각 조정모델의 추정성능을 조정계산인자에 따라 정량적으로 비교분석하였다.

Lightweight Attention-Guided Network with Frequency Domain Reconstruction for High Dynamic Range Image Fusion

  • 박재현;이근택;조남익
    • 한국방송∙미디어공학회:학술대회논문집
    • /
    • 한국방송∙미디어공학회 2022년도 하계학술대회
    • /
    • pp.205-208
    • /
    • 2022
  • Multi-exposure high dynamic range (HDR) image reconstruction, the task of reconstructing an HDR image from multiple low dynamic range (LDR) images in a dynamic scene, often produces ghosting artifacts caused by camera motion and moving objects and also cannot deal with washed-out regions due to over or under-exposures. While there has been many deep-learning-based methods with motion estimation to alleviate these problems, they still have limitations for severely moving scenes. They also require large parameter counts, especially in the case of state-of-the-art methods that employ attention modules. To address these issues, we propose a frequency domain approach based on the idea that the transform domain coefficients inherently involve the global information from whole image pixels to cope with large motions. Specifically we adopt Residual Fast Fourier Transform (RFFT) blocks, which allows for global interactions of pixels. Moreover, we also employ Depthwise Overparametrized convolution (DO-conv) blocks, a convolution in which each input channel is convolved with its own 2D kernel, for faster convergence and performance gains. We call this LFFNet (Lightweight Frequency Fusion Network), and experiments on the benchmarks show reduced ghosting artifacts and improved performance up to 0.6dB tonemapped PSNR compared to recent state-of-the-art methods. Our architecture also requires fewer parameters and converges faster in training.

  • PDF

다분류 SVM을 이용한 DEA기반 벤처기업 효율성등급 예측모형 (The Prediction of DEA based Efficiency Rating for Venture Business Using Multi-class SVM)

  • 박지영;홍태호
    • Asia pacific journal of information systems
    • /
    • 제19권2호
    • /
    • pp.139-155
    • /
    • 2009
  • For the last few decades, many studies have tried to explore and unveil venture companies' success factors and unique features in order to identify the sources of such companies' competitive advantages over their rivals. Such venture companies have shown tendency to give high returns for investors generally making the best use of information technology. For this reason, many venture companies are keen on attracting avid investors' attention. Investors generally make their investment decisions by carefully examining the evaluation criteria of the alternatives. To them, credit rating information provided by international rating agencies, such as Standard and Poor's, Moody's and Fitch is crucial source as to such pivotal concerns as companies stability, growth, and risk status. But these types of information are generated only for the companies issuing corporate bonds, not venture companies. Therefore, this study proposes a method for evaluating venture businesses by presenting our recent empirical results using financial data of Korean venture companies listed on KOSDAQ in Korea exchange. In addition, this paper used multi-class SVM for the prediction of DEA-based efficiency rating for venture businesses, which was derived from our proposed method. Our approach sheds light on ways to locate efficient companies generating high level of profits. Above all, in determining effective ways to evaluate a venture firm's efficiency, it is important to understand the major contributing factors of such efficiency. Therefore, this paper is constructed on the basis of following two ideas to classify which companies are more efficient venture companies: i) making DEA based multi-class rating for sample companies and ii) developing multi-class SVM-based efficiency prediction model for classifying all companies. First, the Data Envelopment Analysis(DEA) is a non-parametric multiple input-output efficiency technique that measures the relative efficiency of decision making units(DMUs) using a linear programming based model. It is non-parametric because it requires no assumption on the shape or parameters of the underlying production function. DEA has been already widely applied for evaluating the relative efficiency of DMUs. Recently, a number of DEA based studies have evaluated the efficiency of various types of companies, such as internet companies and venture companies. It has been also applied to corporate credit ratings. In this study we utilized DEA for sorting venture companies by efficiency based ratings. The Support Vector Machine(SVM), on the other hand, is a popular technique for solving data classification problems. In this paper, we employed SVM to classify the efficiency ratings in IT venture companies according to the results of DEA. The SVM method was first developed by Vapnik (1995). As one of many machine learning techniques, SVM is based on a statistical theory. Thus far, the method has shown good performances especially in generalizing capacity in classification tasks, resulting in numerous applications in many areas of business, SVM is basically the algorithm that finds the maximum margin hyperplane, which is the maximum separation between classes. According to this method, support vectors are the closest to the maximum margin hyperplane. If it is impossible to classify, we can use the kernel function. In the case of nonlinear class boundaries, we can transform the inputs into a high-dimensional feature space, This is the original input space and is mapped into a high-dimensional dot-product space. Many studies applied SVM to the prediction of bankruptcy, the forecast a financial time series, and the problem of estimating credit rating, In this study we employed SVM for developing data mining-based efficiency prediction model. We used the Gaussian radial function as a kernel function of SVM. In multi-class SVM, we adopted one-against-one approach between binary classification method and two all-together methods, proposed by Weston and Watkins(1999) and Crammer and Singer(2000), respectively. In this research, we used corporate information of 154 companies listed on KOSDAQ market in Korea exchange. We obtained companies' financial information of 2005 from the KIS(Korea Information Service, Inc.). Using this data, we made multi-class rating with DEA efficiency and built multi-class prediction model based data mining. Among three manners of multi-classification, the hit ratio of the Weston and Watkins method is the best in the test data set. In multi classification problems as efficiency ratings of venture business, it is very useful for investors to know the class with errors, one class difference, when it is difficult to find out the accurate class in the actual market. So we presented accuracy results within 1-class errors, and the Weston and Watkins method showed 85.7% accuracy in our test samples. We conclude that the DEA based multi-class approach in venture business generates more information than the binary classification problem, notwithstanding its efficiency level. We believe this model can help investors in decision making as it provides a reliably tool to evaluate venture companies in the financial domain. For the future research, we perceive the need to enhance such areas as the variable selection process, the parameter selection of kernel function, the generalization, and the sample size of multi-class.

Swash대역에서의 해빈표사 부유거동에 관한 연구 (Suspension of Sediment over Swash Zone)

  • 조용준;김권수;유하상
    • 대한토목학회논문집
    • /
    • 제28권1B호
    • /
    • pp.95-109
    • /
    • 2008
  • 본 연구에서는 LDS 난류응력 모형, Van Rijn의 pick up 함수를 활용하여 일정 경사부에서의 파랑의 이행과 천수, 연이은 쇄파현상, plunging breaker에 후행하는 해저질의 역동적인 부유와 down rush와 후행 파랑에 의한 표사의 재분배를 수치모의 하였다. 이 과정에서 해저질과 소통하는 저면 유체력에 대한 quadratic law를 중심으로 한 기존의 연구 성과들은 정상상태에 기초하여 급속히 가속되고 감속되는 swash 대역의 수리특성을 반영할 수 없다는 결론에 도달하고 이러한 인식에 기초하여 새로운 산출방법이 제시되었다. 새로운 산출방법을 토대로 수치모의하여 비선형 천수과정의 일반적인 특징, 동조 비동조 고차 조화성분으로 전이된 파랑에너지로 인해 상당히 예리하고 왜도된 파형, 파형의 마루로부터 시작되는 물입자 자유낙하, 착수로 인한 커다란 물보라의 형성, 물보라 형성층의 해변으로의 이행, wave finger (Narayanaswamy와 Dalrymple, 2002), swash 대역에서 진행되는 부유사 순환과정, swash 대역에서 처오름으로 인해 부유된 부유사 무리의 off shore 방향으로의 순 이동 등이 비교적 정확히 재현되는 등 상당히 고무적인 결과를 얻을 수 있었다. 이러한 결과는 기존의 Euler 좌표계에서 정의되는 파랑모형과 이동경계 기법의 한계를 뛰어 넘는 것으로 향후 보다 정확한 침식해석이 가능 할 것으로 판단된다.

독립성분분석을 이용한 다변량 시계열 모의 (Multivariate Time Series Simulation With Component Analysis)

  • 이태삼;호세살라스;주하카바넨;노재경
    • 한국수자원학회:학술대회논문집
    • /
    • 한국수자원학회 2008년도 학술발표회 논문집
    • /
    • pp.694-698
    • /
    • 2008
  • In hydrology, it is a difficult task to deal with multivariate time series such as modeling streamflows of an entire complex river system. Normal distribution based model such as MARMA (Multivariate Autorgressive Moving average) has been a major approach for modeling the multivariate time series. There are some limitations for the normal based models. One of them might be the unfavorable data-transformation forcing that the data follow the normal distribution. Furthermore, the high dimension multivariate model requires the very large parameter matrix. As an alternative, one might be decomposing the multivariate data into independent components and modeling it individually. In 1985, Lins used Principal Component Analysis (PCA). The five scores, the decomposed data from the original data, were taken and were formulated individually. The one of the five scores were modeled with AR-2 while the others are modeled with AR-1 model. From the time series analysis using the scores of the five components, he noted "principal component time series might provide a relatively simple and meaningful alternative to conventional large MARMA models". This study is inspired from the researcher's quote to develop a multivariate simulation model. The multivariate simulation model is suggested here using Principal Component Analysis (PCA) and Independent Component Analysis (ICA). Three modeling step is applied for simulation. (1) PCA is used to decompose the correlated multivariate data into the uncorrelated data while ICA decomposes the data into independent components. Here, the autocorrelation structure of the decomposed data is still dominant, which is inherited from the data of the original domain. (2) Each component is resampled by block bootstrapping or K-nearest neighbor. (3) The resampled components bring back to original domain. From using the suggested approach one might expect that a) the simulated data are different with the historical data, b) no data transformation is required (in case of ICA), c) a complex system can be decomposed into independent component and modeled individually. The model with PCA and ICA are compared with the various statistics such as the basic statistics (mean, standard deviation, skewness, autocorrelation), and reservoir-related statistics, kernel density estimate.

  • PDF

원격탐사 자료 기반 지형공간 특성분석을 위한 텍스처 영상 비교와 템플레이트 정합의 적용 (Comparison of Texture Images and Application of Template Matching for Geo-spatial Feature Analysis Based on Remote Sensing Data)

  • 류희영;전소희;이기원;권병두
    • 한국지구과학회지
    • /
    • 제26권7호
    • /
    • pp.683-690
    • /
    • 2005
  • 공간 해상도 1m 이하의 고해상도 원격 탐사 영상의 민간 활용이 활발해 짐에 따라, 이를 위한 전문 분야 별 영상 분석 방법의 개발 요구가 증가하고 있다. 다양한 영상분석 기법 중에, 주변 화소들간의 공간 분포 관계에 의해 특성이 결정되는 텍스처 영상의 분석은 이러한 목적을 위한 유용한 영상 분석 방법 중 하나이다. 이 연구에서는 원시 영상으로부터 GLCM 알고리즘에 의해 생성된 텍스처 영상에 대해서 방향 인자, 마스킹 커널의 크기, 변수의 종류에 따른 결과를 비교, 분석한 뒤 각각의 결과 영상의 지형공간 특성 분석의 적용성에 대하여 알아보았다. 또한 원시 영상과 텍스처 영상에서 특성 정보를 포함하는 템플레이트를 설정하고 이를 기준으로 반복적인 패턴을 자동으로 검색하는 템플레이트 정합 프로그램을 구현하여 이를 원시 영상과 텍스처 영상에 적용하였고, 처리 결과에 기초하여 향후 적용 가능성을 검토하였다. 이 연구의 결과는 일정한 패턴으로 나타나는 지구과학적인 지형 특성이나 고해상도 위성영상 정보를 이용한 인공 지형지물의 파악 및 분석에 효과적으로 적용될 수 있을 것으로 예상된다.

저온(低溫)의 정도(程度)와 기간(期間)이 수도(水稻)의 영화퇴화(穎花退化)와 불임(不稔)에 미치는 영향(影響) (Effect of The Degree and Duration of Low Temperature on the Degeneration and Sterility of Spikelets in Rice)

  • 안수봉
    • 농업과학연구
    • /
    • 제7권1호
    • /
    • pp.1-5
    • /
    • 1980
  • 수도(水稻) 신품종(新品種)들의 내냉성(耐冷性) 판별(判別)과 냉해대책(冷害對策)을 위하여 생식생장기(生殖生長期)에 있어서 저온(低溫)의 정도(程度)와 기간(期間)이 임실(稔實)과 등숙(登熟)에 미치는 영향(影響)을 검토(檢討)하여 다음과 같은 결과(結果)를 얻었다. 1. 수도(水稻) 감수분열기(減數分裂期)에 있어서 저온(低溫)의 정도(程度)가 크고 기간(期間)이 길어 질수록 출수(出穗)가 지연(遲延)되고 불임(不稔)이 증가(增加)하였으며 저온(低溫)에 의(依)한 감수(減收)는 주(主)로 불임증가(不稔增加)에 기인(基因)하였으나 $15^{\circ}C$의 저온(低溫)에서는 출수(出穗) 지연(遲延)도 관여(關與)하는 것으로 보였다. 2. $15^{\circ}C$ 6일간(日間) 처리(處理)에서는 불임(不稔)과 발육정지립(發育停止粒)이 다 같이 증가(增加)하고 완전(完全) 발숙립(發熟粒)은 거의 없었다. 3. 신품종(新品種)들은 기존(旣存) 품종(品種)보다 생식생장기(生殖生長期) 냉해(冷害)가 현저(顯著)하였고 내냉성(耐冷性) 검정(檢定)의 parameter로서는 감수분열기(減數分裂期)의 $15^{\circ}C$ 4일간(日間) 처리(處理)가 적당(適當)한 것으로 보였다.

  • PDF

GLCM/GLDV 기반 Texture 알고리즘 구현과 고 해상도 영상분석 적용 (Implementation of GLCM/GLDV-based Texture Algorithm and Its Application to High Resolution Imagery Analysis)

  • 이기원;전소희;권병두
    • 대한원격탐사학회지
    • /
    • 제21권2호
    • /
    • pp.121-133
    • /
    • 2005
  • 화소들 사이의 관계를 고려해 Texture 영상을 생성해 내는 것을 의미하는 Texture 영상화는 유용한 영상 분석 방법 중의 하나로 잘 알려져 있고, 대부분의 상업적인 원격 탐사 소프트웨어들은 GLCM이라는 Texture 분석 기능을 제공하고 있다. 본 연구에서는, GLCM 알고리즘에 기반한 Texture 영상화 프로그램이 구현되었고, 추가적으로 GLDV에 기반을 둔 Texture 영상화 모듈 프로그램을 제공한다. 본 프로그램에서는 Homogeneity, Dissimilarity, Energy, Entropy, Angular Second Moment(ASM), Contrast 등과 같은 GLCN/GLDV의 6가지 Texture 변수에 따라 각각 이에 해당하는 Texture 영상들을 생성해 낸다. GLCM/GLDV Texture 영상 생성에서는 방향 의존성을 고려해야 하는데, 이 프로그램에서는 기본적으로 동-서, 북동-남서, 북-남, 북서-남동 등의 기본적인 방향설정을 제공한다. 또한 이 논문에서 새롭게 구현된 커널내의 모든 방향을 고려해서 평균값을 계산하는 Omni 방향 모드와 커널내의 중심 화소를 정하고_그 주변 화소에 대한 원형 방향을 고려하는 원형방향 모드를 지원한다. 또한 본 연구에서는 여러 가지 변수와 모드에 따라 얻어진 Texture 영상의 분석을 위하여 가상 영상 및 실제 위성 영상들에 의하여 생성된 Texture 영상간의 특징 분석과 상호상관 분석을 수행하였다. Texture 영상합성 응용시에는 영상의 생성시에 적용된 변수들에 대한 이해와 영상간의 상관도를 분석하는 과정이 필요할 것으로 생각된다.