• 제목/요약/키워드: size metrics

검색결과 106건 처리시간 0.027초

생성적 적대 신경망을 이용한 함정전투체계 획득 영상의 초고해상도 영상 복원 연구 (A Study on Super Resolution Image Reconstruction for Acquired Images from Naval Combat System using Generative Adversarial Networks)

  • 김동영
    • 디지털콘텐츠학회 논문지
    • /
    • 제19권6호
    • /
    • pp.1197-1205
    • /
    • 2018
  • 본 논문에서는 함정전투체계의 EOTS나 IRST에서 획득한 영상을 초고해상도 영상으로 복원한다. 저해상도에서 초고해상도의 영상을 생성하는 생성 모델과 이를 판별하는 판별 모델로 구성된 생성적 적대 신경망을 이용하고, 다양한 학습 파라미터의 변화를 통한 최적의 값을 제안한다. 실험에 사용되는 학습 파라미터는 crop size와 sub-pixel layer depth, 학습 이미지 종류로 구성되며, 평가는 일반적인 영상 품질 평가 지표에 추가적으로 특징점 추출 알고리즘을 함께 사용하였다. 그 결과, Crop size가 클수록, Sub-pixel layer depth가 깊을수록, 고해상도의 학습이미지를 사용할수록 더 좋은 품질의 영상을 생성한다.

Dynamic Prime Chunking Algorithm for Data Deduplication in Cloud Storage

  • Ellappan, Manogar;Abirami, S
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제15권4호
    • /
    • pp.1342-1359
    • /
    • 2021
  • The data deduplication technique identifies the duplicates and minimizes the redundant storage data in the backup server. The chunk level deduplication plays a significant role in detecting the appropriate chunk boundaries, which solves the challenges such as minimum throughput and maximum chunk size variance in the data stream. To provide the solution, we propose a new chunking algorithm called Dynamic Prime Chunking (DPC). The main goal of DPC is to dynamically change the window size within the prime value based on the minimum and maximum chunk size. According to the result, DPC provides high throughput and avoid significant chunk variance in the deduplication system. The implementation and experimental evaluation have been performed on the multimedia and operating system datasets. DPC has been compared with existing algorithms such as Rabin, TTTD, MAXP, and AE. Chunk Count, Chunking time, throughput, processing time, Bytes Saved per Second (BSPS) and Deduplication Elimination Ratio (DER) are the performance metrics analyzed in our work. Based on the analysis of the results, it is found that throughput and BSPS have improved. Firstly, DPC quantitatively improves throughput performance by more than 21% than AE. Secondly, BSPS increases a maximum of 11% than the existing AE algorithm. Due to the above reason, our algorithm minimizes the total processing time and achieves higher deduplication efficiency compared with the existing Content Defined Chunking (CDC) algorithms.

The Relationship Between Capital Structure and Firm Performance: New Evidence from Pakistan

  • ISLAM, Zia ul;IQBAL, Muhammad Mazhar
    • The Journal of Asian Finance, Economics and Business
    • /
    • 제9권2호
    • /
    • pp.81-92
    • /
    • 2022
  • The necessity for a theoretical explanation of the negative association between capital structure and company performance is identified in this study. By focusing on accounting metrics of business performance, this study is the first to investigate the moderating effects of firm size between these variables using logical reasoning. Due to the possibility of endogeneity, this study applies a two-step system GMM approach with data from 285 non-financial enterprises from PSX over a 21-year period. For robustness, we employed pooled OLS, fixed effect, and two-step difference GMM. Our data show that leverage has a detrimental impact on business performance, with size acting as a moderator in the same direction. Our analysis empirically supports some studies while refuting others due to inconsistent results in the literature, but no study has theoretically justified their negative link. We believe that because larger companies have more and easier access to capital markets, they focus primarily on the amount of return, even if the investment is inefficient in terms of the rate of return, but small businesses do not. As a result of this thinking, firm managers' performance suffers as a result of leverage.

개발과 유지보수 프로젝트의 이상적인 팀 규모 (An Ideal Team Size in Development and Maintenance Project)

  • 이상운;박중양;박재흥
    • 정보처리학회논문지D
    • /
    • 제10D권1호
    • /
    • pp.77-84
    • /
    • 2003
  • 팀의 규모에 관한 연구 결과 전문가들은 일반적으로 업무를 수행하는데 규모가 작은 팀이 큰 팀 보다 좋다는데 동의하고 있다. 또한, 항상 최소한의 실질적인 팀 규모를 구성하는데 목표로 하고 있다. 그러나 "작은"이 얼마를 의미하는지가 문제가 된다. 본 논문에서는 프로젝트 인도율과 인도속도와 같은 생산성 측도를 도입하여 이상적인 팀 규모를 결정하였다 300개 프로젝트를 대상으로 데이터 집합을 2개의 서브 그룹인 개발 프로젝트와 유지보수 프로젝트로 분류하였다. 실험결과 가장 성공적인 프로젝트는 최대 5명으로 수행하는 경우였으나, 본 논문은 실제 개발 된 프로젝트들을 대상으로 생산성-기반 이론을 접목시켜 이상적인 팀 규모를 판단하는 지침을 제공한다. 지침을 제공한다.

소프트웨어 품질평가 도구(ESCORT)의 설계 및 구현 (Development of Software Quality Assessment Tool)

  • 양해술;권기현;이하용;조영식;이용근;박정호;허태경
    • 한국정보처리학회논문지
    • /
    • 제2권2호
    • /
    • pp.185-198
    • /
    • 1995
  • 본 연구는 소프테워어의 품질을 평가하기 위한 소프트웨어 품질평가 도구의 개발 에 관한 것으로 소프트웨어 품질을 평가하기 위한 체계를 구축하고 소프트웨어 품질 평가 활동을 지원하는 소프트웨어 품질평가도구를 개발하는 것을 목적으로 한다. 소 프트웨어 품질평가 체계는 GQM(Goal-Question-Metrics) 방법론에 의거하여 프로그램의 기능성, 유지보수성, 복잡성 및 객체지향성에 대한 부분을 포함하는 체계로 구성한다. 또한 소프트웨어 품질평가 도구는 개발자, 구매자 및 이용자간의 주관적인 요소를 배 제한 형태로 자동화된 평가를 행하는 것으로 소프트웨어 분석 시스템과 분석 과정을 일관성있게 지원하는 사용자 인터페이스에 대한 부분으로 구분된다. 본 논문의 목적은 소프트웨어 품질을 소프트웨어 개발 중이나 개발 완료후에 평가하여 소프트웨어 개발 비용과 유지보수 비용을 감소함으로써 소프트웨어의 생산성을 향상시키는 것이다.

  • PDF

Lightweight Multicast Routing Based on Stable Core for MANETs

  • Al-Hemyari, Abdulmalek;Ismail, Mahamod;Hassan, Rosilah;Saeed, Sabri
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제8권12호
    • /
    • pp.4411-4431
    • /
    • 2014
  • Mobile ad hoc networks (MANETs) have recently gained increased interest due to the widespread use of smart mobile devices. Group communication applications, serving for better cooperation between subsets of business members, become more significant in the context of MANETs. Multicast routing mechanisms are very useful communication techniques for such group-oriented applications. This paper deals with multicast routing problems in terms of stability and scalability, using the concept of stable core. We propose LMRSC (Lightweight Multicast Routing Based on Stable Core), a lightweight multicast routing technique for MANETs, in order to avoid periodic flooding of the source messages throughout the network, and to increase the duration of multicast routes. LMRSC establishes and maintains mesh architecture for each multicast group member by dividing the network into several zones, where each zone elects the most stable node as its core. Node residual energy and node velocity are used to calculate the node stability factor. The proposed algorithm is simulated by using NS-2 simulation, and is compared with other multicast routing mechanisms: ODMRP and PUMA. Packet delivery ratio, multicast route lifetime, and control packet overhead are used as performance metrics. These metrics are measured by gradual increase of the node mobility, the number of sources, the group size and the number of groups. The simulation performance results indicate that the proposed algorithm outperforms other mechanisms in terms of routes stability and network density.

High Throughput 프로세스에서 품질혁신의 성능평가를 위한 Z-Factor의 적용방안 (Implementation of Z-Factor Statistics for Performance Evaluation of Quality Innovation in the High Throughput Process)

  • 최성운
    • 대한안전경영과학회지
    • /
    • 제15권1호
    • /
    • pp.293-301
    • /
    • 2013
  • The purpose of this study is to introduce the limit of previously used six sigma quality process evaluation metrics, $Z_{st}$ and $P_{pk}$, and a solution to overcome this drawback by using a metric based on performance evaluation of Z-factor quality innovation. Case analysis on projects from national six sigma contest from 2011 to 2012 is performed and literature review on new drug development HTS (High Throughput Screening) is used to propose innovative performance evaluation metrics. This research shows that experimental study on six sigma evaluation metric, $Z_{st}$ and $P_{pk}$, have no significance difference between industrial type (Manufacturing, Semi-Public Institute, Public Institute) and CTQ type (Product Technology Type CTQ, Process Technology Type CTQ). Following discovery characterize this quality improvement as fixed target type project. As newly developed moving target type of quality innovation performance metric Z-Factor is used for evaluating experimental study, hypothetical analysis suggests that $Z_{st}$ and $P_{pk}$ share different relationship or even show reciprocal relationship. Constraints of the study are relatively small sample size of only 37 projects from past 2 years and conflict on having interview and communication with six sigma quality practitioner for qualitative experimental study. Both moving target type six sigma innovation project and fixed target type improvement project or quality circle enables efficient ways for a better understanding and quality practitioner use by applying quality innovation performance metric. Downside of fixed target type quality performance evaluation metric, $Z_{st}$ and $P_{pk}$, is presented through experimental study. In contrast, advantage of this study is that high throughput requiring product technology, process technology and quantum leap typed innovation effect is evaluated based on precision and accuracy and Z-Factor that enables relative comparison between enterprises is proposed and implemented.

메트릭에 따른 탐색 기반 테스팅 알고리즘 비교 (A Comparison of the Search Based Testing Algorithm with Metrics)

  • 최현재;채흥석
    • 정보과학회 논문지
    • /
    • 제43권4호
    • /
    • pp.480-488
    • /
    • 2016
  • 탐색 기반 테스팅은 넓은 탐색 범위에서 효과적으로 테스트 데이터를 생성하는 대표적인 기술중 하나이다. 탐색 기반 테스팅의 성능이 프로그램의 구조적 특성에 영향을 받는 것이 알려져 있음에도 구조적 특성을 고려한 탐색 기반 테스팅 비교 연구는 제한적으로 수행되었다. 본 연구는 탐색 기반 테스팅 비교를 통해 테스트 대상의 구조적 특성 차이에 따른 최적 알고리즘을 분석하고자 한다. 실험 결과의 일반화를 위해 탐색 성능에 영향을 주는 4가지 메트릭 값을 조합하여 19,800개의 테스트 대상 프로그램을 자동 생성하였다. 실험 결과 복잡도가 높은 프로그램을 20,000번 이하의 횟수로 분석하였을 경우에는 유전 알고리즘이 가장 우수한 성능을 보였으나 50,000번 이상 분석하였을 경우에는 유전 담금질 기법과 담금질 기법이 다른 알고리즘들 보다 우수한 성능을 보였다. 복잡도가 낮은 프로그램에서는 유전 담금질 기법, 담금질 기법, 언덕 오르기 방법이 다른 알고리즘들 보다 우수한 성능을 보였다.

Radix-4 방식의 터보 MAP 복호 알고리즘 (Turbo MAP Decoding Algorithm based on Radix-4 Method)

  • 정지원;성진숙;김명섭;오덕길;고성찬
    • 한국통신학회논문지
    • /
    • 제25권4A호
    • /
    • pp.546-552
    • /
    • 2000
  • 터보부호의 복호기는 두 개이상의 연판정 입출력이 가능한 복호기로 구성되며, 이러한 복호기는 일정길이의 비트열에서 최적의 사후확률(a posteriori robability)을 이용한 MAP(maximum-a-posteriori) symbol estimator를 이용한다. 기존의 radix-2 MAP복호기는 아주 큰 인터리버 블록 크기로 인해 고속 통신시스템의 적용에는 문제점이 있다. 따라서 본 논문에서는 인터리버 블록크기를 줄일 수 있는 radix-2 MAP복호기를 기바으로 하는 새로운 radix-4 MAP복호기를 제안하였다. Radix-4 MAP 복호기 구조에 적용하기 위해 순방향, 역방향 state metric과 채널 metric을 제안하였으며, 가우시안 채널에서 기존의 radix-2 기반의 MAP 복호기와 성능을 비교하였다.

  • PDF

Improvement of OPW-TR Algorithm for Compressing GPS Trajectory Data

  • Meng, Qingbin;Yu, Xiaoqiang;Yao, Chunlong;Li, Xu;Li, Peng;Zhao, Xin
    • Journal of Information Processing Systems
    • /
    • 제13권3호
    • /
    • pp.533-545
    • /
    • 2017
  • Massive volumes of GPS trajectory data bring challenges to storage and processing. These issues can be addressed by compression algorithm which can reduce the size of the trajectory data. A key requirement for GPS trajectory compression algorithm is to reduce the size of the trajectory data while minimizing the loss of information. Synchronized Euclidean distance (SED) as an important error measure is adopted by most of the existing algorithms. In order to further reduce the SED error, an improved algorithm for open window time ratio (OPW-TR) called local optimum open window time ratio (LO-OPW-TR) is proposed. In order to make SED error smaller, the anchor points are selected by calculating point's accumulated synchronized Euclidean distance (ASED). A variety of error metrics are used for the algorithm evaluation. The experimental results show that the errors of our algorithm are smaller than the existing algorithms in terms of SED and speed errors under the same compression ratio.