• Title/Summary/Keyword: 복잡도 가중치

Search Result 265, Processing Time 0.025 seconds

Weight Compression Method with Video Codec (영상 압축기술을 통한 가중치 압축방법)

  • Kim, SeungHwan;Park, Eun-Soo;Ghulam, Mujtaba;Ryu, Eun-Seok
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 2020.11a
    • /
    • pp.129-132
    • /
    • 2020
  • 최근 모바일 기기에서 딥러닝 모델을 사용하기 위한 경량화 연구가 진행되고 있다. 그중 모델의 가중치 표현 bit를 줄이는 양자화와 사용하기 위한 다양한 압축 알고리즘이 개발되었다. 하지만 대부분의 양자화 및 압축 알고리즘들은 한 번 이상의 Fine-tuning을 거쳐야 하는데 이 과정은 모바일 환경에서 수행하기에는 연산복잡도가 너무 높다. 따라서 본 논문은 양자화된 가중치를 High Efficiency Video Coding(HEVC)을 통해 압축하는 방법을 제안하고 정확도와 압축률을 실험한다. 실험결과는 양자화만 실시한 경우 대비 크기는 25%의 감소했지만, 정확도는 0.7% 감소했다. 따라서 이런 결과는 모바일 기기에 가중치를 전송하는 과정에 적용될 수 있다.

  • PDF

Performance Analysis of Adaptive FOD Algorithm Using Neighbor Intelligible Components (인접 가해 성분을 이용한 적응적 선형 축소 알고리즘의 성능 분석)

  • Kwak, No-Yoon
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2003.11a
    • /
    • pp.591-594
    • /
    • 2003
  • 본 논문은 중심 화소의 FOD 성분값과 인접 가해 성분값의 평균으로 축소 성분값을 산출함으로써 FOD에 적응성을 부여한 디지털 영상 축소 알고리즘의 성능을 분석함에 그 목적이 있다. 제안된 방법은, 중심 화소의 우측 및 하측 인접 화소의 기울기의 크기를 이용하여 산출한 각각의 국부 가해 가중치를 우측 및 하측 인접 화소값에 곱한 후에 그 결과를 합산함으로써 인접 가해 성분값을 구하고 FOD 성분값과 이 인접 가해 성분값을 평균하여 축소 성분값을 구하는 과정을 전체 영역에 반복적으로 수행함으로써 축소 영상을 얻을 수 있다. 제안된 축소 방법에 따르면, 적은 연산량을 요하면서도 평균적으로 우수한 결과를 제공하는 FOD 방식의 장점을 취하면서 인접 화소의 유효 가해 성분을 각각의 국부 가해 가중치에 따라 축소 성분값에 적응적으로 반영함으로써 FOD의 단점인 몽롱화 현상을 효과적으로 억제시킬 수 있는 바, 개선된 정보 보존성을 제공할 수 있는 이점이 있다. 본고에서는 주관적인 성능과 하드웨어 복잡도 측면에서 제안된 방법과 기존의 각 방식에 대한 성능을 분석 평가한다.

  • PDF

A Structural Approach to On-line Signature Verification (구조적 접근방식의 온라인 자동 서명 겁증 기법)

  • Kim, Seong-Hoon
    • Journal of the Korea Society of Computer and Information
    • /
    • v.10 no.4 s.36
    • /
    • pp.385-396
    • /
    • 2005
  • In this paper, a new structural approach to on-line signature verification is presented. A primitive pattern is defined as a part segmented by a local minimal position of speed. And a structural description of signature is composed of subpatterns which are defined as such forms as rotation shape, cusp shape and bell shape, acquired by composition of the primitives regarding the directional changes. As the matching method to find identical parts between two signatures, a modified DP(dynamic programming) matching algorithm is presented. And also, variation and complexity of local parts are computed from the training samples, and reference model and decision boundary are derived from these. Error rate, execution time and memory usage are compared among the functional approach, the parametric approach and the proposed structural approach. It is found that the average error rate can be reduced from 14.2% to 4.05% when the local parts of a signature are weighted and the complexity is used as a factor of decision threshold. Though the error rate is similar to that of functional approaches. time consumption and memory usage of the proposed structural approach are shown to be very effective.

  • PDF

Application of K-core Algorithm as a Tool for Analyzing Complex Network (복잡계 네트워크 분석도구로써 k-core 알고리즘의 응용)

  • Ryu, Jea-woon;Ku, Jaeul;Park, byeol-na;Cho, seong-jin;Yoo, Jae Soo;Kim, hak-yong
    • Proceedings of the Korea Contents Association Conference
    • /
    • 2010.05a
    • /
    • pp.253-255
    • /
    • 2010
  • 복잡계 과학의 발달에 따라 많은 사회 네트워크들이 분석되고 있다. 우리는 연결선수, 중간성(betweenness), 결집계수와 같은 링크수를 중심으로 네트워크의 구조적 분석에서 나아가 복잡한 네트워크 속에서 핵심 되는 중심 모듈을 찾아 분석하였다. K-core알고리즘은 복잡계 네트워크를 가중치가 낮은 링크와 노드를 단계적으로 제거하여 복잡한 네트워크의 의미를 분석함에 있어 핵심이 되는 모듈을 얻는데 용이하다. 이에 소설, 영화, 과학 교과서, 단백질 상호작용 네트워크와 같은 다양한 분야에 이 알고리즘을 직접 적용해보았다. 그 결과, 각기 복잡한 네트워크로부터 핵심이 되는 모듈을 찾아낼 수 있었고, 전체 네트워크에서는 발견하기 힘든 유용한 정보들을 도출할 수 있음을 확인하였다. 본 연구에서 k-core 알고리즘을 통해 핵심 네트워크를 구축하여 유용한 정보를 도출할 수 있는 가능성을 제시하였다.

  • PDF

An Empirical Validation of Complexity Metrics for Java Programs (Java 프로그램에 대한 복잡도 척도들의 실험적 검증)

  • Kim, Jae-Woong;Yu, Cheol-Jung;Jang, Ok-Bae
    • Journal of KIISE:Software and Applications
    • /
    • v.27 no.12
    • /
    • pp.1141-1154
    • /
    • 2000
  • 본 논문에서는 Java 프로그램의 복잡도를 측정하기 위해 필요한 인자들을 제안하였다. 이러한 인자들을 추출하기 위해 Java 프로그램을 분석하여 객체지향 설계 척도 값들을 계산하고 통계적 분석을 수행하였다. 그 결과 기존의 연구에서 발견되었던 클래스의 크기 인자 외에도 메소드 호출 빈도, 응집도, 자식 클래스의 수, 내부 클래스 및 상속 계층의 깊이가 주요 인자임이 파악되었다. 클래스의 크기 척도로 분류되었던 자식 클래스의 수는 다른 크기 척도들과 다른 성질을 가진다는 것을 발견하였다. 또한 프로그램의 크기가 커지고 결합도가 높아질수록 응집도가 떨어진다는 것을 입증하였다. 그리고 인자 분석을 바탕으로 인간의 인지 능력과 인자의 상관관계를 고려한 가중치를 적용하기 위해 인자별로 회귀분석을 수행하였다. 보다 적은 척도를 가지고 인자를 설명할 수 있는 회귀식을 도출하였다. 두 그룹에 대한 교차 검증 결과 회귀식이 높은 신뢰도를 가지는 것으로 나타났다. 따라서 본 논문에서 제안한 인자들을 이용하는 경우 Java 프로그램의 복잡도를 측정할 수 있는 새로운 척도로 사용할 수 있다.

  • PDF

A Shortest Bypass Search Algorithm by using Positions of a Certain Obstacle Boundary (임의형태의 장애물 경계정보를 이용한 최소거리 우회경로 탐색 알고리즘)

  • Kim, Yun-Sung;Park, Soo-Hyun
    • Journal of the Korea Society for Simulation
    • /
    • v.19 no.4
    • /
    • pp.129-137
    • /
    • 2010
  • Currently used shortest path search algorithms involve graphs with vertices and weighted edges between each vertex. However, when finding the shortest path with a randomly shaped obstacle(an island, for instance) positioned in between the starting point and the destination, using such algorithms involves high memory inefficiency and is significantly time consuming - all positions in the map should be considered as vertices and every line connecting any of the two adjacent vertices should be considered an edge. Therefore, we propose a new method for finding the shortest path in such conditions without using weighted graphs. This algorithm will allow finding the shortest obstacle bypass given only the positions of the obstacle boundary, the starting point and the destination. When the row and column size of the minimum boundary rectangle to include an obstacle is m and n, respectively, the proposed algorithm has the maximum time complexity, O(mn). This performance shows the proposed algorithm is very efficient comparing with the currently used algorithms.

A Study on the PAPR Reduction Using Phase Rotation Method Applying Metaheuristic Algorithm (Metaheuristic 알고리즘을 적용한 위상회전 기법에 의한 PAPR 감소에 관한 연구)

  • Yoo, Sun-Yong;Park, Bee-Ho;Kim, Wan-Tae;Cho, Sung-Joon
    • Journal of the Institute of Electronics Engineers of Korea TC
    • /
    • v.46 no.5
    • /
    • pp.26-35
    • /
    • 2009
  • OFDM (Orthogonal Frequency Division Multiplexing) system is robust to frequency selective fading and narrowband interference in high-speed data communications. However, an OFDM signal consists of a number of independently modulated subcarriers and the superposition of these subcarriers causes a problem that can give a large PAPR(Peak-to-Average Power Ratio). Phase rotation method can reduce the PAPR without nonlinear distortion by multiplying phase weighting factors. But computational complexity of searching phase weighting factors is increased exponentially with the number of subblocks and considered phase factor. Therefore, a new method, which can reduce computational complexity and detect phase weighting factors efficiently, should be developed. In this paper, a modeling process is introduced, which apply metaheuristic algerian in phase rotation method and optimize in PTS (Particle Swarm Optimization) scheme. Proposed algorithm can solve the computational complexity and guarantee to reduce PAPR We analyzed the efficiency of the PAPR reduction through a simulation when we applied the proposed method to telecommunication systems.

A Low Density Parity Check Coding using the Weighted Bit-flipping Method (가중치가 부과된 Bit-flipping 기법을 이용한 LDPC 코딩)

  • Joh, Kyung-Hyun;Ra, Keuk-Hwan
    • 전자공학회논문지 IE
    • /
    • v.43 no.4
    • /
    • pp.115-121
    • /
    • 2006
  • In this paper, we proposed about data error check and correction on channel transmission in the communication system. LDPC codes are used for minimizing channel errors by modeling AWGN Channel as a VDSL system. Because LDPC Codes use low density parity bit, mathematical complexity is low and relating processing time becomes shorten. Also the performance of LDPC code is better than that of turbo code in long code word on iterative decoding algorithm. This algorithm is better than conventional algorithms to correct errors, the proposed algorithm assigns weights for errors concerning parity bits. The proposed weighted Bit-flipping algorithm is better than the conventional Bit-flipping algorithm and we are recognized improve gain rate of 1 dB.

Effective Image Super-Resolution Algorithm Using Adaptive Weighted Interpolation and Discrete Wavelet Transform (적응적 가중치 보간법과 이산 웨이블릿 변환을 이용한 효율적인 초해상도 기법)

  • Lim, Jong Myeong;Yoo, Jisang
    • The Journal of Korean Institute of Communications and Information Sciences
    • /
    • v.38A no.3
    • /
    • pp.240-248
    • /
    • 2013
  • In this paper, we propose a super-resolution algorithm using an adaptive weighted interpolation(AWI) and discrete wavelet transform(DWT). In general, super-resolution algorithms for single-image, probability based operations have been used for searching high-frequency components. Consequently, the complexity of the algorithm is increased and it causes the increase of processing time. In the proposed algorithm, we first find high-frequency sub-bands by using DWT. Then we apply an AWI to the obtained high-frequency sub-bands to make them have the same size as the input image. Now, the interpolated high-frequency sub-bands and input image are properly combined and perform the inverse DWT. For the experiments, we use the down-sampled version of the original image($512{\times}512$) as a test image($256{\times}256$). Through experiment, we confirm the improved efficiency of the proposed algorithm comparing with interpolation algorithms and also save the processing time comparing with the probability based algorithms even with the similar performance.

A Study on the Heuristic Search Algorithm on Graph (그라프에서의 휴리스틱 탐색에 관한 연구)

  • Kim, Myoung-Jae;Chung, Tae-Choong
    • The Transactions of the Korea Information Processing Society
    • /
    • v.4 no.10
    • /
    • pp.2477-2484
    • /
    • 1997
  • Best-first heuristic search algorithm, such as $A^{\ast}$ algorithm, are one of the most important techniques used to solve many problems in artificial intelligence. A common feature of heuristic search is its high computational complexity, which prevents the search from being applied to problems is practical domains such as route-finding in road map with significantly many nodes. In this paper, several heuristic search algorithms are concerned. A new dynamic weighting heuristic method called the pat-sensitive heuristic is proposed. It is based on a dynamic weighting heuristic, which is used to improve search effort in practical domain such as admissible heuristic is not available or heuristic accuracy is poor. It's distinctive feature compared with other dynamic weighting heuristic algorithms is path-sensitive, which means that ${\omega}$(weight) is adjusted dynamically during search process in state-space search domain. For finding an optimal path, randomly scattered road-map is used as an application area.

  • PDF