• Title/Summary/Keyword: 반복적 오류

Search Result 262, Processing Time 0.028 seconds

Simple Stopping Criterion Algorithm using Variance Values of Noise in Turbo Code (터보부호에서 잡음 분산값을 사용한 간단한 반복중단 알고리즘)

  • Jeong Dae-Ho;Kim Hwan-Yong
    • Journal of the Institute of Electronics Engineers of Korea TC
    • /
    • v.43 no.3 s.345
    • /
    • pp.103-110
    • /
    • 2006
  • Turbo code, a kind of error correction coding technique, has been used in the field of digital mobile communication system. As the number of iterations increases, it can achieves remarkable BER performance over AWGN channel environment. However, if the number of iterations Is increases in the several channel environments, any further iteration results in very little improvement, and requires much delay and computation in proportion to the number of iterations. To solve this problems, it is necessary to device an efficient criterion to stop the iteration process and prevent unnecessary delay and computation. In this paper, it proposes an efficient and simple criterion for stopping the iteration process in turbo decoding. By using variance values of noise derived from mean values of LLR in turbo decoder, the proposed algorithm can largely reduce the computation and average number of iterations without BER performance degradation. As a result of simulations, the computation of the proposed algorithm is reduced by about $66{\sim}80%$ compared to conventional algorithm. The average number of iterations is reduced by about $13.99%{\sim}15.74%$ compared to CE algorithm and about $17.88%{\sim}18.59%$ compared to SCR algorithm.

Detecting Spelling Errors by Comparison of Words within a Document (문서내 단어간 비교를 통한 철자오류 검출)

  • Kim, Dong-Joo
    • Journal of the Korea Society of Computer and Information
    • /
    • v.16 no.12
    • /
    • pp.83-92
    • /
    • 2011
  • Typographical errors by the author's mistyping occur frequently in a document being prepared with word processors contrary to usual publications. Preparing this online document, the most common orthographical errors are spelling errors resulting from incorrectly typing intent keys to near keys on keyboard. Typical spelling checkers detect and correct these errors by using morphological analyzer. In other words, the morphological analysis module of a speller tries to check well-formedness of input words, and then all words rejected by the analyzer are regarded as misspelled words. However, if morphological analyzer accepts even mistyped words, it treats them as correctly spelled words. In this paper, I propose a simple method capable of detecting and correcting errors that the previous methods can not detect. Proposed method is based on the characteristics that typographical errors are generally not repeated and so tend to have very low frequency. If words generated by operations of deletion, exchange, and transposition for each phoneme of a low frequency word are in the list of high frequency words, some of them are considered as correctly spelled words. Some heuristic rules are also presented to reduce the number of candidates. Proposed method is able to detect not syntactic errors but some semantic errors, and useful to scoring candidates.

담합의 존재에 관한 경제적 증거 : 반독점법과 과점이론의 조화(1)

  • Werden Gregory J.
    • Journal of Korea Fair Competition Federation
    • /
    • no.113
    • /
    • pp.15-31
    • /
    • 2005
  • 최근 미국의 법원은 담합을 입증하려는 시도를 주로 경제적 증거에 입각하여 분석하는 추세를 보여 왔다. 하지만 담합의 존재를 입증하는데 있어서 경제분석의 역할에도 많은 이견이 날카롭게 표출되었다. 담합의 존재에 관한 경제적 증거를 분석하는 데에 있어 유일한 합리적 근거는 최신과점이론(Modern oligopoly theory)이다. 그런데 증인으로 나선 많은 경제학자들과 법원이 최신과점이론에 자신들의 분석을 뚜렷이 기초하지 않았기 때문에, 판례법의 현 상태가 불만족스럽다고 주장하는 것이 본 논문의 핵심적 내용이다. 셔먼법 제1조는 ''계약, 결합, 공모(contract, combination, or conspiracy)에 의해 초래되는 거래(즉 경쟁)의 불합리한 제한을 규제''하는데, 이러한 계약 결합, 공모의''용어들은 합의라는 하나의 개념으로 통합하여 이해''할 수 있다. 제 1조는 다수의 당사자가 ''단일한 목적, 공통된 의도와 의견의 일치, 혹은 의사의 합치(Meeting of minds)'', 즉 ''공통된 계획에 대한 의식적 참가(consious commitment to a common scheme)''를 합의한 모든 협약을 규제한다. 셔먼법 제 1조 위반을 입증하기 위해서는 일치된 행동이 합의 하에서 일어났음을 입증해야 한다. 미국 법원은 합의를 추론할 수 있는 증거력 있는 정황증거(admissible circumstantial evidence)의 원칙을 확립하였다. 독점가격에 가까운 수준의 과점가격 설정은 ''조정되었다(coordinated)''라고 칭해지는데, 이는 ''구두 합의''와 ''암묵적 합의''의 두 가지 형태로 나뉜다. 한편, 일회게임 과점 모형과 반복게임 모형은 과점이론의 핵심을 이룬다. 과점에 대한 Chamberlin의 견해는 본래 게임과 Stigler의 모형은 그와 같은 생각의 오류를 가르쳤다. 그러나 판례법은, Petroleum products antitrust litigation사건과 reserve supply사건에서 볼 수 있듯이 종종 그러한 교훈을 망각했다. 최신과정이론과 판례를 종합해 보면, 합의의 존재에 관해 경제학자가 이끌어내는 추론과 법원이 이끌어내는 추론을 포괄하는 다음의 네 가지 일반적 원칙이 도출된다. 1. 합의가 추론되기 위해서는 상호의존성을 넘는 무언가가 먼저 제시되어야 한다. 2. 합의의 존재는 일회게임 과점 모형에서의 비협조적 내쉬균형과 일치하는 행동으로부터는 추론될 수 없다. 3. 합의의 존재는, 비록 무한반복 과점게임에서의 비협조적 내쉬균형(혹은 Chamberlin-Fellner식의 과점)과 일치하더라도, 일회게임 과점 모형에서의 비협조적 내쉬균형과 일치하지 않는 행동으로부터 추론될 수 있다. 4. 증거는 구두합의의 존재를 뒷받침해야만 한다. 이러한 원칙에서 얻을 수 있는 가장 중요한 교훈은, 합의가 존재하지 않을 경우 과점상황으로부터는 독점가격이 예상될 수 없다는 사실을 법원이 인식하는 것만으로도 합의의 추론에서 범하기 쉬운 가장 큰 오류를 회피할 수 있다는 것이다.

  • PDF

Static Sign Language Recognition System Using Depth Camera (깊이 영상 기반 정적 수화 인식 시스템)

  • Kim, Ki-sang;Choi, Hyung-Il
    • Proceedings of the Korean Society of Computer Information Conference
    • /
    • 2014.07a
    • /
    • pp.323-326
    • /
    • 2014
  • 본 논문에서는 깊이 카메라를 이용한 사용자의 손 모양, 특히 수화를 인식하는 방법에 대해 제안한다. 손 모양 인식은 손가락 검출과 손 인식으로 크게 2가지로 나눌 수 있다. 손가락 검출을 위해 본 시스템에서는 Distance Transform을 이용하여 손의 뼈대를 검출 하고, Convex Hull을 통해 손가락을 검출하는 방법을 제안한다. 뼈대 검출은 보다 정확한 손가락을 검출할 수 있는 장점이 생긴다. 손 인식에는 손 중심과 손가락의 길이, 손의 축, 손가락의 축, 팔 중심의 위치 등을 이용하여 Decision Tree를 생성하고, 반복적 검사를 통해 인식의 오류율을 줄였다. 실험결과에서는 수화 인식이 성공적으로 잘 인식 되었다는 것을 보인다.

  • PDF

Estimation of soft decision channel gain for coded MIMO system (부호화된 MIMO 시스템에서 연판정 채널 이득값의 계산)

  • Kim, Young-Min;Shang, Ping Ping;Kim, Soo-Young
    • The Journal of Korean Institute of Communications and Information Sciences
    • /
    • v.36 no.6A
    • /
    • pp.577-586
    • /
    • 2011
  • Modem digital communication systems are required to use forward error correction (FEC) codes to combat inevitable channel impairment. Turbo codes or low density parity check (LDPC) codes, using iterative decoding with soft decision detection (SDD) information, are the most common examples. The excellent performance of these codes should be conditioned on accurate estimation of soft decision detection information. In order to use FEC codes with iterative decoding for Multi-Input Multi-Output (MIMO) system, reliable soft decision channel gain should be provided. In this paper, we investigate efficient SDD methods for turbo-coded MIMO system, and derive the corresponding formulas of SDD for various MIMO detection schemes. We present simulation results of the derived SDD schemes for turbo-coded MIMO systems, and show that the presented results almost approximate to maximum likelihood detection performance with much less computational load.

Soft Detection using QR Decomposition for Coded MIMO System (부호화된 MIMO 시스템에서 QR 분해를 이용한 효율적인 연판정 검출)

  • Zhang, Meixiang;Kim, Soo-Young
    • The Journal of Korean Institute of Communications and Information Sciences
    • /
    • v.37 no.7A
    • /
    • pp.535-544
    • /
    • 2012
  • Multi-Input Multi-Output (MIMO) transmission is now considered as one of essential techniques enabling high rate data transmissions in wireless communication systems. In addition, severe channel impairments in wireless systems should be compensated by using highly efficient forward error correction (FEC) codes. Turbo codes or low density parity check (LDPC) codes, using iterative decoding with soft decision detection information (SDDI), are the most common examples. The excellent performance of these codes should be conditioned on accurate estimation of SDDI from the MIMO detection process. In this paper, we propose a soft MIMO detection scheme using QR decomposition of channel matrices as an efficient means to provide accurate SDDI to the iterative decoder. The proposed method employed a two sequential soft MIMO detection process in order to reduce computational complexity. Compared to the soft ZF method calculating the direct inverse of the channel matrix, the complexity of the proposed method can be further reduced as the number of antennas is increased, without any performance degradation.

Relay-based Cooperative Communication Technique using Repetitive Transmission on D-STBC (반복 전송을 이용한 D-STBC 중계기 협력 통신 기법)

  • Song, Ki-O;Jung, Yong-Min;Jung, Hyeok-Koo
    • The Journal of Korean Institute of Communications and Information Sciences
    • /
    • v.35 no.12A
    • /
    • pp.1122-1127
    • /
    • 2010
  • In this paper, we propose a relay-based DF cooperative communication scheme using repetitive transmission algorithm for wireless LAN environments on D-STBC. Additional transmission diversity gain can be obtained by repetitive transmission algorithm. However, in comparison with conventional schemes, data rate is decreased in half. We consider data modulation constellation twice higher than conventional schemes. Further, system complexity is decreased and performance degradation is minimized because repetitive transmission algorithm is adapted between source and relay node. We show the uncoded BER performance of the proposed algorithm over HiperLAN/2 Rayleigh fading channel.

A Modified Sum-Product Algorithm for Error Floor Reduction in LDPC Codes (저밀도 패리티 검사부호에서 오류마루 감소를 위한 수정 합-곱 알고리즘)

  • Yu, Seog-Kun;Kang, Seog-Geun;Joo, Eon-Kyeong
    • The Journal of Korean Institute of Communications and Information Sciences
    • /
    • v.35 no.5C
    • /
    • pp.423-431
    • /
    • 2010
  • In this paper, a modified sum-product algorithm to correct bit errors captured within the trapping sets, which are produced in decoding of low-density parity-check (LDPC) codes, is proposed. Unlike the original sum-product algorithm, the proposed decoding method consists of two stages. Whether the main cause of decoding failure is the trapping sets or not is determined at the first stage. And the bit errors within the trapping sets are corrected at the second stage. In the modified algorithm, the set of failed check nodes and the transition patterns of hard-decision bits are exploited to search variable nodes in the trapping sets. After inverting information of the variable nodes, the sum-product algorithm is carried out to correct the bit errors. As a result of simulation, the proposed algorithm shows continuously improved error performance with increase in the signal-to-noise ratio. It is, therefore, considered that the modified sum-product algorithm significantly reduces or possibly eliminates the error floor in LDPC codes.

Explanation-based Data Mining in Data Warehouse (데이타 웨어하우스 환경에서의 설명기반 데이타 마이닝)

  • 김현수;이창호
    • Proceedings of the Korea Database Society Conference
    • /
    • 1999.06a
    • /
    • pp.115-123
    • /
    • 1999
  • 산업계 전반에 걸친 오랜 정보시스템 운용의 결과로 대용량의 데이타들이 축적되고 있다. 이러한 데이타로부터 유용한 지식을 추출하기 위해 여러 가지 데이타 마이닝 기법들이 연구되어왔다. 특히 데이타 웨어하우스의 등장은 이러한 데이타 마이닝에 있어 필요한 데이타 제공 환경을 제공해 주고 있다. 그러나 전문가의 적절한 판단과 해석을 거치지 않은 데이타 마이닝의 결과는 당연한 사실이거나, 사실과 다른 가짜이거나 또는 관련성이 없는(trivial, spurious and irrelevant) 내용만 무수히 쏟아낼 수 있다. 그러므로 데이타 마이닝의 결과가 비록 통계적 유의성을 가진다 하더라고 그 정당성과 유용성에 대한 검증과정과 방법론의 정립이 필요하다. 데이타 마이닝의 가장 어려운 점은 귀납적 오류를 없애기 위해 사람이 직접 그 결과를 해석하고 판단하며 아울러 새로운 탐색 방향을 제시해야 한다는 것이다. 본 논문의 목적은 이러한 데이타 마이닝에서 추출된 결과를 검증하고 아울러 새로운 지식 탐색 방향을 제시하는 방법론을 정립하는데 있다. 본 논문에서는 데이타 마이닝 기법 중 연관규칙탐사로 얻어진 결과를 설명가능성 여부의 판단을 통해 검증하는 기법을 제안하며, 이를 통해 얻어진 검증된 지식을 토대로 일반화를 통한 새로운 가설을 생성하여 데이타 웨어하우스로부터 연관규칙을 검증하는 일련의 아키텍쳐(architecture)를 제시하고자 한다. 먼저 데이타 마이닝 결과에 대한 설명의 필요성을 제시하고, 데이타 웨어하우스와 데이타 마이닝 기법들에 대한 간략한 설명과 연관규칙탐사에 대한 정의 및 방법을 보이고, 대상 영역에 대한 데이타 웨어하우스의 스키마를 보였다. 다음으로 도메인 지식(domain knowledge)과 연관규칙탐사를 통해 얻어진 결과를 표현하기 위한 지식표현 방법으로 Relational predicate Logic을 제안하였다. 연관규칙탐사로 얻어진 결과를 설명하기 위한 방법으로는 연관규칙탐사로 얻어진 연관규칙에 대해 Relational Predicate Logic으로 표현된 도메인 지식으로서 설명됨을 보이게 한다. 또한 이러한 설명(explanation)을 토대로 검증된 지식을 일반화하여 새로운 가설을 연역적으로 생성하고 이를 연관규칙탐사론 통해 검증한 후 새로운 지식을 얻는 반복적인 Explanation-based Data Mining Architecture를 제시하였다. 본 연구의 의의로는 데이타 마이닝을 통한 귀납적 지식생성에 있어 귀납적 오류의 발생을 고메인 지식을 통해 설명가능 함을 보임으로 검증하고 아울러 이러한 설명을 통해 연역적으로 새로운 가설지식을 생성시켜 이를 가설검증방식으로 검증함으로써 귀납적 접근과 연역적 접근의 통합 데이타 마이닝 접근을 제시하였다는데 있다.

  • PDF

Explanation-based Data Mining in Data Warehouse (데이터 웨어하우스 환경에서의 설명기반 데이터 마이닝)

  • 김현수;이창호
    • Proceedings of the Korea Inteligent Information System Society Conference
    • /
    • 1999.03a
    • /
    • pp.115-123
    • /
    • 1999
  • 산업계 전반에 걸친 오랜 정보시스템 운용의 결과로 대용량의 데이터들이 축적되고 있다. 이러한 데이터로부터 유용한 지식을 추출하기 위해 여러 가지 데이터 마이닝 기법들이 연구되어왔다. 특히 데이터 웨어하우스의 등장은 이러한 데이터 마이닝에 있어 필요한 데이터 제공 환경을 제공해 주고 있다. 그러나 전문가의 적절한 판단과 해석을 거치지 않은 데이터 마이닝의 결과는 당연한 사실이거나, 사실과 다른 가짜이거나 또는 관련성 없는(trivial, spurious and irrelevant)내용만 무수히 쏟아낼 수 있다. 그러므로 데이터 마이닝의 결과가 비록 통계적 유의성을 가진다 하더라도 그 정당성과 유용성에 대한 검증과정과 방법론의 정립이 필요하다. 데이터 마이닝의 가장 어려운 점은 귀납적 오류를 없애기 위해 사람이 직접 그 결과를 해석하고 판단하며 아울러 새로운 탐색 방향을 제시해야 한다는 것이다. 본 논문에서는 데이터 마이닝 기법 중 연관규칙탐사로 얻어진 결과를 설명가능성 여부의 판단을 통해 검증하는 기법을 제안하며, 이를 통해 얻어진 검증된 지식을 토대로 일반화를 통한 새로운 가설을 생성하여 데이터 웨어하우스로부터 연관규칙을 검증하는 일련의 아텍쳐(architecture)를 제시하고다 한다. 먼저 데이터 마이닝 결과에 대한 설명의 필요성을 제시하고, 데이터 웨어하우스와 데이터 마이닝 기법들에 대한 간략한 설명과 연관규칙탐사에 대한 정의 및 방법을 보이고, 대상 영역에 대한 데이터 웨어하우스으 스키마를 보였다. 다음으로 도메인 지식(domain knowledge)과 연관규칙탐사를 통해 얻어진 결과를 표현하기위한 지식표현 방법으로 Relational Predicate Logic을 제안하였다. 연관규칙탐사로 얻어진 결과를 설명하기 위한 방법으로는 연관규칙탐사로 얻어진 연관규칙에 대해 Relational Predicate Logic으로 표현된 도메인 지식으로서 설명됨을 보이게 한다. 또한 이러한 설명(explanation)을 토대로 검증된 지식을 일반화하여 새로운 가설을 연역적으로 생성하고 이를 연관규칙탐사를 통해 검증한 후 새로운 지식을 얻는 반복적인 Explanation-based Data Mining Architecture를 제시하였다. 본 연구의 의의로는 데이터 마이닝을 통한 귀납적 지식생성에 있어 귀납적 오류의 발생을 도메인 지식을 통해 설명가능 함을 보임으로 검증하고 아울러 이러한 설명을 통해 연역적으로 새로운 가설지식을 생성시켜 이를 가설검증방식으로 검증함으로써 귀납적 접근과 연역적 접근의 통합 데이터 마이닝 접근을 제시하였다는데 있다.

  • PDF