• 제목/요약/키워드: binary number

검색결과 769건 처리시간 0.025초

희귀 사건 로지스틱 회귀분석을 위한 편의 수정 방법 비교 연구 (Comparison of Bias Correction Methods for the Rare Event Logistic Regression)

  • 김형우;고태석;박노욱;이우주
    • 응용통계연구
    • /
    • 제27권2호
    • /
    • pp.277-290
    • /
    • 2014
  • 본 연구에서는 로지스틱 회귀 모형을 이용하여 보은 지방의 산사태 자료를 분석하였다. 5000 지역의 관측치 가운데 단 9개만이 산사태 발생 지역이므로 이 자료는 희귀 사건 자료로 간주될 수 있다. 로지스틱 회귀 분석 모형이 희귀사건 자료에 적용될 때 주요 이슈는 회귀 계수 추정치에 심각한 편의 문제가 생길 수 있다는 것이다. 기존에 두 가지의 편의 수정 방법이 제안되었는데, 본 논문에서는 시뮬레이션을 통해 정량적으로 비교 연구를 진행하였다. Firth(1993)의 방식이 다른 방법에 비해 우수한 성능을 보였으며, 이항 희귀 사건을 분석하는 데 있어서 매우 안정된 결과를 보여주었다.

이원부호의 위상오프셋 오류 검출 (Error Detection of Phase Offsets for Binary Sequences)

  • 송영준;한영렬
    • 전자공학회논문지S
    • /
    • 제36S권9호
    • /
    • pp.27-35
    • /
    • 1999
  • 본 논문은 정수론에 기반하여, PN (Pseudo Noise) 확산부호를 포함한 이원부호의 위상오프셋 오류검출방법을 제안한다. 부호분할다원접속 (code division multiple access : CDMA) 이동 통신 시스템에서는 확산부호의 위상오프셋을 인용하여, 각 기지국을 구분하고 있으므로 위상오프셋을 안다는 것은 매우 중요하다. 부호의 주기가 길지 않을 경우는 한 부호와 이전된 부호 사이의 위상 오프셋은 두 부호를 비교하여 구할 수 있지만, 부호의 주기가 길어지면 이러한 방법으로는 어려움이 따른다. 제안된 방법의 오류검출실패확률 식을 유도하고 시뮬레이션 결과를 이용하여 검증한다. 그리고 회고 구현 방법에 관하여서도 논하며, 간단한 회로로 구현할 수 있음을 보인다.

  • PDF

한글문자의 컴퓨터 처리: II. 터미날 설계와 역사 (Korean Character processing: Part II. Terminal Design and History)

  • 정원량
    • 대한전자공학회논문지
    • /
    • 제16권4호
    • /
    • pp.1-12
    • /
    • 1979
  • 이 논문은 "한글문자의 컴퓨터 처리 : 1. 이론 "의 후편으로서 동일 subject의 실질적, 역사적 측면을 취급한다. 논문의 전반부에서는 다음 문제들을 논한다. : 한글 입출력 터미날의 기능적 설계, 모아쓰기 algorithm과 dot matrix fonts 에 의존한 한글 character generator, 입력 keyboard, 구성(keyset 와 key-stroke수 사이의 관계), binary code 의 설계를 위해 고려되어야 할 조건 등이다. 후반부는 개인적 관점에서 본 한글문자의 컴퓨터 처리의 역사론에 할당되었다. 기록화된 업적들을 주요 내용에 따라 네그룹으로 분류하였고, 시대순으로 나열될 참고문헌들의 비판적 개론을 위해 문제점들을 하나씩 거론하였다. 입력 (문자의 컴퓨터인식)과 출력 (모아쓰기의 처리)의 문제들을 분별하여 토론하였다.

  • PDF

오버랩 기반 DM-BPSK CSS 시스템에서 오버랩 횟수에 따른 심볼 간 간섭 분석 (Analysis of Intersymbol Interference due to Overlap m Overlap-Based DM-BPSK CSS Systems)

  • 김준환;이영포;송익호;윤석호
    • 한국통신학회논문지
    • /
    • 제36권2C호
    • /
    • pp.99-104
    • /
    • 2011
  • 처프 확산 대역 (chirp spread spectrum: CSS) 기술은 데이터 신호를 처프 신호를 통하여 최소 필요 대역보다 더 넓은 주파수 대역으로 확산시켜 전송하는 기술로서 오버랩 기법을 사용하여 데이터 전송률을 늘릴 수 있다. 그러나 데이터의 신뢰성 있는 전송을 위해서는 오버랩으로 인해 발생하는 심볼 간 간섭에 (intersymbol interference: ISI) 대한 분석이 필수적이다. 본 논문에서는 오버랩 기반 direct modulation binary phase shift keying CSS 시스템에서 오버랩 횟수와 ISI의 상관관계를 수학적으로 분석하였다. 구체적으로는 몇몇 특정 오버랩 횟수에 대해서는 오버랩으로 인한 ISI가 나타나지 않으며, 오버랩 횟수의 변화에 따라 오버랩으로 인한 ISI가 진동하거나 단조 증가함을 보였고, 모의실험 결과와 분석한 내용이 일치하는 것을 확인하였다.

결정다이아그램을 사용한 스위칭함수 구성 (Constructing the Switching Function using Decision Diagram)

  • 박춘명
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국해양정보통신학회 2011년도 추계학술대회
    • /
    • pp.687-688
    • /
    • 2011
  • 본 논문에서는 최근에 디지털논리시스템의 회로 구현시에 적용되기 시작한 분할설계기법의 한가지 방법을 제안하였다. 기존의 디지털논리회로설계기법은 적용되는 개별소자를 어떻게 효과적이며 효율적으로 이용하느냐 하는 것이 큰 목적이었으나, 최근의 전자공학의 발달과 회로의 집적도가 높아짐에 따라서 디지털논리설계기법은 각각의 모듈을 구성하고 있는 소자들의 개별소자를 사용하는 것보다는 복잡하더라도 좀 더 경제적이고 다기능의 분할설계기법이 요구되고 있다. 이러한 내용을 근간으로 본 논문에서는 효과적인 분할기법을 이용한 스위칭함수구성의 한가지 방법을 제안하였다.

  • PDF

이진 코드 변환을 이용한 효과적인 버퍼 오버플로우 방지기법 (Efficient Buffer-Overflow Prevention Technique Using Binary Rewriting)

  • 김윤삼;조은선
    • 정보처리학회논문지C
    • /
    • 제12C권3호
    • /
    • pp.323-330
    • /
    • 2005
  • 버퍼 오버플로우 공격은 가장 흔하고 위협적인 취약점 중의 하나이다. 최근 이러한 버퍼 오버플로우 공격을 막기 위하여 많은 연구가 이루어지고 있으나 실행시 발생하는 오버헤드 때문에 이를 적용하는 문제가 있다. 본 논문은 이진코드 형태의 파일에서 사용자 정의 함수를 변환하여 리턴 주소의 복사본을 스택의 특정 구역에 저장하고 공격 위험이 있는 문자열 함수를 재작성하고, 재작성된 함수 종료시 리턴 주소와 복사된 리턴 주소의 비교와 ebp 레지스터 값의 비교를 통해 오버플로우 공격을 탐지하는 방법을 제안한다.

Separation of Text and Non-text in Document Layout Analysis using a Recursive Filter

  • Tran, Tuan-Anh;Na, In-Seop;Kim, Soo-Hyung
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제9권10호
    • /
    • pp.4072-4091
    • /
    • 2015
  • A separation of text and non-text elements plays an important role in document layout analysis. A number of approaches have been proposed but the quality of separation result is still limited due to the complex of the document layout. In this paper, we present an efficient method for the classification of text and non-text components in document image. It is the combination of whitespace analysis with multi-layer homogeneous regions which called recursive filter. Firstly, the input binary document is analyzed by connected components analysis and whitespace extraction. Secondly, a heuristic filter is applied to identify non-text components. After that, using statistical method, we implement the recursive filter on multi-layer homogeneous regions to identify all text and non-text elements of the binary image. Finally, all regions will be reshaped and remove noise to get the text document and non-text document. Experimental results on the ICDAR2009 page segmentation competition dataset and other datasets prove the effectiveness and superiority of proposed method.

Evaluation of the relationship between sleep bruxism and pulpal calcifications in young women: A clinico-radiological study

  • Tassoker, Melek
    • Imaging Science in Dentistry
    • /
    • 제48권4호
    • /
    • pp.277-281
    • /
    • 2018
  • Purpose: This study was performed to investigate the relationship between sleep bruxism(SB) and pulpal calcifications in young women. Materials and Methods: A total of 100 female participants between 20 and 31 years of age who were referred to our radiology clinic for a dental check-up, including 59 SB and 41 non-SB patients, were sampled for the analysis. SB was diagnosed based on the American Academy of Sleep Medicine criteria. All teeth were evaluated on digital panoramic radiographs to detect pulpal calcifications, except third molars, teeth with root canal treatment, and teeth with root resorption. Binary logistic regression analysis was used to determine the risk factors for pulpal calcifications. The Spearman correlation coefficient was applied and the Pearson chi-square test was used for categorical variables. To test intra-examiner reproducibility, Cohen kappa analysis was applied. P values <.05 were considered to indicate statistical significance. Results: A total of 2800 teeth were evaluated (1652 teeth from SB patients and 1148 from non-SB patients), and 61% of patients had at least 1 dental pulpal calcification. No statistically significant relationship was found between SB and pulpal calcifications (P>0.05). In SB patients, the total number of pulpal calcifications was 129, while in non-SB patients, it was 84. Binary logistic analysis showed that SB was not a risk factor for the presence of pulpal calcifications(odds ratio, 1.19; 95% CI, 0.52-2.69, P>.05). Conclusion: No relationship was found between SB and pulpal calcifications.

Deep Learning Model on Gravitational Waves of Merger and Ringdown in Coalescence of Binary Black Holes

  • Lee, Joongoo;Cho, Gihyuk;Kim, Kyungmin;Oh, Sang Hoon;Oh, John J.;Son, Edwin J.
    • 천문학회보
    • /
    • 제44권1호
    • /
    • pp.46.2-46.2
    • /
    • 2019
  • We propose a deep learning model that can generate a waveform of coalescing binary black holes in merging and ring-down phases in less than one second with a graphics processing unit (GPU) as an approximant of gravitational waveforms. Up to date, numerical relativity has been accepted as the most adequate tool for the accurate prediction of merger phase of waveform, but it is known that it typically requires huge amount of computational costs. We present our method can generate the waveform with ~98% matching to that of the status-of-the-art waveform approximant, effective-one-body model calibrated to numerical relativity simulation and the time for the generation of ~1500 waveforms takes O(1) seconds. The validity of our model is also tested through the recovery of signal-to-noise ratio and the recovery of waveform parameters by injecting the generated waveforms into a public open noise data produced by LIGO. Our model is readily extendable to incorporate additional physics such as higher harmonics modes of the ring-down phase and eccentric encounters, since it only requires sufficient number of training data from numerical relativity simulations.

  • PDF

A Pattern Matching Extended Compression Algorithm for DNA Sequences

  • Murugan., A;Punitha., K
    • International Journal of Computer Science & Network Security
    • /
    • 제21권8호
    • /
    • pp.196-202
    • /
    • 2021
  • DNA sequencing provides fundamental data in genomics, bioinformatics, biology and many other research areas. With the emergent evolution in DNA sequencing technology, a massive amount of genomic data is produced every day, mainly DNA sequences, craving for more storage and bandwidth. Unfortunately, managing, analyzing and specifically storing these large amounts of data become a major scientific challenge for bioinformatics. Those large volumes of data also require a fast transmission, effective storage, superior functionality and provision of quick access to any record. Data storage costs have a considerable proportion of total cost in the formation and analysis of DNA sequences. In particular, there is a need of highly control of disk storage capacity of DNA sequences but the standard compression techniques unsuccessful to compress these sequences. Several specialized techniques were introduced for this purpose. Therefore, to overcome all these above challenges, lossless compression techniques have become necessary. In this paper, it is described a new DNA compression mechanism of pattern matching extended Compression algorithm that read the input sequence as segments and find the matching pattern and store it in a permanent or temporary table based on number of bases. The remaining unmatched sequence is been converted into the binary form and then it is been grouped into binary bits i.e. of seven bits and gain these bits are been converted into an ASCII form. Finally, the proposed algorithm dynamically calculates the compression ratio. Thus the results show that pattern matching extended Compression algorithm outperforms cutting-edge compressors and proves its efficiency in terms of compression ratio regardless of the file size of the data.