• 제목/요약/키워드: binary number

검색결과 769건 처리시간 0.03초

웨이블렛 계수의 효율적인 전송에 따른 가변제로트리코더의 성능개선 (Improvement of Flexible Zerotree Coder by Efficient Transmission of Wavelet Coefficients)

  • 주상현;신재호
    • 전자공학회논문지C
    • /
    • 제36C권9호
    • /
    • pp.76-84
    • /
    • 1999
  • Shaprio가 발표한 EZW에서는 한 대역의 부(父)계수가 유사방향의 인접 고주파대역에 4개의 자(子)계수들과 부자관계를 구성하는 고정트리를 기반으로 한다. 이러한 고정트리는 대역간의 계층적 상관관계를 고찰하는데는 적합할 수 있으나, 4개의 계수가 하나의 $2{\times}2$의 블록단위로 처리되기 때문에 대역내 인접계수들간에 존재하는 공간적 상관관계를 고찰하기에는 부적합하다. 이러한 대역간의 계층적 상관관계와 대역내의 공간적 상관관계의 동시에 고찰하기 위하여 가변트리가 제안되었다. 그러나 가변트리는 웨이블렛 계수들을 표현하는데 있어, 고정트리에 비해 많은 심볼들을 필요로 한다. 반면 심볼당 정보량(entropy)이 낮아지는 결과를 가져오기 때문에 고정트리에 비해 압축성능을 향상시킨다. 본 논문에서는 가변트리로 인한 심볼 수의 증가를 억제하는 두 가지 기법ㅂ을 제안한다. 첫째, 무효계수에 대한 불필요한 스캔을 억제하기 위하여 각각의 유효 부계수에 대하여 유효 자계수의 소유여부를 미리 알려주는 1비트의 탐사비트(probing bit)를 발생시킨다. 둘째, 대역에 따라 필요로 하는 심볼 알파벳이 다르다는데 근거하여 대역별 특성을 고려한 심볼세트를 새로이 정의한다. 이러한 두 가지의 기법에 의하여 발생하는 심볼의 수는 상당히 줄어들게 되고, 출력된 심볼들은 추가 엔트로피코딩을 하지 않고 그대로 전송되더라도 비교적 좋은 압축결과를 가져올 수 있다. 가변트리와 심볼수의 억제기법에 의하여 변형된 EZW 부호화 방식은 적응산술부호화기를 포함한 모드와 포함하지 않은 모드의 두 가지 형태에서 제안된다. 본 논문에서 제안하는 부호화방식은 가변트리와 심볼발생억제 방식을 EZW에 적용시켜 성능향상을 꾀하며, 적용되어진 EZW와의 성능비교를 통하여 이러한 제안방식의 유효성을 점검해 본다.

  • PDF

A Penalized Spline Based Method for Detecting the DNA Copy Number Alteration in an Array-CGH Experiment

  • Kim, Byung-Soo;Kim, Sang-Cheol
    • 응용통계연구
    • /
    • 제22권1호
    • /
    • pp.115-127
    • /
    • 2009
  • The purpose of statistical analyses of array-CGH experiment data is to divide the whole genome into regions of equal copy number, to quantify the copy number in each region and finally to evaluate its significance of being different from two. Several statistical procedures have been proposed which include the circular binary segmentation, and a Gaussian based local regression for detecting break points (GLAD) by estimating a piecewise constant function. We propose in this note a penalized spline regression and its simultaneous confidence band(SCB) approach to evaluate the statistical significance of regions of genetic gain/loss. The region of which the simultaneous confidence band stays above 0 or below 0 can be considered as a region of genetic gain or loss. We compare the performance of the SCB procedure with GLAD and hidden Markov model approaches through a simulation study in which the data were generated from AR(1) and AR(2) models to reflect spatial dependence of the array-CGH data in addition to the independence model. We found that the SCB method is more sensitive in detecting the low level copy number alterations.

이진 알고리즘을 이용한 변형 시리얼테스트 설계에 관한 연구 (Design variation serial test using binary algorithm)

  • 최진석;이성주
    • 한국지능시스템학회논문지
    • /
    • 제20권1호
    • /
    • pp.76-80
    • /
    • 2010
  • 급변하는 정보의 홍수 속에서 정보의 보안과 이를 가공하고 전송하는 것이 중요한 과제로 떠오르고 있다. 초기 정보보호이론과 암호화 전송단계에서는 간단한 치환과 수학적 계산 알고리즘을 적용한 암 복호화 과정을 이용하였다. 완벽한 정보보호는 One-time pad를 이용하는 것이나 이를 적용하기에는 하드웨어와 금전적 손실이 너무 크기에 실난수가 아닌 난수성을 만족하는 의사난수를 사용하고 있다. 본고에서 제안하는 변형 시리얼 테스트는 의사난수성을 입증하는 테스트 중 시리얼테스트에서 변형된 것으로 연산속도와 효율성 면에서 보다 더 강력한 난수성임을 입증하고 있다.

고속 십진 나눗셈을 위한 혼합 알고리즘 (Mixed Algorithm for Fast Decimal Division)

  • 권순열;최종화;김용대;한선경;유영갑
    • 전자공학회논문지CI
    • /
    • 제41권5호
    • /
    • pp.17-23
    • /
    • 2004
  • 본 논문은 십진 나눗셈에서 연산 속도를 향상시키기 위해 혼합 나눗셈 알고리즘을 제안한다. 이진수 체계에서는 비복원 알고리즘이 복원 알고리즘에 비해 항상 작은 횟수를 갖지만 십진 연산에서는 몫의 값에 따라 연산 횟수가 달라진다. 십진수는 한 자리로 나타낼 수 있는 수의 범위가 0~9 이므로 현재 부분 나머지의 절대 값과 이전 부분 나머지의 절대 값을 비교하여 이전 부분 나머지의 절대 값이 현재 부분 나머지의 절대 값 보다 크면 비복원 알고리즘을 선택하고 작으면 복원 알고리즘을 선택함으로써 연산 횟수를 줄일 수 있다. 몫이 64 자리일 경우 제안한 흔합 알고리즘은 복원 알고리즘에 비해 80.9%의 연산 횟수를 줄였고 비복원 알고리즘에 비해 64.5%의 연산 횟수를 줄였다.

모음 높이의 새로운 표기법에 대하여 (A new feature specification for vowel height)

  • 박천배
    • 대한음성학회지:말소리
    • /
    • 제27_28호
    • /
    • pp.27-56
    • /
    • 1994
  • Processes involving the change of vowel height are natural enough to be found in many languages. It is essential to have a better feature specification for vowel height to grasp these processes properly, Standard Phonology adopts the binary feature system, and vowel height is represented by the two features, i.e., [\pm high] and [\pm low]. This has its own merits. But it is defective because it is misleading when we count the number of features used in a rule to compare the naturalness of rules. This feature system also cannot represent more than three degrees of height, We wi31 discard the binary features for vowel height. We consider to adopt the multivalued feature [n high] for the property of height. However, this feature cannot avoid the arbitrariness resulting from the number values denoting vowel height. It is not easy to expect whether the number in question is the largest or not It also is impossible to decide whether a larger number denotes a higher vowel or a lower vowel. Furthermore this feature specification requires an ad hoc condition such as n > 3 or n \geq 2, whenever we want to refer to a natural class including more than one degree of height The altelnative might be Particle Phonology, or Dependency Phonology. These might be apt for multivalued vowel height systems, as their supporters argue. However, the feature specification of Particle Phonology will be discarded because it does not observe strictly the assumption that the number of the particle a is decisive in representing the height. One a in a representation can denote variant degrees of height such as [e], [I], [a], [a ] and [e ]. This also means that we cannot represent natural classes in terms of the number of the particle a, Dependency Phonology also has problems in specifying a degree of vowel height by the dependency relations between the elements. There is no unique element to represent vowel height since every property has to be defined in terms of the dependency relations between two or more elements, As a result it is difficult to formulate a rule for vowel height change, especially when the phenomenon involves a chain of vowel shifts. Therefore, we suggest a new feature specification for vowel height (see Chapter 3). This specification resorts to a single feature H and a few >'s which refer exclusively to the degree of the tongue height when a vowel is pronounced. It can cope with more than three degrees of height because it is fundamentally a multivalued scalar feature. This feature also obviates the ad hoc condition for a natural class while the [n high] type of multivalued feature suffers from it. Also this feature specification conforms to our expection that the notation should become simpler as the generality of the class increases, in that the fewer angled brackets are used, the more vowels are included, Incidentally, it has also to be noted that, by adopting a single feature for vowel height, it is possible to formulate a simpler version of rules involving the changes of vowel height especially when they involve vowel shifts found in many languages.

  • PDF

회전과 크기변화에 무관한 신경망을 이용한 지문 인식 (Rotation and Size Invariant Fingerprint Recognition Using The Neural Net)

  • 이남일;우용태;이정환
    • 한국정보처리학회논문지
    • /
    • 제1권2호
    • /
    • pp.215-224
    • /
    • 1994
  • 본 논문은 신경회로망 EART(Extended Adaptive Resonance Theory)를 이용한 회전 과 크기 변화에 무관한 지문인식에 관한 연구이다. 지문 농담 화상($515{\times}512$)을 적응 문턱 값을 이용하여 융선와 골을 분리하여 이진화 영상으로 바꾼후 이를 다시 세선화 영상으로 만든다. 이진 세선화 영상으로부터 지문의 특징점 중 식별에 가장 큰영향을 주는 분기점과 끝점을 $3{\times}3$마스크를 사용해서 추출한다. 이렇게 추출된 분기점과 끝 점의 개수, 그리고 분기점으로 이루어진 볼록 다각형의 내각을 회전변화와 크기변화 에 영향을 받지않는 가중코드(weighted code)로 된 40*10 특징점 행렬로 나타낸 후 이를 신경회로망 EART의 입력으로 했다. 신경망을 이용한 본 시스템은 세선화 영상에 대한 어떠한 복원 처리 과정도 없이 영상의 회전과 크기 변화에 대해서도 매우 효과 적이고도 만족할 만한 결과를 얻을 수 있었다.

  • PDF

전류 모드 CMOS를 이용한 다치 FFT 연산기 설계 (Multiple-valued FFT processor design using current mode CMOS)

  • 송홍복;서명웅
    • 한국지능시스템학회논문지
    • /
    • 제12권2호
    • /
    • pp.135-143
    • /
    • 2002
  • 본 논문에서는 전류모드 CMOS의 기본회로를 이용해 다치 논리(Multiple Valued Logic) 연산기를 설계하고자 한다. 우선, 2진(binary)FFT(Fast courier Transform)를 확장해 다치 논리회로를 이용해서 고속 다치 FFT 연산기를 구현하였다. 다치논리회로를 이용해서 구현한 FFT연산은 기존의 2치 FFT과 비교를 해 본 결과 트랜지스터의 수를 상당히 줄일 수 있으며 회로의 간단함을 알 수가 있었다. 또한, 캐리 전파 없는 가산기론 구현하기 위해서 {0, 1, 2, 3}의 불필요한(redundant) 숫자 집합을 이용한 양의 수 표현을 FFT회로에 내부적으로 이용하여 결선의 감소와 VLSI 설계시 정규성과 규clr성으로 효과적이다. FFT 승산을 위해서는 승산기의 연산시간과 면적을 다치 LUT(Look Up Table)로 이용해 승산의 역할을 하였다. 마지막으로 이진시스템(binary system)과의 호환을 위해 다치 하이브리드형 FFT 프로세서를 제시하여 2진 4치 부호기와 4치 2진 복호기 및 전류모드 CMOS회로를 사용하여 상호 호환성을 갖도록 설계를 하였다.

Fish Injured Rate Measurement Using Color Image Segmentation Method Based on K-Means Clustering Algorithm and Otsu's Threshold Algorithm

  • Sheng, Dong-Bo;Kim, Sang-Bong;Nguyen, Trong-Hai;Kim, Dae-Hwan;Gao, Tian-Shui;Kim, Hak-Kyeong
    • 동력기계공학회지
    • /
    • 제20권4호
    • /
    • pp.32-37
    • /
    • 2016
  • This paper proposes two measurement methods for injured rate of fish surface using color image segmentation method based on K-means clustering algorithm and Otsu's threshold algorithm. To do this task, the following steps are done. Firstly, an RGB color image of the fish is obtained by the CCD color camera and then converted from RGB to HSI. Secondly, the S channel is extracted from HSI color space. Thirdly, by applying the K-means clustering algorithm to the HSI color space and applying the Otsu's threshold algorithm to the S channel of HSI color space, the binary images are obtained. Fourthly, morphological processes such as dilation and erosion, etc. are applied to the binary image. Fifthly, to count the number of pixels, the connected-component labeling is adopted and the defined injured rate is gotten by calculating the pixels on the labeled images. Finally, to compare the performances of the proposed two measurement methods based on the K-means clustering algorithm and the Otsu's threshold algorithm, the edge detection of the final binary image after morphological processing is done and matched with the gray image of the original RGB image obtained by CCD camera. The results show that the detected edge of injured part by the K-means clustering algorithm is more close to real injured edge than that by the Otsu' threshold algorithm.

MEAT SPECIATION USING A HIERARCHICAL APPROACH AND LOGISTIC REGRESSION

  • Arnalds, Thosteinn;Fearn, Tom;Downey, Gerard
    • 한국근적외분광분석학회:학술대회논문집
    • /
    • 한국근적외분광분석학회 2001년도 NIR-2001
    • /
    • pp.1245-1245
    • /
    • 2001
  • Food adulteration is a serious consumer fraud and a matter of concern to food processors and regulatory agencies. A range of analytical methods have been investigated to facilitate the detection of adulterated or mis-labelled foods & food ingredients but most of these require sophisticated equipment, highly-qualified staff and are time-consuming. Regulatory authorities and the food industry require a screening technique which will facilitate fast and relatively inexpensive monitoring of food products with a high level of accuracy. Near infrared spectroscopy has been investigated for its potential in a number of authenticity issues including meat speciation (McElhinney, Downey & Fearn (1999) JNIRS, 7(3), 145-154; Downey, McElhinney & Fearn (2000). Appl. Spectrosc. 54(6), 894-899). This report describes further analysis of these spectral sets using a hierarchical approach and binary decisions solved using logistic regression. The sample set comprised 230 homogenized meat samples i. e. chicken (55), turkey (54), pork (55), beef (32) and lamb (34) purchased locally as whole cuts of meat over a 10-12 week period. NIR reflectance spectra were recorded over the wavelength range 400-2498nm at 2nm intervals on a NIR Systems 6500 scanning monochromator. The problem was defined as a series of binary decisions i. e. is the meat red or white\ulcorner is the red meat beef or lamb\ulcorner, is the white meat pork or poultry\ulcorner etc. Each of these decisions was made using an individual binary logistic model based on scores derived from principal component or partial least squares (PLS1 and PLS2) analysis. The results obtained were equal to or better than previous reports using factorial discriminant analysis, K-nearest neighbours and PLS2 regression. This new approach using a combination of exploratory and logistic analyses also appears to have advantages of transparency and the use of inherent structure in the spectral data. Additionally, it allows for the use of different data transforms and multivariate regression techniques at each decision step.

  • PDF

MEAT SPECIATION USING A HIERARCHICAL APPROACH AND LOGISTIC REGRESSION

  • Arnalds, Thosteinn;Fearn, Tom;Downey, Gerard
    • 한국근적외분광분석학회:학술대회논문집
    • /
    • 한국근적외분광분석학회 2001년도 NIR-2001
    • /
    • pp.1152-1152
    • /
    • 2001
  • Food adulteration is a serious consumer fraud and a matter of concern to food processors and regulatory agencies. A range of analytical methods have been investigated to facilitate the detection of adulterated or mis-labelled foods & food ingredients but most of these require sophisticated equipment, highly-qualified staff and are time-consuming. Regulatory authorities and the food industry require a screening technique which will facilitate fast and relatively inexpensive monitoring of food products with a high level of accuracy. Near infrared spectroscopy has been investigated for its potential in a number of authenticity issues including meat speciation (McElhinney, Downey & Fearn (1999) JNIRS, 7(3), 145 154; Downey, McElhinney & Fearn (2000). Appl. Spectrosc. 54(6), 894-899). This report describes further analysis of these spectral sets using a hierarchical approach and binary decisions solved using logistic regression. The sample set comprised 230 homogenized meat samples i. e. chicken (55), turkey (54), pork (55), beef (32) and lamb (34) purchased locally as whole cuts of meat over a 10-12 week period. NIR reflectance spectra were recorded over the wavelength range 400-2498nm at 2nm intervals on a NIR Systems 6500 scanning monochromator. The problem was defined as a series of binary decisions i. e. is the meat red or white\ulcorner is the red meat beef or lamb\ulcorner, is the white meat pork or poultry\ulcorner etc. Each of these decisions was made using an individual binary logistic model based on scores derived from principal component or partial least squares (PLS1 and PLS2) analysis. The results obtained were equal to or better than previous reports using factorial discriminant analysis, K-nearest neighbours and PLS2 regression. This new approach using a combination of exploratory and logistic analyses also appears to have advantages of transparency and the use of inherent structure in the spectral data. Additionally, it allows for the use of different data transforms and multivariate regression techniques at each decision step.

  • PDF