• 제목/요약/키워드: encoding table

검색결과 55건 처리시간 0.029초

다중 언어로 작성된 문서 파일에 적용된 문자 인코딩 자동 인식 기법 (A Method for Automatic Detection of Character Encoding of Multi Language Document File)

  • 서민지;김명호
    • 정보과학회 컴퓨팅의 실제 논문지
    • /
    • 제22권4호
    • /
    • pp.170-177
    • /
    • 2016
  • 문자 인코딩은 문서를 컴퓨터에서 이용할 수 있도록 문자 코드 테이블을 이용하여 이진화하는 방법이다. 이진화된 문서를 읽기 위해서는, 문서에 적용된 문자 코드를 이용하여 문자 인코딩을 알아내야 한다. 본 논문에서는 문서의 문자 인코딩을 자동으로 판별하는 방법을 제시한다. 제안하는 방법은 이스케이프 문자를 이용한 판별법, 문서에 나타난 코드 값 범위 판별법, 문서에 나타난 코드 값의 특징 판별법, 각 언어별 자주 사용하는 단어를 이용한 판별법과 같은 여러 단계를 걸쳐 문서에 적용된 문자 인코딩을 판별한다. 자주 사용하는 단어를 이용한 방법은 문서를 언어별로 분류하여 문자 인코딩을 판별하기 때문에, 다국어 문서에서 기존의 방법보다 높은 문자 인코딩 인식률을 보인다. 주로 표현하는 언어의 비중이 20% 미만일 경우, 기존의 방법은 약 50%의 문자 인코딩 인식률을 보였으나, 제안하는 방법은 문자 인코딩에서 표현하는 언어의 비중과는 상관없이 96% 이상의 문자 인코딩 인식률을 보였다.

Encoding of XML Elements for Mining Association Rules

  • Hu Gongzhu;Liu Yan;Huang Qiong
    • 한국정보시스템학회지:정보시스템연구
    • /
    • 제14권3호
    • /
    • pp.37-47
    • /
    • 2005
  • Mining of association rules is to find associations among data items that appear together in some transactions or business activities. As of today, algorithms for association rule mining, as well as for other data mining tasks, are mostly applied to relational databases. As XML being adopted as the universal format for data storage and exchange, mining associations from XML data becomes an area of attention for researchers and developers. The challenge is that the semi-structured data format in XML is not directly suitable for traditional data mining algorithms and tools. In this paper we present an encoding method to encode XML tree-nodes. This method is used to store the XML data in Value Table and Transaction Table that can be easily accessed via indexing. The hierarchical relationship in the original XML tree structure is embedded in the encoding. We applied this method to association rules mining of XML data that may have missing data.

  • PDF

직교 주파수분할다중화에서 첨두전력 대 평균전력비 감소를 위한 체계적인 부호설계 (A Systematic Code Design for Reduction of the PAPR in OFDM)

  • 강석근;김정구
    • 방송공학회논문지
    • /
    • 제11권3호
    • /
    • pp.326-335
    • /
    • 2006
  • 본 논문에서는 직교 주파수분할다중화(orthogonal frequency division multiplexing; OFDM)의 변조된 신호열에서 항상 최소화된 첨두전력 대 평균전력비(peak-to-average power ratio; PAPR)를 보장할 수 있는 블록부호가 제안된다. 제안된 최소 PAPR 부호(minimum PAPR code; MPC) 부호화 과정은 씨앗부호어(seed codeword) 검색, 레지스터 요소의 순회천이(circular shifting), 그리고 비트반전(bit inversion)으로 이루어진다. 시간영역 전송신호열의 첨두 포락선전력(peak envelope power; PEP)이 레지스터에 저장된 부호어의 순회천이와 부호의 비트반전에 대하여 변화되지 않음을 보였다. 이러한 성질에 기반하여 체계적인 MPC 부호화 규칙이 제안되었다. 제안된 부호 규칙으로 MPC 부호화를 위한 조견표(look-up table)의 크기를 대폭 감소시킬 수 있다.

마스킹 화이트 박스 AES에 대한 새로운 고차 차분 계산 분석 기법 (New Higher-Order Differential Computation Analysis on Masked White-Box AES)

  • 이예찬;진성현;김한빛;김희석;홍석희
    • 정보보호학회논문지
    • /
    • 제30권1호
    • /
    • pp.1-15
    • /
    • 2020
  • 화이트 박스 암호에 대한 부채널 분석 맥락의 공격인 차분 계산 분석(Differential computation analysis, DCA) 공격이 제안됨에 따라, 이에 대응하기 위해 Lee 등의 대응기법과 같이 테이블 인코딩 기반 마스킹 화이트 박스 암호가 제안되었다. 마스킹 화이트 박스 암호에 대한 기존 고차 DCA는 테이블 인코딩 기반의 마스킹 구현 구조를 고려하지 못하여 Lee 등이 제안한 대응 기술에는 적용이 불가능하였다. 본 논문에서는 테이블 인코딩 기반 마스킹 구현에도 적용할 수 있는 새로운 고차 DCA 기법을 제안하고, Lee 등이 제안한 마스킹 화이트 박스 암호의 비밀키 정보를 실제로 찾음으로써 그 유효성을 증명하였다.

부채널 분석에 안전한 밸런스 인코딩 기법에 관한 연구 (Study for Balanced Encoding Method against Side Channel Analysis)

  • 윤진영;김한빛;김희석;홍석희
    • 정보보호학회논문지
    • /
    • 제26권6호
    • /
    • pp.1443-1454
    • /
    • 2016
  • 하드웨어 기반의 Dual-rail Logic 스타일을 소프트웨어로 구현한 밸런스 인코딩 기법은 추가적인 저장 공간이 필요 없는 효과적인 부채널 분석 대응방법이다. 밸런스 인코딩 기법을 이용하여 암호 알고리즘을 구현하면 암호 알고리즘이 연산되는 동안 입력 값에 상관없이 비밀 정보를 포함하고 있는 중간 값은 항상 일정한 해밍 웨이트 및 해밍 디스턴스를 유지하게 되어 부채널 분석을 어렵게 만드는 효과가 있다. 그러나 기존 연구에서는 밸런스 인코딩 기법을 적용한 Constant XOR 연산만 제안되어 있어 PRINCE와 같이 XOR 연산만으로 구성이 가능한 암호 알고리즘에만 적용이 가능하다는 제한사항이 있다. 따라서 본 논문에서는 ARX 구조 기반의 다양한 대칭키 암호 알고리즘에도 적용이 가능하고, 효율적인 메모리 관리를 위해 Look-up table을 사용하지 않는 새로운 Constant AND, Constant Shift 연산 알고리즘을 최초로 제안하였으며, 상호 정보량 분석을 통해 안전성을 확인하였다.

AE-CORDIC: 각도 인코딩 기반 고속 CORDIC 구조 (AE-CORDIC: Angle Encoding based High Speed CORDIC Architecture)

  • 조용권;곽승호;이문기
    • 대한전자공학회논문지SD
    • /
    • 제41권12호
    • /
    • pp.75-81
    • /
    • 2004
  • AE-CORDIC은 CORDIC 연산의 회전 방향을 미리 계산하는 알고리즘을 이용해 CORDIC의 연산속도를 향상 시켜준다. 회전방향을 예측할 수 없는 부분은 Lookup-Table로 대체하고, 예측 가능 부분만을 CORDIC 으로 처리하였는데, 회전방향 예측은 별도의 추가 하드웨어 없이 간단하게 인코딩 할 수 있게 된다. 그리고, Unrolled CORDIC 구조에서는 Lookup-Table입력 비트 수가 크지 않으면 Lookup-Table의 하드웨어 증가보다 CORDIC 연산 단에서 감소되는 ADDER의 하드웨어가 더 크기 때문에 오히려 전체 하드웨어 크기가 줄어든다. 본 논문에서는 회전방향 예측 가능 구간 및 예측 방법을 제안하고, 최적화된 Lookup-Table의 크기를 결정하여 기존의 회전방향 예측 알고리즘인 P-CORDIC 과 비교하였다. 그리고, 입력 각이 16비트 경우를 삼성 0.18㎛ 공정을 이용해 논리 합성하여 하드웨어 크기, 성능, 정확성을 검증하였다.

Efficient Generation of Computer-generated Hologram Patterns Using Spatially Redundant Data on a 3D Object and the Novel Look-up Table Method

  • Kim, Seung-Cheol;Kim, Eun-Soo
    • Journal of Information Display
    • /
    • 제10권1호
    • /
    • pp.6-15
    • /
    • 2009
  • In this paper, a new approach is proposed for the efficient generation of computer-generated holograms (CGHs) using the spatially redundant data on a 3D object and the novel look-up table (N-LUT) method. First, the pre-calculated N-point principle fringe patterns (PFPs) were calculated using the 1-point PFP of the N-LUT. Second, spatially redundant data on a 3D object were extracted and re-grouped into the N-point redundancy map using the run-length encoding (RLE) method. Then CGH patterns were generated using the spatial redundancy map and the N-LUT method. Finally, the generated hologram patterns were reconstructed. In this approach, the object points that were involved in the calculation of the CGH patterns were dramatically reduced, due to which the computational speed was increased. Some experiments with a test 3D object were carried out and the results were compared with those of conventional methods.

Table based Matching Algorithm for Soft Categorization of News Articles in Reuter 21578

  • Jo, Tae-Ho
    • 한국멀티미디어학회논문지
    • /
    • 제11권6호
    • /
    • pp.875-882
    • /
    • 2008
  • This research proposes an alternative approach to machine learning based ones for text categorization. For using machine learning based approaches for any task of text mining, documents should be encoded into numerical vectors; it causes two problems: huge dimensionality and sparse distribution. Although there are various tasks of text mining such as text categorization, text clustering, and text summarization, the scope of this research is restricted to text categorization. The idea of this research is to avoid the two problems by encoding a document or documents into a table, instead of numerical vectors. Therefore, the goal of this research is to improve the performance of text categorization by proposing approaches, which are free from the two problems.

  • PDF

코딩테이블 축소방법에 의한 8B/10B 인코더 설계 (8B/10B Encoder Design by Coding Table Reduction)

  • 신범석;김용우;윤광섭;강진구
    • 대한전자공학회논문지SD
    • /
    • 제45권4호
    • /
    • pp.43-48
    • /
    • 2008
  • 본 논문은 기존의 8B/10B 코딩테이블을 축소하여 단순화 방법에 의한 8B/10B 인코더 설계를 제안하였다. 제안하는 방법은 기존의 코딩 테이블을 덧셈기를 이용하여 축소하고 디스패리티 제어 블록의 알고리즘을 수정하였다. 제안한 인코더를 로직 시뮬레이션 및 로직 합성을 진행하여 Magna CMOS $0.18{\mu}m$ 공정에서 최대 동작 속도는 343MHz와 칩 면적 $1886{\mu}m^2$의 결과를 얻을 수 있었다.

Lossless VQ Indices Compression Based on the High Correlation of Adjacent Image Blocks

  • Wang, Zhi-Hui;Yang, Hai-Rui;Chang, Chin-Chen;Horng, Gwoboa;Huang, Ying-Hsuan
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제8권8호
    • /
    • pp.2913-2929
    • /
    • 2014
  • Traditional vector quantization (VQ) schemes encode image blocks as VQ indices, in which there is significant similarity between the image block and the codeword of the VQ index. Thus, the method can compress an image and maintain good image quality. This paper proposes a novel lossless VQ indices compression algorithm to further compress the VQ index table. Our scheme exploits the high correlation of adjacent image blocks to search for the same VQ index with the current encoding index from the neighboring indices. To increase compression efficiency, codewords in the codebook are sorted according to the degree of similarity of adjacent VQ indices to generate a state codebook to find the same index with the current encoding index. Note that the repetition indices both on the search path and in the state codebooks are excluded to increase the possibility for matching the current encoding index. Experimental results illustrated the superiority of our scheme over other compression schemes in the index domain.