• Title/Summary/Keyword: 데이터 압축

Search Result 1,714, Processing Time 0.034 seconds

Low Power Scan Testing and Test Data Compression for System-On-a-Chip (System-On-a-Chip(SOC)에 대한 효율적인 테스트 데이터 압축 및 저전력 스캔 테스트)

  • 정준모;정정화
    • Journal of the Institute of Electronics Engineers of Korea SD
    • /
    • v.39 no.12
    • /
    • pp.1045-1054
    • /
    • 2002
  • We present a new low power scan testing and test data compression mothod lot System-On-a-Chip (SOC). The don't cares in unspecified scan vectors are mapped to binary values for low Power and encoded by adaptive encoding method for higher compression. Also, the scan-in direction of scan vectors is determined for low power. Experimental results for full - scanned versions of ISCAS 89 benchmark circuits show that the proposed method has both low power and higher compression.

A Study of Compression Communication Method for U-health Device having Periodic Bio-Signal (주기성을 가지는 생체신호의 u-health 단말 기간 실시간 압축 전송 방법에 관한연구)

  • Lee, Sang-Joon;Kang, Dae-Hun;Kim, Jin-Kwon;Lee, Myoung-Ho
    • Proceedings of the KIEE Conference
    • /
    • 2008.07a
    • /
    • pp.1975-1976
    • /
    • 2008
  • 본 연구는 주기성을 가지는 생체신호의 U-Health 단말 기간 실시간 압축 전송 방법에 관한 것이다. 개발된 알고리즘은 5단계의 과정으로 나누어지는데, 첫 번째 단계는 신호의 차분을 구하고, 두 번째 단계로 심전도 신호의 한 주기를 구분하여 저장한다. 세 번째 단계는 차분되어 저장된 데이터의 DCT를 수행하고, 네 번째 단계는 윈도우 필터를 수행한다. 다섯 번째 단계는 최종 압축 단계로서 허프만 압축 알고리즘을 수행한다. 마지막으로는 최종압축이 이루진 데이터를 정해진 프로토콜에 의해 데이터 전송을 수행하는 단계이다.

  • PDF

ECG Data Compression Algorithm based on Template Matching using Morphological Characters of ECG (심전도의 형태적 특징을 이용한 탬플릿 매칭 기반의 심전도 데이터 압축 알고리즘)

  • Ahn, Byeong-Gu;Jo, Seong-Beom;Jeong, Do-Un
    • Proceedings of the Korean Institute of Information and Commucation Sciences Conference
    • /
    • 2013.05a
    • /
    • pp.990-991
    • /
    • 2013
  • 본 연구에서는 모바일 환경에서 장시간 심전도 계측 시 발생하는 무선 및 배터리의 제한적인 자원의 문제점을 해결하기 위하여 낮은 연산량과 높은 압축률을 가지는 템플릿 매칭 기반의 압축 알고리즘을 구현하였다. 템플릿 매칭 기법을 이용한 심전도 데이터 압축은 심전도의 특징점인 R-peak를 검출하여 템플릿을 생성하고 이후 입력되는 심전도 신호와 유사성을 판단하여 해당되는 템플릿의 정보만 저장하고 전송하는 방법이다. 구현된 알고리즘의 성능평가를 위하여 MIT-BIH Normal Sinus Rhythm Database의 10개 레코드에서 각각 10분간 데이터를 추출하여 성능평가를 수행하였으며, 이때, 압축률과 복원율 오차의 평균이 각각 7.94% 와 5.33%의 성능을 나타내었다.

  • PDF

Design of Navigation Data Compression Algorithm Assessment Tool (내비게이션 데이터 압축 알고리즘 평가 도구 설계)

  • Kim, Ho-Young;Han, Sang-Hyuck;Kim, Young-Kuk
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2011.04a
    • /
    • pp.1317-1319
    • /
    • 2011
  • 최근 이동통신 기술의 발전과 소형화된 무선 기기의 보급으로 위치 기반 서비스(Location-Based Service)의 이용이 보편화되고 있다. 위치 정보를 이용하기 위해서는 이동하고 있는 위치 정보를 일정한 주기마다 저장해야 하는데, 모바일 환경에서는 저장 공간의 제약 때문에 위치 정보를 짧은 주기로 저장한다면 정보의 정확도를 높일 수 있지만, 저장할 수 있는 정보의 양이 적어 장시간동안 위치 기반 서비스를 이용하는 데 불편함이 있을 수 있다. 이러한 이유 때문에 적은 저장 공간을 활용하면서 정보의 정확도를 높일 수 있는 압축 기법이 필요하다. 연속적인 위치 정보, 즉 좌표로 구성된 위치 정보들의 집합인 내비게이션 데이터를 압축하기에 적절한 공정 데이터 알고리즘들이 있는데, 이 알고리즘을 평가 및 비교 분석할 수 있는 성능 평가 도구인 NDCAAT(Navigation Data Compression Algorithm Assessment Tool)를 설계한다. NDCAAT는 GPS 및 네트워크 장비를 통해 위치 정보를 얻고, 이를 여러 압축 알고리즘을 적용하여 압축 알고리즘의 비교, 분석 및 성능평가를 하는 도구이다.

In-memory Compression Scheme Based on Incremental Frequent Patterns for Graph Streams (그래프 스트림 처리를 위한 점진적 빈발 패턴 기반 인-메모리 압축 기법)

  • Lee, Hyeon-Byeong;Shin, Bo-Kyoung;Bok, Kyoung-Soo;Yoo, Jae-Soo
    • The Journal of the Korea Contents Association
    • /
    • v.22 no.1
    • /
    • pp.35-46
    • /
    • 2022
  • Recently, with the development of network technologies, as IoT and social network service applications have been actively used, a lot of graph stream data is being generated. In this paper, we propose a graph compression scheme that considers the stream graph environment by applying graph mining to the existing compression technique, which has been focused on compression rate and runtime. In this paper, we proposed Incremental frequent pattern based compression technique for graph streams. Since the proposed scheme keeps only the latest reference patterns, it increases the storage utilization and improves the query processing time. In order to show the superiority of the proposed scheme, various performance evaluations are performed in terms of compression rate and processing time compared to the existing method. The proposed scheme is faster than existing similar scheme when the number of duplicated data is large.

A Study on the Compression Method for Restricted DB in High Quality Speech Synthesis (제한된 고음질 음성 합성용 DB 압축법에 관한 연구)

  • 박형빈
    • Proceedings of the Acoustical Society of Korea Conference
    • /
    • 1998.06e
    • /
    • pp.265-268
    • /
    • 1998
  • 일반적으로 음성 합성용 데이터 베이스에서는 고음질을 유지할 수 있는 파형 부호화법을 주로 사용한다. 그것은 파형 부호화법이 발성자의 개성과 메시지 정보를 보존하기 때문에 음질의 명료성이 우수하기 때문이다. 그러나 기존에는 파형 부호화법을 적용해서 음성 파형 자체의 잉여성분만을 제거한 후 합성용 데이터 베이스로 사용하기 때문에 음성 합성용 데이터 베이스의 크기가 커지는 단점을 가진다. 따라서 본 논문에서는 이러한 단점을 극복하기 위해서 기존의 운율조절법을 통해서 음성 합성용 데이터 베이스를 압축하는 방법을 제안한다. 결과적으로 제안한 방법을 사용함으로써 고음질을 갖는 음성 합성용 데이터 베이스를 가질 수 있었고 데이터 베이스의 크기도 줄일 수 있었다.

  • PDF

Manchester coding of compressed binary clusters for reducing IoT healthcare device's digital data transfer time (IoT기반 헬스케어 의료기기의 디지털 데이터 전송시간 감소를 위한 압축 바이너리 클러스터의 맨체스터 코딩 전송)

  • Kim, Jung-Hoon
    • The Journal of Korea Institute of Information, Electronics, and Communication Technology
    • /
    • v.8 no.6
    • /
    • pp.460-469
    • /
    • 2015
  • This study's aim is for reducing big data transfer time of IoT healthcare devices by modulating digital bits into Manchester code including zero-voltage idle as information for secondary compressed binary cluster's compartment after two step compression of compressing binary data into primary and secondary binary compressed clusters for each binary clusters having compression benefit of 1 bit or 2 bits. Also this study proposed that as department information of compressed binary clusters, inserting idle signal into Manchester code will have benefit of reducing transfer time in case of compressing binary cluster into secondary compressed binary cluster by 2 bits, because in spite of cost of 1 clock idle, another 1 bit benefit can play a role of reducing 1 clock transfer time. Idle signal is also never consecutive because the signal is for compartment information between two adjacent secondary compressed binary cluster. Voltage transition on basic rule of Manchester code is remaining while inserting idle signal, so DC balance can be guaranteed. This study's simulation result said that even compressed binary data by another compression algorithms could be transferred faster by as much as about 12.6 percents if using this method.

A Study on the Compression and Major Pattern Extraction Method of Origin-Destination Data with Principal Component Analysis (주성분분석을 이용한 기종점 데이터의 압축 및 주요 패턴 도출에 관한 연구)

  • Kim, Jeongyun;Tak, Sehyun;Yoon, Jinwon;Yeo, Hwasoo
    • The Journal of The Korea Institute of Intelligent Transport Systems
    • /
    • v.19 no.4
    • /
    • pp.81-99
    • /
    • 2020
  • Origin-destination data have been collected and utilized for demand analysis and service design in various fields such as public transportation and traffic operation. As the utilization of big data becomes important, there are increasing needs to store raw origin-destination data for big data analysis. However, it is not practical to store and analyze the raw data for a long period of time since the size of the data increases by the power of the number of the collection points. To overcome this storage limitation and long-period pattern analysis, this study proposes a methodology for compression and origin-destination data analysis with the compressed data. The proposed methodology is applied to public transit data of Sejong and Seoul. We first measure the reconstruction error and the data size for each truncated matrix. Then, to determine a range of principal components for removing random data, we measure the level of the regularity based on covariance coefficients of the demand data reconstructed with each range of principal components. Based on the distribution of the covariance coefficients, we found the range of principal components that covers the regular demand. The ranges are determined as 1~60 and 1~80 for Sejong and Seoul respectively.

New high-efficient universal code(BL-beta) proposal for com pressed data transferring of real-time IoT sensing or financia l transaction data (IoT 및 금융 거래 실시간 데이터 정보의 압축 전송을 위한 새로운 고효율 유니버설 코드(BL-beta) 제안)

  • Kim, Jung-Hoon
    • The Journal of Korea Institute of Information, Electronics, and Communication Technology
    • /
    • v.11 no.4
    • /
    • pp.421-429
    • /
    • 2018
  • While IoT device sensing data or financial transaction data is transmitted in real time, huge data traffic is generated in processing it. This huge data can be effectively compressed or transmitted using universal code, which is a real-time lossless compressor. In this paper, we propose our BL-beta code, which is newly developed universal code for compressing stock trading data, which the maximum range of measured values is difficult to predict and is generated within a relatively constant range over a very short period of time. For compressing real-time stock trading data, Compared with the fixed length bit transmission, the compression efficiency is at least 49.5% higher than that of the fixed length bit transmission, and the compression transmission performance is 16.6% better than the Exponential Golomb code.

Compression Methods for Time Series Data using Discrete Cosine Transform with Varying Sample Size (가변 샘플 크기의 이산 코사인 변환을 활용한 시계열 데이터 압축 기법)

  • Moon, Byeongsun;Choi, Myungwhan
    • KIISE Transactions on Computing Practices
    • /
    • v.22 no.5
    • /
    • pp.201-208
    • /
    • 2016
  • Collection and storing of multiple time series data in real time requires large memory space. To solve this problem, the usage of varying sample size is proposed in the compression scheme using discrete cosine transform technique. Time series data set has characteristics such that a higher compression ratio can be achieved with smaller amount of value changes and lower frequency of the value changes. The coefficient of variation and the variability of the differences between adjacent data elements (VDAD) are presumed to be very good measures to represent the characteristics of the time series data and used as key parameters to determine the varying sample size. Test results showed that both VDAD-based and the coefficient of variation-based scheme generate excellent compression ratios. However, the former scheme uses much simpler sample size decision mechanism and results in better compression performance than the latter scheme.