• 제목/요약/키워드: lossless compress

검색결과 26건 처리시간 0.023초

응급 원격 진료 서비스를 위한 생체신호 압축 방법 비교 연구 및 압축/복원 프로그램 개발 (A Comparative Study of Compression Methods and the Development of CODEC Program of Biological Signal for Emergency Telemedicine Service)

  • 윤태성;임영호;김정상;유선국
    • 대한전기학회논문지:시스템및제어부문D
    • /
    • 제52권5호
    • /
    • pp.311-321
    • /
    • 2003
  • In an emergency telemedicine system such as the High-quality Multimedia based Real-time Emergency Telemedicine(HMRET) service, it is very important to examine the status of the patient continuously using the multimedia data including the biological signals(ECG, BP, Respiration, $SpO_2)$ of the patient. In order to transmit these data real time through the communication means which have the limited transmission capacity, it is also necessary to compress the biological data besides other multimedia data. For this purpose, we investigate and compare the ECG compression techniques in the time domain and in the wavelet transform domain, and present an effective lossless compression method of the biological signals using PEG Huffman table for an emergency telemedicine system. And, for the HMRET service, we developed the lossless compression and reconstruction program or the biological signals in MSVC++ 6.0 using DPCM method and JPEG Huffman table, and tested in an internet environment.

A Pattern Matching Extended Compression Algorithm for DNA Sequences

  • Murugan., A;Punitha., K
    • International Journal of Computer Science & Network Security
    • /
    • 제21권8호
    • /
    • pp.196-202
    • /
    • 2021
  • DNA sequencing provides fundamental data in genomics, bioinformatics, biology and many other research areas. With the emergent evolution in DNA sequencing technology, a massive amount of genomic data is produced every day, mainly DNA sequences, craving for more storage and bandwidth. Unfortunately, managing, analyzing and specifically storing these large amounts of data become a major scientific challenge for bioinformatics. Those large volumes of data also require a fast transmission, effective storage, superior functionality and provision of quick access to any record. Data storage costs have a considerable proportion of total cost in the formation and analysis of DNA sequences. In particular, there is a need of highly control of disk storage capacity of DNA sequences but the standard compression techniques unsuccessful to compress these sequences. Several specialized techniques were introduced for this purpose. Therefore, to overcome all these above challenges, lossless compression techniques have become necessary. In this paper, it is described a new DNA compression mechanism of pattern matching extended Compression algorithm that read the input sequence as segments and find the matching pattern and store it in a permanent or temporary table based on number of bases. The remaining unmatched sequence is been converted into the binary form and then it is been grouped into binary bits i.e. of seven bits and gain these bits are been converted into an ASCII form. Finally, the proposed algorithm dynamically calculates the compression ratio. Thus the results show that pattern matching extended Compression algorithm outperforms cutting-edge compressors and proves its efficiency in terms of compression ratio regardless of the file size of the data.

혈관조영술에서 동영상 전송의 유용성 고찰 (Continued image Sending in DICOM of usefulness Cosideration in Angiography)

  • 박용성;이종웅;정희동;김재열;황선광
    • 대한디지털의료영상학회논문지
    • /
    • 제9권2호
    • /
    • pp.39-43
    • /
    • 2007
  • In angiography, the global standard agreements of DICOM is lossless. But it brings on overload and takes too much store space in DICOM sever. Because of all those things we transmit images which is classified in subjective way. But this cause data loss and would be lead doctors to make wrong reading. As a result of that we try to transmit continued image (raw data) to reduce those mistakes. We got angiography images from the equipment(Allura FD20-Philips). And compressed it in two different methods(lossless & lossy fair). and then transmitted them to PACS system. We compared the quality of QC phantom images that are compressed by different compress method and compared spatial resolution of each images after CD copy. Then compared each Image's data volume(lossless & lossy fair). We measured spatial resolution of each image. All of them had indicated 401p/mm. We measured spatial resolution of each image after CD copy. We got also same conclusion (401p/mm). The volume of continued image (raw data) was 127.8MB(360.5 sheets on average) compressed in lossless and 29.5MB(360.5 sheets) compressed in lossy fair. In case of classified image, it was 47.35MB(133.7 sheets) in lossless and 4.5MB(133.7 sheets) in lossy fair. In case of angiography the diagnosis is based on continued image(raw data). But we transmit classified image. Because transmitting continued image causes some problems in PACS system especially transmission and store field. We transmit classified image compressed in lossless But it is subjective and would be different depend on radiologist. therefore it would make doctors do wrong reading when patients transfer another hospital. So we suggest that transmit continued image(raw data) compressed in lossy fair. It reduces about 60% of data volume compared with classified image. And the image quality is same after CD copy.

  • PDF

Lossless Compression for Hyperspectral Images based on Adaptive Band Selection and Adaptive Predictor Selection

  • Zhu, Fuquan;Wang, Huajun;Yang, Liping;Li, Changguo;Wang, Sen
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제14권8호
    • /
    • pp.3295-3311
    • /
    • 2020
  • With the wide application of hyperspectral images, it becomes more and more important to compress hyperspectral images. Conventional recursive least squares (CRLS) algorithm has great potentiality in lossless compression for hyperspectral images. The prediction accuracy of CRLS is closely related to the correlations between the reference bands and the current band, and the similarity between pixels in prediction context. According to this characteristic, we present an improved CRLS with adaptive band selection and adaptive predictor selection (CRLS-ABS-APS). Firstly, a spectral vector correlation coefficient-based k-means clustering algorithm is employed to generate clustering map. Afterwards, an adaptive band selection strategy based on inter-spectral correlation coefficient is adopted to select the reference bands for each band. Then, an adaptive predictor selection strategy based on clustering map is adopted to select the optimal CRLS predictor for each pixel. In addition, a double snake scan mode is used to further improve the similarity of prediction context, and a recursive average estimation method is used to accelerate the local average calculation. Finally, the prediction residuals are entropy encoded by arithmetic encoder. Experiments on the Airborne Visible Infrared Imaging Spectrometer (AVIRIS) 2006 data set show that the CRLS-ABS-APS achieves average bit rates of 3.28 bpp, 5.55 bpp and 2.39 bpp on the three subsets, respectively. The results indicate that the CRLS-ABS-APS effectively improves the compression effect with lower computation complexity, and outperforms to the current state-of-the-art methods.

니블 런 랭스 코드를 이용한 허프만 코딩 (Huffman Coding using Nibble Run Length Code)

  • 백승수
    • 한국컴퓨터정보학회논문지
    • /
    • 제4권1호
    • /
    • pp.1-6
    • /
    • 1999
  • 본 연구는 정지 영상을 무손실 압축하기 위해 영상 각 화소의 값 상위 4비트의 중복성을 이용하여 런랭스 코딩 전처리로 1차 압축을 수행한 후 허프만 코딩으로 무손실 압축률을 향상시키는 새로운 방법을 제시한다. 본 연구에서 제안된 방법은 영상의 종류에 따라 자동적으로 허프만 코딩과 전처리 허프만 코딩을 선택하도록 하고, 전처리는 상위 4비트와 하위 4비트를 분리하여 상위 4비트의 중복성을 이용하여 런 랭스 코딩을 하여 기존의 일반적인 허프만 방법보다 더 나은 결과를 나타내었다.

  • PDF

엔트로피 코딩을 위한 적응적 예측기 (Adaptive Predictor for Entropy Coding)

  • 김영로;박현상
    • 한국산학기술학회논문지
    • /
    • 제11권1호
    • /
    • pp.209-213
    • /
    • 2010
  • 본 논문에서 엔트로피 코딩을 위한 효과적인 예측기를 제안한다. 제안하는 예측기는 MED(median edge detector)와 GAP(gradient adaptive prediction)의 예측 에러 중의 하나를 적응적으로 선택한다. 감소한 에러는 기존의 엔트로피 코딩 방법을 이용하여 부호화한다. 실험 결과, 제안하는 알고리즘이 기존 예측 방법보다 향상된 압축이 가능함을 보인다.

TRIANGLE MESH COMPRESSION USING GEOMETRIC CONSTRAINTS

  • Sim, Jae-Young;Kim, Chang-Su;Lee, Sang-Uk
    • 대한전자공학회:학술대회논문집
    • /
    • 대한전자공학회 2000년도 ITC-CSCC -1
    • /
    • pp.462-465
    • /
    • 2000
  • It is important to compress three dimensional (3D) data efficiently, since 3D data are too large to store or transmit in general. In this paper, we propose a lossless compression algorithm of the 3D mesh connectivity, based on the vertex degree. Most techniques for the 3D mesh compression treat the connectivity and the geometric separately, but our approach attempts to exploit the geometric information for compressing the connectivity information. We use the geometric angle constraint of the vertex fanout pattern to predict the vertex degree, so the proposed algorithm yields higher compression efficiency than the conventional algorithms.

  • PDF

애니메이션 작업에 사용되는 이미지 포맷 연구 (The image format research which is suitable in animation work)

  • 권동현
    • 만화애니메이션 연구
    • /
    • 통권14호
    • /
    • pp.37-51
    • /
    • 2008
  • 애니메이션 작업에 있어 컴퓨터는 꼭 필요한 도구가 되었다. 그러나 컴퓨터와 그에 따른 소프트웨어들의 특성을 잘 파악하지 못할 경우 노력에 상응하는 결과물을 만들지 못할 수도 있다. 이미지 포맷의 부정확한 이해에서 이러한 경우가 발생하기도 한다. 대다수 작업자들은 제작공정 속에서 이미지 포맷을 습관적으로 선택하는 경우가 많으나, 이미지 포맷은 분명한 기능적 차이를 가지고 있으며 그 효율적 사용법도 다르다. 그러므로 보다 효율적인 작업을 위해 애니메이션 작업에 주로 사용되는 여러 종류의 이미지 포맷들을 특성을 파악하는 것이 필요하다. 먼저 오늘날 통신, 데이터저장 등 컴퓨터 전반에서 널리 쓰이는 데이터 압축의 두 종류인 손실 압축과 비손실 압축의 원리와 이미지표현의 서로 다른 구조인 비트맵 방식과 벡터 방식의 차이점, 24비트 트루 컬러와 8피트 알파채빌 등을 살펴보았다. 이러한 특성들을 토대로 2D, 3D, 합성, 편집 등 여러 형태의 애니메이션 작업 간에 사용되는 이미지 포맷들의 기능적 차이점과 그에 따른 장단점을 분석하였으며 실험을 통하여 JPG 파일이 컴퓨터 작업 중에 적은 용량을 차지할 것이라는 생각이 잘못된 것임을 증명하였다. 결론적으로 용량, 기능, 화질을 고려할 때, 편집, 합성, 3D, 2D를 막론하고 가장 효율적인 포맷으로는 TIF 포맷을 제안하며 학교 교육에서는 어도비사의 교육용 프로그램을 많이 사용하므로 호환성과 기능이 우수한 PSD 포맷을 제안하였다. 본 논문이 학교 교육에서나 실무 작업에서 이미지 포맷을 선택함에 있어 기준이 되기를 기대한다.

  • PDF

목표 구조물에 대한 점군데이터의 무손실 압축 기법에 관한 연구 (A Study on a Lossless Compression Scheme for Cloud Point Data of the Target Construction)

  • 방민석;윤기방;김기두
    • 전자공학회논문지CI
    • /
    • 제48권5호
    • /
    • pp.33-41
    • /
    • 2011
  • 본 논문에서는 지상라이다를 사용해 구조물을 측정한 점군데이터가 갖는 중복성을 피하고, 목표 구조물외에 불필요한 정보의 수를 감소시키도록 하는 점군데이터의 무손실 압축 기법을 제안한다. 제안된 방법을 적용하기 위해, 호프 변환을 이용하여 구조물과 지상라이다의 수평방향 사이의 각도를 찾아, 이를 점군데이터의 회전 변환에 적용하였다. 이로써 x축에 평행하도록 구성된 점군데이터에 대한 y좌표의 중복성은 기존의 데이터보다 많아지고, 따라서 압축률도 향상시킬 수 있다. 추가로, 불필요한 데이터를 찾아 정보량을 감소시키는 방법을 적용한다. 하나는 점군데이터를 데시메이션하는 것이고, 다른 하나는 목표 구조물이 갖는 y좌표의 범위를 찾아 목표로 하는 범위내 점군데이터만 추출하는 것이다. 제안한 방법은 실험을 통해 압축률이 향상되었음을 확인할 수 있다. 또한, 별도의 추가 정보 없이 점군데이터의 위치 정보만으로 데이터를 압축할 수 있고, 이 압축알고리듬으로 처리속도를 높일 수 있다.

계층적 깊이 영상으로 표현된 다시점 영상에 대한 H.264 부호화 기술 (H.264 Encoding Technique of Multi-view Image expressed by Layered Depth Image)

  • 김민태;지인호
    • 한국인터넷방송통신학회논문지
    • /
    • 제10권1호
    • /
    • pp.81-90
    • /
    • 2010
  • 본 논문에서는 계층적 깊이 영상을 H.264 기술로 부호화 시켜 압축된 데이터 크기를 확인하고, 복원된 각 영상의 품질 성능을 알아보았다. 3차원 워핑된 계층적 깊이 영상을 임계값에 따라 조정해 가면서 Filling 보간 실험을 하고 H.264 부호화 시켜 압축된 데이터 크기를 측정하였다. H.264/AVC 기술은 쉽게 비디오와 관련된 콘텐트에 대한 H.264 기술로 확장 될 수 있다. 그래서 깊이 정보를 포함하는 다시점 영상을 효과적으로 압축할 수 있는 계층적 깊이 영상 구조라는 새로운 콘텐트에 적용하는 방법을 제안하였다. 다시점 비디오 영상의 방대한 데이터 양을 감소시키며, 고품질의 영상을 제공하고, 에러 복원 기능이 강화되는 장점도 가지고 있다.