• Title/Summary/Keyword: 고속 데이터 처리

Search Result 761, Processing Time 0.028 seconds

Spaceborne Data Link Design for High Rate Radar Imaging Data Transmission (고속 레이다 영상자료 전송을 위한 위성탑재 데이터 링크 설계)

  • Gwak, Yeong-Gil
    • Journal of the Institute of Electronics Engineers of Korea TC
    • /
    • v.39 no.3
    • /
    • pp.117-124
    • /
    • 2002
  • A high speed data link capability is one of the critical factors in determining the performance of the spaceborne SAR system with high resolution because of the strict requirement for the real-time data transmission of the massive SAR data in a limited time of mission. In this paper, based on the data link model characterized by the spaceborne small SAR system, the high rate multi-channel data link module is designed including link storage, link processor, transmitter, and wide-angle antenna. The design results are presented with the performance analysis on the data link budget as well as the multi-mode data rate in association with the SAR imaging mode of operation from high resolution to the wide swath. The designed data link module can be effectively used for the spaceborne and airborne applications which requires to expand the high speed data link capability.

All-optical Binary Half Adder Using SLALOM (SLALOM을 이용한 전광 반 가산기)

  • 김선호;이성철;박진우
    • Proceedings of the Optical Society of Korea Conference
    • /
    • 2001.02a
    • /
    • pp.74-75
    • /
    • 2001
  • 현재의 통신망에서는 clock recovery, regeneration 등을 전기적으로 처리하고 있으나 처리속도의 한계가 있고, 미래의 초고속 네트웍은 이러한 전기적 신호처리의 속도한계를 극복하는 기술이 필요하다. 그러므로, 고속의 광교환과 광신호처리 등 광신호를 전기적으로 바꾸거나 제어하지 않고 전광으로 처리하는 기술에 대한 연구가 진행되고 있으며 이러한 전광신호 처리에 고속의 전광 논리소자가 요구된다. 초기의 전광 논리소자 연구에서는 AND, OR, NOR, XOR 등의 기본 논리 기능이 주로 구현되었으며 이를 활용하여 Shift Register, Binary counter, 전광 반가산기, 직/병렬 데이터 변환기와 같은 복합기능 논리소자의 구현 연구가 이루어지고 있다. (중략)

  • PDF

A Study on Solving Single Point of Failure Problem about Private Blockchain with high TPS using CMT (CMT를 활용한 프라이빗 블록체인 고속화로 인한 단일 장애 지점 문제 해결에 관한 연구)

  • Jo, Uk;Kim, Geum-Bo;Kim, Ho-Won
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2022.05a
    • /
    • pp.252-255
    • /
    • 2022
  • 기존 블록체인 기술을 활용해 새로운 비즈니스 모델을 개발 및 투자하려는 기업들의 관심이 높아지고 있으나, 낮은 확장성으로 인해 기존 블록체인 기술만으로는 시장에서 활용되기 어렵다. 블록체인의 낮은 확장성을 해결하기 위해 검증된 참여자만 참여하는 프라이빗 블록체인과 프라이빗 블록체인 고속화를 위한 관련 연구가 같이 진행되고 있다. 삼성의 넥스레저는 하이퍼레저 패브릭의 다중 버전 동시성 제어(MVCC) 충돌로 인한 낮은 TPS 문제를 해결하기 위해 Accelerator를 추가하여 고속화를 진행하였다. 하지만 모든 트랜잭션을 수집하여 처리하는 방식인 Accelerator는 중앙화로 인해 악의적인 공격 타깃이 되어 단일 장애 지점 문제가 발생할 수 있으며, 공격으로 인해 위조되거나 분실된 데이터는 검증 없이 블록체인 블록에 반영되고, 한번 반영된 데이터는 수정이 어렵다. 본 논문에서는 이와 같이 프라이빗 블록체인 고속화 상황에서 발생할 수 있는 단일 장애 지점 문제를 해결하기 위해 CMT와 사기증명 기반의 고속화 하이퍼레저 패브릭 시스템을 제안했으며, 제안한 시스템을 구축하고 성능 테스트를 통해 CMT 하이퍼레저 패브릭 시스템 성능이 99.58% 유지됨과 사기증명이 가능함을 확인하였다.

Analysis of the Interference between Parallel Socket Connections and Predictions of the Bandwidth (병렬 소켓 간의 트래픽 간섭 현상 분석 및 대역폭 예측)

  • Kim, Young-Sin;Huh, Eui-Nam;Hwang, Jun
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2005.05a
    • /
    • pp.941-944
    • /
    • 2005
  • 최근에는 대량의 데이터가 생산되고, 저장되며, 전송되고 있다. 따라서 이러한 대량의 데이터를 보다 효율적으로 관리하는 기술, 데이터를 고속으로 전송하는 기술이 연구되고 있다. 그 중, GridFTP는 고속으로 데이터를 전송하기 위해 연구되고 있는 기술로, 병렬연결들을 생성하고 이들을 통해 동시에 데이터를 전송함으로써 보다 빠른 전송을 실현하고 있다. 그러나 그리드 환경의 VO 간에 데이터를 병렬로 전송하는 응용 프로그램들이 증가하게 된다면, VO 간에 소켓 연결 수가 증가하게 되고, 따라서 각 연결들 간에 간섭이 발생하게 된다. 따라서 본 논문에서는 소켓 연결들 간의 간섭을 실험을 통하여 분석하고, 한 응용 프로그램에 의해 생성되는 병렬연결이 할당받게 될 대역폭을 예측함으로써, VO 간의 병렬 전송을 제어하는 메커니즘의 토대를 마련하고자 한다.

  • PDF

Multi-Channel Data Link Module Design for High Speed Image Data Transmission from Spaceborne SAR (위성 영상 레이다의 고속자료 전송을 위한 멀티 채널 데이터 전송 모듈 설계와 성능 특징)

  • Kwag, Young-Kil
    • Journal of Advanced Navigation Technology
    • /
    • v.5 no.2
    • /
    • pp.149-157
    • /
    • 2001
  • A high speed data link capability is one of the critical factors in determining the performance of the spaceborne SAR system with high resolution. It is due to the strict requirement for the real-time data transmission from a series of massive raw image data of spaceborne SAR to the ground station in a limited time of mission. In this paper, based on the data link model characterized by the spaceborne small SAR system, the high rate multi-channel data link module is designed including link storage, link processor, transmitter, and wide-angle antenna. The design results are presented with the performance analysis on the data link budget as well as the multi-mode data rate in association with the SAR imaging mode of operation from high resolution to the wide swath.

  • PDF

Fast Distributed Video Coding using Parallel LDPCA Encoding (LDPCA 병렬 부호화를 이용한 고속 분산비디오부호화)

  • Park, Jongbin;Kim, Jaehwan;Jeon, Byeungwoo
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 2010.11a
    • /
    • pp.136-137
    • /
    • 2010
  • 본 논문에서는 고속, 저전력 비디오 부호화에 적합한 변환영역 Wyner-Ziv 분산비디오부호화기를 더욱 고속화하기 위한 병렬처리 방법을 제안한다. 기존에는 변환영역 Wyner-Ziv 분산비디오부호화를 위해 양자화 정보를 비트플레인단위로 분해후 이를 순차적으로 LDPCA 부호화하여 전체 부호화기 연산량에서 LDPCA의 복잡도가 약 54% 정도 차지하였고, 이는 고비트율로 부호화 할수록 더욱 증가하였다. 제안방법은 이를 개선하기 위해 여러 개의 비트플레인을 하나의 심벌 (symbol)로 묶어서 LDPCA 부호화를 수행하여 한 번의 연산으로 여러 개의 데이터를 동시에 처리할 수 있게 한다. 일종의 단일 명령 복수 데이터 처리 (SIMD, Single instruction, multiple data)에 의한 고속화 방법이다. 이를 통해 제안방법은 기존의 순차적 처리 방법에 비해 저비트율에서는 8배, 고비트율에서는 55배까지 LDPCA의 부호화 속도를 향상시켰다. 결과적으로 전체 부호화에서 LDPCA의 상대적인 복잡도 비율은 4%정도로 낮아지게 되었으며 Wyner-Ziv 영상의 부호화 속도도 약 1.5 ~ 2배까지 향상되었다. 제안방법은 LDPCA를 사용하는 다른 Wyner-Ziv 분산비디오부호화 구조에도 적용 가능할 것으로 기대한다.

  • PDF

Efficient Computation of Stream Cubes Using AVL Trees (AVL 트리를 사용한 효율적인 스트림 큐브 계산)

  • Kim, Ji-Hyun;Kim, Myung
    • The KIPS Transactions:PartD
    • /
    • v.14D no.6
    • /
    • pp.597-604
    • /
    • 2007
  • Stream data is a continuous flow of information that mostly arrives as the form of an infinite rapid stream. Recently researchers show a great deal of interests in analyzing such data to obtain value added information. Here, we propose an efficient cube computation algorithm for multidimensional analysis of stream data. The fact that stream data arrives in an unsorted fashion and aggregation results can only be obtained after the last data item has been read. cube computation requires a tremendous amount of memory. In order to resolve such difficulties, we compute user selected aggregation fables only, and use a combination of an way and AVL trees as a temporary storage for aggregation tables. The proposed cube computation algorithm works even when main memory is not large enough to store all the aggregation tables during the computation. We showed that the proposed algorithm is practically fast enough by theoretical analysis and performance evaluation.

(Design of Systolic Away for High-Speed Fractal Image Compression by Data Reusing) (데이터 재사용에 의한 고속 프랙탈 영상압축을 위한 시스토릭 어레이의 설계)

  • U, Jong-Ho;Lee, Hui-Jin;Lee, Su-Jin;Seong, Gil-Yeong
    • Journal of the Institute of Electronics Engineers of Korea SC
    • /
    • v.39 no.3
    • /
    • pp.220-227
    • /
    • 2002
  • An one-dimensional VLSI array for high speed processing of Fractal image compression was designed. Using again the overlapped input data of adjacent domain blocks in the existing one-dimensional VLSI array, we can save the number of total input for the operations, and so we can save the total computation time. In the design procedure, we considered the data dependences between the input data, reordered the input data to the array, and designed the processing elements. Registers and multiplexors are added for the storing and routing of the input data in some processing elements. Consequently as adding a little hardware, this design shows (N-4B)/4(N-B) times of speed-up compared with the existing array, where N is image size and B is block size.

Effective Point Dataset Removal for High-Speed 3D Scanning Processes (고속 3D 스캐닝 프로세스를 위한 효과적인 점데이터 제거)

  • Lim, Sukhyun
    • Journal of the Korea Institute of Information and Communication Engineering
    • /
    • v.26 no.11
    • /
    • pp.1660-1665
    • /
    • 2022
  • Recently, many industries are using three dimensional scanning technology. As the performance of the 3D scanner gradually improves, a sampling step to reduce a point data or a remove step to remove a part determined to be noise are generally performed in post processing. However, total point data by long time scanning cannot be processed at once in spite of performing such those additional processes. In general, a method using a multi threaded environment is widely used, but as the scanning process work time increases, the processing performance gradually decreases due to various environmental conditions and accumulated operations. This paper proposes a method to initially remove point data judged to be unnecessary by calculating accumulated fast point feature histogram values from coming point data of the 3D scanner in real time. The entire 3D scanning process can be reduced using this approach.

A Study on Development and Analysis of Control Operation Software of High-Speed Recorder (고속기록기의 제어운용 소프트웨어 분석 및 개발에 관한 연구)

  • Hwang, Chul-Jun;Oh, Se-Jin
    • Journal of the Institute of Convergence Signal Processing
    • /
    • v.10 no.4
    • /
    • pp.280-288
    • /
    • 2009
  • In this paper, we developed new time information recording module of VSI (VLBI Standard Interface) format by analyzing the Mark5B recorder control and operation software with 1Gbps speed, which is able to record the weak signal of space radio source, through the Korean VLBI Network (KVN). The control and operation software of high-speed recorder consists of 2 kinds of software, which is that it can operate RAID control board by controlling large capacity HDD drive and the network control and operation. Especially, core software in high-speed recorder is able to output the results after performing and analyzing the input command. Through the analysis of control and operation software, new time information recording module, which is needed to process the observed data for correlation, is developed. New developed time information recording module can record the time information together after checking the interrupt of 1PPS(Pulse Per Second) input signal when the observed data will be recorded. To verify the normal operation of the developed time information recording module, we performed the real observation test and confirmed the effectiveness of developed software through analyzing the recorded observation data.

  • PDF