• 제목/요약/키워드: Latency Time

검색결과 989건 처리시간 0.03초

클라우드 데이터베이스에서의 꼬리응답시간 감소를 위한 가비지 컬렉션 동기화 기법 (Garbage Collection Synchronization Technique for Improving Tail Latency of Cloud Databases)

  • 한승욱;한상욱;김지홍
    • 정보과학회 논문지
    • /
    • 제44권8호
    • /
    • pp.767-773
    • /
    • 2017
  • 클라우드 데이터베이스와 같은 분산 시스템 환경에서는 균일한 서비스 품질을 보장하기 위해 꼬리 응답시간을 짧게 유지하는 것이 중요하다. 본 논문에서는 카산드라 데이터베이스를 대상으로, 긴 꼬리 응답시간에 해당하는 지연이 메모리 공간 부족으로 인해 발생한다는 것을 보이며, 이러한 지연이 메모리 공간 확보를 위해 버퍼에 저장된 데이터를 저장장치에 완전히 내려쓸 때까지 카산드라가 사용자의 요청을 받지 않기 때문임을 밝힌다. 버퍼에 저장된 데이터를 내려쓰는데 걸리는 시간은 저장장치 성능에 따라 결정되므로 SSD의 가바지 컬렉션으로 인한 성능 저하가 꼬리 응답시간을 더 길게 만들고 있음을 관찰하였다. 우리는 자바가상기계에서의 가비지 컬렉션과 SSD에서의 가비지 컬렉션을 함께 수행하여 SSD의 가비지 컬렉션 비용을 숨기는, SyncGC 기법을 제안한다. 실험 결과, SyncGC 기법을 통해 꼬리 응답시간인 $99.9^{th}$$99.9^{th}-percentile$을 각각 31%, 36% 줄일 수 있었다.

사물인터넷에서 객체전송지연을 계산하기 위한 수리적 모델링 및 휴리스틱 알고리즘의 개발 (Analytical Modelling and Heuristic Algorithm for Object Transfer Latency in the Internet of Things)

  • 이용진
    • 사물인터넷융복합논문지
    • /
    • 제6권3호
    • /
    • pp.1-6
    • /
    • 2020
  • 본 논문은 평균 객체 전송 지연 시간에 대한 기존의 모델들을 하나의 프레임워크로 통합하고 실제 계산 경험을 통해 결과를 분석하는 것을 목표로 한다. 해석적 객체 전송 지연 시간 모델은 다중 패킷 손실과 작은 혼잡제어 윈도우로 인해 빠른 재전송이 불가능한 멀티홉 무선 네트워크를 위시한 사물 인터넷(IoT) 환경을 가정한다. 이 모델은 또한 초기 혼잡 윈도우 크기와 하나의 혼잡 윈도우에서의 다중 패킷 손실을 고려한다. 성능평가에 의하면, 전송 객체 크기와 패킷 손실률이 작은 경우 평균 객체 전송 지연의 하한값과 상한값은 거의 동일하다. 그러나 패킷 손실률이 커지면 초기 혼잡 윈도우의 크기와 왕복 시간이 평균 객체 전송 지연의 상·하한값에 영향을 미치는 것으로 나타났다.

이동 무선랜 접속장치의 접속점 보안 천이 메커니즘과 유한상태머신 (Inter-AP Security Transition Mechanism and Its FSM in WLAN AP Supporting Fast Roaming)

  • 정병호;강유성;오경희;김상하
    • 한국통신학회논문지
    • /
    • 제30권6C호
    • /
    • pp.601-606
    • /
    • 2005
  • 무선랜 상에서 실시간 음성 서비스 제공에 대한 기대가 높아지면서, 무선랜 접속장치에 빠르고 안전한 이동성 지원 기술을 구현하는 문제는 최근 가장 활발히 연구되고 있는 분야 중 하나이다. 이동 단말이 새로운 접속장치로 이동하더라도 과거 접속장치로부터 제공 받던 보안 강도를 지속적으로 유지하면서 이동 지연시간을 최소화하는 문제는 매우 중요하다. 따라서 본 논문은 IEEE802.11i, 802.1x, 그리고 802.11f를 지원하는 무선랜에서 접속점 보안 천이시간을 시스템 성능 변수로 정의하고, 평균적 천이 지연시간의 최소화를 목적 함수로 하는 보안 메커니즘과 그 실현을 위한 유한 상태 머신을 제안한다. 실험 결과 제안된 보안 메커니즘이 기존의 802.1X인증 방식에 비하여 $79\%$ 까지의 성능 이득이 기대됨을 보인다

NOW 환경에서 개선된 고정 분할 단위 알고리즘 (Refined fixed granularity algorithm on Networks of Workstations)

  • 구본근
    • 정보처리학회논문지A
    • /
    • 제8A권2호
    • /
    • pp.117-124
    • /
    • 2001
  • At NOW (Networks Of Workstations), the load sharing is very important role for improving the performance. The known load sharing strategy is fixed-granularity, variable-granularity and adaptive-granularity. The variable-granularity algorithm is sensitive to the various parameters. But Send algorithm, which implements the fixed-granularity strategy, is robust to task granularity. And the performance difference between Send and variable-granularity algorithm is not substantial. But, in Send algorithm, the computing time and the communication time are not overlapped. Therefore, long latency time at the network has influence on the execution time of the parallel program. In this paper, we propose the preSend algorithm. In the preSend algorithm, the master node can send the data to the slave nodes in advance without the waiting for partial results from the slaves. As the master node sent the next data to the slaves in advance, the slave nodes can process the data without the idle time. As stated above, the preSend algorithm can overlap the computing time and the communication time. Therefore we reduce the influence of the long latency time at the network and the execution time of the parallel program on the NOW. To compare the execution time of two algorithms, we use the $320{\times}320$ matrix multiplication. The comparison results of execution times show that the preSend algorithm has the shorter execution time than the Send algorithm.

  • PDF

이중 입력 터보 코드를 위한 저지연 부호화 알고리즘 (Low Latency Encoding Algorithm for Duo-Binary Turbo Codes with Tall Biting Trellises)

  • 박숙민;곽재영;이귀로
    • 대한전기학회:학술대회논문집
    • /
    • 대한전기학회 2008년도 학술대회 논문집 정보 및 제어부문
    • /
    • pp.117-118
    • /
    • 2008
  • The low latency encoder for high data rate duo-binary turbo codes with tail biting trellises is considered. Encoder hardware architecture is proposed using inherent encoding property of duo-binary turbo codes. And we showed that half of execution time as well as the energy can be reduced with the proposed architecture.

  • PDF

무선랜 환경에서 Mobile IPv6 Fast Handover 알고리즘에 관한 연구 (A Study of Mobile IPv6 Fast Handover Algorithms in WLAN Environment)

  • 이재황;김평수;김영근
    • 대한전자공학회:학술대회논문집
    • /
    • 대한전자공학회 2003년도 하계종합학술대회 논문집 I
    • /
    • pp.509-512
    • /
    • 2003
  • 본 논문은 무선랜 환경에서 Mobile IPv6 Node가 이동 시에 발생하는 Handover Latency 를 줄이기 위한 새로운 알고리즘을 제안한다. 현재 Mobile IPv6 Fast Handover Protocol 은 Layer2 에서의 Handover 의 도움을 전제로 하기 때문에 실제 구현상에서 Real-time 이나Delay 에 민감한 Application 에 적용하기 어렵다. 이 문제를 해결하기 위해 무선랜에서 사용하는 Beacon 신호를 이용한 Dominant NAR 알고리즘을 적용하여 MIPv6 Fast Handover 과정을 선 처리하여 Handover Latency를 줄이고자 한다.

  • PDF

Effect of Caching and Prefetching Techniques to Accelerate Channel Search Latency in IPTVs

  • Bahn, Hyokyung
    • International Journal of Internet, Broadcasting and Communication
    • /
    • 제14권2호
    • /
    • pp.17-22
    • /
    • 2022
  • Due to the recent advances in high-speed communication technologies as well as the easy production of high-quality video contents, IPTV is becoming increasingly popular. Meanwhile, as the number of IPTV channels increases, channel search time to find the desired channel keeps increasing. In this paper, we discuss how to improve the channel search latency in IPTV, and introduce caching and prefetching techniques that are widely used in memory management systems. Specifically, we adopt memory replacement, prefetching, and caching techniques in IPTV channel search interfaces and show the effectiveness of these techniques as the number of channels are varied.

QoS-aware Cross Layer Handover Scheme for High-Speed vehicles

  • Nashaat, Heba
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제12권1호
    • /
    • pp.135-158
    • /
    • 2018
  • High-Speed vehicles can be considered as multiple mobile nodes that move together in a large-scale mobile network. High-speed makes the time allowed for a mobile node to complete a handover procedure shorter and more frequently. Hence, several protocols are used to manage the mobility of mobile nodes such as Network Mobility (NEMO). However, there are still some problems such as high handover latency and packet loss. So efficient handover management is needed to meet Quality of Service (QoS) requirements for real-time applications. This paper utilizes the cross-layer seamless handover technique for network mobility presented in cellular networks. It extends this technique to propose QoS-aware NEMO protocol which considers QoS requirements for real-time applications. A novel analytical framework is developed to compare the performance of the proposed protocol with basic NEMO using cost functions for realistic city mobility model. The numerical results show that QoS-aware NEMO protocol improves the performance in terms of handover latency, packet delivery cost, location update cost, and total cost.

HMD를 이용한 오디오 재생 기술에서 Latency의 영향 분석 (Effect on Audio Play Latency for Real-Time HMD-Based Headphone Listening)

  • 손상모;조현;김선민
    • 한국소음진동공학회:학술대회논문집
    • /
    • 한국소음진동공학회 2014년도 추계학술대회 논문집
    • /
    • pp.141-145
    • /
    • 2014
  • A minimally appropriate time delay of audio data processing is investigated for rendering virtual sound source direction in real-time head-tracking environment under headphone listening. Less than 3.7 degree of angular mismatch should be maintained in order to keep desired sound source directions in virtually fixed while listeners are rotating their head in a horizontal plane. The angular mismatch is proportional to speed of head rotation and data processing delay. For 20 degree/s head rotation, which is a relatively slow head-movement case, less than total of 63ms data processing delay should be considered.

  • PDF

An FPGA Design of High-Speed Turbo Decoder

  • Jung Ji-Won;Jung Jin-Hee;Choi Duk-Gun;Lee In-Ki
    • 한국통신학회논문지
    • /
    • 제30권6C호
    • /
    • pp.450-456
    • /
    • 2005
  • In this paper, we propose a high-speed turbo decoding algorithm and present results of its implementation. The latency caused by (de)interleaving and iterative decoding in conventional MAP turbo decoder can be dramatically reduced with the proposed scheme. The main cause of the time reduction is to use radix-4, center to top, and parallel decoding algorithm. The reduced latency makes it possible to use turbo decoder as a FEC scheme in the real-time wireless communication services. However the proposed scheme costs slight degradation in BER performance because the effective interleaver size in radix-4 is reduced to an half of that in conventional method. To ensure the time reduction, we implemented the proposed scheme on a FPGA chip and compared with conventional one in terms of decoding speed. The decoding speed of the proposed scheme is faster than conventional one at least by 5 times for a single iteration of turbo decoding.