• 제목/요약/키워드: Docker

검색결과 71건 처리시간 0.028초

KVM 가상머신에서 도커를 사용하는 시스템의 호스트 메모리 부하에 따른 task 처리 성능 분석 (Analysis of task processing performance depending on the host memory load of the system using the docker in the KVM virtual machine)

  • 장용현;이재학;유헌창
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2020년도 춘계학술발표대회
    • /
    • pp.20-23
    • /
    • 2020
  • 도커는 하드웨어 가상화를 지원하는 KVM과 달리 호스트의 커닐을 공유하기 때문에 보안적인 문제가 생길 수 있다. 또한, 도커는 호스트 OS에 종속적이기 때문에 다른 OS에 종속적인 컨테이너를 실행할 수 없다는 단점도 있다. 이를 보완하기 위해 KVM을 이용해 가상머신을 실행하고 가상머신에서 도커를 이용하면 도커와 KVM의 장점을 살린 시스템을 구성할 수 있다. 실제 이 시스템의 실효성과 안정성을 평가하기 위해 실험을 진행하였고, 호스트의 메모리만 충분하다면 실효성과 안정성이 보장됨을 확인하였다.

Kubernetes를 활용한 영상 기반 멤버 검증 어플리케이션의 분산 배치 기법 (Kubernetes Microservices for Video-based Member Verification Application)

  • 김영기;금승우
    • 한국방송∙미디어공학회:학술대회논문집
    • /
    • 한국방송∙미디어공학회 2020년도 하계학술대회
    • /
    • pp.45-46
    • /
    • 2020
  • 중앙 집중형 구조로 인터넷을 통해 온디맨드 컴퓨팅 리소스를 제공하는 클라우드 컴퓨팅 기술이 범용화 됨에 따라, 다양하고 높은 성능의 컴퓨팅 자원을 사용하는 어플리케이션이 늘고 있다. 하지만 특정 어플리케이션은 인터넷을 이용한 중앙 집중형 구조인 클라우드 컴퓨팅 자원을 사용하는 경우 서비스 품질에 영향을 받을 수 있다. 본 연구는 영상 기반 멤버 검증 어플리케이션의 운용에 있어 영상 데이터의 방대한 크기에 따른 지연시간, 네트워크 병목현상 및 영상에 포함된 얼굴 이미지로 인한 개인신상정보 관련 문제 등을 완화하기 위한 마이크로서비스화 및 분산 배치 기법을 보인다. 또한 이 멤버 검증 어플리케이션의 분산 배치 기법을 적용하여 Docker 컨테이너 단위 마이크로서비스의 배포, 스케일링, 운영을 자동화하기 위한 오픈소스 플랫폼인 Kubernetes를 활용하여 구현함으로써 검증하였다.

  • PDF

클라우드 환경에서 인공지능 모듈 기반 로봇 응용을 위한 증강 지능 모델 공유 기술 개발 (A Development of Augmented Intelligence Model Sharing for AI Modular Robot Application in Cloud Environment)

  • 장철수;송병열;정영숙
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2022년도 추계학술발표대회
    • /
    • pp.129-131
    • /
    • 2022
  • 본 논문에서는 다양한 인공지능을 모듈화하고 모듈들을 서로 결합하여 서비스를 제공할 수 있는 지능형 서비스 로봇에서, 인공지능 모듈들을 라이브러리 간의 의존성을 해소하기 위한 방법 중 하나인 가상 머신의 일종인 도커(Docker)를 활용하여 컨테이너화하여 사용할 때, 인공지능 모듈 내부에서 사용하는 신경망 데이터에 해당하는 지능 모델에 대해 버전 관리를 수행하면서 클라우드 등 외부 서버를 이용하여 증강시킨 지능 모델을 공유하는 기술 개발에 대해 설명한다.

F2C 환경에서 도커 레지스트리를 이용한 서비스 상호운용 구현 (Implementation of Service Interoperability using Docker Registry in F2C Environment)

  • 김수은;김미선;서재현
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2022년도 추계학술발표대회
    • /
    • pp.150-152
    • /
    • 2022
  • F2C(Fog-to-Cloud) 환경에서 클라우드와 포그는 긴밀하게 협업하여, 동적으로 작용하며 서비스를 제공할 수 있어야 한다. 이에 본 논문에서는 기존 클라우드/서버 컴퓨팅에서 클라우드 서버 중심의 단방향 서비스 이미지 배포대신에 레지스트리를 이용하여 클라우드, 포그, 그리고 에지까지 서비스 이미지를 배포 가능하게 하여, 동적인 서비스 상호운용이 가능한 시스템을 제안하였다. 또한, 클라우드, 포그에 레지스트리 이미지를 설치하고, 서비스 이미지 등록을 통해 서비스 배포, 실행되는 시스템을 구현하였다.

도커를 이용한 온라인 저지 시스템 자원 제한 방법 (A Resource Restriction Method for Online Judge Systems Using Docker)

  • 김영훈;한상곤;우균
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2023년도 추계학술발표대회
    • /
    • pp.66-69
    • /
    • 2023
  • 온라인 저지 시스템은 학습자가 제출한 코드를 평가하기 위해 많은 시스템 자원을 사용한다. 학습자의 코드를 평가하는 방법 중 하나인 코드 효율성 측정은 시간복잡도를 기반으로 평가하기 때문에 대량의 인수를 입력 데이터로 사용한다. 본 연구에서 컨테이너 기술인 도커의 컨트롤 그룹을 활용하여 CPU 자원을 제한한다. 이를 통해 기존에 사용한 데이터보다 적은 데이터를 이용하여 코드 효율성을 측정하는 방법을 제안한다. 제안된 방법에 따르면 최단 경로 계산 문제에서 데이터 크기를 60%, 측정 시간을 33.3% 절감할 수 있는 것으로 나타났다.

콜드 스타트 완화를 위한 도커 환경에서의 이미지 레이어 동시성 수준에 따른 풀링 속도 성능 분석 (A Performance Analysis of Pulling Rate Based on Image Layer Concurrency Level in Docker Environment for Cold Start Mitigation)

  • 강민우;김동균;유헌창;강지훈
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2023년도 추계학술발표대회
    • /
    • pp.89-92
    • /
    • 2023
  • 최근에 Serverless 컴퓨팅은 많은 관심을 받는 기술로, 서버 프로비저닝 없이 코드를 배포하고 실행할 수 있으며 요청량에 따라 동적으로 컴퓨팅 리소스를 확장하여 애플리케이션을 안정적으로 운영할 수 있는 환경을 제공한다. Serverless 컴퓨팅의 주요 이슈 중 하나인 cold start 는 함수를 실행하기 위한 컨테이너 초기화 및 구동하는 단계이며, 해당 과정에서는 이미지 풀링이 수행될 수 있다. 이미지 풀링은 cold start 지연의 대부분을 차지하고 함수의 응답시간을 증가 시켜서 사용자 경험에 부정적인 영향을 줄 수 있다. 따라서, 본 논문에서는 cold start 지연을 줄이기 위해 도커를 활용해서 이미지 레이어 동시 풀링 개수를 조절함으로써 이미지 풀링 속도를 개선시킬 수 있는지 분석하였다. 이와 같은 분석을 통해 풀링 개수가 풀링 속도에 영향을 줄 수 있음을 확인하였다.

네트워크 중단 최소화를 위한 On-Box 컨테이너 기반 스위치 설정 자동화 기술 (On-box Container-based Switch Configuration Automation Technology to Minimize Network Interruption)

  • 유경환;김태홍
    • 대한임베디드공학회논문지
    • /
    • 제19권3호
    • /
    • pp.141-149
    • /
    • 2024
  • This paper proposes a configuration automation technique to minimize service interruption time in the event of a corporate network access layer switch failure. The automation is achieved without the need for a separate external system, as the network setting information is stored in a container inside the switch, enabling rapid recovery without requiring separate storage. This approach ensures the continuity of network services and demonstrates the efficiency of configuration automation. The proposed technique improves corporate network stability by providing a quick response in the event of a failure.

Design and Implementation of a Digital Evidence Management Model Based on Hyperledger Fabric

  • Jeong, Junho;Kim, Donghyo;Lee, Byungdo;Son, Yunsik
    • Journal of Information Processing Systems
    • /
    • 제16권4호
    • /
    • pp.760-773
    • /
    • 2020
  • When a crime occurs, the information necessary for solving the case, and various pieces of the evidence needed to prove the crime are collected from the crime scene. The tangible residues collected through scientific methods at the crime scene become evidence at trial and a clue to prove the facts directly against the offense of the suspect. Therefore, the scientific investigation and forensic handling for securing objective forensic in crime investigation is increasingly important. Today, digital systems, such as smartphones, CCTVs, black boxes, etc. are increasingly used as criminal information investigation clues, and digital forensic is becoming a decisive factor in investigation and trial. However, the systems have the risk that digital forensic may be damaged or manipulated by malicious insiders in the existing centralized management systems based on client/server structure. In this paper, we design and implement a blockchain based digital forensic management model using Hyperledger Fabric and Docker to guarantee the reliability and integrity of digital forensic. The proposed digital evidence management model allows only authorized participants in a distributed environment without a central management agency access the network to share and manage potential crime data. Therefore, it could be relatively safe from malicious internal attackers compared to the existing client/server model.

클라우드 환경에서 도커의 동적 자원 할당 구현 및 효과 분석 (Implementation and Analysis of Dynamic Resource Allocation for Docker in Cloud Environment)

  • 최성민;송성진;유헌창;정광식;박지수
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2015년도 추계학술발표대회
    • /
    • pp.140-143
    • /
    • 2015
  • 클라우드 컴퓨팅에서 가상화 기술은 단일 물리 자원을 논리적인 자원으로 분할해 다수의 시스템이 병행적으로 운용될 수 있는 환경을 구축하여 준다. 이에 컨테이너 기술 또한 프로세스의 격리를 이용해서 가상화와 같은 병행 수행 환경을 제공한다. 게다가 컨테이너 기술은 하드웨어를 추상화하는 절차가 없기 때문에 기존의 가상화 기술에 비해 오버헤드가 현저히 작다. 따라서 기존의 하이퍼바이저 자리를 대체하기 위한 수단으로 컨테이너 기술의 가능성이 점쳐지고 있다. 본 논문에서는 상용화 된 컨테이너 기술인 도커를 기존의 클라우드-가상화 환경에 도입하였을 때 발생되는 문제를 분석하여 해결 방안을 제안하고 실험을 통해 그 효과를 비교하였다. 기존의 도커는 정적 자원 할당만을 지원하며 이는 클라우드 환경에서 급격한 변화에 유연하게 대처하지 못한다는 단점을 가지고 있다. 따라서 도커에 동적 자원 할당 기술을 적용하여 기존의 단점을 보완하고 클라우드 환경에서 컨테이너 기술의 운영 효율성을 제고한다.

Implementation of AIoT Edge Cluster System via Distributed Deep Learning Pipeline

  • Jeon, Sung-Ho;Lee, Cheol-Gyu;Lee, Jae-Deok;Kim, Bo-Seok;Kim, Joo-Man
    • International journal of advanced smart convergence
    • /
    • 제10권4호
    • /
    • pp.278-288
    • /
    • 2021
  • Recently, IoT systems are cloud-based, so that continuous and large amounts of data collected from sensor nodes are processed in the data server through the cloud. However, in the centralized configuration of large-scale cloud computing, computational processing must be performed at a physical location where data collection and processing take place, and the need for edge computers to reduce the network load of the cloud system is gradually expanding. In this paper, a cluster system consisting of 6 inexpensive Raspberry Pi boards was constructed to perform fast data processing. And we propose "Kubernetes cluster system(KCS)" for processing large data collection and analysis by model distribution and data pipeline method. To compare the performance of this study, an ensemble model of deep learning was built, and the accuracy, processing performance, and processing time through the proposed KCS system and model distribution were compared and analyzed. As a result, the ensemble model was excellent in accuracy, but the KCS implemented as a data pipeline proved to be superior in processing speed..