• 제목/요약/키워드: 연합 모델

검색결과 179건 처리시간 0.024초

지식 증류 기반 연합학습의 강건성 평가 (A Evaluation on Robustness of Knowledge Distillation-based Federated Learning)

  • 조윤기;한우림;유미선;윤수빈;백윤흥
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2024년도 춘계학술발표대회
    • /
    • pp.666-669
    • /
    • 2024
  • 연합학습은 원본 데이터를 공유하지 않고 모델을 학습할 수 있는 각광받는 프라이버시를 위한 학습방법론이다. 이를 위해 참여자의 데이터를 수집하는 대신, 데이터를 인공지능 모델 학습의 요소들(가중치, 기울기 등)로 변환한 뒤, 이를 공유한다. 이러한 강점에 더해 기존 연합학습을 개선하는 방법론들이 추가적으로 연구되고 있다. 기존 연합학습은 모델 가중치를 평균내는 것으로 참여자 간에 동일한 모델 구조를 강요하기 때문에, 참여자 별로 자신의 환경에 알맞은 모델 구조를 사용하기 어렵다. 이를 해결하기 위해 지식 증류 기반의 연합학습 방법(Knowledge Distillation-based Federated Learning)으로 서로 다른 모델 구조를 가질 수 있도록(Model Heterogenousity) 하는 방법이 제시되고 있다. 연합학습은 여러 참여자가 연합하기 때문에 일부 악의적인 참여자로 인한 모델 포이즈닝 공격에 취약하다. 수많은 연구들이 기존 가중치를 기반으로한 연합학습에서의 위협을 연구하였지만, 지식 증류 기반의 연합학습에서는 이러한 위협에 대한 조사가 부족하다. 본 연구에서는 최초로 지식 증류 기반의 연합학습에서의 모델 성능 하락 공격에 대한 위협을 실체화하고자 한다. 이를 위해 우리는 GMA(Gaussian-based Model Poisoning Attack)과 SMA(Sign-Flip based Model Poisoning Attack)을 제안한다. 결과적으로 우리가 제안한 공격 방법은 실험에서 최신 학습 기법에 대해 평균적으로 모델 정확도를 83.43%에서 무작위 추론에 가깝게 떨어뜨리는 것으로 공격 성능을 입증하였다. 우리는 지식 증류 기반의 연합학습의 강건성을 평가하기 위해, 새로운 공격 방법을 제안하였고, 이를통해 현재 지식 증류 기반의 연합학습이 악의적인 공격자에 의한 모델 성능 하락 공격에 취약한 것을 보였다. 우리는 방대한 실험을 통해 제안하는 방법의 성능을 입증하고, 결과적으로 강건성을 높이기 위한 많은 방어 연구가 필요함을 시사한다.

지속적인 모델 최적화를 위한 연합 학습 효율화 전략 (For continuous model optimization Federated learning efficiency strategy)

  • 김영수;유헌창
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2024년도 춘계학술발표대회
    • /
    • pp.780-783
    • /
    • 2024
  • 본 논문에서는 지속적으로 최적화된 인공지능 모델을 적용하기 위한 방안으로 연합 학습(Federated Learning)을 활용한 접근법을 제시한다. 최근 다양한 산업 분야에서 인공지능 활용에 대한 필요성이 증가하고 있다. 금융과 같은 일부 산업은 강력한 보안, 높은 정확도, 규제 준수, 실시간 대응이 요구됨과 동시에 정적 시스템 환경 특성으로 적용된 인공지능 모델의 최적화가 어렵다. 이러한 환경적 한계 해결을 위하여, 연합 학습을 통한 모델의 최적화 방안을 제안한다. 연합 학습은 데이터 프라이버시를 유지하면서 모델의 지속적 최적화를 제공이 가능한 강력한 아키텍처이다. 그러나 연합 학습은 클라이언트와 중앙 서버의 반복적인 통신과 학습으로, 불필요한 자원에 대한 소요가 요구된다. 이러한 연합 학습의 단점 극복을 위하여, 주요도 높은 클라이언트의 선정 및 클라이언트와 중앙 서버의 조기 중단(early stopping) 전략을 통한 지속적, 효율적 최적화가 가능한 연합 학습 모델의 운영 전략을 제시한다.

K-비동기식 연합학습의 동적 윈도우 조절과 모델 안정성 향상 알고리즘 (Dynamic Window Adjustment and Model Stability Improvement Algorithm for K-Asynchronous Federated Learning)

  • 김효상;김태준
    • 한국산업정보학회논문지
    • /
    • 제28권4호
    • /
    • pp.21-34
    • /
    • 2023
  • 연합학습은 동기식 연합학습과 비동기식 연합학습으로 구분된다. 그 중에서 비동기식 연합학습은 동기식 연합학습 보다 시간적인 이득이 있으나 좋은 모델 성능을 얻기 위한 도전 과제가 남아있다. 특히 non-IID 학습 데이터셋에서 성능열화 방지, 적절한 클라이언트 선택 및 오래된 그래디언트 정보 관리는 모델 성능 개선에 있어 중요하다. 본 논문에서는 K-비동기식 연합학습을 다루고 있으며 non-IID 데이터셋을 통해 학습한다. 또한 기존 방식이 선택할 클라이언트 수에 있어서 정적인 K개를 사용한 것과 달리 동적으로 K 값을 조절하는 알고리즘을 제안하여 학습 시간을 줄일 수 있었다. 추가적으로, 오래된 그래디언트를 다루는 방식을 활용해 모델 성능 개선을 이루었음을 보여준다. 마지막으로 강한 모델 안정성을 얻기 위해 모델 성능을 평가하는 방식을 활용하였다. 실험 결과를 통해 전체 알고리즘을 활용했을 때 학습 시간 단축, 모델 정확도 향상, 모델 안정성 향상의 이득을 얻을 수 있음을 보여준다.

NoN-IID MNIST 데이터의 연합학습 연구 (A Study on Federated Learning of Non-IID MNIST Data)

  • 이주원;방준일;백종우;김화종
    • 한국컴퓨터정보학회:학술대회논문집
    • /
    • 한국컴퓨터정보학회 2023년도 제68차 하계학술대회논문집 31권2호
    • /
    • pp.533-534
    • /
    • 2023
  • 본 논문에서는 불균형하게 분포된(Non-IID) 데이터를 소유하고 있는 데이터 소유자(클라이언트)들을 가정하고, 데이터 소유자들 간 원본 데이터의 직접적인 이동 없이도 딥러닝 학습이 가능하도록 연합학습을 적용하였다. 실험 환경 구성을 위하여 MNIST 손글씨 데이터 세트를 하나의 숫자만 다량 보유하도록 분할하고 각 클라이언트에게 배포하였다. 연합학습을 적용하여 손글씨 분류 모델을 학습하였을 때 정확도는 85.5%, 중앙집중식 학습모델의 정확도는 90.2%로 연합학습 모델이 중앙집중식 모델 대비 약 95% 수준의 성능을 보여 연합학습 시 성능 하락이 크지 않으며 특수한 상황에서 중앙집중식 학습을 대체할 수 있음을 보였다.

  • PDF

연합학습 환경에서 클라이언트 선택의 최적화 기법

  • 박민정;손영진;채상미
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2023년도 추계학술발표대회
    • /
    • pp.722-723
    • /
    • 2023
  • 연합학습은 중앙 서버에서 데이터를 수집하는 방식이 아닌 로컬 디바이스 또는 클라이언트에서 학습을 진행하고 중앙 서버로 모델 업데이트만 전송하는 분산 학습 기법으로 데이터 보안 및 개인정보보호를 강화하는 동시에 효율적인 분산 학습을 수행할 수 있다. 그러나, 연합학습 대부분의 시나리오는 클라이언트의 서로 다른 분포 형태인 non-IID 데이터를 대상으로 학습함에 따라 중앙집중식 모델에 비하여 낮은 성능을 보이게 된다. 이에 본 연구에서는 연합학습 모델의 성능을 개선하기 위하여 non-IID 의 환경에서 참여 후보자 중에서 적합한 클라이언트 선택의 최적화 기법을 분석한다.

블록체인 기반 연합학습을 위한 레퍼런스 아키텍처 (A Reference Architecture for Blockchain-based Federated Learning)

  • 고은수;문종현;이광기;손채봉
    • 한국방송∙미디어공학회:학술대회논문집
    • /
    • 한국방송∙미디어공학회 2022년도 추계학술대회
    • /
    • pp.119-122
    • /
    • 2022
  • 연합학습은, 데이터 샘플을 보유하는 다수의 분산 에지 디바이스 또는 서버들이 원본 데이터를 공유하지 않고 기계학습 문제를 해결하기 위해 협력하는 기술로서, 각 클라이언트는 소유한 원본 데이터를 로컬모델 학습에만 사용함으로써, 데이터 소유자의 프라이버시를 보호하고, 데이터 소유 및 활용의 파편화 문제를 해결할 수 있다. 연합학습을 위해서는 통계적 이질성 및 시스템적 이질성 문제 해결이 필수적이며, 인공지능 모델 정확도와 시스템 성능을 향상하기 위한 다양한 연구가 진행되고 있다. 최근, 중앙서버 의존형 연합학습의 문제점을 극복하고, 데이터 무결성 및 추적성과 데이터 소유자 및 연합학습 참여자에게 보상을 효과적으로 제공하기 위한, 블록체인 융합 연합학습기술이 주목받고 있다. 본 연구에서는 이더리움 기반 블록체인 인프라와 호환되는 연합학습 레퍼런스 아키텍처를 정의 및 구현하고, 해당 아키텍처의 실용성과 확장성을 검증하기 위하여 대표적인 연합학습 알고리즘과 데이터셋에 대한 실험을 수행하였다.

  • PDF

Flower을 사용한 점진적 연합학습시스템 구성 (Construction of Incremental Federated Learning System using Flower)

  • 강윤희;강명주
    • Journal of Platform Technology
    • /
    • 제11권4호
    • /
    • pp.80-88
    • /
    • 2023
  • 인공지능 분야에서 학습모델을 구성하기 위해서는 학습데이터의 수집이 선행되어야 하며, 학습데이터를 학습모델 구성이 이루어지는 중앙 서버로 전달하여야 한다. 연합 학습은 클라이언트 측면의 데이터 이동없이 협력적은 방법으로 전역 학습 모델을 구성하는 기계학습 방법이다. 연합학습은 개인 정보를 보호하기 위해 활용될 수 있으며, 개별 클라이언트에서 로컬 학습모델을 구성한 후 로컬 모델의 매개변수를 중앙에서 집계하여 전역 모델을 업데이트한다. 이 본문에서는 연합학습의 개선을 위해 기존의 학습 결과인 학습 매개변수를 사용한다. 이를 위해 연합학습 프레임워크인 Flower를 사용하여 실험을 수행한 후 알고리즘의 수행시간 및 최적화에 따른 결과를 평가하여 제시한다.

  • PDF

교통 빅데이터 활용 시 개인 정보 보호를 위한 연합학습 기반의 경로 선택 모델링 (Federated Learning-based Route Choice Modeling for Preserving Driver's Privacy in Transportation Big Data Application)

  • 심지섭
    • 한국ITS학회 논문지
    • /
    • 제22권6호
    • /
    • pp.157-167
    • /
    • 2023
  • 본 연구에서는 분산 컴퓨팅 및 개별 디바이스 활용을 통해 개인 정보 보호에 특화된 학습방법인 연합학습 방법론을 기반으로, 모바일 내비게이션 애플리케이션에서 수집된 대규모의 운전자 데이터를 이용하여 경로 선택 예측 모델을 수립하는 방법에 대해 고찰한다. 경로 선택 모델링에서 활용될 수 있는 운전자 데이터의 전처리 및 분석 방법을 수립하고, 서포트벡터머신(SVM) 및 다층 퍼셉트론(MLP)과 같이 기존에 널리 활용되는 학습 방법과 연합학습 방법의 성능과 특성을 비교한다. 분석 결과 연합학습을 통한 모델 성능은 중앙 서버 기반의 모델과의 비교에서 예측 정확도 측면의 차이가 거의 없는 것으로 나타났으나, 개별 데이터가 충분히 확보되는 경우 연합학습 모델과 같은 개인화 모델의 성능이 개선될 수 있다는 점을 확인하였다. 연합학습 모델은 본 연구의 경로 선택 모델링 사례와 같이 모빌리티 부문의 데이터 프라이버시 문제가 중요한 분야에서 대규모 데이터 처리를 필요로 하는 경우에 그 활용 가치가 매우 높을 것으로 기대된다.

키 분배를 활용한 동형암호 기반의 연합학습 보안 강화 기법 (A Method for Enhancing Security in Federated Learning Using Homomorphic Encryption with Key Distribution)

  • 권대호;아짓쿠마;최봉준
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2024년도 춘계학술발표대회
    • /
    • pp.824-825
    • /
    • 2024
  • 연합학습에서 로컬 모델을 통해 참가자의 데이터 프라이버시를 침해할 가능성이 있다. 동형암호 기반 연합학습은 학습 과정에서 모든 가중치를 암호화해 통신 과정에서의 공격을 차단한다. 그러나 기존의 Paillier 동형암호 기반 연합학습은 모든 참가자가 같은 공개키 및 비밀키를 공유하는 문제가 있다. 본 연구에서는 지속적인 선택적 키 분배를 도입하여 외부에서 다른 참가자의 로컬 모델에 접속할 수 없도록 하고, 내부에서도 다른 참가자의 로컬 모델을 획득하기 어렵게 한다. MNIST 데이터를 사용하여 CNN 모델의 성능을 평가한 결과, 제안된 방법이 기존과 유사한 정확도를 보여준다.

MEC 블록체인에서 연합학습의 효율적인 모델 전송 연구 (Research on efficient model transfer of federated learning in 5G MEC blockchain)

  • 강보찬;김동오
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2024년도 춘계학술발표대회
    • /
    • pp.590-591
    • /
    • 2024
  • 최근에 개인 데이터의 프라이버시가 중요해 지면서, 딥러닝 분야에서 개인 데이터 프라이버시 보호할 수 있는 연합학습 기술이 주목받고 있다. 특히 5G MEC나 블록체인 환경과 같이 통신 부하 및 지연 시간이 중요한 영역에서 연합학습 모델의 전송 비용 감소에 관한 연구가 활발히 진행 중이다. 본 논문에서는 연합학습 과정에서 효율적인 모델 전송을 위해 레이어 단위로 모델을 전송하는 기법을 제안한다. 실험 결과를 통해, 레이어 단위로 전송함으로써, 전송 데이터는 66% 줄어들 수 있지만, 정확도 변화는 1% 이내임을 확인하였다.