• 제목/요약/키워드: 딥페이크

검색결과 20건 처리시간 0.04초

CNN 기반의 실사 이미지에 대한 게임 그래픽과 AI 그림 분류 모델 개발 (Development of Game Graphics and AI Picture Classification Model for Real-Life Images on CNN)

  • 박승보;조동휘;최서영;김은지
    • 한국컴퓨터정보학회:학술대회논문집
    • /
    • 한국컴퓨터정보학회 2023년도 제68차 하계학술대회논문집 31권2호
    • /
    • pp.465-466
    • /
    • 2023
  • AI 기술의 발전으로 AI가 그린 그림과 인간이 직접 그린 그림을 식별하는 것이 어려워졌다. AI 기술을 통해 작품을 특정 화풍으로 그리는 것이 쉬워져 작품 도용과 평가 절하가 증가하고 있으며, AI가 인간과 유사하게 그림을 표현하는 경우 딥페이크 피싱과 같은 악용 사례도 늘어나고 있다. 따라서 본 논문에서는 AI 그림을 식별하기 위한 인공지능 모델 개발을 목표로 하고 있으며, 데이터셋을 구축하여 인공지능 기술을 활용한 알고리즘을 개발한다. YOLO Segmentation과 CNN을 활용하여 학습을 진행하고, 이를 통해 도용과 딥페이크 피해를 방지하는 프로세스를 제안한다.

  • PDF

연성 워터마킹 기반 오디오 딥페이크 탐지 (Deepfake Detection with Audio Fragile Watermarking)

  • 김준모;한창희
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2024년도 춘계학술발표대회
    • /
    • pp.269-270
    • /
    • 2024
  • 디지털 오디오 파일의 보안은 디지털 미디어의 확산과 함께 점차 중요해지고 있다. 특히, 딥페이크와 같은 기술을 이용한 조작이 증가함에 따라, 이를 효과적으로 방지하는 기술이 대두되고 있다. 본 연구에서는 연성 워터마킹 기술을 활용하여, 오디오 파일이 외부 조작에 의해 변경되었을 때 오디오 파일이 의도적으로 파괴하는 방식을 제안한다. 본 논문에서는 연성 워터마크 생성 및 삽입 방법에 관한 자세한 설명을 하고, 연성 워터마킹을 통해 오디오의 변조 여부를 즉각적으로 탐지하는데 어떻게 기여하는지를 보여준다. 제안 기법은 오디오 원본의 무결성을 효과적으로 보호하는 새로운 방법을 제시하며, 디지털 미디어 보안을 강화하는데 중요한 역할을 할 것으로 기대된다.

Bidirectional Convolutional LSTM을 이용한 Deepfake 탐지 방법 (A Method of Detection of Deepfake Using Bidirectional Convolutional LSTM)

  • 이대현;문종섭
    • 정보보호학회논문지
    • /
    • 제30권6호
    • /
    • pp.1053-1065
    • /
    • 2020
  • 최근 하드웨어의 성능과 인공지능 기술이 발달함에 따라 육안으로 구분하기 어려운 정교한 가짜 동영상들이 증가하고 있다. 인공지능을 이용한 얼굴 합성 기술을 딥페이크라고 하며 약간의 프로그래밍 능력과 딥러닝 지식만 있다면 누구든지 딥페이크를 이용하여 정교한 가짜 동영상을 제작할 수 있다. 이에 무분별한 가짜 동영상이 크게 증가하였으며 이는 개인 정보 침해, 가짜 뉴스, 사기 등에 문제로 이어질 수 있다. 따라서 사람의 눈으로도 진위를 가릴 수 없는 가짜 동영상을 탐지할 수 있는 방안이 필요하다. 이에 본 논문에서는 Bidirectional Convolutional LSTM과 어텐션 모듈(Attention module)을 적용한 딥페이크 탐지 모델을 제안한다. 본 논문에서 제안하는 모델은 어텐션 모듈과 신경곱 합성망 모델을 같이 사용되어 각 프레임의 특징을 추출하고 기존의 제안되어왔던 시간의 순방향만을 고려하는 LSTM과 달리 시간의 역방향도 고려하여 학습한다. 어텐션 모듈은 합성곱 신경망 모델과 같이 사용되어 각 프레임의 특징 추출에 이용한다. 실험을 통해 본 논문에서 제안하는 모델은 93.5%의 정확도를 갖고 기존 연구의 결과보다 AUC가 최대 50% 가량 높음을 보였다.

지도 학습한 시계열적 특징 추출 모델과 LSTM을 활용한 딥페이크 판별 방법 (Deepfake Detection using Supervised Temporal Feature Extraction model and LSTM)

  • 이정환;김재훈;윤기중
    • 한국방송∙미디어공학회:학술대회논문집
    • /
    • 한국방송∙미디어공학회 2021년도 추계학술대회
    • /
    • pp.91-94
    • /
    • 2021
  • As deep learning technologies becoming developed, realistic fake videos synthesized by deep learning models called "Deepfake" videos became even more difficult to distinguish from original videos. As fake news or Deepfake blackmailing are causing confusion and serious problems, this paper suggests a novel model detecting Deepfake videos. We chose Residual Convolutional Neural Network (Resnet50) as an extraction model and Long Short-Term Memory (LSTM) which is a form of Recurrent Neural Network (RNN) as a classification model. We adopted cosine similarity with hinge loss to train our extraction model in embedding the features of Deepfake and original video. The result in this paper demonstrates that temporal features in the videos are essential for detecting Deepfake videos.

  • PDF

Gray 채널 분석을 사용한 딥페이크 탐지 성능 비교 연구 (A Comparative Study on Deepfake Detection using Gray Channel Analysis)

  • 손석빈;조희현;강희윤;이병걸;이윤규
    • 한국멀티미디어학회논문지
    • /
    • 제24권9호
    • /
    • pp.1224-1241
    • /
    • 2021
  • Recent development of deep learning techniques for image generation has led to straightforward generation of sophisticated deepfakes. However, as a result, privacy violations through deepfakes has also became increased. To solve this issue, a number of techniques for deepfake detection have been proposed, which are mainly focused on RGB channel-based analysis. Although existing studies have suggested the effectiveness of other color model-based analysis (i.e., Grayscale), their effectiveness has not been quantitatively validated yet. Thus, in this paper, we compare the effectiveness of Grayscale channel-based analysis with RGB channel-based analysis in deepfake detection. Based on the selected CNN-based models and deepfake datasets, we measured the performance of each color model-based analysis in terms of accuracy and time. The evaluation results confirmed that Grayscale channel-based analysis performs better than RGB-channel analysis in several cases.

인공지능 윤리 강화를 위한 제도적 개선방안 연구 (Research on institutional improvement measures to strengthen artificial intelligence ethics)

  • 차건상
    • 융합보안논문지
    • /
    • 제24권2호
    • /
    • pp.63-70
    • /
    • 2024
  • 인공지능 기술의 발전으로 우리의 삶은 혁신적으로 변화하고 있지만, 동시에 윤리적 문제들도 새롭게 대두되고 있다. 특히 알고리즘 및 데이터 편향성에 의한 차별문제, 딥페이크 및 개인정보 유출 문제 등은 인공지능 서비스확대에 따라 사회적으로 해결해야 할 선결과제라 판단된다. 이를 위해 본 논문에서는 인공지능 윤리 측면에서 인공지능의 개념과 윤리적 이슈를 살펴보고 이를 예방하기 위한 각국의 윤리 가이드라인, 법률, 인공지능 영향평가제도, 인공지능 인증제도와 인공지능 알고리즘 투명성 관련 기술 현황 등을 살펴보고 인공지능 윤리 강화를 위한 제도적 개선방안을 제시하고자 한다.

국내 전자금융의 환경 변화와 그 과제 -전자금융의 변화 전망과 시사점을 중심으로- (Changes in the environment of electronic finance and its challenges -Focusing on the prospects and implications of changes in electronic finance-)

  • 김대현
    • 디지털융복합연구
    • /
    • 제19권5호
    • /
    • pp.229-239
    • /
    • 2021
  • 본 연구를 위하여 정부의 금융관련 부서의 발표자료와 각 금융기관 및 전자금융 관련 기관의 자료를 광범위하게 분석한 결과, 우리나라의 전자금융 환경에 있어 첫째) 비대면 금융의 확대, 둘째) 금융권의 원격근무, 셋째) 공인인증의 폐지, 넷째) 고도화되는 보이스피싱, 다섯째) 금융산업의 개방과 형태의 다양화, 여섯째) '지갑 없는 사회'의 도래 등의 실제적 변화가 나타나고 있다. 하지만 이상의 문제 외에도 예를 들어, 4차 산업혁명으로 촉발된 전 세계적 변화는 금융보안 분야에도 전파되어, 인공지능 기술/딥러닝 기술/사용자 분석 기술/딥페이크(deepfake) 기술 등과 같은 문제는 특히 대응하기 어려운 위험요소이다. 전자금융은 사회적으로 점점 그 비중이 확대되고 있는 만큼, 전자금융과 그 환경의 문제 및 그로 인한 범죄와 범죄 수사의 분야까지도 꾸준하게 연구되어야 마땅하다.

비대면 시대의 신 융합보안 위협과 대응 방안에 대한 고찰 (Consideration of New Convergence Security Threats and Countermeasures in the Zero-Contact Era)

  • 유동현;김용욱;하영재;류연승
    • 한국융합학회논문지
    • /
    • 제12권1호
    • /
    • pp.1-9
    • /
    • 2021
  • 최근 우리나라는 IT기술 발전 등의 환경 변화에 따라 새로운 유형의 보안 범죄가 꾸준히 발생하고 있으며, 이러한 위협에 대한 대응은 개인이나 기업뿐만 아니라 안전한 사회의 구축을 위해 국가 차원에서 수행되어야 할 핵심과제가 되었다. 한편 코로나19 팬데믹 이후 비대면 시대가 도래하면서 기존 IT발전에 따른 보안 위협과 비대면 시대의 특징이 결합된 신종 융합보안 위협이 우리 사회를 위협하고 있다. 이에 이러한 새로운 차원의 위협을 예방하고 교정하기 위한 연구가 지속 요구되고 있으며, 이를 위해 본 연구에서는 1장에서 신 융합보안 위협이 발생한 원인과 관련 선행연구를 살펴보고 2장에서는 비대면 시대에 주요 융합보안 위협 5가지로 사이버보안·가짜뉴스·원격투표·원격근무 및 영상보안 위협을 선정하여 유형별 특징에 대해 설명하였으며. 3장에서는 이에 대한 대응 방안의 논의와 정책적 함의를 고찰하였고, 4장에서는 결론과 함께 향후 연구방향을 제시하였다.

딥페이크 영상 학습을 위한 데이터셋 평가기준 개발 (Development of Dataset Evaluation Criteria for Learning Deepfake Video)

  • 김량형;김태구
    • 산업경영시스템학회지
    • /
    • 제44권4호
    • /
    • pp.193-207
    • /
    • 2021
  • As Deepfakes phenomenon is spreading worldwide mainly through videos in web platforms and it is urgent to address the issue on time. More recently, researchers have extensively discussed deepfake video datasets. However, it has been pointed out that the existing Deepfake datasets do not properly reflect the potential threat and realism due to various limitations. Although there is a need for research that establishes an agreed-upon concept for high-quality datasets or suggests evaluation criterion, there are still handful studies which examined it to-date. Therefore, this study focused on the development of the evaluation criterion for the Deepfake video dataset. In this study, the fitness of the Deepfake dataset was presented and evaluation criterions were derived through the review of previous studies. AHP structuralization and analysis were performed to advance the evaluation criterion. The results showed that Facial Expression, Validation, and Data Characteristics are important determinants of data quality. This is interpreted as a result that reflects the importance of minimizing defects and presenting results based on scientific methods when evaluating quality. This study has implications in that it suggests the fitness and evaluation criterion of the Deepfake dataset. Since the evaluation criterion presented in this study was derived based on the items considered in previous studies, it is thought that all evaluation criterions will be effective for quality improvement. It is also expected to be used as criteria for selecting an appropriate deefake dataset or as a reference for designing a Deepfake data benchmark. This study could not apply the presented evaluation criterion to existing Deepfake datasets. In future research, the proposed evaluation criterion will be applied to existing datasets to evaluate the strengths and weaknesses of each dataset, and to consider what implications there will be when used in Deepfake research.

비접촉 데이터 사회와 아카이브 재영토화 (Contactless Data Society and Reterritorialization of the Archive )

  • 조민지
    • 기록학연구
    • /
    • 제79호
    • /
    • pp.5-32
    • /
    • 2024
  • 한국 정부가 UN의 2022년 전자정부 발전 지수에서 UN가입 193개국 중 3위에 랭크됐다. 그동안 꾸준히 상위국으로 평가된 한국은 분명 세계 전자정부의 선도국이라 할 수 있다. 전자정부의 윤활유는 데이터다. 데이터는 그 자체로 정보가 아니고 기록도 아니지만 정보와 기록의 원천이며 지식의 자원이다. 전자적 시스템을 통한 행정 행위가 보편화된 이후 당연히 데이터에 기반한 기록의 생산과 기술이 확대되고 진화하고 있다. 기술은 가치중립적인 듯 보이지만 사실 그 자체로 특정 세계관을 반영하고 있다. 더구나 비물질적 유통을 기반으로 하는 디지털 세계, 온라인 네트워크의 또 다른 아이러니는 반드시 물리적 도구를 통해서만 접속하고 접촉할 수 있다는 점이다. 디지털 정보는 논리적 대상이지만 반드시 어떤 유형이든 그것을 중계할 장치 없이는 디지털 자원을 읽어 내거나 활용할 수 없다. 초연결, 초지능을 무기로 하는 새로운 기술의 디지털 질서는 전통적인 권력 구조에 깊은 영향력을 끼칠 뿐만 아니라 기존의 정보 및 지식 전달 매개체에도 마찬가지의 영향을 미치고 있다. 더구나 데이터에 기반한 생성형 인공지능을 비롯해 새로운 기술과 매개가 단연 화두다. 디지털 기술의 전방위적 성장과 확산이 인간 역능의 증강과 사유의 외주화 상황까지 왔다고 볼 수 있을 것이다. 여기에는 딥 페이크를 비롯한 가짜 이미지, 오토 프로파일링, 사실처럼 생성해 내는 AI 거짓말(hallucination), 기계 학습데이터의 저작권 침해에 이르기까지 다양한 문제점 또한 내포하고 있다. 더구나 급진적 연결 능력은 방대한 데이터의 즉각적 공유를 가능하게 하고 인지 없이 행위를 발생시키는 기술적 무의식에 의존하게 된다. 그런 점에서 지금의 기술 사회의 기계는 단순 보조의 수준을 넘어서고 있으며 기계의 인간 사회 진입은 고도의 기술 발전에 따른 자연적인 변화 양상이라고 하기에는 간단하지 않은 지점이 존재한다. 시간이 지나며 기계에 대한 관점이 변화하게 될 것이기 때문이다. 따라서 중요한 것은 기계를 통한 커뮤니케이션, 행위의 결과로서의 기록이 생산되고 사용되는 방식의 변화가 의미하는 사회문화적 함의에 있다. 아카이브 영역에서도 초지능, 초연결사회를 향한 기술의 변화로 인해 데이터 기반 아카이브 사회는 어떤 문제에 직면하게 될 것인지, 그리고 그 속에서 누가 어떻게 기록과 데이터의 지속적 활동성을 입증하고 매체 변화의 주요 동인이 될 것인가에 대한 연구가 필요한 시점이다. 본 연구는 아카이브가 행위의 결과인 기록뿐만 아니라 데이터를 전략적 자산으로 인식할 필요성에서 시작했다. 이를 통해 전통적 경계를 확장하고 데이터 중심 사회에서 어떻게 재영토화를 이룰 수 있을지를 알아보았다.