• 제목/요약/키워드: Noise Attack

검색결과 136건 처리시간 0.02초

이미지 암호화 및 다양한 잡음에 내성을 갖춘 PingPong 256 Shuffling 방법 (PingPong 256 shuffling method with Image Encryption and Resistance to Various Noise)

  • 김기환;이훈재
    • 한국정보통신학회논문지
    • /
    • 제24권11호
    • /
    • pp.1507-1518
    • /
    • 2020
  • 고화질 이미지는 정보가 많아 민감한 데이터는 민간기업이나 군사용 암호화에 의해 저장된다. 암호화된 영상은 비밀키를 통해서만 해독이 가능하지만, 일부 픽셀 데이터를 임의의 값으로 덮어쓰는 공유 공격 및 노이즈 공해 공격 기법의 공격을 받아도 원본 데이터는 보존할 수 없다. 중요한 데이터는 공격에 대한 복구 방법에 대한 대책이 더 필요하다는 것이다. 본 논문에서는 난수 발전기 PingPong 256과 셔플링 방법을 제안한다. PingPong 256은 영상이고 영상 암호화는 더 빠르게 수행할 수 있다. 또한 셔플링 방식은 화소를 재조정하여 Shear attack과 Noise pollution attack 기법에 저항하는 것이다. 다음으로 제안한 PingPong256을 SP800-22로 검사하고 다양한 노이즈에 대한 내성을 테스트하고 셔플 링 방식이 적용된 이미지가 Anti-shear attack과 Anti-noise pollution attack을 만족하는지 검증했다.

헬리콥터 로터 블레이드의 자려소음 예측 (Self-Noise Prediction from Helicopter Rotor Blade)

  • 김효영;유기완
    • 항공우주시스템공학회지
    • /
    • 제1권1호
    • /
    • pp.73-78
    • /
    • 2007
  • Self-noise from the rotor blade of the UH-1H Helicopter is obtained numerically by using the Brooks' empirical noise model. All of the five noise sources are compared with each other in frequency domain. From the calculated results the bluntness noise reveals dominant noise sources at small angel of attack, whereas the separation noise shows main noise term with gradually increasing angel of attack. From the results of two different tip Mach numbers with the change of angel of attack, the OASPLs at M = 0.8 show about 15dB larger than those at M = 0.4.

  • PDF

영상 인식을 위한 딥러닝 모델의 적대적 공격에 대한 백색 잡음 효과에 관한 연구 (Study on the White Noise effect Against Adversarial Attack for Deep Learning Model for Image Recognition)

  • 이영석;김종원
    • 한국정보전자통신기술학회논문지
    • /
    • 제15권1호
    • /
    • pp.27-35
    • /
    • 2022
  • 본 논문에서는 영상 데이터에 대한 적대적 공격으로부터 생성된 적대적 예제로 인하여 발생할 수 있는 딥러닝 시스템의 오분류를 방어하기 위한 방법으로 분류기의 입력 영상에 백색 잡음을 가산하는 방법을 제안하였다. 제안된 방법은 적대적이든 적대적이지 않던 구분하지 않고 분류기의 입력 영상에 백색 잡음을 더하여 적대적 예제가 분류기에서 올바른 출력을 발생할 수 있도록 유도하는 것이다. 제안한 방법은 FGSM 공격, BIM 공격 및 CW 공격으로 생성된 적대적 예제에 대하여 서로 다른 레이어 수를 갖는 Resnet 모델에 적용하고 결과를 고찰하였다. 백색 잡음의 가산된 데이터의 경우 모든 Resnet 모델에서 인식률이 향상되었음을 관찰할 수 있다. 제안된 방법은 단순히 백색 잡음을 경험적인 방법으로 가산하고 결과를 관찰하였으나 에 대한 엄밀한 분석이 추가되는 경우 기존의 적대적 훈련 방법과 같이 비용과 시간이 많이 소요되는 적대적 공격에 대한 방어 기술을 제공할 수 있을 것으로 사료된다.

딥뉴럴네트워크 상에 신속한 오인식 샘플 생성 공격 (Rapid Misclassification Sample Generation Attack on Deep Neural Network)

  • 권현;박상준;김용철
    • 융합보안논문지
    • /
    • 제20권2호
    • /
    • pp.111-121
    • /
    • 2020
  • 딥뉴럴네트워크는 머신러닝 분야 중 이미지 인식, 사물 인식 등에 좋은 성능을 보여주고 있다. 그러나 딥뉴럴네트워크는 적대적 샘플(Adversarial example)에 취약점이 있다. 적대적 샘플은 원본 샘플에 최소한의 noise를 넣어서 딥뉴럴네트워크가 잘못 인식하게 하는 샘플이다. 그러나 이러한 적대적 샘플은 원본 샘플간의 최소한의 noise을 주면서 동시에 딥뉴럴네트워크가 잘못 인식하도록 하는 샘플을 생성하는 데 시간이 많이 걸린다는 단점이 있다. 따라서 어떠한 경우에 최소한의 noise가 아니더라도 신속하게 딥뉴럴네트워크가 잘못 인식하도록 하는 공격이 필요할 수 있다. 이 논문에서, 우리는 신속하게 딥뉴럴네트워크를 공격하는 것에 우선순위를 둔 신속한 오인식 샘플 생성 공격을 제안하고자 한다. 이 제안방법은 원본 샘플에 대한 왜곡을 고려하지 않고 딥뉴럴네트워크의 오인식에 중점을 둔 noise를 추가하는 방식이다. 따라서 이 방법은 기존방법과 달리 별도의 원본 샘플에 대한 왜곡을 고려하지 않기 때문에 기존방법보다 생성속도가 빠른 장점이 있다. 실험데이터로는 MNIST와 CIFAR10를 사용하였으며 머신러닝 라이브러리로 Tensorflow를 사용하였다. 실험결과에서, 제안한 오인식 샘플은 기존방법에 비해서 MNIST와 CIFAR10에서 각각 50%, 80% 감소된 반복횟수이면서 100% 공격률을 가진다.

부 채널 신호에 대한 박막의 영향 (Thin Film Effects on Side Channel Signals)

  • 선용빈
    • 반도체디스플레이기술학회지
    • /
    • 제12권2호
    • /
    • pp.51-56
    • /
    • 2013
  • Even if transmissions through normal channel between ubiquitous devices and terminal readers are encrypted, any extra sources of information retrieved from encrypting module can be exploited to figure out the key parameters, so called side channel attack. Since side channel attacks are based on statistical methods, making side channel signal weak or complex is the proper solution to prevent the attack. Among many countermeasures, shielding the electromagnetic signal and adding noise to the EM signal were examined by applying different thicknesses of thin films of ferroelectric (BTO) and conductors (copper and gold). As a test vehicle, chip antenna was utilized to see the change in radiation characteristics: return loss and gain. As a result, the ferroelectric BTO showed no recognizable effect on both shielding and adding noise. Cu thin film showed increasing shielding effect with thickness. Nanometer Au exhibited possibility in adding noise by widening of bandwidth and red shifting of resonating frequencies.

자유후류법과 CFD 해석을 통한 저소음 고효율 자동차용 냉각팬 개발에 관한 연구 (Study on Low noise, High Performance Automobile Cooling Fan Development Using Freewake and CFD Analysis)

  • 김규영;이성규;;이덕주;김영남;박경태;이재영
    • 한국소음진동공학회:학술대회논문집
    • /
    • 한국소음진동공학회 2004년도 춘계학술대회논문집
    • /
    • pp.847-847
    • /
    • 2004
  • Automobile cooling fans are operated with a radiator module. To design low noise, high performance cooling fan, radiator resistance should be considered in the design process. The system (radiator) resistance reduces axial velocity and increases effective angle of attack. This increasing effective angle of attack mechanism causes blade stall, performance decrease and noise increase. In this paper, To analyze fan performance, freewake and 3D CFD calculations are used To design high performance fan with consideration of system resistance, optimal twist concept is applied through momentum and blade element theory. To predict fan noise, empirical formula and acoustic analogy methods are used.

  • PDF

소리를 이용한 릴레이 공격 공격의 탐지 (Detecting a Relay Attack with a Background Noise)

  • 김종욱;강석인;홍만표
    • 정보보호학회논문지
    • /
    • 제23권4호
    • /
    • pp.617-627
    • /
    • 2013
  • NFC, RFID 등의 무선 기술이 발전하면서 기기간의 데이터 전달이 용이해지고 있다. 사용자는 여러 개의 복잡한 비밀번호를 외우고 입력하는 대신 항상 소지하고 있는 카드나 휴대폰을 이용하여 간편하게 자신을 인증함으로써 건물에 출입하거나, 보안 자료에 접근하고, 결제를 할 수 있게 되었다. 그러나 최근 릴레이 공격(relay attack)의 출현으로 편리한 토큰 기반(something you have) 인증의 안전성이 위협받고 있다. 릴레이 공격은 안전한 통신 채널을 가진 두 기기 사이에서도 효과적으로 공격을 성공시킬 수 있고, 공격의 원리가 복잡하지 않아 쉽게 구현이 가능하다. 본 논문에서는 거리 제한 방식(distance bounding)이나 위치 측정 후 비교와 같은 기존 방어 기법과 다른 청각 채널을 통한 릴레이 공격 탐지에 대해 제안한다.

Grad-CAM을 이용한 적대적 예제 생성 기법 연구 (Research of a Method of Generating an Adversarial Sample Using Grad-CAM)

  • 강세혁
    • 한국멀티미디어학회논문지
    • /
    • 제25권6호
    • /
    • pp.878-885
    • /
    • 2022
  • Research in the field of computer vision based on deep learning is being actively conducted. However, deep learning-based models have vulnerabilities in adversarial attacks that increase the model's misclassification rate by applying adversarial perturbation. In particular, in the case of FGSM, it is recognized as one of the effective attack methods because it is simple, fast and has a considerable attack success rate. Meanwhile, as one of the efforts to visualize deep learning models, Grad-CAM enables visual explanation of convolutional neural networks. In this paper, I propose a method to generate adversarial examples with high attack success rate by applying Grad-CAM to FGSM. The method chooses fixels, which are closely related to labels, by using Grad-CAM and add perturbations to the fixels intensively. The proposed method has a higher success rate than the FGSM model in the same perturbation for both targeted and untargeted examples. In addition, unlike FGSM, it has the advantage that the distribution of noise is not uniform, and when the success rate is increased by repeatedly applying noise, the attack is successful with fewer iterations.

웨이블릿 잡음 제거 방법을 이용한 전력 분석 공격 성능 개선 (Performance Improvement of Power Analysis Attacks based on Wavelet De-noising)

  • 김완진;송경원;이유리;김호원;김형남
    • 한국통신학회논문지
    • /
    • 제35권9B호
    • /
    • pp.1330-1341
    • /
    • 2010
  • 전력 분석 (Power Analysis, PA) 공격은 정보보안 영역에서 매우 효과적인 물리적 공격방법으로 알려져 있다. 이 공격방법은 보안 장치로부터 누설된 전력 소비 신호의 통계적인 특성을 분석하여 비밀 키 (secret keys)를 찾아낸다. 그러나 누설된 전력 신호의 값이 크지 않기 때문에, 잡음에 의해 PA 공격 성능이 저하될 수 있다. 이런 PA 공격의 잡음 민감성을 극복하기 위해, 본 논문에서는 웨이블릿 잡음 제거 (wavelet de-noising)에 기반한 공격 성능 향상 방법을 제안한다. 모의실험을 통해, 제안된 잡음 제거 방법이 공격 성공에 필요한 신호의 개수와 공격 결과의 신뢰도 측면에서 공격 효율을 향상시킴을 보인다.

Attack Detection on Images Based on DCT-Based Features

  • Nirin Thanirat;Sudsanguan Ngamsuriyaroj
    • Asia pacific journal of information systems
    • /
    • 제31권3호
    • /
    • pp.335-357
    • /
    • 2021
  • As reproduction of images can be done with ease, copy detection has increasingly become important. In the duplication process, image modifications are likely to occur and some alterations are deliberate and can be viewed as attacks. A wide range of copy detection techniques has been proposed. In our study, content-based copy detection, which basically applies DCT-based features for images, namely, pixel values, edges, texture information and frequency-domain component distribution, is employed. Experiments are carried out to evaluate robustness and sensitivity of DCT-based features from attacks. As different types of DCT-based features hold different pieces of information, how features and attacks are related can be shown in their robustness and sensitivity. Rather than searching for proper features, use of robustness and sensitivity is proposed here to realize how the attacked features have changed when an image attack occurs. The experiments show that, out of ten attacks, the neural networks are able to detect seven attacks namely, Gaussian noise, S&P noise, Gamma correction (high), blurring, resizing (big), compression and rotation with mostly related to their sensitive features.