DOI QR코드

DOI QR Code

Identity Verification in Financial Transactions Using a Stylus Pen

스타일러스 펜을 활용한 금융 거래에서의 본인 인증

  • Received : 2020.01.20
  • Accepted : 2020.06.02
  • Published : 2020.06.30

Abstract

As the use of credit cards increases, security threats increase. In particular, despite being vulnerable to related crimes, such as fraudulent use of credit cards and theft of names, there are virtually no security procedures to authenticate the validity of user while paying with the credit card. In order to overcome these limitations of current credit card payments, we add a process of signing payment using a stylus pen with built-in acceleration sensor in the existing transaction method, and classifying and comparing the image of the signature and signature information measured by the sensor through the convolutional neural network. we propose a method to improve security in financial transactions by performing the user authentication process through the possession of the stylus pen and the characteristic values of the signature.

최근 신용카드의 사용 비중이 늘어나고 있으며 그에 따른 보안 위협이 증가하고 있다. 특히 신용카드 부정사용, 명의 도용 등의 관련 범죄에 취약함에도 불구하고 카드 결제 시 이를 방지하기 위한 보안 장치가 없는 상황이다. 이러한 현재 신용카드 결제의 한계점을 보완하기 위해 본 논문에서는 기존 거래 방식에 가속도 센서가 내장된 스타일러스 펜을 활용하여 결제 서명을 하고, 합성곱 신경망을 통해 해당 서명의 이미지와 센서를 통해 측정한 서명 정보를 분류하여 상호 비교하는 과정을 추가한다. 이와 같이 스타일러스 펜의 소유 여부와 서명의 특징 값을 통해 본인 인증과정을 수행함으로써 금융 거래에서의 보안성을 증진시키는 방법을 제안한다.

Keywords

I. 서론

최근 신용카드의 사용 비중과 결제 건수가 증가하고 있으며 이에 따른 보안 위협도 증가하는 추세이다. 금융감독원이 분석한 지난 5년간의 신용카드 부정사용 현황에 따르면 카드 소지자의 부주의 등에 의한 카드 분실, 도난 및 제3자의 범죄로 인한 카드 부정사용이 연간 약 38,000건 가까이 발생하고 있다. 또한, 카드 발급사의 지나친 영업과 최근 증가한온라인 및 모바일 카드 발급의 증가에 따라 명의 도용의 가능성은 더욱 늘어날 것으로 전망된다. 특히, 카드 분실 및 도난으로 인한 부정사용은 끊임없이 발생하고 있지만 형식적인 본인 인증 절차를 거치는 것 외에는 별다른 방도가 없는 상황이다. 이처럼 빈번히 발생하는 범죄들을 방지하기 위해서는 더 철저한 본인인증 과정을 위한 추가적인 보안 절차가 필요함에 따라, 새로운 인증 기법을 제안한다.

본 논문의 구성은 다음과 같다. 2장에서는 관련연구를 확인하며 3장에서는 제안시스템에 대해 서술한다. 4장과 5장에서는 실험을 진행하고 결론을 맺는다.

II. 관련 연구

2.1 전자 지불 시스템 프로토콜

2.1.1 SET(Secure Electronic Transaction)

SET는 신용카드 결제 시 사용되는 프로토콜이다. 참여 주체는 카드 사용자, 상인, 지급정보 중계기관, 인증기관, 카드사, 매입사이며 전자 서명, 전자 봉투, 암호화 알고리즘 등을 통해 안전한 결제가 수행될 수 있도록 한다[1].

SET protocol의 가장 큰 특징은 이중 서명 알고리즘이다. 이중 서명은 고객의 지불 정보의 노출 가능성과 판매자에 의한 지불 정보의 위/변조의 가능성을 없애 정당성을 확인하기 위해 도입되었다. 카드 사용자의 개인키로 암호화된 이중서명을 복호화하여 메시지의 무결성이 검증되면 정당한 결제 요청으로 판단하여 승인하고, POS 서버에서 고객에게 결제 서명을 요청한 후 거래가 완료된다. 해당 프로토콜은 데이터 전송의 모든 과정에서 기밀성을 보장하지만 SSL 기반의 전자상거래보다 복잡하고 비용이 많이 들며 속도가 느린 단점이 있다.

2.1.2 SSL/TLS

SSL/TLS 기반의 전자 지불 시스템[2]은 다음과 같은 순서로 진행된다. 판매자와 구매자는 통신을 시작한 후 각각 자신의 인증서를 보내 상호인증을 한다. 구매자는 세션키를 생성한 후 구매할 물품을 결제할 때 지불 정보를 해당 세션키로 암호화하며, 사용한 세 션키를 만드는데 사용한 정보는 공개키로 암호화하여 판매자에게 전송한다. 판매자는 세션키를 생성하여 정보를 확인하고, 카드 매입사에 카드 정보 및 결제 금액을 보내어 결제 승인을 받은 후 구매자에게 전송한다.

해당 방식은 시스템이 복잡하지 않으며 쉽게 사용이 가능하다. 그러나 구매자의 신분을 확인할 수 없어 타인의 카드를 부정사용하는 것이 가능하다. 이처럼 거래 과정에서 카드만 가지고 있다면 실제 카드 명의자 본인이 결제에 서명하는지 확인할 수 있는 방법이 없기 때문에 사실상 보안 절차가 없다는 점이 현재 신용카드 대면거래의 한계점이다.

2.2 생체 인식 기술

생체 인식 기술은 사람의 신체적, 행동적 특성들을 추출하여 식별하는 기술이다. 생체 정보는 도난, 분실 등의 위험이 적은 고유한 특성이라는 장점을 활용하여 본인 인증 수단으로 활발히 연구되고 있으며 지문, 홍채, 음성, 필체, 보행패턴 등이 이에 속한다.

흔히 사용되는 스마트폰 지문 및 얼굴 인식, 서명 동작을 활용한 서명 인식 등의 예시가 있으며, 지문 정보를 내장한 지문 인식 신용카드 또는 최근 개발 중이라고 하는 손바닥 인식 기술을 활용한 핸드 페이 등과 같이 결제과정에서의 본인 인증의 수단으로도 사용된다.

2.3 가속도 센서 및 자이로스코프 센서

센서 정보를 활용한 인식 기술은 다양한 분야에 응용되며 활발히 연구되고 있다. 센서는 가속도, 각 속도, 빛 등과 같이 주변의 상황이나 변화를 감지하는 감지기이다. 가속도 센서는 움직임의 방향과 세기를 측정하며 자이로스코프 센서는 회전 운동을 측정한다. 따라서 행동 분석, 컴퓨터비전, 위성, VR, 그리고 제어 분야에 주로 사용되며, 최근 인공신경망을 활용한 연구 또한 활발히 진행되었다[3],[4].

가속도 센서의 경우 정적인 상태에서는 정확한 측정이 가능하지만 잡음이 발생하고, 자이로스코프 센서의 경우는 정확한 방향각의 변화를 측정하지만 긴 시간동안 각 속도를 적분하여 각도를 알아내므로 누적오차가 발생한다. 이러한 두 센서를 그대로 사용하게 되면 노이즈가 발생하기 때문에 정확한 측정을 위해서는 두 센서를 융합하는 등의 방식을 통해 오차를 최소화 해야 한다. 칼만필터, 상보필터 등을 사용하면 센서 측정 값의 오차를 최소화하며 정확한 각도를 구할 수 있다.

그 중, 일반적으로 널리 쓰이는 칼만필터는 과거에 수행한 측정값을 바탕으로 데이터에 포함된 노이즈를 제거하여 현재의 상태 변수의 결합분포를 추정하는 필터이다[5]. 즉, 실제 상태 값과 추정된 상태 값의 오차 공분산을 최소화하는 최적화 추정 기법이며 행동 분석, 모션인식 등[6],[7]의 분야에서는 칼만필터를 적용하는 방식을 통해 정확한 값을 도출한다.

2.4 합성곱 신경망 (Convolutional Neural Network)

합성곱(convolution) 연산을 사용하는 인공 신경망 중 하나로 이미지 패턴 파악 및 분류에 있어 가장 효과적인 딥러닝 모델이다.

합성곱 신경망은 다른 모델들과 마찬가지로 입력 계층 및 출력 계층과 그 사이에 많은 은닉 계층들이 존재하고 있으며, 입력 데이터에 대한 특징을 추출하는 합성곱 계층과 추출한 특징을 통해 이미지를 분류하는 분류기의 두 부분으로 구성되어 있다. 특징을 추출하기 위해 사용되는 필터는 커널(kernel)이라고도 하며 정사각행렬로 이루어져 있고 입력 데이터로 사용하게 될 이미지 또한 행렬 형태로 이루어져 있다. 따라서 해당 입력 데이터에 대해 동일한 필터가 순회하면서 입력 이미지와 행렬 곱셈 연산을 한 후, 그 결과를 적분하는 합성곱 계산 과정을 거친다. 이와 같이 동일한 필터를 사용하여 동일한 가중치를 학습하므로 학습해야 할 파라미터의 수가 다른 신경망 모델보다 적어 학습시간이 적게 걸리는 것이 장점이다.

합성곱 계층을 통해 초기에는 일반적인 특징을 추출하고 높은 레벨의 계층으로 갈수록 구체적이고 고유한 특징을 추출하게 되며, 출력된 데이터는 다음 계층의 입력으로 활용된다. 즉, 입력 데이터에 대한 특징을 추출하고 그것을 기반으로 학습하는 과정을 반복하면서 구체적인 특징을 파악한 후, 이미지 형태의 결과값을 1차원 배열 형태로 만드는 평탄화(flatten) 계층을 거쳐 출력계층에서 입력된 이미지를 분류한다.

학습에 사용되는 데이터들은 많고 다양할수록 정확한 분류가 가능해진다. 데이터 증강(imageaugmentation)을 통해 뒤집기, 비틀기, 수평 이동 등의 방식으로 이미지를 변형하여 다양한 이미지를 확보할 수 있으며, 이는 이미지의 특징에 대해 더 많은 시나리오를 생성하여 과적합을 방지하고 일반화 성능을 향상시킬 수 있다.

III. 시스템 제안

본 논문에서는 스타일러스 펜을 사용한 서명 인식을 통해 금융거래에서의 본인인증 시스템을 제안한다. 본 시스템은 결제 단말기에 입력된 서명과 스타일러스 펜으로 서명 시, 펜에 내장된 가속도 센서로부터 측정되는 데이터를 활용한다[8],[9]. 타인이 자신의 카드를 부정사용하여 결제에 서명하는 경우 카드 명의자 소유의 스타일러스 펜으로부터 수집되는 데이터가 없으므로 결제는 거절된다. 즉, 결제 승인을 위해서는 두 서명에 대한 정보를 통해 동일한 서명인지의 여부와 스타일러스 펜의 소유자와 카드 명의자가 동일한지 확인해야한다. 이는 카드 명의자가 직접 결제에 서명하였음을 인증하게 된다.

제안 시스템은 기존의 신용카드 결제와 동일한 절차를 거쳐 수행된 후, 마지막 서명 절차에서 적용된다. Fig. 1은 제안 시스템의 동작 과정을 개략적으로 나타낸 구성도이다.

JBBHCB_2020_v30n3_379_f0001.png 이미지

Fig. 1. system diagram

3.1 스타일러스 펜

사용자는 카드 거래의 마지막 절차에서 본인 소유의 스마트폰과 연결된 스타일러스 펜을 사용하여 서명 패드에 결제 서명을 하면, 스타일러스 펜에 내장된 가속도 및 자이로 센서를 통해 센서 데이터를 수집한다. 측정되는 값은 서명하는 동안의 각 축에 대한 가속도 및 각속도이고, 이를 적분하여 속도 및 변위를 얻는다. 또한, 센서에서 발생하는 오차를 보정하기 위해 물체의 추적이나 노이즈 제거 등에 사용되는 칼만필터를 적용하여 전처리 과정을 거치며 결과 값을 서명에 대한 데이터로 사용한다[10],[11].

이러한 과정을 거쳐 생성된 서명 정보를 이미지로 바꾸어 서명에 사용한 펜의 정보(디바이스 ID, 위치 정보 등)와 함께 카드사에 전송한다.

3.2 결제 단말기

거래에 사용되는 결제 단말기는 사용자의 카드를 카드 리더기를 통해 읽은 후, 카드 사용자의 스타일러스 펜으로 결제 단말기의 서명 패드에 서명을 입력 받는다. 해당 결제 정보와 서명은 전자 지불 서비스 대행 사업자인 PG(Payment Gateway)사를 거쳐 카드사로 전송된다.

3.3 합성곱 신경망을 통한 서명 인식

2.3절에서 언급하였듯이 서명 이미지 인식을 위해 이미지 분류에 있어 가장 효과적인 모델인 합성곱 신경망을 사용한다.

수신한 데이터들은 카드사에 저장되며, 그중 서명에 대한 데이터들은 합성곱 신경망을 통해 분류된다. 결제 단말기로부터 수신한 서명 이미지와 스타일러스 펜으로부터 수집한 이미지화된 데이터를 합성곱 신경망의 입력데이터로 사용한다. 해당 입력데이터에 대해 필터가 이미지를 순회하며 특징을 추출하여 학습하며, 이미지를 분류해낸다. 이 때, 분류되는 클래스 명은 카드 사용자의 식별자이며 사용한 입력데이터는 저장되어 다음 결제 서명 인증을 위한 데이터로 활용된다.

결제 승인은 서명에 사용된 스타일러스 펜의 디바이스 ID와 사전에 등록된 ID와 비교하며, 분류된 두 데이터도 동일한 사용자의 서명으로 인식되는 경우 가능하다. 결제가 거절되는 경우는 다음과 같다.

1) 결제에 사용한 카드 명의자 소유의 스타일러스 펜을 소지하지 않은 경우(펜으로부터 수집되는 서명 데이터가 없음)

2) 결제에 사용한 카드 명의자 소유의 스타일러스 펜을 소지하였으나, 사용자의 서명 이미지를 모르는 경우

3) 결제에 사용한 카드 명의자 소유의 스타일러스 펜을 소지하였으며, 사용자의 서명 이미지를 알지만, 획 순서, 가속도 등의 서명에 대한 특징 값이 다른 경우

즉, 결제가 정상적으로 승인되기 위해서는 사용한 카드의 명의자가 소유한 스타일러스 펜으로 결제에 서명해야하며, 서명 자체의 이미지와 서명에 대한 특징 값이 담긴 이미지가 동일한 사용자의 서명으로 분류되어야 한다.

IV. 실험

본 실험은 스타일러스 펜으로 서명 시 펜에 내장된 센서를 통해 인식한 서명과 결제 단말기의 서명패드에 입력된 서명을 분류하여 상호비교를 진행하므로 현재 소개된 다양한 서명 인식 데이터 셋을 사용하지 않고 직접 서명하면서 동시에 두 종류의 데이터를 수집하여 데이터 셋을 구축한다.

실험 절차는 Table. 1과 같이 6단계로 구성된다. 결제 단말기의 서명 패드에 스타일러스 펜을 사용하여 서명을 하면 결제 단말기로부터의 서명 이미지와 서명을 하는 동안 측정된 센서 데이터인 각 점에서의 위치 좌표 및 가속도가 산출된다. 해당 서명 이미지 와 센서 데이터는 서명 인식을 위한 서버로 전송되고 센서 데이터는 서명정보를 담은 이미지로 변환된다.

Table 1. experimental step

JBBHCB_2020_v30n3_379_t0001.png 이미지

이후 각각의 이미지는 합성곱 신경망을 거쳐 분류되며, 두 서명이 동일한 사용자의 서명이고 카드 명의자와 결제에 사용된 스타일러스 펜의 소유자가 같은 경우 결제가 승인된다.

4.1 실험 환경 및 구성

카드 결제 시 스타일러스 펜으로 결제 단말기의 서명 패드에 서명하는 환경을 구성하기 위해 아두이노 우노보드에 가속도 센서(MPU6050)를 연결한 후, Fig 2.와 같이 해당 센서를 스타일러스 펜에 부착하였다. 스타일러스 펜으로 필기가 가능한 노트북을 사용하여 카드 결제기의 서명 패드와 유사한 환경을 구축하였으며, 딥러닝을 통한 서명 이미지의 분류를 위해 Tensorflow를 백엔드로 하는 프레임워크인 Keras를 사용하여 합성곱 신경망 구조를 설계하였다.

JBBHCB_2020_v30n3_379_f0002.png 이미지

Fig. 2. structure of an arduino kit with stylus pen with MPU6050

실험은 다음과 같이 2가지 경우로 나누어 실험 절차를 따라 수행한다.

1) 본인이 서명하는 경우

2) 타인이 위조 서명하는 경우

또한, 본인 인증을 위한 수단이므로 사용자마다 사전에 등록한 한 가지 서명만을 사용하며, 정상적인 서명의 경우 의도적으로 획 순서나 모양 등을 변형하지 않는다.

4.2 실험 데이터

실험에 사용되는 데이터는 Table. 2와 같이 서명 이미지와 센서 데이터를 변환한 이미지에 대해 각각 5개의 클래스로 구성된다. 5명에게 각 50번씩 서명을 받아 서명 이미지와 서명하는 동안의 센서 데이터를 수집하였으며 수집한 데이터를 7:2:1의 비율로 나누어 각각 학습 및 검증과 테스트에 사용하였다.

Table 2. data set

JBBHCB_2020_v30n3_379_t0002.png 이미지

4.2.1 결제 단말기로부터의 데이터 수집

결제 단말기의 서명 패드를 통해 수집한 데이터는 이미지 형태로 서버에 저장되며, Fig. 3와 같이 구성하였다.

JBBHCB_2020_v30n3_379_f0003.png 이미지

Fig. 3. signature image sample

4.2.2 스타일러스 펜으로부터의 데이터 수집

스타일러스 펜에 부착된 센서를 통해 수집한 데이터는 서명 시 펜의 움직임에 대한 가속도이다. 해당값을 적분하여 속도와 변위를 계산하는 전처리 과정을 거쳐, 식 (1)과 같이 점 Pi의 상대좌표(이전 좌표로부터의 변위)를 구하고, 해당 위치(xi, yi)에서의 가속도를 측정한다. ax, ay는 x, y축의 가속도를 나타낸다. 또한, 센서 데이터 측정 시 생기는 노이즈를 제거하기 위하여 칼만필터를 사용하였다. 최종적으로 수집되는 센서 데이터는 식 (2)와 같다.

이러한 과정을 통해 보정된 데이터(상대 좌표 및 가속도)는 시리얼 통신을 통해 서버로 실시간 전송되고 서명하는 동안 연속적으로 측정되는 데이터들을 캡처하며 서명이 끝난 후 Fig. 4와 같이 이미지로 변환한다.

\(\begin{array}{l} \overrightarrow{P_{i-1} P_{i}}=\left(\left(x_{i}-x_{i-1}\right),\left(y_{i}-y_{i-1}\right)\right) \\ A_{\left(x_{i}, y_{i}\right)}=\sqrt{a_{x_{i}}^{2}+a_{y_{i}}^{2}} \end{array}\)       (1)

\(\text { signature }=\left(\overrightarrow{P_{i-1} P_{i}}, A_{\left(x_{i}, y_{i}\right)}\right)\)       (2)

JBBHCB_2020_v30n3_379_f0004.png 이미지

Fig. 4. sensor image sample

4.3 실험

본 실험은 4.1절 및 4.2절에서 언급하였듯이 두 가지 경우로 나누어지며, 데이터 수집을 마친 후 수행 절차에 따라 분류 실험을 진행한다. 또한, F-measure와 동일오류율(Equal Error Rate, EER)을 통해 본 실험에 대한 성능을 평가한다.

실험에 공통적으로 사용한 합성곱 신경망은 가중치가 사전 학습된 Inception v3 model[12]에 3개의 계층을 추가한 모델과 해당 모델에서 Inception 계층을 제거한 사전 학습되지 않은 모델을 구성하였다. 사전 학습된 모델의 구조는 Table. 3과 같다. 합성곱 계층과 풀링 계층을 반복 사용하여 특징을 추출하고 추출한 특징을 강화하는 구조를 가진다.

본 실험은 서명 이미지를 5개의 클래스로 분류하는 다중 클래스 분류 문제이므로 출력 계층의 활성화 함수는 ‘Softmax’를 사용하였다. 또한 다중 분류 손실 함수인 ‘categorical_crossentrophy’를 사용하며, 최적화 함수(optimizer)로는 학습률을 0.001으로 설정한 ‘RMSprop’을 공통적으로 사용한다.

Table 3. model summary(pretrained)​​​​​​​

JBBHCB_2020_v30n3_379_t0003.png 이미지

4.3.1 본인이 서명하는 경우

본인 소유의 스타일러스 펜을 통해 본인이 결제에 직접 서명하는 경우는 다음과 같이 나뉜다.

1) 등록된 서명인 경우, 센서 데이터로부터의 서명과 결제 단말기로부터의 서명이 같다면 결제가 승인된다.

2) 카드 명의자에게 등록된 서명이 아닌 경우, 두 서명이 같다고 하더라도 카드 명의자의 서명으로 분류되지 않아 결제가 거절된다.

사전 학습된 합성곱 신경망 모델로 학습한 결과는 Fig. 5 및 Fig. 6와 같다. 결제 단말기로부터 수집한 서명 이미지의 경우, 실험에 사용된 모델에 하이퍼 파라미터 튜닝 과정을 거쳐 epochs은 20, 1-epoch 당 학습 단계 수는 50으로 설정하였다. 학습데이터의 정확도 평균은 0.991이며, 손실 값은 평균 0.353이다. 검증데이터의 정확도 평균은 0.986이고 손실 값의 평균은 0.003이다. 학습 및 검증데이터 모두 정확도 1.000에 근접하였고 손실이 빠른 속도로 감소하며 과적합 없이 학습되었다.

JBBHCB_2020_v30n3_379_f0005.png 이미지

Fig. 5. signature image accuracy and loss (pretrained)

JBBHCB_2020_v30n3_379_f0006.png 이미지

Fig. 6. sensor image accuracy and loss (pretrained)

서명 시 수집한 센서 데이터를 활용하여 변환한 서명 데이터 이미지는 학습데이터의 경우 정확도 0.987, 손실 0.172를 달성하였다. 검증데이터의 경우는 정확도 평균이 0.942, 손실 값의 평균은 0.175이며 학습을 진행함에 따라 손실 값이 감소하였다. 또한 학습데이터와 검증데이터의 손실의 차가 크지 않으며 과적합 없이 학습되었다.

사전 학습되지 않은 모델로 학습한 결과는 Fig. 7 및 Fig. 8과 같다. 먼저 서명 이미지에 대한 학습 결과는 학습 데이터는 정확도 평균이 0.972이며 빠른 속도로 정확도 1.000을 달성하였다. 검증데이터는 정확도 평균 0.921, 손실 평균 0.513이며 top-1 오류율은 0.08이다. 센서 데이터 이미지에 대한 학습 결과는 학습 데이터는 빠른 속도로 정확도 1.000을 달성하였으나 검증 데이터의 경우 정확도 평균이 0.667이며 학습데이터의 손실이 0.0에 수렴하는 것과 달리 증가하는 추세를 보였으며 과적합이 발생하였다.

JBBHCB_2020_v30n3_379_f0007.png 이미지

Fig. 7. signature image accuracy and loss (not pretrained)

JBBHCB_2020_v30n3_379_f0008.png 이미지

Fig. 8. sensor image accuracy and loss (not pretrained)

사전 학습된 모델에서는 비교적 작은 데이터 셋에서도 학습이 잘 진행됨을 확인할 수 있었으며 서명 이미지에 대해 데이터를 증강하여 실험한 결과 검증 데이터의 정확도는 증가함과 동시에 손실 값은 빠르게 감소하였다. 이를 통해 사용자가 계속 증가하여 데이터가 축적될수록 더 좋은 성능을 나타낼 것을 예상할 수 있다.

4.3.2 타인이 서명하는 경우

타인이 결제에 서명하는 경우에 대한 실험은 다음과 같이 두 가지로 나뉜다.

1) 사용하고자 하는 카드의 명의자 소유의 스마트폰에 연결된 스타일러스 펜이 필요하며, 이를 소지하지 않은 경우 서명의 진위 여부와 관계없이 본인 인증이 불가능하여 결제가 거절된다.

2) 사용하고자 하는 카드의 명의자 소유의 스타일러스 펜을 소유한 경우, 사전에 카드 사용자가 사용하던 결제 서명을 알아야하며, 서명을 아는 경우에도 획 순서, 방향, 가속도 등의 특징 값이 달라 다른 사용자의 서명으로 인식되면 결제가 거절된다.

해당 실험을 위해 등록된 서명과 모양은 같으나 획 순서 등의 필기 방식을 변형한 위조 서명을 30개 생성하였다. 데이터 전처리 과정 및 사용한 신경망 모델은 기존과 동일하게 진행하였으며, Fig. 9는 해당 모델을 통해 위조 서명을 분류한 결과이다. 획 순서나 방향을 변형하여도 이미지 자체는 동일하게 인식되지만 센서 데이터를 변환한 이미지의 경우 각 클 래스에 해당하는 확률 값이 흩어지며 정확도와 f-measure는 0.06을 달성하였다. 따라서 위조 서명을 생성한 결과 본인 인증이 불가능함을 확인할 수 있다.

JBBHCB_2020_v30n3_379_f0009.png 이미지

Fig. 9. classification result of forgery signature​​​​​​​

4.3.3 동일 오류율 두 모델 중 더 효과적인 사전 훈련된 모델에서의 동일 오류율을 계산하였으며, 결과 값을 정상 서명과 위조 서명을 구분할 임계값으로 설정한다.

동일오류율(EER)은 타인 수락률(FAR)과 본인 거부율(FRR)이 같아지는 지점이며, 타인 수락률과 본인 거부율은 식 3과 같은 과정을 통해 계산한다.

\(F A R=\frac{F P}{F P+T P}, \quad F R R=\frac{F N}{F N+T N}\)       (3)

서명 이미지와 센서 데이터 이미지의 경우를 나누어 각각의 경우에서의 동일오류율을 계산한 결과는 Fig. 10, Fig. 11을 통해 확인할 수 있으며, 그래프의 x축은 타인 수락률, y축은 본인 거부율이다. Table 4와 같이 각 클래스에 대한 동일 오류율은 서명 이미지의 경우 0.00이며, 센서 데이터 이미지의 경우는 평균값이 0.168, 최댓값은 0.28을 달성하였다. 따라서 임계값은 0.28으로 설정하며, 모든 클래스에 대해 해당 값을 기준으로 정상 서명과 위조 서명을 구분한다.

Table 4. F-measure, EER and threshold

JBBHCB_2020_v30n3_379_t0004.png 이미지

Fig. 10. FAR & FRR in signature image

Fig. 11. FAR & FRR in sensor image

V. 결론

본 논문에서는 신용카드 결제 시 스타일러스 펜을 활용한 본인 인증 방식을 제안하였다. 결제 서명 절차에서 서명 이미지와 스타일러스 펜의 내장 센서를 통한 센서 데이터로부터의 이미지를 상호 비교하므로, 결제 시 카드 명의자 소유의 스타일러스 펜이 필요하다. 해당 펜을 가지고 있지 않다면 신용카드 부정사용 및 위조 서명 자체가 불가능하므로 형식적 절차였던 결제 서명을 본인 인증 절차로 바꾸어 보안 강도를 향상시켰다.

스타일러스 펜으로부터의 서명 정보를 얻기 위해 가속도 센서를 활용하여 변위와 가속도를 구하였으며, 해당 정보를 이미지로 변형한 후 학습하였다. 자이로 센서를 추가적으로 활용하여 서명 시 수집되는 서명의 특징 정보를 더 적극적으로 반영한다면 분류 성능이 향상될 것으로 기대된다.

본 제안 기법에서는 하나의 서명에 대해 발생하는 서명 이미지와 센서 데이터를 병렬적으로 분류하여 동일한 클래스인 경우 결제를 승인하였다. 향후, 두 서명 데이터에 대해 가중 합을 구한 후 해당 값을 학습하여 클래스를 예측하는 방법에 대한 연구가 필요할 것으로 보인다.

* 본 논문은 2019년도 한국정보보호학회 충청지부 학술대회에 발표한 우수논문을 개선 및 확장한 것임.

이 성과는 부분적으로 2020년도 정부(과학기술정보통신부)의 재원으로 한국연구재단의 지원을 받아 수행된 연구임(No. NRF-2017R1C1B5075742) 그리고 이 논문은 2020년도 정부(과학기술정보통신부)의 재원으로 정보통신기술진흥센터의 지원을 받아 수행된 연구임(No.2018-0-0 0264, IoT 융합형 블록체인 플랫폼 보안 원천 기술 연구)​​​​​​​

References

  1. Incheon Paik, "Framework architecture for electronic commerce software system based on SET protocol," The Korean Institute of Information Scientists and Engineers, 25(1A), pp. 732-734, Apr. 1998.
  2. Woosuk Chang, Kwangwoo Lee, Donghyun Choi, Hak Chong, Byunghee Lee, Younsung Choi, Seungjoo Kim and Dongho Won. "A study on SET and its transformation techniques," Journal of The Korea Institute of Information Security and Cryptology, 15(4), pp. 16-27, Aug. 2005.
  3. Gonie Ahn, Jae Hyeong Yoo, Jae Hyeong Yoo and Seoung Bum Kim, "Explainable convolutional neural networks for multi-Sensor data," Journal of Korean institute of industrial engineers, 45(2), pp. 146-153, Apr. 2019. https://doi.org/10.7232/JKIIE.2019.45.2.146
  4. Hyunsoo Ha and Byung-Yeon Hwang, "Machine learning model of gyro sensor data for drone flight control," Journal of Korea Multimedia Society, 20(6), pp. 927-934, Jun. 2017. https://doi.org/10.9717/kmms.2017.20.6.927
  5. HyeonTae Ju and SungSoo Kim, "Voltage state diagnosis using the metric defined via kalman filter," Journal of the Research Institute for Computer and Information Communication, pp. 75-79, May. 2013.
  6. Yunyoung Nam, Yoo-Joo Choi and We-Duke Cho, "Human activity recognition using an image sensor and a 3-axis accelerometer sensor," Journal of Korean Society for Internet Information, 11(1), pp. 129-141, Feb. 2010.
  7. Ja-Woong Yoon, "Improvement of dynamic respiration monitoring through sensor fusion of accelerometer and gyro-sensor," Journal of Electrical Engineering & Technology, 9(1), pp.334-343, Jan. 2014. https://doi.org/10.5370/JEET.2014.9.1.334
  8. Sang-Ha Nam, Joo-Hee Kim, Se-Kyeong Heo and In-Cheol Kim, "Smartphone Accelerometer-Based Gesture Recognition and its Robotic Application," KIPS Transactions on Software and Data Engineering, 2(6), pp. 395-402, 2013. https://doi.org/10.3745/KTSDE.2013.2.6.395
  9. Soo-Yeun Shin and Joo-Heon Cha, "Human activity recognition system using multimodal sensor and deep learning based on LSTM," Journal of Mechanical Science and Technology A, 42(2), pp. 111-121, Feb. 2018.
  10. Seng-soo Nam, Chang-ho Seo and Dae-seon Choi. "Mobile Finger Signature Verification Robust to Skilled Forgery," Journal of the Korea Institute of Information Security & Cryptology, 26(5), pp. 1161-1170, Oct. 2016. https://doi.org/10.13089/JKIISC.2016.26.5.1161
  11. Young-Cheol Lim, Chi-Ho Park and Sang-Dong Kim, WooYoung Chung, "Development of motion-detective algorithm using accelerometer," Journal of Electrical Engineering&Technology, pp. 594-596, Oct. 2006. https://doi.org/10.5370/JEET.2017.12.2.594
  12. Szegedy, C., Vanhoucke, V., Ioffe, S., Shlens, J., and Wojna, Z. "Rethinking the inception architecture for computer vision," Proceedings of the IEEE conference on computer vision and pattern recognition, pp. 2818-2826, Jun. 2016.