1. 서 론
최근 IT 인프라가 널리 보급되고 이를 통한 서비스가 보편화됨에 따라 보안에 대한 중요성이 대두되면서 안정적인 보안 수준을 제공함과 동시에 사용이 편리한 개인 인증 시스템의 필요성이 증가 하였다. 특히 생체 정보를 이용한 다양한 방식의 인증 시스템 개발과 관련 알고리즘에 대한 연구가 활발하게 진행되고 있다[1].
생체인식이란 개인의 독특한 신체적, 행동적 특징을 이용하여 신원을 검증하는 방법으로 개인의 고유한 특징을 이용하는 것이기 때문에 모조나 도용이 거의 불가능하다는 특징이 있어 매우 신뢰성이 높은 신원 확인 방법이라고 알려져 있다[1].
가장 널리 사용된 방법인 지문 인식은 개인이 가지고 있는 손가락마다 다르고, 시간에 따라 변하지 않는 영구성이 있다. 지문 인식을 위해서는 지문에 나타나는 단점과 분기점의 특징을 이용한다. 그러나 지문 인식은 환경이나 직업의 영향으로 지문이 유실되거나 갈라지는 생물학적 변화에 영향을 받을 수 있다[2]. 망막인식은 사용자의 안구 배면에 위치한 모세혈관의 구성이 인간의 지문과 같이 불변의 특성을 지니고 있다는 점을 이용하는 것으로, 이러한 망막 패턴을 읽기 위해서는 약한 강도의 연필 지름만한 적색 광선이 안구를 투시하여, 망막에 있는 모세혈관에 반사된 역광을 측정하여야 한다. 그러므로 성공적인 망막 패턴 검색을 위해서는 사용자가 안경을 벗고 검색기에 접안하여야 하며, 접안기의 둥근 원통 내 어두운 부분 중 적색 광선이 방사되는 점에 눈의 초점을 맞추어야 하는 불편이 있다. 이러한 망막 패턴 검색 기술은 신원식별이 정확한 반면, 이용하는 사람들에게 거부감을 주고 장비가 매우 비싸다는 단점이 있다[3].
이러한 인식 방법이 가지는 단점의 대안으로 연구되고 있는 방법이 홍채 인식이다. 홍채 인식은 자연스런 상태에서 획득한 영상을 이용하여 거부감이 없고, 물리적인 방법이 아닌 영상 처리 알고리즘으로 홍채를 분석하고 신분을 인증하기 때문에 망막 인식에 비하여 장비가 저렴하다는 장점이 있다. 홍채는 신체적으로 특징이 있는 유기체 조직으로, 사람마다 다른 홍채 패턴을 가지고 있다. 또한 콘택트렌즈나 안경을 착용해도 인식이 가능하며, 카메라를 이용해 비 접촉식으로 정보를 얻을 수 있기 때문에 사용자의 거부감이 적고 편리하게 사용이 가능하다[4].
홍채인식은 크게 영상 획득, 홍채영역 추출, 홍채 영역의 특징 추출, 홍채코드 생성, 데이터베이스에 등록된 영상과 매칭 단계로 구분된다. 홍채 영역 추출의 정확도 향상을 위한 연구들은 현재까지도 지속적으로 수행되어오고 있다. 가장 대표적인 예로 Daugman은 현재 많은 상용 시스템들에서 채택되어 사용되고 있는 알고리즘이다[5]. Daugman 방법은 홍채의 분할을 위하여 내부 경계면과 외부 경계면을 찾는 적미분기를 사용하고 검출 정확도는 높은 편이나, 많은 연산량 때문에 처리속도가 빠르지 않다. Verma는 영상의 경계선 맵(Edge map)을 만들고 허프 변환(Hough transform)방법을 이용하여 홍채 영역을 분할하는 방법을 제안하였다[6]. 허프 변환 방법은 Daugman 방법에 비하여 빠른 처리 속도를 가지고 있으나, 정확도가 떨어지며 영상에 따라서 사용자가 임계 값을 계속해서 바꿔줘야 하는 단점을 가지고 있다. 유사한 연구로써 Gupta는 템플릿 매칭 기반의 검출 방법을 제안하였다. 이 방법은 원형 허프 변환(Circular hough transform)을 이용하여 동공 및 홍채영역을 먼저 검출하고 이어서 선형 허프 변환(Linear hough transform)방법으로 눈꺼풀영역을 검출한 다음 각각의 결과를 템플릿화 한다. 최종적으로 두 템플릿 간의 Hamming distance 값을 계산하여 매칭을 수행하도록 하는 방법이다[7,13].
본 연구에서는 홍채를 원으로 가정하여 홍채를 검출하는 알고리즘인 Daugman 방법, 허프 변환 방법과 마찬가지 방법으로 홍채를 원으로 가정하여 검출하지만 기존 방법들이 결과를 얻기 위해서 많은 연산을 하는 점을 보완하여 홍채 후보 객체의 외곽선 정보를 추출하고, 원의 연립방정식을 이용하여 속도와 정확성을 동시에 고려한 새로운 검출 알고리즘을 제안한다.
2. 기존 검출 방법
2.1 허프 변환
허프 변환 방법은 가우시안 필터가 적용된 이진화된 경계선 맵에서 3개의 파라미터를 이용하여 원형을 검출한다. 허프 공간은 다음과 같이 정의 할 수 있다[8].
(xI, yI)는 경계선 상의 픽셀을 나타내고, H는 영상 공간상의 원을 나타낸다. (xI, yI)가 (x0, y0, r)에 해당하는 원에 위치해 있다면, H(xI, yI, x0, y0, r)는 1을 반환 하고 아니라면 0을 반환 한다. H(x0, y0, r)의 누적된 값이 최대가 되는 좌표를 홍채의 중점으로 인식하고 홍채 영역을 검출한다.
2.2 Daugman의 원형 경계선 검출기
홍채 영역 분할 방법으로 가장 널리 알려진 Daugman의 방법 에서는 다음과 같은 원형 경계 검출기를 이용한다[14].
영상 I(x, y)를 변화율이 최대가 되는 원을 찾기 위해 가우시안 블러 함수(Gσ(r))를 적용하고, 원의 중심이 (x0,y0), 반지름이 r인 원주상의 모든 픽셀 값을 2πr로 나누어 정규화 시킨다. 이 값을 반지름에 대한 변화율로 나타내면 원주의 변화 값이 된다. MAX(r,x0,y0)는 원형 경계 검출기를 통해 변화율이 가장 큰 원의 중점을 반환한다. 원주의 변화 값이 최대일 때 중심과 반지름은 홍채 영역을 모델링하는 원을 나타낸다.
그림 1.Circular edge detection process.
3. 제안하는 홍채 및 동공 검출 알고리즘
본 연구에서는 외곽선의 정보들을 기반으로 연립방정식을 생성 하고 원을 탐지하는 새로운 알고리즘을 제안하였으며, 검출과정은 그림 2와 같은 순서로 진행된다.
그림 2.Flow chart
영상이 획득되면 먼저 전처리가 수행되는데 이 단계에서는 원본 전안부 영상에 대한 컬러모델 변환과 잡음제거, 이진화 과정이 포함된다. 다음 단계는 제안 알고리즘에서 가장 핵심적인 요소인 원의 연립방정식의 모델링을 위해 경계 추적을 수행하고 좌표정보를 바탕으로 연립방정식을 계산하여 검출될 원의 중점 좌표와 평균 반지름의 크기를 구한다. 최종적으로 이 정보들을 바탕으로 홍채 영역에 해당하는 원 검출이 수행된다.
3.1 영상 획득
그림 3에서와 같이 전안부 영상에서의 안구영역은 크게 동공과 홍채, 공막, 그리고 눈꺼풀로 구분된다.
그림 3.Eye image
이와 같은 영역별 특성을 고려하고 정확한 분할을 수행하기 위하여 본 연구에서는 원본 영상의 RGB 컬러모델을 그대로 사용하지 않고, 인간의 시각시스템과 유사한 컬러 모델인 HSV 모델을 사용하였다. 원본 영상을 그림 4 (a)와 같은 HSV 컬러 모델로 변환하고, H, S, V채널로 영상을 분리하여 각 채널에 대한 그레이 영상을 얻었다. 세 채널 가운데 검출 영역의 특징을 가장 잘 반영한다고 판단되는 Hue 영상으로 동공 영역을 검출하였고, Value 영상으로 홍채영역과 반사광 영역을 검출하였다.
그림 4.Convert HSV color model: (a) HSV, (b) Hue, (c) Saturation, (d) Value
3.2 전처리
전처리 단계에서는 먼저 영상 획득을 통해 얻은 Hue 영상과 Value 영상을 Otsu‘s threshold 방법을 적용하여 이진화를 수행하였다. 이 방법은 영상의 히스토그램에서 두 개의 큰 영역 사이의 분산이 최대가 되도록 히스토그램의 분포를 이용하여 경계 값을 찾고 이진화 한다[9].
다음 그림 5의 (b) 는 Hue 영상을 이진화 한 결과이고, (c) 는 Value 영상을 이진화 한 결과 (d) 는 (c)를 이용하여 만든 반사광 영역에 대한 이진화 영상이다.
그림 5.Thresholding image: (a)Original image, (b)Pupil, (c)Iris, (d)Reflected.
이어서 형태학적 침식, 팽창 연산과 가우시안 스무딩 방법으로 잡음을 제거 하였다. 제안하는 방법에서는 5×5 크기의 마스크를 사용하였으며 1차적으로 침식, 팽창 연산으로 크기가 작은 잡음을 없애주고, 2차적으로 가우시안 스무딩 방법을 이용하여 객체의 외곽선을 부드럽게 만들어 준다[10].
3.3 홍채 및 동공의 경계선 추출
경계선 정보를 얻기 위해서 다음과 같은 경계선 추적 알고리즘을 적용한다. 영상을 위에서부터 아래로 왼쪽에서 오른쪽으로 순차 탐색을 하며 경계선 정보가 있는 픽셀을 만나면 좌표를 큐에 넣는다. 최초 시작 좌표를 얻은 다음 과정은 그림 6과 같이 5방향으로 진행방향을 위한 탐색을 하고, 경계선 정보가 있는 픽셀 좌표를 큐에 넣는다. 이 과정을 반복하여 이진화 된 홍채, 동공 영상에서 경계선 정보를 추출한다.
그림 6.Boundary tracking algorithm.
3.4 원의 방정식을 이용한 홍채 및 동공 검출
전처리 과정만으로는 영상 품질에 따라, 일부 영상에서 눈꺼풀이나 눈썹, 빛의 영향으로 홍채와 동공의 전체 경계선이 나타나지 않을 수 있다. 이 단계에서는 이러한 문제해결을 위하여 홍채와 동공이 원이라는 가정을 하고, 먼저 이진화 된 영상에서 객체의 윤곽선 지점의 좌표를 얻는다. 세 개의 점에 대한 좌표를 이용하여 다음 식과 같은 형태의 원의 연립방정식을 모델링 할 수 있다. 홍채와 공막, 동공과 홍채 경계선의 각 좌표 값은 다음식과 같다.
Iedge를 각 좌표 사이의 간격인 z만큼 등분하고 세점의 좌표를 연립하여 n개 연립방정식 F를 구한다. z간격이 좁을수록 홍채 영역 검출 정확도는 높아지고 중심정확도는 떨어지며 z간격이 넓을수록 홍채 영역 검출 정확도는 낮아지고 중심정확도는 높아진다. x와 y는 경계면에 있는 점의 좌표이고, hi와 ki는 홍채의 중심이라 생각되는 후보 좌표이고, ri은 홍채의 후보 반지름 크기이다.
파라미터 영역 P는 방정식의 모든 해 (hi,ki)에 대해서 i=1,2,3,⋯,n의 범위와 같은 영역을 가지며 (hi,ki)가 계산 될 때 마다. 누적 영역에 대응되는 지점(hi,ki)의 내용을 1씩 증가 시킨다. 이진화 된 영상이 정원일 경우에는 원의 중심점 (hi,ki)에 대응하는 누적 영역에 n개의 해 모두가 누적된다.
그림 7에서 붉은 영역으로 표시된 부분이 (hi,ki)에 해당한다. 누적된 값이 많을수록 가장 밝은 붉은 색으로 보이며, 최종적으로 픽셀 값이 가장 많이 누적된 곳에 해당하는 원의 중점과 누적된 곳의 평균 반지름 정보를 통해 홍채 영역에 해당하는 원이 검출된다.
그림 7.Cumulative center point.
4. 테스트 및 실험결과
본 연구에서 홍채 검출에 사용된 영상은 3,872 × 2,562 크기의 24비트/픽셀 영상으로 총 50장으로 구성되어 있다.
검출에 사용된 소프트웨어의 개발 및 테스트는 i73.20GHz 16GB 메모리의 PC에서 수행되었으며 주개발언어는 Microsoft Visual C++ .NET(Ver. 2010, Microsoft, Redmond, WA, USA), 영상처리 라이브러리인 OpenCV가 사용되었다[11].
전안부 영상에 대해 홍채 영역을 포함하는 원을 3명의 검사자가 수동으로 작성한 후, 제안한 방법을 적용한 결과와 허프 변환 기반 방법, Daugman의 방법을 적용한 결과와 간의 비교 분석을 수행하였다.
다음 그림 8은 검출 결과의 한 예를 나타낸다. 그림에서 붉은색은 홍채 영역, 노란색 원은 동공 영역에 대한 검출결과에 해당한다.
그림 8.Result image
전처리 과정과 경계선 추출 과정을 제외한 검출 수행 시간의 경우, 동일한 영상에 대해 세 가지 방법을 각각 적용하고 비교했을 때, 허프 변환 방법은 33ms, Daugman의 방법은 452ms, 제안한 방법은 6ms가 각각 소요 되었다. 결과적으로 제안한 방법은 허프 변환 방법과 비교 시 약 5배, Daugman 방법과 비교 시 약 75배의 처리 시간이 단축되어 상당한 개선이 이루어졌음을 확인할 수 있었다.
허프 변환 방법은 모든 경계면 상의 좌표를 중심으로 크기를 바꿔가며 원을 그려 탐지하기 때문에 연산량이 많다. Daugman 방법은 또한 홍채 경계면을 찾기 위하여 중점과 반지름을 바꿔가며 원주상의 픽셀 값을 얻어내고 연산을 수행하기 때문에 많은 처리 시간이 요구된다. 이에 비하여 제안한 방법은 경계면 상의 일정한 간격을 두고 있는 세 점의 좌표를 이용하여 중점을 구하기 때문에 기존 방법들에 비하여 상대적으로 빠른 처리가 가능하다.
그림 9는 각 방법별 수동분할 영상과의 유사도 측정 결과를 비교하여 나타낸 그래프이다. 본 논문에서는 유사도 측정을 위해 다음 식(6)과 같은 다이스 유사도 계수(Dice’s similarity coefficient)를 계산하였다. 계수값은 0.0~1.0의 범위 값을 가지며, 두 비교 대상 A와 B가 완전하게 동일할 경우 1.0의 값을 가진다[12].
그림 9.Similarity measurements for 50 images.
50장의 평균 유사도를 측정한 결과, 허프 변환은 94.21%, 제안 방법은 94.99%, Daugman의 방법은 97.96%의 결과를 나타내었다. 이미 알려진 바와 같이 Daugman의 방법은 정확도 측면에서는 가장 우수한 결과를 나타내었으나 앞서 언급한 바와 같이 소요시간 측면에서 많은 한계성을 나타낸다. 이러한 점에서 본 연구의 제안 알고리즘은 약 3% 정도의 차이를 보이나 속도 측면에서는 월등하게 유리하다는 장점이 있다. 허프 변환 방법은 영상의 특성에 따라서 홍채 검출 결과의 편차가 매우 큰 것을 알 수 있다. 이에 반해 제안한 방법은 허프 변환 방법에 비해 안정적인 검출 성능을 보이는 것을 알 수 있다.
아래 그림 10은 수동으로 작성된 원의 좌표 중심과 각 방법을 이용하여 검출된 결과 영상의 원의 좌표 중심간의 평균 거리 차이를 비교한 결과이다. 허프 변환의 경우 71.76, 제안 방법은 44.01, Daugman의 방법은 20.29를 나타내었으며, 중심 위치 정확도 오류는 허프 변환 7.57%, 제안방법 4.64%, Daugman의 방법 2.14%로 각각 측정되었다.
그림 10.Compare the difference between the average distance.
결론적으로 이상의 측정 결과를 통해 제안한 방법이 Daugman의 방법에 비교 시, 정확도 측면에서는 거의 근접한 결과를 나타내며, 허프 변환 방법에 비해서는 상대적으로 크게 개선되었음을 알 수 있다. 또한 처리 시간 측면에서도 제안한 방법이 세 방법 가운데 가장 좋은 성능을 보여주었다.
5. 고찰 및 결론
본 연구에서는 영상의 외곽 경계선 정보를 이용하여, 홍채 및 동공 영역을 탐지하는 새로운 알고리즘을 제안하였다. 제안하는 방법에서 검출 대상 오브젝트의 모든 외곽선 상의 점에 대한 좌표를 이용하여 복수의 원의 연립방정식이 얻은 후에, 일정한 간격의 세 점의 좌표를 이용하여 원의 중심을 구하므로, 등분 수가 많을수록 원의 탐지율은 높아지나 원의 중점 정확도가 떨어지며 등분 수가 적을수록 원의 탐지율은 낮아지지만 원의 중심을 더 정확하게 찾는다.
원 탐지 시에 이진 영상에서 원의 탐지에 널리 사용되는 허프 변환은 허프 공간과 영상의 크기 따라 검출된 요소의 품질이 달라지므로 필요한 파라미터 값들을 실험적으로 결정해야 하는 단점이 있다. 또한 홍채 검출 방법에서 널리 사용되는 Daugman 방법은 다른 방법에 비하여 검출 정확도가 높은 편이나 처리 속도가 매우 느리다는 단점이 있다.
제안 알고리즘에서는 영상에서 보이는 홍채의 크기나 위치에 관계없이 개체의 외곽선만 추출이 가능하다면, 임계값 없이도 홍채 영역을 포함하는 원의 검출이 가능하게 때문에 기존의 허프 방법보다 여러 측면에서 우수하고 Daugman과 근접한 정확도를 보이면서 동시에 처리속도는 현저히 빠르다는 장점이 있다.
향후 본 연구 결과를 바탕으로 추가적인 알고리즘 개선을 통해 정확도를 더 향상시킨다면, 기존의 유사 검출 방법들의 문제점을 보완할 수 있어 그 응용 범위를 더욱 확대해 나갈 수 있을 것으로 기대한다.
참고문헌
- 이병용, "생체인식기술의 지속사용의도에 영향을 미치는 요인에 관한 연구," 전자상거래학회지, 제16권, 제3호, pp. 1-22, 2011. https://doi.org/10.7838/jsebs.2011.16.3.001
- 김재희, "[소특집: 생체인식 기술] 생체인식 기술 동향," 전자공학회지, 제29권, 제5호, pp. 61- 69, 2002.
- 주상현, "홍채인식을 이용한 정보보안을 위한 휴대용 신분인식기 개발," 한국인터넷방송통신학회 논문지, 제11권, 제5호, pp. 108-112, 2011.
- 박강령, "홍채 인식 기술", 한국멀티미디어학회지, 제7권, 제2호, pp. 23-31, 2003.
- J. Daugman, "How Iris Recognition Works," IEEE Transactions on Circuits and Systems for Video Technology, Vol. 14, No. 1, pp. 21- 30, 2004. https://doi.org/10.1109/TCSVT.2003.818350
- P. Verma, "Hough Transform Method for Iris Recognition a Biometric Approach," International Journal of Engineering and Innovative Technology, Vol. 1, No. 6, pp. 43-48, 2012.
- S. Gupta, "Iris Recognition System using Biometric Template Matching Technology," International J ournal of Computer Applications, Vol. 1, No. 2, pp. 1-4, 2010.
- N. Cherabit, "Circular Hough Transform for Iris Localization," Science and Technology, Vol. 2, No. 5, pp. 114-121, 2012. https://doi.org/10.5923/j.scit.20120205.02
- N. Otsu, "A Tlreshold Selection Method," IEEE Transactions on Systems, Man, and Cybernetics, Vol. 9, No. 1, pp. 62-66, 1979. https://doi.org/10.1109/TSMC.1979.4310076
- 강호철, "전안부 영상에서의 동공 및 홍채 영상 분할 연구," 대한의료정보학회지, 제15권, 제2 호, pp. 227-234, 2009.
- OpenCV, http://www.opencv.org, 2013
- Dice Lee R, "Measures of the Amount of Ecologic Association Between Species," Ecology, Vol. 25, No. 3, pp. 297-302, 1945.
- P.K. Pallav, "Investigation and Analysis of Hough-DCT-Hamming Distance based Method of Iris Recognition," International Journal of Innovative Technology and Exploring Engineering, Vol. 3, No. 1, pp. 181-185, 2013.
- 강병준, "홍채 인식에서의 눈꺼풀 및 눈썹 추출 연구," 멀티미디어학회논문지, 제8권, 제7호, pp. 898-905, 2005.
피인용 문헌
- A Study on Reconstruction Vulnerability of Daugman's Iriscode vol.24, pp.2, 2019, https://doi.org/10.9708/jksci.2019.24.02.035