1. 서론
지난 2019년에 발생한 코로나 바이러스는 전례가 없는 상황으로 사회 전체의 기반 체계와 시스템들이 비대면 상황으로 변하도록 유도하였으며, 사회적 거리 두기로 인하여 사람들은 실제 접촉하는 만남을 최대한 지양하고 있다. 사회 전반적으로 되도록 사람 간 접촉하지 않은 상황에서, 전통적으로 사용해왔던 방식을 변경하려는 움직임이 사회 모든 분야에 걸쳐 발생하고 있다 [1]. 군대와 같은 폐쇄적인 환경에서는 부대에 있는 모든 장병이 집단생활을 하는 곳으로 한 부대에서 소수의 바이러스 확진자가 발생하면 집단생활의 특성상 감염 속도가 빠르게 부대원 모두에게 전파되는 심각한 상황에서는 부대 전체를 코호트격리를 하여 극단적인 조치를 해야 하는 상황에 놓이게 된다. 그러므로 군에서는 극단적인 상황이 일어나지 않게 하도록 정부에서 권장하는 시책보다 강경하게 대응하는 등 철저한 노력을 기하고 있다.
하지만 군에서는 체력측정을 매년 시행하여야 한다. 체력평가는 진급, 장기복무 등과 같은 장병들의 인사평가에 필수적으로 사용되는 요소 중 하나이며, 체력측정을 시행하는 요인은 전투원이 실제 전투에서 직접 영향력으로 행사할 수 있는 요소라는 측면과 평시 부대를 단결시키고 건전한 병영문화를 조성하기 위해 중요한 요소로 작용하기 때문이다. 하지만이러한 중요한 요소임에도 불구하고 체력측정 시행은 사단급 이상 부대의 인사 관련 부서에서 인원을 나누어 간헐적으로 실시하고 있다. 체력측정을 시행하는 해당 기간 인사부서는 대부분의 일과를 체력측정과 관련된 행정업무에 시간과 노력을 할애하고 있으며 체력측정을 마치고 나면 측정된 결과를 종합하는 등 과중한 단순 업무에서 많은 시간을 소비하고 있다.이러한 행정 소요는 각 개인의 시간은 물론 인사부서의 시간과 인력 소요를 고려하였을 때, 부대 전체적으로 효율적이지 않은 업무가 지속되고 있음을 시사한다.
국군의 체력측정은 총 3가지 종목으로 이루어져 있으며 세부종목으로 3km 달리기, 2분 동안 측정되는 팔굽혀펴기와 윗몸일으키기가 있다. 이 중 팔굽혀펴기는 가슴 근육과 어깨의 근육, 그리고 근지구력을 측정하는 요소로서 현재 군에서는 지면에 보조 대를 위치 시켜 팔을 굽혀 몸이 일직선이 된 상태에서 가슴이 보조대에 표시된 공을 접촉하는 것을 기준으로 팔굽혀펴기를 1회 실시하였다고 판단한다. 이러한 과정에서 측정 대상자는 팔굽혀펴기를 시행하는 동안에 어깨 관절의 변화를 실시간으로 포착할 수 있다. 팔굽혀펴기는 신체를 일자로 유지하며 어깨와 팔꿈치를 굽혀 신체 전반을 내리고 들어 올리는 과정을 수행하는 것을 의미한다[2].하지만 측정관마다 완전한 자세에 대한 기준이 일관적이지 않고 2분 동안 실시되는 과정에서 횟수에 대한 모든 자세가 올바르지 않을 수도 있기에 언제나 공정성 시비에 휘말려왔다.
그러므로 본 논문에서는 팔굽혀펴기에서 시행되는 일련의 과정을 디지털카메라를 이용하여 촬영하는 것에 착안하였다. 기본이 되는 표본을 추출하기 위해서 측정을 하고자 하는 사람의 어깨를 기준으로 팔꿈치를 편 상태와 팔꿈치를 굽힌 두 가지 상태를 중점으로 사진 촬영을 시행하게 된다. 이 두 가지 자세를 상태 이미지로 저장하여 딥러닝 기술 중의 하나인 합성곱 신경망(CNN, ConvolutionalNeuralNet- work)[3]기법을 사용하여 고성능의 GPU가 부착된 컴퓨터에 올바른 자세의 팔굽혀펴기 이미지를 학습시킨다. 학습하는 자세는 어깨와 팔꿈치가 완전히 펴지고 몸이 일직선으로 만들어진 상태와 어깨와 팔꿈치가 굽혀지고 무릎, 엉덩이, 척추가 일직선으로 내려간 상태에서 보조기의 공을 접촉하고 있는 상태, 즉 두 가지 자세의 이미지를 활용하여 측정 대상자의 팔굽혀펴기에 대한 올바른 자세의 데이터 셋을 생성한다.
제안된 기법의 성능 평가를 위해 연속된 팔굽혀펴기 동작을 디지털카메라를 활용하여 연사하여 촬영하고 팔꿈치가 완전히 펴졌을 때와 팔꿈치가 굽혀졌을 때의 두 가지 동작 이미지를 추출하여 구분하였다. 구분된 두 가지의 이미지를 활용하여 학습용 데이터 셋을 설정하였다. 팔을 쭉 편 상태의 데이터 셋과 팔을 굽힌 상태의 데이터 셋을 설정하였고, 머신러닝 오픈소스 플랫폼에서 Inception-V3모델을 적용하였다. 결과적으로 정확한 팔굽혀펴기 동작이 이루어진 이미지로 학습시킨 데이터 셋과 정확한 동작이 이루어지지 않은(팔꿈치가 굽혀졌거나, 엉덩이가 내려가지 않는 등의 자세)상태의 이미지를 비교하여 두 이미지 간 유사도에 관한 결과를 측정하였다.
본 논문의 구성은 다음과 같다. 먼저 2장에서는 CNN기반의 이미지 분류에 대한 설명과 CNN 기반을 통한 팔굽혀펴기의 자세에 관해 설명한다. 3장에서는 팔굽혀펴기의 자세별 세부 특징을 다루며 군에서 규정한 근거와 감점 요인에 관해서 기술한다. 4장에서는 실험환경을 소개하고 CNN기법을 사용하기 위한 데이터 셋과 학습시킨 이미지와 연구를 진행한 과정과 결과를 기술하고 연구를 통해 발전해야 할 향후 연구에 관해 언급하고 끝으로 5장에서는 논문의 결론을 제시한다.
2. 본론
2.1 CNN 기법
CNN은 현재 딥러닝을 이용한 이미지 프로세싱에서 가장 주목받고 있는 알고리즘이다.CNN은 총 3단계를 거치며 이미지를 분류하게 된다. 첫 번째로는 특징을 추출하는 단계가 필요하다. 여러 raw 이미지를 가지고 공통으로 나타나는 특징을 추출해야 하는데 기존에 이미지 프로세싱에서 사용하는 필터는 계수를 지정함에 따라 각기 다른 결과 값을 도출하였다. CNN에서는 Convolutional layer라고 하는 Convolution Kernel을 사용하는 단계에서 반복적으로 합성 곱을 통하여 최적의 계수를 스스로 결정하게 되며, 이후 sub-sampling을 통하여 공통적인 특징을 추출하게 된다. 여러 단계의 Convolution과 sub- sampling과정을 거치게 되면 특징 맵의 크기가 작아지면서 이미지를 대표할 수 있는 강건한 특징만이 추출되게 된다.이러한 과정의 Convolution의 개념은 Fig.1과 같다. 입력된 이미지와 Kernel의 합성을 통하여 출력 이미지가 나타나게 된다.
Fig. 1. Concept of Convolution.
이러한 CNN기법을 사용하게 되면 이미지를 활용하여 분류하는 작업을 수행할 수 있으며 현재 여러 분야에서 CNN기법이 적용되고 있다.Yadav 등[5] CNN의 특징을 통하여 흉부를 x-ray촬영한 이미지를 가지고 폐렴을 분류하는 연구를 수행하였으며, Wallelign등[6]은 CNN기법을 사용하여 콩잎 식물을 분류하고 식물 질병을 식별하는 연구를 진행하였다. 박병서 등[7]은 고대 문자를 분류하기 위해서 CNN기법을 사용하였으며 강호선 등[8]은 자율 주행 연구를 위하여 CNN기법을 접목하여 주행 중인 차량의 상대 거리를 추정하는데 사용하는 연구를 진행하였으며 행동인지와 관련하여 웨어러블 센서를 이용한 인공지능 사용[11]등 의료, 자율주행 및 문자인식 등과 같이 다양한 분야에서 CNN기법이 활용되고 있으며 CNN기법의 분류 성능이 우수함을 입증하고 있다.
2.2 CNN기반 팔굽혀펴기 자세 분류
본 논문에서는 측정 대상자의 팔굽혀펴기 동작 중 팔이 완전히 펴졌을 때와 팔이 완전히 굽혀졌을 때의 자세를 기준으로 삼고, 대상자의 팔굽혀펴기 동작을 실시간 촬영하여 이미지를 활용한다. 올바른 자세로 기준이 되는 이미지와의 유사도를 측정하는 방법을 제시하고 있다. 이를 위해 학습 및 테스트용 이미지에 대한 간단한 이미지 전처리 과정이 요구된다. 우선 원본 이미지에서 측정하기 위한 이미지는 대상자의 어깨와 팔이 중점적으로 보일 수 있도록 3525× 3525픽셀 크기를 crop하여 이미지 데이터로 활용하였다. 감소 되는 만큼 원본 사진에서 측정 간 불필요한 배경을 많이 제거할 수 있었다. 대상자의 팔굽혀펴기 동작은 빠른 시간에 진행되기 때문에 학습을 시키기 위해서는 제한된 원본 이미지를 활용하여야 한다. 원본 이미지는 픽셀을 변화시켜 이미지를 증강하는 방법을 사용하였다. 먼저, 원본 이미지를 상하좌우로 시계방향으로 90°씩 회전을 시켰고 추가로 다채로운 색상을 흑백색(grayscale)으로의 적용을 통해 학습용 이미지 데이터를 다양한 이미지로 늘렸다. 자세별로 각 300여 장으로 증가시켰다. 이러한 방법을 통해 인위적으로 변화된 이미지는 학습을 위한 데이터로 활용된다.이렇게 변형된 이미지는 InceptionV3를 통해 299×299의 픽셀 크기로 재조정되어 입력된다. 이미지 데이터 셋의 학습을 위해 사용된 기법은 구글에서 공개한 Inception-V3모델이다. Inception-V3 의 컨볼루션 레이어 중 최대 풀링 레이어는 이미지의 특징 맵에서 축의 크기를 반으로 줄였으며 각 블록 계층에서 특징 맵의 개수는 2배로 증가한다. 모델의 마지막의 특징 맵의 크기와 같은 커널 사이즈에서 풀링을 수행하며 완전 연결층에서 파라미터를 적게 사용함으로써 학습 속도를 향상시킨 모델이다. 기존 모델은 학습을 위한 알고리즘의 계산량이 많아 구글에는 지속해서 모델을 발전시켜 왔다. 또한, Inception-V3 모델은 Inception-V1에서 사용하였던 배치 정규화는 그대로 적용하면서 라벨 스무딩을 적용했으며 비대칭 Convolution을 사용하면서 연산량을 줄였다. 그리고 보조 분류기를 사용함으로써 계수를 갱신하는데 더 좋은 성능을 가지고 있다. Inception-V3 모델은 모든 면에서 성능이 기존 모델보다 높아진 모델이다. Inception-V3의 추가된 기능은 Fig.2에서 확인할 수 있다. Inception-V1모델은 성능 면에서는 낮은 성능은 아니지만, 팔굽혀펴기 자세 학습을 위해서는 팔굽혀펴기의 측정 특성상 다수의 사람을 측정해야 하고 평가자가 여러 측정 대상자의 이미지를 학습하여 결과를 도출해야 하므로 연산량이 낮은 Inception-V3모델이 필수적으로 요구된다.
Fig. 2. Concept of Inception-V3.
CNN기법을 활용한 이미지 처리기술은 무궁무진하며 발전되어온 모델은 연산량은 낮추었지만 아이러니하게도 효율성 측면에서 매우 뛰어나다. 본 논문에서는 팔굽혀펴기 동작 간 측정에 가장 중요한 요소가 되는 팔이 완전히 펴졌을 때와 팔이 완전히 굽혀졌을 때의 자세를 측정을 위한 기준으로 정하여 측정대상자의 동작 이미지를 이용하여 학습시켰다. 이후측정 대상자가 팔굽혀펴기를 실행하는 동안의 이미지를 활용하여 팔이 완전히 펴졌을 때와 팔이 완전히 굽혀졌을 때의 이미지를 이전에 학습된 이미지와 비교하여 정확도를 측정하였다. 결과적으로 팔이 완전히 펴지지 않거나 완전히 굽혀지지 않는 동작을 식별하여 측정을 객관화시키고 수치화하여 결과를 분석할 수 있게 된다.
3. 팔굽혀펴기 자세 및 동작에 대한 특성
팔굽혀펴기는 언제 어느 때나 남녀노소가 실시할 수 있는 편리한 운동이다. 체력을 측정하기에 편리한 측면과 함께 전신을 사용하기 때문에 단기간에 큰 효율을 낼 수 있는 운동이다. 군에서는 가슴과 어깨 및 위팔세갈래근의 근지구력을 평가하는 종목으로 매년 군인들의 체력검정을 위해 평가하는 필수적으로 시행되는 체력측정 방법 중 하나다. 팔굽혀펴기의 기본 원리는 팔을 굽히며 내려가는 과정과 팔을 펴며 올라가는 과정 두 가지로 볼 수 있다. 팔을 굽히며 내려가는 과정에서는 가슴근과 위팔세갈래근의 근육의 길이가 늘어나는 원심성 수축을 하게 된다. 이와 반대로 팔을 펴며 올라가는 과정에서는 가슴 근과 위팔세갈래근의 근육의 길이가 짧아지는 구심성 수축을 실시하게 되는 원리를 가지고 있다. 비상시 전쟁을 수행해야 하는 군인은 전쟁에서 승리하기 위해 얼마나 오래 버티느냐가 매우 중요하며 체력적으로 오래 버티는 동안 얼마동안 전력을 강하게 유지할 것인지에 대한 능력을 어떻게 정량화할 것인가에 대해 고민해 왔으며 이는 군인의 개인적인 능력을 나타내는 근지구력이 군인의 체력검정에 필수적인 요소가 된다. 결과적으로 근지구력을 객관적으로 정량화하여 표시하기 위해 팔굽혀펴기가 사용되고 있다.
3.1 팔굽혀펴기 자세별 특징
군에서 팔굽혀펴기의 평가는 국방부 부대 관리 훈령을 근거로 하여 2010년 군 체력검정 시행지침을 근거로 연령 그룹을 세분화하여 현역 장병과 군무원을 각각 따로 두고 실시하고 있다. 자세별 자세한 특징은 다음과 같다. 먼저 팔굽혀펴기는 지면과 30cm 이격된 보조기구를 사용하여 양손의 위치는 어깨너비로 벌리고 다리는 모은 상태에서 보조기구와 팔은 직각으로 위치시킨다. 몸은 머리부터 발끝까지 일직선이 유지되어야 한다. 팔을 굽혔을 때는 보조기구와 몸과의 간격이 5cm가 유지되어야 하며 다시 시작 자세로 팔을 폈을 때 1회 실시한 것으로 간주한다. 시간은 2분으로 제한하여 앞서 설명한 과정을 최대한 많이 해야만 체력검정을 우수하게 평가받게 된다. 현재 체력검정 현장에서는 팔과 보조기구 간격을 5 cm유지를 확인하기 위해 보조기구에 5cm 높이의 공을 설치해 두고 측정관에 의해 가슴이 공에 닿았는지를 확인하고 있다. 측정 대상자는 명시된 규정에 따라 측정관에 의하여 측정을 받게 되지만 반복되는 자세를 비교하며 측정하는 것이 아니므로 측정관 개인이 측정 대상자의 정확한 자세를 가지고 횟수를 세기에는 어려움이 있는 것이 사실이다. 그리고 측정대상자의 수가 많아질 때는 측정관이 여러 명을 대상으로 정확하게 측정해야 하므로 측정 간에 집중도가 떨어지기 마련이다. 이는 공정성에 대한 시비로 이어질 가능성이 매우 크다.
3.2 팔굽혀펴기 감점요인
팔굽혀펴기는 간단한 운동이지만 전신을 사용하는 운동이기 때문에, 여러 가지의 자세에 의하여 횟수를 인정받지 못할 수 있다. 그 행위들을 보면 머리부터 발끝까지 몸이 일직선으로 유지되어야 하지만 시행하는 도중에 몸을 일직선으로 유지하지 않고 몸이 구부러지거나 특정 부위가 높아지거나 낮아지는 경우, 어깨 넓이로 벌려야 하나 팔을 과도하게 좁게 위치시키거나 넓게 위치시킨다면 팔굽혀펴기에서 측정하고자 하는 근지구력을 확인하기 어렵기에 이 또한 횟수로 인정되지 않는다. 또한, 몸 전체가 일직선으로 유지되어야 하는 조건은 상체는 큰 움직임이 없고 엉덩이만 내려가는 경우, 하체는 일직선으로 유지하고 팔만 구부리는 행위, 발을 벌리고 실시하는 경우에도 인정되지 않으며 팔이 내려갔을 때 팔의 각도가 90도가 되지 않는 행위 또한 횟수로 인정되지 않는다.마지막으로 반대로 팔을 펼 때 팔 전체가 펴지지 않고 일부분 혹은 70%(60cm∼80cm)이상 펴지지 않은 행위 등이 있다. 이러한 감점 행위는 측정 시 측정이 인정되지 않는 행위가 측정관에 따라 미묘한 차이가 발생할 수 있기 때문에 체력검정에서 공정한 평가를 하고 있지만, 꾸준히 공정성에 대한 논란이 끊이지 않고 있다.
4. 실험 및 성능평가
4.1 실험환경
본 논문에서 제안하는 CNN기법을 적용하기 위한 실험용 컴퓨터의 하드웨어 사양으로 CPU는 AMD FX(tm)-8320 (Eight-Core, 3.5GHz), GPU는 Ge Force GTX TITAN X (12 GB)를 사용하였으며, Inception-V3모델은 Ubuntu16.04운영체제에서 머신러닝 오픈소스 플랫폼인 tensorflow환경으로 실험하였다.
4.2 학습용 데이터 셋
팔굽혀펴기는 Fig.3에서 보는 바와 같이 측정 대상자의 팔이 완전히 굽혀지고 완전히 펴져야 하며, 동시에 머리부터 발끝까지 몸이 일직선으로 유지되어야 횟수로 인정받게 된다. 따라서 올바른 팔굽혀펴기 자세의 학습용 이미지 데이터 셋을 생성하기 위해측정 대상자의 팔이 완전히 굽혀졌을 때와 완전히 펴졌을 때의 자세 전면을 촬영(CanonEOS5DMark Ⅳ, 해상도 6720×4480)하고 머리부터 발끝까지 몸이 일직선으로 유지된 상태를 학습시키기 위해 좌측과 우측에서 측정 대상자의 팔이 완전히 굽혀졌을 때와 완전히 펴졌을 때의 자세를 촬영하여 측정 대상자 한 명을 대상으로 6가지 자세의 학습용 이미지 데이터 셋을 생성하였다. 이미지 데이터의 증강을 위해 Fig.4와 같이 DataAugmentation[11]기법을 적용하여 기존 이미지의 회전(상하, 좌우, 이미지를 시계방향으로 90°씩 변화)과 흑백색(grayscale)으로의 적용을 통해 학습용 이미지 데이터의 다양성을 늘리는 전략을 사용하였으며, 6가지 자세별 각 300여 장의 학습용 이미지 데이터 셋을 구축하였다.
Fig. 3. Push-ups Images for Learning.
Fig. 4. Data Augmentation.
4.3 테스트용 데이터 셋
학습용 데이터 셋과 정확도를 비교할 테스트 이미지는 측정 대상자 한 명(동일인)의 팔굽혀펴기 실행 간 동작을 연속 촬영하여 팔이 완전히 굽혀졌다가 펴지기까지의 4단계를 Fig.5와 같이 전면, 좌측, 우측으로 나누어 12개의 이미지를 선정하여 테스트용 데이터 셋을 구성하였다.
Fig. 5. Push-ups Images for Test.
4.4 실험 방법
4-2장에서 생성된 학습용 데이터 셋은 CNN 기법 중 Inception-V3모델을 적용하였다.CNN은 전면, 좌측, 우측에 대해 각각 팔이 완전히 굽혀졌을 때와 팔이 완전히 펴졌을 때의 두 가지 동작으로 이미지를 나누고 학습하였다. 이후 4-3장을 통해 생성된 테스트용 이미지 데이터(Fig.3)를 전면, 좌측, 우측으로 구분하여 12장의 이미지를 대입하여 팔이 굽혀졌을 때와 팔이 펴졌을 때 학습된 이미지 데이터 셋과 정확(유사)도를 측정하여 동작별 올바른 팔굽혀펴기 자세와 객관적인 비교를 실시하였다.Fig.6은 실험 방법에 대한 전체적인 흐름을 보여준다.
Fig. 6. Phase of Learning Process.
4.5 성능평가
본 논문에서 제안하는 기법을 적용하여 학습용 데이터 셋을 설정하였고 Inception-V3모델을 적용하여 각 동작별(전면 2, 좌측 2, 우측 2)1, 000회 학습을 시행하였다.정확도 측정을 위한 실험은 전면, 좌, 우포함하여 총 3가지 동작별로 나누어 진행하였다. Table1은 팔굽혀펴기에서 연사로 촬영된 테스트용 이미지를 학습한 이미지와 정확도를 좌측에서 비교한 표이다. 표에서 본 것과 같이 학습된 이미지와 동작이 유사한 테스트용 이미지는 서로 굽힌 상태와편 상태에서 94.1∼97.6%의 수치로 나타나는 것을 확인할 수 있다. 하지만 동작을 시행하면서 촬영된 이미지는 60∼80%정도의 수치로 정확도가 감소한 결과를 확인할 수 있다.이는 팔굽혀펴기 동작 중 촬영되었던 이미지는 정확한 팔굽혀펴기 동작이 아닌 것으로 판단할 수 있다.
Table 1. Accuracy measurement between trained image and the test image (left side).
Table 2는 테스트용 이미지를 학습한 이미지와 정확도를 전면에서 비교한 표이다. 표에서 본 것과 같이 학습된 이미지와 동작이 유사한 테스트용 이미지는 서로 굽힌 상태와 편 상태에서 94.4∼96.9%의 수치로 나타나는 것을 확인할 수 있다. 동작을 시행하면서 촬영된 이미지는 78∼87%정도의 수치로 학습용 이미지와는 정확도가 다소 감소한 결과를 확인할 수 있다.
Table 2. Accuracy measurement between trained image and the test image (front side).
Table 3은 테스트용 이미지를 학습한 이미지와 정확도를 우측에서 비교한 표이다. 표에서 본 것과 같이 학습된 이미지와 동작이 유사한 테스트용 이미지는 서로 굽힌 상태와 편 상태에서 94.1∼96.9%의 수치로 나타나는 것을 확인할 수 있다. 동작을 시행하면서 촬영된 이미지는 51∼78%정도의 수치로 학습용 이미지와는 정확도가 다른 자세와 비교하였을 때 큰 폭으로 감소한 결과를 확인할 수 있다.
Table 3. Accuracy measurement between trained image and the test image (right side).
4.6 향후 연구
본 논문에서는 정확한 팔굽혀펴기 동작의 이미지를 활용하여 일부 동작 이미지를 학습시키고, 학습된 이미지와 부정확한 테스트용 팔굽혀펴기 이미지와의 정확도를 측정하여 결과를 분석하는 기법을 제시하였다. 향후 연구에서는 성별, 나이, 신체 크기가 서로 다른 다수의 인원에 대한 팔굽혀펴기 이미지를 학습시킬 수 있는 데이터를 활용할 예정이며, 나아가 팔굽혀펴기뿐 아니라 윗몸일으키기나 태권도의 발차기, 품세 등과 같이 인간의 주관적인 판단을 객관화시켜서 정확한 판단을 보조할 수 있는 기계학습 기법을 지속해서 적용할 예정이다. 또한, 촬영된 사진 이미지는 실용적으로 평가하기 위해서 동영상 데이터를 활용하는 것이 효과적이기에 다음에 동영상을 촬영하여 팔굽혀펴기 동작에서 최대로 펴진 상태와 최대로 굽혀진 상태를 구분하는 알고리즘을 통하여 자동으로 이미지를 추출하는 기법을 연구해나갈 것이다.
5. 결론
팔굽혀펴기는 동작의 단순함과 전신운동에 활용될 수 있으므로 육체적 능력이 요구되는 분야에서 체력을 측정하기 위해 널리 사용되고 있다. 하지만코로나 바이러스로 인해 사람과의 대면 접촉이 어려운 현재 상황에서 군, 경찰, 소방과 같은 체력적인 요소가 중요시되는 공무직에서 매년 시행하여 측정하는 것은 어려운 상황에 직면하였다.또한, 측정관마다 측정 간에 미세한 차이가 있어 측정에 관한 공정성 시비가 매번 발생하였지만 별다른 조치사항을 제시하기 어려운 것이 현실이었다.
본 논문에서는 현재 코로나 상황으로 인한 사회 모든 분야에 걸쳐 비대면으로 시행하는 측면과 공정에 대한 객관성을 위하여 군에서 실시 중인 체력검정의 한 종목인 팔굽혀펴기 측정을 위해 측정 대상자와 측정관이 접촉하지 않은 상황에서도 CNN기법을 사용하여 이미지 학습을 통한 활용방안을 제시하였다. 제시하는 방안은 측정 대상자가 팔굽혀펴기를 시행하여 정확한 자세를 선별하는 것에 주안점을 두었다. 측정 대상자의 정확한 자세는 동작을 두 가지로 구분하였다. 팔굽혀펴기 실행 단계 중 두 가지인 팔이 완전히 굽혀져 기구의 공과 가슴이 맞닿았을 때와 두 팔이 펴진 상태에서 일직선으로 굽혀 있는 자세이다. 측정 대상자의 자세를 촬영한 후 이미지의 전처리과정을 통하여 자세만을 학습시키기 위해 불필요한 픽셀들을 crop시켰다.감소한 이미지는 측정 대상자의 자세에 초점을 둠으로써, 학습의 효과가 증대되며 팔굽혀펴기는 평가자는 소수이며 측정 대상자가 다수로 평가되기 때문에 원본 이미지를 학습시키기 위해서 이미지 개수가 제한되는 특징을 지닌다. 이에따라 평가자는 원본 이미지를 상하좌우로 시계방향으로 90°회전시키고 색상을 흑백색으로 변형 시켜 이미지의 개수를 늘린다.측정 대상자의 올바른 자세로 촬영하여 변형된 이미지는 학습용 데이터 셋으로 구성하였다.학습을 위한 CNN모델은 Inception-V3 를 사용하였으며, 평가자가 측정 대상자 다수를 측정하는 환경과 V3의 낮은 연산량에도 학습 효과가 뛰어나 채택하여 학습시켰다. 이를 통해 학습한 데이터를 기준으로 팔꿈치가 완전히 펴지거나 굽혀지지 않은 자세의 테스트 이미지를 활용하여 학습된 데이터와 비교하였다. 비교 결과 팔굽혀펴기 동작을 수행하는 동안 촬영된 테스트용 이미지의 정확도를 측정한 결과는 40∼80%정도의 수치를 확인하였다.이에 반해 학습시킨 올바른 자세에는 94.4∼97.4% 이상의 정확성을 보일 만큼 우수한 성능을 나타내었다.
본 연구를 통해 사회적 거리 두기를 시행하는 현재 상황에서 측정 대상자와 평가자가 직접 대면하지 않은 상태에서 평가할 수 있으며, 개인의 올바른 자세를 통해 이미 학습된 데이터 셋을 활용하여 측정의 기준으로 활용되기 때문에 동작에 대한 객관적인 판단과 피드백 제공이 가능하다. 무엇보다 기존에는 측정을 위해 동일 기간에 특정한 장소에 모여 모든 것이 사람에 의해 측정 및 평가가 진행되어야 하는 불편함과 과다한 행정적인 요소를 본 연구를 통해 기간 및 장소의 한계를 극복함은 물론 사람의 노력을 줄이고 수치에 의한 객관적인 결과를 제공할 수 있다는 것에 본 연구의 의미가 있다.
References
- K.-O. Kim, "Changes of Aspect and Meaning of Physical Education After COVID19 : The Implications for Post-COVID era," Journal of the Korean society for Wellness, Vol. 15, No. 4, pp. 401-412, 2020 https://doi.org/10.21097/ksw.2020.11.15.4.401
- H. Sung, J. Kim, and S. Suh, "E.M.G. Analysis of Korea and U.S. Army Push-up and Sit-up," Korean Journal of Military Art and Science, Vol. 74 No.1, pp. 281-295, 2018. https://doi.org/10.31066/kjmas.2018.74.1.012
- A. Krizhevsky, I. Sutckever, and G. E. Hinton, "ImageNet Classification with Deep Convolutional Neural Networks," Communications of the ACM, Vol. 60, Issue 6, pp. 84-90, 2017. https://doi.org/10.1145/3065386
- S. Albawi, T.A. Mohammed, and S. Al-Zawi, "Understanding of a Convolutional Neural Network," 2017 International Conference on Engineering and Technology (ICET), 2017.
- S.S. Yadav and S.M. Jadhav, "Deep Convolutional Neural Network based Medical Image Classification for Disease Diagnosis," Journal of Big Data, Vol. 6, No. 1, pp. 1-18, 2019. https://doi.org/10.1186/s40537-018-0162-3
- S. Wallelign, M. Polceanu, and C. Buche, "Soyean Plant Disease Identification Using Convolutional Neural Network," FLAIRS-31, pp. 146-151, 2018.
- B.-S. Park, S. Lee, and Y.-H. Seo, "Training Method for Enhancing Classification Accuracy of Kuzushiji-MNIST/49 using Deep Learning based on CNN," Journal of the Korea Institute of Information and Communication Engineering, Vol. 24, No. 3, pp. 355-363, 2020. https://doi.org/10.6109/JKIICE.2020.24.3.355
- H.-S. Kang, Y.-J. Ock, and J.-M. Lee, "Estimation Algorithm of CNN-based Relative Velocity Between Driving Vehicles," Journal of Korea Institute of Information, Electronics, and Communication Technology, Vol. 27, No. 1, pp. 37-43, 2021.
- L. Taylor and G. Nitschke, "Improving Deep Learning using Generic Data Augmentation," arXiv preprint, arXiv:1708.06020, 2017.
- A. Shustanov and P. Yakimov, "CNN Design for Real-time Traffic Sign Recognition," Procedia Engineering 201, pp. 718-725, 2017 https://doi.org/10.1016/j.proeng.2017.09.594
- J. Ahn, U.G. Kang, Y.H. Lee, and B.M. Lee. "Improvement of Activity Recognition based on Learning Model of AI and Wearable Motion Sensors," Journal of Korea Multimedia Society, Vol. 21, No. 8, pp. 982-990, 2018. https://doi.org/10.9717/kmms.2018.21.8.982