• 제목/요약/키워드: learning through the image

검색결과 925건 처리시간 0.028초

Caffe를 이용한 얼굴 인식 파이프라인 모델 구현 (Implementation of Face Recognition Pipeline Model using Caffe)

  • 박진환;김창복
    • 한국항행학회논문지
    • /
    • 제24권5호
    • /
    • pp.430-437
    • /
    • 2020
  • 제안 모델은 얼굴 검출과 랜드마크 및 얼굴 인식 알고리즘을 이용하여 인공신경망으로 학습을 통해 얼굴 예측률과 인식률을 향상하는 모델을 구현하였다. 제안 모델은 특정 인물의 얼굴 영상에서 랜드마킹을 한 후, 기존에 학습된 Caffe 모델을 이용하여 얼굴검출과 임베딩 벡터 128D를 추출하였다. 학습은 기계학습 알고리즘인 SVM (support vector machine)과 DNN (deep neural network)을 구축하여 학습하였다. 얼굴인식은 학습된 모델을 이용하여 학습된 인물 중 다른 얼굴 영상으로 테스트하였다. 실험 결과, SVM 보다는 DNN으로 학습한 결과가 우수한 예측률과 인식률을 보였다. DNN의 중간층을 증가하게 되면 예측률은 높아지나 인식률이 감소하는 현상이 발생하였다. 이것은 인식하고자 하는 대상이 적음으로써 발생하는 과적합으로 판단된다. 제안 모델은 명확한 얼굴 영상을 추가하여 학습한 결과, 높은 예측률과 인식률의 결과를 얻을 수 있음을 확인할 수 있었다. 본 연구는 좀 더 많은 얼굴 영상 데이터를 이용함으로써 보다 효과적인 딥러닝 구축을 통해 보다 향상된 인식률과 예측률을 얻을 수 있을 것이다.

공간 클래스 단순화를 이용한 의미론적 실내 영상 분할 (Semantic Indoor Image Segmentation using Spatial Class Simplification)

  • 김정환;최형일
    • 인터넷정보학회논문지
    • /
    • 제20권3호
    • /
    • pp.33-41
    • /
    • 2019
  • 본 논문에서는 실내 공간 이미지의 의미론적 영상 분할을 위해 배경과 물체로 재설계된 클래스를 학습하는 방법을 제안한다. 의미론적 영상 분할은 이미지의 벽이나 침대 등 의미를 갖는 부분들을 픽셀 단위로 나누는 기술이다. 기존 의미론적 영상 분할에 대한 연구들은 신경망을 통해 이미지의 다양한 객체 클래스들을 학습하는 방법들을 제시해왔고, 긴 학습 시간에 비해 정확도가 부족하다는 문제가 지적되었다. 그러나 물체와 배경을 분리하는 문제에서는, 다양한 객체 클래스를 학습할 필요가 없다. 따라서 우리는 이 문제에 집중해, 클래스를 단순화 후에 학습하는 방법을 제안한다. 학습 방법의 실험 결과로 기존 방법들보다 정확도가 약 5~12% 정도 높았다. 그리고 같은 환경에서 클래스를 달리 구성했을 때 학습 시간이 약 14 ~ 60분 정도 단축됐으며, 이에 따라 물체와 배경을 분리하는 문제에 대해 제안하는 방법이 효율적임을 보인다.

대안적 통째학습 기반 저품질 레거시 콘텐츠에서의 문자 인식 알고리즘 (Character Recognition Algorithm in Low-Quality Legacy Contents Based on Alternative End-to-End Learning)

  • 이성진;윤준석;박선후;유석봉
    • 한국정보통신학회논문지
    • /
    • 제25권11호
    • /
    • pp.1486-1494
    • /
    • 2021
  • 문자 인식은 스마트 주차, text to speech 등 최근 다양한 플랫폼에서 필요로 하는 기술로써, 기존의 방법과 달리 새로운 시도를 통하여 그 성능을 향상시키려는 연구들이 진행되고 있다. 그러나 문자 인식에 사용되는 이미지의 품질이 낮을 경우, 문자 인식기 학습용 이미지와 테스트 이미지간에 해상도 차이가 발생하여 정확도가 떨어지는 문제가 발생된다. 이를 해결하기 위해 본 논문은 문자 인식 모델 성능이 다양한 품질 데이터에 대하여 강인하도록 이미지 초해상도 및 문자 인식을 결합한 통째학습 신경망을 설계하고, 대안적 통째학습 알고리즘을 구현하여 통째 신경망 학습을 수행하였다. 다양한 문자 이미지 중 차량 번호판 이미지를 이용하여 대안적 통째학습 및 인식 성능 테스트를 진행하였고, 이를 통해 제안하는 알고리즘의 효과를 검증하였다.

어린이 성격유형별 학습능력 향상을 위한 공간디자인 구축 방안 - 에니어그램 성격 특성 분석을 통하여 - (Space Design for Enhancing Learning Ability with Children's Character Type - Through Analyzed Enneagram Tool -)

  • 김국선
    • 한국가구학회지
    • /
    • 제24권1호
    • /
    • pp.42-50
    • /
    • 2013
  • The objective of this study is to explore basic type of character of humans and to suggest a design method of establishing a spatial construction environment for developing effective learning ability based on such type of character. As a range of research, spatial formative language was deduced and space design strategy for the children was suggested through an analysis of spatial requirements by exploring connectivity depending on features of 9 types of character through Enneagram. As a method of research, a process of suggesting a concrete method after defining an element of spatial construction and deducing a formative language for developing and strengthening effective learning ability for each type of character. As a result of research, the methods of children space design strategy for enhancing learning ability for leadership in a future specific fields were suggested through 9 different type of character with image of case study.

  • PDF

컨볼루션 신경망을 이용한 지능형 화재 학습 및 탐지 시스템 (An Intelligent Fire Learning and Detection System Using Convolutional Neural Networks)

  • 최경주;전민성
    • 정보처리학회논문지:소프트웨어 및 데이터공학
    • /
    • 제5권11호
    • /
    • pp.607-614
    • /
    • 2016
  • 본 논문에서는 컨볼루션 신경망 모델을 이용한 지능형 화재 학습 및 탐지 시스템을 제안한다. 제안하는 시스템에서 사용된 신경망의 컨볼루션 층을 통해 불꽃 이미지와 연기 이미지에 대한 특징맵을 생성하고, 생성된 특징맵에 대하여 불꽃과 연기를 분류하는 학습을 진행한다. 이렇게 학습된 신경망에 움직임 특징 및 색상 특징만을 이용한 간단한 처리를 통해 검출된 화재 후보 영역 이미지를 입력시키면 입력된 영역에 화재가 발생했는지의 여부를 알 수 있다. 다양한 영상을 대상으로 실험한 결과 학습된 신경망은 화재 후보 영역에서 불꽃과 연기를 분류하는데 뛰어난 효과를 보여줌을 확인하였다.

딥러닝 기반 이미지 자동 레이블링을 활용한 건축물 파사드 데이터세트 구축 기술 개발 (A Development of Façade Dataset Construction Technology Using Deep Learning-based Automatic Image Labeling)

  • 구형모;서지효;추승연
    • 대한건축학회논문집:계획계
    • /
    • 제35권12호
    • /
    • pp.43-53
    • /
    • 2019
  • The construction industry has made great strides in the past decades by utilizing computer programs including CAD. However, compared to other manufacturing sectors, labor productivity is low due to the high proportion of workers' knowledge-based task in addition to simple repetitive task. Therefore, the knowledge-based task efficiency of workers should be improved by recognizing the visual information of computers. A computer needs a lot of training data, such as the ImageNet project, to recognize visual information. This study, aim at proposing building facade datasets that is efficiently constructed by quickly collecting building facade data through portal site road view and automatically labeling using deep learning as part of construction of image dataset for visual recognition construction by the computer. As a method proposed in this study, we constructed a dataset for a part of Dongseong-ro, Daegu Metropolitan City and analyzed the utility and reliability of the dataset. Through this, it was confirmed that the computer could extract the significant facade information of the portal site road view by recognizing the visual information of the building facade image. Additionally, In contribution to verifying the feasibility of building construction image datasets. this study suggests the possibility of securing quantitative and qualitative facade design knowledge by extracting the facade design knowledge from any facade all over the world.

제초로봇 개발을 위한 2차원 콩 작물 위치 자동검출 (Estimation of two-dimensional position of soybean crop for developing weeding robot)

  • 조수현;이충열;정희종;강승우;이대현
    • 드라이브 ㆍ 컨트롤
    • /
    • 제20권2호
    • /
    • pp.15-23
    • /
    • 2023
  • In this study, two-dimensional location of crops for auto weeding was detected using deep learning. To construct a dataset for soybean detection, an image-capturing system was developed using a mono camera and single-board computer and the system was mounted on a weeding robot to collect soybean images. A dataset was constructed by extracting RoI (region of interest) from the raw image and each sample was labeled with soybean and the background for classification learning. The deep learning model consisted of four convolutional layers and was trained with a weakly supervised learning method that can provide object localization only using image-level labeling. Localization of the soybean area can be visualized via CAM and the two-dimensional position of the soybean was estimated by clustering the pixels associated with the soybean area and transforming the pixel coordinates to world coordinates. The actual position, which is determined manually as pixel coordinates in the image was evaluated and performances were 6.6(X-axis), 5.1(Y-axis) and 1.2(X-axis), 2.2(Y-axis) for MSE and RMSE about world coordinates, respectively. From the results, we confirmed that the center position of the soybean area derived through deep learning was sufficient for use in automatic weeding systems.

Effect of Input Data Video Interval and Input Data Image Similarity on Learning Accuracy in 3D-CNN

  • Kim, Heeil;Chung, Yeongjee
    • International Journal of Internet, Broadcasting and Communication
    • /
    • 제13권2호
    • /
    • pp.208-217
    • /
    • 2021
  • 3D-CNN is one of the deep learning techniques for learning time series data. However, these three-dimensional learning can generate many parameters, requiring high performance or having a significant impact on learning speed. We will use these 3D-CNNs to learn hand gesture and find the parameters that showed the highest accuracy, and then analyze how the accuracy of 3D-CNN varies through input data changes without any structural changes in 3D-CNN. First, choose the interval of the input data. This adjusts the ratio of the stop interval to the gesture interval. Secondly, the corresponding interframe mean value is obtained by measuring and normalizing the similarity of images through interclass 2D cross correlation analysis. This experiment demonstrates that changes in input data affect learning accuracy without structural changes in 3D-CNN. In this paper, we proposed two methods for changing input data. Experimental results show that input data can affect the accuracy of the model.

CT 이미지 세그멘테이션을 위한 3D 의료 영상 데이터 증강 기법 (3D Medical Image Data Augmentation for CT Image Segmentation)

  • 고성현;양희규;김문성;추현승
    • 인터넷정보학회논문지
    • /
    • 제24권4호
    • /
    • pp.85-92
    • /
    • 2023
  • X-ray, Computed Tomography (CT), Magnetic Resonance Imaging (MRI)과 같은 의료데이터에서 딥러닝을 활용해 질병 유무 판별 태스크와 같은 문제를 해결하려는 시도가 활발하다. 대부분의 데이터 기반 딥러닝 문제들은 높은 정확도 달성과 정답과 비교하는 성능평가의 활용을 위해 지도학습기법을 사용해야 한다. 지도학습에는 다량의 이미지와 레이블 세트가 필요하지만, 학습에 충분한 양의 의료 이미지 데이터를 얻기는 어렵다. 다양한 데이터 증강 기법을 통해 적은 양의 의료이미지와 레이블 세트로 지도학습 기반 모델의 과소적합 문제를 극복할 수 있다. 본 연구는 딥러닝 기반 갈비뼈 골절 세그멘테이션 모델의 성능 향상과 효과적인 좌우 반전, 회전, 스케일링 등의 데이터 증강 기법을 탐색한다. 좌우 반전과 30° 회전, 60° 회전으로 증강한 데이터셋은 모델 성능 향상에 기여하지만, 90° 회전 및 ⨯0.5 스케일링은 모델 성능을 저하한다. 이는 데이터셋 및 태스크에 따라 적절한 데이터 증강 기법의 사용이 필요함을 나타낸다.

딥러닝을 이용한 시각장애인용 횡단보도 탐지 모델 연구 (Crosswalk Detection Model for Visually impaired Using Deep Learning)

  • 김준수;이혁
    • 한국정보전자통신기술학회논문지
    • /
    • 제17권1호
    • /
    • pp.67-75
    • /
    • 2024
  • 복잡한 도시 환경에서 횡단보도는 보행자의 안전한 이동을 위해 중요한 역할을 한다. 하지만 시각 장애인에게는 횡단보도가 큰 위험 요소가 될 수 있다. 안전한 보행을 위한 점자 블록이나 음향 신호등과 같은 보조 시설들이 존재하지만, 부실한 관리로 인하여 때로는 오히려 안전을 저해하는 요소로 작용할 수 있다. 본 논문에서는 시각 장애인의 보행 보조를 위한 애플리케이션에 활용할 수 있는 딥러닝 기반 실시간 횡단보도 탐지 모델에 정확도 향상을 위한 방법을 제안한다. 횡단보도 이미지의 흰색 줄이 도로 표면과 대조를 이루는 특성을 활용하여 이미지를 이진화하고, 이를 통해 횡단보도를 더 잘 인식할 수 있게 하고 횡단보도 전체와 중간 부분을 각각 학습한 두 가지 모델을 활용하여 횡단보도의 위치를 더 정확하게 파악할 수 있도록 하였다. 또한 횡단보도를 인식하는 경계 상자를 전체와 부분의 두 단계로 생성하여 정확도를 높이고자 하였다. 이러한 방법을 통해 횡단보도 횡단 영상에서 RGB 이미지 학습에서 탐지 모델이 탐지하지 못한 프레임들을 추가로 탐지할 수 있었다.