• 제목/요약/키워드: learning through the image

검색결과 931건 처리시간 0.03초

음성녹음 기반의 실감형 어학시스템 콘텐츠 개발 (Development of tangible language content system based on voice recording)

  • 나종원
    • 한국항행학회논문지
    • /
    • 제17권2호
    • /
    • pp.234-239
    • /
    • 2013
  • 기존의 어학시스템 콘텐츠의 문제점은 수업에 대한 집중력 저하와 실제 학습여부를 판단할 수 없었고, 수업 진행자의 평가로 많은 결정이 되었다. 이로 인해 음성녹음 기반에 유비쿼터스 기술과 가상현실 기술을 조합하여 강의실에 프로젝터를 설치하고 각 강의실의 RFID 리더기 부착과 학생의 RFID 태그 부착된 학생증을 통해 영어 등급에 해당하는 콘텐츠를 학습한다. 3차원 영상 콘텐츠로 가상 현실상의 외국인과의 질의응답을 음성녹음 기술을 이용하여 발음과 억양을 동시에 체크 하여 레벨 패스 또는 레벨 실패를 판가름 한다. 이렇게 구성된 시스템은 학생 교육 데이터를 중앙 서버에 DB로 저장후 피드백 과정을 통해 정보를 제공하게 된다. 본 연구로 어학 콘텐츠에서 공통적으로 가질 수 있는 문제점들을 분석하고 문제점에 대하여 음성 녹음기술을 적용하여 기존의 어학콘텐츠에서 해결하지 못했던 문제점을 해결하였고 레벨위주의 수업이 가능하였다. 또한, 흥미위주의 적극적인 수업참여가 되도록 기여하였다.

무인항공기 영상 및 딥러닝 기반 객체인식 알고리즘을 활용한 해안표착 폐기물 탐지 기법 연구 (Study on Detection Technique for Coastal Debris by using Unmanned Aerial Vehicle Remote Sensing and Object Detection Algorithm based on Deep Learning)

  • 박수호;김나경;정민지;황도현;엥흐자리갈 운자야;김보람;박미소;윤홍주;서원찬
    • 한국전자통신학회논문지
    • /
    • 제15권6호
    • /
    • pp.1209-1216
    • /
    • 2020
  • 본 연구에서는 무인항공기 원격탐사 기법과 딥러닝 기반 객체인식 알고리즘을 활용한 해안표착폐기물 탐지기법을 제안한다. 항공영상 내에 존재하는 해안표착폐기물을 탐지하기 위해 심층신경망 기반 객체 인식 알고리즘을 제안하였다. PET, 스티로폼, 기타 플라스틱의 3가지 클래스의 이미지 데이터셋으로 심층신경망 모델을 훈련시켰으며, 각 클래스별 탐지 정확도를 Darknet-53과 비교하였다. 이를 통해 해안표착 폐기물을 무인항공기를 통해 성상별 모니터링할 수 있었으며, 향후 본 연구에서 제안하는 방법이 적용될 경우 해변 전체에 대한 성상별 전수조사가 가능하며, 이를 통해 해양환경 감시 분야의 효율성 증대에 기여할 수 있을 것으로 판단된다.

Convolutional Neural Network를 통한 대규모 한글 데이터 학습 (Learning of Large-Scale Korean Character Data through the Convolutional Neural Network)

  • 김연규;차의영
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국정보통신학회 2016년도 춘계학술대회
    • /
    • pp.97-100
    • /
    • 2016
  • CNN(Convolutinal Neural Network)을 사용하여 다양한 분야에 대한 심화 학습이 진행되고 있으며 이미지 인식 분야에서 특히 높은 성능을 보이고 있다. 본 논문에서는 5,000,000개 이상의 대규모 한글 문자 데이터베이스를 사용하여 한글을 Convolutional Neural Network에 학습 시킨 후 테스트 정확도를 확인한다. 실험에 사용된 CNN 구조는 AlexNet에 기반하여 새로 만들어진 KCR(Korean Character Recognition)-AlexNet 이며 학습 결과 98% 이상의 테스트 정확도를 보였다. 실험에 사용된 데이터베이스는 대규모 한글 데이터 데이터베이스인 PHD08로 총 2,350개의 한글 문자에 대해 각 문자마다 2,187개의 샘플을 가져 총 5,139,450 개의 데이터가 존재한다. 본 연구를 통해 KCR-AlexNet이 한글 데이터베이스인 PHD08을 학습하는데 우수한 구조임을 보인다.

  • PDF

헤어와 메이크업 일러스트레이션 기법 연구 -사실적 표현기법에 의한 작품제작을 중심으로- (A Study of Hair and Make up illustration Techniques -focusing on production based on graphical expression techniques-)

  • 구자명
    • 한국패션뷰티학회지
    • /
    • 제1권1호
    • /
    • pp.65-78
    • /
    • 2003
  • This research is to provide practical help in learning hair and makeup illustration skills by presenting techniques for hair and makeup drawing; to serve efficient illustration education; and to enhance the status of beauty and contribute to artistic development. Hair style and makeup techniques include graphical one, pattern-centered one, one using pattern paper, simplifying one and mood one expressing image. Of them, this research made the illustrations to use cosmetics, color pencils and pastel based on the graphical technique. for each design of the illustrations, ethnic, sexy, natural, romantic and gorgeous images, which were considered to be appropriate to the graphical technique, were chosen by the researcher out of hair and makeup styles that appeared in the fashion magazines including Vogue, Gap, Mode et Mode from 2000 through 2001. In particular, they were chosen with focusing on basic styles. The summaries below were found with the experience of making illustrations. Various techniques and skills are required to express the ideas of hair and makeup styles. Of them, the graphical technique is very useful as the primary step to learn various techniques and improve drawing skills. First, the graphical technique may enable not only expressing what is desired to draw as is, but also accurately representing hair and makeup designs so as to convey objective expression. In this regard, it is a proper way to achieve its inherent purpose as conveyance of messages. Second, more accurate styling of hair and makeup is available through graphical expression, which helps understand related practical techniques. In addition, makeup illustration, which is expressed through direct makeup products and instruments, may serve skill improvement since such direct use provides the feeling of real makeup. Third, the graphical technique as a basic drawing skill may unrestrictedly show the artist's expression ability. Fourth, although artistic merits implying individuality and creativity should be shared through illustrations that express the artist's ideas or emotions, the graphical technique is the easiest method to beginners who just started learning of illustration, in that it enables expression without highly advanced skills.

  • PDF

작업자의 안전과 작업 편리성 향상을 위한 영상처리 및 기계학습 기반 수신호 인식 협동로봇 제어 교육 매체 개발 (Development of Collaborative Robot Control Training Medium to Improve Worker Safety and Work Convenience Using Image Processing and Machine Learning-Based Hand Signal Recognition)

  • 정진혁;정훈;박경근;이기주;박희석;안채헌
    • 실천공학교육논문지
    • /
    • 제14권3호
    • /
    • pp.543-553
    • /
    • 2022
  • 협동로봇은 4차 산업혁명에서 제시하고 있는 생산시스템 중 하나로 작업자의 정교한 손기술과 로봇의 단순 반복작업 능력을 조합하여 효율성을 극대화할 수 있는 시스템이다. 또한, 작업자와 로봇 간의 작업공간 공유에서 발생하는 안전문제의 해결과 함께 효율적인 인터페이스 방법 개발에 대한 연구가 지속적으로 진행되고 있다. 본 연구에서는 이를 위하여 작업자의 편리성과 집중도를 강화하기 위해 작업자의 수신호를 인식하여 로봇을 제어하는 방법을 제시하였으며 안전공간의 개념을 도입하여 작업자의 안전을 확보하였다. 이를 구현하기 위하여 로봇제어, PLC, 영상처리, 기계학습, ROS 등 다양한 기술을 사용하였다. 또한 이를 교육매체로 활용하기 위하여 제시된 기술들의 역할과 인터페이스 방법을 정의하여 제시하였다. 학습자들은 소개된 여러 기술들을 연계하여 시스템을 구축하고 조정하는 일을 수행한다. 따라서 현장에서 필요한 기술의 필요성을 인식시키고 이에 대한 심화 학습을 유도할 수 있는 큰 장점이 있다. 또한 문제를 제시한 뒤 스스로 문제를 해결하는 방법을 모색하는 형태로 진행해 자기 주도적으로 학습할 수 있도록 유도할 수 있다. 이를 통해 4차 산업혁명의 주요 기술들을 학습하고 다양한 문제에 대한 해결 능력을 향상시킬 수 있다.

딥러닝 기반의 돌출 객체 검출을 위한 Saliency Attention 방법 (Saliency Attention Method for Salient Object Detection Based on Deep Learning)

  • 김회준;이상훈;한현호;김진수
    • 한국융합학회논문지
    • /
    • 제11권12호
    • /
    • pp.39-47
    • /
    • 2020
  • 본 논문에서는 이미지에서 돌출되는 객체를 검출하기 위해 Saliency Attention을 이용한 딥러닝 기반의 검출 방법을 제안하였다. 돌출 객체 검출은 사람의 시선이 집중되는 물체를 배경으로부터 분리시키는 것이며, 이미지에서 관련성이 높은 부분을 결정한다. 객체 추적 및 검출, 인식 등의 다양한 분야에서 유용하게 사용된다. 기존의 딥러닝 기반 방법들은 대부분 오토인코더 구조로, 특징을 압축 및 추출하는 인코더와 추출된 특징을 복원 및 확장하는 디코더에서 많은 특징 손실이 발생한다. 이러한 손실로 돌출 객체 영역에 손실이 발생하거나 배경을 객체로 검출하는 문제가 있다. 제안하는 방법은 오토인코더 구조에서 특징 손실을 감소시키고 배경 영역을 억제하기 위해 Saliency Attention을 제안하였다. ELU 활성화 함수를 이용해 특징 값의 영향력을 결정하며 각각 정규화된 음수 및 양수 영역의 특징값에 Attention을 진행하였다. 제안하는 Attention 기법을 통해 배경 영역을 억제하며 돌출 객체 영역을 강조하였다. 실험 결과에서는 제안하는 방법이 기존 방법과 비교하여 향상된 검출 결과를 보였다.

고해상도 도시 침수 해석을 위한 딥러닝 기반 초해상화 기술 적용 (Applying deep learning based super-resolution technique for high-resolution urban flood analysis)

  • 최현진;이송희;우현아;김민영;노성진
    • 한국수자원학회논문집
    • /
    • 제56권10호
    • /
    • pp.641-653
    • /
    • 2023
  • 기후변화와 도시화의 영향으로 인해 자연재해의 발생빈도와 규모가 증가하고 있다. 특히 도시 침수는 발생 시간이 짧고 막대한 인명 및 경제적 손실을 초래할 수 있기 때문에 신속하고 정확도 높은 예측 정보 생산이 중요하다. 하지만, 기존 물리과정 및 인공지능 기반 기법은 고해상도 침수 해석을 위해 많은 전산 자원이나 데이터가 요구되는 한계가 있다. 본 연구에서는 딥러닝 기반 초해상화(Super-Resolution) 기법을 통한 고해상도 도시 침수 해석 방법을 제안하고 적용성을 평가한다. 제안된 방법은 고해상도 물리 모형의 결과로 훈련된 초해상화 딥러닝 모형을 이용하여 저해상도 침수 해석 이미지를 고해상도로 변환한다. 미국 포틀랜드 도심지의 두 가지 침수 사례에 대해 적용, 4 m 공간해상도 물리 모의 결과를 1 m 급 고해상도 침수 해석 정보로 초해상화 하였으며, 초해상화 이미지와 고해상도 원본 간 높은 구조적 유사성이 확인되었다. 성능 지표로 평가한 결과, 전체 검증 대상 이미지에 대한 평균 PSNR 22.77 dB, SSIM 0.77로 우수하여, 초해상화 기법의 도시 침수 해석 적용성이 검증되었다. 제안된 방법은 적은 양의 침수 시나리오만으로도 효율적인 딥러닝 모형 훈련이 가능하고, 물리 모형의 정보를 최대한 활용할 수 있기 때문에, 고해상도 도시 침수 정보 생산에 효과적으로 사용될 수 있을 것으로 기대된다.

회랑 감시를 위한 딥러닝 알고리즘 학습 및 성능분석 (Deep Learning Algorithm Training and Performance Analysis for Corridor Monitoring)

  • 정우진;홍석민;최원혁
    • 한국항행학회논문지
    • /
    • 제27권6호
    • /
    • pp.776-781
    • /
    • 2023
  • K-UAM은 2035년까지의 성숙기 이후 상용화될 예정이다. UAM 회랑은 기존의 헬리콥터 회랑을 수직 분리하여 사용될 예정이기에 회량 사용량이 증가할 것으로 예상된다. 따라서 회랑을 모니터링하는 시스템도 필요하다. 최근 객체 검출 알고리즘이 크게 발전하였다. 객체 검출 알고리즘은 1단계 탐지와, 2단계 탐지 모델로 나뉜다. 실시간 객체 검출에 있어서 2단계 모델은 너무 느리기에 적합하지 않다. 기존 1단계 모델은 정확도에 문제가 있었지만, 버전 업그레이드를 통해 성능이 향상되었다. 1단계 모델 중 YOLO-V5는 모자이크 기법을 통한 소형 객체 검출 성능을 향상시킨 모델이다. 따라서 YOLO-V5는 넓은 회랑의 실시간 모니터링에 가장 적합하다고 판단된다. 본 논문에서는 YOLO-V5 알고리즘을 학습시켜 궁극적으로 회랑 모니터링 시스템에 대한 적합도를 분석한다.

날씨 변화에 따른 실외 LED 전광판의 시인성 확보를 위한 딥러닝 구조 개발 (Development of Deep Learning Structure to Secure Visibility of Outdoor LED Display Board According to Weather Change)

  • 이선구;이태윤;이승호
    • 전기전자학회논문지
    • /
    • 제27권3호
    • /
    • pp.340-344
    • /
    • 2023
  • 본 논문에서는 날씨 변화에 따른 실외 LED 전광판의 시인성 확보를 위한 딥러닝 구조 개발에 관한 연구를 제안한다. 제안하는 기법은 영상장치를 이용한 딥러닝을 사용하여 날씨 변화에 따른 LED 휘도를 자동 조절함으로써 실외 LED 전광판의 시인성을 확보한다. 날씨 변화에 따른 LED 휘도를 자동 조절하기 위하여, 먼저 평면화된 배경 부분 이미지 데이터에 대한 전처리 과정을 거친 후, 합성곱 네트워크를 이용하여 학습시켜 날씨에 대한 분류를 진행할 수 있는 딥러닝 모델을 만들어낸다. 적용된 딥러닝 네트워크는 Residual learning 함수를 사용하여 입력값과 출력값의 차이를 줄임으로써 초기의 입력값의 특징을 가지고 가면서 학습하도록 유도한다. 다음에 날씨를 인식하여 날씨 변화에 따라 실외 LED 전광판의 휘도를 조절하는 제어기를 사용하여 주변 환경이 밝아지면 휘도가 높아지도록 변경하여 선명하게 보이도록 한다. 또한, 주변 환경이 어두워지면 빛의 산란에 의해 시인성이 떨어지기 때문에 전광판의 휘도가 내려가도록 하여 선명하게 보이도록 한다. 본 논문에서 제안하는 방법을 적용하여 LED 전광판의 날씨 변화에 따른 휘도 측정의 공인 측정 실험 결과는, 날씨 변화에 따라 실외 LED 전광판의 시인성이 확보됨을 확인하였다.

안면 움직임 분석을 통한 단음절 음성인식 (Monosyllable Speech Recognition through Facial Movement Analysis)

  • 강동원;서정우;최진승;최재봉;탁계래
    • 전기학회논문지
    • /
    • 제63권6호
    • /
    • pp.813-819
    • /
    • 2014
  • The purpose of this study was to extract accurate parameters of facial movement features using 3-D motion capture system in speech recognition technology through lip-reading. Instead of using the features obtained through traditional camera image, the 3-D motion system was used to obtain quantitative data for actual facial movements, and to analyze 11 variables that exhibit particular patterns such as nose, lip, jaw and cheek movements in monosyllable vocalizations. Fourteen subjects, all in 20s of age, were asked to vocalize 11 types of Korean vowel monosyllables for three times with 36 reflective markers on their faces. The obtained facial movement data were then calculated into 11 parameters and presented as patterns for each monosyllable vocalization. The parameter patterns were performed through learning and recognizing process for each monosyllable with speech recognition algorithms with Hidden Markov Model (HMM) and Viterbi algorithm. The accuracy rate of 11 monosyllables recognition was 97.2%, which suggests the possibility of voice recognition of Korean language through quantitative facial movement analysis.