• 제목/요약/키워드: 합성신경망

검색결과 654건 처리시간 0.024초

A Study on Improving the Accuracy of Medical Images Classification Using Data Augmentation

  • Cheon-Ho Park;Min-Guan Kim;Seung-Zoon Lee;Jeongil Choi
    • 한국컴퓨터정보학회논문지
    • /
    • 제28권12호
    • /
    • pp.167-174
    • /
    • 2023
  • 본 연구는 합성곱 신경망 모델에서 이미지 데이터 증강을 통하여 대장암 진단 모델의 정확도를 개선하고자 하였다. 이미지 데이터 증강은 기초 이미지 조작 방법을 이용하여 뒤집기, 회전, 이동, 밀림, 주밍을 사용하였다. 본 연구에서는 실험설계를 위해 보유하고 있는 5000개의 이미지 데이터에 대해 훈련 데이터와 평가 데이터로 각각 4000개와 1000개로 나누었으며, 훈련 데이터 4000개에 대해 이미지 데이터 증강 기법으로 4000개와 8000개의 이미지를 추가하여 모델을 학습시켰다. 평가 결과는 훈련 데이터 4000개, 8000개, 12000개에 대한 분류 정확도가 각각 85.1%, 87.0%, 90.2%로 나왔으며 이미지 데이터 증강에 따른 개선 효과를 확인하였다.

음향 장면 분류를 위한 경량화 모형 연구 (Light weight architecture for acoustic scene classification)

  • 임소영;곽일엽
    • 응용통계연구
    • /
    • 제34권6호
    • /
    • pp.979-993
    • /
    • 2021
  • 음향 장면 분류는 오디오 파일이 녹음된 환경이 어디인지 분류하는 문제이다. 이는 음향 장면 분류와 관련한 대회인 DCASE 대회에서 꾸준하게 연구되었던 분야이다. 실제 응용 분야에 음향 장면 분류 문제를 적용할 때, 모델의 복잡도를 고려하여야 한다. 특히 경량 기기에 적용하기 위해서는 경량 딥러닝 모델이 필요하다. 우리는 경량 기술이 적용된 여러 모델을 비교하였다. 먼저 log mel-spectrogram, deltas, delta-deltas 피쳐를 사용한 합성곱 신경망(CNN) 기반의 기본 모델을 제안하였다. 그리고 원래의 합성곱 층을 depthwise separable convolution block, linear bottleneck inverted residual block과 같은 효율적인 합성곱 블록으로 대체하고, 각 모델에 대하여 Quantization를 적용하여 경량 모델을 제안하였다. 경량화 기술을 고려한 모델은 기본 모델에 대비하여 성능이 비슷하거나 조금 낮은 성능을 보였지만, 모델 사이즈는 503KB에서 42.76KB로 작아진 것을 확인하였다.

공간 주파수 합성곱 게이트 트랜스포머를 이용한 시청각 자극에 따른 뇌전도 기반 감정적 스트레스 인식 (Electroencephalogram-based emotional stress recognition according to audiovisual stimulation using spatial frequency convolutional gated transformer)

  • 김형국;정동기;김진영
    • 한국음향학회지
    • /
    • 제41권5호
    • /
    • pp.518-524
    • /
    • 2022
  • 본 논문에서는 합성곱 신경망과 주의집중 메커니즘을 결합하여 뇌파 신호로부터 감정적 스트레스 인식 성능을 향상시키는 방식을 제안한다. 제안하는 방식에서는 뇌파 신호를 5개의 주파수 영역으로 분해하고, 각 주파수 영역에 합성곱 신경망 계층을 사용하여 뇌파 특징의 공간정보를 획득한 후에 게이트 트랜스포머를 이용한 주의집중 메커니즘을 사용하여 각 주파수 대역에서 두드러진 주파수 정보를 학습하고, 주파수 간 대역 매핑을 통해 보완 주파수 정보를 학습하여 최종 주의집중 표현에 반영한다. DEAP 데이터세트와 6명의 피 실험자가 참여한 뇌파 스트레스 인식 실험을 통해, 제안된 방식이 기존 방식과 비교하여 뇌파 기반 스트레스 인식 성능 향상에 효과가 있음을 보여준다.

Hair and Fur Synthesizer via ConvNet Using Strand Geometry Images

  • Kim, Jong-Hyun
    • 한국컴퓨터정보학회논문지
    • /
    • 제27권5호
    • /
    • pp.85-92
    • /
    • 2022
  • 본 논문에서는 라인 형태인 가닥(Strand) 지오메트리 이미지와 합성곱 신경망(Convolutional Neural Network, ConvNet 혹은 CNN)을 이용하여 저해상도 헤어 및 털 시뮬레이션을 고해상도로 노이즈 없이 표현할 수 있는 기법을 제안한다. 저해상도와 고해상도 데이터 간의 쌍은 물리 기반 시뮬레이션을 통해 얻을 수 있으며, 이렇게 얻어진 데이터를 이용하여 저해상도-고해상도 데이터 쌍을 설정한다. 학습할 때 사용되는 데이터는 헤어 가닥 형태의 위치를 지오메트리 이미지로 변환하여 사용한다. 본 논문에서 제안하는 헤어 및 털 네트워크는 저해상도 이미지를 고해상도 이미지로 업스케일링(Upscaling)시키는 이미지 합성기를 위해 사용된다. 테스트 결과로 얻어진 고해상도 지오메트리 이미지가 고해상도 헤어로 다시 변환되면, 하나의 매핑 함수로 표현하기 어려운 헤어의 찰랑거리는(Elastic) 움직임을 잘 표현할 수 있다. 합성 결과에 대한 성능으로 이전 물리 기반 시뮬레이션보다 빠른 성능을 보였으며, 복잡한 수치해석을 몰라도 쉽게 실행이 가능하다.

합성데이터를 이용한 비지도학습 기반 실시간 와류진동 탐지모델 (Unsupervised Vortex-induced Vibration Detection Using Data Synthesis)

  • 이선호;김선중
    • 한국전산구조공학회논문집
    • /
    • 제36권5호
    • /
    • pp.315-321
    • /
    • 2023
  • 장대교량은 낮은 고유진동수와 감쇠비를 가지는 초유연구조물로 진동사용성 문제에 취약하다. 하지만 현재 국내 설계지침에서는 풍속이나 진폭에 대한 임계값을 기반으로 유해진동 발생 여부를 평가하고 있다. 본 연구에서는 장대교량에서 발생하는 유해진동을 보다 정교하게 식별하기 위하여 딥러닝 기반 신호분할 모델을 활용한 데이터 포인트 단위의 와류진동 식별 방법론을 제안한다. 특별히 포락선을 가지는 사인파를 활용하여 와류진동에 해당하는 데이터를 합성함으로써 모델 구축에 필수적인 와류진동 데이터 획득 및 라벨링 과정을 대체하였다. 이후 푸리에 싱크로스퀴즈드 변환를 적용하여 시간-주파수 특징을 추출하여 신경망의 인풋 데이터로 사용하였다. 합성데이터만을 이용하여 양방향 장단기 기억신경망(Bidirectional Long-Short-Term-Memory) 모델을 훈련하였고 이를 라벨 정보를 포함한 실제 사장교의 계측데이터를 이용하여 학습한 모델과 비교하여 모델의 실시간 와류진동 식별 성능을 검증하였다.

반음절단위를 이용한 한국어 음성합성에 관한 연구 (A Study on the Korean Text-to-Speech Using Demisyllable Units)

  • 윤기선;박성한
    • 대한전자공학회논문지
    • /
    • 제27권10호
    • /
    • pp.138-145
    • /
    • 1990
  • 본 논문에서는 합성단위를 반음절로 하여 적은 데이터 베이스를 차지하면서도, 합성음의 자연스러움을 향상 시키기 위한 한국어 규칙 합성법을 제시한다. 반음절 음성신호를 분석하기 위해 12차 선형 예측법을 사용하며, 합성음의 자연성과 명료성을 위해 음절간 접속 규칙, 모음부의 연결규칙을 개발한다. 또한 신경망 모델을 이용한 음운 변동 규칙과 운율규칙을 적용한다.

  • PDF

사실적인 거품 패턴 텍스처를 생성하기 위한 인공신경망 기반의 텍스처 합성 프레임워크 (Texture Synthesis Framework via Artificial Neural Networks for Generating Realistic Foam Pattern Textures)

  • 추연희;김종현
    • 한국컴퓨터정보학회:학술대회논문집
    • /
    • 한국컴퓨터정보학회 2024년도 제69차 동계학술대회논문집 32권1호
    • /
    • pp.399-401
    • /
    • 2024
  • 본 논문에서는 텍스처 합성 기술을 활용하여 가상의 거품 패턴 텍스처를 생성하기 위한 합성 데이터 구축 방법을 소개한다. 물리 기반 유체 시뮬레이션에서 거품 표현은 2차 효과(Secondary effects)로 분류되며, 그만큼 계산량이 큰 작업이다. 게임 업계에서는 저사양 디바이스에서도 실시간으로 게임이 실행되어야 하므로 상대적으로 계산량이 큰 물리 기반 시뮬레이션을 통해 거품을 표현하기 어렵다. 대부분 사용자가 임의로 그린 거품 패턴을 화면에 매핑하여 적은 계산량을 통해 거품을 표현하지만, 시뮬레이션을 통해 만들어진 데이터가 아니기 때문에 품질을 보장하기 어렵다. 본 논문에서는 물리 기반 시뮬레이션을 통해 만들어진 거품 패턴을 텍스처 합성 기술을 통해 재생산(Reproduction)함으로써 수작업으로 그린 거품 패턴에서는 표현하기 어려운 고품질 거품 패턴 텍스처를 만들어 낸다.

  • PDF

인공지능 기반 영상 화질 개선 최신 기술 동향

  • 김원준
    • 방송과미디어
    • /
    • 제25권1호
    • /
    • pp.20-27
    • /
    • 2020
  • 최근 모바일 기기를 위한 카메라 관련 기술이 발전하면서 취득할 수 있는 영상의 화질 또한 크게 향상되고 있다. 그러나, 일상 생활에서 빈번히 발생하는 다양한 실내외 불규칙한 조명 조건 및 저조도 환경은 여전히 영상 화질 저하를 야기한다. 본 고에서는 이러한 문제를 해결하기 위해 최근 널리 연구되고 있는 심층신경망 기반 영상 화질 개선 연구의 최신 동향을 소개하고자 한다. 먼저, 다양한 최적화 기법을 바탕으로 영상 내 조명 성분을 추정하고, 이를 개선하는 방법들에 대해 간략히 설명한다. 또한, 영상 인식, 객체 검출 등에서 뛰어난 성능을 입증한 합성곱 신경망 구조를 기반으로 영상의 잠재적 특징을 효과적으로 검출한 후 이를 바탕으로 개선된 영상을 생성하는 방법에 대해 설명한다. 다양한 데이터셋에 대한 실험 결과를 통해 인공지능 기반 영상 화질 개선의 우수성을 보인다.

LSTM-RNN 기반 음성합성을 위한 파라미터 생성 알고리즘 (Parameter Generation Algorithm for LSTM-RNN-based Speech Synthesis)

  • 박상준;한민수
    • 한국방송∙미디어공학회:학술대회논문집
    • /
    • 한국방송∙미디어공학회 2017년도 하계학술대회
    • /
    • pp.105-106
    • /
    • 2017
  • 본 논문에서는 최대 우도 기반 파라미터 생성 알고리즘을 적용하여 인공 신경망의 출력인 음향 파라미터 열의 정확성 및 자연성을 향상시키는 방법을 제안하였다. 인공 신경망의 출력으로 정적 특징벡터 뿐 만 아니라 동적 특징벡터도 함께 사용하였고, 미리 계산된 파라미터 분산을 파라미터 생성에 사용하였다. 추정된 정적, 동적 특징벡터의 평균, 분산을 EM 알고리즘에 적용하여 최대 우도 기준 파라미터를 추정할 수 있다. 제안된 알고리즘은 파라미터 생성 시 동적 특징벡터 및 분산을 함께 적용하여 시간축에서의 자연성을 향상시켰다. 제안된 알고리즘의 객관적 평가로 MCD, F0 의 RMSE 를 측정하였고, 주관적평가로 선호도 평가를 실시하였다. 그 결과 기존 알고리즘 대비 객관적, 주관적 성능이 향상되는 것을 검증하였다.

  • PDF

비디오 캡션 생성을 위한 의미 특징 학습과 선택적 주의집중 (Semantic Feature Learning and Selective Attention for Video Captioning)

  • 이수진;김인철
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2017년도 추계학술발표대회
    • /
    • pp.865-868
    • /
    • 2017
  • 일반적으로 비디오로부터 캡션을 생성하는 작업은 입력 비디오로부터 특징을 추출해내는 과정과 추출한 특징을 이용하여 캡션을 생성해내는 과정을 포함한다. 본 논문에서는 효과적인 비디오 캡션 생성을 위한 심층 신경망 모델과 그 학습 방법을 소개한다. 본 논문에서는 입력 비디오를 표현하는 시각 특징 외에, 비디오를 효과적으로 표현하는 동적 의미 특징과 정적 의미 특징을 입력 특징으로 이용한다. 본 논문에서 입력 비디오의 시각 특징들은 C3D, ResNet과 같은 합성곱 신경망을 이용하여 추출하지만, 의미 특징은 본 논문에서 제안하는 의미 특징 추출 네트워크를 활용하여 추출한다. 그리고 이러한 특징들을 기반으로 비디오 캡션을 효과적으로 생성하기 위하여 선택적 주의집중 캡션 생성 네트워크를 제안한다. Youtube 동영상으로부터 수집된 MSVD 데이터 집합을 이용한 다양한 실험을 통해, 본 논문에서 제안한 모델의 성능과 효과를 확인할 수 있었다.