• 제목/요약/키워드: Korean consonants

검색결과 402건 처리시간 0.02초

홍천강에 서식하는 멸종위기종 새미 Ladislavia taczanowskii의 난발생 및 자치어 형태발달 (Development of Eggs, Larvae and Juveniles of the Ladislavia taczanowskii from Hongcheongang-River)

  • 박재민;조성장;한경호
    • 한국어류학회지
    • /
    • 제36권2호
    • /
    • pp.109-119
    • /
    • 2024
  • 이 연구는 멸종위기어류 새미의 난발생 및 자치어 형태발달을 관찰하여 초기생활사를 규명하고 종보존 연구의 기초자료로 활용하고자 실시하였다. 연구에 사용된 어미는 강원특별자치도 홍천군 홍천강 일원에서 확보하였다. 연구실에서 사육 중이던 어미는 2021년 5월 성숙한 개체를 선별하여 호르몬 주사로 산란유도를 하였다. 성숙란은 원형의 침성점착란으로 난 크기는 1.50~1.79 (평균 1.59±0.08, n=30) mm였다. 부화 시간은 수온 16.5℃ 168시간, 25.5℃에서 109시간 30분이 소요되었다. 부화 직후 자어는 전장 5.55~6.31 (6.30±6.93, n=30) mm로 입과 항문이 열리지 않았고 난황을 가지고 있었다. 부화 후 5일째 전기자어는 전장 9.91~10.8 (10.1±0.27, n=30) mm로 입과 항문이 열렸고, 먹이 섭취 활동이 시작되었다. 부화 후 8일째 중기자어는 전장 10.3~11.4 (10.8±0.38) mm로 꼬리지느러미 끝의 척추말단 부분이 위쪽으로 휘어지기 시작하였다. 부화 후 10일째 후 기자어는 전장 11.8~13.1 (12.3±0.43) mm로 꼬리 끝의 척추말단 부분이 45°로 완전히 휘어졌다. 부화 후 18일째 치어는 전장 18.9~23.4 (20.4±1.69) mm로 각 부위별 지느러미 기조 수는 등지느러미 10개, 뒷지느러미 9개, 꼬리지느러미 22개, 배지느러미 7개로 정수에 달하였다. 연구 결과 후기자어는 꼬리 끝 하미축골 위쪽과 등지느러미의 반점 모양, 머리에 발달한 세로 줄무늬, 몸 전체 불규칙적으로 침착된 흑색소포가 다른 모래무지아과 어류들과 형태적 차이를 보였다.

한국어 음소 단위 LSTM 언어모델을 이용한 문장 생성 (Korean Sentence Generation Using Phoneme-Level LSTM Language Model)

  • 안성만;정여진;이재준;양지헌
    • 지능정보연구
    • /
    • 제23권2호
    • /
    • pp.71-88
    • /
    • 2017
  • 언어모델은 순차적으로 입력된 자료를 바탕으로 다음에 나올 단어나 문자를 예측하는 모델로 언어처리나 음성인식 분야에 활용된다. 최근 딥러닝 알고리즘이 발전되면서 입력 개체 간의 의존성을 효과적으로 반영할 수 있는 순환신경망 모델과 이를 발전시킨 Long short-term memory(LSTM) 모델이 언어모델에 사용되고 있다. 이러한 모형에 자료를 입력하기 위해서는 문장을 단어 혹은 형태소로 분해하는 과정을 거친 후 단어 레벨 혹은 형태소 레벨의 모형을 사용하는 것이 일반적이다. 하지만 이러한 모형은 텍스트가 포함하는 단어나 형태소의 수가 일반적으로 매우 많기 때문에 사전 크기가 커지게 되고 이에 따라 모형의 복잡도가 증가하는 문제가 있고 사전에 포함된 어휘 외에는 생성이 불가능하다는 등의 단점이 있다. 특히 한국어와 같이 형태소 활용이 다양한 언어의 경우 형태소 분석기를 통한 분해과정에서 오류가 더해질 수 있다. 이를 보완하기 위해 본 논문에서는 문장을 자음과 모음으로 이루어진 음소 단위로 분해한 뒤 입력 데이터로 사용하는 음소 레벨의 LSTM 언어모델을 제안한다. 본 논문에서는 LSTM layer를 3개 또는 4개 포함하는 모형을 사용한다. 모형의 최적화를 위해 Stochastic Gradient 알고리즘과 이를 개선시킨 다양한 알고리즘을 사용하고 그 성능을 비교한다. 구약성경 텍스트를 사용하여 실험을 진행하였고 모든 실험은 Theano를 기반으로 하는 Keras 패키지를 사용하여 수행되었다. 모형의 정량적 비교를 위해 validation loss와 test set에 대한 perplexity를 계산하였다. 그 결과 Stochastic Gradient 알고리즘이 상대적으로 큰 validation loss와 perplexity를 나타냈고 나머지 최적화 알고리즘들은 유사한 값들을 보이며 비슷한 수준의 모형 복잡도를 나타냈다. Layer 4개인 모형이 3개인 모형에 비해 학습시간이 평균적으로 69% 정도 길게 소요되었으나 정량지표는 크게 개선되지 않거나 특정 조건에서는 오히려 악화되는 것으로 나타났다. 하지만 layer 4개를 사용한 모형이 3개를 사용한 모형에 비해 완성도가 높은 문장을 생성했다. 본 논문에서 고려한 어떤 시뮬레이션 조건에서도 한글에서 사용되지 않는 문자조합이 생성되지 않았고 명사와 조사의 조합이나 동사의 활용, 주어 동사의 결합 면에서 상당히 완성도 높은 문장이 발생되었다. 본 연구결과는 현재 대두되고 있는 인공지능 시스템의 기초가 되는 언어처리나 음성인식 분야에서 한국어 처리를 위해 다양하게 활용될 수 있을 것으로 기대된다.