• Title/Summary/Keyword: 특징 변수 추출

Search Result 174, Processing Time 0.025 seconds

Generation of Korean Intonation using Vector Quantization (벡터 양자화를 이용한 한국어 억양 곡선 생성)

  • An, Hye-Sun;Kim, Hyung-Soon
    • Annual Conference on Human and Language Technology
    • /
    • 2001.10d
    • /
    • pp.209-212
    • /
    • 2001
  • 본 논문에서는 text-to-speech 시스템에서 사용할 억양 모델을 위해 벡터 양자화(vector quantization) 방식을 이용한다. 어절 경계강도(break index)는 세단계로 분류하였고, CART(Classification And Regression Tree)를 사용하여 어절 경계강도의 예측 규칙을 생성하였다. 예측된 어절 경계강도를 바탕으로 운율구를 예측하였으며 운율구는 다섯 개의 억양 패턴으로 분류하였다. 하나의 운율구는 정점(peak)의 시간축, 주파수축 값과 이를 기준으로 한 앞, 뒤 기울기를 추출하여 네 개의 파라미터로 단순화하였다. 운율구에 대해서 먼저 운율구가 문장의 끝일 경우와 아닐 경우로 분류하고, 억양 패턴 다섯 개로 분류하여. 모두 10개의 운율구 set으로 나누었다. 그리고 네 개의 파라미터를 가지고 있는 운율구의 억양 패턴을 벡터 양자화 방식을 이용하여 분류(clusteing)하였다 운율의 변화가 두드러지는 조사와 어미는 12 point의 기본주파수 값을 추출하고 벡터 양자화하였다. 운율구와 조사 어미의 codebook index는 문장에 대한 특징 변수 값을 추출하고 CART를 사용하여 예측하였다. 합성할 때에는 입력 tort에 대해서 운율구의 억양 파라미터를 추정한 다음, 조사와 어미의 12 point 기본주파수 값을 추정하여 전체 억양 곡선을 생성하였고 본 연구실에서 제작한 음성합성기를 통해 합성하였다.

  • PDF

Arrhythmia Classification using GAN-based Over-Sampling Method and Combination Model of CNN-BLSTM (GAN 오버샘플링 기법과 CNN-BLSTM 결합 모델을 이용한 부정맥 분류)

  • Cho, Ik-Sung;Kwon, Hyeog-Soong
    • Journal of the Korea Institute of Information and Communication Engineering
    • /
    • v.26 no.10
    • /
    • pp.1490-1499
    • /
    • 2022
  • Arrhythmia is a condition in which the heart has an irregular rhythm or abnormal heart rate, early diagnosis and management is very important because it can cause stroke, cardiac arrest, or even death. In this paper, we propose arrhythmia classification using hybrid combination model of CNN-BLSTM. For this purpose, the QRS features are detected from noise removed signal through pre-processing and a single bit segment was extracted. In this case, the GAN oversampling technique is applied to solve the data imbalance problem. It consisted of CNN layers to extract the patterns of the arrhythmia precisely, used them as the input of the BLSTM. The weights were learned through deep learning and the learning model was evaluated by the validation data. To evaluate the performance of the proposed method, classification accuracy, precision, recall, and F1-score were compared by using the MIT-BIH arrhythmia database. The achieved scores indicate 99.30%, 98.70%, 97.50%, 98.06% in terms of the accuracy, precision, recall, F1 score, respectively.

Flight State Prediction Techniques Using a Hybrid CNN-LSTM Model (CNN-LSTM 혼합모델을 이용한 비행상태 예측 기법)

  • Park, Jinsang;Song, Min jae;Choi, Eun ju;Kim, Byoung soo;Moon, Young ho
    • Journal of Aerospace System Engineering
    • /
    • v.16 no.4
    • /
    • pp.45-52
    • /
    • 2022
  • In the field of UAM, which is attracting attention as a next-generation transportation system, technology developments for using UAVs have been actively conducted in recent years. Since UAVs adopted with these technologies are mainly operated in urban areas, it is imperative that accidents are prevented. However, it is not easy to predict the abnormal flight state of an UAV causing a crash, because of its strong non-linearity. In this paper, we propose a method for predicting a flight state of an UAV, based on a CNN-LSTM hybrid model. To predict flight state variables at a specific point in the future, the proposed model combines the CNN model extracting temporal and spatial features between flight data, with the LSTM model extracting a short and long-term temporal dependence of the extracted features. Simulation results show that the proposed method has better performance than the prediction methods, which are based on the existing artificial neural network model.

A Study on Lightweight Model with Attention Process for Efficient Object Detection (효율적인 객체 검출을 위해 Attention Process를 적용한 경량화 모델에 대한 연구)

  • Park, Chan-Soo;Lee, Sang-Hun;Han, Hyun-Ho
    • Journal of Digital Convergence
    • /
    • v.19 no.5
    • /
    • pp.307-313
    • /
    • 2021
  • In this paper, a lightweight network with fewer parameters compared to the existing object detection method is proposed. In the case of the currently used detection model, the network complexity has been greatly increased to improve accuracy. Therefore, the proposed network uses EfficientNet as a feature extraction network, and the subsequent layers are formed in a pyramid structure to utilize low-level detailed features and high-level semantic features. An attention process was applied between pyramid structures to suppress unnecessary noise for prediction. All computational processes of the network are replaced by depth-wise and point-wise convolutions to minimize the amount of computation. The proposed network was trained and evaluated using the PASCAL VOC dataset. The features fused through the experiment showed robust properties for various objects through a refinement process. Compared with the CNN-based detection model, detection accuracy is improved with a small amount of computation. It is considered necessary to adjust the anchor ratio according to the size of the object as a future study.

Fixed-Point Modeling and Performance Analysis of a SIFT Keypoints Localization Algorithm for SoC Hardware Design (SoC 하드웨어 설계를 위한 SIFT 특징점 위치 결정 알고리즘의 고정 소수점 모델링 및 성능 분석)

  • Park, Chan-Ill;Lee, Su-Hyun;Jeong, Yong-Jin
    • Journal of the Institute of Electronics Engineers of Korea SD
    • /
    • v.45 no.6
    • /
    • pp.49-59
    • /
    • 2008
  • SIFT(Scale Invariant Feature Transform) is an algorithm to extract vectors at pixels around keypoints, in which the pixel colors are very different from neighbors, such as vortices and edges of an object. The SIFT algorithm is being actively researched for various image processing applications including 3-D image constructions, and its most computation-intensive stage is a keypoint localization. In this paper, we develope a fixed-point model of the keypoint localization and propose its efficient hardware architecture for embedded applications. The bit-length of key variables are determined based on two performance measures: localization accuracy and error rate. Comparing with the original algorithm (implemented in Matlab), the accuracy and error rate of the proposed fixed point model are 93.57% and 2.72% respectively. In addition, we found that most of missing keypoints appeared at the edges of an object which are not very important in the case of keypoints matching. We estimate that the hardware implementation will give processing speed of $10{\sim}15\;frame/sec$, while its fixed point implementation on Pentium Core2Duo (2.13 GHz) and ARM9 (400 MHz) takes 10 seconds and one hour each to process a frame.

A Merging Algorithm with the Discrete Wavelet Transform to Extract Valid Speech-Sounds (이산 웨이브렛 변환을 이용한 유효 음성 추출을 위한 머징 알고리즘)

  • Kim, Jin-Ok;Hwang, Dae-Jun;Paek, Han-Wook;Chung, Chin-Hyun
    • Journal of KIISE:Computing Practices and Letters
    • /
    • v.8 no.3
    • /
    • pp.289-294
    • /
    • 2002
  • A valid speech-sound block can be classified to provide important information for speech recognition. The classification of the speech-sound block comes from the MRA(multi-resolution analysis) property of the DWT(discrete wavelet transform), which is used to reduce the computational time for the pre-processing of speech recognition. The merging algorithm is proposed to extract valid speech-sounds in terms of position and frequency range. It needs some numerical methods for an adaptive DWT implementation and performs unvoiced/voiced classification and denoising. Since the merging algorithm can decide the processing parameters relating to voices only and is independent of system noises, it is useful for extracting valid speech-sounds. The merging algorithm has an adaptive feature for arbitrary system noises and an excellent denoising SNR(signal-to-nolle ratio).

Management Strategy for Bidding Intention on Web-based Auction -Empirical Study of Argentina (웹 기반경매 사이트에서 입찰경매 활성화를 위한 경영전략 연구 -아르헨티나 사례연구)

  • 김관영;박명철
    • Proceedings of the Korea Technology Innovation Society Conference
    • /
    • 2001.11a
    • /
    • pp.79-99
    • /
    • 2001
  • 웹기반 경매사이트는 전자상거래시장을 대표할 만한 높은 수익성을 올리고있는 인터넷비지니스 수익모델이라고 할 수 있다. 현재 온라인경매를 사용하는 소비자는 경매사이트에서 제공하는 풍부한 정보의 양에 의존하여 전자상거래를 접하고 있다. 기존연구는 온라인 경매사이트의 제공자는 소비자의 입찰에 대한 태도와 참여 의도을 유인하기 위하여 온라인 경매 모델의 형태와 정보의 질에 집중하였던 것을 언급하고 있다. 온라인경매는 웹 인터페이스(Web Interface)를 활용하는 특징을 보유하고 있다. 그러므로, 웹기반 경매사이트의 디자인요인은 온라인경매에서 매출액 신장과 입찰에 대한 태도와 입찰 참여 의도를 유인하기 위한 중요한 요소라고 할 수 있다. 그럼에도 불구하고, 온라인 경매사이트의 매출액 증진을 위하여, 온라인경매에서 입찰 참여 의도와 웹기반 경매사이트의 디자인 요인간의 관계 연구는 수행되지 않았다. 본 연구의 목적은 웹기반 경매사이트의 디자인 요인과 소비자의 입찰 참여 의도간의 관계에 관한 연구이다. 특히, 아르헨티나를 사례연구로 실증분석을 수행하였다. 웹기반 경매사이트의 디자인 요인은 (1)사이트 구조측면과 (2)정보의 디자인 측면 그리고, (3)정보의 내용측면을 추출하였다. 웹기반 경매사이트의 디자인요인과 소비자의 선호도 변수들과의 비교분석이 이루어진다. 소비자 선호도 변수는 (1)웹디자인의 유용성 인지도와 (2)정보의 유용성 인지도 그리고, (3)웹사이트의 용이성 인지도가 사용되었다. 본 연구의 분석결과에 의하면, 웹기반 경매사이트의 3가지 디자인요인에 해당하는 사이트의 구조측면과 정보의 디자인측면 그리고, 정보의 내용 측면은 모두 소비자의 입찰에 대한 태도와 입찰 참여 의도에 긍정적으로 영향을 미치는 것으로 나타났다. 그리고, 소비자의 특성에 따른 차이점이 입찰 참여 의도에 긍정적인 영향을 미치고 있음을 결과로 제공하고 있다.

  • PDF

Measurement of program volume complexity using fuzzy self-organizing control (퍼지 적응 제어를 이용한 프로그램 볼륨 복잡도 측정)

  • 김재웅
    • Journal of the Korea Computer Industry Society
    • /
    • v.2 no.3
    • /
    • pp.377-388
    • /
    • 2001
  • Software metrics provide effective methods for characterizing software. Metrics have traditionally been composed through the definition of an equation, but this approach restricted within a full understanding of every interrelationships among the parameters. This paper use fuzzy logic system that is capable of uniformly approximating any nonlinear function and applying cognitive psychology theory. First of all, we extract multiple regression equation from the factors of 12 software complexity metrics collected from Java programs. We apply cognitive psychology theory in program volume factor, and then measure program volume complexity to execute fuzzy learning. This approach is sound, thus serving as the groundwork for further exploration into the analysis and design of software metrics.

  • PDF

Corresponding Points Tracking of Aerial Sequence Images

  • Ochirbat, Sukhee;Shin, Sung-Woong;Yoo, Hwan-Hee
    • Journal of Korean Society for Geospatial Information Science
    • /
    • v.16 no.4
    • /
    • pp.11-16
    • /
    • 2008
  • The goal of this study is to evaluate the KLT(Kanade-Lucas-Tomasi) for extracting and tracking the features using various data acquired from UAV. Sequences of images were collected for Jangsu-Gun area to perform the analysis. Four data sets were subjected to extract and track the features using the parameters of the KLT. From the results of the experiment, more than 90 percent of the features extracted from the first frame could successfully track through the next frame when the shift between frames is small. But when the frame to frame motion is large in non-consecutive frames, KLT tracker is failed to track the corresponding points. Future research will be focused on feature tracking of sequence frames with large shift and rotation.

  • PDF

Study for Construction of Annual Maximum Storm Event Series from Chukwooki Rainfall Records (측우기자료의 연최대 호우사상 구축에 관한 연구)

  • Yoo, Chul-Sang;Park, Min-Kyu
    • Proceedings of the Korea Water Resources Association Conference
    • /
    • 2008.05a
    • /
    • pp.274-278
    • /
    • 2008
  • 현대 강우관측 자료를 빈도분석할 때 나타나는 가장 큰 문제는 관측기간이 짧기 때문에 고빈도 확률강우량 추정이나 장기간의 경향성 예측시 신뢰성 부족하다는 점이다. 본 연구에서는 이러한 현대 강우자료의 문제점를 보완하기 위한 방법으로 측우기 관측기록을 활용하기 위한 방안을 검토하였다. 빈도해석을 통한 확률강우량의 결정을 위해서는 연최대치 계열의 작성이 선행되어야 한다. 측우기 강우자료는 강우시작시점과 종료시점 그리고 그 사이의 강우량으로 구성된 펄스 형태로 기록되어 있기 때문에 이를 이용하여 빈도해석을 하려면 전통적인 빈도해석 방법과는 다르게 독립호우사상을 적절하게 정의하는 것이 필요하다. 독립호우사상에 대한 기존 연구결과에 기초하여 무강우지속기간 10시간을 기준으로 측우기 관측기록과 현대 관측기록으로부터 이를 추출한 후 총강우량과 강우강도 두 가지를 대상으로 이변량 지수분포를 적용하였다. 그리고 각 호우사상의 재현기간을 산정하고, 연도별로 최대 재현기간을 가지는 호우사상을 연최대 호우사상으로 결정하였다. 이변량 지수분포의 매개변수 산정시 전기간에 대해 매개변수를 산정하는 경우보다 연도별로 매개변수를 산정하는 경우가 강우발생의 변동양상 및 수문학적인 극한호우의 정의를 반영하기에 적합한 것으로 검토되었고 또한 그로 인해 얻어진 연최대 호우사상이 이변량 극치분포를 보다 잘 따르는 것으로 나타났다. 연도별 매개변수 추정결과를 우기해와 건기해로 나누어 살펴보면 우기해에는 강우강도가 재현기간 산정에서 상대적으로 영향이 크고, 건기해에는 총강우량과 관련된 영향이 큰 것으로 나타났다. 연최대 호우사상의 변동성을 살펴보면 현대자료에서 강우지속기간은 점점 증가하고 강우강도는 감소하며 이에 따른 호우사상의 총강우량은 증가하는 특징을 보였다. 그러나 측우기 자료에서는 이러한 변화양상이 반복순환하는 것으로 나타났으며 이와 관련된 별도의 연구가 필요할 것으로 판단된다. 본 연구의 결과는 측우기 자료를 이용한 빈도해석의 선행작업으로서 연최대 호우사상 계열의 결정 과정을 살펴보았으며 이렇게 얻어진 연최대 호우사상은 현대자료와 어우러져 보다 신뢰성 높은 설계호우사상을 결정하는데 도움이 될 것으로 기대된다.

  • PDF