• Title/Summary/Keyword: 시퀀스 데이터

Search Result 410, Processing Time 0.032 seconds

Analysis of the Ocean Acoustic Channel Using M-sequences in Ocean Acoustic Tomography (해양 음향 토모그래피에서 M-시퀀스를 이용한 해양 음향 채널 분석)

  • Seo, Seok;Lee, Chan-Kil
    • The Journal of the Acoustical Society of Korea
    • /
    • v.23 no.1
    • /
    • pp.24-29
    • /
    • 2004
  • In ocean acoustic tomography (OAT), the pulse compression techniques using M-sequences are employed in the many studies for investigating the ocean structures. M-sequences can provide the good time and Doppler resolution in the process of demodulation using matched-filter. The signal-to-noise (SNR) performance at the output of receiver may be improved by manipulating received signal, i. e. coherently averaging. The processing time can be significantly reduced by using fast hadarmard transform (FHT) or fast Fourier transform (FFT). In this paper, we estimate the multipath arrival structures and delay times using the East Korean Sea experiment data and explore the compensation method for the detrimental effects on performance due to sampling rate error. We also analyze the characteristics of the ocean acoustic channels through scattering function, delay power profile, and time dispersions.

Fast Index Construction in Distortion-Free Time-Series Subsequence Matching (왜곡 제거 시계열 서브시퀀스 매칭에서 빠른 인덱스 구성법)

  • Gil, Myeong-Seon;Kim, Bum-Soo;Moon, Yang-Sae;Kim, Jin-Ho
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2011.06a
    • /
    • pp.73-76
    • /
    • 2011
  • 본 논문에서는 기존 단일 인덱스 기반의 왜곡 제거 시계열 서브시퀀스 매칭의 인덱스 구성 알고리즘을 분석하여 보다 효율적인 인덱스 구성 알고리즘을 제안하였다. 기존 왜곡 제거 시계열 서브시퀀스 매칭의 단일 인덱스 구성 알고리즘은 대용량 시계열 데이터인 경우 왜곡 제거를 고려해야 되는 많은 윈도우로 인해 실제 인덱스 생성에 매우 많은 시간이 걸린다. 본 논문에서는 기존 선형 제거 서브시퀀스 매칭의 인덱스 구성 알고리즘을 예로서 인덱스를 구성하는 각 과정을 체계적으로 분석하여, 각 과정에서 필요한 연산 횟수를 줄이는 방법을 제안한다. 이를 위해, 저차원 변환하는 과정에서 발생하는 중복되는 연산들을 한 번씩 미리 수행하여 배열에 저장한 후 재사용하는 DF-버컷(DF-bucket)씨의 개념을 제시한다. 실험 결과, 저장 후 재사용 원칙에 따라 인덱스 구성의 효율성을 증대시킨 접근법이 그렇지 않은 접근법에 비해서 인덱스 구성 시간을 평균 32% 에서 55% 까지 줄인 것으로 나타났다.

Multi-Decoder Conversational Model for Generating Robust Response Based on Denoising Mechanism (강건한 응답 생성을 위한 디노이징 메커니즘 기반 다중 디코더 대화 모델)

  • Kim, Tae-Hyeong;Park, Seong-Bae;Park, Se-Young
    • Annual Conference on Human and Language Technology
    • /
    • 2018.10a
    • /
    • pp.141-146
    • /
    • 2018
  • 최근 대화 모델 학습에는 시퀀스-투-시퀀스 모델이 널리 활용되고 있다. 하지만 기본적인 시퀀스-투-시퀀스 모델로 학습한 대화 모델은 I don't know 문제와 사오정 문제를 내포한다. I don't know 문제는 입력 발화에 대해 안전하고 무미건조한 단편적인 대답을 많이 생성하는 문제이다. 사오정 문제는 입력 발화에 대해 적절한 응답을 생성했지만 입력 발화와 동일한 의미를 지니지만 어순, 어미 등의 변화가 있는 발화에는 적절한 응답을 생성하지 못하는 문제이다. 이전 연구에서 디노이징 메커니즘을 활용하여 각각의 문제를 완화하는 대화 모델들을 학습할 수 있음을 보였으나 하나의 모델에서 두 문제를 동시에 해결하지는 못하였다. 본 논문에서는 디노이징 메커니즘을 활용하여 각각의 문제에 강점을 지닌 디코더들을 학습하고 응답 생성 시 입력 발화에 따라 두 디코더를 적절하게 반영하여 언급한 문제 모두에 대해 강건한 응답을 생성할 수 있는 모델을 제안한다. 제안하는 방법의 우수성을 보이기 위해 9만 건의 한국어 대화 데이터로 실험을 수행하였다. 실험 결과 단일 문제를 해결하는 모델들과 비교하여 ROUGE F1 점수와 사람이 평가한 정성 평가에서 성능 향상을 보였다.

  • PDF

Deletion-Based Sentence Compression Using Sentence Scoring Reflecting Linguistic Information (언어 정보가 반영된 문장 점수를 활용하는 삭제 기반 문장 압축)

  • Lee, Jun-Beom;Kim, So-Eon;Park, Seong-Bae
    • KIPS Transactions on Software and Data Engineering
    • /
    • v.11 no.3
    • /
    • pp.125-132
    • /
    • 2022
  • Sentence compression is a natural language processing task that generates concise sentences that preserves the important meaning of the original sentence. For grammatically appropriate sentence compression, early studies utilized human-defined linguistic rules. Furthermore, while the sequence-to-sequence models perform well on various natural language processing tasks, such as machine translation, there have been studies that utilize it for sentence compression. However, for the linguistic rule-based studies, all rules have to be defined by human, and for the sequence-to-sequence model based studies require a large amount of parallel data for model training. In order to address these challenges, Deleter, a sentence compression model that leverages a pre-trained language model BERT, is proposed. Because the Deleter utilizes perplexity based score computed over BERT to compress sentences, any linguistic rules and parallel dataset is not required for sentence compression. However, because Deleter compresses sentences only considering perplexity, it does not compress sentences by reflecting the linguistic information of the words in the sentences. Furthermore, since the dataset used for pre-learning BERT are far from compressed sentences, there is a problem that this can lad to incorrect sentence compression. In order to address these problems, this paper proposes a method to quantify the importance of linguistic information and reflect it in perplexity-based sentence scoring. Furthermore, by fine-tuning BERT with a corpus of news articles that often contain proper nouns and often omit the unnecessary modifiers, we allow BERT to measure the perplexity appropriate for sentence compression. The evaluations on the English and Korean dataset confirm that the sentence compression performance of sentence-scoring based models can be improved by utilizing the proposed method.

A Symbol Timing Recovery and A Frame Detection Scheme for extended ATSC Systems (확장된 ATSC 전송시스템을 위한 프레임 동기 및 심볼 타이밍 복구에 관한 연구)

  • Shin, Sung-Soo;Kim, Joon-Tae
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 2010.07a
    • /
    • pp.185-187
    • /
    • 2010
  • 최근 3D HDTV에 대한 연구가 활발히 이루어지고 있다. 우리나라에서도 3D HDTV 표준을 제정하기 위한 준비가 이루어지고 있으며, 이와 같은 흐름에 맞추어 기존의 ATSC 전송 방식을 확장한 전송 방식이 연구되고 있다. 확장된 ATSC 전송 방식은 지상파 3D HDTV 방송을 목표로 하고, 프레임 구조를 중국의 지상파 방송 표준인 DMB-T와 유사하게 PN 시퀀스와 데이터로 이루어진 방식으로 이용하고자 한다. 연구되고 있는 확장된 전송방식은 기존의 ATSC 시스템의 VSB 변조방식을 기반으로 한다. 프레임 구조는 PN 시퀀스와 데이터 심볼의 구조를 가지며 이 PN을 이용하여 심볼 타이밍 오차를 복구한다. PN을 이용하기 위해 수신 단에서는 가장먼저 프레임 동기를 이루어야 하므로, 본 논문에서는 확장된 ATSC 전송 시스템 방식에 적용 가능한 프레임 동기와 심볼 타이밍 복구에 관한 방식을 제안하였다.

  • PDF

Parallel Processing of BLAST Using Hadoop and Its Performance Evaluation (하둡을 이용한 BLAST의 병렬 처리 및 성능 분석)

  • Choi, Hoon;Um, Jungho;Yoon, Hwa-mook;Choi, Yun-Soo;Lee, Minho;Lee, Won-Goo;Song, Sa-Kwang;Jung, Hanmin
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2012.11a
    • /
    • pp.115-117
    • /
    • 2012
  • 차세대 시퀀싱 장비는 기존의 컴퓨팅 방법으로 처리할 수 없을 만큼 많은 양의 시퀀스 데이터를 생성하고 있다. 본 논문에서는 차세대 시퀀스 데이터의 정렬을 위해 널리 사용되고 있는 BLAST의 병렬 처리 방법을 하둡을 사용하여 제시하며, 이의 성능 개선 효과를 분석한다.

Efficient Mining of Dynamic Weighted Sequential Patterns (동적 가중치를 이용한 효율적인 순차 패턴 탐사 기법)

  • Choi, Pilsun;Kang, Donghyun;Kim, Hwan;Kim, Daein;Hwang, Buhyun
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2012.11a
    • /
    • pp.1365-1368
    • /
    • 2012
  • 순차 패턴 탐사 기법은 순서를 갖는 패턴들의 집합 중에 빈발하게 발생하는 패턴을 찾아내는 기법이다. 순차 패턴 탐사 분야 중에 동적 가중치 순차 패턴 탐사는 가중치가 시간에 따라 변화하는 컴퓨팅 환경에 적용하는 마이닝 기법으로 동적인 중요도 변화를 마이닝에 적용하여 다양한 환경에서 활용 가능하다. 이 논문에서는 다양한 순차 데이터에서 동적 가중치를 적용하여 순차 패턴을 탐사하는 새로운 시퀀스 데이터 마이닝 기법에 대하여 제안한다. 제안하는 기법은 시간 순서에 의한 상대적인 동적 가중치를 사용하여 탐색해야 하는 후보 패턴을 줄여줄 수 있어 빈발한 시퀀스 패턴을 빠르게 찾을 수 있다. 이 기법을 사용하면 기존 가중치를 적용하는 방식보다 메모리 사용과 처리 시간을 줄여줘 매우 효율적이다.

SNP Analysis Method for Next-generation Sequencing Data (차세대 시퀀싱 데이터를 위한 SNP 분석 방법)

  • Hong, Sang-kyoon;Lee, Deok-hae;Kong, Jin-hwa;Kim, Deok-Keun;Hong, Dong-wan;Yoon, Jee-hee
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2010.11a
    • /
    • pp.95-98
    • /
    • 2010
  • 최근 차세대 시퀀싱 기술의 급속한 발전에 따라 서열 정보의 해독이 비교적 쉬워지면서 개인별 맞춤의학의 실현에 대한 기대와 관심이 높아지고 있다. 각 개인의 서열 정보 사이에는 SNP (single nucleotide polymorphism), Indel, CNV (copy number variation) 등의 다양한 유전적 구조 변이가 존재하며, 이러한 서열 정보의 부분적 차이는 각 개인의 유전적 특성 및 질병 감수성 등과 밀접한 관련을 갖는다. 본 연구에서는 차세대 시퀀싱 결과로 산출되는 수많은 짧은 DNA 서열 조각인 리드 데이터를 이용한 SNP 추출 알고리즘을 제안한다. 제안된 알고리즘에서는 레퍼런스 시퀀스의 각 위치에 대한 리드 시퀀스의 매핑 정보를 기반으로 SNP 후보 영역을 추출하며, 품질 정보 등을 활용하여 에러 발생률을 최소화한다. 또한 대규모 시퀀싱 데이터와 SNP 구조 변이 데이터의 효율적인 저장/검색을 지원하는 시각적 분석 도구를 구현하여 제안된 방식의 유용성을 검증한다.

A Study on the Analysis Technique of Sequence Landscaping through the Application and Development of Visual Amount Calculation Program of Landscapes (경관의 시각량 산출 프로그램 개발과 적용을 통한 연속경관 시퀀스 분석기법 연구)

  • Koo, Min-Ah
    • Journal of the Korean Institute of Landscape Architecture
    • /
    • v.44 no.5
    • /
    • pp.12-25
    • /
    • 2016
  • In this study, in order to facilitate analysis in a continuous sequence, including the concept of the landscape experience time, countless frames of a continuous landscape were extracted. The amount of visual elements in each frame was data-converted numerically to take advantage of the quantitative data necessary for landscape planning and design was calculated in the rhythm of the sequence. In Order to shoot video with the flow of the line of sight of experience in landscape districts and landscape control points along the landscape corridor which is a continuous path, each of the corresponding computer motion techniques. This study developed a CRVP Koo computer program to effectively calculate the continuous visual number of specific landscape components by extracting uncounted frames at regular intervals, and after verifying, attempting to apply this to the target site. Through the applied result, it was possible to extract the digitized quantitative rhythm for each component of each landscape, the margin of error is very small when compared with the results of manual in photoshop, it was able to overcome the drawbacks of the manual. Using the rhythm of the derived sequence, and those close to the experience of the landscape, it was possible to achieve quantitative analysis derived from a variety of perspectives as well as was possible to be used as quantitative basis data and analysis technique for landscape planning and design.

Spatial Locality Preservation Metric for Constructing Histogram Sequences (히스토그램 시퀀스 구성을 위한 공간 지역성 보존 척도)

  • Lee, Jeonggon;Kim, Bum-Soo;Moon, Yang-Sae;Choi, Mi-Jung
    • Journal of Information Technology and Architecture
    • /
    • v.10 no.1
    • /
    • pp.79-91
    • /
    • 2013
  • This paper proposes a systematic methodology that could be used to decide which one shows the best performance among space filling curves (SFCs) in applying lower-dimensional transformations to histogram sequences. A histogram sequence represents a time-series converted from an image by the given SFC. Due to the high-dimensionality nature, histogram sequences are very difficult to be stored and searched in their original form. To solve this problem, we generally use lower-dimensional transformations, which produce lower bounds among high dimensional sequences, but the tightness of those lower-bounds is highly affected by the types of SFC. In this paper, we attack a challenging problem of evaluating which SFC shows the better performance when we apply the lower-dimensional transformation to histogram sequences. For this, we first present a concept of spatial locality, which comes from an intuition of "if the entries are adjacent in a histogram sequence, their corresponding cells should also be adjacent in its original image." We also propose spatial locality preservation metric (slpm in short) that quantitatively evaluates spatial locality and present its formal computation method. We then evaluate five SFCs from the perspective of slpm and verify that this evaluation result concurs with the performance evaluation of lower-dimensional transformations in real image matching. Finally, we perform k-NN (k-nearest neighbors) search based on lower-dimensional transformations and validate accuracy of the proposed slpm by providing that the Hilbert-order with the highest slpm also shows the best performance in k-NN search.