• 제목/요약/키워드: 통계적 후처리 과정

검색결과 57건 처리시간 0.025초

어휘의미패턴을 이용한 음성인식 오류 검출 및 수정 (Error detection and correction in speech recognition by using lexico-semantic patterns)

  • 윤용욱;정한민;이근배
    • 한국정보과학회 언어공학연구회:학술대회논문집(한글 및 한국어 정보처리)
    • /
    • 한국정보과학회언어공학연구회 2002년도 제14회 한글 및 한국어 정보처리 학술대회
    • /
    • pp.62-68
    • /
    • 2002
  • 음성인식기를 거친 결과는 오류를 포함할 수 있으며 이를 다른 자연어처리 응용에 이용하기 위해서는 오류의 검출과 수정과정이 필수적이다. 음성인식 오류 후처리는 그 성격상 문자인식 후처리와는 다른 접근 방법을 필요로 하며, 본 인구에서는 잡음환경을 제외한 특정 도메인에 국한된 음성발화 상황에 초점을 맞추고자 한다. 후처리 방법에 있어서는 통계적 접근과 패턴매칭에 의한 접근 방법이 있으며, 본 연구에서는 특정 도메인에서 사용되는 어휘의 의미정보를 포함하는 패턴을 자동으로 생성시켜 이에 의한 오류 검출 및 수정 방안을 제안한다. 본 실험에 사용된 도메인은 차량정보센터용 음성정보 제공 시나리오이며 상용 음성인식기를 후처리를 위한 개발 툴로 사용하였다.

  • PDF

DRM 기반의 디지털 비디오 콘텐츠 보호 (Digital Video Contents Protection based on DRM)

  • 부희형;이우주;배호영;이배호
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2005년도 춘계학술발표대회
    • /
    • pp.827-830
    • /
    • 2005
  • 본 논문은 DRM(Digital Rights Management)의 핵심요소기술인 디지털 비디오 워터마킹 기술에서 암호화 기법을 함께 적용하여 저작권 판별 및 콘텐츠 보호의 두 가지 역할을 수행하는 시스템을 제안하고자 한다. 본 논문에서는 저작권 정보를 공개키 기반의 RSA 암호화 방법으로 암호문을 만든 후 이진화 과정을 수행하여 워터마크 키 정보를 생성하였고, 워터마킹 기법으로는 통계적 모델의 계산 속도가 빠른 NVF(Noise Visibility Function) 방식의 Adaptive Stationary GG(Generalized Gaussian) model[1]의 기법을 사용하였다. 암호문은 사용자 컨트롤러에서 제어가 가능하도록 하여 권한이 부여된 사용자만이 재생이 가능하도록 하였다. 본 논문의 구성은 2장에서 암호화 과정을 설명하고, 3장에서는 기존의 기법과는 다른 통계적 접근의 워터마킹 기법을 적용한 과정을 설명하며, 4장에서는 제안한 방법이 실제 환경에서의 실험 결과를 보여준다. 마지막으로 5장에서는 결론과 개선점을 바탕으로 향후 연구방향을 제시한다. 본 논문에서 제안한 방법은 미래사회 인터넷에서의 올바른 디지털 콘텐츠 사용 문화 정책에 큰 역할을 할 것으로 기대된다.

  • PDF

웨이브릿 변환 영역에서 디지털 워터마킹의 성능분석 (Performance Analysis for Digital Watermarking on the Wavelet Transform Domain)

  • 김진태;김동욱
    • 한국정보통신학회논문지
    • /
    • 제7권2호
    • /
    • pp.314-321
    • /
    • 2003
  • 디지털 워터마킹은 멀티미디어 데이터의 저작권 보호 목적으로 최근에 많은 연구가 진행되고 있다. 본 논문에서는 디지털 영상에 저작권 정보를 은닉하는 디지털 워터마킹 방법의 기법을 고찰한다. 웨이브릿 변환 영역에서 각 대역에 삽입된 워터마크는 영상 압축 등의 처리과정을 거치면서 변형이 생기게 되는데, 영상처리 후에 각 대역의 통계적 특성에 따라 변형정도가 다르게 된다는 특성을 고려한다. 이를 통해 영상의 대역 특성에 따라 워터마크를 다르게 삽입해야 좋은 결과를 얻을 수 있음을 알 수 있다.

에러패턴 학습과 후처리 모듈을 이용한 연속 음성 인식의 성능향상 (Improving Performance of Continuous Speech Recognition Using Error Pattern Training and Post Processing Module)

  • 김용현;정민화
    • 한국정보과학회:학술대회논문집
    • /
    • 한국정보과학회 2000년도 봄 학술발표논문집 Vol.27 No.1 (B)
    • /
    • pp.441-443
    • /
    • 2000
  • 연속 음성 인식을 하는 경우에 많은 에러가 발생한다. 특히 기능어의 경우나 서술어의 경우에는 동시 조음 현상에 의한 음운 변화에 의해 빈번한 에러가 발생한다. 이러한 빈번한 에러를 수정하기 위한 방법에는 언어 모델의 개선과 음향 모델의 개선등을 통한 인식률 향상과 여러 단계의 인식과정을 두어 서로 다른 언어 모델을 적용하는 등의 방법이 있지만 모두 시간과 비용이 많이 들고 각각의 상황에 의존적인 단점이 있다. 따라서 본 논문에서 제안하는 방법은 이것을 수정하기 위해 음성 인식기로부터 인식되어 나온 결과 문장을 정답과 비교, 학습함으로써 빈번하게 에러 패턴을 통계적 방법에 의해 학습하고 후처리 모듈을 이용하여 인식시에 발생하는 에러를 적은 비용과 시간으로 수정할 수 있도록 하는 것이다. 실험은 3000 단어급의 한국어 낭독체 연속 음성을 대상으로 하여 형태소와 의사형태소를 각각 인식단위로 하고, 언어모델로 World bigram과 Tagged word bigram을 각각 적용 실험을 하였다. 형태소, 의사 형태소일 경우 모두 언어 모델을 tagged word bigram을 사용하였을 경우 N best 후보 문장 중 적당한 단어 후보의 분포로 각각 1 best 문장에 비해 12%, 18%정도의 에러 수정하여 문장 인식률 향상에 상당한 기여를 하였다.

로컬 와핑 및 윤곽선 추출을 이용한 캐리커처 제작 (Caricaturing using Local Warping and Edge Detection)

  • 최성진;김성신;배현
    • 한국지능시스템학회:학술대회논문집
    • /
    • 한국퍼지및지능시스템학회 2003년도 춘계 학술대회 학술발표 논문집
    • /
    • pp.137-140
    • /
    • 2003
  • 캐리커처의 일반적인 의미는 어떤 사람이나 사물의 특징을 추출하여 익살스럽게 풍자한 그림이나 글이다. 다시 말해, 캐리커처는 사람의 얼굴에서 특징을 잡아 과장하거나 왜곡하여 그린 데생이라고 한다. 컴퓨터를 이용한 기존의 캐리커처 제작방법으로는, 입력 이미지 좌표의 통계적인 차이값을 이용하는 PICASSO System 방법[1], 제작자의 애매한 느낌을 퍼지 논리를 이용하여 표현하는 방법, 이미지를 와핑하는 방법, 여러 단계의 벡터 필드 변환을 이용하는 방법등이 연구되어 왔다. 본 논문에서는 실시간 또는 준비된 영상을 입력으로 받아 저장한 후, 네 단계의 과정으로 처리한 후 최종적으로 캐리커처된 이미지를 생성하게 된다. 각 단계별 처리 내용으로는 첫번째 단계에서는 영상에서 얼굴을 검출하고 두번째 단계에서는 특정 얼굴부위의 기하학적 정보를 좌표값으로 추출한다. 세번째 단계에서는 전 단계에서 얻은 좌표값으로 로컬 와핑 기법을 이용하여 영상을 변환한다. 네 번째 단계에서는 변형된 영상으로 퍼지 논리를 이용하여 보다 개선된 윤곽선 이미지로 변환하여 캐리커처 이미지를 얻는다. 본 논문에서는 영상 인식, 변환 및 윤곽선 검출 및 둥의 여러 가지 영상 처리 기법을 이용하여 기존의 캐리커처 제작 방식보다 간단하고, 복잡한 연산 과정이 없는 캐리커처 제작 시스템을 구현하였다.

  • PDF

수사구조를 이용한 텍스트 자동요약 (Text Summarisation with Rhetorical Structure)

  • 이유리;최기선
    • 한국정보과학회 언어공학연구회:학술대회논문집(한글 및 한국어 정보처리)
    • /
    • 한국정보과학회언어공학연구회 1999년도 제11회 한글 및 한국어 정보처리 학술대회
    • /
    • pp.97-102
    • /
    • 1999
  • 텍스트 요약이란 중요정보만을 추출하여 본래 텍스트의 의미를 전달하는 축약 과정이다. 인터넷을 통한 온라인 정보가 급증함에 따라 정보에 대한 처리와 신속한 내용 파악을 위한 효율적인 자동 텍스트 방법이 필요하다. 기존의 통계적 방법으로는 전체 텍스트의 구조적인 특징을 고려할 수가 없기 때문에, 생성된 요약문의 의미적 흐름이 부자연스럽고, 문장간 응집도가 떨어지게 된다. 수사학적 방법은 요약문을 생성하기 위해서 문장간의 접속관계를 이용한다. 수사 구조란 텍스트를 이루는 문장들간의 논리적인 결합관계로, 수사학적 방법은 이러한 결합관계를 파악하여 요약문을 생성하는 방법이다. 본 논문에서는 표지들이 나타내는 접속 관계정보를 사용하여, 텍스트의 수사구조를 분석한 후 요약문을 생성하는 시스템을 구현한다. 수사구조 파싱 과정은 문장간의 수사구조 파싱과 문단간의 수사구조 파싱, 두 단계로 이루어진다. 파싱은 차트파싱 방법을 사용하여 상향식으로 진행된다. 입력된 문장들로부터 두 단계 파싱에 의해 전체 텍스트의 수사구조 트리를 생성하며, 생성된 트리에서 가중치를 계산하여 중요 문장들을 요약문으로 추출한다.

  • PDF

입력 영역에 기초한 소프트웨어 신뢰성 성장 모델 (An Input Domain-Based Software Reliability Growth Model)

  • 박중양;서동우;김영순
    • 한국정보처리학회논문지
    • /
    • 제7권11호
    • /
    • pp.3384-3393
    • /
    • 2000
  • 소프트웨어를 테스팅하는 동안 얻어지는 고장 데이터를 분석하여 소프트웨어의 신뢰성이 성장하는 과정을 평가하기 위해 여러 가지 소프트웨어 신뢰성 성장 모델들이 개발되었다. 그러나 이들 신뢰성 성장 모델들은 소프트웨어 개발과 사용환경에 관한 여러 가지 가정에 기반하고 있기 때문에, 이 가정이 적합하지 않은 상황이나 결함이 드물게 발생되는 소프트웨어에 대해서는 적절하지 않다. 입력영역에 기초한 소프트웨어 신뢰성 모델은 일반적으로 이러한 가정을 요구하지 않는데 디버깅 전의 소프트웨어와 디버깅 후의 소프트웨어를 별개의 것으로 다루어 많은 테스트 입력을 요하는 단점이 있다. 본 논문에서는 이러한 가정이 요구되지 않고 디버깅 전과 후의 소프트웨어를 동시에 테스트하는 방법에 기반을 둔 입력 영역 기반 소프트웨어 성장모델을 제안하고 그 통계적 특성을 조사한다. 이 모델은 모든 데이터를 다 활용하기 때문에 기존 입력영역 소프트웨어 신뢰성 모델에 비해 적은 테스트 입력을 필요로 할 것으로 기대된다. 그리고 소프트웨어의 유지보수 단계에 적용하기 위해 개발된 유사한 방법들과 비교한다.

  • PDF

Excel과 Mathview를 활용한 고등학교 통계지도

  • 김지곤
    • 한국수학교육학회지시리즈E:수학교육논문집
    • /
    • 제11권
    • /
    • pp.367-387
    • /
    • 2001
  • 통계 수업에서는 실제 자료를 직접 다루는 활동이 있어야 하며 이것은 계산기 또는 컴퓨터가 있어야 한다. 계산기 기능만으로는 많은 양의 자료를 반복해서 다루는데 문제가 있다. 그렇다고 통계 응용프로그램을 사용하는 것은 통계의 원리와 과정을 배우는 것이 목적인 고등학교 통계 교육과정에 맞지 않다. 이러한 면에서 볼 때 Excel은 계산기적 기능과 통계적 기능을 모두 갖추고 있으며 또한 시중에 많이 보급된 장점도 있다. 통계문제를 처리할 때 Excel의 계산기 기능을 사용하여 교과서의 원리대로 계산한 후 Excel의 통계기능을 이용하여 검토해 봄으로써 향후 통계 응용프로그램을 다루는 기초를 쌓을 수 있다. 그러나 Excel은 적분기능이 없어 연속분포에서 적분이 필요한 경우는 MathView를 사용하였다. 제7차 고등학교 통계 교육과정의 내용을 Excel을 활용하여 지도하는 모델을 개발해 봄으로써 새 수학과 교과서 개발을 위한 기초연구를 제공하고자 한다.

  • PDF

DCT 기반 압축 영상의 화질 개선을 위한 적응적 후처리 기법 (Adaptive Postprocessing Technique for Enhancement of DCT-coded Images)

  • 김종호;박상현;강의성
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국해양정보통신학회 2011년도 추계학술대회
    • /
    • pp.930-933
    • /
    • 2011
  • 본 논문에서는 블록 기반 DCT (Discrete Cosine Transform)에 의한 압축 영상의 화질을 개선하기 위한 적응적 후처리 기법을 제안한다. 제안하는 알고리즘은 1차원의 비교적 간단한 디블록킹 필터(deblocking filter)와 2차원의 방향성 기반 화질 개선 필터를 연속적으로 적용하는 형태로 이루어져 있다. 먼저, 영상의 국부 통계적 특성에 따라 적응적인 임계값을 설정하여 1차원 디블록킹 필터를 적응적으로 적용한다. 1차원 필터링을 수행한 후 블록간의 연속성을 향상시켜 인지되는 화질을 향상시키기 위하여 업데이트 과정을 수행하게 된다. 이후, 실제 에지(edge) 및 텍스쳐(texture) 정보를 보존하면서 에지 주위의 링잉 현상(ringing effects) 및 블록의 교차점에 존재하는 불연속 현상을 제거하기 위하여 2차원 방향성 기반 화질 개선 필터를 적용한다. 실험 결과 제안한 알고리즘은 기존의 다양한 화질 개선을 위한 후처리 기법에 비해 높은 PSNR을 나타내면서 우수한 주관적 화질 결과를 보인다.

  • PDF

맵리듀스 기반의 암 특이적 유전자 단위 반복 변이 추출 (Highly accurate detection of cancer-specific copy number variations with MapReduce)

  • 신재문;홍상균;이은주;윤지희
    • 한국정보과학회:학술대회논문집
    • /
    • 한국정보과학회 2012년도 한국컴퓨터종합학술대회논문집 Vol.39 No.1(C)
    • /
    • pp.19-21
    • /
    • 2012
  • 모든 암 세포는 체세포 변이를 동반한다. 따라서 암 유전체 변이 분석에 의하여 암을 발생시키는 유전자 및 진단/치료법을 찾아낼 수 있다. 본 연구에서는 차세대 시퀀싱 데이터를 이용하여 암 특이적 단이 반복 변이(copy number variation, CNV) 유형을 밝히는 새로운 알고리즘을 제안한다. 제안하는 방식은 암 환자의 정상 세포와 암세포로부터 얻어진 정상 유전체와 암 유전체를 동시 분석하여 각각 CNV 후보 영역을 추출하며, 통계적 유의성 분석을 통하여 암 특이적 CNV 후보 영역을 선별하고, 다음 후처리 과정에서 참조 표준 서열(reference sequence)에 존재하는 오류 영역 보정 작업을 수행하여 정확한 암 특이적 CNV 영역을 추출해 낸다. 또한 다수의 대용량 유전체 데이터 동시 분석을 위하여 맵리듀스(MapReduce) 기법을 기반으로 하는 병렬 수행 알고리즘을 제안한다.