• Title/Summary/Keyword: 선별 알고리즘

검색결과 292건 처리시간 0.032초

H.264/AVC Main Profile을 위한 CABAC-기반의 블라인드 워터마킹 알고리즘 (A Blind Watermarking Algorithm using CABAC for H.264/AVC Main Profile)

  • 서영호;최현준;이창열;김동욱
    • 한국통신학회논문지
    • /
    • 제32권2C호
    • /
    • pp.181-188
    • /
    • 2007
  • 본 논문에서는 동영상 압축 기술인 MPEG-4 Part 10 H.264/AVC의 main profile에서 사용되는 엔트로피 코더인 CABAC(Context-based Adaptive Binary Arithmetic Coder)을 이용하여 워터마크를 삽입하고 추출하는 방법을 제안한다. 제안한 알고리즘은 워터마크 삽입을 위한 블록과 계수는 CABAC의 주변 블록 및 주변 계수와의 관계에서 추출된 컨텍스트(context)를 기반으로 선정한다. 이렇게 선별된 계수는 그 절대값과 삽입할 워터마크에 따라 원 계수를 그대로 유지하거나 LSB(Least Significant Bit) 만을 치환하는 방법으로 워터마크를 삽입한다. 따라서 공격자가 워터마크 삽입위치를 판별하기 어렵고, DC계수에 인접 계수들에 워터마크를 삽입함으로써 그 강인성(Robustness)을 만족할 수 있다. 여러 종류 및 강도의 공격을 가한 후 워터마크를 추출했을 때 최대 에러율이 5% 정도로 높은 강인성을 보였다. 또한 제안한 알고리즘은 CABAC 엔트로피 코딩 과정에서 컨텍스트 추출과정 및 이진화과정 수행 중에 워터마크를 삽입하므로, 하드웨어 구현을 고려했을 시에 워터마크 삽입을 위한 위치선정 및 계수선정에 필요한 별도의 연산 과정이 매우 적은 것이 특징이다. 따라서 이 방법은 비디오를 획득한 후 곧바로 압축하여야 하는 응용분야에서 매우 유용하게 사용될 것이라 기대된다.

고해상도 항공 영상과 딥러닝 알고리즘을 이용한 표본강도에 따른 토지이용 및 토지피복 면적 추정 (Assessing the Impact of Sampling Intensity on Land Use and Land Cover Estimation Using High-Resolution Aerial Images and Deep Learning Algorithms)

  • 이용규;심우담;이정수
    • 한국산림과학회지
    • /
    • 제112권3호
    • /
    • pp.267-279
    • /
    • 2023
  • 본 연구는 IPCC에서 제시하고 있는 Approach 3 수준의 토지이용 및 토지피복 면적 추정을 위해 고해상도 항공사진에 딥러닝 알고리즘과 Sampling method를 적용하였으며, 표본강도에 따라 토지피복 면적을 산출하고 최적의 표본강도를 도출하는 것을 목적으로 하였다. 원격탐사자료로는 51 cm급의 고해상도 칼라 항공 이미지를 사용하였으며, 딥러닝 알고리즘은 전이 학습이 적용된 VGG16 아키텍처를 활용하였다. 딥러닝 기반 토지피복 분류모델의 학습과 검증은 육안판독을 통해 선별된 데이터를 이용하였다. 최적의 표본강도를 도출하기 위한 평가는 7개의 표본강도(4 × 4 km, 2 × 4 km, 2 × 2 km, 1 × 2 km, 1 × 1 km, 500 × 500 m, 250 × 250 m)에 따른 토지이용 및 토지피복 면적을 추정하고 환경부에서 제시한 토지피복지도와 비교하였다. 본 연구 결과, 딥러닝 기반의 토지피복 분류 모델의 전체정확도와 카파계수는 각각 91.1% 와 88.8%였다. F-Score는 초지를 제외한 모든 범주가 90% 이상으로 구축되어 모델의 정확도가 우수하였다. 표본강도별 적합도 검정은 유의수준 0.1에서 4 × 4 km를 제외한 모든 표본강도에서 환경부에서 제시한 토지피복지도의 면적 비율과 유의한 차이를 보이지 않았다. 또한, 표본강도가 증가할수록 상대표준오차와 상대효율은 감소하였으며, 상대표준오차는 1 × 1 km 표본강도에서 모든 토지피복범주가 15% 이하로 감소하였다. 따라서, 지역 단위의 토지피복 면적 산정을 위해서는 표본강도를 1 × 1 km보다 상세하게 설정하는 것이 적합하다고 판단된다.

디지털 마모그램에서 형태적 분석과 다단 신경 회로망을 이용한 효율적인 미소석회질 검출 (An Effective Microcalcification Detection in Digitized Mammograms Using Morphological Analysis and Multi-stage Neural Network)

  • 신진욱;윤숙;박동선
    • 한국통신학회논문지
    • /
    • 제29권3C호
    • /
    • pp.374-386
    • /
    • 2004
  • 유방암은 최근에 빠르게 증가하고 있는 여성 암중의 하나이며 그 발명원인이 불명확하여 조기 검출만이 생존율을 높일 수 있는 유일한 방법이다. 본 논문에서는 효율적으로 미소석회질의 의심 영역을 검출할 수 있는 방법에 대하여 설명한다. 본 논문에서는 디지털 마모램 영상에 대한 통계적 분석으로부터 일반적인 미소석회질의 특성을 분석한 후 분석된 자료를 이용하여 다단 신경망을 구성한 후 의심영역으로 간주되는 ROI를 검출한다. ROI 검출을 위하여 4단계로 구성되는 알고리즘을 제안하며 전처리 과정, 다단계 thresholding, 선형필터를 이용한 1차 미소석회질 선별작업, 다단계 신경망을 이용한 2차 미소석회질 검출이 포함된다. 선형필터를 이용한 1차 선별작업에서는 모든 미소석회질을 검출할 수 있었고 유방조직 제거를 통한 신경망에서의 작업처리 감소율이 86%로 나타났다. 2단 신경망을 이용한 2차 미소석회질 검출단계에서 첫 번째 신경망에서는 미소석회질의 형태적 특성을 기반으로 11개의 특징 값들을 정의하였으며 모든 데이터에 대한 실험 결과 평균 96.66%의 인식률을 보였다. 그리고 두 번째 신경망에서는 첫 번째 인식 결과 값과 미소석회질의 군집특성을 이용하기 위해 첫 번째 인식결과를 토대로 조사된 군집분포 여부를 특징 값으로 사용하였으며 그 결과 1차 신경망보다 높은 평균 98.26%의 인식률을 보였다.

선택적 주의집중에 의한 문서영상의 효율적인 기울어짐 추정 (Efficient Skew Estimation for Document Images Based on Selective Attention)

  • 곽희규;김수형
    • 한국정보과학회논문지:소프트웨어및응용
    • /
    • 제26권10호
    • /
    • pp.1193-1203
    • /
    • 1999
  • 본 논문에서는 한글과 영문 문서 영상들에 대한 기울어짐 추정(skew estimation) 알고리즘을 제안한다. 제안 방법은 전체 문서 영상에서 텍스트 요소들이 밀집되어 있는 영역을 선별하고, 선별된 영역에 대해 허프 변환을 적용하는 선택적 주의집중(selective attention) 방식을 채택한다. 제안 방법의 기울기 추정 과정은 2단계로 구성되는데, coarse 단계에서는 전체 영상을 몇 개의 영역으로 나누고 동일한 영역에 속하는 데이타들간의 연결 각도를 계산하여 각 영역별 accumulator에 저장한다. accumulator에 저장된 빈도치를 기준으로 $\pm$45$^{\circ}$범위 내에서 최대 $\pm$1$^{\circ}$의 오차를 가진 각 영역별 기울기를 계산한 후, 이들 중 최대 빈도값을 갖는 영역을 선정하고 그 영역의 기울기 각도를 문서 영상의 대략적인 기울기 각도로 결정한다. Refine 단계에서는 coarse 단계에서 선정된 영역에 허프 변환을 적용하여 정확한 기울기를 계산하는데, coarse 단계에서 추정한 기울기의 $\pm$1$^{\circ}$범위 내에서 0.1$^{\circ}$간격으로 측정한다. 이와 같은 선택적 주의집중 방식을 통해 기울기 추정에 소요되는 시간 비용은 최소화하고, 추정의 정확도는 최대화 할 수 있다.제안 방법의 성능 평가를 위한 실험은 다양한 형태의 영문과 한글 문서 영상 2,016개에 적용되었다. 제안 방법의 평균 수행 시간은 Pentium 200MHz PC에서 0.19초이고 평균 오차는 $\pm$0.08$^{\circ}$이다. 또한 기존의 기울기 추정 방법과 제안 방법의 성능을 비교하여 제안 방법의 우수성을 입증하였다.Abstract In this paper we propose a skew estimation algorithm for English and Korean document images. The proposed method adopts a selective attention strategy, in which we choose a region of interest which contains a cluster of text components and then apply a Hough transform to this region. The skew estimation process consists of two steps. In the coarse step, we divide the entire image into several regions, and compute the skew angle of each region by accumulating the slopes of lines connecting any two components in the region. The skew angle is estimated within the range of $\pm$45 degree with a maximum error of $\pm$1 degree. Next we select a region which has the most frequent slope in the accumulators and determine the skew angle of the image roughly as the angle corresponding to the most frequent slope. In the refine step, a Hough transform is applied for the selected region within the range of $\pm$1 degree along the angle computed from the coarse step, with an angular resolution of 0.1 degree. Based on this selective attention strategy, we can minimize the time cost and maximize the accuracy of the skew estimation.We have measured the performance of the proposed method by an experiment with 2,016 images of various English and Korean documents. The average run time is 0.19 second on a Pentium 200MHz PC, and the average error is $\pm$0.08 degree. We also have proven the superiority of our algorithm by comparing the performance with that of other well-known methods in the literature.

접근 요청 빈도에 기반한 멀티미디어 뉴스 데이터의 선별적 버퍼 캐쉬 관리 전략 (Access Frequency Based Selective Buffer Cache Management Strategy For Multimedia News Data)

  • 박용운;서원일;정기동
    • 한국정보처리학회논문지
    • /
    • 제6권9호
    • /
    • pp.2524-2532
    • /
    • 1999
  • 대규모의 실시간 주문형 뉴스 제공 시스템(Real Time News On Demand)에서는 다수의 사용자들이 디스크에 저장된 뉴스 데이터를 실시간으로 동시에 접근하여 최대로 수용할 수 있는 사용자 수는 총 디스크 대역폭의 제한을 받는다. 본 연구에서는 이러한 디스크 대역폭의 한계를 극복하기 위하여 디스크 비용의 일부로 버퍼 캐쉬를 구성하여 실시간 뉴스 데이터에 적합하도록 버퍼를 블록 단위가 아닌 오브젝트 단위로 할당하는 버퍼 캐쉬 정책을 사용하고, 캐슁 대상 뉴스 데이터를 현재의 디스크 대역폭의 사용 정도와 해당 뉴스 데이터의 평균 요청 간격을 고려하여 선별함으로써 재접근 가능서이 낮은 데이터의 경우 캐슁 대상에서 제외시켜 볼 필요한 버퍼의 재 할당에 의한 메모리 오버헤드를 방지하는 실시간 뉴스 데이터에 적합한 캐슁 방법을 제안한다. 이렇게 함으로써 접근 빈도수가 높은 데이터의 경우 디스크의 접근 없이도 데이터의 획득이 가능하게 되어 디스크만으로 저장 시스템을 구성할 때와 비교하여 저 비용으로 저장 시스템을 구성할 수 있다. 본 논문에서 제안한 알고리즘의 성능을 시뮬레이션을 통하여 평가한 결과, 본 논문에서 제안한 캐슁 방법으로 뉴스 데이터에 대한 사용자의 요청을 처리했을 경우, 디스크만으로 저장 서버를 구성하였을 경우보다 30% 이상의 사용자를 지원할 수 있다.

  • PDF

3D-HEVC 비디오 부호화 성능 분석 (Performance Analysis of 3D-HEVC Video Coding)

  • 박대민;최해철
    • 방송공학회논문지
    • /
    • 제19권5호
    • /
    • pp.713-725
    • /
    • 2014
  • 차세대 영상 기술의 하나로 다양한 분야에서 주목받고 있는 고품질 다시점 및 3차원 콘텐츠들에 대한 비디오 부호화 기술의 연구 및 표준화가 활발히 진행되고 있다. 다시점 및 3차원 비디오 기술은 복수의 시점을 이용하여 사용자에게 실감나는 영상을 제공할 수 있다. 하지만, 많은 시점을 획득 및 전송하는 것은 한계가 있으므로, 소수의 시점을 이용하여 다양한 시점을 제공하는 연구가 주를 이룬다. 이러한 연구에는 전송 시점을 줄이는 대신 깊이 정보를 전송하여 전송된 시점으로부터 더욱 정확히 임의 시점을 생성하는 기술과 시점간 정보 중복성을 제거하기 위한 부호화 기술이 있다. 최근 국제 표준화 기구인 JCT-3V(Joint Collaborative Team on 3D Video Coding Extension Development)에서는 다시점 및 3차원 비디오 영상을 효율적으로 부호화할 수 있는 기술에 대하여 표준화가 진행되고 있다. 본 논문은 현재 JCT-3V에서 HEVC(High Efficiency Video Coding) 기반으로 표준화가 진행 중인 3D-HEVC 부호화 기술에 대해 살펴보고 그 부호화 및 복잡도 성능을 분석하였다. 이러한 성능 분석은 향후 부호화 성능 향상을 위한 알고리즘 개발 및 고속 부호화기 개발을 위한 부호화 툴의 선별 및 조정에 유용할 것으로 판단된다.

움직임 벡터의 신뢰도에 기반한 이동 목표물 추적 기법 (Moving Target Tracking Algorithm based on the Confidence Measure of Motion Vectors)

  • 이진성;이광연;김성대
    • 대한전자공학회논문지SP
    • /
    • 제38권2호
    • /
    • pp.160-168
    • /
    • 2001
  • 목표물의 위치 정보를 알아내고 그것을 추적하기 위한 대표적인 방법 중의 하나로 차영상을 이용한 움직임 영역 검출 기법이 지금까지 많이 사용되어 왔다. 이 방법은 배경이 고정되어 있는 상황이라는 가정이 필요하며, 카메라가 움직이는 경우에는 전역 움직임 보상 기법이 반드시 필요하게 된다. 따라서 본 논문에서는 카메라가 움직이는 경우에도 차영상 정보를 이용하여 실제 이동하는 목표물을 포함하는 최소 사각형을 정확하게 찾는 방법을 제안한다. 전역 움직임 보상을 위해서 움직임 계수를 구할 때, 오류 벡터로 인해서 전역 움직임 계수를 잘못 추정하게 되면 이동 목표물의 검출에 실패하는 결과를 낳는다. 이러한 문제점으로 인하여 여기에서는 배경 영상의 신뢰성 있는 움직임 벡터를 선별하여 보다 정확한 전역 보상이 이루어지는 알고리즘을 제안하여, 결과적으로 정확한 이동 목표물의 위치를 얻는 방법에 대해서 기술하고 있다. 제안된 기법으로 다양한 영상에 적용한 결과, 배경을 효과적으로 제거하고 목표물의 위치를 대체로 정확하게 찾을 수 있다는 것을 보여 주었다. 특히 움직이는 카메라에서 얻은 영상에 대해서는 기존의 방법보다 매우 우수한 결과를 얻는다는 것을 확인할 수 있었다.

  • PDF

신호교차로에서 차량 통과특성 연구 (공격적인 운전자가 운전하는 차량을 중심으로) (Passing Behavior of Vehicles in Signalized Intersection (Focused on Vehicles Driven by Offensive Drivers))

  • 황경수;황준환;김점산;이성모
    • 대한교통학회지
    • /
    • 제22권2호
    • /
    • pp.103-108
    • /
    • 2004
  • 본 연구는 신호교차로의 정지선 통과차량의 차두시간 결정은 단순히 출발순서에 영향을 받아 결정되지만은 않는다는 문제의식에서 출발하였다. 실제 신호교차로의 개별차량 통과시 속도와 차두시간 자료를 검지기와 검지알고리즘을 활용 파악하고 분석에 활용하였다. 단순 자료분석에서는 차량의 통행행태를 결정하는 모형을 정립하는 것이 무의미한 것으로 파악될 수 있는 통계분석 결과가 나타났다. 그러나, 공격적인 운전행태를 가진 운전자가 운전하는 차량의 자료를 선별하고 자료 스케일 조정(ln값 활용)을 통해 결정계수 0.91수준의 모형이 설정되었다. 구축된 모형은 교차로 정지선에서 통과하는 차량의 차두시간은 앞차의 속도, 차두시간과 자체차량의 속도에 영향을 받는 사실을 밝혀주었다.

맵리듀스를 이용한 통계적 접근의 감성 분류 (Statistical Approach to Sentiment Classification using MapReduce)

  • 강문수;백승희;최영식
    • 감성과학
    • /
    • 제15권4호
    • /
    • pp.425-440
    • /
    • 2012
  • 인터넷의 규모가 커지면서 주관적인 데이터가 증가하였다. 이에 주관적인 데이터를 자동으로 분류할 필요가 생겼다. 감성 분류는 데이터를 여러 감성 종류에 따라 나누는 것을 말한다. 감성 분류 연구는 크게 자연어 처리와 감성어 사전 구축을 중심으로 이루어져 왔다. 이전의 감성 분류 연구는 자연어 처리 과정에서 형태소 분석이 제대로 이루어지지 않는 문제와 감성어 사전구축 시 등록할 단어를 선별하고 단어의 감성 정도를 정하는 데에 명확한 기준을 정하기 힘든 문제가 있다. 이러한 어려움을 해결하기 위하여 감성 분류에 대용량 데이터와 통계적 접근의 조합을 제안한다. 본 논문에서 제안하는 방법은 단어의 의미를 찾는 대신 수많은 데이터에서 등장하는 표현들의 통계치를 이용하여 감성 판단을 하는 것이다. 이러한 접근은 자연어 처리 알고리즘에 의존하던 이전 연구와 달리 데이터에 집중한다. 대용량 데이터 처리를 위해 하둡과 맵리듀스를 이용한다.

  • PDF

Wavelet을 이용한 내용기반 검색에 관한 연구 (A Study on Contents-based Retrieval using Wavelet)

  • 강진석;박재필;나인호;최연성;김장형
    • 한국정보통신학회논문지
    • /
    • 제4권5호
    • /
    • pp.1051-1066
    • /
    • 2000
  • 디지털 압축기술의 발달과 컴퓨팅 능력이 발전함에 따라서 많은 양의 이미지, 그래픽, 오디오, 비디오 정보가 인터넷을 통한 멀티미디어 시스템에서 활발히 이용되고 있다. 이에 따라 사용자가 원하는 멀티미디어 컨텐츠를 탐색하기 위한 다양한 검색기법이 요구되고 있으며, 특히 단순한 텍스트형 키워드에 의한 검색보다는 내용에 의한 검색 기법이 절실히 요구되고 있다. 본 논문에서는 여러 가지 전처리 과정을 통해 영상을 분류하고, 여기에 색상의 공간적, 질감적 특징을 선별적으로 적용함으로서 처리 효율을 높이면서 검색 성능을 증가시킬 수 있는 내용기반 색인 및 검색 알고리즘을 제안하였다. 또한, 특정 상표에 대한 내용기반 데이터 검색요청 및 수행 결과 분석을 통해 제안된 기법의 성능을 평가하였고, 그 결과를 기술하였다.

  • PDF