• 제목/요약/키워드: 빈발 패턴 검출

검색결과 3건 처리시간 0.026초

그래프 스트림에서 점진적 빈발 패턴 검출 (Incremental Frequent Pattern Detection in Graph Streams)

  • 정재윤;최도진;복경수;유재수
    • 한국콘텐츠학회:학술대회논문집
    • /
    • 한국콘텐츠학회 2017년도 춘계 종합학술대회 논문집
    • /
    • pp.39-40
    • /
    • 2017
  • 그래프 스트림 데이터에 대한 활용이 증가됨에 따라 빈발 패턴을 검출하는 연구가 활발하게 진행되고 있다. 본 논문에서는 슬라이딩 윈도우 내에 변경된 부분만을 계산하는 점진적인 빈발 패턴 검출 기법을 제안한다. 제안하는 기법은 윈도우에서 변경되는 부분만 계산함으로써 중복된 계산을 감소시킨다. 또한, 간선 관리 테이블을 이용해 관련이 없는 패턴들을 제거함으로써 의미 있는 빈발 패턴만을 검출한다.

  • PDF

그래프 스트림에서 슬라이딩 윈도우 기반의 점진적 빈발 패턴 검출 기법 (Incremental Frequent Pattern Detection Scheme Based on Sliding Windows in Graph Streams)

  • 정재윤;서인덕;송희섭;박재열;김민영;최도진;복경수;유재수
    • 한국콘텐츠학회논문지
    • /
    • 제18권2호
    • /
    • pp.147-157
    • /
    • 2018
  • 최근 네트워크 기술 발전과 함께 IoT 및 소셜 네트워크 서비스의 활성화로 인해 많은 그래프 스트림 데이터가 생성되고 있다. 이와 같은 그래프 스트림에서 객체들 사이의 관계가 동적으로 변화함에 따라 그래프의 변화를 탐지하거나 분석하기 위한 연구들이 진행되고 있다. 본 논문에서는 그래프 스트림에서 이전 슬라이딩 윈도우에서 검출한 빈발 패턴에 대한 정보를 이용해 빈발 패턴을 점진적으로 검출하는 기법을 제안한다. 제안하는 기법은 이전 슬라이딩 윈도우에서 검출된 패턴이 앞으로 몇 슬라이딩 윈도우동안 빈발할지 또는 빈발하지 않을지를 계산하여 빈발 패턴 관리 테이블에 저장한다. 그리고 이 값을 통해 다음 슬라이딩 윈도우에서는 필요한 계산만 수행함으로써 전체 연산량을 감소시킨다. 또한 패턴 간에 간선을 통해 연결되어있는 것만 하나의 패턴으로 인식함으로써 더 유의미한 패턴만을 검출한다. 본 논문에서는 제안하는 기법의 우수함을 보이기 위해 여러 성능 평가를 진행하였다. 그래프 데이터의 크기가 커지고 슬라이딩 윈도우의 크기가 커질수록 중복되는 데이터가 증가되기 때문에 기존 기법보다 빠른 처리 속도를 나타낸다.

서브 그래프의 사용 패턴을 고려한 다중 계층 캐싱 기법 (Multi-layer Caching Scheme Considering Sub-graph Usage Patterns)

  • 유승훈;정재윤;최도진;박재열;임종태;복경수;유재수
    • 한국콘텐츠학회논문지
    • /
    • 제18권3호
    • /
    • pp.70-80
    • /
    • 2018
  • 최근 소셜 미디어와 모바일 장비들의 발달로 인해 그래프 데이터들이 다양한 분야에서 활용되고 있다. 이와 함께 대용량 그래프 데이터 처리 과정에서 입출력 비용을 감소시키기 위한 캐싱 기법에 대한 연구들이 진행되고 있다. 본 논문에서는 그래프 토폴로지의 특징인 그래프의 연결성과 과거의 서브 그래프 사용 이력을 고려하여 다중 계층 캐싱 기법을 제안한다. 제안하는 기법은 캐시를 Used Data Cache와 Prefetched Cache로 구분한다. Used Data Cache는 자주 사용되는 서브 그래프 패턴에 따라 가중치를 부여하여 데이터를 캐싱하고 Prefetched Cache는 사용되지는 않았지만 최근 사용된 데이터의 주변 데이터들이 사용될 가능성이 높은 데이터를 캐싱한다. 그래프 패턴을 추출하기 위해 과거의 이력 정보를 활용하여 패턴을 추출하였다. 자주 사용되는 서브 그래프들이 다시 사용될 것을 예측하여 가중치를 부여하여 캐싱한다. 최근 사용된 데이터의 주변 데이터들이 사용 될 것을 예측하여 캐싱한다. 각각의 캐시에 캐싱된 데이터들을 관리하고 메모리가 가득 찰 경우 사용될 가능성이 낮은 데이터와 새로운 데이터를 교체하는 전략을 제안한다. 성능 평가를 통해 제안하는 캐싱 기법이 기존의 캐시 관리 기법에 비해 우수함을 증명한다.