• 제목/요약/키워드: 메모리(memory)

검색결과 3,881건 처리시간 0.037초

계층적 군집화 기반 Re-ID를 활용한 객체별 행동 및 표정 검출용 영상 분석 시스템 (Video Analysis System for Action and Emotion Detection by Object with Hierarchical Clustering based Re-ID)

  • 이상현;양성훈;오승진;강진범
    • 지능정보연구
    • /
    • 제28권1호
    • /
    • pp.89-106
    • /
    • 2022
  • 최근 영상 데이터의 급증으로 이를 효과적으로 처리하기 위해 객체 탐지 및 추적, 행동 인식, 표정 인식, 재식별(Re-ID)과 같은 다양한 컴퓨터비전 기술에 대한 수요도 급증했다. 그러나 객체 탐지 및 추적 기술은 객체의 영상 촬영 장소 이탈과 재등장, 오클루전(Occlusion) 등과 같이 성능을 저하시키는 많은 어려움을 안고 있다. 이에 따라 객체 탐지 및 추적 모델을 근간으로 하는 행동 및 표정 인식 모델 또한 객체별 데이터 추출에 난항을 겪는다. 또한 다양한 모델을 활용한 딥러닝 아키텍처는 병목과 최적화 부족으로 성능 저하를 겪는다. 본 연구에서는 YOLOv5기반 DeepSORT 객체추적 모델, SlowFast 기반 행동 인식 모델, Torchreid 기반 재식별 모델, 그리고 AWS Rekognition의 표정 인식 모델을 활용한 영상 분석 시스템에 단일 연결 계층적 군집화(Single-linkage Hierarchical Clustering)를 활용한 재식별(Re-ID) 기법과 GPU의 메모리 스루풋(Throughput)을 극대화하는 처리 기법을 적용한 행동 및 표정 검출용 영상 분석 시스템을 제안한다. 본 연구에서 제안한 시스템은 간단한 메트릭을 사용하는 재식별 모델의 성능보다 높은 정확도와 실시간에 가까운 처리 성능을 가지며, 객체의 영상 촬영 장소 이탈과 재등장, 오클루전 등에 의한 추적 실패를 방지하고 영상 내 객체별 행동 및 표정 인식 결과를 동일 객체에 지속적으로 연동하여 영상을 효율적으로 분석할 수 있다.

실시간 감시를 위한 학습기반 수행 예측모델의 검증 (Verifying Execution Prediction Model based on Learning Algorithm for Real-time Monitoring)

  • 정윤석;김태완;장천현
    • 정보처리학회논문지A
    • /
    • 제11A권4호
    • /
    • pp.243-250
    • /
    • 2004
  • 실시간 시스템은 시스템이 적시성을 보장하는지 파악하기 위해 실시간 감시기법을 이용한다. 일반적으로 실시간 감시는 실시간 시스템의 현재 동작상태를 파악하는데 중점을 두는 기법이다. 그러나 실시간 시스템의 안정적인 수행을 지원하기 위해서는, 현재 상태를 파악하는 것뿐 아니라, 실시간 시스템 및 시스템상에서 동작하는 실시간 프로세스들의 수행도 예측할 수 있어야 한다. 그러나 기존 예측모델을 실시간 감시기법에 적용하기에는 몇 가지 한계가 있다. 첫째, 예측기능은 실시간 프로세스가 종료한 시점에서 정적인 분석을 통해 수행된다. 둘째, 예측을 위해 사전 기초 통계분석이 필요하다. 셋째, 예측을 위한 이전확률 및 클러스터 정보가 현재 시점을 정확하게 반영하지 못한다. 본 논문에서는 이러한 문제점들을 해결하고 실시간 감시기법에 적용할 수 있는 학습 기반의 수행 예측모델을 제안한다. 이 모델은 학습기법을 통해 불필요한 전처리과정을 없애고, 현시점의 데이터를 이용해, 보다 정확한 실시간 프로세스의 수행 예측이 가능하도록 한다. 또한 이 모델은 실시간 프로세스 수행 시간의 증가율 분석을 통해 다단계 예측을 지원하며, 무엇보다 실시간 프로세스가 실행되는 동안 예측이 가능한 동적 예측을 지원하도록 설계하였다. 실험 결과를 통해 훈련집합의 크기가 10 이상이면 80% 이상의 판단 정확도를 보이며, 다단계 예측의 경우, 훈련집합의 크기 이상의 수행 횟수를 넘으면 다단계 예측의 예측 차는 최소화되는 것으로 나타났다. 본 논문에서 제안한 예측모델은 가장 단순한 학습 알고리즘을 적용했다는 점과, CPU, 메모리, 입출력 데이터를 다루는 다차원 자원공간 모델을 고려하지 못한 한계가 있어 향후에 관련 연구가 요구된다. 본 논문에서 제안하는 학습기반 수행 예측모델은 실시간 감시 및 제어를 필요로 하는 분야 및 응용 분야에 적용할 수 있다.

유전 알고리즘을 이용한 국소가중회귀의 다중모델 결합을 위한 점진적 앙상블 학습 (Incremental Ensemble Learning for The Combination of Multiple Models of Locally Weighted Regression Using Genetic Algorithm)

  • 김상훈;정병희;이건호
    • 정보처리학회논문지:소프트웨어 및 데이터공학
    • /
    • 제7권9호
    • /
    • pp.351-360
    • /
    • 2018
  • 전통적으로 나태한 학습에 해당하는 국소가중회귀(LWR: Locally Weighted Regression)모델은 입력변수인 질의지점에 따라 예측의 해를 얻기 위해 일정구간 범위내의 학습 데이터를 대상으로 질의지점의 거리에 따라 가중값을 달리 부여하여 학습 한 결과로 얻은 짧은 구간내의 회귀식이다. 본 연구는 메모리 기반학습의 형태에 해당하는 LWR을 위한 점진적 앙상블 학습과정을 제안한다. LWR를 위한 본 연구의 점진적 앙상블 학습법은 유전알고리즘을 이용하여 시간에 따라 LWR모델들을 순차적으로 생성하고 통합하는 것이다. 기존의 LWR 한계는 인디케이터 함수와 학습 데이터의 선택에 따라 다중의 LWR모델이 생성될 수 있으며 이 모델에 따라 예측 해의 질도 달라질 수 있다. 하지만 다중의 LWR 모델의 선택이나 결합의 문제 해결을 위한 연구가 수행되지 않았다. 본 연구에서는 인디케이터 함수와 학습 데이터에 따라 초기 LWR 모델을 생성한 후 진화 학습 과정을 반복하여 적절한 인디케이터 함수를 선택하며 또한 다른 학습 데이터에 적용한 LWR 모델의 평가와 개선을 통하여 학습 데이터로 인한 편향을 극복하고자 한다. 모든 구간에 대해 데이터가 발생 되면 점진적으로 LWR모델을 생성하여 보관하는 열심학습(Eager learning)방식을 취하고 있다. 특정 시점에 예측의 해를 얻기 위해 일정구간 내에 신규로 발생된 데이터들을 기반으로 LWR모델을 생성한 후 유전자 알고리즘을 이용하여 구간 내의 기존 LWR모델들과 결합하는 방식이다. 제안하는 학습방법은 기존 단순평균법을 이용한 다중 LWR모델들의 선택방법 보다 적합도 평가에서 우수한 결과를 보여주고 있다. 특정지역의 시간 별 교통량, 고속도로 휴게소의 시간별 매출액 등의 실제 데이터를 적용하여 본 연구의 LWR에 의한 결과들의 연결된 패턴과 다중회귀분석을 이용한 예측결과를 비교하고 있다.

타이밍 구동 FPGA 분석적 배치 (Timing Driven Analytic Placement for FPGAs)

  • 김교선
    • 전자공학회논문지
    • /
    • 제54권7호
    • /
    • pp.21-28
    • /
    • 2017
  • FPGA 배치 툴 연구는 학계에서도 단순한 가상 아키텍처 모델 가정에서 벗어나 상용 툴처럼 캐리체인이나 광폭함수 멀티플렉서, 메모리/승산기 블록 등의 성능 및 밀도를 향상시키는 소자들을 포함하는 현실적인 모델을 적용하기 시작하였다. 이 때 발생하는 실제적 이슈들을 다룬 사전 패킹, 다층 밀도 분석 등의 기법이 초기 분석적 배치 (Analytic Placement)에 적용되어 밀도를 분산시키면서 배선 길이를 효과적으로 최소화한 연구가 앞서 발표된 바 있다. 더 나아가 궁극적으로는 타이밍을 최적화해야하기 때문에 많은 연구에서는 타이밍 제약 조건을 만족시키기 위한 기법들이 제시되고 있다. 그러나 초기 배치 후 진행되는 배치 적법화 및 배치 개선에서 주로 적용될 뿐 분석적 배치에서 이러한 타이밍 기법을 적용한 사례는 거의 없다. 본 논문에서는 사전 패킹 및 다층 밀도 분석 등의 기법이 구현된 기존 분석적 배치에 타이밍 제약 조건 위반을 검출하고 이를 최소화하는 기법을 결합하는 방안을 소개한다. 먼저 정적 타이밍 검증기를 집적하여 배선 길이가 최소화된 기존 배치 결과의 타이밍을 검사해 보았으며 위반을 감소시키기 위해 신호 도착 시간 (Arrival Time)을 최소화하는 함수를 분석적 배치의 목적 함수에 추가하였다. 이 때 각 클록마다 주기가 다를 수 있기 때문에 각 클록별로 함수를 따로 계산해 합산하는 방안이 제안되었다. 또한, 위반이 없는 클록 도메인의 신호 경로들도 불필요하게 단축될 수 있기 때문에 음수 슬랙 (Negative Slack)을 계산하여 이를 최소화하는 함수를 추가로 제안하여 비교하였다. 영역 분할 기법 (Partitioning)을 기반으로 배선 길이를 최소화하는 기존 배치 적법화를 그대로 사용한 후 타이밍 검증을 통해 초기 분석적 배치 단계에서 타이밍 개선 효과를 분석하였다. 배치 적법화 시 추가적인 타이밍 최적화 기법이 사용되지 않았기 때문에 타이밍 개선이 있다면 이것은 전적으로 분석적 배치의 목적 함수개선에 의한 효과이다. 12개 실용예제에 대해 실험한 결과, 목적 함수에 도착 시간 함수가 적용되었을 때 그렇지 않았을 때보다 최악 음수 슬랙 (Worst Negative Slack)이 평균 약 15% 정도 감소되었으며 음수 슬랙 함수가 적용되었을 때 이보다 약 6%정도 추가로 더 감소됨을 확인하였다.

효율이 특화된 전력 증폭기와 개선된 바이어스 모듈레이터로 구성되는 진보된 WCDMA용 하이브리드 포락선 제거 및 복원 전력 송신기 (Advanced Hybrid EER Transmitter for WCDMA Application Using Efficiency Optimized Power Amplifier and Modified Bias Modulator)

  • 김일두;우영윤;홍성철;김장헌;문정환;전명수;김정준;김범만
    • 한국전자파학회논문지
    • /
    • 제18권8호
    • /
    • pp.880-886
    • /
    • 2007
  • 본 논문에서는 효율 특성에서 특화된 전력 증폭기(PA)와 개선된 바이어스 모듈레이터를 이용하여 새로운 하이브리드 포락선 제거 및 복원(EER) 전력 송신기를 제안하였다. 전력 증폭기는 모듈레이션 신호의 평균 전력영역에서 대부분 동작하기 때문에 평균 드레인 바이어스 전압에서 전력 증폭기의 효율은 전체 전력 송신기의 효율 특성에 매우 중요한 영향을 미친다. 따라서 전력 증폭기의 효율을 평균 드레인 바이어스 전압 영역에서 최적화하였다. 또한, 바이어스 모듈레이터는 메모리 영향을 최소화하기 위하여 에미터 팔로워(Emitter Follower)와 결합되도록 하였다. 포화 전력 증폭기인 역 Class F급 전력 증폭기가 1 GHz 대역 포워드 링크 싱글 캐리어를 가지는 WCDMA 신호에 대해서 최고 전력이 5W인 LDMOSFET을 이용하여 설계되었다. 실험 결과, 바이어스 모듈레이터는 31.8V의 최고 전력 크기를 가지면서 64.16%의 효율을 유지하였다. 제안된 전력 증폭기와 바이어스 모듈레이터를 결합한 전력 송신기는 기존 방식으로 설계된 전력 증폭기와 결합하였을 경우보다 8.11%나 개선된 44.19%의 전체 효율 특성을 보였다. 게다가, F급 동작을 보이면서 전체 출력 전력은 기존 방식의 전력 증폭기를 결합할 경우보다 2.9dB 개선된 32.33 dBm으로 개선되었고, PAE와 5MHz 옵셋에서의 ACLR은 각각 38,28%, -35.9 dBc를 기록하였다. 이와 같은 결과들은 고선형성과 함께 고효율 특성을 가지는 전력 송신기에 매우 적합한 구조가 될 수 있다는 것을 명확히 보여주고 있다.

이동 객체 경로 탐색을 위한 시공간 클러스터링 기법 (A Spatio-Temporal Clustering Technique for the Moving Object Path Search)

  • 이기영;강홍구;윤재관;한기준
    • 한국공간정보시스템학회 논문지
    • /
    • 제7권3호
    • /
    • pp.67-81
    • /
    • 2005
  • 최근 들어 지리 정보 시스템이 발전함에 따라 경로 검색, 주변 정보 검색, 응급 서비스 등을 제공하는 위치 기반 서비스, 텔레매틱스 등의 새로운 응용 서비스 개발에 대한 관심과 연구가 증대되고 있다. 위치 기반 서비스 및 텔레매틱스에서 사용되는 시공간 데이타베이스에서의 사용자의 검색은 시간 축을 현재의 시간으로 고정하고 공간 및 비공간 속성을 검색하기 때문에 시간 축에 대한 검색 범위가 넓을 경우에는 이를 효율적으로 처리하기 어렵다. 이를 해결하기 위하여 이동 객체의 위치 데이타를 요약하는 기법인 스냅샷이 소개되었다. 그러나, 이러한 스냅샷 기법은 저장해야 되는 총간 영역이 넓을 경우 저장 공간이 많이 필요하며 검색에 자주 사용되지 않는 불필요한 영역까지 스냅샷을 생성하므로 저장 공간 및 메모리를 많이 사용하게 된다. 이에 본 논문에서는 기존의 스냅샷 기법의 단점을 극복하기 위하여 이전에 공간 클러스터링을 위해 사용되던 2차원의 공간 해시 알고리즘을 시공간으로 확장한 해시-기반 시공간 클러스터링 알고리즘(H-STCA)과 과거 위치 데이타로부터 이동 객체 경로 탐색을 위한 지식을 추출하기 위해 H-STCA 알고리즘에 근거한 지식 추출 알고리즘을 제안한다. 그리고, 대용량의 이동 객체 데이터에 대한 검색 시간, 저장 구조 생성 시간, 최적 경로 탐색 시간 등에서 H-STCA를 사용한 스냅샷 클러스터링 방법, 기존의 시공간 인덱스 방법, 스냅샷 방법과의 성능평가에 대하여 설명한다. 성능평가 결과로 H-STCA를 사용한 스냅샷 클러스터링 방법은 기존의 시공간 인덱스 방법이나 스냅샷 방법 보다 이동 객체의 개수가 증가하면 할수록 성능 향상이 더욱 큰 것으로 나타났다.

  • PDF

딥러닝 기법을 이용한 제주도 중제주수역 지하수위 예측 모델개발 (Development of Deep-Learning-Based Models for Predicting Groundwater Levels in the Middle-Jeju Watershed, Jeju Island)

  • 박재성;정지호;정진아;김기홍;신재현;이동엽;정새봄
    • 지질공학
    • /
    • 제32권4호
    • /
    • pp.697-723
    • /
    • 2022
  • 본연구에서는 제주도의 중제주 수역 내에 위치하는 총 12개 지하수 관정에서 미래 30일 기간의 지하수위를 예측할 수 있는 모델을 개발하였다. 예측 모델개발을 위해 시계열 예측에 적합한 딥러닝 기법의 하나인 누적 장단기 메모리(stacked-LSTM) 기법을 이용하였으며, 2001년에서 2022년 동안 관측된 일 단위 강수량, 지하수 이용량 및 지하수위 자료가 예측 모델개발에 활용되었다. 특히, 본 연구에서는 입력자료의 종류 및 과거 자료의 순차 길이에 따라 다양한 모델을 구축하고 성능을 비교함으로써 딥러닝 기반 예측 모델개발에서 고려하여야 할 사항에 대한 검토와 절차를 제시하였다. 예측 모델개발 결과, 강수량, 지하수 이용량 및 과거 지하수위를 모두 입력자료로 활용하는 모델의 예측성능이 가장 뛰어난 것으로 확인되었으며, 입력으로 활용되는 과거 자료의 순차가 길수록 예측의 성능이 향상됨을 확인하였다. 이는 제주도의 깊은 지하수위 심도로 인하여 강수와 지하수 함양 간 지연시간이 길기 때문으로 판단된다. 이뿐만 아니라, 지하수 이용량 자료의 경우, 모든 이용량 자료를 활용하는 것보다 예측하고자 하는 지점의 지하수위에 민감한 영향을 주는 관정을 선별하여 입력자료로 이용하는 것이 예측 모델의 성능 개선에 긍정적 영향을 주는 것을 확인하였다. 본 연구에서 개발된 지하수위 예측 모델은 현재의 강수량 및 지하수 이용량을 기반으로 미래의 지하수위를 예측할 수 있어 미래의 지하수량에 대한 건전성 정보를 제공함에 따라 적정 지하수량 유지를 위한 다양한 관리방안 마련에 도움이 될 것으로 판단된다.

1시간 호우피해 규모 예측을 위한 AI 기반의 1ST-모형 개발 (Development of 1ST-Model for 1 hour-heavy rain damage scale prediction based on AI models)

  • 이준학;이하늘;강나래;황석환;김형수;김수전
    • 한국수자원학회논문집
    • /
    • 제56권5호
    • /
    • pp.311-323
    • /
    • 2023
  • 집중호우, 홍수 및 도시침수와 같은 재해를 저감시키기 위하여 자연 재난으로 인한 재해의 발생 여부를 사전에 파악하는 것은 중요하다. 현재 국내는 기상청에서 운영하고 있는 호우주의보 및 호우경보를 발령하고 있지만, 이는 전국에 일괄적인 기준으로 적용하고 있어 사전에 호우로 인한 피해를 명확하게 인지하지 못하고 있는 실정이다. 따라서, 일괄된 기준을 지역적 특성을 반영한 호우특보 기준으로 재설정하고 1시간 후에 강우로 발생할 수 있는 피해의 규모를 예측하고자 하였다. 연구 대상 지역으로는 호우피해가 가장 빈번하게 발생하였던 경기도 지역으로 선정하였고, 강우량 및 호우 피해액 자료를 활용하여 지역적 특성을 고려한 시간단위 재해 유발 강우를 설정하였다. 강우에 의한 호우피해 발생 여부를 예측하는 모형을 개발하기 위해 재해 유발 강우 및 강우 자료를 활용하였으며, 머신러닝 기법인 의사 결정 나무 모형과 랜덤 포레스트 모형을 활용하여 분석 및 비교하였다. 또한 1시간 후의 강우를 예측하기 위한 모형으로는 장단기 메모리, 심층 신경망 모형을 활용하여 분석 및 비교하였다. 최종적으로 예측 모형을 통해 예측된 강우를 훈련된 분류 모형에 적용하여 1시간 후 호우에 의한 규모별 피해 발생 여부를 예측하였고, 이를 1ST-모형이라고 정의하였다. 본 연구를 통해 개발된 1ST-모형을 활용하여 예방 및 대비 차원의 재난관리를 실시한다면 호우로 인한 피해를 저감하는데 기여 할 수 있을 것으로 판단된다.

XGBoost를 활용한 리스크패리티 자산배분 모형에 관한 연구 (A Study on Risk Parity Asset Allocation Model with XGBoos)

  • 김영훈;최흥식;김선웅
    • 지능정보연구
    • /
    • 제26권1호
    • /
    • pp.135-149
    • /
    • 2020
  • 인공지능을 기반으로 한 다양한 연구들이 현대사회에 많은 변화를 불러일으키고 있다. 금융시장 역시 예외는 아니다. 로보어드바이저 개발이 활발하게 진행되고 있으며 전통적 방식의 단점을 보완하고 사람이 분석하기 어려운 부분을 대체하고 있다. 로보어드바이저는 인공지능 알고리즘으로 자동화된 투자 결정을 내려 다양한 자산배분 모형과 함께 활용되고 있다. 자산배분 모형 중 리스크패리티는 대표적인 위험 기반 자산배분 모형의 하나로 큰 자산을 운용하는 데 있어 안정성을 나타내고 현업에서 역시 널리 쓰이고 있다. 그리고 XGBoost 모형은 병렬화된 트리 부스팅 기법으로 제한된 메모리 환경에서도 수십억 가지의 예제로 확장이 가능할 뿐만 아니라 기존의 부스팅에 비해 학습속도가 매우 빨라 많은 분야에서 널리 활용되고 있다. 이에 본 연구에서 리스크패리티와 XGBoost를 장점을 결합한 모형을 제안하고자 한다. 기존에 널리 사용되는 최적화 자산배분 모형은 과거 데이터를 기반으로 투자 비중을 추정하기 때문에 과거와 실투자 기간 사이의 추정 오차가 발생하게 된다. 최적화 자산배분 모형은 추정 오차로 인해 포트폴리오 성과에서 악영향을 받게 된다. 본 연구는 XGBoost를 통해 실투자 기간의 변동성을 예측하여 최적화 자산배분 모형의 추정 오차를 줄여 모형의 안정성과 포트폴리오 성과를 개선하고자 한다. 본 연구에서 제시한 모형의 실증 검증을 위해 한국 주식시장의 10개 업종 지수 데이터를 활용하여 2003년부터 2019년까지 총 17년간 주가 자료를 활용하였으며 in-sample 1,000개, out-of-sample 20개씩 Moving-window 방식으로 예측 결과값을 누적하여 총 154회의 리밸런싱이 이루어진 백테스팅 결과를 도출하였다. 본 연구에서 제안한 자산배분 모형은 기계학습을 사용하지 않은 기존의 리스크패리티와 비교하였을 때 누적수익률 및 추정 오차에서 모두 개선된 성과를 보여주었다. 총 누적수익률은 45.748%로 리스크패리티 대비 약 5% 높은 결과를 보였고 추정오차 역시 10개 업종 중 9개에서 감소한 결과를 보였다. 실험 결과를 통해 최적화 자산배분 모형의 추정 오차를 감소시킴으로써 포트폴리오 성과를 개선하였다. 포트폴리오의 추정 오차를 줄이기 위해 모수 추정 방법에 관한 다양한 연구 사례들이 존재한다. 본 연구는 추정 오차를 줄이기 위한 새로운 추정방법으로 기계학습을 제시하여 최근 빠른 속도로 발전하는 금융시장에 맞는 진보된 인공지능형 자산배분 모형을 제시한 점에서 의의가 있다.

트랜잭션 가중치 기반의 빈발 아이템셋 마이닝 기법의 성능분석 (Performance analysis of Frequent Itemset Mining Technique based on Transaction Weight Constraints)

  • 윤은일;편광범
    • 인터넷정보학회논문지
    • /
    • 제16권1호
    • /
    • pp.67-74
    • /
    • 2015
  • 최근, 아이템들의 가치를 고려한 빈발 아이템셋 마이닝 방법은 데이터 마이닝 분야에서 가장 중요한 이슈 중 하나로 활발히 연구되어왔다. 아이템들의 가치를 고려한 마이닝 기법들은 적용 방법에 따라 크게 가중화 빈발 아이템셋 마이닝, 트랜잭션 가중치 기반의 빈발 아이템셋 마이닝, 유틸리티 아이템셋 마이닝으로 구분된다. 본 논문에서는 트랜잭션 가중치 기반의 빈발 아이템셋 마이닝들에 대해 실증적인 분석을 수행한다. 일반적으로 트랜잭션 가중치 기반의 빈발 아이템셋 마이닝 기법들은 데이터베이스 내 아이템들의 가치를 고려함으로써 트랜잭션 가중치를 계산한다. 또한, 그 기법들은 계산된 각 트랜잭션의 가중치를 바탕으로 가중화 빈발 아이템셋들을 마이닝 한다. 트랜잭션 가중치는 트랜잭션 내에 높은 가치의 아이템이 많이 포함 될수록 높은 값으로 나타나기 때문에 우리는 각 트랜잭션의 가중치의 분석을 통해 그 가치를 파악할 수 있다. 우리는 트랜잭션 가중치 기반의 빈발 아이템셋 마이닝 기법 중에서 가장 유명한 알고리즘인 WIS와 WIT-FWIs, IT-FWIs-MODIFY, WIT-FWIs-DIFF의 장 단점을 분석하고 각각의 성능을 비교한다. WIS는 트랜잭션 가중치 기반의 빈발 아이템셋 마이닝의 개념과 그 기법이 처음 제안된 알고리즘이며, 전통적인 빈발 아이템셋 마이닝 기법인 Apriori를 기반으로 하고 있다. 또 다른 트랜잭션 가중치 기반의 빈발 아이템셋 마이닝 방법인 WIT-FWIs와 WIT-FWIs-MODIFY, WIT-FWIs-DIFF는 가중화된 빈발 아이템셋 마이닝을 더 효율적으로 수행하기 위해 격자구조(Lattice) 형태의 특별한 저장구조인 WIT-tree를 이용한다. WIT-tree의 각 노드에는 아이템셋 정보와 아이템셋이 포함된 트랜잭션의 ID들이 저장되며, 이 구조를 사용함으로써 아이템셋 마이닝 과정에서 발생되는 다수의 데이터베이스 스캔 과정이 감소된다. 특히, 전통적인 알고리즘들이 수많은 데이터베이스 스캔을 수행하는 반면에, 이 알고리즘들은 WIT-tree를 이용해 데이터베이스를 오직 한번만 읽음으로써 마이닝과정에서 발생 가능한 오버헤드 문제를 해결한다. 또한, 공통적으로 길이 N의 두 아이템셋을 이용해 길이 N+1의 새로운 아이템셋을 생성한다. 먼저, WIT-FWIs는 각 아이템셋이 동시에 발생되는 트랜잭션들의 정보를 활용하는 것이 특징이다. WIT-FWIs-MODIFY는 조합되는 아이템셋의 정보를 이용해 빈도수 계산에 필요한 연산을 줄인 알고리즘이다. WIT-FWIs-DIFF는 두 아이템셋 중 하나만 발생한 트랜잭션의 정보를 이용한다. 우리는 다양한 실험환경에서 각 알고리즘의 성능을 비교분석하기 위해 각 트랜잭션의 형태가 유사한 dense 데이터와 각 트랜잭션의 구성이 서로 다른 sparse 데이터를 이용해 마이닝 시간과 최대 메모리 사용량을 평가한다. 또한, 각 알고리즘의 안정성을 평가하기 위한 확장성 테스트를 수행한다. 결과적으로, dense 데이터에서는 WIT-FWIs와 WIT-FWIs-MODIFY가 다른 알고리즘들보다 좋은 성능을 보이고 sparse 데이터에서는 WIT-FWI-DIFF가 가장 좋은 효율성을 갖는다. WIS는 더 많은 연산을 수행하는 알고리즘을 기반으로 했기 때문에 평균적으로 가장 낮은 성능을 보인다.