• 제목/요약/키워드: 가진 시스템

검색결과 3,427건 처리시간 0.029초

감정예측모형의 성과개선을 위한 Support Vector Regression 응용 (Application of Support Vector Regression for Improving the Performance of the Emotion Prediction Model)

  • 김성진;유은정;정민규;김재경;안현철
    • 지능정보연구
    • /
    • 제18권3호
    • /
    • pp.185-202
    • /
    • 2012
  • 오늘날 정보사회에서는 정보에 대한 가치를 인식하고, 이를 위한 정보의 활용과 수집이 중요해지고 있다. 얼굴 표정은 그림 하나가 수천개의 단어를 표현할 수 있듯이 수천 개의 정보를 지니고 있다. 이에 주목하여 최근 얼굴 표정을 통해 사람의 감정을 판단하여 지능형 서비스를 제공하기 위한 시도가 MIT Media Lab을 필두로 활발하게 이루어지고 있다. 전통적으로 기존 연구에서는 인공신경망, 중회귀분석 등의 기법을 통해 사람의 감정을 판단하는 연구가 이루어져 왔다. 하지만 중회귀모형은 예측 정확도가 떨어지고, 인공신경망은 성능은 뛰어나지만 기법 자체가 지닌 과적합화 문제로 인해 한계를 지닌다. 본 연구는 사람들의 자극에 대한 반응으로서 나타나는 얼굴 표정을 통해 감정을 추론해내는 지능형 모형을 개발하는 것을 목표로 한다. 기존 얼굴 표정을 통한 지능형 감정판단모형을 개선하기 위하여, Support Vector Regression(이하 SVR) 기법을 적용하는 새로운 모형을 제시한다. SVR은 기존 Support Vector Machine이 가진 뛰어난 예측 능력을 바탕으로, 회귀문제 영역을 해결하기 위해 확장된 것이다. 본 연구의 제안 모형의 목적은 사람의 얼굴 표정으로부터 쾌/불쾌 수준 그리고 몰입도를 판단할 수 있도록 설계되는 것이다. 모형 구축을 위해 사람들에게 적절한 자극영상을 제공했을 때 나타나는 얼굴 반응들을 수집했고, 이를 기반으로 얼굴 특징점을 도출 및 보정하였다. 이후 전처리 과정을 통해 통계적 유의변수를 추출 후 학습용과 검증용 데이터로 구분하여 SVR 모형을 통해 학습시키고, 평가되도록 하였다. 다수의 일반인들을 대상으로 수집된 실제 데이터셋을 기반으로 제안모형을 적용해 본 결과, 매우 우수한 예측 정확도를 보임을 확인할 수 있었다. 아울러, 중회귀분석이나 인공신경망 기법과 비교했을 때에도 본 연구에서 제안한 SVR 모형이 쾌/불쾌 수준 및 몰입도 모두에서 더 우수한 예측성과를 보임을 확인할 수 있었다. 이는 얼굴 표정에 기반한 감정판단모형으로서 SVR이 상당히 효과적인 수단이 될 수 있다는 점을 알 수 있었다.

SLA 표면 처리 및 외측 연결형의 국산 임플랜트에 대한 임상적, 방사선학적 평가 (Clinical and radiographic evaluation of $Neoplan^{(R)}$ implant with a sandblasted and acid-etched surface and external connection)

  • 안희석;문홍석;심준성;조규성;이근우
    • 대한치과보철학회지
    • /
    • 제46권2호
    • /
    • pp.125-136
    • /
    • 2008
  • 골유착 개념에 기반한 치과용 임플랜트가 $Br{\aa}nemark$ 등에 의해 도입된 이후로 치과 치료에서 임플랜트를 이용한 방법은 장기적으로 높은 성공률을 보여 왔다. 임플랜트를 이용한 치료법이 상실된 치아의 수복을 위해 우선적으로 고려되어야 할 중요한 방법으로 인식되면서 임플랜트를 이용한 방법을 선호하게 되었고 적용 범위 및 사용 빈도도 급증하였다. 예전에 비해서 국산 임플랜트의 사용도 증가하였으나 장기간의 임상적, 객관적인 자료를 가진 국산 임플랜트의 수는 많지 않은 상태이다. 본 연구는 SLA 표면 처리 및 외측 연결형의 국산 임플랜트에 관하여 18개월에서부터 57개월까지의 임상적, 방사선학적 결과에 대한 후향적 분석을 실시하였다. 연세대학교 치과대학병원에서 네오플란트$^{(R)}$ 임플랜트 (네오바이오텍, 서울, 한국)를 이용하여 치료받은 25명의 환자에게 식립된 96개의 임플랜트를 대상으로 하였고, 대상자 중 남성의 평균 연령은 63.5세, 여성의 평균 연령은 44.3세였다. 진료기록부를 통해 성별, 연령, 무치악 유형, 식립 위치, 식립된 임플랜트의 직경 및 길이, 2차 수술 여부, 보철물의 유형, 대합치의 유형, 임상적 합병증의 종류 및 빈도 등을 조사하여 그에 따른 분포 및 생존율의 차이와 함께 이들 항목이 변연골 흡수량에 미치는 영향을 조사하여 다음과 같은 결과를 얻었다. 1. 총 25명에게 식립된 96개의 임플랜트 중 2개가 실패하여 누적 생존율은 97.9%로 나타났다. 2. 정기검진이 가능했던 88개의 임플랜트에 대해서는 상악에서의 생존율이 96.2%, 하악에서의 생존율은 98.4%였고, 구치부에서의 생존율은 97.5%였으며 전치부에서의 생존율은 100%였다. 3. 보철물 장착 후 1년과 1년 이후의 연간 흡수량에서 남성이 여성보다 변연골 흡수량이 많았다 (P<0.05). 4. 임플랜트 지지 보철물 후방에 자연치가 존재하는 경우가 존재하지 않는 경우보다 보철물 장착 후 첫 1년과 1년 이후 모두에서 연간 흡수량이 적었다 (P<0.05). 5. 보철물 장착 1년 이후의 연간 흡수량은 전치보다 구치에서 더 많은 변연골 흡수를 보였다 (P<0.05). 6. 악궁 간, 보철물의 유형, 대합치의 유형, 2차 수술 여부에 따른 변연골 흡수량의 차이는 보이지 않았다 (P>0.05). 이상의 결과를 토대로 변연골 흡수량에 영향을 주는 요소로 성별, 무치악의 유형, 악궁 내 위치였으며, 악궁 간, 보철물의 유형, 대합치의 유형, 2차 수술 여부에 따른 변연골 흡수량 차이는 없었다. 본 연구에서 최대 57개월까지의 기간 동안 SLA 표면 처리 및 외측 연결형의 국산 임플랜트의 임상적인 성공률은 만족스러운 결과를 보였으며 변연골 흡수량도 임플랜트 성공기준에 부합하였으나, 이보다 더 장기적인 평가가 필요하며 다양한 국산 임플랜트 시스템에 대한 중장기적인 연구가 지속되어야 할 것이다.

효율적 자원 탐색을 위한 소셜 웹 태그들을 이용한 동적 가상 온톨로지 생성 연구 (Dynamic Virtual Ontology using Tags with Semantic Relationship on Social-web to Support Effective Search)

  • 이현정;손미애
    • 지능정보연구
    • /
    • 제19권1호
    • /
    • pp.19-33
    • /
    • 2013
  • 본 논문에서는 네트워크 기반 대용량의 자원들을 효율적으로 검색하기 위해 사용자의 요구사항에 기반해 검색에 요구되는 태그들 간의 의미론에 기반한 동적 가상 온톨로지(Dynamic Virtual Ontology using Tags: DyVOT)를 추출하고 이를 이용한 동적 검색 방법론을 제안한다. 태그는 소셜 네트워크 서비스를 지원하거나 이로부터 생성되는 정형 및 비정형의 다양한 자원들에 대한 자원을 대표하는 특성을 포함하는 메타적 정보들로 구성된다. 따라서 본 연구에서는 이러한 태그들을 이용해 자원의 관계를 정의하고 이를 검색 등에 활용하고자 한다. 관계 등의 정의를 위해 태그들의 속성을 정의하는 것이 요구되며, 이를 위해 태그에 연결된 자원들을 이용하였다. 즉, 태그가 어떠한 자원들을 대표하고 있는 지를 추출하여 태그의 성격을 정의하고자 하였고, 태그를 포함하는 자원들이 무엇인지에 의해 태그간의 의미론적인 관계의 설정도 가능하다고 보았다. 즉, 본 연구에서 제안하는 검색 등의 활용을 목적으로 하는 DyVOT는 태그에 연결된 자원에 근거해 태그들 간의 의미론적 관계를 추출하고 이에 기반 하여 가상 동적 온톨로지를 추출한다. 생성된 DyVOT는 대용량의 데이터 처리를 위해 대표적인 예로 검색에 활용될 수 있으며, 태그들 간의 의미적 관계에 기반해 검색 자원의 뷰를 효과적으로 좁혀나가 효율적으로 자원을 탐색하는 것을 가능하도록 한다. 이를 위해 태그들 간의 상하 계층관계가 이미 정의된 시맨틱 태그 클라우드인 정적 온톨로지를 이용한다. 이에 더해, 태그들 간의 연관관계를 정의하고 이에 동적으로 온톨로지를 정의하여 자원 검색을 위한 동적 가상 온톨로지 DyVOT를 생성한다. DyVOT 생성은 먼저 정적온톨로지로부터 사용자 요구사항을 포함하는 태그를 포함한 부분-온톨로지들을 추출하고, 이들이 공유하는 자원의 정도에 따라 부분-온톨로지들 간의 새로운 연관관계 여부를 결정하여 검색에 요구되는 최소한의 동적 가상 온톨로지를 구축한다. 즉, 태그들이 공유하는 자원이 무엇인가에 의해 연관관계가 높은 태그들 간에는 이들의 관계를 설명하는 새로운 클래스를 가진 생성된 동적 가상 온톨로지를 이용하여 검색에 활용한다. 온톨로지의 인스턴스는 자원으로 정의되고, 즉 이는 사용자가 검색하고자 하는 해로서 정의된다. 태그들 간의 관계에 의해 생성된 DyVOT를 이용해 기존 정적 온톨로지나 키워드 기반 탐색에 비해 검색해야 할 자원의 량을 줄여 검색의 정확성과 신속성을 향상 시킨다.

Loop와 HPLC Purification 방법보다 더 높은 비방사능을 보여주는 카트리지 Methylation과 Purification을 이용한 손쉬운 [ 11C]PIB 합성 (Facile [11C]PIB Synthesis Using an On-cartridge Methylation and Purification Showed Higher Specific Activity than Conventional Method Using Loop and High Performance Liquid Chromatography Purification)

  • 이용석;조용현;이홍재;이윤상;정재민
    • 핵의학기술
    • /
    • 제22권2호
    • /
    • pp.67-73
    • /
    • 2018
  • $[^{11}C]PIB$는 베타아밀로이드($A{\beta}\;plague$)라는 변성 단백질에 결합하여 뇌의 기능과 기억력을 서서히 감퇴시키는 비가역적인 질환인 치매를 조기에 감별할 수 있는 대표적인 방사성의약품이다. 지금까지 많은 실험실에서 $[^{11}C]PIB$는 자동화합성장치에서 $[^{11}C]methyl\;iodide$$[^{11}C]methyl\;triflate$를 만든 다음 loop나 vial 방법을 사용하여 methylation을 한 다음 HPLC로 정제를 하는 것이다. 하지만 기존의 보고된 방법은 시간이 오래 걸리며, HPLC와 같은 복잡한 시스템을 필요로 하여 소규모 실험실에서 합성하기에 적합하지 않으며, 최종 product에서 에탄올 함량이 높다는 단점이 있었다. 이러한 단점을 보완하기 위하여 카트리지만을 사용하여 카트리지에서 methylation과 purification을 동시에 실시함으로써 합성 시간을 단축하고, 비방사능이 높고, 낮은 에탄올 함량을 가진 $[^{11}C]PIB$를 합성 가능한지 확인하고자 하였다. 가장 널리 사용하는 카트리지 6종(CM, HLB, Alumina, C18, tC18, tC18 environmental을 선택하여 screening test를 실시하였다. 6-OH-BTA-0 1 mg을 c-HXO에 녹인 다음 6개의 카트리지에 loading를 한 다음 0.5 M MSP(pH 5.1) 20 mL로 정제를 한 다음 최종 fraction을 받아서 analytical HPLC로 전구체 잔류량을 측정한 결과 hydrophobicity가 낮은 계열(CM, HLB, Alumina)의 카트리지에서는 완충액으로 정제를 하였을 때 잔류전구체의 양이 많았으나, 탄소함량이 많은 계열의 카트리지(C18, tC18, tC18 environmental)에서는 잔류전구체의 양이 CM, HLB, Alumina 카트리지에 비하여 상대적으로 적었다. 완충액의 정제 농도와 부피를 최적화 하기 위하여 screening test에서 가장 좋은 결과를 나타낸 C18 series cartridge를 가지고 추가 실험을 진행하였다. 인산완충액 농도를 10 mM, 20 mM, 30 mM, 40 mM, 50 mM, 250 mM, 500 mM로 변화시켰으며, 에탄올 함량은 20%와 30%로 하여 용출액을 분석하여서, $[^{11}C]PIB$를 카트리지로 합성하기 위한 최적의 조합은 tC18 environmental cartridge와 0.5 M MSP 20 mL인 것을 알 수 있었다. 기존에 보고된 방법과 cartridge를 비교한 결과, 합성시간에서는 각각 15 ~ 18min, 8 ~ 9 min이 소요되었으며, product activity는 각각 $4.1{\pm}1.4\;GBq$ (n=41), $3.8{\pm}0.9\;GBq$ (n=3), 방사화학적 수율(based on HPLC analysis of the crude product)에서는 $13.9{\pm}4.4%$ (n=41), $12.3{\pm}2.2%$ (n=3)로 별다른 차이가 없었으며, 비방사능에 있어서는 HPLC purification method가 $78.7{\pm}39.7\;GBq/{\mu}mol$ (n=41), cartridge method가 $420.6{\pm}20.4\;GBq/{\mu}mol$ (n=3)로 카트리지 방법이 기존 방법보다 더 좋은 결과를 나타내었다. 또한, 잔류 용매(c-HXO)도 vial or loop method와 별다른 차이가 없었으며, 에탄올 함량에 있어서는 70%(기존 방법)에서 30%(카트리지 방법)로 두 배 이상 함량이 적다는 사실을 알 수 있었다. 지금까지 알아본바와 같이 cartridge method는 reported method(HPLC purification)에 비하여 더 향상된 결과를 보여준다는 사실을 확인하였다.

토픽모델링을 활용한 COVID-19 학술 연구 기반 연구 주제 분류에 관한 연구 (A study on the classification of research topics based on COVID-19 academic research using Topic modeling)

  • 유소연;임규건
    • 지능정보연구
    • /
    • 제28권1호
    • /
    • pp.155-174
    • /
    • 2022
  • 2020년 1월부터 2021년 10월 현재까지 COVID-19(치명적인 호흡기 증후군인 코로나바이러스-2)와 관련된 학술 연구가 500,000편 이상 발표되었다. COVID-19와 관련된 논문의 수가 급격하게 증가함에 따라 의료 전문가와 정책 담당자들이 중요한 연구를 신속하게 찾는 것에 시간적·기술적 제약이 따르고 있다. 따라서 본 연구에서는 LDA와 Word2vec 알고리즘을 사용하여 방대한 문헌의 텍스트 자료로부터 유용한 정보를 추출하는 방안을 제시한다. COVID-19와 관련된 논문에서 검색하고자 하는 키워드와 관련된 논문을 추출하고, 이를 대상으로 세부 주제를 파악하였다. 자료는 Kaggle에 있는 CORD-19 데이터 세트를 활용하였는데, COVID-19 전염병에 대응하기 위해 주요 연구 그룹과 백악관이 준비한 무료 학술 자료로서 매주 자료가 업데이트되고 있다. 연구 방법은 크게 두 가지로 나뉜다. 먼저, 47,110편의 학술 논문의 초록을 대상으로 LDA 토픽 모델링과 Word2vec 연관어 분석을 수행한 후, 도출된 토픽 중 'vaccine'과 관련된 논문 4,555편, 'treatment'와 관련된 논문 5,791편을 추출한다. 두 번째로 추출된 논문을 대상으로 LDA, PCA 차원 축소 후 t-SNE 기법을 사용하여 비슷한 주제를 가진 논문을 군집화하고 산점도로 시각화하였다. 전체 논문을 대상으로 찾을 수 없었던 숨겨진 주제를 키워드에 따라 문헌을 분류하여 토픽 모델링을 수행한 결과 세부 주제를 찾을 수 있었다. 본 연구의 목표는 대량의 문헌에서 키워드를 입력하여 특정 정보에 대한 문헌을 분류할 수 있는 방안을 제시하는 것이다. 본 연구의 목표는 의료 전문가와 정책 담당자들의 소중한 시간과 노력을 줄이고, 신속하게 정보를 얻을 수 있는 방법을 제안하는 것이다. 학술 논문의 초록에서 COVID-19와 관련된 토픽을 발견하고, COVID-19에 대한 새로운 연구 방향을 탐구하도록 도움을 주는 기초자료로 활용될 것으로 기대한다.

네덜란드의 혁신클러스터정책과 시사점 (The Innovation Ecosystem and Implications of the Netherlands.)

  • 김영우
    • 벤처혁신연구
    • /
    • 제5권1호
    • /
    • pp.107-127
    • /
    • 2022
  • 본 연구는 네덜란드의 지역별 혁신 클러스터정책을 통해 네덜란드 경제의 성장동인을 찾고자 한다. 전통적으로 농업과 물류중심의 경제구조를 가진 네덜란드는 1990년대 지역 클러스터를 만들면서 첨단 허브 국가로서 역할을 충실하게 해왔고 작은 나라임에도 세계 수출의 7위를 차지하는 등 혁신국가의 이미지를 만드는데 성공했다. 그 바탕에는 혁신을 위한 체계적인 분석 접근법으로 '지역 혁신 시스템(Rational Innovation System)'의 개념을 도입하고 지역의 특색을 살린 산학연 모델이 가장 큰 요인으로 작용했다. 여기에는 적절한 중앙정부의 혁신 생태계 조성을 위한 정책적 방향 제시와 지역을 중심으로 한 산학연 모델이 크게 작용한 것으로 평가받고 있다. 이런 점을 종합적으로 살펴 볼 때 본고에서는 다음과 같은 시사점을 발견할 수 있다. 첫째, 혁신 클러스터의 활성화이다. 둘째, Top 9을 중심으로 한 신산업육성정책과 미래산업 전략을 활성화하고 있다. 셋째, 산학연 협력을 구체화하고 있다. 넷째, 스타트업의 창업을 육성하고 있다. 이를 종합하면 네덜란드는 2019년 설립된 TechLeap은 네덜란드의 기술 생태계를 정량화하고 가속화하는 데 도움을 주는데 자본, 시장 및 인재에 대한 접근성을 개선하기 위한 프로그램 및 이니셔티브를 통해 기술 기업이 확장할 수 있는 최적의 환경을 조성해 네덜란드를 미래의 기술 선도기업들을 위한 보금자리로 만들기 위해 노력하고 있다. 첨단농업과 물류국가로 알려진 네덜란드는 4차 산업혁명시대를 맞이하여 로테르담을 중심으로 하는 물류의 항구에서 ICT 기술을 기반으로 하는 '지식항구(brainport)'로 확장하고 있다. 네덜란드는 물류 국가에서 산업화에 성공했지만 최근 지역혁신 생태계를 만들기 위한 중앙정부의 비전 제시와 지역의 특화산업을 연계한 산학연 클러스터 모델이 가장 큰 디딤돌 역할을 하고 있음을 확인할 수 있다. 네덜란드의 혁신정책은 혁신 클러스터 생태계를 중심으로 지역을 개발하고 일자리 창출과 새로운 산업을 위한 투자를 통해 유럽의 '디지털 관문'으로서 역할에 보다 충실할 것으로 전망된다.

전이학습 기반 다중 컨볼류션 신경망 레이어의 활성화 특징과 주성분 분석을 이용한 이미지 분류 방법 (Transfer Learning using Multiple ConvNet Layers Activation Features with Principal Component Analysis for Image Classification)

  • 바트후 ?바자브;주마벡 알리하노브;팡양;고승현;조근식
    • 지능정보연구
    • /
    • 제24권1호
    • /
    • pp.205-225
    • /
    • 2018
  • Convolutional Neural Network (ConvNet)은 시각적 특징의 계층 구조를 분석하고 학습할 수 있는 대표적인 심층 신경망이다. 첫 번째 신경망 모델인 Neocognitron은 80 년대에 처음 소개되었다. 당시 신경망은 대규모 데이터 집합과 계산 능력이 부족하여 학계와 산업계에서 널리 사용되지 않았다. 그러나 2012년 Krizhevsky는 ImageNet ILSVRC (Large Scale Visual Recognition Challenge) 에서 심층 신경망을 사용하여 시각적 인식 문제를 획기적으로 해결하였고 그로 인해 신경망에 대한 사람들의 관심을 다시 불러 일으켰다. 이미지넷 첼린지에서 제공하는 다양한 이미지 데이터와 병렬 컴퓨팅 하드웨어 (GPU)의 발전이 Krizhevsky의 승리의 주요 요인이었다. 그러므로 최근의 딥 컨볼루션 신경망의 성공을 병렬계산을 위한 GPU의 출현과 더불어 ImageNet과 같은 대규모 이미지 데이터의 가용성으로 정의 할 수 있다. 그러나 이러한 요소는 많은 도메인에서 병목 현상이 될 수 있다. 대부분의 도메인에서 ConvNet을 교육하기 위해 대규모 데이터를 수집하려면 많은 노력이 필요하다. 대규모 데이터를 보유하고 있어도 처음부터 ConvNet을 교육하려면 많은 자원과 시간이 소요된다. 이와 같은 문제점은 전이 학습을 사용하면 해결할 수 있다. 전이 학습은 지식을 원본 도메인에서 새 도메인으로 전이하는 방법이다. 전이학습에는 주요한 두 가지 케이스가 있다. 첫 번째는 고정된 특징점 추출기로서의 ConvNet이고, 두번째는 새 데이터에서 ConvNet을 fine-tuning 하는 것이다. 첫 번째 경우, 사전 훈련 된 ConvNet (예: ImageNet)을 사용하여 ConvNet을 통해 이미지의 피드포워드 활성화를 계산하고 특정 레이어에서 활성화 특징점을 추출한다. 두 번째 경우에는 새 데이터에서 ConvNet 분류기를 교체하고 재교육을 한 후에 사전 훈련된 네트워크의 가중치를 백프로퍼게이션으로 fine-tuning 한다. 이 논문에서는 고정된 특징점 추출기를 여러 개의 ConvNet 레이어를 사용하는 것에 중점을 두었다. 그러나 여러 ConvNet 레이어에서 직접 추출된 차원적 복잡성을 가진 특징점을 적용하는 것은 여전히 어려운 문제이다. 우리는 여러 ConvNet 레이어에서 추출한 특징점이 이미지의 다른 특성을 처리한다는 것을 발견했다. 즉, 여러 ConvNet 레이어의 최적의 조합을 찾으면 더 나은 특징점을 얻을 수 있다. 위의 발견을 토대로 이 논문에서는 단일 ConvNet 계층의 특징점 대신에 전이 학습을 위해 여러 ConvNet 계층의 특징점을 사용하도록 제안한다. 본 논문에서 제안하는 방법은 크게 세단계로 이루어져 있다. 먼저 이미지 데이터셋의 이미지를 ConvNet의 입력으로 넣으면 해당 이미지가 사전 훈련된 AlexNet으로 피드포워드 되고 3개의 fully-connected 레이어의 활성화 틀징점이 추출된다. 둘째, 3개의 ConvNet 레이어의 활성화 특징점을 연결하여 여러 개의 ConvNet 레이어의 특징점을 얻는다. 레이어의 활성화 특징점을 연결을 하는 이유는 더 많은 이미지 정보를 얻기 위해서이다. 동일한 이미지를 사용한 3개의 fully-connected 레이어의 특징점이 연결되면 결과 이미지의 특징점의 차원은 4096 + 4096 + 1000이 된다. 그러나 여러 ConvNet 레이어에서 추출 된 특징점은 동일한 ConvNet에서 추출되므로 특징점이 중복되거나 노이즈를 갖는다. 따라서 세 번째 단계로 PCA (Principal Component Analysis)를 사용하여 교육 단계 전에 주요 특징점을 선택한다. 뚜렷한 특징이 얻어지면, 분류기는 이미지를 보다 정확하게 분류 할 수 있고, 전이 학습의 성능을 향상시킬 수 있다. 제안된 방법을 평가하기 위해 특징점 선택 및 차원축소를 위해 PCA를 사용하여 여러 ConvNet 레이어의 특징점과 단일 ConvNet 레이어의 특징점을 비교하고 3개의 표준 데이터 (Caltech-256, VOC07 및 SUN397)로 실험을 수행했다. 실험결과 제안된 방법은 Caltech-256 데이터의 FC7 레이어로 73.9 %의 정확도를 얻었을 때와 비교하여 75.6 %의 정확도를 보였고 VOC07 데이터의 FC8 레이어로 얻은 69.2 %의 정확도와 비교하여 73.1 %의 정확도를 보였으며 SUN397 데이터의 FC7 레이어로 48.7%의 정확도를 얻었을 때와 비교하여 52.2%의 정확도를 보였다. 본 논문에 제안된 방법은 Caltech-256, VOC07 및 SUN397 데이터에서 각각 기존에 제안된 방법과 비교하여 2.8 %, 2.1 % 및 3.1 %의 성능 향상을 보였다.