• 제목/요약/키워드: 정보노드

검색결과 5,897건 처리시간 0.034초

유튜브 이용자의 제20대 대통령선거 이슈 이용: '대장동 개발 사업' 사례를 중심으로 (Use of the 20th Presidential Election Issues on YouTube: A Case Study of 'Daejang-dong Development Project')

  • 김춘식;홍주현
    • 문화기술의 융합
    • /
    • 제8권4호
    • /
    • pp.435-444
    • /
    • 2022
  • 이 논문의 주요 관심사는 세 가지이다. 첫째, 유튜브 이용자가 제20대 대통령선거의 주요 의제이자 후보자 선택의 기준인 '대장동 개발 사업' 콘텐츠를 어떤 채널을 통해 시청했는지 확인했다. 둘째, 연이어 '대장동 개발 사업' 동영상을 시청했을 때 후속 동영상의 정치적 논조가 최초 시청 동영상의 정치적 논조와 일치하는지 비교했다. 셋째, 최초 동영상과 후속 시청 동영상에 달린 댓글에 담긴 정서 유인가를 살폈다. 네트워크 분석과 내용분석 결과에 따르면 '김어준의 뉴스공장'과 'TV조선 뉴스'가 진보와 보수를 대표하는 채널이었다. 그리고 연이어 시청한 후속 채널의 정치적 성향은 진보와 보수 채널 이용자 모두 중립의 비율이 가장 높았다. 둘째, 보수 채널 이용자의 75.9%, 그리고 진보 채널 이용자의 18.5%가 동일한 논조의 후속 동영상에 댓글을 남겼다. 셋째, 진보와 보수 채널 이용자의 약 80%가 최초 시청 동영상에 남긴 댓글의 정서는 이용 채널의 정치적 성향과 일치했고, 동일한 논조의 후속 동영상을 연이어 시청했을 때도 남겨진 댓글의 90% 이상이 이용 채널의 정치적 성향과 일치했다. 연구자들은 유튜브 정치 정보 이용의 부정적 영향을 최소화하는 방안으로 뉴스 채널의 고품질 저널리즘 실천을 제안한다.

뉴럴네트워크 기반에 악성 URL 탐지방법 설계 (Design of detection method for malicious URL based on Deep Neural Network)

  • 권현;박상준;김용철
    • 융합정보논문지
    • /
    • 제11권5호
    • /
    • pp.30-37
    • /
    • 2021
  • 사물인터넷 등을 통하여 각종 기기들이 인터넷으로 연결되어 있고 이로 인하여 인터넷을 이용한 공격이 발생하고 있다. 그러한 공격 중 악성 URL를 이용하여 사용자에게 잘못된 피싱 사이트로 접속하게 하거나 악성 바이러스를 유포하는 공격들이 있다. 이러한 악성 URL 공격을 탐지하는 방법은 중요한 보안 이슈 중에 하나이다. 최근 딥러닝 기술 중 뉴럴네트워크는 이미지 인식, 음성 인식, 패턴 인식 등에 좋은 성능을 보여주고 있고 이러한 뉴럴네트워크를 이용하여 악성 URL 탐지하는 분야가 연구되고 있다. 본 논문에서는 뉴럴네트워크를 이용한 악성 URL 탐지 성능을 각 파라미터 및 구조에 따라서 성능을 분석하였다. 뉴럴네트워크의 활성화함수, 학습률, 뉴럴네트워크 모델 등 다양한 요소들에 따른 악성 URL 탐지 성능에 어떠한 영향을 미치는 지 분석하였다. 실험 데이터는 Alexa top 1 million과 Whois에서 크롤링하여 데이터를 구축하였고 머신러닝 라이브러리는 텐서플로우를 사용하였다. 실험결과로 층의 개수가 4개이고 학습률이 0.005이고 각 층마다 노드의 개수가 100개 일 때, 97.8%의 accuracy와 92.94%의 f1 score를 갖는 것을 볼 수 있었다.

빗물저류조 설치에 의한 침수저감 분석 (Analysis for flood reduction by rain storage tank)

  • 이승욱;맹승진;김다예;박인성
    • 한국수자원학회:학술대회논문집
    • /
    • 한국수자원학회 2023년도 학술발표회
    • /
    • pp.356-356
    • /
    • 2023
  • 충청북도 청주시 상당구 월오동 251-7번지와 251-15번지 2곳에 각각 50m3 규모의 빗물저류조를 대상으로 2017년 7월 16일 호우사상을 적용하여 설치 전·후의 침수저감 효과를 분석하였다. 침수분석을 위해 지형자료는 국토정보플랫폼에 있는 1:25,000 자료를 활용하였으며, 모의 전 대상지역의 관망구축에 따른 지형자료를 구축하였고 관망은 노드 40개와 링크 39개로 구성하였다. SWMM 모형을 구동하여 유역내 유출량을 분석하기 위해 유역과 관련한 입력자료와 이외 유역간의 연결부인 관거 하도 입력자료 구축 및 하도와 하도를 연결하는 모델상의 Junction인 실제 맨홀과 관련한 입력자료를 구축하였다. 관거 입력자료로는 관거의 제원, 길이, 깊이 등의 자료를 수집하여 사용하였다. 빗물저류조 설치전·후의 침수저감효과를 분석하기 위해 빗물저류조 설치전의 침수양상을 모의 하였으며 각각 강우발생 후 30분, 50분, 70분, 90분, 110분, 130분 및 150분으로 구분하여 분석하였다. 강우발생 후 150분의 모의분석 결과, 침수심은 0.2<깊이<0.4의 면적이 600m2로 가장 넓은 침수분포를 나타내었으며, 총 침수면적은 2,225m2로 모의되었다. 이는 강우발생 후130분 보다 125m2 더 침수되었으며, 0.8<깊이<1.0의 면적은 150m2로 모의되었다. 전체적인 침수심도 커진 것으로 분석되었다. 빗물저류조 설치 후의 침수양상을 모의하였으며 각각 강우발생 후 30분, 50분, 70분, 90분, 110분, 130분 및 150분으로 분석하였다. 강우발생 후 150분의 모의분석 결과, 침수심은 0.2<깊이<0.4의 면적이 250m2로 가장 많은 침수분포가 나타났으며, 총 침수면적은 550m2으로 모의 되었다. 이는 강우발생 후 110분과 침수면적은 동일하게 모의 되었으며, 침수심 0.2<깊이<0.4의 면적은 250m2로 모의 되었다. 따라서 해당 지역에 50m3 규모의 빗물저류조 2개를설치 할 경우 침수피해가 저감되는 것으로 분석되었다. 이러한 분석 결과를 바탕으로 향후 도시내 상습침수구역에 빗물저류조를 설치하여 기후변화에 따른 극한 강우에 대비할 수 있도록 해야 할 것이다.

  • PDF

UN 국가의 투표 성향 유사도 분석을 위한 Proximity based Circular 시각화 연구 (Proximity based Circular Visualization for similarity analysis of voting patterns between nations in UN General Assembly)

  • 최한민;문성민;하효지;이경원
    • 디자인융복합연구
    • /
    • 제14권4호
    • /
    • pp.133-150
    • /
    • 2015
  • 본 연구는 1946년부터 2012년까지 총 5211건의 UN총회 투표데이터를 활용하여 국가 간의 관계를 기간별, 이슈별 등 다양한 관점에서 분석할 수 있는 인터랙티브(Interactive) 시각화 방법을 제안하였다. 연구를 위해 국가 간 유사도 매트릭스를 고안하고, 두 가지의 시각화 방법을 개발하였다. 첫 번째는 연도별로 UN 총회의 투표에 참여한 국가 간의 관계를 사회 연결망 그래프 형태로 표현한 네트워크 그래프(Network Graph)시각화이며, 두 번째는 특정 국가를 중심으로 다른 국가 간의 관계를 분석하거나 시간에 따른 국가 간의 투표 성향 변화를 동시에 분석할 수 있도록 고안된 Proximity based Circular 시각화이다. 본 연구는 기존의 투표 데이터를 활용한 분석 사례에서 시도되지 않았던 다양한 관점에서 네트워크 분석을 하기 위해 선과 원형 그래프가 결합된 Proximity based Circular 시각화를 제안하고 이를 구현하였다는 점에서 큰 의의가 있다. 또한 두 개의 시각화에 대한 비교 실험을 실시하여 각 시각화의 상호 보완점을 도출 하였다. 연구 결과로는 Proximity based Circular 시각화가 개별 국가 노드에 대한 정보를 더 잘 나타내며, 네트워크 그래프(Network Graph)시각화는 전체 데이터의 특성과 여러 데이터 간의 성향을 더 잘 나타낸다는 결과를 도출하였다. 따라서 UN국가의 투표 성향 데이터를 분석하기 위해서는 두 개의 시각화를 병행하여 사용하는 경우가 데이터 간의 관계 파악에 가장 도움이 된다는 결론을 제시하였다.

R과 텐서플로우 딥러닝 성능 비교 (A Deep Learning Performance Comparison of R and Tensorflow)

  • 장성봉
    • 문화기술의 융합
    • /
    • 제9권4호
    • /
    • pp.487-494
    • /
    • 2023
  • 본 연구에서는 무료 딥러닝 도구인 R과 텐서플로우에 대한 성능 비교를 수행하였다. 실험에서는 각 도구를 사용하여 6종류의 심층 신경망을 구축하고 10년간의 한국 온도 데이터셋을 사용하여 신경망을 학습시켰다. 구축된 신경망의 입력층 노드 갯수는 10개, 출력층은 5개로 설정 하였으며, 은닉층은 5, 10, 20개로 설정하여 실험을 진행 하였다. 학습 데이터는 2013년 3월 1일부터 2023년 3월 29일까지 서울시 강남구에서 수집된 온도 데이터 3681건을 사용하였다. 성능 비교를 위해, 학습된 신경망을 사용하여, 5일간의 온도를 예측하고 예측된 값과 실제값을 사용하여 평균 제곱근 오차(root mean square error, RMSE)값을 측정하였다. 실험결과, 은닉층이 1개인 경우, R의 학습 오차는 0.04731176이었으며, 텐서플로우는 0.06677193으로 측정되었으며, 은닉층이 2개인 경우에는 R이 0.04782134, 텐서플로 우는 0.05799060로 측정되었다. 전체적으로 R이 더 우수한 성능을 보였다. 우리는 기계학습을 처음 접하는 사용자들에게 두 도구에 대한 정량적 성능 정보를 제공함으로써, 도구 선택에서 발생하는 어려움을 해소하고자 하였다.

트랜잭션 가중치 기반의 빈발 아이템셋 마이닝 기법의 성능분석 (Performance analysis of Frequent Itemset Mining Technique based on Transaction Weight Constraints)

  • 윤은일;편광범
    • 인터넷정보학회논문지
    • /
    • 제16권1호
    • /
    • pp.67-74
    • /
    • 2015
  • 최근, 아이템들의 가치를 고려한 빈발 아이템셋 마이닝 방법은 데이터 마이닝 분야에서 가장 중요한 이슈 중 하나로 활발히 연구되어왔다. 아이템들의 가치를 고려한 마이닝 기법들은 적용 방법에 따라 크게 가중화 빈발 아이템셋 마이닝, 트랜잭션 가중치 기반의 빈발 아이템셋 마이닝, 유틸리티 아이템셋 마이닝으로 구분된다. 본 논문에서는 트랜잭션 가중치 기반의 빈발 아이템셋 마이닝들에 대해 실증적인 분석을 수행한다. 일반적으로 트랜잭션 가중치 기반의 빈발 아이템셋 마이닝 기법들은 데이터베이스 내 아이템들의 가치를 고려함으로써 트랜잭션 가중치를 계산한다. 또한, 그 기법들은 계산된 각 트랜잭션의 가중치를 바탕으로 가중화 빈발 아이템셋들을 마이닝 한다. 트랜잭션 가중치는 트랜잭션 내에 높은 가치의 아이템이 많이 포함 될수록 높은 값으로 나타나기 때문에 우리는 각 트랜잭션의 가중치의 분석을 통해 그 가치를 파악할 수 있다. 우리는 트랜잭션 가중치 기반의 빈발 아이템셋 마이닝 기법 중에서 가장 유명한 알고리즘인 WIS와 WIT-FWIs, IT-FWIs-MODIFY, WIT-FWIs-DIFF의 장 단점을 분석하고 각각의 성능을 비교한다. WIS는 트랜잭션 가중치 기반의 빈발 아이템셋 마이닝의 개념과 그 기법이 처음 제안된 알고리즘이며, 전통적인 빈발 아이템셋 마이닝 기법인 Apriori를 기반으로 하고 있다. 또 다른 트랜잭션 가중치 기반의 빈발 아이템셋 마이닝 방법인 WIT-FWIs와 WIT-FWIs-MODIFY, WIT-FWIs-DIFF는 가중화된 빈발 아이템셋 마이닝을 더 효율적으로 수행하기 위해 격자구조(Lattice) 형태의 특별한 저장구조인 WIT-tree를 이용한다. WIT-tree의 각 노드에는 아이템셋 정보와 아이템셋이 포함된 트랜잭션의 ID들이 저장되며, 이 구조를 사용함으로써 아이템셋 마이닝 과정에서 발생되는 다수의 데이터베이스 스캔 과정이 감소된다. 특히, 전통적인 알고리즘들이 수많은 데이터베이스 스캔을 수행하는 반면에, 이 알고리즘들은 WIT-tree를 이용해 데이터베이스를 오직 한번만 읽음으로써 마이닝과정에서 발생 가능한 오버헤드 문제를 해결한다. 또한, 공통적으로 길이 N의 두 아이템셋을 이용해 길이 N+1의 새로운 아이템셋을 생성한다. 먼저, WIT-FWIs는 각 아이템셋이 동시에 발생되는 트랜잭션들의 정보를 활용하는 것이 특징이다. WIT-FWIs-MODIFY는 조합되는 아이템셋의 정보를 이용해 빈도수 계산에 필요한 연산을 줄인 알고리즘이다. WIT-FWIs-DIFF는 두 아이템셋 중 하나만 발생한 트랜잭션의 정보를 이용한다. 우리는 다양한 실험환경에서 각 알고리즘의 성능을 비교분석하기 위해 각 트랜잭션의 형태가 유사한 dense 데이터와 각 트랜잭션의 구성이 서로 다른 sparse 데이터를 이용해 마이닝 시간과 최대 메모리 사용량을 평가한다. 또한, 각 알고리즘의 안정성을 평가하기 위한 확장성 테스트를 수행한다. 결과적으로, dense 데이터에서는 WIT-FWIs와 WIT-FWIs-MODIFY가 다른 알고리즘들보다 좋은 성능을 보이고 sparse 데이터에서는 WIT-FWI-DIFF가 가장 좋은 효율성을 갖는다. WIS는 더 많은 연산을 수행하는 알고리즘을 기반으로 했기 때문에 평균적으로 가장 낮은 성능을 보인다.

의존 구문 분석을 이용한 질의 기반 정답 추출 (Query-based Answer Extraction using Korean Dependency Parsing)

  • 이도경;김민태;김우주
    • 지능정보연구
    • /
    • 제25권3호
    • /
    • pp.161-177
    • /
    • 2019
  • 질의응답 시스템은 크게 사용자의 질의를 분석하는 방법인 질의 분석과 문서 내에서 적합한 정답을 추출하는 방법인 정답 추출로 이루어지며, 두 방법에 대한 다양한 연구들이 진행되고 있다. 본 연구에서는 문장의 의존 구문 분석 결과를 이용하여 질의응답 시스템 내 정답 추출의 성능 향상을 위한 연구를 진행한다. 정답 추출의 성능을 높이기 위해서는 문장의 문법적인 정보를 정확하게 반영할 필요가 있다. 한국어의 경우 어순 구조가 자유롭고 문장의 구성 성분 생략이 빈번하기 때문에 의존 문법에 기반한 의존 구문 분석이 적합하다. 기존에 의존 구문 분석을 질의응답 시스템에 반영했던 연구들은 구문 관계 정보나 구문 형식의 유사도를 정의하는 메트릭을 사전에 정의해야 한다는 한계점이 있었다. 또 문장의 의존 구문 분석 결과를 트리 형태로 표현한 후 트리 편집 거리를 계산하여 문장의 유사도를 계산한 연구도 있었는데 이는 알고리즘의 연산량이 크다는 한계점이 존재한다. 본 연구에서는 구문 패턴에 대한 정보를 사전에 정의하지 않고 정답 후보 문장을 그래프로 나타낸 후 그래프 정보를 효과적으로 반영할 수 있는 Graph2Vec을 활용하여 입력 자질을 생성하였고, 이를 정답 추출모델의 입력에 추가하여 정답 추출 성능 개선을 시도하였다. 의존 그래프를 생성하는 단계에서 의존 관계의 방향성 고려 여부와 노드 간 최대 경로의 길이를 다양하게 설정하며 자질을 생성하였고, 각각의 경우에 따른 정답추출 성능을 비교하였다. 본 연구에서는 정답 후보 문장들의 신뢰성을 위하여 웹 검색 소스를 한국어 위키백과, 네이버 지식백과, 네이버 뉴스로 제한하여 해당 문서에서 기존의 정답 추출 모델보다 성능이 향상함을 입증하였다. 본 연구의 실험을 통하여 의존 구문 분석 결과로 생성한 자질이 정답 추출 시스템 성능 향상에 기여한다는 것을 확인하였고 해당 자질을 정답 추출 시스템뿐만 아니라 감성 분석이나 개체명 인식과 같은 다양한 자연어 처리 분야에 활용 될 수 있을 것으로 기대한다.

프리픽스 매취 조인을 이용한 XML 문서에 대한 분기 경로 질의 처리 (Branching Path Query Processing for XML Documents using the Prefix Match Join)

  • 박영호;한욱신;황규영
    • 한국정보과학회논문지:데이타베이스
    • /
    • 제32권4호
    • /
    • pp.452-472
    • /
    • 2005
  • 본 논문에서는 정보 검색(Information Retrieval, IR) 기술과 새로운 인스턴스 조인 기술을 이용하여 방대하고도 이질적인 XML 문서들에 대한 부분 매취 질의(Partial Match Query)를 처리하는 새로운 방법으로, XIR-Branching을 제안한다. 부분 매취 질의는 경로 표현식에 조상-후손 관계성(descendent-or-self axis) "//"를 가지는 질의로 정의되며, 선형 경로 표현식(Linear Path Expression, LPE)과 분기 경로 표현식(Branching Path Expression, BPE)으로 구분된다 일반적 형식의 부분 매취 질의는 분기하는 경로들을 만드는 분기 조건들을 가진다. XIR-Branching의 목적은 이질적인 스키마들을 가진 방대한 문서들에 주어지는 부분 매취 질의를 효과적으로 지원하는 것이다. XIR-Branching은 관계형 테이블을 사용하는 전통적인 스키마-레벨 방법들(XRel, XParent, XIR-Linear[21])에 그 기초를 두고, 역 인덱스(inverted index) 기술과 새롭게 소개하는 인스턴스-레벨 조인 기술인 프리픽스 매취 조인(Prefix Match Join)을 사용하여 질의 처리 효율성과 확장성을 향상시킨다. 전자는 LPE를 처리하기 위한 기술로 XIR-Linear[21]에서 사용한 방법이다. 후자는 BPE를 처리하기 위한 기술로 본 논문에서 새롭게 제안하는 기술이며, 전통적인 방법에서 사용하는 포함 관계 조인(containment join) 보다 효과적인 방법으로 결과 노드(result node)를 찾는다. 기존 연구인 XR-Linear는 역 인덱스를 사용하여 LPE 처리에 우수한 성능을 보이고 있지만, BPE 처리 방법을 다루지 않았다. 그러나. 더욱 구체적이고 일반적인 질의를 위해서는 BPE도 처리할 수 있어야 한다. 본 논문에서는 BPE까지 다룰 수 있는 새로운 방법으로 기존의 XIR-Linear를 확장한 XIR-Branching을 제안한다. 제안하는 방법은 스키마-레벨 방법으로 질의 대상 후보 집합을 크게 줄인 후, 인스턴스-레벨 조인 방법인 프리픽스 매취 조인으로 최종 결과 집합을 효과적으로 구하는 방법이다. XIR-Branching의 우수성을 보이기 위해 기존 BP포 처리 방법인 XRei, XParent와 비교 분석을 수행한다. 마지막으로, 성능 평가를 통하여 XIR-Branching이 기존 방법들에 비해 수십에서 수백배 효과적이고 확장성 또한 뛰어남을 보인다.

충돌 정보와 m-bit인식을 이용한 적응형 RFID 충돌 방지 기법 (Adaptive RFID anti-collision scheme using collision information and m-bit identification)

  • 이제율;신종민;양동민
    • 인터넷정보학회논문지
    • /
    • 제14권5호
    • /
    • pp.1-10
    • /
    • 2013
  • RFID(Radio Frequency Identification)시스템은 하나의 RFDI리더, 다수의 RFID태그 장치들로 이루어진 비접촉방식의 근거리 무선 인식 기술이다. RFID태그는 자체적인 연산 수행이 가능한 능동형 태그와 이에 비해 성능은 떨어지지만 저렴한 가격으로 물류 유통에 적합한 수동형 태그로 나눌 수 있다. 데이터 처리 장치는 리더와 연결되어 리더가 전송받은 정보를 처리한다. RFID 시스템은 무선주파수를 이용해 다수의 태그를 빠른 시간에 인식할 수 있다. RFID시스템은 유통, 물류, 운송, 물품관리, 출입 통제, 금융 등 다양한 분야에서 응용되고 있다. 하지만 RFID시스템을 더욱 확산시키기 위해서는 가격, 크기, 전력소모, 보안 등 해결할 문제가 많다. 그 문제들 중에서 본 논문에서는 다수의 수동형 태그를 인식할 때 발생하는 충돌 문제를 해결하기 위한 알고리즘을 제안한다. RFID 시스템에서 다수의 태그를 인식하기 위한 충돌 방지 기법에는 확률적인 방식과 결정적인 방식 그리고 이를 혼합한 하이브리드 방식이 있다. 본 논문에서는 우선 기존에 있던 확률적 방식의 충돌방지기법인 알로하 기반 프로토콜과 결정적 방식의 충돌방지기법인 트리 기반 프로토콜에 대해 소개한다. 알로하 기반 프로토콜은 시간을 슬롯 단위로 나누고 태그들이 각자 임의로 슬롯을 선택하여 자신의 ID를 전송하는 방식이다. 하지만 알로하 기반 프로토콜은 태그가 슬롯을 선택하는 것이 확률적이기 때문에 모든 태그를 인식하는 것을 보장하지 못한다. 반면, 트리 기반의 프로토콜은 리더의 전송 범위 내에 있는 모든 태그를 인식하는 것을 보장한다. 트리 기반의 프로토콜은 리더가 태그에게 질의 하면 태그가 리더에게 응답하는 방식으로 태그를 인식한다. 리더가 질의 할 때, 두 개 이상의 태그가 응답 한다면 충돌이라고 한다. 충돌이 발생하면 리더는 새로운 질의를 만들어 태그에게 전송한다. 즉, 충돌이 자주 발생하면 새로운 질의를 자주 생성해야하기 때문에 속도가 저하된다. 그렇기 때문에 다수의 태그를 빠르게 인식하기 위해서는 충돌을 줄일 수 있는 효율적인 알고리즘이 필요하다. 모든 RFID태그는 96비트의 EPC(Electronic Product Code)의 태그ID를 가진다. 이렇게 제작된 다수의 태그들은 회사 또는 제조업체에 따라 동일한 프리픽스를 가진 유사한 태그ID를 가지게 된다. 이 경우 쿼리 트리 프로토콜을 이용하여 다수의 태그를 인식 하는 경우 충돌이 자주 일어나게 된다. 그 결과 질의-응답 수는 증가하고 유휴 노드가 발생하여 식별 효율 및 속도에 큰 영향을 미치게 된다. 이 문제를 해결하기 위해 충돌 트리 프로토콜과 M-ary 쿼리 트리 프로토콜이 제안되었다. 하지만 충돌 트리 프로토콜은 쿼리 트리 프로토콜과 마찬가지로 한번에 1비트씩 밖에 인식을 못한다는 단점이 있다. 그리고 유사한 태그ID들이 다수 존재할 경우, M-ary 쿼리 트리 프로토콜을 이용해 인식 하면, 불필요한 질의-응답이 증가한다. 본 논문에서는 이러한 문제를 해결하고자 M-ary 쿼리 트리 프로토콜의 매핑 함수를 이용한 m-비트 인식, 맨체스터 코딩을 이용한 태그 ID의 충돌정보, M-ary 쿼리 트리의 깊이를 하나 감소시킬 수 있는 예측 기법을 이용하여 성능을 향상시킨 적응형 M-ary 쿼리트리 프로토콜을 제안한다. 본 논문에서는 기존의 트리기반의 프로토콜과 제안하는 기법을 동일한 조건으로 실험하여 비교 분석 하였다. 그 결과 제안하는 기법은 식별시간, 식별효율 등에서 다른 기법들보다 성능이 우수하다.

소비자 감성 기반 뷰티 경험 패턴 맵 개발: 화장품을 중심으로 (Development of Beauty Experience Pattern Map Based on Consumer Emotions: Focusing on Cosmetics)

  • 서봉군;김건우;박도형
    • 지능정보연구
    • /
    • 제25권1호
    • /
    • pp.179-196
    • /
    • 2019
  • 최근의 '똑똑한 소비자(Smart Consumer)'라 불리는 소비자가 많아지고 있는데, 이들은 제조사나 광고를 통해 전달되는 정보에 의존하지 않고, 기존 사용자나 전문가들의 후기, 여러 과학 지식을 획득하여 제품에 대한 이해를 높이고, 본인 스스로가 직접 판단하여 구매하고 있다. 특히나 화장품 분야는 인체 유해성과 같은 부정적인 요소에 대한 민감도가 높고, 자신의 고유한 피부 특성과의 조화도 고려되어야 하기 때문에, 전문적인 지식과 타인의 경험, 본인의 과거 경험 등을 종합적으로 생각하여 구매 의사결정을 내려야 하고, 이에 대해서 적극적인 소비자가 많아지고 있다. 이러한 움직임은 '셀프 뷰티' 와 같은 '셀프' 문화의 열풍과 함께, 문화 현상인 '그루밍족'의 등장, 사회적 트렌드인 'K-뷰티' 와도 동행한다고 할 수 있다. 맞춤형 화장품에 대한 관심의 급부상도 이러한 현상 중 하나라 볼 수 있다. 소비자들의 맞춤형 화장품의 니즈를 충족시키기 위해, 화장품 제조사나 관련 기업들은 ICT기술과의 융합을 통하여 프리미엄 서비스를 중심으로 소비자의 니즈에 대응하고 있다. 그러나 기업 및 시장 현황이 맞춤형 화장품을 향해 진화하고 있지만, 소비자의 피부 상태, 추구하는 감성, 실제 제품이나 서비스까지 소비자 경험을 전체적으로 완전하게 다루는 지능형 데이터 플랫폼은 부재한다. 본 연구에서는 소비자 경험에 대한 지능형 데이터 플랫폼 구축을 위한 첫 단계로 소비자 언어 기반의 화장품 감성 분석을 수행하였다. 소비자들 개인의 선호나 취향이 분명한 앰플/세럼 카테고리를 중심으로 매출 순위 1위에서 99위까지의 99개 제품을 선정하여, 블로그와 트위터 등의 SNS 상에 언급되는 후기 내에 화장품 경험에 대한 소비자 감성을 수집하였다. 총 357개의 감성 형용사를 수집하였고, 고객 여정 워크샵을 통해 유사 감성을 합치고, 중복 감성을 통합하는 작업을 수행하였으며, 최종 76개 형용사를 구축했다. 구축한 형용사에 대한 SOM 분석을 통해 화장품에 대한 소비자 감성에 대한 클러스터링을 실시했다. 분석 결과, 총 8개의 클러스터를 도출했고, 클러스터 별 각 노드의 벡터 값을 기준으로 소비자 감성 Top 10을 도출했다. 소비자 감성을 기준으로 클러스터별 소비자 감성에 서로 다른 특징이 발견됐으며, 소비자에 따라 다른 소비자의 감성을 선호, 기존과는 다른 소비자 감성을 고려한 추천 및 분류 체계가 필요함을 확인했다. 연구 결과를 통해 감성 분석의 활용 도메인이 화장품만이 아닌 다양한 영역으로 확장될 수 있음 확인했으며, 감성 분석을 통한 소비자 인사이트를 도출할 수 있다는 점을 시사했다. 또한, 본 연구에서 활용한 디자인 씽킹(Design Thinking)의 방법론의 적용하여 화장품 특화된 감성 사전을 과학적인 프로세스로 구축했으며, 화장품에 대한 소비자의 인지 및 심리에 대한 이해를 도울 수 있을 것으로 기대한다.