• 제목/요약/키워드: LDA 알고리즘

검색결과 136건 처리시간 0.024초

사회문제 해결형 기술수요 발굴을 위한 키워드 추출 시스템 제안 (A Proposal of a Keyword Extraction System for Detecting Social Issues)

  • 정다미;김재석;김기남;허종욱;온병원;강미정
    • 지능정보연구
    • /
    • 제19권3호
    • /
    • pp.1-23
    • /
    • 2013
  • 융합 R&D가 추구해야 할 바람직한 방향은 이종 기술 간의 결합에 의한 맹목적인 신기술 창출이 아니라, 당면한 주요 문제를 해결함으로써 사회적 니즈를 충족시킬 수 있는 기술을 개발하는 것이다. 이와 같은 사회문제 해결형 기술 R&D를 촉진하기 위해서는 우선 우리 사회에서 주요 쟁점이 되고 있는 문제들을 선별해야 한다. 그런데 우선적이고 중요한 사회문제를 분별하기 위해 전문가 설문조사나 여론조사 등 기존의 사회과학 방법론을 사용하는 것은 참여자의 선입견이 개입될 수 있고 비용이 많이 소요된다는 한계를 지닌다. 기존의 사회과학 방법론이 지닌 문제점을 보완하기 위하여 본 논문에서는 사회적 이슈를 다루고 있는 대용량의 뉴스기사를 수집하고 통계적인 기법을 통하여 사회문제를 나타내는 키워드를 추출하는 시스템의 개발을 제안한다. 2009년부터 최근까지 3년 동안 10개 주요 언론사에서 생산한 약 백 30만 건의 뉴스기사에서 사회문제를 다루는 기사를 식별하고, 한글 형태소 분석, 확률기반의 토픽 모델링을 통해 사회문제 키워드를 추출한다. 또한 키워드만으로는 정확한 사회문제를 파악하기 쉽지 않기 때문에 사회문제와 연관된 키워드와 문장을 찾아서 연결하는 매칭 알고리즘을 제안하다. 마지막으로 사회문제 키워드 비주얼라이제이션 시스템을 통해 시계열에 따른 사회문제 키워드를 일목요연하게 보여줌으로써 사회문제를 쉽게 파악할 수 있도록 하였다. 특히 본 논문에서는 생성확률모델 기반의 새로운 매칭 알고리즘을 제안한다. 대용량 뉴스기사로부터 Latent Dirichlet Allocation(LDA)와 같은 토픽 모델 방법론을 사용하여 자동으로 토픽 클러스터 세트를 추출할 수 있다. 각 토픽 클러스터는 연관성 있는 단어들과 확률값으로 구성된다. 그리고 도메인 전문가는 토픽 클러스터를 분석하여, 각 토픽 클러스터의 레이블을 결정하게 된다. 이를 테면, 토픽 1 = {(실업, 0.4), (해고, 0.3), (회사, 0.3)}에서 토픽 단어들은 실업문제와 관련있으며, 도메인 전문가는 토픽 1을 실업문제로 레이블링 하게 되고, 이러한 토픽 레이블은 사회문제 키워드로 정의한다. 그러나 이와 같이 자동으로 생성된 사회문제 키워드를 분석하여 현재 우리 사회에서 어떤 문제가 발생하고 있고, 시급히 해결해야 될 문제가 무엇인지를 파악하기란 쉽지 않다. 따라서 제안된 매칭 알고리즘을 사용하여 사회문제 키워드를 요약(summarization)하는 방법론을 제시한다. 우선, 각 뉴스기사를 문단(paragraph) 단위로 세그먼트 하여 뉴스기사 대신에 문단 세트(A set of paragraphs)를 가지게 된다. 매칭 알고리즘은 각 토픽 클러스터에 대한 각 문단의 확률값을 측정하게된다. 이때 토픽 클러스터의 단어들과 확률값을 이용하여 토픽과 문단이 얼마나 연관성이 있는지를 계산하게 된다. 이러한 과정을 통해 각 토픽은 가장 연관성이 있는 문단들을 매칭할 수 있게 된다. 이러한 매칭 프로세스를 통해 사회문제 키워드와 연관된 문단들을 검토함으로써 실제 우리 사회에서 해당 사회문제 키워드와 관련해서 구체적으로 어떤 사건과 이슈가 발생하는 지를 쉽게 파악할 수 있게 된다. 또한 매칭 프로세스와 더불어 사회문제 키워드 가시화를 통해 사회문제 수요를 파악하려는 전문가들은 웹 브라우저를 통해 편리하게 특정 시간에 발생한 사회문제가 무엇이며, 구체적인 내용은 무엇인지를 파악할 수 있으며, 시간 순서에 따른 사회이슈의 변동 추이와 그 원인을 알 수 있게 된다. 개발된 시스템을 통해 최근 3년 동안 국내에서 발생했던 다양한 사회문제들을 파악하였고 개발된 알고리즘에 대한 평가를 수행하였다(본 논문에서 제안한 프로토타입 시스템은 http://dslab.snu.ac.kr/demo.html에서 이용 가능함. 단, 구글크롬, IE8.0 이상 웹 브라우저 사용 권장).

토픽 모델링을 활용한 도서관, 기록관, 박물관간의 연구 주제 분석 (Analysis of Research Topics among Library, Archives and Museums using Topic Modeling)

  • 김희섭;강보라
    • 한국도서관정보학회지
    • /
    • 제50권4호
    • /
    • pp.339-358
    • /
    • 2019
  • 본 연구의 목적은 광의의 측면에서 지식정보제공이라는 공동의 임무를 수행하는 도서관, 기록관, 박물관간의 협력 플랫폼 구축에 관한 연구의 동향을 토픽 모델링을 통하여 파악하기 위한 것이다. 연구의 목적을 달성하기 위하여 Scopus로부터 이들 세 기관을 동시에 다루는 논문 637편의 서지정보를 수집하였다. 수집된 서지정보 중에서 초록을 대상으로 NetMiner V.4를 통하여 총 5,218개의 단어를 추출한 후 토픽모델링 분석하였으며, 그 결과는 다음과 같다. 첫째, tf-idf의 가중치에 따른 단어출현 빈도를 분석한 결과 '보존(Preservation)'이 가장 높게 나타났으며, 둘째, LDA(Latent Dirichlet Allocation) 알고리즘을 통한 토픽모델링 분석결과 13개의 주제 영역이 도출되었다. 셋째, 13개의 주제 영역을 네트워크로 표현한 결과 '리포지터리 구축(Repository Construction)'을 중심으로 기관간의 협력, 정보자원 보존을 위한 환경 구축, 정부차원에서의 제도와 정책 발굴, 정보자원의 생애주기, 정보자원의 전시, 정보자원의 검색 등이 서로 밀접한 관련성을 가진 것으로 나타났다. 넷째, 13개의 주제 영역의 연도별 동향을 살펴보면, 1998년 이전의 연구는 제도와 정책 발굴, 정보자원의 검색, 정보자원의 생애주기 등과 같이 특정 주제에 한정된 반면, 그 이후의 연구는 보다 다양한 주제를 다룬 것으로 분석되었다.

한국자료분석학회지에 대한 토픽분석 (A Topic Analysis of Abstracts in Journal of Korean Data Analysis Society)

  • 강창완;김규곤;최승배
    • Journal of the Korean Data Analysis Society
    • /
    • 제20권6호
    • /
    • pp.2907-2915
    • /
    • 2018
  • 1998년에 창립한 한국자료분석 학회지는 자료분석에 기반한 다양한 전공분야를 위해 현재까지 응용학회지로서 역할을 해오고 있다. 본 연구에서는 이러한 한국자료분석 학회지의 본연의 목적을 잘 수행해오고 있는지 최근 10년간 학회지 요약문을 통해 분석하였다. 분석은 한국연구재단에서 제공한 온라인 저널 홈페이지를 통해 2006년부터 2016년까지의 영문 요약문 2680개를 웹크롤링하여 토픽모델을 적용하였다. 분석결과로 18개의 토픽이 선정되었으며 이에 대한 토픽을 해석한 결과 자료분석학회지는 간호학, 경영학(마케팅), 경제학 등 여러 분야를 다루고 있으며 분석방법으로 회귀분석, 가설검정, 데이터마이닝(연관성분석), 요인분석 등이 많이 이용되고 있음을 볼 수 있었다. 그리고 단어들의 연관성(association rule)분석을 통하여 통계적으로 유의한 연관성 규칙 10개를 제시하였다. 여기서 연관성규칙의 통계적 유의성검정은 피셔의 정확검정(Fisher's exact test)을 사용하였다. 또한 연구주제(토픽)의 변화를 살펴본 결과 전반기에는 조사연구가, 후반기에는 대조 연구가 많아졌음을 볼 수 있고 또한 회귀분석과 요인분석은 전, 후반기 구분 없이 자료분석에서 공통적으로 많이 사용하는 통계적 방법임을 알 수 있었다.

토핑 모델링을 활용한 동해안 관광의 변화 분석 (The Analysis of Changes in East Coast Tourism using Topic Modeling)

  • 정은희
    • 한국정보전자통신기술학회논문지
    • /
    • 제13권6호
    • /
    • pp.489-495
    • /
    • 2020
  • 4차혁명이 진행되고 있는 초연결사회에선 다양한 IT기기를 통해 데이터량이 증가하고 있고, 이렇게 생산된 데이터를 분석하여 새로운 가치를 창출 할 수 있다. 본 연구에서는 빅카인즈에서 2017년부터 2019년까지 중앙지, 경제지, 지역조합지, 주요방송사 등에서 "(동해안 관광 또는 동해안 여행) 그리고 강원도"라는 키워드로 기사를 총 1,526건을 수집하였다. 수집된 1,526건의 기사를 분석하기 위해 R언어로 구현된 LDA 알고리즘을 이용하여 토픽 모델링을 수행하였다. 2017년부터 2019년까지 각각의 년도별 키워드를 추출하고, 각 년도별로 빈도수가 높은 키워드를 분류하여 비교하였다. Log Likelihood와 Perplexity를 이용하여 최적의 토픽 수를 8로 설정한 후, 깁스 샘플링 방법으로 8가지의 토픽을 추론하였다. 추론된 토픽들은 강릉과 해변, 고성과 금강산, KTX와 동해북부선, 주말바다여행, 속초와 통일전망대, 양양과 서핑, 체험관광, 교통망 인프라이다. 추론된 8개의 토픽의 비중을 이용해 동해안 관광에 대한 기사들의 변화를 분석하였다. 그 결과, 통일전망대와 금강산의 비중은 큰 변화가 없는 것으로 나타났고, KTX와 체험관광의 비중은 증가하였고, 그 외의 토픽들의 비중은 2017년에 비해 2018년에 감소하였다. 2019년에는 KTX와 체험관광의 비중은 감소하였으나, 나머지 토픽들의 비중은 큰 변화가 없는 것으로 나타났다.

딥러닝 기반 소셜미디어 한글 텍스트 우울 경향 분석 (A Deep Learning-based Depression Trend Analysis of Korean on Social Media)

  • 박서정;이수빈;김우정;송민
    • 정보관리학회지
    • /
    • 제39권1호
    • /
    • pp.91-117
    • /
    • 2022
  • 국내를 비롯하여 전 세계적으로 우울증 환자 수가 매년 증가하는 추세이다. 그러나 대다수의 정신질환 환자들은 자신이 질병을 앓고 있다는 사실을 인식하지 못해서 적절한 치료가 이루어지지 않고 있다. 우울 증상이 방치되면 자살과 불안, 기타 심리적인 문제로 발전될 수 있기에 우울증의 조기 발견과 치료는 정신건강 증진에 있어 매우 중요하다. 이러한 문제점을 개선하기 위해 본 연구에서는 한국어 소셜 미디어 텍스트를 활용한 딥러닝 기반의 우울 경향 모델을 제시하였다. 네이버 지식인, 네이버 블로그, 하이닥, 트위터에서 데이터수집을 한 뒤 DSM-5 주요 우울 장애 진단 기준을 활용하여 우울 증상 개수에 따라 클래스를 구분하여 주석을 달았다. 이후 구축한 말뭉치의 클래스 별 특성을 살펴보고자 TF-IDF 분석과 동시 출현 단어 분석을 실시하였다. 또한, 다양한 텍스트 특징을 활용하여 우울 경향 분류 모델을 생성하기 위해 단어 임베딩과 사전 기반 감성 분석, LDA 토픽 모델링을 수행하였다. 이를 통해 문헌 별로 임베딩된 텍스트와 감성 점수, 토픽 번호를 산출하여 텍스트 특징으로 사용하였다. 그 결과 임베딩된 텍스트에 문서의 감성 점수와 토픽을 모두 결합하여 KorBERT 알고리즘을 기반으로 우울 경향을 분류하였을 때 가장 높은 정확률인 83.28%를 달성하는 것을 확인하였다. 본 연구는 다양한 텍스트 특징을 활용하여 보다 성능이 개선된 한국어 우울 경향 분류 모델을 구축함에 따라, 한국 온라인 커뮤니티 이용자 중 잠재적인 우울증 환자를 조기에 발견해 빠른 치료 및 예방이 가능하도록 하여 한국 사회의 정신건강 증진에 도움을 줄 수 있는 기반을 마련했다는 점에서 의의를 지닌다.

감염병 확산에 따른 레스토랑 선택속성 변화 분석: 텍스트마이닝 기법 적용 (Analysis of Changes in Restaurant Attributes According to the Spread of Infectious Diseases: Application of Text Mining Techniques)

  • 유준일;이은지;구철모
    • 경영정보학연구
    • /
    • 제25권4호
    • /
    • pp.89-112
    • /
    • 2023
  • 2020년 3월, 코로나바이러스 팬데믹으로 선포되면서, 다양한 방역 조치가 취해져 왔다. 이에 따라, 관광 및 환대 산업 내의 많은 변화들이 야기되었다. 특히 레스토랑 산업에서는 비대면 서비스 및 좌석 간 거리두기 등 방역 지침이 시행되었다. 전통적으로 레스토랑 선택속성에 대한 연구는 분위기, 서비스 품질, 음식의 품질을 포함한 3가지 속성의 중요성이 강조해 온 데 반해, 코로나19 이후 레스토랑 이용자를 대상으로 레스토랑 선택속성을 탐색한 연구는 미비한 실정이다. 이에 따라, 본 연구에서는 코로나19라는 환대 산업 내의 환경적 변화에 대한 이해에 기반하여, 국내 온라인 리뷰 데이터 상에서 새로운 레스토랑 경험적 속성을 확인하기 위한 탐색적인 접근을 시도하였다. 본 연구는 서울 을지로 지역에 위치한 일반음식점 및 휴게음식점 475개로 네이버 플레이스에 등록된 총 31,115개의 온라인 리뷰를 분석 단위로 고려하였다. 분석 방법은 단어 빈도와 역문서 빈도의 곱으로 산출된 TF-IDF와 잠재적 토픽들을 추출하는 확률적 모델 알고리즘인 LDA 토픽모델링 기법을 통해 온라인 리뷰 내에서 단어들의 군집화를 통해 레스토랑 선택속성을 재분류하고자 하였다. 분석 결과, 분위기, 서비스 품질, 음식 품질과 함께 코로나19 이후 레스토랑의 새로운 속성으로 "감염병 예방"요인이 도출되었다. 본 연구는 기존 레스토랑 선택속성에서 제시하는 세 가지 속성들을 범주화하고, 나아가 새로운 속성을 제시하였다는 점에서 기존 레스토랑 선택속성 문헌을 확장하여 학술적 의의가 있다. 나아가, 분석 결과에 기반하여 레스토랑 운영의 측면 및 정책적 관점에서의 실무적 제언을 시도하였다.

RFE-SHAP을 활용한 온라인 리뷰를 통한 고객 만족도 예측 (Prediction of Customer Satisfaction Using RFE-SHAP Feature Selection Method)

  • 체르냐예바 올가;홍태호
    • 지능정보연구
    • /
    • 제29권4호
    • /
    • pp.325-345
    • /
    • 2023
  • 본 연구는 온라인 리뷰를 이용하여 고객 만족도를 예측하는 새로운 접근 방식을 제안한다. LDA 주제 모델링과 결합된 RFE-SHAP 기능 선택 방법을 활용하여 고객 만족도에 큰 영향을 미치는 주요 기능을 식별하여 예측 분석을 개선했다. 먼저 Random Forest 알고리즘의 경우, 초기 28개 입력변수에서 14개의 변수를 최적 하위 집합으로 추출했다. 제안된 방법에서 Random Forest 모델의 성과는 84%로 확인 되었으며 변수가 많은 모델에서 흔히 발생하는 과적합을 방지하였다. 또한 품질, 착용감, 내구성 등과 같은 리뷰의 특정 요소들이 패션 산업 내에서 소비자 만족도를 증진시키는 중요한 역할을 한다는 사실을 밝혀냈다. 본 연구는 예측 결과를 설명할 때 선택한 각 기능이 고객 만족도에 어떻게 영향을 미치는지에 대한 자세한 설명을 제공하고 고객이 가장 중요하게 생각하는 측면에 대한 세부적인 보기를 제공한다. 본 연구의 공헌도는 다음과 같다. 첫째, 전자상거래 분석 분야 내에서 예측 모델링을 강화하고 특성 중심적인 접근법을 소개함으로써 방법론을 개선하였다. 이는 고객 만족도 예측의 정확도를 높일 뿐만 아니라 예측 모델에서의 변수 선택에 대한 새로운 접근을 제시한다. 둘째, 특히 의류 부문에서 전자상거래 플랫폼에 구체적인 통찰력을 제공한다. 품질, 사이즈, 내구성 등 고객 리뷰의 어떤 부분이 만족도에 가장 큰 영향을 미치는지 강조함으로써, 기업들이 제품과 서비스를 맞춤화 할 수 있는 전략적 방향을 제시한다. 이러한 목표 지향적인 개선은 고객의 쇼핑 경험을 개선하고, 만족도를 향상시키면서 충성도를 이끌어낼 수 있을 것으로 기대한다.

펴지 군집화 알고리즘 기반의 웨이블릿 변환을 이용한 3차원 얼굴 인식 (3D Face Recognition using Wavelet Transform Based on Fuzzy Clustering Algorithm)

  • 이영학
    • 한국멀티미디어학회논문지
    • /
    • 제11권11호
    • /
    • pp.1501-1514
    • /
    • 2008
  • 깊이 값에 따른 얼굴의 형상은 사람의 특징을 나타내는 중요한 요소 중의 하나로서 각 사람마다 다른 모양을 가지고 있다. 다른 형상을 가진 얼굴 영상으로부터 분리한 주파수 성분은 동일 얼굴에 대한 또 다른 중요 특징 성분의 하나가 될 수 있다. 본 논문은 3차원 얼굴 영상에서 등고선 값을 따라 추출된 영역에 대하여 각 영역별로 주파수 분리를 이용하여 특징을 추출한다. 그리고 이 주파수에 대한 수정된 퍼지 군집화를 적용한 얼굴 인식 알고리즘을 제안한다. 먼저 객체와 배경을 분리하여 얼굴을 추출한 후 얼굴에서 가장 두드러진 형태인 코끝을 찾는다. 이를 이용하여 회전된 얼굴에 대해 정규화를 실시한다. 얼굴의 등고선 영역은 코끝을 기준으로 깊이 값에 따라 영역이 추출되며 이는 사람마다 서로 다른 형상 특징을 가진다. 등고선에 따라 획득된 3차원 얼굴 영상으로부터 이산 웨이블릿 변환을 이용하여 4가지의 주파수 성분을 추출하여 특징정보로 사용한다. 각각의 웨이블릿 주파수 성분을 추출한 등고선 영역에 대해 차원의 감소를 위하여 고유얼굴 추출과 특징 공간상에서 클래스간의 분리를 최대화시키기 위해 선형 판별 분석 알고리즘을 이용하여 유사도를 비교하였다. 본 논문에서는 클래스간의 분별 정보를 향상시키고자 각각의 등고선 영역과 각 영역의 주파수별로 수정된 퍼지 군집화 알고리즘을 적용하여 인식률을 향상 시켰으며, 코끝으로부터 깊이 값이 60인 영역의 경우 98.3%의 인식률을 나타내었다.

  • PDF

기계학습을 이용한 단일 관련자극 P300기반 숨김정보검사 (One-probe P300 based concealed information test with machine learning)

  • 김혁;김현택
    • 인지과학
    • /
    • 제35권1호
    • /
    • pp.49-95
    • /
    • 2024
  • 국내 형사소송절차에서 진술의 진위여부 확인을 위해 사용하는 도구는 폴리그래프검사, 진술타당도분석, P300 기반 숨김정보검사 등이 있고, 이 중에서 폴리그래프검사의 사용빈도가 다른 도구들에 비하여 높다. 하지만, 검사결과를 뒷받침해 줄 수 있는 근거의 부족으로 인하여 재판과정에서 증거채택 가능성이 낮다. 폴리그래프검사를 뒷받침해 줄 수 있는 방법으로, 사전연구가 풍부한 P300기반 숨김정보검사가 주목을 받아 왔지만, 기존의 검사기법은 두 가지 제한점이 있어 실제 사건에서의 활용도는 낮은 편이다. 첫째, 검사에 필요한 관련자극만 3개 또는 6개 등, 사전에 노출되지 않은 정보가 다수 필요하기 때문에 실제 사건에서 사용 가능성이 낮다. 둘째, 기존의 P300기반 숨김정보검사 프로토콜에서는 관련자극과 무관련자극에 대한 P300요소 전위값을 명확하게 구분하기 위하여 오드볼패러다임을 사용하기 때문에 무관련자극에 대한 P300요소 전위값이 과소 추정될 가능성이 있다. 본 연구에서는 검사의 사용 가능성을 높이기 위하여 사전에 노출되지 않은 정보가 단 하나만 있어도 검사가 가능한 단일 관련자극을 사용하는 수정된 P300기반 숨김정보검사 프로토콜을 탐색하였고, 오드볼패러다임 사용으로 인한 무관련자극에 대한 P300요소 전위값이 과소 추정되는 문제를 보완하기 위하여 다양한 기계학습의 분류 알고리즘을 비교하였다. 연구결과 단일 관련자극으로 여성과 남성의 얼굴자극을 사용할 경우, 자극은 400ms 지속시간으로 60회 제시하고, 절단값을 유죄집단은 90%로 무죄집단은 30%로 하여 정점-정점 방법으로 P300요소 전위값을 분석하는 것이 적합함을 확인하였다. 단어자극의 경우, 지속시간을 300ms로 60회 제시하고, P300요소 전위값 분석방법은 얼굴자극과 동일하게 시행하는 것이 적합하다는 것을 확인하였다. 또한 관련자극과 무관련자극에 대한 정점-정점 P300요소 전위값을 6가지 기계학습 분류 알고리즘을 사용하여 분석한 결과, 로지스틱 회귀(LR), 선형 판별 분석(LDA), K-최근접 이웃(KNN) 알고리즘이 관련자극과 무관련자극의 분류에 적합하다는 것을 확인하였다.

텍스트마이닝을 활용한 공개데이터 기반 기업 및 산업 토픽추이분석 모델 제안 (Development of Topic Trend Analysis Model for Industrial Intelligence using Public Data)

  • 박선영;이진무;김유일;서진이
    • 기술혁신연구
    • /
    • 제26권4호
    • /
    • pp.199-232
    • /
    • 2018
  • 빅데이터 분석을 통한 기업 경영환경에 대한 이해와 통찰을 구하고자 하는 요구가 산업 및 기업 경영 전반에 증가하고 있다. 이러한 사회적 요구에 따라 산업의 이해와 기업 경영의 이해를 위하여 기업의 경영실적 및 향후 계획을 포괄적으로 담고 있는 기업공시정보를 활용한 연구가 주목을 받고 있다. 이러한 기업공시정보는 대표적인 비정형 데이터로써 텍스트마이닝 방법론을 적용하여 그 범위와 수준에 대한 다양한 접근을 통하여 산업 수준 및 기업 수준에서 다양한 활용이 가능하다. 그러나 아직은 이러한 기업공시자료를 활용한 산업 및 기업 레벨에서 적용가능한 수준의 분석모델이 부족한 것으로 파악된다. 따라서 본 연구에서는 실제 활용 가능한 공개데이터를 활용한 산업 및 기업 수준의 분석모델을 제안하고자 한다. 미국상장기업의 공시자료인 미국 SEC EDGAR 자료를 기반으로 텍스트마이닝 알고리즘을 적용하여 산업 및 기업 수준의 경영주제(토픽)에 대한 추이분석이 가능한 모델을 제안하고자한다. SEC EDGAR의 10-K 문서를 대상으로 LDA 토픽 모델링을 통하여 산업 수준에서 전체 산업의 주제분야 분류를 파악하였고, 산업간 비교 측면에서 소프트웨어 산업과 하드웨어 산업 분야의 사례를 통해 최근 20년간의 토픽추이를 비교분석 하였다. 또한 최근 20년간의 기업의 경영주제 변화를 소프트웨어 산업에 속한 2개 기업을 중심으로 살펴보았다. 이를 통해 산업 및 기업 수준에서의 경영주제의 추이 변화를 파악하여 쇠퇴 및 성장 추세에 있는 경영주제를 확인 할 수 있었다. 한편 word2vec 워드 임베딩 모델과 주성분분석을 통한 차원 축약을 통해 소프트웨어 산업분야의 기업 및 특정 제품(혹은 서비스)에 대한 매핑을 통해 유사한 경영주제(토픽)를 가지는 기업 및 제품(서비스)을 사례를 통해 파악하였으며, 이를 시간적 흐름에 따른 변화 양상도 관찰할 수 있었다. 본 연구의 목적이 공개데이터를 활용한 산업 및 기업 수준의 분석모델을 개발하기 위한 방법론을 제안한 측면에서, 해외 데이터를 사용하여 산업의 경영주제 변화 추이, 기업의 경영주제 변화 추이를 거시적으로 조망할 수 있는 실무적인 방법론의 제안에서 의의가 있을 수 있다. 한편 기업의 기술경영전략 측면에서 기업의 경영토픽의 잦은 변화, 경영주제의 변화의 속도 등 다양한 변화 양상의 차이에 따른 기업의 매출 등의 경영성과와의 연관성 분석, 실제 기업의 제품포트폴리오의 구성에 따른 기업 간의 경쟁상황 등을 파악하는 미시적 모델 제안을 위한 추가 연구가 요구된다.