• 제목/요약/키워드: 키워드검색기법

검색결과 254건 처리시간 0.03초

온라인 텍스트 분석을 통해 추정한 기업의 사회적책임 성과가 기업의 단기적 장기적 성과에 미치는 영향 분석 (Investigating the Impact of Corporate Social Responsibility on Firm's Short- and Long-Term Performance with Online Text Analytics)

  • 이희승;진윤선;권오병
    • 지능정보연구
    • /
    • 제22권2호
    • /
    • pp.13-31
    • /
    • 2016
  • 그동안 기업의 사회적 책임(CSR)관련 활동의 결과가 기업 성과에 미치는 단기적 및 장기적 영향에 대한 다양한 연구가 진행되었지만 그 결과는 일관되지 못한데 그 주된 원인은 기업의 사회적책임이라고 하는 개념의 불일치였다. 따라서 본 연구는 온라인 뉴스와 같은 비정형 공개 데이터로부터 기업의 사회적책임에 관련한 키워드를 텍스트 마이닝 기법을 사용하여 추출하고 그 개념에 대한 통계치와 기업 성과와의 관계성을 이해하려고 했다. 이를 위해 개념과 관련한 키워드는 뉴욕타임즈와 구글 스칼러에서 CSR이라고 하는 단어로 검색한 비정형 데이터로부터 인식하였다. 그런 다음 점검 대상이 되는 기업에 대한 글이 실려 있는 온라인 문서를 수집하여 기업의 사회적 책임과 기업 단기적 및 장기적 성과 사이의 인과관계를 분석하였다. 그 결과, 기업의 사회적 책임에 대한 전문적인 평가 보고서의 도움 없이도 본 연구에서 개발한 기업의 사회적 책임 인덱스만으로 기업의 단기적 성과에는 영향이 없지만 장기적 성과와는 통계적으로 유의하게 정비례관계가 있는 것이 밝혀졌다. 본 연구는 빅데이터 분석을 통해 효율적이고 의미 있는 기업의 사회적 책임 평가 방법을 개발한 첫 번째 시도라는 의미가 있다.

개념 망을 통한 전자 카탈로그의 시맨틱 검색 및 추천 (Semantic Search and Recommendation of e-Catalog Documents through Concept Network)

  • 이재원;박성찬;이상근;박재휘;김한준;이상구
    • 한국전자거래학회지
    • /
    • 제15권3호
    • /
    • pp.131-145
    • /
    • 2010
  • 현재까지, 사용자의 요구에 맞는 카탈로그 문서를 제공하기 위해 널리 사용되고 있는 패러다임은 키워드 검색 혹은 협업적 필터링 기반 추천이다. 일반적으로 사용자의 질의어는 짧기 때문에, 사용자의 요구(질의어, 선호도)에 적합한 카탈로그 문서를 제공하는 것은 쉽지 않다. 이를 극복하기 위해 다양한 기법들이 제안되었으나, 이전 연구들은 색인어 매칭을 기반으로 하고 있다. 기존 베이지안 신념 망을 이용한 방법은 사용자의 요구 및 카탈로그 문서들을 연관성이 높은 개념들로 표현하였다. 하지만 개념들이 카탈로그 문서에서 추출된 색인어로 구성되어 있기 때문에 개념간의 관계 정보를 잘 표현하지 못하였다. 이에 본 연구는 베이지안 신념 망을 확장하여, 사용자의 요구 및 카탈로그 문서들을 웹 디렉토리에서 추출한 개념(혹은 카테고리) 망으로 표현한다. 개념 망을 이용함으로써, 사용자의 요구와 카탈로그 문서간의 개념 매칭도를 계산하는 것이 가능하다. 즉, 사용자의 질의어와 카탈로그 문서의 색인어가 일치하지 않을지라도, 개념적으로 관련성이 높은 문서를 검색하는 것이 가능하다. 또한 사용자간의 개념적 유사도를 계산함으로써, 시맨틱 기반의 협업적 필터링 추천이 가능하다.

기술혁신의 연구 동향 분석: SCOPUS DB를 중심으로 (Analysis of Research Trends in Technology Innovation: Focus on SCOPUS DB)

  • 박은미;서정해
    • 융합정보논문지
    • /
    • 제10권8호
    • /
    • pp.120-126
    • /
    • 2020
  • 디지털 트랜스포메이션 시대가 시작됨에 따라 기업의 환경도 많은 변화가 일어나고 있다. 기업들은 이제는 과거와는 다른 경쟁 환경하에 놓이게 되었다. 디지털 트랜스포메이션의 관련 기술들을 중심으로 상상할 수 없을 정도의 많은 기술적인 혁신들이 일어나고 있다. 기술혁신에 대한 연구도 과거와는 다르게 많이 진행이 되고 있다. 이에 본 연구에서는 SCOPUS 데이터베이스를 중심으로 2015년부터 2019년까지 기술혁신이라는 주제로 한 논문을 검색하였다. 논문중에서 초록을 제공하고 있는 논문 1,043편을 수집하고, 이를 텍스트 마이닝 기법과 LDA 기법을 활용하여 분석을 수행하였다. 분석결과, 기술혁신에 대한 연구가 지속적으로 증가를 하고 있는 것으로 나타났으며, 다양한 분야에서 기술혁신에 대한 연구가 이루어지고 있는 것으로 나타났다. 또한 기술혁신의 주제 외에도 기술혁신과 관련된 다양한 키워드들도 도출이 되었다.

미국 특허 서지정보 추출 방법에 대한 연구: HTML 파싱 기법의 활용을 중심으로 (An Extraction Method of Bibliographic Information from the US Patents: Using an HTML Parsing Technique)

  • 한유진;오승우
    • 정보관리학회지
    • /
    • 제27권2호
    • /
    • pp.7-20
    • /
    • 2010
  • 본 연구는 미국 특허 문서에서 가장 최신의 정보를 추출할 수 있는 방법을 제시하였다. 이를 위해 미국특허청 웹페이지에 직접 접속하여, HTML 문서를 파싱하는 방법을 제시하였다. 먼저 관심 있는 키워드로 검색을 한 후 50개로 이루어진 리스트가 출력되면, HTML 파싱 기법을 이용하여 여기서 직접 특허번호, 출원인, 미국 특허 클래스와 같은 주요 서지정보를 추출할 수 있는 알고리즘을 제안하였다. 또한 미국 특허문서에서 특수하게 제공되는 선.후행 특허간의 관계를 활용해 본 특허와 후행 특허의 미국 특허 클래스를 동시에 추출 할 수 있는 알고리즘도 보여주었다. 본 연구에서 제시한 방법은 몇 가지 한계를 가지지만, 적시성.포괄성 측면에서 이미 존재하는 데이터베이스를 보완할 수 있을 것이다.

키워드 군집화를 이용한 연구 논문 분류에 관한 연구 (A Study on Research Paper Classification Using Keyword Clustering)

  • 이윤수;;이종혁;길준민
    • 정보처리학회논문지:소프트웨어 및 데이터공학
    • /
    • 제7권12호
    • /
    • pp.477-484
    • /
    • 2018
  • 컴퓨터 기술의 발전으로 힘입어 수많은 논문이 출판되고 있으며, 새로운 분야들도 계속 생기면서 사용자들은 방대한 논문들 중 자신이 필요로 하는 논문을 검색하거나 분류하기에 많은 어려움을 겪고 있다. 사용자의 이러한 어려움을 완화하기 위해 본 논문에서는 유사 내용의 논문을 분류하고 이를 군집화하는 방법을 제한한다. 본 논문의 제안 방법은 TF-IDF를 이용하여 각 논문의 초록으로부터 주요 주제어를 추출하고, K-평균 클러스터링 알고리즘을 이용하여 추출한 TF-IDF 값을 근거로 논문들을 유사 내용의 논문으로 군집화한다. 제안 방법의 실효성을 검증하기 위해 실제 데이터인 FGCS 저널의 논문 데이터를 사용하였으며, 엘보우 기법을 적용하여 클러스터 개수를 도출하고 실루엣 기법을 이용하여 클러스터링 성능을 검증하였다.

텍스트 마이닝을 이용한 4차 산업 연구 동향 토픽 모델링 (Topic Modeling on Research Trends of Industry 4.0 Using Text Mining)

  • 조경원;우영운
    • 한국정보통신학회논문지
    • /
    • 제23권7호
    • /
    • pp.764-770
    • /
    • 2019
  • 본 연구에서는 "4차 산업"과 관련된 논문들의 세부 연구 주제를 파악하기 위하여 텍스트 마이닝 기법을 이용하여 논문들을 분석하였다. 이를 위하여 2016년부터 2019년까지 한국학술지인용색인(KCI)에서 "4차 산업"이라는 키워드로 논문을 검색하여 총 685편의 논문을 수집하였다. 논문 수집을 위해서는 Python 기반의 웹 스크랩핑 프로그램을 사용하였으며, 자료 분석을 위해서는 R 언어로 구현된 LDA 알고리즘 기반의 토픽 모델링 기법들을 활용하였다. 수집된 논문들에 대한 Perplexity 분석 결과, 9가지 토픽이 최적으로 결정되었고 수집된 논문들의 9가지 대표 토픽들을 Gibbs 샘플링 방법을 사용하여 추출하였다. 분석 결과, 인공지능, 빅데이터, 사물인터넷, 디지털, 네트워크 등이 상위 주요 기술들로 나타났으며, 산업, 정부, 교육 현장, 일자리 등 4차 산업과 관련한 다양한 분야에서 주요 기술들로 인한 변화에 대한 연구들이 이루어져 왔음을 확인할 수 있었다.

클라우드 컴퓨팅 환경을 위한 환자 질병 정보의 효율적인 클러스터링 처리 방안에 대한 연구 (A Study of An Efficient Clustering Processing Scheme of Patient Disease Information for Cloud Computing Environment)

  • 정윤수
    • 중소기업융합학회논문지
    • /
    • 제6권1호
    • /
    • pp.33-38
    • /
    • 2016
  • 병원을 방문하는 환자의 질병은 환경과 생활 습관에 따라 같은 질병도 서로 다른 증상이 발생할 수 있다. 최근 환자를 대상으로 제공되는 의료 서비스는 질병에 따라 환자 증상을 분석하여 치료 방법을 선택할 수 있는 환경으로 변화하고 있다. 본 논문에서는 같은 질병을 앓고 있는 환자들의 건강상태를 파악하여 질병 정도에 따라 치료 방법이 달라질 수 있기 때문에 환자 질병 정보에 따른 치료 방법을 그룹핑하여 효율적으로 관리할 수 있는 질병 관리 기법을 제안한다. 제안 기법은 환자 질병 정보를 빅 데이터화하여 의료진의 진료 효율성을 향상시킬 수 있을 뿐만 아니라 환자의 치료 만족도를 향상시킬 수 있는 특징이 있다. 제안 기법은 환자 동의하에 같은 질병을 앓고 있는 환자들의 질병 정보를 소그룹으로 클러스터링하여 빅 데이터 처리가 가능하다. 또한, 제안 기법은 환자 질병 정보에 따른 치료 방법을 특정 키워드를 통해 손쉽게 검색할 수 있는 장점이 있다. 실험 결과, 제안 기법은 기존 기법에 비해 업무 효율성 측면에서 23% 향상되었으며, 질병 관리 시간도 11.3% 향상된 결과를 얻었다. 설문 조사를 통해 살펴본 의료 서비스에 대한 환자 만족도는 31.5% 높은 결과를 얻었다.

텍스트 마이닝을 활용한 노인장기요양보험에서의 작업치료: 2007-2018년 (Occupational Therapy in Long-Term Care Insurance For the Elderly Using Text Mining)

  • 조민석;백순형;박엄지;박수희
    • 고령자・치매작업치료학회지
    • /
    • 제12권2호
    • /
    • pp.67-74
    • /
    • 2018
  • 목적 본 연구의 목적은 텍스트 마이닝이라는 빅데이터 분석 기법 중 하나를 활용하여 노인장기요양보험에서 작업치료의 역할을 정량적으로 분석하는 것이다. 연구방법 신문기사 분석을 위해 2007~208년까지 기간 설정 후 "노인장기요양보험+작업치료"를 주제어로 수집하였다. Textom이라는 웹 크롤링(Web Crawling)을 활용해 국내 검색엔진 네이버에서 <네이버뉴스>의 데이터베이스를 활용하였다. 수집결과 노인장기요양보험+작업치료 검색에서 510편의 뉴스 데이터의 기사제목과 원문을 수집한 후 연도별 기사 빈도, 핵심어분석을 시행하였다. 연구결과 연도별 기사 발행 빈도를 살펴보면 2015년과 2017년 발행한 기사 수가 70편(13.7%)으로 가장 많았고, 핵심어 분석 상위 10개의 용어는 '치매'(344)가 가장 많았으며, 작업과 핵심어의 관례를 알아보면, 치매, 치료, 병원, 건강, 서비스, 재활, 시설, 제도, 등급, 어르신, 전문, 급여, 공단, 국민이 관련이 있는 것으로 나타났다. 결론 본 연구에서는 텍스트 마이닝 기법을 통해 11년간의 노인장기요양보험의 언론 보도 동향을 토대로 관련 핵심 키워드에서 치매와 재활에 대해 사회적 요구와 작업치료사의 역할을 보다 객관적으로 확인하였다는 점에서 의의가 있다. 이 결과를 바탕으로 다음 연구에서는 연도에 따른 다양한 분석방법을 통해 연구방법론을 보완하여야 할 것이다.

빅데이터 분석 기반의 메타스터디를 통해 본 공유경제에 대한 학술연구 동향 분석 (Trends Analysis on Research Articles of the Sharing Economy through a Meta Study Based on Big Data Analytics)

  • 김기연
    • 인터넷정보학회논문지
    • /
    • 제21권4호
    • /
    • pp.97-107
    • /
    • 2020
  • 본 연구의 목적은 빅데이터 분석기법을 활용하여 공유경제 관련 국내 학술연구 동향을 탐색하기 위해 내용분석 관점에서 종합적 메타스터디를 수행하는데 있다. 종합적 메타분석 연구방법론은 일련의 전체 연구결과물들을 역사적으로 그리고 포괄적으로 살펴봄으로써 전체 연구동향의 규칙성이나 특성을 조명하여, 이를 통해 향후 연구에 대해 방향성을 제시할 수 있다. 공유경제를 주제로 하는 국내 학술연구는 Lawrence Lessig 교수가 2008년에 공유경제의 개념을 세상에 소개한 해에 등장하였으나, 본격적인 연구는 2013년부터 진행되었다. 특히, 2006~2008년 사이에 국내 공유경제 관련 학술연구는 양적으로 급격히 증가하였다. 본 연구는 2013년부터 현재까지 약 8년간의 논문들을 분석 논문으로 선정하고, 전자저널의 학술논문검색 및 원문서비스를 이용하여 제목, 키워드, 초록을 중심으로 텍스트 데이터를 수집하였다. 수집된 데이터를 정제, 분석, 시각화의 순서로 빅데이터 분석을 실시하여, 추출된 핵심어들을 통해 연도별 및 문헌 유형별 연구동향 및 인사이트를 도출하였다. 데이터 전처리 및 텍스트 마이닝, 메트릭스 빈도분석을 위해 Python3.7과 Textom 분석도구를 활용하였고, 핵심어 노드 간의 구조적 연관성을 파악하기 위해 UCINET6/NetDraw, Textom 프로그램 기반의 N-gram 차트, 중심성 및 소셜네트워크 분석, 그리고 CONCOR 클러스터링 시각화를 통해 8개로 군집화 한 키워드들을 토대로 연구동향의 유형별 특성을 발견하였다. 아직까지 사회과학적 관점에서 공유경제 관련 학술연구 동향에 관한 조사가 이루어진 바가 없기 때문에, 본 연구의 결과물은 선행연구로서 후속 연구들에게 이론적 고찰 및 향후 연구방향에 대해 유용한 정보를 제공하는 초석의 역할을 기대할 수 있다.

빅데이터를 활용한 건축물 화재위험도 평가 지표 결정 (Determination of Fire Risk Assessment Indicators for Building using Big Data)

  • 주홍준;최윤정;옥치열;안재홍
    • 한국건축시공학회지
    • /
    • 제22권3호
    • /
    • pp.281-291
    • /
    • 2022
  • 본 연구에서는 빅데이터를 활용하여 건축물의 화재위험도 평가에 필요한 지표를 결정하였다. 건축물에서 화재위험도에 영향을 미치는 원인은 대부분 건축물만을 고려한 지표로 고착화되어 있기 때문에 제한적이고 주관적인 평가가 수행되어왔다. 따라서, 빅데이터를 활용하여 다양한 내·외부 지표를 고려한다면 건축물의 화재위험도 저감을 위한 효과적인 대책을 도모할 수 있다. 지표 결정에 필요한 데이터를 수집하기 위해 먼저 질의어를 선정하고, 웹 크롤링 기법을 이용하여 비정형 데이터 형식의 전문 문헌을 수집하였다. 문헌 내 단어를 수집하기 위해 사용자 용어사전 등록, 중복 문헌 및 불용어 제거의 전처리 과정을 수행하였으며, 선행 연구를 검토하여 단어를 4개의 요소로 분류하고 각 요소에서 위험도와 관련된 대표 키워드를 선정하였다. 그리고 대표 키워드의 연관검색어 분석을 통해 파생되는 위험도 관련 지표를 수집하였다. 지표의 선정 기준에 따라 수집된 지표를 검토한 결과, 20개의 건축물 화재위험도 지표를 결정할 수 있었다. 본 연구 방법론은 건축물 화재위험의 저감 대책 수립을 위한 빅데이터 분석의 적용 가능성을 나타내며, 결정된 지표는 건축물 화재위험도 평가를 위한 참고자료로 사용될 수 있을 것이다.