• 제목/요약/키워드: Internet Use for Learning

검색결과 513건 처리시간 0.027초

온라인 언급이 기업 성과에 미치는 영향 분석 : 뉴스 감성분석을 통한 기업별 주가 예측 (Influence analysis of Internet buzz to corporate performance : Individual stock price prediction using sentiment analysis of online news)

  • 정지선;김동성;김종우
    • 지능정보연구
    • /
    • 제21권4호
    • /
    • pp.37-51
    • /
    • 2015
  • 인터넷 기술의 발전과 인터넷 상 데이터의 급속한 증가로 인해 데이터의 활용 목적에 적합한 분석방안 연구들이 활발히 진행되고 있다. 최근에는 텍스트 마이닝 기법의 활용에 대한 연구들이 이루어지고 있으며, 특히 문서 내 텍스트를 기반으로 문장이나 어휘의 긍정, 부정과 같은 극성 분포에 따라 의견을 스코어링(scoring)하는 감성분석과 관련된 연구들도 다수 이루어지고 있다. 이러한 연구의 연장선상에서, 본 연구는 인터넷 상의 특정 기업에 대한 뉴스 데이터를 수집하여 이들의 감성분석을 실시함으로써 주가의 등락에 대한 예측을 시도하였다. 개별 기업의 뉴스 정보는 해당 기업의 주가에 영향을 미치는 요인으로, 적절한 데이터 분석을 통해 주가 변동 예측에 유용하게 활용될 수 있을 것으로 기대된다. 따라서 본 연구에서는 개별 기업의 온라인 뉴스 데이터에 대한 감성분석을 바탕으로 개별 기업의 주가 변화 예측을 꾀하였다. 이를 위해, KOSPI200의 상위 종목들을 분석 대상으로 선정하여 국내 대표적 검색 포털 서비스인 네이버에서 약 2년간 발생된 개별 기업의 뉴스 데이터를 수집 분석하였다. 기업별 경영 활동 영역에 따라 기업 온라인 뉴스에 나타나는 어휘의 상이함을 고려하여 각 개별 기업의 어휘사전을 구축하여 분석에 활용함으로써 감성분석의 성능 향상을 도모하였다. 분석결과, 기업별 일간 주가 등락여부에 대한 예측 정확도는 상이했으며 평균적으로 약 56%의 예측률을 보였다. 산업 구분에 따른 주가 예측 정확도를 통하여 '에너지/화학', '생활소비재', '경기소비재'의 산업군이 상대적으로 높은 주가 예측 정확도를 보임을 확인하였으며, '정보기술'과 '조선/운송' 산업군은 주가 예측 정확도가 낮은 것으로 확인되었다. 본 논문은 온라인 뉴스 정보를 활용한 기업의 어휘사전 구축을 통해 개별 기업의 주가 등락 예측에 대한 분석을 수행하였으며, 향후 감성사전 구축 시 불필요한 어휘가 추가되는 문제점을 보완한 연구 수행을 통하여 주가 예측 정확도를 높이는 방안을 모색할 수 있을 것이다.

국방 빅데이터/인공지능 활성화를 위한 다중메타데이터 저장소 관리시스템(MRMM) 기술 연구 (A Research in Applying Big Data and Artificial Intelligence on Defense Metadata using Multi Repository Meta-Data Management (MRMM))

  • 신우택;이진희;김정우;신동선;이영상;황승호
    • 인터넷정보학회논문지
    • /
    • 제21권1호
    • /
    • pp.169-178
    • /
    • 2020
  • 국방부는 감소되는 부대 및 병력자원의 문제해결과 전투력 향상을 위해 4차 산업혁명 기술(빅데이터, AI)의 적극적인 도입을 추진하고 있다. 국방 정보시스템은 업무 영역 및 각군의 특수성에 맞춰 다양하게 개발되어 왔으며, 4차 산업혁명 기술을 적극 활용하기 위해서는 현재 폐쇄적으로 운용하고 있는 국방 데이터 관리체계의 개선이 필요하다. 그러나, 국방 빅데이터 및 인공지능 도입을 위해 전 정보시스템에 데이터 표준을 제정하여 활용하는 것은 보안문제, 각군 업무특성 및 대규모 체계의 표준화 어려움 등으로 제한사항이 있고, 현 국방 데이터 공유체계 제도적으로도 각 체계 상호간 연동 소요를 기반으로 체계간 연동합의를 통해 직접 연동을 통하여 데이터를 제한적으로 공유하고 있는 실정이다. 4차 산업혁명 기술을 적용한 스마트 국방을 구현하기 위해서는 국방 데이터를 공유하여 잘 활용할 수 있는 제도마련이 시급하고, 이를 기술적으로 뒷받침하기 위해 국방상호운용성 관리지침 규정에 따라 도메인 및 코드사전을 생성된 국방 전사 표준과 각 체계별 표준 매핑을 관리하고 표준간 연계를 통하여 데이터 상호 운용성 증진을 지원하는 국방 데이터의 체계적인 표준 관리를 지원하는 다중 데이터 저장소 관리(MRMM) 기술개발이 필요하다. 본 연구에서는 스마트 국방 구현을 위해 가장 기본이 되는 국방 데이터의 도메인 및 코드사전을 생성된 국방 전사 표준과 각 체계별 표준 매핑을 관리하고, 표준간 연계를 통하여 데이터 상호 운용성 증진을 지원하는 다중 데이터 저장소 관리 (MRMM) 기술을 제시하고, 단어의 유사도를 통해 MRMM의 실현 방향성을 구현하였다. MRMM을 바탕으로 전군 DB의 표준화 통합을 좀 더 간편하게 하여 실효성 있는 국방 빅데이터 및 인공지능 데이터 구현환경을 제공하여, 스마트 국방 구현을 위한 막대한 국방예산 절감과 전투력 향상을 위한 전력화 소요기간의 감소를 기대할 수 있다.

사전과 말뭉치를 이용한 한국어 단어 중의성 해소 (Korean Word Sense Disambiguation using Dictionary and Corpus)

  • 정한조;박병화
    • 지능정보연구
    • /
    • 제21권1호
    • /
    • pp.1-13
    • /
    • 2015
  • 빅데이터 및 오피니언 마이닝 분야가 대두됨에 따라 정보 검색/추출, 특히 비정형 데이터에서의 정보 검색/추출 기술의 중요성이 나날이 부각되어지고 있다. 또한 정보 검색 분야에서는 이용자의 의도에 맞는 결과를 제공할 수 있는 검색엔진의 성능향상을 위한 다양한 연구들이 진행되고 있다. 이러한 정보 검색/추출 분야에서 자연어처리 기술은 비정형 데이터 분석/처리 분야에서 중요한 기술이고, 자연어처리에 있어서 하나의 단어가 여러개의 모호한 의미를 가질 수 있는 단어 중의성 문제는 자연어처리의 성능을 향상시키기 위해 우선적으로 해결해야하는 문제점들의 하나이다. 본 연구는 단어 중의성 해소 방법에 사용될 수 있는 말뭉치를 많은 시간과 노력이 요구되는 수동적인 방법이 아닌, 사전들의 예제를 활용하여 자동적으로 생성할 수 있는 방법을 소개한다. 즉, 기존의 수동적인 방법으로 의미 태깅된 세종말뭉치에 표준국어대사전의 예제를 자동적으로 태깅하여 결합한 말뭉치를 사용한 단어 중의성 해소 방법을 소개한다. 표준국어대사전에서 단어 중의성 해소의 주요 대상인 전체 명사 (265,655개) 중에 중의성 해소의 대상이 되는 중의어 (29,868개)의 각 센스 (93,522개)와 연관된 속담, 용례 문장 (56,914개)들을 결합 말뭉치에 추가하였다. 품사 및 센스가 같이 태깅된 세종말뭉치의 약 79만개의 문장과 표준국어대사전의 약 5.7만개의 문장을 각각 또는 병합하여 교차검증을 사용하여 실험을 진행하였다. 실험 결과는 결합 말뭉치를 사용하였을 때 정확도와 재현율에 있어서 향상된 결과가 발견되었다. 본 연구의 결과는 인터넷 검색엔진 등의 검색결과의 성능향상과 오피니언 마이닝, 텍스트 마이닝과 관련한 자연어 분석/처리에 있어서 문장의 내용을 보다 명확히 파악하는데 도움을 줄 수 있을 것으로 기대되어진다.

영상처리기법을 이용한 CNN 기반 리눅스 악성코드 분류 연구 (A Study on Classification of CNN-based Linux Malware using Image Processing Techniques)

  • 김세진;김도연;이후기;이태진
    • 한국산학기술학회논문지
    • /
    • 제21권9호
    • /
    • pp.634-642
    • /
    • 2020
  • 사물인터넷(IoT) 기기의 확산으로 인해 다양한 아키텍처가 존재하는 Linux 운영체제의 활용이 증가하였다. 이에 따라 Linux 기반의 IoT 기기에 대한 보안 위협이 증가하고 있으며 기존 악성코드를 기반으로 한 변종 악성코드도 꾸준히 등장하고 있다. 본 논문에서는 시각화한 ELF(Executable and Linkable Format) 파일의 바이너리 데이터를 영상처리 기법 중 LBP(Local Binary Pattern)와 Median Filter를 적용하여 CNN(Convolutional Neural Network)모델로 악성코드를 분류하는 시스템을 제안한다. 실험 결과 원본 이미지의 경우 98.77%의 점수로 가장 높은 정확도와 F1-score를 보였으며 재현율도 98.55%의 가장 높은 점수를 보였다. Median Filter의 경우 99.19%로 가장 높은 정밀도와 0.008%의 가장 낮은 위양성률을 확인하였으며 LBP의 경우 전반적으로 원본과 Median Filter보다 낮은 결과를 보였음을 확인하였다. 원본과 영상처리기법별 분류 결과를 다수결로 분류했을 경우 원본과 Median Filter의 결과보다 정확도, 정밀도, F1-score, 위양성률이 전반적으로 좋아졌음을 확인하였다. 향후 악성코드 패밀리 분류에 활용하거나 다른 영상처리기법을 추가하여 다수결 분류의 정확도를 높이는 연구를 진행할 예정이다.

호주 국가교육과정 예술과목 'Media Art' 에 나타난 미디어 리터러시 교육 (Media Literacy Education in the Australian Curriculum: Media Art)

  • 박유신
    • 만화애니메이션 연구
    • /
    • 통권48호
    • /
    • pp.271-310
    • /
    • 2017
  • 이 논문은 호주의 국가교육과정 ACARA의 예술교육과정인 미디어 아트 과목의 구성 및 그 내용을 살펴보고, 한국의 교육과정에 주는 시사점을 논의한다. 미디어 아트과목에서 다루는 미디어는 TV, 영화, 비디오, 신문, 라디오, 비디오 게임, 인터넷 및 모바일 미디어 등을 포괄하는 복합 양식적 미디어 전반과 그 콘텐츠이다. ACARA에 나타난 미디어 아트 교육과정의 목표는 일반적으로 다양한 목적과 청중을 대상으로 한 의사소통기술의 창조적 사용, 지식, 이해, 기술을 발전시키는 데에 있다. 미디어 아트 과목을 통해 학생 개인과 공동체는 자신들을 둘러싼 풍부한 문화와 실제적 의사소통에 참여하고, 이를 실험하면서 언어, 기술, 제도, 청중, 재현의 5개 핵심개념에 대한 지식과 이해를 발전시키게 된다. 본 연구의 시사점은 다음과 같다. ACARA의 미디어 아트 교육과정은 독립적 예술교육과정으로 개발되어 호주 교육과정 내에서 특별히 중요성을 지니고 있음을 알 수 있다. ACARA의 미디어 아트 교육과정은 독립적인 교과로 구성되어 있으나, 그 실행에 있어서 다른 과목들과 긴밀하게 연계되어 지도되도록 교육과정상에서 제안되고 있다. 교육과정 구성상의 체계성과 정교함은 교사 차원의 교수 학습 설계 및 평가 측면에 있어서 매우 효과적으로 구성되어 있다. ACARA의 미디어 아트 교육과정은 미디어 리터러시 교육을 국가 및 주 차원에서 선도적으로 실행해 온 호주의 사례라는 점에서 한국 미디어 리터러시 교육과정 구성에 있어서 향후 많은 도움이 될 것으로 생각된다.

대학생의 스마트폰 의존 자각과 대처 행동 (Self-Awareness and Coping Behavior of Smartphone Dependence among Undergraduate Students)

  • 박정혜
    • 한국산학기술학회논문지
    • /
    • 제22권2호
    • /
    • pp.336-344
    • /
    • 2021
  • 본 연구의 목적은 우리나라 대학생의 스마트폰 의존에 대한 자각과 관련 요인, 자각 후 대처 행동을 확인하는 것이다. 연구대상자는 2017년 과학기술정보통신부와 한국지능정보사회진흥원에서 실시한 스마트폰 과의존 실태조사 참여자 중 대학에 재학 중인 1,735명이다. 자료분석을 위하여 빈도와 백분율, 평균과 표준편차, 교차분석, 독립표본 T 검증, Pearson 상관관계, 위계적 다중회귀분석을 사용하였다. 그 결과, 대상자의 22.3%가 스마트폰 의존 위험에 있었고, 의존 위험자의 63.6%는 의존을 자각하지 못하였다. 의존 자각과 관련된 요인은 스마트폰 의존 위험의 증가(��=.35, p=.000), 게임(��=.19, p=.000), 영상(��=.11, p=.000), 학업(��=.11, p=.000) 애플리케이션 사용의 증가였다. 의존을 자각한 대상자가 문제해결에 필요한 관련 공공기관을 알고 있는지 확인한 결과, 22.8%가 스마트쉼센터를 알고 있었고, 청소년상담복지센터는 36.6%, 아이윌센터는 14.1%가 알고 있다고 응답하였다. 그러나 응답자 중 이용경험자는 스마트 쉼센터 5명, 아이윌센터 1명, 청소년상담복지센터는 없었다. 응답자들은 의존을 극복하기 위해 더 많은 상담센터(26.8%), 스스로 대처할 수 있는 교육 프로그램(23.2%), 스마트폰 의존에 대한 정보(14.9%), 가족과 주변 사람들의 도움(10.9%)이 필요하다고 하였다. 이러한 결과는 스마트폰을 사용하는 대학생 5명 중 1명이 의존 위험에 노출되어 있고, 의존 위험 대상자 3명 중 2명은 자신의 의존을 자각하지 못하며, 의존에 대한 지식이 부족하고, 의존을 자각하더라도 실제 도움을 받을 수 있는 공공기관에 접근하기가 쉽지 않다는 것을 보여준다. 그러므로 향후 이들이 스마트폰 의존에 대한 올바른 정보에 쉽게 접근하고, 문제를 해결할 수 있도록 공공서비스 기반 마련이 필요하다.

코로나 이전과 이후의 4차 산업혁명과 광고의 뉴스기사 분석 : LDA와 Word2vec을 중심으로 (News Article Analysis of the 4th Industrial Revolution and Advertising before and after COVID-19: Focusing on LDA and Word2vec)

  • 차영란
    • 한국콘텐츠학회논문지
    • /
    • 제21권9호
    • /
    • pp.149-163
    • /
    • 2021
  • 4차 산업혁명이란 인공지능(AI), 사물인터넷(IoT), 로봇기술, 드론, 자율주행과 가상현실(VR) 등 정보통신 기술이 주도하는 차세대 산업혁명을 말하는 것으로, 광고 산업 발전에도 큰 영향을 미쳤다. 그러나 지금 전세계는 코로나 확산 방지를 위하여, 비접촉, 비대면 생활환경으로 급속도로 빠르게 변화하고 있다. 이에 따라 4차 산업혁명과 광고의 역할도 변화하고 있다. 따라서 본 연구에서는 코로나 19 이전과 이후의 4차산업 혁명과 광고의 변화를 살펴보기 위해 빅카인즈를 활용해서 텍스트 분석을 하였다. 코로나 19 이전인 2019년과 코로나 19 이후인 2020년을 비교하였다. LDA토픽 모형 분석과 딥러닝 기법인 Word2vec을 통해 주요 토픽과 문서분류를 하였다. 연구결과 코로나19 이전에는 정책, 콘텐츠, AI 등이 나타났으나, 코로나 이후에는 데이터를 활용한 금융, 광고, 배달 등으로 점차 영역이 확장되며, 더불어 인재양성 교육이 중요한 이슈로 나타난 것을 알 수 있었다. 또한, 코로나 19 이전에는 4차 산업혁명 기술과 관련된 광고를 활용하는 것이 주류를 이루었다면, 코로나 19 이후에는 참여, 협력, 일상 필요 등 좀 더 적극적으로 첨단기술 자체에 대한 교육과 인재양성 등에 대한 키워드가 두드러지게 나타나고 있다. 따라서 이러한 연구결과는 코로나 19 이후에 4차 산업혁명에서 광고의 나아갈 방향을 제시하면서, 이에 필요한 이론적, 실무적으로 적용할 수 있는 다각적인 전략을 제시하는 데 의의가 있다.

다분류 SVM을 이용한 DEA기반 벤처기업 효율성등급 예측모형 (The Prediction of DEA based Efficiency Rating for Venture Business Using Multi-class SVM)

  • 박지영;홍태호
    • Asia pacific journal of information systems
    • /
    • 제19권2호
    • /
    • pp.139-155
    • /
    • 2009
  • For the last few decades, many studies have tried to explore and unveil venture companies' success factors and unique features in order to identify the sources of such companies' competitive advantages over their rivals. Such venture companies have shown tendency to give high returns for investors generally making the best use of information technology. For this reason, many venture companies are keen on attracting avid investors' attention. Investors generally make their investment decisions by carefully examining the evaluation criteria of the alternatives. To them, credit rating information provided by international rating agencies, such as Standard and Poor's, Moody's and Fitch is crucial source as to such pivotal concerns as companies stability, growth, and risk status. But these types of information are generated only for the companies issuing corporate bonds, not venture companies. Therefore, this study proposes a method for evaluating venture businesses by presenting our recent empirical results using financial data of Korean venture companies listed on KOSDAQ in Korea exchange. In addition, this paper used multi-class SVM for the prediction of DEA-based efficiency rating for venture businesses, which was derived from our proposed method. Our approach sheds light on ways to locate efficient companies generating high level of profits. Above all, in determining effective ways to evaluate a venture firm's efficiency, it is important to understand the major contributing factors of such efficiency. Therefore, this paper is constructed on the basis of following two ideas to classify which companies are more efficient venture companies: i) making DEA based multi-class rating for sample companies and ii) developing multi-class SVM-based efficiency prediction model for classifying all companies. First, the Data Envelopment Analysis(DEA) is a non-parametric multiple input-output efficiency technique that measures the relative efficiency of decision making units(DMUs) using a linear programming based model. It is non-parametric because it requires no assumption on the shape or parameters of the underlying production function. DEA has been already widely applied for evaluating the relative efficiency of DMUs. Recently, a number of DEA based studies have evaluated the efficiency of various types of companies, such as internet companies and venture companies. It has been also applied to corporate credit ratings. In this study we utilized DEA for sorting venture companies by efficiency based ratings. The Support Vector Machine(SVM), on the other hand, is a popular technique for solving data classification problems. In this paper, we employed SVM to classify the efficiency ratings in IT venture companies according to the results of DEA. The SVM method was first developed by Vapnik (1995). As one of many machine learning techniques, SVM is based on a statistical theory. Thus far, the method has shown good performances especially in generalizing capacity in classification tasks, resulting in numerous applications in many areas of business, SVM is basically the algorithm that finds the maximum margin hyperplane, which is the maximum separation between classes. According to this method, support vectors are the closest to the maximum margin hyperplane. If it is impossible to classify, we can use the kernel function. In the case of nonlinear class boundaries, we can transform the inputs into a high-dimensional feature space, This is the original input space and is mapped into a high-dimensional dot-product space. Many studies applied SVM to the prediction of bankruptcy, the forecast a financial time series, and the problem of estimating credit rating, In this study we employed SVM for developing data mining-based efficiency prediction model. We used the Gaussian radial function as a kernel function of SVM. In multi-class SVM, we adopted one-against-one approach between binary classification method and two all-together methods, proposed by Weston and Watkins(1999) and Crammer and Singer(2000), respectively. In this research, we used corporate information of 154 companies listed on KOSDAQ market in Korea exchange. We obtained companies' financial information of 2005 from the KIS(Korea Information Service, Inc.). Using this data, we made multi-class rating with DEA efficiency and built multi-class prediction model based data mining. Among three manners of multi-classification, the hit ratio of the Weston and Watkins method is the best in the test data set. In multi classification problems as efficiency ratings of venture business, it is very useful for investors to know the class with errors, one class difference, when it is difficult to find out the accurate class in the actual market. So we presented accuracy results within 1-class errors, and the Weston and Watkins method showed 85.7% accuracy in our test samples. We conclude that the DEA based multi-class approach in venture business generates more information than the binary classification problem, notwithstanding its efficiency level. We believe this model can help investors in decision making as it provides a reliably tool to evaluate venture companies in the financial domain. For the future research, we perceive the need to enhance such areas as the variable selection process, the parameter selection of kernel function, the generalization, and the sample size of multi-class.

키워드 자동 생성에 대한 새로운 접근법: 역 벡터공간모델을 이용한 키워드 할당 방법 (A New Approach to Automatic Keyword Generation Using Inverse Vector Space Model)

  • 조원진;노상규;윤지영;박진수
    • Asia pacific journal of information systems
    • /
    • 제21권1호
    • /
    • pp.103-122
    • /
    • 2011
  • Recently, numerous documents have been made available electronically. Internet search engines and digital libraries commonly return query results containing hundreds or even thousands of documents. In this situation, it is virtually impossible for users to examine complete documents to determine whether they might be useful for them. For this reason, some on-line documents are accompanied by a list of keywords specified by the authors in an effort to guide the users by facilitating the filtering process. In this way, a set of keywords is often considered a condensed version of the whole document and therefore plays an important role for document retrieval, Web page retrieval, document clustering, summarization, text mining, and so on. Since many academic journals ask the authors to provide a list of five or six keywords on the first page of an article, keywords are most familiar in the context of journal articles. However, many other types of documents could not benefit from the use of keywords, including Web pages, email messages, news reports, magazine articles, and business papers. Although the potential benefit is large, the implementation itself is the obstacle; manually assigning keywords to all documents is a daunting task, or even impractical in that it is extremely tedious and time-consuming requiring a certain level of domain knowledge. Therefore, it is highly desirable to automate the keyword generation process. There are mainly two approaches to achieving this aim: keyword assignment approach and keyword extraction approach. Both approaches use machine learning methods and require, for training purposes, a set of documents with keywords already attached. In the former approach, there is a given set of vocabulary, and the aim is to match them to the texts. In other words, the keywords assignment approach seeks to select the words from a controlled vocabulary that best describes a document. Although this approach is domain dependent and is not easy to transfer and expand, it can generate implicit keywords that do not appear in a document. On the other hand, in the latter approach, the aim is to extract keywords with respect to their relevance in the text without prior vocabulary. In this approach, automatic keyword generation is treated as a classification task, and keywords are commonly extracted based on supervised learning techniques. Thus, keyword extraction algorithms classify candidate keywords in a document into positive or negative examples. Several systems such as Extractor and Kea were developed using keyword extraction approach. Most indicative words in a document are selected as keywords for that document and as a result, keywords extraction is limited to terms that appear in the document. Therefore, keywords extraction cannot generate implicit keywords that are not included in a document. According to the experiment results of Turney, about 64% to 90% of keywords assigned by the authors can be found in the full text of an article. Inversely, it also means that 10% to 36% of the keywords assigned by the authors do not appear in the article, which cannot be generated through keyword extraction algorithms. Our preliminary experiment result also shows that 37% of keywords assigned by the authors are not included in the full text. This is the reason why we have decided to adopt the keyword assignment approach. In this paper, we propose a new approach for automatic keyword assignment namely IVSM(Inverse Vector Space Model). The model is based on a vector space model. which is a conventional information retrieval model that represents documents and queries by vectors in a multidimensional space. IVSM generates an appropriate keyword set for a specific document by measuring the distance between the document and the keyword sets. The keyword assignment process of IVSM is as follows: (1) calculating the vector length of each keyword set based on each keyword weight; (2) preprocessing and parsing a target document that does not have keywords; (3) calculating the vector length of the target document based on the term frequency; (4) measuring the cosine similarity between each keyword set and the target document; and (5) generating keywords that have high similarity scores. Two keyword generation systems were implemented applying IVSM: IVSM system for Web-based community service and stand-alone IVSM system. Firstly, the IVSM system is implemented in a community service for sharing knowledge and opinions on current trends such as fashion, movies, social problems, and health information. The stand-alone IVSM system is dedicated to generating keywords for academic papers, and, indeed, it has been tested through a number of academic papers including those published by the Korean Association of Shipping and Logistics, the Korea Research Academy of Distribution Information, the Korea Logistics Society, the Korea Logistics Research Association, and the Korea Port Economic Association. We measured the performance of IVSM by the number of matches between the IVSM-generated keywords and the author-assigned keywords. According to our experiment, the precisions of IVSM applied to Web-based community service and academic journals were 0.75 and 0.71, respectively. The performance of both systems is much better than that of baseline systems that generate keywords based on simple probability. Also, IVSM shows comparable performance to Extractor that is a representative system of keyword extraction approach developed by Turney. As electronic documents increase, we expect that IVSM proposed in this paper can be applied to many electronic documents in Web-based community and digital library.

가정과 수업의 웹 콘텐츠 자료 활용 및 개발에 관한 연구 (A Research Regarding the Application and Development of Web Contents Data in Home Economics)

  • 김미숙;위은하
    • 한국가정과교육학회지
    • /
    • 제18권1호
    • /
    • pp.49-64
    • /
    • 2006
  • 본 연구는 중등학교 가정과 교사들을 대상으로 웹 콘텐츠 자료 활용과 개발에 대해 알아보고, 가정과 수업에서 웹 콘텐츠 자료 활용 및 개발에 대한 보다 효율적인 방안을 모색하는데 필요한 기초 자료를 제공하는데 그 목적이 있다. 조사 대상은 전국에 소재한 중등학교 가정과 교사 312명이었고, 조사 도구는 질문지를 사용하였으며, 조사 대상자의 일반적 특성, 웹 콘텐츠 자료 활용수업에 대한 가정과 교사의 인식과 웹 콘텐츠 자료 개발에 대한 요구 사항을 22문항으로 구성하였다. 수집된 자료는 SAS/PC program을 사용하여 조사 대상자의 일반적인 특성과 가정과 교사의 웹 콘텐츠 활용 인식 및 개발요구를 파악하기 위해 빈도와 백분율로 산출하였고, 근무학교 및 교육 경력에 따른 차이를 분석하기 위해 일원변량 분산분석(ANOVA)을 실시하였다. 본 연구에서 얻어진 연구결과는 다음과 같다. 첫째, 웹 콘텐츠 활용 수업에 대한 인식 정도는 88.5% 가정과 교사가 의미를 정확히 파악하고 있었으며, 웹 콘텐츠 자료가 가정과 교수 학습 자료 준비에 미치는 영향에 대한 분석 결과는 90.4%의 가정과 교사가 교수 학습 활동에 도움을 줄 것이라고 하였다. 그리고 웹 콘텐츠 자료 활용 수업이 가정과 수업의 질 향상에 도움이 된다고 긍정적으로 생각하는 가정과 교사가 80.1%로 나타났다. 둘째, 웹 콘텐츠 자료를 학습 효과의 극대화를 위해 수업에 활용하고 있었으며, 활용하지 않은 가정과 교사들은 교실환경 시설이 갖춰지지 않아서가 43.2%, 수업 자료 제작 기간이 길어서가 37.8%로 나타났다. 셋째, 웹 콘텐츠 자료 중 가장 많이 활용하는 자료의 형태는 프리젠테이션 자료 48.4%, 멀티미디어 학습 자료 23.7%, 동영상자료 19.9%로 나타났다. 넷째, 안으로 개발되었으면 하는 웹 콘텐츠 자료는 단원별로 살펴보면 가족생활과 주거, 자원의 관리와 환경, 의복 마련과 관리 순으로 개발을 희망했고, 수업 단계는 보충 심화 학습 자료, 학습 내용 정리, 동기 유발 단계 순으로 자료 개발을 희망했으며, 자료 형태는 동영상자료 56.7%, 멀티미디어 자료 형태를 32.4%의 순으로 개발을 희망하였다. 다섯째, 주로 사용하는 웹 사이트는 가정과 교사나 교과 연구회에서 운영하는 사이트를 46.2%, 에듀넷이나 한국교육학술정보원(KERIS) 사이트는 30.8%가 활용하는 것으로 나타났다. 또한 학습 자료 개발은 제작 능력이 있는 가정과 교사들이 교과 연구회를 만들어 공동으로 제작 할 수 있기를 희망하고 있었다. 시대적인 변화와 교육 환경의 변화로 웹 콘텐츠 자료를 활용한 교수 학습 방법이 중요한 도구로 인식되고 있다. 특히 가정 교과는 일상생활에 필요한 기초적인 경험을 실생활과 접목시켜 종합적으로 다루는 교과이기 때문에 다양하고 창의적인 콘텐츠가 절실히 요구되는 실정이다. 본 연구의 결과들에서 제시한 여러 가지 사항들을 고려하여 웹 콘텐츠 자료 활용과 개발이 이루어진다면 보다 효율적인 교수 학습이 이루어질 것으로 기대된다.

  • PDF