• Title/Summary/Keyword: Distribution of Performance

Search Result 7,555, Processing Time 0.04 seconds

흰등멸구 [Sogatella furcifera (Horvath)] 온도 발육 모델 (Temperature-dependent Development Model of White Backed Planthopper (WBPH), Sogatella furcifera (Horvath) (Homoptera: Delphacidae))

  • 박창규;박홍현;김광호;이상계
    • 한국응용곤충학회지
    • /
    • 제52권2호
    • /
    • pp.133-140
    • /
    • 2013
  • 흰등멸구, Sogatella furcifera (Horvath), 의 온도에 따른 알 및 약충 발육 기간을 $12.5{\sim}5{\pm}1^{\circ}C$범위에서 $2.5^{\circ}C$ 간격으로 10개 항온, 14:10(L:D) h 광, 상대습도 20~30% 조건에서 조사하였다. 알은 $12.5^{\circ}C$를 제외한 모든 온도 조건에서 1령으로 성공적으로 발육하였으며, $1.5^{\circ}C$에서 22.5일로 가장 길었고, $32.5^{\circ}C$에서 5.5일로 가장 짧았다. 약충은 $15{\sim}32.5^{\circ}C$ 온도범위에서 성충까지 발육 가능하였으며, 약충 전체 발육기간은 $15^{\circ}C$에서 51.9일로 가장 길었으며 온도가 증가함에 따라 짧아져 $32.5^{\circ}C$에서 9.0일로 가장 짧았다. 온도와 발육률과의 관계를 설명하기 위해 선형 및 7개의 비선형(Analytis, Briere 1, 2, Lactin 2, Logan 6, Performance, Modified Sharpe and DeMichele) 모델을 사용하여 분석하였다. 선형 모델을 이용하여 추정한 알과 약충 전기간 발육을 위한 발육영점온도는 각각 $10.2^{\circ}C$$12.3^{\circ}C$였으며 발육에 필요한 유효적산온도는 각각 122.0, 156.3 DD였다. 7가지 비선형 모델 중 Briere 1 모델이 모든 발육단계에서 온도와 발육률과의 관계를 가장 잘 설명하였다($r^2$= 0.88~0.99). 알 및 유충의 발육단계별 발육완료 분포는 사용된 3가지 비선형(2-parameter, 3-parameter Weibull, Logistic) 모델 모두 2령과 5령을 제외한 발육단계에서는 비교적 높은 $r^2$(0.91~0.96) 값을 보여 양호한 모형 적합성을 보였다.

뇌 교종 96예에 대한 방사선치료 성적의 후향적 분석 (The Role of Radiation Therapy in the Treatment of Intracranial Glioma : Retrospective Analysis of 96 Cases)

  • 김연실;강기문;최병옥;윤세철;신경섭;강준기
    • Radiation Oncology Journal
    • /
    • 제11권2호
    • /
    • pp.249-258
    • /
    • 1993
  • 1983년 3월부터 1989년 12월까지 가톨릭의과대학 강남성모병원 치료방사선과에서 뇌교종으로 방사선치료를 받은 환자 90명을 대상으로 방사선치료 성적 및 생존률에 영향을 미치는 예후인자들의 후향적 분석조사를 실시하였다. 대상환자의 연령분포는 3세에서 69세였으며(중앙값 42세), 남녀비는 60:36이었고, 임상주증상은 두통 및 $(67\%)$ 운동신경 마비 $(54\%)$였다. 조직학적 진단방법 및 수술은 생검 21명 $(22\%)$, 부분절제 21명 $(22\%)$, 아전절제 29명 $(30\%)$, 전절제 14명 $(15\%)$이였고, 뇌간을 침습한 환자 12명중 11명은 조직검사를 시행하지 않았다. 조직학적 분류는 성상세포종이 64명 (75\%)$으로 가장 많았고, 회돌기교세포종이 17명 $(20\%)$, 혼합형이 4명$(5\%)$였다. 조직학적 등급에 따른 구분은 49명이 grade I, II 종양$(58\%)$이였으며, 30명이 grade III, IV종양$(42\%)$이였다. 전체 96명 중 64명 $(67\%)$이 수술과 방사선 치료를 병행하였고, 32명$(33\%)$이 방사선단독 요법으로 치료하였으며, 25명$(26\%)$의 환자에서 화학요법을 병행하였다. 전체환자의 평균 생존기간은 53개월이었고, 2년 및 5년 생존률이 각각 $69\%,\;49\%$이였다. 조직학적 등급에 의한 생존률은 grade I 종양의 5년 생존률이 $70\%$였고, grade II, III, IV 종양이 각각 $58\%,28\%,15\%$였다. 연령, 조직학적 등급 및 분류, Karnofsky performance status(KPS), 침습부위, 수술적 제거여부 및 제거정도, 방사선치료선량, 방사선조사야, 화학요법 병행 여부에 따라 생존률을 분석한 결과 연령 (p=0.0121), KPS(p=0.0002), 조직학적 등급(P=0.0001), 수술적 제거 (p=0.0240)가 유의한 예후인자로 분석되었으며, 통계학적으로 유의하지는 않았지만 천막하병소가 천막상부 병소에 비해, 부분조사가 전뇌조사에 비해 높은 생존률을 보이는 매개변수로 분석되었다.

  • PDF

과학 교육에서의 평가 연구 동향 (Trends of Assessment Research in Science Education)

  • 정수임;신동희
    • 한국과학교육학회지
    • /
    • 제36권4호
    • /
    • pp.563-579
    • /
    • 2016
  • 이 연구는 최근 30년 동안 과학 교육에서 평가를 다룬 국내 논문을 분석하여 동향을 파악함으로써, 과학 교육 과정의 개선 방향을 제시하고 향후 연구에 대한 시사점을 얻고자 했다. 연구의 주요 목표는 과거 30년간 국내 학술지에 게재된 과학 교육 관련 평가 연구의 동향을 인지적 영역과 정의적 영역을 중심으로 분석하고, 연구 목적과 연구 방법론, 연구의 주제어별 특징을 분석하는 것이다. 이를 위해 한국교육학술정보원이 제공하는 데이터베이스를 통해 273편의 연구 논문을 선정했고, 대상, 교과, 연구 방법론, 연구 내용 등의 범주로 분류하여 각각의 논문을 분석했다. 연구의 동향에 영향을 미치는 요인을 알아보기 위해 같은 시기에 진행된 국가 교육 과정의 변화와 평가와 관련한 대내외적 사건을 연계하여 설명을 시도했다. 분석 결과, 과학 교육에서 평가 연구의 전체적 동향은 국가 교육 과정과 평가 관련 제도의 변화를 반영한 경우가 많았다. 연구의 대상이나 주제가 정의적 영역보다 인지적 영역에 편중해서 나타나는 경향이 있으나, 국가 수준 학업 성취도나 국제 학업 성취도 평가에서 얻은 표준화된 자료를 통해 정의적 영역과 다양한 배경 변인의 관계에 주목할 필요가 있음을 인식하게 되었다. 인지적 혹은 정의적 영역에 상관없이 두 영역 모두 양적 연구가 질적 연구보다 우세하게 나타났으며, 인지적 영역은 평가 도구로써 지필 평가와 수행형 평가 등을 다양하게 사용한 반면, 정의적 영역에서는 대부분 지필 평가만을 실시하고 있었다. 평가 연구의 목적은 주로 실제 상황에서 실용적이고 응용적인 내용을 다루는 응용 연구와 평가 연구가 많았고, 연구 방법론도 양적 자료를 다루는 통계를 기반으로 한 방법을 사용했다. 분석 논문의 주제를 유사한 범주로 묶어 연구 동향을 분석한 결과, 주제가 점점 일반적인 내용에서 구체화, 세분화되는 경향이 있었다. 이러한 경향은 그 동안 과학 교육 관련 평가의 문제점으로 지적되었던 개념의 명료화와 관련하여 평가 도구를 정교화할 수 있는 기초가 될 수 있을 것이다. 연구 결과를 바탕으로 정의적 영역의 평가에서 실증적 자료를 얻기 위한 방안 마련, 다양한 맥락으로 세분화된 평가를 수렴할 수 있는 이론적 기초 정립, 양적 자료에 편중된 연구의 균형을 추구하는 연구 풍토의 개진, 평가의 다양한 측면을 반영하여 완성된 교육과정으로 개선하는 기관과 체계의 정비 등을 시사점으로 제안했다.

키워드 자동 생성에 대한 새로운 접근법: 역 벡터공간모델을 이용한 키워드 할당 방법 (A New Approach to Automatic Keyword Generation Using Inverse Vector Space Model)

  • 조원진;노상규;윤지영;박진수
    • Asia pacific journal of information systems
    • /
    • 제21권1호
    • /
    • pp.103-122
    • /
    • 2011
  • Recently, numerous documents have been made available electronically. Internet search engines and digital libraries commonly return query results containing hundreds or even thousands of documents. In this situation, it is virtually impossible for users to examine complete documents to determine whether they might be useful for them. For this reason, some on-line documents are accompanied by a list of keywords specified by the authors in an effort to guide the users by facilitating the filtering process. In this way, a set of keywords is often considered a condensed version of the whole document and therefore plays an important role for document retrieval, Web page retrieval, document clustering, summarization, text mining, and so on. Since many academic journals ask the authors to provide a list of five or six keywords on the first page of an article, keywords are most familiar in the context of journal articles. However, many other types of documents could not benefit from the use of keywords, including Web pages, email messages, news reports, magazine articles, and business papers. Although the potential benefit is large, the implementation itself is the obstacle; manually assigning keywords to all documents is a daunting task, or even impractical in that it is extremely tedious and time-consuming requiring a certain level of domain knowledge. Therefore, it is highly desirable to automate the keyword generation process. There are mainly two approaches to achieving this aim: keyword assignment approach and keyword extraction approach. Both approaches use machine learning methods and require, for training purposes, a set of documents with keywords already attached. In the former approach, there is a given set of vocabulary, and the aim is to match them to the texts. In other words, the keywords assignment approach seeks to select the words from a controlled vocabulary that best describes a document. Although this approach is domain dependent and is not easy to transfer and expand, it can generate implicit keywords that do not appear in a document. On the other hand, in the latter approach, the aim is to extract keywords with respect to their relevance in the text without prior vocabulary. In this approach, automatic keyword generation is treated as a classification task, and keywords are commonly extracted based on supervised learning techniques. Thus, keyword extraction algorithms classify candidate keywords in a document into positive or negative examples. Several systems such as Extractor and Kea were developed using keyword extraction approach. Most indicative words in a document are selected as keywords for that document and as a result, keywords extraction is limited to terms that appear in the document. Therefore, keywords extraction cannot generate implicit keywords that are not included in a document. According to the experiment results of Turney, about 64% to 90% of keywords assigned by the authors can be found in the full text of an article. Inversely, it also means that 10% to 36% of the keywords assigned by the authors do not appear in the article, which cannot be generated through keyword extraction algorithms. Our preliminary experiment result also shows that 37% of keywords assigned by the authors are not included in the full text. This is the reason why we have decided to adopt the keyword assignment approach. In this paper, we propose a new approach for automatic keyword assignment namely IVSM(Inverse Vector Space Model). The model is based on a vector space model. which is a conventional information retrieval model that represents documents and queries by vectors in a multidimensional space. IVSM generates an appropriate keyword set for a specific document by measuring the distance between the document and the keyword sets. The keyword assignment process of IVSM is as follows: (1) calculating the vector length of each keyword set based on each keyword weight; (2) preprocessing and parsing a target document that does not have keywords; (3) calculating the vector length of the target document based on the term frequency; (4) measuring the cosine similarity between each keyword set and the target document; and (5) generating keywords that have high similarity scores. Two keyword generation systems were implemented applying IVSM: IVSM system for Web-based community service and stand-alone IVSM system. Firstly, the IVSM system is implemented in a community service for sharing knowledge and opinions on current trends such as fashion, movies, social problems, and health information. The stand-alone IVSM system is dedicated to generating keywords for academic papers, and, indeed, it has been tested through a number of academic papers including those published by the Korean Association of Shipping and Logistics, the Korea Research Academy of Distribution Information, the Korea Logistics Society, the Korea Logistics Research Association, and the Korea Port Economic Association. We measured the performance of IVSM by the number of matches between the IVSM-generated keywords and the author-assigned keywords. According to our experiment, the precisions of IVSM applied to Web-based community service and academic journals were 0.75 and 0.71, respectively. The performance of both systems is much better than that of baseline systems that generate keywords based on simple probability. Also, IVSM shows comparable performance to Extractor that is a representative system of keyword extraction approach developed by Turney. As electronic documents increase, we expect that IVSM proposed in this paper can be applied to many electronic documents in Web-based community and digital library.

한정된 O-D조사자료를 이용한 주 전체의 트럭교통예측방법 개발 (DEVELOPMENT OF STATEWIDE TRUCK TRAFFIC FORECASTING METHOD BY USING LIMITED O-D SURVEY DATA)

  • 박만배
    • 대한교통학회:학술대회논문집
    • /
    • 대한교통학회 1995년도 제27회 학술발표회
    • /
    • pp.101-113
    • /
    • 1995
  • The objective of this research is to test the feasibility of developing a statewide truck traffic forecasting methodology for Wisconsin by using Origin-Destination surveys, traffic counts, classification counts, and other data that are routinely collected by the Wisconsin Department of Transportation (WisDOT). Development of a feasible model will permit estimation of future truck traffic for every major link in the network. This will provide the basis for improved estimation of future pavement deterioration. Pavement damage rises exponentially as axle weight increases, and trucks are responsible for most of the traffic-induced damage to pavement. Consequently, forecasts of truck traffic are critical to pavement management systems. The pavement Management Decision Supporting System (PMDSS) prepared by WisDOT in May 1990 combines pavement inventory and performance data with a knowledge base consisting of rules for evaluation, problem identification and rehabilitation recommendation. Without a r.easonable truck traffic forecasting methodology, PMDSS is not able to project pavement performance trends in order to make assessment and recommendations in the future years. However, none of WisDOT's existing forecasting methodologies has been designed specifically for predicting truck movements on a statewide highway network. For this research, the Origin-Destination survey data avaiiable from WisDOT, including two stateline areas, one county, and five cities, are analyzed and the zone-to'||'&'||'not;zone truck trip tables are developed. The resulting Origin-Destination Trip Length Frequency (00 TLF) distributions by trip type are applied to the Gravity Model (GM) for comparison with comparable TLFs from the GM. The gravity model is calibrated to obtain friction factor curves for the three trip types, Internal-Internal (I-I), Internal-External (I-E), and External-External (E-E). ~oth "macro-scale" calibration and "micro-scale" calibration are performed. The comparison of the statewide GM TLF with the 00 TLF for the macro-scale calibration does not provide suitable results because the available 00 survey data do not represent an unbiased sample of statewide truck trips. For the "micro-scale" calibration, "partial" GM trip tables that correspond to the 00 survey trip tables are extracted from the full statewide GM trip table. These "partial" GM trip tables are then merged and a partial GM TLF is created. The GM friction factor curves are adjusted until the partial GM TLF matches the 00 TLF. Three friction factor curves, one for each trip type, resulting from the micro-scale calibration produce a reasonable GM truck trip model. A key methodological issue for GM. calibration involves the use of multiple friction factor curves versus a single friction factor curve for each trip type in order to estimate truck trips with reasonable accuracy. A single friction factor curve for each of the three trip types was found to reproduce the 00 TLFs from the calibration data base. Given the very limited trip generation data available for this research, additional refinement of the gravity model using multiple mction factor curves for each trip type was not warranted. In the traditional urban transportation planning studies, the zonal trip productions and attractions and region-wide OD TLFs are available. However, for this research, the information available for the development .of the GM model is limited to Ground Counts (GC) and a limited set ofOD TLFs. The GM is calibrated using the limited OD data, but the OD data are not adequate to obtain good estimates of truck trip productions and attractions .. Consequently, zonal productions and attractions are estimated using zonal population as a first approximation. Then, Selected Link based (SELINK) analyses are used to adjust the productions and attractions and possibly recalibrate the GM. The SELINK adjustment process involves identifying the origins and destinations of all truck trips that are assigned to a specified "selected link" as the result of a standard traffic assignment. A link adjustment factor is computed as the ratio of the actual volume for the link (ground count) to the total assigned volume. This link adjustment factor is then applied to all of the origin and destination zones of the trips using that "selected link". Selected link based analyses are conducted by using both 16 selected links and 32 selected links. The result of SELINK analysis by u~ing 32 selected links provides the least %RMSE in the screenline volume analysis. In addition, the stability of the GM truck estimating model is preserved by using 32 selected links with three SELINK adjustments, that is, the GM remains calibrated despite substantial changes in the input productions and attractions. The coverage of zones provided by 32 selected links is satisfactory. Increasing the number of repetitions beyond four is not reasonable because the stability of GM model in reproducing the OD TLF reaches its limits. The total volume of truck traffic captured by 32 selected links is 107% of total trip productions. But more importantly, ~ELINK adjustment factors for all of the zones can be computed. Evaluation of the travel demand model resulting from the SELINK adjustments is conducted by using screenline volume analysis, functional class and route specific volume analysis, area specific volume analysis, production and attraction analysis, and Vehicle Miles of Travel (VMT) analysis. Screenline volume analysis by using four screenlines with 28 check points are used for evaluation of the adequacy of the overall model. The total trucks crossing the screenlines are compared to the ground count totals. L V/GC ratios of 0.958 by using 32 selected links and 1.001 by using 16 selected links are obtained. The %RM:SE for the four screenlines is inversely proportional to the average ground count totals by screenline .. The magnitude of %RM:SE for the four screenlines resulting from the fourth and last GM run by using 32 and 16 selected links is 22% and 31 % respectively. These results are similar to the overall %RMSE achieved for the 32 and 16 selected links themselves of 19% and 33% respectively. This implies that the SELINICanalysis results are reasonable for all sections of the state.Functional class and route specific volume analysis is possible by using the available 154 classification count check points. The truck traffic crossing the Interstate highways (ISH) with 37 check points, the US highways (USH) with 50 check points, and the State highways (STH) with 67 check points is compared to the actual ground count totals. The magnitude of the overall link volume to ground count ratio by route does not provide any specific pattern of over or underestimate. However, the %R11SE for the ISH shows the least value while that for the STH shows the largest value. This pattern is consistent with the screenline analysis and the overall relationship between %RMSE and ground count volume groups. Area specific volume analysis provides another broad statewide measure of the performance of the overall model. The truck traffic in the North area with 26 check points, the West area with 36 check points, the East area with 29 check points, and the South area with 64 check points are compared to the actual ground count totals. The four areas show similar results. No specific patterns in the L V/GC ratio by area are found. In addition, the %RMSE is computed for each of the four areas. The %RMSEs for the North, West, East, and South areas are 92%, 49%, 27%, and 35% respectively, whereas, the average ground counts are 481, 1383, 1532, and 3154 respectively. As for the screenline and volume range analyses, the %RMSE is inversely related to average link volume. 'The SELINK adjustments of productions and attractions resulted in a very substantial reduction in the total in-state zonal productions and attractions. The initial in-state zonal trip generation model can now be revised with a new trip production's trip rate (total adjusted productions/total population) and a new trip attraction's trip rate. Revised zonal production and attraction adjustment factors can then be developed that only reflect the impact of the SELINK adjustments that cause mcreases or , decreases from the revised zonal estimate of productions and attractions. Analysis of the revised production adjustment factors is conducted by plotting the factors on the state map. The east area of the state including the counties of Brown, Outagamie, Shawano, Wmnebago, Fond du Lac, Marathon shows comparatively large values of the revised adjustment factors. Overall, both small and large values of the revised adjustment factors are scattered around Wisconsin. This suggests that more independent variables beyond just 226; population are needed for the development of the heavy truck trip generation model. More independent variables including zonal employment data (office employees and manufacturing employees) by industry type, zonal private trucks 226; owned and zonal income data which are not available currently should be considered. A plot of frequency distribution of the in-state zones as a function of the revised production and attraction adjustment factors shows the overall " adjustment resulting from the SELINK analysis process. Overall, the revised SELINK adjustments show that the productions for many zones are reduced by, a factor of 0.5 to 0.8 while the productions for ~ relatively few zones are increased by factors from 1.1 to 4 with most of the factors in the 3.0 range. No obvious explanation for the frequency distribution could be found. The revised SELINK adjustments overall appear to be reasonable. The heavy truck VMT analysis is conducted by comparing the 1990 heavy truck VMT that is forecasted by the GM truck forecasting model, 2.975 billions, with the WisDOT computed data. This gives an estimate that is 18.3% less than the WisDOT computation of 3.642 billions of VMT. The WisDOT estimates are based on the sampling the link volumes for USH, 8TH, and CTH. This implies potential error in sampling the average link volume. The WisDOT estimate of heavy truck VMT cannot be tabulated by the three trip types, I-I, I-E ('||'&'||'pound;-I), and E-E. In contrast, the GM forecasting model shows that the proportion ofE-E VMT out of total VMT is 21.24%. In addition, tabulation of heavy truck VMT by route functional class shows that the proportion of truck traffic traversing the freeways and expressways is 76.5%. Only 14.1% of total freeway truck traffic is I-I trips, while 80% of total collector truck traffic is I-I trips. This implies that freeways are traversed mainly by I-E and E-E truck traffic while collectors are used mainly by I-I truck traffic. Other tabulations such as average heavy truck speed by trip type, average travel distance by trip type and the VMT distribution by trip type, route functional class and travel speed are useful information for highway planners to understand the characteristics of statewide heavy truck trip patternS. Heavy truck volumes for the target year 2010 are forecasted by using the GM truck forecasting model. Four scenarios are used. Fo~ better forecasting, ground count- based segment adjustment factors are developed and applied. ISH 90 '||'&'||' 94 and USH 41 are used as example routes. The forecasting results by using the ground count-based segment adjustment factors are satisfactory for long range planning purposes, but additional ground counts would be useful for USH 41. Sensitivity analysis provides estimates of the impacts of the alternative growth rates including information about changes in the trip types using key routes. The network'||'&'||'not;based GMcan easily model scenarios with different rates of growth in rural versus . . urban areas, small versus large cities, and in-state zones versus external stations. cities, and in-state zones versus external stations.

  • PDF

서비스실패의 심각성과 복구만족이 고객-기업 관계회복에 미치는 영향 : 실패이전과 복구이후 고객애정, 고객신뢰, 충성의도의 이월효과 및 역학관계 비교를 중심으로 (The Roles of Service Failure and Recovery Satisfaction in Customer-Firm Relationship Restoration : Focusing on Carry-over effect and Dynamics among Customer Affection, Customer Trust and Loyalty Intention Before and After the Events)

  • 라선아
    • 한국유통학회지:유통연구
    • /
    • 제17권1호
    • /
    • pp.1-36
    • /
    • 2012
  • 서비스실패는 고객이탈의 주요 원인이다. 오늘날과 같은 공급과잉의 치열한 경쟁시장에서 서비스실패로 인한 결과는 단순한 고객불평에서 끝나지 않고 해당기업에 대한 대중 소비자의 반기업정서를 유발할 만큼 치명적일 수 있다. 따라서 효과적인 복구전략 개발을 위해, 실패와 복구에 대한 고객반응을 심도있게 설명할 수 있는 연구가 필요하다. 이러한 맥락에서 본 연구는 서비스실패와 복구를 '고객-기업 관계의 위기와 회복'이라는 관점에서 조망하여, 복구만족도 수준에 따라 고객애정, 고객신뢰, 충성의도의 이월효과와 심각성의 직접 효과 및 실패 이전과 복구 이후 시점간 관계특질변수들의 역학관계변화도 비교분석하였다. 분석결과, 일단 실패가 발생하면 복구만족수준에 상관없이 충성의도는 미래로 이월되지 않았고, 실패의 심각성은 충성의도에 유의한 부정적 영향을 미쳤다. 다시 말해 실패의 발생으로 그 무엇보다도 고객충성도가 가장 큰 타격을 입었다. 다행히 충성의도의 선행변수인 고객애정과 신뢰는 복구만족이 높은 경우 실패 이전에서 복구 이후로 이월효과를 보였다. 복구만족이 낮은 경우는 이월효과가 전혀 발견되지 않았고, 실패의 심각성이 문제시되어 신뢰와 애정의 회복에 장애물로 작용했으며, 과거에 비해 고객애정의 충성의도에 대한 직접 효과도 감소하였다. 일단 실패가 발생한 후에는 복구수준과 상관없이 충성의도 형성에 있어 고객신뢰의 중요성이 급증했다는 점도 중요한 발견점이었다. 연구결과를 통해, 실패복구상황에서 고객층성도 재구축을 최종 지향점으로 삼되, 그 과정에서 무엇보다도 신뢰의 회복을 최우선 목표로 설정해야 하고, 심각한 실패일수록 반드시 높은 복구 만족도를 달성해야 한다는 교훈을 얻었다. 복구만족의 조절효과 및 실패심각성과의 상호작용 패턴에 대한 흥미로운 발견을 바탕으로 이론적, 관리적 시사점을 도출하였으며 연구의 한계와 향후 연구과제에 대해서도 논의하였다.

  • PDF

스마트폰 다종 데이터를 활용한 딥러닝 기반의 사용자 동행 상태 인식 (A Deep Learning Based Approach to Recognizing Accompanying Status of Smartphone Users Using Multimodal Data)

  • 김길호;최상우;채문정;박희웅;이재홍;박종헌
    • 지능정보연구
    • /
    • 제25권1호
    • /
    • pp.163-177
    • /
    • 2019
  • 스마트폰이 널리 보급되고 현대인들의 생활 속에 깊이 자리 잡으면서, 스마트폰에서 수집된 다종 데이터를 바탕으로 사용자 개인의 행동을 인식하고자 하는 연구가 활발히 진행되고 있다. 그러나 타인과의 상호작용 행동 인식에 대한 연구는 아직까지 상대적으로 미진하였다. 기존 상호작용 행동 인식 연구에서는 오디오, 블루투스, 와이파이 등의 데이터를 사용하였으나, 이들은 사용자 사생활 침해 가능성이 높으며 단시간 내에 충분한 양의 데이터를 수집하기 어렵다는 한계가 있다. 반면 가속도, 자기장, 자이로스코프 등의 물리 센서의 경우 사생활 침해 가능성이 낮으며 단시간 내에 충분한 양의 데이터를 수집할 수 있다. 본 연구에서는 이러한 점에 주목하여, 스마트폰 상의 다종 물리 센서 데이터만을 활용, 딥러닝 모델에 기반을 둔 사용자의 동행 상태 인식 방법론을 제안한다. 사용자의 동행 여부 및 대화 여부를 분류하는 동행 상태 분류 모델은 컨볼루션 신경망과 장단기 기억 순환 신경망이 혼합된 구조를 지닌다. 먼저 스마트폰의 다종 물리 센서에서 수집한 데이터에 존재하는 타임 스태프의 차이를 상쇄하고, 정규화를 수행하여 시간에 따른 시퀀스 데이터 형태로 변환함으로써 동행 상태분류 모델의 입력 데이터를 생성한다. 이는 컨볼루션 신경망에 입력되며, 데이터의 시간적 국부 의존성이 반영된 요인 지도를 출력한다. 장단기 기억 순환 신경망은 요인 지도를 입력받아 시간에 따른 순차적 연관 관계를 학습하며, 동행 상태 분류를 위한 요인을 추출하고 소프트맥스 분류기에서 이에 기반한 최종적인 분류를 수행한다. 자체 제작한 스마트폰 애플리케이션을 배포하여 실험 데이터를 수집하였으며, 이를 활용하여 제안한 방법론을 평가하였다. 최적의 파라미터를 설정하여 동행 상태 분류 모델을 학습하고 평가한 결과, 동행 여부와 대화 여부를 각각 98.74%, 98.83%의 높은 정확도로 분류하였다.

가맹본부의 배타적 영업지역보호에 대한 탐색적 연구 (A New Exploratory Research on Franchisor's Provision of Exclusive Territories)

  • 임영균;이수동;김주영
    • 한국유통학회지:유통연구
    • /
    • 제17권1호
    • /
    • pp.37-63
    • /
    • 2012
  • 가맹사업에 있어 배타적 영업지역보호정책의 문제는 경제학 및 경영학 분야뿐만 아니라 사회 정치적으로 매우 중요한 쟁점이다. 본 연구는 배타적 영업지역과 관련한 기존 문헌을 토대로 가맹사업에서의 효율성 관점에서 배타적 영업지역보호에 영향을 미치는 변수와 배타적 영업지역 보호가 가맹본부 및 가맹점의 성과에 미치는 영향을 분석하고 있다. 가맹점의 대부분이 중소상인들이란 점을 감안하면 유통정책적으로도 중요한 의미가 있다고 할 수 있다. 본연구는 사회적으로도 잇슈가 될 수 있는 기업의 전략을 타당성과 당위성, 그리고 논리성으로만 평가하는 것이 아니라 실제 자료를 근거로 분석하였다. 또, 정책연구들이 가지고 있는 자료와 이론의 한계를 감안한 탐색적 방법론을 활용하여 보다 실질적이고 현실적용성이 뛰어난 분석을 제안하였다. 분석 결과, 배타적 영업지역보호는 긍정적인 효과가 있기는 하지만 통계적으로 유의하지 못하였으며, 가맹점과 가맹본부간의 로얄티가 많아서 위험공유성향이 클때에는 배타적 영업지역보호를 하지 않는 것이 효과적이었고, 가맹점을 모집하기 위해 배타적 영업지역보호를 해주거나 배타적 영업지역보호를 통해서 가맹사업본부내의 효율성을 키우기 위한 경우에는 긍정적인 효과가 유의하게 나타나는 것으로 밝혀졌다. 하지만 외부경쟁으로부터 직영점을 보호하기 위하거나 시장성장을 활용하기 위한 배타적 영업지역보호는 좋은 성과를 내지 못하였다. 또한 쉽게 배타적 영업지역보호를 할 수 있기에 이런 제도를 도입하는 것도 역시 좋은 성과를 내지 못한 것으로 나타났다. 결과적으로 배타적 영업지역보호가 기업의 운영효율을 증대시키기 위하여 하는 경우는 성과가 좋으나 다른 목적을 위하여 배타적 영업지역보호를 활용하는 것은 바람직한 결과를 못내는 것으로 나타났다. 본 연구는 분석결과를 토대로 영업지역 보호를 획일적으로 활용하거나 법으로 강제하기 보다는 가맹사업본부와 가맹점의 관계 및 상황, 또 동기에 맞추어 탄력적으로 적용하는 것이 바람직하다는 제안을 하고 있으며, 이를 근거로 몇 가지 정책적 시사점을 제시하였다.

  • PDF

제조업체 Private Labels 도입의 선행요인 : 전략적 시장관리 관점을 중심으로 (Antecedents of Manufacturer's Private Label Program Engagement : A Focus on Strategic Market Management Perspective)

  • 임채운;이호택
    • 한국유통학회지:유통연구
    • /
    • 제17권1호
    • /
    • pp.65-86
    • /
    • 2012
  • 우리나라에 유통업체상표(Private Label)가 도입된 지 10년이 넘었음에도 불구하고 유통업체 상표에 대한 대부분의 연구는 소비자 관점에서 진행되어져 왔다. 본 연구는 유통업체상표를 소비자 관점이 아닌 제조업체의 관점에서 바라본 연구로, 제조업체의 유통업체상표 생산에 영향을 미치는 내외부적 요인들에 대해서 자원기반이론과 S-C-P Paradigm의 통합적인 연구모형인 전략적 시장관리 관점을 제시하였다. 연구결과를 보면, 제조업체의 마케팅 역량이 높을수록 전체 매출에서 유통업체상표가 차지하는 매출이 적은 것으로 나타났으며, 마케팅 역량에는 제조업체 브랜드명성, 마케팅 투자, 제품포트폴리오 등이 영향을 미치는 것으로 나타났다. 또한 제조업체의 마케팅 역량과 유통업체 상표 생산 간의 관계에는 제조업체의 경쟁강도가 조절효과를 미치는 것으로 나타났는데, 이는 일반적으로 마케팅 역량이 높은(낮은) 기업일수록 전체 매출에서 유통업체상표가 차지하는 비율이 낮지만(높지만), 이러한 기업들 중 경쟁강도를 낮게 지각하는 제조업체의 전체매출 중 유통업체상표가 차지하는 매출은 경쟁강도를 높게 지각하는 제조업체들에 비해 상대적으로 높게 나타났다. 이러한 연구결과를 바탕으로, 본 연구는 유통업체상표 생산에 대한 이론 및 실무적인 시사점을 제시하고 있다.

  • PDF

Support Vector Regression을 이용한 GARCH 모형의 추정과 투자전략의 성과분석 (Estimation of GARCH Models and Performance Analysis of Volatility Trading System using Support Vector Regression)

  • 김선웅;최흥식
    • 지능정보연구
    • /
    • 제23권2호
    • /
    • pp.107-122
    • /
    • 2017
  • 주식시장의 주가 수익률에 나타나는 변동성은 투자 위험의 척도로서 재무관리의 이론적 모형에서뿐만 아니라 포트폴리오 최적화, 증권의 가격 평가 및 위험관리 등 투자 실무 영역에서도 매우 중요한 역할을 하고 있다. 변동성은 주가 수익률이 평균을 중심으로 얼마나 큰 폭의 움직임을 보이는가를 판단하는 지표로서 보통 수익률의 표준편차로 측정한다. 관찰 가능한 표준편차는 과거의 주가 움직임에서 측정되는 역사적 변동성(historical volatility)이다. 역사적 변동성이 미래의 주가 수익률의 변동성을 예측하려면 변동성이 시간 불변적(time-invariant)이어야 한다. 그러나 대부분의 변동성 연구들은 변동성이 시간 가변적(time-variant)임을 보여주고 있다. 이에 따라 시간 가변적 변동성을 예측하기 위한 여러 계량 모형들이 제안되었다. Engle(1982)은 변동성의 시간 가변적 특성을 잘 반영하는 변동성 모형인 Autoregressive Conditional Heteroscedasticity(ARCH)를 제안하였으며, Bollerslev(1986) 등은 일반화된 ARCH(GARCH) 모형으로 발전시켰다. GARCH 모형의 실증 분석 연구들은 실제 증권 수익률에 나타나는 두터운 꼬리 분포 특성과 변동성의 군집현상(clustering)을 잘 설명하고 있다. 일반적으로 GARCH 모형의 모수는 가우스분포로부터 추출된 자료에서 최적의 성과를 보이는 로그우도함수에 대한 최우도추정법에 의하여 추정되고 있다. 그러나 1987년 소위 블랙먼데이 이후 주식 시장은 점점 더 복잡해지고 시장 변수들이 많은 잡음(noise)을 띠게 됨에 따라 변수의 분포에 대한 엄격한 가정을 요구하는 최우도추정법의 대안으로 인공지능모형에 대한 관심이 커지고 있다. 본 연구에서는 주식 시장의 주가 수익률에 나타나는 변동성의 예측 모형인 GARCH 모형의 모수추정방법으로 지능형 시스템인 Support Vector Regression 방법을 제안한다. SVR은 Vapnik에 의해 제안된 Support Vector Machines와 같은 원리를 회귀분석으로 확장한 모형으로서 Vapnik의 e-insensitive loss function을 이용하여 비선형 회귀식의 추정이 가능해졌다. SVM을 이용한 회귀식 SVR은 두터운 꼬리 분포를 보이는 주식시장의 변동성과 같은 관찰치에서도 우수한 추정 성능을 보인다. 2차 손실함수를 사용하는 기존의 최소자승법은 부최적해로서 추정 오차가 확대될 수 있다. Vapnik의 손실함수에서는 입실론 범위내의 예측 오차는 무시하고 큰 예측 오차만 손실로 처리하기 때문에 구조적 위험의 최소화를 추구하게 된다. 금융 시계열 자료를 분석한 많은 연구들은 SVR의 우수성을 보여주고 있다. 본 연구에서는 주가 변동성의 분석 대상으로서 KOSPI 200 주가지수를 사용한다. KOSPI 200 주가지수는 한국거래소에 상장된 우량주 중 거래가 활발하고 업종을 대표하는 200 종목으로 구성된 업종 대표주들의 포트폴리오이다. 분석 기간은 2010년부터 2015년까지의 6년 동안이며, 거래일의 일별 주가지수 종가 자료를 사용하였고 수익률 계산은 주가지수의 로그 차분값으로 정의하였다. KOSPI 200 주가지수의 일별 수익률 자료의 실증분석을 통해 기존의 Maximum Likelihood Estimation 방법과 본 논문이 제안하는 지능형 변동성 예측 모형의 예측성과를 비교하였다. 주가지수 수익률의 일별 자료 중 학습구간에서 대칭 GARCH 모형과 E-GARCH, GJR-GARCH와 같은 비대칭 GARCH 모형에 대하여 모수를 추정하고, 검증 구간 데이터에서 변동성 예측의 성과를 비교하였다. 전체 분석기간 1,487일 중 학습 기간은 1,187일, 검증 기간은 300일 이다. MLE 추정 방법의 실증분석 결과는 기존의 많은 연구들과 비슷한 결과를 보여주고 있다. 잔차의 분포는 정규분포보다는 Student t분포의 경우 더 우수한 모형 추정 성과를 보여주고 있어, 주가 수익률의 비정규성이 잘 반영되고 있다고 할 수 있다. MSE 기준으로, SVR 추정의 변동성 예측에서는 polynomial 커널함수를 제외하고 linear, radial 커널함수에서 MLE 보다 우수한 예측 성과를 보여주었다. DA 지표에서는 radial 커널함수를 사용한 SVR 기반의 지능형 GARCH 모형이 가장 우수한 변동성의 변화 방향에 대한 방향성 예측력을 보여주었다. 추정된 지능형 변동성 모형을 이용하여 예측된 주식 시장의 변동성 정보가 경제적 의미를 갖는지를 검토하기 위하여 지능형 변동성 거래 전략을 도출하였다. 지능형 변동성 거래 전략 IVTS의 진입규칙은 내일의 변동성이 증가할 것으로 예측되면 변동성을 매수하고 반대로 변동성의 감소가 예상되면 변동성을 매도하는 전략이다. 만약 변동성의 변화 방향이 전일과 동일하다면 기존의 변동성 매수/매도 포지션을 유지한다. 전체적으로 SVR 기반의 GARCH 모형의 투자 성과가 MLE 기반의 GARCH 모형의 투자 성과보다 높게 나타나고 있다. E-GARCH, GJR-GARCH 모형의 경우는 MLE 기반의 GARCH 모형을 이용한 IVTS 전략은 손실이 나지만 SVR 기반의 GARCH 모형을 이용한 IVTS 전략은 수익으로 나타나고 있다. SVR 커널함수에서는 선형 커널함수가 더 좋은 투자 성과를 보여주고 있다. 선형 커널함수의 경우 투자 수익률이 +526.4%를 기록하고 있다. SVR 기반의 GARCH 모형을 이용하는 IVTS 전략의 경우 승률도 51.88%부터 59.7% 사이로 높게 나타나고 있다. 옵션을 이용하는 변동성 매도전략은 방향성 거래전략과 달리 하락할 것으로 예측된 변동성의 예측 방향이 틀려 변동성이 소폭 상승하거나 변동성이 하락하지 않고 제자리에 있더라도 옵션의 시간가치 요인 때문에 전체적으로 수익이 실현될 수도 있다. 정확한 변동성의 예측은 자산의 가격 결정뿐만 아니라 실제 투자에서도 높은 수익률을 얻을 수 있기 때문에 다양한 형태의 인공신경망을 활용하여 더 나은 예측성과를 보이는 변동성 예측 모형을 개발한다면 주식시장의 투자자들에게 좋은 투자 정보를 제공하게 될 것이다.