• 제목/요약/키워드: result value

검색결과 14,254건 처리시간 0.055초

일산화탄소 폐확산능검사에서 단회호흡법과 호흡내검사법의 비교 (Comparison of Single-Breath and Intra-Breath Method in Measuring Diffusing Capacity for Carbon Monoxide of the Lung)

  • 이재호;정희순;심영수
    • Tuberculosis and Respiratory Diseases
    • /
    • 제42권4호
    • /
    • pp.555-568
    • /
    • 1995
  • 연구배경: 폐확산능은 산소를 이용하여 측정하는 것이 가장 생리적이지만 폐모세혈의 산소분압측정이 어려워 임상에서는 일산화탄소를 이용하여 측정하고 있으며, 단회호흡(single-breath)폐확산능검사법이 가장 널리 사용되고있는 방법이다. 그러나 총폐용량까지 흡기한후 10초간 숨을 참는 과정을 기침, 호흡곤란 등이 있는 환자로선 수용하기 곤란하므로 이러한 과정없이 낮은 유량의 일회호기만을 필요로 히는 호흡내(intra-breath)폐확산능검사법이 고안되었다. 본 연구에서는 단회호흡법과 호흡내법으로 측정한 폐확산능간에 유의한 차이가 있는지 그리고 차이가 있다면 어떤 인자가 영향을 미치는지를 알아보고자 하였다. 방법: 특정질환과 무관하게 임의로 73명을 선택하고 유량-용적곡선 검사를 3회 시행한후 노력성 폐활량(FVC)과 1초간 노력성호기량($FEV_1$)의 합이 가장 큰 검사에서 노력성폐활량, 1초간 노력성호기량, 1초간 노력성호기량의 노력성 폐활량에 대한 비($FEV_1$/FVC)를 구했다. 폐확산능은 5분간격으로 각각 3회씩 단회호흡법과 호흡내법으로 측정하였으며, 선형적 상관분석으로 어떤 인자가 두 방법간의 폐확산능의 차[단회호흡법과 호흡내법에 의한 각각의 폐확산능의 차이의 평균치(mL/min/mmHg)]에 영향을 미치는지를 평가하여 다음과 같은 결과를 얻었다. 결과: 1) 단회호흡법 및 호흡내법 모두 검사내 재현성은 우수하였다. 2) 단회호흡법과 호흡내법으로 측정한 폐확산능간에는 전체적으로 유의한 상관관계가 있었지만, 두 방법의 측정치간에는 의미있는 치아가 있었다($1.01{\pm}0.35ml/min/mmHg$, p<0.01). 3) 단회호흡법과 호흡내법간의 폐확산능의 차이는 노력성폐활량과는 상관관계가 없었지만, 1초간 노력성호기량, $FEV_1$/FVC 및 환기배분의 지표인 메탄농도의 기울기와는 유의한 상관관계가 있었고 다중상관분석결과 $FEV_1$/FVC에 의한 영향이 가장 컸다(r=-0.4725, p<0.01). 4) 단회호흡법과 호흡내법간의 폐확산능의 차이와 $FEV_1$/FVC를 도식화하면 두 방법간의 폐확산능의 차이는 $FEV_1$/FVC가 50~60%인 구간에서 두 군으로 분리됨을 알수 있으며, $FEV_1$/FVC가 60% 이상에서는 두방법간에 유의한 차이가 없으나($0.05{\pm}0.24ml/min/mmHg$, p>0.1) 60% 미만에서는 유의한 차이가 있었다($-4.65{\pm}0.34ml/min/mmHg$, p<0.01). 5) 메탄농도의 기울기가 정상범위인 2%/L이내에선 단회호흡법과 호흡내법의 폐확산능이 모두 $24.3{\pm}0.68ml/min/mmHg$로 측정방법에 따른 차이가 없지만 2%/L를 초과한 경우에는 단회호흡법에 의한 폐확산능이 $15.0{\pm}0.44ml/min/mmHg$ 호흡내법에 선 $11.9{\pm}0.51ml/min/mmHg$로 두 방법간에 유의한 차이가 있었다(p<0.01). 따라서 $FEV_1$/FVC가 60% 미만일때는 호흡내법으로 측정한 폐확산능이 단회호흡법보다 의미있게 낮은 값을 보이는데, 그 이유는 주로 환기배분의 장애로 추정되지만 폐확산능 이 단회호흡법에서 과대평가되거나 폐확산능의 감소가 호흡내법에서 더 예민하게 나타 났을 가능정도 배제할수 없다. 결론: 73명을 대상으로 폐확산능을 단회호흡법과 호흡내법으로 측정해본 결과 호흡내법은 검사의 재현성도 우수하고 폐기능이 정상이거나 제한성 장애, 그리고 경도의 폐쇄성장애가 있는 경우에는 단회호흡법을 대체해서 사용할수 있지만, 중등도 이상의 폐쇄성장애가 있는 경우에는 단회호흡법보다 유의하게 낮은 검사치를 보였다. 호흡내법과 단회호흡법에 의한 폐확산능의 차이가 호흡내법이 단회호흡법에 비해 폐확산능의 감소를 예민하게 나타내주는 것인지 혹은 환기의 불균형에 의한 영향을 많이 받아서인지는 연구가 더 필요할 것이다.

  • PDF

Information Privacy Concern in Context-Aware Personalized Services: Results of a Delphi Study

  • Lee, Yon-Nim;Kwon, Oh-Byung
    • Asia pacific journal of information systems
    • /
    • 제20권2호
    • /
    • pp.63-86
    • /
    • 2010
  • Personalized services directly and indirectly acquire personal data, in part, to provide customers with higher-value services that are specifically context-relevant (such as place and time). Information technologies continue to mature and develop, providing greatly improved performance. Sensory networks and intelligent software can now obtain context data, and that is the cornerstone for providing personalized, context-specific services. Yet, the danger of overflowing personal information is increasing because the data retrieved by the sensors usually contains privacy information. Various technical characteristics of context-aware applications have more troubling implications for information privacy. In parallel with increasing use of context for service personalization, information privacy concerns have also increased such as an unrestricted availability of context information. Those privacy concerns are consistently regarded as a critical issue facing context-aware personalized service success. The entire field of information privacy is growing as an important area of research, with many new definitions and terminologies, because of a need for a better understanding of information privacy concepts. Especially, it requires that the factors of information privacy should be revised according to the characteristics of new technologies. However, previous information privacy factors of context-aware applications have at least two shortcomings. First, there has been little overview of the technology characteristics of context-aware computing. Existing studies have only focused on a small subset of the technical characteristics of context-aware computing. Therefore, there has not been a mutually exclusive set of factors that uniquely and completely describe information privacy on context-aware applications. Second, user survey has been widely used to identify factors of information privacy in most studies despite the limitation of users' knowledge and experiences about context-aware computing technology. To date, since context-aware services have not been widely deployed on a commercial scale yet, only very few people have prior experiences with context-aware personalized services. It is difficult to build users' knowledge about context-aware technology even by increasing their understanding in various ways: scenarios, pictures, flash animation, etc. Nevertheless, conducting a survey, assuming that the participants have sufficient experience or understanding about the technologies shown in the survey, may not be absolutely valid. Moreover, some surveys are based solely on simplifying and hence unrealistic assumptions (e.g., they only consider location information as a context data). A better understanding of information privacy concern in context-aware personalized services is highly needed. Hence, the purpose of this paper is to identify a generic set of factors for elemental information privacy concern in context-aware personalized services and to develop a rank-order list of information privacy concern factors. We consider overall technology characteristics to establish a mutually exclusive set of factors. A Delphi survey, a rigorous data collection method, was deployed to obtain a reliable opinion from the experts and to produce a rank-order list. It, therefore, lends itself well to obtaining a set of universal factors of information privacy concern and its priority. An international panel of researchers and practitioners who have the expertise in privacy and context-aware system fields were involved in our research. Delphi rounds formatting will faithfully follow the procedure for the Delphi study proposed by Okoli and Pawlowski. This will involve three general rounds: (1) brainstorming for important factors; (2) narrowing down the original list to the most important ones; and (3) ranking the list of important factors. For this round only, experts were treated as individuals, not panels. Adapted from Okoli and Pawlowski, we outlined the process of administrating the study. We performed three rounds. In the first and second rounds of the Delphi questionnaire, we gathered a set of exclusive factors for information privacy concern in context-aware personalized services. The respondents were asked to provide at least five main factors for the most appropriate understanding of the information privacy concern in the first round. To do so, some of the main factors found in the literature were presented to the participants. The second round of the questionnaire discussed the main factor provided in the first round, fleshed out with relevant sub-factors. Respondents were then requested to evaluate each sub factor's suitability against the corresponding main factors to determine the final sub-factors from the candidate factors. The sub-factors were found from the literature survey. Final factors selected by over 50% of experts. In the third round, a list of factors with corresponding questions was provided, and the respondents were requested to assess the importance of each main factor and its corresponding sub factors. Finally, we calculated the mean rank of each item to make a final result. While analyzing the data, we focused on group consensus rather than individual insistence. To do so, a concordance analysis, which measures the consistency of the experts' responses over successive rounds of the Delphi, was adopted during the survey process. As a result, experts reported that context data collection and high identifiable level of identical data are the most important factor in the main factors and sub factors, respectively. Additional important sub-factors included diverse types of context data collected, tracking and recording functionalities, and embedded and disappeared sensor devices. The average score of each factor is very useful for future context-aware personalized service development in the view of the information privacy. The final factors have the following differences comparing to those proposed in other studies. First, the concern factors differ from existing studies, which are based on privacy issues that may occur during the lifecycle of acquired user information. However, our study helped to clarify these sometimes vague issues by determining which privacy concern issues are viable based on specific technical characteristics in context-aware personalized services. Since a context-aware service differs in its technical characteristics compared to other services, we selected specific characteristics that had a higher potential to increase user's privacy concerns. Secondly, this study considered privacy issues in terms of service delivery and display that were almost overlooked in existing studies by introducing IPOS as the factor division. Lastly, in each factor, it correlated the level of importance with professionals' opinions as to what extent users have privacy concerns. The reason that it did not select the traditional method questionnaire at that time is that context-aware personalized service considered the absolute lack in understanding and experience of users with new technology. For understanding users' privacy concerns, professionals in the Delphi questionnaire process selected context data collection, tracking and recording, and sensory network as the most important factors among technological characteristics of context-aware personalized services. In the creation of a context-aware personalized services, this study demonstrates the importance and relevance of determining an optimal methodology, and which technologies and in what sequence are needed, to acquire what types of users' context information. Most studies focus on which services and systems should be provided and developed by utilizing context information on the supposition, along with the development of context-aware technology. However, the results in this study show that, in terms of users' privacy, it is necessary to pay greater attention to the activities that acquire context information. To inspect the results in the evaluation of sub factor, additional studies would be necessary for approaches on reducing users' privacy concerns toward technological characteristics such as highly identifiable level of identical data, diverse types of context data collected, tracking and recording functionality, embedded and disappearing sensor devices. The factor ranked the next highest level of importance after input is a context-aware service delivery that is related to output. The results show that delivery and display showing services to users in a context-aware personalized services toward the anywhere-anytime-any device concept have been regarded as even more important than in previous computing environment. Considering the concern factors to develop context aware personalized services will help to increase service success rate and hopefully user acceptance for those services. Our future work will be to adopt these factors for qualifying context aware service development projects such as u-city development projects in terms of service quality and hence user acceptance.

간암환자에 있어서 $^{11}C$-Acetate와 $^{18}F$-FDG PET/CT 검사의 당일 검사법과 양일 검사법의 비교 (Comparison of One-day and Two-day Protocol of $^{11}C$-Acetate and $^{18}F$-FDG Scan in Hepatoma)

  • 강신창;박훈희;김정열;임한상;김재삼;이창호
    • 핵의학기술
    • /
    • 제14권2호
    • /
    • pp.3-8
    • /
    • 2010
  • $^{11}C$-Acetate PET/CT는 간에 관련된 병변을 찾아내는데 있어 유용성이 있으며, 이에 대한 예민도는 87.3%에 이른다. 이에 반해 $^{18}F$-FDG PET/CT의 예민도는 47.3%이며, $^{18}F$-FDG와 $^{11}C$-Acetate PET/CT 검사를 동시에 사용하는 경우 예민도는 100%로 보고된바 있다. 하지만 $^{11}C$-Acetate PET/CT검사에서 췌장, 비장의 정상섭취로 인해 $^{18}F$-FDG PET/CT검사에 영향을 줄 수 있어 정확한 진단에 혼란을 야기시킬 수 있다. 본 연구는 이러한 두 방사성의약품의 사용으로 인하여 영상에 얼마나 영향을 주는지에 대해 당일 검사법과 양일 검사법 간의 비교 분석을 통해 유용성을 확인하는데 목적이 있다. 본 연구는 2007년 12월부터 2009년 7월까지 본원에서 간암 진단을 받고 PET/CT 검사를 시행한 환자 46명을 대상으로 하였다(남자 35명, 여자 11명, 평균연령: $54{\pm}10.6$세, 연령 범위: 29~69세). 검사에 이용된 장비는 Biograph TruePoint 40 PET/CT이며, 당일 검사법으로 검사한 21명에게는 $^{11}C$-Acetate PET/CT 검사를 먼저 시행하고 약 1시간 후에 곧바로 $^{18}F$-FDG PET/CT 검사를 시행하였다. 양일 검사법으로 검사를 시행한 25명에게는 1일째 $^{11}C$-Acetate PET/CT검사를 시행하고, 2일째 $^{18}F$-FDG PET/CT 검사를 시행하였다. 두 검사법 간의 $^{18}F$-FDG 영상에서 췌장과 비장에 동일한 관심영역을 설정하고 표준섭취계수를 측정하여 비교 평가하였다. 통계 분석은 SPSS Ver. 17을 사용하였으며, unpaired t-test를 통하여 두 검사법 간의 통계적 유의성을 확인하였다. 각각의 검사법으로 시행한 환자의 영상을 분석한 결과, 양일 검사법으로 검사를 시행한 환자의 췌장 부분의 표준섭취계수 평균${\pm}$표준편차는 두부 $1.62{\pm}0.32$ g/mL, 체부 $1.57{\pm}0.37$ g/mL, 미부 $1.49{\pm}0.33$ g/mL, 비장은 $1.53{\pm}0.28$ g/mL였다. 당일 검사법으로 검사를 시행한 환자의 췌장은 두부 $1.65{\pm}0.35$ g/mL, 체부 $1.58{\pm}0.27$ g/mL, 미부 $1.49{\pm}0.28$ g/mL, 비장은 $1.66{\pm}0.29$ g/mL로 나타났다. 당일 검사법과 양일 검사법 간의 췌장과 비장에서의 표준섭취계수는 통계적으로 유의한 차이를 보이지 않았으며 (p<0.05), PET/CT 영상분석에서도 위양성으로 오인할 수 있는 높은 섭취는 보이지 않았다. 본 연구를 통해서 하루 동안 $^{11}C$-Acetate와 $^{18}F$-FDG PET/CT 검사를 시행하여도 $^{18}F$-FDG 영상에서 $^{11}C$-Acetate의 영향으로 인해 표준섭취계수의 과대평가가 일어나지 않는다는 것을 알 수 있었고 이는 표준섭취계수의 측정값을 통해 통계적으로 유의성을 확인할 수 있었다. 앞으로 $^{11}C$-Acetate가 상용화될 경우 $^{18}F$-FDG와 당일 검사법을 이용하여 간질환의 진단에 있어 PET/CT 검사의 진단능을 향상시킬 수 있고 위 결과를 토대로 두 방사성의약품의 간섭영향 없이 하루에 검사를 완료할 수 있으며, 대기시간을 단축하여 환자의 만족도를 높일 수 있을 것으로 사료된다.

  • PDF

시장 환경이 인터넷 경로를 포함한 다중 경로 관리에 미치는 영향에 관한 연구: 게임 이론적 접근방법 (The Impact of Market Environments on Optimal Channel Strategy Involving an Internet Channel: A Game Theoretic Approach)

  • 유원상
    • 한국유통학회지:유통연구
    • /
    • 제16권2호
    • /
    • pp.119-138
    • /
    • 2011
  • 지난 십년동안 인터넷을 통한 전자상거래는 빠른 속도로 성장해 왔다. 이러한 인터넷의 발달은 기업들의 사업방식에 많은 변화를 유도했으며, 그 중에서도 마케팅경로의 구조와 경로 구성원들 사이의 관계에 중요한 변화를 초래하고 있다. 각 기업이 처한 시장환경은 다양하며 이 다양한 시장 환경은 인터넷 경로가 각 시장에 미치는 효과를 조절하는 역할을 한다. 이러한 시장의 다양성에도 불구하고 지금까지의 선행연구들은 각기 특정한 하나의 시장상황(unique setting)을 상정하여 인터넷경로 도입이 그 시장에 미치는 영향을 분석하는데 그쳐왔다. 이러한 기존 연구의 공백을 채우기 위해 본 연구는 시장의 다양성을 소비자의 지리적 분포, 시장의 인터넷 수용도의 측면에서 살펴보고 이러한 시장 환경이 인터넷 경로 도입 효과에 미치는 영향에 관하여 조사해 보고자 한다. 이를 위해 본 연구는 다양한 소비자들의 지리적 분포, 경쟁강도, 소비자의 인터넷 상거래에 대한 수용도 등을 포함한 다양한 시장 환경을 수요모형에 반영시켜 그 영향력 분석을 가능하도록 하였다. 그러나, 다양한 시장 요소를 모형에 반영하는 과정에서 수요모형이 복잡한 구조를 가지게 되었다. 이 문제를 극복하고 게임이론의 균형해를 도출하기 위해 Newton-Raphson algorithm을 사용한 numerical search 방법을 사용하였다. 분석결과 두 종류의 경로에 대한 소비자선호의 분포에 따라 생산자의 가격차별정도, 생산자와 독립소매상 간의 경로이윤 배분율, 그리고 인터넷경로 도입이 각 경로주체의 이윤 향상에 도움이 되는지의 여부, 소비자잉여 등이 달라질 수 있음을 발견하였다. 끝으로 연구의 학술적, 실무적 시사점과 한계점 및 향후 연구방향도 논의되었다.

  • PDF

한정된 O-D조사자료를 이용한 주 전체의 트럭교통예측방법 개발 (DEVELOPMENT OF STATEWIDE TRUCK TRAFFIC FORECASTING METHOD BY USING LIMITED O-D SURVEY DATA)

  • 박만배
    • 대한교통학회:학술대회논문집
    • /
    • 대한교통학회 1995년도 제27회 학술발표회
    • /
    • pp.101-113
    • /
    • 1995
  • The objective of this research is to test the feasibility of developing a statewide truck traffic forecasting methodology for Wisconsin by using Origin-Destination surveys, traffic counts, classification counts, and other data that are routinely collected by the Wisconsin Department of Transportation (WisDOT). Development of a feasible model will permit estimation of future truck traffic for every major link in the network. This will provide the basis for improved estimation of future pavement deterioration. Pavement damage rises exponentially as axle weight increases, and trucks are responsible for most of the traffic-induced damage to pavement. Consequently, forecasts of truck traffic are critical to pavement management systems. The pavement Management Decision Supporting System (PMDSS) prepared by WisDOT in May 1990 combines pavement inventory and performance data with a knowledge base consisting of rules for evaluation, problem identification and rehabilitation recommendation. Without a r.easonable truck traffic forecasting methodology, PMDSS is not able to project pavement performance trends in order to make assessment and recommendations in the future years. However, none of WisDOT's existing forecasting methodologies has been designed specifically for predicting truck movements on a statewide highway network. For this research, the Origin-Destination survey data avaiiable from WisDOT, including two stateline areas, one county, and five cities, are analyzed and the zone-to'||'&'||'not;zone truck trip tables are developed. The resulting Origin-Destination Trip Length Frequency (00 TLF) distributions by trip type are applied to the Gravity Model (GM) for comparison with comparable TLFs from the GM. The gravity model is calibrated to obtain friction factor curves for the three trip types, Internal-Internal (I-I), Internal-External (I-E), and External-External (E-E). ~oth "macro-scale" calibration and "micro-scale" calibration are performed. The comparison of the statewide GM TLF with the 00 TLF for the macro-scale calibration does not provide suitable results because the available 00 survey data do not represent an unbiased sample of statewide truck trips. For the "micro-scale" calibration, "partial" GM trip tables that correspond to the 00 survey trip tables are extracted from the full statewide GM trip table. These "partial" GM trip tables are then merged and a partial GM TLF is created. The GM friction factor curves are adjusted until the partial GM TLF matches the 00 TLF. Three friction factor curves, one for each trip type, resulting from the micro-scale calibration produce a reasonable GM truck trip model. A key methodological issue for GM. calibration involves the use of multiple friction factor curves versus a single friction factor curve for each trip type in order to estimate truck trips with reasonable accuracy. A single friction factor curve for each of the three trip types was found to reproduce the 00 TLFs from the calibration data base. Given the very limited trip generation data available for this research, additional refinement of the gravity model using multiple mction factor curves for each trip type was not warranted. In the traditional urban transportation planning studies, the zonal trip productions and attractions and region-wide OD TLFs are available. However, for this research, the information available for the development .of the GM model is limited to Ground Counts (GC) and a limited set ofOD TLFs. The GM is calibrated using the limited OD data, but the OD data are not adequate to obtain good estimates of truck trip productions and attractions .. Consequently, zonal productions and attractions are estimated using zonal population as a first approximation. Then, Selected Link based (SELINK) analyses are used to adjust the productions and attractions and possibly recalibrate the GM. The SELINK adjustment process involves identifying the origins and destinations of all truck trips that are assigned to a specified "selected link" as the result of a standard traffic assignment. A link adjustment factor is computed as the ratio of the actual volume for the link (ground count) to the total assigned volume. This link adjustment factor is then applied to all of the origin and destination zones of the trips using that "selected link". Selected link based analyses are conducted by using both 16 selected links and 32 selected links. The result of SELINK analysis by u~ing 32 selected links provides the least %RMSE in the screenline volume analysis. In addition, the stability of the GM truck estimating model is preserved by using 32 selected links with three SELINK adjustments, that is, the GM remains calibrated despite substantial changes in the input productions and attractions. The coverage of zones provided by 32 selected links is satisfactory. Increasing the number of repetitions beyond four is not reasonable because the stability of GM model in reproducing the OD TLF reaches its limits. The total volume of truck traffic captured by 32 selected links is 107% of total trip productions. But more importantly, ~ELINK adjustment factors for all of the zones can be computed. Evaluation of the travel demand model resulting from the SELINK adjustments is conducted by using screenline volume analysis, functional class and route specific volume analysis, area specific volume analysis, production and attraction analysis, and Vehicle Miles of Travel (VMT) analysis. Screenline volume analysis by using four screenlines with 28 check points are used for evaluation of the adequacy of the overall model. The total trucks crossing the screenlines are compared to the ground count totals. L V/GC ratios of 0.958 by using 32 selected links and 1.001 by using 16 selected links are obtained. The %RM:SE for the four screenlines is inversely proportional to the average ground count totals by screenline .. The magnitude of %RM:SE for the four screenlines resulting from the fourth and last GM run by using 32 and 16 selected links is 22% and 31 % respectively. These results are similar to the overall %RMSE achieved for the 32 and 16 selected links themselves of 19% and 33% respectively. This implies that the SELINICanalysis results are reasonable for all sections of the state.Functional class and route specific volume analysis is possible by using the available 154 classification count check points. The truck traffic crossing the Interstate highways (ISH) with 37 check points, the US highways (USH) with 50 check points, and the State highways (STH) with 67 check points is compared to the actual ground count totals. The magnitude of the overall link volume to ground count ratio by route does not provide any specific pattern of over or underestimate. However, the %R11SE for the ISH shows the least value while that for the STH shows the largest value. This pattern is consistent with the screenline analysis and the overall relationship between %RMSE and ground count volume groups. Area specific volume analysis provides another broad statewide measure of the performance of the overall model. The truck traffic in the North area with 26 check points, the West area with 36 check points, the East area with 29 check points, and the South area with 64 check points are compared to the actual ground count totals. The four areas show similar results. No specific patterns in the L V/GC ratio by area are found. In addition, the %RMSE is computed for each of the four areas. The %RMSEs for the North, West, East, and South areas are 92%, 49%, 27%, and 35% respectively, whereas, the average ground counts are 481, 1383, 1532, and 3154 respectively. As for the screenline and volume range analyses, the %RMSE is inversely related to average link volume. 'The SELINK adjustments of productions and attractions resulted in a very substantial reduction in the total in-state zonal productions and attractions. The initial in-state zonal trip generation model can now be revised with a new trip production's trip rate (total adjusted productions/total population) and a new trip attraction's trip rate. Revised zonal production and attraction adjustment factors can then be developed that only reflect the impact of the SELINK adjustments that cause mcreases or , decreases from the revised zonal estimate of productions and attractions. Analysis of the revised production adjustment factors is conducted by plotting the factors on the state map. The east area of the state including the counties of Brown, Outagamie, Shawano, Wmnebago, Fond du Lac, Marathon shows comparatively large values of the revised adjustment factors. Overall, both small and large values of the revised adjustment factors are scattered around Wisconsin. This suggests that more independent variables beyond just 226; population are needed for the development of the heavy truck trip generation model. More independent variables including zonal employment data (office employees and manufacturing employees) by industry type, zonal private trucks 226; owned and zonal income data which are not available currently should be considered. A plot of frequency distribution of the in-state zones as a function of the revised production and attraction adjustment factors shows the overall " adjustment resulting from the SELINK analysis process. Overall, the revised SELINK adjustments show that the productions for many zones are reduced by, a factor of 0.5 to 0.8 while the productions for ~ relatively few zones are increased by factors from 1.1 to 4 with most of the factors in the 3.0 range. No obvious explanation for the frequency distribution could be found. The revised SELINK adjustments overall appear to be reasonable. The heavy truck VMT analysis is conducted by comparing the 1990 heavy truck VMT that is forecasted by the GM truck forecasting model, 2.975 billions, with the WisDOT computed data. This gives an estimate that is 18.3% less than the WisDOT computation of 3.642 billions of VMT. The WisDOT estimates are based on the sampling the link volumes for USH, 8TH, and CTH. This implies potential error in sampling the average link volume. The WisDOT estimate of heavy truck VMT cannot be tabulated by the three trip types, I-I, I-E ('||'&'||'pound;-I), and E-E. In contrast, the GM forecasting model shows that the proportion ofE-E VMT out of total VMT is 21.24%. In addition, tabulation of heavy truck VMT by route functional class shows that the proportion of truck traffic traversing the freeways and expressways is 76.5%. Only 14.1% of total freeway truck traffic is I-I trips, while 80% of total collector truck traffic is I-I trips. This implies that freeways are traversed mainly by I-E and E-E truck traffic while collectors are used mainly by I-I truck traffic. Other tabulations such as average heavy truck speed by trip type, average travel distance by trip type and the VMT distribution by trip type, route functional class and travel speed are useful information for highway planners to understand the characteristics of statewide heavy truck trip patternS. Heavy truck volumes for the target year 2010 are forecasted by using the GM truck forecasting model. Four scenarios are used. Fo~ better forecasting, ground count- based segment adjustment factors are developed and applied. ISH 90 '||'&'||' 94 and USH 41 are used as example routes. The forecasting results by using the ground count-based segment adjustment factors are satisfactory for long range planning purposes, but additional ground counts would be useful for USH 41. Sensitivity analysis provides estimates of the impacts of the alternative growth rates including information about changes in the trip types using key routes. The network'||'&'||'not;based GMcan easily model scenarios with different rates of growth in rural versus . . urban areas, small versus large cities, and in-state zones versus external stations. cities, and in-state zones versus external stations.

  • PDF

PET/CT 영상 획득 시 사전설정법 차이에 따른 영상 질 평가 (Evaluation of the Image Quality According to the Pre-set Method in PET/CT Image)

  • 박선명;이혁;홍건철;정은경;최춘기;석재동
    • 핵의학기술
    • /
    • 제15권2호
    • /
    • pp.41-46
    • /
    • 2011
  • 영상장치를 이용한 검사 시 영상의 질은 검사결과와 밀접하게 연관되어 있으며, 이는 영상획득 조건들과 이에 대한 평가방법으로 인해 달라 질 수 있다. 본 연구에서는 영상획득 시 사전설정법(Pre-set method)차이에 따른 영상의 질을 평가하였다. 장비는 PET/CT Discovery STe16(GE Healthcare, Milwaukee, USA)을 사용하였으며, Chest PET Phantom (실험 1)과 94 NEMA Phantom (실험 2)을 이용하였다. 실험 1의 경우 3.5, 6.0, 8.6 kBq/mL, 실험 2의 경우는 3.3, 5.5, 7.7, 9.9, 12.1, 16.5 kBq/mL의 $^{18}F$-FDG를 채웠고, 열소와 배후방사능과의 방사능 농도는 4:1의 비율을 유지하였다. 각 실험은 CT 투과촬영 후 3D로 2분 30초/프레임으로 시간설정법(Time-set method)과 1억 계수의 계수설정법 (Count-set method)을 적용하여 방출촬영 하였다. 영상의 질에 대한 평가는 잡음 등가 계수율 (Noise Equivalent Count Rate, NECR)과 신호 대 잡음비 (Signal to Noise Ratio, SNR)를 이용하였다. 실험 1에서 NECR과 SNR은 방사능 농도의 증가에 따라 시간설정법에서 53.7, 66.9, 91.4 과 7.9, 10.0, 11.7로 평가 모두에서 증가함을 보였으나, 계수설정법은 53.8, 69.1, 97.8과 14.1, 14.7, 14.4로 SNR은 NECR과 다르게 증감현상을 보이지 않았다. 또 다른 모형실험인 실험 2에서도 NECR과 SNR은 방사능 농도가 증가에 따라 시간설정법에서 45.1, 70.6, 95.3 115.6 134.6 162.2 과 7.1, 8.8, 10.6, 11.5, 12.7, 14.0으로 증가함을 보였으나, 계수설정법에서는 42.1 67.3 92.1 112.2 130.7 158.7 과 15.2, 15.9, 15.6, 15.4, 15.5, 14.9로 실험 1에서와 마찬가지로 SNR에서는 증감현상을 보이지 않았다. 사전설정법 변화와 관계없이 단위 질량당 방사능량 증가는 영상의 질도 비례하여 향상된다. 그러나 동일한 단위 질량당 방사능량에서는 영상획득의 시간을 늘려 총계수값을 증가시켜도 NECR에 영향을 주지는 않는다. 이는 NECR을 이용한 영상 질 평가는 영상획득 시 얻은 총 계수 값보다는 단위 시간당의 계수율이 영향을 준다는 것을 의미한다고 할 수 있다. 실험 모두에서 계수설정법으로 얻은 경우에는 단위 질량당 방사능량의 증가에도 불구하고 거의 비슷한 SNR값을 보이게 된다. 따라서 좋은 질의 영상을 얻기 위해서는 총 계수값의 증가보다는 단위질량당 방사능량을 높여야 하며, SNR만을 이용한 영상의 질에 대한 평가는 적절하지 않을 수 있다는 점을 고려하여야 한다.

  • PDF

삼림환경인자(森林環境因子)에 의한 굴참나무임분(林分)의 생산력추정(生産力推定) (Estimation of Productivity for Quercus variabilis Stand by Forest Environmental Factors)

  • 이동섭;정영관
    • 한국산림과학회지
    • /
    • 제75권1호
    • /
    • pp.1-18
    • /
    • 1986
  • 본(本) 연구(硏究)는 굴참나무의 생장인자(生長因子) (흉고직경(胸高直徑), 수고(樹高), 흉고단면적(胸高斷面績) 및 간재적(幹材積))와 삼림환경(森林環境) 및 토양(土壤)의 이화학적(理化學的) 인자(因子)와의 관계(關係)를 분석(分析)하여 임지(林地)의 생산력(生産力)을 추정(推定)하고, 적지선정(適地選定) 기준(基準)을 설정(設定)하는데 그 목적(目的)이 있다. 이 때 고려(考慮)된 인자(因子)는 삼림환경인자(森林環境因子)로 령급(齡級) 외(外) 19개(個) 토양(土壤)의 이화학적(理化學的) 인자(因子)로 토양산도(土壤酸度) 외(外) 11개(個), 총(總) 32개(個) 인자(因子)이다. 경북(慶北)과 충북지방(忠北地方)에서 선정(選定)된 이들 생장인자(生長因子)와 삼림환경인자(森林環境因子)는 99개(個)의 표준지(標準地)를 대상(對象)으로 조사(調査)되었다. 여기에서 채택(採擇)된 인자(因子)는 이산변수(離散變數)와 연속변수(連續變數)이다. 각각의 인자(因子)를 3~4개(個)의 계급(階級)으로 분류(分類)하여, 총(總) 110개(個)의 계급(階級)으로 구분(區分)하였다. 그리고 각 계급(階級)을 별개(別個)의 독립변수(獨立變數)로 하였다. 즉 이는 의사변수(擬似變數)(dummy variable)로 하여 그의 값을 1 혹은 0으로 놓았다. 각 인자(因子)의 첫 계급(階級)은 통계학적(統計學的) 고려(考慮) 때문에 정규방정식(正規方程式)에서 제외(除外)시켰다. 먼저 4개(個)의 굴참나무 생장인자(生長因子)와 110개(個)의 계급(階級)과의 관계(關係)를 회귀분석(回歸分析)하였다. 다음으로 4개(個)의 생장인자(生長因子)와 32개(個)의 독립변수(獨立變數)간의 편상관계수(偏相關係數)를 계산(計算)하였다. 마지막으로 계급간(階級間)의 범위(範圍)를 구(求)하기 위하여 상대점수(相對點數)를 추정(推定)하였다. 이와 같이 통계분석(統計分析)한 결과(結果)를 요약(要約)하면 다음과 같다. 1) 임목생장인자(林木生長因子)와 삼림환경인자(森林環境因子)와의 관계(關係)를 분석(分析)한 결과(結果), 수고(樹高)를 종속변수(從屬變數)로 하는 것이 추정율(推定率)이 가장 높았다. 그러므로 생장인자(生長因子) 중(中) 수고(樹高)를 임지생산력(林地生産力)의 추정기준(推定基準)으로 하는 것이 효율적(効率的)이라 사료(思料)된다. 2) 입목지(立木地)의 생산력(生産力)은 전체(全體) 삼림환경인자(森林環境因子)에 의하여, 그리고 무입목지(無立木地)는 토양(土壤)의 이화학적(理化學的) 인자(因子)에 의하여 추정(推定)할 수 있다. 3) 전체(全體)의 임목생장인자(林木生長因子)에 공통(共通)으로 크게 관여(關與)하는 인자(因子)는 령급(齡級), 유효토탐(有効土探), 임목밀도(林木密度), 모암(母岩), 위도(緯度), 토양습도(土壤濕度) 등으로서, 이들 인자(因子)의 양부(良否)가 곧 적지적수(適地適樹)의 기준(基準)이 될 수 있다. 4) 임목생장(林木生長)에 대한 계급간(階級間)의 상대점수차(相對點數差)가 공통(共通)으로 큰 인자(因子)는 모암(母岩), 위도(緯度), 전질소함량(全窒素含量), 령급(齡級), 유효토탐(有効土探), 토양습도(土壤濕度), 유기질함량(有機質含量) 등으로서 이들 인자(因子)의 계급(階級)에 따라 적지적수(適地適樹)를 선정(選定)하여야 할 것으로 사료(思料)된다.

  • PDF

이진 분류문제에서의 딥러닝 알고리즘의 활용 가능성 평가 (Feasibility of Deep Learning Algorithms for Binary Classification Problems)

  • 김기태;이보미;김종우
    • 지능정보연구
    • /
    • 제23권1호
    • /
    • pp.95-108
    • /
    • 2017
  • 최근 알파고의 등장으로 딥러닝 기술에 대한 관심이 고조되고 있다. 딥러닝은 향후 미래의 핵심 기술이 되어 일상생활의 많은 부분을 개선할 것이라는 기대를 받고 있지만, 주요한 성과들이 이미지 인식과 자연어처리 등에 국한되어 있고 전통적인 비즈니스 애널리틱스 문제에의 활용은 미비한 실정이다. 실제로 딥러닝 기술은 Convolutional Neural Network(CNN), Recurrent Neural Network(RNN), Deep Boltzmann Machine (DBM) 등 알고리즘들의 선택, Dropout 기법의 활용여부, 활성 함수의 선정 등 다양한 네트워크 설계 이슈들을 가지고 있다. 따라서 비즈니스 문제에서의 딥러닝 알고리즘 활용은 아직 탐구가 필요한 영역으로 남아있으며, 특히 딥러닝을 현실에 적용했을 때 발생할 수 있는 여러 가지 문제들은 미지수이다. 이에 따라 본 연구에서는 다이렉트 마케팅 응답모델, 고객이탈분석, 대출 위험 분석 등의 주요한 분류 문제인 이진분류에 딥러닝을 적용할 수 있을 것인지 그 가능성을 실험을 통해 확인하였다. 실험에는 어느 포르투갈 은행의 텔레마케팅 응답여부에 대한 데이터 집합을 사용하였으며, 전통적인 인공신경망인 Multi-Layer Perceptron, 딥러닝 알고리즘인 CNN과 RNN을 변형한 Long Short-Term Memory, 딥러닝 모형에 많이 활용되는 Dropout 기법 등을 이진 분류 문제에 활용했을 때의 성능을 비교하였다. 실험을 수행한 결과 CNN 알고리즘은 비즈니스 데이터의 이진분류 문제에서도 MLP 모형에 비해 향상된 성능을 보였다. 또한 MLP와 CNN 모두 Dropout을 적용한 모형이 적용하지 않은 모형보다 더 좋은 분류 성능을 보여줌에 따라, Dropout을 적용한 CNN 알고리즘이 이진분류 문제에도 활용될 수 있는 가능성을 확인하였다.

가정용 소형 퇴비화용기에 의한 부엌쓰레기의 분산식 퇴비화 I. 실험실 조건에서 퇴비화 연구 (Decentralized Composting of Garbage in a Small Composter for Dwelling House I. Laboratory Composting of the Household Garbage in a Small Bin)

  • 서정윤;주우홍
    • 한국환경농학회지
    • /
    • 제13권3호
    • /
    • pp.321-337
    • /
    • 1994
  • 주택용 소형 퇴비화용기에 의한 부엌쓰레기의 퇴비화 가능성을 검토하기 위하여 두가지 용기(Type 1과 Type 2)를 제작하여 실험실 실험을 통하여 조사하였다. 두 용기의 구조는 같으나 차이점은 Type 1은 보온을 하였고 Type 2는 보온을 하지 않았다. 겨울철 실험을 통하여 Type 2는 우리나라의 기후 여건에 사용이 불가능한 것으로 판단되어 봄철 및 여름철 실험에서 제외하였다. 따라서 Type 1에 대한 계절 실험결과를 요약하면 다음과 같다. 1) 퇴비화기간 중 상승한 최고온도는 봄철 $58^{\circ}C$, 여름철 $57^{\circ}C$, 겨울철 $41^{\circ}C$였다. 따라서 우리나라의 기후조건에서는 반드시 보온이 필요하다는 것이 확인되었다. 2) 퇴비화원료물질의 무게는 8주 후 평균 62.5% 그리고 부피는 평균 74% 감소하였다. 3) 퇴비충의 밀도는 봄철 0.7kg/l, 여름철 0.8kg/l, 겨울철 1.1kg/l였다. 4) 수분함량은 전 퇴비화기간동안 큰 변동이 없었으며 8주 후 봄철 75.6%, 여름철 76.6%, 겨울철 76.6%였다. 5) pH는 계절에 따라 큰 차이를 보였으며 여름철에 가장 높았고, 겨울철에 가장 낮았다. 8주 후 봄철 6.13, 여름철 8.62, 겨울철 4.75였다. 6) 퇴비화시간의 경과에 따른 회분 및 유기물 함량은 유기물 분해속도가 빠를수록 증감현상이 뚜렷하였고 cellulose 및 lignin은 증가, hemicellulose 함량은 감소하였다. 7) 질소함량은 3.1-5.6%로 높았으며, 특히 여름철에 가장 높았다. 암모늄태 질소는 전반기에 증가했다가 감소하는 경향이었으며 겨울철 2주째 3,243mg/kg, 봄철 3주째 6,052mg/kg, 여름철 6주째 30,828mg/kg으로 가장 높았다. C/N율은 퇴비화시간이 경과함에 따라 감소하였으나 차이는 크지 않았다. 그러나 질산화는 봄 및 여름철에만 일어나고 겨울철에는 거의 일어나지 않았다. 8) 휘발성 및 고급유기산함량은 초기에 증가했다가 계절적으로 시기적 차이는 있으나 감소하였다. 총 유기산의 최고농도는 겨울철 2주째 10.1%, 봄철 2주째 5.8%, 여름철 4주째 15.7%였다. 9) 퇴비의 부숙도와 무관하게 각 무기성분함량은 $P_2O_5$ 0.9-4.4%, $K_2O$ 1.6-2.9%, CaO 2.4-4.6%, MgO 0.30-0.80%였다. 10) CN 및 각종 중금속함량도 퇴비화시간에 따라 큰 변화가 없었으며 각 함량범위는 계절 구분없이 CN 0.11-28.89mg/kg, Zn 24-l30mg/kg, Cu 5-219mg/kg, Cd 0.8-14.3mg/kg, Pb 7-42mg/kg, Cr ND-30mg/kg, Hg $ND-132.16\;{\mu}g/kg$이었다.

  • PDF

데크놀로지 미학으로서의 사진 (The Photography as Technological Aesthetics)

  • 진동선
    • 조형예술학연구
    • /
    • 제11권
    • /
    • pp.221-249
    • /
    • 2007
  • 오늘날 사진은 새로운 테크놀로지 형태인 디지털 이미지 프로세싱 앞에 심각한 정체성 위기와 존재론적 딜레마에 봉착했다. 사진은 그동안 우리에게 세상을 새롭게 바라보는 방법을 제공하고, 또 우리 스스로 주변을 돌아볼 수 있는 자각을 주었으며, 나아가 삶의 리얼리티의 본질을 재인식시키는데 크게 기여했다. 그런 사진의 기능이 오늘날 무력화되고 있다. 디지털 테크놀로지의 출현으로 사진은 더 이상 사실의 기록, 결백의 증거, 그리고 리얼리티의 거울로서 간주되지 않는다. 오히려 유희의 도구 혹은 우리가 사는 세계의 환영과 기쁨을 창조하는 수단으로 간주된다. 그러나, 디지털 테크놀로지의 출현은 이제 비로소 사진의 존재론적 당위성과 정체성의 문제를 냉정히 돌아보게 한다. 본 논고는 전자시뮬레이션 시대 새로운 이미지 생산의 첨병으로 등장한 디지털 이미지의 존재론적 측면을 규명하는데 있다. 이를 위해 인류의 첫 번째 프로그램 미학으로 말해지는 사진과 첨단테크놀로지 미학으로 말해지는 디지털 이미지와의 관계를 기계미학적 관점에서 살펴보려 한다. 특히 올드미디어(사진)와 뉴미디어(디지털) 사이에 갈등 구조를 자본주의 역사관과 물질적 관점에서 살펴보려 한다. 본 논고는 이를 위해 우선 사진의 정체성 위기와 존재론적 위협이 어디로부터 발현된 것인지를 살피고, 또 지금까지 생산된 매체 미학적 담론들이 어떤 비평적 쟁점 속에 놓였는지를 살피고자 한다. 특히 사진이 강점으로 여긴 존재론적 인덱스와 생성론적 텍스트에 주목하여 사진 재현의 기반인 사실적 기록, 명료한 증거, 그리고 기술적 정교성이 어떤 기계미학의 층위에 있는지를 디지털 이미지를 대척에 두고 분석하고자 한다. 그리하여 최근 일고 있는 사진의 죽음, 사진의 종말에 관한 담론들이 심각한 오류가 있음을 지적하고자 한다. 올드 테크놀로지로서 사진이 당면한 위기, 즉 현재 사진이 안고 있는 존재론적 위기(컴퓨터화 된 디지털 이미지 출현) 그리고 인식론적 위기(윤리, 지식, 가치관 등 급격한 문화 변동)는 매체미학의 본질상 당연한 위기임을 정당화하고자 한다. 본 논문은 이 같은 주장을 위하여 역사적으로 사진술이 어떤 생성과 소멸의 과정을 거쳤으며, 또 어떻게 지금의 디지털 이미지에 이르게 되었는지 테크놀로지 미학 안에서 자동생성주의로서 색인 이미지, 디지털 코드로서 수치 이미지의 생성, 기원, 본질 그리고 정체성을 규명하고자 한다. 특히 본 논고는 논지의 정당성을 위해 다양한 매체미학자들의 주의주장 및 이론적 쟁점을 분석하고자 한다. 또 분석틀을 통해서 테크놀로지 미학의 근간인 기계, 기술성을 바탕으로 한 사진의 생성적 측면과 문화 안에서 변형된 프로그램에 의해 창조되는 디지털 이미지의 변형적 측면의 본질을 파악하고자 한다. 이렇게 사진과 디지털 이미지의 양자의 비교를 통해서 테크놀로지 미학 안에서 올드 미디어(사진)와 뉴 미디어(디지털 이미지)의 자리바꿈은 정당한 것이라는 사실과, 이런 역설적인 구조야말로 기계, 기술을 바탕으로 삼는 테크놀로지 매체의 숙명성이라는 사실을 강조함으로써 논문의 정당성을 강화하고자 한다. 마지막으로 본 논고는 하나의 얼굴, 하나의 정체성으로 자리할 수 없다는 사실을 역사로서 확증하고, 또 사진에서 부동의 존재론과 인식론의 모습은 애초부터 불가능하다는 사실을 지적함으로써 오늘날 제기되고 있는 '사진의 죽음,' '사진의 종말'은 쟁점의 정당성에도 불구하고 매체미학의 역사를 간과하는 오도된 비평이라는 사실을 결론으로 도출하고자 한다.

  • PDF