• 제목/요약/키워드: Performance Parameter

검색결과 4,743건 처리시간 0.035초

β-Glucan 제제들이 산란계의 생산성, 혈액 성상과 소장내 미생물 균총 및 면역 체계에 미치는 영향 (Effect of Various β-1,3-glucan Supplements on the Performance, Blood Parameter, Small Intestinal Microflora and Immune Response in Laying Hens)

  • 박광월;이아름;이인영;김미경;백인기
    • 한국가금학회지
    • /
    • 제35권2호
    • /
    • pp.183-190
    • /
    • 2008
  • 본 실험은 Beta-glucan 제제들이 산란계의 생산성, 혈액성상, 소장내 미생물 균총 및 면역 체계에 미치는 영향을 측정하기 위해 실시하였다. 사양 실험은 40주령의 산란계(Hy-Line Brown) 720수를 선별하여 A형 2단 케이지에 대조구 포함 총 5처리구로 구성하여 처리당 4반복 반복당 36수씩 randomized block design으로 배치하였다. 시험 기간 동안 물과 사료는 자유 섭취하게 하였으며 일반적인 점등 관리(자연일조+조명:16 hr)를 실시하였다. 시험구는 대조구, $BetaPolo^{(R)}$ (미생물 발효 ${\beta}-glucan$, 수용성)구, $HiGlu^{(R)}$(미생물 발효 ${\beta}-glucan$)구, $OGlu^{(R)}$(Oat ${\beta}-glucan$)구 그리고 $BGlu^{(R)}$(Barley ${\beta}-glucan$)구 등 5처리구로 두었다. 생산성에 있어서 일계 산란율은 처리간에 유의한 차이가 없었으나 hen-housed egg production에 있어서 OGlu구가 HiGlu 구에 비해 유의하게 낮았다. 사료 섭취량과 사료 요구율은 처리간에 유의한 차이가 있었는데 모든 ${\beta}-glucan$처리구들이 대조구에 비해 낮았다. 계란 품질에 있어서 난각 강도는 대조구에 비해 모든 ${\beta}-glucan$ 처리구들이 유의하게 높았고 그 중에서 BGlu구가 가장 높았다. 난각색과 Haugh unit는 ${\beta}-glucan$ 처리구들이 대조구보다 낮았는데 특히 OGlu구가 가장 낮았다. 혈액성상에 있어 leucocytes는 전반적으로 ${\beta}-glucan$ 처리구들이 대조구보다 낮았다. Erythrocytes 중 적혈구 용적율(HCT)과 평균적혈구용적(MCV)은 처리간에 유의한 차이가 있었는데 MCV는 ${\beta}-glucan$ 처리구들이 대조구에 비해 높은 수준을 보였다. 특히 ${\beta}-glucan$ 처리구중에서 OGlu구가 leucocytes와 erythrocytes 수준이 가장 높았다. 소장내 미생물 균총도 처리간 유의적 차이가 없었으나 Cl. perfringens 의 경우 모든 ${\beta}-glucan$ 처리구에서 대조구에 비하여 감소하는 경향을 보였다. 난황내 IgY 함량에 있어서는 전체적으로 유의적인 차이는 없으나 시험 마지막 5기에 ${\beta}-glucan$ 처리구 들에서 증가하는 경향을 보였다. 혈액내 IgG, IgA 함량에 있어서는 유의적 차이가 없었다. 이상의 결과를 종합해보면 산란계에 ${\beta}-glucan$ 제제들의 급여가 사료 요구율과 난각 강도를 유의하게 개선시켰는데 혈액성상, 장내 미생물 균총, 면역 기능 등에 순기능적 개선에 의한 결과라고 사료된다.

다중모형조합기법을 이용한 상품추천시스템 (Product Recommender Systems using Multi-Model Ensemble Techniques)

  • 이연정;김경재
    • 지능정보연구
    • /
    • 제19권2호
    • /
    • pp.39-54
    • /
    • 2013
  • 전자상거래의 폭발적 증가는 소비자에게 더 유리한 많은 구매 선택의 기회를 제공한다. 이러한 상황에서 자신의 구매의사결정에 대한 확신이 부족한 소비자들은 의사결정 절차를 간소화하고 효과적인 의사결정을 위해 추천을 받아들인다. 온라인 상점의 상품추천시스템은 일대일 마케팅의 대표적 실현수단으로써의 가치를 인정받고 있다. 그러나 사용자의 기호를 제대로 반영하지 못하는 추천시스템은 사용자의 실망과 시간낭비를 발생시킨다. 본 연구에서는 정확한 사용자의 기호 반영을 통한 추천기법의 정교화를 위해 데이터마이닝과 다중모형조합기법을 이용한 상품추천시스템 모형을 제안하고자 한다. 본 연구에서 제안하는 모형은 크게 두 개의 단계로 이루어져 있으며, 첫 번째 단계에서는 상품군 별 우량고객 선정 규칙을 도출하기 위해서 로지스틱 회귀분석 모형, 의사결정나무 모형, 인공신경망 모형을 구축한 후 다중모형조합기법인 Bagging과 Bumping의 개념을 이용하여 세 가지 모형의 결과를 조합한다. 두 번째 단계에서는 상품군 별 연관관계에 관한 규칙을 추출하기 위하여 장바구니분석을 활용한다. 상기의 두 단계를 통하여 상품군 별로 구매가능성이 높은 우량고객을 선정하여 그 고객에게 관심을 가질만한 같은 상품군 또는 다른 상품군 내의 다른 상품을 추천하게 된다. 제안하는 상품추천시스템은 실제 운영 중인 온라인 상점인 'I아트샵'의 데이터를 이용하여 프로토타입을 구축하였고 실제 소비자에 대한 적용가능성을 확인하였다. 제안하는 모형의 유용성을 검증하기 위하여 제안 상품추천시스템의 추천과 임의 추천을 통한 추천의 결과를 사용자에게 제시하고 제안된 추천에 대한 만족도를 조사한 후 대응표본 T검정을 수행하였으며, 그 결과 사용자의 만족도를 유의하게 향상시키는 것으로 나타났다.

지역사회 사회안전망구축과 지역사회결속 및 지방자치단체 신뢰의 관계 (Relation of Social Security Network, Community Unity and Local Government Trust)

  • 김영남;김찬선
    • 시큐리티연구
    • /
    • 제42호
    • /
    • pp.7-36
    • /
    • 2015
  • 본 연구는 지역사회 사회안전망구축과 지역사회결속 및 지방자치단체 신뢰의 관계를 규명하는데 있다. 이 연구는 2014년 8월 15일부터 8월 30일까지 약 15일간 광주지역사회 일반시민들을 모집단으로 선정한 다음 집락무선표집법을 이용하여 총 450부를 배부하여 438명을 표집하였다. 최종분석에 사용된 사례 수는 412명이다. 수집된 자료는 SPSSWIN 18.0을 이용하여 요인분석, 신뢰도분석, 다중회귀분석, 경로분석 등의 방법을 활용하였다. 결론은 다음과 같다. 첫째, 사회안전망구축은 지역사회결속에 영향을 미친다. 즉, 범죄예방설계, 지방자치단체안전교육, 경찰치안서비스가 활성화 될수록 시민들의 지역사회제도에 대한 관심은 높다. 거리CCTV시설, 범죄예방설계, 지방자치단체안전교육이 활성화 될수록 안정감은 높다. 둘째, 사회안전망구축은 지방자치단체 신뢰에 영향을 미친다. 즉, 지역자율방범활동, 범죄예방설계, 지방자치단체안전교육, 경찰치안서비스가 활성화 될수록 정책신뢰, 서비스관리신뢰, 업무성과신뢰는 증가한다. 셋째, 지역사회결속은 지방자치단체 신뢰에 영향을 미친다. 즉, 지역사회제도가 잘 이루어질수록 정책신뢰는 높다. 또한 지역사회제도, 안정감이 잘 이루어질수록 업무성과 신뢰는 높다. 넷째, 사회안전망구축은 지역사회결속과 지방자치단체 신뢰에 직 간접적으로 영향을 미친다. 즉, 사회안전망은 지방자치단체 신뢰에 직접적으로 영향을 미치지만, 매개변수 지역사회결속을 통해서 더욱 높은 영향을 미치는 것으로 나타났다.

  • PDF

Modern Paper Quality Control

  • Olavi Komppa
    • 한국펄프종이공학회:학술대회논문집
    • /
    • 한국펄프종이공학회 2000년도 제26회 펄프종이기술 국제세미나
    • /
    • pp.16-23
    • /
    • 2000
  • The increasing functional needs of top-quality printing papers and packaging paperboards, and especially the rapid developments in electronic printing processes and various computer printers during past few years, set new targets and requirements for modern paper quality. Most of these paper grades of today have relatively high filler content, are moderately or heavily calendered , and have many coating layers for the best appearance and performance. In practice, this means that many of the traditional quality assurance methods, mostly designed to measure papers made of pure. native pulp only, can not reliably (or at all) be used to analyze or rank the quality of modern papers. Hence, introduction of new measurement techniques is necessary to assure and further develop the paper quality today and in the future. Paper formation , i.e. small scale (millimeter scale) variation of basis weight, is the most important quality parameter of paper-making due to its influence on practically all the other quality properties of paper. The ideal paper would be completely uniform so that the basis weight of each small point (area) measured would be the same. In practice, of course, this is not possible because there always exists relatively large local variations in paper. However, these small scale basis weight variations are the major reason for many other quality problems, including calender blacking uneven coating result, uneven printing result, etc. The traditionally used visual inspection or optical measurement of the paper does not give us a reliable understanding of the material variations in the paper because in modern paper making process the optical behavior of paper is strongly affected by using e.g. fillers, dye or coating colors. Futhermore, the opacity (optical density) of the paper is changed at different process stages like wet pressing and calendering. The greatest advantage of using beta transmission method to measure paper formation is that it can be very reliably calibrated to measure true basis weight variation of all kinds of paper and board, independently on sample basis weight or paper grade. This gives us the possibility to measure, compare and judge papers made of different raw materials, different color, or even to measure heavily calendered, coated or printed papers. Scientific research of paper physics has shown that the orientation of the top layer (paper surface) fibers of the sheet paly the key role in paper curling and cockling , causing the typical practical problems (paper jam) with modern fax and copy machines, electronic printing , etc. On the other hand, the fiber orientation at the surface and middle layer of the sheet controls the bending stiffness of paperboard . Therefore, a reliable measurement of paper surface fiber orientation gives us a magnificent tool to investigate and predict paper curling and coclking tendency, and provides the necessary information to finetune, the manufacturing process for optimum quality. many papers, especially heavily calendered and coated grades, do resist liquid and gas penetration very much, bing beyond the measurement range of the traditional instruments or resulting invonveniently long measuring time per sample . The increased surface hardness and use of filler minerals and mechanical pulp make a reliable, nonleaking sample contact to the measurement head a challenge of its own. Paper surface coating causes, as expected, a layer which has completely different permeability characteristics compared to the other layer of the sheet. The latest developments in sensor technologies have made it possible to reliably measure gas flow in well controlled conditions, allowing us to investigate the gas penetration of open structures, such as cigarette paper, tissue or sack paper, and in the low permeability range analyze even fully greaseproof papers, silicon papers, heavily coated papers and boards or even detect defects in barrier coatings ! Even nitrogen or helium may be used as the gas, giving us completely new possibilities to rank the products or to find correlation to critical process or converting parameters. All the modern paper machines include many on-line measuring instruments which are used to give the necessary information for automatic process control systems. hence, the reliability of this information obtained from different sensors is vital for good optimizing and process stability. If any of these on-line sensors do not operate perfectly ass planned (having even small measurement error or malfunction ), the process control will set the machine to operate away from the optimum , resulting loss of profit or eventual problems in quality or runnability. To assure optimum operation of the paper machines, a novel quality assurance policy for the on-line measurements has been developed, including control procedures utilizing traceable, accredited standards for the best reliability and performance.

산악지형에서의 CRNP를 이용한 토양 수분 측정 개선을 위한 새로운 중성자 강도 교정 방법 검증 및 평가 (Modified Traditional Calibration Method of CRNP for Improving Soil Moisture Estimation)

  • 조성근;능엔 호앙 하이;정재환;오승철;최민하
    • 대한원격탐사학회지
    • /
    • 제35권5_1호
    • /
    • pp.665-679
    • /
    • 2019
  • 면 단위의 고해상도 토양 수분 측정이 가능한 Cosmic-Ray Neutron Probe(CRNP)를 이용한 토양수분 관측 데이터는 위성기반의 큰 공간해상도를 지닌 토양 수분 자료와 지점 관측 토양 수분 자료를 연결하는 통로의 역할을 수행할 것으로 기대된다. 이러한 CRNP 센서를 이용하여 토양 수분을 산출하기 위해서는 측정된 중성자 강도의 교정이 필요한데 기존의 교정 방법은 관측 기간의 단일 교정 중성자 강도($N_0$)를 이용하여 장기간의 토양 수분 관측에 어려움이 있다. 또한 기존 방법을 이용한 $N_0$는 시간에 따라 변동하는 인자들에 의해 영향을 고려하지 못하며 이로 인해 CRNP 센서를 이용한 토양 수분 관측 값에 불확실성을 초래한다. 이를 극복하기 위해 새로운 교정 방법(Dynamic-$N_0$ 교정 방법)을 제시한다. Dynamic-$N_0$ 교정 방법은 시간에 따른 $N_0$의 변동을 고려함으로써 토양 수분 관측 값을 개선하는 방법으로 비선형 회귀 모델을 이용하여 $N_0$의 시계열 자료를 구하여 토양 수분 산출에 이용한다. 본 연구에서는 Dynamic-$N_0$ 교정 방법을 이용하여 산출된 토양 수분을 지점 기반 토양 수분 및 기존의 교정방법을 이용한 토양 수분 산출 값과 비교하였으며 결과적으로 상관계수를 0.7에서 0.72로 개선하였다. RMSE와 Bias는 각각 $0.036m^3m^{-3}$에서 $-0.026m^3m^{-3}$으로, $-0.006m^3m^{-3}$에서 $-0.001m^3m^{-3}$으로 개선되었다. Dynamic-$N_0$ 교정 방법의 기존의 방법 대비 탁월한 성능은 CRNP 센서 주변의 수소 공급원에 의하여 $N_0$의 변동이 발생했음을 시사한다. 그러나 몇몇 중성자 강도에 영향을 미치는 수소 공급원들에 대한 고려가 구체적으로 이뤄지지 않았는데 이는 향후 연구를 통해 Cosmic-Ray를 이용한 토양 수분 관측이 보다 개선될 수 있음을 보여준다.

고준위폐기물처분시스템 설계 제한온도 설정에 관한 기술현황 분석: 벤토나이트 완충재를 중심으로 (A review on the design requirement of temperature in high-level nuclear waste disposal system: based on bentonite buffer)

  • 김진섭;조원진;박승훈;김건영;백민훈
    • 한국터널지하공간학회 논문집
    • /
    • 제21권5호
    • /
    • pp.587-609
    • /
    • 2019
  • 본 연구에서는 고준위폐기물 처분장 내 완충재 로 제시되고 있는 벤토나이트의 재료적인 측면에서 장 단기 처분 안정성을 분석하였으며, 처분효휼 향상을 위한 완충재 디자인 관련 대안개념에 대해 연구동향을 분석하였다. 일반적으로 $150{\sim}250^{\circ}C$ 사이에서 온도증가 및 증기발생 등으로 인해 완충재의 수리전도도와 팽윤능에 비가역적인 변화가 발생한다고 보고된다. 하지만 완충재의 최고온도가 최소한 $150^{\circ}C$를 초과하지 않는다면 온도가 벤토나이트 완충재의 재료적, 구조적 그리고 광물학적 안전성에 미치는 영향은 크지 않는 것으로 분석되었다. 완충재 최고온도 제한은 심층처분장 단위면적에 처분할 수 있는 폐기물의 양을 제한하여 처분효율을 결정하며, 나아가 처분부지의 확보 가능성에까지 영향을 미치는 중요한 설계 인자이다. 따라서 고온이 완충재의 성능에 미치는 영향을 규명함으로써 완충재의 최고온도 제한을 완화하고, 이를 통해 심층처분장의 처분밀도 향상과 처분장 설계의 최적화를 도모할 필요가 있다. 이와 더불어 처분효율을 극대화하기 위해서는 복합소재(흑연, 실리카 등) 및 다중구조(전도층, 절연층 등)의 고기능성 공학적방벽재 개발과 다층처분장(multilayer repository)으로 처분장 레이아웃을 변경하는 방법 등을 병행하여 검토할 필요가 있다. 이는 처분사업의 신뢰성 및 국민 수용성 확보에 큰 기여를 할 수 있을 것으로 판단된다.

DMIDR 장치의 재구성 알고리즘 별 성능 평가 (Performance Evaluation of Reconstruction Algorithms for DMIDR)

  • 곽인석;이혁;문승철
    • 핵의학기술
    • /
    • 제23권2호
    • /
    • pp.29-37
    • /
    • 2019
  • DMIDR (General Electric Healthcare, USA)은 GE 사(社)의 최신 장비로써 PSF (Point Spread Function reconstruction), TOF(Time of Flight)와 Q.Clear의 적용이 가능하다. 특히, Q.Clear는 보정 알고리즘으로써 복셀(voxel)단위 신호 잡음 제거로 기존 OSEM (Ordered Subset Expectation Maximization)의 한계를 넘어설 수 있다. 따라서 이러한 재구성 및 보정 알고리즘의 성능 평가를 통해 정확한 SUV를 구현하며, 병변 검출 능력에 도움이 되는 알고리즘의 조합을 확인하고자 하였다. H/B(Hot & Background) Ratio 2:1, 4:1, 8:1의 비율로 NEMA/IEC 2008 PET phantom을 제작하였다. DMIDR의 NEMA test protocol을 이용하여 영상 획득을 하였다. 재구성 조합은 (1) VPFX(VUE point FX(TOF)), (2) VPHD-S(VUE point HD+PSF), (3) VPFX-S(TOF+PSF), (4) QCHD-S-400(VUE point HD+Q.Clear(${\beta}-strength$ 400)+PSF), (5) QCFX-S-400(TOF+Q.Clear(${\beta}-strength$ 400)+PSF), (6) QCHD-S-50(VUE point HD+Q.Clear(${\beta}-strength$ 50)+PSF), (7) QCFX-S-50(TOF+Q.Clear(${\beta}-strength$ 50) + PSF)의 7 가지로 구성하였다. H/B Ratio 및 재구성 알고리즘 별로 측정된 결과를 이용하여 CR (Contrast Recovery)와 BV (Background Variability)을 구하였다. 또한, 각 조합의 count를 측정하여 SNR (Signal to Noise Ratio)과 RC(Recovery Coefficient)를 구하고 SUV (Standardized Uptake Value)를 측정하였다. 구의 크기가 가장 작은 10 mm와 13 mm에서는 VPFX-S, 17 mm 이상에서는 QCFX-S-50에서 가장 높은 CR 결과를 보였다. BV와 SNR의 비교에서는 QCFX-S-400과 QCHD-S-400에서 좋은 값을 보였다. SUV 측정 결과는 H/B ratio와 비례하여 증감하는 양상을 보였다. SUV에 대한 RC의 경우 H/B ratio와 반비례하는 양상을 보였으며, 재구성 알고리즘 중에서는 QCFX-S-50이 가장 높은 값을 보였다. 또한, Q.Clear에 ${\beta}-strength$ 400이 적용된 재구성 알고리즘들이 낮은 값 분포를 보였다. Q.Clear가 적용된 재구성 조합은 ${\beta}-strength$를 높이면 신호잡음이 억제되어 영상 품질면에서 우수한 결과를 보였고 ${\beta}-strength$를 낮추면 선예도가 증가하며, partial volume effect가 감소하여 기존의 재구성 조건에 비하여 높은 RC에 근거한 SUV 측정이 가능하였다. 이러한 진보된 알고리즘의 사용으로 보다 정확한 정량화와 미세병변 검출능력을 향상 시킬 수 있으나 상관 관계를 고려하여 목적에 맞는 최적화 과정이 필요할 것으로 사료된다.

다중 계층 웹 필터를 사용하는 웹 애플리케이션 방화벽의 설계 및 구현 (Design and Implementation of a Web Application Firewall with Multi-layered Web Filter)

  • 장성민;원유헌
    • 한국컴퓨터정보학회논문지
    • /
    • 제14권12호
    • /
    • pp.157-167
    • /
    • 2009
  • 최근 인터넷 상에서 빈번하게 발생하는 내부 정보와 개인 정보 유출과 같은 보안 사고들은 보안을 고려하지 않고 개발된 웹 애플리케이션의 취약점을 이용하는 방법으로 빈번하게 발생한다. 웹 애플리케이션의 공격들에 대한 탐지는 기존의 방화벽과 침입 탐지 시스템들의 공격 탐지 방법으로는 탐지가 불가능하며 서명기반의 침입 탐지 방법으로는 새로운 위협과 공격에 대한 탐지에 한계가 있다. 따라서 웹 애플리케이션 공격 탐지 방법에 대한 많은 연구들이 웹 트래픽 분석을 이동하는 비정상행위 기반 탐지 방법을 이용하고 있다. 비정상행위 탐지 방법을 사용하는 최근의 웹 방화벽에 관한 연구들은 웹 트래픽의 정확한 분석 방법, 패킷의 애플리케이션 페이로드 검사로 인한 성능 문제 개선, 그리고 다양한 네트워크 보안장비들의 도입으로 발생하는 통합관리 방법과 비용 문제 해결에 중점을 두고 있다. 이를 해결하기 위한 방법으로 통합 위협 관리 시스템이 등장 하였으나 부족한 웹 보안 기능과 높은 도입 비용으로 최근의 애플리케이션 공격들에 대해 정확한 대응을 하지 못하고 있는 현실이다. 본 연구에서는 이러한 문제점들을 해결하기 위해 웹 클라이언트의 요청에 포함된 파라미터 값의 길이에 대한 실시간 분석을 이용하여 공격 가능성을 탐지하는 비정상행위 탐지방법을 제안하고, 애플리케이션 데이터 검사로 발생하는 성능 저하 문제를 해결할 수 있는 다중 계층 웹 필터를 적용한 웹 애플리케이션 방화벽 시스템을 설계하고 구현하였다. 제안된 시스템은 저가의 시스템이나 레거시 시스템에 적용 가능하도록 설계하여 추가적인 보안장비 도입으로 야기되는 비용 문제를 해결할 수 있도록 하였다.

말기 암 환자에서 임상변수를 이용한 생존 기간 예측 (Prediction of Life Expectancy for Terminally Ill Cancer Patients Based on Clinical Parameters)

  • 염창환;최윤선;홍영선;박용규;이혜리
    • Journal of Hospice and Palliative Care
    • /
    • 제5권2호
    • /
    • pp.111-124
    • /
    • 2002
  • 목적 : 의학의 발달로 인간의 생존 기간이 길어졌지만, 암 발생율과 사망율은 오히려 증가하고 있어 그로 인해 말기 암 환자는 계속 늘어나고 있는 실정이다. 말기 암 환자를 진료하는 데 있어서 환자의 생존 기간을 예측하는 것은 중요한 문제로 만약 환자의 생존 기간을 예측할 수 있다면 남은 시간에 따라 환자, 가족, 의료진은 치료의 선택에 큰 차이를 보일 것이다. 이에 저자 등은 말기 암 환자에서 사망 위험도를 높이는 예후 인자를 알아내고 이들 예후 인자의 개수에 따른 생존 기간을 예측하여 말기 암 환자의 진료에 도움이 되고자 하였다. 방법 : 2000년 7월 1일부터 2001년 8월 31일 사이에 국민건강보험공단 일산병원 가정의학과에 말기 암으로 입원한 환자 157명을 대상으로 입원당시 환자의 임상변수 31가지를 조사하였다. 그리고 환자의 의무기록과 조사된 환자의 신상기록을 가지고 2001년 10월 31일까지의 환자의 생존 여부를 확인하였다. Kaplan-Meier 방법과 로그순위 검정(log-rank test)을 이용하여 임상변수에 따른 생존 기간에 차이가 있는지를 알아보았다. Cox의 비례위험함수 모형(Cox's proportional hazard model)을 이용하여 임상변수 중 사망 위험도를 높이는 유의한 변수를 얻은 후 이를 예후 인자로 삼고, 이것을 와이블 비례위험함수 모형(Weibull proportional hazard function model)을 이용하여 예후 인자들의 유무에 따른 생존 기간의 평균, 중앙값 제 1사분위수 그리고 제 3사분위수를 계산하여 생존기간을 예측하였다. 결과 : 말기 암 환자 157명 중 성별은 남자가 79명(50.3%), 여자가 78명(49.7%)이었고, 평균 연령은 남자가 $65.1{\pm}13.0$세, 여자는 $64.3{\pm}13.7$세였다. 암의 종류를 보면 위암이 36명(22.9%)으로 제일 많았고, 폐암이 27명(17.2%), 대장암이 20명(12.7%) 순이었다. 의식변화, 식욕부진, 저혈압, 수행능력 저하, 백혈구 증가증, 중성구 증가증, 크레아티닌 증가, 저알부민혈증, 고빌리루빈혈증, 간효소(SGPT)치 증가, 프로트롬빈 시간(PT) 연장, 활성부분 트롬보플라스틴 시간(aPTT) 연장, 저나트륨혈증, 고칼륨혈증 등을 보이는 환자는 통계학적으로 유의하게 생존 기간이 짧았다. 이중 Cox의 비례위험함수 모형을 통해 수행능력 저하, 중성구 증가증, PT 연장, aPTT 연장인 경우가 환자의 사망위험도를 높이는 유의한 예후 인자로 나왔다. 생존 기간의 중앙값은 4가지 인자가 모두 있는 경우는 3.0일, 3가지만 있는 경우는 $5.7{\sim}8.2$일, 2가지만 있는 경우는 $11.4{\sim}20.0$일, 1가지만 있는 경우는 $27.9{\sim}40.0$일, 4가지 모두 없는 경우는 77일로 나왔다. 결론 : 말기 암 환자에서 수행능력 저하, 중성구 증가증, PT 연장, aPTT 연장이 사망위험도를 높이는 예후 인자임을 알 수 있었다. 이들 4개 인자를 통해 말기 암 환자에서 생존 기간을 예측할 수 있을 것으로 사료된다.

  • PDF

Memory Organization for a Fuzzy Controller.

  • Jee, K.D.S.;Poluzzi, R.;Russo, B.
    • 한국지능시스템학회:학술대회논문집
    • /
    • 한국퍼지및지능시스템학회 1993년도 Fifth International Fuzzy Systems Association World Congress 93
    • /
    • pp.1041-1043
    • /
    • 1993
  • Fuzzy logic based Control Theory has gained much interest in the industrial world, thanks to its ability to formalize and solve in a very natural way many problems that are very difficult to quantify at an analytical level. This paper shows a solution for treating membership function inside hardware circuits. The proposed hardware structure optimizes the memoried size by using particular form of the vectorial representation. The process of memorizing fuzzy sets, i.e. their membership function, has always been one of the more problematic issues for the hardware implementation, due to the quite large memory space that is needed. To simplify such an implementation, it is commonly [1,2,8,9,10,11] used to limit the membership functions either to those having triangular or trapezoidal shape, or pre-definite shape. These kinds of functions are able to cover a large spectrum of applications with a limited usage of memory, since they can be memorized by specifying very few parameters ( ight, base, critical points, etc.). This however results in a loss of computational power due to computation on the medium points. A solution to this problem is obtained by discretizing the universe of discourse U, i.e. by fixing a finite number of points and memorizing the value of the membership functions on such points [3,10,14,15]. Such a solution provides a satisfying computational speed, a very high precision of definitions and gives the users the opportunity to choose membership functions of any shape. However, a significant memory waste can as well be registered. It is indeed possible that for each of the given fuzzy sets many elements of the universe of discourse have a membership value equal to zero. It has also been noticed that almost in all cases common points among fuzzy sets, i.e. points with non null membership values are very few. More specifically, in many applications, for each element u of U, there exists at most three fuzzy sets for which the membership value is ot null [3,5,6,7,12,13]. Our proposal is based on such hypotheses. Moreover, we use a technique that even though it does not restrict the shapes of membership functions, it reduces strongly the computational time for the membership values and optimizes the function memorization. In figure 1 it is represented a term set whose characteristics are common for fuzzy controllers and to which we will refer in the following. The above term set has a universe of discourse with 128 elements (so to have a good resolution), 8 fuzzy sets that describe the term set, 32 levels of discretization for the membership values. Clearly, the number of bits necessary for the given specifications are 5 for 32 truth levels, 3 for 8 membership functions and 7 for 128 levels of resolution. The memory depth is given by the dimension of the universe of the discourse (128 in our case) and it will be represented by the memory rows. The length of a world of memory is defined by: Length = nem (dm(m)+dm(fm) Where: fm is the maximum number of non null values in every element of the universe of the discourse, dm(m) is the dimension of the values of the membership function m, dm(fm) is the dimension of the word to represent the index of the highest membership function. In our case then Length=24. The memory dimension is therefore 128*24 bits. If we had chosen to memorize all values of the membership functions we would have needed to memorize on each memory row the membership value of each element. Fuzzy sets word dimension is 8*5 bits. Therefore, the dimension of the memory would have been 128*40 bits. Coherently with our hypothesis, in fig. 1 each element of universe of the discourse has a non null membership value on at most three fuzzy sets. Focusing on the elements 32,64,96 of the universe of discourse, they will be memorized as follows: The computation of the rule weights is done by comparing those bits that represent the index of the membership function, with the word of the program memor . The output bus of the Program Memory (μCOD), is given as input a comparator (Combinatory Net). If the index is equal to the bus value then one of the non null weight derives from the rule and it is produced as output, otherwise the output is zero (fig. 2). It is clear, that the memory dimension of the antecedent is in this way reduced since only non null values are memorized. Moreover, the time performance of the system is equivalent to the performance of a system using vectorial memorization of all weights. The dimensioning of the word is influenced by some parameters of the input variable. The most important parameter is the maximum number membership functions (nfm) having a non null value in each element of the universe of discourse. From our study in the field of fuzzy system, we see that typically nfm 3 and there are at most 16 membership function. At any rate, such a value can be increased up to the physical dimensional limit of the antecedent memory. A less important role n the optimization process of the word dimension is played by the number of membership functions defined for each linguistic term. The table below shows the request word dimension as a function of such parameters and compares our proposed method with the method of vectorial memorization[10]. Summing up, the characteristics of our method are: Users are not restricted to membership functions with specific shapes. The number of the fuzzy sets and the resolution of the vertical axis have a very small influence in increasing memory space. Weight computations are done by combinatorial network and therefore the time performance of the system is equivalent to the one of the vectorial method. The number of non null membership values on any element of the universe of discourse is limited. Such a constraint is usually non very restrictive since many controllers obtain a good precision with only three non null weights. The method here briefly described has been adopted by our group in the design of an optimized version of the coprocessor described in [10].

  • PDF