• 제목/요약/키워드: Parameter optimization

검색결과 1,538건 처리시간 0.034초

유전자 알고리즘을 이용한 다분류 SVM의 최적화: 기업신용등급 예측에의 응용 (Optimization of Multiclass Support Vector Machine using Genetic Algorithm: Application to the Prediction of Corporate Credit Rating)

  • 안현철
    • 경영정보학연구
    • /
    • 제16권3호
    • /
    • pp.161-177
    • /
    • 2014
  • 기업신용등급은 금융시장의 신뢰를 구축하고 거래를 활성화하는데 있어 매우 중요한 요소로서, 오래 전부터 학계에서는 보다 정확한 기업신용등급 예측을 가능케 하는 다양한 모형들을 연구해 왔다. 구체적으로 다중판별분석(Multiple Discriminant Analysis, MDA)이나 다항 로지스틱 회귀분석(multinomial logistic regression analysis, MLOGIT)과 같은 통계기법을 비롯해, 인공신경망(Artificial Neural Networks, ANN), 사례기반추론(Case-based Reasoning, CBR), 그리고 다분류 문제해결을 위해 확장된 다분류 Support Vector Machines(Multiclass SVM)에 이르기까지 다양한 기법들이 학자들에 의해 적용되었는데, 최근의 연구결과들에 따르면 이 중에서도 다분류 SVM이 가장 우수한 예측성과를 보이고 있는 것으로 보고되고 있다. 본 연구에서는 이러한 다분류 SVM의 성능을 한 단계 더 개선하기 위한 대안으로 유전자 알고리즘(GA, Genetic Algorithm)을 활용한 최적화 모형을 제안한다. 구체적으로 본 연구의 제안모형은 유전자 알고리즘을 활용해 다분류 SVM에 적용되어야 할 최적의 커널 함수 파라미터값들과 최적의 입력변수 집합(feature subset)을 탐색하도록 설계되었다. 실제 데이터셋을 활용해 제안모형을 적용해 본 결과, MDA나 MLOGIT, CBR, ANN과 같은 기존 인공지능/데이터마이닝 기법들은 물론 지금까지 가장 우수한 예측성과를 보이는 것으로 알려져 있던 전통적인 다분류 SVM 보다도 제안모형이 더 우수한 예측성과를 보임을 확인할 수 있었다.

PET/CT 검사 시 CT 피폭선량 감소 방법들의 최적화 평가 (Evaluation for Optimization of CT Dose Reduction Methods in PET/CT)

  • 도용호;이홍재;김진의
    • 핵의학기술
    • /
    • 제19권2호
    • /
    • pp.55-62
    • /
    • 2015
  • PET/CT 검사 시 피폭 선량 감소를 위한 방법들이 지속적으로 개발되고 있다. 본 논문에서는 사용자에 의해 parameter 변경이 가능한 3가지 방법인 automatic exposure control(AEC), automated dose-optimized selection of X-ray tube voltage(CAREkV), sinogram affirmed iterative reconstruction(SAFIRE) 적용 시 각 방법의 적용 시와 3가지 방법의 조합에 따른 피폭선량 감소효과와 영상의 질 그리고 SUV 변화 유무를 평가하였다. Bograph mCT64 (Siemens, Germany)장비를 사용하여 anthropomorphic head, chest, pelvis phantom을 torso 모형으로 접합하여 스캔하였다. 120 kV, 40 mAs 조건으로 AEC의 적용 유무와 120 kV, 40 mAs AEC 조건으로 CAREkV의 적용 유무에 따른 피폭 선량 감소 효과를 평가 하였다. 120 kV, 25 mAs SAFIRE 조건에서 영상을 획득하여 120 kV, 40 mAs SAFIRE 미적용 시 대비 노이즈와 피폭선량 감소효과가 평가되었다. 120 kV, 40 mAs AEC 적용, 120 kV, 25 mAs 3가지 방법의 조합 조건으로 AAPM perfomance, anthropomorphic, IEC body phantom을 스캔하여 노이즈, 공간 분해능, 피폭선량 감소효과 그리고 PET SUV의 변화 유무를 평가하였다. AEC 적용 시, 미적용 대비 CTDIvol 50.52%, DLP 50.62% 감소하였다. CAREkV 적용 시 100 kV가 적용됨에 따라 mAs가 61.5% 증가하였으나 CTDI 6.2%, DLP 5.5% 감소하였다. Reference mAs를 낮게 지정할수록, strength값을 높게 지정할수록 피폭선량 감소 효과는 증가하였다. SAFIRE의 경우 40 mAs에서 25 mAs로 tube current를 37.5% 감소시켰음에도 불구하고 mean SD 2.2%, DLP 38% 감소하였다. AAPM phantom에서는 3가지 방법의 조합 시 AEC 대비 SD는 5.17% 감소하였으며 공간 분해능의 경우 유의한 차이가 없었다. Torso phantom의 경우 3가지 조합에서 AEC 대비 mean SD 6.7% 증가, DLP 36.9% 감소하였으며 IEC phantom 실험에서 PET SUV는 통계적으로 유의한 차이가 없었다(P>0.05). 본 논문에서 CT선량 감소를 위한 각 방법들 모두 피폭 선량 감소 효과를 보였으며 3가지 방법의 조합을 통하여 화질 저하와 PET SUV 변화 없이 AEC만 적용 시 대비 36.9%의 선량감소 효과가 있는 것으로 나타났다. 선량 감소 방법들의 최적화를 통하여 환자 피폭선량 저감화를 위한 지속적인 노력이 필요하며 특히 방사선 감수성이 높은 소아 환자에 적극적으로 적용되어야 할 것으로 사료된다.

  • PDF

생산모형(生産模型)을 이용(利用)한 수출(輸出)·수입함수(輸入函數)의 가격탄성치(價格彈性値) 추정(推定) (An Estimation of Price Elasticities of Import Demand and Export Supply Functions Derived from an Integrated Production Model)

  • 이홍구
    • KDI Journal of Economic Policy
    • /
    • 제12권4호
    • /
    • pp.47-69
    • /
    • 1990
  • 수출(輸出) 수입량(輸入量)이 여러 변수(變數)들에 의해서 동시적(同時的)으로 결정(決定)되는 경우 수출(輸出) 수입함수(輸入函數)를 독립적(獨立的)으로 추정(推定)하는 것보다는 이들을 다른 경제활동수준과 함께 동시적(同時的)으로 추정(推定)하는 것이 보다 바람직하다. 본고(本稿)에서는 이에 착안하여 생산모형(生産模型)에 근거한 수출(輸出) 수입함수(輸入函數)의 가격탄성치(價格彈性値)를 추정(推定)하였다. 생산모형(生産模型)에서 수출재(輸出財)는 생산부문(生産部門)의 산출물(産出物)로, 수입재(輸入財)는 투입물(投入物)로 상정(想定)되며 이러한 생산부문(生産部門)을 분석(分析)하고 모형화(模型化)하는 데 GNP함수(函數)가 사용된다. GNP함수(函數)에 약분리성(弱分離性) 제약(制約)이 가해지면 생산모형(生産模型)의 공급(供給) 수요체계(需要體系)에 관한 미시적 정보를 사용하여 이로부터 보다 세분(細分)된 수출(輸出) 수입항목별(輸入項目別) 가격탄성치(價格彈性値)를 도출할 수 있다. 본고(本稿)는 GNP함수(函數)가 약분리성(弱分離性)을 가질 때, 이단계극대화(二段階極大化) 과정(過程)을 통해서 얻을 수 있는 수출공급(輸出供給) 수입수요(輸入需要) 국내공급(國內供給) 노동수요(勞動需要)의 가격탄성치(價格彈性値)와 세분된 수출(輸出) 수입항목(輸入項目)의 가격탄성치(價格彈性値)를 추정하였다. 상부모형(上部模型)의 추정(推定)에서는 국내공급(國內供給)과 수출공급(輸出供給)은 서로 대체관계(代替關係), 수입수요(輸入需要)와 노동수요(勞動需要)는 보완관계(補完關係)에 있으며, 투입요소(投入要素)로서 노동(勞動)과 수입재(輸入財)는 각각 국내공급(國內供給) 및 수출공급(輸出供給)과 서로 보완관계(補完關係)에 있는 것으로 나타났다. 하부모형(下部模型)에서는 세분(細分)된 수출(輸出) 수입항목(輸入項目) 상호간에는 대체(代替) 보완관계(補完關係)가 동시에 나타나는 것으로 추정되었다.

  • PDF

PET/CT 3차원 영상 획득에서 부분용적효과 감소를 위한 재구성법의 최적화 (The Optimization of Reconstruction Method Reducing Partial Volume Effect in PET/CT 3D Image Acquisition)

  • 홍건철;박선명;곽인석;이혁;최춘기;석재동
    • 핵의학기술
    • /
    • 제14권1호
    • /
    • pp.13-17
    • /
    • 2010
  • PVE는 PET/CT 3D 영상 획득에서 발생되는 것으로 평가값이 저평가되어 영상의 정확도를 떨어뜨리는 현상이다. 특히 이는 병소의 크기가 작고 분해능이 저하될수록 더 큰 오차를 초래하여 검사 결과에 영향을 줄 수 있다. 본 연구는 PVE에 영향을 줄 수 있는 매개변수의 변화를 이용하여 최적의 영상 재구성법을 알아보고자 한다. GE Discovery STE16 장비에서 NEMA 2001 IEC phantom을 이용하여 각기 다른 크기의 구체(직경 37, 28, 22, 17, 13, 10 mm)에 $^{18}F$-FDG를 열소와 배후방사능비 4:1로 주입하여 10분간 영상을 획득하였다. 재구성은 반복재구성법(iterative reconstruction)을 사용하였으며, 반복 횟수(iteration) 2~50회, 부분집합 수(subset number) 1~56개로 변화를 주었다. 분석은 영상의 구체부분에 관심영역(ROI)을 설정하고 최대 표준섭취계수($SUV_{max}$)를 이용하여 백분율 차이(% difference)와 신호대잡음비(SNR)를 산출하였다. 반복 횟수 2, 6, 13, 30, 50회 변화를 준 10 mm 구체의 $SUV_{max}$는 2.32, 3.60, 3.88, 3.88, 3.90이고, SNR은 0.36, 0.49, 0.47, 0.43, 0.41이었으며, 백분율 차이는 58.9, 38.5, 34.8, 35.7, 35.4%로 측정되었다. 또한 6회로 고정한 반복 횟수에 2, 5, 8, 20, 56으로 부분집합 수를 변화시킨 평균 $SUV_{max}$는 10mm의 구체에서 1.46, 3.10, 3.10, 3.48, 3.78로 측정되었으며, SNR은 0.19, 0.30, 0.40, 0.48, 0.45로 나타났다. 또한 각 구체의 SNR의 합은 2.73, 3.38, 3.64, 3.63, 3.38로 측정되었다. 반복 횟수 6회부터 20회까지는 평균 백분율 차이($73{\pm}1%$)와 평균 SNR ($3.47{\pm}0.09$)은 비슷한 값을 나타내었으며, 20회 이상에서는 noise의 영향으로 SUV가 저평가되는 현상이 증가하였다. 또한 동일한 반복 횟수의 경우에 부분집합 값의 변화에서 SNR은 8회부터 20회가 높은 구간($3.63{\pm}0.002$)으로 나타났다. 따라서 작은 병소의 PVE를 줄이기 위해서는 재구성 시간을 고려하여 반복 횟수 6회, 부분집합 수 8~20회에서 PVE를 가장 저감할 수 있다.

  • PDF

미생물을 이용한 일산화탄소로부터 에탄올 생산공정 최적화 (Optimization of Microbial Production of Ethanol form Carbon Monoxide)

  • 강환구;이충렬
    • KSBB Journal
    • /
    • 제17권1호
    • /
    • pp.73-79
    • /
    • 2002
  • 본 연구에서는 C. ljungdahlii를 이용하여 일산화탄소로부터 에탄올 생성 방법을 최적화하였다. 먼저 Clostridium ljungdahlii ATCC 55383을 이용하여 일산화탄소 소비속도에 대한 kinetic model과 그에 따른 여러 가지 상수값을 계산하기 위한 실험을 수행하였다. 이 결과 일 산화탄소 소비속도 data에 Michaelis Menten식이 잘 적용됨을 알수 있었고 기울기 값 $K_m/V_{max}$ max 및 y-절편값 $1/V_{max}$로부터 구한 $V_{max}$는 37.14 mmol/L-hr-O.D. 그리고 $K_{m}$은 0.9516 atm임을 알 수 있었다. C. ljungdahlii에서의 ethanol의 생성에 미치는 pH와 질소원의 영향을 실험한 결과 세포성장에는 pH 5.5와 YE첨가가 에탄올 생성에는 pH 4~4.5, ammonium solution $(NH_4Cl+(NH_4)_2SO_4$)첨가가 필요한 것으로 확인되었다. 따라서 pH 5.5와 YE 0.5%에서 C. ljungdahlii를 배양한 후 pH 4.5로 shift하고 ammonium solution을 계속 첨가한 경우 세포농도 0.D. 0.25에서 약 3.6 g/L의 에탄올 생성을 얻었으며 이것은 pH 및 질소원 shift가 없는 경우에 비하여 약 20배 이상 에탄을 생성양이 증가된 수치이다. 이를 바탕으로 pH shift 후 N source로서 ammonium solution을 지속적으로 공급하여 주면서 fermenter를 이용한 일산화탄소로부터 에탄을 최적화를 수행하였고 이 결과 최대 specific ethanol production rate 0.49 g ethanol/L.hr.O.D.를 얻을 수 있었으며 생성된 최종 에탄을 농도는 25 g ethanol/L에 달하였다. 이 결과를 이용하여 높은 세포농도를 얻기 위하여 세포성장에 도움을 주는 탄소원 실험을 수행하였고 이 결과 glucose를 이용한 세포성장후 일산화탄소로 전환하는 방법을 fermenter에 적용하여 pH 5.5, 400 rpm 조건에서 glucose를 feeding하여 O.D. 3.4가지 자라게 한 후 ammonium solution을 첨가하여 주면서 일산화탄소를 소비하는 시점가지 약 10시간 동안 CO adaptation을 실시하여 일산화탄소의 소비속도가 충분한 속도에 달했을 때 pH를 5.5에서 4.5로 낮추어 주었고 그 후 간헐적으로 ammonium solution을 feeding한 결과 얻어진 최종 에탄을 생성량은 45 g/L 이었다. 특히 약60시간 이내에 45 g/L 정도의 ethanol을 생성 함으로써 0.75 g ethanol/L.hr의 ethanol 생산성을 확보 할 수 있었다. 또한 C. ljungdahlii이 에탄을 내성을 실험한 결과 약 50 g/L 정도의 에탄올에는 큰 성장 장애를 받지 않는 것으로 나타나 이 균주를 이용한 산업체 부생가스로부터의 에탄을 생산 가능성을 더하여 주고 있다. 현재 본 연구진에 의하여 C. ljungdahlii를 이용하여 long term operation시의 cell viability 유지를 위한 세포성장과 에탄을 생성을 완전히 분리시킨 2 bioreactor system의 연구 및 일산화탄소로부터 높은 농도의 에탄올을 생성하는 독창적인 새로운 균주가 분리되어 현재 실험 진행 중이다.

지질학적 활용을 위한 Landsat TM 자료의 자동화된 선구조 추출 알고리즘의 개발 (A Development of Automatic Lineament Extraction Algorithm from Landsat TM images for Geological Applications)

  • 원중선;김상완;민경덕;이영훈
    • 대한원격탐사학회지
    • /
    • 제14권2호
    • /
    • pp.175-195
    • /
    • 1998
  • 위성영상으로부터 자동화된 선구조 추출 알고리즘은 지형적 특징에 따라 다양한 방법으로 개발되어 왔다. 국내 지형은 주로 산악지형에 가깝지만 충적층 지대가 함께 발달되어 있으며 이와 같은 충적층은 종종 단층과 같은 주요 선구조를 이루고 있다. 그러나 기존의 방법들은 이와 같은 복합적인 지형에 대해 적용하는데 여러 가지 문제점들이 있다 이에 따라 본 연구에서는 이러한 지형적 특징을 나타내는 지역에 적용 가능한 새로운 알고리즘을 개발하였다. 위성영상으로부터 선구조 요소와 비 선구조 요소로 구분되는 이진영상을 생성하기 위해 DSTA(Dynamic Segment Tracing Algorithm)를 개발하였다. DSTA는 선구조 추출시 발생하는 태양방위각에 따른 선택적 증감효과를 제거하고 동적 소창문(dynamic sub window)의 사용에 의해 명암차가 낮은 지역에서의 잡음(noise)을 상당히 제거하였다. 또한, 충적층 처리 루틴은 충적층 지역에서 나타나는 잡음 대부분을 제거하여 효과적으로 선구조를 추출할 수 있었다. 이진영상으로부터 선구조의 양끝점을 결정하기 위해 일반 영상자료 처리에 이용되고 있는 Hierarchical Hough 변환 또는 Generalized Hough 변환을 지질학적 적용에 적합하도록 결합연산 과정을 결합한 ALEHHT(Automatic Lineament Extraction by Hierarchical Hough Transform) 및 ALEGHT (Automatic Lineament Extraction by Generalized Hough Transform) 알고리즘을 개발하였으며, 이를 이용하여 지질학적으로 이용 가능한 선구조를 구하였다. 본 연구에서 제안된 결합연산 과정은 두선 사이의 사이각($\delta$$\beta$), 수직거리(d$_{ij}$) 및 중점거리(dn)를 이용하였다. 개발된 알고리즘을 Landsat TM 자료에 적용하여 지질학적 선구조를 추출한 결과, 산악지역 및 충적층 지대에 발달한 선구조 모두 잘 추출되었으며 태양방위각에 평행한 서북서방향의 선구조 역시 잘 드러나고 있어 만족할 만한 결과를 얻을 수 있었다. 그러나 효과적으로 알고리즘을 사용하기 위해서는 적절한 입력변수의 사용이 필수적이며, 특히 ALEGHT의 입력변수 중 영상 정량화 간격(drop)에 의한 영향은 차후의 연구에서 수행, 보완되어야 할 것으로 사료된다.

지상관측 기상자료를 적용한 KLDAS(Korea Land Data Assimilation System)의 토양수분·증발산량 산출 (Calculation of Soil Moisture and Evapotranspiration of KLDAS applying Ground-Observed Meteorological Data)

  • 박광하;계창우;이경태;유완식;황의호;강도혁
    • 대한원격탐사학회지
    • /
    • 제37권6_1호
    • /
    • pp.1611-1623
    • /
    • 2021
  • 본 연구에서는 K-LIS(Korea-Land surface Information System)의 KLDAS(Korea Land Data Assimilation System)를 사용하여 LSM의 초기 경계조건 최적화를 위해 스핀업(Spin-up)을 진행하였고다. 스핀업은 2018년을 대상으로 8회 반복 수행하였다. 또한, 국내 기상청(KMA, Korea Meteorological Administration), 농촌진흥청(RDA, Rural Development Administration), 한국농어촌공사(KRC, Korea Rural Community Corporation), 한국수력원자력(KHNP, Korea Hydro & Nuclear Power Co., Ltd.), 한국수자원공사(K-water, Korea Water Resources Corporation), 환경부(ME, Ministry of Environment) 등에서 관측하고 있는 기상자료를 사용하여 저해상도(K-Low, Korea Low spatial resolution; 0.125°) 및 고해상도(K-High, Korea High spatial resolution; 0.01°)의 기상자료를 생성하여 KLDAS에 적용하였다. 그리고, K-Low 및 K-High의 정확도 향상 정도를 확인하기 위해 선행 연구에서 사용된 MERRA-2 (Modern-Era Retrospective analysis for Research and Applications, version 2)와 ASOS-S(ASOS-Spatial)가 적용된 토양수분 및 증발산량을 같이 평가하였다. 그 결과, 초기 경계조건의 최적화는 토양수분의 경우 2회(58개 지점), 3회(6개 지점), 6회(3개 지점)의 스핀업이 필요하고, 증발산량의 경우 1회(2개 지점), 2회(2개 지점)의 스핀업이 필요하다. MERRA-2, ASOS-S, K-Low, K-High을 적용한 토양수분의 경우 R2의 평균은 각각 0.615, 0.601, 0.594, 0.664이고, 증발산량의 경우 R2의 평균은 각각 0.531, 0.495, 0.656, 0.677로 K-High의 정확도가 가장 높은 것으로 평가되었다. 본 연구 결과를 통해 다수의 지상 관측자료를 확보하고 고해상도의 격자형 기상자료를 생성하면 KLDAS의 정확도를 높일 수 있다. 다만, 지점 자료를 격자로 변환할 때 각 지점의 기상현상이 충분히 고려되지 않으면 정확도는 오히려 낮아진다. 향후 IDW의 매개변수 설정 또는 다른 보간기법을 사용하여 격자형 기상자료를 생성하여 적용하면 보다 높은 품질의 자료를 산출할 수 있을 것으로 판단된다.

Memory Organization for a Fuzzy Controller.

  • Jee, K.D.S.;Poluzzi, R.;Russo, B.
    • 한국지능시스템학회:학술대회논문집
    • /
    • 한국퍼지및지능시스템학회 1993년도 Fifth International Fuzzy Systems Association World Congress 93
    • /
    • pp.1041-1043
    • /
    • 1993
  • Fuzzy logic based Control Theory has gained much interest in the industrial world, thanks to its ability to formalize and solve in a very natural way many problems that are very difficult to quantify at an analytical level. This paper shows a solution for treating membership function inside hardware circuits. The proposed hardware structure optimizes the memoried size by using particular form of the vectorial representation. The process of memorizing fuzzy sets, i.e. their membership function, has always been one of the more problematic issues for the hardware implementation, due to the quite large memory space that is needed. To simplify such an implementation, it is commonly [1,2,8,9,10,11] used to limit the membership functions either to those having triangular or trapezoidal shape, or pre-definite shape. These kinds of functions are able to cover a large spectrum of applications with a limited usage of memory, since they can be memorized by specifying very few parameters ( ight, base, critical points, etc.). This however results in a loss of computational power due to computation on the medium points. A solution to this problem is obtained by discretizing the universe of discourse U, i.e. by fixing a finite number of points and memorizing the value of the membership functions on such points [3,10,14,15]. Such a solution provides a satisfying computational speed, a very high precision of definitions and gives the users the opportunity to choose membership functions of any shape. However, a significant memory waste can as well be registered. It is indeed possible that for each of the given fuzzy sets many elements of the universe of discourse have a membership value equal to zero. It has also been noticed that almost in all cases common points among fuzzy sets, i.e. points with non null membership values are very few. More specifically, in many applications, for each element u of U, there exists at most three fuzzy sets for which the membership value is ot null [3,5,6,7,12,13]. Our proposal is based on such hypotheses. Moreover, we use a technique that even though it does not restrict the shapes of membership functions, it reduces strongly the computational time for the membership values and optimizes the function memorization. In figure 1 it is represented a term set whose characteristics are common for fuzzy controllers and to which we will refer in the following. The above term set has a universe of discourse with 128 elements (so to have a good resolution), 8 fuzzy sets that describe the term set, 32 levels of discretization for the membership values. Clearly, the number of bits necessary for the given specifications are 5 for 32 truth levels, 3 for 8 membership functions and 7 for 128 levels of resolution. The memory depth is given by the dimension of the universe of the discourse (128 in our case) and it will be represented by the memory rows. The length of a world of memory is defined by: Length = nem (dm(m)+dm(fm) Where: fm is the maximum number of non null values in every element of the universe of the discourse, dm(m) is the dimension of the values of the membership function m, dm(fm) is the dimension of the word to represent the index of the highest membership function. In our case then Length=24. The memory dimension is therefore 128*24 bits. If we had chosen to memorize all values of the membership functions we would have needed to memorize on each memory row the membership value of each element. Fuzzy sets word dimension is 8*5 bits. Therefore, the dimension of the memory would have been 128*40 bits. Coherently with our hypothesis, in fig. 1 each element of universe of the discourse has a non null membership value on at most three fuzzy sets. Focusing on the elements 32,64,96 of the universe of discourse, they will be memorized as follows: The computation of the rule weights is done by comparing those bits that represent the index of the membership function, with the word of the program memor . The output bus of the Program Memory (μCOD), is given as input a comparator (Combinatory Net). If the index is equal to the bus value then one of the non null weight derives from the rule and it is produced as output, otherwise the output is zero (fig. 2). It is clear, that the memory dimension of the antecedent is in this way reduced since only non null values are memorized. Moreover, the time performance of the system is equivalent to the performance of a system using vectorial memorization of all weights. The dimensioning of the word is influenced by some parameters of the input variable. The most important parameter is the maximum number membership functions (nfm) having a non null value in each element of the universe of discourse. From our study in the field of fuzzy system, we see that typically nfm 3 and there are at most 16 membership function. At any rate, such a value can be increased up to the physical dimensional limit of the antecedent memory. A less important role n the optimization process of the word dimension is played by the number of membership functions defined for each linguistic term. The table below shows the request word dimension as a function of such parameters and compares our proposed method with the method of vectorial memorization[10]. Summing up, the characteristics of our method are: Users are not restricted to membership functions with specific shapes. The number of the fuzzy sets and the resolution of the vertical axis have a very small influence in increasing memory space. Weight computations are done by combinatorial network and therefore the time performance of the system is equivalent to the one of the vectorial method. The number of non null membership values on any element of the universe of discourse is limited. Such a constraint is usually non very restrictive since many controllers obtain a good precision with only three non null weights. The method here briefly described has been adopted by our group in the design of an optimized version of the coprocessor described in [10].

  • PDF