• 제목/요약/키워드: Task computing

검색결과 542건 처리시간 0.028초

계층화 분석법을 활용한 공항 산업 서비스 혁신 연구 (A Study of Service Innovation in the Airport Industry using AHP)

  • 안홍환;임한솔;나승균;이봉규
    • 인터넷정보학회논문지
    • /
    • 제25권3호
    • /
    • pp.71-81
    • /
    • 2024
  • 세계 공항 산업은 코로나19 팬데믹에 대응하여 방역과 여객 안전을 위한 4차 산업혁명 기술 기반 시스템을 적극적으로 도입하고 있고, 공항 인프라와 자원을 활용한 테스트베드 구축과 사전 검증이 활발히 이루어지고 있다. 최근 사례들을 분석해 보면 공항 이용객의 여행 패턴을 변화시키고 공항 서비스에 대한 요구도 다양화되고 있음에도 불구하고, 대부분의 테스트베드 구축 연구는 여전히 공급자 중심에 초점을 맞추고 있으며 작업의 우선순위 결정도 의사 결정권자의 주관적 판단에 의존하는 경향이 있다. 본 연구는 공항산업 혁신을 주도하는 최초 진출 기업(First Mover)으로 도약을 위한 실무적인 방안을 모색하기 위해 다양한 고객 서비스 요구와 변화를 반영한 서비스 관점의 테스트베드 구축을 위한 과제 선정과 우선순위를 도출하였다. 계층화 분석법 등을 활용한 연구 결과는 접근 교통 및 주차 서비스(29.2%), 보안 검색 서비스(23.4%), 출국 서비스(21.8%) 순으로 우선순위가 도출되었으며, 이러한 분석 결과는 공항 산업에서 테스트베드 구축의 혁신성이 중요한 요소임을 보여주고 있다. 특히, 스마트 주차와 UAM 교통 테스트베드 구축은 공항을 기술 혁신의 중심지로 강화시키는 데 도움이 될 뿐만 아니라 기업, 연구기관, 정부와의 협력을 촉진하며 새로운 기술과 서비스를 시험 및 개발할 수 있는 환경을 제공할 수 있는 토대가 될 수 있다. 본 연구를 통해 산출된 결과물과 시사점들은 국내·외 공항 실무자들이 테스트베드를 구축하고 전략을 수립하는 데 유용한 가이드라인이 될 수 있다.

RFID 구매고객의 구매 의사결정과 수용에 대한 탐색적 연구 (An Exploratory Study of Purchasing Decision Making and Adoption on the RFID Purchasing Customer)

  • 서필수;장장이;심경수
    • 벤처창업연구
    • /
    • 제3권4호
    • /
    • pp.89-116
    • /
    • 2008
  • 최근 기업은 유비쿼터스 컴퓨팅에 핵심 기술이자 신기술 적용 제품인 RFID를 도입하여 재고관리, 공정효율성, 비용절감, 제품의 신뢰성 등을 통해 경영활동의 효율성과 고객 만족도를 향상시키고자 제품을 도입하고 있다. 그러나 신제품(솔루션) 도입 시 기업은 많은 위험요소를 안고 있다. 따라서 본 연구는 RFID 구매자들에게 존재하는 구매 위험, 공급자의 속성과 정보, 구매의사결정 단계 및 구매 행동 등 이론적 배경을 근거로 연구문제를 돌출하고 이를 분석하여 시사점을 제시함으로서 RFID 공급사 및 산업마케터들의 마케팅전략을 수립에 도움이 되고자 시작되었다. 연구 결과, (1)신규 구매의 경우 제품의 신뢰성, 기술명세의 정확성, 단순 재구매의 경우 가격의 적절성이 중요한 속성으로 나타났고, (2)정보원천은 두(신규 구매와 단순 재구매) 경우 모두 제품 성능 테스트결과, 조직 내의 기술자, 그리고 타사 구매자들의 의견 및 견본확인 등을 통해 정보를 얻고, (3)구매위험지각 정도는 신규구매의 경우에는 기능상의 문제 발생 가능성과 같은 성과 위험, 수리 및 투자비용 상의 손실 가능성과 같은 재정적 위험 등, 단순재구매의 경우에는 보다 나은 제품 구매에 대한 기회 손실과 같은 미래 기회 손실 위험 등이 나타났고, (4)구매센터의 역할은 신규구매의 경우에는 사용부서, 기획부서 구매부서 순이고, 단순재구매의 경우에는 사용부서, 구매부서 순이며, (5)구매의사결정단계별 영향력은 두 경우 모두 단계별 차이를 보이고 있으나 경영층 보다 사용부서, 기획부서, 구매부서의 비중이 높게 나타났다.

  • PDF

구매의사 결정과 수용에 대한 연구 : RFID 구매고객 중심으로 (A Study on Purchasing Decision Making and Adoption : Focused on the RFID Purchasing Customer)

  • 서필수;장장이;심경수
    • 한국벤처창업학회:학술대회논문집
    • /
    • 한국벤처창업학회 2008년도 추계학술대회
    • /
    • pp.257-282
    • /
    • 2008
  • 최근 기업은 유비쿼터스 컴퓨팅에 핵심 기술이자 신기술 적용 제품인 RFID를 도입하여 재고관리, 공정효율성, 비용절감, 제품의 신뢰성 등을 통해 경영활동의 효율성과 고객만족도를 향상시키고자 제품을 도입하고 있다. 그러나 신제품(솔루션) 도입 시 기업은 많은 위험요소를 안고 있다. 따라서 본 연구는 RFID 구매자들에게 존재하는 구매 위험, 공급자의 속성과 정보, 구매의사결정 단계 및 구매 행동 등 이론적 배경을 근거로 가설을 설정하고 이를 분석하여 시사점을 제시함으로서 RFID 공급사 및 산업마케터들의 마케팅전략을 수립에 도움이 되고자 시작되었다. 연구 결과, (1) 신규 구매의 경우 제품의 신뢰성, 기술명세의 정확성, 단순재구매의 경우 가격의 적절성이 중요한 속성으로 나타났고, (2) 정보원천은 두(신규 구매와 단순재구매) 경우 모두 제품 성능 테스트결과, 조직 내의 기술자, 그리고 타사구매자들의 의견 및 견본확인 등을 통해 정보를 얻고, (3) 구매위험지각 정도는 신규구매의 경우에는 기능상의 문제 발생 가능성과 같은 성과 위험, 수리 및 투자비용상의 손실 가능성과 같은 재정적 위험 등, 단순재구매의 경우에는 보다 나은 제품구매에 대한 기회 손실과 같은 미래 기회 손실 위험 등이 나타났고, (4) 구매센터의 역할은 신규구매의 경우에는 사용부서, 기획부서 구매부서 순이고 단순재구매의 경우에는 사용부서, 구매부서 순이적, (5) 구매의사결정단계별 영향력은 두 경우 모두 단계별 차이를 보이고 있으나 경영층 보다 사용부서, 기획부서, 구매부서의 비중이 높게 나타났다.

  • PDF

FPS게임 구성요소의 중요도 분석방법에 관한 연구 1 -델파이기법을 이용한 독립요소의 계층설계와 검증을 중심으로- (The Study on the Priority of First Person Shooter game Elements using Delphi Methodology)

  • 배혜진;김석태
    • 디자인학연구
    • /
    • 제20권3호
    • /
    • pp.61-72
    • /
    • 2007
  • 1960년대 MIT에서 제작된 최초의 게임 Space War를 시작으로 짧은 기간 동안 게임산업은 급속도로 성장하고 방대해지면서 최근 발표된 게임들은 총합적 디자인의 결정체라고 봐도 무방하리만큼 콘텐츠를 이루는 구성요소가 무수히 많아졌다. 결국 게임을 개발함에 있어서 고려해야할 요소도 기하급수적으로 증가하여, 예산 및 인력, 시간투입 등에 대한 계획도 매우 복잡해질 수밖에 없다. 그러므로 성공적인 게임개발을 위해서는 게임을 구성하는 요소를 추출하고 각 요소별 중요도를 산출하여, 향후 개발되는 게임을 사전에 평가할 수 있는 방법이 무엇보다 절실하다. 이러한 기획은 진행과정에서 무수한 의사결정을 요구하게 되고, 의사결정 작업은 다수인자에 대한 문제, 요소들을 정량화시키기 어려운 불확실성의 문제, 결과가 지향하는 복잡한 다목적의 문제, 다수의 의사결정간의 혼선, 의사결정과정에 이르는 다단계의 우선순위 결정문제 등으로 인한 많은 어려움이 있다. 본 연구는 이러한 문제들을 총합적으로 해결하며, 불확실한 데이터를 정량화시켜 논리적이고 합리적인 대안을 제시할 수 있도록 계층화의사결정법을 제시하고자 하며, 현재 게임시장을 주도하고 있는 FPS게임을 대상으로 분석을 시도하였다. AHP분석에서 가장 중요한 것은 분석하고자 하는 대상의 요소들을 객관적으로 정확하게 분류하고 이를 계층화시키는 것과 요소간의 쌍대비교를 통한 중요도 추출이다. 본 연구는 이러한 요소추출과 요소간 중요도 산출 및 대안의 선정 2부분으로 구성되며, 그 중에서 본 논문은 델파이기법에 의한 FPS게임의 객관적 요소추출 및 계층화를 중심으로 하고 있다.

  • PDF

상황인식 기반 지능형 최적 경로계획 (Intelligent Optimal Route Planning Based on Context Awareness)

  • 이현정;장용식
    • Asia pacific journal of information systems
    • /
    • 제19권2호
    • /
    • pp.117-137
    • /
    • 2009
  • Recently, intelligent traffic information systems have enabled people to forecast traffic conditions before hitting the road. These convenient systems operate on the basis of data reflecting current road and traffic conditions as well as distance-based data between locations. Thanks to the rapid development of ubiquitous computing, tremendous context data have become readily available making vehicle route planning easier than ever. Previous research in relation to optimization of vehicle route planning merely focused on finding the optimal distance between locations. Contexts reflecting the road and traffic conditions were then not seriously treated as a way to resolve the optimal routing problems based on distance-based route planning, because this kind of information does not have much significant impact on traffic routing until a a complex traffic situation arises. Further, it was also not easy to take into full account the traffic contexts for resolving optimal routing problems because predicting the dynamic traffic situations was regarded a daunting task. However, with rapid increase in traffic complexity the importance of developing contexts reflecting data related to moving costs has emerged. Hence, this research proposes a framework designed to resolve an optimal route planning problem by taking full account of additional moving cost such as road traffic cost and weather cost, among others. Recent technological development particularly in the ubiquitous computing environment has facilitated the collection of such data. This framework is based on the contexts of time, traffic, and environment, which addresses the following issues. First, we clarify and classify the diverse contexts that affect a vehicle's velocity and estimates the optimization of moving cost based on dynamic programming that accounts for the context cost according to the variance of contexts. Second, the velocity reduction rate is applied to find the optimal route (shortest path) using the context data on the current traffic condition. The velocity reduction rate infers to the degree of possible velocity including moving vehicles' considerable road and traffic contexts, indicating the statistical or experimental data. Knowledge generated in this papercan be referenced by several organizations which deal with road and traffic data. Third, in experimentation, we evaluate the effectiveness of the proposed context-based optimal route (shortest path) between locations by comparing it to the previously used distance-based shortest path. A vehicles' optimal route might change due to its diverse velocity caused by unexpected but potential dynamic situations depending on the road condition. This study includes such context variables as 'road congestion', 'work', 'accident', and 'weather' which can alter the traffic condition. The contexts can affect moving vehicle's velocity on the road. Since these context variables except for 'weather' are related to road conditions, relevant data were provided by the Korea Expressway Corporation. The 'weather'-related data were attained from the Korea Meteorological Administration. The aware contexts are classified contexts causing reduction of vehicles' velocity which determines the velocity reduction rate. To find the optimal route (shortest path), we introduced the velocity reduction rate in the context for calculating a vehicle's velocity reflecting composite contexts when one event synchronizes with another. We then proposed a context-based optimal route (shortest path) algorithm based on the dynamic programming. The algorithm is composed of three steps. In the first initialization step, departure and destination locations are given, and the path step is initialized as 0. In the second step, moving costs including composite contexts into account between locations on path are estimated using the velocity reduction rate by context as increasing path steps. In the third step, the optimal route (shortest path) is retrieved through back-tracking. In the provided research model, we designed a framework to account for context awareness, moving cost estimation (taking both composite and single contexts into account), and optimal route (shortest path) algorithm (based on dynamic programming). Through illustrative experimentation using the Wilcoxon signed rank test, we proved that context-based route planning is much more effective than distance-based route planning., In addition, we found that the optimal solution (shortest paths) through the distance-based route planning might not be optimized in real situation because road condition is very dynamic and unpredictable while affecting most vehicles' moving costs. For further study, while more information is needed for a more accurate estimation of moving vehicles' costs, this study still stands viable in the applications to reduce moving costs by effective route planning. For instance, it could be applied to deliverers' decision making to enhance their decision satisfaction when they meet unpredictable dynamic situations in moving vehicles on the road. Overall, we conclude that taking into account the contexts as a part of costs is a meaningful and sensible approach to in resolving the optimal route problem.

상위 K 하이 유틸리티 패턴 마이닝 기법 성능분석 (Performance Analysis of Top-K High Utility Pattern Mining Methods)

  • 양흥모;윤은일;김철홍
    • 인터넷정보학회논문지
    • /
    • 제16권6호
    • /
    • pp.89-95
    • /
    • 2015
  • 전통적인 빈발 패턴 마이닝은 데이터베이스로부터 사용자 정의 최소 임계치 이상의 빈도수를 가지는 유효 패턴들을 식별한다. 적절한 임계치 설정은 해당 도메인에 대한 사전 지식을 요구하므로 쉬운 작업이 아니다. 따라서 임계치 설정을 통한 마이닝 결과의 정밀한 제어 불가능으로 인해 도메인 지식을 기반으로 하지 않는 패턴 마이닝 방법이 필요하게 되었다. 상위 K 빈발 패턴 마이닝은 이러한 문제를 해결하기 위해 제안되었으며, 임계치 설정 없이 상위 K개의 중요 패턴들을 마이닝 한다. 사용자는 이를 적용함으로써 데이터베이스에 상관없이 가장 높은 빈도수의 패턴부터 K번째로 높은 빈도수의 패턴까지 찾아낼 수 있다. 비록 상위 K 빈발 패턴 마이닝이 임계치 설정 없이 상위 K개의 중요 패턴들을 마이닝 하지만, 트랜잭션 내 아이템 수량과 데이터베이스 내 서로 다른 아이템 중요도를 고려하지 못하여 많은 실세계 응용의 요구에 부합하지 못한다. 하이 유틸리티 패턴 마이닝은 아이템 중요도가 포함된 비 바이너리 데이터베이스의 특성을 고려하기 위해 제안되었으나 최소 임계치를 필요로 한다. 최근 임계치 설정 없는 하이 유틸리티 패턴 마이닝을 위한 상위 K 하이 유틸리티 패턴 마이닝이 개발되었으며, 이를 통해 사용자는 사전 지식 없이 원하는 수의 패턴을 마이닝 할 수 있다. 본 논문은 상위 K 하이 유틸리티 패턴 마이닝을 위한 알고리즘을 분석한다. 최신 알고리즘에 대한 성능분석을 통해 개선사항 및 발전 방향에 대해 고찰한다.

농촌인구(農村人口)의 변화(變化)와 예측(豫測) (Variation and Forecast of Rural Population in Korea: 1960-1985)

  • 권용덕;최규섭
    • Current Research on Agriculture and Life Sciences
    • /
    • 제8권
    • /
    • pp.129-138
    • /
    • 1990
  • 이상에서 본 연구는 1960년 이후부터 1985년까지의 인구규모와 그 변동의 특질을 농촌에서 도시로의 인구이동현상과 관련하여 검토해 보았다. 아울러 분해시계열방법을 이용하여 농촌인구유출과 농정과의 관계도 고찰하였다. 그리고 적정모델을 추정하여 2,000년까지의 농촌 및 농가인구도 예측해 보았다. 결론적으로 말해서 인구구조의 변화측면에서 농촌인구와 농가인구는 1965년부터 감소하기 시작하여 1975년 이후부터 급격히 감소하였다. 농촌인구의 급격한 감소는 농촌 인구의 자연감소로 인한 요인보다는 도시로 유출되는 인구이동의 요인이 더 크게 작용한 것으로 나타났다. 농촌에서 도시로의 인구유출과정에서 유입지의 분포를 보면 도시지역 중에서 서울, 부산, 경기지역으로 인구가 집중한 것으로 나타났다. 특히 70년대에는 서울 부산 등 대도시 지역으로 직접적인 이동이 있었으나 80년대에 들어와서는 대도시 지역으로의 직접적인 유입보다는 주변지역으로의 유입이 점차 증가함으로써 농촌에서 대도시로의 유입형태가 주변도시로의 유입형태로 변화되고 있다. 농촌인구의 유출을 농업생산과 관련시켜 볼 때 농업노동력의 수요가 확대되는 6월 이후에 유출인구는 점차 줄어들고 있으며 3월에 가장 많이 유출하는 것으로 판명되었다. 60년대 이후 농업정책과 농촌인구의 유출과의 관계를 분석하기 위해 순환변동을 도출하였으며 2-3차 개발계획기간을 제외한 기간에 있어서 농촌부문의 상대적 저위성이 농촌인구의 유출을 자극한 요인으로 작용했으며 이러한 사실은 농업정책의 불균형적 시행이 직 간접적으로 영향을 미친 결과라 하겠다. 끝으로 농촌인구의 유출을 포함한 한국농업의 근본적인 문제는 도농간 상대적 소득 격차에 있다고 보고 농촌지역의 개발을 서울이나 수도권, 대도시권의 비대화를 막기 위한 방편 또는 공업화 우선정책의 반작용으로 본 과거의 정책성향을 극복해야 한다는 점이다. 따라서 도농간 소득격차의 문제를 농업정책의 중심과제로 삼고 농촌지역의 자원을 보다 효율적으로 이용함으로써 나라의 경제적 효율성은 물론 형평성을 높인다는 시각에서 농업정책을 다루어야 할 것이다.

  • PDF

국방 빅데이터/인공지능 활성화를 위한 다중메타데이터 저장소 관리시스템(MRMM) 기술 연구 (A Research in Applying Big Data and Artificial Intelligence on Defense Metadata using Multi Repository Meta-Data Management (MRMM))

  • 신우택;이진희;김정우;신동선;이영상;황승호
    • 인터넷정보학회논문지
    • /
    • 제21권1호
    • /
    • pp.169-178
    • /
    • 2020
  • 국방부는 감소되는 부대 및 병력자원의 문제해결과 전투력 향상을 위해 4차 산업혁명 기술(빅데이터, AI)의 적극적인 도입을 추진하고 있다. 국방 정보시스템은 업무 영역 및 각군의 특수성에 맞춰 다양하게 개발되어 왔으며, 4차 산업혁명 기술을 적극 활용하기 위해서는 현재 폐쇄적으로 운용하고 있는 국방 데이터 관리체계의 개선이 필요하다. 그러나, 국방 빅데이터 및 인공지능 도입을 위해 전 정보시스템에 데이터 표준을 제정하여 활용하는 것은 보안문제, 각군 업무특성 및 대규모 체계의 표준화 어려움 등으로 제한사항이 있고, 현 국방 데이터 공유체계 제도적으로도 각 체계 상호간 연동 소요를 기반으로 체계간 연동합의를 통해 직접 연동을 통하여 데이터를 제한적으로 공유하고 있는 실정이다. 4차 산업혁명 기술을 적용한 스마트 국방을 구현하기 위해서는 국방 데이터를 공유하여 잘 활용할 수 있는 제도마련이 시급하고, 이를 기술적으로 뒷받침하기 위해 국방상호운용성 관리지침 규정에 따라 도메인 및 코드사전을 생성된 국방 전사 표준과 각 체계별 표준 매핑을 관리하고 표준간 연계를 통하여 데이터 상호 운용성 증진을 지원하는 국방 데이터의 체계적인 표준 관리를 지원하는 다중 데이터 저장소 관리(MRMM) 기술개발이 필요하다. 본 연구에서는 스마트 국방 구현을 위해 가장 기본이 되는 국방 데이터의 도메인 및 코드사전을 생성된 국방 전사 표준과 각 체계별 표준 매핑을 관리하고, 표준간 연계를 통하여 데이터 상호 운용성 증진을 지원하는 다중 데이터 저장소 관리 (MRMM) 기술을 제시하고, 단어의 유사도를 통해 MRMM의 실현 방향성을 구현하였다. MRMM을 바탕으로 전군 DB의 표준화 통합을 좀 더 간편하게 하여 실효성 있는 국방 빅데이터 및 인공지능 데이터 구현환경을 제공하여, 스마트 국방 구현을 위한 막대한 국방예산 절감과 전투력 향상을 위한 전력화 소요기간의 감소를 기대할 수 있다.

특허문서 필드의 기능적 특성을 활용한 IPC 다중 레이블 분류 (IPC Multi-label Classification based on Functional Characteristics of Fields in Patent Documents)

  • 임소라;권용진
    • 인터넷정보학회논문지
    • /
    • 제18권1호
    • /
    • pp.77-88
    • /
    • 2017
  • 최근 지식과 정보가 가치를 생산하는 지식기반사회로 접어들면서 지식재산권의 대표적인 형태인 특허에 대한 중요성이 매우 높아지고 있으며 출원되는 특허의 양도 매년 증가하고 있다. 방대한 양의 특허정보를 효과적으로 이용하기 위해서 특허문서를 그 발명의 기술적 주제에 따라 적절하게 분류하는 것이 필요하며 이를 위해 IPC(International Patent Classification)가 주로 사용되고 있다. 현재 주로 사람의 손으로 이뤄지는 특허문서의 IPC 분류과정의 효율성을 높이기 위하여 다양한 데이터마이닝과 기계학습 알고리즘을 기반으로 IPC 자동분류에 관한 연구들이 수행되어 왔다. 하지만 기존의 IPC 자동분류에 관한 연구의 대부분은 특허문서의 구조적 특징과 같은 특허문서 고유의 데이터 특성에 대한 고려보다는 다양한 기계학습 알고리즘을 특허문서로 적용하는 것에 초점을 맞춰왔다. 이에 본 논문에서는 IPC 자동분류를 위해 특허문서의 특징과 구조적 필드의 역할을 기반으로 특허문서 분류에 영향을 끼치는 두 가지 필드, 기술분야 및 배경기술 필드의 활용을 제안한다. 그리고 특허문서가 동시에 다수의 IPC 분류코드를 가지는 점을 반영하여 다중 레이블 분류(multi-label classification) 모델을 구축한다. 또한 IPC 다중 레이블 분류의 실제 현장에서의 적용 가능성 확인을 위해 630개의 범주를 가지는 IPC 서브클래스 레벨까지 분류 가능한 수법을 제안한다. 이를 위해 국내에서 등록된 564,793건의 특허문서를 대상으로 특허문서의 구조적 필드의 영향을 확인하기 위한 IPC 다중 레이블 분류 실험을 수행하였고, 그 결과 제목, 요약, 청구항, 기술분야 및 배경기술 필드를 활용한 실험에서 87.2%의 싱글매치 정확도를 얻었다. 이를 통해 기술분야 및 배경기술 두 필드가 IPC 서브클래스 레벨까지의 다중 레이블 분류의 정확도를 향상시키는데 중요한 역할을 하고 있음을 확인하였다.

Hardware Approach to Fuzzy Inference―ASIC and RISC―

  • Watanabe, Hiroyuki
    • 한국지능시스템학회:학술대회논문집
    • /
    • 한국퍼지및지능시스템학회 1993년도 Fifth International Fuzzy Systems Association World Congress 93
    • /
    • pp.975-976
    • /
    • 1993
  • This talk presents the overview of the author's research and development activities on fuzzy inference hardware. We involved it with two distinct approaches. The first approach is to use application specific integrated circuits (ASIC) technology. The fuzzy inference method is directly implemented in silicon. The second approach, which is in its preliminary stage, is to use more conventional microprocessor architecture. Here, we use a quantitative technique used by designer of reduced instruction set computer (RISC) to modify an architecture of a microprocessor. In the ASIC approach, we implemented the most widely used fuzzy inference mechanism directly on silicon. The mechanism is beaded on a max-min compositional rule of inference, and Mandami's method of fuzzy implication. The two VLSI fuzzy inference chips are designed, fabricated, and fully tested. Both used a full-custom CMOS technology. The second and more claborate chip was designed at the University of North Carolina(U C) in cooperation with MCNC. Both VLSI chips had muliple datapaths for rule digital fuzzy inference chips had multiple datapaths for rule evaluation, and they executed multiple fuzzy if-then rules in parallel. The AT & T chip is the first digital fuzzy inference chip in the world. It ran with a 20 MHz clock cycle and achieved an approximately 80.000 Fuzzy Logical inferences Per Second (FLIPS). It stored and executed 16 fuzzy if-then rules. Since it was designed as a proof of concept prototype chip, it had minimal amount of peripheral logic for system integration. UNC/MCNC chip consists of 688,131 transistors of which 476,160 are used for RAM memory. It ran with a 10 MHz clock cycle. The chip has a 3-staged pipeline and initiates a computation of new inference every 64 cycle. This chip achieved an approximately 160,000 FLIPS. The new architecture have the following important improvements from the AT & T chip: Programmable rule set memory (RAM). On-chip fuzzification operation by a table lookup method. On-chip defuzzification operation by a centroid method. Reconfigurable architecture for processing two rule formats. RAM/datapath redundancy for higher yield It can store and execute 51 if-then rule of the following format: IF A and B and C and D Then Do E, and Then Do F. With this format, the chip takes four inputs and produces two outputs. By software reconfiguration, it can store and execute 102 if-then rules of the following simpler format using the same datapath: IF A and B Then Do E. With this format the chip takes two inputs and produces one outputs. We have built two VME-bus board systems based on this chip for Oak Ridge National Laboratory (ORNL). The board is now installed in a robot at ORNL. Researchers uses this board for experiment in autonomous robot navigation. The Fuzzy Logic system board places the Fuzzy chip into a VMEbus environment. High level C language functions hide the operational details of the board from the applications programme . The programmer treats rule memories and fuzzification function memories as local structures passed as parameters to the C functions. ASIC fuzzy inference hardware is extremely fast, but they are limited in generality. Many aspects of the design are limited or fixed. We have proposed to designing a are limited or fixed. We have proposed to designing a fuzzy information processor as an application specific processor using a quantitative approach. The quantitative approach was developed by RISC designers. In effect, we are interested in evaluating the effectiveness of a specialized RISC processor for fuzzy information processing. As the first step, we measured the possible speed-up of a fuzzy inference program based on if-then rules by an introduction of specialized instructions, i.e., min and max instructions. The minimum and maximum operations are heavily used in fuzzy logic applications as fuzzy intersection and union. We performed measurements using a MIPS R3000 as a base micropro essor. The initial result is encouraging. We can achieve as high as a 2.5 increase in inference speed if the R3000 had min and max instructions. Also, they are useful for speeding up other fuzzy operations such as bounded product and bounded sum. The embedded processor's main task is to control some device or process. It usually runs a single or a embedded processer to create an embedded processor for fuzzy control is very effective. Table I shows the measured speed of the inference by a MIPS R3000 microprocessor, a fictitious MIPS R3000 microprocessor with min and max instructions, and a UNC/MCNC ASIC fuzzy inference chip. The software that used on microprocessors is a simulator of the ASIC chip. The first row is the computation time in seconds of 6000 inferences using 51 rules where each fuzzy set is represented by an array of 64 elements. The second row is the time required to perform a single inference. The last row is the fuzzy logical inferences per second (FLIPS) measured for ach device. There is a large gap in run time between the ASIC and software approaches even if we resort to a specialized fuzzy microprocessor. As for design time and cost, these two approaches represent two extremes. An ASIC approach is extremely expensive. It is, therefore, an important research topic to design a specialized computing architecture for fuzzy applications that falls between these two extremes both in run time and design time/cost. TABLEI INFERENCE TIME BY 51 RULES {{{{Time }}{{MIPS R3000 }}{{ASIC }}{{Regular }}{{With min/mix }}{{6000 inference 1 inference FLIPS }}{{125s 20.8ms 48 }}{{49s 8.2ms 122 }}{{0.0038s 6.4㎲ 156,250 }} }}

  • PDF