• 제목/요약/키워드: structures of task

검색결과 293건 처리시간 0.025초

콘크리트의 노치 및 비노치 구역에서의 균열폭 및 국부 변형률 정밀 측정기법 (Technique for the Measurement of Crack Widths at Notched / Unnotched Regions and Local Strains)

  • 최석환;임법묵;오창국;조창빈
    • 콘크리트학회논문집
    • /
    • 제24권2호
    • /
    • pp.205-214
    • /
    • 2012
  • 균열폭은 콘크리트 구조물의 사용성을 평가하는 측면에서는 매우 중요하다. 균열폭을 일정값 이하로 유지할 수 있다면 낮은 투수성을 유지할 수 있으므로 콘크리트의 피복만으로도 염소이온에 의한 부식을 방지할 수 있다. 따라서 내구적인 구조물을 설계하기 위해서는 인장 균열에 대한 충분한 정보가 필요하다. 그러나 균열폭을 정확하게 계측하는 데는 몇 가지 어려움이 있다. 먼저, 균열의 생성 위치를 미리 알기 어렵다. 또한 변형률 게이지 등 탄성영역에서 사용되는 게이지는 사용할 수 없다. 이러한 문제를 극복하기 위해서 화상상관기법 및 고해상도 CCD를 이용한 균열 및 변위계측 시스템을 개발하였다. 이를 통해서 임의의 위치에 생성되는 인장균열폭을 측정하는 방법을 제시하였다. 변위계측 정밀도 검증을 실시한 결과 평균오차는 0.069 픽셀, 표준편차는 0.050 픽셀이었다. UHPC를 이용하여 직접인장 실험을 수행하였다. 노치 구역과 비노치 구역에서 각각 균열을 측정하는 방법을 제시하고, 하중단계에 따라서 클립인 게이지의 결과와 비교하여 설명하였다. 시편의 전면에서 변위벡터를 구성하고, 등변위도 및 변형률도를 작성하였다. 다양한 실험에 적용할 수 있는 범용의 기법이기 때문에 임의의 균열폭 혹은 전면변위 측정 분야에서 많이 활용될 수 있을 것이다.

유사어 벡터 확장을 통한 XML태그의 유사성 검사 (Similarity checking between XML tags through expanding synonym vector)

  • 이정원;이혜수;이기호
    • 한국정보과학회논문지:소프트웨어및응용
    • /
    • 제29권9호
    • /
    • pp.676-683
    • /
    • 2002
  • XML(extensible Markup Language)문서가 웹 문서의 표준으로 자리 매김 할 수 있는 가장 큰 성공요인은 사용자가 문서 타입을 기술할 수 있는 유연성(flexibility)이다. 그러나 XML의 유연성으로 야기되는 문제점은 동일한 의미를 표현하기 위해 XML문서 작성자마다 서로 다른 태그명과 구조를 사용한다는 점이다. 즉 서로 다른 태그 집합, 요소(element), 속성(attribute)에 대한 서로 다른 이름 또는 다른 문서 구조로 인해 다른 태그로 표현된 문서는 서로 다른 부류의 문서로 간주되기 쉽다. 따라서 본 논문은 XML태그에 내재된 의미 정보(semantic information)와 구조 정보(structured information)를 추출하여 의미적으로 최대한 유사한 동의어로 확장하고, XML문서의 확장된 태그간의 의미적 유사도를 비교 분석할 수 있는 개념 기반의 태그 패턴 매처(Tag Pattern Matcher)를 설계 구현하였다. 두 XML문서의 태그간의 의미적 유사도에 가중치를 부여하여 기존의 비구조적인(semi-structured) 문서를 위한 벡터 스페이스 모델(vector space model)을 확장함으로써 두 XML문서가 유사한지를 파악할 수 있다.

공유 문서를 활용한 과학 수업에서 나타난 학생 담화의 특징 -인식 네트워크 분석(ENA)의 활용- (Exploring Collaborative Learning Dynamics in Science Classes Using Google Docs: An Epistemic Network Analysis of Student Discourse)

  • 신은혜
    • 한국과학교육학회지
    • /
    • 제44권1호
    • /
    • pp.77-86
    • /
    • 2024
  • 본 연구는 과학 수업에서 공유 문서의 활용이 학생의 담화 패턴과 학습에 미치는 영향을 조사하기 위해 학생들의 담화를 인식 네트워크 분석(Epistemic Network Analysis) 방법으로 분석하였다. 49명의 중학교 2학년 학생을 대상으로 과학 교사인 연구자 본인이 Google Docs를 기반으로 제작된 활동지를 활용한 공유 문서와 동일 내용의 종이 활동지를 활용한 일반 수업을 실시하고, 각 수업에서 수집된 담화를 비교 분석하였다. 분석 결과, 공유 문서 활용 수업에서는 일반 수업에 비해 과제 수행과 관련된 발언의 비율이 더 높았으며, 특히 사진 촬영과 업로드에 대한 담화가 두드러졌다. 그러나 이러한 담화가 교사가 의도한 동료 학습으로 이어지지는 않았다. 성취 수준에 따른 분석 결과에서는 공유 문서 활용 수업에서 하위 수준 학생의 발언 비율이 상대적으로 더 높았으며, 상위 학생과 하위 학생 간의 발언 유형 및 연결 구조에서 차이가 나타났다. 또한 상위 수준 학생이 의견과 설명 제시를 주도하면 하위 학생이 이를 받아 적는 역할 분담이 관찰되었으며, 공유 문서 활용 수업에서 그러한 경향이 더 뚜렷하였다. 마지막으로 인식 네트워크 분석으로 정전기의 원인에 대한 학생의 인식 변화를 시각화하였다. 연구 결과를 바탕으로 공유 문서를 활용하여 협력 학습을 촉진하기 위해 다양한 의견과 산출물의 공유가 가능한 개방적 문제를 포함하는 전략과 인식 네트워크 분석을 활용한 개념 학습 효과 확인 가능성을 제언하였다.

시소러스와 술어 패턴을 이용한 의미역 부착 한국어 하위범주화 사전의 구축 (Constructing a Korean Subcategorization Dictionary with Semantic Roles using Thesaurus and Predicate Patterns)

  • 양승현;김영섬;우요섭;윤덕호
    • 한국정보과학회논문지:컴퓨팅의 실제 및 레터
    • /
    • 제6권3호
    • /
    • pp.364-372
    • /
    • 2000
  • 하위범주화는 보어의 어휘 개념이 명시된 술어와 보어간 의존 관계를 정의하는 언어 정보로서 구문 및 의미 분석 등에 폭넓게 활용될 수 있는 기반 언어 자원이라는 데에 그 중요성이 있다. 본 논문에서는 표층문에서 통상 격표지로 표현되는 구문적 의존 관계뿐만 아니라, 보어가 갖는 의미역 정보가 부착되어 있으며 시소러스 개념 분류 체계와 연동 가능한 한국어 술어의 하위범주화 사전의 구축에 대해 설명하고 있다. 본 논문에서는 하위범주화 사전의 의미역 표현을 위해 총 25개의 의미역을 설정하고 있다. 이 의미역은 표층 격표지와 직접 연관되어 있기 때문에 통사적인 분석으로부터 직접 의미역 정보를 추출해서 의미 구조의 해석에 이용하는 것이 가능하다. 또한 명사 보어가 갖는 개념의 표현을 위해 상ㆍ하위어 관계를 갖는 12만 어휘 규모의 시소러스를 이용하고 있으며, 술어의 의존 관계 표현을 위해 동사, 형용사에 대해 각각 47, 17 개의 하위범주화 패턴을 이용하고 있다. 실용적 규모의 시소러스를 이용함으로써 문장에 나타난 명사의 시소러스 개념을 그대로 하위범주화 사전에 적용시켜 의미 정합 여부를 판단할 수 있는 실질적인 선택제약 체계를 구성할 수 있었고, 표층 격표지에 기초한 표준화된 술어 패턴을 이용함으로써 의미역의 결정 등에서 야기될 수 있는 비일관성을 방지하고 구축에 드는 비용을 절감할 수 있었다. 이상과 같은 방법으로 말뭉치에서 추출한 고빈도 술어 13,000 여개에 대해 하위범주화 사전을 구축하였으며, 적용 범위 평가 실험에 의하면 이 하위범주화 사전은 말뭉치에서 발견된 술어의 72.7%에 대해 하위범주화 정보를 제공할 수 있음을 확인하였다.

  • PDF

메모리 상주 DBMS 기반의 OLTP 응용을 위한 다중프로세서 시스템 캐쉬 성능 분석 (Cache Performance Analysis of Multiprocessor Systems for OLTP Applications based on a Memory-Resident DBMS)

  • 정용화;한우종;윤석한;박진원;이강우;김양우
    • 한국정보과학회논문지:컴퓨팅의 실제 및 레터
    • /
    • 제6권4호
    • /
    • pp.383-392
    • /
    • 2000
  • 다중프로세서 시스템에 대한 대부분의 기존 연구는 과학계산용 응용을 중심으로 수행되어 왔으며, 또 다른 응용 분야인 상용 응용을 이용한 연구는 아직까지 초보 단계에 머물고 있는 실정이다. 이는 상용 DBMS의 소스 프로그램을 액세스하기가 쉽지 않으며, POSTGRES와 같은 공개된 소스 프로그램을 액세스 할 수 있더라도 컴퓨터 구조 설계자가 수십만 라인의 그 소스 프로그램을 이해하여 의미있는 성능분석을 수행하기는 사실상 불가능하기 때문이다. 본 연구에서는 상용 응용을 이용하여 다중프로세서 시스템을 분석하기 위하여, SQL로 작성된 병렬 프로그램을 아키텍처 시뮬레이터 상에서 수행할 수 있는 EZDB라는 병렬 DBMS를 자체 개발하였다. EZDB가 POSTGRES와 다른점은 그 목적이 다중프로세서 시스템에서 상용 응용을 수행시키고 그 성능을 쉽게 분석할 수 있다는 점이다. EZDB의 유용함을 확인하기 위해, 본 논문에서는 다중프로세서 시스템에서 TPC-B 작업부하를 수행시켰을 때의 캐쉬 성능을 분석한다. 구축된 작업부하를 기반으로 프로그램 구동 시뮬레이션을 수행한 결과, 상용 응용에서 데이터 구조의 공유 특성이 매우 특별하며 국부성 및 작업 세트가 과학계산 응용의 경우와 매우 상이함을 확인하였다.

  • PDF

페이셜 리그에 대한 페이셜 캡처 데이터의 다이렉트 리타겟팅 방법 (Direct Retargeting Method from Facial Capture Data to Facial Rig)

  • 송재원;노준용
    • 한국컴퓨터그래픽스학회논문지
    • /
    • 제22권2호
    • /
    • pp.11-19
    • /
    • 2016
  • 본 논문은 페이셜 캡처 데이터로부터 페이셜 리그에 대한 다이렉트 리타겟팅을 수행하는 새로운 방법론에 대하여 다룬다. 페이셜 리그는 프로덕션 파이프라인에서 아티스트가 손쉽게 페이셜 애니메이션을 제작하기 위하여 만들어진 제작도구로서, 모션 캡처 등으로 생성된 얼굴 애니메이션 데이터를 페이셜 리그에 매핑할 경우 아티스트에게 친숙한 방식으로 손쉽게 수정, 편집할 수 있으므로 작업 능률을 크게 향상시킬 수 있다는 장점이 있다. 그러나, 페이셜 리그는 그 종류와 작동 방식이 매우 다양하므로, 다양한 페이셜 리그에 대하여 강건하고 안정적으로 모션 데이터를 매핑할 수 있는 일반화된 방법을 찾기는 쉽지 않다. 이를 위하여, 본 논문은 캡처된 얼굴 모션 중 몇 개의 대표적 표정에 대하여 아티스트가 페이셜 리그로 제작한 표정을 예제로 학습시키는 데이터 기반 페이셜 리타겟팅 방식을 제안한다. 이를 통하여 우리는 아티스트가 페이셜 캡처 데이터를 기존 애니메이션 파이프라인의 페이셜 리그를 활용하여 손쉽게 수정할 수 있도록 할 뿐 아니라, 수십 수백개의 대응점을 일일이 지정해 주어야 하거나 사람과 많이 다른 동물 및 괴물 형태의 얼굴에는 리타겟팅이 잘 이루어지지 않았던 기존 대응점 기반 리타겟팅 방식의 한계점 또한 극복할 수 있었다. 본 논문의 결과물들은 우리의 방식이 제공하는 단순하면서도 직관적인 얼굴 애니메이션 리타겟팅이 실제 애니메이션 프로덕션에서 얼마나 효율적으로 활용될 수 있는지를 보여준다.

집행관배훈안례연구(阐述工商业背景下的有限合理性):집행관배훈안례연구(执行官培训案例研究) (Interpreting Bounded Rationality in Business and Industrial Marketing Contexts: Executive Training Case Studies)

  • Woodside, Arch G.;Lai, Wen-Hsiang;Kim, Kyung-Hoon;Jung, Deuk-Keyo
    • 마케팅과학연구
    • /
    • 제19권3호
    • /
    • pp.49-61
    • /
    • 2009
  • 本文为执行官提供了他们在处理日常业务问题和市场机会时如何阐述自己思考过程的培训. 本研究建立在Schank提出的教学基础上, 包括: (1)经验学习和最好的指导提供给学习者从诸如全球背景, 团队项目和专家经历等的互动的故事提炼知识和技能的机会. (2) 告诉不会导致学习, 因为在学习需要的行动训练环境中, 应强调积极使用故事, 案例和项目. 每个培训案例包括执行官解释自己的决策系统分析(DSA, 还需要执行官做DSA简报. 在训练时要求执行官写DSA简报. 在执行官学员写书面报告的说明中包括(1) DSA路线图的本质的细节(2) 警告和机会的陈述, 读者的行政地图及图内的DSA解释. 该报告的最大长度为500字, 其规则就是使行政人员培训课程行之有效. 引言之后是第二部分文献综述, 简要地总结了有关人们在对问题和机会的背景下的想法及文献. 第三部分通过使用对不同的贴牌生产客户定价相同的化学产品的培训练习来解释DSA的起源和过程, 第四部分展示一个炼油设备公司订价决策的培训练习. 第五部分提供一个商业客户办公家具采购的市场策略案例. 第六部分是结论和建议. 这些建议是关于使用培训课程和发展其他培训课程来磨练执行官制定决策的能力. 文章引导读者利用工具箱研究综合的报告, (DSA)路线图根据生态合理性理论将战略与环境相匹配. 这三个案例的研究让学习者在意愿层面征求建议来作出决策. Todd and Gigerenzer 提出人们使用简单启发式,因为他们在自然的决策环境中通过探索信息的结构使适应性行为有可能产生. "简单是一种美德, 而不是诅咒", 有限理性理论强调了西蒙的命题中心, "人类理性的行为仿佛一把剪刀, 其刀片则是任务环境的结构和执行者的计算能力". Gigerenzer的观点和西蒙的环境的危害相关, 也和本文中三个环境结构的案例相关. "环境这个词, 在这里, 并不是指总的物理和生理的环境, 而只是指被给予需要和目标的重要有机体 本文关注了结合任务环境的结构和使用适应的工具箱启发的报告. (DSA)路线图根据生态理性理论将战略与环境相匹配. 渴望适应理论是这一方针的核心. 渴望适应理论将决策制定作为一个没有把目标整合的多目标问题模拟成一个把所有决策选项进行完全的优先顺序化. 这三个案例研究让学习者在意愿层面征求建议来作出决策. 渴望适应用一系列的调整步骤的形式. 一个调整步骤通过仅一个目标变量的变化就可以改变在渴望网格上邻近点当前的渴望水平. 上调步骤是目标变量的提高, 下调步骤是目标变量的下降. 创造和使用渴望适应水平是对有限理性理论的整合. 文章通过提供学习者经验和实践环节增加了意愿采纳和有限合理性的理解和特点. 利用DSA图排列CTSs和撰写TOP可以清晰和深化Selten的观点 "清晰, 意愿采纳必须作为研究的解决方案整合到整个蓝图中". 这些有限理性的研究许可了在现实生活中为什么, 如何作决策的理论和在自然的环境中利用启发式的学习训练两方面的发展. 本文中的练习鼓励根据不同使用目的学习快速而简洁的启发式技巧和原则. 这也正回应了Schank的思想 "从本质上来看, 教育不是让学生们知道发生了什么, 而是让他们感受到所发生的事情. 这不容易做到. 在如今的学校教育是没有情感的, 这是一个很大的问题". 这三个案例和附加的练习问题遵守了Schank的观点. "这种教育过程最好是通过参与他们其中来实现, 也可以这样认为, 精神层面的积极讨论".

  • PDF

항공안전을 위한 장애물 제한표면 관리시스템의 법·제도적 개선방향에 관한 소고 (A Study on Legal and Regulatory Improvement Direction of Aeronautical Obstacle Management System for Aviation Safety)

  • 박담용
    • 항공우주정책ㆍ법학회지
    • /
    • 제31권2호
    • /
    • pp.145-176
    • /
    • 2016
  • 항공안전은 여러 분야의 제도와 정책, 그리고 현장에서의 치밀한 실행에 의해서 확보된다. 최근 우리나라의 항공안전관리는 항공관련 법령의 정비와 함께 제 2차 항공정책기본계획의 수립을 비롯하여 국가 항공안전프로그램을 구축하고 분야별 중점전략과제를 선정하여 계획적으로 추진하면서 항공사고 예방을 위해 노력하고 있다. 이 논문은 항공기의 안전한 이 착륙과 공항 주변에서 선회비행 시의 비행안전을 확보하기 위하여 설정 고시하고 있는 장애물 제한표면위로 건축물 구조물 등이 초과하지 않도록 제한하고 관리하는 현행의 장애물 관리시스템에 관하여 실무적 경험을 토대로 검토해보고 그 간의 운영상 문제점을 분석하여 법적 제도적 측면의 개선 방안을 제시하고자 한 것이다. 특히, 최근에는 공항주변 지역주민들의 요구 등에 따라 항공학적 검토에 대한 연구와 논의도 활발하게 진행되고 있으며, 조만간 이에 관한 하위법령의 제정과 세부절차도 마련될 것이나 이에 대한 논의와는 별도로 현재의 우리나라의 장애물 관리업무 수행에 대한 법규상 제도의 불비 등 일부 미흡한 부분에 관한 개선보완 방안을 제안하는 것이다. 장애물 제한표면의 관리와 신규 건축물 축조 등의 제한은 공항인근 주민들에 대한 재산권 행사의 실질적 제약으로 작용하므로 관련된 민원도 많으며 신중하고도 신속 정확한 검토 판단이 요구되는 등 민감한 사안으로 취급되고 있는 것이 현실이다. 현재 이 업무는 항공법령에 의거 공항운영자가 수행주체가 되며 전국 민간공항이 소재하고 있는 지방자치단체와의 상호 협력관계 하에 이루어지고 있으며 실제 건축물 구조물 등의 설치허가권을 갖고 있는 지방자치단체의 매 사안에 대한 행정 행위가 매우 중요한 요소이다. 항공법령에 따라 공항운영자에게 매 5년마다 방대한 지역에 대한 정밀측량을 실시하고 그 결과의 현황에 대하여 정부에 보고토록 하고 있는데, 이 경우 측량오차로 인한 초과 장애물 현황의 개소 수가 다수 변동되거나, 각 지방자치단체들이 건축허가를 행하기 전에 사전협의 신청절차를 아예 누락하는 등 많은 문제점이 나타날 수 있다. 그러나 이 정밀측량 실시에 대한 허용오차 범위의 기준이나 협의신청 누락 등의 업무적 해태에 대한 사전 예방적 제재수단 또는 적법한 신청절차의 미 이행 등 관계법령 위반 시의 벌칙규정 등이 없는 실정으로서, 이미 문제점이 발생된 이후에야 사후적인 조치를 할 수밖에 없는 경우가 있게 되는데 실제 건축물 구조물 등이 이미 장애물 제한표면을 초과하여 완공되어진 이후에는 현실적으로 그 건축물 등을 제거조치 하거나 하는 등의 어떠한 특별한 행위를 취하기는 사실상 매우 어려운 것이다. 건축물 등의 소유자는 적법한 건축허가를 받아서 건축한 것이기 때문이다. 이미 이러한 사례는 발생되었고 그로 인한 후속대책이 검토되고 있으나, 실제로는 합리적인 해결방안을 찾기 어려울 뿐만이 아니라 또 다른 사회적 문제를 유발할 것이 분명하다고 본다. 이러한 문제점을 근본적으로 해소시키기 위해서는 현행 항공법령을 보완하여 관련된 행정적 행위의 누락이나 적정한 절차위반 시에 부과하는 벌칙조항신설과 함께, 매 5년마다의 정밀측량 결과에 대한 허용오차 범위를 적용할 수 있도록 건축법에서와 같은 별도의 기준을 신설 규정하여야 한다고 판단되므로 보다 실효성 있는 법적 제도적 개선 보완 방안을 제안하는 것이다.

지식베이스 구축을 위한 한국어 위키피디아의 학습 기반 지식추출 방법론 및 플랫폼 연구 (Knowledge Extraction Methodology and Framework from Wikipedia Articles for Construction of Knowledge-Base)

  • 김재헌;이명진
    • 지능정보연구
    • /
    • 제25권1호
    • /
    • pp.43-61
    • /
    • 2019
  • 최근 4차 산업혁명과 함께 인공지능 기술에 대한 연구가 활발히 진행되고 있으며, 이전의 그 어느 때보다도 기술의 발전이 빠르게 진행되고 있는 추세이다. 이러한 인공지능 환경에서 양질의 지식베이스는 인공지능 기술의 향상 및 사용자 경험을 높이기 위한 기반 기술로써 중요한 역할을 하고 있다. 특히 최근에는 인공지능 스피커를 통한 질의응답과 같은 서비스의 기반 지식으로 활용되고 있다. 하지만 지식베이스를 구축하는 것은 사람의 많은 노력을 요하며, 이로 인해 지식을 구축하는데 많은 시간과 비용이 소모된다. 이러한 문제를 해결하기 위해 본 연구에서는 기계학습을 이용하여 지식베이스의 구조에 따라 학습을 수행하고, 이를 통해 자연어 문서로부터 지식을 추출하여 지식화하는 방법에 대해 제안하고자 한다. 이러한 방법의 적절성을 보이기 위해 DBpedia 온톨로지의 구조를 기반으로 학습을 수행하여 지식을 구축할 것이다. 즉, DBpedia의 온톨로지 구조에 따라 위키피디아 문서에 기술되어 있는 인포박스를 이용하여 학습을 수행하고 이를 바탕으로 자연어 텍스트로부터 지식을 추출하여 온톨로지화하기 위한 방법론을 제안하고자 한다. 학습을 바탕으로 지식을 추출하기 위한 과정은 문서 분류, 적합 문장 분류, 그리고 지식 추출 및 지식베이스 변환의 과정으로 이루어진다. 이와 같은 방법론에 따라 실제 지식 추출을 위한 플랫폼을 구축하였으며, 실험을 통해 본 연구에서 제안하고자 하는 방법론이 지식을 확장하는데 있어 유용하게 활용될 수 있음을 증명하였다. 이러한 방법을 통해 구축된 지식은 향후 지식베이스를 기반으로 한 인공지능을 위해 활용될 수 있을 것으로 판단된다.

Hardware Approach to Fuzzy Inference―ASIC and RISC―

  • Watanabe, Hiroyuki
    • 한국지능시스템학회:학술대회논문집
    • /
    • 한국퍼지및지능시스템학회 1993년도 Fifth International Fuzzy Systems Association World Congress 93
    • /
    • pp.975-976
    • /
    • 1993
  • This talk presents the overview of the author's research and development activities on fuzzy inference hardware. We involved it with two distinct approaches. The first approach is to use application specific integrated circuits (ASIC) technology. The fuzzy inference method is directly implemented in silicon. The second approach, which is in its preliminary stage, is to use more conventional microprocessor architecture. Here, we use a quantitative technique used by designer of reduced instruction set computer (RISC) to modify an architecture of a microprocessor. In the ASIC approach, we implemented the most widely used fuzzy inference mechanism directly on silicon. The mechanism is beaded on a max-min compositional rule of inference, and Mandami's method of fuzzy implication. The two VLSI fuzzy inference chips are designed, fabricated, and fully tested. Both used a full-custom CMOS technology. The second and more claborate chip was designed at the University of North Carolina(U C) in cooperation with MCNC. Both VLSI chips had muliple datapaths for rule digital fuzzy inference chips had multiple datapaths for rule evaluation, and they executed multiple fuzzy if-then rules in parallel. The AT & T chip is the first digital fuzzy inference chip in the world. It ran with a 20 MHz clock cycle and achieved an approximately 80.000 Fuzzy Logical inferences Per Second (FLIPS). It stored and executed 16 fuzzy if-then rules. Since it was designed as a proof of concept prototype chip, it had minimal amount of peripheral logic for system integration. UNC/MCNC chip consists of 688,131 transistors of which 476,160 are used for RAM memory. It ran with a 10 MHz clock cycle. The chip has a 3-staged pipeline and initiates a computation of new inference every 64 cycle. This chip achieved an approximately 160,000 FLIPS. The new architecture have the following important improvements from the AT & T chip: Programmable rule set memory (RAM). On-chip fuzzification operation by a table lookup method. On-chip defuzzification operation by a centroid method. Reconfigurable architecture for processing two rule formats. RAM/datapath redundancy for higher yield It can store and execute 51 if-then rule of the following format: IF A and B and C and D Then Do E, and Then Do F. With this format, the chip takes four inputs and produces two outputs. By software reconfiguration, it can store and execute 102 if-then rules of the following simpler format using the same datapath: IF A and B Then Do E. With this format the chip takes two inputs and produces one outputs. We have built two VME-bus board systems based on this chip for Oak Ridge National Laboratory (ORNL). The board is now installed in a robot at ORNL. Researchers uses this board for experiment in autonomous robot navigation. The Fuzzy Logic system board places the Fuzzy chip into a VMEbus environment. High level C language functions hide the operational details of the board from the applications programme . The programmer treats rule memories and fuzzification function memories as local structures passed as parameters to the C functions. ASIC fuzzy inference hardware is extremely fast, but they are limited in generality. Many aspects of the design are limited or fixed. We have proposed to designing a are limited or fixed. We have proposed to designing a fuzzy information processor as an application specific processor using a quantitative approach. The quantitative approach was developed by RISC designers. In effect, we are interested in evaluating the effectiveness of a specialized RISC processor for fuzzy information processing. As the first step, we measured the possible speed-up of a fuzzy inference program based on if-then rules by an introduction of specialized instructions, i.e., min and max instructions. The minimum and maximum operations are heavily used in fuzzy logic applications as fuzzy intersection and union. We performed measurements using a MIPS R3000 as a base micropro essor. The initial result is encouraging. We can achieve as high as a 2.5 increase in inference speed if the R3000 had min and max instructions. Also, they are useful for speeding up other fuzzy operations such as bounded product and bounded sum. The embedded processor's main task is to control some device or process. It usually runs a single or a embedded processer to create an embedded processor for fuzzy control is very effective. Table I shows the measured speed of the inference by a MIPS R3000 microprocessor, a fictitious MIPS R3000 microprocessor with min and max instructions, and a UNC/MCNC ASIC fuzzy inference chip. The software that used on microprocessors is a simulator of the ASIC chip. The first row is the computation time in seconds of 6000 inferences using 51 rules where each fuzzy set is represented by an array of 64 elements. The second row is the time required to perform a single inference. The last row is the fuzzy logical inferences per second (FLIPS) measured for ach device. There is a large gap in run time between the ASIC and software approaches even if we resort to a specialized fuzzy microprocessor. As for design time and cost, these two approaches represent two extremes. An ASIC approach is extremely expensive. It is, therefore, an important research topic to design a specialized computing architecture for fuzzy applications that falls between these two extremes both in run time and design time/cost. TABLEI INFERENCE TIME BY 51 RULES {{{{Time }}{{MIPS R3000 }}{{ASIC }}{{Regular }}{{With min/mix }}{{6000 inference 1 inference FLIPS }}{{125s 20.8ms 48 }}{{49s 8.2ms 122 }}{{0.0038s 6.4㎲ 156,250 }} }}

  • PDF