• 제목/요약/키워드: Domain-Specific Information

검색결과 423건 처리시간 0.035초

EJB 환경에서 컴포넌트의 Required 인터페이스 설계 기법 (Design of Required Interface for Components in EJB Environment)

  • 윤희윤;김수동
    • 정보처리학회논문지D
    • /
    • 제11D권3호
    • /
    • pp.671-682
    • /
    • 2004
  • 다양한 정보기술의 등장과 소프트웨어 복잡성의 증가로 소프트웨어 개발 비용과 노력이 크게 증가하고 있다. 컴포넌트 기반 개발(CBD) 기술은 높은 재사용과 유지보수성을 제공하여 비용과 노력을 크게 절감하는 새로운 방법으로 각광을 받고 있다. CBD에서는 컴포넌트의 사용자가 컴포넌트를 이용해 고유의 도메인에 맞는 시스템을 구축하기 위한 컴포넌트의 가변적인 부분을 가지고 있다. 컴포넌트 내부의 가변적인 부분은 사용자가 컴포넌트에서 제공하는 기능인 Required 인터페이스를 통하여 쉽게 설정할 수 있다. Enterprise JavaBeans(EJB)은 Java 기반의 컴포넌트를 구현할 수 있는 상용 규격으로 활용되고 있다. 그러나 EJB에서 Required 인터페이스를 직접 구현할 수 있는 장치가 제한적이다. 본 논문에서는 EJB 환경에서 Required 인터페이스를 효과적으로 정의하고 子현하기 위한 인터페이스 저장형 기법, 클래스 저장형 기법, 인터페이스 생성형 기법, Plug-in 기법을 제안한다. 인터페이스 저장형 기법은 가변적인 설정 값들은 Required 인터페이스에서 저장하고 있으며 클래스 저장형 기법은 컴포넌트 분석 모델의 수정 없이 가변성을 가진 빈들이 Required 인터페이스로 설정된다. 인터페이스 생성형 기법은 컴포넌트의 가변성을 위한 Required 인터페이스 역할의 민을 새롭게 생성하며 Plug-in 기법은 사용자가 외부로부터 가변적인 부분을 플러그인 하여 가변성을 설정할 수 있다. 제시된 4가지 기법들은 CBD 컴포넌트의 Required 인터페이스의 의미를 보존하며 높은 품질의 컴포넌트 구현을 가능하게 한다.

커뮤니티 주도적 과학 데이터 큐레이션 협업 환경의 개발 (Development of Collaborative Environment for Community-driven Scientific Data Curation)

  • 최동훈;박재원;김병규;신진섭
    • 한국콘텐츠학회논문지
    • /
    • 제17권9호
    • /
    • pp.1-11
    • /
    • 2017
  • 데이터 재사용 수요가 증가할수록 데이터 큐레이션의 중요성에 대한 인식은 점차 증가하고 있다. 데이터의 폭증으로 인해, 과학자들은 전체 노력의 90%를 자신의 연구에 필요한 데이터의 검색 및 수집에 들이고 있다. 이러한 노력을 절감시키기 위해, 본 논문에서는 과학 데이터의 재사용성을 높이는 데 필수적인 커뮤니티 주도적 데이터 큐레이션 협업 환경의 개발 및 적용에 대해 다룬다. 본 과학 큐레이션 협업 환경은 특정연구 분야의 연구 결과 간에 상호 연관성을 포획하고 재구성하기 위해 데이터 (또는 데이터 컬렉션) 및 관련 문헌 간의 상호 연결에 초점을 맞추고 있다. 또한 풍부한 문맥 정보를 메타데이터로 제공하여 사용자의 데이터 이해를 돕는다. 데이터 및 데이터-문헌 간의 상호 연결을 영구적으로 접근할 수 있도록 보장하기 위해, DOI 시스템을 이용하여 실현하였다. 이 큐레이션 협업 환경은 국내외 연구자들로 구성된 무정형 단백질 연구 그룹에 의해 커뮤니티 주도적인 큐레이션 데이터베이스 구축에 적용되었다. 이렇게 구축된 데이터 베이스는 무정형 단백질 연구자의 과학적 발견을 위한 데이터 검색 및 수집 노력을 절감해 줄 것이다.

지킴이: 유닉스 시스템을 위한 통합 보안 점검 도구 (Zkimi : Integrated Security Analysis Tool for UNIX Systems)

  • 채흥석;이남희;김형호;김내희;차성덕;백석철;임규건;박승민;정종윤
    • 정보보호학회논문지
    • /
    • 제7권3호
    • /
    • pp.23-40
    • /
    • 1997
  • 지금까지 유닉스 시스템의 보안을 점검하거나 향상시키기 위하여 다양한 보안 도구들이 공개 소프트웨어(public domain)로 개발되어 사용되었다. 그러나, 대부분의 보안 도구들은 편리하고 일관성 있는 사용자 인터페이스를 제공하지 않으며, 또한 시스템의 특정 부분에 대 한 점검 기능만을 제공한다. 따라서, 시스템의 전반적인 보안을 관리해야 하는 시스템 관리자는 사용하기 불편한 여러 개의 도구들을 함께 사용해야 한다. 게다가, 이러한 도구들은 영어권에서 개발되었기 때문에, 국내의 현실이 잘 반영되지 않는 면이 있다. 본 논문에서는 사용하기 편리하면서 시스템의 전반적인 보안 점검 기능을 제공하는 통합 보안 점검 도구로서 "지킴이"를 구현하였다. 지킴이는 시스템의 전반적인 보안 점검을 위한 계정 보안, 시스템 보안, 네트웍 보안, 화일 변경 검사 기능과, 관리자의 정기적인 시스템 관리를 효율적으로 지원하기 위한 주기적인 보안 점검 기능을 제공한다. 지킴이의 각 기능은 기존의 공개된 대표적인 보안 도구를 바탕으로 하였으며, 기존 도구들의 단순한 조합이 아니라, 시스템 전체의 보안을 위해 필수적인 기능을 제공하도록 구성하였다. 그리고, WWW를 바탕으로 하는 사용자 인터페이스를 제공하기 때문에, 사용자는 기존의 WWW 브라우저를 이용하여 시스템의 전반적인 보안 상태를 점검할 수 있다. 또한, 지킴이를 실제 운용 중인 유닉스 시스템의 보안 상태를 점검하기 위하여 적용하였으며, 이를 통해서 지킴이의 효용성을 확인하였다.용성을 확인하였다.

계량서지적 분석에서 지적구조 매핑을 위한 링크 삭감 알고리즘의 적합도 측정 (Measuring the Goodness of Fit of Link Reduction Algorithms for Mapping Intellectual Structures in Bibliometric Analysis)

  • 이재윤
    • 정보관리학회지
    • /
    • 제39권2호
    • /
    • pp.233-254
    • /
    • 2022
  • 지적구조 분석을 위해 가중 네트워크를 시각화해야 하는 경우에 패스파인더 네트워크와 같은 링크 삭감 알고리즘이 널리 사용되고 있다. 이 연구에서는 네트워크 시각화를 위한 링크 삭감 알고리즘의 적합도를 측정하기 위한 지표로 NetRSQ를 제안하였다. NetRSQ는 개체간 연관성 데이터와 생성된 네트워크에서의 경로 길이 사이의 순위 상관도에 기반하여 네트워크의 적합도를 측정한다. NetRSQ의 타당성을 확인하기 위해서 몇 가지 네트워크 생성 방식에 대해 정성적으로 평가를 했었던 선행 연구의 데이터를 대상으로 시험적으로 NetRSQ를 측정해보았다. 그 결과 품질이 좋게 평가된 네트워크일수록 NetRSQ가 높게 측정됨을 확인하였다. 40가지 계량서지적 데이터에 대해서 4가지 링크 삭감 알고리즘을 적용한 결과에 대해서 NetRSQ로 품질을 측정하는 실험을 수행한 결과, 특정 알고리즘의 네트워크 표현 결과가 항상 좋은 품질을 보이는 것은 아니며, 반대로 항상 나쁜 품질을 보이는 것도 아님을 알 수 있었다. 따라서 이 연구에서 제안한 NetRSQ는 생성된 계량서지적 네트워크의 품질을 측정하여 최적의 기법을 선택하는 근거로 활용될 수 있을 것이다.

주가지수 방향성 예측을 위한 주제지향 감성사전 구축 방안 (Predicting the Direction of the Stock Index by Using a Domain-Specific Sentiment Dictionary)

  • 유은지;김유신;김남규;정승렬
    • 지능정보연구
    • /
    • 제19권1호
    • /
    • pp.95-110
    • /
    • 2013
  • 최근 다양한 소셜미디어를 통해 생성되는 비정형 데이터의 양은 빠른 속도로 증가하고 있으며, 이를 저장, 가공, 분석하기 위한 도구의 개발도 이에 맞추어 활발하게 이루어지고 있다. 이러한 환경에서 다양한 분석도구를 통해 텍스트 데이터를 분석함으로써, 기존의 정형 데이터 분석을 통해 해결하지 못했던 이슈들을 해결하기 위한 많은 시도가 이루어지고 있다. 특히 트위터나 페이스북을 통해 실시간에 근접하게 생산되는 글들과 수많은 인터넷 사이트에 게시되는 다양한 주제의 글들은, 방대한 양의 텍스트 분석을 통해 많은 사람들의 의견을 추출하고 이를 통해 향후 수익 창출에 기여할 수 있는 새로운 통찰을 발굴하기 위한 움직임에 동기를 부여하고 있다. 뉴스 데이터에 대한 오피니언 마이닝을 통해 주가지수 등락 예측 모델을 제안한 최근의 연구는 이러한 시도의 대표적 예라고 할 수 있다. 우리가 여러 매체를 통해 매일 접하는 뉴스 역시 대표적인 비정형 데이터 중의 하나이다. 이러한 비정형 텍스트 데이터를 분석하는 오피니언 마이닝 또는 감성 분석은 제품, 서비스, 조직, 이슈, 그리고 이들의 여러 속성에 대한 사람들의 의견, 감성, 평가, 태도, 감정 등을 분석하는 일련의 과정을 의미한다. 이러한 오피니언 마이닝을 다루는 많은 연구는, 각 어휘별로 긍정/부정의 극성을 규정해 놓은 감성사전을 사용하며, 한 문장 또는 문서에 나타난 어휘들의 극성 분포에 따라 해당 문장 또는 문서의 극성을 산출하는 방식을 채택한다. 하지만 특정 어휘의 극성은 한 가지로 고유하게 정해져 있지 않으며, 분석의 목적에 따라 그 극성이 상이하게 나타날 수도 있다. 본 연구는 특정 어휘의 극성은 한 가지로 고유하게 정해져 있지 않으며, 분석의 목적에 따라 그 극성이 상이하게 나타날 수도 있다는 인식에서 출발한다. 동일한 어휘의 극성이 해석하는 사람의 입장에 따라 또는 분석 목적에 따라 서로 상이하게 해석되는 현상은 지금까지 다루어지지 않은 어려운 이슈로 알려져 있다. 구체적으로는 주가지수의 상승이라는 한정된 주제에 대해 각 관련 어휘가 갖는 극성을 판별하여 주가지수 상승 예측을 위한 감성사전을 구축하고, 이를 기반으로 한 뉴스 분석을 통해 주가지수의 상승을 예측한 결과를 보이고자 한다.

키워드 자동 생성에 대한 새로운 접근법: 역 벡터공간모델을 이용한 키워드 할당 방법 (A New Approach to Automatic Keyword Generation Using Inverse Vector Space Model)

  • 조원진;노상규;윤지영;박진수
    • Asia pacific journal of information systems
    • /
    • 제21권1호
    • /
    • pp.103-122
    • /
    • 2011
  • Recently, numerous documents have been made available electronically. Internet search engines and digital libraries commonly return query results containing hundreds or even thousands of documents. In this situation, it is virtually impossible for users to examine complete documents to determine whether they might be useful for them. For this reason, some on-line documents are accompanied by a list of keywords specified by the authors in an effort to guide the users by facilitating the filtering process. In this way, a set of keywords is often considered a condensed version of the whole document and therefore plays an important role for document retrieval, Web page retrieval, document clustering, summarization, text mining, and so on. Since many academic journals ask the authors to provide a list of five or six keywords on the first page of an article, keywords are most familiar in the context of journal articles. However, many other types of documents could not benefit from the use of keywords, including Web pages, email messages, news reports, magazine articles, and business papers. Although the potential benefit is large, the implementation itself is the obstacle; manually assigning keywords to all documents is a daunting task, or even impractical in that it is extremely tedious and time-consuming requiring a certain level of domain knowledge. Therefore, it is highly desirable to automate the keyword generation process. There are mainly two approaches to achieving this aim: keyword assignment approach and keyword extraction approach. Both approaches use machine learning methods and require, for training purposes, a set of documents with keywords already attached. In the former approach, there is a given set of vocabulary, and the aim is to match them to the texts. In other words, the keywords assignment approach seeks to select the words from a controlled vocabulary that best describes a document. Although this approach is domain dependent and is not easy to transfer and expand, it can generate implicit keywords that do not appear in a document. On the other hand, in the latter approach, the aim is to extract keywords with respect to their relevance in the text without prior vocabulary. In this approach, automatic keyword generation is treated as a classification task, and keywords are commonly extracted based on supervised learning techniques. Thus, keyword extraction algorithms classify candidate keywords in a document into positive or negative examples. Several systems such as Extractor and Kea were developed using keyword extraction approach. Most indicative words in a document are selected as keywords for that document and as a result, keywords extraction is limited to terms that appear in the document. Therefore, keywords extraction cannot generate implicit keywords that are not included in a document. According to the experiment results of Turney, about 64% to 90% of keywords assigned by the authors can be found in the full text of an article. Inversely, it also means that 10% to 36% of the keywords assigned by the authors do not appear in the article, which cannot be generated through keyword extraction algorithms. Our preliminary experiment result also shows that 37% of keywords assigned by the authors are not included in the full text. This is the reason why we have decided to adopt the keyword assignment approach. In this paper, we propose a new approach for automatic keyword assignment namely IVSM(Inverse Vector Space Model). The model is based on a vector space model. which is a conventional information retrieval model that represents documents and queries by vectors in a multidimensional space. IVSM generates an appropriate keyword set for a specific document by measuring the distance between the document and the keyword sets. The keyword assignment process of IVSM is as follows: (1) calculating the vector length of each keyword set based on each keyword weight; (2) preprocessing and parsing a target document that does not have keywords; (3) calculating the vector length of the target document based on the term frequency; (4) measuring the cosine similarity between each keyword set and the target document; and (5) generating keywords that have high similarity scores. Two keyword generation systems were implemented applying IVSM: IVSM system for Web-based community service and stand-alone IVSM system. Firstly, the IVSM system is implemented in a community service for sharing knowledge and opinions on current trends such as fashion, movies, social problems, and health information. The stand-alone IVSM system is dedicated to generating keywords for academic papers, and, indeed, it has been tested through a number of academic papers including those published by the Korean Association of Shipping and Logistics, the Korea Research Academy of Distribution Information, the Korea Logistics Society, the Korea Logistics Research Association, and the Korea Port Economic Association. We measured the performance of IVSM by the number of matches between the IVSM-generated keywords and the author-assigned keywords. According to our experiment, the precisions of IVSM applied to Web-based community service and academic journals were 0.75 and 0.71, respectively. The performance of both systems is much better than that of baseline systems that generate keywords based on simple probability. Also, IVSM shows comparable performance to Extractor that is a representative system of keyword extraction approach developed by Turney. As electronic documents increase, we expect that IVSM proposed in this paper can be applied to many electronic documents in Web-based community and digital library.

추심경호적지방(追寻更好的地方): 유포장적소비품적산업적가지속발전(有包装的消费品的产业的可持续发展) (Seeking a Better Place: Sustainability in the CPG Industry)

  • Rapert, Molly Inhofe;Newman, Christopher;Park, Seong-Yeon;Lee, Eun-Mi
    • 마케팅과학연구
    • /
    • 제20권2호
    • /
    • pp.199-207
    • /
    • 2010
  • "对我们而言, 成为一名负责的公民和一份成功的事业之间没有区别.....他们对今天的沃尔玛是完全一样的." Lee Scott, 沃尔玛的CEO在2005年卡崔琳娜飓风灾难之后(Esty and Winston 2006) Lee Scott的声明标志着可持续发展的一个新的时代. 作为一个被全球生产商和零售商所关注的全世界最大规模的经销商确认了他们的可持续发展的意图. 近十年来, 环保运动不断增长, 并扩展到全世界. 公司已经诞生, 产品已被创造, 学术期刊 已经展开, 政府已经承诺—所有这一切都在追求可持续发展(Peattie and Crane 2005). 虽然进展的确比一些人渴望的慢了一些, 但是很多大规模的经销商已经为环保做出了可持续发展的努力. 为了更好的理解这个运动我们同时提供高管和消费者参与的有包装的消费品产业的角度. 该研究依赖于三个潜在主题: (1)概念和证据表明,公司为很多理由进行可持续发展 (2)在有包装的消费品行业中, 可持续发展活动的数量在持续增长 (3), 因此, 必须探索可持续发展在消费者意识中起的作用. 根据这些主题, 143名大学生和101名企业高管参加了调查来评估一系列的有关可持续发展的变量包括愿意支付, 行为意图, 态度和偏好. 结果显示高层管理者相信可持续发展的三个最主要的原因是(1)盈利能力的机会; (2)以实现对环境的义务; (3)对顾客和股东负责. 大学生的三大原因: (1)对环境的责任; (2)为子孙后代负责, 和(3):一种有效的管理资源. 虽然企业高管和大学生对支持可持续发展的理由不同, 但是企业高管和消费者的报告显示了对剩下大部分的可持续发展问题的相似性. 另外, 当我们要求消费者去评估6个关键问题的重要性时(医疗保健, 经济, 教育, 犯罪, 政府支出, 和环境), 保护环境仅排在第四位(Carlson 2005). 这6个问题都被认为是重要的, 三个最重要的是(1)改善教育;(2)本地区的经济发展,以及(3)卫生保健. 为了可持续发展的持续性, 我们也将预期结果. 反映社会, 企业利益表现的新定义和执行期的延长同样被揭示出来(Ehrenfeld 2005; Hitchcock and Willard 2006). 基于文献我们发现了三个基本范畴的结果:(1)改进组成的满意度, (2)分化的机会, 以及(3)金融奖励. 在每一种分类中, 我们发现从可持续发展活动中导致11种不同结果的几个特定的结果. 我们的调查结果表明,最有可能的结果最高的前五项依序为公司的可持续发展追求的是:(1)绿色的消费者将会更令人满意;(2)公司形象会更好, (3)公司的责任将得到加强, (4)会降低能源成本;(5)产品将会更多的创新. 另外, 为更好的理解消费者的环境 "身份" 和在市场购买中愿意显示出这个 "身份" 的有趣的交集, 我们扩展了以前Experian Research(2008) 的研究. 因此,受访者分为四个不同类型的绿色消费者(行为绿色,想法绿色, 潜在绿色, 或真正褐色)来获得更好的理解绿色消费者. 我们评估这些消费者愿意从事环保行为评估三种选择. (1)购物零售商支持环保措施;(2)支付更多来保护环境, 以及(3)支付更高的税收,政府可以支持环保措施. 想法绿色消费者表示最愿意改变, 紧随其后的是行为绿色消费者, 潜在绿色消费者和褐色消费者. 这些差异都是显著的(p<.01). 结论和启示我们采用描述性研究, 旨在促进我们理解战略领域的可持续性. 确切地说, 该研究以特定的偏好, 意图, 愿意支付, 行为和态度填补了进行比较与对比的持续性的商业管理者和消费者意见的文献的空白, 对从业人员, 能获得一个战略观点. 此外, 许多结果已经说明, 受访者愿意为产品付出更多来保护环境. 其他特定的结果表明, 女性受访者始终比男性强愿意交流, 为这些产品付更多的钱, 在环保的零售商. 了解这些额外的信息, 实践者现在有了更多的特定市场, 对目标和交流他们为可持续发展所做出的努力. 虽然这项研究仅仅是最初的一步了解实践者和消费者对于可持续发展的异同, 我们的结果对实践与研究都有帮助. 未来的研究应向测试其他变量的影响关系, 以及其他特殊行业.

서비스 재사용성 중심의 Software-as-a-Service 개발 프로세스 (A Service Reusability-Centric Process for Developing Software-as-a-Service)

  • 이정우;라현정;김수동
    • 한국정보과학회논문지:소프트웨어및응용
    • /
    • 제37권7호
    • /
    • pp.518-535
    • /
    • 2010
  • 클라우드 컴퓨팅은 하드웨어와 소프트웨어의 자원을 서비스 제공자 서버에 운영하고, 소비자가 인터넷을 통하여 필요한 서비스를 활용하는 재사용 기반의 컴퓨팅 방식이다. 클라우드 서비스의 한 형태인 SaaS(Software-as-a-Service)는 소프트웨어를 하나의 서비스로 설계 개발한 후, 다양한 소비자들이 재사용하도록 하는 컴퓨팅을 지향한다. 기존의 소프트웨어 어플리케이션은 특정한 하나의 조직을 대상으로 개발하였으나, SaaS는 서비스의 형태로 소프트웨어의 전체 기능을 필요로 하는 다양한 조직에 소속된 다양한 소비자들이 사용할 수 있게 개발된다. 이것은 소비자가 자신이 원하는 기능의 수행을 위해 직접 SaaS를 설정할 수 없게 하여 SaaS 개발에 재사용성이 더욱 강조되게 한다. 하지만 기존의 객체지향 개발 방법론, 컴포넌트 기반 개발 기법, SOA 개발 기법들은 전통적인 소프트웨어 어플리케이션과 다른 SaaS가 가지는 재사용성의 특징을 반영한 설계와 구현을 지원하는 지침과 장치가 거의 없다. 따라서 본 논문에서는 이러한 문제를 해결하기 위해 기존 재사용성의 정의를 확장하여 SaaS의 재사용성을 적용성, 적응성, 확장성의 부 특성으로 구분하고 이를 반영한 재사용성 중심의 개발 프로세스를 제시한다. SaaS 재사용성의 각부 특성은 제시하는 개발 프로세스의 분석과 설계를 위한 각 활동에 직 간접적으로 반영되어 보다 효과적으로 SaaS 재사용성을 향상시킨다. 제시된 프로세스를 적용하면 보다 체계적이고 효과적으로 재사용성 중심의 SaaS 개발을 유도할 수 있다.

Mycobacterium tuberculosis H37Rv로부터 유래된 철-황 함유 효소인 L-세린 탈수화효소의 동력학적 특성 (Kinetic Characterization of an Iron-sulfur Containing Enzyme, L-serine Dehydratase from Mycobacterium tuberculosis H37Rv)

  • 한유정;이기석
    • 생명과학회지
    • /
    • 제28권3호
    • /
    • pp.351-356
    • /
    • 2018
  • L-세린 탈수화효소(LSD)는 L-serine을 피루브산과 암모니아로 전환하는 반응을 촉매하는 iron-sulfur 함유 효소이다. 세균성 아미노산 탈수화 효소 중에서, L-serine에 대한 이들 특정 효소만이 촉매 부위에서 iron-sulfur cluster를 이용하는 것으로 보고되고 있다. 또한, 세균성 LSD는 구조적 특성과 도메인의 배열에 따라 네 가지 유형으로 분류된다. 현재까지, 이 효소들은 소수의 균주로부터 얻어진 LSD 효소에 대해서만 연구되었지만, 다양한 세균성 LSD의 촉매 메커니즘을 이해하기 위해서는 더 많은 자세한 조사가 요구된다. 본 연구에서, Mycobacterium tuberculosis H37Rv로부터 유래된 유형 II LSD (MtLSD) 단백질을 효소 동력학적 방법을 이용하여 생화학적 및 촉매적 특성을 규명하기 위해 발현 및 정제되었다. MtLSD에 대한 L-serine의 포화 곡선은 알로스테릭 협동성(allosteric cooperativity)을 나타내는 전형적인 S자형(sigmoid)의 특성을 보였다. 이때의 $K_m$$k_{cat}$ 값은 각각 $59.35{\pm}1.23mM$$18.12{\pm}0.20s^{-1}$로 계산되었다. 또한, 고정된 L-serine 농도 하에서 D-serine의 농도 대비 초속도에 대한 그래프는 비선형 쌍곡선 감쇠 형태를 보였고, $k_{cat}$ 값의 변화 없이 $30.46{\pm}5.93mM$의 겉보기 $K_i$ 값으로 D-serine에 대한 경쟁적 억제(competitive inhibition)를 나타내었다. 이들 연구는 MtLSD의 촉매 특성 및 기질 특이성에 관한 통찰력 있는 생화학적 정보를 제공한다.

Design, Analysis, and Equivalent Circuit Modeling of Dual Band PIFA Using a Stub for Performance Enhancement

  • Yousaf, Jawad;Jung, Hojin;Kim, Kwangho;Nah, Wansoo
    • Journal of electromagnetic engineering and science
    • /
    • 제16권3호
    • /
    • pp.169-181
    • /
    • 2016
  • This work presents a new method for enhancing the performance of a dual band Planer Inverted-F Antenna (PIFA) and its lumped equivalent circuit formulation. The performance of a PIFA in terms of return loss, bandwidth, gain, and efficiency is improved with the addition of the proposed open stub in the radiating element of the PIFA without disturbing the operating resonance frequencies of the antenna. In specific cases, various simulated and fabricated PIFA models illustrate that the return loss, bandwidth, gain, and efficiency values of antennas with longer optimum open stub lengths can be enhanced up to 4.6 dB, 17%, 1.8 dBi, and 12.4% respectively, when compared with models that do not have open stubs. The proposed open stub is small and does not interfere with the surrounding active modules; therefore, this method is extremely attractive from a practical implementation point of view. The second presented work is a simple procedure for the development of a lumped equivalent circuit model of a dual band PIFA using the rational approximation of its frequency domain response. In this method, the PIFA's measured frequency response is approximated to a rational function using a vector fitting technique and then electrical circuit parameters are extracted from it. The measured results show good agreement with the electrical circuit results. A correlation study between circuit elements and physical open stub lengths in various antenna models is also discussed in detail; this information could be useful for the enhancement of the performance of a PIFA as well as for its systematic design. The computed radiated power obtained using the electrical model is in agreement with the radiated power results obtained through the full wave electromagnetic simulations of the antenna models. The presented approach offers the advantage of saving computation time for full wave EM simulations. In addition, the electrical circuit depicting almost perfect characteristics for return loss and radiated power can be shared with antenna users without sharing the actual antenna structure in cases involving confidentiality limitations.