• 제목/요약/키워드: Design Toolkit

검색결과 97건 처리시간 0.019초

모바일 표준 플랫폼(WIPI) 검증 도구 설계 및 개발 (The Design and Development of a WIPI Certification Toolkit)

  • 이상윤;이환구;최병욱
    • 정보처리학회논문지D
    • /
    • 제13D권5호
    • /
    • pp.731-740
    • /
    • 2006
  • WIPI는 한국무선인터넷표준화 포럼에서 개발하였으며 한국정보통신기술협회가 채택한 무선인터넷 표준 플랫폼이다. 상호 호환성을 보장받기 위해서는 개발한 WIPI플랫폼이 표준을 준수하고 있는지 검증하는 절차가 필요하다. WIPI는 하드웨어 추상화 계층인 HAL, 실행 엔진, 그리고 API(WIPI-C, WIPI-Java)로 나뉘어져 있다. WIPI 응용 프로그램은 WIPI API를 이용해 작성되며 WIPI API는 자체적으로 수행이 완료될 수도 있고 이벤트나 사용자 입력을 처리하기 위해 실행 엔진 또는 HAL 계층으로부터 필요한 기능을 제공받기도 한다. 따라서, 응용 프로그램에서 오류가 발생했을 때 어느 계층에서 문제점이 발생했는지 검증하는 것이 필요하다. 본 논문에서 WIPI 규격에 대한 검증 도구로서 플랫폼의 전체 기능과 API에 대한 검증 도구인 PCT와 하드웨어 추상화 계층인 HAL의 API 검증 도구인 HCT를 제안한다. PCT는 최종적으로 플랫폼에 대한 검증 결과만을 보고하기 때문에 검증에 실패하면 어느 계층에서 문제점이 발생했는지 알 수 가 없다. 따라서 문제점이 발생한 지점을 정확히 진단하고 정정하기 위해서는 전체 플랫폼에 대한 인증과는 별도로 HAL에 대한 인증이 필요하다.

대규모 양자컴퓨팅 회로 3차원 시각화 기법 (3D Circuit Visualization for Large-Scale Quantum Computing)

  • 김주환;최병수;조동식
    • 한국정보통신학회논문지
    • /
    • 제25권8호
    • /
    • pp.1060-1066
    • /
    • 2021
  • 최근, 양자컴퓨터를 활용하기 위한 연구개발이 다양한 분야에서 활발하게 이루어지고 있다. 양자컴퓨터는 양자 얽힘, 양자중첩과 같은 다양한 양자역학의 현상과 특성을 활용하여 연산을 수행하기 때문에 기존 컴퓨팅 환경에 비해 아주 복잡한 연산과정을 거치게 된다. 이러한 양자컴퓨터를 구동하기 위해서는 연산에 활용되는 양자게이트의 구성뿐만 아니라 큐비트의 종류, 배치, 연결성 등 물리적인 양자컴퓨터의 요소를 반영한 알고리즘이 구성되어야 한다. 따라서 양자컴퓨터 구성요소들의 상호간 영향을 포함한 구성 정보를 직관적으로 파악할 수 있는 회로 시각화가 필요하다. 본 논문에서는 양자컴퓨터를 구성하는 양자칩 정보와 양자컴퓨팅 회로 데이터를 3D로 시각화하여 직관적으로 데이터를 관측하고 활용할 수 있도록 시각화 하여 직관적인 정보를 분석할 수 있는 방법을 제안한다.

바이너리 정적 분석 기반 Out-of-Bounds Read 취약점 유형 탐지 연구 (A Out-of-Bounds Read Vulnerability Detection Method Based on Binary Static Analysis)

  • 유동민;김문회;오희국
    • 정보보호학회논문지
    • /
    • 제31권4호
    • /
    • pp.687-699
    • /
    • 2021
  • 프로그램에서 취약점이 발생하면 그에 대한 정보가 문서화되어 공개된다. 그러나 일부 취약점의 경우 발생한 원인과 그 소스코드를 공개하지 않는다. 이러한 정보가 없는 상황에서 취약점을 찾기 위해서는 바이너리 수준에서 코드를 분석해야 한다. 본 논문에서는 Out-of-bounds Read 취약점 유형을 바이너리 수준에서 찾는 것을 목표로 한다. 바이너리에서 취약점을 탐지하는 기존의 연구는 주로 동적 분석을 이용한 도구로 발표되었다. 동적 분석의 경우 프로그램 실행 정보를 바탕으로 취약점을 정확하게 탐지할 수 있지만, 모든 실행 경로를 탐지하지 못할 가능성이 있다. 모든 프로그램 경로를 분석하기 위해서는 정적 분석을 사용해야 한다. 기존의 정적 도구의 경우 소스코드 기반의 도구들이며, 바이너리에 수준의 정적 도구는 찾기 어렵다. 본 논문에서는 바이너리 정적 분석을 통해 취약점을 탐지하며, 메모리 구조를 모델링하는 방법으로 Heap, Stack, Global 영역의 취약점을 탐지한다. 실험 결과 기존의 탐지도구인 BAP_toolkit과 비교하였을 때 탐지 정확도 및 분석 시간에서 의미 있는 결과를 얻었다.

A Novel Two-Stage Training Method for Unbiased Scene Graph Generation via Distribution Alignment

  • Dongdong Jia;Meili Zhou;Wei WEI;Dong Wang;Zongwen Bai
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제17권12호
    • /
    • pp.3383-3397
    • /
    • 2023
  • Scene graphs serve as semantic abstractions of images and play a crucial role in enhancing visual comprehension and reasoning. However, the performance of Scene Graph Generation is often compromised when working with biased data in real-world situations. While many existing systems focus on a single stage of learning for both feature extraction and classification, some employ Class-Balancing strategies, such as Re-weighting, Data Resampling, and Transfer Learning from head to tail. In this paper, we propose a novel approach that decouples the feature extraction and classification phases of the scene graph generation process. For feature extraction, we leverage a transformer-based architecture and design an adaptive calibration function specifically for predicate classification. This function enables us to dynamically adjust the classification scores for each predicate category. Additionally, we introduce a Distribution Alignment technique that effectively balances the class distribution after the feature extraction phase reaches a stable state, thereby facilitating the retraining of the classification head. Importantly, our Distribution Alignment strategy is model-independent and does not require additional supervision, making it applicable to a wide range of SGG models. Using the scene graph diagnostic toolkit on Visual Genome and several popular models, we achieved significant improvements over the previous state-of-the-art methods with our model. Compared to the TDE model, our model improved mR@100 by 70.5% for PredCls, by 84.0% for SGCls, and by 97.6% for SGDet tasks.

그리드에서 서비스 기반 가상 탐색 시스템 설계 및 구현 (Design and Implementation of Service based Virtual Screening System in Grids)

  • 이화민;진성호;이종혁;이대원;박성빈;유헌창
    • 한국정보과학회논문지:시스템및이론
    • /
    • 제35권6호
    • /
    • pp.237-247
    • /
    • 2008
  • 가상 탐색은 대규모의 화학분자 데이타베이스의 화학분자 데이타들을 분자 다킹과 같은 컴퓨팅 기술을 이용하여 한정된 소규모의 화학분자만을 스크리닝하는 과정으로, 대규모 컴퓨팅 파워와 데이터 저장 용량을 요구하는 대표적인 대규모의 과학 어플리케이션이다. AutoDock, FlexX, Glide, DOCK, LigandFit, ViSION 등과 같은 기존의 분자 다킹 소프트웨어나 어플리케이션들은 슈퍼 컴퓨터, 단일 클러스터, 또는 단일 워크스테이션 둥을 이용하여 작업을 수행하도록 개발되었다. 하지만 슈퍼컴퓨터를 이용한 가상 탐색은 너무 많은 비용이 든다는 문제점이 있고, 단일 클러스터나 워크스테이션을 이용한 가상 탐색은 오랜 수행 시간이 요구되는 문제점을 가지고 있다. 이에 본 논문에서는 대규모의 데이타 집약적인 연산을 지원하는 그리드 컴퓨팅 기술을 이용하는 서비스 기반 가상 탐색 시스템을 제안한다. 이를 위해 본 논문에서는 가상 탐색을 위한 3차원 화학 데이타베이스를 구축하였다. 그리고 효율적인 분자 다킹 서비스를 제공하기 위해 자원 브로커와 데이타 브로커를 설계하고 가상 탐색을 위한 다양한 서비스들을 제안하였다. 본 논문에서는 DOCK 5.0과 Globus 3.2를 이용하여 서비스 기반 가상 탐색 시스템을 구현하고 성능 평가를 실시하였다. 본 논문에서 구현한 서비스 기반 가상 탐색 시스템은 신약 개발이나 신소재 개발 과정에서 연구 개발 기간을 단축하고 개발 비용을 절감할 수 있다.

무선 인터넷 서비스를 위한 WAP 게이트웨이용 WML 컴파일러의 설계 및 구현 (A Design and Implementation of WML Compiler for WAP Gateway for Wireless Internet Services)

  • 최은정;한동원;임경식
    • 한국정보과학회논문지:컴퓨팅의 실제 및 레터
    • /
    • 제7권2호
    • /
    • pp.165-182
    • /
    • 2001
  • 무선 마크업 언어(Wireless Markup Language) 컴파일러는 텍스트로 구성된 문서를 바이너리 문서로 변환, 압축함으로써, 낮은 대역폭을 갖는 무선 선로에서 트래픽을 감소시키며, 낮은 성능을 갖고 있는 이동 단말기에서 브라우징 처리를 간단하게 하는 역할을 한다. 또한 이러한 변환 과정에서 확장 마크업 언어(eXtensible Markup Language)의 well-formedness와 validation 과정을 동시에 처리함으로써, 이동 단말기에서 문서처리 부담을 대폭 경감하는 효과를 가져온다. 본 논문에서 구현한 무선 마크업 언어 컴파일러는 어휘분석기 모듈과 파서 모듈로 구성되어 있는데, 파서 모듈은 파서 생성기를 사용하여 구현하였다. 이는 향후 응용 수준에서 보안 기능을 제공하기 위하여 태그를 확장하거나 무선 마크업 언어의 버전이 업그레이드 될 때에서 변경된 부분에 해당하는 문법만 다시 설계함을써 유연하게 대처할 수 있는 장점을 가지고 있다. 사용된 문법은 LALR(1) context-free 문법으로서, 확장 마크업 언어 1.0과 무선 마크업 언어 1.2의 문서 형태 정의(Document Type Definition)를 기반으로 무선 응용 프로토콜 바이너리 확장 마크업 언어(Wireless Application Protocol Binary XML) 문법을 고려하여 설계되었다. 구현된 컴파일러의 기능을 실험하여 데모하기 위하여 세 가지 방법(수작업, WML 디컴파일러, 노키아 WAP 툴킷)을 사용하였으며, 다양한 태그 조합을 갖는 임의의 130여 개 문서에 대해 실험한 결과, 최대 85%의 압축효과를 얻을 수 있었다. 그러나, 태그나 속성에 비해 일반 문자열 데이타가 많아지면 상대적으로 압축효과가 감소되므로, Hyper Text Markup Language 문서로부터 무선 마크업 언어 문서로 자동 변환된 텍스트를 인코딩하는 경우와 같이 특정한 응용 분야에서는 일반 문자열에 대한 확장 인코딩 기법을 적용할 필요가 있을 수 있다.

  • PDF

인공지능 서비스 거버넌스 연구 (Governance research for Artificial intelligence service)

  • 유순덕
    • 한국인터넷방송통신학회논문지
    • /
    • 제24권2호
    • /
    • pp.15-21
    • /
    • 2024
  • 본 연구의 목적은 일반적인 서비스 뿐만 아니라 공공정책 등에 인공지능 서비스를 도입할 때, 어떤 단계를 통해 진행하고 점검할 수 있는지 방안에 대해 제안을 하고 있다. 이를 위해 인공지능 서비스 관리와 거버넌스 툴킷에 대해 제시하고 공공정책에 인공지능 서비스를 제공할 때, 어떻게 해야 하는지에 대한 내용을 연구하였다. 첫째, 인공지능 서비스의 개발 방향과 개발하지 말아야 할 내용에 대한 지침을 제공하고 있다. 둘째, 개발을 하는 경우 인공지능 거버넌스툴킷에서 제공하고 있는 설계, 개발, 배포단계별로 검토해야 하는 체크 리스트를 통해 내용을 점검 후 진행하는 것을 권장하고 있다. 셋쨰, 인공지능 서비스를 운영할 시 1) 기획설계, 수명주기, 3) 모델 구축 및 검증, 4) 배포 및 모니터링, 5) 책임에 대한 각각 원칙과 관련 내용을 명확히 제시하고 이에 충족하고 있는지에 대해 점검을 해야 한다. 인공지능서비스의 거버넌스 측면은 궁극적으로 제공되는 서비스에 대한 위험 측면을 완화하려는 노력으의 일환이므로 등장할 수 있는 위험관리 측면에서도 연구가 이루어져야 한다. 우리는 인공지능에 제공하는 장점을 수용하면서 한계 및 위험요소에 대한 적극적인 대응 방안으로 마련해야 한다. 인공지능 기술을 적극적 활용하여 효율적으로 정책 수립하여 고부가가치를 생성하고 사회에 의미 있는 영향을 제공할 수 있도록 노력해야 한다.