• 제목/요약/키워드: 타입정보

검색결과 1,961건 처리시간 0.042초

고정된 패턴 리스트를 사용한 단백질 2차 구조의 검색 (Searching Secondary Structure of Protein Using Fixed Pattern List)

  • 나상준;박상현
    • 한국정보과학회:학술대회논문집
    • /
    • 한국정보과학회 2004년도 봄 학술발표논문집 Vol.31 No.1 (B)
    • /
    • pp.304-306
    • /
    • 2004
  • 단백질의 1차 구조를 통하여 생성되는 단백질 2차 구조는 3가지 타입 E, H, L을 가지고 있다. 단백질 2차 구조는 선형적인 단백질 1차 구조를 공간적으로 형성한 것이며 단백질 2차 구조에 관한 연구는 단백질 기능 예측에 중요한 부분이다. 단백질 2차 구조는 3가지 타입이 각각 그룹을 이루어 나타나는 특징이 있다. 단백질 2차 구조의 이러한 특징을 이용하면 효과적인 검색이 가능하다. 기존의 연구에서는 시퀀스 전체와 질의를 스트링 기반으로 비교하는 방법과 단백질 2차 구조의 세그먼트 테이블을 이용하는 방법을 사용하였다. 하지만 이러한 방법은 검색 비용이 많이 드는 단점이 있다. 본 논문에서는 효과적인 단백질 2차 구조의 검색을 위하여 고정된 패턴을 정 의하고 고정된 패턴을 사용하는 방안을 제시한다.

  • PDF

파일 타입에 의한 웹 캐쉬 분할기법 (Web Cache Partition Strategy based on File Type)

  • 오윤주;한지영;이은화;윤성대
    • 한국정보과학회:학술대회논문집
    • /
    • 한국정보과학회 2003년도 봄 학술발표논문집 Vol.30 No.1 (C)
    • /
    • pp.31-33
    • /
    • 2003
  • 최근 웹 사용자의 수가 급격히 증가하고 있다. 이로 인해 인터넷 객체의 캐슁 기법이 매우 중요한 문제가 되었다. 웹 캐쉬는 전통적인 캐쉬와는 달리 다양한 종류와 크기를 가진 개체를 다루어야 하므로 웹 캐쉬에서 보다 나은 적중률을 얻기 위해 털러 접근 방법들이 연구되고 있다 그에 대한 방법으로 동적인 웹 환경을 고려하면서 캐쉬 공간 관리의 효율성을 높이기 위한 분할캐쉬 접근 방법, 또한 웹 캐쉬의 성능향상에 중요한 역할을 하는 교체 알고리즘에 대한 연구도 계속 진행되어 왔다. 본 논문에서는 캐쉬를 파일 타입에 기반을 둔 클래스별로 분할하고, 각각의 클래스에 효율적인 교체 알고리즘을 사용한다. 그리고 사용자의 객체 요구 변화에 대응하기 위해 일정 간격으로 클래스별 분할비를 갱신한다.

  • PDF

오디세우스 객체관계형 DBMS를 위한 XML 스키마 생성자의 설계 및 구현 (Design and Implementation of an XML Schema Generator for the ODYSSEUS Object-Relational DBMS)

  • 백승현;김민수;한욱신;황규영
    • 한국정보과학회:학술대회논문집
    • /
    • 한국정보과학회 2001년도 가을 학술발표논문집 Vol.28 No.2 (1)
    • /
    • pp.52-54
    • /
    • 2001
  • 최근 웹에서 XML(extensible markup languag) 문서들이 보편화됨에 따라, 기존의 DBMS를 이용하여 XML 문서를 효율적으로 저장하고 관리하는 방법에 대한 연구가 활발히 진행중이다. 이를 위하여 DTD(document type definition)로부터 데이타베이스 스키마를 생성하는 효율적인 방법이 필요하다. 그러나 지금까지는 대부분의 연구가 풍부한 모델링 기능을 제공하는 객체관계형 DBMS 대신에 관계령 DBMS 관점에서 진행되어왔다. 본 논문에서는 객체관계형 DRMS 인 오디세우스를 위한 XML 스키마 생성를 설계하고 구현한다 첫째. DTD로 부터 관계형 데이타베이스 스키마를 생성하는 기존의 방법을 객체관계형 DBMS의 중요한 모델링 기능인 집합 타입과 참조 타입을 이용하도록 수정한다. 둘째, 수정된 방법을 오디세우스 객체관계명 DBMS에 구현한다. 마기막으로, 구현을 용이하게 할 수 있도록 기존의 방법에서 예로서만 기술된 DTD 단순화 방법에 대만 구제적인 알고리즘을 제시한다.

  • PDF

한국어 디비피디아의 자동 스키마 진화를 위한 방법 (A method of Automatic Schema Evolution on DBpedia Korea)

  • 김선동;강민서;이재길
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2014년도 춘계학술발표대회
    • /
    • pp.741-744
    • /
    • 2014
  • 디비피디아 온톨로지는 위키피디아에서 구조화된 데이터를 추출한 지식 베이스이다. 이러한 지식 베이스의 자동 증강은 웹을 구조화하는 속도를 증가시키는데 큰기여를 할 수 있다. 본 연구에서는 한국어 디비피디아를 기반으로 새로운 트리플을 입력받아 기존의 지식 베이스를 자동 증강시키는 시스템을 소개한다. 스키마를 자동 증강하는 두 가지 알고리즘은 최하위 레벨인 인스턴스가 지닌 프로퍼티, 즉 rdf-triple 단위에서 진행되었다. 알고리즘을 사용한 결과 첫째, 확률적 격상 방법을 통해 단계별로 입력받는 인스턴스와 하위 클래스의 프로퍼티를 이용하여 상위 클래스의 스키마가 정교해졌다. 둘째, 이를 바탕으로 타입 분류가 되어 있지 않았던 인스턴스들이 가장 가까운 타입에 자동 분류되었다. 지식 베이스가 정교해지면서 재분류된 인스턴스와 새로운 트리플셋을 바탕으로 두 가지 알고리즘은 반복적으로 작동하며, 한국어 디비피디아 지식 베이스의 자동 증강을 이루었다.

IFF Mode 5 연동 게이트웨이 프로토타입 설계 (A Design of IFF Mode 5 Interworking Gateway Prototype)

  • 남성우;김준영;오선택
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2018년도 춘계학술발표대회
    • /
    • pp.208-211
    • /
    • 2018
  • 현재 해군에서는 기존 전투함에서 사용 중인 IFF Mode 4 를 대체하여 IFF Mode 5 를 도입할 계획을 갖고 있다. IFF Mode 5 기능을 사용하기 위해서는 IFFMode 5 설치뿐만 아니라 IFFMode 5 와 연동을 수행하는 기존 전투함의 전투체계 변경도 필요하다. 하지만 기존 전투함의 전투체계를 변경할 경우 개발 비용과 개발 기간이 크게 증가하게 된다. 본 논문에서는 이를 완화시키기 위한 방안에 대해서 프로토타입을 통해 검증했던 프로젝트를 소개하고, 기존의 전투체계를 변경하지 않는 방식으로 IFFMode 5 와 연동을 수행할 수 있는 게이트웨이 설계 방안을 제시한다.

PCIe 확장 보드용 통신 매체에 대한 응용 레벨 성능 평가 (Application-level Performance Evaluation of Transmission Media for PCIe Expansion)

  • 차광호;구경모;정현미
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2019년도 추계학술발표대회
    • /
    • pp.2-4
    • /
    • 2019
  • PCI Express(PCIe) 버스는 시스템 내·외부의 다양한 디바이스들을 연결하는데 여전히 중요한 역할을 하고 있다. 이 PCIe 버스를 확장하기 위해서 PCIe 스위치가 사용되며 호스트(서버)와 외부 디바이스를 연결할 때 다양한 케이블 미디어가 사용된다. 본 연구에서는 광 타입과 구리선 타입의 2종류 케이블이 장착 가능한 자체 제작된 PCIe 어댑터 카드를 사용하여 응용 프로그램 레벨에서 성능을 확인하였다. 서로 다른 2종류의 디바이스들을 대상으로 실험한 결과, 성능상의 큰 차이는 발견되지 않아서 케이블의 종류와는 무관하게 상호 운영에 크게 문제가 없을 것으로 예상된다.

머신러닝과 OpenCV를 이용한 교실용 자동 출결 관리 시스템 프로토타입 구현 (Implimentation of Automatic Attendance Management System for Classroom Using OpenCV and Machine Learning)

  • 유상엽;김재원;박현준;이충호
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국정보통신학회 2019년도 춘계학술대회
    • /
    • pp.327-329
    • /
    • 2019
  • 본 논문에서는 OpenCV와 머신러닝 기술을 이용하여 교실용 자동 출결 관리 시스템을 제안한다. PC용 범용 카메라를 이용하여 교실 입구에서 얼굴사진을 입력하면 이미 저장된 학생의 얼굴과 유사도를 비교하여 출석이 체크되도록 하는 방식이다. 본 연구에서는 머신러닝 라이브러리 Dlib를 사용하여 사용하여 프로토타입을 구현하였으며 10명의 학생에 대하여 실험한 결과 약 70% 정도의 인식률을 보였다.

  • PDF

인터랙티브 모바일 AR 콘텐츠 빌더의 설계 및 구현 (Design and Implementation of Interactive Mobile AR Contents Builder)

  • 전지영;전지윤;최유주
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2013년도 추계학술발표대회
    • /
    • pp.474-477
    • /
    • 2013
  • 본 논문에서는 모바일 AR 프로그래밍에 대한 지식이 없는 사용자가 쉽게 모바일 AR 콘텐츠 제작을 할 수 있도록 하기 위하여 마커와 가상모델 그리고 인터랙션의 형태와 가상모델의 반응형태를 인터랙티브하게 연결하는 인터랙티브 모바일 AR 콘텐츠 빌더 프로토타입을 설계 및 구현하였다. 우선, 모바일 AR 콘텐츠에서 인터랙션과 반응형태를 분석하기 위하여, 시중에 유통되고 있는 AR 앱들을 수집하여 앱의 특성에 따라 유형을 분류하고, 유형별 사용되는 인터랙션의 종류 및 반응형태를 조사하였다. 조사내용을 바탕으로 사용되는 모바일 AR 콘텐츠 빌더에 포함시킬 인터랙션의 종류 및 반응형태의 메뉴항목들을 설계하였고, 단위 AR 객체를 정의하기 위한 클래스와 이를 저장할 데이터베이스 테이블을 설계하였다. 또한, 정의된 단위 AR 객체의 내용을 다른 응용 프로그램들에서 쉽게 읽고, 가시화 시킬 수 있는 모바일 AR 가시화 클래스를 포함한 모바일 AR 콘텐츠 빌더 프로토타입을 구현하였다.

심근허혈 질환 진단을 위한 스트림 데이터 처리 (Stream Data Processing Prototype Development for Automated Prediction of Myocardial Ischemia)

  • 박진형;;이종범;이헌규;류근호
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2009년도 춘계학술발표대회
    • /
    • pp.360-363
    • /
    • 2009
  • 실시간으로 심장 질환의 진단을 위하여 심전도 신호의 스트림 처리 및 데이터 마이닝 프로토타입을 구현하였다. 신체부착형 센서로부터 전송되는 심전도를 전처리하여 심장질환의 진단 지표를 추출하였고 실시간 진단을 위한 출현 패턴 마이닝 알고리즘을 구현 및 적용하였다. 이를 기반으로 심혈관계 질환에 대하여 실시간 자동 진단 및 예측이 가능한 생체 신호 스트림 데이터 처리 분석 프로토타입을 구현하였다.

식품유통을 위한 프로토타입 센서 데이터처리 시스템 개발 (Development of Prototype Sensor Data Processing System for Food Distribution)

  • 민형준;니 게오르기;이동훈;김수희
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2009년도 춘계학술발표대회
    • /
    • pp.867-870
    • /
    • 2009
  • 이 연구에서는 온도에 민감한 식품을 대상으로 이들이 허용하는 저장 온도의 범위를 데이터베이스에 저장하고, 이들이 유통 중에 유지되는 온도를 측정하여 지정한 범위를 벗어나는지의 여부를 모니터링 하고자 한다. 이를 위해 식품 유통관리를 위한 온도와 위치에 대한 데이터를 RFID를 기반으로 하여 실시간에 수집하여, 허용하는 온도 범위를 벗어나면 경고 이벤트를 발생하는 프로토타입 센스 데이터처리 시스템을 개발한다. 이를 통해 유비쿼터스 환경에서의 센서데이터들의 효율적인 처리에 대한 기술을 축적하며, 향후에는 다양한 상황 데이터들을 필요에 맞게 정제하고 가공하는 기법을 개발하고자 한다.