• 제목/요약/키워드: Dedicated library

검색결과 48건 처리시간 0.02초

사서학습공동체에 관한 사서의 인식 및 수요조사 (A Survey of Librarians' Awareness and Demand for Librarian Learning Communities)

  • 정영미;노영희
    • 한국문헌정보학회지
    • /
    • 제58권1호
    • /
    • pp.99-122
    • /
    • 2024
  • 본 연구는 사서학습공동체 운영 가능성과 성공적인 도입을 위해 사서학습공동체에 대한 사서의 인식 및 수요를 조사한 것이다. 이를 위해 도서관 현직 사서를 대상으로 온라인 설문조사를 실시하였고 총 474건의 응답을 수집하였다. 주요 분석 결과는 다음과 같다. 첫째, 사서학습공동체에 대해 사서는 매우 낮은 인식을 지니고 있었지만 사서학습공동체 운영의 취지와 의미에 대해서는 높이 평가하였다. 둘째, 사서학습공동체의 참여동기는 전문성 신장, 동료들과의 연대, 지적 호기심 충족 등의 순으로 나타났다. 셋째, 사서는 사서학습공동체의 궁극적 가치로 도서관 서비스 개선, 전문성 함양, 협력적 집단 탐구, 가치와 비전 공유의 순으로 응답했다. 넷째, 사서학습공동체의 성공요인은 구성원의 자발성, 구성원 간의 협력 문화, 일과시간 확보(주 1회), 지원 환경(예산, 공간 등) 등 순으로 나타났고, 실패 요인은 사서 업무 과중으로 인한 시간 부족, 구성원의 자발성 부족, 기관장의 무관심, 지원 환경(예산, 공간 등)의 부족으로 나타났다. 마지막으로 사서의 사서학습공동체 참여의지는 매우 높은 것으로 나타났으며, 관심있는 주제 또한 매우 다양하게 나타났다. 본 연구의 결과는 향후 사서학습공동체 운영 시, 실질적인 운영 방식의 결정이나 주제 선정 등의 기초자료로 활용할 수 있을 것이다.

구문 요소의 저장 공간을 효과적으로 줄인 H.264/AVC CABAC 부호화기 설계 (Design of H.264/AVC CABAC Encoder with an Efficient Storage Reduction of Syntax Elements)

  • 김윤섭;문전학;이성수
    • 대한전자공학회논문지SD
    • /
    • 제47권4호
    • /
    • pp.34-40
    • /
    • 2010
  • 본 논문에서는 H.264/AVC에서 구문 요소의 저장 공간을 줄인 효율적인 CABAC 부호화기를 제안하였다. 제안하는 구조는 모든 블록을 하드웨어 기반으로 설계하여 프로세서에 의존하지 않고 빠른 처리가 가능하다. 또한 CABAC 부호화기의 문맥 모델러에서는 문맥 모델을 유도하기 위해 이웃 블록의 데이터가 필요한데 이웃 블록 데이터를 가공하지 않은 상태로 전부 저장하게 된다면 메모리 용량이 비효율적으로 커지게 된다. 따라서 본 논문에서는 이웃 블록 데이터를 효율적으로 저장하여 메모리 크기를 감소시키는 방법을 사용한다. 제안하는 CABAC 부호화기는 0.18um 표준 셀 라이브러리를 이용하여 합성한 결과 35,463 게이트의 면적을 사용하였으며, 최대 180MHz까지 동작이 가능하고 입력 심벌 당 소요되는 사이클 수는 약 1에 가깝다.

Development of Real time Air Quality Prediction System

  • Oh, Jai-Ho;Kim, Tae-Kook;Park, Hung-Mok;Kim, Young-Tae
    • 한국환경과학회:학술대회논문집
    • /
    • 한국환경과학회 2003년도 International Symposium on Clean Environment
    • /
    • pp.73-78
    • /
    • 2003
  • In this research, we implement Realtime Air Diffusion Prediction System which is a parallel Fortran model running on distributed-memory parallel computers. The system is designed for air diffusion simulations with four-dimensional data assimilation. For regional air quality forecasting a series of dynamic downscaling technique is adopted using the NCAR/Penn. State MM5 model which is an atmospheric model. The realtime initial data have been provided daily from the KMA (Korean Meteorological Administration) global spectral model output. It takes huge resources of computation to get 24 hour air quality forecast with this four step dynamic downscaling (27km, 9km, 3km, and lkm). Parallel implementation of the realtime system is imperative to achieve increased throughput since the realtime system have to be performed which correct timing behavior and the sequential code requires a large amount of CPU time for typical simulations. The parallel system uses MPI (Message Passing Interface), a standard library to support high-level routines for message passing. We validate the parallel model by comparing it with the sequential model. For realtime running, we implement a cluster computer which is a distributed-memory parallel computer that links high-performance PCs with high-speed interconnection networks. We use 32 2-CPU nodes and a Myrinet network for the cluster. Since cluster computers more cost effective than conventional distributed parallel computers, we can build a dedicated realtime computer. The system also includes web based Gill (Graphic User Interface) for convenient system management and performance monitoring so that end-users can restart the system easily when the system faults. Performance of the parallel model is analyzed by comparing its execution time with the sequential model, and by calculating communication overhead and load imbalance, which are common problems in parallel processing. Performance analysis is carried out on our cluster which has 32 2-CPU nodes.

  • PDF

오픈소스 하드웨어를 활용한 ACOME 기반의 IoT 홈 게이트웨이 환경 개발 (Development of IoT Home Gateway Environment based on ACOME using Open Source Hardware)

  • 김성민;최환석;이우섭
    • 한국콘텐츠학회논문지
    • /
    • 제16권3호
    • /
    • pp.296-304
    • /
    • 2016
  • 최근 국내 통신 사업자와 가전 사업자 중심으로 자신들의 특정 스마트 기기와 네트워크통신망을 활용한 IoT 홈 서비스가 활발하게 제공되고 있다. 이는 사업자 별 전용 장치를 사용해야 하며 월정액 형태의 사용요금을 지불해야 하는 등 사용자의 요구사항을 충족시키지 못하고 있으며 사용자 주도적으로 쉽게 구성할 수 있는 장치와 서비스 환경에 대한 요구가 증대되고 있다. 따라서 본 논문에서는 IoT 플랫폼과 IoT 홈 게이트웨이로 구성되는 IoT 홈 서비스 환경 구조를 제안한다. 또한 DPWS의 기능을 활용한 IoT 장치의 자동 등록 기능과 MQTT 프로토콜을 통해 게이트웨이와 자동으로 인터페이스를 구축하는 기능을 제공하는 ACOME(Auto-Configuration of MQTT and REST) 메커니즘을 제안한다. 이는 시중에서 쉽게 구할 수 있는 오픈소스 하드웨어인 아두이노에 적용 가능한 라이브러리 형태로 제공하여 사용자의 요구사항을 보다 쉽게 구현할 수 있다. 마지막으로 서비스 및 장치 검색에 관한 성능분석을 위해 ACOME과 DPWS를 비교하였다.

MIMO 통신 시스템을 위한 저전력 심볼 검출기 설계 연구 (Low Power Symbol Detector for MIMO Communication Systems)

  • 황유선;장수현;정윤호
    • 한국항행학회논문지
    • /
    • 제14권2호
    • /
    • pp.220-226
    • /
    • 2010
  • 본 논문에서는 2개의 송 수신 안테나를 갖는 MIMO 통신 시스템을 위한 저전력 심볼 검출기의 구조를 제안한다. 제안된 심볼 검출기는 MIMO 전송 기법 중 공간 다이버시티(spatial diversity, SD) 모드뿐 아니라 공간 다중화(spatial multiplexing, SM) 모드를 모두 지원하며, ML 수준의 성능을 제공한다. 또한, 연산 블록의 공유와 MIMO 모드에 따라 구분되는 클럭 신호를 사용하여 하드웨어의 전력 소모량을 크게 감소시켰다. 제안된 하드웨어 구조는 하드웨어 설계 언어 (HDL)을 이용하여 설계되었고, $0.13{\mu}m$ CMOS standard 셀 라이브러리를 사용하여 합성되었다. 전력 소모량은 Synopsys Power CompilerTM을 사용하여 측정되었고, 그 결과 기존의 설계 구조대비 제안된 구조의 경우 최대 85%까지의 평균 소모 전력을 감소시킬 수 있음을 확인할 수 있었다.

TCP/IP프로세서를 이용한 다중 사용자 인터페이스 지원 인터넷 전원 콘센트의 설계 및 구현 (The Design and Implementation of Internet Outlet with Multiple User Interface Using TCP/IP Processor)

  • 백정현
    • 한국컴퓨터정보학회논문지
    • /
    • 제17권9호
    • /
    • pp.103-112
    • /
    • 2012
  • 최근 인터넷에 접근할 수 있는 기반시설이 풍부하게 제공 되면서 전기전자 제품들을 인터넷에 연결하여 원격으로 감시하고 제어하려는 욕구가 증대 되고 있다. 그러나 기존의 제품들은 대부분 네트워크 인터페이스 미비로 인터넷 접속이 불가능하여 불편함이 많았다. 따라서 본 논문에서는 하드웨어 TCP/IP 프로세서를 사용하여 인터넷을 통하여 전원을 원격으로 제어할 수 있는 실시간 스케줄링 가능한 인터넷 전원콘센트를 설계하고 구현하였다. 구현된 제품은 하드웨어 TCP/IP 프로세서와 8비트의 소형 마이크로프로세서를 사용하여 구현이 가능하기 때문에 제작비용이 저렴하다. 또한, 환경설정 기능을 갖는 전용 제어프로그램과 웹페이지를 외부 플래시 메모리에 저장이 가능한 임베디드 웹서버, 안드로이드 스마트폰 애플리케이션, OpenCV 컴퓨터비전 라이브러리를 이용한 모션인식 제어환경 등 다양한 사용자 인터페이스를 구현하여 유무선 인터넷 환경에서 폭넓게 활용할 수 있다.

스파크 프레임워크를 위한 병렬적 k-Modes 알고리즘 (Parallel k-Modes Algorithm for Spark Framework)

  • 정재화
    • 정보처리학회논문지:소프트웨어 및 데이터공학
    • /
    • 제6권10호
    • /
    • pp.487-492
    • /
    • 2017
  • 클러스터링은 빅데이터 분석 및 데이터 마이닝 분야에서 데이터 간 유사성을 파악하기 위해 사용하는 기법으로 다양한 클러스터링 기법 중 범주적 데이터를 위해 k-Modes 알고리즘이 대표적으로 사용된다. k-Modes와 같이 반복적 연산이 집중된 작업의 속도를 향상시키기 위해 많은 관심을 받고 있는 분산 병행 프레임워크 스파크는 하둡과 달리 RDD라는 추상화 객체 개념을 사용하여 대용량의 데이터를 메모리 상에서 처리 가능한 환경을 제공한다. 스파크는 다양한 기계학습을 위한 라이브러리인 Mllib을 제공하고 있으나 연속적 데이터만 처리 가능한 k-means만 포함되어 있어 범주적 데이터 처리가 불가능한 한계가 있다. 따라서 본 논문에서는 스파크 환경에서 범주적 데이터 클러스터링을 위한 k-Modes 알고리즘을 위한 RDD 설계하고 효과적으로 동작할 수 있는 알고리즘을 구현하였다. 실험을 통해 제안한 알고리즘이 스파크 환경에서 선형적으로 증가한다는 것을 보였다.

키워드 자동 생성에 대한 새로운 접근법: 역 벡터공간모델을 이용한 키워드 할당 방법 (A New Approach to Automatic Keyword Generation Using Inverse Vector Space Model)

  • 조원진;노상규;윤지영;박진수
    • Asia pacific journal of information systems
    • /
    • 제21권1호
    • /
    • pp.103-122
    • /
    • 2011
  • Recently, numerous documents have been made available electronically. Internet search engines and digital libraries commonly return query results containing hundreds or even thousands of documents. In this situation, it is virtually impossible for users to examine complete documents to determine whether they might be useful for them. For this reason, some on-line documents are accompanied by a list of keywords specified by the authors in an effort to guide the users by facilitating the filtering process. In this way, a set of keywords is often considered a condensed version of the whole document and therefore plays an important role for document retrieval, Web page retrieval, document clustering, summarization, text mining, and so on. Since many academic journals ask the authors to provide a list of five or six keywords on the first page of an article, keywords are most familiar in the context of journal articles. However, many other types of documents could not benefit from the use of keywords, including Web pages, email messages, news reports, magazine articles, and business papers. Although the potential benefit is large, the implementation itself is the obstacle; manually assigning keywords to all documents is a daunting task, or even impractical in that it is extremely tedious and time-consuming requiring a certain level of domain knowledge. Therefore, it is highly desirable to automate the keyword generation process. There are mainly two approaches to achieving this aim: keyword assignment approach and keyword extraction approach. Both approaches use machine learning methods and require, for training purposes, a set of documents with keywords already attached. In the former approach, there is a given set of vocabulary, and the aim is to match them to the texts. In other words, the keywords assignment approach seeks to select the words from a controlled vocabulary that best describes a document. Although this approach is domain dependent and is not easy to transfer and expand, it can generate implicit keywords that do not appear in a document. On the other hand, in the latter approach, the aim is to extract keywords with respect to their relevance in the text without prior vocabulary. In this approach, automatic keyword generation is treated as a classification task, and keywords are commonly extracted based on supervised learning techniques. Thus, keyword extraction algorithms classify candidate keywords in a document into positive or negative examples. Several systems such as Extractor and Kea were developed using keyword extraction approach. Most indicative words in a document are selected as keywords for that document and as a result, keywords extraction is limited to terms that appear in the document. Therefore, keywords extraction cannot generate implicit keywords that are not included in a document. According to the experiment results of Turney, about 64% to 90% of keywords assigned by the authors can be found in the full text of an article. Inversely, it also means that 10% to 36% of the keywords assigned by the authors do not appear in the article, which cannot be generated through keyword extraction algorithms. Our preliminary experiment result also shows that 37% of keywords assigned by the authors are not included in the full text. This is the reason why we have decided to adopt the keyword assignment approach. In this paper, we propose a new approach for automatic keyword assignment namely IVSM(Inverse Vector Space Model). The model is based on a vector space model. which is a conventional information retrieval model that represents documents and queries by vectors in a multidimensional space. IVSM generates an appropriate keyword set for a specific document by measuring the distance between the document and the keyword sets. The keyword assignment process of IVSM is as follows: (1) calculating the vector length of each keyword set based on each keyword weight; (2) preprocessing and parsing a target document that does not have keywords; (3) calculating the vector length of the target document based on the term frequency; (4) measuring the cosine similarity between each keyword set and the target document; and (5) generating keywords that have high similarity scores. Two keyword generation systems were implemented applying IVSM: IVSM system for Web-based community service and stand-alone IVSM system. Firstly, the IVSM system is implemented in a community service for sharing knowledge and opinions on current trends such as fashion, movies, social problems, and health information. The stand-alone IVSM system is dedicated to generating keywords for academic papers, and, indeed, it has been tested through a number of academic papers including those published by the Korean Association of Shipping and Logistics, the Korea Research Academy of Distribution Information, the Korea Logistics Society, the Korea Logistics Research Association, and the Korea Port Economic Association. We measured the performance of IVSM by the number of matches between the IVSM-generated keywords and the author-assigned keywords. According to our experiment, the precisions of IVSM applied to Web-based community service and academic journals were 0.75 and 0.71, respectively. The performance of both systems is much better than that of baseline systems that generate keywords based on simple probability. Also, IVSM shows comparable performance to Extractor that is a representative system of keyword extraction approach developed by Turney. As electronic documents increase, we expect that IVSM proposed in this paper can be applied to many electronic documents in Web-based community and digital library.