• 제목/요약/키워드: information-oriented society

검색결과 2,820건 처리시간 0.032초

역사기록물(Archives)의 항구적인 보존화 이용 : 보존전략과 디지털정보화 (Permanent Preservation and Use of Historical Archives : Preservation Issues Digitization of Historical Collection)

  • 이상민
    • 기록학연구
    • /
    • 제1호
    • /
    • pp.23-76
    • /
    • 2000
  • In this paper, I examined what have been researched and determined about preservation strategy and selection of preservation media in the western archival community. Archivists have primarily been concerned with 'preservation' and 'use' of archival materials worth of being preserved permanently. In the new information era, preservation and use of archival materials were faced with new challenge. Life expectancy of paper records was shortened due to acidification and brittleness of the modem papers. Also emergence of information technology affects the traditional way of preservation and use of archival materials. User expectations are becoming so high technology-oriented and so complicated as to make archivists act like information managers using computer technology rather than traditional archival handicraft. Preservation strategy plays an important role in archival management as well as information management. For a cost-effective management of archives and archival institutions, preservation strategy is a must. The preservation strategy encompasses all aspects of archival preservation process and practices, from selection of archives, appraisal, inventorying, arrangement, description, conservation, microfilming or digitization, archival buildings, and access service. Those archival functions should be considered in their relations to each other to ensure proper preservation of archival materials. In the integrated preservation strategy, 'preservation' and 'use' should be combined and fulfilled without sacrificing the other. Preservation strategy planning is essential to determine the policies of archives to preserve their holdings safe and provide people with a maximum access in most effective ways. Preservation microfilming is to ensure permanent preservation of information held in important archival materials. To do this, a detailed standardization has been developed to guarantee the permanence of microfilm as well as its product quality. Silver gelatin film can last up to 500 years in the optimum storage environment and the most viable option for permanent preservation media. ISO and ANIS developed such standards for the quality of microfilms and microfilming technology. Preservation microfilming guidelines was also developed to ensure effective archival management and picture quality of microfilms. It is essential to assess the need of preservation microfilming. Limit in resources always put a restraint on preservation management. Appraisal (and selection) of what to be preserved was the most important part of preservation microfilming. In addition, microfilms with standard quality can be scanned to produce quality digital images for instant use through internet. As information technology develops, archivists began to utilize information technology to make preservation easier and more economical, and to promote use of archival materials through computer communication network. Digitization was introduced to provide easy and universal access to unique archives, and its large capacity of preserving archival data seems very promising. However, digitization, i.e., transferring images of records to electronic codes, still, needs to be standardized. Digitized data are electronic records, and st present electronic records are very unstable and not to be preserved permanently. Digital media including optical disks materials have not been proved as reliable media for permanent preservation. Due to their chemical coating and physical character using light, they are not stable and can be preserved at best 100 years in the optimum storage environment. Most CD-R can last only 20 years. Furthermore, obsolescence of hardware and software makes hard to reproduce digital images made from earlier versions. Even if when reformatting is possible, the cost of refreshing or upgrading of digital images is very expensive and the very process has to be done at least every five to ten years. No standard for this obsolescence of hardware and software has come into being yet. In short, digital permanence is not a fact, but remains to be uncertain possibility. Archivists must consider in their preservation planning both risk of introducing new technology and promising possibility of new technology at the same time. In planning digitization of historical materials, archivists should incorporate planning for maintaining digitized images and reformatting them in the coming generations of new applications. Without the comprehensive planning, future use of the expensive digital images will become unavailable. And that is a loss of information, and a final failure of both 'preservation' and 'use' of archival materials. As peter Adelstein said, it is wise to be conservative when considerations of conservations are involved.

폭소노미 사이트를 위한 랭킹 프레임워크 설계: 시맨틱 그래프기반 접근 (A Folksonomy Ranking Framework: A Semantic Graph-based Approach)

  • 박현정;노상규
    • Asia pacific journal of information systems
    • /
    • 제21권2호
    • /
    • pp.89-116
    • /
    • 2011
  • In collaborative tagging systems such as Delicious.com and Flickr.com, users assign keywords or tags to their uploaded resources, such as bookmarks and pictures, for their future use or sharing purposes. The collection of resources and tags generated by a user is called a personomy, and the collection of all personomies constitutes the folksonomy. The most significant need of the folksonomy users Is to efficiently find useful resources or experts on specific topics. An excellent ranking algorithm would assign higher ranking to more useful resources or experts. What resources are considered useful In a folksonomic system? Does a standard superior to frequency or freshness exist? The resource recommended by more users with mere expertise should be worthy of attention. This ranking paradigm can be implemented through a graph-based ranking algorithm. Two well-known representatives of such a paradigm are Page Rank by Google and HITS(Hypertext Induced Topic Selection) by Kleinberg. Both Page Rank and HITS assign a higher evaluation score to pages linked to more higher-scored pages. HITS differs from PageRank in that it utilizes two kinds of scores: authority and hub scores. The ranking objects of these pages are limited to Web pages, whereas the ranking objects of a folksonomic system are somewhat heterogeneous(i.e., users, resources, and tags). Therefore, uniform application of the voting notion of PageRank and HITS based on the links to a folksonomy would be unreasonable, In a folksonomic system, each link corresponding to a property can have an opposite direction, depending on whether the property is an active or a passive voice. The current research stems from the Idea that a graph-based ranking algorithm could be applied to the folksonomic system using the concept of mutual Interactions between entitles, rather than the voting notion of PageRank or HITS. The concept of mutual interactions, proposed for ranking the Semantic Web resources, enables the calculation of importance scores of various resources unaffected by link directions. The weights of a property representing the mutual interaction between classes are assigned depending on the relative significance of the property to the resource importance of each class. This class-oriented approach is based on the fact that, in the Semantic Web, there are many heterogeneous classes; thus, applying a different appraisal standard for each class is more reasonable. This is similar to the evaluation method of humans, where different items are assigned specific weights, which are then summed up to determine the weighted average. We can check for missing properties more easily with this approach than with other predicate-oriented approaches. A user of a tagging system usually assigns more than one tags to the same resource, and there can be more than one tags with the same subjectivity and objectivity. In the case that many users assign similar tags to the same resource, grading the users differently depending on the assignment order becomes necessary. This idea comes from the studies in psychology wherein expertise involves the ability to select the most relevant information for achieving a goal. An expert should be someone who not only has a large collection of documents annotated with a particular tag, but also tends to add documents of high quality to his/her collections. Such documents are identified by the number, as well as the expertise, of users who have the same documents in their collections. In other words, there is a relationship of mutual reinforcement between the expertise of a user and the quality of a document. In addition, there is a need to rank entities related more closely to a certain entity. Considering the property of social media that ensures the popularity of a topic is temporary, recent data should have more weight than old data. We propose a comprehensive folksonomy ranking framework in which all these considerations are dealt with and that can be easily customized to each folksonomy site for ranking purposes. To examine the validity of our ranking algorithm and show the mechanism of adjusting property, time, and expertise weights, we first use a dataset designed for analyzing the effect of each ranking factor independently. We then show the ranking results of a real folksonomy site, with the ranking factors combined. Because the ground truth of a given dataset is not known when it comes to ranking, we inject simulated data whose ranking results can be predicted into the real dataset and compare the ranking results of our algorithm with that of a previous HITS-based algorithm. Our semantic ranking algorithm based on the concept of mutual interaction seems to be preferable to the HITS-based algorithm as a flexible folksonomy ranking framework. Some concrete points of difference are as follows. First, with the time concept applied to the property weights, our algorithm shows superior performance in lowering the scores of older data and raising the scores of newer data. Second, applying the time concept to the expertise weights, as well as to the property weights, our algorithm controls the conflicting influence of expertise weights and enhances overall consistency of time-valued ranking. The expertise weights of the previous study can act as an obstacle to the time-valued ranking because the number of followers increases as time goes on. Third, many new properties and classes can be included in our framework. The previous HITS-based algorithm, based on the voting notion, loses ground in the situation where the domain consists of more than two classes, or where other important properties, such as "sent through twitter" or "registered as a friend," are added to the domain. Forth, there is a big difference in the calculation time and memory use between the two kinds of algorithms. While the matrix multiplication of two matrices, has to be executed twice for the previous HITS-based algorithm, this is unnecessary with our algorithm. In our ranking framework, various folksonomy ranking policies can be expressed with the ranking factors combined and our approach can work, even if the folksonomy site is not implemented with Semantic Web languages. Above all, the time weight proposed in this paper will be applicable to various domains, including social media, where time value is considered important.

이동통신 시뮬레이터를 위한 개선된 텔레트래픽 모델과 객체 클래스 설계 (Design of the Advanced Mobile Teletraffic Model and Object Classes for Mobile Simulator)

  • 윤영현;김상복;이정배;이성철
    • 정보처리학회논문지C
    • /
    • 제11C권4호
    • /
    • pp.509-518
    • /
    • 2004
  • 복잡하고 다양한 이동통신 서비스 환경을 위한 여러가지 시뮬레이터가 개발되어 사용되고 있다. 이러한 시뮬레이터들은 각자 고유의 텔레트래픽 모델을 가지고 있으며, 텔레트래픽 모델은 트래픽 소스 모델과 네트워크 트래픽 모델로 구성되어 있다. 본 논문에서는 도시 지역을 위한 이동통신 시뮬레이션에서 보다 더 정확한 시뮬레이션 결과를 얻기 위하여 실제 환경에서 습득한 자료를 바탕으로 한 네트워크 트래픽 모델과 트래픽 소스 모델을 정의하였다. 본 논문에서 제시한 네트워크 트래픽 모델은 시간당 호 발생 주기와 호 지속 시간을 실제 설치된 기지국으로부터 수집된 자료를 분석하여 시간과 지역별로 반영하였으며, 트래픽 소스 모델은 기지국 설치 지역의 수송분담율과 평균 속도 정보를 포함하고 있다. 본 논문에서는 제시된 트래픽 소스 모델을 반영하는 이동호스트 객체와 기지국 객체, 그리고 네트워크 트래픽 모델을 반영하는 Call Generator 객체와 이를 지원하는 여러 객체를 정의하고 설계하였다. 본 논문에서 제시한 텔레트래픽 모델을 이용하여 실제 서비스 환경과 유사한 형태의 사용자 이동성과 트래픽 특성을 시뮬레이션에 반영할 수 있으며, 이를 통해 보다 더 정확한 시물레이션 결과를 얻을 수 있다. 또한 객체지향적 기법을 사용함으로써 개발된 이동통신 시뮬레이터가 항상 실제 서비스 환경을 반영할 수 있도록 새로운 서비스 기능이나 환경을 손쉽게 추가하거나 변경할 수 있다.

서비스사이언스: 이론적 고찰과 분석 프레임워크 개발 (Service Science: Theory Review and Development of Analytical Framework)

  • 남기찬;김용진;남정태;배영우;변희선;이남희
    • 경영정보학연구
    • /
    • 제10권1호
    • /
    • pp.213-235
    • /
    • 2008
  • 서비스 산업의 비중이 지속적으로 증가하면서, 경제적인 패러다임이 제품 지배 논리에서 서비스 지배 논리로 전환됨에 따라 서비스를 보다 체계적으로 이해하고 그 생산성을 향상시킬 수 있는 서비스사이언스 분석 방법론에 대한 필요성이 증가하고 있다. 이에 따라 본 연구에서는 서비스사이언스에서의 새로운 서비스를 이해하기 위해 서비스의 구성요소를 나타내고 있는 서비스 시스템에서부터, 서비스 경험, 서비스 네트워크, 서비스 라이프사이클, 서비스 혁신에 대해 설명하고, 이러한 이해를 바탕으로 서비스사이언스 분석 프레임워크를 도출하였다. 본 연구에서 제시한 서비스사이언스 분석 프레임워크는 기업내부의 자원을 조직화하기 위해 필요한 서비스 라이프 사이클 4단계(서비스 전략 및 설계, 생산 및 전달, 운영 및 유지, 평가 및 향상)와 고객의 서비스 경험 극대화를 위한 네트워크(가치행위 네트워크, 자원통합자 네트워크, 역량 네트워크)로 구성되어 있다. 서비스사이언스 분석 프레임워크는 향후 서비스사이언스에 관한 연구를 체계화하고 종합적인 시각을 갖는데 기여할 것으로 보인다.

정보화 투자 사전평가방법론: Best practice 평가기법 및 적용사례의 통합 (Ex Ante Evaluation Methodology for IT Investment Decision Making: Integrating the Current Best Practice Methods and Applications)

  • 이국희;박소현
    • 경영정보학연구
    • /
    • 제10권1호
    • /
    • pp.135-164
    • /
    • 2008
  • 본 연구의 목적은 실무현장에서 필요로 하는 구체적, 실용적 정보화 투자 사전평가방법론을 제공하는데 있다. 이를 위하여 현재 시점에서 Best practice로 인식되고 있는 4개 조직의 사전평가 제도, 방법론, 수행사례를 벤치마킹하고, 그 프로세스, 지표, 측정기법을 통합하여 일관성있는 방법론 체계로 재구성하였다. 본 연구에서 선택한 Best practice 사례는 각각 민간기업과 공공조직, 서비스 분야와 제조 분야, 평가체계와 개별 평가사례를 대표한다고 볼 수 있다. 본 연구의 사전평가방법론은 크게 3단계로 구성되어 있다. 1단계 투자계획 타당성 분석에서는 제안된 정보화 계획 자체의 타당성을 사업계획 충실성, 추진의지, 투자비용 적정성, 중복투자, 조달가능성, 리스크 등의 관점에서 판단한다. 그리고 2단계에서는 정보화가 창출하는 효과의 타당성을 경제적, 전략적, 기술적 관점에서 분석하며, 3단계에서는 다양한 관점의 평가결과를 정량적으로 종합 평점화한다. 이 방법론은 Best practice사례가 축적한 수년간의 노하우와 검증된 가이드라인을 담고 있으며, 특히 리스크 분석, 화폐가치 산출, 종합평점 산출을 위한 정량화 기법은 여러 기업의 사전평가 담당자에게 유용한 참조모델을 제공할 수 있을 것이다. 이 연구는 그 동안 여러 기업들이 개별적으로 제기해 오던 문의와 요청에 대한 일괄적 대응으로 이해할 수 있다.

범죄예방을 위한 정보 주도형 경찰활동(ILP)에 대한 연구 - 국내도입논의를 중심으로 - (Study on the Intelligence-Led Policing(ILP) for the sake of Crime Prevention - Focused on the Discussion to Introduce to Korea-)

  • 한상암;박한호;이명우
    • 시큐리티연구
    • /
    • 제36호
    • /
    • pp.227-253
    • /
    • 2013
  • 오늘날 범죄에 대한 위협은 전 세계적인 이슈가 되고 있다. 대표적으로 테러, 조직화된 범죄, 범국가적 범죄가 바로 그것이다. 현대사회의 범죄는 전통적 범죄(살인, 강도, 강간, 방화)와는 다르게 언제 어디서 어떻게 일어날지 특정화할 수 없다. 이는 치안환경의 변화에 기인한 결과인데 현대의 범죄위협은 불특정 다수를 목표로 하는 테러위험과 같은 산발적 특성을 가지고 있으며, 조직적 범죄와 같은 체계적 현상이 대두되고 있고, 범국가적 범죄와 같은 광범위적 범죄현상에 대처해야 하는 치안환경으로 변화했기 때문이다. 이와 관련해 2001년에 일어난 9.11사건은 치안환경의 극적인 변화를 보여준 사례로 볼 수 있다. 테러 이후 미국은 물론 전 세계의 범죄를 다루는 관련기관에게 범죄정보의 수집과 관리, 활용에 대해 다시 한 번 고민하게 되는 계기를 제공하였다. 그 결과 범죄정보를 보다 효율적으로 수집하고 관리하기 위한 경찰활동의 변화들이 일어났는데 영미국가를 중심으로 나타난 "정보 지향적 경찰활동(ILP)"이 바로 그것이다. 이는 범죄문제를 해결하기 위해 정보를 수집하고 가공함으로써 보다 직접적으로 범죄를 관리하기 위한 업무체계(framework)를 반영하는 시스템으로 범죄위협을 최소화하는 경찰활동을 지향하고 있다. 치안 환경변화가 세계적 공동화 현상으로 일어나고 있는 만큼, 우리나라의 경우도 이와 같은 치안환경의 변화에 따라 정보 주도형 경찰활동을 지향해야할 필요성이 커졌다. 이에 따라, 본 연구에서는 영미국가의 정보 주도형 경찰활동을 살펴봄으로써 도입 방안과 논의사항을 제시하는데 중점을 두어 연구가 이루어졌다.

  • PDF

축약형 신경망과 휴리스틱 검색에 의한 소프트웨어 공수 예측모델 (Parsimonious Neural Network and Heuristic Search Method for Software Effort Estimation Model)

  • 전응섭
    • 정보처리학회논문지D
    • /
    • 제8D권2호
    • /
    • pp.154-165
    • /
    • 2001
  • 소프트웨어공수 예 에 관한 전공적인 모델링의 한계점을 극복하기 위해 사례기반과 신경망 그리고 퍼지이론 및 전문가 시스템 등 인공지능 기법을 이용한 연구들이 제시되고 있다. 특히 신경망을 이용한 공수예측 모델들이 예측력에 있어서 전통적인 모델들 보다 우수한 예측결과를 제시하고 있다. 그러나 이들 신경망 모델에 있어서도 고려되어야 할 점은 입력 데이터의 노이즈와 모델 설계 및 사용에 있어서 유연성 및 요율성 측면이 제기되고 있다. 본 연구에서는 이러한 기존의 신경망모델의 효율성 향상을 위한 새로운 방안으로 최적의 축약형 모델구조와 이에 관련된 최적 사례들을 사용하기 위한 사례기반 휴리스틱 검색기법을 제시한다. 30여개의 실제로 수행된 프로젝트의예측결과를 통해 최적사례 기반 축약형 신경망 모델의 결과가 저통적인 COCOMO 모델 그리고 기존의 신경망 모델과 비교해서 예측력과 모델의 유연성이 좋아졌음은 알 수 있었다. 따라서 본 연구에서 새롭게 제시한 축약형 모델과 최적사례기반 접근 방법은 급변하는 정보시스템 패러다임하에서도 유용하게 사용될 수있을 것이다.있을 것이다.

  • PDF

구조지향 방법론이 객체지향 방법론에 미치는 영향 : 지식간섭의 관점에서 (The Effects Of Structured Methods On Object Orientation : A Knowledge Interference Prospective)

  • 김인재;정덕훈
    • 정보처리학회논문지D
    • /
    • 제9D권5호
    • /
    • pp.859-864
    • /
    • 2002
  • 새로운 정보기술의 생명주기는 점점 작아지고 그 기술이 점차 복잡해짐에 따라 그 기술을 이해하기가 어려워진다. 본 연구의 목적은 객체 지향 기술의 채택에 관한 이해를 돕기 위하여 객체지향 기술이 전통적인 소프트웨어 프로세스 기술과는 다른 패러다임의 기술이기 때문에 프로세스 중심의 구조지향 기술로부터 영향을 받을 것으로 판단된다. 본 연구는 구조지향 방법이 객체지향 방법론에 미치는 지식간섭 현상을 일종의 2$\times$2 팩토리얼 유사 실험계획법을 사용하여 실증적으로 분석하였다. 구조지향 방법론과 객체지향 방법론을 사용한 기간을 2개의 독려변수로 선택하였고 객체지향 방법론에 대한 사용 편의성을 1개의 독립변수로 설정하였다 자료는 현재 활동중인 구조지향 및 객체지향 방법론에 모두 경험이 있는 자료처리와 관리협회(DPMA : Data Processing and Management Association) 회원으로부터 수집하였다 최종 결과는 구조지향 방법론의 경험이 객체지향 방법론의 사용편의성에 부의 영향을 주는 것으로 나타났다. 향후 연구과제로 문화가 다른 국가에서 유사한 연구 수행한 후에 그 결과를 비교하는 것도 의미가 있을 것이다.

창조경제 활성화를 위한 금융지원 방안에 대한 연구 : 신용보증제도를 중심으로 (Analysis on the Credit Guarantee System for Creative Economy in Korea)

  • 유경원;김경근;배상후
    • 벤처창업연구
    • /
    • 제9권6호
    • /
    • pp.47-64
    • /
    • 2014
  • 본고에서는 창조경제하의 주요 특성(네트워크 외부성과 스필오버 효과)을 감안한 이론모형을 구축하고 신용보증 등 정책금융의 효과를 분석한 결과, 창조경제하에서 발생할 수 있는 정보의 비대칭성을 축소시킬 수 있는 인프라 구축과 금융시장의 효율성 제고가 양적 지원 확대 못지않게 중요한 것으로 나타났다. 즉 신용보증제도와 같은 정부의 정책금융이 소기의 성과를 내기 위해서는 시장실패로 인한 자금의 갭을 메우는 것도 중요하지만 창조경제하에서 이와 같은 정보의 비대칭성을 줄일 수 있는 인프라 및 다양한 기제가 혁신기업의 창업 및 성장단계에 따라 필요한 것으로 나타났다. 이러한 것이 구비되지 않았을 경우 정책금융 지원효과는 오히려 시장에 공급되는 금융규모 자체를 줄이거나 오히려 혁신기술의 상용화 가능성을 낮출 것으로 지적되었다. 현재 우리나라의 중소기업금융과 신용보증제도 현황을 살펴본 결과 창조경제 구축에 부합하게끔 정책목표나 방향이 설정되어 있으나 양적인 측면의 공급확대이지 질적인 측면에서 보다 근본적인 정보의 비대칭성 문제 해소에는 미흡한 것으로 평가되었다. 이와 같은 논의 결과를 토대로 창조경제 활성화를 위한 금융지원의 기본방향으로 시장친화적 금융지원정책의 추진과 이를 위한 위험분담 체계의 구축, 관계형 금융 활성화, 중소기업 금융정책의 효율화가 제시되었다. 이러한 기본방향을 전제로 신용보증제도와 관련하여서는 창조경제의 특성이 고위험인 만큼 자칫 이와 같은 공적 지원의 양적 확대가 재정부담으로 작용할 수 있으므로 효율적인 보증제도의 운용 필요성이 제기되었다.

  • PDF

통신망 운용관리를 위한 실시간 프로세스 운용관리 시스템의 설계 및 분석 (Design and Implementation of A Real Time Process Management System for Telecom Operations and Management)

  • 장병윤;박병주;황승준
    • 지능정보연구
    • /
    • 제15권3호
    • /
    • pp.103-118
    • /
    • 2009
  • 계속적으로 빠르게 변화하는 통신환경에 대처하기 위하여 통신 기업은 운영상에 일어날 수 있는 이상 event들을 빠르게 발견하고 이를 운영요원에게 실시간으로 알려주는 시스템의 도입이 필요하게 되었다. 이러한 실시간 프로세스관리 시스템은 또한 통신회사들이 제공하는 다양한 새로운 서비스들을 빠르게 수용할 수 있어야 한다. 본고에서는 실시간으로 통신망 운용관리 프로세스를 모니터링하고 분석할 수 있는 프로세스관리 시스템을 설계 및 개발한다. 이러한 목표를 이루기 위하여 본고는 통신망 운용관리 분야의 국제표준으로 인정된 Enhanced Telecom Operations Map (eTOM)을 기반으로 하여 application 및 database 구조를 설계하며 이를 바탕으로 실시간 종합 프로세스 상태 모니터링, 실시간 작업상태 모니터링, 조직별 오더 모니터링 등 총 8가지 기능을 구현한다. 이 8가지 기능은 서비스 지향구조로 개발되었으며 따라서 다양한 새로운 서비스들이 이전보다 빠른 속도로 개발될 수 있게 설계 되었다. 또한 실시간으로 프로세스를 관리함으로써 이상 event들을 빠른 속도로 발견할 수 있게 되었다. 마지막으로 이 시스템은 국제 표준기반으로 설계되어짐으로써 다양한 환경 즉 통신망 운용환경이 다른 지역이나 회사에서도 빠르게 개발될 수 있는 flexibility를 가지고 있다. 본 연구는 통신망 운용관리나 또는 다른 분야의 실시간 프로세스관리 시스템을 도입할 필요가 있는 연구자나 실무자에게 좋은 지침이 될 것으로 기대된다.

  • PDF