• 제목/요약/키워드: Relational database.

검색결과 576건 처리시간 0.033초

RFID 정보를 이용한 사용자-중심 문서 생성 시스템의 설계 및 구현 (Design and Implementation of User-Centered Document Generation System Using RFID Information)

  • 박희숙;박태희;탁충수
    • 한국정보통신학회논문지
    • /
    • 제12권10호
    • /
    • pp.1815-1821
    • /
    • 2008
  • 최근 유비쿼터스 컴퓨팅 환경의 성장과 네트워킹 기술의 발달로 인하여 사용자들은 시간과 공간의 제약 없이 인터넷 접속이 가능해 졌다. 유비쿼터스 컴퓨팅의 핵심기술인 RFID 정보를 이용한 다양한 응용 사례들이 점점 더 빠르게 증가하고 있는 추세이다. 본 논문에서는 관계형 데이터베이스에 저장된 RFID 정보를 이용하여 몇 가지 형식의 문서를 생성할 수 있는 사용자-중심 문서 생성 시스템의 설계를 제안한다. 제안된 시스템은 HTML 파일, EXCEL 파일, XML문서 파일을 생성 할 수 있으며, 이 문서들은 인터넷을 통하여 사용자들에게 제공된다. 또한, 사용자들은 필요할 때 언제든지 쉽고 편리하게 문서를 자신의 로컬 컴퓨터에 저장이 가능하며, 저장된 문서들은 다른 업무에 활용 가능하다.

성능지수를 고려한 관계형 데이터베이스 시스템의 목표지향형 성능관리 모델 (A Goal-Oriented Performance Management Model with DB Performance Index for Relational Database System)

  • 박상용;김정동;백두권
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2009년도 춘계학술발표대회
    • /
    • pp.313-316
    • /
    • 2009
  • 관계형 데이터베이스를 사용하는 응용시스템들은 어플리케이션 소스 코드에 내재된 SQL을 통하여 데이터를 액세스하게 되며, SQL을 통한 데이터베이스 액세스 성능은 응용시스템의 성능에 결정적인 영향을 미치기 때문에, 관계형 데이터베이스시스템의 튜닝에 대해서는 많은 연구가 이루어져 왔다. 그러나 데이터베이스시스템 튜닝을 통해 얻은 성능 수준은 응용시스템의 변경이나 데이터 저장량 증가 등 여러 요인에 의해 다시 저하될 수 있으며, 이와 같은 성능 수준의 변화를 정량적으로 관리하면서 최소 비용으로 성능 수준을 유지할 수 있도록 튜닝 시점을 결정하는 방법에 대한 연구는 현재까지 연구된 바가 없다. 이 논문에서 제시하는 DB 성능지수와 이를 이용한 데이터베이스시스템의 성능관리 모델은 특정 벤더에 종속되지 않고 성능수준을 정량화함으로써 이해관계자들에게 성능 수준의 변화를 가시적으로 보이고 데이터베이스 관리자의 성능관리 및 튜닝 시점 판단을 지원하여 일정 수준의 성능을 유지할 수 있는 방법으로 활용될 수 있다.

Fuzzy optimization of radon reduction by ventilation system in uranium mine

  • Meirong Zhang;Jianyong Dai
    • Nuclear Engineering and Technology
    • /
    • 제55권6호
    • /
    • pp.2222-2229
    • /
    • 2023
  • Radon and radon progeny being natural radioactive pollutants, seriously affect the health of uranium miners. Radon reduction by ventilation is an essential means to improve the working environment. Firstly, the relational model is built between the radon exhalation rate of the loose body and the ventilation parameters in the stope with radon percolation-diffusion migration dynamics. Secondly, the model parameters of radon exhalation dynamics are uncertain and described by triangular membership functions. The objective functions of the left and right equations of the radon exhalation model are constructed according to different possibility levels, and their extreme value intervals are obtained by the immune particle swarm optimization algorithm (IPSO). The fuzzy target and fuzzy constraint models of radon exhalation are constructed, respectively. Lastly, the fuzzy aggregation function is reconstructed according to the importance of the fuzzy target and fuzzy constraint models. The optimal control decision with different possibility levels and importance can be obtained using the swarm intelligence algorithm. The case study indicates that the fuzzy aggregation function of radon exhalation has an upward trend with the increase of the cut set, and fuzzy optimization provides the optimal decision-making database of radon treatment and prevention under different decision-making criteria.

데이터베이스 프로그램에 기반한 심장판막 치환수술 환자의 레지스트리 확립 및 위험인자 분석 (Establishment of Valve Replacement Registry and Risk Factor Analysis Based on Database Application Program)

  • 김경환;이재익;임청;안혁
    • Journal of Chest Surgery
    • /
    • 제35권3호
    • /
    • pp.209-216
    • /
    • 2002
  • 배경: 심장 판막증은 국내에서 아직까지 가장 많은 유병률을 보이는 중요 심장질환이다. 1958년 이후 1999년까지 한국에서는 총 94,586례의 개심술이 시행되었으며 그중 36,247례가 성인심장질환이었고 그중 20,704례는 판막질환이었다. 그러나 제대로 된 데이터베이스가 구축되어 있지 않아 많은 자료들을 효과적으로 활용하지 못하고 있어 저자들은 판막레지스트리를 확립하고 활용할 수 있는 시스템을 구축하고자 하였다. 대상 및 방법: 마이크로소프트 악세스를 이용하여 데이터베이스 프로그램을 개발하였다. 이는 관계형 구조를 갖는 비교적 작고 간결한 프로그램으로 그 사용자환경이 쉽고 효율적으로 구성되어 있으며 각종 질의와 보고서 기능 등을 이용하여 사용자가 원하는 자료를 쉽고 빠르게 추출해 낼 수 있는 장점이 있다. 결과: 서울대학교병원 흉부외과에서는 1968년부터 1999년까지 약 3000여명의 환자에 대하여 판막치환술을 시행하였으며 여기에 사용된 총 판막의 수는 약 3700 개였다. 삽입된 판막을 부위별로 살펴보면 승모판막 1600명, 대동맥판막 584명, 삼첨판막 76명 등이었으며, 700여명에서 2개이상의 판막을 치환하였다 전체 판막환자의 약 46%인 1280여명이 조직판막을 치환 받았으며, 54%인 약 1500여명이 금속판막을 치환 받았다. 약 16%인 460여명이 판막재치환술을 시행받았으며 해마다 약 40여명 전후에서 시행되고 있다. 결론: 저자들은 판막레지스트리를 확립하기 위한 데이터베이스 프로그램을 성공적으로 개발하였으며 이는 향후 연구활동과 보건의료분야의 발전에 효과적으로 활용될 수 있다.

토픽맵과 카산드라를 이용한 그래프 구조와 트랜잭션 동시 처리 기법 (Technique for Concurrent Processing Graph Structure and Transaction Using Topic Maps and Cassandra)

  • 신재현
    • 정보처리학회논문지:소프트웨어 및 데이터공학
    • /
    • 제1권3호
    • /
    • pp.159-168
    • /
    • 2012
  • SNS, 클라우드, Web3.0과 같은 새로운 IT환경은 '관계(relation)'가 중요한 요소가 되고 있다. 그리고 이들 관계(relation)는 거래, 즉, 트랜잭션을 발생시킨다. 그러나 우리가 사용하고 있는 관계형 데이터베이스(RDBMS)나 그래프 데이터베이스는 관계(relation)를 나타내는 그래프 구조와 트랜잭션을 동시에 처리하지 못한다. 본 논문은 확장 가능한 복잡 네트워크 시스템에서 활용할 수 있는 그래프 구조와 트랜잭션을 동시에 처리할 수 있는 방법을 제안한다. 제안 기법은 토픽맵의 데이터 모델을 응용하여 그래프 구조와 트랜잭션을 동시에 저장하고 탐색한다. 토픽맵은 시멘틱 웹(Web3.0)을 구현하는 온톨로지 언어 중 하나로써, 정보자원들 사이의 연관 '관계(relation)'를 통해 정보의 네비게이터로써 활용되고 있다. 또한 본 논문에서는 컬럼형 데이터베이스인 카산드라를 이용하여 제안 기법의 아키텍처를 설계, 구현하였다. 이는 분산처리를 이용하여 빅데이터 레벨의 데이터까지 처리할 수 있도록 하기 위함이다. 마지막으로 대표적인 RDBMS인 오라클과 제안 기법을 동일한 데이터 소스, 동일한 질문에 대해 저장 및 질의를 하는 과정을 실험으로 보였다. 이는 조인(join) 없이 관계(relation)를 표현함으로써 RDBMS의 역할까지 충분히 대체 가능함을 보이고자 한다.

Models for Spiritual Care in Hospice and Palliative Care

  • Kang, Kyung-Ah
    • Journal of Hospice and Palliative Care
    • /
    • 제21권2호
    • /
    • pp.41-50
    • /
    • 2018
  • 영성은 인간의 본질적인 부분으로 말기 환자와 가족의 실제적인 영적요구 충족을 위한 영적돌봄은 HPC에서 가장 중요한 영역이다. 말기환자와 가족의 실제적인 영적요구에 부응하는 돌봄모형을 확인하기 위해 최근 보건의료계에서 가장 많이 사용하는 국 내외 database를 검색하여 분석한 결과, 영성은 전인적 존재인 인간의 본질적인 부분으로, 삶의 위기상황에 더욱 충족되어야 할 존재론적 특성으로서, 말기 환자의 영성평가는 HPCT이 기본적으로 갖추어야 할 역량임이 확인되었다. HPC에 evidence based theory로 활용 가능한 총 10개의 모델이 제시되었다. 세 개의 모델들은 영적돌봄 결과에 초점을 둔 모델로서, spiritual health, QOL, and coping을 중요한 outcome으로 보는 모델들이었다. 영적돌봄수행에 초점을 둔 모델은 7개였으며, HPCT의 다학제간 협력을 통한 돌봄과정을 나타낸 'Wholeperson Care Model', 인간의 보편적인 실존적 요구충족이 보완된 'An Existential Functioning Model', 대상자의 문화적, 그 외 다양성을 고려하는 'An Open Pluralism View', HPCT와 말기환자와의 관계중심모델인 'A spiritual-relational view' and 'The Framework of Systemic Organization', 영적돌봄과정의 전체적 역동을 설명하는 'The principal components model' and 'The Actioning Spirituality and Spiritual care in Education and Training model'이 있다. 이러한 모델을 토대로 HPC에서 가장 최선의 영적돌봄 모델 구축을 위한 지속적인 임상연구 노력이 계속될 필요가 있겠다.

관계형 데이터 웨어하우스의 복잡한 질의의 처리 효율 향상을 위한 비트맵 조인 인덱스 선택에 관한 연구 (A Study on Selecting Bitmap Join Index to Speed up Complex Queries in Relational Data Warehouses)

  • 안형근;고재진
    • 정보처리학회논문지D
    • /
    • 제19D권1호
    • /
    • pp.1-14
    • /
    • 2012
  • 데이터 웨어하우스는 크기가 방대하기 때문에 인덱스의 선택은 질의어 처리의 효율성에 상대한 영향을 준다. 인덱스는 질의 처리 비용을 줄이지만, 그것이 차지하는 기억 영역과 데이터베이스의 변경에 따른 보수라는 비용이 수반된다. 데이터 웨어하우스에서 하나의 사실 테이블과 여러 개의 차원 테이블 사이의 조인을 행하는 스타 조인 질의어와 차원 테이블의 선택을 최적화하기 위해서 비트맵 조인 인덱스가 잘 적용된다. 비트맵 조인 인덱스는 이진수로 표현되기 때문에 저장 비용은 적게 들지만 인덱스 할 후보 속성들이 많이 생성되기 때문에 그 중에서 인덱스 할 속성들을 선택하는 일은 어려운 과제가 된다. 인덱스 선택은 일단 후보 속성들의 개수를 축소하고, 그 중에서 인덱스를 선택하게 된다. 본 논문에서는 데이터 마이닝 방법을 사용해서 비트 맵 조인 인덱스 선택 문제에서 후보 속성들의 개수를 축소하는 것을 해결한다. 질의어에 있는 속성들의 빈도에 기준해서 후보 속성들의 개수를 감소시키는 기존의 방법에 비해서 본 논문은 속성들의 빈도를 사용함과 동시에 차원 테이블의 크기, 차원 테이블의 튜플 크기, 디스크의 페이지 크기 등을 고려한다. 그리고 데이터마이닝 기법으로 빈발 항목집합을 마이닝하여 후보 속성들의 개수를 효과적으로 줄인다. 후보 속성집합들의 비트 맵 조인 인덱스에 비용함수를 적용해서 최소의 비용과 기억 영역 제한에 적합한 속성집합들의 비트 맵 조인 인덱스를 구한다. 본 논문의 방법의 효율성을 평가하기 위해서 기존의 방법들과 비교 분석을 한다.

경로정보의 중복을 제거한 XML 문서의 저장 및 질의처리 기법 (Storage and Retrieval of XML Documents Without Redundant Path Information)

  • 이혜자;정병수;김대호;이영구
    • 정보처리학회논문지D
    • /
    • 제12D권5호
    • /
    • pp.663-672
    • /
    • 2005
  • 본 논문에서는 대용량 XML 문서를 저장하고 그로부터 원하는 정보를 효율적으로 찾기 위한 방법으로, 경로정보의 중복을 제거하면서 역 인덱스를 함께 이용한 방법을 제안한다. XML 문서는 트리구조에 기반한 노드로 분해되어, 노드 타입에 따라, 루트에서 각 노드까지의 경로정보와 함께 관계형 테이블에 저장된다. 경로정보를 이용한 기존의 U 질의 기법들에서는 모든 엘리먼트 노드들에 대해 경로정보를 저장함에 따라 정보의 양이 증가하여 질의 처리의 성능을 저하시키는 요인이 되고 있다. 제안 방법에서는 경로정보 중 가장 긴 단말 엘리먼트 노드까지의 경로인 단말 엘리먼트 경로(leaf element path)만 저장하고 내부 엘리먼트 노드까지의 경로인 내부 엘리먼트 경로들(internal element paths)은 저장하지 않는다. 단말 엘리먼트 경로만을 대상으로 하여 역 인덱스를 구성함에 따라, 기존의 역 인덱스 이용 기법에 비해 키워드별 포스팅 리스트(posting lists)의 수를 줄이게 된다. 제안 방법에서는 U 문서의 저장과 질의를 위하여 XML 문서에 대한 스키마 정보가 없어도 되며, 관계형 데이터베이스의 어떤 확장도 요구하지 않는다. 실험을 통해 제안 방법은 실험 범위 내에서 기존 기법들에 비해 좋은 성능을 보인다.

토픽 모델링을 이용한 트위터 이슈 트래킹 시스템 (Twitter Issue Tracking System by Topic Modeling Techniques)

  • 배정환;한남기;송민
    • 지능정보연구
    • /
    • 제20권2호
    • /
    • pp.109-122
    • /
    • 2014
  • 현재 우리는 소셜 네트워크 서비스(Social Network Service, 이하 SNS) 상에서 수많은 데이터를 만들어 내고 있다. 특히, 모바일 기기와 SNS의 결합은 과거와는 비교할 수 없는 대량의 데이터를 생성하면서 사회적으로도 큰 영향을 미치고 있다. 이렇게 방대한 SNS 데이터 안에서 사람들이 많이 이야기하는 이슈를 찾아낼 수 있다면 이 정보는 사회 전반에 걸쳐 새로운 가치 창출을 위한 중요한 원천으로 활용될 수 있다. 본 연구는 이러한 SNS 빅데이터 분석에 대한 요구에 부응하기 위해, 트위터 데이터를 활용하여 트위터 상에서 어떤 이슈가 있었는지 추출하고 이를 웹 상에서 시각화 하는 트위터이슈 트래킹 시스템 TITS(Twitter Issue Tracking System)를 설계하고 구축 하였다. TITS는 1) 일별 순위에 따른 토픽 키워드 집합 제공 2) 토픽의 한달 간 일별 시계열 그래프 시각화 3) 토픽으로서의 중요도를 점수와 빈도수에 따라 Treemap으로 제공 4) 키워드 검색을 통한 키워드의 한달 간 일별 시계열 그래프 시각화의 기능을 갖는다. 본 연구는 SNS 상에서 실시간으로 발생하는 빅데이터를 Open Source인 Hadoop과 MongoDB를 활용하여 분석하였고, 이는 빅데이터의 실시간 처리가 점점 중요해지고 있는 현재 매우 주요한 방법론을 제시한다. 둘째, 문헌정보학 분야뿐만 아니라 다양한 연구 영역에서 사용하고 있는 토픽 모델링 기법을 실제 트위터 데이터에 적용하여 스토리텔링과 시계열 분석 측면에서 유용성을 확인할 수 있었다. 셋째, 연구 실험을 바탕으로 시각화와 웹 시스템 구축을 통해 실제 사용 가능한 시스템으로 구현하였다. 이를 통해 소셜미디어에서 생성되는 사회적 트렌드를 마이닝하여 데이터 분석을 통한 의미 있는 정보를 제공하는 실제적인 방법을 제시할 수 있었다는 점에서 주요한 의의를 갖는다. 본 연구는 JSON(JavaScript Object Notation) 파일 포맷의 1억 5천만개 가량의 2013년 3월 한국어 트위터 데이터를 실험 대상으로 한다.

클라우드 환경에서 MongoDB 기반의 비정형 로그 처리 시스템 설계 및 구현 (Design and Implementation of MongoDB-based Unstructured Log Processing System over Cloud Computing Environment)

  • 김명진;한승호;최운;이한구
    • 인터넷정보학회논문지
    • /
    • 제14권6호
    • /
    • pp.71-84
    • /
    • 2013
  • 컴퓨터 시스템 운용 간에 발생하는 많은 정보들이 기록되는 로그데이터는 컴퓨터 시스템 운용 점검, 프로세스의 최적화, 사용자 최적화 맞춤형 제공 등 다방면으로 활용되고 있다. 본 논문에서는 다양한 종류의 로그데이터들 중에서 은행에서 발생하는 대용량의 로그데이터를 처리하기 위한 클라우드 환경 하에서의 MongoDB 기반 비정형 로그 처리시스템을 제안한다. 은행업무간 발생하는 대부분의 로그데이터는 고객의 업무처리 프로세스 간에 발생하며, 고객 업무 프로세스 처리에 따른 로그데이터를 수집, 저장, 분류, 분석하기 위해서는 별도로 로그데이터를 처리하는 시스템을 구축해야만 한다. 하지만 기존 컴퓨팅환경 하에서는 폭발적으로 증가하는 대용량 비정형 로그데이터 처리를 위한 유연한 스토리지 확장성 기능, 저장된 비정형 로그데이터를 분류, 분석 처리할 수 있는 기능을 구현하기가 매우 어렵다. 이에 따라 본 논문에서는 클라우드 컴퓨팅 기술을 도입하여 기존 컴퓨팅 인프라 환경의 분석 도구 및 관리체계에서 처리하기 어려웠던 비정형 로그데이터를 처리하기 위한 클라우드 환경기반의 로그데이터 처리시스템을 제안하고 구현하였다. 제안한 본 시스템은 IaaS(Infrastructure as a Service) 클라우드 환경을 도입하여 컴퓨팅 자원의 유연한 확장성을 제공하며 실제로, 로그데이터가 장기간 축적되거나 급격하게 증가하는 상황에서 스토리지, 메모리 등의 자원을 신속성 있고 유연하게 확장을 할 수 있는 기능을 포함한다. 또한, 축적된 비정형 로그데이터의 실시간 분석이 요구되어질 때 기존의 분석도구의 처리한계를 극복하기 위해 본 시스템은 하둡 (Hadoop) 기반의 분석모듈을 도입함으로써 대용량의 로그데이터를 빠르고 신뢰성 있게 병렬 분산 처리할 수 있는 기능을 제공한다. 게다가, HDFS(Hadoop Distributed File System)을 도입함으로써 축적된 로그데이터를 블록단위로 복제본을 생성하여 저장관리하기 때문에 본 시스템은 시스템 장애와 같은 상황에서 시스템이 멈추지 않고 작동할 수 있는 자동복구 기능을 제공한다. 마지막으로, 본 시스템은 NoSQL 기반의 MongoDB를 이용하여 분산 데이터베이스를 구축함으로써 효율적으로 비정형로그데이터를 처리하는 기능을 제공한다. MySQL과 같은 관계형 데이터베이스는 복잡한 스키마 구조를 가지고 있기 때문에 비정형 로그데이터를 처리하기에 적합하지 않은 구조를 가지고 있다. 또한, 관계형 데이터베이스의 엄격한 스키마 구조는 장기간 데이터가 축적되거나, 데이터가 급격하게 증가할 때 저장된 데이터를 분할하여 여러 노드에 분산시키는 노드 확장이 어렵다는 문제점을 가지고 있다. NoSQL은 관계형 데이터베이스에서 제공하는 복잡한 연산을 지원하지는 않지만 데이터가 빠르게 증가할 때 노드 분산을 통한 데이터베이스 확장이 매우 용이하며 비정형 데이터를 처리하는데 매우 적합한 구조를 가지고 있는 비관계형 데이터베이스이다. NoSQL의 데이터 모델은 주로 키-값(Key-Value), 컬럼지향(Column-oriented), 문서지향(Document-Oriented)형태로 구분되며, 제안한 시스템은 스키마 구조가 자유로운 문서지향(Document-Oriented) 데이터 모델의 대표 격인 MongoDB를 도입하였다. 본 시스템에 MongoDB를 도입한 이유는 유연한 스키마 구조에 따른 비정형 로그데이터 처리의 용이성뿐만 아니라, 급격한 데이터 증가에 따른 유연한 노드 확장, 스토리지 확장을 자동적으로 수행하는 오토샤딩 (AutoSharding) 기능을 제공하기 때문이다. 본 논문에서 제안하는 시스템은 크게 로그 수집기 모듈, 로그 그래프생성 모듈, MongoDB 모듈, Hadoop기반 분석 모듈, MySQL 모듈로 구성되어져 있다. 로그 수집기 모듈은 각 은행에서 고객의 업무 프로세스 시작부터 종료 시점까지 발생하는 로그데이터가 클라우드 서버로 전송될 때 로그데이터 종류에 따라 데이터를 수집하고 분류하여 MongoDB 모듈과 MySQL 모듈로 분배하는 기능을 수행한다. 로그 그래프생성 모듈은 수집된 로그데이터를 분석시점, 분석종류에 따라 MongoDB 모듈, Hadoop기반 분석 모듈, MySQL 모듈에 의해서 분석되어진 결과를 사용자에게 웹 인터페이스 형태로 제공하는 역할을 한다. 실시간적 로그데이터분석이 필요한 로그데이터는 MySQL 모듈로 저장이 되어 로그 그래프생성 모듈을 통하여 실시간 로그데이터 정보를 제공한다. 실시간 분석이 아닌 단위시간당 누적된 로그데이터의 경우 MongoDB 모듈에 저장이 되고, 다양한 분석사항에 따라 사용자에게 그래프화해서 제공된다. MongoDB 모듈에 누적된 로그데이터는 Hadoop기반 분석모듈을 통해서 병렬 분산 처리 작업이 수행된다. 성능 평가를 위하여 로그데이터 삽입, 쿼리 성능에 대해서 MySQL만을 적용한 로그데이터 처리시스템과 제안한 시스템을 비교 평가하였으며 그 성능의 우수성을 검증하였다. 또한, MongoDB의 청크 크기별 로그데이터 삽입 성능평가를 통해 최적화된 청크 크기를 확인하였다.