• 제목/요약/키워드: Cloud-free

검색결과 112건 처리시간 0.029초

정지궤도 기상위성의 자동기하보정 (Automated Geometric Correction of Geostationary Weather Satellite Images)

  • 김현숙;이태윤;허동석;이수암;김태정
    • 대한원격탐사학회지
    • /
    • 제23권4호
    • /
    • pp.297-309
    • /
    • 2007
  • 2008년 12월 우리나라 최초의 통신해양기상위성이 발사될 예정이다. 통신해양기상위성의 지상국은 위성영상 데이터의 정확도 향상을 위해 사용자에게 기하보정된 영상을 공급해야 한다. 이때 지상국에 요구되는 처리시간은 30분 내외이며, 전체 처리시간의 준수를 위해 자동기하보정의 기술개발과 기하보정시 수행시간의 효율성이 중요하다. 자동기하보정은 위성의 영상좌표계와 지구좌표계상의 수학적인 관계를 나타내는 센서모델을 자동으로 수립하여 기하보정을 수행하는 것이다. 센서모델 수립을 위해 사용되는 기준점은 위성영상과 랜드마크 칩간의 정합결과를 통해서 자동으로 결정되어다. 실험에 사용한 위성영상은 GOES-9영상이며 실험을 위해 전세계 해안선 데이터베이스를 사용하여 랜드마크 칩을 211개 생성하였다. 위성영상에 존재하는 구름은 위성영상과 랜드마크 칩간의 정합시 오정합을 유발하므로 GOES-9영상의 채널1과 채널2영상에서 구름검출을 수행하여 구름이 아닌 지역에 대해서만 정합을 수행하였으며 가시영상인 채널1영상에서 밤시간이 아닌 지역에 대해서만 정합이 수행될 수 있도록 밤낮을 구분하여 처리하였다. 이때 정합결과는 오정합(Outlier)이 포함되어 있어 강인추정기법 중 하나인 RANSAC을 사용하여 이를 제거하였다. 강인추정기법으로 오정합이 제거된 정합결과를 기준점으로 사용하여 센서모델을 수립하였다. 수립된 모델의 정확도는 채널1영상의 해상도를 기준으로 하였을 때 $1{\sim}2$ 픽셀의 에러가 나타났고 기하보정된 영상에 해안선을 투영하여 센서모델의 정확도를 육안으로 확인하였다. 이때 위성영상의 해안선과 투영된 해안선이 일치함으로써 기하보정이 잘 이뤄졌음을 알 수 있었다. 실험결과 정합된 RANSAC, 센서모델 수립 및 자동기하 보정의 전체 처리시간은 약 4분여가 소요되었다. 이로써 본 논문에서 제안된 자동기하보정방법은 기하보정이 효과적으로 이뤄지고 있으며, 또한 통신해양기상위성의 전처리요구시간에도 만족함을 보여주고 있다.

클라우드 환경에서 MongoDB 기반의 비정형 로그 처리 시스템 설계 및 구현 (Design and Implementation of MongoDB-based Unstructured Log Processing System over Cloud Computing Environment)

  • 김명진;한승호;최운;이한구
    • 인터넷정보학회논문지
    • /
    • 제14권6호
    • /
    • pp.71-84
    • /
    • 2013
  • 컴퓨터 시스템 운용 간에 발생하는 많은 정보들이 기록되는 로그데이터는 컴퓨터 시스템 운용 점검, 프로세스의 최적화, 사용자 최적화 맞춤형 제공 등 다방면으로 활용되고 있다. 본 논문에서는 다양한 종류의 로그데이터들 중에서 은행에서 발생하는 대용량의 로그데이터를 처리하기 위한 클라우드 환경 하에서의 MongoDB 기반 비정형 로그 처리시스템을 제안한다. 은행업무간 발생하는 대부분의 로그데이터는 고객의 업무처리 프로세스 간에 발생하며, 고객 업무 프로세스 처리에 따른 로그데이터를 수집, 저장, 분류, 분석하기 위해서는 별도로 로그데이터를 처리하는 시스템을 구축해야만 한다. 하지만 기존 컴퓨팅환경 하에서는 폭발적으로 증가하는 대용량 비정형 로그데이터 처리를 위한 유연한 스토리지 확장성 기능, 저장된 비정형 로그데이터를 분류, 분석 처리할 수 있는 기능을 구현하기가 매우 어렵다. 이에 따라 본 논문에서는 클라우드 컴퓨팅 기술을 도입하여 기존 컴퓨팅 인프라 환경의 분석 도구 및 관리체계에서 처리하기 어려웠던 비정형 로그데이터를 처리하기 위한 클라우드 환경기반의 로그데이터 처리시스템을 제안하고 구현하였다. 제안한 본 시스템은 IaaS(Infrastructure as a Service) 클라우드 환경을 도입하여 컴퓨팅 자원의 유연한 확장성을 제공하며 실제로, 로그데이터가 장기간 축적되거나 급격하게 증가하는 상황에서 스토리지, 메모리 등의 자원을 신속성 있고 유연하게 확장을 할 수 있는 기능을 포함한다. 또한, 축적된 비정형 로그데이터의 실시간 분석이 요구되어질 때 기존의 분석도구의 처리한계를 극복하기 위해 본 시스템은 하둡 (Hadoop) 기반의 분석모듈을 도입함으로써 대용량의 로그데이터를 빠르고 신뢰성 있게 병렬 분산 처리할 수 있는 기능을 제공한다. 게다가, HDFS(Hadoop Distributed File System)을 도입함으로써 축적된 로그데이터를 블록단위로 복제본을 생성하여 저장관리하기 때문에 본 시스템은 시스템 장애와 같은 상황에서 시스템이 멈추지 않고 작동할 수 있는 자동복구 기능을 제공한다. 마지막으로, 본 시스템은 NoSQL 기반의 MongoDB를 이용하여 분산 데이터베이스를 구축함으로써 효율적으로 비정형로그데이터를 처리하는 기능을 제공한다. MySQL과 같은 관계형 데이터베이스는 복잡한 스키마 구조를 가지고 있기 때문에 비정형 로그데이터를 처리하기에 적합하지 않은 구조를 가지고 있다. 또한, 관계형 데이터베이스의 엄격한 스키마 구조는 장기간 데이터가 축적되거나, 데이터가 급격하게 증가할 때 저장된 데이터를 분할하여 여러 노드에 분산시키는 노드 확장이 어렵다는 문제점을 가지고 있다. NoSQL은 관계형 데이터베이스에서 제공하는 복잡한 연산을 지원하지는 않지만 데이터가 빠르게 증가할 때 노드 분산을 통한 데이터베이스 확장이 매우 용이하며 비정형 데이터를 처리하는데 매우 적합한 구조를 가지고 있는 비관계형 데이터베이스이다. NoSQL의 데이터 모델은 주로 키-값(Key-Value), 컬럼지향(Column-oriented), 문서지향(Document-Oriented)형태로 구분되며, 제안한 시스템은 스키마 구조가 자유로운 문서지향(Document-Oriented) 데이터 모델의 대표 격인 MongoDB를 도입하였다. 본 시스템에 MongoDB를 도입한 이유는 유연한 스키마 구조에 따른 비정형 로그데이터 처리의 용이성뿐만 아니라, 급격한 데이터 증가에 따른 유연한 노드 확장, 스토리지 확장을 자동적으로 수행하는 오토샤딩 (AutoSharding) 기능을 제공하기 때문이다. 본 논문에서 제안하는 시스템은 크게 로그 수집기 모듈, 로그 그래프생성 모듈, MongoDB 모듈, Hadoop기반 분석 모듈, MySQL 모듈로 구성되어져 있다. 로그 수집기 모듈은 각 은행에서 고객의 업무 프로세스 시작부터 종료 시점까지 발생하는 로그데이터가 클라우드 서버로 전송될 때 로그데이터 종류에 따라 데이터를 수집하고 분류하여 MongoDB 모듈과 MySQL 모듈로 분배하는 기능을 수행한다. 로그 그래프생성 모듈은 수집된 로그데이터를 분석시점, 분석종류에 따라 MongoDB 모듈, Hadoop기반 분석 모듈, MySQL 모듈에 의해서 분석되어진 결과를 사용자에게 웹 인터페이스 형태로 제공하는 역할을 한다. 실시간적 로그데이터분석이 필요한 로그데이터는 MySQL 모듈로 저장이 되어 로그 그래프생성 모듈을 통하여 실시간 로그데이터 정보를 제공한다. 실시간 분석이 아닌 단위시간당 누적된 로그데이터의 경우 MongoDB 모듈에 저장이 되고, 다양한 분석사항에 따라 사용자에게 그래프화해서 제공된다. MongoDB 모듈에 누적된 로그데이터는 Hadoop기반 분석모듈을 통해서 병렬 분산 처리 작업이 수행된다. 성능 평가를 위하여 로그데이터 삽입, 쿼리 성능에 대해서 MySQL만을 적용한 로그데이터 처리시스템과 제안한 시스템을 비교 평가하였으며 그 성능의 우수성을 검증하였다. 또한, MongoDB의 청크 크기별 로그데이터 삽입 성능평가를 통해 최적화된 청크 크기를 확인하였다.

소수테이블을 이용한 실용적인 다중 키워드 검색가능 암호시스템 (Practical Conjunctive Searchable Encryption Using Prime Table)

  • 양유진;김상진
    • 정보보호학회논문지
    • /
    • 제24권1호
    • /
    • pp.5-14
    • /
    • 2014
  • 검색가능 암호시스템(searchable encryption system)은 암호화된 자료의 기밀성이 보장된 상태로 원하는 자료의 검색을 가능하게 해주는 기술이다. 클라우드 서비스의 대중화로 데이터 아웃소싱에 대한 관심이 높아지면서 외부 서버의 신뢰 문제를 해결하는 방법으로 최근에 많은 연구가 진행되고 있다. 하지만 대부분의 검색가능 암호시스템에 대한 연구는 하나의 키워드를 이용한 부울 검색만 제안되었고, 다중 키워드 검색에 대한 연구결과는 상대적으로 적을 뿐만 아니라 이 연구들은 대부분 고정 필드 환경을 가정하는 제한적 기법들이다. 이 논문에서는 고정 필드를 사용하지 않으며, 랭킹 정보까지 제공할 수 있는 새로운 다중 키워드 검색가능 암호시스템을 제안한다. 이 시스템은 키워드와 소수를 매핑한 소수테이블과 검색 연산으로 최대공약수 연산을 사용하기 때문에 기존 시스템보다 상대적으로 효율적이며, 복잡한 암호모듈이 필요 없어 비교적 쉽게 구현이 가능하다.

NOAA 수온영상 재처리 기법에 관한 연구 (Study on the Retreatment Techniques for NOAA Sea Surface Temperature Imagery)

  • 김상우;강용균;안지숙
    • 해양환경안전학회지
    • /
    • 제17권4호
    • /
    • pp.331-337
    • /
    • 2011
  • 본 연구에서는 동북아시아 NOAA AVHRR 위성관측 16년간(1990-2005) 해양표면 수온영상을 이용하여 에러 값 제거와 결측 자료 보완을 위하여 마르코프 계수를 결정하였고, 이 값에서 현재 수온평년 값을 더하여 구름 없는 해양표면수온 생성 기법을 제시하였다. 마르코프 연쇄 모델의 결과에 의하면, 마르코프 계수는 해류가 강한 쿠로시오 해역 등이 해류가 약한 동해 북서부의 대부분 해역과 동중국해보다 그 계수가 상대적으로 낮게 나타났다. 평균 수온의 변동은 봄과 가을이 겨울과 여름에 비하여 분산이 크게 나타났고, 계절별 일간 수온 차이도 수온의 계절적 변동이 큰 봄과 가을이 여름과 겨울에 비하여 큰 지역적인 차이를 보였다. 그 지역적인 분포는 봄과 가을의 경우 전 해역의 대륙 인접부에서 대부분 크게 나타났고, 동해 극전선 남부해역과 쿠로시오해역에서는 난류에 의한 열수송으로 일간 수온의 차이가 작았다.

사물인터넷기반 미세먼지 측정 시스템 구현 (The Implementation of the Fine Dust Measuring System based on Internet of Things(IoT))

  • 노진호;탁한호
    • 한국정보통신학회논문지
    • /
    • 제21권4호
    • /
    • pp.829-835
    • /
    • 2017
  • 최근 미세먼지에 의해 건강이 나빠지는 문제가 빈번하게 발생하고 있다. 건강에 악영향을 끼치는 미세먼지는 실외뿐만 아니라 실내에서도 인체에 영향을 미치게 된다. 따라서 우리가 생활하고 있는 실내에서 미세먼지의 농도를 측정하여 건강에 해로운 미세먼지를 제어하는 시스템이 필요하다. 기존의 미세먼지 측정 시스템의 효율성을 상승시키기 위해서 사물인터넷(IoT) 기술을 적용하였다. 특히 양방향 통신이 가능한 환경을 위하여 무료 클라우드 서버 대신에 개별 서버를 직접 구축하여 시스템에 적용하였으며 이를 학교 실습실과 가정에서 직접 활용해 보았다. 본 논문에서 제안한 시스템을 학교 및 가정에 사용할 경우, 빠르게 실내 환경을 인지할 수 있고 이는 점진적으로 개인들의 건강에 도움이 될 것으로 판단되며, 외부에서도 서버 데이터를 확인하여 현재의 실내 상황에 대한 대처가 가능할 수 있다.

RGB-D 센서, AR 마커, 색수정 알고리즘을 활용한 매니퓰레이터 투명화 (Transparent Manipulators Accomplished with RGB-D Sensor, AR Marker, and Color Correction Algorithm)

  • 김동엽;김영지;손현식;황정훈
    • 로봇학회논문지
    • /
    • 제15권3호
    • /
    • pp.293-300
    • /
    • 2020
  • The purpose of our sensor system is to transparentize the large hydraulic manipulators of a six-ton dual arm excavator from the operator camera view. Almost 40% of the camera view is blocked by the manipulators. In other words, the operator loses 40% of visual information which might be useful for many manipulator control scenarios such as clearing debris on a disaster site. The proposed method is based on a 3D reconstruction technology. By overlaying the camera image from front top of the cabin with the point cloud data from RGB-D (red, green, blue and depth) cameras placed at the outer side of each manipulator, the manipulator-free camera image can be obtained. Two additional algorithms are proposed to further enhance the productivity of dual arm excavators. First, a color correction algorithm is proposed to cope with the different color distribution of the RGB and RGB-D sensors used on the system. Also, the edge overlay algorithm is proposed. Although the manipulators often limit the operator's view, the visual feedback of the manipulator's configurations or states may be useful to the operator. Thus, the overlay algorithm is proposed to show the edge of the manipulators on the camera image. The experimental results show that the proposed transparentization algorithm helps the operator get information about the environment and objects around the excavator.

탐색적 자료 분석(EDA) 기법을 활용한 국내 11개 대표 온라인 쇼핑몰 BEST 100 비교 (Comparison of Online Shopping Mall BEST 100 using Exploratory Data Analysis)

  • 강지천;강주영
    • 한국빅데이터학회지
    • /
    • 제3권1호
    • /
    • pp.1-12
    • /
    • 2018
  • 초기 온라인 쇼핑몰이 등장할 때부터 지금까지 BEST 100은 모든 쇼핑몰 웹사이트의 핵심 기능으로 제공되고 있다. BEST 100은 소비자들이 한눈에 인기 상품들을 확인할 수 있기 때문에 쇼핑몰의 매출 등에 미치는 영향이 높지만 온라인 쇼핑 선행 연구에서 BEST 100과 관련된 연구는 거의 이루어지지 않고 있다. 따라서 본 연구에서는 현 온라인 쇼핑몰 11곳을 대상으로 선정하여 쇼핑몰별 판매 특징을 분석하였다. 연구 방법으로 각 쇼핑몰 웹 사이트의 BEST 100의 구성요소인 판매문구, 가격, 무료배송의 유/무 확인을 크롤링 하여 탐색적 자료 분석 기법(EDA)을 활용하였다. 분석 결과 쇼핑몰 11곳의 종합 평균 가격은 72,891.41원으로 나타났으며 상품 가격이 저렴할수록 무료배송 비율이 낮음을 확인하였다. 가격 이외에 판매문구에서는 텍스트 마이닝을 통해 8개의 카테고리로 구분하였다. 가장 많은 카테고리는 fashion 부분이었으나 카테고리의 설정이 제품 속성이 아닌 마케팅 문구를 분석한 점에 의의가 있다. 본 연구는 EDA를 활용하여 현 온라인 시장 흐름을 파악하고 향후 방향을 제시하는데 시사점이 있다.

Statistical Study and Prediction of Variability of Erythemal Ultraviolet Irradiance Solar Values in Valencia, Spain

  • Gurrea, Gonzalo;Blanca-Gimenez, Vicente;Perez, Vicente;Serrano, Maria-Antonia;Moreno, Juan-Carlos
    • Asia-Pacific Journal of Atmospheric Sciences
    • /
    • 제54권4호
    • /
    • pp.599-610
    • /
    • 2018
  • The goal of this study was to statistically analyse the variability of global irradiance and ultraviolet erythemal (UVER) irradiance and their interrelationships with global and UVER irradiance, global clearness indices and ozone. A prediction of short-term UVER solar irradiance values was also obtained. Extreme values of UVER irradiance were included in the data set, as well as a time series of ultraviolet irradiance variability (UIV). The study period was from 2005 to 2014 and approximately 250,000 readings were taken at 5-min intervals. The effect of the clearness indices on global irradiance variability (GIV) and UIV was also recorded and bi-dimensional distributions were used to gather information on the two measured variables. With regard to daily GIV and UIV, it is also shown that for global clearness index ($k_t$) values lower than 0.6 both global and UVER irradiance had greater variability and that UIVon cloud-free days ($k_t$ higher than 0.65) exceeds GIV. To study the dependence between UIVand GIV the ${\chi}^2$ statistical method was used. It can be concluded that there is a 95% probability of a clear dependency between the variabilities. A connection between high $k_t$ (corresponding to cloudless days) and low variabilities was found in the analysis of bidimensional distributions. Extreme values of UVER irradiance were also analyzed and it was possible to calculate the probable future values of UVER irradiance by extrapolating the values of the adjustment curve obtained from the Gumbel distribution.

A Fault Tolerant Data Management Scheme for Healthcare Internet of Things in Fog Computing

  • Saeed, Waqar;Ahmad, Zulfiqar;Jehangiri, Ali Imran;Mohamed, Nader;Umar, Arif Iqbal;Ahmad, Jamil
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제15권1호
    • /
    • pp.35-57
    • /
    • 2021
  • Fog computing aims to provide the solution of bandwidth, network latency and energy consumption problems of cloud computing. Likewise, management of data generated by healthcare IoT devices is one of the significant applications of fog computing. Huge amount of data is being generated by healthcare IoT devices and such types of data is required to be managed efficiently, with low latency, without failure, and with minimum energy consumption and low cost. Failures of task or node can cause more latency, maximum energy consumption and high cost. Thus, a failure free, cost efficient, and energy aware management and scheduling scheme for data generated by healthcare IoT devices not only improves the performance of the system but also saves the precious lives of patients because of due to minimum latency and provision of fault tolerance. Therefore, to address all such challenges with regard to data management and fault tolerance, we have presented a Fault Tolerant Data management (FTDM) scheme for healthcare IoT in fog computing. In FTDM, the data generated by healthcare IoT devices is efficiently organized and managed through well-defined components and steps. A two way fault-tolerant mechanism i.e., task-based fault-tolerance and node-based fault-tolerance, is provided in FTDM through which failure of tasks and nodes are managed. The paper considers energy consumption, execution cost, network usage, latency, and execution time as performance evaluation parameters. The simulation results show significantly improvements which are performed using iFogSim. Further, the simulation results show that the proposed FTDM strategy reduces energy consumption 3.97%, execution cost 5.09%, network usage 25.88%, latency 44.15% and execution time 48.89% as compared with existing Greedy Knapsack Scheduling (GKS) strategy. Moreover, it is worthwhile to mention that sometimes the patients are required to be treated remotely due to non-availability of facilities or due to some infectious diseases such as COVID-19. Thus, in such circumstances, the proposed strategy is significantly efficient.

디지털 헬스케어 의료정보의 발전과제에 관한 연구 (A Study on the Development Issues of Digital Health Care Medical Information)

  • 문용
    • 산업진흥연구
    • /
    • 제7권3호
    • /
    • pp.17-26
    • /
    • 2022
  • 우리가 살아가는 사회는 무엇보다 우리들의 정신과 육체를 자유롭게 건강하게 유지하고자 하는 웰빙에 대한 기대가 확산되면서 헬스케어(health care)라는 의미가 빅데이터, IoT, AI, 블록체인 등의 4차 산업혁명의 핵심적인 융합기술 등을 활용하여 고도화된 의료정보 서비스산업의 발전을 도모하고 있다. 디지털 헬스케어는 인공지능, 빅데이터, 클라우드와 같은 정보기술에 힘입어 전통 의료·헬스케어 산업의 디지털 전환(Digital transformation)으로 추진되어, 보건, 의료, 복지 등에서 그 필요성은 점진적으로 확대되고 있는 경향이다. 그러나 디지털 헬스케어 의료정보의 효율적 운용을 통하여 인간의 자유로운 삶의 행복 추구와 스마트 의료산업으로의 발전을 추구하고자 하는 데는 인적, 물리적 요인의 어려움이 존재하는 것이 현실이다. 나아가 디지털 헬스케어의 글로벌 경쟁력을 확보하기 위해서는 헬스케어 의료정보 관련 첨단기술력과 양질의 데이터 확보, 관련 콘텐츠 개발과 이에 적합한 비지니스 모델을 발굴하는 데 적극적인 투자와 연구가 요구되고 있다. 따라서, 본 연구에서는 우선, 디지털 헬스케어 의료정보의 일반적인 의미와 현황 등을 살펴보고, 이어, 디지털 헬스케어 의료정보를 활성시키기 위한 발전적 과제 등을 중점적으로 분석, 검토하여 앞으로 디지털 헬스케어 의료정보의 활용성을 제고하는데 목적을 두고 있다.