• 제목/요약/키워드: open api

검색결과 613건 처리시간 0.031초

건축설계 지원을 위한 GIS 데이터 활용 시스템 (A system on using GIS data to support architectural design)

  • 김언용
    • 디자인융복합연구
    • /
    • 제15권2호
    • /
    • pp.169-184
    • /
    • 2016
  • 건축설계 초기 단계에서 대상 대지에 대한 지리 공간 정보의 사용은 필수적이다. 하지만 현재까지 이러한 정보의 취득은 상당한 시간 및 노력이 요구되는 일이다. 본 연구는 이러한 GIS 정보의 효과적 취득을 위해 현재 국토교통부 주관으로 서비스 되고 있는 국가공간정보유통시스템인 Vworld의 정보를 건축설계에 이용하는 방법을 제시한다. 제시하는 방법은 Vworld 에서 제공하는 Open API를 이용하여 건축설계 초기단계에 필요한 지형 형상, 지적도 및 토지의 용도, 개발제한 사항 등을 BIM 설계용 소프트웨어에서 검색 및 즉시 활용 할 수 있는 BIM/GIS통합 방법이다. 이를 통해 BIM 분야에서는 GIS분야에서 구축한 도시설계관련 정보를 활용 할 수 있고, GIS는 건축분야에서 구축한 건물관련 정보를 이용함으로서 지리 및 공간정보를 풍성하게 구축 및 지속적인 유지관리가 가능하게 할 수 있다. 또한 본 연구를 통해 구축된 시스템은 BIM소프트웨어를 이용하여 설계하는 건축설계자들이 프로젝트관련 지리공간정보를 취득하는데 많은 시간과 노력을 절약할 수 있다는 사실을 확인할 수 있다.

채용공고 빅데이터를 활용한 괜찮은 일자리 공급의 산업 및 지역입지 특성분석 (Analysis of Industrial and Locational Characteristics of Decent Work Supply using Job Posting Big Data)

  • 박정일
    • 지역연구
    • /
    • 제39권4호
    • /
    • pp.19-32
    • /
    • 2023
  • 본 연구는 괜찮은 일자리 공급의 산업 및 지역입지 특성을 규명하는데 목적을 두었다. 워크넷 Open API를 활용하여 최근 1년의 채용공고 빅데이터를 수집하고 분석한 결과, 제조업은 전체 괜찮은 일자리 공급의 중추적 역할을 하고 있는 것을 확인하였으며, 지역별로는 수도권이 전체 괜찮은 일자리의 절반 가까이를 차지하는 등 지역 간 격차가 뚜렷하게 나타났다. 대도시권 내부 괜찮은 일자리의 입지는 대도시권별로 차별적인 특성을 보였다. 일부 대도시권은 제조업에서 큰 규모의 질 좋은 일자리 공급이 있었지만 지역의 중심부보다는 주변지역에 편중된 경향이 있었다. 다른 대도시권은 중심부에서 직주근접의 질 좋은 일자리를 공급하고 있지만 그 규모가 적은 문제를 보였다. 본 연구의 결과는 질 좋은 일자리 확대를 위한 제조업에 대한 정책지원의 필요성과 더불어 수도권-비수도권 간의 일자리 질 격차 해소를 위한 정책개입을 시사한다. 또한 대도시권별 맞춤형 일자리 전략의 수립과 특히 직주 근접을 고려한 일자리 공급전략의 필요성을 강조한다.

Lessons from constructing and operating the national ecological observatory network

  • Christopher McKay
    • Journal of Ecology and Environment
    • /
    • 제47권4호
    • /
    • pp.187-192
    • /
    • 2023
  • The United States (US) National Science Foundation's (NSF's) National Ecological Observatory Network (NEON) is a continental-scale observation facility, constructed and operated by Battelle, that collects long-term ecological data to better understand and forecast how US ecosystems are changing. All data and samples are collected using standardized methods at 81 field sites across the US and are freely and openly available through the NEON data portal, application programming interface (API), and the NEON Biorepository. NSF led a decade-long design process with the research community, including numerous workshops to inform the key features of NEON, culminating in a formal final design review with an expert panel in 2009. The NEON construction phase began in 2012 and was completed in May 2019, when the observatory began the full operations phase. Full operations are defined as all 81 NEON sites completely built and fully operational, with data being collected using instrumented and observational methods. The intent of the NSF is for NEON operations to continue over a 30-year period. Each challenge encountered, problem solved, and risk realized on NEON offers up lessons learned for constructing and operating distributed ecological data collection infrastructure and data networks. NEON's construction phase included offices, labs, towers, aquatic instrumentation, terrestrial sampling plots, permits, development and testing of the instrumentation and associated cyberinfrastructure, and the development of community-supported collection plans. Although colocation of some sites with existing research sites and use of mostly "off the shelf" instrumentation was part of the design, successful completion of the construction phase required the development of new technologies and software for collecting and processing the hundreds of samples and 5.6 billion data records a day produced across NEON. Continued operation of NEON involves reexamining the decisions made in the past and using the input of the scientific community to evolve, upgrade, and improve data collection and resiliency at the field sites. Successes to date include improvements in flexibility and resilience for aquatic infrastructure designs, improved engagement with the scientific community that uses NEON data, and enhanced methods to deal with obsolescence of the instrumentation and infrastructure across the observatory.

국내 대구경 시추공 굴진 중 Extended Leak-Off Test 수행 사례 보고 (Report on Extended Leak-Off Test Conducted During Drilling Large Diameter Borehole)

  • 조영욱;송윤호;박세혁;김명선;박인화;이창현
    • 터널과지하공간
    • /
    • 제32권5호
    • /
    • pp.285-297
    • /
    • 2022
  • 본 고에서는 한반도 동남권에 분포하는 주요 단층대에 대한 장기 거동 및 미소진동 관찰을 목적으로 하는 시추공 기반 심부 복합지구물리 모니터링 시스템 구축의 일환으로 수행된 대구경 시추공 굴착 현장에서 이루어진 Extended Leak-Off Test (XLOT)에 대한 내용 및 결과를 보고한다. 다양한 시추공 센서 설치를 위한 모니터링공의 굴착은 ~1 km 깊이에서 최종 구경 200 mm 이상을 확보하는 것을 목표로 하여, 중간 깊이까지 12" 구경의 시추공 굴진 및 케이싱 설치, 이후 최종 심도까지 7-7/8" 구경의 시추공을 굴진하는 것으로 설계되었다. 현장 여건에 맞추어 약 504 m 깊이까지 12" 구경의 시추공이 굴착되었으며, API 규격의 8-5/8" 케이싱을 설치하고 배면과 암반 간의 틈새(annulus)에 대한 세멘팅 작업을 수행하였다. 이후 하부 구간 굴진(7-7/8")에 앞서 세멘팅 건정성 확인 및 암반 응력 측정 등을 목적으로 XLOT를 수행하였다. 약 4 m 길이의 나공 구간(open hole)을 확보하고, 상부에 설치된 케이싱을 이용해 물을 주입하여 시험 심도의 암반을 가압하였다. XLOT 수행 과정에서 주입 유량에 따른 시험 구간 내 압력 변화 양상을 실시간 모니터링 하였으며, 이 자료들을 일부 활용하여 현장 시추공 조건에서의 암반 투수율을 해석하였다.

데이터방송 표준간 호환 가능한 저작도구 설계 및 구현 (Design and Implementation of Data Broadcasting Authoring Tool for Multi-platforms)

  • 이차원;남윤석;김정환;나희주;김성원;정문열
    • 방송공학회논문지
    • /
    • 제11권3호
    • /
    • pp.349-362
    • /
    • 2006
  • 디지털 방송에서는 양방향 콘텐츠를 제작하기 위한 표준이 존재한다. 우리나라에서 지상파 방송은 ACAP(Advanced Common Application Platform), 위성 방송은 MHP(Multimedia Home Platform), 케이블 방송은 OCAP(OpenCable Application Platform)을 사용한다. 표준이 다르면 데이터방송을 위한 애플리케이션이 달라지고, 한번 만들어진 애플리케이션을 이종(異種) 매체를 통해 전송하려 할 경우 다시 만들어야하는 낭비가 발생한다. 본 논문에서는 이런 문제를 해결하기 위해 데이터방송 표준을 비교하여, 어떠한 API(Application Program Interface)들이 사용되는지를 파악하였다. 그리고 애플리케이션의 내용을 각 표준별 애플리케이션으로 변환 가능한 XML 파일로 표현하는 방법을 제안하였다. 또한 사용자와의 상호작용을 통해 XML 파일을 자동생성하는 저작도구를 구현하였다. 저작도구를 이용하여 제작된 Xlet 애플리케이션이 각 표준 환경에서 동일하게 작동하는지를 실험 검증하였다.

계산과학 시뮬레이션을 위한 HPC 작업 관리 프레임워크의 설계 및 구현 (Design and Implementation of HPC Job Management Framework for Computational Scientific Simulation)

  • 유정록;김한기;변희정
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국정보통신학회 2016년도 춘계학술대회
    • /
    • pp.554-557
    • /
    • 2016
  • 최근, 슈퍼컴퓨터 시스템은 교육, 의료, 국방 등은 물론 계산과학 시뮬레이션까지 다양한 분야에서 활용되고 있다. 특히, 슈퍼컴퓨터, 클라우드 등 이종의 계산 자원을 연동하는 시뮬레이션 환경은 시간, 공간적 한계를 극복하는 차세대 연구 환경으로서 다양한 응용 분야에서 큰 각광을 받고 있다. 그러나 기존의 이종 슈퍼컴퓨팅 환경은 API(Application Programming Interface)의 부재로 터미널 접근을 통해 계산 작업을 수행하는 단조로운 형태를 띠고 있으며, 이는 이종 컴퓨팅 자원의 접근성 및 활용성을 저해하는 주요 요소이다. 이러한 문제점을 해결하고, 슈퍼컴퓨팅 서비스의 다양성을 확보하기 위해, 본 논문에서는 계산과학 시뮬레이션을 위한 웹 기반 HPC (High Performance Computing) 작업 관리 프레임워크의 설계 및 구현에 대해 기술한다. 제안한 프레임워크는 슈퍼컴퓨터, 클라우드, 그리드 등의 다양한 이기종 자원을 활용하여 시뮬레이션 계산 작업을 수행할 수 있도록 플러그-인 기반 표준 인터페이스 및 번들 플러그-인을 제공하며, 플러그-인 관리자를 통해 손쉽게 자원 확장이 가능하다. 또한 시뮬레이션 작업의 생성, 제출, 제어, 상태 모니터링 등의 전주기적인 작업 라이프사이클 관리를 위해 HTTP 표준 방식의 RESTful endpoints들을 제공한다.

  • PDF

바이오 응용을 위한 직접 통로 기반의 GPU 가상화 (Direct Pass-Through based GPU Virtualization for Biologic Applications)

  • 최동훈;조희승;이명호
    • 정보처리학회논문지:소프트웨어 및 데이터공학
    • /
    • 제2권2호
    • /
    • pp.113-118
    • /
    • 2013
  • 현재 개발된 GPU 가상화 기술은 모두 미세한 시분할 기법에 의한 스케줄링을 사용하기 때문에 어플리케이션 실행을 위한 오버헤드를 필요 이상으로 유발한다. 또한 이들은 가상 머신 모니터에 GPU 컴퓨팅 API를 포함하고 있어서, 가상 머신 모니터의 이식성이 약하다. 본 논문에서는 이질적 컴퓨팅 시스템에서 바이오 어플리케이션에 최적화된 GPU 가상화 기술을 제안하며, 공개 소스 Xen을 사용하여 개발하였다. 우리가 제안하는 방법은 가상 머신 간의 GPU 공유를 시분할에 의존하지 않는다. 대신에 하나의 가상 머신이 GPU를 할당 받으면 그 가상 머신이 어플리케이션을 종료할 때까지 GPU를 사용하도록 허용한다. 이렇게 하여 바이오 어플리케이션의 성능을 향상시키고 GPU의 활용률을 높인다. GPU 가상화의 이식성을 높이기 위해 하드웨어가 지원하는 IOMMU 가상화를 이용하여 GPU에 대한 직접 접근 통로를 제공한다. 미생물 유전체 분석 어플리케이션을 대상으로 성능을 분석한 결과, 본 연구에서 제안하는 직접 통로 방식에 의한 GPU 가상화는 Domain0를 통한 접근에 비해 오버헤드가 적었다. 또한 직접 접근 방식에 의한 가상 머신의 GPU 접근은, 비가상화된 머신과 거의 성능의 차이가 없었다.

응급실과 119 안전센터의 접근성을 고려한 응급의료 취약지 분석 (Vulnerable Analysis of Emergency Medical Facilities based on Accessibility to Emergency Room and 119 Emergency Center)

  • 전정배;박미정;장도담;임창수;김은자
    • 농촌계획
    • /
    • 제24권4호
    • /
    • pp.147-155
    • /
    • 2018
  • The purpose of this study was to identify vulnerable area of emergency medical care. In the existing method, the emergency medical vulnerable area is set as an area that can not reach the emergency room within 30 minutes. In this study, we set up an area that can not reach within 30 minutes including the accessibility of 119 emergency center. To accomplish this, we obtained information on emergency room and 119 emergency center through Open API and constructed road network using digital map to perform accessibility analysis. As a result, 509 emergency room are located nationwide, 78.0% of them are concentrated in the region, 1,820 emergency center are located, and 61.0% of them are located in rural areas. The average access time from the center of the village to the emergency room was analyzed as 15.3 minutes, and the average access time considering the 119 emergency center was 21.8 minutes, 6.5 minutes more. As a result of considering the accessibility of 119 emergency center, vulnerable areas increased by 2.5 times, vulnerable population increased by 2.0 times, and calculating emergency medical care vulnerable areas, which account for more than 30% of the urban unit population, it was analyzed that it increased from 17 to 34 cities As a further study, it will be necessary to continuously monitor and research the real-time traffic information, medical personnel, medical field, and ambulance information to reflect the reality and to diagnose emergency medical care in the future.

부동산 유동화 NFT와 FT 분할 거래 시스템 설계 및 구현 (Real Estate Asset NFT Tokenization and FT Asset Portfolio Management)

  • 김영근;김성환
    • 정보처리학회논문지:소프트웨어 및 데이터공학
    • /
    • 제12권9호
    • /
    • pp.419-430
    • /
    • 2023
  • 대체 불가능 토큰 (NFT: non-fungible Token)은 분할할 수 없다는 고유한 특징을 가지고 있다. 현재 NFT는 디지털 콘텐츠에 대한 소유권 증명 이상의 용도가 명확하지 않고, 토큰의 유동성이 거의 없으며, 이로 인한 가격의 예측이 어렵다. 현실에서의 부동산은 대개 가격이 매우 높은 특징으로 인해 투자 진입장벽이 매우 높다. 현물 부동산을 NFT 화하고, FT (fungible token)으로 분할하면 유동성의 증가, 접근성의 증가에 따른 투자자 커뮤니티 볼륨의 증가를 기대할 수 있다. 본 논문은 일반 투자자들이 개별적으로 구매하기 어려운 현물 부동산을 대량의 FT로 분할하고 이를 Black Litterman 모델 기반의 Portfolio 투자 인터페이스를 통해 투자할 수 있는 시스템을 설계하고 구현하였다. 이를 위해, 현물 부동산을 담보로 페깅하고, 보안적으로 안전한 블록체인인 NFT로 발행한다. 상시 변경되는 부동산 가격을 모니터링하기 위한 오라클을 사용하여, 외부 부동산 정보를 블록체인에 반영할 수 있도록 하였다. 현물 부동산 가격을 그대로 유지하고 있는 NFT를 낮은 가격의 대량 FT로 분할함으로써, 큰 유동성을 제공하고 가격 변동성 제한을 두었다. 이를 통해, 높은 가격으로 인해 투자하기 어려웠던 일반 소액 투자자들이 쉽게 투자할 수 있도록 하였다. 또한 소액 투자로 여러 개의 복수 현물 부동산에 투자하기 위한 효과적인 포트폴리오 구성을 위한 자산 포트폴리오 인터페이스를 구현하였다. 이는 Black Litterman 모델을 활용하여, 다수의 현물 부동산 NFT에 대한 투자 비율을 최적화할 수 있는 목적을 가진다. 전체 시스템은 Solidity 언어로 작성한 smart contract, Flask 웹 프레임워크, 공공데이터포털의 "국토교통부_아파트매매 실거래자료 Open API"를 활용하였다.

데이터 증강을 통한 딥러닝 기반 주가 패턴 예측 정확도 향상 방안 (Increasing Accuracy of Stock Price Pattern Prediction through Data Augmentation for Deep Learning)

  • 김영준;김여정;이인선;이홍주
    • 한국빅데이터학회지
    • /
    • 제4권2호
    • /
    • pp.1-12
    • /
    • 2019
  • 인공지능 기술이 발전하면서 이미지, 음성, 텍스트 등 다양한 분야에 적용되고 있으며, 데이터가 충분한 경우 기존 기법들에 비해 좋은 결과를 보인다. 주식시장은 경제, 정치와 같은 많은 변수에 의해 영향을 받기 때문에, 주식 가격의 움직임 예측은 어려운 과제로 알려져 있다. 다양한 기계학습 기법과 인공지능 기법을 이용하여 주가 패턴을 연구하여 주가의 등락을 예측하려는 시도가 있어왔다. 본 연구는 딥러닝 기법 중 컨볼루셔널 뉴럴 네트워크(CNN)를 기반으로 주가 패턴 예측률 향상을 위한 데이터 증강 방안을 제안한다. CNN은 컨볼루셔널 계층을 통해 이미지에서 특징을 추출하여 뉴럴 네트워크를 이용하여 이미지를 분류한다. 따라서, 본 연구는 주식 데이터를 캔들스틱 차트 이미지로 만들어 CNN을 통해 패턴을 예측하고 분류하고자 한다. 딥러닝은 다량의 데이터가 필요하기에, 주식 차트 이미지에 다양한 데이터 증강(Data Augmentation) 방안을 적용하여 분류 정확도를 향상 시키는 방법을 제안한다. 데이터 증강 방안으로는 차트를 랜덤하게 변경하는 방안과 차트에 가우시안 노이즈를 적용하여 추가 데이터를 생성하였으며, 추가 생성된 데이터를 활용하여 학습하고 테스트 집합에 대한 분류 정확도를 비교하였다. 랜덤하게 차트를 변경하여 데이터를 증강시킨 경우의 분류 정확도는 79.92%였고, 가우시안 노이즈를 적용하여 생성된 데이터를 가지고 학습한 경우의 분류 정확도는 80.98%이었다. 주가의 다음날 상승/하락으로 분류하는 경우에는 60분 단위 캔들 차트가 82.60%의 정확도를 기록하였다.

  • PDF