• 제목/요약/키워드: 그래프 비교하기

검색결과 850건 처리시간 0.03초

그래프이론을 이용한 도로표지의 혼란정도 평가 (An Extent Estimation Caused by Road Sign Using Graphic Theory)

  • 정규수
    • 한국도로학회논문집
    • /
    • 제14권2호
    • /
    • pp.157-164
    • /
    • 2012
  • 도로표지는 도로의 원활한 소통을 위해 운전자에게 안내를 위한 정보를 제공하는 시설물로써, 설치 및 관리기준은 도로법 제57조 및 국토해양부장관령인 도로표지규칙으로 정하고 있다. 하지만 도로표지규칙에서 정하는 사항에 대해 준수하지 않은 경우와 예외사항을 과다 적용하는 경우가 종종 발생하여 도로표지의 혼란정도를 야기하게 된다. 이를 포함하여, 도로명 안내표지, 출구중심 도로표지 등 다양한 도로표지는 운전자에게 이해하기 어려운 것일 수 있으며, 그에 따른 혼란정도가 높아질 수 있다. 본 연구에서는 도로표지 중 도시지역의 방향표지를 대상으로 하여 혼란정도를 유발시킬 수 있는 도로표지의 요소를 제시하고, 정보표기 한정 개수를 산출하였으며, 혼란정도 인자를 그래프 이론을 통해 모형화하였다. 또한, 그에 따른 도로표지의 혼란정도를 예측하였다. 교차로별 혼란정도의 값과 3년간 교통사고 통계자료와의 비교를 통해 도로표지의 혼란정도가 교통에 미치는 영향에 대해 제시하였다.

토양 중의 Pesticide Priority Pollutants 동시 분석에 관한 연구 (Simultaneous Analysis of Pesticide Priority Pollutants in Soil)

  • 이승석;박영주;이석근
    • 분석과학
    • /
    • 제8권3호
    • /
    • pp.237-248
    • /
    • 1995
  • 미국 환경청이 지정한 129종의 priority pollutants 중 16종의 유기살충제를 포함한 토양시료를 제조하여 표준분석방법인 기체크로마토그래프-전자포획법과 기체크로마토그래프/질량분석기-SIM (selected ion monitoring)법을 이용하여 동시분석의 효율성을 실험하였다. 토양시료의 추출 및 농축방법으로는 EPA의 SW-846 방법을 조금 수정한 초음파추출법(sonication extraction)과 Soxhlet 추출법(Soxhlet extraction)을 비교 연구하였다. 각 화합물의 회수율, 상대표준편차 및 method detection limit를 측정하여 그 결과들을 보고하였다.

  • PDF

복합 센서 데이터 처리 알고리즘을 이용한 비접촉 가전 기기 식별 알고리즘 연구 (A Study of Non-Intrusive Appliance Load Identification Algorithm using Complex Sensor Data Processing Algorithm)

  • 채성윤;박진희
    • 한국인터넷방송통신학회논문지
    • /
    • 제17권2호
    • /
    • pp.199-204
    • /
    • 2017
  • 본 연구는 가정 내에서 사용하는 가전 기기의 사용 에너지를 효율적으로 관리하기 위한 비접촉 가전 기기 식별 기법을 제시한다. 제안하는 기법은 총 전력 사용량 정보를 이용한 기존의 가전 기기 식별 기법을 개선하기 위해서 복합 센서 정보를 종합적으로 활용한다. 이를 위해서 기기 상태와 측정된 센서 값 간의 영향도를 그래프 형태로 정의한다. 기기 상태에 영향을 미치는 복합 센서를 표현하는 영향도 그래프를 통해 기기 식별 예측 결과를 계산하기 위해 총 전력 사용량 기반 예측값과 센서 데이터 처리 알고리즘 예측값의 가중치 합을 사용한다. 시뮬레이션 실험을 통한 성능 분석으로 기존 비접촉 가전 기기 식별 기법의 기기 식별 정확도와 비교한다.

악성코드로부터 빅데이터를 보호하기 위한 이미지 기반의 인공지능 딥러닝 기법 (Image-based Artificial Intelligence Deep Learning to Protect the Big Data from Malware)

  • 김혜정;윤은준
    • 전자공학회논문지
    • /
    • 제54권2호
    • /
    • pp.76-82
    • /
    • 2017
  • 랜섬웨어를 포함한 악성코드를 빠르게 탐지하여 빅데이터를 보호하기 위해 본 연구에서는 인공지능의 딥러닝으로 학습된 이미지 분석을 통한 악성코드 분석 기법을 제안한다. 우선 악성코드들에서 일반적으로 사용하는 2,400여개 이상의 데이터를 분석하여 인공신경망 Convolutional neural network 으로 학습하고 데이터를 이미지화 하였다. 추상화된 이미지 그래프로 변환하고 부분 그래프를 추출하여 악성코드가 나타내는 집합을 정리하였다. 제안한 논문에서 추출된 부분 집합들 간의 비교 분석을 통해 해당 악성코드들이 얼마나 유사한지를 실험으로 분석하였으며 학습을 통한 방법을 이용하여 빠르게 추출하였다. 실험결과로부터 인공지능의 딥러닝을 이용한 정확한 악성코드 탐지 가능성과 악성코드를 이미지화하여 분류함으로써 더욱 빠르고 정확한 탐지 가능성을 보였다.

수질 시료 중의 Pesticide Priority Pollutants 동시분석에 관한 연구 (Simultaneous Analysis of Pesticide Priority Pollutants in Water Samples)

  • 김계영;김종혁;이석근
    • 대한화학회지
    • /
    • 제37권6호
    • /
    • pp.590-598
    • /
    • 1993
  • 미국의 환경청이 지정한 129종의 priority pollutants 중 16종의 유기살충제를 대상물질로 선정하여 수질시료 중의 극미량 분석방법을 연구하였다. 분석방법으로는 기체크로마토그래프-전자포획 및 기체크로마토그래프/질량분석기-SIM(selected ion moitoring)법을 검출방법으로 정하고, 시료용액의 추출 및 농축방법으로는 용매추출법(liquid-liquid extraction)과 고체상 추출법(solid-phase extraction)을 비교 연구하였다. 각 화합물들의 회수율, 상대표준편차 및 검출한계 등을 측정하여 EPA 분석법을 대체할 수 있는지의 가능성을 조사하였다.

  • PDF

클라이언트/서버 응용의 연산 부하 측정을 위한 시뮬레이터 (A Simulator for Measuring the Computation Loads of Client/ Server Applications)

  • 이준연;김대현;김영찬
    • 한국정보과학회논문지:컴퓨팅의 실제 및 레터
    • /
    • 제5권2호
    • /
    • pp.185-195
    • /
    • 1999
  • 1990년대에 들어 컴퓨터 시스템의 급진적 발전으로 인한 소형 컴퓨터의 성능 향상과 가격 하락으로 보급량이 증가하고, LAN/WAN 및 인터넷 통신 기술 발달에 힘입어 여러 분야에서 많은 응용들이 클라이언트/서버 환경에서 개발되고 있다. 클라이언트/서버 환경을 도입하는 이유는 개방형 시스템으로서의 표준화와 자원 공유, 확장성, 가용성, 응용의 생산성 등의 장점 때문이다. 클라이언트/서버 환경에서 운용되는 대부분의 프로그램은 다계층 구조에서 표현계층(사용자 인터페이스) , 응용 로직, 그리고 데이카로 나뉘어질 수 있다. 클라이언트/서버 환경에서 최적의 성능을 얻기 위해서는 어느 자원을 어디로 분산하여야 하는가 하는 것이 문제가 된다. 만약 개발자가 코딩 단계에서 각 노드의 시스템의 부하 정보를 얻을 수 있다면, 클라이언트/서버 환경에서 부하가 적절히 분산된 최적의 프로그램임을 쉽게 개발할수 있다. 본 연구에서는 자바 소스 코드의 분석을 통하여 시스템 부하를 측정할수 있는 시뮬레이터를 개발하였다. 시뮬레이터는 시스템 환경 변수와 자바 소스 코드를 받아들여 모의실험한 후, 응답시간을 라인 그래프 및 막대그래프의 형태로 표현한다. 마지막으로, 시뮬레이터의 정확성을 검증하기 위하여 임의의 프로그램을 선택하여 설제 실행 시간과 본 시뮬레이터에서 측정된 응답시간을 비교, 분석하였다.

동굴관광지의 관계적 입지특성 분석을 위한 그래프이론의 적용(II): 네트워크의 지위분석 기법의 적용을 중심으로 (Application of graph theory for analyzing the relational location features of cave as tourists attraction (II): focused on the analysis of network status)

  • 홍현철
    • 동굴
    • /
    • 제88호
    • /
    • pp.38-44
    • /
    • 2008
  • 동굴의 관계적 입지를 파악하기 위하여, 네트워크분석 기법 중 네트워크의 점의 지위 분석을 중심으로 하는 각종 지수를 적용하여 그 효용성을 파악하는데 목적을 두었다. (1)동굴의 연결 강도 및 중앙성에 따른 관계적 입지특성에 관한 고찰, (2)동굴관광지와 주변관광지 또는 다른 동굴관광지 간의 구조적 등위성에 관한 고찰을 하였다. 본 연구에서 고찰한 각종 지수 들은 네트워크상의 동굴의 지위를 파악하는데 매우 유용하여, 주변 관광지와의 관계적 입지특성을 보다 객관적이며 수량적으로 표현가능 함을 밝혔다. 특히, 동굴주변에 다 동굴이 위치하는 경우에는 그들 동굴간의 상호 비교나 구조적 우위성을 파악하는데 매우 유용하다.

CMIP6 SSP 시나리오를 기반으로 통계학적 가능최대 강수량 (Statistical Probable Maximum Precipitation based on CMIP6 SSP Scenario)

  • 서미루;김성훈;권지혜;허준행
    • 한국수자원학회:학술대회논문집
    • /
    • 한국수자원학회 2022년도 학술발표회
    • /
    • pp.169-169
    • /
    • 2022
  • 최근 기후변화와 도시화로 인해 집중호우, 홍수 등 극한 강우의 빈도와 규모가 증가하고 있는 추세이다. 또한, 극한 강우의 빈도가 증가함으로 가능최대강수량(Probable Maximum Precipitation, PMP)에 관한 관심도 증가하고 있다. 가능최대강수량의 경우 대규모 수공 구조물, 댐의 설계나 가능최대홍수량(Probable Maximum Flood, PMF) 산정에 사용 되며, 세계 기상 기구(World Meteorological Organiztion, WMO)는 가능최대강수량 산정 방법으로 수문기상학적 방법, 통계학적 방법, 포락 곡선 방법을 제안하고 있으며, 통계학적 가능최대강수량 산정방법으로는 Hershfield가 제안한 방법을 제시하고 있다. Hershfield가 제안한 방법의 경우 빈도계수를 사용하며, Hershfield(1961)는 빈도계수의 값을 15로 제안하였으나, 1965년에 빈도계수는 강우 지속시간과 평균에 따라 5~20 값을 갖는 노모그래프를 제안하였다. 본 연구에서는 빈도계수 산정 방법, 노모그래프를 이용한 빈도계수의 값 2가지를 산정한 후 국내 가능최대강수량 보고서와 비교하여 통계학적 가능최대강수량 산정 방법을 결정한 후, 결정된 빈도계수 산정 방법을 SSP시나리오에 이용하여 미래의 통계학적 가능최대강수량을 산정하여 가능최대강수량의 변화를 분석하고자 한다.

  • PDF

SPFA를 기반으로 개선된 벨만-포드 알고리듬 (An improved Bellman-Ford algorithm based on SPFA)

  • 진호;서희종
    • 한국전자통신학회논문지
    • /
    • 제7권4호
    • /
    • pp.721-726
    • /
    • 2012
  • 이 논문에서 SPFA(shortest path faster algorithm)을 사용해서 기존의 벨만-포드(Bellman-Ford)을 개선한 효율적인 알고리듬을 제안한다. 벨만-포드 알고리듬은 딕스트라(Dijkstra) 알고리듬과 다르게 부(-)인 가중치를 갖는 그래프에서 사용할 수 있다. SPFA 알고리듬은 한 대기열을 이용하여 노드를 저장한다. 그래서 중북을 피할 수 있다. 벨만-포드 알고리듬은 시간을 더 사용하여 노드 표를 업데이트를 시킨다. 이 개산 알고리듬에서는 인접 리스트를 이용하여 표의 각 노드를 저장한다. 한 대기열을 통하여 데이트를 저장한다. 개선 방법에서는 새로운 점에 계속 relaxation을 통하여 최적 패스를 얻을 수 있다. 딕스트라 알고리듬과 SPFA 알고리듬과 개선된 알고리듬의 성능을 비교하기 위해서 시뮬레이션을 하였다. 실험 결과에서 랜덤(random) 그래프에서 개선된 알고리듬, SPFA 알고리듬과 딕스트라 알고리듬은 효율이 비슷했었는데, 격자형 지도에서 개선 알고리듬의 효율이 더 높았었다. 처리시간에서 개선된 알고리듬은 SPFA 알고리듬 보다 3분의 2를 감소시켰다.

단백질 3차원 구조의 지역적 유사성을 이용한 Flexible 단백질 구조 정렬에 관한 연구 (A Study of Flexible Protein Structure Alignment Using Three Dimensional Local Similarities)

  • 박찬용;황치정
    • 정보처리학회논문지B
    • /
    • 제16B권5호
    • /
    • pp.359-366
    • /
    • 2009
  • 구조적 생물 정보학 분야는 단백질의 3차원 구조를 대상으로 단백질을 연구하는 분야이며, 본 논문에서는 구조적 생물 정보학 분야의 핵심 연구 주제중의 하나인 Flexible 단백질 구조 정렬에 관한 새로운 알고리즘을 제시한다. Flexible 단백질 구조 정렬을 위하여, 단백질의 3차원 구조의 지역적인 유사성을 이용하여 두 단백질의 유사한 부분 구조를 추출해 내고, 이 추출된 유사 구조간에 연결 가능성을 검색하여 정렬이 가능한 모든 유사 구조를 찾고, 이 유사 구조에 꺽임점을 도입하여 Flexible 단백질 구조 정렬을 수행하였다. 이 과정에서 단백질의 지역적 유사성을 정확히 비교하기 위하여 RDA를 이용한 방법을 제안하였고, Flexible 단백질 구조 정렬시 신뢰성 있는 꺽임점 위치 선정 방법과 그래프를 이용한 최적화 방법을 제안하였다. 성능 평가를 위하여 다양한 방법으로 Flexible 단백질 구조 정렬의 성능 평가를 수행하였고, 기존의 방법인 DALI, CE, FATCAT 보다 성능의 우수함을 나타내었다.