• 제목/요약/키워드: Calculation algorithms

검색결과 467건 처리시간 0.028초

국민건강영양조사 자료를 이용한 식품 섭취량 산출 방법 개발: 들깻잎 섭취량을 중심으로 (Estimation of Food Commodity Intakes from the Korea National Health and Nutrition Examination Survey Databases: With Priority Given to Intake of Perilla Leaf)

  • 김승원;정준호;이중근;우희동;임무혁;박영식;고상훈
    • 산업식품공학
    • /
    • 제14권4호
    • /
    • pp.307-315
    • /
    • 2010
  • 본 연구에서는 국민건강영양조사 1998년(제1기)부터 2008년(제4기 2차) 조사까지 총 5기의 식품섭취조사 자료를 이용하여, '들깻잎, 생것', '들깻잎, 데친것', '들깻잎, 찐것', '들깻잎, 통조림'의 섭취자 및 섭취량에 대한 분석을 시행하였다. 특히, 국민건강영양조사의 식품 섭취량 자료로부터 합리적이고 객관적으로 들깻잎 섭취자의 수 및 섭취량을 산출할 수 있는 방법을 개발하였다. 들깻잎의 섭취량에 대한 분석은 국민건강영양조사의 전체 응답자의 평균 섭취량(응답자 평균 섭취량), 들깻잎 섭취자의 평균 섭취량(섭취자 평균 섭취량), 상위 5%의 극단 섭취자의 평균 섭취량(극단 섭취량), 남성 및 여성의 평균 섭취량, 20세 미만과 20세 이상의 평균 섭취량의 5가지의 항목으로 구분하여 분석되었다. 들깻잎 섭취자의 수 및 섭취량을 분석한 결과 들깻잎 섭취자의 수는 조사연도별로 균일한 분포를 나타내었으며, 1일 7-10명 중 1명이 들깻잎을 섭취한다는 결과를 도출하였다. 남성과 여성의 섭취자 비율은 여성이 남성에 비해 평균 1.22배 더 많았다. 응답자 평균 섭취량은 2.20 g이었으며, 섭취자의 평균 섭취량은 2005년에서 가장 높았고(21.40 g), 1998년과 2008년에 비하여 0.24 g 정도 증가하였다. 대부분의 조사연도에서 남성의 섭취량이 여성에 비해 높았고, 20세 미만의 섭취량은 전체적으로 20세 이상 섭취량보다 낮았다. 극단 섭취량 1998년에서 2005년까지의 섭취량이 평균 78.02 g으로 높았지만, 2007년과 2008년에는 평균 55.58 g로 낮아졌다. 들깻잎 섭취형태를 분석한 결과 '들깻잎, 생것', '들깻잎, 통조림', '들깻잎, 데친것', '들깻잎, 찐것' 순으로 응답자 수 및 섭취량 순위가 결정되었다. 그 중 '들깻잎, 데친것', '들깻잎, 찐것'의 데이터가 충분치 않아 결과가 좋지 않게 나왔다. 또한 국민건강영양조사 식품 섭취량 데이터는 2007년부터 상시조사를 시작하였으며, 그 이전에는 시행된 연도에 따라 조사 기간 및 계절이 1998년과 2001년에는 11-12월, 2005년에는 4-6월로 일관되지 않았기 때문에 연간 일일 섭취량을 판단하는 데 한계가 있을 것이라 생각된다. 본 연구의 결과를 확대하면 들깻잎 이외의 다른 농산물, 축산물, 수산물 및 이들의 가공품에도 적용할 수 있다. 이러한 식품의 섭취량에 대한 객관적인 정보는 농축수산물 및 가공식품을 통해 의도 또는 비의도적으로 섭취하는 화학 잔류물질의 위해성 평가를 위한 좋은 기초 자료가 될 것이다.

서울시 수리시설 설계기준의 기후변화 영향 고려를 위한 미래강우시나리오 산정 (Calculation of future rainfall scenarios to consider the impact of climate change in Seoul City's hydraulic facility design standards)

  • 윤선권;이태삼;성기영;안유진
    • 한국수자원학회논문집
    • /
    • 제54권6호
    • /
    • pp.419-431
    • /
    • 2021
  • 최근 서울시의 강수특성이 변하고 있으며, 폭우의 발생빈도와 강도가 점차 증가 추세임이 확인되고 있다. 또한, 대부분의 지역이 도시화가 이루어져 불투수 비율이 높고 인구와 재산이 밀집되어 있어 폭우 발생 시 직접유출에 의한 홍수피해가 가중되고 있는 실정이다. 서울시는 이러한 홍수피해에 적극적으로 대응하기 위하여 침수취약지역 해소사업을 추친 중이며, 구조물적·비구조물적 다양한 대응책을 제시하고 있다. 본 연구에서는 서울시의 미래 기후변화영향을 고려한 수공구조물의 방재성능 목표 설정을 위하여 29개의 GCM의 강수량자료를 활용하여 자료 기간을 단기(2006-2040, P1), 중기(2041-2070, P2), 및 장기(2071-2100, P3)로 구분하여 RCP4.5와 RCP8.5 시나리오에 대한 시공간적 상세화를 실시하였다. 공간상세화는 기상청에서 관리하는 서울관측소의 강우량을 기준으로 GCM의 일자료를 Quantile Mapping을 통하여 처리하였으며, 시간 상세화는 K-Nearest Neighbor Resampling 방법과 유전자알고리즘 방법을 이용한 비매개변수 시간상세화 기법을 통하여 일자료를 시간자료로 상세화하였다. 시간상세화를 통해 각 GCM 시나리오별로 100개의 상세화 시나리오가 산출되어 총 2,900개의 상세화 시나리오를 바탕으로 IDF 곡선을 산출하고 이를 평균하여 미래 극치 강우량의 변화를 산출하였다. 산정결과, 재현기간 100년 지속시간 1시간의 확률강우량은 RCP4.5 시나리오에서 8~16%의 증가 특성을 보이고 있음을 확인하였으며 RCP8.5 시나리오의 경우 7~26%의 증가가 이루어짐을 확인하였다. 본 연구결과는 서울시의 미래 기후변화를 대비한 설계강우량 산정 및 수준목표별 수방정책을 수립하는데 활용이 가능할 것으로 판단된다.

인공신경망을 이용한 N치 예측 (A Prediction of N-value Using Artificial Neural Network)

  • 김광명;박형준;구태훈;김형찬
    • 지질공학
    • /
    • 제30권4호
    • /
    • pp.457-468
    • /
    • 2020
  • 플랜트, 토목 및 건축 사업에서 말뚝(Pile) 설계 시 어려움을 겪는 주된 요인은 지반 특성의 불확실성이다. 특히 표준관입시험(Standard Penetration Test, SPT)을 통해 측정되는 N치를 얻는 것이 가장 중요한 자료이나 광범위한 모든 지역에서 구하는 것은 어려운 현실이다. 짧은 해외사업 입찰기간 내에 시추조사를 할 경우 인허가, 시간, 비용, 장비접근, 민원 등 많은 제약요건이 존재하여 전체적인 시추조사가 어렵다. 미시추 지점에서 지반 특성은 엔지니어의 경험적 판단에 의존하여 파악되고 있고, 이는 말뚝의 설계 및 물량산출 오류로 이어져서, 공기 지연 및 원가 증가의 원인이 되고 있다. 이를 극복하기 위해서, 한정된 최소한의 지반 실측 자료를 활용하여 미시추 지점에서도 N치를 예측 할 수 있는 기술이 요구되며, 본 연구에서는 AI기법 중 하나인 인공신경망을 적용하여 N치를 예측하는 연구를 수행하였다. 인공신경망은 제한된 양의 지반정보와 생물학적인 로직화 과정을 통하여 입력변수에 대한 보다 신뢰성 있는 결과를 제공하여 준다. 본 연구에서는 최소한의 시추자료의 지반정보를 입력항목으로 하여 다층퍼셉트론과 오류역전파 알고리즘에 의하여 학습된 패턴을 가지고 미시추 지점에서 N치를 예측하는데 그 목적을 두고 있다. 이를 위하여 2개 현장(필리핀, 인도네시아)에 AI기법 적용시 실측값과 예측값에 대한 적정성을 검토하였고, 그 결과 예측값에 대한 신뢰도가 높은 것으로 연구 검토되었다.

가상 텍스쳐 영상과 실촬영 영상간 매칭을 위한 특징점 기반 알고리즘 성능 비교 연구 (Study of Feature Based Algorithm Performance Comparison for Image Matching between Virtual Texture Image and Real Image)

  • 이유진;이수암
    • 대한원격탐사학회지
    • /
    • 제38권6_1호
    • /
    • pp.1057-1068
    • /
    • 2022
  • 본 논문은 모바일 기반의 실시간 영상 측위 기술 개발을 목표로 사용자가 촬영한 사진과 가상의 텍스쳐 영상 간의 매칭 가능성 확인 연구로 특징점 기반의 매칭 알고리즘의 조합 성능을 비교했다. 특징점 기반의 매칭 알고리즘은 특징점(feature)을 추출하는 과정과 추출된 특징점을 설명하는 서술자(descriptor)를 계산하는 과정, 최종적으로 서로 다른 영상에서 추출된 서술자를 매칭하고, 잘못 매칭된 특징점을 제거하는 과정으로 이루어진다. 이때 매칭 알고리즘 조합을 위해, 특징점을 추출하는 과정과 서술자를 계산하는 과정을 각각 같거나 다르게 조합하여 매칭 성능을 비교하였다. 가상 실내 텍스쳐 영상을 위해 V-World 3D 데스크탑을 활용하였다. 현재 V-World 3D 데스크톱에서는 수직·수평적 돌출부 및 함몰부와 같은 디테일이 보강되었다. 또한, 실제 영상 텍스쳐가 입혀진 레벨로 구축되어 있어, 이를 활용하여 가상 실내 텍스쳐 데이터를 기준영상으로 구성하고, 동일한 위치에서 직접 촬영하여 실험 데이터셋을 구성하였다. 데이터셋 구축 후, 매칭 알고리즘들로 매칭 성공률과 처리 시간을 측정하였고, 이를 바탕으로 매칭 성능 향상을 위해 매칭 알고리즘 조합을 결정하였다. 본 연구에서는 매칭 기법마다 가진 특장점을 기반으로 매칭 알고리즘을 조합하여 구축한 데이터셋에 적용해 적용 가능성을 확인하였고, 추가적으로 회전요소가 고려되었을 때의 성능 비교도 함께 수행하였다. 연구 결과, Scale Invariant Feature Transform (SIFT)의 feature와 descriptor 조합이 가장 매칭 성공률이 좋았지만 처리 소요 시간이 가장 큰 것을 확인할 수 있었고, Features from Accelerated Segment Test (FAST)의 feature와 Oriented FAST and Rotated BRIEF (ORB)의 descriptor 조합의 경우, SIFT-SIFT 조합과 유사한 매칭 성공률을 가지면서 처리 소요 시간도 우수하였다. 나아가, FAST-ORB의 경우, 10°의 회전이 데이터셋에 적용되었을 때에도 매칭 성능이 우세함을 확인하였다. 따라서 종합적으로 가상 텍스쳐 영상과 실영상간 매칭을 위해서 FAST-ORB 조합의 매칭 알고리즘이 적합한 것을 확인할 수 있었다.

하천 관리를 위한 원격탐사 자료 기반 식생 분류 기법 (Vegetation classification based on remote sensing data for river management)

  • Lee, Chanjoo;Rogers, Christine;Geerling, Gertjan;Pennin, Ellis
    • 한국수자원학회:학술대회논문집
    • /
    • 한국수자원학회 2021년도 학술발표회
    • /
    • pp.6-7
    • /
    • 2021
  • 하천에서의 식생 활착은 지형, 생태, 수리학 등의 학문 분야 뿐만 아니라 하천 관리 실무에서도 중요한 이슈 중에 하나로서 하천 식생 문제는 홍수 관리와 생태계 보전이라는 상반되는 가치의 조화에 직결된다. 국내에서는 2000년대 이후 댐 하류 조절하천, 부영화된 소규모 지류하천, 4대강 사업 대상지 고수부지 등 다양한 조건에서 하천 식생 활착과 육역화 문제가 지속적으로 제기되어 왔다. 이러한 배경에서 본 연구에서는 하천 내의 식생 분포를 원격탐사 자료를 기반으로 분류하는 기법을 제안하고 이를 내성천에 적용한 결과를 제시하였다. 내성천은 2014년부터 최근까지 지속적으로 식생 활착이 발생하여 하천 경관이 변화한 대표적인 사례 하천이다. 원격탐사 자료는 유럽항공우주국(ESA)에서 운영 중이며, Google Earth Engine에서 제공하는 Sentinel 1, 2 위성 영상을 사용하였다. 지상 참값(ground truth)으로는 수역, 사주, 초본, 목본 등을 포함한 8가지 유형으로 구분되어 있는 2016년 내성천 지표 피복 자료를 사용하였다. 분류를 위한 방법은 머신러닝 알고리듬의 하나인 랜덤 포레스트 분류 기법을 사용하였으며, 미리 선정된 10개 폴리곤 영역으로부터 1,000개의 표본을 추출하여 1/2씩 나누어 훈련 및 검증 자료로 사용하였다. 검증 자료 기반의 정확도는 82~85 %로 나타났다. 훈련을 통해 수립한 모형을 2016~2020년 자료에도 적용하여 연도에 따른 식생역의 변화 과정을 제시하였다. 본 논문의 기술적 한계와 개선 방안을 고찰하였다. 이 기법은 정량적인 식생 분포를 제공함으로써 하천에서의 홍수위 계산, 식생-수리모델링 등의 기술 분야 뿐만 아니라 간벌이나 하천 식생 회춘 유도(rejuvenation)과 같은 식생의 실무적 관리 측면에서도 활용도가 클 것으로 판단된다.

  • PDF

시맨틱 웹 자원의 랭킹을 위한 알고리즘: 클래스중심 접근방법 (A Ranking Algorithm for Semantic Web Resources: A Class-oriented Approach)

  • 노상규;박현정;박진수
    • Asia pacific journal of information systems
    • /
    • 제17권4호
    • /
    • pp.31-59
    • /
    • 2007
  • We frequently use search engines to find relevant information in the Web but still end up with too much information. In order to solve this problem of information overload, ranking algorithms have been applied to various domains. As more information will be available in the future, effectively and efficiently ranking search results will become more critical. In this paper, we propose a ranking algorithm for the Semantic Web resources, specifically RDF resources. Traditionally, the importance of a particular Web page is estimated based on the number of key words found in the page, which is subject to manipulation. In contrast, link analysis methods such as Google's PageRank capitalize on the information which is inherent in the link structure of the Web graph. PageRank considers a certain page highly important if it is referred to by many other pages. The degree of the importance also increases if the importance of the referring pages is high. Kleinberg's algorithm is another link-structure based ranking algorithm for Web pages. Unlike PageRank, Kleinberg's algorithm utilizes two kinds of scores: the authority score and the hub score. If a page has a high authority score, it is an authority on a given topic and many pages refer to it. A page with a high hub score links to many authoritative pages. As mentioned above, the link-structure based ranking method has been playing an essential role in World Wide Web(WWW), and nowadays, many people recognize the effectiveness and efficiency of it. On the other hand, as Resource Description Framework(RDF) data model forms the foundation of the Semantic Web, any information in the Semantic Web can be expressed with RDF graph, making the ranking algorithm for RDF knowledge bases greatly important. The RDF graph consists of nodes and directional links similar to the Web graph. As a result, the link-structure based ranking method seems to be highly applicable to ranking the Semantic Web resources. However, the information space of the Semantic Web is more complex than that of WWW. For instance, WWW can be considered as one huge class, i.e., a collection of Web pages, which has only a recursive property, i.e., a 'refers to' property corresponding to the hyperlinks. However, the Semantic Web encompasses various kinds of classes and properties, and consequently, ranking methods used in WWW should be modified to reflect the complexity of the information space in the Semantic Web. Previous research addressed the ranking problem of query results retrieved from RDF knowledge bases. Mukherjea and Bamba modified Kleinberg's algorithm in order to apply their algorithm to rank the Semantic Web resources. They defined the objectivity score and the subjectivity score of a resource, which correspond to the authority score and the hub score of Kleinberg's, respectively. They concentrated on the diversity of properties and introduced property weights to control the influence of a resource on another resource depending on the characteristic of the property linking the two resources. A node with a high objectivity score becomes the object of many RDF triples, and a node with a high subjectivity score becomes the subject of many RDF triples. They developed several kinds of Semantic Web systems in order to validate their technique and showed some experimental results verifying the applicability of their method to the Semantic Web. Despite their efforts, however, there remained some limitations which they reported in their paper. First, their algorithm is useful only when a Semantic Web system represents most of the knowledge pertaining to a certain domain. In other words, the ratio of links to nodes should be high, or overall resources should be described in detail, to a certain degree for their algorithm to properly work. Second, a Tightly-Knit Community(TKC) effect, the phenomenon that pages which are less important but yet densely connected have higher scores than the ones that are more important but sparsely connected, remains as problematic. Third, a resource may have a high score, not because it is actually important, but simply because it is very common and as a consequence it has many links pointing to it. In this paper, we examine such ranking problems from a novel perspective and propose a new algorithm which can solve the problems under the previous studies. Our proposed method is based on a class-oriented approach. In contrast to the predicate-oriented approach entertained by the previous research, a user, under our approach, determines the weights of a property by comparing its relative significance to the other properties when evaluating the importance of resources in a specific class. This approach stems from the idea that most queries are supposed to find resources belonging to the same class in the Semantic Web, which consists of many heterogeneous classes in RDF Schema. This approach closely reflects the way that people, in the real world, evaluate something, and will turn out to be superior to the predicate-oriented approach for the Semantic Web. Our proposed algorithm can resolve the TKC(Tightly Knit Community) effect, and further can shed lights on other limitations posed by the previous research. In addition, we propose two ways to incorporate data-type properties which have not been employed even in the case when they have some significance on the resource importance. We designed an experiment to show the effectiveness of our proposed algorithm and the validity of ranking results, which was not tried ever in previous research. We also conducted a comprehensive mathematical analysis, which was overlooked in previous research. The mathematical analysis enabled us to simplify the calculation procedure. Finally, we summarize our experimental results and discuss further research issues.

네트워크 중심성 척도가 추천 성능에 미치는 영향에 대한 연구 (A Study on the Effect of Network Centralities on Recommendation Performance)

  • 이동원
    • 지능정보연구
    • /
    • 제27권1호
    • /
    • pp.23-46
    • /
    • 2021
  • 개인화 추천에서 많이 사용되는 협업 필터링은 고객들의 구매이력을 기반으로 유사고객을 찾아 상품을 추천할 수 있는 매우 유용한 기법으로 인식되고 있다. 그러나, 전통적인 협업 필터링 기법은 사용자 간에 직접적인 연결과 공통적인 특징을 기반으로 유사도를 계산하는 방식으로 인해 신규 고객 혹은 상품에 대해 유사도를 계산하기 힘들다는 문제가 제기되어 왔다. 이를 극복하기 위하여, 다른 기법을 함께 사용하는 하이브리드 기법이 고안되기도 하였다. 이런 노력의 하나로서, 사회연결망의 구조적 특성을 적용하여 이런 문제를 해결하려는 시도가 있었다. 이는, 직접적으로 유사성을 찾기 힘든 사용자 간에도 둘 사이에 놓인 유사한 사용자 또는 사용자들을 통해 유추해내는 방식으로 상호 간의 유사성을 계산하는 방식을 적용한 것이다. 즉, 구매 데이터를 기반으로 사용자의 네트워크를 생성하고 이 네트워크 내에서 두 사용자를 간접적으로 이어주는 네트워크의 특성을 기반으로 둘 사이의 유사도를 계산하는 것이다. 이렇게 얻은 유사도는 추천대상 고객이 상품의 추천에 대한 수락여부를 결정하는 척도로 활용될 수 있다. 서로 다른 중심성 척도는 추천성과에 미치는 영향이 서로 다를 수 있다는 점에서 중요한 의미를 갖는다 할 수 있다. 이런 유사도의 계산을 위해서 네트워크의 중심성을 활용할 수 있다. 본 연구에서는 여기서 더 나아가 이런 중심성이 추천성과에 미치는 영향이 추천 알고리즘에 따라서도 다를 수 있다는 데에서 주목하여 수행되었다. 또한, 이런 네트워크 분석을 활용한 추천기법은 신규 고객 혹은 상품뿐만 아니라 전체 고객 혹은 상품으로 그 대상을 넓히더라도 추천 성능을 높이는 데 기여할 것을 기대할 수 있을 것이다. 이런 관점에서 본 연구는 네트워크 모형에서 연결선이 생성되는 것을 이진 분류의 문제로 보고, 추천 모형에 적용할 분류 기법으로 의사결정나무, K-최근접이웃법, 로지스틱 회귀분석, 인공신경망, 서포트 벡터 머신을 선택하고, 온라인 쇼핑몰에서 4년2개월간 수집된 구매 데이터로 실험을 진행하였다. 사회연결망에서 측정된 중심성 척도를 각 분류 기법에 적용하여 생성한 모형을 비교 실험한 결과, 각 모형 별로 중심성 척도의 추천성공률이 서로 다르게 나타남을 확인할 수 있었다.