• 제목/요약/키워드: Recursive Technique

검색결과 186건 처리시간 0.026초

위치 검색 지도 서비스를 위한 k관심지역 검색 기법 (k-Interest Places Search Algorithm for Location Search Map Service)

  • 조성환;이경주;유기윤
    • 한국측량학회지
    • /
    • 제31권4호
    • /
    • pp.259-267
    • /
    • 2013
  • 최근 인터넷의 발달과 더불어 지리정보시스템(GIS, Geographic Information System)에 대한 인식이 저변 확대되면서 일반인들도 위치 검색 기능을 제공하는 웹GIS를 쉽게 이용할 수 있게 되었다. 현재 서비스되고 있는 모든 위치 검색 기능은 사용자가 하나의 검색어를 입력하고 그에 대한 결과를 보여주는 서비스에 한정되어 있다. 하지만 사용자의 검색 목적이 다양해짐에 따라, 여러 가지 행위를 동시에 할 수 있는 장소를 검색하는 서비스는 없었다. 예를들어, 점심을 먹은 후, 은행에서 업무를 보고, 영화 한 편을 보고자 할 때 이러한 관심 지역(POI, Point of Interest)들이 모여 있는 장소를 필요로 할 수 있다. 따라서 본 논문에서는 사용자로부터 여러 장소를 입력받아 입력된 장소가 모여 있는 곳을 검색해주는 k-IPS 기법을 제안하고자 한다. 여기서 k는 다양한 행위를 할 수 있는 관심의 개수이다. 이 방법은 최소경계사각형(MBR, Minimum Bounding Rectangle)의 계층적 트리 구조인 $R^*$-tree 색인 기법을 이용하여 공간을 분할하고, 기존 공간 Join 연산의 성능 개선을 위하여 $R^*$-tree간의 겹치는 영역 추출하는 재귀적 공간 Join 연산을 구현하였다. k-IPS 기법의 성능 평가는 159개의 다양한 검색어 집합을 구성하여 k=2,3,4,6에 대한 검색 결과를 확인하였다. 실험 결과의 약 90%에 대해서 예상한대로 k개의 검색어 장소가 모여 있는 위치를 얻을 수 있었고, k=2,3,4의 처리 시간은 0.1초 이내의 응답을 얻을 수 있었다. k-IPS 서비스를 통하여 현대인의 순차적 생활 패턴에 맞춘 검색 서비스가 가능할 것으로 판단된다.

거리비례제 요금정책에 따른 K요금경로탐색 (Finding the K Least Fare Routes In the Distance-Based Fare Policy)

  • 이미영;백남철;문병섭;강원의
    • 대한교통학회지
    • /
    • 제23권1호
    • /
    • pp.103-114
    • /
    • 2005
  • 서울시 대중교통체계개편에서 요금부과방안은 기본적으로 거리비례제에 근거하고 있다. 거리비례제에서 요금은 일정거리까지의 통행에 따른 기본요금과 수단적 환승에서 발생하는 환승요금, 일정거리 이상의 통행에 따른 할증요금으로 구분하여 부과된다. 본 연구는 거리비례제에 따른 요금부과 시 순차적으로 정렬된 K개의 요금경로를 탐색하는 K요금경로탐색알고리즘을 제안한다. 이를 위해 다수의 대중교통수단이 존재하는 복합교통망에서 링크표지기법을 적용하여 네트워크확장이 요구되지 않도록 하였으며, 동일링크를 통행하는 복수의 통행순단을 각각의 개별링크로 처리되도록 구축하였다. 따라서 본 연구에서 제안하는 K요금경로탐색알고리즘은 수단과 관련된 별도의 표식이 요구되지 않으므로 단일수단 교통망에 확용되는 K경로탐색알고리즘이 직접 적용될 수 있다. 본 연구는 또한 출발지에서 수단을 탑승한 이용자에게 요금이 부과되는 과정을 복합교통망에서 나타내가 위하여 출발지를 기준으로 탐색되는 인접된 두 링크에 대해서 기본요금, 환승요금, 할증요금이 계산되어 합산되는 과정을 수식으로 표현하였다. 이 수식을 K개의 원소를 포함하는 재귀벡터형태(Recursive Vector Formula)로 전화하여 K요금경로탐색을 위한 최적식과 알고리즘을 제안하였다. 간단한 사례연구를 통하여 알고리즘 수행과정을 검증하고 향후에 연구진행방향에 대하여 서술하였다.

데이터-재순환 구조에서 적응 가중치 갱신을 통한 LMS 알고리즘 수렴 속 도 개선 (Improvement of LMS Algorithm Convergence Speed with Updating Adaptive Weight in Data-Recycling Scheme)

  • 김광준;장혁;석경휴;나상동
    • 정보보호학회논문지
    • /
    • 제9권4호
    • /
    • pp.11-22
    • /
    • 1999
  • LMS 적응필터는 많은 신호처리 응용분야에서 광범위하게 사용되고 있으나 반복 적 최소 자승 (RLS) 적응 필터와 비교해서 주어진 안정상태 평균 자승 에러에 대한 수렴특성이 떨어진 다. 본 논문은 LMS 알고리즘의 수렴속도를 향상시키기 위해 폐기된 탭 입력 데이터를 몇 개의 한정된 버퍼를 이용 탭 가중치를 적응적으로 조절하여 수렴특성을 개선한다. 컴퓨터 시뮬레이션 결과를 통해 스텝 크기 매 개변수 $\mu$값의 증가는 보다 빠른 수렴속도와 평균 자승에러를 감소시키는 효과를 가지므로 데이터 재순 환 버퍼 구조에서 탭 가중치의 갱신에 비례하여 평균 자승 에러의 수렴속도가 재순환 버퍼 B를 증가시 켜 수렴속도가 (B+1)배 만큼 증가한다. 데이터 버퍼 알고리즘을 이용한 제안된 TDL 필터가 LMS 알고 리즘과 동일한 수렴조건을 가지고 실행될 때 연산복잡성의 실질적 부담감을 배제하고 채널 간의 상호심 볼간섭을 보다 효율적으로 제어하면서 적응 횡단선 필터의 수렴속도를 증기시켜 개선한다.

분광 다양성을 고려한 초분광 영상 기반 부유사 농도 계측 기법 개발 (Development of Suspended Sediment Concentration Measurement Technique Based on Hyperspectral Imagery with Optical Variability)

  • 권시윤;서일원
    • 한국수자원학회:학술대회논문집
    • /
    • 한국수자원학회 2021년도 학술발표회
    • /
    • pp.116-116
    • /
    • 2021
  • 자연 하천에서의 부유사 농도 계측은 주로 재래식 채집방식을 활용한 직접계측 방식에 의존하여 비용과 시간이 많이 소요되며 점 계측 방식으로 고해상도의 시공간 자료를 측정하기엔 한계가 존재한다. 이러한 한계점을 극복하기 위해 최근 위성영상과 드론을 활용하여 촬영된 다분광 혹은 초분광 영상을 통해 고해상도의 부유사 농도 시공간분포를 측정하는 기법에 대한 연구가 활발히 진행되고 있다. 하지만, 다른 하천 물리량 계측에 비해 부유사 계측 연구는 하천에 따라 부유사가 비균질적으로 분포하여 원격탐사를 통해 정확하고 전역적인 농도 분포를 재현하기는 어려운 실정이다. 이러한 부유사의 비균질성은 부유사의 입도분포, 광물특성, 침강성 등이 하천에서 다양하게 분포하기 때문이며 이로 인해 부유사는 지역별로 다양한 분광특성을 가지게 된다. 따라서, 본 연구에서는 이러한 영향을 고려한 전역적인 부유사 농도 예측 모형을 개발하기 위해 실내 실험을 통해 부유사 특성별 고유 분광 라이브러리를 구축하고 실규모 수로에서 다양한 부유사 조건에 대한 초분광 스펙트럼과 부유사 농도를 측정하는 실험을 수행하였다. 실제 부유사 농도는 광학 기반 센서인 LISST-200X와 샘플링을 통한 실험실 분석을 통해 계측되었으며, 초분광 스펙트럼 자료는 초분광 카메라를 통해 촬영한 영상에서 부유사 계측 지점에 대한 픽셀의 스펙트럼을 추출하여 구축하였다. 이렇게 생성된 자료들의 분광 다양성을 주성분 분석(Principle Component Analysis; PCA)를 통해 분석하였으며, 부유사의 입도 분포, 부유사 종류, 수온 등과의 상관관계를 통해 분광 특성과 가장 상관관계가 높은 물리적 인자를 규명하였다. 더불어 구축된 자료를 바탕으로 기계학습 기반 주요 특징 선택 알고리즘인 재귀적 특징 제거법 (Recursive Feature Elimination)과 기계학습기반 회귀 모형인 Support Vector Regression을 결합하여 초분광 영상 기반 부유사 농도 예측 모형을 개발하였으며, 이 결과를 원격탐사 계측 연구에서 일반적으로 사용되어 오던 최적 밴드비 분석 (Optimal Band Ratio Analysis; OBRA) 방법으로 도출된 회귀식과 비교하였다. 그 결과, 기존의 OBRA 기반 방법은 비선형성을 증가시켜도 좁은 영역의 파장대만을 고려하는 한계점으로 인해 부유사의 다양한 분광 특성을 반영하지 못하였으며, 본 연구에서 제시한 기계학습 기반 예측 모형은 420 nm~1000 nm에 걸쳐 폭 넓은 파장대를 고려함과 동시에 높은 정확도를 산출하였다. 최종적으로 개발된 모형을 적용해 다양한 유사 조건에 대한 부유사 시공간 분포를 매핑한 결과, 시공간적으로 고해상도의 부유사 농도 분포를 산출하는 것으로 밝혀졌다.

  • PDF

캠페인 효과 제고를 위한 자기 최적화 변수 선택 알고리즘 (Self-optimizing feature selection algorithm for enhancing campaign effectiveness)

  • 서정수;안현철
    • 지능정보연구
    • /
    • 제26권4호
    • /
    • pp.173-198
    • /
    • 2020
  • 최근 온라인의 비약적인 활성화로 캠페인 채널들이 다양하게 확대되면서 과거와는 비교할 수 없을 수준의 다양한 유형들의 캠페인들이 기업에서 수행되고 있다. 하지만, 고객의 입장에서는 중복 노출로 인한 캠페인에 대한 피로감이 커지면서 스팸으로 인식하는 경향이 있고, 기업입장에서도 캠페인에 투자하는 비용은 점점 더 늘어났지만 실제 캠페인 성공률은 오히려 더 낮아지고 있는 등 캠페인 자체의 효용성이 낮아지고 있다는 문제점이 있어 실무적으로 캠페인의 효과를 높이고자 하는 다양한 연구들이 지속되고 있다. 특히 최근에는 기계학습을 이용하여 캠페인의 반응과 관련된 다양한 예측을 해보려는 시도들이 진행되고 있는데, 이 때 캠페인 데이터의 다양한 특징들로 인해 적절한 특징을 선별하는 것은 매우 중요하다. 전통적인 특징 선택 기법으로 탐욕 알고리즘(Greedy Algorithm) 중 SFS(Sequential Forward Selection), SBS(Sequential Backward Selection), SFFS(Sequential Floating Forward Selection) 등이 많이 사용되었지만 최적 특징만을 학습하는 모델을 생성하기 때문에 과적합의 위험이 크고, 특징이 많은 경우 분류 예측 성능 하락 및 학습시간이 많이 소요된다는 한계점이 있다. 이에 본 연구에서는 기존의 캠페인에서의 효과성 제고를 위해 개선된 방식의 특징 선택 알고리즘을 제안한다. 본 연구의 목적은 캠페인 시스템에서 처리해야 하는 데이터의 통계학적 특성을 이용하여 기계 학습 모델 성능 향상의 기반이 되는 특징 부분 집합을 탐색하는 과정에서 기존의 SFFS의 순차방식을 개선하는 것이다. 구체적으로 특징들의 데이터 변형을 통해 성능에 영향을 많이 끼치는 특징들을 먼저 도출하고 부정적인 영향을 미치는 특징들은 제거를 한 후 순차방식을 적용하여 탐색 성능에 대한 효율을 높이고 일반화된 예측이 가능하도록 개선된 알고리즘을 적용하였다. 실제 캠페인 데이터를 이용해 성능을 검증한 결과, 전통적인 탐욕알고리즘은 물론 유전자알고리즘(GA, Genetic Algorithm), RFE(Recursive Feature Elimination) 같은 기존 모형들 보다 제안된 모형이 보다 우수한 탐색 성능과 예측 성능을 보임을 확인할 수 있었다. 또한 제안 특징 선택 알고리즘은 도출된 특징들의 중요도를 제공하여 예측 결과의 분석 및 해석에도 도움을 줄 수 있다. 이를 통해 캠페인 유형별로 중요 특징에 대한 분석과 이해가 가능할 것으로 기대된다.

시맨틱 웹 자원의 랭킹을 위한 알고리즘: 클래스중심 접근방법 (A Ranking Algorithm for Semantic Web Resources: A Class-oriented Approach)

  • 노상규;박현정;박진수
    • Asia pacific journal of information systems
    • /
    • 제17권4호
    • /
    • pp.31-59
    • /
    • 2007
  • We frequently use search engines to find relevant information in the Web but still end up with too much information. In order to solve this problem of information overload, ranking algorithms have been applied to various domains. As more information will be available in the future, effectively and efficiently ranking search results will become more critical. In this paper, we propose a ranking algorithm for the Semantic Web resources, specifically RDF resources. Traditionally, the importance of a particular Web page is estimated based on the number of key words found in the page, which is subject to manipulation. In contrast, link analysis methods such as Google's PageRank capitalize on the information which is inherent in the link structure of the Web graph. PageRank considers a certain page highly important if it is referred to by many other pages. The degree of the importance also increases if the importance of the referring pages is high. Kleinberg's algorithm is another link-structure based ranking algorithm for Web pages. Unlike PageRank, Kleinberg's algorithm utilizes two kinds of scores: the authority score and the hub score. If a page has a high authority score, it is an authority on a given topic and many pages refer to it. A page with a high hub score links to many authoritative pages. As mentioned above, the link-structure based ranking method has been playing an essential role in World Wide Web(WWW), and nowadays, many people recognize the effectiveness and efficiency of it. On the other hand, as Resource Description Framework(RDF) data model forms the foundation of the Semantic Web, any information in the Semantic Web can be expressed with RDF graph, making the ranking algorithm for RDF knowledge bases greatly important. The RDF graph consists of nodes and directional links similar to the Web graph. As a result, the link-structure based ranking method seems to be highly applicable to ranking the Semantic Web resources. However, the information space of the Semantic Web is more complex than that of WWW. For instance, WWW can be considered as one huge class, i.e., a collection of Web pages, which has only a recursive property, i.e., a 'refers to' property corresponding to the hyperlinks. However, the Semantic Web encompasses various kinds of classes and properties, and consequently, ranking methods used in WWW should be modified to reflect the complexity of the information space in the Semantic Web. Previous research addressed the ranking problem of query results retrieved from RDF knowledge bases. Mukherjea and Bamba modified Kleinberg's algorithm in order to apply their algorithm to rank the Semantic Web resources. They defined the objectivity score and the subjectivity score of a resource, which correspond to the authority score and the hub score of Kleinberg's, respectively. They concentrated on the diversity of properties and introduced property weights to control the influence of a resource on another resource depending on the characteristic of the property linking the two resources. A node with a high objectivity score becomes the object of many RDF triples, and a node with a high subjectivity score becomes the subject of many RDF triples. They developed several kinds of Semantic Web systems in order to validate their technique and showed some experimental results verifying the applicability of their method to the Semantic Web. Despite their efforts, however, there remained some limitations which they reported in their paper. First, their algorithm is useful only when a Semantic Web system represents most of the knowledge pertaining to a certain domain. In other words, the ratio of links to nodes should be high, or overall resources should be described in detail, to a certain degree for their algorithm to properly work. Second, a Tightly-Knit Community(TKC) effect, the phenomenon that pages which are less important but yet densely connected have higher scores than the ones that are more important but sparsely connected, remains as problematic. Third, a resource may have a high score, not because it is actually important, but simply because it is very common and as a consequence it has many links pointing to it. In this paper, we examine such ranking problems from a novel perspective and propose a new algorithm which can solve the problems under the previous studies. Our proposed method is based on a class-oriented approach. In contrast to the predicate-oriented approach entertained by the previous research, a user, under our approach, determines the weights of a property by comparing its relative significance to the other properties when evaluating the importance of resources in a specific class. This approach stems from the idea that most queries are supposed to find resources belonging to the same class in the Semantic Web, which consists of many heterogeneous classes in RDF Schema. This approach closely reflects the way that people, in the real world, evaluate something, and will turn out to be superior to the predicate-oriented approach for the Semantic Web. Our proposed algorithm can resolve the TKC(Tightly Knit Community) effect, and further can shed lights on other limitations posed by the previous research. In addition, we propose two ways to incorporate data-type properties which have not been employed even in the case when they have some significance on the resource importance. We designed an experiment to show the effectiveness of our proposed algorithm and the validity of ranking results, which was not tried ever in previous research. We also conducted a comprehensive mathematical analysis, which was overlooked in previous research. The mathematical analysis enabled us to simplify the calculation procedure. Finally, we summarize our experimental results and discuss further research issues.