• 제목/요약/키워드: optimization algorithm

검색결과 5,708건 처리시간 0.046초

유전 알고리즘을 이용한 무선 메쉬 네트워크에서의 라우팅 프로토콜 설계 (Using Genetic Algorithms in Wireless Mesh Network Routing Protocol Design)

  • 윤창표;유황빈
    • 정보처리학회논문지C
    • /
    • 제18C권3호
    • /
    • pp.179-186
    • /
    • 2011
  • 무선 메쉬 네트워크 기술은 유선과 비슷한 전송속도를 갖는 무선 네트워크망을 구축하는 기술을 의미하며, 기존 유선 네트워크와 비교해서 네트워크 구축에 보다 향상된 유연성을 제공한다. 또한 노드의 이동성이 적고 에너지 영향에도 제약이 적게 따른다는 특징을 갖고 있다. 그러나 다중 경로 설정 및 선택 시에 발생할 수 있는 시스템 오버헤드와 같은 고려되어야 하는 사항들이 많아지게 된다. 따라서 이러한 네트워크 특성과 경로 설정 기술이 반영될 수 있는 네트워크의 설계 및 최적화에 주목하게 된다. 본 논문에서는 다중 경로 설정에 효과적으로 대응하기 위해 유전 알고리즘의 적합성 평가 함수에 링크의 성능과 로드를 고려한 노드의 트래픽 상황과 데이터 손실률 그리고 대역폭 및 링크의 홉수를 이용한 노드의 서비스 평가 값을 적용함으로써 무선 메쉬 네트워크 라우팅의 경로 설정에 대한 해결 방법을 제안한다.

다차원 클러스터링 기반의 단백질 2DE 이미지에서의 자동화된 기준점 추출 방법 (Automated Method of Landmark Extraction for Protein 2DE Images based on Multi-dimensional Clustering)

  • 심정은;이원석
    • 정보처리학회논문지D
    • /
    • 제12D권5호
    • /
    • pp.719-728
    • /
    • 2005
  • 2DE는 조직 내의 단백질을 규명하는 단백질 분리 기술이다. 그러나 2DE 이미지는 실험 조건, 스캐닝 상태와 같은 환경에 민감하게 영향을 받는다. 이러한 이미지간의 변화를 극복하기 위해서 사용자는 각각의 서로 다른 이미지에 수동으로 기준점을 입력해주어야 한다. 그러나 이 과정은 에러를 발생시키며 긴 시간을 요구하는 작업으로, 빠른 분석에 장애 요인이 된다. 따라서 본 논문에서는 기준점 프로파일에 기반 하여 기준점을 자동으로 추출하는 방법을 개발하였다. 기준점 프로파일은 이미 확인된 이미지들의 기준점들에 대한 클러스터링 방법을 통하여 생성하며, 각 클러스터의 다양한 속성을 정의한다. 새로운 이미지가 입력되면 기준점의 후보 스팟들을 대상으로 프로파일과 비교하석 기준점을 추출한다. 그리고 $A^*$알고리즘을 이용하여 기준점 선정 과정을 최적화한다. 본 논문에서는 실제 사람의 간 조직 이미지를 이용하여 기준점 추출 방법의 성능을 분석하였다

건물 냉방시스템의 예측제어를 위한 인공신경망 모델 개발 (Development of an Artificial Neural Network Model for a Predictive Control of Cooling Systems)

  • 강인성;양영권;이효은;박진철;문진우
    • KIEAE Journal
    • /
    • 제17권5호
    • /
    • pp.69-76
    • /
    • 2017
  • Purpose: This study aimed at developing an Artificial Neural Network (ANN) model for predicting the amount of cooling energy consumption of the variable refrigerant flow (VRF) cooling system by the different set-points of the control variables, such as supply air temperature of air handling unit (AHU), condenser fluid temperature, condenser fluid pressure, and refrigerant evaporation temperature. Applying the predicted results for the different set-points, the control algorithm, which embedded the ANN model, will determine the most energy efficient control strategy. Method: The ANN model was developed and tested its prediction accuracy by using matrix laboratory (MATLAB) and its neural network toolbox. The field data sets were collected for the model training and performance evaluation. For completing the prediction model, three major steps were conducted - i) initial model development including input variable selection, ii) model optimization, and iii) performance evaluation. Result: Eight meaningful input variables were selected in the initial model development such as outdoor temperature, outdoor humidity, indoor temperature, cooling load of the previous cycle, supply air temperature of AHU, condenser fluid temperature, condenser fluid pressure, and refrigerant evaporation temperature. The initial model was optimized to have 2 hidden layers with 15 hidden neurons each, 0.3 learning rate, and 0.3 momentum. The optimized model proved its prediction accuracy with stable prediction results.

히스토리매칭 기법을 이용한 비모수 지구통계 모사 예측성능 향상 예비연구 (A Preliminary Study of Enhanced Predictability of Non-Parametric Geostatistical Simulation through History Matching Technique)

  • 정진아;프라딥 포디얄;박은규
    • 한국지하수토양환경학회지:지하수토양환경
    • /
    • 제17권5호
    • /
    • pp.56-67
    • /
    • 2012
  • In the present study, an enhanced subsurface prediction algorithm based on a non-parametric geostatistical model and a history matching technique through Gibbs sampler is developed and the iterative prediction improvement procedure is proposed. The developed model is applied to a simple two-dimensional synthetic case where domain is composed of three different hydrogeologic media with $500m{\times}40m$ scale. In the application, it is assumed that there are 4 independent pumping tests performed at different vertical interval and the history curves are acquired through numerical modeling. With two hypothetical borehole information and pumping test data, the proposed prediction model is applied iteratively and continuous improvements of the predictions with reduced uncertainties of the media distribution are observed. From the results and the qualitative/quantitative analysis, it is concluded that the proposed model is good for the subsurface prediction improvements where the history data is available as a supportive information. Once the proposed model be a matured technique, it is believed that the model can be applied to many groundwater, geothermal, gas and oil problems with conventional fluid flow simulators. However, the overall development is still in its preliminary step and further considerations needs to be incorporated to be a viable and practical prediction technique including multi-dimensional verifications, global optimization, etc. which have not been resolved in the present study.

Cross-Layer Architecture for QoS Provisioning in Wireless Multimedia Sensor Networks

  • Farooq, Muhammad Omer;St-Hilaire, Marc;Kunz, Thomas
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제6권1호
    • /
    • pp.178-202
    • /
    • 2012
  • In this paper, we first survey cross-layer architectures for Wireless Sensor Networks (WSNs) and Wireless Multimedia Sensor Networks (WMSNs). Afterwards, we propose a novel cross-layer architecture for QoS provisioning in clustered and multi-hop based WMSNs. The proposed architecture provides support for multiple network-based applications on a single sensor node. For supporting multiple applications on a single node, an area in memory is reserved where each application can store its network protocols settings. Furthermore, the proposed cross-layer architecture supports heterogeneous flows by classifying WMSN traffic into six traffic classes. The architecture incorporates a service differentiation module for QoS provisioning in WMSNs. The service differentiation module defines the forwarding behavior corresponding to each traffic class. The forwarding behavior is primarily determined by the priority of the traffic class, moreover the service differentiation module allocates bandwidth to each traffic class with goals to maximize network utilization and avoid starvation of low priority flows. The proposal incorporates the congestion detection and control algorithm. Upon detection of congestion, the congested node makes an estimate of the data rate that should be used by the node itself and its one-hop away upstream nodes. While estimating the data rate, the congested node considers the characteristics of different traffic classes along with their total bandwidth usage. The architecture uses a shared database to enable cross-layer interactions. Application's network protocol settings and the interaction with the shared database is done through a cross-layer optimization middleware.

Modeling and Simulation of Scheduling Medical Materials Using Graph Model for Complex Rescue

  • Lv, Ming;Zheng, Jingchen;Tong, Qingying;Chen, Jinhong;Liu, Haoting;Gao, Yun
    • Journal of Information Processing Systems
    • /
    • 제13권5호
    • /
    • pp.1243-1258
    • /
    • 2017
  • A new medical materials scheduling system and its modeling method for the complex rescue are presented. Different from other similar system, first both the BeiDou Satellite Communication System (BSCS) and the Special Fiber-optic Communication Network (SFCN) are used to collect the rescue requirements and the location information of disaster areas. Then all these messages will be displayed in a special medical software terminal. After that the bipartite graph models are utilized to compute the optimal scheduling of medical materials. Finally, all these results will be transmitted back by the BSCS and the SFCN again to implement a fast guidance of medical rescue. The sole drug scheduling issue, the multiple drugs scheduling issue, and the backup-scheme selection issue are all utilized: the Kuhn-Munkres algorithm is used to realize the optimal matching of sole drug scheduling issue, the spectral clustering-based method is employed to calculate the optimal distribution of multiple drugs scheduling issue, and the similarity metric of neighboring matrix is utilized to realize the estimation of backup-scheme selection issue of medical materials. Many simulation analysis experiments and applications have proved the correctness of proposed technique and system.

응용환경 적응을 위한 온톨로지 매칭 방법론에 관한 연구 (Adaptive Ontology Matching Methodology for an Application Area)

  • 김우주;안성준;강주영;박상언
    • 지능정보연구
    • /
    • 제13권4호
    • /
    • pp.91-104
    • /
    • 2007
  • 온톨로지 매칭 기술은 시맨틱 웹을 비롯한 여러 분야에서 중요한 기술 중 하나이다. 온톨로지 매칭은 두 개의 온톨로지를 입력으로 받고, 이를 몇 개의 매개변수로 구성된 특정 알고리즘을 이용하여 두 온톨로지 간의 매칭 관계를 알아내는 절차를 말한다. 온톨로지 매칭은 대용량 온톨로지의 통합이나, 지능화된 통합 검색의 구현 및 여러응용프로그램에 의한 도메인의 공유 등 여러 분야에서 유용하게 활용될 수 있다. 일반적으로 온톨로지 매칭의 성능은 온톨로지 매칭이 사용되는 환경과 관계없이 매칭 결과에 대한 측정만으로 평가되어 왔다. 따라서 대부분의 연구는 매칭 결과를 최적화하기 위해 매개변수를 조절하는 것에 집중하였다. 본 연구에서는 기존의 측정방법에 따른 높은 측정결과만을 목표로 하지 않고 온톨로지의 성격과 매칭 결과의 사용 목적에 따라 매개변수를 적절히 변화시켜야 한다는 점에 주목하고, 주어진 환경에 맞게 매개변수를 조정하는 방법론을 제안하고자 한다.

  • PDF

HEVC 인트라 부호화를 위한 특징점 기반의 고속 CU Depth 결정 (Keypoint-based Fast CU Depth Decision for HEVC Intra Coding)

  • 김남욱;임성창;고현석;전병우
    • 전자공학회논문지
    • /
    • 제53권2호
    • /
    • pp.89-96
    • /
    • 2016
  • MPEG-H HEVC/ITU-T H.265는 quadtree 구조의 CU (Coding Unit)를 갖는 최신의 비디오 부호화 표준 기술이다. HEVC 부호화기는 모든 가능한 CU 구조에 대해서 Rate-distortion 최적화 과정을 통하여 최적 부호화 성능의 CU depth를 구할 수 있지만, 그 과정에 매우 많은 계산량을 필요로 한다. 본 연구에서는 컴퓨터 비젼 분야에서 잘 알려진 blob detection을 통하여 특징점을 찾는 과정이 저역 필터를 거치는 것과 같은 효과를 가진다는 것과 CU depth의 결정에는 영상의 고주파수 에너지 분포를 고려하는 것이 중요하다는 사실에 착안하여, blob detection 방법을 사용하여 추출된 특징점을 사용하여 HEVC 부호화기의 인트라 예측의 계산 복잡도를 낮추고자 한다. 실험을 통하여 all intra의 경우 0.45%의 BDBR 저하만으로 20% 정도의 부호화 시간을 절감할 수 있음을 보인다.

다중 표준용 파라미터화된 비터비 복호기 IP 설계 (A Design of Parameterized Viterbi Decoder for Multi-standard Applications)

  • 박상덕;전흥우;신경욱
    • 한국정보통신학회논문지
    • /
    • 제12권6호
    • /
    • pp.1056-1063
    • /
    • 2008
  • 부호화율과 구속장을 선택적으로 지정할 수 있는 다중 표준용 파라미터화된 비터비 복호기의 효율적인 설계에 대해 기술한다. 설계된 비터비 복호기는 부호화율 1/2과 1/3, 구속장 7과 9를 지원하여 4가지 모드로 동작하도록 파라미터화된 구조로 설계되었으며, 각 동작모드에서 공통으로 사용되는 블록들의 공유가 극대화되는 회로구조를 적용하여 면적과 전력소모가 최소화되도록 하였다. 또한, one-point 역추적 알고리듬에 최적화된 ACCS (Accumulate-Subtract) 회로를 적용하였으며, 이를 통해 완전 병렬구조에 비해 ACCS 회로의 면적을 약 35% 감소시켰다. 설계된 비터비 복호기 코어는 0.35-um CMOS 셀 라이브러리로 합성하여 79,818 게이트와 25,600비트의 메모리로 구현되었으며, 70 MHz 클록으로 동작하여 105 Mbps의 성능을 갖는다. 설계된 비터비 복호기의 BER (Bit Error Rate) 성능에 대한 시뮬레이션 결과, 부호화율 1/3과 구속장 7로 동작하는 경우에 3.6 dB의 $E_b/N_o$에서 $10^{-4}$의 비트 오류율을 나타냈다.

Complexity Estimation Based Work Load Balancing for a Parallel Lidar Waveform Decomposition Algorithm

  • Jung, Jin-Ha;Crawford, Melba M.;Lee, Sang-Hoon
    • 대한원격탐사학회지
    • /
    • 제25권6호
    • /
    • pp.547-557
    • /
    • 2009
  • LIDAR (LIght Detection And Ranging) is an active remote sensing technology which provides 3D coordinates of the Earth's surface by performing range measurements from the sensor. Early small footprint LIDAR systems recorded multiple discrete returns from the back-scattered energy. Recent advances in LIDAR hardware now make it possible to record full digital waveforms of the returned energy. LIDAR waveform decomposition involves separating the return waveform into a mixture of components which are then used to characterize the original data. The most common statistical mixture model used for this process is the Gaussian mixture. Waveform decomposition plays an important role in LIDAR waveform processing, since the resulting components are expected to represent reflection surfaces within waveform footprints. Hence the decomposition results ultimately affect the interpretation of LIDAR waveform data. Computational requirements in the waveform decomposition process result from two factors; (1) estimation of the number of components in a mixture and the resulting parameter estimates, which are inter-related and cannot be solved separately, and (2) parameter optimization does not have a closed form solution, and thus needs to be solved iteratively. The current state-of-the-art airborne LIDAR system acquires more than 50,000 waveforms per second, so decomposing the enormous number of waveforms is challenging using traditional single processor architecture. To tackle this issue, four parallel LIDAR waveform decomposition algorithms with different work load balancing schemes - (1) no weighting, (2) a decomposition results-based linear weighting, (3) a decomposition results-based squared weighting, and (4) a decomposition time-based linear weighting - were developed and tested with varying number of processors (8-256). The results were compared in terms of efficiency. Overall, the decomposition time-based linear weighting work load balancing approach yielded the best performance among four approaches.