• 제목/요약/키워드: Multi-Instance Data

검색결과 31건 처리시간 0.034초

Factors Clustering Approach to Parametric Cost Estimates And OLAP Driver

  • JaeHo, Cho;BoSik, Son;JaeYoul, Chun
    • 국제학술발표논문집
    • /
    • The 3th International Conference on Construction Engineering and Project Management
    • /
    • pp.707-716
    • /
    • 2009
  • The role of cost modeller is to facilitate the design process by systematic application of cost factors so as to maintain a sensible and economic relationship between cost, quantity, utility and appearance which thus helps in achieving the client's requirements within an agreed budget. There are a number of research on cost estimates in the early design stage based on the improvement of accuracy or impact factors. It is common knowledge that cost estimates are undertaken progressively throughout the design stage and make use of the information that is available at each phase, through the related research up to now. In addition, Cost estimates in the early design stage shall analyze the information under the various kinds of precondition before reaching the more developed design because a design can be modified and changed in all process depending on clients' requirements. Parametric cost estimating models have been adopted to support decision making in a changeable environment, in the early design stage. These models are using a similar instance or a pattern of historical case to be constituted in project information, geographic design features, relevant data to quantity or cost, etc. OLAP technique analyzes a subject data by multi-dimensional points of view; it supports query, analysis, comparison of required information by diverse queries. OLAP's data structure matches well with multiview-analysis framework. Accordingly, this study implements multi-dimensional information system for case based quantity data related to design information that is utilizing OLAP's technology, and then analyzes impact factors of quantity by the design criteria or parameter of the same meaning. On the basis of given factors examined above, this study will generate the rules on quantity measure and produce resemblance class using clustering of data mining. These sorts of knowledge-base consist of a set of classified data as group patterns, of which will be appropriate stand on the parametric cost estimating method.

  • PDF

Analysis on Geo-stress and casing damage based on fluid-solid coupling for Q9G3 block in Jibei oil field

  • Ji, Youjun;Li, Xiaoyu
    • Geomechanics and Engineering
    • /
    • 제15권1호
    • /
    • pp.677-686
    • /
    • 2018
  • Aimed at serious casing damage problem during the process of oilfield development by injecting water, based on seepage mechanics, fluid mechanics and the theory of rock mechanics, the multi-physics coupling theory was also taken into account, the mathematical model for production of petroleum with water flooding was established, and the method to solve the coupling model was presented by combination of Abaqus and Eclipse software. The Q9G3 block in Jibei oilfield was taken for instance, the well log data and geological survey data were employed to build the numerical model of Q9G3 block, the method established above was applied to simulate the evolution of seepage and stress. The production data was imported into the model to conduct the history match work of the model, and the fitting accuracy of the model was quite good. The main mechanism of casing damage of the block was analyzed, and some wells with probable casing damage problem were pointed out, the displacement of the well wall matched very well with testing data of the filed. Finally, according to the simulation results, some useful measures for preventing casing damage in Jibei oilfield was proposed.

입력변수 및 학습사례 선정을 동시에 최적화하는 GA-MSVM 기반 주가지수 추세 예측 모형에 관한 연구 (A Study on the Prediction Model of Stock Price Index Trend based on GA-MSVM that Simultaneously Optimizes Feature and Instance Selection)

  • 이종식;안현철
    • 지능정보연구
    • /
    • 제23권4호
    • /
    • pp.147-168
    • /
    • 2017
  • 오래 전부터 학계에서는 정확한 주식 시장의 예측에 대한 많은 연구가 진행되어 왔고 현재에도 다양한 기법을 응용한 예측모형들이 연구되고 있다. 특히 최근에는 딥러닝(Deep-Learning)을 포함한 다양한 기계학습기법(Machine Learning Methods)을 이용해 주가지수를 예측하려는 많은 시도들이 진행되고 있다. 전통적인 주식투자거래의 분석기법으로는 기본적 분석과 기술적 분석방법이 사용되지만 보다 단기적인 거래예측이나 통계학적, 수리적 기법을 응용하기에는 기술적 분석 방법이 보다 유용한 측면이 있다. 이러한 기술적 지표들을 이용하여 진행된 대부분의 연구는 미래시장의 (보통은 다음 거래일) 주가 등락을 이진분류-상승 또는 하락-하여 주가를 예측하는 모형을 연구한 것이다. 하지만 이러한 이진분류로는 추세를 예측하여 매매시그널을 파악하거나, 포트폴리오 리밸런싱(Portfolio Rebalancing)의 신호로 삼기에는 적합치 않은 측면이 많은 것 또한 사실이다. 이에 본 연구에서는 기존의 주가지수 예측방법인 이진 분류 (binary classification) 방법에서 주가지수 추세를 (상승추세, 박스권, 하락추세) 다분류 (multiple classification) 체계로 확장하여 주가지수 추세를 예측하고자 한다. 이러한 다 분류 문제 해결을 위해 기존에 사용하던 통계적 방법인 다항로지스틱 회귀분석(Multinomial Logistic Regression Analysis, MLOGIT)이나 다중판별분석(Multiple Discriminant Analysis, MDA) 또는 인공신경망(Artificial Neural Networks, ANN)과 같은 기법보다는 예측성과의 우수성이 입증된 다분류 Support Vector Machines(Multiclass SVM, MSVM)을 사용하고, 이 모델의 성능을 향상시키기 위한 래퍼(wrapper)로서 유전자 알고리즘(Genetic Algorithm)을 이용한 최적화 모델을 제안한다. 특히 GA-MSVM으로 명명된 본 연구의 제안 모형에서는 MSVM의 커널함수 매개변수, 그리고 최적의 입력변수 선택(feature selection) 뿐만이 아니라 학습사례 선택(instance selection)까지 최적화하여 모델의 성능을 극대화 하도록 설계하였다. 제안 모형의 성능을 검증하기 위해 국내주식시장의 실제 데이터를 적용해본 결과 ANN이나 CBR, MLOGIT, MDA와 같은 기존 데이터마이닝 기법들이나 인공지능 알고리즘은 물론 현재까지 가장 우수한 예측 성과를 나타내는 것으로 알려져 있던 전통적인 다분류 SVM 보다도 제안 모형이 보다 우수한 예측성과를 보임을 확인할 수 있었다. 특히 주가지수 추세 예측에 있어서 학습사례의 선택이 매우 중요한 역할을 하는 것으로 확인 되었으며, 모델의 성능의 개선효과에 다른 요인보다 중요한 요소임을 확인할 수 있었다.

3D Cross-Modal Retrieval Using Noisy Center Loss and SimSiam for Small Batch Training

  • Yeon-Seung Choo;Boeun Kim;Hyun-Sik Kim;Yong-Suk Park
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제18권3호
    • /
    • pp.670-684
    • /
    • 2024
  • 3D Cross-Modal Retrieval (3DCMR) is a task that retrieves 3D objects regardless of modalities, such as images, meshes, and point clouds. One of the most prominent methods used for 3DCMR is the Cross-Modal Center Loss Function (CLF) which applies the conventional center loss strategy for 3D cross-modal search and retrieval. Since CLF is based on center loss, the center features in CLF are also susceptible to subtle changes in hyperparameters and external inferences. For instance, performance degradation is observed when the batch size is too small. Furthermore, the Mean Squared Error (MSE) used in CLF is unable to adapt to changes in batch size and is vulnerable to data variations that occur during actual inference due to the use of simple Euclidean distance between multi-modal features. To address the problems that arise from small batch training, we propose a Noisy Center Loss (NCL) method to estimate the optimal center features. In addition, we apply the simple Siamese representation learning method (SimSiam) during optimal center feature estimation to compare projected features, making the proposed method robust to changes in batch size and variations in data. As a result, the proposed approach demonstrates improved performance in ModelNet40 dataset compared to the conventional methods.

Looking Beyond the Numbers: Bibliometric Approach to Analysis of LIS Research in Korea

  • 양기덕;이종욱;최원찬
    • 한국문헌정보학회지
    • /
    • 제49권4호
    • /
    • pp.241-264
    • /
    • 2015
  • Bibliometric analysis for research performance evaluation can generate erroneous assessments for various reasons. Application of the same evaluation metric to different domains, for instance, can produce unfair evaluation results, while analysis based on incomplete data can lead to incorrect conclusions. This study examines bibliometric data of library and information science (LIS) research in Korea to investigate whether research performance should be evaluated in a uniform manner in multi-disciplinary fields such as LIS and how data incompleteness can affect the bibliometric assessment outcomes. The initial analysis of our study data, which consisted of 4,350 citations to 1,986 domestic papers published between 2001 and 2010 by 163 LIS faculty members in Korea, showed an anomalous citation pattern caused by data incompleteness, which was addressed via data projection based on past citation trends. The subsequent analysis of augmented study data revealed ample evidence of bibliometric pattern differences across subject areas. In addition to highlighting the need for a subject-specific assessment of research performance, the study demonstrated the importance of rigorous analysis and careful interpretation of bibliometric data by identifying and compensating for deficiencies in the data source, examining per capita as well as overall statistics, and considering various facets of research in order to interpret what the numbers reflect rather than merely taking them at face value as quantitative measures of research performance.

Statistical implications of extrapolating the overall result to the target region in multi-regional clinical trials

  • Kang, Seung-Ho;Kim, Saemina
    • Communications for Statistical Applications and Methods
    • /
    • 제25권4호
    • /
    • pp.341-354
    • /
    • 2018
  • The one of the principles described in ICH E9 is that only results obtained from pre-specified statistical methods in a protocol are regarded as confirmatory evidence. However, in multi-regional clinical trials, even when results obtained from pre-specified statistical methods in protocol are significant, it does not guarantee that the test treatment is approved by regional regulatory agencies. In other words, there is no so-called global approval, and each regional regulatory agency makes its own decision in the face of the same set of data from a multi-regional clinical trial. Under this situation, there are two natural methods a regional regulatory agency can use to estimate the treatment effect in a particular region. The first method is to use the overall treatment estimate, which is to extrapolate the overall result to the region of interest. The second method is to use regional treatment estimate. If the treatment effect is completely identical across all regions, it is obvious that the overall treatment estimator is more efficient than the regional treatment estimator. However, it is not possible to confirm statistically that the treatment effect is completely identical in all regions. Furthermore, some magnitude of regional differences within the range of clinical relevance may naturally exist for various reasons due to, for instance, intrinsic and extrinsic factors. Nevertheless, if the magnitude of regional differences is relatively small, a conventional method to estimate the treatment effect in the region of interest is to extrapolate the overall result to that region. The purpose of this paper is to investigate the effects produced by this type of extrapolation via estimations, followed by hypothesis testing of the treatment effect in the region of interest. This paper is written from the viewpoint of regional regulatory agencies.

Open Source Cloud Computing: An Experience Case of Geo-based Image Handling in Amazon Web Services

  • Lee, Ki-Won
    • 대한원격탐사학회지
    • /
    • 제28권3호
    • /
    • pp.337-346
    • /
    • 2012
  • In the view from most application system developers and users, cloud computing becomes popular in recent years and is still evolving. But in fact it is not easy to reach at the level of actual operations. Despite, it is known that the cloud in the practical stage provides a new pattern for deploying a geo-spatial application. However, domestically geo-spatial application implementation and operation based on this concept or scheme is on the beginning stage. It is the motivation of this works. Although this study is an introductory level, a simple and practical processed result was presented. This study was carried out on Amazon web services platform, as infrastructure as a service in the geo-spatial areas. Under this environment, cloud instance, a web and mobile system being previously implemented in the multi-layered structure for geo-spatial open sources of database and application server, was generated. Judging from this example, it is highly possible that cloud services with the functions of geo-processing service and large volume data handling are the crucial point, leading a new business model for civilian remote sensing application and geo-spatial enterprise industry. The further works to extend geo-spatial applications in cloud computing paradigm are left.

화물열차 작업선배정 및 열차조성을 위한 수리모형 및 해법 (An Optimization Model for Assignment of Freight Trains to Transshipment Tracks and Allocation of Containers to Freight Trains)

  • 김경민;김동희;박범환
    • 한국철도학회논문집
    • /
    • 제13권5호
    • /
    • pp.535-540
    • /
    • 2010
  • 본 연구는 철도물류터미널에서 작업선 배정 및 열차조성을 위한 최적화 모형을 제시한다. 본 연구에서는 하루 터미널 작업 종료시간을 최소화하며 처리 컨테이너수를 최대화하는 다기준 정수 계획 모형을 개발하였고, 의왕ICD로부터의 실제 데이터로부터 구성된 현실 문제에 대해 본 모형을 적용하여 실험하였다. 실험 결과 목적함수의 가중치에 따라 다양한 파레토 최적해를 산출할 수 있었으며, 기존의 해보다 전체 작업종료 시간을 약 6% 감소시켰으며 이러한 결과는 본 연구에서 개발한 최적화 모형을 적용할 경우 설비의 추가적인 확장 없이도, 철도 컨테이너 터미널의 처리효율 향상을 가져올 수 있음을 의미한다.

레일리 페이딩 채널에서 파일럿 기법과 LDPC 코딩이 적용된 COFDM-CDMA의 성능 분석 (Performance of pilot-assisted coded-OFDM-CDMA using low-density parity-check coding in Rayleigh fading channels)

  • 안영신;최재호
    • 한국통신학회논문지
    • /
    • 제28권5C호
    • /
    • pp.532-538
    • /
    • 2003
  • 본 논문에서는 다중 경로 이동통신 환경에서 LDPC 코드를 COFDM-CDMA에 적용하는 기법을 제안한다. LDPC 코드는 부호화율이 증가함에 따라 AWGN 채널이나 플랫 페이딩 채널에서는 우수한 복호화 성능을 나타내지만 수신 신호의 품질이 상대적으로 열악한 다중 경로 페이딩 채널의 경우에서는 LDPC 코딩의 성능 또한 상대적으로 저하된다. SNR이 16 ㏈ 이하인 다중 경로 이동통신 환경에서 부호화율이 1:3 이하인 LDPC 코드의 복호 기능을 만분의 일 이차의 BER로 낮추기 위해서는 LDPC 코드의 패리티 정보와 함께 COFDM-CDMA 수신기의 등화기 탭 값 갱신을 위한 채널 추정 파일럿 정보를 전송 심벌에 포함시켜야 한다. 예를 들어, 일반적인 1:3 LDPC 코드로 부호화된 전송 심벌의 데이터와 패리티의 비율이 1:3이라면 제안한 방식의 LDPC 채널 부호화기는 데이터, 패리티 및 파일럿의 비율이 1:2:1이 된다. 전송 심벌에 포함되는 파일럿 정보는 채널 추정 및 등화기 탭 값 갱신에 사용될 뿐 만 아니라 이 정보를 패리티 정보와 함께 LDPC 코드의 복호화에도 사용함으로써 동일한 데이터 전송율에서 1:3, LDPC 코드보다 더 우수한 성능을 얻을 수 있다. 다중 경로 레일리 페이딩 채널 환경에서 제안한 기법을 COFDM-CDMA 시스템에 적용하여 그 성능을 분석한 결과, 제안한 방식의 성능이 순수한 LDPC 코드를 적용한 시스템에 비하여 SRN 대 BER 측면에서 더 우수한 성능을 나타냄을 확인하였다.

본인인증의 네트워크 경로와 감성신뢰도에 연동한 점진적 인증방법 (Gradual Certification Correspond with Sensual Confidence by Network Paths)

  • 서효중
    • 예술인문사회 융합 멀티미디어 논문지
    • /
    • 제7권12호
    • /
    • pp.955-963
    • /
    • 2017
  • 핀테크 기술은 모바일 뱅킹 및 지불의 핵심으로 대두되어 있고, 현재 우리나라에서는 전통적인 대면거래로부터 비대면 핀테크 기반 뱅킹 및 지불로 급격한 금융시장의 변화가 이루어지고 있다. 특히 스마트폰은 지문센서, 홍채센서 등 다양한 생체인식 센서를 갖춤으로써 본인확인의 핵심 도구가 되어 있다. 하지만 이러한 금융거래에 있어서 데이터전송 경로상의 해킹 및 파밍의 위협이 상존하고 있고, 이러한 위험을 회피하기 위한 다양한 보안체계 및 다단계 본인인증 절차가 적용되어 있다. 결과적으로 다양한 보안체계와 본인인증 절차가 위험을 줄여주는 효과가 있음은 분명하나, 상반되게 금융거래와 지불에 있어서 상당한 불편함을 가중시키고 있는 것도 사실이다. 본 논문은 이러한 보안체계 적용에 있어서 무선랜과 이동통신망 등 네트워크 경로에 따라 서로 다른 감성신뢰도가 있음을 확인하고, 네트워크 접속경로에 따른 점진적 본인인증 방법을 제안함으로써 사용자에게 신뢰도와 불편함에 있어서 효율적인 해결방법을 제안한다.