• Title/Summary/Keyword: 고차원

Search Result 465, Processing Time 0.027 seconds

A Distributed Activity Recognition Algorithm based on the Hidden Markov Model for u-Lifecare Applications (u-라이프케어를 위한 HMM 기반의 분산 행위 인지 알고리즘)

  • Kim, Hong-Sop;Yim, Geo-Su
    • Journal of the Korea Society of Computer and Information
    • /
    • v.14 no.5
    • /
    • pp.157-165
    • /
    • 2009
  • In this paper, we propose a distributed model that recognize ADLs of human can be occurred in daily living places. We collect and analyze user's environmental, location or activity information by simple sensor attached home devices or utensils. Based on these information, we provide a lifecare services by inferring the user's life pattern and health condition. But in order to provide a lifecare services well-refined activity recognition data are required and without enough inferred information it is very hard to build an ADL activity recognition model for high-level situation awareness. The sequence that generated by sensors are very helpful to infer the activities so we utilize the sequence to analyze an activity pattern and propose a distributed linear time inference algorithm. This algorithm is appropriate to recognize activities in small area like home, office or hospital. For performance evaluation, we test with an open data from MIT Media Lab and the recognition result shows over 75% accuracy.

Comparison of Fault Diagnosis Accuracy Between XGBoost and Conv1D Using Long-Term Operation Data of Ship Fuel Supply Instruments (선박 연료 공급 기기류의 장시간 운전 데이터의 고장 진단에 있어서 XGBoost 및 Conv1D의 예측 정확성 비교)

  • Hyung-Jin Kim;Kwang-Sik Kim;Se-Yun Hwang;Jang-Hyun Lee
    • Proceedings of the Korean Institute of Navigation and Port Research Conference
    • /
    • 2022.06a
    • /
    • pp.110-110
    • /
    • 2022
  • 본 연구는 자율운항 선박의 원격 고장 진단 기법 개발의 일부로 수행되었다. 특히, 엔진 연료 계통 장비로부터 계측된 시계열 데이터로부터 상태 진단을 위한 알고리즘 구현 결과를 제시하였다. 엔진 연료 펌프와 청정기를 가진 육상 실험 장비로부터 진동 시계열 데이터 계측하였으며, 이상 감지, 고장 분류 및 고장 예측이 가능한 심층 학습(Deep Learning) 및 기계 학습(Machine Learning) 알고리즘을 구현하였다. 육상 실험 장비에 고장 유형 별로 인위적인 고장을 발생시켜 특징적인 진동 신호를 계측하여, 인공 지능 학습에 이용하였다. 계측된 신호 데이터는 선행 발생한 사건의 신호가 후행 사건에 영향을 미치는 특성을 가지고 있으므로, 시계열에 내포된 고장 상태는 시간 간의 선후 종속성을 반영할 수 있는 학습 알고리즘을 제시하였다. 고장 사건의 시간 종속성을 반영할 수 있도록 순환(Recurrent) 계열의 RNN(Recurrent Neural Networks), LSTM(Long Short-Term Memory models)의 모델과 합성곱 연산 (Convolution Neural Network)을 기반으로 하는 Conv1D 모델을 적용하여 예측 정확성을 비교하였다. 특히, 합성곱 계열의 RNN LSTM 모델이 고차원의 순차적 자연어 언어 처리에 장점을 보이는 모델임을 착안하여, 신호의 시간 종속성을 학습에 반영할 수 있는 합성곱 계열의 Conv1 알고리즘을 고장 예측에 사용하였다. 또한 기계 학습 모델의 효율성을 감안하여 XGBoost를 추가로 적용하여 고장 예측을 시도하였다. 최종적으로 연료 펌프와 청정기의 진동 신호로부터 Conv1D 모델과 XGBoost 모델의 고장 예측 성능 결과를 비교하였다

  • PDF

Feature selection for text data via sparse principal component analysis (희소주성분분석을 이용한 텍스트데이터의 단어선택)

  • Won Son
    • The Korean Journal of Applied Statistics
    • /
    • v.36 no.6
    • /
    • pp.501-514
    • /
    • 2023
  • When analyzing high dimensional data such as text data, if we input all the variables as explanatory variables, statistical learning procedures may suffer from over-fitting problems. Furthermore, computational efficiency can deteriorate with a large number of variables. Dimensionality reduction techniques such as feature selection or feature extraction are useful for dealing with these problems. The sparse principal component analysis (SPCA) is one of the regularized least squares methods which employs an elastic net-type objective function. The SPCA can be used to remove insignificant principal components and identify important variables from noisy observations. In this study, we propose a dimension reduction procedure for text data based on the SPCA. Applying the proposed procedure to real data, we find that the reduced feature set maintains sufficient information in text data while the size of the feature set is reduced by removing redundant variables. As a result, the proposed procedure can improve classification accuracy and computational efficiency, especially for some classifiers such as the k-nearest neighbors algorithm.

Comparing MCMC algorithms for the horseshoe prior (Horseshoe 사전분포에 대한 MCMC 알고리듬 비교 연구)

  • Miru Ma;Mingi Kang;Kyoungjae Lee
    • The Korean Journal of Applied Statistics
    • /
    • v.37 no.1
    • /
    • pp.103-118
    • /
    • 2024
  • The horseshoe prior is notably one of the most popular priors in sparse regression models, where only a small fraction of coefficients are nonzero. The parameter space of the horseshoe prior is much smaller than that of the spike and slab prior, so it enables us to efficiently explore the parameter space even in high-dimensions. However, on the other hand, the horseshoe prior has a high computational cost for each iteration in the Gibbs sampler. To overcome this issue, various MCMC algorithms for the horseshoe prior have been proposed to reduce the computational burden. Especially, Johndrow et al. (2020) recently proposes an approximate algorithm that can significantly improve the mixing and speed of the MCMC algorithm. In this paper, we compare (1) the traditional MCMC algorithm, (2) the approximate MCMC algorithm proposed by Johndrow et al. (2020) and (3) its variant in terms of computing times, estimation and variable selection performance. For the variable selection, we adopt the sequential clustering-based method suggested by Li and Pati (2017). Practical performances of the MCMC methods are demonstrated via numerical studies.

Simulation of the Phase-Type Distribution Based on the Minimal Laplace Transform (최소 표현 라플라스 변환에 기초한 단계형 확률변수의 시뮬레이션에 관한 연구)

  • Sunkyo Kim
    • Journal of the Korea Society for Simulation
    • /
    • v.33 no.1
    • /
    • pp.19-26
    • /
    • 2024
  • The phase-type, PH, distribution is defined as the time to absorption into a terminal state in a continuous-time Markov chain. As the PH distribution includes family of exponential distributions, it has been widely used in stochastic models. Since the PH distribution is represented and generated by an initial probability vector and a generator matrix which is called the Markovian representation, we need to find a vector and a matrix that are consistent with given set of moments if we want simulate a PH distribution. In this paper, we propose an approach to simulate a PH distribution based on distribution function which can be obtained directly from moments. For the simulation of PH distribution of order 2, closed-form formula and streamlined procedures are given based on the Jordan decomposition and the minimal Laplace transform which is computationally more efficient than the moment matching methods for the Markovian representation. Our approach can be used more effectively than the Markovian representation in generating higher order PH distribution in queueing network simulation.

Study on the Performance Evaluation of Encoding and Decoding Schemes in Vector Symbolic Architectures (벡터 심볼릭 구조의 부호화 및 복호화 성능 평가에 관한 연구)

  • Youngseok Lee
    • The Journal of Korea Institute of Information, Electronics, and Communication Technology
    • /
    • v.17 no.4
    • /
    • pp.229-235
    • /
    • 2024
  • Recent years have seen active research on methods for efficiently processing and interpreting large volumes of data in the fields of artificial intelligence and machine learning. One of these data processing technologies, Vector Symbolic Architecture (VSA), offers an innovative approach to representing complex symbols and data using high-dimensional vectors. VSA has garnered particular attention in various applications such as natural language processing, image recognition, and robotics. This study quantitatively evaluates the characteristics and performance of VSA methodologies by applying five VSA methodologies to the MNIST dataset and measuring key performance indicators such as encoding speed, decoding speed, memory usage, and recovery accuracy across different vector lengths. BSC and VT demonstrated relatively fast performance in encoding and decoding speeds, while MAP and HRR were relatively slow. In terms of memory usage, BSC was the most efficient, whereas MAP used the most memory. The recovery accuracy was highest for MAP and lowest for BSC. The results of this study provide a basis for selecting appropriate VSA methodologies depending on the application area.

User Playlist-Based Music Recommendation Using Music Metadata Embedding (음원 메타데이터 임베딩을 활용한 사용자 플레이리스트 기반 음악 추천)

  • Kyoung Min Nam;Yu Rim Park;Ji Young Jung;Do Hyun Kim;Hyon Hee Kim
    • The Transactions of the Korea Information Processing Society
    • /
    • v.13 no.8
    • /
    • pp.367-373
    • /
    • 2024
  • The growth of mobile devices and network infrastructure has brought significant changes to the music industry. Online streaming services has allowed music consumption without constraints of time and space, leading to increased consumer engagement in music creation and sharing activities, resulting in a vast accumulation of music data. In this study, we define metadata as "song sentences" by using a user's playlist. To calculate similarity, we embedded them into a high-dimensional vector space using skip-gram with negative sampling algorithm. Performance eva luation results indicated that the recommended music algorithm, utilizing singers, genres, composers, lyricists, arrangers, eras, seasons, emotions, and tag lists, exhibited the highest performance. Unlike conventional recommendation methods based on users' behavioral data, our approach relies on the inherent information of the tracks themselves, potentially addressing the cold start problem and minimizing filter bubble phenomena, thus providing a more convenient music listening experience.

Label Embedding for Improving Classification Accuracy UsingAutoEncoderwithSkip-Connections (다중 레이블 분류의 정확도 향상을 위한 스킵 연결 오토인코더 기반 레이블 임베딩 방법론)

  • Kim, Museong;Kim, Namgyu
    • Journal of Intelligence and Information Systems
    • /
    • v.27 no.3
    • /
    • pp.175-197
    • /
    • 2021
  • Recently, with the development of deep learning technology, research on unstructured data analysis is being actively conducted, and it is showing remarkable results in various fields such as classification, summary, and generation. Among various text analysis fields, text classification is the most widely used technology in academia and industry. Text classification includes binary class classification with one label among two classes, multi-class classification with one label among several classes, and multi-label classification with multiple labels among several classes. In particular, multi-label classification requires a different training method from binary class classification and multi-class classification because of the characteristic of having multiple labels. In addition, since the number of labels to be predicted increases as the number of labels and classes increases, there is a limitation in that performance improvement is difficult due to an increase in prediction difficulty. To overcome these limitations, (i) compressing the initially given high-dimensional label space into a low-dimensional latent label space, (ii) after performing training to predict the compressed label, (iii) restoring the predicted label to the high-dimensional original label space, research on label embedding is being actively conducted. Typical label embedding techniques include Principal Label Space Transformation (PLST), Multi-Label Classification via Boolean Matrix Decomposition (MLC-BMaD), and Bayesian Multi-Label Compressed Sensing (BML-CS). However, since these techniques consider only the linear relationship between labels or compress the labels by random transformation, it is difficult to understand the non-linear relationship between labels, so there is a limitation in that it is not possible to create a latent label space sufficiently containing the information of the original label. Recently, there have been increasing attempts to improve performance by applying deep learning technology to label embedding. Label embedding using an autoencoder, a deep learning model that is effective for data compression and restoration, is representative. However, the traditional autoencoder-based label embedding has a limitation in that a large amount of information loss occurs when compressing a high-dimensional label space having a myriad of classes into a low-dimensional latent label space. This can be found in the gradient loss problem that occurs in the backpropagation process of learning. To solve this problem, skip connection was devised, and by adding the input of the layer to the output to prevent gradient loss during backpropagation, efficient learning is possible even when the layer is deep. Skip connection is mainly used for image feature extraction in convolutional neural networks, but studies using skip connection in autoencoder or label embedding process are still lacking. Therefore, in this study, we propose an autoencoder-based label embedding methodology in which skip connections are added to each of the encoder and decoder to form a low-dimensional latent label space that reflects the information of the high-dimensional label space well. In addition, the proposed methodology was applied to actual paper keywords to derive the high-dimensional keyword label space and the low-dimensional latent label space. Using this, we conducted an experiment to predict the compressed keyword vector existing in the latent label space from the paper abstract and to evaluate the multi-label classification by restoring the predicted keyword vector back to the original label space. As a result, the accuracy, precision, recall, and F1 score used as performance indicators showed far superior performance in multi-label classification based on the proposed methodology compared to traditional multi-label classification methods. This can be seen that the low-dimensional latent label space derived through the proposed methodology well reflected the information of the high-dimensional label space, which ultimately led to the improvement of the performance of the multi-label classification itself. In addition, the utility of the proposed methodology was identified by comparing the performance of the proposed methodology according to the domain characteristics and the number of dimensions of the latent label space.

Problems of Environmental Pollution (환경오염의 세계적인 경향)

  • 송인현
    • Proceedings of the KOR-BRONCHOESO Conference
    • /
    • 1972.03a
    • /
    • pp.3.4-5
    • /
    • 1972
  • 생활수준이 낮은 단계에 있어서는 우선 식량에 대한 수요가 강하다. 인간의 욕구가 만족스럽게 먹는다는 것에 대하여 제일 강하게 발동하는 것이다 그러나 점차 과학기술과 산업과 경제가 발전하여 성장과정에 오르게 되고 소득수준도 향상하게 되면 시장기구를 통해서 구입 할 수 있는 개인의 물적 소비재에 대해서는 점차 충족하게 되며 식량이외에도 의복, 전기기구 및 일용생활용품, 자동차 등에 이르기까지 더욱 고차원의 소비재가 보급하게 되는 것이다. 이렇게 되며는 사람의 욕구는 사적 재물이나 물적 수요에서 점진적으로 공공재나 또는 질적 수요(주택, 생활환경 등)의 방향으로 움직이게 되는 것으로써 여기에 환경오염 또는 공해문제에 대하여 의식하게 된다. 그러나 여기에서 더욱이 문제점이 되는 것은 소득 수준의 향상 과정이란 그 자체가 환경오염의 커다란 요인이라는 점이며 자동차의 급격한 보급과 생활의 편의성을 구하여 집중되는 도시인구의 집적, 높은 소득을 보장하기 위한 생산성 높은 중화학공업의 발전 등등은 그 자체가 환경권이란 사람이 요구하는 고차원의 권리를 침해하는 직접적인 요인이 된다는 것이다. 이와 같은 환경오염이나 공해문제에 대한 세계적인 논의는 이미 시작된 지 오래이지만 현재는 우리의 건강보호를 위해서나 생활환경의 보전을 위해서라는 점에서는 그치는 것이 아니고, 더욱 넓혀서 자연의 보호, 자원의 보호라는 견지로 확대되고 있다. 이와 같은 세계적인 확대된 이해와 이에 대한 대책강구의 제안은 1968년 국제연합의 경제사회이사회에서 스웨덴 정부대표에 의하여 제시되었으며 1969년의 우- 탄트 사무총장의 인간환경에 관한 보고서, 1970년 Nixon 미대통령의 연두일반교서 그리고 1972년 5월 6일 스웨덴의 스톡홀롬에서 개최되는 인간환경회의의 주제 등을 통해서 알 수 있고, 종래의 공해나 생활환경의 오염문제라는 좁은 개념에서가 아니고 인간환경전체의 문제로 다루고 있는 것이다. 즉 환경개발(도시, 산업, 지역개발에 수반된 문제), 환경오염(인위적 행위에 의하여 환경의 대인간조건이 악화하는 문제) 자연ㆍ자원의 보호관리(지하, 해양자원, 동식물, 풍경경치의 문제)란 3개 측면에서 다루고 있는 것이다. 환경오염이란 문제를 중 심하여 보면 환경을 구성하는 기본적인 요소로서 대기, 물, 토지 또는 지각. 그리고 공간의 사대요소로 집약하여 생각할 수 있음으로 이 4요소의 오염이 문제가 되는 것이다. 대기의 오염은 환경의 오염중 가장 널리 알려진, 또 가장 오랜 역사를 가진 오염의 문제로써 이에 속하는 오염인자는 분진, 매연, 유해가스(유황산화물, 불화수소, 염화수소, 질소산화물, 일산 화염소 등) 등 대기의 1차 오염과 1차 존재한 물질이 자외선의 작용으로 변화발생 하는 오존, PAN등 광화학물질이 형성되는 2차적인 오염을 들 수 있다. 기외 카도미움, 연등 유해중금속이나 방사선물질이 대기로부터 토지를 오염시켜서 토지에 서식하는 생물의 오염을 야기케 한다는 점등이 명백하여지고 있으며 대기의 오염은 이런 오염물질이 대기중에서 이동하여 강우에 의한 침강물질의 변화를 일으키게 되며 소위 광역오염문제를 발생케하며 동시에 토지의 토질저하등을 가져오게 한다. 물의 오염은 크게 내육수의 오염과 해양의 오염의 양면으로 나누어 볼 수 있다. 하천의 오염을 방지하고 하천을 보호하기 위한 움직임 역시 환경오염의 역사상 오래된 문제이며 시초에는 인분뇨와의 연결에서 오는 세균에 의한 오염이나 양수 기타 일반하수와의 연결에서 오는 오염에 대비하는 것부터 시작하였지만 근래에는 산업공장폐수에 의한 각종 화학적유해물질과 염료 그리고 석유화학의 발달에 의한 폐유등으로 인한 수질오탁문제가 점차 크게 대두되고 있다. 이것은 측 오염이란 시초에 우리에게 주는 불쾌감이 크므로 이것을 피하자는 것부터 시작하여 인간의 건강을 지키고 각종 사용수를 보존하자는 용수보존으로 그리고 이제는 건강과 용수보존뿐만 아니라 이것이 농림 수산물에 대한 큰 피해를 주게됨으로써 오는 자연환경의 생태계보전의 문제로 확대전환하고 있는 것이다. ?간 특히 해양오염에 대한 문제는 국지적인 것에만 끝이는 것이 아니고 전세계의 해양에 곧 연결되는 것이므로 세계각국의 공통관심사로 등장케 되었으며 이것은 특히 폐유가 유류수송 도중에 해양에 투기되는 유류에 의한 해양의 유막성형에서 오는 기상의 변화와 물피해등이 막심함으로 심각화 되고 있다. 각국이 자국의 해안과 해양을 보호하기 위하여 조치를 서두르고 있는 현시점에서 볼 때에는 이는 국제문제화하고 있으며 세계적인 국제적 협력과 협조의 필요성이 강조되는 좋은 예라 하겠다. 토양의 오염에 있어서는 대기나 수질의 오염이 구국적으로 토양과 관련되고 토양으로 환원되는 것이지만 근래에 많이 보급사용되는 농약과 화학비료의 문제는 토양자체의 오염에만 그치는 것이 아니고 농작물을 식품으로 하여 섭취함으로써 발생되는 인체나 기타생물체의 피해를 고려할 때 더욱 중요한 것이며, 또 토질의 저하를 가져오게 하여 농림생산에 미치는 영향이 적지 않을 것이다. 지반강하는 지각 에 주는 인공적 영향의 대표적인 것으로써 지하수나 지하 천연가스를 채취이용하기 위하여 파들어 감으로써 지반이 침하 하는 것이며 건축물에 대한 영향 특히 풍수해시의 재해를 크게 할 우려가 있는 것이다. 공간에 있어서의 환경오염에는 소음, 진동, 광선, 악취 등이 있다. 이들은 특수한 작업환경의 경우를 제외하고는 건강에 직접적인 큰 피해를 준다고 생각할 수 없으나 소음, 진동, 관선, 악취 등은 일반 일상시민생활에 불쾌나 불안을 줌으로써 안정된 생활을 방해하는 요인이 되는 것이다. 공간의 오염물로써 새로운 주목을 끌게된 것은 도시산업폐기물로써 이들은 대기나 물 또는 토지를 오염시킬 뿐만 아니라 공간을 점령함으로써 도시의 미관이나 기능을 손상케 하는 것이다. 즉 노배폐차의 잔해, 냉장고등고형폐기물등의 재생불가능한 것이나 비니루등 합성물질로 된 용기나 포장 등으로 연소분해 되지 않은 내구소비재가 이에 해당하는 것으로 이는 maker의 양식에 호소하여 그 책임 하에 해결되어야 할 문제로 본다. 이렇듯 환경오염은 각양각색으로 그 오염물질의 주요 발생원인 산업장이나 기타 기관에서의 발생요인을 살펴보며는 다음과 같은 것으로 요약할 수 있다. A. 제도적 요인 1. 관리체재의 미비 2. 관리법규의 미비 3. 책임소재의 불명확 B. 자재적 요인 1. 사용자재의 선택부적 2. 개량대책급 연구의 미흡 C. 기술적 요인 1. 시설의 설계불량, 공정의 결함 2. 시설의 점검, 보전의 불충분 3. 도출물의 취급에 대한 검사부족 4. 발생방지 시설의 미설치, 결함 D. 교육적 요인 1. 오염물질 방제지식의 결여 2. 법규의 오해, 미숙지 E. 경제적 요인 1. 자금부족 2. 융자상의 문제 3. 경제성의 문제 F. 정신적 요인 1. 사회적 도의심의 결여(이기주의) 2. 태만 3. 무지, 무관심 등이다. 따라서 환경오염의 방지란 상기한 문제의 해결에 기대하지 않을 수 없으나 이를 해결하기 위하여는 국내적 국제적 상호협조에 의한 사회각층의 총력적 대책이 시급한 것이다. 이와 같은 환경오염이 단속된다 하며는 미구에 인류의 건강은 물론 그 존립마저 기대하기 어려울 것이며, 현재는 점진적으로 급성피해에 대하여는 그 흥미가 집중되어 그 대비책도 많이 논의되고 있지만 미량의 단속접촉에 의한 만성축적에 관한 문제나 이와 같은 환경오염이 앞으로 태어날 신생률에 대한 영향이나 유전정보에 관한 연구는 장차에 대비하는 문제로써 중요한 것이라 생각된다. 기외에 우려되는 점은 오염방지책을 적극 추진함으로써 올 수 있는 파생적인 문제이다. 즉 오염을 방지하기 위하여 생산기업체가 투자를 하게 되며는 그만큼 생산원가가 상승할 것이며 소비가격도 오를 것이다. 반면 이런 시책에 뒤떨어진 후진국의 값싼 생산국은 자연 수입이 억제 당할 것이며, 이렇게되면 후진국은 무역경쟁에서 큰 상처를 입게될 것이고 뿐만 아니라 선진국에 필요한 오염물질의 발생이 높은 생산기기를 자연후진국에 양도하게 될 것임으로 후진국의 환경오염은 배가할 우려가 있는 것이다. 또 해양오염을 방지할 목적에서와 같이 자국의 해안보호를 위하여 마련된 법의 규제는 타국의 선박운항에 많은 제약을 가하게 될 것이며 이것 역시 시설이 미약한 약소후진국의 선박에 크게 영향을 미치게 될 것임으로 교통, 해운, 무역등을 통한 약소후진국의 경제성장에 제동을 거는 것이 될 것이다. 이렇듯 환경오염의 문제는 환경자체에 대해서만 아니라 부산물적으로 특히 후진국에는 의외 문제를 던져주게 되는 것임으로 환경오염에 대해서는 물론, 전술한 바와 같이 인간환경전체의 문제로써 Nixon 대통령이 말한 결의와 창의와 그리고 자금을 가지고 과감하게 대처해 나가야 할 것이다.

  • PDF

The Effects of Self-regulatory Resources and Construal Levels on the Choices of Zero-cost Products (자아조절자원 및 해석수준이 공짜대안 선택에 미치는 영향)

  • Lee, Jinyong;Im, Seoung Ah
    • Asia Marketing Journal
    • /
    • v.13 no.4
    • /
    • pp.55-76
    • /
    • 2012
  • Most people prefer to choose zero-cost products they may get without paying any money. The 'zero-cost effect' can be explained with a 'zero-cost model' where consumers attach special values to zero-cost products in a different way from general economic models (Shampanier, Mazar and Ariely 2007). If 2 different products at the regular prices of ₩200 and ₩400 simultaneously offer ₩200 discounts, the prices will be changed to ₩0 and ₩200, respectively. In spite of the same price gap of the two products after the ₩200 discounts, people are much more likely to select the free alternative than the same product at the price of ₩200. Although prior studies have focused on the 'zero-cost effect' in isolation of other factors, this study investigates the moderating effects of a self-regulatory resource and a construal level on the selection of free products. Self-regulatory resources induce people to control or regulate their behavior. However, since self-regulatory resources are limited, they are to be easily depleted when exerted (Muraven, Tice, and Baumeister 1998). Without the resources, consumers tend to become less sensitive to price changes and to spend money more extravagantly (Vohs and Faber 2007). Under this condition, they are also likely to invest less effort on their information processing and to make more intuitive decisions (Pocheptsova, Amir, Dhar, and Baumeister 2009). Therefore, context effects such as price changes and zero cost effects are less likely in the circumstances of resource depletion. In addition, construal levels have profound effects on the ways of information processing (Trope and Liberman 2003, 2010). In a high construal level, people tend to attune their minds to core features and desirability aspects, whereas, in a low construal level, they are more likely to process information based on secondary features and feasibility aspects (Khan, Zhu, and Kalra 2010). A perceived value of a product is more related to desirability whereas a zero cost or a price level is more associated with feasibility. Thus, context effects or reliance on feasibility (for instance, the zero cost effect) will be diminished in a high level construal while those effects may remain in a low level construal. When people make decisions, these 2 factors can influence the magnitude of the 'zero-cost effect'. This study ran two experiments to investigate the effects of self-regulatory resources and construal levels on the selection of a free product. Kisses and Ferrero-Rocher, which were adopted in the prior study (Shampanier et al. 2007) were also used as alternatives in Experiments 1 and 2. We designed Experiment 1 in order to test whether self-regulatory resource depletion will moderate the zero-cost effect. The level of self-regulatory resources was manipulated with two different tasks, a Sudoku task in the depletion condition and a task of drawing diagrams in the non-depletion condition. Upon completion of the manipulation task, subjects were randomly assigned to one of a decision set with a zero-cost option (i.e., Kisses ₩0, and Ferrero-Rocher ₩200) or a set without a zero-cost option (i.e., Kisses ₩200, and Ferrero-Rocher ₩400). A pair of alternatives in the two decision sets have the same price gap of ₩200 between a low-priced Kisses and a high-priced Ferrero-Rocher. Subjects in the no-depletion condition selected Kisses more often (71.88%) over Ferrero-Rocher when Kisses was free than when it was priced at ₩200 (34.88%). However, the zero-cost effect disappeared when people do not have self-regulatory resources. Experiment 2 was conducted to investigate whether constual levels influence the magnitude of the 'zero-cost effect'. To manipulate construal levels, 4 different 'why (in the high construal level condition)' or 'how (in the low construal level condition)' questions about health management were asked. They were presented with 4 boxes connected with downward arrows. In a box at the top, there was one question, 'Why do I maintain good physical health?' or 'How do I maintain good physical health?' Subjects inserted a response to the question of why or how they would maintain good physical health. Similar tasks were repeated for the 2nd, 3rd, and 4th responses. After the manipulation task, subjects were randomly assigned either to a decision set with a zero-cost option, or to a set without it, as in Experiment 1. When a low construal level is primed with 'how', subjects chose free Kisses (60.66%) more often over Ferrero-Rocher than they chose ₩200 Kisses (42.19%) over ₩400 FerreroRocher. On contrast, the zero-cost effect could not be observed any longer when a high construal level is primed with 'why'.

  • PDF