• 제목/요약/키워드: Engineering information

검색결과 82,725건 처리시간 0.101초

A Three-Dimensional Deep Convolutional Neural Network for Automatic Segmentation and Diameter Measurement of Type B Aortic Dissection

  • Yitong Yu;Yang Gao;Jianyong Wei;Fangzhou Liao;Qianjiang Xiao;Jie Zhang;Weihua Yin;Bin Lu
    • Korean Journal of Radiology
    • /
    • 제22권2호
    • /
    • pp.168-178
    • /
    • 2021
  • Objective: To provide an automatic method for segmentation and diameter measurement of type B aortic dissection (TBAD). Materials and Methods: Aortic computed tomography angiographic images from 139 patients with TBAD were consecutively collected. We implemented a deep learning method based on a three-dimensional (3D) deep convolutional neural (CNN) network, which realizes automatic segmentation and measurement of the entire aorta (EA), true lumen (TL), and false lumen (FL). The accuracy, stability, and measurement time were compared between deep learning and manual methods. The intra- and inter-observer reproducibility of the manual method was also evaluated. Results: The mean dice coefficient scores were 0.958, 0.961, and 0.932 for EA, TL, and FL, respectively. There was a linear relationship between the reference standard and measurement by the manual and deep learning method (r = 0.964 and 0.991, respectively). The average measurement error of the deep learning method was less than that of the manual method (EA, 1.64% vs. 4.13%; TL, 2.46% vs. 11.67%; FL, 2.50% vs. 8.02%). Bland-Altman plots revealed that the deviations of the diameters between the deep learning method and the reference standard were -0.042 mm (-3.412 to 3.330 mm), -0.376 mm (-3.328 to 2.577 mm), and 0.026 mm (-3.040 to 3.092 mm) for EA, TL, and FL, respectively. For the manual method, the corresponding deviations were -0.166 mm (-1.419 to 1.086 mm), -0.050 mm (-0.970 to 1.070 mm), and -0.085 mm (-1.010 to 0.084 mm). Intra- and inter-observer differences were found in measurements with the manual method, but not with the deep learning method. The measurement time with the deep learning method was markedly shorter than with the manual method (21.7 ± 1.1 vs. 82.5 ± 16.1 minutes, p < 0.001). Conclusion: The performance of efficient segmentation and diameter measurement of TBADs based on the 3D deep CNN was both accurate and stable. This method is promising for evaluating aortic morphology automatically and alleviating the workload of radiologists in the near future.

Added Value of Chemical Exchange-Dependent Saturation Transfer MRI for the Diagnosis of Dementia

  • Jang-Hoon Oh;Bo Guem Choi;Hak Young Rhee;Jin San Lee;Kyung Mi Lee;Soonchan Park;Ah Rang Cho;Chang-Woo Ryu;Key Chung Park;Eui Jong Kim;Geon-Ho Jahng
    • Korean Journal of Radiology
    • /
    • 제22권5호
    • /
    • pp.770-781
    • /
    • 2021
  • Objective: Chemical exchange-dependent saturation transfer (CEST) MRI is sensitive for detecting solid-like proteins and may detect changes in the levels of mobile proteins and peptides in tissues. The objective of this study was to evaluate the characteristics of chemical exchange proton pools using the CEST MRI technique in patients with dementia. Materials and Methods: Our institutional review board approved this cross-sectional prospective study and informed consent was obtained from all participants. This study included 41 subjects (19 with dementia and 22 without dementia). Complete CEST data of the brain were obtained using a three-dimensional gradient and spin-echo sequence to map CEST indices, such as amide, amine, hydroxyl, and magnetization transfer ratio asymmetry (MTRasym) values, using six-pool Lorentzian fitting. Statistical analyses of CEST indices were performed to evaluate group comparisons, their correlations with gray matter volume (GMV) and Mini-Mental State Examination (MMSE) scores, and receiver operating characteristic (ROC) curves. Results: Amine signals (0.029 for non-dementia, 0.046 for dementia, p = 0.011 at hippocampus) and MTRasym values at 3 ppm (0.748 for non-dementia, 1.138 for dementia, p = 0.022 at hippocampus), and 3.5 ppm (0.463 for non-dementia, 0.875 for dementia, p = 0.029 at hippocampus) were significantly higher in the dementia group than in the non-dementia group. Most CEST indices were not significantly correlated with GMV; however, except amide, most indices were significantly correlated with the MMSE scores. The classification power of most CEST indices was lower than that of GMV but adding one of the CEST indices in GMV improved the classification between the subject groups. The largest improvement was seen in the MTRasym values at 2 ppm in the anterior cingulate (area under the ROC curve = 0.981), with a sensitivity of 100 and a specificity of 90.91. Conclusion: CEST MRI potentially allows noninvasive image alterations in the Alzheimer's disease brain without injecting isotopes for monitoring different disease states and may provide a new imaging biomarker in the future.

탐방객 방문 동기 분석을 통한 선운산도립공원 관리 방안 (Management of Visitors in the Seonunsan Provincial Park through an Analysis on Visitors' Travel Motivations)

  • 성찬용;김동필;조우
    • 한국환경생태학회지
    • /
    • 제30권6호
    • /
    • pp.1047-1056
    • /
    • 2016
  • 본 연구는 선운산도립공원 탐방객 290명을 설문조사하여, 탐방객들의 공원이용 특성을 분석하고, 이를 바탕으로 도립공원관리를 위한 시사점을 도출하기 위해 수행되었다. 탐방객 설문은 응답자의 사회경제적 특성, 선운산도립공원 이용 특성, 방문 동기, 공원 탐방 만족도에 관한 문항들로 구성하였다. 조사 결과 탐방객들은 공원 방문 전 공원에 관한 정보 수집을 하지 않는 경우가 많았고, 선운산도립공원과 주변 관광지를 연계해서 여행하는 경우도 많지 않았으며, 고창 생물권보전지역에 대한 인지도 또한 크지 않아, 공원관리 주체인 고창군의 적극적 홍보가 필요한 것으로 나타났다. 응답자들의 16개 방문 동기를 요인분석한 결과, 선운산도립공원 탐방객들의 방문 요인은 '고지대 등산형', 자연학습이나 캠핑 등을 위한 '체험 관찰형', 가족이나 친구와의 '친목 도모형'으로 요약할 수 있었다. 공원 방문 목적에 따른 공원 이용 만족도를 살펴보기 위해, 요인분석에서 추출한 세 가지 방문 요인과 응답자의 사회경제적 특성 변수들을 독립변수로 하고 다른 사람에게 선운산도립공원 방문을 추천하는 정도를 종속변수로 하는 다중회귀분석을 실시한 결과, 3가지 방문 요인 중 '고지대 등산형' 요인만이 방문 추천 의사에 통계적으로 유의미한 영향을 주었고, 다른 요인은 영향이 없는 것으로 분석되었다. 이는 선운산도립공원이 등산객들에게만 만족스러운 경험을 제공할 뿐, 점차 증가하고 있는 체험 관찰형 탐방객 수요에 대응하지 못하고 있다는 의미로 해석될 수 있다. 환경해설과 같은 참여형 프로그램 개발이 요구된다.

토지이용 유형별 공간특성을 고려한 ENVI-met 모델의 현장측정자료 기반의 검증 (Validation of ENVI-met Model with In Situ Measurements Considering Spatial Characteristics of Land Use Types)

  • 송봉근;박경훈;정성관
    • 한국지리정보학회지
    • /
    • 제17권2호
    • /
    • pp.156-172
    • /
    • 2014
  • 본 연구는 미기후 분석 프로그램인 ENVI-met 모델의 정확도를 검증하기 위해 경상남도 창원시를 대상으로 도시지역의 주요 토지이용 유형별 공간특성을 고려하여 선정된 조사구역의 현장측정 기상자료와 비교하였다. 현장측정은 주간시간대 2일, 야간시간대 1일 총 3일간이동식으로 측정하였고, ENVI-met 모델링은 현장측정과 동일한 시간대로 설정하여 수행하였다. 측정항목별 분석결과에 따르면, 주간시간대의 순복사에너지는 ENVI-met 모델링이 현장측정값보다 약 $300Wm^{-2}$ 정도 높았고, 야간시간대는 현장측정값이 $200Wm^{-2}$ 정도 더 높았다. 기온은 주간 및 야간 시간대 모두 현장 측정값이 약 $3{\sim}6^{\circ}C$ 정도 더 높은 것으로 분석되었다. 표면온도도 현장측정값이 ENVI-met 모델링보다 약 $7{\sim}13^{\circ}C$ 더 높았다. 풍속은 ENVI-met 모델링과 현장측정값 간의 차이가 매우 큰 것으로 나타났다. 회귀분석 결과에서는 기온자료의 $R^2$값이 약 0.6정도로 비교적 높게 나타난 반면에, 나머지 순복사에너지와 표면온도, 풍속은 낮은 상관성을 보였다. 이는 ENVI-met 모델링이 태양 및 지구복사에너지를 과대 또는 과소 예측하고 있으며, 모델링 및 현장측정을 위해 선정된 조사구역들을 둘러싸고 있는 인접한 주변 지역의 공간구조적, 미기후적 특성 차이에 의한 영향으로 판단된다. 따라서 향후 이에 대한 보다 면밀한 실증적 연구가 필요할 것으로 판단된다.

상이한 설계속도 도로에서의 주행속도별 불안뇌파 분석 (Analysis of Anxiety EGG per Driving Speed on Different Design Speed Road)

  • 임준범;이수범;주성갑;신준수
    • 대한토목학회논문집
    • /
    • 제33권5호
    • /
    • pp.2049-2056
    • /
    • 2013
  • 정보통신의 발달로 정보화시대가 도래하면서 속도에 대한 인간의 욕구가 증가하고 있는 가운데, 교통분야에서도 이동성을 증대시키기 위한 초고속도로 건설에 대한 설계가 제기되고 있다. 본 연구는 설계속도가 120km/h를 초과하는 초고속도로 건설시 운전자가 설계속도의 수준으로 주행할 수 있는가를 분석하기 위한 연구를 수행하였다. 본 연구를 수행하기 위해서 설계속도가 상이하여 도로의 선형과 규격이 향상되면 운전자가 불안을 느끼는 주행속도도 증가하는지를 알아보았다. 실험은 피실험자 30명을 모집하여 뇌파분석기를 장착시킨 후 설계속도가 상이한 도로를 실제로 주행하고, simulator를 통해 가상으로 주행하면서 불안감을 느낄 때 발생하는 ${\beta}$파의 파워를 비교하였다. 이를 위한 실험구간은 강변북로(90km/h), 자유로(100km/h), 중앙고속도로(110km/h), 서해안고속도로(120km/h)로 선정하였다. 강변북로와 자유로는 주행속도가 80km/h - 130km/h, 중앙고속도로는 100km/h - 150km/h, 서해안고속도로는 110km/h - 160km/h 일 때의 불안뇌파 파워를 비교하였고, 시뮬레이션 주행은 일괄적으로 110km/h - 180km/h로 주행할 때 발생하는 불안뇌파 파워를 비교 분석하였다. 또한 paired t-test 검정을 통하여 불안뇌파가 증가하는 시점 속도를 통계적으로 검증하였다. 그 결과 시뮬레이션 주행 시 불안뇌파 증가시점의 속도는 실제 도로를 주행할 때 불안뇌파 증가시점보다 약 30km/h높게 나타났으며, 설계속도가 90km/h인 도로와 100km/h도로는 같은 속도에서 불안뇌파가 증가하여 도로의 선형과 규격에 차이가 적은 것으로 나타났다. 하지만 설계속도가 110km/h도로와 120km/h인 도로에서는 불안감을 느끼는 주행속도가 모두 증가하여 운전자는 도로의 선형과 규격이 향상됨에 따라 더 높은 속도로 주행할 수 있는 것으로 나타났다.

Using the METHONTOLOGY Approach to a Graduation Screen Ontology Development: An Experiential Investigation of the METHONTOLOGY Framework

  • Park, Jin-Soo;Sung, Ki-Moon;Moon, Se-Won
    • Asia pacific journal of information systems
    • /
    • 제20권2호
    • /
    • pp.125-155
    • /
    • 2010
  • Ontologies have been adopted in various business and scientific communities as a key component of the Semantic Web. Despite the increasing importance of ontologies, ontology developers still perceive construction tasks as a challenge. A clearly defined and well-structured methodology can reduce the time required to develop an ontology and increase the probability of success of a project. However, no reliable knowledge-engineering methodology for ontology development currently exists; every methodology has been tailored toward the development of a particular ontology. In this study, we developed a Graduation Screen Ontology (GSO). The graduation screen domain was chosen for the several reasons. First, the graduation screen process is a complicated task requiring a complex reasoning process. Second, GSO may be reused for other universities because the graduation screen process is similar for most universities. Finally, GSO can be built within a given period because the size of the selected domain is reasonable. No standard ontology development methodology exists; thus, one of the existing ontology development methodologies had to be chosen. The most important considerations for selecting the ontology development methodology of GSO included whether it can be applied to a new domain; whether it covers a broader set of development tasks; and whether it gives sufficient explanation of each development task. We evaluated various ontology development methodologies based on the evaluation framework proposed by G$\acute{o}$mez-P$\acute{e}$rez et al. We concluded that METHONTOLOGY was the most applicable to the building of GSO for this study. METHONTOLOGY was derived from the experience of developing Chemical Ontology at the Polytechnic University of Madrid by Fern$\acute{a}$ndez-L$\acute{o}$pez et al. and is regarded as the most mature ontology development methodology. METHONTOLOGY describes a very detailed approach for building an ontology under a centralized development environment at the conceptual level. This methodology consists of three broad processes, with each process containing specific sub-processes: management (scheduling, control, and quality assurance); development (specification, conceptualization, formalization, implementation, and maintenance); and support process (knowledge acquisition, evaluation, documentation, configuration management, and integration). An ontology development language and ontology development tool for GSO construction also had to be selected. We adopted OWL-DL as the ontology development language. OWL was selected because of its computational quality of consistency in checking and classification, which is crucial in developing coherent and useful ontological models for very complex domains. In addition, Protege-OWL was chosen for an ontology development tool because it is supported by METHONTOLOGY and is widely used because of its platform-independent characteristics. Based on the GSO development experience of the researchers, some issues relating to the METHONTOLOGY, OWL-DL, and Prot$\acute{e}$g$\acute{e}$-OWL were identified. We focused on presenting drawbacks of METHONTOLOGY and discussing how each weakness could be addressed. First, METHONTOLOGY insists that domain experts who do not have ontology construction experience can easily build ontologies. However, it is still difficult for these domain experts to develop a sophisticated ontology, especially if they have insufficient background knowledge related to the ontology. Second, METHONTOLOGY does not include a development stage called the "feasibility study." This pre-development stage helps developers ensure not only that a planned ontology is necessary and sufficiently valuable to begin an ontology building project, but also to determine whether the project will be successful. Third, METHONTOLOGY excludes an explanation on the use and integration of existing ontologies. If an additional stage for considering reuse is introduced, developers might share benefits of reuse. Fourth, METHONTOLOGY fails to address the importance of collaboration. This methodology needs to explain the allocation of specific tasks to different developer groups, and how to combine these tasks once specific given jobs are completed. Fifth, METHONTOLOGY fails to suggest the methods and techniques applied in the conceptualization stage sufficiently. Introducing methods of concept extraction from multiple informal sources or methods of identifying relations may enhance the quality of ontologies. Sixth, METHONTOLOGY does not provide an evaluation process to confirm whether WebODE perfectly transforms a conceptual ontology into a formal ontology. It also does not guarantee whether the outcomes of the conceptualization stage are completely reflected in the implementation stage. Seventh, METHONTOLOGY needs to add criteria for user evaluation of the actual use of the constructed ontology under user environments. Eighth, although METHONTOLOGY allows continual knowledge acquisition while working on the ontology development process, consistent updates can be difficult for developers. Ninth, METHONTOLOGY demands that developers complete various documents during the conceptualization stage; thus, it can be considered a heavy methodology. Adopting an agile methodology will result in reinforcing active communication among developers and reducing the burden of documentation completion. Finally, this study concludes with contributions and practical implications. No previous research has addressed issues related to METHONTOLOGY from empirical experiences; this study is an initial attempt. In addition, several lessons learned from the development experience are discussed. This study also affords some insights for ontology methodology researchers who want to design a more advanced ontology development methodology.

DISEASE DIAGNOSED AND DESCRIBED BY NIRS

  • Tsenkova, Roumiana N.
    • 한국근적외분광분석학회:학술대회논문집
    • /
    • 한국근적외분광분석학회 2001년도 NIR-2001
    • /
    • pp.1031-1031
    • /
    • 2001
  • The mammary gland is made up of remarkably sensitive tissue, which has the capability of producing a large volume of secretion, milk, under normal or healthy conditions. When bacteria enter the gland and establish an infection (mastitis), inflammation is initiated accompanied by an influx of white cells from the blood stream, by altered secretory function, and changes in the volume and composition of secretion. Cell numbers in milk are closely associated with inflammation and udder health. These somatic cell counts (SCC) are accepted as the international standard measurement of milk quality in dairy and for mastitis diagnosis. NIR Spectra of unhomogenized composite milk samples from 14 cows (healthy and mastitic), 7days after parturition and during the next 30 days of lactation were measured. Different multivariate analysis techniques were used to diagnose the disease at very early stage and determine how the spectral properties of milk vary with its composition and animal health. PLS model for prediction of somatic cell count (SCC) based on NIR milk spectra was made. The best accuracy of determination for the 1100-2500nm range was found using smoothed absorbance data and 10 PLS factors. The standard error of prediction for independent validation set of samples was 0.382, correlation coefficient 0.854 and the variation coefficient 7.63%. It has been found that SCC determination by NIR milk spectra was indirect and based on the related changes in milk composition. From the spectral changes, we learned that when mastitis occurred, the most significant factors that simultaneously influenced milk spectra were alteration of milk proteins and changes in ionic concentration of milk. It was consistent with the results we obtained further when applied 2DCOS. Two-dimensional correlation analysis of NIR milk spectra was done to assess the changes in milk composition, which occur when somatic cell count (SCC) levels vary. The synchronous correlation map revealed that when SCC increases, protein levels increase while water and lactose levels decrease. Results from the analysis of the asynchronous plot indicated that changes in water and fat absorptions occur before other milk components. In addition, the technique was used to assess the changes in milk during a period when SCC levels do not vary appreciably. Results indicated that milk components are in equilibrium and no appreciable change in a given component was seen with respect to another. This was found in both healthy and mastitic animals. However, milk components were found to vary with SCC content regardless of the range considered. This important finding demonstrates that 2-D correlation analysis may be used to track even subtle changes in milk composition in individual cows. To find out the right threshold for SCC when used for mastitis diagnosis at cow level, classification of milk samples was performed using soft independent modeling of class analogy (SIMCA) and different spectral data pretreatment. Two levels of SCC - 200 000 cells/$m\ell$ and 300 000 cells/$m\ell$, respectively, were set up and compared as thresholds to discriminate between healthy and mastitic cows. The best detection accuracy was found with 200 000 cells/$m\ell$ as threshold for mastitis and smoothed absorbance data: - 98% of the milk samples in the calibration set and 87% of the samples in the independent test set were correctly classified. When the spectral information was studied it was found that the successful mastitis diagnosis was based on reviling the spectral changes related to the corresponding changes in milk composition. NIRS combined with different ways of spectral data ruining can provide faster and nondestructive alternative to current methods for mastitis diagnosis and a new inside into disease understanding at molecular level.

  • PDF

개선된 퍼지 ART 기반 RBF 네트워크와 PCA 알고리즘을 이용한 여권 인식 및 얼굴 인증 (A Passport Recognition and face Verification Using Enhanced fuzzy ART Based RBF Network and PCA Algorithm)

  • 김광백
    • 지능정보연구
    • /
    • 제12권1호
    • /
    • pp.17-31
    • /
    • 2006
  • 본 논문에서는 출입국자 관리의 효율성과 체계적인 출입국 관리를 위하여 여권 코드를 자동으로 인식하고 위조 여권을 판별할 수 있는 여권 인식 및 얼굴 인증 방법을 제안한다. 여권 이미지가 기울어진 상태로 스캔되어 획득되어질 경우에는 개별 코드 인식과 얼굴 인증에 많은 영향을 미칠 수도 있으므로 기울기 보정은 문자 분할 및 인식, 얼굴 인증에 있어 매우 중요하다. 따라서 본 논문에서는 여권 영상을 스미어링한 후, 추출된 문자열 중에서 가장 긴 문자열을 선택하고 이 문자열의 좌측과 우측 부분의 두께 중심을 연결하는 직선과 수평선과의 기울기를 이용하여 여권 영상에 대한 각도 보정을 수행한다. 여권 코드 추출은 소벨 연산자와 수평 스미어링, 8 방향 윤곽선 추적 알고리즘을 적용하여 여권 코드의 문자열 영역을 추출하고, 추출된 여권 코드 문자열 영역에 대해 반복 이진화 알고리즘을 적용하여 코드의 문자열 영역을 이진화한다. 이진화된 문자열 영역에 대해 CDM 마스크를 적용하여 문자열의 코드들을 복원하고 8 방향 윤곽선 추적 알고리즘을 적용하여 개별 코드를 추출한다. 추출된 개별 코드 인식은 개선된 RBF 네트워크를 제안하여 적용한다. 개선된 퍼지 ART 기반 RBF 네트워크는 퍼지 논리 접속 연산자를 이용하여 경계 변수를 동적으로 조정하는 퍼지 ART 알고리즘을 제안하여 RBF 네트워크의 중간층으로 적용한다. 얼굴 인증을 위해서는 얼굴 인증에 가장 보편적으로 사용되는 PCA 알고리즘을 적용한다. PCA 알고리즘은 고차원의 벡터를 저 차원의 벡터로 감량하여 전체 입력 영상들의 직교적인 공분산 행렬을 계산한 후, 그것의 고유 값에 따라 각 영상의 고유 벡터를 구한다. 따라서 본 논문에서는 PCA 알고리즘을 적용하여 얼굴의 고유 벡터를 구한 후, 특징 벡터를 추출한다. 그리고 여권 영상에서 획득되어진 얼굴 영상의 특징 벡터와 데이터베이스에 있는 얼굴 영상의 특징 벡터와의 거리 값을 계산하여 사진 위조 여부를 판별한다. 제안된 여권 인식 및 얼굴 인증 방법의 성능을 평가를 위하여 원본 여권에서 얼굴 부분을 위조한 여권과 기울어진 여권 영상을 대상으로 실험한 결과, 제안된 방법이 여권의 코드 인식 및 얼굴 인증에 있어서 우수한 성능이 있음을 확인하였다.

  • PDF

중복을 허용한 계층적 클러스터링에 의한 복합 개념 탐지 방법 (Hierarchical Overlapping Clustering to Detect Complex Concepts)

  • 홍수정;최중민
    • 지능정보연구
    • /
    • 제17권1호
    • /
    • pp.111-125
    • /
    • 2011
  • 클러스터링(Clustering)은 유사한 문서나 데이터를 묶어 군집화해주는 프로세스이다. 클러스터링은 문서들을 대표하는 개념별로 그룹화함으로써 사용자가 자신이 원하는 주제의 문서를 찾기 위해 모든 문서를 검사할 필요가 없도록 도와준다. 이를 위해 유사한 문서를 찾아 그룹화하고, 이 그룹의 대표되는 개념을 도출하여 표현해주는 기법이 요구된다. 이 상황에서 문제점으로 대두되는 것이 복합 개념(Complex Concept)의 탐지이다. 복합 개념은 서로 다른 개념의 여러 클러스터에 속하는 중복 개념이다. 기존의 클러스터링 방법으로는 문서를 클러스터링할 때 동일한 레벨에 있는 서로 다른 개념의 클러스터에 속하는 중복된 복합 개념의 클러스터를 찾아서 표현할 수가 없었고, 또한 복합 개념과 각 단순 개념(Simple Concept) 사이의 의미적 계층 관계를 제대로 검증하기가 어려웠다. 본 논문에서는 기존 클러스터링 방법의 문제점을 해결하여 복합 개념을 쉽게 찾아 표현하는 방법을 제안한다. 기존의 계층적 클러스터링 알고리즘을 변형하여 동일 레벨에서 중복을 허용하는 계층적 클러스터링(Hierarchical Overlapping Clustering, HOC) 알고리즘을 개발하였다. HOC 알고리즘은 문서를 클러스터링하여 그 결과를 트리가 아닌 개념 중복이 가능한 Lattice 계층 구조로 표현함으로써 이를 통해 여러 개념이 중복된 복합 개념을 탐지할 수 있었다. HOC 알고리즘을 이용해 생성된 각 클러스터의 개념이 제대로 된 의미적인 계층 관계로 표현되었는지는 특징 선택(Feature Selection) 방법을 적용하여 검증하였다.

텍스트마이닝 기반의 효율적인 장소 브랜드 이미지 강도 측정 방법 (An Efficient Estimation of Place Brand Image Power Based on Text Mining Technology)

  • 최석재;전종식;비스워스 수브르더;권오병
    • 지능정보연구
    • /
    • 제21권2호
    • /
    • pp.113-129
    • /
    • 2015
  • 장소 브랜딩은 특정 장소에 대한 의미 부여를 통해 장소성의 정체성 및 공동가치를 생성하며 가치 창출을 하는데 중요한 활동이며, 장소 브랜드에 대한 이미지 파악을 통해 이루어진다. 이에 마케팅, 건축학, 도시건설학 등 여러 분야에서는 인상적인 장소 브랜드의 이미지를 구축하기 위하여 많은 노력을 기울이고 있다. 하지만 설문조사를 포함한 대면조사 방법은 대부분 주관적인 작업이며 측정에 많은 인력 또는 고도의 전문 인력이 소요되어 고비용을 발생시키므로 보다 객관적이면서도 비용효과적인 브랜드 이미지 조사 방법이 필요하다. 이에 본 논문은 텍스트마이닝을 통하여 장소 브랜드의 이미지 강도를 객관적이고 저비용으로 얻는 방법을 찾는 것을 목적으로 한다. 제안하는 방법은 장소 브랜드 이미지를 구성하고 있는 요인과 그 키워드들을 관련 웹문서에서 추출하며, 추출된 정보를 통해 특정 장소의 브랜드 이미지 강도를 측정하는 방법이다. 성능은 안홀트 방법에서 평가에 사용하는 전세계 50개 도시 이미지 인덱스 순위와의 일치도로 검증하였다. 성능 비교를 위해 임의로 순위를 매기는 방법, 안홀트의 설문방식대로 일반인이 평가하는 방법, 본 논문의 방법을 사용하되 안홀트의 방법으로 학습한 것으로 유의한 것으로 추정되는 평가 항목만을 반영하는 방법과 비교하였다. 그 결과 제안된 방법론은 정확성, 비용효율성, 적시성, 확장성, 그리고 신뢰성 측면에서 우수함을 보일 수 있었다. 따라서 본 연구에서 제안한 방법론은 안홀트 방식에 상호 보완적으로 사용될 수 있을 것이다. 향후에는 장소 브랜드 이미지를 형성하는 속성 별로 등장횟수를 계산 한 후에 장소 브랜드에 대한 태도, 연상, 그리고 브랜드 자산과의 인과관계를 자동으로 파악할 수 있는 부분까지 구현하고 실증적 실험을 할 예정이다.