• 제목/요약/키워드: Jang' word

검색결과 187건 처리시간 0.024초

Effects of Visible and Invisible Factors and Buying Impulse Intention upon Store Loyalty: Focused on Physical Evidence and Word-of-Mouth of Discount Store

  • Yang, Hoe-Chang;Ahn, Ho-Keun;Lee, Young-Chul
    • 유통과학연구
    • /
    • 제11권11호
    • /
    • pp.57-61
    • /
    • 2013
  • Purpose - This study aimed to understand the influence of visible factors directly shown to and experienced by consumers such as physical evidence, and invisible factors obtained through acquaintances or other experienced consumers such as word-of-mouth, in the discount stores' marketing communication on impulse buying intention and store loyalty. Research Design, Data, and Methodology - This study examined the effect of factors in discount stores' marketing communication, for instance, physical evidence, word-of-mouth, and buying impulse intention. The questionnaire survey resulted in 68 completed questionnaires. Results - Physical evidence and word-of-mouth have a statistically significant positive effect on store loyalty. The results of regression analysis regarding whether visible or invisible factors have more impact showed that word-of-mouth has a statistically significant positive effect on store loyalty. With regard to impulse buying intention, only word-of-mouth was statistically significant. Conclusion These results suggested that visible and invisible factors that appeal to customers are very important. In particular, the results suggested that stores should create invisible factors (e.g., positive word-of-mouth) for their customers.

단어의 위치정보를 이용한 Word Embedding (Word Embedding using word position information)

  • 황현선;이창기;장현기;강동호
    • 한국정보과학회 언어공학연구회:학술대회논문집(한글 및 한국어 정보처리)
    • /
    • 한국정보과학회언어공학연구회 2017년도 제29회 한글 및 한국어 정보처리 학술대회
    • /
    • pp.60-63
    • /
    • 2017
  • 자연어처리에 딥 러닝을 적용하기 위해 사용되는 Word embedding은 단어를 벡터 공간상에 표현하는 것으로 차원축소 효과와 더불어 유사한 의미의 단어는 유사한 벡터 값을 갖는다는 장점이 있다. 이러한 word embedding은 대용량 코퍼스를 학습해야 좋은 성능을 얻을 수 있기 때문에 기존에 많이 사용되던 word2vec 모델은 대용량 코퍼스 학습을 위해 모델을 단순화 하여 주로 단어의 등장 비율에 중점적으로 맞추어 학습하게 되어 단어의 위치 정보를 이용하지 않는다는 단점이 있다. 본 논문에서는 기존의 word embedding 학습 모델을 단어의 위치정보를 이용하여 학습 할 수 있도록 수정하였다. 실험 결과 단어의 위치정보를 이용하여 word embedding을 학습 하였을 경우 word-analogy의 syntactic 성능이 크게 향상되며 어순이 바뀔 수 있는 한국어에서 특히 큰 효과를 보였다.

  • PDF

단어의 위치정보를 이용한 Word Embedding (Word Embedding using word position information)

  • 황현선;이창기;장현기;강동호
    • 한국어정보학회:학술대회논문집
    • /
    • 한국어정보학회 2017년도 제29회 한글및한국어정보처리학술대회
    • /
    • pp.60-63
    • /
    • 2017
  • 자연어처리에 딥 러닝을 적용하기 위해 사용되는 Word embedding은 단어를 벡터 공간상에 표현하는 것으로 차원축소 효과와 더불어 유사한 의미의 단어는 유사한 벡터 값을 갖는다는 장점이 있다. 이러한 word embedding은 대용량 코퍼스를 학습해야 좋은 성능을 얻을 수 있기 때문에 기존에 많이 사용되던 word2vec 모델은 대용량 코퍼스 학습을 위해 모델을 단순화 하여 주로 단어의 등장 비율에 중점적으로 맞추어 학습하게 되어 단어의 위치 정보를 이용하지 않는다는 단점이 있다. 본 논문에서는 기존의 word embedding 학습 모델을 단어의 위치정보를 이용하여 학습 할 수 있도록 수정하였다. 실험 결과 단어의 위치정보를 이용하여 word embedding을 학습 하였을 경우 word-analogy의 syntactic 성능이 크게 향상되며 어순이 바뀔 수 있는 한국어에서 특히 큰 효과를 보였다.

  • PDF

KNE: An Automatic Dictionary Expansion Method Using Use-cases for Morphological Analysis

  • Nam, Chung-Hyeon;Jang, Kyung-Sik
    • Journal of information and communication convergence engineering
    • /
    • 제17권3호
    • /
    • pp.191-197
    • /
    • 2019
  • Morphological analysis is used for searching sentences and understanding context. As most morpheme analysis methods are based on predefined dictionaries, the problem of a target word not being registered in the given morpheme dictionary, the so-called unregistered word problem, can be a major cause of reduced performance. The current practical solution of such unregistered word problem is to add them by hand-write into the given dictionary. This method is a limitation that restricts the scalability and expandability of dictionaries. In order to overcome this limitation, we propose a novel method to automatically expand a dictionary by means of use-case analysis, which checks the validity of the unregistered word by exploring the use-cases through web crawling. The results show that the proposed method is a feasible one in terms of the accuracy of the validation process, the expandability of the dictionary and, after registration, the fast extraction time of morphemes.

MS-Word 문서 접근 제어시스템 설계 (Design of the Access Control System for MS-WORD Document System)

  • 장승주
    • 한국정보통신학회논문지
    • /
    • 제22권10호
    • /
    • pp.1405-1411
    • /
    • 2018
  • 본 논문은 MS-워드 문서 시스템에 대한 접근 제어 시스템을 설계한다. 본 논문에서 설계하는 시스템은 MS-워드 문서 구조를 분석하여 문서 관련 정보를 활용한다. MS-워드문서 정보를 일부 변형하여 변형된 정보에 접근할 수 없는 사용자는 접근을 차단하도록 설계하는 것이다. 이렇게 함으로써 MS-워드문서에 대해서 접근 권한을 가진 사용자 외에는 문서를 읽을 수 없도록 한다. 즉, MS-워드문서에 대한 접근 권한을 통제할 수 있도록 한다. MS-워드문서에 대한 접근 권한을 가진 사용자는 변형된 정보를 원래 정보로 복구할 수 있도록 하여 정상적으로 문서를 읽을 수 있도록 한다. 본 논문에서 설계하는 내용을 실제 구현하고 실험을 수행하였다. 실험에서는 MS-워드문서 정보를 변형하였을 경우 문서 접근이 되는지를 수행하였다. 실험을 수행한 결과 MS-word 접근제어시스템이 정상적으로 잘 동작됨을 확인할 수 있었다.

단어 구름과 동적 그래픽스 기법을 이용한 영어성경 텍스트 시각화 (English Bible Text Visualization Using Word Clouds and Dynamic Graphics Technology)

  • 장대흥
    • 응용통계연구
    • /
    • 제27권3호
    • /
    • pp.373-386
    • /
    • 2014
  • 단어 구름은 문자 텍스트 상의 복수개의 단어들을 대상으로 그 단어들의 출현 빈도에 비례하는 글자의 크기나 글자의 색깔로 중요도를 나타내는 텍스트 시각화 방법이다. 이 그림은 텍스트 상의 핵심단어를 재빨리 인지하고 단어들의 상대적 출현빈도수에 맞추어 배열하는 데 유용하다. 동적 그래픽스를 이용하여 텍스트 장들의 변화에 따른 핵심단어와 단어출현빈도의 패턴의 변하는 모습을 살필 수 있다. 행들이 텍스트 상의 장들이고 열들이 텍스트에 출현하는 단어들의 출현빈도수 순위들인 단어출현빈도행렬을 정의할 수 있고 이 행렬을 이용하여 단어출현빈도행렬그림을 그릴 수 있다. 동적 그래픽스를 이용하여 출현빈도수 순위의 변화에 따른 단어출현빈도행렬의 패턴의 변하는 모습을 살필 수 있다. 우리는 단어 구름과 동적 그래픽스 기법을 사용하여 영어성경 텍스트 시각화를 수행할 수 있다.

한국어 음성인식 플랫폼(ECHOS)의 개선 및 평가 (Improvement and Evaluation of the Korean Large Vocabulary Continuous Speech Recognition Platform (ECHOS))

  • 권석봉;윤성락;장규철;김용래;김봉완;김회린;유창동;이용주;권오욱
    • 대한음성학회지:말소리
    • /
    • 제59호
    • /
    • pp.53-68
    • /
    • 2006
  • We report the evaluation results of the Korean speech recognition platform called ECHOS. The platform has an object-oriented and reusable architecture so that researchers can easily evaluate their own algorithms. The platform has all intrinsic modules to build a large vocabulary speech recognizer: Noise reduction, end-point detection, feature extraction, hidden Markov model (HMM)-based acoustic modeling, cross-word modeling, n-gram language modeling, n-best search, word graph generation, and Korean-specific language processing. The platform supports both lexical search trees and finite-state networks. It performs word-dependent n-best search with bigram in the forward search stage, and rescores the lattice with trigram in the backward stage. In an 8000-word continuous speech recognition task, the platform with a lexical tree increases 40% of word errors but decreases 50% of recognition time compared to the HTK platform with flat lexicon. ECHOS reduces 40% of recognition errors through incorporation of cross-word modeling. With the number of Gaussian mixtures increasing to 16, it yields word accuracy comparable to the previous lexical tree-based platform, Julius.

  • PDF

Text Classification Using Parallel Word-level and Character-level Embeddings in Convolutional Neural Networks

  • Geonu Kim;Jungyeon Jang;Juwon Lee;Kitae Kim;Woonyoung Yeo;Jong Woo Kim
    • Asia pacific journal of information systems
    • /
    • 제29권4호
    • /
    • pp.771-788
    • /
    • 2019
  • Deep learning techniques such as Convolutional Neural Networks (CNNs) and Recurrent Neural Networks (RNNs) show superior performance in text classification than traditional approaches such as Support Vector Machines (SVMs) and Naïve Bayesian approaches. When using CNNs for text classification tasks, word embedding or character embedding is a step to transform words or characters to fixed size vectors before feeding them into convolutional layers. In this paper, we propose a parallel word-level and character-level embedding approach in CNNs for text classification. The proposed approach can capture word-level and character-level patterns concurrently in CNNs. To show the usefulness of proposed approach, we perform experiments with two English and three Korean text datasets. The experimental results show that character-level embedding works better in Korean and word-level embedding performs well in English. Also the experimental results reveal that the proposed approach provides better performance than traditional CNNs with word-level embedding or character-level embedding in both Korean and English documents. From more detail investigation, we find that the proposed approach tends to perform better when there is relatively small amount of data comparing to the traditional embedding approaches.

유로워드넷 기반의 어휘 데이터베이스 활용을 위한 한국어-독일어 ILI 대응 방법론 연구 (Eine methodologische Untersuchung der koreanisch-deutschen ILI-Verbindung zur Anwendung der auf dem EuroNet basierten lexikalisch-semantischen Datenbasis)

  • 오장근
    • 한국독어학회지:독어학
    • /
    • 제6집
    • /
    • pp.323-344
    • /
    • 2002
  • EuroNet ist eine multilinguale Datenbasis mit WordNets $f\"{u}r\;einige\;europ\"{a}ische$ Sprachen ($holl\"{a}ndisch$, italienisch, spanisch, deutsch, $franz\"{o}sisch$, tschechisch und estnisch). Die WordNets werden genauso wie das amerikanische WordNet $f\"{u}r$ Englisch (Princeton WordNet, Miller et al. 1990) in Synsets (Zusammensetzen der synonymen $W\"{o}rter$) mit grundlegenden lexikalisch-semantischen Relationen zwischen ihnen $ausgedr\"{u}ckt$ strukturiert. Jedes WordNet stellt also ein einzigartiges innersprachliches System $f\"{u}r$ die lexikalischen und konzeptuellen Relationen dar. $Zus\"{a}tzlich$ werden diese auf dem Princeton WordNet basierten WordNets (z.B. GermaNet) mit einem Inter-Linguale-Index (kurz, ILI) verbunden. $\"{U}ber$ diesem Index werden die Sprachen zusammengeschaltet, damit zu gehen ist $m\"{o}glich$, von den $W\"{o}rtern$ in einer Sprache zu den $\"{a}hnlichen\;W\"{o}rtern$ in jeder $m\"{o}glicher$ anderen Sprache. Der Index gibt auch Zugang zu einer geteilten Top-Ontologie von 63 semantischen Unterscheidungen. Diese Top-Ontologie stellt einen allgemeinen semantischen Rahmen $f\"{u}r$ aile Sprachen zur $Verf\"{u}gung,\;w\"{a}hrend$ sprachspezifische Eigenschaften in den einzelnen WordNets beibehalten werden. Die Datenbasis kann, unter anderen, $f\"{u}r$ einsprachige und multilinguale Informationsretrieval benutzt werden. In der vorliegenden Arbeit handelt sich also um eine methodologische Untersuchung der koreanisch-deutschen ILI-Verbindung zur Anwendung der auf dem EuroNet basierten lexikalischen, semantischen Datenbasis. Dabei werden einzelnen Lexeme in koreanischen, deutschen WordNets $zun\"{a}chst$ mit Hilfe der Sense-Analyse semantisch differenziert, und dann durch lexikalische und konzeptuelle Relationen(ILI) miteinander verbunden. Die Equivalezverbindungen dienen, sprachspezifische Konzepte zum ILI abzubilden. Sie werden von einem anderen Synset der moglichen Relationen aus der Euronet-Spezifikation genommen. Wenn es keinen ILI-Rekord gibt, der ein direktes Equivalenz zu einem gegebenen Konzept darstellt, kann das Konzept in der Frage $\"{u}ber$ EQ-Near-Synonymie, EQ-Hyperonymie oder EQ-Hyponymie Relationen verbunden werden.

  • PDF

오액(五液) 중(中) '체(涕)'의 의미에 대한 고찰 (Study on the Meaning of Nasal discharge(涕) in Five fluids)

  • 장희원;송지청;엄동명
    • 대한한의학원전학회지
    • /
    • 제29권3호
    • /
    • pp.75-80
    • /
    • 2016
  • Objectives : The paper raises an objection to the word '涕' being used to refer to nasal discharge, and proposes a word for nasal discharge upon studying a set of medical books. Methods : The author finds and confirms the dictionary definition of '涕' and studies how they are used differently in medical books. Through this study, the author shows how the word '涕' is used incorrectly and makes deductions for its reason. The author takes a look at the old form of the word '涕', its etymological origin, takes a guess as to the real word that should have been used to refer to nasal discharge, and find examples of instances where this correct word for nasal discharge are more appropriate. Results & Conclusions : In medical books such as Huangdineijing Suwen, '涕' is used to mean nasal discharge, but the word's dictionary definition does not validate such usage. Yugunryeombu (劉君廉夫), in its commentary for Somun, used '?' and '鼻夷' for '涕', and '?' means nasal discharge and used as same as '涕' when its used to mean tear. This is a phenomenon that originated from '弟' and '夷' being used interchangeably which led to the incorrect usage of '?'. If someone were to refer to nasal discharge, he needs to use '?'. '鼻夷' is believed to be the same word as '弟鼻', which is the old form of '?', and it means both tear(pronounced 'Che') and nasal discharge(pronounced 'Je'). However, the pronunciation different between 'Che' and 'Je', and its definition as tear, is divided in later periods into '涕' following the shape of '弟'. Following the shape of '夷', the meaning of nasal discharge remains in '?' while retaining the pronunciation of 'yi'. Therefore, the word '涕' used to mean nasal discharge is an incorrect form of '?', and should all be re-written to '?'.