• 제목/요약/키워드: Sentence analysis

검색결과 492건 처리시간 0.026초

주제문을 통한 한국학생의 중국어 학습지도 연구 - 중·한 주제문의 비교를 중심으로 (A Comparative Study on Teaching Chinese and Korean Topic Sentences)

  • 주취란
    • 비교문화연구
    • /
    • 제19권
    • /
    • pp.389-409
    • /
    • 2010
  • Chinese is a topic-prominent language, so when we learn Chinese we should know the discourse function of the Chinese language. Most of the Korean student think Chinese sentences should appear in the order of S-V-O and they always make mistakes when they use Chinese. I think Korean is very similar with Chinese in the discourse function. Hence, in this paper, I try to find a method of teaching Chinese topic sentence. It does so by comparing Chinese with Korean in the light of discourse function. I think when Korean student know how to use Korean topic sentence to explain the discourse functions of the Chinese language, they will not make similar mistakes. With this understanding in mind, chapter 2 tries to show various topic sentences to prove that 'topic' is very important in Chinese sentences. This is why we say Chinese is a topic-prominent language. In chapter 3, I analysis the sentences that students made, and highlight the reasons why they made mistake. The result lies in the reason whereby they always think Chinese should appear in the order of S-V-O. They do not understand why some sentences appear in the order of O-(S)V or S-O-V. It show that they do not know what is topic sentence and do not know how to make topic sentences. Sometime I have them translate them into Korean, but they also make Korean sentences like in the order of Chinese S-V-O. Therefore, I think, under this circumstance, to let them to translate and to speak in Korean in topic sentence, get some feelings about Chinese topic sentences, and tell and make Chinese topic sentences are naturally critical in their training.

외치료법(外治療法)의 이론(理論)과 적응증(適應症)에 대한 사적(史的) 고찰(考察) (A Historical Consideration on the External Treatment theories and diseases for which medicine is efficacious)

  • 문우상;이병욱;안상우;김은하
    • 한국한의학연구원논문집
    • /
    • 제10권2호
    • /
    • pp.1-21
    • /
    • 2004
  • 1) Objective External treatments have various curative effects. So it had been used to cure various patients. But, it has a limited sphere of application in the present South Korea. Therefore we would like to bring out its sphere of application and detailed method in the oriental medicine classics. 2) Methodologies We have researched external treatment history according to below the procedure. (1) Making a related words list: We have used existing external treatments technical books to make a list. It has been connected with external treatments. It includes not only technical terms, but also general terms. (2) Searching sentence: We have searched sentence that contain terms that related with external treatments. (3) Analysis of related sentence: We have searched and classified sentence by disease. (4) Analysis of external treatment methods. 3) Conclusions From long time ago people have used external treatment to cure various disease. According to the ${\ulcorner}Nei-Jing{\lrcorner}$, hot compress therapy, fumigation therapy and bathing therapy had been used to cure blockage syndrome, muscle disease, carbuncle and cellulitis. Thereafter, a sphere of external treatment had gradually enlarged. (1) After all its sphere had included dermatologic, psychologic, internal, ophthalmic, otolaryngologic, obstetrics, gynecologic, pediatric and surgical diseases. (2) External treatment methods have contained hot compress therapy, fumigation therapy, bathing therapy, application therapy, medication bag therapy, medication plug therapy, medication massotherapy, aroma therapy and so on. (3) Medication types of external treatment have contained ointment, juice, infusion, powder, suppository and so on.

  • PDF

Error Analysis: What Problems do Learners Face in the Production of the English Passive Voice?

  • Jung, Woo-Hyun
    • 영어어문교육
    • /
    • 제12권2호
    • /
    • pp.19-40
    • /
    • 2006
  • This paper deals with a part-specific analysis of grammatical errors in the production of the English passive in writing. The purpose of the study is dual: to explore common error types in forming the passive; and to provide plausible sources of the errors, with special attention to the role of the native language. To this end, this study obtained a large amount of data from Korean EFL university students using an essay writing task. The results show that in forming the passive sentence, errors were made in various ways and that the most common problem was the formation of the be-auxiliary, in particular, the proper use of tense and S-V agreement. Another important finding was that the global errors found in this study were not necessarily those with the greatest frequency. Also corroborated was the general claim that many factors work together to account for errors. In many cases, interlingual and intralingual factors were shown to interact with each other to explain the passive errors made by Korean students. On the basis of the results, suggestions are made for effective and well-formed use of the passive sentence.

  • PDF

형태소 분석을 통한 한국어 문장 유형 자동 분류 (Automated Classification of Sentential Types in Korean with Morphological Analysis)

  • 정진우;박종철
    • 한국언어정보학회지:언어와정보
    • /
    • 제13권2호
    • /
    • pp.59-97
    • /
    • 2009
  • The type of a given sentence indicates the speaker's attitude towards the listener and is usually determined by its final endings and punctuation marks. However, some 6na1 endings are used in several types of sentences, which means that we cannot identify the sentential type by considering only the final endings and punctuation marks. In this paper, we propose methods of finding some other linguistic clues for indentifying the sentential type with a morphological analysis. We also propose to use these methods to implement a system that automatically classifies sentences in Korean according to their sentential types.

  • PDF

초등학교 예비교사들의 수학적 '문제 만들기'에 나타나는 문장의 오류 유형 분석 (Analysis on Sentence Error Types of Mathematical Problem Posing of Pre-Service Elementary Teachers)

  • 허난;신호철
    • 한국학교수학회논문집
    • /
    • 제16권4호
    • /
    • pp.797-820
    • /
    • 2013
  • 본 논문은 초등학교 예비교사 100명을 대상으로 수학적 '문제 만들기'의 문장에 나타나는 오류를 분석하고 그에 대한 간단한 예방책을 기술한 논의이다. '문제 만들기' 문장에는 '음운 오류, 단어 오류, 문장 오류, 의미 오류, 표기 오류' 등 5가지 오류 유형이 나타났다. 이를 다시 14개의 세부 유형으로 구분하여 세부적으로 논의하였다. 곧 음운 오류의 유형은 'ㄹ'첨가 오류와 조사끼리의 준말 사용 오류가 있다. 단어 오류는 크게 '부적절한 사용 오류'와 '부당한 생략 오류'로 구분하고 이를 다시 조사, 어미, 어휘의 사용 오류와 조사와 어휘의 부당한 생략 오류로 유형화하였다. 문장 오류는 '지시 대상의 오류, 문장 성분의 생략 오류, 어순 오류, 자체 비문'의 네 가지로 유형화하였다. 의미 오류는 논리적 모순 관계 오류와 중의성을 띄는 의미 오류에 대해서만 논의하였고, 표기 오류는 띄어쓰기와 문장 부호, 철자에 관한 한글 맞춤법 오류와 외래어 표기법 오류 등에 대하여 논의하였다. 또한 14개의 문법적 세부 오류 유형을 방지하기 위한 예방책을 제시하였다. 먼저 구어와 문어의 차이를 인식하고, 둘째 글을 쓰는 문어 상황에 맞도록 구어적 표현을 지양하도록 하는 것, 셋째 국어 기본 문형 학습에 대한 강조, 넷째 단어 의미의 명확한 이해를 바탕으로 한 의미의 논리적 전개 인식을 제안하였으며, 끝으로 국어 어문 규정에 대한 학습을 제안하였다. 그리고 대학생 글쓰기 교육에 대한 필요성에 대한 재인식을 결론으로 갈음하였다.

  • PDF

SentenceBERT 모델을 활용한 해양안전심판 재결서 분석 방법에 대한 연구 (Maritime Safety Tribunal Ruling Analysis using SentenceBERT)

  • 윤보리;박세길;배혜림;심성현
    • 해양환경안전학회지
    • /
    • 제29권7호
    • /
    • pp.843-856
    • /
    • 2023
  • 전 세계 선박 통행량의 증가에 따른 선박 충돌 사고의 증가는 큰 경제적, 환경적, 물리적 및 인간적 손해를 가져왔다. 선박 사고의 원인은 선원의 판단 오류나 부주의, 항로의 복잡성, 기상 조건, 선박의 기술적 결함 등 다양한 요인이 겹쳐 작용하여 사고를 유발하기 때문에 문장의 깊은 의미와 문맥 정보를 고려할 수 있는 방법론이 필요하다. 따라서, 본 연구는 부산해심 지역에서의 최근 20년 동안의 선박 충돌사고 데이터를 포함하고 있는 해양안전심판 재결서를 SentenceBERT 모델을 활용해 분석하였다. 분석 결과 사고의 주요 원인이 될 수 있는 키워드가 도출되었으며, 특정 키워드 출현 빈도를 바탕으로 군집 분석을 시행하고 시각화하였다. 추후 사고의 원인을 미리 파악함으로써, 이를 통해 선박 충돌 사고의 예방 및 사고 대응 전략 개발의 기초 자료로써 활용하고자 한다.

The Indefinite Description Analysis of Belief Ascription Sentences: A Trouble with the Analysis\ulcorner

  • Sunwoo, Hwan
    • 인문언어
    • /
    • 제2권2호
    • /
    • pp.301-319
    • /
    • 2002
  • In a recent paper, I have proposed an analysis concerning propositions and 'that'-clauses as a solution to Kripke's puzzle and other similar puzzles, which I now call 'the Indefinite Description Analysis of Belief Ascription Sentences.' I have listed some of the major advantages of this analysis besides its merit as a solution to the puzzles: it is amenable to the direct-reference theory of proper names; it does not nevertheless need to introduce Russellian (singular) propositions or any other new entities. David Lewis has constructed an interesting argument to refute this analysis. His argument seems to show that my analysis has an unwelcome consequence: if someone believes any proposition, then he or she should, ipso facto, believe any necessary (mathematical or logical) proposition (such as the proposition that 1 succeeds 0). In this paper, I argue that Lewis's argument does not pose a real threat to my analysis. All his argument shows is that we should not accept the assumption called 'the equivalence thesis': if two sentences are equivalent, then they express the same proposition. I argue that this thesis is already in trouble for independent reasons. Especially, I argue that if we accept the equivalence thesis then, even without my analysis, we can derive a sentence like 'Fred believes that 1 succeeds 0 and snow is white' from a sentence like 'Fred believes that snow is white.' The consequence mentioned above is not worse than this consequence.

  • PDF

BERT를 활용한 속성기반 감성분석: 속성카테고리 감성분류 모델 개발 (Aspect-Based Sentiment Analysis Using BERT: Developing Aspect Category Sentiment Classification Models)

  • 박현정;신경식
    • 지능정보연구
    • /
    • 제26권4호
    • /
    • pp.1-25
    • /
    • 2020
  • 대규모 텍스트에서 관심 대상이 가지고 있는 속성들에 대한 감성을 세부적으로 분석하는 속성기반 감성분석(Aspect-Based Sentiment Analysis)은 상당한 비즈니스 가치를 제공한다. 특히, 텍스트에 속성어가 존재하는 명시적 속성뿐만 아니라 속성어가 없는 암시적 속성까지 분석 대상으로 하는 속성카테고리 감성분류(ACSC, Aspect Category Sentiment Classification)는 속성기반 감성분석에서 중요한 의미를 지니고 있다. 본 연구는 속성카테고리 감성분류에 BERT 사전훈련 언어 모델을 적용할 때 기존 연구에서 다루지 않은 다음과 같은 주요 이슈들에 대한 답을 찾고, 이를 통해 우수한 ACSC 모델 구조를 도출하고자 한다. 첫째, [CLS] 토큰의 출력 벡터만 분류벡터로 사용하기보다는 속성카테고리에 대한 토큰들의 출력 벡터를 분류벡터에 반영하면 더 나은 성능을 달성할 수 있지 않을까? 둘째, 입력 데이터의 문장-쌍(sentence-pair) 구성에서 QA(Question Answering)와 NLI(Natural Language Inference) 타입 간 성능 차이가 존재할까? 셋째, 입력 데이터의 QA 또는 NLI 타입 문장-쌍 구성에서 속성카테고리를 포함한 문장의 순서에 따른 성능 차이가 존재할까? 이러한 연구 목적을 달성하기 위해 입력 및 출력 옵션들의 조합에 따라 12가지 ACSC 모델들을 구현하고 4종 영어 벤치마크 데이터셋에 대한 실험을 통해 기존 모델 이상의 성능을 제공하는 ACSC 모델들을 도출하였다. 그리고 [CLS] 토큰에 대한 출력 벡터를 분류벡터로 사용하기 보다는 속성카테고리 토큰의 출력 벡터를 사용하거나 두 가지를 함께 사용하는 것이 더욱 효과적이고, NLI 보다는 QA 타입의 입력이 대체적으로 더 나은 성능을 제공하며, QA 타입 안에서 속성이 포함된 문장의 순서는 성능과 무관한 점 등의 유용한 시사점들을 발견하였다. 본 연구에서 사용한 ACSC 모델 디자인을 위한 방법론은 다른 연구에도 비슷하게 응용될 수 있을 것으로 기대된다.

TF-IDF를 활용한 한글 자연어 처리 연구 (A study on Korean language processing using TF-IDF)

  • 이종화;이문봉;김종원
    • 한국정보시스템학회지:정보시스템연구
    • /
    • 제28권3호
    • /
    • pp.105-121
    • /
    • 2019
  • Purpose One of the reasons for the expansion of information systems in the enterprise is the increased efficiency of data analysis. In particular, the rapidly increasing data types which are complex and unstructured such as video, voice, images, and conversations in and out of social networks. The purpose of this study is the customer needs analysis from customer voices, ie, text data, in the web environment.. Design/methodology/approach As previous study results, the word frequency of the sentence is extracted as a word that interprets the sentence has better affects than frequency analysis. In this study, we applied the TF-IDF method, which extracts important keywords in real sentences, not the TF method, which is a word extraction technique that expresses sentences with simple frequency only, in Korean language research. We visualized the two techniques by cluster analysis and describe the difference. Findings TF technique and TF-IDF technique are applied for Korean natural language processing, the research showed the value from frequency analysis technique to semantic analysis and it is expected to change the technique by Korean language processing researcher.

Scaling Reuse Detection in the Web through Two-way Boosting with Signatures and LSH

  • Kim, Jong Wook
    • 한국멀티미디어학회논문지
    • /
    • 제16권6호
    • /
    • pp.735-745
    • /
    • 2013
  • The emergence of Web 2.0 technologies, such as blogs and wiki, enable even naive users to easily create and share content on the Web using freely available content sharing tools. Wide availability of almost free data and promiscuous sharing of content through social networking platforms created a content borrowing phenomenon, where the same content appears (in many cases in the form of extensive quotations) in different outlets. An immediate side effect of this phenomenon is that identifying which content is re-used by whom is becoming a critical tool in social network analysis, including expert identification and analysis of information flow. Internet-scale reuse detection, however, poses extremely challenging scalability issues: considering the large size of user created data on the web, it is essential that the techniques developed for content-reuse detection should be fast and scalable. Thus, in this paper, we propose a $qSign_{lsh}$ algorithm, a mechanism for identifying multi-sentence content reuse among documents by efficiently combining sentence-level evidences. The experiment results show that $qSign_{lsh}$ significantly improves the reuse detection speed and provides high recall.