• Title/Summary/Keyword: 언어 능력

Search Result 941, Processing Time 0.027 seconds

Present State of Programming Language Education and Suggestions for Its Improvement (프로그래밍 언어 교육현황과 개선제안)

  • Rheem, Jae-Yeol
    • The Journal of Korean Institute for Practical Engineering Education
    • /
    • v.3 no.1
    • /
    • pp.56-61
    • /
    • 2011
  • As IT technology improves, software is being more and more important. Industry demands higher level of programming ability from university graduates. As a result, programming related courses already take higher possession of electronics department curricula. But even though the environment likewise computer laboratory is improved as much, and professors have tried to enhance the quality of their lectures and educational results, still programming education does not match the demand of our society and industry. In this paper, we introduce the overview of programming education in electronics department, KUT and discuss problems in programming language education especially for the 1st year students, since programming education to the 1st year university students becomes one of the most important part as it deals with fundamentals on programming language and we suggest its improvement directions in regards with students, teaching materials, professors, class size, and class hours.

  • PDF

Stability of Early Language Development of Verbally-Precocious Korean Children from 2 to 3 Year-old (조기언어발달 아동의 초기 언어능력의 안정성)

  • Lee, Kwee-Ock
    • The Korean Journal of Community Living Science
    • /
    • v.19 no.4
    • /
    • pp.673-684
    • /
    • 2008
  • The purpose of this study is to compare the complexity of language level between verbally-precocious and typically-developing children from 2 to 3 years-old. Participants were 15 children classified as verbally-precocious were scored at the mean 56.85(expressive language) and 88.82(receptive language), and another 15 children classified as typically developing did at the mean 33.51(expressive language) and 58.01(receptive language) on MCDI-K. Each child's spontaneous utterances in interaction with her caregiver were collected at three different times with 6 months interval. All of the utterances were transcribed and analyzed for the use of MLU and lexical diversity by using KCLA. Summarizing the overall results, verbally-precocious children had significantly higher language abilities than typically-developing children at each time, and there were significant differences between two groups in syntactic and semantic language development, showing that verbally-precocious children indicated distinctive MLU and lexical diversity. These results suggest a high degree of stability in precocious verbal status, with variations in language complexity during conversations contributing to later differences in their language ability.

  • PDF

Speech Perception Ability of Schizophrenics - A Comparative Study with Depressives & Normal Control - (정신분열병환자의 언어지각 능력 - 우울증 환자군, 정상인과의 비교 연구 -)

  • Chung, Young-Cho;Lee, Soon Jeong;Lee, Seung-Hwan
    • Korean Journal of Biological Psychiatry
    • /
    • v.9 no.2
    • /
    • pp.112-119
    • /
    • 2002
  • Object:This study was to investigate the difference of speech perception ability in schizophrenic patients, and depression patients in order to explore trait-dependent speech perception ability of each disorder. Methods:The speech perception ability was assessed with masked speech tracking test(MST) in schizophrenic patients(N=31), depression patients(N=25), and normal controls(N=21). The continuous performance test(CPT) and sentence repetition test(SRT) were also used for assessment of attention and working memory. Results:The schizophrenic patients showed significant impaired MST performance, compared with depressive patients and normal controls. The performances of CPT and SRT were also more impaired in schizophrenic patients. The difference of MST performances between two patient group was cancelled out after consideration of differences in CPT & SRT performances. Conclusions:These results imply that schizophrenic patients have the impaired speech perception ability compared with depressive patients and normal controls. But speech perception ability was significantly influenced with CPT and SRT. For evaluation of pure speech perception ability, the more elaborate controlled study that excluded factors such as attention, working memory and intelligence is needed.

  • PDF

Design of an Automatic Generation System for Embedded Processor Cores with Minimal Power Consumption (저전력 소모 임베디드 프로세서 코어 자동생성 시스템의 설계)

  • Kim, Dong-Won;Hwang, Sun-Young
    • The Journal of Korean Institute of Communications and Information Sciences
    • /
    • v.32 no.10C
    • /
    • pp.1042-1050
    • /
    • 2007
  • This paper describes the system which automatically generates power-minimized embedded cores from MDL descriptions. An automatic generation system is constructed which generated embedded cores which consumes less power for application programs. From the usage information on pipeline stages for each instruction, the proposed system generates embedded cores with the capability of detecting/resolving pipeline hazards. The generated cores are configured such that the power consumption is minimized. The proposed system has been tested by generating HDL codes for ARM9, MIPS R3000 architectures. Experimental results show functional accuracy of the generated cores, and show that power reduction of $20%{\sim}40%$ has been observed for benchmark programs.

Making Packets from Animation Gestures -Based on the Effort Element of LMA- (애니메이션 제스처의 패킷화 -LMA의 Effort 요소를 기반으로-)

  • Lee, Mi-Young;Hong, Soo-Hyeon;Kim, Jae-Ho
    • The Journal of the Korea Contents Association
    • /
    • v.11 no.3
    • /
    • pp.179-189
    • /
    • 2011
  • Gesture is one of the means for non-linguistic communication which can be expressed by human characters in animations. High drawing ability and profound knowledge about gestures are both required for animators to achieve efficient gesture expressions. However, diversified profound techniques are needed to master this knowledge which makes it very difficult for common animation drawers. In this paper, characteristics for each gesture are analyzed based on Laban Movement Analysis and gesture classification by making gesture packets. This research is of notable significance in providing animators with high efficient gesture expression techniques and developing automatic gesture-generating system.

The Implementation of an Assisitive Comunication System for the Mute and Language Disorder (언어장애인을 위한 통신보조기기의 구현)

  • 황인정;민홍기
    • Journal of Biomedical Engineering Research
    • /
    • v.20 no.6
    • /
    • pp.621-627
    • /
    • 1999
  • 본 논문은 언어장애인을 위한 통신보조기기의 구현에 관한 연구이다. 통신보조기기에 적용되는 어휘는 사용자의 환경을 고려하여 선택되어야 하며 사용자의 환경에는 연령, 교육정도, 가족관계, 자주 이용하는 장소, 장애의 종류와 정도 등 사용자의 정신적, 육체적 능력을 모두 포함하여야 한다. 본 논문에서는 손의 사용이 가능하고, 어휘와 의미심볼의 관게를 이해할 수 있으면서, 음성표현이 부자유스러운 어린이를 사용자로 한정하였다. 사용자에 의해 발훼된 어휘는 중심어휘와 특정환경을 나타내는 장소 도메인에서의 사용어휘로 나눌 수 있다. 중심어휘는 장소에 구애받지 않고 일상생활에서 널리 쓰이는 어휘를 말하며, 장소 도메인에서의 사용어휘로 나눌 수 있다. 중심어휘는 장소에 구애받지 않고 일상생활에서 널리 쓰이는 어휘를 말하며, 장소 도메인에서의 사용어휘는 특정 장소에서 빈번히 사용하는 어휘를 말한다. 발췌된 어휘는 휴대용 통신보조기기로서의 공간적 제약을 극복하기 위하여 어휘를 명사, 동사, 조사로 나누어 좀더 많은 문장을 만들 수 있도록 하였으며, 동적 시스템과 정적시스템의 장점을 고려하여 장소 도메인 별 어휘로 나누면서 의미함축의 원리를 도입하였다. 또한 어휘의 인식이 쉽도록 의미심볼과 어휘를 대응하여 표현하였고, 시스템의 기능 혹은 어휘분류에 따른 화면의 배경색을 다르게 설정하여 쉽게 사용자가 선택할 수 있도록 하였으며 , 사용자의 선택에 의해 구성된 문장은 화면표시관에 보여진 후 음성으로 표현하였다.

  • PDF

H.264/AVC Fast Intra Mode Decision using GPGPU Parallel Programming (GPGPU 병렬 프로그래밍을 이용한 H.264/AVC 고속 화면내 예측 모드 결정)

  • Choi, Sung-Jun;Han, Ki-Hun;Yoo, Yeong-Soo
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 2011.11a
    • /
    • pp.110-112
    • /
    • 2011
  • GPU의 병렬성과 연산능력을 일반적인 공학적 문제 해결에 적용하는 GPGPU 컴퓨팅에 대한 연구가 최근 활발히 진행되고 있다. 비디오 압축과정에는 많은 양의 화소 데이터에 동일하게 반복되는 연산을 수행하는 알고리즘이 많이 적용되므로 GPGPU를 통한 고속 병렬 계산의 응용 분야로 매우 적합하다. H.264/AVC는 비디오를 압축하는 가장 최신의 국제표준으로 여러 제품군과 서비스에 대한 적용되어 시장에서 널리 사용되고 있다. 본 논문에서는 GPGPU의 응용 분야로 주목 받고 있는 비디오 압축 분야에 대한 적용으로 H.264/AVC의 화면내 예측 모드 결정과정에 GPGPU 병렬 프로그래밍을 적용하여 예측 모드 결정 속도를 향상하는 방법을 제안한다. GPU상에서의 데이터 병렬처리를 위해 CUDA C언어를 사용하였으며, CPU상에서의 연산은 C언어를 사용하여 구현되었다. GPU상에서 프레임 전체에 대한 화면내 예측 모드를 병렬적으로 결정함으로써 이에 소요되는 시간을 줄여 줄 수 있었다. 실험결과 GPU상에서 병렬적으로 예측 모드를 결정할 때 Full-HD급 영상에서 약 2.8배 정도의 속도 향상을 확인할 수 있었다. 향후 GPGPU 병렬 프로그래밍을 화면 내 예측뿐만 아니라 반복되는 연산을 수행하는 다른 알고리즘에도 적용하여 부호화기의 계산 부담을 덜어준다면 고속 실시간 비디오 압축 부호기 개발이 더욱 용이해 질것으로 기대된다.

  • PDF

The Study on Game Users' Payment Intention through Language Network Analysis (언어 네트워크 분석을 통한 온라인게임 유저의 과금 성향 분석)

  • Kim, Eunbi;Wi, Jong Hyun
    • Journal of Korea Game Society
    • /
    • v.21 no.4
    • /
    • pp.117-130
    • /
    • 2021
  • The purpose of this paper is to study users' intention on paid game items through language network analysis. The functional item buying group considered the capabilities and strength of the game character as the most important factor for the winning of the games while the decorative game item buying users considered self-satisfaction for the unique outfit of their game character. Moreover, they reflected their game characters as themselves and another ego.

Dialogue Relation Extraction using Dialogue Graph (상호참조 정보와 대화 그래프를 활용한 대화 관계추출 모델)

  • Jungwoo Lim;Junyoung Son;Jinsung Kim;Yuna Hur;Jaehyung Seo;Yoonna Jang;JeongBae Park;Heuiseok Lim
    • Annual Conference on Human and Language Technology
    • /
    • 2022.10a
    • /
    • pp.385-390
    • /
    • 2022
  • 관계추출은 문서 혹은 문장에서 자동으로 엔티티들간의 관계를 추출하는 기술로, 비정형 데이터를 정형데이터로 변환하기에 자연어 처리 중에서도 중요한 분야중 하나이다. 그 중에서도 대화 관계추출은 기존의 문장 단위의 관계추출과는 다르게 긴 길이에 비해 적은 정보의 양, 빈번하게 등장하는 지시대명사 등의 특징을 가지고 있어 주어와 목적어 사이의 관계를 예측하기에 어려움이 있었다. 본 연구에서는 이러한 어려움을 극복하기 위해 대화의 특성을 고려한 대화 그래프를 구축하고 이를 이용한 모델을 제안한다. 제안하는 모델은 상호참조 정보와 문맥정보를 더 반영한 그래프를 통해 산발적으로 퍼져있는 정보를 효율적으로 수집하고, 지시대명사로 인해 어려워진 중요 발화 파악 능력을 증진시켰다. 또한 이를 실험적으로 보이기 위하여 대화 관계추출 데이터셋에 실험해본 결과, 기존 베이스라인 보다 약 10 % 이상의 높은 F1점수를 달성하였다.

  • PDF

Enhancing Multimodal Emotion Recognition in Speech and Text with Integrated CNN, LSTM, and BERT Models (통합 CNN, LSTM, 및 BERT 모델 기반의 음성 및 텍스트 다중 모달 감정 인식 연구)

  • Edward Dwijayanto Cahyadi;Hans Nathaniel Hadi Soesilo;Mi-Hwa Song
    • The Journal of the Convergence on Culture Technology
    • /
    • v.10 no.1
    • /
    • pp.617-623
    • /
    • 2024
  • Identifying emotions through speech poses a significant challenge due to the complex relationship between language and emotions. Our paper aims to take on this challenge by employing feature engineering to identify emotions in speech through a multimodal classification task involving both speech and text data. We evaluated two classifiers-Convolutional Neural Networks (CNN) and Long Short-Term Memory (LSTM)-both integrated with a BERT-based pre-trained model. Our assessment covers various performance metrics (accuracy, F-score, precision, and recall) across different experimental setups). The findings highlight the impressive proficiency of two models in accurately discerning emotions from both text and speech data.