• Title/Summary/Keyword: 혐오발언

Search Result 5, Processing Time 0.023 seconds

Deep Learning Model for Metaverse Environment to Detect Metaphor (메타버스 환경에서 음성 혐오 발언 탐지를 위한 딥러닝 모델 설계)

  • Song, Jin-Su;Karabaeva, Dilnoza;Son, Seung-Woo;Shin, Young-Tea
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2022.05a
    • /
    • pp.621-623
    • /
    • 2022
  • 최근 코로나19로 인해 비대면으로 소통할 수 있는 플랫폼에 대한 관심이 증가하고 있으며, 가상 세계의 개념을 도입한 메타버스 플랫폼이 MZ세대의 새로운 SNS로 떠오르고 있다. 아바타를 통해 상호 교류가 가능한 메타버스는 텍스트 기반의 소통뿐만 아니라 음성과 동작 시선 등을 활용하여 변화된 의사소통 방식을 사용한다. 음성을 활용한 소통이 증가함에 따라 다른 이용자에게 불쾌감을 주는 혐오 발언에 대한 신고가 증가하고 있다. 그러나 기존 혐오 발언 탐지 시스템은 텍스트를 기반으로 하여 사전에 정의된 혐오 키워드만 특수문자로 대체하는 방식을 사용하기 때문에 음성 혐오 발언에 대해서는 탐지하지 못한다. 이에 본 논문에서는 인공지능을 활용한 음성 혐오 표현 탐지 시스템을 제안한다. 제안하는 시스템은 음성 데이터의 파형을 통해 은유적 혐오 표현과 혐오 발언에 대한 감정적 특징을 추출하고 음성 데이터를 텍스트 데이터로 변환하여 혐오 문장을 탐지한 결과와 결합한다. 향후, 제안하는 시스템의 현실적인 검증을 위해 시스템 구축을 통한 성능평가가 필요하다.

Hate Speech Classification Using Ordinal Regression (순서형 회귀분석을 활용한 악성 댓글 분류)

  • Lee, Seyoung;Park, Saerom
    • Proceedings of the Korean Society of Computer Information Conference
    • /
    • 2021.07a
    • /
    • pp.735-736
    • /
    • 2021
  • 인터넷에서 댓글 시스템은 자신의 의사표현을 위한 시스템으로 널리 사용되고 있다. 하지만 이를 악용하여 상대방에 대한 혐오를 드러내기도 한다. 악성댓글에 대한 적절한 대처를 위해 빠르고 정확한 탐지는 필수적이다. 본 연구에서는 악성 댓글 분류 문제를 해결하기 위해서 순서가 있는 분류 레이블의 성질을 활용한 순서형 회귀 (Ordinal regression) 기반의 분류 모델을 제안한다. 일반적인 분류 모형과는 달리 혐오 발언 정도에 따라 다중 레이블을 부여하여 학습을 진행하였다. 실험을 통해 Korean Hate Speech Dataset에 대해 LSTM기반의 모형의 출력층을 다르게 구성하여 순서형 회귀 기반의 모형들의 성능을 비교하였다. 결과적으로 예측 결과에 대한 조율이 가능한 순서형 회귀 모형이 일반적인 순서형 회귀 모형에 비해서 편향된 예측에 대해 추가적인 성능 향상을 보였다.

  • PDF

A Study on Improvement of Hate Speech and Game Culture in Online Game (온라인 게임 내 혐오표현과 게임문화 개선에 대한 연구)

  • Kim, Mi-Seon;Yi, Do-young;Lee, Jong-won
    • Proceedings of the Korean Society of Computer Information Conference
    • /
    • 2019.07a
    • /
    • pp.299-302
    • /
    • 2019
  • 현재 게임을 즐기는 유저의 스펙트럼은 미취학 아동부터 노년에 이르기까지 매우 넓어졌다. 반면, 온라인 게임 내의 헤이트 스피치는 최근 사회적 문제로 대두되고 있다. 헤이트스피치 문제는 점차 심각해져가고 있지만 이 문제를 개선하기 위한 가이드라인은 명확히 제시되어 있지 않다. 본 논문에서는 온라인 게임 내 텍스트와 음성 채팅을 통해 발생하는 헤이트 스피치의 현황과 문제점을 알아보고 그에 대한 해결방향을 제시한다.

  • PDF

BERT-based Hateful Text Filtering System - Focused on University Petition System (BERT 기반 혐오성 텍스트 필터링 시스템 - 대학 청원 시스템을 중심으로)

  • Taejin Moon;Hynebin Bae;Hyunsu Lee;Sanguk Park;Youngjong Kim
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2023.05a
    • /
    • pp.714-715
    • /
    • 2023
  • 최근들어 청원 시스템은 사람들의 다양한 의견을 반영하고 대응하기 위한 중요한 수단으로 부상하고 있다. 그러나 많은 양의 청원 글들을 수작업으로 분류하는 것은 매우 시간이 많이 소요되며, 인적 오류가 발생할 수 있는 문제점이 존재한다. 이를 해결하기 위해 자연어처리(NLP) 기술을 활용한 청원 분류 시스템을 개발하는 것이 필요하다. 본 연구에서는 BERT(Bidirectional Encoder Representations from Transformers)[1]를 기반으로 한 텍스트 필터링 시스템을 제안한다. BERT 는 최근 자연어 분류 분야에서 상위 성능을 보이는 모델로, 이를 활용하여 청원 글을 분류하고 분류된 결과를 이용해 해당 글의 노출여부를 결정한다. 본 논문에서는 BERT 모델의 이론적 배경과 구조, 그리고 미세 조정 학습 방법을 소개하고, 이를 활용하여 청원 분류 시스템을 구현하는 방법을 제시한다. 우리가 제안하는 BERT 기반의 텍스트 필터링 시스템은 청원 글 분류를 자동화하고, 이에 따른 대응 속도와 정확도를 향상시킬 것으로 기대된다. 또한, 이 시스템은 다양한 분야에서 응용 가능하며, 대용량 데이터 처리에도 적합하다. 이를 통해 대학 청원 시스템에서 혐오성 발언 등 부적절한 내용을 사전에 방지하고 학생들의 의견을 효율적으로 수집할 수 있는 기능을 제공할 수 있다는 장점을 가지고 있다.

Token-Based Classification and Dataset Construction for Detecting Modified Profanity (변형된 비속어 탐지를 위한 토큰 기반의 분류 및 데이터셋)

  • Sungmin Ko;Youhyun Shin
    • The Transactions of the Korea Information Processing Society
    • /
    • v.13 no.4
    • /
    • pp.181-188
    • /
    • 2024
  • Traditional profanity detection methods have limitations in identifying intentionally altered profanities. This paper introduces a new method based on Named Entity Recognition, a subfield of Natural Language Processing. We developed a profanity detection technique using sequence labeling, for which we constructed a dataset by labeling some profanities in Korean malicious comments and conducted experiments. Additionally, to enhance the model's performance, we augmented the dataset by labeling parts of a Korean hate speech dataset using one of the large language models, ChatGPT, and conducted training. During this process, we confirmed that filtering the dataset created by the large language model by humans alone could improve performance. This suggests that human oversight is still necessary in the dataset augmentation process.