• 제목/요약/키워드: software engineering

검색결과 12,398건 처리시간 0.036초

검증 자료를 활용한 가짜뉴스 탐지 자동화 연구 (A Study on Automated Fake News Detection Using Verification Articles)

  • 한윤진;김근형
    • 정보처리학회논문지:소프트웨어 및 데이터공학
    • /
    • 제10권12호
    • /
    • pp.569-578
    • /
    • 2021
  • 오늘날 웹의 발전으로 우리는 각종 언론 매체를 통해 온라인 기사를 쉽게 접하게 된다. 온라인 기사를 쉽게 접할 수 있게 된 만큼 거짓 정보를 진실로 위장한 가짜뉴스 또한 빈번하게 찾아볼 수 있다. 가짜뉴스가 전 세계적으로 대두되면서 국내에서도 가짜뉴스를 탐지하기 위한 팩트 체크 서비스가 제공되고 있으나, 이는 전문가 기반의 수동 탐지 방법을 기반으로 하며 가짜뉴스 탐지를 자동화하는 기술에 대한 연구가 계속해서 활발하게 이루어지고 있다. 기존 연구는 기사 작성에 사용된 문맥의 특성이나, 기사 제목과 기사 본문의 내용 비교를 통한 탐지 방법이 가장 많이 사용되고 있으나, 이러한 시도는 조작의 정밀도가 높아졌을 때 탐지가 어려워질 수 있다는 한계를 가진다. 따라서 본 논문에서는 기사 조작의 발달에 따른 영향을 받지 않기 위하여 기사의 진위 여부를 판단할 수 있는 검증기사를 함께 사용하는 방법을 제안한다. 또한 가짜뉴스 탐지 정확도를 개선시킬 수 있도록 실험에 사용되는 기사와 검증기사를 문서 요약 모델을 통해 요약하는 과정을 추가했다. 본 논문에서는 제안 알고리즘을 검증하기 위해 문서 요약 기법 검증, 검증기사 검색 기법 검증, 그리고 최종적인 제안 알고리즘의 가짜뉴스 탐지 정확도 검증을 진행하였다. 본 연구에서 제안한 알고리즘은 다양한 언론 매체에 적용하여 기사가 온라인으로 확산되기 이전에 진위 여부를 판단하는 방법으로 유용하게 사용될 수 있다.

시계열 예측을 위한 스타일 기반 트랜스포머 (Style-Based Transformer for Time Series Forecasting)

  • 김동건;김광수
    • 정보처리학회논문지:소프트웨어 및 데이터공학
    • /
    • 제10권12호
    • /
    • pp.579-586
    • /
    • 2021
  • 시계열 예측은 과거 시점의 정보를 토대로 미래 시점의 정보를 예측하는 것을 말한다. 향후 시점의 정보를 정확하게 예측하는 것은 다양한 분야 전략 수립, 정책 결정 등을 위해 활용되기 때문에 매우 중요하다. 최근에는 트랜스포머 모델이 시계열 예측 모델로서 주로 연구되고 있다. 그러나 기존의 트랜스포머의 모델은 예측 순차를 출력할 때 출력 결과를 다시 입력하는 자가회귀 구조로 되어 있다는 한계점이 있다. 이 한계점은 멀리 떨어진 시점을 예측할 때 정확도가 떨어진다는 문제점을 초래한다. 본 논문에서는 이러한 문제점을 개선하고 더 정확한 시계열 예측을 위해 스타일 변환 기법에 착안한 순차 디코딩 모델을 제안한다. 제안하는 모델은 트랜스포머-인코더에서 과거 정보의 특성을 추출하고, 이를 스타일-기반 디코더에 반영하여 예측 시계열을 생성하는 구조로 되어 있다. 이 구조는 자가회귀 방식의 기존의 트랜스포머의 디코더 구조와 다르게, 예측 순차를 한꺼번에 출력하기 때문에 더 먼 시점의 정보를 좀 더 정확히 예측할 수 있다는 장점이 있다. 서로 다른 데이터 특성을 가지는 다양한 시계열 데이터셋으로 예측 실험을 진행한 결과, 본 논문에서 제시한 모델이 기존의 다른 시계열 예측 모델보다 예측 정확도가 우수하다는 것을 보인다.

에지 기반 포그 컴퓨팅 환경에서 이동성 지원을 위한 라이브 마이그레이션 기반 자원 관리 기법 (A Resource Management Scheme Based on Live Migrations for Mobility Support in Edge-Based Fog Computing Environments)

  • 임종범
    • 정보처리학회논문지:소프트웨어 및 데이터공학
    • /
    • 제11권4호
    • /
    • pp.163-168
    • /
    • 2022
  • 클라우드 컴퓨팅과 사물인터넷의 대중화에 따라 사물인터넷 컴퓨팅 환경에 존재하는 인터넷 연결이 가능한 장치들의 수가 점차 증가하고 있다. 또한 스마트홈, 헬스케어 등 사물인터넷을 이용한 다양한 인터넷 응용이 많아짐에 따라 통신 지연 및 연산의 신뢰성과 같은 지표의 서비스품질과 관련된 연구들이 진행되고 있다. 사물인터넷 응용의 서비스품질 향상을 위해 중앙집중형 클라우드 서버에 연결하기 보다 장치와 가까이 존재하고 중앙집중형 클라우드 서버와의 오프로드(offload) 협업을 위해 에지 컴퓨팅(edge computing)이 결함된 클라우드-포그 컴퓨팅 환경이 주목을 받고 있다. 하지만 클라우드-포그 컴퓨팅 환경에서 장치들이 이동성을 특성을 가질 때 사물인터넷 응용 서비스의 연속성이 떨어지고 서비스품질 수준이 저하되는 문제점이 발생하고 있다. 이 논문에서는 에지 기반 포그 컴퓨팅 환경에서 이동성 지원을 위한 라이브 마이그레이션 기반 자원 관리 기법을 제안한다. 제안하는 자원 관리 알고리즘은 사용자의 이동성 방향과 속도를 기반으로 일정 시간 뒤의 위치를 예측하고 이를 기반으로 라이브 마이그레이션을 통해 사물인터넷 서비스 이주를 지원한다. 성능 평가를 통해 제안하는 자원 관리 알고리즘의 효용성을 측정하였으며, 성능 실험에서 정지시간(downtime)과 서비스 작업의 신뢰성이 크게 향상됨을 보였다.

CoAID+ : 소셜 컨텍스트 기반 가짜뉴스 탐지를 위한 COVID-19 뉴스 파급 데이터 (CoAID+ : COVID-19 News Cascade Dataset for Social Context Based Fake News Detection)

  • 한소은;강윤석;고윤용;안지원;김유심;오성수;박희진;김상욱
    • 정보처리학회논문지:소프트웨어 및 데이터공학
    • /
    • 제11권4호
    • /
    • pp.149-156
    • /
    • 2022
  • 최근 전 세계적으로 COVID-19이 유행하는 상황 속에서 이와 관련된 가짜뉴스가 심각한 사회적 혼란을 야기하고 있다. 이러한 배경에서 가짜뉴스를 정확하게 탐지하기 위해, 뉴스가 소셜 미디어를 통해 파급되는 과정과 같은 소셜 컨텍스트 정보를 활용하는 소셜 컨텍스트 기반 탐지 기법들이 널리 사용되고 있다. 그러나 대부분의 기 구축된 가짜뉴스 탐지를 위한 데이터들은 뉴스 자체의 내용 정보 위주로 구성되어, 소셜 컨텍스트 정보를 거의 포함하지 않는다. 즉, 이 데이터들에는 소셜 컨텍스트 기반 탐지 기법을 적용할 수 없으며, 이러한 데이터의 한계는 가짜뉴스 탐지 연구 분야의 발전을 저해하는 방해 요소이다. 본 논문은 이러한 한계를 극복하기 위해, 기존의 저명한 가짜뉴스 데이터인 CoAID 데이터를 기반으로, 소셜 컨텍스트 정보를 추가적으로 수집하여, CoAID 데이터의 뉴스 내용 정보와 해당 뉴스들의 소셜 컨텍스트 정보를 모두 포함하는 CoAID+ 데이터를 구축한다. 본 논문에서 구축한 CoAID+ 데이터는 기존의 대부분의 소셜 컨텍스트 기반 탐지 기법들에 적용될 수 있으며, 향후 새로운 소셜 컨텍스트 기반 탐지 기법들에 대한 연구도 더욱 활성화시킬 수 있을 것으로 기대된다. 마지막으로, 본 논문은 다양한 관점에서 CoAID+ 데이터를 분석하여 진짜뉴스와 가짜뉴스의 파급 패턴 및 키워드에 따른 파급 패턴도 파악하여 소개한다.

BERT-Fused Transformer 모델에 기반한 한국어 형태소 분석 기법 (Korean Morphological Analysis Method Based on BERT-Fused Transformer Model)

  • 이창재;나동열
    • 정보처리학회논문지:소프트웨어 및 데이터공학
    • /
    • 제11권4호
    • /
    • pp.169-178
    • /
    • 2022
  • 형태소는 더 이상 분리하면 본래의 의미를 잃어버리는 말의 최소 단위이다. 한국어에서 문장은 공백으로 구분되는 어절(단어)의 조합이다. 형태소 분석은 어절 단위의 문장을 입력 받아서 문맥 정보를 활용하여 형태소 단위로 나누고 각 형태소에 적절한 품사 기호를 부착한 결과를 생성하는 것이다. 한국어 자연어 처리에서 형태소 분석은 가장 핵심적인 태스크다. 형태소 분석의 성능 향상은 한국어 자연어 처리 태스크의 성능 향상에 직결된다. 최근 형태소 분석은 주로 기계 번역 관점에서 연구가 진행되고 있다. 기계 번역은 신경망 모델 등으로 어느 한 도메인의 시퀀스(문장)를 다른 도메인의 시퀀스(문장)로 바꾸는 것이다. 형태소 분석을 기계 번역 관점에서 보면 어절 도메인에 속하는 입력 시퀀스를 형태소 도메인 시퀀스로 변환하는 것이다. 본 논문은 한국어 형태소 분석을 위한 딥러닝 모델을 제안한다. 본 연구에서 사용하는 모델은 기계 번역에서 높은 성능을 기록한 BERT-fused 모델을 기반으로 한다. BERT-fused 모델은 기계 번역에서 대표적인 Transformer 모델과 자연어 처리 분야에 획기적인 성능 향상을 이룬 언어모델인 BERT를 활용한다. 실험 결과 형태소 단위 F1-Score 98.24의 성능을 얻을 수 있었다.

Contactless User Identification System using Multi-channel Palm Images Facilitated by Triple Attention U-Net and CNN Classifier Ensemble Models

  • Kim, Inki;Kim, Beomjun;Woo, Sunghee;Gwak, Jeonghwan
    • 한국컴퓨터정보학회논문지
    • /
    • 제27권3호
    • /
    • pp.33-43
    • /
    • 2022
  • 본 논문에서는 기존의 스마트폰 카메라 센서를 사용하여 비접촉식 손바닥 기반 사용자 식별 시스템을 구축하기 위해 Attention U-Net 모델과 사전 훈련된 컨볼루션 신경망(CNN)이 있는 다채널 손바닥 이미지를 이용한 앙상블 모델을 제안한다. Attention U-Net 모델은 손바닥(손가락 포함), 손바닥(손바닥 미포함) 및 손금을 포함한 관심 영역을 추출하는 데 사용되며, 이는 앙상블 분류기로 입력되는 멀티채널 이미지를 생성하기 위해 결합 된다. 생성된 데이터는 제안된 손바닥 정보 기반 사용자 식별 시스템에 입력되며 사전 훈련된 CNN 모델 3개를 앙상블 한 분류기를 사용하여 클래스를 예측한다. 제안된 모델은 각각 98.60%, 98.61%, 98.61%, 98.61%의 분류 정확도, 정밀도, 재현율, F1-Score를 달성할 수 있음을 입증하며, 이는 저렴한 이미지 센서를 사용하고 있음에도 불구하고 제안된 모델이 효과적이라는 것을 나타낸다. 본 논문에서 제안하는 모델은 COVID-19 펜데믹 상황에서 기존 시스템에 비하여 높은 안전성과 신뢰성으로 대안이 될 수 있다.

잭업드릴링 리그의 레그와 작업 지원선 충돌에 의한 구조붕괴 거동 평가 (Assessment of the Structural Collapse Behavior of Between Offshore Supply Vessel and Leg in the Jack-up Drilling Rig)

  • 박주신;서정관
    • 해양환경안전학회지
    • /
    • 제28권4호
    • /
    • pp.601-609
    • /
    • 2022
  • 잭업드릴링 리그는 해양 석유와 가스 탐사 산업에서 널리 사용되는 모바일 해양 플랫폼이다. 그것은 시추 및 생산을 위한 캔틸레버 시추 장치가 있는 독립적인 3개의 다리가 있는 자체 승강식 장치이다. 전형적인 잭업리그는 삼각형 선체, 타워형 데릭, 캔틸레버, 잭케이스, 거주구와 다리로 구성되며 여기에는 스퍼드캔 구조, 개방형 트러스, X-교차 구조로 구성된다. 일반적으로 잭업리그는 수심 130m~170m에서만 운용이 되고 있다. 최근 들어 개발 유정이 심해로 이동하면서, 깊은 수심과 가혹한 환경조건을 만족해야 한다. 리그의 작업 상태에서 모든 정적, 동적 하중은 레그(Leg)를 통해서 지탱되는 특징이 있다. 이러한 리그의 중요한 이슈는 순간적으로 큰 충격에너지를 발생시키는 충돌에 대한 레그의 안전성이다. 본 연구에서는 LS-Dyna 프로그램을 이용하여 DNV 선급에서 규정하고 있는 충돌에너지 35MJ 요구사항에 대한 수치해석 및 검증을 수행하였다. 충돌 선박은 배수량 7,500톤 작업 지원선을 사용하였고, 5가지 충돌조건을 선정하였다. 해석결과로부터 모든 충돌조건은 선급 기준을 만족하지 못한다. 코드 방향 충돌조건은 충돌에너지 15MJ, 브레이스 충돌조건은 6MJ이 합리적이다. 따라서 충돌시나리오에 따른 합리적인 충돌에너지 기준의 제정이 필요로 하다.

한국어에서 의존 구문분석을 위한 구묶음의 활용 (Exploiting Chunking for Dependency Parsing in Korean)

  • 남궁영;김재훈
    • 정보처리학회논문지:소프트웨어 및 데이터공학
    • /
    • 제11권7호
    • /
    • pp.291-298
    • /
    • 2022
  • 본 논문은 한국어에 대해서 구묶음을 수행한 후에 의존구조를 분석하는 방법을 제안한다. 의존구조 분석은 단어의 지배어를 결정하는 과정이다. 지배어를 정할 때, 문법적인 지배어를 정할 것인지 의미적인 지배어를 정할 것인지가 고질적인 문제이다. 일반적으로는 문법적인 지배어를 정하고 있다. 예를 들면 문장 "밥을 먹고 싶다"에서 어절 "먹고"의 지배어로 "싶다"를 정한다. 그러나 "싶다"는 보조용언으로 의미적으로 지배어가 될 수 없다. 이와 같은 방법으로 구문을 분석하면 의미분석을 위해서 또 다른 변환이 있어야 한다. 본 논문에서는 이런 문제를 다소 완화하기 위해서 구묶음을 수행한 후에 구문을 분석하는 방법을 제안한다. 구묶음은 문장을 구성성분 단위로 분할하는 과정이며 구성성분은 내용어 말덩이와 기능어 말덩이로 구성된다. 구묶음을 수행하면 구문 분석의 입력이 되는 문장 성분의 수가 줄어들므로 구문 분석 속도가 개선될 수 있으며, 문장에서 중심어를 중심으로 하나의 말덩이로 묶이므로 말덩이에 대해서만 그 의존 관계를 파악할 수 있어 구문 분석의 효율성을 높일 수 있다. 본 논문은 세종의존말뭉치를 사용해서 성능을 분석했으며 UAS와 LAS가 각각 86.48%와 84.56%였으며 입력의 노드 수도 약 22% 정도 줄일 수 있었다.

주기성을 갖는 입출력 데이터의 연관성 분석을 통한 회귀 모델 학습 방법 (Learning Method for Regression Model by Analysis of Relationship Between Input and Output Data with Periodicity)

  • 김혜진;박예슬;이정원
    • 정보처리학회논문지:소프트웨어 및 데이터공학
    • /
    • 제11권7호
    • /
    • pp.299-306
    • /
    • 2022
  • 최근 로봇이나 설비, 회로 등에 센서 내장이 보편화 되고, 측정된 센서 데이터를 학습하여 기기의 고장을 진단하기 위한 연구가 활발하게 수행되고 있다. 이러한 고장 진단 연구는 고장 상황이나 종류를 예측하기 위한 분류(Classification) 모델 개발과 정량적으로 고장 상황을 예측하기 위한 회귀(Regression) 모델 개발로 구분된다. 분류 모델의 경우, 단순히 고장이나 결함의 유무(Class)를 확인하는 반면, 회귀 모델은 무수히 많은 수치 중에 하나의 값(Value)을 예측해야 하므로 학습 난이도가 더 높다. 즉, 입력과 출력을 대응시켜 고장을 예측을 할 때, 유사한 입력값이 동일한 출력을 낸다고 결정하기 어려운 불규칙한 상황이 다수 존재하기 때문이다. 따라서 본 논문에서는 주기성을 지닌 입출력 데이터에 초점을 맞추어, 입출력 관계를 분석하고, 슬라이딩 윈도우 기반으로 입력 데이터를 패턴화 하여 입출력 데이터 간의 규칙성을 확보하도록 한다. 제안하는 방법을 적용하기 위해, 본 연구에서는 MMC(Modular Multilevel Converter) 회로 시스템으로부터 주기성을 지닌 전류, 온도 데이터를 수집하여 ANN을 이용하여 학습을 진행하였다. 실험 결과, 한 주기의 2% 이상의 윈도우를 적용하였을 때, 적합도 97% 이상의 성능이 확보될 수 있음을 확인하였다.

Extra Tree와 ANN을 활용한 이상 탐지 및 공격 유형 분류 메커니즘 (Anomaly detection and attack type classification mechanism using Extra Tree and ANN)

  • 김민규;한명묵
    • 인터넷정보학회논문지
    • /
    • 제23권5호
    • /
    • pp.79-85
    • /
    • 2022
  • 이상 탐지는 일반적인 사용자들의 데이터 집합 속에서 비정상적인 데이터 흐름을 파악하여 미리 차단하는 방법이다. 기존에 알려진 방식은 이미 알려진 공격의 시그니처를 활용하여 시그니처 기반으로 공격을 탐지 및 방어하는 방식인데, 이는 오탐율이 낮다는 장점이 있지만 제로 데이 취약점 공격이나 변형된 공격에 대해서는 매우 취약하다는 점이 문제점이다. 하지만 이상 탐지의 경우엔 오탐율이 높다는 단점이 존재하지만 제로 데이 취약점 공격이나 변형된 공격에 대해서도 식별하여 탐지 및 차단할 수 있다는 장점이 있어 관련 연구들이 활발해지고 있는 중이다. 본 연구에서는 이 중 이상 탐지 메커니즘에 대해 다뤘다. 앞서 말한 단점인 높은 오탐율을 보완하며 그와 더불어 이상 탐지와 분류를 동시에 수행하는 새로운 메커니즘을 제안한다. 본 연구에서는 여러 알고리즘의 특성을 고려하여 5가지의 구성으로 실험을 진행하였다. 그 결과로 가장 우수한 정확도를 보이는 모델을 본 연구의 결과로 제안하였다. Extra Tree와 Three layer ANN을 동시에 적용하여 공격 여부를 탐지한 후 공격을 분류된 데이터에 대해서는 Extra Tree를 활용하여 공격 유형을 분류하게 된다. 본 연구에서는 NSL-KDD 데이터 세트에 대해서 검증을 진행하였으며, Accuracy는 Normal, Dos, Probe, U2R, R2L에 대하여 각각 99.8%, 99.1%, 98.9%, 98.7%, 97.9%의 결과를 보였다. 본 구성은 다른 모델에 비해 우수한 성능을 보였다.