• 제목/요약/키워드: Explainable

검색결과 161건 처리시간 0.026초

설명 가능 인공지능 기술을 적용한 인천광역시 범죄 예측 및 요인 분석 (Crime Prediction and Factor Analysis of Incheon Metropolitan City Using Explainable Artificial Intelligence)

  • 김다현;김유경;김현희
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2022년도 추계학술발표대회
    • /
    • pp.513-515
    • /
    • 2022
  • 본 연구는 범죄를 발생시키는데 관련된 여러가지 요인들을 기반으로 범죄 예측 모델을 생성하고 설명 가능 인공지능 기술을 적용하여 인천 광역시를 대상으로 범죄 발생에 영향을 미치는 요인들을 분석하였다. 범죄 예측 모델 생성을 위해 XG Boost 알고리즘을 적용하였으며, 설명 가능 인공지능 기술로는 Shapley Additive exPlanations (SHAP)을 사용하였다. 기존 관련 사례들을 참고하여 범죄 예측에 사용된 변수를 선정하였고 변수에 대한 데이터는 공공 데이터를 수집하였다. 실험 결과 성매매단속 현황과 청소년 실종 가출 신고 현황이 범죄 발생에 큰 영향을 미치는 주요 요인으로 나타났다. 제안하는 모델은 범죄 발생 지역, 요인들을 미리 예측하여 제시함으로써 범죄 예방에 사용되는 인력자원, 물적자원 등을 용이하게 쓸 수 있도록 활용할 수 있다.

해석 가능한 인공지능을 이용한 보행 데이터의 효율적인 선택 (Efficient Gait Data Selection Using Explainable AI)

  • 최영찬;태민우;최상일
    • 한국컴퓨터정보학회:학술대회논문집
    • /
    • 한국컴퓨터정보학회 2022년도 제66차 하계학술대회논문집 30권2호
    • /
    • pp.315-316
    • /
    • 2022
  • 본 논문은 스마트 인솔의 압력 데이터를 이용하는 컨볼루션 신경망 모델에 해석가능한 인공지능 방법인 Grad-CAM을 적용하는 방법을 제안한다. 학습된 각 모델에 Grad-CAM을 적용하여 모델에서 중요한 역할을 하는 압력센서와 중요하지 않은 압력센서를 알아내는 방법을 제안하고 데이터마다 학습을 진행하고 학습된 모델을 통해 실제로 중요한 압력센서와 그렇지 않은 압력센서에 대해서 알아본다.

  • PDF

Challenges and Real-world Validation of Autonomous Surface Vehicle Decision-making System

  • Mingi Jeong;Arihant Chadda;Alberto Quattrini Li
    • 한국항해항만학회:학술대회논문집
    • /
    • 한국항해항만학회 2022년도 추계학술대회
    • /
    • pp.357-359
    • /
    • 2022
  • Autonomous decision-making is key to safe and efficient marine autonomy, as global marine industry comprises over 90 percent of the world's cargo transportation. Challenges of the real-world validation in the aquatic domain limits the wide-spread of ASVs despite their promising societal impacts. We propose and demonstrate the real-world validation platform and comprehensive algorithm steps. Such a framework will serve as a more explainable and reliable decision-making system of ASVs as well as autonomous vehicles in other domains.

  • PDF

XAI 를 활용한 설명 가능한 요가 자세 이미지 분류 모델 (Yoga Poses Image Classification and Interpretation Using Explainable AI (XAI))

  • 박유림;김현희
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2023년도 춘계학술발표대회
    • /
    • pp.590-591
    • /
    • 2023
  • 최근 사람들의 건강에 대한 관심이 많아지고 다양한 운동 컨텐츠가 확산되면서 실내에서 운동을 할 수 있는 기회가 많아졌다. 하지만, 전문가의 도움없이 정확하지 않은 동작을 수행하다 큰 부상을 입을 위험성이 높다. 본 연구는 CNN 기반 요가 자세 분류 모델을 생성하고 설명가능 인공지능 기술을 적용하여 예측 결과에 대한 해석을 제시한다. 사용자에게 설명성과 신뢰성 있는 모델을 제공하여 자신에게 맞게 올바른 자세를 결정할 수 있고, 무리한 동작으로 부상을 입을 확률 또한 낮출 수 있을 것으로 보인다.

지능형 Self-Organizing Network를 위한 설명 가능한 기계학습 연구 동향 (Trend in eXplainable Machine Learning for Intelligent Self-organizing Networks)

  • 권동승;나지현
    • 전자통신동향분석
    • /
    • 제38권6호
    • /
    • pp.95-106
    • /
    • 2023
  • As artificial intelligence has become commonplace in various fields, the transparency of AI in its development and implementation has become an important issue. In safety-critical areas, the eXplainable and/or understandable of artificial intelligence is being actively studied. On the other hand, machine learning have been applied to the intelligence of self-organizing network (SON), but transparency in this application has been neglected, despite the critical decision-makings in the operation of mobile communication systems. We describes concepts of eXplainable machine learning (ML), along with research trends, major issues, and research directions. After summarizing the ML research on SON, research directions are analyzed for explainable ML required in intelligent SON of beyond 5G and 6G communication.

글로벌 최적 솔루션을 위한 설명 가능한 심층 강화 학습 지식 증류 (Explainable Deep Reinforcement Learning Knowledge Distillation for Global Optimal Solutions)

  • 이봉준 ;조인휘
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2023년도 추계학술발표대회
    • /
    • pp.524-525
    • /
    • 2023
  • 설명 가능한 심층 강화 학습 지식 증류 방법(ERL-KD)이 제안하였다. 이 방법은 모든 하위 에이전트로부터 점수를 수집하며, 메인 에이전트는 주 교사 네트워크 역할을 하고 하위 에이전트는 보조 교사 네트워크 역할을 한다. 글로벌 최적 솔루션은 샤플리 값과 같은 해석 가능한 방법을 통해 얻어진다. 또한 유사도 제약이라는 개념을 도입하여 교사 네트워크와 학생 네트워크 간의 유사도를 조정함으로써 학생 네트워크가 자유롭게 탐색할 수 있도록 유도한다. 실험 결과, 학생 네트워크는 아타리 2600 환경에서 대규모 교사 네트워크와 비슷한 성능을 달성하는 것으로 나타났다.

소프트웨어 분야 취업 결정 요인에 대한 XAI 모델 적용 연구 : 일반대학교와 전문대학 졸업자를 중심으로 (Application of XAI Models to Determine Employment Factors in the Software Field : with focus on University and Vocational College Graduates)

  • 권준희;김성림
    • 디지털산업정보학회논문지
    • /
    • 제20권1호
    • /
    • pp.31-45
    • /
    • 2024
  • The purpose of this study is to explain employment factors in the software field. For it, the Graduates Occupational Mobility Survey by the Korea employment information service is used. This paper proposes employment models in the software field using machine learning. Then, it explains employment factors of the models using explainable artificial intelligence. The models focus on both university graduates and vocational college graduates. Our works explain and interpret both black box model and glass box model. The SHAP and EBM explanation are used to interpret black box model and glass box model, respectively. The results describes that positive employment impact factors are major, vocational education and training, employment preparation setting semester, and intern experience in the employment models. This study provides a job preparation guide to universitiy and vocational college students that want to work in software field.

IF2bNet: 화재 감지를 위한 설명 가능 AI 기반 최적화된 딥러닝 아키텍처 (IF2bNet: An Optimized Deep Learning Architecture for Fire Detection Based on Explainable AI)

  • 진원;송미화
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2024년도 춘계학술발표대회
    • /
    • pp.719-720
    • /
    • 2024
  • 센서 기반의 자동화재탐지설비의 역할을 지원할 목적으로, 합성곱 신경망 기반의 AI 화재 감시장비등이 연구되어왔다. ai 기반 화재 감지에 사용되는 알고리즘은 전이학습을 주로 이용하고 있고, 이는 화재 감지에 기여도가 낮은 프로세스가 내장되어 있을 가능성이 존재하여, 딥러닝 모델의 복잡성을 가중시키는 원인이 될 수 있다. 본 연구에서는 이러한 모델의 복잡성을 개선하고자 다양한 딥러닝 및 해석 기술들을 분석하였고, 분석 결과를 토대로 화재 감지에 최적화된 아키텍처인 "IF2bNet" 을 제안한다. 구현한 아키텍처의 성능을 비교한 결과 동일한 성능을 내면서, 파라미터를 약 0.1 배로 경량화 하여, 복잡성을 완화하였다.

설명 가능한 이미지 인식을 위한 채널 주의 기반 딥러닝 방법 (Deep Learning Methods for Explainable Image Recognition)

  • 백나;조인휘
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2024년도 춘계학술발표대회
    • /
    • pp.586-589
    • /
    • 2024
  • 본 실험 연구에서는 주의 메커니즘과 컨볼루션 신경망을 결합하여 모델을 개선하는 방법을 탐색하는 딥 러닝 기술을 소개한다. 이 기술은 지도 학습 방식을 위해 공개 데이터 세트의 쓰레기 분류 데이터를 사용하고, Grad-CAM 기술과 채널 주의 메커니즘 SE 를 적용하여 모델의 분류 의사 결정 과정을 더 잘 이해하기 위해 히트 맵을 생성한다. Grad-CAM 기술을 사용하여 히트 맵을 생성하면 분류 중에 모델이 집중하는 영역을 시각화할 수 있다. 이는 모델의 분류 결정을 설명하는 방법을 제공하여 다양한 이미지 카테고리에 대한 모델 결정의 기초를 더 잘 이해할 수 있다. 실험 결과는 전통적인 합성곱 신경망과 비교하여 제안한 방법이 쓰레기 분류 작업에서 더나은 성능을 달성한다는 것을 보여준다. 주의 메커니즘과 히트맵 해석을 결합함으로써 우리 모델은분류 정확도를 향상시킬 수 있다. 이는 실제 응용 분야의 이미지 분류 작업에 큰 의미가 있으며 해석 가능성에 대한 딥 러닝 연구 진행을 촉진하는 데 도움이 된다.

노동조합이 고용안정에 미치는 효과에 관한 연구 - 프로빗-로짓의 Oaxaca 비선형분해 - (Study on the Effect of Labor Unions on Job Stability - Oaxaca Non-linear Decomposition of Probit-Logit -)

  • 조동훈;조준모
    • 노동경제논집
    • /
    • 제30권3호
    • /
    • pp.43-75
    • /
    • 2007
  • 본 연구는 한국노동패널을 사용하여 2002~2005년 3년 동안 직장이직률 추세와 이에 영향을 주는 여러 요인들 가운데 노동조합의 역할을 중심으로 실증분석하였다. 기초통계량에 있어서는 노동조합에 가입된 근로자의 직장 유지율이 노조에 가입되어 있지 않은 근로자보다 평균 28.3%포인트 높게 나타났으나, 직장이직에 영향을 미치는 개인의 관측되는 변수를 통제한 결과에서는 노동조합이 직장유지율을 11~13%포인트 증가시키는 것으로 추정되었다. 노동조합이 근로자의 고용안정에 미치는 효과를 세부적으로 살펴보기 위하여 Fairlie(2003)가 개발한 비선형분해 방법을 사용하여 분석하였다. 비선형분해(Non-linear decomposition) 방법을 사용하여 노조-비노조 간 직장이 직률의 차이를 근로자의 관측되는 변수에 의해 설명되는 부분과 설명되지 못하는 부분으로 나누어 살펴볼 때 설명되는 부분의 기여도가 67~74%로서 추정되고 설명되지 못하는 부분이 나머지 26~33%를 차지함을 알 수 있다. 이는 노동조합이 조합원들의 고용안정에 기여한 부분 외에도 노조에 가입된 근로자의 직장이직 성향이 노조에 가입되지 않거나 노조가 조직되어 있지 않은 사업장에 종사하는 근로자보다 평균적으로 낮음을 시사한다. 실증분석 결과는 노동조합의 고용안정 효과는 최대 7~9%포인트 경계 안에서 한정됨을 시사한다. 노동조합의 고용안정에 미치는 효과가 이처럼 작은 원인은 기업별 단체교섭구조, 외환위기 이후 기업경쟁의 심화, 기업규모별 노동시장 분절화 등 다양한 원인을 추론해 볼 수 있을 것이다.

  • PDF