DOI QR코드

DOI QR Code

Deep Analysis of Causal AI-Based Data Analysis Techniques for the Status Evaluation of Casual AI Technology

인과적 인공지능 기반 데이터 분석 기법의 심층 분석을 통한 인과적 AI 기술의 현황 분석

  • 차주호 (청운대학교 공과대학 멀티미디어학과) ;
  • 류민우 (현대자동차 자동차부분 연구개발본부)
  • Received : 2023.11.28
  • Accepted : 2023.12.11
  • Published : 2023.12.30

Abstract

With the advent of deep learning, Artificial Intelligence (AI) technology has experienced rapid advancements, extending its application across various industrial sectors. However, the focus has shifted from the independent use of AI technology to its dispersion and proliferation through the open AI ecosystem. This shift signifies the transition from a phase of research and development to an era where AI technology is becoming widely accessible to the general public. However, as this dispersion continues, there is an increasing demand for the verification of outcomes derived from AI technologies. Causal AI applies the traditional concept of causal inference to AI, allowing not only the analysis of data correlations but also the derivation of the causes of the results, thereby obtaining the optimal output values. Causal AI technology addresses these limitations by applying the theory of causal inference to machine learning and deep learning to derive the basis of the analysis results. This paper analyzes recent cases of causal AI technology and presents the major tasks and directions of causal AI, extracting patterns between data using the correlation between them and presenting the results of the analysis.

Keywords

Ⅰ. 서론

딥러닝(Deep Learning) 기술의 등장으로 지난 10년간 인공지능 기술은 빠르게 발전해 왔다. 특히 딥러닝 기술은 자율 학습, 지도 학습, 이미지 분석 등을 활용하여 자동차 산업, 언어 처리, 의료 및 금융 서비스, 건축 산업 등 다양한 산업 분야에 활용되고 있다[1]. 과거에는 인공지능 기술이 독립적으로 사용되어 특정 기술에 활용되었지만, 최근에는 오픈 인공지능 생태계의 필요성이 대두되면서 독립적인 인공지능 기술의 적용은 오픈 인공지능 생태계를 통한 확산과 보급에 초점을 맞추고 있다. 예를 들면, ChatGPT[2], Bard[3]와 같은 인공지능 기술이 하나의 플러그인 형태로 제공되고, 다양한 애플리케이션에서 사용됨으로써 인공지능 기술은 연구와 개발의 시대를 넘어 널리 확산되는 초거대 시대로 진입하고 있다. 그러나 인공지능의 확산과 보급이 확대되면서 인공지능으로부터 얻은 결과에 대한 신뢰성 검증의 필요성이 증가하고 있다[4]. 기존의 인공지능은 데이터를 기반으로 학습하고 추론하기 때문에 데이터 학습 시 알고리즘의 성숙도에 따라 결과의 정확도가 달라진다. 예를 들어, 자율 주행 자동차가 보행자나 표지판을 인식하지 못해 사고를 일으키는 경우, 이는 인공지능 알고리즘이 데이터 학습과정에서 설계 결함을 갖거나 취약점을 가질 수 있음을 의미한다. 이러한 문제를 해결하기 위해서는 데이터의 의미를 통해 데이터의 연관관계를 기반으로 결과를 추론하는 것뿐만 아니라 데이터의 의미를 통해 원인과 결과를 예측하고, 이를 기반으로 동적인 추론을 할 수 있어야한다. 이러한 배경으로 인해 최근 인과적 인공지능(Casual AI) 기술에 대한 연구가 활발히 이루어지고 있다. 인과적 인공지능은 기존의 인과추론(Causal Inference) 개념을 인공지능에 적용하여 데이터 상관관계에 대한 분석뿐만 아니라, 결과에 대한 원인을 도출하여 최적의 결과값을 얻을 수 있도록 한다. 따라서 인과적 인공지능은 기존 인공지능의 결과에 대한 신뢰성을 향상 시킬 수 있으며, 딥러닝이 가진 분석 과정을 알 수 없다는 단점을 해결할 수 있다. 본 논문에서는 최근 연구되고 있는 인과적 인공지능 기술에 대한 사례를 분석하고, 인과적 인공지능을 통한 딥러닝 기술의 발전을 위한 주요 과제와 방향을 제시한다.

본 논문의 구성은 다음과 같다. 2장에서는 인과적 인공지능의 핵심 기술인 인과추론 기술에 대하여 살펴보고, 3장에서는 인과적 인공지능 기술에 대한 연구 사례를 분석한다. 마지막으로 4장에서는 결론과 향후과제에 대해 기술한다.

Ⅱ. 인과추론 기법

인과추론은 원인과 결과 사이의 인과관계를 추론하는 과정이다[5]. 기존의 인공지능은 데이터 간의 상관관계를 분석하여 패턴을 도출하고, 이를 바탕으로 결과를 예측하였다. 그러나 인과추론은 결과를 도출하고, 그 결과가 발생한 원인을 추가적으로 추론하여 결과 예측에 활용한다. 따라서 기존 인공지능이 통계적 변수 간의 공변성을 통해 결과를 예측하는데 목표를 두었다면, 인과추론은 한 변수가 후행하는 다른 변수의 원인적 영향을 기반으로 원인을 설명하는데 초점을 맞추고 있다[6]. 인과관계 분석 방법은 크게 랜덤화 추출과 인과 그래프 모델 두 가지로 분류된다.

2.1 랜덤화 추출

랜덤화 추출은 크게 Randomized-controlled trial(RCT)[7]과 Multi-Armed Bandit(MAB)[8]로 분류된다. RCT는 실험 기반의 인과관계 분석 방법으로, A/B 테스트 또는 버킷 테스트라고도 알려져 있다. RCT는 표본 집단에서 측정하려는 변수 외에 다른 값들을 변경하지 않고 확인하려는 변수만을 변경하여 인과관계를 분석하는 방법이다. 이 방법은 데이터의 특성과 상관없이 무작위로 값을 배정하여 평균적인 효과를 얻을 수 있으며, 데이터가 많을수록 평균적인 비교가 가능하다는 특징이 있다. RCT는 다양한 알고리즘을 통해 실험이 가능하며, 대표적으로 A/B 대조군 실험을 통한 방법이 사용된다. 이 방법 외에도 p값을 이용하는 방식과 유의수준(significance level) 등의 방법이 있다. 여기에서 p값은 관찰된 데이터가 가설을 지지하는 정도를 나타내는 지표이다. 그러나 RCT는 탐색과 활용 사이에 비용 발생과 신뢰성 보장이라는 상호절충이 발생할 수 있다는 단점이 있다. <그림 1>은 랜덤화 추출 방법의 대표적인 A/B 테스트의 과정의 예를 보인 것이다.

DGTSA8_2023_v19n4_45_f0001.png 이미지

<그림 1> A/B 테스트 과정의 예

MAB는 RCT의 탐색과 활용의 tradeoff 문제를 체계화 한 것으로, K-armed Bandits 또는 N-armed Bandits이라고도 불린다[9]. MAB에서는 강화학습을 통해 탐색과 활용을 최적화하도록 하였다. MAB는 직접적으로 강화학습의 알고리즘을 사용하지는 않지만 탐색, 활용, 보상이라는 관점에서 강화학습의 개념을 이용한 방법이라 정의할 수 있다. MAB에서의 탐색은 슬롯머신의 정보를 알지 못한 채 새로운 슬롯머신의 손잡이를 당겼을 때 얻을 수 있는 정보를 의미하며, 활용은 경험과 정보를 통하여 수익성이 좋은 슬롯머신의 손잡이를 당겨 얻을 수 있는 정보를 의미한다. 따라서 MAB에서 최적의 수익을 얻으려면 탐색과 활용이 적절하게 이루어져야 한다. 이를 위해 MAB에서는 greedy 알고리즘을 활용한 다양한 전략을 사용할 수 있다. MAB에서 가장 기본적으로 사용되는 방식은 Simple Average Method(SAM)으로, 모든 표본을 대상으로 탐색을 진행하고, 가장 좋은 결과를 얻었던 표본을 활용하는 방식이다. 이 방식의 단점은 최적의 값을 도출하기 위해서는 많은 탐색이 필요하다는 점이다. 이 문제를 개선하기 위해 확률을 기반으로 표준을 무작위로 선택하는 Epsilon-greedy 알고리즘이 제안되었다. 이 알고리즘은 epsilon이라는 확률 값을 이용하여 1-epsilon의 확률로 greedy 알고리즘을 사용하고, epsilon 확률로 랜덤하게 표본을 탐색한다. Epsilon-greedy 알고리즘은 Simple Average Method의 많은 탐색 문제를 해결했지만, 결과가 좋은 표본을 찾았더라도 처음과 동일한 확률로 다른 표본을 탐색하기 때문에 탐색과 활용의 최적의 값을 찾기가 어렵다는 단점이 있다. Upper confidence Bound(UBC)는 Epsilon-greedy 알고리즘에서의 탐색방법을 최적화하기 위해 전체 표본 중에서 탐색 횟수가 적은 표본을 추가적으로 탐색함으로써 SAM과 Epsilongreedy 알고리즘의 단점을 보완하였다.

2.2 인과 그래프 모델

인과 그래프 모델(Causal Graphical Models)은 인과 관계를 <그림 2>와 같이 비순환 그래프(DAG, Directed Acyclic Graph)를 활용하여 인과 관계를 시각적으로 표현한 것으로, 랜덤화 추출에 의한 평균적인과 관계의 한계를 해결하였다.

DGTSA8_2023_v19n4_45_f0002.png 이미지

<그림 2> 비순환 그래프(DAG)의 예

인과 그래프 모델은 Bayesian Network 또는 Belief Network라고도 불리며, 확률을 기반으로 인과 관계를 표현한다. 조건부 확률이 딥러닝 모델과 달리 투명하게 공개되는 특성으로 인해 이러한 모델은 White-box model로 분류된다. 인과 그래프 모델은 두 노드간의 인과 관계를 비순환 그래프로 표현하며, 이때 부모 노드는 원인을, 자식 노드는 결과를 나타낸다. 인과 그래프 모델에서는 부모 노드와 자식 노드간의 연결에 대한 참(True) 값을 찾기 위해 구조 학습(Structure Learning)과 모수 학습(Parameter learning)의 두 단계를 거친다. 구조 학습은 주어진 비순환 그래프에서 구조와 분포가 알려져 있지 않는 상황에서 임의의 분포를 따르는 변수에서 관찰된 자료를 이용하여 해당 그래프의 구조와 확률 분포를 찾는 과정이다. 이 과정은 점수 기반(Scored-based) 구조 학습과 제한 기반(Constraint-based) 구조 학습으로 나뉜다[10]. 점수 기반 구조 학습은 주어진 비순환 그래프가 임의의 통계적 모형을 구체화 한 것이라는 가정으로 휴리스틱한 방법을 통해 노드와 노드간의 연결선을 끊거나 연결하면서 점수를 비교하며 점수가 최대인 구조를 찾는 방식이다. 모수 학습은 주어진 비순환 그래프가 일련의 독립성을 가진다고 가정한다. 따라서 주어진 그래프에서 조건부 검증을 통해 노드와 노드 간의 인과 관계를 파악한다. 모수 학습은 주어진 비순환 그래프의 구조는 알려져 있으나, 확률분포는 모르는 상황에서 임의의 확률 분포로부터 관찰된 자료를 이용하여 확률분포의 조건부 확률테이블(CPT, Conditional Probability Table)을 추정하는 과정이다. 따라서 인과 그래프 모델을 통해 주어진 비순환 그래프에서 데이터간의 상세적인 인과 관계를 추정할 수 있다.

Ⅲ. 인과적 인공지능 연구사례 분석

인과적 인공지능은 데이터의 상관관계에 초점을 맞추는 전통적인 접근법에서 벗어나, 데이터 간의 인과관계를 분석하는 방식을 채택하고 있다. 이를 통해 딥러닝이나 앙상블과 같은 기존의 데이터 분석 방법에서 발생하는 조건부 확률에 대한 블랙박스 문제를 해결하고, 그 결과를 도출하는데 기여한 조건을 분석할 수 있게 되었다.

Lundberg 등[11]은 큰 데이터 셋의 분석 과정에서 복잡한 모델의 해석을 위해 SHAP(Shapley Additive Explanations)를 제안했다. SHAP는 게임 이론에서 사용되는 최적화된 Shapley 값에 기반을 두고 있다. SHAP는 6단계를 통해 인과관계 측정을 위한 특징이 추가된 새로운 클래스를 식별하고, 해당 클래스에서 데이터 간의 인과관계에 대한 이론적 결과를 도출한다.

Janzing 등[12]은 SHAP의 인과 관계의 해석에서 기대 값과 조건부 기대 값의 사용에 대한 문제를 제기하였다. 그들은 이 문제를 해결하기 위해 버려지는 특징에 대하여 어떠한 확률 분포가 적절한지에 대한 연구를 제안하였다. 그들은 Pearl의 인과관계 이론[13]을 기반으로 SHAP의 관찰 및 개입적 조건부 확률을 명화하게 구분하였다.

Dash 등[14]은 SoMs(Sequence of Mechanisms)라는 토큰 레벨의 인과 추론에 대한 새로운 접근법을 제안했다. SoMs는 데이터 분석 시 인과적 상호작용을 개별 데이터가 다른 데이터에게 미치는 영향을 시간과 인과적 영향을 전파하는 활성 메커니즘을 통해 동적인 시퀀스 모델링을 가능하게 하였다. 따라서 데이터 분석 시 인과 관계의 상호작용의 결과를 도출함으로서 데이터의 인과관계를 설명할 수 있는 장점이 있다. 또한 그들은 시뮬레이션을 통해 SoMs의 타당성을 입증했다. 그러나 SoMs에서 가설에 대한 정의에 따라 다른 결과를 도출할 수 있는 단점이 존재한다.

Sangroya 등[15]은 블랙박스 모델 기반의 머신러닝에서 결과를 해석하기 위한 하이브리드 접근 방식을 제안했다. 그들은 기존의 LIME과 FCA(Formal Concept Analysis)를 기반으로 데이터 기반의 접근방식과 프록시 모델 기반 접근방식의 장점을 결합한 방법을 제안했다. 이를 위해 설명에서 주요한 기능을 측정하는 매개변수와 함께 프록시 모델과 기존의 블랙박스 기계학습 모델 간의 정확도를 측정하기 위한 보정 메트릭에 대한 매개변수를 사용하였다. 그들은 IRIS, Heart Disease, Adult Earning 데이터 셋을 활용하여 제안 모델의 타당성을 입증했다.

Guo 등[16]은 블랙박스 모델 기반의 머신러닝에서 숨겨진 조건부 변수 값을 인식하고, 관측 데이터에서 유효한 인과효과를 학습하기 위해 Deconfounder Framework를 제안하였다. 이 프레임워크는 데이터 간의 연결 구조의 패턴과 특징을 활용하여 데이터 간의 인과 관계를 학습한다. 그들은 타당성을 입증하기 위해 현실 데이터 셋인 ITE를 학습하고, 이에 대한 각 데이터 셋의 인과 관계를 증명하였다.

Love 등[17]은 딥러닝 및 머신러닝에서 블랙박스 모델에서 나타나는 내부 분석 결과에 대한 해석의 어려움을 해결하기 위해 설명 가능한 인공지능(XAI, Explainable Artificial Intelligence) 방법을 이용하였다. 이들은 XAI를 통하여 딥러닝과 머신러닝에서의 출력에 대한 인과관계를 설명했지만, XAI를 통한 인과관계 도출 시 조건 기준에 따라 도출되는 인과관계의 품질이 영향을 받는 문제는 해결하지 못했다.

Miller[18]는 XAI를 철학, 심리학 및 인지 과학 분야에 적용했다. 그는 XAI 시스템에서 반드시 포함해야할 3가지의 특성과 기준을 제시했다. 또한 그는 인공지능 기술의 발전을 위한 인과관계 도출을 위해 XAI 시스템의 개선점도 함께 제시하였다.

Cheng 등[19]은 인과 머신러닝에 대한 평가 방법을 제시하였다. 그들은 기존 인과학습에서 사용하는 메트릭스, 절차, 데이터 셋 등의 타당성을 수학적으로 분석했으며, 알고리즘을 평가하기 위한 인과모델의 평가 툴에 대한 분석과 검증 방법을 제시했다. 또한 기존의 인과관계에 대한 평가 방법 및 한계점을 제시하고, 이를 해결하기 위한 도전과제도 함께 제시했다.

Zeng 등[20]은 네트워크 보안 문제에 있어 인과관계 기반의 머신러닝 프레임워크를 제안했다. 이 프레임워크는 기존의 머신러닝 기반 네트워크 침입 탐지방법들에 대한 한계점을 인과추론을 통해 해결하였다. 이를 위해 그들은 “do-operation” 중 DDoS 공격과 잘못 연관된 노이즈 특징을 삭제하고, 다양한 DDoS 공격 유형에 대조적인 상황에서의 특이점에 대한 예상수를 계산했다. 이를 활용하여 특정 이점에 대한 예상수가 높을수록 이상 특징을 수반한 공격이 발생한다는 결과를 도출하였다. 그들이 제안한 인과관계 기반 프레임워크는 기존 연관 기반의 머신러닝에 비해 더 높은 감지 정확도를 보이는 것을 입증했다.

Chen 등[21]은 부가 제조 기술(AM, Additive manu- facturing) 공정을 향상시키기 위한 설계 매개변수 및 공정 매개 변수와 QC(Quality Control)/QA(Quality Assurance) 요구 사항간의 인과관계를 나타내기 위한 온톨로지 기반의 베이지안 네트워크 모델을 제안했다. 이 네트워크 모델은 AM Data 인입 후 Preprocessing, Knowledge, Learning, Inferencing 단계를 거치면서 데이터의 의미를 해석하고, 이를 통한 인과관계를 감지한다. 그들은 실제 데이터를 이용하여 예측 추론 및 진단 추론을 실험을 통해 이 네트워크 모델의 타당성을 입증했다.

Berrevoets 등[22]은 딥러닝 모델에 인과성을 적용하는 딥러닝 프레임워크를 제안했다. 이 인과적 딥러닝 프레임워크는 구조적 차원, 매개변수 차원, 시간적 차원의 3가지의 차원으로 구성된다. 이 프레임워크에서는 기존의 데이터 간의 상관관계를 끊고, 불완전한 상태로 정의하면서 독립적인 데이터의 인과성을 허용했다. 또한 기존의 딥러닝에서 제거되는 조건부 매개변수를 허용함으로써 각 조건부 매개변수를 통한 데이터간의 인과성에 대한 결과 분석을 도출하였다. 또한 각 데이터 간의 인과성을 시간적으로 분석함으로써 데이터간의 인과적 결합을 허용했으며, 실세계 데이터를 통한 검증을 통하여 인과적 딥러닝 프레임워크의 타당성을 입증했다.

<표 1>은 앞에서 설명한 인과적 인공지능 기술에 대한 연구 사례에 대하여 조건부 매개변수 설정 여부, 실험기반 결과 도출 여부, 프레임워크의 제공여부, 머신러닝 및 딥러닝 등 외부 기술 연계 여부 등에 대한 분석 결과를 정리하여 표로 나타낸 것이다.

<표 1> 인과적 인공지능 연구 사례별 분석

DGTSA8_2023_v19n4_45_t0001.png 이미지

Ⅳ. 결론 및 향후 과제

본 연구에서는 최근 주목받고 있는 인과적 인공지능 기술에 대한 여러 연구 사례를 조사하고, 이들의 프레임워크, 알고리즘, 그리고 주요 특징을 분석하였다. 현재의 인공지능 기술, 특히 머신러닝과 딥러닝은 데이터 간의 상관관계를 분석하여 패턴을 파악하고, 그 결과를 제공하는데 초점을 맞추고 있다. 그러나 이러한 접근법은 데이터 간의 인과관계를 명확하게 설명하지 못하는 한계를 가지고 있다. 인과적 인공지능 기술은 이러한 한계를 극복하기위해 제안되었다. 인과적 인공지능은 머신러닝, 딥러닝 등에 인과 추론이론을 적용하여 분석 결과의 근거를 제공하며, 이는 인공지능이 사람의 뇌를 모방하는 최종 목표를 달성하는 데 중요한 발판이 된다. 그러나 현재로서는 인과적 인공지능 기술이 아직 초기 단계에 있어 보다 많은 연구와 발전이 요구된다.

향후 과제로는 데이터의 의미를 해석하는 다양한 기술의 통합 및 데이터 간의 안과관계를 기반으로 적은 양의 데이터에 대한 분석 및 추론이 가능한 기술개발이 필요하다. 이를 위해 데이터의 서술적 의미분석을 위한 온톨로지와 1차 술어 논리를 적용한 전처리 기술, 블랙박스 모델에서의 조건부 매개변수의 동적 조작 및 수정을 위한 기술 개발 등이 필요하다.

References

  1. 국경완, "인공지능 기술 및 산업 분야별 적용 사례," 정보통신기획평가원 주간기술동향 1888, 2019, pp.15-27. 
  2. Open AI, "ChatGPT," https://chat.openai.com/, 2023.10.30. 
  3. Google, "Bard," https://bard.google.com/?utm_source=sem&utm_medium=paid-media&utm_campaign=q4koKR_sem6, 2023.10.30. 
  4. L. Freeman, "Test and evaluation for artificial intelligence," Insight 23, 2020, pp. 27-30.  https://doi.org/10.1002/inst.12281
  5. J. Pearl, "Causal inference," Causality: objectives and assessment, 2010, pp. 39-58. 
  6. 방태모, "인과추론과 예측 방법론의 차이," 인과 추론 서머워크샵 2022, Bootcamp for beginners, https://www.youtube.com/watch?v=PmoDo_ANg90, 2023.10.30. 
  7. T. C. Chalmers, H. Smith Jr, B. Blackburn, B. Silverman, B. Schroeder, D. Reitman, A. Ambroz, "A method for assessing the quality of a randomized control trial," Controlled clinical trials vol. 2. no. 1, 1981, pp.31-49.  https://doi.org/10.1016/0197-2456(81)90056-8
  8. Z. Gao, Y. Han, Z. Ren, Z. Zhou, "Batched multi-armed bandits problem," Advances in Neural Information Processing Systems 32, 26 Oct 2019. 
  9. Wikipedia, "Multi-armed bandit," https://en.wikipedia.org/wiki/Multi-armed_bandit, 2023.11.10. 
  10. S. Triantafillou, I. Tsamardinos, "Score based vs constraint based causal learning in the presence of confounders," Causation: Foundation to Application, June 2016, pp. 59-67. 
  11. S. M. Lundberg, S.-I. Lee, "A unified approach to interpreting model predictions," Advances in neural information processing systems, vol. 30, Dec. 2017, pp. 4768-4777. 
  12. D. Janzing, L. Minorics, P. Blobaum, "Feature relevance quantification in explainable AI: A causal problem," International Conference on artificial intelligence and statistics, 27 Nov. 2019, pp. 2907-2916. 
  13. J. Pearl, Cambridge University Press, 2000. 
  14. D. Dash, M. Voortman, M. de Jongh, "Sequences of Mechanisms for Causal Reasoning in Artificial Intelligence," Twenty-Third International Joint Conference on Artificial Intelligence, 2013 pp. 839-845. 
  15. A. Sangroya, M. Rastogi, C. Anantaram, L. Vig, "Guided-LIME: Structured Sampling based Hybrid Approach towards Explaining Blackbox Machine Learning Models," CIKM 2020 Workshops, October 19-20, 2020. 
  16. R. Guo, J. Li, H. Liu, "Learning Individual Causal Effects from Networked Observational Data," 13th International Conference on Web Search and Data Mining, January 2020, pp. 232-240. 
  17. P. E.D. Love, W. Fang, J. Matthews, S. Porter, H. Luo, L. Ding, "Explainable artificial intelligence (XAI): Precepts, models, and opportunities for research in construction," Advanced Engineering Informatics, vol. 57, August 2023. 
  18. T. Miller, "Explanation in artificial intelligence: Insights from the social sciences," Artificial Intelligence 267, 2019, pp. 1-38.  https://doi.org/10.1016/j.artint.2018.07.007
  19. L. Cheng, R. Guo, R. Moraffah, P. Sheth, K. S. Candan, H. Liu, "Evaluation methods and measures for causal learning algorithms," IEEE Transactions on Artificial Intelligence, vol. 3, no. 6, 2022, pp. 924-943.  https://doi.org/10.1109/TAI.2022.3150264
  20. Z. Zeng, W. Peng, D. Zeng, C. Zeng, Y. Chen, "Intrusion detection framework based on causal reasoning for DDoS," Journal of Information Security and Applications, 2022. 
  21. R. Chen, Y. Lu, P. Witherell, T. W. Simpson, S. Kumara, H. Yang, "Ontology-driven learning of bayesian network for causal inference and quality assurance in additive manufacturing," IEEE Robotics and Automation Letters, vol. 6, no. 3, 2021, pp. 6032-6038.  https://doi.org/10.1109/LRA.2021.3090020
  22. J. Berrevoets, K. Kacprzyk, Z. Qian, M. van der Schaar, "Causal deep learning," arXiv Computer Science, Machine Learning, Mar 2023.