[Home] AI로 돌아가기

🔗 관련 문서: Wikipedia - Explainable Artificial Intelligence

설명가능 인공지능 (XAI)

설명가능 인공지능(XAI; Explainable AI)은 AI의 예측이나 의사결정 과정을 인간이 이해할 수 있도록 설명해주는 기술 또는 방법론을 의미한다. 특히 딥러닝처럼 복잡한 모델의 결정 논리를 해석 가능하게 만들어 신뢰성, 투명성, 책임성을 확보하려는 목적이 있다.

(1) 정의와 필요성

XAI(Explainable AI)는 인공지능의 판단 과정이 "왜 그런 결과를 도출했는가?"에 대한 답변을 할 수 있도록 하는 접근이다.

특히 의료, 법률, 금융, 국방과 같은 분야에서는 AI의 투명한 설명이 필수적이며, 설명 불가능한 AI는 신뢰받기 어렵다.

(2) 주요 기법

1) 모델 본연 설명 (Interpretable Models)

2) 사후 설명 기법 (Post-hoc Explanation)

(3) 정확성과의 관계

일반적으로 설명 가능한 모델일수록 구조가 단순하므로 정확성은 낮을 수 있다. 반면, 높은 정확성을 가진 딥러닝 모델은 설명이 어렵다.

따라서 정확성과 설명성 사이의 균형을 고려하여 분야별로 적절한 AI 모델을 선택해야 한다.

(4) 응용 분야

XAI
그림 1. Complexity vs Explainability (출처: https://www.mdpi.com/)
XAI 구조 예시
그림 1. XAI의 기본 구성: 예측 모델과 설명 모듈의 분리 (출처: https://www.mdpi.com/)