[Home] AI로 돌아가기

🔗 관련 문서: Wikipedia - Explainable Artificial Intelligence

설명가능 인공지능 (XAI)

Q) 책임 있는 AI(Responsible AI)란 어떤 AI인가?
A) 신뢰성 있는 AI!

설명가능 인공지능(XAI; eXplainable AI)은 AI의 예측이나 의사결정 과정을 인간이 이해할 수 있도록 설명해주는 기술 또는 방법론을 의미한다. 특히 딥러닝처럼 복잡한 모델의 결정 논리를 해석 가능하게 만들어 신뢰성, 투명성, 책임성을 확보하려는 목적이 있다.


(1) 정의와 필요성

XAI(Explainable AI)는 인공지능의 판단 과정이 "왜 그런 결과를 도출했는가?"에 대한 답변을 할 수 있도록 하는 접근이다.

특히 의료, 법률, 금융, 국방과 같은 분야에서는 AI의 투명한 설명이 필수적이며, 설명 불가능한 AI는 신뢰받기 어렵다.

...
인공지능 모델이 제시하는 예측 결과를 사용자가 받아들이지 못하거나 이해하지 못한다면, 예측 결과를 신뢰하거나 사용하기 어렵다.
또한, 인공지능의 오류를 수정하려면 인공지능이 결과를 판단하는 근거 및 이유를 알아야 한다.
설명가능 인공지능은 인공지능 시스템이 도출한 예측 결과와 그 과정을 인간이 이해할 수 있도록 해서 이런 문제를 해결한다.
출처: https://v.daum.net/v/9QRkXAWAqi
...
설명가능 인공지능은 사용자에게 전달한 결과가 왜 ‘고양이’인지에 대한 이유를 설명한다.
단순히 그 이유를 보여주는 것을 넘어, ‘설명 인터페이스’를 통해 인간이 즉시 이해하고 해석할 수 있도록 도움을 준다.
출처: https://techntales.medium.com/
...
출처: https://www.bigdatavietnam.org/2017/11/explainable-artificial-intelligence-xai.html
XAI 구조 예시
그림 1. XAI의 기본 구성: 예측 모델과 설명 모듈의 분리 (출처: https://www.mdpi.com/)

(2) 주요 기법

1) 설명 기법


2) 시각화 기법


(3) 정확성과의 관계

일반적으로 설명 가능한 모델일수록 구조가 단순하므로 정확성은 낮을 수 있다. 반면, 높은 정확성을 가진 딥러닝 모델은 설명이 어렵다.

따라서 정확성과 설명성 사이의 균형을 고려하여 분야별로 적절한 AI 모델을 선택해야 한다.

XAI
그림 1. Complexity vs Explainability (출처: https://www.mdpi.com/)

(4) 효과

1) 기술적 관점

2) 비즈니스 관점

3) 법과 제도적 관점

4) 인공지능 산업 관점


(5) 응용 분야