Does Explanation Correctness Matter? Linking Computational XAI Evaluation to Human Understanding
핵심
이 글은 XAI 설명의 기능적 정확성이 사람의 이해에 실제로 연결되는지 검증한 연구입니다.
연구진은 시간 정보만 있는 분류 과제에서 설명 정확도를 100%, 85%, 70%, 55%로 조작했습니다.
200명을 대상으로 한 실험에서 정확도가 낮아질수록 이해가 줄었으나, 모든 단계에서 비례적으로 감소하지는 않았습니다.
70%와 55%에서는 100%보다 수행이 유의하게 떨어졌지만, 70%에서 55%로의 추가 악화는 큰 차이가 없었습니다.
결과적으로 기능적 정확도 점수의 작은 차이가 인간 이해로 곧바로 이어지지 않으므로, 사람 중심 검증이 필요합니다.
HCI 관점에서 읽을 만한 이유
이 글은 XAI 설명의 ‘정확성(correctness)’이 실제로 인간의 이해를 얼마나 바꾸는지 실험적으로 검증했다는 점에서 HCI/UX 연구자에게 의미가 큽니다. 특히 이미지가 아닌 시계열 과제에서, 사람의 직관을 배제한 채 forward simulation으로 이해를 측정해 기능적 지표와 인간 결과의 간극을 보여주는데요. 실무적으로는 설명 품질을 수치로만 최적화하는 접근의 한계를 짚게 합니다.
CIT의 코멘트
CIT 관점에서 보면 이 연구는 XAI 평가에서 자주 전제되던 ‘정확성이 높으면 이해도도 오른다’는 가정을 아주 정교하게 흔들어 놓습니다. 100%와 85%의 차이가 불분명했고, 70% 이하에서만 이해가 떨어졌다는 결과는 설명 품질이 연속적으로 작동한다기보다 임계값(threshold) 형태로 작동할 수 있음을 시사합니다. 그런데요, 더 중요한 지점은 동일한 정확성에서도 일부 참여자는 끝내 패턴을 학습하지 못했다는 점입니다. 즉 설명 자체의 성능뿐 아니라 사용자의 학습 가능성, 과제 난이도, 피드백 구조가 함께 설계돼야 합니다. CIT에서는 이를 단순히 ‘좋은 설명’의 문제가 아니라, 설명이 이해로 전환되는 상호작용 조건을 설계하는 문제로 봅니다.
원문을 읽으면서 던질만한 질문
- Q.설명 정확성이 85%까지는 이해도에 큰 차이가 없었다면, 실제 제품에서는 어느 수준부터 품질 개선이 사용자 경험에 의미 있게 반영된다고 볼 수 있을까요?
- Q.시계열 과제에서 관찰된 임계값 효과가 이미지, 텍스트, 추천 시스템 같은 다른 도메인에도 동일하게 나타난다고 해석할 수 있을까요?
- Q.forward simulation 성능이 아니라 신뢰, 의사결정 품질, 오류 탐지 능력까지 함께 보면 설명 정확성의 효과는 어떻게 달라질까요?
뉴스레터 구독
매주 금요일, 주간 HCI 하이라이트를 이메일로 받아보세요.