[만났습니다]①최재식 KAIST 설명가능한 AI 연구센터장
면접 탈락·금리 차별도 설명 가능해야… AI 판단 근거 요구
KAIST, 다양한 모델 적용 가능한 '플러그앤플레이 XAI'개발중
XAI, 온디바이스 AI 실현에 기여
최재식 KAIST 교수(47)는 이처럼 AI의 결정 과정을 사람이 이해할 수 있도록 설명하는 ‘설명가능한 AI(XAI)’ 분야의 선도적 연구자다. 그는 현재 KAIST XAI 연구센터장을 맡고 있다.
XAI는 기존의 블랙박스 형태 AI 모델을 투명하게 만들어 인공지능이 어떻게 판단을 내렸는지 그 근거를 사용자에게 제공하는 기술이다. 이를 통해 AI의 신뢰성과 공정성을 높이는 것이 목적이다.
특히 내년 1월 시행을 앞둔 AI 기본법은 XAI의 중요성을 더욱 부각시킨다. 해당 법에는 △공정하고 투명하며 해석 가능한 알고리즘 사용을 통해 ‘신뢰 가능한 AI’를 개발·활용해야 한다는 조항과 △AI 서비스 제공자가 사용자에게 AI의 의사결정 이유와 과정을 설명할 수 있는 정보를 제공해야 한다는 ‘사용자의 알 권리’ 보장 항목이 포함돼 있다.
AI의 판단이 일상과 삶에 실질적인 영향을 미치는 시대, 그 판단의 근거를 묻고 이해할 수 있는 권리가 이제는 법적으로도 보장받는 방향으로 나아가고 있는 셈이다.
이에 이데일리는 최재식 교수를 만나 XAI의 개발 현황과 적용가능한 분야, 기술의 미래 등을 물었다. 다음은 최재식 교수와의 일문일답이다.
[이데일리 방인권 기자] 최재식 KAIST 교수(KAIST XAI 연구센터장) 인터뷰 |
<이미지를 클릭하시면 크게 보실 수 있습니다> |
-설명가능한 인공지능(XAI)이란 무엇입니까?
- AI의 판단을 사람이 이해할 수 있도록 설명하는 것이 실제로 가능할까요?
AI가 어떤 결정을 내릴 때 어떤 입력값이나 특성이 그 결과에 얼마나 영향을 미쳤는지를 정량적으로 분석하는 방식입니다. 예를 들어 나와 연봉이 같은 친구의 금리가 더 낮게 나왔다면 AI는 단순히 소득 외에도 채무 상태, 부채 규모, 거래 기간 같은 여러 요소를 함께 고려했을 수 있죠. 이 지분율을 계산하려면 수천만 개에 달하는 파라미터(매개변수)가 어떤 방식으로 작동했는지를 큰 틀에서 이해해야 하기에 과정은 복잡하지만 충분히 과학적으로 접근 가능한 영역입니다.”
- 그런데 지분율을 계산하려면 AI에 입력된 데이터를 모두 알아야 하지 않습니까? 익명화된 데이터는 확인이 어려운 것 아닌가요?
“학습에 사용된 데이터를 전혀 모르는 경우는 거의 없습니다. 대부분의 경우 데이터는 존재하고 다만 이를 익명화하거나 암호화해 처리한 것일 뿐이죠. 예를 들어 익명화된 데이터를 기반으로 어떤 사람이 B등급을 받았는데, 해당 데이터의 일부 값을 바꿨더니 C등급이 나오는 경우가 있을 수 있습니다.
[이데일리 방인권 기자] 최재식 KAIST 교수(KAIST XAI 연구센터장) 인터뷰 |
<이미지를 클릭하시면 크게 보실 수 있습니다> |
- KAIST 설명가능한 AI(XAI) 연구센터에서는 어떤 기술을 개발 중이신가요?
“연구를 시작한 건 2017년 7월이었습니다. 과학기술정보통신부의 국책과제로 시작했죠. 당시엔 이 분야에 대한 인식이 부족해 주변에서 ‘사기 아니냐’는 말도 들었습니다. 어떤 교수님은 ‘너, 사람 뇌 속 뉴런이 어떻게 작동하는지 아냐?’고 묻기도 했고요. 그때는 지금처럼 트랜스포머(Transformer) 구조가 널리 쓰이기 전이었고, CNN(Convolutional Neural Networks)이 주로 활용되던 시기였는데, 이 구조의 내부 작동을 설명하기 어렵다는 분위기가 강했습니다. 저희 연구는 MIT의 앨버트 토랄바 교수와 독일 크라우스 뮐러 교수의 원천 기술 연구에서 많은 영향을 받았습니다. 이분들은 딥러닝 모델 내부의 작동 메커니즘을 규명하고, 이를 통해 신뢰성과 투명성을 확보하는 XAI 분야를 선도해 온 학자들이죠.”
- 지금은 어떤 기술을 개발하고 계십니까?
- 설명가능한 AI(XAI) 기술의 미래는 어떻게 보시나요? AI의 투명성과 신뢰성 외에 다른 장점도 있을까요?
“온디바이스 AI, 즉 AI 경량화에 기여할 수 있습니다. 설명가능한 AI(XAI)는 모델 내부의 복잡한 구조를 분석해 바깥으로 분리할 수 있는 지식은 외부로 꺼내는 방식으로 작동합니다. 이 과정을 통해 모델의 효율성을 높이고 복잡성을 줄일 수 있죠. 결과적으로 처리 속도를 높이고 메모리 사용량을 줄이는 데 기여합니다. 이는 사물인터넷(IoT) 기기나 스마트폰 같은 소형 디바이스에서도 AI가 보다 가볍고 빠르게 작동할 수 있도록 만드는 중요한 기술적 기반이 될 수 있습니다.”
◇최재식 교수는
이 기사의 카테고리는 언론사의 분류를 따릅니다.
기사가 속한 카테고리는 언론사가 분류합니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.
언론사는 한 기사를 두 개 이상의 카테고리로 분류할 수 있습니다.