<설명가능인공지능 연구센터>
우리나라에서도 설명가능 인공지능(XAI) 연구가 이뤄지고 있다. 과학기술정보통신부 산하 '설명가능인공지능 연구센터'가 주인공이다. XAI 연구센터는 2017년 7월 과기정통부와 정보통신기획평가원(IITP)의 후원으로 만들어진 연구조직이다. 최재식 한국과학기술원(KAIST) 교수가 센터장을 맡고 있다.
센터는 세계적으로도 손꼽힐 정도로 활발히 성과를 내놓는 곳이다. 딥러닝 모델 분야에서는 모델 내부를 분석하고 설명하는 'E-GBAS(Explorative Generative Boundary Aware Sampling)' 원천기술을 개발했다. 모델 내 노드 가운데 학습이 덜된 노드를 걸러낼 수 있다. 복잡화된 딥러닝 레이어 샘플링을 기존보다 효율화해 세세한 결과도출 과정을 파악할 수 있다.
머신러닝 분야에서는 시계열적인 변화를 사람이 이해할 수 있을 정도로 분해·분석하는 머신러닝 XAI 기술 '자동통계학자'를 개선, 다수의 시계열적인 변화를 빠르고 정확하게 처리하는 '관계형 자동통계학자' 기술도 개발했다.
<최재식 설명가능인공지능 연구센터장(KAIST 교수)>
XAI 기술을 실제 산업 현장에 적용하는 성과도 거두고 있다. 포스코 포항제철소 2·3고로가 대표 사례다. 포항제철소 2고로는 지금도 딥러닝 모델을 적용해 90% 수준까지 자동화 기능을 갖춘 용광로다. 고로 통기성, 연소성, 용선 온도 등을 스스로 제어한다. 추가로 XAI 기술을 적용, 이런 제어 행동의 이유를 설명할 수 있도록 하는 작업을 진행하고 있다. 3고로는 자동화 적용이 안돼 있는데, 2고로 적용성과를 바탕으로 XAI를 더한 딥러닝 기술 적용에 나설 예정이다.
센터는 의료분야 스타트업인 'AI 트릭스(대표 유진규)'와 협력해 환자 상태 변화를 설명할 수 있는 방법으로 예측하는 기술도 개발하고 있다. 최재식 센터장은 “XAI 연구센터는 일찌감치 관련 연구에 착수해 세계에 견줘도 자랑스러운 성과를 내놓고 있다”면서 “우리나라가 보다 신뢰성 높은 AI 기술을 구현하는 데 세계에서 주도적인 역할을 할 수 있도록 노력을 기울이고 있다”고 말했다.
대전=김영준기자 kyj85@etnews.com