- AI법(고학수), 빅데이터(김용대), AI원천기술(윤성로), AI의료(김정훈) 분야 국내 최고 전문가들의 공동 저술
- “‘설명가능한 인공지능’의 연구와 체계화를 통해 현재 거론되는 AI의 한계를 극복하고 공정하고 책임성 있는 인공지능을 구현하는 데 도움이 될 것”
‘인공지능 원론: 설명가능성을 중심으로’ 저자들. (왼쪽부터) 고학수, 윤성로, 김용대, 김정훈, 이선구, 박도현, 김시원
법학, 공학, 의학, 통계학 등 다양한 분야의 인공지능 전문가 7명이 공저 ‘인공지능 원론: 설명가능성을 중심으로’(박영사)를 발간하였다.
고학수 교수(법학전문대학원), 김용대 교수(통계학과), 윤성로 교수(전기정보공학부), 김정훈 교수(의과대학 영상의학교실), 박도현 박사(법학전문대학원), 김시원 연구원(전기정보공학부)과 연세대학교의 이선구 교수(언더우드 국제대학)이 공저로 참여했으며, 이 중 연구책임자인 고학수 교수는 국내외 ‘인공지능 윤리’영역의 논의를 선도하고 있으며, 윤성로 교수는 대통령직속 4차산업혁명위원회 위원장이자 세계적인 AI 연구자로 알려져있다.
저자들은 250쪽 분량의 저서를 통해, 현재 인공지능의 한계점으로 투명성, 공정성의 문제가 제기되고 있다고 지적하고, 이에 대해‘설명가능한 인공지능’에 대한 연구의 체계화를 통해 대응해야 함을 설파한다.
고학수 교수는 인공지능은 우수한 성과를 보이고 있지만, 투명성이 떨어진다는 비판을 받고 있다고 지적하고, 관련 기술이 사회 곳곳에 본격적으로 도입되는 과정에서 설명가능성을 높이기 위한 노력이 필요하고 이를 통해 인공지능에 대한 사회적 신뢰를 확보하기 위한 노력이 지속되어야 할 것이라고 강조했다.
윤성로 교수는 딥러닝 등 최신 인공지능 기술의 경우 동작 원리를 명확히 설명하기 힘든 경우가 많아서, 국방이나 헬스케어와 같이 설명 가능성이 필수적인 분야 적용이나 제도화에 어려움을 겪었으나, 최근 ‘설명가능한 인공지능(XAI)’을 위한 다양한 연구가 이루어지면서, 인공지능이 해석 가능하고 신뢰할 수 있는 보편적 기술로 발전하고 있다고 기술했다.
서울대학교병원 영상의학과 김정훈 교수는 인공지능을 임상에서 활용하는 양상을 소개하고, 현재는 뛰어난 성능에도 불구하고 실제 환자 진료에 활용하는 경우는 아직 드물고, 인공지능이 자신의 진단 과정을 설명할 수 있어야 궁극적으로 환자 진료에 도움을 줄 수 있을 것이라며 ‘설명가능한 인공지능’이 의료 분야 인공지능 활용에 핵심이라고 강조했다.
본교는 학문간 경계를 넘는 융복합연구를 지원하고 있으며, 본 저서는 ‘융복합연구지원과제’ 지원을 통해 발간되었다.
[목차]
01 인공지능, 왜 설명가능성인가?
02 인공지능의 작동원리와 설명가능성에 대하여
03 인공지능의 작동원리와 설명가능성에 대하여
-고급 인공지능 학습 및 해석/설명 방법론-
04 인공지능의 투명성과 설명가능성에 대한 법철학적 고찰
05 법적 관점에서 바라본 설명가능성: GDPR의 정보제공의무를 중심으로
06 의료 영역에서 인공지능의 활용과 설명가능한 인공지능의 필요성
07 설명가능성을 넘어: 신뢰할 수 있는 인공지능을 위한 과제
자료제공: AI 연구원(https://aiis.snu.ac.kr/)