ENG

알고리듬의 투명성과 설명가능성: GDPR을 중심으로

2020년 5월 12일

이선구 (교수, 연세대학교 언더우드국제대학)

민주주의의 발전을 위해서는 언론의 안정적 운영이 중요한 의미를 가진다. 우리나라에서는 포털을 이용하여 뉴스를 접하는 인구의 비율이 월등히 높기 때문에 포털이 언론으로서 비중있는 역할을 수행한다. 따라서 포털이 사회적 신뢰를 기반으로 안정적으로 언론의 역할을 수행하는 것이 중요한데, 현재 우리 사회에서 포털에 대한 신뢰도는 다른 언론에 비해 상당히 낮은 편이다. 게다가 최근 포털들은 인공지능이라는 새로운 ‘편집자’를 맞이하였다. 포털의 인공지능은 기사의 추천, 배열 등 포털이 다양한 소스로부터 취합한 뉴스를 제공하는 방식을 결정한다. 인공지능은 정확성이 매우 높고 뉴스 이용자의 정보검색의 효율성을 배가시킬 수 있다는 장점이 있다. 하지만 딥러닝 등 복잡한 알고리듬으로 구성된 인공지능은 일종의 블랙박스(black box)로서 그 작동기제에 대한 불투명성이 사회적 신뢰를 얻는 데에 부정적인 영향을 가져올 수 있다. 따라서 포털이 사용하는 인공지능에 대한 신뢰를 확보하는 것은 언론의 안정성을 위하여, 나아가서는 민주주의의 발전을 위하여 사회적으로 중요한 과제이다.

인공지능에 대한 사회적 신뢰를 확보하기 위한 방안으로 인공지능의 투명성을 확보하는 것이 주로 논의되고 있다. 그런데 투명성을 제고하는 방법은 정보주체인 개인, 즉 포털 뉴스 이용자에게 인공지능에 대하여 설명을 하는 방법과 정보주체가 아닌 제3의 조직 내지는 기구가 인공지능의 작동을 관리감독을 하는 방법이 있다. 이 글에서는 둘 중 전자에 초점을 두어 인공지능에 대한 설명이 과연 투명성을 제고하여 인공지능에 대한 사회적 신뢰를 얻는 데에 기여할 수 있을지를 살펴보도록 한다.

이에 관한 논의는 2018년에 발효한 유럽연합의 일반정보보호규정(General Data Protection Regulation, 이하 ‘GDPR’)을 중심으로 활발하게 이루어지고 있다. GDPR 제13조, 제14조, 제15조는 프로파일링을 포함한 자동화된 의사결정에 대하여 컨트롤러로 하여금 정보주체에게 ‘관련된 논리에 관하여 의미있는 정보’를 제공하도록 한다. 이 규정들과 전문(Recital)의 내용을 둘러싸고, 과연 GDPR이 컨트롤러에게 설명의무를 부과한 것인지 아니면 정보주체에게 설명을 요구할 권리를 인정한 것인지에 관한 논의가 분분하다. 또한 컨트롤러의 설명의무의 내용이 무엇인지에 관한 논의도 활발하다.

우선, GDPR이 컨트롤러(미디어의 맥락에서는 포털)의 설명의무를 규정한 것인지 정보주체(미디어의 맥락에서는 뉴스 이용자)의 설명을 요구할 권리(right to explanation)를 규정한 것인지에 대하여는 전문의 효력을 어떻게 보느냐에 따라 견해가 나뉘는 것이 보통이다. 본문의 규정들은 컨트롤러의 의무를 규정한 데에 반하여 전문은 정보주체에게 설명을 요구할 권리가 있다고 규정을 하였기 때문이다. 전문은 형식적으로는 법적 구속력을 가지지 않지만 유럽사법재판소는 법적 구속력을 가지는 것과 다르지 않다고 판결하였고 이와 유사한 견해를 가지는 학자들이 상당수이다. 따라서 전문에서 정한 바와 같이 설명을 요구할 권리를 가진다고 보는 견해가 있는 반면, 전문은 법적 효력이 없으며 GDPR의 입법 과정을 살펴보면 정보주체의 설명을 요구할 권리까지 인정하는 것은 입법자의 의도를 무시한 비약적 해석이라는 주장이 있다.

설명의무의 내용에 관하여서는, GDPR과 제29조 실무그룹(Article 29 Working Party)의 가이드라인이 인공지능의 설명가능성을 전제로 하는 데 반하여 현실적으로 인공지능은 상당부분 설명가능하지 않다는 지적이 다수이다. 인공지능은 설계한 사람조차 설명이 불가능한 것이 많고, 설명이 가능하다고 하더라도 설명을 제공받는 정보주체(즉, 포털 뉴스 이용자)가 과학적 전문성이 부족하여 포털이 제공하는 설명이 투명성을 확보하는 데에 의미가 없다는 주장이다. 정보주체에게 의미가 있는 설명의 내용에 대하여, 인공지능의 간단한 논리에 대한 설명을 제공하는 것이 타당하다는 견해부터, 인공지능으로 인한 특정 결정에 대하여 구체적인 설명을 제공해야 한다는 견해까지 다양한 견해가 제시되고 있다.

인공지능에 대하여 정보주체에게 어느 이상의 설명을 제공하는 것이 현실적으로 곤란하거나 불가능하다면, 제3의 조직 내지는 기구를 활용하여 투명성을 제고하려는 노력을 병행하는 것이 보다 실현가능한 정책이라는 결론이다.