ENG

윤리적 인공지능의 실현과 과제

2020년 5월 12일

고학수 (교수, 서울대학교 법학전문대학원)

이나래 (변호사, 서울대학교 법학대학원 박사과정)

박도현 (변호사, 서울대학교 법학대학원 박사과정)

본고는 인공지능 시대에 우리나라가 앞으로 어떠한 형태의 윤리규범 체계를 갖추어야 하는가라는 문제의식에 대한 실마리를 제공하는 것을 목적으로 하는 글이다. 아시모프 ‘로봇 3원칙’ 이래로, 인공지능 윤리규범 이슈는, 첫째, 논의의 주체가 설계자, 제작자, 이용자와 같이 배후에 위치한 인간에게로 확장되었고, 둘째, 책임귀속에 관련된 과거의 대전제가 오늘날에는 통용되지 않게 된 경우가 많아졌으며, 셋째, 인공지능에 대한 대중의 알 권리와 이해관계자의 주체적 참여에 대한 요구가 늘어나면서 책임성(accountability)에 대한 관념이 확장되고 있고, 넷째, 일률적인 규정을 기계적으로 적용하는 방식의 한계가 지적되고 그 대신 인공지능이 활용되는 구체적 맥락(context) 위주의 접근법에 대한 필요성이 강조되는 방향으로 논의가 이루어지고 있다.

인공지능의 윤리적 측면에 관한 국내외의 논의는 최근 2년여의 기간 동안 급속도로 진전이 이루어졌다. 그동안 해외에서 제시된 윤리규범은 대체적으로는, ① 기본원칙을 중심으로 하는 윤리규범 유형, ② 기본원칙에 더하여 주요 이슈에 대해 상세하게 함께 다룬 윤리규범 및 보고서 유형, ③ 윤리규범의 정립방안에 대한 구체적 방법론을 함께 언급한 유형으로 구분지어 파악할 수 있다. 기본원칙 중심의 윤리규범은 OECD 권고안, 일본 총무성 가이드라인, 아실로마 원칙, 그리고 그 이외에 마이크로소프트, 구글과 같은 사기업에서 발표한 규범 등을 들 수 있다. 기본원칙 중심의 윤리규범은 다양한 참여자들의 다양한 관점 및 상이한 이해관계를 종합하기에 용이한 방식인 한편, 추가적인 후속 규범이 마련되지 않으면 규범력이 상대적으로 낮을 가능성이 있다. 다음으로, 기본원칙과 주요 이슈를 함께 다룬 윤리규범 유형으로는 IEEE 보고서, 영국 상원 보고서, 그리고 UNGP & IAPP의 보고서를 들 수 있다. 구체적 논의에 대한 세부사항까지도 포함하는 셋째 유형으로는 유럽의회 결의안, EU 집행위원회 고위급 전문가 그룹의 가이드라인 등을 들 수 있다. 이러한 윤리규범 중에는, 원칙에 대한 선언 그 자체로 의미를 가지는 것도 있고, 후속 작업과 모니터링의 과정을 통해 더 구체화하고 규범력을 확보할 수 있는 장치가 마련된 것도 있다.