RESEARCH LIST
-
Report
금융권 인공지능(AI) 정책 연구
본 연구는 인공지능 기술의 발전과 그에 따른 변화가 우리 삶에 가져올 기회와 위협에 대해 사회적·윤리적 쟁점을 중심으로 분석하였고, 이러한 변화에 대응하기 위한 정책적인 방안을 논의하였다. 이러한 현황과 전망, 쟁점과 대응방안을 일반적으로 살펴보는 데에 그치지 않고 금융 영역의 맥락에서 구체적으로 검토하였다.
-
Paper
차분 프라이버시(Differential Privacy)의 가능성과 한계
차분 프라이버시(Differential Privacy)는 충분한 수준의 프라이버시 보호를 제공하는 동시에 데이터 분석이나 컴퓨팅 작업을 통해 유용한 결과를 도출해 낼 수 있는 방법론을 마련하는 데에 있어 유용한 개념으로 주목을 받아왔다. 이 개념은 특히 공학 연구자들의 주목을 받아왔는데 그 이유 중 하나는 프라이버시 보호의 수준에 관해 수학적으로 명확한 기준을 정하여 규정할 수 있다는 점에 있다. 그런데 이러한 방식으로 개인정보의 보호에 관해 규정하는 것은 법규범을 통해 개인정보를 정의하고 그에 관해 규율하는 방식과는 상당히 다른 것이다. 따라서 차분 프라이버시 개념의 적용을 통한 개인정보 보호의 방식과 법규범의 해석과 적용을 통한 개인정보 보호의 방식 사이에 어떤 차이가 있는지에 대해 명확히 파악하고 비교할 필요가 있다. 차분 프라이버시는 법규범상으로는 추상적 판단의 대상으로만 고려되기 쉬운 개인정보 활용으로부터의 효용성과 정보주체의 프라이버시 보호를 통해 달성할 수 있는 가치 사이의 상충관계에 관하여 측정가능한 형태의 개념설정과 이론을 제공한다는 점에서 유용하다. 그러나 프라이버시 예산의 설정을 둘러싼 논란이 발생할 수 있고 또한 이를 구현하는 과정에서 상당한 비용이 소요된다는 현실적인 한계가 존재하기도 한다.
-
Paper
데이터거래의 법적 쟁점 및 데이터거래 가이드라인
데이터가 오늘날 가치의 주요원천이라는 점에는 더 이상 의심이 없다. 그런데 데이터는 수집이 어려운 반면 일단 수집되면 공유·재사용은 쉽다는 특성이 있다. 그리하여 데이터의 공유와 재사용을 가능하게 하는 자발적 메커니즘으로서 데이터거래에 관심이 모이고 있다.
-
Paper
가명정보의 ‘과학적 연구’ 목적을 위한 활용
개정된 데이터 3법은 개인정보의 가명처리를 전제로 데이터의 활용가능성을 명시적으로 언급하는 조항을 담고 있다. 그 중 핵심적인 것은, 가명정보를 통계 목적, 과학적 연구 목적, 그리고 공익적 기록보존의 목적으로 이용할 수 있도록 허용하는 것이다. 이 글은 이 중에 ‘과학적 연구’ 목적의 개념과 범위를 어떻게 해석할 것인지에 관해 정리한다. 개정 이전의 개인정보 보호법은 ‘학술연구’에 관한 조항을 두고 있었고, 데이터 3법 중 신용정보법은 ‘연구’라 표현하고 있다.
이처럼 서로 약간씩 다르게 표현된 ‘학술연구’, ‘연구’, ‘과학적 연구’의 개념 사이에 차이가 존재하는지 살핀다. 그리고 과학적 연구의 개념에 상업적 연구가 포함될 수 있는지에 관해서도 분석한다. 관련 법령 및 연구 관행, 일반적인 연구 재원 등 다양한 요소를 고려해 보면, 상업적 연구를 비상업적 연구와 구분하는 것은 현실적이지 않음을 알 수 있다. 다른 한편, 상업적 연구의 허용여부를 둘러싸고 문제제기가 이루어지는 배경에는, 상업적 연구를 폭넓게 허용할 경우에 프라이버시 가치의 훼손이나 연구윤리의 훼손 등이 발생할 가능성을 둘러싼 우려가 있을 수 있다. 이에 관해서는 과학적 연구의 개념에 관한 논의가 아니라, 프라이버시나 연구윤리 등 해당 이슈에 대한 추가적인 논의를 통해 우려를 불식시킬 필요가 있다. -
Paper
개정 개인정보 보호법상 가명정보의 개념 및 가명처리에 관하여
‘데이터 3법’의 개정 내용 중 핵심적인 것 하나는 가명정보의 개념을 명시적으로 도입한 것이다. 가명정보는 넓게는 개인정보로 분류되지만, 별도 유형의 특수한 개인정보로 규정되어 정보주체의 동의 없이 통계 목적, 과학적 연구 목적, 공익적 기록보존 목적 등을 달성하기 위하여 이용하거나 제공할 수 있다. 또한 개정법은 가명정보의 결합에 대한 규정을 도입하고 있는데, 결합은 전문기관을 통해 수행해야 하는 것으로 규정되었다. 가명정보와 관련된 법제도의 변화는 이론적으로나 실무적으로나 적지 않은 새로운 과제를 제시한다. 여러 관련 쟁점들에 대한 상세하고 진지한 논의를 통해 데이터 시대로의 변화에 적극적으로
대응할 필요가 있다. -
Research
[발표자료] 2020.05.07. 웨비나 “데이터 3법 시대의 과제 : 가명처리, 연구목적 활용, 데이터 거래”
2020년 5월 7일 진행된 웨비나 “데이터 3법 시대의 과제 : 가명처리, 연구목적 활용, 데이터 거래”에 대한 발표 자료 입니다.
-
Research
[발표 자료 및 요약보고서] 2020.04.02. 웨비나 “인공지능 시대에 맞는 바람직한 개인정보 거버넌스 실현 방안”
2020년 4월 2일(목)에 진행된 웨비나 “인공지능 시대에 맞는 바람직한 개인정보 거버넌스 실현 방안” 자료 입니다.
-
Research
[자료집] 2020.02.21. 학술행사 “인공지능과 데이터 3법”
2020년 2월 21일(금)에 진행된 “인공지능과 데이터 3법” 학술대회에 대한 자료집 입니다.
-
Paper
데이터거래의 법적 쟁점 및 데이터거래 가이드라인
데이터가 오늘날 가치의 주요원천이라는 점에는 더 이상 의심이 없다. 그런데 데이터는 수집이 어려운 반면 일단 수집되면 공유·재사용은 쉽다는 특성이 있다. 그리하여 데이터의 공유와 재사용을 가능하게 하는 자발적 메커니즘으로서 데이터거래에 관심이 모이고 있다.
데이터거래는 거래대상인 데이터의 법적 성격이 분명하지 아니하여 그 법적 구성에 불확실한 점이 있고, 데이터경제 자체가 부분적으로 기존의 시장과 다른 특성을 보여 추가적인 법적 쟁점이 생길 가능성도 있다. 데이터거래를 둘러싼 법적 위험을 인식하고 거래여부결정과 계약내용형성과정에서 이에 적절히 대응하는 것이 그 활성화에 필수적이다. 데이터소유권(data ownership)을 둘러싼 각국의 논의는 대체로 데이터소유권의 인정에 힘쓰기보다 우선은 표준계약과 가이드라인의 제시를 통하여 데이터거래계약을 지원할 필요가 있다고 한다.
현행법상 데이터거래와 관련하여 우선 구별하여야 할 점은 거래대상이 개인정보인 데이터인지 아니면 개인정보가 아닌 데이터인지이다. 개인정보인 데이터의 경우 거래를 하려면 정보주체의 동의를 받거나 비식별화·익명화를 거쳐야 한다. 주의할 점은 비식별화·익명화를 거친다 하더라도 대개 데이터 수령자로 하여금 계속 기술적·관리적 조치를 취하게 할 필요가 있다는 사실이다. 영업비밀로 관리되어온 데이터는 영업비밀 기타 부정경쟁방지법과 불법행위법에 의하여 보호된다. 그러나 이때에도 그러한 보호를 유지하려면 데이터 수령자로 하여금 비밀로 관리하게 할 필요가 있다. 그밖에 이른바 파생데이터의 귀속에 대하여는 현행법의 규율이 불분명하다. 계약적 규율이 필요한 까닭이다.
데이터거래와 관련하여서는 유럽연합이 제시한 오픈 데이터 접근, 데이터 시장에서의 금전화 및 폐쇄된 플랫폼에서의 데이터 교환의 구분과 일본 경제산업성 가이드라인이 제시한 데이터제공형, 데이터창출형 및 데이터공용형계약의 구분이 참고가 된다. 두 구분은 상당부분 중첩되는데, 그중 각각의 마지막인 플랫폼형은 플랫폼규약의 설계라는 점에서 개별적인 B2B계약과 구별된다. 이 보고서에서는 우선 개별적인 B2B계약 유형에 집중하였다.
데이터거래, 데이터계약에서 먼저 고려할 점은 데이터의 처분권한 유무와 데이터공유의 경쟁에 대한 영향 및 경쟁법상의 제한이다. 데이터공유는 종종 제공자의 경쟁상 우위를 손상시킬 수 있다. 그러나 다른 한편 필수적 데이터의 제공거부는 경쟁법 위반이 되거나 적어도 비난의 대상이 될 수 있다. 다음 고려할 점은 데이터의 경제적 가치 평가인데 아직까지는 난점(難點)이 많다. 창출된 가치에 참여하는 모델을 함께 고려할 필요가 있다. 데이터계약의 유형으로는 양도와 이용허락이 대표적인데, 전자에는 매매법을, 후자에는 제공자의 동시이용여부에 따라 임대차법이나 지식재산권이용허락의 법리를 적용할 수 있다. 데이터창출형은 도급이다. 특히 데이터양도의 경우 실제로는 데이터삭제를 확인할 절차를 규율할 필요가 있다. 그밖에 데이터거래에서는 포맷과 제공방법, 데이터보안을 위한 사전·사후조치와 협력, 데이터에 관한 지식재산권 등 제3자 권리에 관한 담보책임과 이용허락의 범위 특정, 데이터 수령자 측의 이용권한의 객관적·주관적 범위 한정, 개인정보인 데이터의 경우 개인정보 보호법상의 제공 요건의 충족 및 철회를 대비한 보완조치에 관하여 정하여야 한다. 가명화된 데이터의 사용과 데이터 결합의 경우 개인정보 보호법상의 요건 충족 여부를 신중히 검토하여야 한다.
데이터거래, 특히 개인정보이거나 개인정보에서 유래한 데이터의 거래는, 법적 요건이 아니라 하더라도, 투명성과 가치공유에 대한 배려가 필요하다는 점을 염두에 둘 필요가 있다 -
Paper
플랫폼과 민주주의 : 중립성에 대한 오해와 진실
통신망 사업자에 대한 특수한 규제 논리로 출발한 중립성(neutrality) 논의는 시장 환경의 변화에 맞춰 망중립성에서 검색중립성으로, 그리고 최근에는 대규모 플랫폼 일반에 대한 중립성의 요구로 진화해오고 있다. 그 과정에서 경쟁법은 중립성을 관철하기 위한 규제 도구 중 하나로 동원되거나 거론되어 왔다. 그런데, 검색중립성의 경우에서 보듯 관련 산업 또는 시장의 특성에 따라 때로는 중립성의 요구가 경쟁을 오히려 제약하거나 심지어 그와 충돌할 수도 있다. 따라서 경쟁법을 중립성 규제의 도구로 활용하기에 앞서 경쟁의 보호라는 법의 목적이 저해하지 않도록 주의할 필요가 있다.
그렇다고 하여 중립성의 요구가 경쟁법과 전혀 무관하거나 그에 완전히 배치되는 것은 아니다. 경쟁법은 사업자가 필수설비에 해당하는 자신의 자산에 대한 접근을 허용함에 있어 거래상대방이 자신과 경쟁한다는 이유로 다른 거래상대방과 비교하여 부당하게 차별하는 것을 금지한다. 이러한 범위 내에서는 경쟁법의 적용이 플랫폼의 중립성을 달성하는 데 기여할 수 있을 것이다. 다만, 이 경우에도 문제되고 있는 플랫폼이 필수설비에 실제로 해당하는지, 그리고 차별적 행위로 인한 반경쟁적 효과가 주장되어지는 친경쟁적 효과를 상회하는지를 신중하게 검토해야 한다. 특히 플랫폼 사업자가 거래상대방 중 한 쪽을 차별하는 경우와 사업자 자신을 제3자와 비교하여 우대(차별)하는 경우를 구별하여 사회적으로 유용한 서비스나 자산에 대한 초기투자 유인이 과도하게 제약되지 않도록 유의해야 할 것이다.
한편 경쟁법과 별개로 중립성 규제를 고려하는 경우에도 플랫폼 사업자에게 부과하는 의무와 사업자의 책임 문제가 조화롭게 접근되도록 노력해야 할 것이며, 플랫폼에 대한 중립성 규제가 민주주의의 실현에 기여할 수 있는 범위와 내재적 한계를 명확히 인식하여 합리적인 규제 정책을 펼쳐야 할 것이다 -
Paper
알고리듬의 투명성과 설명가능성: GDPR을 중심으로
민주주의의 발전을 위해서는 언론의 안정적 운영이 중요한 의미를 가진다. 우리나라에서는 포털을 이용하여 뉴스를 접하는 인구의 비율이 월등히 높기 때문에 포털이 언론으로서 비중있는 역할을 수행한다. 따라서 포털이 사회적 신뢰를 기반으로 안정적으로 언론의 역할을 수행하는 것이 중요한데, 현재 우리 사회에서 포털에 대한 신뢰도는 다른 언론에 비해 상당히 낮은 편이다. 게다가 최근 포털들은 인공지능이라는 새로운 ‘편집자’를 맞이하였다. 포털의 인공지능은 기사의 추천, 배열 등 포털이 다양한 소스로부터 취합한 뉴스를 제공하는 방식을 결정한다. 인공지능은 정확성이 매우 높고 뉴스 이용자의 정보검색의 효율성을 배가시킬 수 있다는 장점이 있다. 하지만 딥러닝 등 복잡한 알고리듬으로 구성된 인공지능은 일종의 블랙박스(black box)로서 그 작동기제에 대한 불투명성이 사회적 신뢰를 얻는 데에 부정적인 영향을 가져올 수 있다. 따라서 포털이 사용하는 인공지능에 대한 신뢰를 확보하는 것은 언론의 안정성을 위하여, 나아가서는 민주주의의 발전을 위하여 사회적으로 중요한 과제이다.
인공지능에 대한 사회적 신뢰를 확보하기 위한 방안으로 인공지능의 투명성을 확보하는 것이 주로 논의되고 있다. 그런데 투명성을 제고하는 방법은 정보주체인 개인, 즉 포털 뉴스 이용자에게 인공지능에 대하여 설명을 하는 방법과 정보주체가 아닌 제3의 조직 내지는 기구가 인공지능의 작동을 관리감독을 하는 방법이 있다. 이 글에서는 둘 중 전자에 초점을 두어 인공지능에 대한 설명이 과연 투명성을 제고하여 인공지능에 대한 사회적 신뢰를 얻는 데에 기여할 수 있을지를 살펴보도록 한다.
이에 관한 논의는 2018년에 발효한 유럽연합의 일반정보보호규정(General Data Protection Regulation, 이하 ‘GDPR’)을 중심으로 활발하게 이루어지고 있다. GDPR 제13조, 제14조, 제15조는 프로파일링을 포함한 자동화된 의사결정에 대하여 컨트롤러로 하여금 정보주체에게 ‘관련된 논리에 관하여 의미있는 정보’를 제공하도록 한다. 이 규정들과 전문(Recital)의 내용을 둘러싸고, 과연 GDPR이 컨트롤러에게 설명의무를 부과한 것인지 아니면 정보주체에게 설명을 요구할 권리를 인정한 것인지에 관한 논의가 분분하다. 또한 컨트롤러의 설명의무의 내용이 무엇인지에 관한 논의도 활발하다.
우선, GDPR이 컨트롤러(미디어의 맥락에서는 포털)의 설명의무를 규정한 것인지 정보주체(미디어의 맥락에서는 뉴스 이용자)의 설명을 요구할 권리(right to explanation)를 규정한 것인지에 대하여는 전문의 효력을 어떻게 보느냐에 따라 견해가 나뉘는 것이 보통이다. 본문의 규정들은 컨트롤러의 의무를 규정한 데에 반하여 전문은 정보주체에게 설명을 요구할 권리가 있다고 규정을 하였기 때문이다. 전문은 형식적으로는 법적 구속력을 가지지 않지만 유럽사법재판소는 법적 구속력을 가지는 것과 다르지 않다고 판결하였고 이와 유사한 견해를 가지는 학자들이 상당수이다. 따라서 전문에서 정한 바와 같이 설명을 요구할 권리를 가진다고 보는 견해가 있는 반면, 전문은 법적 효력이 없으며 GDPR의 입법 과정을 살펴보면 정보주체의 설명을 요구할 권리까지 인정하는 것은 입법자의 의도를 무시한 비약적 해석이라는 주장이 있다.
설명의무의 내용에 관하여서는, GDPR과 제29조 실무그룹(Article 29 Working Party)의 가이드라인이 인공지능의 설명가능성을 전제로 하는 데 반하여 현실적으로 인공지능은 상당부분 설명가능하지 않다는 지적이 다수이다. 인공지능은 설계한 사람조차 설명이 불가능한 것이 많고, 설명이 가능하다고 하더라도 설명을 제공받는 정보주체(즉, 포털 뉴스 이용자)가 과학적 전문성이 부족하여 포털이 제공하는 설명이 투명성을 확보하는 데에 의미가 없다는 주장이다. 정보주체에게 의미가 있는 설명의 내용에 대하여, 인공지능의 간단한 논리에 대한 설명을 제공하는 것이 타당하다는 견해부터, 인공지능으로 인한 특정 결정에 대하여 구체적인 설명을 제공해야 한다는 견해까지 다양한 견해가 제시되고 있다.
인공지능에 대하여 정보주체에게 어느 이상의 설명을 제공하는 것이 현실적으로 곤란하거나 불가능하다면, 제3의 조직 내지는 기구를 활용하여 투명성을 제고하려는 노력을 병행하는 것이 보다 실현가능한 정책이라는 결론이다. -
Paper
알고리듬 매개성과 정치적 양분사회: 기술과 사회심리의 상호작용효과
디지털기술과 민주주의는 밀접한 관계를 가져왔다. 기술의 변화가 시민의 정보습득, 참여방식에 영향을 미치기 때문이다. 인공지능시대에 알고리듬으로 대변되는 새로운 소프트웨어 기술은 정치 및 정보매개자로서 사회의 접착제 역할을 수행하고 있다. 알고리듬은 우리의 일상 현실을 재구성하고 정보생산 및 소비양식을 변화시키고 있다.
알고리듬은 단순한 매개자가 아니라 사회구조와 인간의 인식 등에 광범위한 영향을 미친다 알고리듬은 입력데이터와 모델 등 다양한 요인에 의해 편향을 가질 수 밖에 없다. 알고리즘 편향의 결과는 다양하게 나타난다. 우선, 차별의 문제를 들 수 있다. 알고리듬의 차별은 의도적인 차별적 처우와 결과에 의해 발생하는 차별적 효과로 구분해서 설명할 수 있다. 전자는 설계상의 문제이고, 후자는 학습 데이터에 의한 문제이다. 또한 알고리듬은 사람들의 인지나 판단과정에도 영향을 미친다. 알고리즘이 제시하는 정보의 배열순서만 바꾸어도 정치후보자에 대한 태도가 변화하고, 제공하는 소셜미디어 상의 감정전이가 일어난다. 알고리듬은 전달하는 내용과 관계없이 그 자체로 고유한 효과를 만든다.
알고리듬은 오늘날 우리가 겪고 있는 정치적 갈등, 특히 좌우 이념과 의견대립으로 나타나는 사회의 양극화와 분리할 수 없다. 필터버블과, 에코챔버와 같은 용어로 대변되는 온라인상의 소통단절과 분극화 현상은 알고리즘 효과와 연관이 있다. 필터버블은 이용자의 개인맞춤 알고리듬에 의해 생기는 정보편식현상을 의미하며, 이용자가 제한된 주제의 정보에 갇혀 정보의 다양성과 여론지각의 균형성이 떨어진 상태를 말한다. 필터버블은 같은 정보를 공유하는 유유상종의 정보 및 의견집단을 형성시켜, 사회적 분극화를 부추기는 원인의 하나이다. 유사한 집단 내에서 일어나는 상호작용은 또 다른 심리적 기제인 동조화 효과를 양산하고 그 결과 집단극화가 일어난다.
에코챔버효과는 밀폐된 반향실에서 자신과 같은 목소리가 메아리치고 증폭되는 현상이다. 디지털공간에서 유사한 사람들끼리만 소통하게 되어 점차적으로 편향된 사고가 강화되는 효과를 뜻한다. 네트워크 관점에서 보면 이런 현상을 호모필리 또는 유유상종 효과라고 부를 수 있다. 필터버블과 에코챔버는 사람들의 확증편향을 강화시켜서 허위조작정보(가짜뉴스)를 셍신하고 유통시키는 원인이기도 하다.
알고리듬에 의해 매개되는 편향된 여론지각 환경과 닫힌 커뮤니케이션 구조는 우리 사회를 양분시키고 각각의 집단이 극단의 방향으로 움직이게 한다. 언론과 같은 전통적 정치매개집단의 신뢰와 영향력이 낮은 가운데, 민주주의의 건강성을 확보하기 위한 노력이 필요하다.
알고리듬의 영향으로부터 자율적인 판단능력을 기르기 위해서는 정확한 정보를 판단할 수 있는 판단기준의 제시, 다양한 이견의 교차성, 다른 생각을 인정하는 관용, 대화와 표현능력이 필요하다. 기술을 매개로 연결되는 관계 속에서 시민주의 능력(civic competence) 점점 중요해 지고 있다. 이에 따라 디지털리터시에 많은 관심이 필요하다.
또한 알고리듬이 작동되는 방식을 어떻게 설명하는가에 따라 알고리듬의 결과물을 받아들이는 비판적 능력이 달라진다. 따라서 알고리듬의 설명책임을 어떻게 실행할 것인지를 디지털플랫폼 사업자들이 고민해야 한다