RESEARCH LIST
-
Research
[발표 자료 및 요약보고서] 2020.04.02. 웨비나 “인공지능 시대에 맞는 바람직한 개인정보 거버넌스 실현 방안”
2020년 4월 2일(목)에 진행된 웨비나 “인공지능 시대에 맞는 바람직한 개인정보 거버넌스 실현 방안” 자료 입니다.
-
Research
[자료집] 2020.02.21. 학술행사 “인공지능과 데이터 3법”
2020년 2월 21일(금)에 진행된 “인공지능과 데이터 3법” 학술대회에 대한 자료집 입니다.
-
Paper
데이터거래의 법적 쟁점 및 데이터거래 가이드라인
데이터가 오늘날 가치의 주요원천이라는 점에는 더 이상 의심이 없다. 그런데 데이터는 수집이 어려운 반면 일단 수집되면 공유·재사용은 쉽다는 특성이 있다. 그리하여 데이터의 공유와 재사용을 가능하게 하는 자발적 메커니즘으로서 데이터거래에 관심이 모이고 있다.
데이터거래는 거래대상인 데이터의 법적 성격이 분명하지 아니하여 그 법적 구성에 불확실한 점이 있고, 데이터경제 자체가 부분적으로 기존의 시장과 다른 특성을 보여 추가적인 법적 쟁점이 생길 가능성도 있다. 데이터거래를 둘러싼 법적 위험을 인식하고 거래여부결정과 계약내용형성과정에서 이에 적절히 대응하는 것이 그 활성화에 필수적이다. 데이터소유권(data ownership)을 둘러싼 각국의 논의는 대체로 데이터소유권의 인정에 힘쓰기보다 우선은 표준계약과 가이드라인의 제시를 통하여 데이터거래계약을 지원할 필요가 있다고 한다.
현행법상 데이터거래와 관련하여 우선 구별하여야 할 점은 거래대상이 개인정보인 데이터인지 아니면 개인정보가 아닌 데이터인지이다. 개인정보인 데이터의 경우 거래를 하려면 정보주체의 동의를 받거나 비식별화·익명화를 거쳐야 한다. 주의할 점은 비식별화·익명화를 거친다 하더라도 대개 데이터 수령자로 하여금 계속 기술적·관리적 조치를 취하게 할 필요가 있다는 사실이다. 영업비밀로 관리되어온 데이터는 영업비밀 기타 부정경쟁방지법과 불법행위법에 의하여 보호된다. 그러나 이때에도 그러한 보호를 유지하려면 데이터 수령자로 하여금 비밀로 관리하게 할 필요가 있다. 그밖에 이른바 파생데이터의 귀속에 대하여는 현행법의 규율이 불분명하다. 계약적 규율이 필요한 까닭이다.
데이터거래와 관련하여서는 유럽연합이 제시한 오픈 데이터 접근, 데이터 시장에서의 금전화 및 폐쇄된 플랫폼에서의 데이터 교환의 구분과 일본 경제산업성 가이드라인이 제시한 데이터제공형, 데이터창출형 및 데이터공용형계약의 구분이 참고가 된다. 두 구분은 상당부분 중첩되는데, 그중 각각의 마지막인 플랫폼형은 플랫폼규약의 설계라는 점에서 개별적인 B2B계약과 구별된다. 이 보고서에서는 우선 개별적인 B2B계약 유형에 집중하였다.
데이터거래, 데이터계약에서 먼저 고려할 점은 데이터의 처분권한 유무와 데이터공유의 경쟁에 대한 영향 및 경쟁법상의 제한이다. 데이터공유는 종종 제공자의 경쟁상 우위를 손상시킬 수 있다. 그러나 다른 한편 필수적 데이터의 제공거부는 경쟁법 위반이 되거나 적어도 비난의 대상이 될 수 있다. 다음 고려할 점은 데이터의 경제적 가치 평가인데 아직까지는 난점(難點)이 많다. 창출된 가치에 참여하는 모델을 함께 고려할 필요가 있다. 데이터계약의 유형으로는 양도와 이용허락이 대표적인데, 전자에는 매매법을, 후자에는 제공자의 동시이용여부에 따라 임대차법이나 지식재산권이용허락의 법리를 적용할 수 있다. 데이터창출형은 도급이다. 특히 데이터양도의 경우 실제로는 데이터삭제를 확인할 절차를 규율할 필요가 있다. 그밖에 데이터거래에서는 포맷과 제공방법, 데이터보안을 위한 사전·사후조치와 협력, 데이터에 관한 지식재산권 등 제3자 권리에 관한 담보책임과 이용허락의 범위 특정, 데이터 수령자 측의 이용권한의 객관적·주관적 범위 한정, 개인정보인 데이터의 경우 개인정보 보호법상의 제공 요건의 충족 및 철회를 대비한 보완조치에 관하여 정하여야 한다. 가명화된 데이터의 사용과 데이터 결합의 경우 개인정보 보호법상의 요건 충족 여부를 신중히 검토하여야 한다.
데이터거래, 특히 개인정보이거나 개인정보에서 유래한 데이터의 거래는, 법적 요건이 아니라 하더라도, 투명성과 가치공유에 대한 배려가 필요하다는 점을 염두에 둘 필요가 있다 -
Paper
플랫폼과 민주주의 : 중립성에 대한 오해와 진실
통신망 사업자에 대한 특수한 규제 논리로 출발한 중립성(neutrality) 논의는 시장 환경의 변화에 맞춰 망중립성에서 검색중립성으로, 그리고 최근에는 대규모 플랫폼 일반에 대한 중립성의 요구로 진화해오고 있다. 그 과정에서 경쟁법은 중립성을 관철하기 위한 규제 도구 중 하나로 동원되거나 거론되어 왔다. 그런데, 검색중립성의 경우에서 보듯 관련 산업 또는 시장의 특성에 따라 때로는 중립성의 요구가 경쟁을 오히려 제약하거나 심지어 그와 충돌할 수도 있다. 따라서 경쟁법을 중립성 규제의 도구로 활용하기에 앞서 경쟁의 보호라는 법의 목적이 저해하지 않도록 주의할 필요가 있다.
그렇다고 하여 중립성의 요구가 경쟁법과 전혀 무관하거나 그에 완전히 배치되는 것은 아니다. 경쟁법은 사업자가 필수설비에 해당하는 자신의 자산에 대한 접근을 허용함에 있어 거래상대방이 자신과 경쟁한다는 이유로 다른 거래상대방과 비교하여 부당하게 차별하는 것을 금지한다. 이러한 범위 내에서는 경쟁법의 적용이 플랫폼의 중립성을 달성하는 데 기여할 수 있을 것이다. 다만, 이 경우에도 문제되고 있는 플랫폼이 필수설비에 실제로 해당하는지, 그리고 차별적 행위로 인한 반경쟁적 효과가 주장되어지는 친경쟁적 효과를 상회하는지를 신중하게 검토해야 한다. 특히 플랫폼 사업자가 거래상대방 중 한 쪽을 차별하는 경우와 사업자 자신을 제3자와 비교하여 우대(차별)하는 경우를 구별하여 사회적으로 유용한 서비스나 자산에 대한 초기투자 유인이 과도하게 제약되지 않도록 유의해야 할 것이다.
한편 경쟁법과 별개로 중립성 규제를 고려하는 경우에도 플랫폼 사업자에게 부과하는 의무와 사업자의 책임 문제가 조화롭게 접근되도록 노력해야 할 것이며, 플랫폼에 대한 중립성 규제가 민주주의의 실현에 기여할 수 있는 범위와 내재적 한계를 명확히 인식하여 합리적인 규제 정책을 펼쳐야 할 것이다 -
Paper
알고리듬의 투명성과 설명가능성: GDPR을 중심으로
민주주의의 발전을 위해서는 언론의 안정적 운영이 중요한 의미를 가진다. 우리나라에서는 포털을 이용하여 뉴스를 접하는 인구의 비율이 월등히 높기 때문에 포털이 언론으로서 비중있는 역할을 수행한다. 따라서 포털이 사회적 신뢰를 기반으로 안정적으로 언론의 역할을 수행하는 것이 중요한데, 현재 우리 사회에서 포털에 대한 신뢰도는 다른 언론에 비해 상당히 낮은 편이다. 게다가 최근 포털들은 인공지능이라는 새로운 ‘편집자’를 맞이하였다. 포털의 인공지능은 기사의 추천, 배열 등 포털이 다양한 소스로부터 취합한 뉴스를 제공하는 방식을 결정한다. 인공지능은 정확성이 매우 높고 뉴스 이용자의 정보검색의 효율성을 배가시킬 수 있다는 장점이 있다. 하지만 딥러닝 등 복잡한 알고리듬으로 구성된 인공지능은 일종의 블랙박스(black box)로서 그 작동기제에 대한 불투명성이 사회적 신뢰를 얻는 데에 부정적인 영향을 가져올 수 있다. 따라서 포털이 사용하는 인공지능에 대한 신뢰를 확보하는 것은 언론의 안정성을 위하여, 나아가서는 민주주의의 발전을 위하여 사회적으로 중요한 과제이다.
인공지능에 대한 사회적 신뢰를 확보하기 위한 방안으로 인공지능의 투명성을 확보하는 것이 주로 논의되고 있다. 그런데 투명성을 제고하는 방법은 정보주체인 개인, 즉 포털 뉴스 이용자에게 인공지능에 대하여 설명을 하는 방법과 정보주체가 아닌 제3의 조직 내지는 기구가 인공지능의 작동을 관리감독을 하는 방법이 있다. 이 글에서는 둘 중 전자에 초점을 두어 인공지능에 대한 설명이 과연 투명성을 제고하여 인공지능에 대한 사회적 신뢰를 얻는 데에 기여할 수 있을지를 살펴보도록 한다.
이에 관한 논의는 2018년에 발효한 유럽연합의 일반정보보호규정(General Data Protection Regulation, 이하 ‘GDPR’)을 중심으로 활발하게 이루어지고 있다. GDPR 제13조, 제14조, 제15조는 프로파일링을 포함한 자동화된 의사결정에 대하여 컨트롤러로 하여금 정보주체에게 ‘관련된 논리에 관하여 의미있는 정보’를 제공하도록 한다. 이 규정들과 전문(Recital)의 내용을 둘러싸고, 과연 GDPR이 컨트롤러에게 설명의무를 부과한 것인지 아니면 정보주체에게 설명을 요구할 권리를 인정한 것인지에 관한 논의가 분분하다. 또한 컨트롤러의 설명의무의 내용이 무엇인지에 관한 논의도 활발하다.
우선, GDPR이 컨트롤러(미디어의 맥락에서는 포털)의 설명의무를 규정한 것인지 정보주체(미디어의 맥락에서는 뉴스 이용자)의 설명을 요구할 권리(right to explanation)를 규정한 것인지에 대하여는 전문의 효력을 어떻게 보느냐에 따라 견해가 나뉘는 것이 보통이다. 본문의 규정들은 컨트롤러의 의무를 규정한 데에 반하여 전문은 정보주체에게 설명을 요구할 권리가 있다고 규정을 하였기 때문이다. 전문은 형식적으로는 법적 구속력을 가지지 않지만 유럽사법재판소는 법적 구속력을 가지는 것과 다르지 않다고 판결하였고 이와 유사한 견해를 가지는 학자들이 상당수이다. 따라서 전문에서 정한 바와 같이 설명을 요구할 권리를 가진다고 보는 견해가 있는 반면, 전문은 법적 효력이 없으며 GDPR의 입법 과정을 살펴보면 정보주체의 설명을 요구할 권리까지 인정하는 것은 입법자의 의도를 무시한 비약적 해석이라는 주장이 있다.
설명의무의 내용에 관하여서는, GDPR과 제29조 실무그룹(Article 29 Working Party)의 가이드라인이 인공지능의 설명가능성을 전제로 하는 데 반하여 현실적으로 인공지능은 상당부분 설명가능하지 않다는 지적이 다수이다. 인공지능은 설계한 사람조차 설명이 불가능한 것이 많고, 설명이 가능하다고 하더라도 설명을 제공받는 정보주체(즉, 포털 뉴스 이용자)가 과학적 전문성이 부족하여 포털이 제공하는 설명이 투명성을 확보하는 데에 의미가 없다는 주장이다. 정보주체에게 의미가 있는 설명의 내용에 대하여, 인공지능의 간단한 논리에 대한 설명을 제공하는 것이 타당하다는 견해부터, 인공지능으로 인한 특정 결정에 대하여 구체적인 설명을 제공해야 한다는 견해까지 다양한 견해가 제시되고 있다.
인공지능에 대하여 정보주체에게 어느 이상의 설명을 제공하는 것이 현실적으로 곤란하거나 불가능하다면, 제3의 조직 내지는 기구를 활용하여 투명성을 제고하려는 노력을 병행하는 것이 보다 실현가능한 정책이라는 결론이다. -
Paper
알고리듬 매개성과 정치적 양분사회: 기술과 사회심리의 상호작용효과
디지털기술과 민주주의는 밀접한 관계를 가져왔다. 기술의 변화가 시민의 정보습득, 참여방식에 영향을 미치기 때문이다. 인공지능시대에 알고리듬으로 대변되는 새로운 소프트웨어 기술은 정치 및 정보매개자로서 사회의 접착제 역할을 수행하고 있다. 알고리듬은 우리의 일상 현실을 재구성하고 정보생산 및 소비양식을 변화시키고 있다.
알고리듬은 단순한 매개자가 아니라 사회구조와 인간의 인식 등에 광범위한 영향을 미친다 알고리듬은 입력데이터와 모델 등 다양한 요인에 의해 편향을 가질 수 밖에 없다. 알고리즘 편향의 결과는 다양하게 나타난다. 우선, 차별의 문제를 들 수 있다. 알고리듬의 차별은 의도적인 차별적 처우와 결과에 의해 발생하는 차별적 효과로 구분해서 설명할 수 있다. 전자는 설계상의 문제이고, 후자는 학습 데이터에 의한 문제이다. 또한 알고리듬은 사람들의 인지나 판단과정에도 영향을 미친다. 알고리즘이 제시하는 정보의 배열순서만 바꾸어도 정치후보자에 대한 태도가 변화하고, 제공하는 소셜미디어 상의 감정전이가 일어난다. 알고리듬은 전달하는 내용과 관계없이 그 자체로 고유한 효과를 만든다.
알고리듬은 오늘날 우리가 겪고 있는 정치적 갈등, 특히 좌우 이념과 의견대립으로 나타나는 사회의 양극화와 분리할 수 없다. 필터버블과, 에코챔버와 같은 용어로 대변되는 온라인상의 소통단절과 분극화 현상은 알고리즘 효과와 연관이 있다. 필터버블은 이용자의 개인맞춤 알고리듬에 의해 생기는 정보편식현상을 의미하며, 이용자가 제한된 주제의 정보에 갇혀 정보의 다양성과 여론지각의 균형성이 떨어진 상태를 말한다. 필터버블은 같은 정보를 공유하는 유유상종의 정보 및 의견집단을 형성시켜, 사회적 분극화를 부추기는 원인의 하나이다. 유사한 집단 내에서 일어나는 상호작용은 또 다른 심리적 기제인 동조화 효과를 양산하고 그 결과 집단극화가 일어난다.
에코챔버효과는 밀폐된 반향실에서 자신과 같은 목소리가 메아리치고 증폭되는 현상이다. 디지털공간에서 유사한 사람들끼리만 소통하게 되어 점차적으로 편향된 사고가 강화되는 효과를 뜻한다. 네트워크 관점에서 보면 이런 현상을 호모필리 또는 유유상종 효과라고 부를 수 있다. 필터버블과 에코챔버는 사람들의 확증편향을 강화시켜서 허위조작정보(가짜뉴스)를 셍신하고 유통시키는 원인이기도 하다.
알고리듬에 의해 매개되는 편향된 여론지각 환경과 닫힌 커뮤니케이션 구조는 우리 사회를 양분시키고 각각의 집단이 극단의 방향으로 움직이게 한다. 언론과 같은 전통적 정치매개집단의 신뢰와 영향력이 낮은 가운데, 민주주의의 건강성을 확보하기 위한 노력이 필요하다.
알고리듬의 영향으로부터 자율적인 판단능력을 기르기 위해서는 정확한 정보를 판단할 수 있는 판단기준의 제시, 다양한 이견의 교차성, 다른 생각을 인정하는 관용, 대화와 표현능력이 필요하다. 기술을 매개로 연결되는 관계 속에서 시민주의 능력(civic competence) 점점 중요해 지고 있다. 이에 따라 디지털리터시에 많은 관심이 필요하다.
또한 알고리듬이 작동되는 방식을 어떻게 설명하는가에 따라 알고리듬의 결과물을 받아들이는 비판적 능력이 달라진다. 따라서 알고리듬의 설명책임을 어떻게 실행할 것인지를 디지털플랫폼 사업자들이 고민해야 한다 -
Paper
민주주의는 위협받고 있는가?: 알고리듬, 프로파일링 시대의 명암
알고리듬, 특히 이용자에 대한 프로파일링에 기초한 서비스가 우리의 생활을 여러 측면에서 편리하게 해주고 있다. 하지만, 이 과정에서 부작용이 나타나고 있다는 비판이 동시에 제기되고 있다. 그 중 가장 근본적인 비판 하나는 알고리듬의 일상화를 통해 민주주의에 대한 위협이 발생한다는 비판이다. 알고리듬은 컴퓨터가 문제를 해결하는 일련의 절차를 의미한다. 프로파일링에 관하여는 다양한 정의가 있지만, 핵심적인 것은 다양한 정보를 분석하여 개인에 관한 정보를 추론해낸다는 것이다. 즉, 프로파일링은 다양한 출처에서 직접 수집하거나 관찰, 추론한 정보를 통계학적 방법론이나 빅데이터 방법론을 통해 분석하여 종국적으로 개인에 관한 정보를 추론하는 과정이라 할 수 있다.
알고리듬과 프로파일링은 이미 널리 활용되고 있다. 마케팅이나 홍보 영역은 특히 프로파일링이 핵심적인 역할을 할 수 있는 영역으로, 알고리듬과 프로파일링은 맞춤형 인터넷 광고를 통해 인터넷 생태계를 유지하는 데 핵심적인 역할을 하고 있다. 그 밖에도 컨텐츠를 추천하거나, 검색 서비스를 제공할 때, 고용이나 노무에 관한 의사결정을 할 때, 금융에 관계된 결정을 내릴 때, 공공 영역의 정책을 결정, 집행하거나 범죄를 수사할 때 등 매우 다양한 영역에서 알고리듬과 프로파일링이 활용될 수 있다.
특히, 미디어의 영역에서 알고리듬과 프로파일링의 활용은 미디어 환경에 커다란 변화를 가져오고 있다. 인쇄매체의 수요는 줄면서 온라인을 통한 정보의 제공이 중심축으로 이동하게 되었고, 온라인 플랫폼 사업자의 영향력이 점점 더 강화되고 있다. 양면 시장의 성격을 가지는 인터넷에서의 광고 시장은 복잡하게 분화하였다. 이러한 미디어 환경에서 알고리듬이 그 불투명성, 불공정성, 에코 체임버 효과 등으로 인하여 민주주의를 위협한다는 주장이 제기되고 있다. 그러한 주장과 우려에도 불구하고, 현재로는 알고리듬의 이용이 가져오는 민주주의적 의사결정에 대한 위협이 얼마나 구체적이고 현실적인 것인지에 관해 실증적인 검증이 충분히 이루어진 것으로 보기는 어렵다.
다른 한편, 알고리듬이 어떠한 문제를 야기하는지에 대하여 충분한 논의가 이루어지고, 이에 대한 검증이나 확신이 가능하다고 하더라도, 그에 대한 적절한 규율을 마련하는 것은 간단한 일이 아니다. 알고리듬을 규율하기 위한 기초적인 규범적 개념이나 누구에게 어떠한 권리나 의무를 인정해야 할 것인지 등의 문제들은 하나하나가 쉽게 결정할 수 있는 문제가 아니기 때문이다. 이에 관하여 매우 상세하고 치밀한 분석과 사회적인 논의가 선행되어야 한다. -
Paper
미디어 알고리듬과 민주주의
2019년 11월, 서울대 인공지능정책 이니셔티브의 두번째 이슈페이퍼가 나왔습니다.
-
Paper
인공지능과 시장경쟁: 데이터에 대한 규율을 중심으로
최근 들어 커다란 기술적 발전을 보이고 있는 인공지능, 특히 머신러닝 인공지능 기술은, 유용한 훈련용 데이터의 존재를 전제로 한다는 중요한 특징을 지니고 있다. 유용한 데이터가 존재하는지 그리 고 이를 이용할 수 있는지 여부에 따라, 기술의 발전은 물론 시장경쟁의 구도가 크게 달라질 수 있다. 따라서 인공지능과 관련된 시장경쟁의 양태는 기술의 발전으로부터 영향을 받는 문제일 뿐만 아니라, 개인정보 및 데이터에 관한 규율과도 매우 밀접한 관련이 있다. 또한 데이터 및 이를 기반으로 하여 개발된 인공지능은 차별이나 공정성 등과 관련된 새로운 사회적 과제를 제기하기도 한다. 인공지능과 관련된 맥락에서 새로이 제기될 수 있는 차별이나 공정성 이슈 또한 데이터와 관련이 매우 높은 것이 다. 인공지능 기술이 시장경쟁을 포함하여 사회 및 경제에 어떤 구체적인 영향을 미칠지에 관하여는 다양한 가능성이 언급되고 있는 상황이다. 효과적인 인공지능 정책의 수립을 위해서는 데이터 정책과 의 연관성을 매우 면밀하게 고려할 필요가 있다.
-
Report
“보건의료 빅데이터의 보호 및 활용을 위한 법적 기반 강화 연구” 보고서 발간 (2019)
보건의료정보는 일반적인 개인정보와는 차별화되는 독특한 특징을 가지고 있습니다. 또한 의료제도 및 건강보험제도 등이 보이는 특징을 반영하여 보건의료정보가 생성되고 전달되는 방식에 있어서도 별도의 체계가 존재합니다. 이 연구를 통해 보건의료정보 관련 법제도 정리 및 국내외 입법사례에 대한 조사·연구를 수행했고, 보건의료정보 보호 및 활용을 위한 거버넌스 구축·운영방안을 모색하여 정리하였습니다.
-
Paper
윤리적 인공지능의 실현과 과제
본고는 인공지능 시대에 우리나라가 앞으로 어떠한 형태의 윤리규범 체계를 갖추어야 하는가라는 문제의식에 대한 실마리를 제공하는 것을 목적으로 하는 글이다. 아시모프 ‘로봇 3원칙’ 이래로, 인공지능 윤리규범 이슈는, 첫째, 논의의 주체가 설계자, 제작자, 이용자와 같이 배후에 위치한 인간에게로 확장되었고, 둘째, 책임귀속에 관련된 과거의 대전제가 오늘날에는 통용되지 않게 된 경우가 많아졌으며, 셋째, 인공지능에 대한 대중의 알 권리와 이해관계자의 주체적 참여에 대한 요구가 늘어나면서 책임성(accountability)에 대한 관념이 확장되고 있고, 넷째, 일률적인 규정을 기계적으로 적용하는 방식의 한계가 지적되고 그 대신 인공지능이 활용되는 구체적 맥락(context) 위주의 접근법에 대한 필요성이 강조되는 방향으로 논의가 이루어지고 있다.
인공지능의 윤리적 측면에 관한 국내외의 논의는 최근 2년여의 기간 동안 급속도로 진전이 이루어졌다. 그동안 해외에서 제시된 윤리규범은 대체적으로는, ① 기본원칙을 중심으로 하는 윤리규범 유형, ② 기본원칙에 더하여 주요 이슈에 대해 상세하게 함께 다룬 윤리규범 및 보고서 유형, ③ 윤리규범의 정립방안에 대한 구체적 방법론을 함께 언급한 유형으로 구분지어 파악할 수 있다. 기본원칙 중심의 윤리규범은 OECD 권고안, 일본 총무성 가이드라인, 아실로마 원칙, 그리고 그 이외에 마이크로소프트, 구글과 같은 사기업에서 발표한 규범 등을 들 수 있다. 기본원칙 중심의 윤리규범은 다양한 참여자들의 다양한 관점 및 상이한 이해관계를 종합하기에 용이한 방식인 한편, 추가적인 후속 규범이 마련되지 않으면 규범력이 상대적으로 낮을 가능성이 있다. 다음으로, 기본원칙과 주요 이슈를 함께 다룬 윤리규범 유형으로는 IEEE 보고서, 영국 상원 보고서, 그리고 UNGP & IAPP의 보고서를 들 수 있다. 구체적 논의에 대한 세부사항까지도 포함하는 셋째 유형으로는 유럽의회 결의안, EU 집행위원회 고위급 전문가 그룹의 가이드라인 등을 들 수 있다. 이러한 윤리규범 중에는, 원칙에 대한 선언 그 자체로 의미를 가지는 것도 있고, 후속 작업과 모니터링의 과정을 통해 더 구체화하고 규범력을 확보할 수 있는 장치가 마련된 것도 있다. -
Paper
인공지능과 고용시장의 변화
초기의 인공지능(AI)는 소프트웨어가 작업을 수행하는데 필요한 규칙을 시스템화하는 것으로 시작되었으나, 빅데이터의 등장과 컴퓨팅 능력의 증가로 인간이 사전적으로 정한 규칙에 메이지 않고 정확도가 높은 알고리즘을 체득하는 방향으로 발전해왔다(OECD, 2018). 경제학계의 많은 연구에서는 AI를 생산활동에서 인간의 개입이 필요하지 않거나, 적게 필요로 하는 자동화(automation)를 가능하게 하는 방법 중 하나로 간주한다. 경제학 이론적으로 자동화의 도입은 기존의 인력의 대체하는 효과를 유발하는 동시에, 기술과 보완적인 관계에 있는 인력에 대한 수요를 늘리는 효과 또한 가지고 있다. 일부 실증 경제 분석에 따르면, 자동화와 보완적 관계에 있는 경우 일자리 증가뿐만 아니라 종사자들의 생산성, 임금 상승 등에도 긍정적인 효과를 가진다고 보고되고 있다(Autor, 2003). 따라서 AI가 일자리에 미치는 영향은 AI 기술이 어떠한 직업을 대체할 것인지 그리고 AI 기술 확대로 인해 어떠한 직종이 더 필요하게 될지 두 가지 측면에서 고려할 필요가 있다. 하지만 후자의 경우 객관적인 예측(prediction)이 어려운 이유로 관련 연구가 상대적으로 드물게 보고되고 있다. 따라서 본 보고서에서는 전자의 문제를 중심으로 연구방법론과 주요 결과를 소개하고자 한다.