법률 분야에서 인공지능의 활용가능성에 대한 관심이 높아지면서, 법원의 판례를 통한 예측 모형(prediction model)의 구축 등 새로운 가능성을 모색하고자 하는 흐름이 나타나고 있습니다. 이를 위한 기반을 마련하기 위하여, 몇몇 영역을 선별하여 파일럿 프로그램 운용을 위한 DB 구축 작업을 진행하고 있습니다.
‘데이터 3법’의 통과와 함께 개인정보의 가명처리를 포함한 비식별 처리에 대한 관심이 크게 늘고 있습니다. 데이터의 가명처리는 실무적인 관점에서는 매우 다양한 기술적, 절차적 과제를 제시하고 있습니다. 예를 들어, 데이터베이스에 대해 가명처리를 할 경우에 정확히 어떤 부분에 대해 가명처리를 할 것인지, 해시 등 어떤 기법을 이용할 것인지, ‘신뢰할 수 있는 제3자(Trusted Third Party)’의 요건과 역할은 어떤 것인지 등 다양한 구체적인 쟁점들에 대해 정리하고 해답을 모색하는 작업을 하고 있습니다. 또한, 가명처리된 정보에 대해 활용이 허용되는 ‘과학적 연구’ 또는 ‘연구’의 개념은 무엇을 의미하는지에 대해서도 정리하고 있습니다.
알고리듬을 활용한 의사결정이 시장경쟁에 어떤 영향을 미치는지에 대해서는 다양한 시각이 존재합니다. 기존의 경쟁법 관점에서 알고리듬을 어떻게 바라볼 것인지는 경쟁법에 새로운 도전과제를 제시합니다. 이에 관해 체계화하고 정리하는 작업입니다.
인공지능에 의한 판단이 공정하지 못한 것일 수 있고 이로 인해 사회적 차별을 불러올 수도 있다는 문제의식이 늘어나고 있습니다. ‘공정한 알고리듬(algorithmic fairness)’은 인공지능 연구에 있어 규범적 차원은 물론 공학적 시각에서도 중대한 화두로 등장하고 있습니다. 그와 동시에 국제기구, 정부기관, 기업 등 여러 조직에서 인공지능에 관한 윤리규범이나 가이드라인 유형의 문서들이 지속적으로 발표되고 있습니다. 이를 체계화하여 정리하고, 국내 현실과 법제도를 고려한 과제를 추출하는 작업을 하고 있습니다.
인터넷 환경에서 이용자에 관한 데이터를 수집하는 대표적인 방법인 트래킹 및 이를 분석하는 프로파일링이 어떻게 이루어지고 있는지에 관해 실증적으로 파악하는 연구입니다. 특히 모바일 기기 “앱”을 통해 어떠한 정보가 수집되고 있는지에 관하여 파악하고, 관련된 법제도적 과제를 모색하고자 합니다.
인공지능을 이용한 의사결정이 사회 여러 영역에서 확대되고 있는 상황에서, 블랙박스(black-box)로 불리는 인공지능 의사결정의 불투명성이 인공지능에 대한 기본적인 신뢰의 구축을 저해한다는 주장이 대두되고 있습니다. 이 연구를 통해, 설명가능성(explainability) 및 해석가능성(interpretability) 개념을 둘러싼 기술적, 법제도적 논의의 현황을 정리하고, 향후의 과제를 살펴보는 작업을 하고 있습니다.
사법 시스템에서의 인공지능 활용에 관한 국내외의 논의 및 연구들을 포괄적으로 조사하고, 인공지능 활용에 수반하는 법적 그리고 윤리적 문제점들을 다양한 관점에서 분석함으로써 사법부에서의 인공지능 도입 가능성 및 그에 따른 관련 사안들을 검토, 분석하는 연구입니다.