2018년 07월 24일  

ⓒ CIO Korea, Thomas Macaulay | Techworld

 

전세계 법원은 소프트웨어를 사용해 위험을 평가하고 판결에 도움을 받으며 알고리즘을 실험하고 있다. 비평가들은 시스템 투명성이 부족하고 인간의 편견을 증폭시킬 수 있다고 우려하지만 알고리즘이 좀더 공정하고 효율적일 수 있다고 주장하고 있다. 엘리엇 애쉬 교수는 이 주제를 연구 중이며 시스템 개발 방법 계획을 수립했다.
 

Credit: GettyImages



2017년 8월, 미국 오하이오주 클리브랜드의 한 법정에서는 허큘리스 셰퍼드 주니어가 코카인 소지 죄목으로 체포되어 재판을 기다리고 있었다.

이날 사건을 맡은 판사는 판결을 내리는 데 도움을 줄 리스크 평가 소프트웨어를 동반한 채 법정에 등장했다. 이 소프트웨어는 사건 파일을 분석해 기소된 사람의 미래 행동을 예측할 수 있다. 셰퍼드는 저위험군 피고인으로 분류돼 재판 전 석방에 적합하다는 판결을 받았다. 그는 그날 밤 석방되어 다음 날 아침 멀쩡하게 등교할 수 있었다.

미국뿐 아니라 세계 여러 나라의 법정에서 이와 유사한 자동화 의사 결정 시스템의 도움을 받아 판결이 내려지고 있지만, 모든 알고리즘이 다 공정한 판결을 보장하는 것은 아니다.

2016년 프로퍼블리카(ProPublica)의 조사 결과에 따르면 컴퍼스(Compas)라는 이름의 유명 리스크 평가 툴은 백인보다 흑인을 잠재적 범죄자로 잘못 분류할 확률이 2배가량 높았다.

이처럼 법정의 판결에 이용되는 소프트웨어가 결함을 가지고 있다는 사실은 경종을 울리기에 충분하지만, 사실 따지고 보면 인간 판사가 가지고 있는 편견이나 한계에 비할 바는 아닐 것이다.

워릭대학교 경제학 부교수인 엘리엇 애쉬 교수는 인간 판사들이 가지는 충동적 성향과 편향적 관점이 훨씬 더 심각하다고 말했다. 애쉬는 현대 사법 체계의 분석을 통해 다수의 판결에서 발견되는 임의적 성격을 지적했다.

미국의 경우 망명 신청자가 망명을 허가받을 가능성은 그 날 판사가 누구냐에 따라 크게 2배 가까이 차이가 난다. 뉴어크에서는 어떤 판사에게 판결을 받는가에 따라 망명 신청 허용 가능성이 10%에서 90%로 급등할 수도 있다.

작게는 유색 인종만 더 자주 길에서 검문을 당하는 것부터 크게는 더 높은 형량을 받게 되는 것까지, 소수 인종에 대한 차별적인 판결을 보여 주는 사례는 너무 많아 셀 수 없을 정도다.

심지어는 그 날 판사가 아침을 잘 먹었는지 여부가 판결에 영향을 주기도 한다. 이스라엘 법정에서 1,000건가량의 판례를 살펴본 어느 상호 심사 연구 결과에 따르면 판사들은 아침 시간이나 점심 직후에 훨씬 더 너그러운 판결을 내리는 것으로 나타났다.

콜럼비아대학 연구팀 일원인 조너던 리바브는 <가디언(Guardian)지>와의 인터뷰에서 “맨 처음 재판을 받는 3명은 그 날 맨 마지막으로 재판을 받는 3명보다 2~6배가량 석방될 확률이 높았다”고 설명했다.

따라서 알고리즘으로 판사를 대체할 수 있다면 일시적 기분 변화나 개인적 편견, 편향을 완전히 제거한 채 증거만을 기반한 객관적 판결을 내릴 수 있게 될 것이다.
 

애쉬는 소셜 마켓 재단(Social Market Foundation)의 싱크탱크 헤드쿼터 연설에서 “그렇다면 우리는 판사와 배심원, 그리고 EXEcute 파일 중 누구를 믿고 의지해야 할 것인가?”라고 물었다.

자동화된 판결
자동화 판결의 원리는 사실 매우 간단하다. 머신러닝 알고리즘에게 법률과 예전 판례들을 학습시켜 유, 무죄를 가늠할 수 있는 가장 효율적 요인들을 익히게 만드는 것이다.

새로운 사건이 법원에 접수되면 사건의 증거 파일이 기계가 읽을 수 있는 데이터로 변형되고, 시스템은 이를 분석하여 판결을 내리게 된다.

행정상의 목적으로 수집한, 공개 데이터만을 사용해서 판사의 판결 내용을 정확하게 예측하는 것이 가능하다는 결정적이고 확실한 증거도 있다.

애쉬는 미국의 파산 관련 판례 중 67%, 대법원 판례 중 70%, 그리고 평범한 기소 결정의 88%를 정확하게 예측한 연구 결과들을 제시했다.

이 수치들은 완전한 판결 자동화를 주장하기에는 조금 부족할 수도 있다. 하지만 예측을 목적으로 수집한 데이터까지 포함한다면 정확도는 이보다 훨씬 올라갈 것이다. 100%에는 도달하지 못할지 몰라도, 최소한 인간 판사보다는 일관된 판결을 내릴 것이다.

애쉬는 “100%가 아니라 해도 판결이 자동화된다면 적어도 판사가 누구냐에 따라, 혹은 점심을 먹었는지 아닌지에 따라 판결이나 형량이 달라지는 일은 없을 것이다”고 말했다.
 

로봇 사무원
이처럼 자동화는 판결 과정에서 개인적인 편견을 완전히 배제할 수 있다. 그러나 체계적 편향이 확대, 재생산될 우려는 여전히 남아 있다. 프로퍼블리카의 연구 결과에서 알 수 있듯, 이미 리스크 평가 소프트웨어들에는 인종 차별적인 데이터가 반영되어 있다.

애쉬는 “단순히 그 데이터들을 빼버리면 되는 그런 간단한 문제가 아니다. 피고나 원고의 인종이나 사는 곳 주소를 무시하라고 명령한다고 될 일이 아니다. 왜냐하면 그 어떤 변수를 도입하더라도 그것이 결국은 다른 요소들과 연결되기 때문이다. 시스템의 그 어떤 사소한 편견이라도 자동화된 의사결정을 통해 재생산될 가능성이 높다. 자동화 시스템에 인력의 개입이 필요한 중요한 이유가 바로 여기에 있다"고 설명했다.

그 외에도 여러 가지 한계가 존재한다. 자동화 의사 결정 시스템은 일종의 블랙박스와도 같아서 어떻게 그러한 결정에 도달하게 되었는가를 설명해주지 않는다. 또 시스템에 대해 잘 아는 내부자가 알고리즘을 조작하는 것도 가능하다. 혹은, 누군가 자신이 원하는 결과를 내어 줄 가능성이 높은 시스템 모델을 ‘선택’할 가능성도 있다.

그렇다고 시스템을 오픈소스로 전환하면, 판결 내용을 설명하고 예측하는 것이 더 쉬워질 것이다.

애쉬는 “일종의 절충안으로, 증거에 대한 실제 가중치는 배타적으로 유지하되 이러한 매개 변수를 설립하는 데 사용되는 실제 코드는 오픈소스화하는 방안이 있다. 나는 개인적으로 이쪽을 지지하고 싶다”고 밝혔다.

가끔 이례적이거나 특이한 사건의 경우 시스템이 판단을 내리는 데 애를 먹을 수도 있다. 흔하지 않은 상황이나 사례일수록 분석하기가 어렵다. 또 알고리즘은 법이나 도덕적 규범의 변화에 적응하기도 쉽지 않다.

혹은, 판사들이 기술을 지나치게 신뢰하고 의존하여 아예 비판적 사고를 그만둬 버릴 위험도 있다. 이처럼 기계를 전적으로 신임하고 모든 것을 일임하는 순간 사건에 연루된 모든 당사자가 위험해진다. 중국에서는 실제로는 인간 판사가 내린 판결임에도 불구하고 그것을 자동화된 기계가 내린 판결이라고 포장하여 판결 내용에 대한 신뢰를 얻는 일도 왕왕 있다고 애쉬는 말했다.

애쉬는 로봇 사무원이 법률 서비스 자동화에 대한 훌륭한 단기적 대안이 될 수 있다고 보고 있다. 로봇 사무원은 다른 판사들이 비슷한 사건에서 어떤 판결을 내렸는지, 분명한 결과가 나온 판례들에 어떤 패턴이 있는지 등을 빠르고 정확하게 파악하여 알려줄 수 있다. 또 로봇 사무원 스스로 분석에 대한 ‘확신의 정도’를 병기하도록 하여 인간 판사가 로봇 사무원이 제공한 조언을 따를 것인지 판단하도록 할 수도 있을 것이다.

애쉬는 “그런다고 판사가 마음을 바꾸지 않을지도 모르지만, 최소한 한번 더 생각하는 계기는 될 것이다”라고 밝혔다.

AI 판사
“물론 그보다 복잡한 방법도 있다. 법을 이해하고, 적용하며, 법리를 설명하고, 사회적 결과를 개선하기 위한 최적의 사회 정책 개발 과정을 지닌 법률 인공지능이 그것이다”고 애쉬는 덧붙였다.

진정한 의미에서의 인공지능은 인간의 도움 없이도 스스로 학습하고, 판단을 내릴 수 있으며, 무엇보다 인간이 지닌 도덕 관념이나 정책 목표에 구애받지 않을 수 있기 때문에 이러한 ‘인공지능 판사’라는 개념은 로봇 사무원이 지니는 리스크를 극대화 해놓은 어떤 것이 될 수도 있다.

애쉬는 “이 모든 것은 아직 증명된 적 없는 기술들이다. AI 역시 논쟁의 여지는 다분하다. 왜냐하면 우리는 ‘정의’가 인간과 기계를 구분 짓는 중요한 요소라고 믿기 때문이다. 그런데 만약 로봇 판사가 나타나 가치 판단을 내리기 시작한다면, 이는 많은 이들의 신경을 거스를 수도 있는 민감한 문제가 된다. 그러나 언제가 될지는 몰라도, 결국 인공지능 판사는 등장할 것이다. 이미 기술 트렌드가 그쪽으로 향하고 있다”고 이야기했다.

이어서 “현재 우리가 궁금한 것은 행동 지침이다. 민주적이고 비영리적인 오픈소스 솔루션이 필요하며 민간 부문과 공공 부문, 그리고 학계 간의 커뮤니티를 발전시켜 이러한 솔루션을 적절하게 활용할 수 있어야 한다”고 덧붙였다. ciokr@idg.co.kr
 

 

※ 본 내용은 한국IDG(주)(http://www.itworld.co.kr)의 저작권 동의에 의해 공유되고 있습니다.
Copyright ⓒITWORLD. 무단전재 및 재배포 금지


[원문출처 : http://www.ciokorea.com/news/39020]

2018
번호 제목 작성자 조회수 작성
공지 [공개SW 월간브리핑]2018년 GitHub Octoverse를 통해 본 공개SW 프로그래밍 언어 순위 OSS 649 2018-12-04
공지 [공개SW 월간브리핑]대기업 업무의 중심이 되어가고 있는 공개SW 외 OSS 569 2018-09-18
공지 2018년 공개SW 기업 편람 및 솔루션맵 개정판 출간 OSS 937 2018-06-01
공지 공개소프트웨어 연구개발 수행 가이드라인 file OSS 1365 2018-04-26
공지 오픈소스 라이선스 해설 (Version 1.0.0)[개발자, 관리자, OS 전문가 및 기업 실무 지침] file OSS 8588 2017-07-05
공지 공공 공개SW 거버넌스 가이드 발간 file OSS 14596 2017-03-22
공지 U2L(Unix To Linux) FAQ 책자 발간 file OSS 14653 2017-03-15
314 칼럼 | 더 많은 개발자를 채용해야 한다, 그러나··· OSS 143 2018-09-20
313 [칼럼] GPL 라이선스의 이해 file OSS 428 2018-09-19
312 세계 금융사는 어떻게 블록체인을 접목하고 있나 OSS 190 2018-09-03
311 칼럼 | 야망의 크기만큼 오픈소스를 도입하라 OSS 188 2018-08-27
310 [공개SW 월간브리핑]아파치 오픈위스크의 취약점 발견 및 패치 적용 권고 외 file OSS 446 2018-08-10
309 리눅스 재단, 무료 eBook 'Enterprise Open Source : A Practical Introduction' 발표 file OSS 378 2018-08-10
308 [IT 칼럼]사용자가 주도하는 오픈소스 ‘혁신의 습지’ OSS 159 2018-07-31
307 칼럼 | 소프트웨어 보안, '버그 바운티' 만으론 부족하다 file OSS 132 2018-07-27
306 AI가 판결하는 '정의란 무엇인가' OSS 209 2018-07-25
305 [칼럼] 공개SW 라이선스 검증을 효율적으로 활용하기 위한 방안 file OSS 275 2018-07-24
맨 위로
맨 위로