본문 바로가기
도서

[무자비한 알고리즘] 인공지능에 윤리가 필요한 이유

by 스파클 캔버스 2024. 2. 2.

 

저자 : 카타리나 츠바이크
번역 : 유영미

 

 

줄거리

이 책은 인공지능 알고리즘이 우리의 삶에 미치는 영향과 그것이 어떻게 우리의 선택을 조작하는지에 대해 탐구한다. 저자는 인공지능 알고리즘이 우리의 편견과 차별을 증폭시키고 민주주의를 위협할 수 있다고 경고한다. 책의 내용은 세 부분으로 구성되어 있는데, 첫 번째 부분에서는 인공지능 알고리즘의 작동 방식을 설명한다. 데이터를 수집하고 분석하여 예측을 내리는 과정을 설명하며, 이 과정에서 인간의 개입이 필요하다는 것을 강조한다. 두 번째 부분에서는 인공지능 알고리즘이 우리의 삶에 미치는 영향을 살펴본다. 우리의 선택을 조작하고, 우리의 편견과 차별을 강화할 수 있다는 것을 주장한다. 예를 들어, 인공지능 알고리즘이 추천하는 영화나 음악이 우리의 취향을 반영하는 것이 아니라, 알고리즘이 우리를 특정한 방향으로 유도하는 것일 수 있다는 것이다. 세 번째 부분에서는 인공지능 알고리즘이 민주주의에 미치는 위협을 다룬다. 선거 결과를 조작하거나, 정치적 의견을 왜곡할 수 있다는 것을 주장한다. 저자는 우리가 인공지능 알고리즘을 깊이 이해하고, 어떻게 이를 활용하고 규제할 수 있는지에 대해 고민한다. 동시에 인공지능 알고리즘이 우리의 삶에 미치는 영향을 인식하고, 그에 대한 책임을 져야 한다고 말한다. 인공지능 기술이 발전함에 따라, 사람은 더욱 인공지능 알고리즘에 의존하게 될 것이기 때문에 알고리즘을 적극적으로 활용하면서도, 그 한계와 위험을 인식하고 그에 대처해야 한다는 것을 강조한다.

 

 

책을 읽고..

인간이 인공지능에 깊이 관여하지 않고 '감독'하는 세상이 온다는 것과, 인공지능별로 감독의 필요 여부를 측정하는 툴이 필요해질 것이라는 생각해보지 못했던 이슈라 흥미롭다.

저자는 인공지능이 데이터로부터 ‘진실’을 추론해내는 방식이라고 정의하는데 아직까지는 왜곡된 데이터로부터 biased 된 결과를 낳는 경우가 많다보니 동의할 수 없다. 2015년에 구글 포토(Google Photos)의 이미지 인식 AI 가 흑인을 고릴라로 판단한 사건에 대해 들은 적이 있다. 이 사건은 인공지능이 학습하는 데이터에는 인간의 편견과 차별이 반영될 수 있다는 것을 보여준다.

그리고 인간에 관련된 결정을 어디까지 인공지능에게 맡길 것인지에 대한 기준이 필요하다고 이야기 하는데, 인공지능이 고도화됨에 따라 유동적으로 기준치를 조정하는 것이 가장 바람직할 것으로 보인다. 저자는 ”역으로 인간의 느낌이 필요할 때는 알고리즘이 무능해진다.“ 라고 말하는데, 미래에 완벽하게 학습된 인공지능이 무언가를 결정할 때 인간의 감을 필요로 할 일이 있을지 궁금하다.

책을 읽으면서 몇가지 의문이 생겼다: 인공지능이 ’완벽‘해진다는 것은 어떤 것을 뜻하는걸까? 인간의 감정을 이해할정도로 초지능을 가지는 것이 과연 완벽한 인공지능일까? 감정을 이해하게 된다면 논리에 근거한 판단을 하기 어려워질까?

이 책을 읽고 나서, 개인적으로 알고리즘은 ‘영혼없는 결정’을 하는 도구로만 쓰이는 것이 낫겠다는 결론을 내렸다.