AI는 차별을 인간에게서 배운다(고학수)
※ 구매자료 중 한글표준문서(*.hwpx)로 작성된 파일을 경우, 2018 이상 버전에서 확인해 주시기 바랍니다.
1. 서론 – 중립적 기술이라는 환상
인공지능(AI)은 종종 객관적이고 중립적인 기술로 묘사된다. 인간의 감정이나 편견에서 벗어나 오직 데이터와 알고리즘에 따라 판단하기 때문에 더 공정한 결정을 내릴 수 있을 것이라는 기대가 존재한다. 그러나 고학수 작가의 『AI는 차별을 인간에게서 배운다』는 이러한 기대가 얼마나 위험한 환상인지 조목조목 드러낸다. 이 책은 AI가 인간 사회의 차별을 그대로 학습하고 증폭시킬 수 있음을 보여주며, 기술이 결코 가치 중립적일 수 없다는 사실을 강조한다.
이 책을 읽기 전 나는 AI의 차별 문제가 주로 기술적 오류나 미완성 때문이라고 생각했다. 그러나 고학수 작가는 문제의 핵심이 기술 그 자체가 아니라, **AI를 만들고 사용하는 인간 사회의 구조**에 있음을 분명히 한다. 이 책은 AI를 통해 차별을 이해하는 동시에, 인간 사회의 차별을 다시 바라보게 만드는 거울과 같은 역할을 한다.
2. AI는 어떻게 학습하는가
『AI는 차별을 인간에게서 배운다』는 AI의 작동 원리를 비교적 쉽게 설명하며 논의를 시작한다. AI는 스스로 생각하거나 판단하지 않는다. AI는 인간이 제공한 데이터와 목표, 평가 기준을 바탕으로 패턴을 학습한다. 즉, AI의 판단은 과거의 데이터와 인간이 설정한 규칙의 결과물이다.
이 과정에서 중요한 점은 데이터가 결코 중립적이지 않다는 사실이다. 데이터는 이미 사회의 역사, 권력 관계, 차별 구조를 반영하고 있다. 만약 과거의 고용 기록, 범죄 기록, 대출 심사 결과에 차별이 포함되어 있다면, AI는 이를 ‘현실의 규칙’로 학습하게 된다. 나는 이 설명을 통해 AI의 차별이 갑작스럽게 발생하는 문제가 아니라, 이미 존재하던 차별의 연장선이라는 점을 명확히 이해하게 되었다.
3. 차별은 데이터 속에 숨어 있다
고학수 작가는 AI 차별의 핵심 원인으로 **편향된 데이터**를 지목한다. 데이터는 수집되는 과정부터 선택적이며, 어떤 데이터를 포함하고 어떤 데이터를 배제할 것인지는 인간의 판단에 따라 결정된다. 이 과정에서 사회적 약자, 소수자, 비주류 집단은 종종 데이터에서 제대로 대표되지 못하거나, 부정적인 방식으로만 기록된다.
책에서는 채용 AI, 범죄 예측 시스템, 신용 평가 알고리즘 등 다양한 사례를 통해 데이터 기반 차별이 어떻게 작동하는지를 보여준다. 특히 AI가 ‘효율성’을 기준으로 판단할수록, 기존의 불평등 구조를 그대로 강화한다는 점이 인상 깊었다. 나는 이 부분을 읽으며 숫자와 통계가 결코 공정함을 보장하지 않는다는 사실을 다시 한 번 실감했다.
4. 알고리즘은 책임을 질 수 있는가
『AI는 차별을 인간에게서 배운다』는 기술적 문제를 넘어 법적·윤리적 질문으로 나아간다. 만약 AI가 차별적인 결정을 내렸다면, 그 책임은 누구에게 있는가? 개발자, 기업, 사용자, 아니면 알고리즘 자체인가?
고학수 작가는 AI가 책임의 주체가 될 수 없다고 분명히 말한다. AI는 도구이며, 책임은 항상 인간에게 귀속되어야 한다. 그러나 현실에서는 알고리즘의 복잡성과 불투명성이 책임 회피의 수단으로 작동하는 경우가 많다. 나는 이 논의를 통해 기술이 오히려 책임을 흐리는 장치가 될 수 있다는 점에 깊은 문제의식을 느꼈다.
5. 자동화된 결정과 인간의 존엄
책에서 특히 인상 깊었던 부분은 **자동화된 결정이 인간의 존엄에 미치는 영향**에 대한 논의였다. AI는 빠르고 효율적인 결정을 가능하게 하지만, 동시에 인간을 데이터의 집합으로 환원한다. 개인의 맥락과 서사는 사라지고, 점수와 확률만이 남는다.

분야