AI는 차별을 인간에게서 배운다(고학수)

 1  AI는 차별을 인간에게서 배운다(고학수)-1
 2  AI는 차별을 인간에게서 배운다(고학수)-2
 3  AI는 차별을 인간에게서 배운다(고학수)-3
※ 미리보기 이미지는 최대 20페이지까지만 지원합니다.
  • 분야
  • 등록일
  • 페이지/형식
  • 구매가격
  • 적립금
  • 레포트 > 독후감
  • 2026.02.19
  • 3페이지 / hwpx
  • 3,000원
  • 90원 (구매자료 3% 적립)
다운로드  네이버 로그인
※ 구매자료 중 한글표준문서(*.hwpx)로 작성된 파일을 경우, 2018 이상 버전에서 확인해 주시기 바랍니다.
추천자료
  • AI는 차별을 인간에게서 배운다
  • AI와 창작의 미래_AI창작의 이해와 사례분석
  • AI는 차별을 인간에게서 배운다
  • AI와 인간의 관계에는 사생활 보호, 권력분배, 의사 결정의 투명성 등 윤리 및 도덕적 문제가 포함되며, 따라서 AI시스템이 윤리 기준을 준수하는 방법에 대한 고찰도 필요하다.
  • (국제인권법 3학년) 인공지능기술의 발전이 인권침해를 발생시키는 국내외 사례들을 알아보고, 인공지능과 민주주의의 관계에 대해 관련 논문 등을 참고하여 간략하게 정리하고, 인공지능의 이러한 위험성과 한계를 통제하기 위해 제시되고, 또 시행되고 있는 국내적, 국제적 제도, 원칙, 정책 및 법률 등을 정리하면서, 본인의 생각을 밝히시오.
  • 정보사회와디지털문화4공통)교재1장에보면 빅데이터나옵니다 현재우리사회에서 활용된 빅데이터의사례를찾아 소비자들프라이버시가 침해될위험성분석해보시오0K
  • 교재 1장에 보면 빅 데이터에 대한 언급이 나옵니다. 현재 우리 사회에서 활용된 빅 데이터의 사례를 찾아 보십시오. 그리고 이처럼 빅 데이터를 활용함으로써 그를 통해 소비자들이 어떤 편리함을 얻을 수 있었으며, 빅 데이터의 활용으로 인해 소비자들의 프라이버시가 침해될 위험성에는 어떤 것이 있는지 분석해 보시오.
  • [독후감] 무자비한 알고리즘(왜 인공지능에도 윤리가 필요할까)
  • (2024학년도 1학기, 중간과제물, 국제인권법, 공통)1. 인공지능기술의 발전이 인권침해를 발생시키는 국내외 사례들을 알아보고(교과서에 제시된 사례 이외 5가지 이상 짧게 정리), 2. 인공지능과 민주주의의 관계에 대해 관련 논문 등을 참고하여 간략하게 정리하고, 3. 인공지능의 이러한 위험성과 한계를 통제하기 위해 제시되고, 또 시행되고 있는 국내적,
  • (2024학년도 1학기, 중간과제물, 국제인권법, 공통)1 인공지능기술의 발전이 인권침해를 발생시키는 국내외 사례들을 알아보고(교과서에 제시된 사례 이외 5가지 이상 짧게 정리), 2 인공지능과 민주주의의 관계에 대해 관련 논문 등을 참고하여 간략하게 정리하고, 3 인공지능의 이러한 위험성과 한계를 통제하기 위해 제시되고, 또 시행되고 있는 국내적,
  • 소개글
    AI는 차별을 인간에게서 배운다(고학수)에 대한 자료입니다.
    본문내용
    -AI는 차별을 인간에게서 배운다-
    1. 서론 – 중립적 기술이라는 환상
    인공지능(AI)은 종종 객관적이고 중립적인 기술로 묘사된다. 인간의 감정이나 편견에서 벗어나 오직 데이터와 알고리즘에 따라 판단하기 때문에 더 공정한 결정을 내릴 수 있을 것이라는 기대가 존재한다. 그러나 고학수 작가의 『AI는 차별을 인간에게서 배운다』는 이러한 기대가 얼마나 위험한 환상인지 조목조목 드러낸다. 이 책은 AI가 인간 사회의 차별을 그대로 학습하고 증폭시킬 수 있음을 보여주며, 기술이 결코 가치 중립적일 수 없다는 사실을 강조한다.
    이 책을 읽기 전 나는 AI의 차별 문제가 주로 기술적 오류나 미완성 때문이라고 생각했다. 그러나 고학수 작가는 문제의 핵심이 기술 그 자체가 아니라, **AI를 만들고 사용하는 인간 사회의 구조**에 있음을 분명히 한다. 이 책은 AI를 통해 차별을 이해하는 동시에, 인간 사회의 차별을 다시 바라보게 만드는 거울과 같은 역할을 한다.
    2. AI는 어떻게 학습하는가
    『AI는 차별을 인간에게서 배운다』는 AI의 작동 원리를 비교적 쉽게 설명하며 논의를 시작한다. AI는 스스로 생각하거나 판단하지 않는다. AI는 인간이 제공한 데이터와 목표, 평가 기준을 바탕으로 패턴을 학습한다. 즉, AI의 판단은 과거의 데이터와 인간이 설정한 규칙의 결과물이다.
    이 과정에서 중요한 점은 데이터가 결코 중립적이지 않다는 사실이다. 데이터는 이미 사회의 역사, 권력 관계, 차별 구조를 반영하고 있다. 만약 과거의 고용 기록, 범죄 기록, 대출 심사 결과에 차별이 포함되어 있다면, AI는 이를 ‘현실의 규칙’로 학습하게 된다. 나는 이 설명을 통해 AI의 차별이 갑작스럽게 발생하는 문제가 아니라, 이미 존재하던 차별의 연장선이라는 점을 명확히 이해하게 되었다.
    3. 차별은 데이터 속에 숨어 있다
    고학수 작가는 AI 차별의 핵심 원인으로 **편향된 데이터**를 지목한다. 데이터는 수집되는 과정부터 선택적이며, 어떤 데이터를 포함하고 어떤 데이터를 배제할 것인지는 인간의 판단에 따라 결정된다. 이 과정에서 사회적 약자, 소수자, 비주류 집단은 종종 데이터에서 제대로 대표되지 못하거나, 부정적인 방식으로만 기록된다.
    책에서는 채용 AI, 범죄 예측 시스템, 신용 평가 알고리즘 등 다양한 사례를 통해 데이터 기반 차별이 어떻게 작동하는지를 보여준다. 특히 AI가 ‘효율성’을 기준으로 판단할수록, 기존의 불평등 구조를 그대로 강화한다는 점이 인상 깊었다. 나는 이 부분을 읽으며 숫자와 통계가 결코 공정함을 보장하지 않는다는 사실을 다시 한 번 실감했다.
    4. 알고리즘은 책임을 질 수 있는가
    『AI는 차별을 인간에게서 배운다』는 기술적 문제를 넘어 법적·윤리적 질문으로 나아간다. 만약 AI가 차별적인 결정을 내렸다면, 그 책임은 누구에게 있는가? 개발자, 기업, 사용자, 아니면 알고리즘 자체인가?
    고학수 작가는 AI가 책임의 주체가 될 수 없다고 분명히 말한다. AI는 도구이며, 책임은 항상 인간에게 귀속되어야 한다. 그러나 현실에서는 알고리즘의 복잡성과 불투명성이 책임 회피의 수단으로 작동하는 경우가 많다. 나는 이 논의를 통해 기술이 오히려 책임을 흐리는 장치가 될 수 있다는 점에 깊은 문제의식을 느꼈다.
    5. 자동화된 결정과 인간의 존엄
    책에서 특히 인상 깊었던 부분은 **자동화된 결정이 인간의 존엄에 미치는 영향**에 대한 논의였다. AI는 빠르고 효율적인 결정을 가능하게 하지만, 동시에 인간을 데이터의 집합으로 환원한다. 개인의 맥락과 서사는 사라지고, 점수와 확률만이 남는다.
    하고 싶은 말
    과학·수학·AI·인공지능·빅데이터·통계·인문·노벨상 관련 독후감 및 감상문 자료입니다.