• 당원교육
  • 당비납부
  • 당비영수증
    출력
  • 당비납부내역
    확인

브리핑

  • HOME
  • 뉴스
  • 브리핑
  • [논평] AI 챗봇 ‘이루다’가 자연스레 학습한 것은 우리 사회에 만연한 ‘여성 혐오’였다


AI 챗봇 이루다가 자연스레 학습한 것은 우리 사회에 만연한 여성 혐오였다

 

이루다는 1223일 페이스북 메신저를 기반으로 출시한 AI 챗봇이다. 자연스러운 대화로 1020대 사이에서 크게 주목받아 3주 만에 약 80만명의 이용자를 모았다. 허나 성적 대상화, 여성혐오 발언을 쏟아내면서 사회적 논란에 휩싸였다. ‘이루다에 대한 논란이 일자 개발사 스캐터랩은 이루다 데이터베이스(DB)와 딥러닝 모델을 폐기하겠다고 15일 밝혔다. 논란은 개인정보 유출, 데이터 관리에 소홀 문제로 흘러갔다. 하지만 이러한 현상의 원인이 과연 개발사에만 있는지 따져 볼 일이다.

 

빅데이터는 이제 익숙한 단어가 되었다. 이미 컴퓨터 공학 및 비즈니스 분야에 광범위하게 활용되고 있으며 단순 데이터가 아니라 경험적이고 심리적 측면까지 학습 가능한 상태로 활용되고 있다. 최근 입사과정에서 AI면접도 비일비재하다. 물론 AI면접은 인적자원을 채용하고 직무를 배치할 때 인사관리 및 채용 시 인간의 편견을 줄여 효율성과 공정성을 얻을 수 있다는 기대에서 출발했다. 하지만 알고리즘이란 무엇인가. 결론부터 말하자면 알고리즘 내에는 인간이 가진 무의식적 편견이 재현될 위험이 상존한다. AI는 주어진 데이터에 기반해 지원자를 판단하고 채용여부를 결정하는데 여기서 주어진 데이터자체가 현실을 적극적으로 반영한다는 점을 놓쳐선 안된다. 다시 말해 우리사회에 광범위하게 펼쳐진 성차별과 혐오를 AI는 자연스레 학습한 것이다.

 

이루다는 빅데이터에 기반 해 이곳에 만연한 여성혐오를 적극적으로 학습했다. 물론 개발사의 관리 소홀이나 예외 값 설정 등도 문제다. 하지만 보다 근원적인 문제를 고찰하면 이루다는 귀납적 추론을 하고 있으며 해당 결과를 정확히 인지하고 있었다고 볼 수 있다.

 

실제로 2014년에 아마존은 자체 개발한 인공지능 채용 시스템이 자기소개서 또는 이력서 평가에서 여성 지원자에게 불이익을 준다는 것이 알려진 사실이다. 10년간 학습한 데이터에서 여자보다 남자 지원자가 많은 것을 통해 판단한 결과였다. 알고리즘 자체 편향으로 잘못된 결과를 도출하는 것도 큰 문제지만 인공지능에 의해 도출된 결과는 통계적 검증과 합리적인 계산에 의한 결과라는 사실이며, 이는 그만큼 우리 사회에 성차별과 혐오가 공공연하다는 것을 반증한다.

 

결국 이루다에 내재된 여성혐오는 빅데이터로 수집된 인간의 편향, 잠재된 증오와 폭력에 기인한 것임을 시사한다. 따라서 AI의 책임이 아니라 인간의 책임이다.

 

2021115일 정의당 서울시당 공동대변인 여미애

 
참여댓글 (0)