인공지능 챗봇 ‘이루다’가 논란의 한복판에 섰다. 지상파 메인 뉴스와 주요 일간지에서도 앞다투어 중요하게 다루어졌다. 2020년 12월 말에 서비스가 공개된지 약 20일 만에 서비스를 잠정 중단하기에 이르렀다. 세간의 주목을 받은지 일주일도 안되어 서비스가 중단되는 불운의 서비스가 된 것이다.
이루다 논란, 이번이 처음이 아니다
이번 이루다의 논란은 처음 나온 유형의 문제도 아니다. 사실 이전에도 ‘이루다’와 유사한 이유로 서비스를 중단한 인공지능 챗봇 서비스가 있었다. 2016년 마이크로소프트에서 내놓은지 불과 16시간 만에 서비스를 중단한 챗팅봇 ‘테이’가 그것이다.
‘테이’는 출시 이후에도 사용자들과의 대화를 통해서 꾸준히 알고리즘을 훈련하는 형태로 출시 되었다. 그러나 백인 우월주의자와 사회적 약자 혐오자 등이 욕설과 극우 성향의 주장 등 부적절한 발언을 의도적으로 입력하여 훈련하는 활동들에 의해서 순식간에 인종, 성차별 발언을 쏟아내는 ‘패륜’ 챗봇이 되어버렸다. “히틀러는 틀리지 않았다” 등과 같은 테이의 발언이 물의를 일으키자 MS는 문제가 된 테이의 일부 트윗과 공개 메시지 등을 삭제하고 운영을 무기한 중지했다.
이번 이루다의 논란도 ‘테이’와 유사한 형태로 시작되었다. 우선 채팅의 상대인 이루다를 20대 여자라는 특정 캐릭터로 규정함에 따른 문제가 컷다. 20대 여자를 상대로 무제한적인 대화가 가능함에 따라서 각종 성희롱를 비롯하여, ‘테이’와 같은 혐오적 표현을 동원한 대화가 이루어 졌다. 문제는 이러한 대화를 쉽사리 캡처해서 공유하는 것이 유행이 되면서 개인적인 차원의 이슈가 사회적 차원의 이슈로 확산되었다.