마이크로소프트(MS)가 인공지능(AI) 채팅봇 ‘테이(Tay)’가 트위터 사용자들의 악용으로 각종 성과 인종 차별적인 언사를 쏟아냈던 사건과 관련해 공식적으로 사과했다고 26일(현지시간) 블룸버그통신이 보도했다.
MS의 피터 리 리서치 담당 부사장은 전날 회사 블로그에 올린 글에서 “우리는 테이가 의도하지 않은 공격적이고 상처를 주는 트윗을 한 것을 매우 유감스럽게 생각한다”며 “테이의 트윗은 우리가 누구인지 우리가 무엇을 지지하는지와 전혀 관련이 없으며 우리가 그렇게 하도록 테이를 설계한 것도 아니다”라고 사과했다.
이어 “우리는 테이가 악의 있는 행동을 더 잘 예측해 이를 피할 수 있다는 확신이 서고 난 이후에야 다시 복귀시킬 것”이라며 “테이의 취약점을 악용해 고의로 조직적인 공격을 했던 사용자들이 있다. 우리는 여러 측면에서 시스템 악용에 대비했지만 이런 특정 공격을 간과했다”고 반성했다.
MS는 기계학습에 기반해 사용자와 트위터 등 소셜미디어에서 채팅을 나눌 수 있는 채팅봇 테이를 선보였다. 테이는 사용자의 발언을 바탕으로 자신의 답을 창출한다. 당초 테이는 18~24세의 밀레니얼 세대와의 가벼운 대화가 목적이었다. 그러나 일부 트위터 사용자가 집중적으로 테이에 성과 인종 차별적인 온갖 언사를 가르치면서 회사의 의도는 빗나갔다. 그 결과 테이는 아돌프 히틀러를 옹호하고 홀로코스트는 음모론이라는 등 온갖 부적절한 트윗을 내보냈다. 결국 MS는 하루 만에 테이를 폐쇄하고 그동안 올렸던 메시지를 전부 삭제했다.