방송통신위원회는 이용자와 사업자를 대상으로 AI 교육과 컨설팅을 지원하고 AI윤리규범 등을 구체화해 제도개선을 추진한다고 14일 밝혔다.
이번 제도개선은 사람중심의 AI서비스가 제공되고, AI서비스가 활용되는 과정에서 이용자 보호원칙이 지켜질 수 있도록 하기 위함이다. 이는 최근 인공지능 채팅로봇의 혐오‧차별적인 표현, AI 채팅로봇에 대한 이용자의 성희롱성 발언 등이 사회적으로 큰 논란을 일으킨 것에 따른 것이다. 이와 관련해 사업자‧이용자‧정부 등 지능정보사회 구성원 모두가 AI윤리의 중요성을 인지하고, 각자가 실천할 수 있는 방안을 모색해야 한다는 지적이 커지고 있다.
방통위는 AI서비스에서 이용자 보호를 가장 큰 원칙으로 삼고 이용자 교육과 사업자 컨설팅, 제도개선 등을 추진해 나간다는 방침이다.
우선 이용자‧사업자 대상 AI윤리교육 및 컨설팅을 지원한다. 이를 위해 올해부터 이용자에게 AI서비스의 비판적 이해 및 주체적 활용에 대한 교육을 실시할 예정이다. 교육 내용으로는 이용자가 AI서비스에 활용된 알고리즘의 편향성을 파악하고, 그에 따른 문제를 최소화하여 서비스를 이용할 수 있는 방안 등이다.
또 AI서비스 이용자 보호원칙의 구체적 실행지침을 마련한다. 방통위는 2019년 11월 ‘차별금지, 인간존엄성 보호’ 등의 내용을 포함한 ‘이용자 중심의 지능정보사회를 위한 원칙’을 발표한 바 있다. 해당 원칙이 선언적 규정이라면 올해부터는 이를 실천하기 위한 구체적 사례‧방법 등을 사업자 등과 공유한다는 것이다. 아울러 중장기적으로는 이용자에게 피해를 야기한 AI서비스의 책임소재 및 권리구제 절차 등이 포괄될 수 있도록 기존의 법체계를 정비해 나간다는 방침이다.
한상혁 방송통신위원장은 “AI서비스는 더 많은 부가가치를 창출하고, 생활의 편의를 더해줄 것이지만, 올바른 윤리와 규범이 없는 AI서비스는 이용자 차별과 사회 갈등을 초래할 수 있다”며 “AI기술의 혜택은 골고루 누리되, 부작용은 최소화할 수 있도록 사람중심의 AI를 위한 정책을 촘촘히 추진해 나갈 것”이라고 말했다.