주요국서 위험성 통제 입법 시도
韓 AI기본법, 탄핵 정국에 계류
중국이 알리바바·화웨이 등 주요 빅테크 기업이 참여하는 ‘인공지능(AI) 표준화 기술 위원회’를 띄웠다. ‘고위험 AI’를 규제하고 선제적으로 안정성을 확보해 글로벌 AI 경쟁을 주도하기 위해서다. 이런 상황에서 한국은 ‘대통령 탄핵’의 여파로 정책의 동력을 상실할 위기에 처했다.
15일(현지시각) 로이터통신에 따르면, 중국 과학기술부(MIIT)는 AI의 신뢰성 및 안전성 표준을 확립하기 위한 ‘AI 표준화 기술 위원회’를 설립한다. AI 표준화 기술위원회의 주요 임무는 AI·거대언어모델(LLM)·애플리케이션(앱)의 기술과 데이터셋의 위험성을 평가하고 산업 표준을 규정하는 것이다. 위원회는 향후 MIIT가 2026년까지 최소 50개의 AI 표준을 제정하는 걸 목표로 한다.
위원회는 바이두, 알리바바, 텐센트, 화웨이 등 중국의 주요 빅테크 기업 등 41명의 위원으로 이뤄진다. 이 중에는 주 홍루(Zhu Hongru) 알리바바 클라우드 부사장, 유 팡(You Fang) 화웨이 표준화 책임자, 장 지에(Jiang Jie) 텐센트 AI 연구소장도 포함됐다. 중국 이동통신사인 차이나텔레콤과 차이나모바일, 베이징대학교와 칭화대학교 등 관련 전문가도 소속돼 있다.
이를 통해 중국은 AI의 산업 육성 뿐만 아니라 기술 안정성도 선제적으로 확보해 글로벌 패권 경쟁의 우위를 점한다는 전략이다. 이는 막대한 자본력으로 AI 개발 및 투자에 ‘올인’했던 중국의 초기 AI 전략과는 다소 상이한 행보다. 중국은 한국에서 열린 ‘AI 서울 정상회의(AI Seoul Summit)’에 불참한 바 있다.
‘AI 신뢰성’ 확보 경쟁은 이미 글로벌 트렌드다. 소프트웨어정책연구소 ‘글로벌 AI 신뢰성 동향 분석’에 따르면, 올해 기준 50개국 이상에서 신뢰할 수 있는 AI를 위한 국가 전략 또는 정부 차원의 이니셔티브를 채택했다. 보고서는 “각국 정부의 규제 움직임에 대해 기업 및 산업 부문에서는 과도한 규제에 우려하는 추세”라면서도 “주요국들은 빠르게 인공지능의 위험성을 통제하는 수단을 고민하고 적극적으로 입법화를 시도하는 만큼, 우리나라도 산업 진흥 및 기술 발전 외에도 국내 규제 법안 마련에 집중할 필요가 있다”고 제언했다.
우리나라 정부는 지난달 AI 기술이 초래할 수 있는 위험을 사전에 예측하고 이에 대응하는 연구 전담조직인 ‘AI 안전연구소’를 출범시켰다. 문제는, AI 안전연구소의 법적 설립 근거가 있는 AI 기본법(인공지능 발전과 신뢰 기반 조성 등에 관한 기본법안)이 법제사법위원회에 계류돼 있다는 점이다. 강도현 과학기술정보통신부 2차관은 ‘AI 안전연구소 법적 근거를 지닌 AI 기본법의 통과가 늦어지고 있다는 점’에 대해 “일단 AI 안전연구소는 자체적으로 시작했다. 관련 법이 있으면 그 근거가 강화될 것”이라고 했다. AI 업계 관계자는 “비상계엄 그리고 탄핵 국면에 모든 정책 과제가 스톱된 것으로 알고 있다”며 “AI 기본법 제정부터 빨리 해야 한다”고 말했다.