정부가 4차산업혁명 시대를 위해 제도개선과 규제개혁에 힘쓰는 가운데 AI(인공지능)에 대한 통합적 위험정책연구는 전무하다는 지적이 나왔다.
국회입법조사처는 5일 ‘인공지능 위험정책 필요성에 대한 실증적 고찰’이라는 제목의 보고서에서 “AI 위험성 연구는 ‘예측하지 못한 기술의 위험’으로만 제한적으로 다뤄지고 있다”며 이같이 밝혔다.
보고서는 “AI 위험성을 구체적 수준에서 ‘실재적 위험’으로 인식한 것은 최근 일”이라며 “AI가 가지고 올 수 있는 위험에 따른 구체적인 사전적 대비나 사후적 대응방안 연구가 거의 없어 기술 발전에 제도가 지체되고 있는 상황”이라고 우려했다.
이에 보고서는 미래 신기술이 가져올 위험대응 전략과 정책을 총괄할 수 있는 정부조직의 역할과 기능에 대한 논의가 필요하다고 봤다. 최근 정부 조직개편에 따라 미래 기술정책 총괄 부처가 미래창조과학부에서 과학기술정보통신부로 개편하고, ‘4차산업혁명위원회’를 설립했다.
보고서는 “향후 AI가 가져올 부정적인 영향에 대비한 윤리, 규범, 법제도, 거버넌스 변화와 위험성 평가의 프레임 워크 개발이 시급하다”면서 AI 위험성에 대비한 통합적 거버넌스 구축을 제안했다.
이를 위해 보고서는 사전예방원칙과 복원력 관점에서 인공지능 기술의 위험 거버넌스를 다뤘다. 사전예방원칙은 위험에 대한 과학적 불확실성이 높음에도, 잠재적 파급 효과가 높을 경우 선제적 대응 조치를 하는 정책을 의미한다. 복원력은 재난이 발생한 후 원래 상태로 회복하는 능력이다.
사전예방원칙 정책과 관련해 보고서는 “AI 기술위험은 경제적 관점보다 실제 정책 도입 가능성 여부나 사회적 공감대 형성 여부가 더 중요하다”며 “이와 함께 위험발생이 감지되면 한시적으로 개발을 중지하는 모라토리엄 도입이나 AI 위험비용 및 책임 체계도 마련도 중요하다”고 설명했다.
복원력 제고 정책 방안에 있어서는 ‘사회적 위험커뮤니케이션 확대 정책’을 최우선으로 도입해야 할 정책 수단으로 꼽았다. 보고서는 “설계 단계부터 AI윤리강령, 안전표준 및 인증제도, 기술 보안성과 신뢰성 강화정책에 대한 논의가 필요하다”고 강조했다.