4일 정보기술(IT) 업계에 따르면 영국 과학혁신기술부(DSIT)는 최근 AI 안전 연구소(AISI)의 수석 프롬프트 엔지니어(Senior Prompt Engineer)에 대한 채용공고를 냈다. AI안전연구소란 AI의 안전한 기술을 지원하는 곳으로 국가 경쟁력과 안보를 위해 국가 차원의 적극적인 투자가 필요한 기관이다.
해당 직책의 급여 범위는 기본급과 수당을 합쳐 우리 돈으로 약 1억 7000만~2억 4000만 원 수준이며 계약 형태는 18~24개월이다. 주요 업무로 첨단 AI 시스템의 위험 능력을 평가하기 위한 프롬프트를 설계하고 연구팀과 협력해 AI의 안전성 연구를 수행하게 될 예정이다. 이를 위해 AI 모델 행동 수정 및 목표 행동 유도 등을 통한 거대언어모델(LLM) 이해와 프롬프트 엔지니어링 전문성, Python(파이썬) 코딩 능력, AI 안전성에 대한 이해 등의 기본능력을 요구한다.
이를 통해 영국 정부가 AI 안전연구소를 중심으로 AI 안전 리더십을 강화하려는 의도를 엿볼 수 있다. 해당 공고의 직책은 AI 안전성 연구와 영국의 AI 정책 개발에 중요한 역할을 할 것으로 보이기 때문이다. 앞서 영국은 선제적으로 지난해 11월 AI안전연구소를 설립했다. 올해 2월에는 AI 안전테스트 연구 초기결과를 발표하는 등 본격적인 연구 활동에 돌입했다.
영국 외에도 미국, 일본 등 AI 주요국들은 AI 안전연구소를 설립하고 AI안전 리더십 선점에 열을 올리고 있다. 미 백악관은 지난해 11월 AI안전성 정상회의에서 AI안전연구소 설립을 발표했다. 미국 AI안전연구소는 안전한 AI 개발과 배포를 위한 기술표준을 만들기 위해 올해 2월 대규모 AI안전연구소 컨소시엄(AISIC)을 발족하고 공공-민간협력체계를 구축했다. 일본 정부는 올해 2월 AI안전연구소를 짓고 업무를 수행하고 있다. 캐나다는 올해 4월 AI 사업 활성화와 안전을 위한 예산(안)을 발표를 통해 AI안전연구소 설립을 시사했다.
우리나라는 올해 말 AI안전연구소를 설립할 계획이다. 남철기 과기정통부 인공지능(AI)정책과장은 지난달 31일 국회 의원회관에서 열린 ‘AI 기본법 제정 및 전망 방향 세미나’에서 “각국 AI안전연구소는 공통적으로 규제 기관이 아니라 안전을 기술적으로 지원하는 곳이다. AI의 위험을 정의하고 테스트하고 프레임워크를 만들고 평가한다”며 “AI안전연구소를 연내 ICT유관기관 내에 설립, 운영할 계획”이라고 설명했다.
우리나라가 AI 리더십 확보를 위해 발 빠르게 움직여야 한다는 지적이 나온다. IT업계 관계자는 “환각, 딥페이크 등 AI 발전에 따른 문제점도 같이 발생하는 상황에서 AI 경쟁은 이제 안전의 싸움이라고 봐도 될 것”이라며 “AI 기술을 국가안보와 직결되는 일종의 공급망 문제로 보는 인식이 확산되며 AI의 안전성을 확보하는 게 관건이 됐다”고 말했다.