e비즈*솔루션

[AI안전LAB] ②AI 인력 불균형 해소가 숙제…“AI G3 위상 걸맞는 인재 구성 필요”

오병훈 기자

한국의 국가 AI안전연구소가 오는 11월에 공식 출범한다. 최근 전세계 국가들이 AI 기술 및 산업 패권 확보에 혈안인 가운데, 한편에선 인간과 AI의 안전한 공존 방안 또한 중요한 공통 과제로 논의되고 있다. 본 기획은 국가 AI 안전 연구소 출범을 앞두고 '안전한 AI' 준비의 중요성 및 글로벌 사례를 폭넓게 조망해본다. <편집자주>

[ⓒ픽사베이]
[ⓒ픽사베이]

[디지털데일리 오병훈기자] 인공지능(AI) 기술이 날로 발전하는 만큼 그 이면 위험성에 대한 우려도 커지고 있는 추세다. 미국에서는 정치권에서 딥페이크 가짜뉴스가 문제 된 바 있으며, 국내에서는 음란 합성 딥페이크 성범죄 논란이 수면 위로 올라왔다.

국제 사회에서는 국내보다 한발 앞서 ‘안전한 AI’를 위한 다양한 공조 체계가 마련되고 있는 상황이다. 미국에서는 지난해 11월 백악관 행정명령에 의해 AI안전연구소(AISI) 설립을 발표했으며, 영국에서도 비슷한 시기 연구소를 설립해 초기연구까지 진행했다. 각 국가 모두 대대적인 AI 전문인력 투입과 민간 공조 컨소시엄 구성 등을 통해 적극적으로 위험성에 대처하겠다는 계획이다.

18일 과학기술정보통신부(이하 과기정통부)는 오는 11월 이같은 국제 흐름에 따라 주요국 AI안전연구소와 협력을 전담하기 위한 AI안전연구소 출범하겠다고 밝혔다. 한국전자통신연구원(ETRI) 내 총 30여명 규모 인력으로, ▲AI안전평가 ▲정책 연구 ▲대내외 협력 ▲안전기술 연구 등을 목적으로 활동한다.

이같은 정부 정책과 관련 일부 전문가들은 내실있는 연구소 인력 구성을 강조했다. AI 혁신과 안전 균형을 이끌어낼 안전 특화 전문가가 필요하다는 의견이다. 다만, 현재 정부가 구상한 ETRI 산하 조직으로서 AI안전연구소는 인력 유인책이 부족한 탓에 제대로 된 AI안전 전문가를 초빙하기 쉽지 않을 것이란 우려도 나온다.

◆‘AI G3’ 표방한 韓, 같은 3위권 영국은 전문인력 3배…초대소장 ‘네이버 하정우’ 언급

미국과 중국이 AI 패권국 1위 자리를 두고 경쟁이 치열한 가운데, 한국 정부는 최근 AI G3를 표방하며 국내 AI 산업을 세계 3위 수준에 올려놓겠다는 목표를 제시한 바 있다. 3위권을 두고 패권 경쟁을 벌이고 있는 국가 중 하나로 영국이 꼽힌다.

영국에서는 한국에 앞서 지난해 11월 AI 안전성 정상회의를 계기로 AI안전연구소를 설립했으며, 올해 2월 AI안전테스트 연구 초기 결과를 발표하는 등 본격적인 연구활동을 시작한 바 있다.

가장 주목해 볼 부분은 연구소 인력차이다. 영국에서는 연구소 인력으로 AI 기술전문가 30여명을 포함해 100여명 규모를 투입했으며, 향후 기술전문가를 지속해서 충원할 계획이다. 구체적으로는 튜링상 수상자인 요수아 벤지오, 구글 딥마인드 출신 AI 안전 전문가 제프리 어빙, 옥스퍼드대학교 인지신경과학 크리스토퍼 섬머필드 교수를 연구책임자로 영입하는 등 AI 전문가 영입에 주력하고 있다.

그에 반해 한국은 신규채용 인력과 더불어 ETRI인력, 파견인력으로 총 30여명 규모로 구성하겠다는 계획이다. 인력 규모부터 3배 이상 차이를 보이며 시작하는 셈이다. 이마저도 구체적으로 뜯어보면, 개소 때는 ETRI 인력을 중심으로 10여명 규모로 시작해 내년부터 신규 20여명을 점진적으로 충원하는 것을 목표로 하고 있다.

절대적인 인력 숫자가 적은 만큼, 초대 연구 소장 후보에도 관심이 쏠리고 있다. AI안전연구소를 산하에 두고 있는 ETRI는 지난 9월 소장 자리 공개채용하기로 했다. 앞서 지난 6월에는 박승찬 ETRI 원장이 기자간담회를 통해 “AI 위험성도 함께 증가하고 있어 안전 확보를 위한 민간의 자율적인 노력과 정부 역할이 필요한 시점”이라며 “하정우 네이버클라우드 AI혁신센터장도 AI안전연구소장 후보”라고 언급한 바 있다.

하 센터장은 네이버 AI 사업을 이끌고 있는 인물 중 하나로 각종 행사에서 국가 기술 자주성에 무게를 두고 있는 ‘소버린AI’를 강조하고 있다. 지난달에는 사우디아라비아에서 개최된 ‘AI서밋2024’에 최수연 네이버 대표와 동행하기도 했다.

[ⓒ과학기술정보통신부]
[ⓒ과학기술정보통신부]

◆“고질적인 예산 문제, 인력 붙잡을 유인책 확보가 핵심”

국내 전문가들도 인력 문제를 가장 큰 우려 사항으로 지적했다. 전문 지식을 보유한 AI안전 특화 인력이 국내에는 부족하며, 이들을 초빙하더라도 연구소에 머무르게 할 유인책이 부족하다는 것이다.

AI 산업 발전 속도가 국가 경쟁력과 직결되는 문제인 만큼, 혁신과 안전 두마리 토끼를 모두 잡기 위해서는 그만한 특화 전문가가 다수 필요하다. 전문가들 사이에서는 AI 기술 이해도와 AI 기술에서 파생되는 사회 문제 등을 종합적으로 연구할 수 있는 연구소가 되기 위해서는 각계 전문가를 적극적으로 영입해야 한다는 목소리가 나오고 있다.

아울러 일부 전문가 사이에서는 인력을 연구소에 머무르게 하기 위해서는 우선적으로 우리나라 정부출연연구기관(이하 출연연) 고질적인 문제 ‘연구과제중심제도(PBS)’를 손봐야 한다는 지적도 제기됐다.

PBS는 프로젝트 단위로 사업을 수주해 연구비를 충당하는 제도다. 이 때문에 창의적이고 혁신적인 연구보다는 ‘돈이 되는’ ‘윗선의 관심이 쏠리는’ 연구에 집중할 수밖에 없는 구조다. 결과적으로 연구 양질이 떨어지게 되고, 이에 따라 전문인력 해외 유출 등 문제가 지속적으로 발생하고 있다는 설명이다.

특히, AI안전연구소가 소속된 ETRI 또한 PBS 기반으로 운영되는 출연연으로, 예산문제에서 자유로울 수 없기 때문에 이를 해결할 수 있는 섬세한 대응책이 병행돼야 한다는 지적이 나온다.

공득조 광주과학기술원(GIST) AI정책전략대학원 부원장은 “국내 대부분 출연연이 PBS 기반으로 연구 성과를 내고 있다. 일반적으로 ‘혁신’보다 ‘안전’에 방점을 찍은 PBS 기반 연구소 경우 예산이 충분한 연구과제를 받지 못해 인력을 붙잡아 둘 명분이 없어 힘들어 한다”며 “그렇다고 단순히 PBS를 적용 안 할 경우, 형평성 문제가 불거질 수 있다. 이런 부분을 종합해서 해결책을 찾아야 한다”고 제언했다.

◆자국 기업 협력 강조한 미국…‘소버린AI’ 힘 실릴 수 있을까

미국과 일본 등 글로벌 주요 국가에서는 지난해 11월 개최된 제 1차 ‘AI 안전성 정상회의’를 기반으로 본격적인 AI안전연구소 활동을 시작한 바 있다. 각 연구소들은 유해 AI 콘텐츠 방지, 국제 연구 공조, 기술적 안전장치 확보 등을 중심으로 구체적인 연구 과제를 설정했다.

미국은 정부 및 주요 연구단체 출신 인물을 미국 상무부 산하에 설치된 AI연구소에 배치하되, 민간 협력에도 공을 들인다.

초대 소장으로는 엘리자베스 켈리 전 백악관 특별보좌관을, 최고기술책임자(CTO)로는 국립표준기술연구소(NIST) 소속 정보기술연구소(ITL) 수석 과학자 엘함 타바시를 선임했다. 백악관 출신 인물과 미국 내 주요 연구소 출신 과학자를 리더로 선임하며 정부-과학계 ‘핫라인’을 구축해 보다 빠르게 현안에 대응하겠다는 전략으로 풀이된다.

아울러 안전한 AI 개발 및 배포 관련 기술표준 수립을 위해 지난 2월 대규모 AI안전연구소컨소시엄(AISIC)을 발족하고, 공공-민간 협력체계를 구축했다. 레드티밍(AI모델 취약점 및 편향성 테스트), 성능 평가 등에 대해 민간과 협업하기 위한 협력 체계를 자국 기업을 중심으로 구성하기로 했다. 미국은 세계 AI 기술력, 보유 기업, 특허 등에서 부동 1위로 지목되는 만큼, 자국 내 시너지를 최대한 강화하겠다는 전략으로 보여진다.

자국 우선 협력을 강조하는 움직임은 국내 산업계에서도 이어지고 있다. 특히 네이버 경우 소버린AI를 강조하며, 최대한 국가 자체 기술을 활용한 AI 개발 및 운영에 집중해야 한다는 입장을 반복적으로 밝혔다. AI 안정성 및 안보 측면에서도 자국 협력에 방점을 찍어야 한다는 의견도 지속적으로 제기되고 있는 상황이다.

일본에서는 AI 안전성 정상회의, G7 히로시마 AI 프로세스 합의 등을 계기로 지난 2월 AI안전연구소를 설립했다. 연구소는 ‘AI안전평가및기준조사·연구’ ‘AI안전성 평가와 실시방안 조사·연구’ ‘미국과 영국 AI안전연구소 등 국제관계기관과 협력 업무’를 중점적으로 수행하기로 했다.

일본 경우 전반적으로 한국 AI안전연구소 운영 계획과 유사한 모습을 띄고 있다. 구체적으로 ▲ AI안전평가및기준조사·연구 ▲AI안전성평가와 실시방안조사·연구 ▲미국·영국 안전 연구소 등 국제 관계기관과 협력 업무를 수행하기로했다.

특히 대내외 협력 전략에서 미국 영국 등을 중심으로 한 긴밀한 협력 체계를 유지한다는 점에서 궤를 같이 한다. 일본은 지난 4월 미국과 ‘AI 위험관리 프레임워크’ 상호운용성 개선을 위한 작업을 진행한 바 있으며, 한국에서도 AI안전연구소 대내외 협력 주요 과제로 ‘AI안전 평가프레임워크 상호 운용성 확보’ 및 AI모델 성능‧위험에 대한 정보공유 등을 꼽았다.

한국 소프트웨어정책연구소(SPRi)는 ‘해외 AI안전연구소 추진 현황 및 시사점’ 보고서를 통해 “AI산업의 지속적 발전을 위해 AI 안전성 확보가 주요 선결과제로 부상했다”며 “AI가 주도하는 글로벌 디지털 사회의 공공의 안전과 유익을 위한 AI안전성평가 확보와 이를 위한 기술개발 및 표준수립, 국제협력의 허브로서 AI안전연구소 역할이 필요하다”고 강조했다.

오병훈 기자
digimon@ddaily.co.kr
기자의 전체기사 보기 기자의 전체기사 보기
디지털데일리가 직접 편집한 뉴스 채널