AI

네이버 AI, 얼마나 안전할까…LLM 모의 공격으로 안전성 검증받는다

이나연 기자
[ⓒ 네이버]
[ⓒ 네이버]

[디지털데일리 이나연기자] 최근 급격하게 성장하고 있는 기술인 초거대 언어모델(LLM)의 안전성, 신뢰성, 보안을 강화하기 위해 정부와 민간이 협력한다.

네이버(대표 최수연)는 과학기술정보통신부가 주최하고 한국정보통신기술협회(TTA)와 초거대AI추진협의회가 주관하는 ‘생성형 AI 레드팀 챌린지(Gen AI Korea 2024)’에 대표 파트너사로 참여한다고 21일 밝혔다. 공동 대표 파트너사인 AI 학습 데이터 플랫폼 스타트업 ‘셀렉트스타’와 행사를 진행하며 AI 안전성 기술 교류 및 논의의 장을 만드는 데 기여할 계획이다.

먼저 다음달 11일 실제 서비스되고 있는 LLM에 참가자들이 모의로 프롬프트 공격을 해 모델의 안전성을 검증하는 생성형 AI 레드팀 챌린지 대회가 개최된다. 전공과 상관없이 AI 윤리, 안전에 관심이 있는 국민 누구나 사전 신청을 통해 참여가 가능하며, 우수 참가자들에겐 총 1700만원 규모 상금 혜택이 제공된다.

2일차인 12일엔 안전한 AI 개발을 주제로 국내외 AI 기술 리더들의 발표와 의견 교류가 이뤄지는 컨퍼런스가 진행된다.

북미 AI 스타트업 ‘코히어’ 공동 창업자 에이단 고메즈, 해외 빅테크의 공동 출자로 만들어진 AI 윤리·안전 포럼 ‘프런티어 모델 포럼’의 대표이사 크리스 메세롤, 비영리기구 ‘AI 안전센터’ 총괄 댄 헨드릭스, 글로벌 최고 수준의 이미지 생성 인공지능 개발사인 ‘스태빌리티 AI’의 최고 경영자(CEO) 에마드 모스타크 등 산업계와 학계에서 AI 안전성 연구를 이끄는 인사들이 컨퍼런스 연사로 나선다.

네이버는 대표 파트너사로서 행사를 운영하며 LLM 안전성 검증 및 강화, 안전한 AI 개발을 위한 전문가 논의에 참여한다. 생성형 AI 레드팀 챌린지 참가자들이 국내 최고 수준 LLM의 안전성을 직접 검증하고 실험할 수 있도록 자체 개발한 초대규모 AI ‘하이퍼클로바X’를 제공한다. 네이버는 이번 대회를 통해 축적된 검증 데이터를 기반으로 하이퍼클로바X의 안전성을 한층 강화할 계획이다.

또한 네이버의 AI 안전 연구와 정책 수립을 총괄하고 있는 하정우 네이버 퓨처 AI 센터장이 컨퍼런스 연사로 참여해 안전한 AI 개발을 위한 네이버의 노력을 소개한다.

네이버는 독일 튀빙겐대학교와 협업한 ‘초대규모 언어모델에서의 개인정보 유출 가능성 탐지 도구 제안’ 연구, 서울대학교와 협업한 ‘초대규모 언어모델 신뢰성 강화 기술’ 연구 등 AI 안전성 관련 주요 선행 연구들이 글로벌 AI 학회에서 채택되는 성과를 꾸준히 거둔 바 있다. 지난해엔 영국 정부가 개최한 AI 안전 정상회의에도 한국을 대표하는 기업 두 곳 중 하나로 공식 초청받아 오픈AI, 딥마인드, 앤트로픽 등과 안전한 AI 구축을 위한 협력을 논의했다.

김유원 네이버클라우드 대표도 행사 주관 기관인 초거대AI추진협의회 회장사 대표로서 축사를 진행하며 국내 AI 안전성 논의에 힘을 보탤 예정이다. 지난해 6월 발족한 초거대AI추진협의회는 국내 초대규모 AI 경쟁력 강화를 위한 다양한 활동을 이끌고자 초거대 AI 기술 기업, IT 서비스, AI 벤처 등 국내 대·중소 105개 기업이 회원사로 참여했다. 네이버클라우드는 공동 회장사로 참여하고 있다.

하정우 네이버 퓨처 AI 센터장은 “하이퍼클로바X의 안전성을 검증 및 강화하는 것은 물론, 여러 선행 연구와 서비스 운영 경험을 통해 쌓아온 네이버의 AI 안전성 기술 역량과 노하우를 공유할 것”이라고 말했다.

이나연 기자
lny@ddaily.co.kr
기자의 전체기사 보기 기자의 전체기사 보기
디지털데일리가 직접 편집한 뉴스 채널