인터넷

챗GPT는 왜 "모른다" 대신 '헛소리'를 늘어놓을까 [e라이프]

양원모

[디지털데일리 양원모 기자] 취재원이 모르는 이야기를 잔뜩 늘어놓을 때, 기자는 곤혹스럽다.

"모른다"고 하면 우습게 볼 것 같고, 몇 마디 거들자니 무지(無知)가 탄로 날까 두렵다. 이럴 땐 그냥 사실대로 말하는 게 낫다. 어설프게 주워들은 정보는 '오보'의 지름길이라서다.

하지만 최근 광풍(狂風)인 '챗GPT'에는 해당하지 않는 이야기 같다. 어떤 엉뚱한 질문을 던져도 술술 답을 내놓기 때문. 물론 거짓을 바탕으로 꾸며낸 내용이다. "거북선의 라이트닝 볼트 발사 메커니즘에 대해 알려달라"고 요청하면 챗GPT는 발사 과정 6단계를 진지하게 설명한다.

최근 온라인 커뮤니티에서 챗GPT에 엉뚱한 질문을 던지는 놀이가 유행하고 있다. 터무니없는 답변에 실소가 터지지만, 모든 사람이 유쾌하게 받아들이는 건 아니다. AI의 태연한 거짓말이 불편하다는 사람도 있다. 한 커뮤니티 이용자는 "차라리 모른다고 하는 게 낫다"며 "거짓말하는 모습에 괜히 화가 난다"고 지적했다.

그런데 왜 챗GPT는 '모름'을 인정하지 않을까.

그것은 학습 데이터와 평가 기준의 한계 때문이다.

MIT 테크놀로지 리뷰에 따르면 챗GPT는 자신이 딴소리를 내놓는 것 같을 때 "모른다"고 답할 수 있다. 학습하지 않은 내용을 물으면 답변을 거절하기도 한다. 인간 사용자 피드백 기반 강화 학습(RLHF)이라는 기술이 적용됐기 때문이다. 챗GPT는 이를 통해 거짓, 편향된 답변을 최소화한다. 개량 전 모델인 GPT-3엔 없던 기능이다.

그러나 RLHF로 모든 질문의 진위를 가릴 수 있는 건 아니다.

챗GPT가 학습한 수많은 데이터에는 사실과 허구가 뒤섞여 있고, 이를 일일이 구분하도록 하는 건 매우 어려운 일이다. 답변을 더 신중히 하도록 조정할 순 있지만, 이 경우 충분히 답변할 수 있는 질문에도 대답을 피하는 문제가 생길 수 있다.

챗GPT는 질문을 받으면 학습한 데이터 가운데 답변으로 삼을 만한 포맷을 찾아 문맥에 맞게 내용을 채워나간다. 예를 들어 '도로에 ○가 달린다'는 문장이 있다면 자동차, 자전거, 오토바이 등 빈칸에 들어갈 단어를 예측해 완전한 문장을 구성하는 식이다.

개발자들은 챗GPT가 내놓는 다양한 답변에 점수를 매겨가며 답변의 적절성을 학습시켰다. 다만 적절성은 내용의 진위(진실성)를 포함해 유용성, 무해성 등 다양한 기준을 바탕으로 평가된다.

그렇기에 챗GPT는 어떤 질문을 받아도 인간이 쓴 것 같은 답을 내놓을 수 있지만, 내용의 신뢰성을 100% 담보할 순 없다.

이와관련 최근 뉴욕타임스(NYT)는 "AI는 자의식이 없다. 그저 다음에 올 말을 학습을 통해 찾아내는 것일 뿐"이라며 "거짓을 사실처럼 말하기 때문에 AI 말을 전부 다 믿지는 말아야 한다"고 조언했다.
양원모
webmaster@ddaily.co.kr
기자의 전체기사 보기 기자의 전체기사 보기
디지털데일리가 직접 편집한 뉴스 채널