전문가칼럼

[칼럼] 챗GPT로 촉발된 AI시대, 모르면 모른다고 말할 수 있는 용기

교육·문화 칼럼니스트 조은희
조은국어 조은희 원장/교육·문화 칼럼니스트
작가 말콤 글래드웰은 “타인의 해석”에서 “우리는 어떤 것이 사실인지 허위인지 증거를 모은 뒤 결론에 이르지 않는다. 정반대로 행동한다. 일단 믿고 본다. 그리고 의심과 걱정이 점점 커져 해명되지 않을 때가 되어서야 믿는 것을 멈춘다.“라고 했다.
이것은 사람과 사람간의 대화에서만 해당되는 것은 아닐 것이다. 요즘 한참 신드롬을 일으키며 세상을 깜짝 놀라게 한 챗GPT를 보며 든 생각이다. 이제 우리가 직접 인공지능(AI)과 대화하는 시대가 왔다. 앞으로 우리 아이들은 ‘AI 네이티브 세대’가 될 것이다.
다만 의심 없이 신뢰한 AI가 잘못된 자료를 제공해 문제 상황에 놓였을 때 그 책임을 누가 질지, 그리고 이를 교육에서 어떻게 풀어갈 수 있는지 논의해야 하는 시점이다.
결론부터 말하자면 교육적 관점에서 AI시대에 리더의 자질을 갖춘 인재로 양성하기 위해서는 지식을 암기하는 교육보다는 아이들이 스스로 문제를 발견하고 아이디어를 창출하며, 창의적인 상상력을 발휘할 수 있는 교육 방향으로 나아가야 한다.
정보 검색 체계의 혜성처럼 등장한 챗GPT는 기계가 사람의 영역을 대체할까 하는 두려움의 감정을 들게 할 정도로 매우 영리하다. 사용자가 질문하면 세상의 모든 지식을 다 알려주는 듯하다.
2023년 3월 15일 공개된 챗GPT4는 답변 능력이 개선되고 이미지 텍스트와 이미지를 함께 분석까지 할 수 있는 기능까지 추가되어 가장 선진화된 시스템의 고도화된 면모를 보여주었다. 챗GPT-4는 미국 변호사 시험 모의고사를 상위 10%의 점수로 통과함으로써 전문 영역에서 인간과 겨룰 수 있는 가능성을 보여줬다.
또한 미국 대학입학시험(SAT) 읽기와 수학시험에서 각각 상위 7%, 11%를 기록했다. 챗GPT는 월등히 우수해진 실력으로 다방면에서 활용되고 있다. 한 예로 미국 GM사는 '챗GPT'를 자사 차량에 적용하는 방안을 모색 중이라고 한다.
이처럼 다방면에 혁신적인 성능을 보여주고 있지만 여전히 신경써야 할 부분이 있다.
AI가 사실과 다른 것을 마치 진실인 것처럼 강한 확신을 담아 답변하는 ‘환각 오류’ 문제다. 물론 이전 챗GPT-3 모델보다 챗GPT-4가 환각 오류를 상당 부분 줄이는 데 성공했다고 한다.
그렇지만 여전히 일부에선 오류도 나오고 있는 상황이라고 한다. 답을 지어내거나 오답을 옳다고 주장하는 문제는 여전히 남아 있다는 것이다. 맥락 추론 능력이 한정적이고 입력된 데이터에 따라 편중된 정보를 답하는 등 한계가 여전히 보인다. 기대보다 훨씬 빠르게 좋은 성능이 나왔지만 완벽하지 않다는 뜻이다.
챗GPT에게 질문: 인공지능 리터러시(AI literacy)란?

인공지능 리터러시(AI literacy)는 인공지능을 이해하고 활용할 수 있는 능력을 말합니다. 인공지능 기술이 발전하면서 우리의 일상생활에서 점차 더 중요한 역할을 맡고 있기 때문에, 인공지능에 대한 이해와 활용 능력은 매우 중요해졌습니다.

인공지능 리터러시는 인공지능의 개념과 원리를 이해하고, 인공지능이 어떻게 작동하는지 파악하는 것부터 시작합니다. 또한, 인공지능이 사용되는 다양한 분야에서의 활용 방법과 잠재적인 위험성 등을 이해하고 인공지능 기술을 적절하게 활용하는 능력을 갖추는 것이 중요합니다.

인공지능 리터러시는 기업, 정부, 학교 등에서 교육과 교육자료 등을 통해 적극적으로 증진되어야 합니다. -<챗GPT 답변>
챗GPT를 통해 AI 전문가들만 변화의 패러다임을 외치는 시대는 끝났다. 대중들이 직접 써보고 AI로 인한 변화를 체감하고 있다. 다만 챗GPT의 활약이 두드러질수록 인공지능 리터러시의 필요성 또한 중요하게 부각되고 있다.
위의 챗GPT의 답변과 같이 인공지능 리터러시는 인공지능을 이해하고 활용할 수 있는 능력이다. 챗GPT를 활용할 때 질문에 대한 답변 내용이 맞는지, 근거가 적절한지를 생각해 보아야 한다. 챗GPT는 출처를 밝혀주지 않기 때문에 답을 검증하기 힘들다.
만일 챗GPT가 잘못된 답변을 제공해 문제가 생겼을 때 그 책임은 누가 질 것인가에 대해서도 생각해 봐야 한다. 특히 전혀 모르는 분야에 대해 챗GPT가 제공하는 정보에 100% 의존한다면 부작용이 매우 클 수 있다.
챗GPT가 학습하는 인터넷이라는 무대는 좋은 정보들도 있지만 오염된 정보가 넘쳐나는 곳이기도 하다. “쓰레기를 넣으면 쓰레기가 나온다.”(Garbage in, garbage out)는 말이 이를 단적으로 보여준다. 2021년 ‘이루다’의 혐오 표현사태가 그 한 예이기도하다. 챗GPT는 차별 혐오 발언을 차단하기 위해 ‘모더레이션 API’를 사용했지만 잘못되거나 편향된 정보를 제공할 수 있다. 챗GPT와의 대화는 매우 고도화된 듯 보이지만, 질문에 따라 부정확하거나 잘못된 답변을 주는 경우도 보인다.
“잘못이 있는데도 고치지 않는 것, 그것이야말로 잘못이라고 부른다”(過而不改, 是謂過矣)는 논어의 구절처럼 AI의 입장에서 고치기를 바라는건 AI에 자아 인식이 생기기 전까진 불가능할 것이다. 챗GPT의 목표인 동시에 AI의 목표인 기계에 자아 인식이 생성된다면 기계 스스로 한계를 고쳐나갈 수 있겠지만 그것은 인간의 몫으로 돌아온다.
“의심은 믿음의 적이 아니라 의심과 믿음은 동반자다” 앞서 언급했던 작가 말콤 글래드웰의 말처럼 차라리 인간의 태도를 변화시키는 것이 챗GPT를 보다 안정적으로 접하는 방법일 것이다. 매우 훌륭하게 답변을 내놓는 챗GPT의 답변을 보며 무조건적인 신뢰는 금물이다. 간혹 어설프게 나온 답을 확인없이 썼다가 도움을 받기는커녕 일을 그르칠 수도 있다.
AI시대에 챗GPT를 똑똑하게 활용하는 것이 중요한 것처럼 틀린 답변에 대해 의심하고 비판적으로 활용하는 역량 즉 ‘인공지능 리터러시’ 역시 중요한 것이다.
인간은 인간의 뇌와 가장 유사한 뇌를 만들고자 노력해 왔다. 챗GPT는 1분이면 어느 분야건 뚝딱 지식을 제공할 수 있다. 인공지능이 똑똑해질수록 자동화의 영역은 더욱 빨라지며 효율적인 일처리가 가능해진다.
AI기술은 인간과 공존하는 것이지 경쟁이 아니다. AI가 일상 전반에 스며들기 시작한 요즘, AI와의 공존은 피할 수 없는 현재이자 미래이다. AI가 인간을 넘어설까, 인간이 지배당하지 않을까 하는 두려운 마음보다는 협업과 보조의 동반자로서 AI에게 양보할 영역은 무엇인지, 시간이 흘러도 AI가 범접할 수 없는 인간만의 영역은 무엇인지 현명하게 고민해 보아야 한다.
인공지능의 시대에는 AI와 다른 인간만이 할 수 있는 일이 빛을 발한다. 감정을 이해하고 공감하며 창의성을 발휘하고 타인을 설득할 수 있는 능력, 그리고 문제를 발견하고 해결해 나가는 능력 등. 또한 AI는 인간의 보조역할을 하도록 설계되었기 때문에 리더십이 없다.
그렇다면 AI네이티브세대인 우리 아이들이 AI시대에 리더십을 갖기 위해 어떤 노력을 해야 할까? AI특성을 파악하고 AI를 어떻게 아이들이 유리한 방향으로 활용할 수 있는지, 그리고 이를 통해 삶을 한 차원 높은 것으로 향상시킬 수 있는지 고민해 보아야 하며 그러한 방법들을 가르쳐 주어야 한다. 세상이 어떻게 변화하고 그 변화에 어떻게 적응할 수 있는지 가르쳐야 한다. 우리 아이들을 AI를 이끌 수 있는 미래의 리더들로 성장시켜 나가야한다.
변화하는 시대에 기술의 편리함을 달콤하게 누리고 끝나서는 안된다. 변화된 세상의 중심에서 주체적으로 AI시대를 지휘하고 감독하며 계속 발전시켜 나갈 수 있는 AI 시대 마인드로 성장해 나가는 것이 중요하다. 우리 아이들이 새로운 장을 리드할 수 있는 역량을 키워주도록 지원해야 한다.
금으로 만든 목걸이도 한 고리만 부식해도 끊어지는 것처럼 빛나는 문명들을 미래의 아이들에게 옳은 방향으로 전달 해주는 것이 AI세계라는 현 시대를 살고 있는 우리의 숙제다.
교육·문화 칼럼니스트 조은희
기자의 전체기사 보기 기자의 전체기사 보기
디지털데일리가 직접 편집한 뉴스 채널