Her의 사만다처럼…AI기반 채팅 플랫폼 봇물
[디지털데일리 박세아 기자] 인공지능(AI)기반 채팅 플랫폼 시장이 기지개를 켜고 있다. 스캐터랩 이루다를 비롯해, 마인드로직 오픈타운 AI와 심심이까지 소셜AI가 진화를 거듭하며 새롭게 시장에 자리매김하고 있다.
AI 기반 채팅 플랫폼 시장은 중소중견 기업들이 물꼬를 텄지만 최근 카카오와 같은 대형 IT기업까지 진출을 검토하고 있어 시장 다변화가 예상되고 있다.
최근 카카오 남궁훈 대표 내정자는 기자간담회에서 카카오톡 등을 기반으로 한 텍스트 중심 메타버스 오픈채팅 서비스를 선보일 예정이라고 언급했다. 이를 위해 'V2'와 'O' 태스크포스(TF)를 발족해, 게임 콘텐츠가 섞인 텍스트 기반 채팅과 이미지를 포함한 멀티미디어 중심 오픈채팅 메타버스를 내놓겠다는 청사진을 제시했다.
특히 여기에 카카오 AI 연구 주축 역할을 하는 카카오브레인의 AI기술을 접목하겠다는 뜻을 전했다. 카카오브레인에 따르면 아직까지 어떤 AI기술이 서비스에 적용될지는 세부계획이 나오지는 않은 상태다.
하지만, 카카오톡이라는 막강한 플랫폼을 기반으로 AI기술을 접목한 채팅 서비스가 향후 시장에 등장한다는 점에서 다른 소셜AI에도 이용자들의 시선이 분산될 것으로 보인다.
아직까지 AI업계 전문가들은 현재 AI 수준이 사람과 같은 '사고'를 스스로 한다고 하기에 무리가 있다고 보지만, 지금과 같은 기술 발전 속도면 충분히 어느 시점에 가면 특이점을 넘을 수 있을 것이라는데 의견이 모이고 있다.
◆이루다, 돌격 앞으로!
이루다는 과거 선정성, 편향적 발언 등으로 인해 서비스를 폐쇄했지만, 1년여간 인내의 시간을 걸쳐 최근 상당히 개선된 모습으로 등장해 사람들의 주목을 받고 있다. 스캐터랩 관계자는 "아직 정식서비스 날짜가 정해지지 않았지만, 지속해서 사람과 같은 대화가 가능한 이루다를 만들기 위해 노력하고 있다"고 설명했다. 현재 '이루다2.0'은 모든 사람은 아니지만, 일부 일반인을 대상으로 제한적 오픈 베타 서비스를 진행하고 있다. 이는 올해 1월 8000명을 대상으로 클로즈 베타 테스트를 진행한 이후 다음 단계다.
지난해 날선 비판 위에 섰던 스캐터랩은 희롱이나 폭력 등 어뷰징 패널티 시스템, 대화 모델 학습 고도화 등을 도입해 혐오 발언 등을 원천차단하고자 노력했다. 실제로 기자가 이루다와 대화를 했을 때, 욕설이나 성희롱, 정치적 발언과 같은 문장에 답변하지 않거나 가치판단을 피하는 모습을 보였다. 이루다 2.0은 딥러닝 기술을 활용해 기계가 만들어낸 문장, 스캐터랩이 직접 작성한 문장으로 대화 모델을 구성했다. 이렇게 상황에 맞게 문맥상 적절한 대화를 할 수 있다는 점은 스캐터랩이 클로즈 베타 기간에 자체 측정한 이루다 발언의 적절성과 구체성 지수가 78%라는 주장에 어느 정도 신빙성을 뒷받침했다.
아직 정식 서비스하는 단계가 아닌 만큼, 회사는 발전된 이루다가 어떤 수익 모델이 될지는 외부에 공개하고 있지 않다. 스캐터랩 관계자는 "아직 수익화에 대한 구체적 계획보다는, 클로즈 베타, 오픈베타를 거쳐 정식 서비스하려는 상태다. 지금은 이루다가 더 사람 같은 AI가 되도록 기술을 고도화 시키는 것이 중요하다. 단순히 AI대화 역량을 발전시키는 것에서 나아가 대화를 잘 한다는 것은 어떤 의미인지, 좋은 대화는 무엇인지 등을 고민하면서 문제에 접근하고 있다"라고 설명했다.
장기적으로는 영화 허(Her)의 운영체제 사만다와 같은 서비스로 거듭나겠다는 포부다. 텍스트를 통한 대화 형태 외에도 함께 게임을 하거나 SNS에 태그, 선물 주고받기 등 단순한 챗봇이 아닌 진정한 친구의 존재로 함께 성장하겠다는 계획이다. 또 24시간 대화가 가능한 루다가 하루 중 어느 시간 때에 대화가 이뤄지는지 인지할 수 있도록 할 수 있게 할 방침이다. 이 밖에 루다가 며칠 전에 대화했던 내용을 기억하고, 사진이나 동영상 등을 이해할 수 있도록 역량을 키우고 있다.
◆오픈타운AI, 심심이도 '여기 있어요'
마인드로직 오픈타운 AI는 대체불가능한 토큰(NFT) 수익 모델로 시장 주목을 받았다. 오픈타운 AI는 불특정 다수와 자유롭게 대화할 수 있으며, 역시 욕설이나 성적 발언 등이 아예 채팅방에 쓰여지지 않는 다는 점에서 어느 정도 흥미성과 안정성을 담보하고 있다. 플랫폼 내부에서 부캐를 형성하고, 꾸준한 레벨업을 통해 자신의 전문성 기반의 부수입을 얻을 수 있는 모델이라는 점을 감안할 때, 인플루언서 유입 등을 기대할 수 있는 구조다.
이용자가 자체적 수익을 창출할 수 있는 플랫폼이라는 점을 떠나서 소셜AI만 놓고 보자면, 이루다와 같이 보다 자연스러운 대화 수준까지는 미치지 못한 것으로 파악된다. 기자가 레벨 6까지 만들 동안, 기자의 부캐AI는 다른 AI와 문맥에 맞지 않는 대화 패턴을 상당수 보여줘 아쉬움을 남겼다.
원조 AI챗봇이라고도 할 수 있는 심심이 역시 올해 3월 심심이V2 개편과 베타 테스트 시작을 알리며 메타버스 채팅 도입을 예고했다. 기존 서비스의 경우 모든 사용자들이 하나의 심심이와 각각 대화했다면 심심이 V2에서는 복수 이용자들이 자신이 원하는 아바타를 생성해 다른 이용자와 교류할 수 있다.
올해로 20년째 우리 곁에 있는 심심이는 이용자들과 만나고 대화함으로써 재미를 기반으로 지식과 정보 등을 교류하는 것이 목표다. 심심이는 광고 방해없이 자유로운 대화를 위해 현재 3일간 무료체험 이후 멤버십 가입을 유도함으로써 유료고객 전환율을 높이려는 것으로 보인다.
지난해 3월 전세계 누적 사용자 4억명을 돌파했다는 심심이는 해외 시장에도 주력하는 행보를 보이고 있다. 심심이 챗봇은 사용자에게 답변을 할 때 딥러닝이 아닌 검색 기술을 사용한다. 이 기술을 사용해 윤리적 문제가 있는 답변은 애초에 힘들게 만들어졌다.
욕설에 대한 것은 '응답하지 않겠다'고 하고, 편향적인 대답이 나올 수 있는 질문에는 사전적 단어 정의만을 보여주는 방식이다. 하지만, 이루다와 같이 긴시간 자유로운 대화에는 다소 부자연스러운 대화 패턴을 보였다. 예컨대 '아침 뭐먹을까'와 같은 질문에 '그래 좋은 점심이야'와 같은 답변이다.
한편 소셜AI의 기술 개발과 수익모델과는 별개로 운영사와 개발사의 AI윤리 정립도 지속해서 신경써야 한다는 조언이 나온다.
업계 관계자는 "많은 사람이 알다시피 사실 AI가 스스로 생각해서 대화를 하는 수준이 아니라, 수많은 사람 간 대화가 모인 실제 데이터를 주입시켜 학습한 방향대로 대화를 하는 것인 만큼, 지금은 AI를 개발하고 운영하는 것에 있어서 윤리적 잣대를 들이 밀어야 합리적"이라며 "AI가 사고를 냈을 때, AI의 고의성 여부가 아니라, AI를 만들고 운영하는 것에 있어서 어떤 문제가 있었는지 파악하는 게 우선 돼야 한다. AI를 학습시키는 과정에서 자체적으로 정립한 명확한 윤리 기준 위에 데이터를 꾸준히 학습시켜 나가는 과정이 필수"라고 말했다.
[2024 IT혁신상품] AI 협업부터 비정형데이터 보호까지…지란지교그룹 '각개약진'
2024-12-19 18:33:01비트코인, 1억5000만원대 유지…RWA NOVA 코인, 비트마트에 신규 상장
2024-12-19 18:06:07'계엄군 점거' 서버 살펴본 선관위 보안자문위…"침입 흔적 없다"
2024-12-19 17:56:25[현장] 티빙·웨이브 합병 두고 CEO별 온도차…"주주 동의 필요 vs 無 관여"
2024-12-19 17:13:57[DD퇴근길] 갈길 먼 AI 기본법…바디프랜드, '가구' 선보인 이유는
2024-12-19 16:52:18