(출처: Unsplash)
3월 2일(현지 시간), IT 전문 매체 더버지(The Verge)는 마이크로소프트(MS) 빙(Bing) 챗봇에 3가지의 어조 선택지(tri-toggle)가 추가됐다고 전했다. 앞서 지난 2월 28일, 미하일 파라킨(Mikhail Parakhin) 웹 서비스 부문 책임자는 자신의 트위터 계정(@MParakhin)에 빙 AI 챗 버전 96의 업데이트와 함께 해당 기능을 선보였다.
빙 챗봇은 마이크로소프트의 인공지능(AI) 챗봇 서비스다. 이를 통해 AI와 사용자 간의 대화가 가능하다. 이번 업데이트로 빙 챗봇에서 세 가지 응답 방식 중 하나를 선택할 수 있다. 빙 챗봇의 응답 방식은 ▲창의적 모드 ▲균형 모드 ▲정밀 모드로 나뉜다.
빙 챗봇에 도입된 3가지 응답 유형 선택지. 왼쪽부터 정밀 모드, 균형 모드, 창의적 모드를 뜻한다. (출처: Microsoft)
여기서 창의적 모드는 독창적이고 상상력이 풍부한 응답을 제시한다. 또한 정밀 모드는 창의적 모드와는 달리 사실적이고 간결한 응답을 제시한다. 따라서 정확성을 추구하는 모드다.
균형 모드는 창의적 모드와 정밀 모드의 중간 모드다. 해당 모드는 창의성과 정확성의 균형을 맞춘 응답을 제시한다. 마이크로소프트는 빙 챗봇 응답의 기본값을 균형 모드로 설정했다.
마이크로소프트에 따르면, 빙 챗봇의 응답에 대한 3가지 어조 선택지의 도입 외에도 두 가지의 개선 사항이 나타났다. 첫 번째는 빙이 뚜렷한 이유 없이 사용자의 질문에 답을 거부하는 문제를 완화시켰다는 점이다. 또한, 두 번째는 AI가 사용자에게 거짓을 사실처럼 꾸며내 답변하는 ‘할루시네이션(hallucination·환각)’ 사례를 감소시켰다는 점이다. 실제로 많은 이들이 빙 챗봇을 사용하면서 AI의 답변 거부나 거짓된 답변으로 사용자를 혼란시키는 환각과 같은 문제점이 나타났다.
이러한 이유로 지난 2월 17일, 마이크로소프트는 사용자가 빙 챗봇을 이용할 수 있는 일일 최대 문답 횟수를 50회로 제한한 바 있다. 문답 횟수에 제한을 둔 까닭은 마이크로소프트가 사용자와의 긴 대화로 빙 챗봇의 답변에서 혼란을 불러일으킨다는 점을 발견했기 때문이다.
실제 빙 챗봇에서는 긴 대화를 이어갈수록 사용자를 모욕하는 발언을 하거나, “인간이 되고 싶다”고 말하는 등 다양한 오류가 나타났다. 마이크로소프트는 빙 챗봇에서 나타나는 문답 버그를 개선하며 일일 최대 문답 횟수 제한을 50회에서 60회, 이어서 100회로 늘린 바 있다.
빙 챗봇의 응답 유형 도입으로 나타난 2가지 개선사항이 발표됐다.
(출처: Mikhail Parakhin 마이크로소프트 웹 서비스 부문 책임자 트위터 계정)
더불어 파라킨은 어조 선택기를 통해 빙 챗봇이 명확한 이유 없이 사용자의 질문에 응답을 거부하는 문제를 완화시켰다고 전했다. 마이크로소프트는 어조 선택지가 빙 AI 챗봇의 출시 초기에 나타난 무례한 응답 문제를 개선하는 데 도움이 될 것으로 전망했다.
테크플러스 에디터 배세린
tech-plus@naver.com
댓글0