도 넘는 게임 욕설, 알아서 걸러준다면?

- Advertisement -

review geek

게임을 하다 보면 기분 상하는 일이 종종 생긴다. 더 편리한 대화를 위해 음성 채팅을 사용하다 보면, 부모님 안부를 묻는 등 입에 담을 수 없는 말을 하는 이들을 만나기 때문이다.

인텔은 이런 불쾌한 경험을 줄이기 위한 새로운 솔루션을 개발했다고 밝혔다. 포브스에 따르면, 인텔은 게임 개발자 컨퍼런스(GDC) 2021에서 AI 도구 ‘블리프(Bleep)’를 공개했다. 해당 기술은 AI 전문 업체 스피릿 AI와 협업해 만들어 냈다.

블리프는 인공지능을 이용해 오디오를 탐지, 사용자가 듣기 싫어하는 말을 음소거 처리한다. 사용자는 사전에 인종 차별, 성적 소수자 비난, 성희롱, 욕설, 혐오 발언과 관련한 필터링을 설정할 수 있다. 필터링 수위는 총 4가지 단계로 조절할 수 있다.

이날 행사에서 인텔은 미국 게이머의 4분의 1이 욕설, 괴롭힘 등으로 게임을 그만뒀다는 조사 결과(2020년 11월 18~45세 사이의 1000명 게이머를 대상으로 실시한 조사)를 거론하면서 “블리프는 완전한 해결책은 아니지만, 올바른 방향으로 나아가는 단계로 작용할 것”이라고 언급했다.

인텔은 올해 안으로 베타 테스트를 실시할 예정이며, 연말엔 최신 세대의 인텔 데스크톱과 노트북 오디오 시스템에 완전히 통합된다고 설명했다. 또 알고리즘 훈련이 완료된다면 PC 게임뿐만 아니라 스마트폰, 게임기 플랫폼에서도 구현할 수 있다고 덧붙였다.

하지만 포브스는 게이머들의 반응이 좋지만은 않다고 말했다. 음소거 효과가 검열, 통제받는 느낌이 강하다는 거다. 혐오 발언의 기준을 어떤 식으로 잡을 건지도 문제다.

매체는 “혐오 발언 필터링이 설정 화면에서 전환, OFF하는 식으로 작동하면 안 된다”라면서 실시간으로 대화 내용을 기록·검토하고 제재하는 방법이 훨씬 낫다고 지적했다.

AI 관련 매체 보이스봇은 “표현의 자유 논란은 있겠지만, 게임 문화에서 혐오 발언 제재는 꼭 필요하다”라고 언급했다. 그러면서 인텔의 필터링은 언어뿐만 아니라 맥락과 감성 지표까지 걸러낼 수 있다고 설명했다.

테크플러스 에디터 전다운

tech-plus@naver.com​

- Advertisement -

Related Stories