요즘 뉴스를 보면 AI 관련 이야기들이 빠지지 않고 등장한다. 그도 그럴 것이 몇 년 전만 해도 짧은 대화만 겨우 가능한 수준이던 인공지능이 이제는 작곡부터 연주까지 스스로 하는가 하면 전문 화가의 실력에 버금가는 그림도 순식간에 그려낼 정도로 성장했기 때문이다. 그뿐인가. 스마트폰은 물론 교통, 배송/물류, 교육, 금융 분야 등 그야말로 우리 삶의 거의 모든 영역에 AI가 도입되며 본격적인 ‘AI 시대’에 접어들었다.

특히 인간처럼 자연스러운 문장을 구사하고 논리적인 글도 뚝딱 써낼 정도로 똑똑해진 ‘챗GPT(ChatGPT)’의 등장은 전 세계의 관심을 끌기에 충분했다. 쓰임새가 무궁무진한 팔방미인 AI는 글을 쓸 줄 모르는 사람도 논문을 쓸 수 있게 해줬고 코딩을 처음 접하는 사람도 프로그램을 만들 수 있게 해줬으며, 외국어를 전혀 못하는 사람도 외국인 친구와 유창하게 메시지를 주고받을 수 있게 해줬다. 마치 기다렸다는 듯 마케팅, 업무, 일상, 재테크 등에 챗GPT를 활용하는 법을 다룬 서적들이 쏟아져 나왔다.

무서운 속도로 발전하는 과학기술에 맞춰 우리의 삶도 빠르게 변해나가고 있지만, 우려의 목소리도 만만치 않다. 아무리 긍정적인 면을 위해 만들어진 기술이라 해도 부정적인 용도로 악용될 수 있기 때문인데, 실제로 현실과 구분하기 어려운 가짜 정보들이 빠르게 확산되기 시작했다. 위험한 발언을 하는 유명 인사의 영상이 인터넷에 떠도는가 하면, 특정 인물의 사망 소식이나 거짓 뉴스가 진짜처럼 퍼지기도 한다. 물론 모두 AI가 만들어낸 가짜 영상, 가짜 사진, 가짜 글이다.

해외 쇼핑몰엔 AI가 작성한 가짜 리뷰들이 도배되고 심지어 AI의 글을 활용한 것으로 의심되는 도서가 버젓이 판매되고 있다. 각종 SNS와 블로그에도 AI가 쓴 듯한 글을 어렵지 않게 볼 수 있다.

(출처: DALL-E)

기본적으로 AI의 학습은 사람이 작업한 데이터를 기반으로 한다. AI가 생성하는 문장 역시 사람들이 온라인에서 작성한 수많은 텍스트를 학습 데이터로 사용하는데, 당연히 이중엔 잘못된 정보나 유해 정보, 허위 정보도 포함되어 있기 마련이다. 하지만 이런 정보의 진위 여부를 판단할 수 없는 인공지능은 모든 정보를 담아두었다가 주어진 질문에 가장 부합하는 텍스트들을 나열해 보여줄 뿐이고 그 결과에 대한 판단은 오롯이 인간의 몫이다.

문제는 그 답변이 진짜 전문가처럼 조리 있고 지적이어서 자연스레 믿음이 간다는 점이다. 주의 깊게 살펴보고 이해하지 않으면 틀린 내용을 그대로 믿게 될 수 있다. 인공지능을 누구나 손쉽게 접할 수 있고 자유롭게 활용할 수 있다 보니 단순히 이슈를 위한 허위 글을 빠르게 작성해 퍼뜨리는 사례도 문제다. 신뢰할 수 있는 정보만을 담아야 할 뉴스까지 위협받고 있는데, 이렇게 만들어진 가짜 뉴스, 가짜 정보는 사회적으로 많은 문제를 일으킬 수 있고, 사람들의 의견이나 행동에 영향을 끼칠 수도, 피해를 입힐 수도 있기에 주의해야 한다.

이런 가짜 정보에 어떻게 대처해야 할까?

(출처: DALL-E)

먼저, 같은 AI를 이용하는 방법이 있다.

AI가 만든 글에는 종종 특정 단어가 반복되거나 문장에 어울리지 않는 어색한 단어 또는 특이한 문구가 쓰이는 등 사람이 쓴 것과 구별되는 구조적 특징이 나타나곤 한다. 텍스트와 관련이 없는 이미지를 사용하거나 변형된 이미지를 사용하는 경우도 있다. 가짜 글을 판별하는 AI는 바로 이런 패턴을 파악하고 식별하도록 학습시킨다.

국내엔 아직 이렇다 할 서비스가 없지만, 영문 콘텐츠의 경우, 카피릭스(CopyLeaks)의 AI 콘텐츠 탐지기(AI Content Detector)나 GPT제로(GPTZero)를 활용할 수 있다.

CopyLeaks가 판별한 AI가 작성한 글(좌) / 사람이 작성한 글(우)

AI 콘텐츠 탐지기는 콘텐츠 내용을 붙여 넣으면 몇 초 안에 제법 높은 정확도로 AI가 작성한 텍스트인지, 사람이 작성한 텍스트인지를 판별해 알려준다. 테스트를 위해 한 번은 챗GPT의 답변을 붙여 넣고, 한 번은 어느 해외 매체의 소개 글을 붙여 넣어봤는데 AI가 작성한 글을 정확하게 판별해 내는 것을 볼 수 있었다.

GPTZero가 판별한 AI가 작성한 글(좌) / 사람이 작성한 글(우)

GPT제로는 프린스턴 대학에 재학 중인 한 학생이 개발한 앱으로, 텍스트의 복잡성(임의성)과 복잡성의 변화량 등을 점수화해 식별하는 기능을 갖췄다. 해당 앱 소개에 따르면 인간 텍스트의 경우 99%, AI 텍스트의 경우 85%의 정확도를 구현했다고 한다. 챗GPT를 만든 오픈AI가 직접 공개한 AI 텍스트 분류기 ‘AI 텍스트 클래시파이어(AI Text Classifier)’의 정확도가 26%라는 걸 감안하면 매우 높은 수치다.

실제로도 약 3번 정도 테스트해 본 결과, 모두 완벽하게 AI가 만든 글과 사람이 작성한 글을 구분해냈다. 가장 복잡성이 높은 문장을 점수와 함께 보여주는 점이 꽤나 흥미롭다.

글의 진위 여부가 궁금하다면 구글이 오래전부터 제공하고 있는 서비스인 사실확인 탐색기(Fact Check Tools)가 도움될 수 있다. 아직 한국어는 간단한 단어로만 검색이 가능하지만, 관련된 내용의 진위를 정확한 출처와 함께 확인할 수 있으며, ‘최근 팩트 체크(Recent fact checks)’를 선택하면 최근 이슈 중 밝혀진 내용들을 확인할 수 있다.

참고로 이미지 진위 여부는 이미지 출처 검색 사이트인 ‘틴아이(TinEye)’를 이용하면 된다.

다만 AI 기술의 발전으로 가짜 뉴스와 사람이 직접 작성한 글을 구별하기가 점점 어려워지고 있기에 이를 판별해 내는 AI 역시 거짓 정보의 특성과 패턴을 식별할 수 있도록 관련 데이터를 이용해 지속적으로 AI를 훈련하는 것이 필요하다.

또한 이런 AI를 통한 검증은 100% 정확도를 보여주지는 않아 사람이 추가로 검토하는 작업을 거쳐야 한다. AI의 능력으로 빠르게 식별하고 사람이 신중하고 정확하게 검토한다면 가짜 글의 확산을 효과적으로 막을 수 있다.

출처를 확인하는 것도 좋은 방법이다. 가짜 뉴스와 가짜 글은 신뢰할 수 있는 출처나 인용한 글에 대한 정보가 없는 경우가 많다. 따라서 공신력 있는 매체에서 다룬 내용인지 확인하고 해당 분야의 전문가 또는 공식 기관이 제공한 자료가 있는지도 확인하는 것이 좋다.

당연한 말이지만, 비판적으로 생각할 수 있는 사고력을 기르는 것도 중요하다. ‘의견’과 ‘사실’은 엄연히 다른 것임에도 평소 이를 분별하는 능력을 기르지 않으면 개인의 의견을 그대로 믿는 과오를 범할 수 있다. 뉴스 기사를 읽을 때에도 비현실적인 맥락은 없는지 내용을 비판적으로 바라보며 미디어 문해력을 키우려는 노력을 하자.

AI로 생성된 콘텐츠가 널리 보급됨에 따라 저작권 및 개인정보 보호, 표절 및 정보 정확성 판별 등 AI 윤리적 지침을 마련하는 것도 중요하다.

최근 우리나라 정부도 AI 윤리와 신뢰성을 확보하고 가짜 뉴스를 퇴치하기 위한 방안을 마련하겠다고 밝혔다. 네이버, 다음, 민간자율심의기구 등과 협력·소통 시스템을 확립하는 한편, 가짜 뉴스 신고·상담센터를 설치하고 범정부적 대응 시스템을 구축할 방침이다. 가짜 뉴스를 판별하기 위한 ‘AI 가짜 뉴스 감지 시스템’ 개발도 지원할 예정이다.

AI 시대에 접어들면서 AI가 인간을 대체하지는 않을까 걱정하는 목소리가 나오고 있다. 하지만 아무리 고도의 기술이 접목된 시대이고 AI의 기술력이 인간을 뛰어넘을 정도로 빠르게 발전한다 해도 그 중심엔 사람이 있어야 한다. AI의 기술을 바르게 사용하고 그 결과물의 옳고 그름을 판단할 수 있는 능력은 오직 사람에게만 있기 때문이다.

또한 AI가 단순히 ‘그냥’ 하는 것과 달리, 인간은 그 ‘경험’을 통해 기쁨을 느끼고 만족감을 느낀다. 나아가 그 감정을 공유하고 교감할 수 있는 능력도 가졌다. 어떻게 활용하는가에 따라 AI는 훌륭한 도구가 될 수 있다. 빠르게 달려나가는 AI 기술에 겁먹지 말고 새로운 환경에 적응하기 위해 신중히 대처하고 준비한다면 오히려 새로운 기회가 될 것이다.

이 기사에 대해 어떻게 생각하시나요?
+1
1
+1
0
+1
0
+1
0
+1
0

댓글을 남겨주세요.

Please enter your comment!
Please enter your name here