클라우드에 백업된 사진은 빅테크가 보고있다

- Advertisement -

더 안전한 온라인 환경을 만들기 위해 기업들은 여러 노력을 기울이고 있다. 아동 성적 학대 콘텐츠(Child Sexual Abuse Material, CSAM)을 근절하는 노력도 그중 하나다. 소셜 플랫폼, 검색 엔진 등에서 CSAM이 유포되지 않도록 CSAM을 감지, 방지, 삭제, 신고하고 있다.

페이스북, 트위터, 구글 등은 마이크로소프트(MS)의 포토DNA(PhotoDNA)라는 기술을 사용해 CSAM을 탐지하고 삭제한다. 포토DNA는 이미지의 ‘해시(Hash)’라는 고유한 디지털 서명을 만들고 다른 이미지의 해시와 비교해 동일한 이미지를 찾는 알고리즘이다. 단순히 같은 이미지를 인식하는 것이 아니라 이미지가 가진 특징을 수학적으로 계산해 비교하기 때문에 이미지 크기를 줄이는 등 이미지를 변환해도 식별이 가능하다. 이전에 식별된 불법적인 이미지의 해시가 포함된 데이터베이스와 일치하는 이미지를 포토DNA가 자동으로 감지한다.

포토DNA가 감지한 CSAM 의심 이미지는 훈련된 모더레이터들이 검토하게 된다. 모더레이터는 불법적이라고 판단한 경우 이미지를 삭제하고 관련 당국에 신고한다.

공개된 게시물에 CSAM 스캔을 하는 것은 합당한 것으로 보인다. 하지만 클라우드에 저장된 사진을 스캔하는 것은 어떨까? 직접 찍은 사진이 오류로 삭제되지 않도록, 그리고 기기의 저장 공간을 확보하기 위해 우리는 클라우드 백업 서비스를 이용한다. 그런데 빅테크 기업은 클라우드에 저장된 데이터를 스캔하고 있다. 이것은 개인 정보 침해의 우려가 매우 높다. 게다가 CSAM 스캔 시스템의 불완전성으로 큰 불편을 겪었다는 보도가 나왔다.

22일(현지 시간) 뉴욕타임스(NYT)는 구글이 의료 목적으로 자녀의 성기 사진을 찍은 두 남성을 아동 학대와 착취 혐의로 신고했다고 보도했다. 사진이 구글 클라우드에 백업돼 CSAM 스캔에 감지됐기 때문이다.

두 사건은 모두 코로나 팬데믹 기간 동안 대면 진료가 어려웠던 2021년 2월에 발생했다. 아이의 성기에 발진이 생기자 남성은 병원 진료를 요청했다. 하지만 코로나로 진료실 방문이 어려워지자 비대면 화상 진료를 진행해야 했고 의사는 진료에 앞서 발진의 진행 상황을 추적하기 위해 사진을 보내달라고 요청했다. 따라서 아이의 성기 사진을 안드로이드 스마트폰으로 찍어 의료 기관의 메시지 시스템에 업로드했고 아이는 무사히 진료를 받고 상태가 호전됐다.

하지만 문제는 그다음에 일어났다. 구글 포토가 자동으로 사진을 백업하면서 구글 클라우드에 아이의 성기 사진이 업로드된 것이다. 그리고 해당 사진이 구글의 CSAM 알고리즘에 의해 감지됐다. 인간 모더레이터도 불법적인 사진으로 판단하고 남성의 구글 계정을 정지시켰다. 구글은 그와 동시에 미국 실종 학대 아동 방지 센터(National Center for Missing and Exploited Children, NCMEC)에 신고했고 이 사건은 자연스럽게 법 집행 기관으로 이관됐다.

10개월 후 두 남성은 경찰서로부터 아이의 성기 사진과 구글의 신고를 바탕으로 조사가 이뤄졌다는 통지를 받았다. 경찰은 구글에 메시지, 클라우드에 저장된 사진, 동영상, 인터넷 검색 기록, 위치 데이터 등 구글 계정으로 알 수 있는 모든 정보를 요구하는 수색 영장을 발부했다. 또한 전자 프런티어 재단(Electronic Frontier Foundation, EFF)에 따르면 구글은 내부에서 자체 조사를 실시했고 직원의 실수로 한 남성의 가족, 친구 사진 등 사건과 무관한 사진도 살펴봤다.

다행히도 경찰은 두 남성이 결백하다고 사건을 종결했다. 하지만 이 남성들은 자신도 모르는 사이 개인 정보가 열람됐다. 또한 잘못을 저지르지 않았는데도 구글 계정이 정지돼 큰 불편을 겪었다. 특히 안드로이드 스마트폰을 사용하는 경우 연락처, 이메일, 클라우드 등 모든 것이 구글 계정으로 연동돼 계정이 정지되는 경우 저장된 데이터를 열람할 수 없을뿐더러 활동에 여러 제약이 생긴다. 게다가 정지된 구글 계정은 아직도 복구되지 않았다.

이러한 자동화 스캔 시스템은 완벽하지 않고 개인정보를 침해하며 소수자를 향해 남용될 여지가 있다. CSAM 스캔으로 신고한 경우라도 다른 데이터를 열람하며 CSAM과 관련 없는 내용의 처벌이 행해질 가능성이 있다. 또한 독재 정권이나 부패한 경찰이 있는 곳에서는 무고하더라도 제대로 보호받지 못할 수도 있다. 특히 단순히 콘텐츠 검열에 그치지 않고 법 집행 기관에 신고가 이뤄지기 때문에 더욱 위험하다.

테크플러스 에디터 김보현, 나유권

tech-plus@naver.com​

[fv0012]

랭킹 뉴스

실시간 급상승 뉴스 베스트 클릭

- Advertisement -

LEAVE A REPLY

Please enter your comment!
Please enter your name here


Related Stories