결국…아동 성 착취물 검열계획 중단한 애플

- Advertisement -

(출처:techcrunch)

아동 성 착취물을 검열하겠다는 애플의 계획이 중단됐다. 계획을 발표한 지 한 달 만이다.

3일(현지시간) 애플은 아동 성 착취물(CSAM) 이미지를 검열하는 도구 테스트를 일시적으로 중단한다고 밝혔다. 애플 측은 “지난달 커뮤니케이션 도구를 사용해 아이들을 착취하는 이들을 막고 CSAM 확산을 제한하는 계획을 발표했다”면서 “고객, 지지단체, 연구원 그리고 다른 사람들의 피드백을 바탕으로 어린이 안전에 매우 중요한 기능을 출시하기 전에 의견을 수집하고 개선하기 위해 앞으로 몇 달 동안 추가 시간을 갖기로 결정했다”고 발표했다.

지난 8월 6일, 애플이 CSAM 이미지를 검열할 계획이라는 소식이 전해졌다. CSAM을 찾아내는 것 자체는 의미 있는 일이다. 좋은 의도로 보이지만 애플의 계획은 이내 논란을 불러일으켰다.

애플은 CSAM 이미지를 찾기 위해 아이클라우드(iCloud)와 아이메시지(iMessage)를 들여다본다고 밝혔다. 비영리 민간단체인 아동실종학대방지센터(NCMEC) 데이터베이스에 저장된 CSAM 이미지와 사용자의 데이터를 비교해 이미지를 찾게 된다.

하지만 애플의 새로운 정책이 시행되면 개인정보 유출 가능성이 높아진다는 점이 지적됐다. 각종 단체와 소비자들은 사용자의 민감한 정보를 검열하고 사생활을 엿볼 수 있는 백도어를 만드는 행위라며 기업의 계획을 강도 높게 비판했다.

미국 파이트포더퓨처(Fight for the Future) 이사인 에반 그리어(Evan Greer)는 성명을 통해 “사진과 메시지를 스캔하려는 애플의 계획은 현대 기술 기업의 가장 위험한 제안 중 하나”라면서 “기술적으로 수백만 명의 기기에 멀웨어를 설치하는 행위”라고 주장했다.

(출처:NYT)

논란이 커지자 애플은 CSAM 이미지를 제외한 다른 데이터를 확인하는 일은 없다고 설명했다. 정부 기관과 데이터를 공유하는 일도 없다고 했다. 이러한 해명에도 불구하고 애플을 향한 우려는 사그라지지 않았다. 정책을 강행했다가는 보안을 최우선으로 내세우던 애플의 이미지는 크게 훼손될 것이 불 보듯 뻔했다.

(출처:appleinsider)

애플의 선택은 ‘일보 후퇴’였다. 사실상 CSAM 검열 계획을 철회하고 부정적인 여론을 잠재우려는 의도로 읽힌다.

테크플러스 에디터 나유권

tech-plus@naver.com

- Advertisement -

Related Stories

Enable Notifications    OK No thanks