크레이그 페더리 애플 소프트웨어 담당 수석 부사장 ⓒ 데일리포스트=이미지 출처/apple

[데일리포스트=김정은 기자] 애플이 아이폰 등 자사 단말에 적용할 예정이었던 아동 성 착취 음란물 사진 감지 기능, 일명 '아동 음란물 방지 기능'의 도입을 연기한다고 밝혔다. 

미국 월스트리트저널(WSJ) 등 외신 보도에 따르면 사생활 침해 위험 논란을 의식한 것으로 보인다. 

애플은 성명에서 "고객과 인권단체, 연구자 등의 의견을 바탕으로 향후 수개월 더 시간을 들여 정보 수집이나 개선에 시간을 투자하기로 결정했다"고 설명했다. 구체적인 도입 시기에 대해서는 밝히지 않았다.

◆ 아동 성학대 콘텐츠 검열...'사생활 침해 논란' 

앞서 애플은 아이클라우드(iCloud)에 업로드하는 콘텐츠 가운데 아동을 대상으로 한 음란물 콘텐츠(CSAM:Child Sexual Abuse Material)를 감지하면 비영리 민간단체 아동실종학대방지센터(NCMEC)에  통보하는 자동 탐지시스템을 개발했다.

구체적으로 아이폰에 저장된 사진을 애플 클라우드 서비스 아이클라우드에 업로드할 때 해당 사진을 CSAM의 이미지 데이터베이스와 대조해 문제가 있는 사진을 특정한다. 시스템이 일정 수를 감지하면, 애플 담당자가 사진을 확인하고 이용자 계정을 정지한 후 NCMEC에 보고하는 방식이다. 

ⓒ 데일리포스트=이미지 출처/apple

2021년 8월에는 연내에 출시될 새로운 운영체제(OS)에 이 기능을 도입하기 위해 미국 일부 이용자를 대상으로 시험을 시작했다고 밝혔다. 적용 OS로는 ▲iOS 15 ▲iPadOS 15 ▲watchOS 8 ▲macOS Monterey가 포함됐다. 

애플은 "새로운 기능은 사용자의 단말에 있는 사진과 클라우드 서비스에 저장된 사진을 광범위하게 검사하는 것이 아니다. 클라우드에 업로드할 때 단말 측 소프트웨어에서 감지할 뿐"이라며 "클라우드 서비스를 이용하지 않는 사람에게는 아무런 영향이 미치지 않는다"고 덧붙였다.

하지만 프라이버시 옹호 단체 등은 이용자의 콘텐츠를 검색하는 기술은 다른 용도로 이용될 수 있다며 우려를 표했다. 가령 일부 국가의 정부가 시민의 정치적 주장과 관련된 사진을 검열하는 등 사생활 침해에 악용될 수 있다는 지적이 쏟아졌다. 

애플은 이러한 우려에 대해 웹 사이트에 문서를 공개하고 "우리는 이러한 요청에 일절 응하지 않는다. 이 기능은 아이클라우드에 업로드되는 아동 포르노를 감지하기 위해서만 개발됐다"고 설명했다.

◆ 메시지 서비스의 아동 보호 기능

애플은 지난 8월 아동 음란물 방지 기능과 함께 메시지 서비스 '아이메시지(iMessage)'에서 부모가 자녀를 보호할 수 있는 새로운 기능도 함께 발표했다.

이 기능은 성적 묘사 사진을 보내거나 받을 때 열람을 방지하는 것이다. 가령 아이가 문제가 있는 사진을 보내려고 하거나 받으면 소프트웨어가 해당 사진을 감지해 노출하지 않는다. 그리고 "만약 이 사진이 노출되면 보호자에게 통지합니다"라는 경고성 문구를 발신한다. 

애플은 첫 번째 CSAM 감지 기능과 두 번째 메시지 서비스의 아동 보호 기능은 다른 것이며, 적용된 기술도 다르다고 설명하고 있다.

ⓒ 데일리포스트=이미지 출처/flickr

크레이그 페더리 애플 소프트웨어 담당 수석 부사장은 이후 WSJ과의 인터뷰에서 "두 가지 기능을 동시에 발표한 것이 혼란을 초래한 원인"이라고 해명했다.

그는 "목욕하는 자녀의 사진을 분석하는 일은 없다. 이용자가 다른 종류의 포르노 사진을 가지고 있는지도 조사하지 않는다"고 덧붙였다.

그럼에도 전문가들은 애플의 기술에 우려를 표하고 있다. 미국 존스 홉킨스 대학의 그린 교수는 애플이 채택한 알고리즘이 이미지를 잘못 인식할 우려가 있다며, "애플은 고객의 사적인 사진을 스캔해서는 안된다"고 밝혔다. 

저작권자 © 데일리포스트 무단전재 및 재배포 금지