반응형
애플이 아동 성적 학대 자료(CSAM) 탐지 도구를 구현하지 못해 집단 소송에 휘말렸다.
현지시간 지난 9일 애플은 아동 성적 학대 자료(CSAM)를 탐지하기 위한 도구를 구현하지 못했다는 이유로 북부 캘리포니아에서 집단 소송을 당했다.
피해자들은 애플의 기술 부재로 인해 CSAM 이미지가 계속 유포됐고 이로 인해 자신들이 추가적인 피해를 입었다고 주장헀다.
2021년 애플은 아이클라우드에 업로드된 이미지를 스캔해 국립 실종 및 착취 아동 센터(NCMEC)과 기타 조직의 알려진 CSAM 이미지 데이터베이스와 비교하는 시스템을 개방 중이라고 발표했다.
해당 도구는 CSAM을 감지해 신고하는 기능을 갖출 예정이었다. 그러나 개인 정보 보호 및 디지털 권리 옹호자들의 반발에 직면하면서 애플은 2022년 궁극적으로 프로젝트를 중단했다.
애플은 소송과 관련해 “아동 성적 학대 자료는 혐오스러운 것이다”며 “우리는 사용자의 보안과 프라이버시를 손상시키지 않으면서도 이러한 범죄와 싸우기 위해 노력하고 있다”고 밝혔다.
이어 “통신 안전 기능 등 사전 예방적 보호 장치를 구축하고 있다”고 덧붙였다.
한편 애플은 최근 영국의 아동 학대 방지 협회(NSPCC)로부터 CSAM 신고를 과소 보고했다는 비난을 받은 바 있다.
NSPCC는 애플이 작년에 전 세계적으로 CSAM 의심 사례를 단 267건만 보고했다고 지적했다.
반응형
'애플' 카테고리의 다른 글
아이폰 사용자 73%, “애플 인텔리전스 가치 거의 없다” (1) | 2024.12.18 |
---|---|
클라우드 기반 맥미니 서비스 출시 (1) | 2024.12.16 |
애플, 아이클라우드 소송 당해 (0) | 2024.12.09 |
애플 시리 대대적 변신 예고 (1) | 2024.11.28 |
애플, icloud 메모 사라짐 문제 인정 (0) | 2024.11.18 |