Tehnologie

Apple are probleme cu legea: Cazuri suspecte de abuz sexual asupra copiilor pe platformele sale

Apple este acuzată de subraportare a prevalenței materialului de abuz sexual asupra copiilor (CSAM) pe platformele sale, potrivit unui organism de supraveghere din Marea Britanie.

Cum se apără Apple

Societatea Națională pentru Prevenirea Cruzimii față de Copii (NSPCC), o organizație caritabilă de protecție a copiilor din Marea Britanie, a acuzat Apple că a raportat doar 267 de cazuri suspecte de CSAM la Centrul Național pentru Copii Dispăruți și Exploatați (NCMEC) anul trecut. Aceasta este o cifră infimă în comparație cu cele 1,47 milioane de cazuri potențiale raportate de Google și cele 30,6 milioane de rapoarte de la Meta.

Alte platforme care au raportat mai multe cazuri potențiale de CSAM decât Apple în 2023 includ TikTok (590.376), X (597.087), Snapchat (713.055), Xbox (1.537) și PlayStation/Sony Interactive Entertainment (3.974). Fiecare companie de tehnologie cu sediul în SUA este obligată să transmită orice cazuri posibile de CSAM detectate pe platformele lor către NCMEC, care direcționează cazurile către agențiile de aplicare a legii relevante la nivel mondial.

NSPCC a mai spus că Apple a fost implicată în mai multe cazuri de CSAM (337) în Anglia și Țara Galilor între aprilie 2022 și martie 2023 decât a raportat la nivel mondial într-un an. Organizația a folosit solicitări de informații pentru a colecta aceste date de la forțele de poliție.

Planurile companiei

Conform The Guardian, care a raportat prima dată despre afirmația NSPCC, serviciile Apple precum iMessage, FaceTime și iCloud au toate criptare end-to-end (E2EE), care împiedică compania să vadă conținutul pe care utilizatorii îl partajează pe acestea. Cu toate acestea, WhatsApp are și el criptare E2EE și a raportat aproape 1,4 milioane de cazuri suspecte de CSAM la NCMEC în 2023.

„Există o discrepanță îngrijorătoare între numărul de infracțiuni legate de imagini de abuz asupra copiilor care au loc pe serviciile Apple în Marea Britanie și numărul aproape neglijabil de rapoarte globale de conținut abuziv pe care le fac autorităților”, a spus Richard Collard, șeful politicii de siguranță online pentru copii al NSPCC.

„Apple este clar în urma multor dintre colegii săi în abordarea abuzului sexual asupra copiilor, atunci când toate firmele de tehnologie ar trebui să investească în siguranță și să se pregătească pentru implementarea Actului de Siguranță Online în Marea Britanie”.

În 2021, Apple a anunțat planuri de a implementa un sistem care să scaneze imaginile înainte de a fi încărcate pe iCloud și să le compare cu o bază de date de imagini cunoscute de CSAM de la NCMEC și alte organizații. Dar, în urma unei reacții negative din partea susținătorilor confidențialității și drepturilor digitale, Apple a amânat lansarea instrumentelor sale de detectare CSAM înainte de a abandona definitiv proiectul în 2022.

Apple a refuzat să comenteze acuzația NSPCC, redirecționând în schimb The Guardian către o declarație făcută atunci când a renunțat la planul de scanare CSAM. Apple a spus că a optat pentru o strategie diferită care „prioritizează securitatea și confidențialitatea utilizatorilor săi”. Compania a declarat pentru Wired în august 2022 că „copiii pot fi protejați fără ca firmele să examineze datele personale”.