Notebookcheck Logo

Apple tira i controversi piani CSAM per la scansione dell'app Photos in iOS e iPadOS per le foto di nudo dei bambini dal suo sito web

Apple ha cancellato tutti i riferimenti alla sua iniziativa CSAM. (Fonte: Jeremy Bezanger)
Apple ha cancellato tutti i riferimenti alla sua iniziativa CSAM. (Fonte: Jeremy Bezanger)
Si diceva che Apple avrebbe integrato le scansioni CSAM in iOS 15.2 e iPad 15.2, rilasciati all'inizio di questa settimana. Tuttavia, l'azienda ha ora cancellato tutti i riferimenti a questi piani sul suo sito web, indicando che la caratteristica è stata tirata.

Alcuni giorni fa, Mark Gurman ha riferito che Apple avrebbe incluso diverse nuove funzionalità in iOS 15.2, rilasciato all'inizio di questa settimana. Per Gurman, una delle caratteristiche più notevoli era la capacità per iOS di scansionare "per le foto nude inviate a o da bambini nei messaggi". Per foto nude, Gurman intendeva materiale di abuso sessuale su minori (CSAM), che Apple ha discusso a lungo sul suo sito web.

Per qualche ragione, Apple ha rimosso tutto il materiale dell'iniziativa anti-CSAM dal suo sito web. È ancora possibile visualizzare Apple's logica dietro l'integrazione di questa funzionalità all'interno di iOS e iPadOS tramite The Wayback Machine. La sua rimozione non significa che Apple abbia fatto marcia indietro su questo, ma sarebbe la seconda volta che ha rimandato le integrazioni CSAM.

Apparentemente, Apple ha deciso di non rendere le scansioni CSAM una parte di iOS 15.2 e iPadOS 15.2, però. Apple insiste che le persone devono attivare questa funzione per la scansione delle foto, e che lo farebbe solo all'interno dell'app Messaggi. Inoltre, la società ha cercato di rassicurare le persone che nessuna immagine viene analizzata nel cloud e che il rischio di un account segnalato per errore sarebbe un trilione a uno.

Tuttavia, il Consiglio dell'Unione europea e Edward Snowden hanno creduto diversamente. In breve, Snowden considerava il CSAM "sorveglianza di massa" e che potrebbe essere usato per pratiche nefaste in futuro. Un portavoce di Apple ha detto aThe Vergeche "la posizione della società non è cambiata da settembre, quando ha annunciato per la prima volta che avrebbe ritardato il lancio del rilevamento CSAM".

Fonte(i)

Apple via MacRumors & The Verge, Jeremy Bezanger - Credito immagine

Please share our article, every link counts!
> Recensioni e prove di notebook, tablets e smartphones > News > Newsarchive 2021 12 > Apple tira i controversi piani CSAM per la scansione dell'app Photos in iOS e iPadOS per le foto di nudo dei bambini dal suo sito web
Alex Alderson, 2021-12-17 (Update: 2021-12-17)