Apple risponde ai problemi di scansione di iCloud Photos in un memo interno

Apple risponde ai problemi di scansione di iCloud Photos in un memo interno
Giovedì, Apple ha annunciato tre nuovi sforzi volti ad aggiungere nuove funzionalità di protezione dei bambini a iPhone, iPad e Mac negli Stati Uniti. Ora, l’azienda ha affrontato le preoccupazioni in una nota interna.

Apple afferma che continuerà a spiegare e dettagliare le funzionalità

Distribuito alle squadre che hanno lavorato all’iniziativa e ottenuto da 9to5Mac, la nota interna vede Apple riconoscere le recenti incomprensioni e preoccupazioni sulle implicazioni della tecnologia. Tuttavia, l’azienda afferma che continuerà a spiegare e dettagliare le caratteristiche in modo che le persone capiscano cosa è stato costruito. Intanto, Apple afferma che “molto duro lavoro ci attende per fornire le funzionalità nei prossimi mesi”. la funzione potrebbe aprire le porte ad altri usi di sorveglianza più preoccupanti. Uno dei critici di più alto profilo finora è Edward Snowden, che ha affermato quanto segue: “Non importa quanto bene intenzionato, Apple sta implementando la sorveglianza di massa in tutto il mondo con questo. Non commettere errori: se possono scansionare il porno per bambini oggi, possono scansionare qualsiasi cosa domani.滭br>Il memo interno completo inviato ai dipendenti Apple e scritto dal Vice President Software Sebastien Marineau-Mes è di seguito: Oggi segna la presentazione pubblica ufficiale delle Protezioni Estese per i Bambini, e volevo prendermi un momento per ringraziare ognuno di voi per tutto il vostro duro lavoro negli ultimi anni. Non avremmo raggiunto questo traguardo senza la tua instancabile dedizione e resilienza. Mantenere i bambini al sicuro è una missione così importante. In vero stile Apple, perseguire questo obiettivo ha richiesto un profondo impegno interfunzionale, che abbraccia Engineering, GA, HI, Legal, Product Marketing e PR. Quello che abbiamo annunciato oggi è il prodotto di questa incredibile collaborazione, che fornisce strumenti per proteggere i bambini, ma mantiene anche il profondo impegno di Apple per la privacy degli utenti. Oggi abbiamo ricevuto molte risposte positive. Sappiamo che alcune persone hanno incomprensioni e più di alcune sono preoccupate per le implicazioni, ma continueremo a spiegare e dettagliare le funzionalità in modo che le persone capiscano cosa abbiamo costruito. E mentre c’è molto lavoro da fare per fornire le funzionalità nei prossimi mesi, volevo condividere questa nota che abbiamo ricevuto oggi da NCMEC. L’ho trovato incredibilmente motivante e spero che lo farai anche tu. Sono orgoglioso di lavorare in Apple con un team così straordinario. Grazie!

In cosa consistono le funzioni di protezione dei bambini di Apple?

iCloud

Per combattere la diffusione di materiale pedopornografico, contenuto che descrive attività sessualmente esplicite che coinvolgono un bambino, Apple sta aggiungendo una funzione di rilevamento CSAM al suo servizio iCloud Photos. Prima che le foto vengano caricate su iCloud Photos, i dispositivi Apple ora analizzeranno le immagini per trovare eventuali corrispondenze rispetto a un database di immagini CSAM fornito dal National Center for Missing and Exploited Children.Apple afferma di aver trasformato il database in un set di hash non leggibile che è archiviato in modo sicuro sui dispositivi degli utenti. Il processo di abbinamento è alimentato da voucher di sicurezza crittografici che codificano i risultati della partita. Il contenuto dei voucher di sicurezza può essere interpretato da Apple a meno che non sia specificata una soglia di contenuto CSAM. Se viene raggiunta tale soglia, Apple esaminerà manualmente il rapporto per confermare eventuali corrispondenze e disabilitare l’account utente. Inoltre, la società afferma che invierà un rapporto al Centro nazionale per i bambini scomparsi e sfruttati. È importante sottolineare che questa funzionalità è attualmente limitata negli Stati Uniti, anche se Apple spera di espandersi altrove in futuro. Inoltre, le foto archiviate solo sul dispositivo non sono incluse nel processo di scansione.

Messaggi

Oltre ai controversi piani di iCloud Photos, Apple ha presentato una nuova funzionalità di sicurezza della comunicazione con attivazione nell’app Messaggi per i bambini che fanno parte di una famiglia iCloud. La funzione utilizza l’apprendimento automatico sul dispositivo per analizzare il contenuto delle foto. Se un bambino riceve un’immagine sessualmente esplicita, il bambino vedrà un avviso e l’immagine sarà sfocata all’interno dell’app Messaggi. Se il bambino sceglie di toccare Visualizza foto, verrà visualizzato un breve messaggio pop-up per informare il motivo per cui l’immagine è considerata sensibile. Se il bambino sceglie di procedere, il genitore della famiglia iCloud riceverà una notifica. Questo sarà anche spiegato nel messaggio pop-up. Saranno presenti anche collegamenti a ulteriori aiuti. Fondamentalmente, la notifica per i genitori è disponibile solo per i bambini di età inferiore ai 13 anni. Apple risponde ai problemi di scansione di iCloud Photos in un memo interno

Siri e Cerca

L’ultimo aggiornamento annunciato da Apple è stato un’espansione della guida in Siri e Ricerca. In particolare, i servizi forniranno risorse aggiuntive per aiutare sia i bambini che i genitori a stare al sicuro e ottenere aiuto quando necessario. Tutte queste funzionalità arriveranno entro la fine dell’anno in un aggiornamento a iOS 15, iPadOS 15, watchOS 8 e macOS 12.

Nuovi motivi per emozionarsi ogni settimana

Ricevi le notizie, le recensioni e le offerte più importanti sulla tecnologia mobile direttamente nella tua casella di posta

Leave a Reply