ChatControl, così gli algoritmi monitoreranno le conversazioni private

12 Agosto 2021 06:00

In breve:

  • La lotta alla pedopornografia passa per una compressione della privacy degli utenti
  • Il Parlamento europeo permetterà ai fornitori delle applicazioni di scandagliare le chat degli utenti in cerca di materiale o conversazioni sospette
  • Apple installerà sui dispositivi statunitensi un controllo preventivo delle chat e delle foto caricate su iCloud
  • Le preoccupazioni del Garante della privacy: “Se qualcosa va storto le conseguenze per le persone potrebbero essere drammatiche”

Un passo in avanti per la lotta alla pedopornografia online e, forse, un passo indietro per la privacy degli utenti. È sul cronicamente precario equilibrio tra libertà e sicurezza che Parlamento europeo e società come Apple (negli Stati uniti) hanno deciso di intervenire, introducendo di fatto meccanismi di sorveglianza sulle conversazioni e gli archivi privati degli utenti, o quantomeno lo spazio legislativo per poterli introdurre. Ecco cosa è successo e perché è importante conoscere gli ultimi sviluppi.

Il Parlamento europeo approva il ChatControl

Il 6 luglio scorso il Parlamento europeo ha adottato la versione finale del nuovo regolamento soprannominato “ChatControl”. A tutti gli effetti una deroga alla direttiva 2002/58/CE, conosciuta al pubblico con il nome di “ePrivacy”, che regola il trattamento dei dati personali e la tutela della vita privata nel settore delle comunicazioni elettroniche (da non confondersi con il Gdpr, che invece riguarda il processo di trattamento dei dati personali). Tramite il regolamento “ChatControl” il Parlamento europeo ha stabilito che i fornitori di servizi di comunicazione interpersonale (ad esempio applicazioni di messaggistica) potranno utilizzare tecnologie di sorveglianza delle conversazioni degli utenti disapplicando la direttiva del 2002 relativa al trattamento dei dati personali, nella misura “strettamente necessaria a individuare gli abusi sessuali online sui minori sui propri servizi e segnalarli e a rimuovere il materiale pedopornografico online dai loro servizi” (recita l’articolo 1, comma 1).

In parole povere cosa succederà?

I fornitori di applicazioni di messaggistica, come ad esempio il gruppo Facebook che comprende anche Whatsapp e Instagram, avranno quindi la facoltà (non l’obbligo) di scansionare le conversazioni private degli utenti alla ricerca di contenuti sensibili legati al traffico di materiale pedopornografico e di segnalarlo alle autorità competenti. Questo regolamento temporaneo (avrà durata di tre anni) infatti disapplica l’articolo 5 comma 1 della direttiva del 2002, quello che vietava “l’ascolto, la captazione, la memorizzazione e altre formi di intercettazione o di sorveglianza delle comunicazioni”, ma anche l’articolo 6 comma 1 di seguito riportato, nel caso di tecnologie di lotta o prevenzione degli abusi sessuali sui minori.

Va sottolineato come, in base a quanto emerso, le società non avranno accesso diretto e “in chiaro” alle conversazioni degli utenti. Dovrebbero infatti essere degli specifici algoritmi a controllare in prima battuta la presenza di contenuti sensibili, confrontandoli con quelli presenti in un database di riferimento. La Commissione europea ha già intenzione di proporre un testo definitivo per combattere gli abusi sessuali sui minori online e offline, con una legge che potrebbe essere pronta prima della fine del 2021.

Le preoccupazioni del Garante della privacy

Guido Scorza, componente del Garante per la protezione dei dati personali, è intervenuto le scorse settimane per commentare proprio il nuovo regolamento, avanzando diverse perplessità. “Nessuno leggerà, o almeno dovrebbe leggere, in chiaro il contenuto delle nostre comunicazioni, i gestori scandaglieranno le nostre comunicazioni elettroniche in maniera automatica, attraverso filtri intelligenti che si limitano a cercare corrispondenza tra i contenuti multimediali che trasmettiamo e riceviamo e alcuni database che contengono contenuti di natura pedopornografica”, ha dichiarato sulle pagine de Il Fatto Quotidiano. “È fuor di dubbio che se qualcosa va storto, penso al rischio di falsi positivi, le conseguenze per le persone potrebbero essere drammatiche quanto lo è ritrovarsi bollato, in un qualche database pubblico o privato, come pedofilo mentre non lo si è”.

Negli Stati uniti è Apple a fare un passo avanti

Ma sulla piaga della pedopornografia si stanno muovendo anche grandi società statunitensi come Apple. Il colosso di Cupertino ha annunciato che con gli aggiornamenti a iOS 15, iPadOS 15, watchOS 8 e macOS Monterey installerà all’interno dei propri dispositivi negli Stati uniti nuove e innovative funzionalità proprio in questo senso. Anzitutto nell’applicazione “Messenger” sarà implementato un blocco destinato ai minori che individuerà automaticamente, grazie ad algoritmi, la presenza all’interno di un messaggio di una foto o video sessualmente espliciti. In caso di rilevazione questo algoritmo oscurerà il file, comunicando al minore che il contenuto potrebbe urtare la sua sensibilità e che in caso di apertura e visualizzazione dell’immagine o del video i suoi genitori riceveranno immediatamente una notifica. In questo caso quindi un algoritmo potrà scandagliare in anticipo il contenuto della chat. Ma le novità annunciate da Apple non finiscono qui.

Una tecnologia per scandagliare gli archivi iCloud degli utenti

La funzionalità che più ha fatto discutere è il “rilevamento di materiale di abusi sessuali su minori”, ovvero tutti quei contenuti che mostrano attività sessualmente esplicite in presenza di bambini. Questa tecnologia permetterà ad Apple di scandagliare l’archivio iCloud degli utenti (lo spazio di memoria online solitamente utilizzato per copie di sicurezza) in cerca di foto o video a contenuto pedopornografico. Il procedimento in realtà sarà un po’ più complicato. La tecnologia Neuralhash, questo il suo nome, controllerà preventivamente tutte le foto che gli utenti invieranno verso il proprio spazio iCloud. Lo farà tramite crittografia, quindi (stando a quanto comunicato dall’azienda) senza inviare direttamente le foto archiviate “in chiaro” all’azienda, e confrontandole con un database di foto classificate come pedopornografiche fornito direttamente dal “Centro nazionale per i bambini scomparsi e sfruttati” del Congresso degli Stati uniti d’America e da altre società che combattono gli abusi sui minori. In caso di corrispondenza, il file dell’utente viene “marchiato” e sottoposto ad ulteriori controlli iterativi sempre protetti da crittografia (quindi invisibili a Apple). Se anche questi ulteriori controlli confermano la corrispondenza, allora i file possono essere aperti da Apple stessa per una verifica manuale, senza più la protezione della crittografia. Se anche il controllo manuale dovesse confermare la corrispondenza tra la foto dell’archivio dell’utente ed una di quelle presenti nell’archivio delle associazioni contro gli abusi allora Apple procederà con il blocco dell’account dell’utente e l’invio di un rapporto al “Centro nazionale per i bambini scomparsi e sfruttati”. Anche in questo caso non sono mancati dubbi e preoccupazioni, compreso il duro intervento di Edward Snowden.

© Copyright 2024 Editoriale Libertà