La decisione in merito ai sistemi di Intelligenza Artificiale di Meta è giunta dal Brasile: rischio danni irreparabili.
L’Autorità nazionale brasiliana per la protezione dei dati ha emesso un divieto sull’uso da parte di Meta dei dati personali degli utenti per addestrare i suoi sistemi di Intelligenza Artificiale (Ia). La decisione nasce dal “rischio imminente di un danno grave e irreparabile o di un danno difficile da riparare ai diritti fondamentali degli interessati”. A segnalare l’accaduto l’organizzazione Human Rights Watch.
Hrw, così come accaduto pochi giorni fa per l’Australia, aveva segnalato che in Brasile le foto di bambini erano state utilizzate per realizzare i cosiddetti deepfake. Meta, insomma, utilizza i dati personali pubblicati dai suoi utenti con sede negli Stati Uniti per addestrare i suoi modelli di Intelligenza Artificiale. Questa pratica è ad oggi vietata in Brasile. E impone una multa giornaliera di circa 9mila dollari americani per il suo mancato rispetto entro cinque giorni lavorativi dalla notifica della decisione.
A seguito della decisione, Meta ha affermato di “rispettare le leggi e i regolamenti sulla privacy in Brasile”. E ha definito la decisione “un passo indietro per l’innovazione e la concorrenza nello sviluppo dell’Intelligenza Artificiale e ulteriori ritardi nel portare i benefici dell’Ia alle persone”.
“La decisione del governo brasiliano è una mossa potente per proteggere la privacy dei dati delle persone di fronte agli usi e agli abusi in rapida evoluzione dell’Intelligenza Artificiale. – hanno fatto sapere da Human Rights Watch – Il provvedimento brasiliano aiuta soprattutto a proteggere i bambini. Il timore è che i loro dati personali, condivisi con amici e familiari sulle piattaforme di Meta, possano essere utilizzati per danneggiarli in modi imprevedibili o da cui è impossibile proteggersi”.
Il precedente australiano
Nei giorni scorsi Hrw aveva segnalato che in Australia una Ia sarebbe stata “addestrata” con foto di bambini. Centinaia di foto erano finite in un set di dati denominato “Laion-5b”. Il set era utilizzato poi dall’Ia tedesca Laion per realizzare artificialmente immagini richieste dagli utenti.
Human Rights Watch aveva trovato 190 foto di bambini provenienti da tutti gli stati e territori dell’Australia. Si trattava probabilmente di una significativa sottostima della quantità di dati personali dei bambini presenti nel Laion-5b. Hrw aevva esaminato meno dello 0,0001% dei 5,85 miliardi di immagini e didascalie contenute nel set di dati. Alcune foto erano state pubblicate su blog personali. Altre foto erano state caricate dalle scuole. Alcune non erano reperibili nelle versioni accessibili al pubblico.