Il potenziale scandalo segnalato da Human Rights Watch proviene dall’Australia: una Ia sarebbe stata “addestrata” con foto di bambini.
Foto di piccoli ancora legati al cordone ombelicale, che fanno bolle, che suonano strumenti o in costume da carnevale. Bambini indigeni che ballano, che si abbracciano. Immagini spesso protette dalla privacy, da firewall e da login. Nessun muro virtuale, però, sarebbe stato in grado di fermare l’Intelligenza Artificiale. Tanto che centinaia di queste foto sono finite in un set di dati denominato “Laion-5b”.
Il set, secondo quanto riportato da Human Rights Watch, è utilizzato poi dall’Ia tedesca Laion per realizzare artificialmente immagini richieste dagli utenti. Descritte in poche righe e restituite in pochi secondi. Il problema non è solo che la foto realizzata dall’Ia riportava volti identici a quelli dei bambini “originali”, ma anche che nella didascalia, nell’url e nei metadati si trovavano informazioni su quando e dove si trovava il bimbo nel momento in cui è stata scattata la foto.
In un caso esaminato la foto di due bambini di 3 e 4 anni, che sorridono da un orecchio all’altro mentre tengono i pennelli davanti a un murale colorato, era accompagnata da una didascalia che rivelava i nomi completi, le età dei bambini e il nome della scuola materna che frequentavano a Perth, nell’Australia occidentale.
Human Rights Watch ha trovato 190 foto di bambini provenienti da tutti gli stati e territori dell’Australia. Si tratta probabilmente di una significativa sottostima della quantità di dati personali dei bambini presenti nel Laion-5b, poiché Hrw ha esaminato meno dello 0,0001% dei 5,85 miliardi di immagini e didascalie contenute nel set di dati. Alcune foto sono state pubblicate su blog personali. Altre foto sono state caricate dalle scuole. Alcune non sono reperibili nelle versioni accessibili al pubblico.
“L’addestramento sulle foto di bambini reali consente ai modelli di intelligenza artificiale di creare cloni convincenti di qualsiasi bambino, sulla base di una manciata di foto o anche di una singola immagine. – ha affermato Hye Jung Han, ricercatrice e sostenitrice dei diritti dei bambini e della tecnologia presso Human Rights Watch – Una volta che i loro dati vengono raccolti e inseriti nei sistemi di intelligenza artificiale, questi bambini devono affrontare ulteriori minacce alla loro privacy a causa di difetti nella tecnologia”.
Hrw: “Modelli noti per la fuga di informazioni”
Hrw ha inoltre ricordato che “i modelli Ia, compresi quelli addestrati su Laion-5b, sono noti per la fuga di informazioni private. Possono riprodurre copie identiche del materiale su cui sono stati formati, comprese cartelle cliniche e foto di persone reali. Le barriere predisposte da alcune aziende per impedire la fuga di dati sensibili sono state ripetutamente infrante”.
Laion, l’organizzazione no-profit tedesca che gestisce Laion-5b, ha confermato che il set di dati conteneva le foto personali dei bambini trovate da Human Rights Watch e si è impegnata a rimuoverle. Ha contestato, però, che i modelli di intelligenza artificiale potessero riprodurre i dati personali alla lettera.