“Training Humans” fino al 24 febbraio 2020 all’Osservatorio Fondazione Prada
L’arte di riconoscere i volti secondo i sistemi di AI
Immagine dlla mostra "Kate Crawford | Trevor Paglen: Training Humans". Osservatorio Fondazione Prada, 2019. Foto Marco Cappelletti. Courtesy Fondazione Prada
Eleonora Zamparutti
12/09/2019
Milano - L’esperienza ci dice che in una frazione di secondo gli esseri umani sono in grado di valutare “a pelle” un proprio simile.
Esperimenti scientifici condotti da alcuni ricercatori dimostrano che un individuo adulto è in grado di decidere in pochi secondi se la persona ritratta in una fotografia è votabile oppure no alle prossime elezioni.
Solo più tardi subentrano le valutazioni razionali che contribuiscono a ponderare il nostro giudizio e a renderlo più articolato.
Quell’energia potente che si chiama istinto è in verità la sintesi di una serie di impulsi diversi. Dati di memoria stampati nell’elica del nostro DNA si incrociano con informazioni sensoriali rilevate dal nostro corpo. A ciò si aggiungono influenze culturali e ambientali raccolte nell’arco di una vita grazie all’esperienza, che si mescolano con il ricordo ancestrale di pulsioni e paure e speranze nutrite sotto la volta celeste milioni di anni fa dai nostri antenati e non ancora sopite.
E’ l’istinto, mediato e addomesticato, con tutte le limitazioni e i pregiudizi che esso porta con sé, a guidare in parte le nostre scelte.
E proprio l’istinto è la magia che differenzia l’uomo dalla macchina.
Perché una macchina sia in grado di elaborare un’immagine alla stessa velocità con cui procede la mente umana, ci vogliono anni di apprendimento, enormi data set da elaborare, straordinaria capacità di calcolo. Perché per quanto limitata sia la quantità di informazioni che un individuo possa tenere a mente, rispetto a un calcolatore, la complessità di elaborazione dei dati da parte dell’uomo rimane ancora oggi decisamente impareggiabile. Lo dimostra un’esposizione fotografica inaugurata a Milano presso l’Osservatorio Fondazione Prada e aperta al pubblico fino al 24 febbraio 2020.
A Facial Recognition Project Report, Woodrow Wilson Bledsoe, 1963. Tra i primi studi sul riconoscimento facciale finanziato dalla CIA.
“Training Humans” è il frutto di un lavoro condotto dal duo formato da Kate Crawford, professoressa e studiosa nell’ambito dell’intelligenza artificiale, e Trevor Pagle, artista e ricercatore.
La mostra è incentrata su un vasto repertorio di immagini di training, ossia fotografie impiegate dagli scienziati dagli anni Sessanta a oggi, per la messa a punto di sistemi di intelligenza artificiale (IA) come “vedere” e classificare il mondo e in particolar modo i volti umani. “Questi materiali visivi rappresentano la nuova fotografia vernacolare che guida la visione artificiale” ha affermato Kate Crawford. “Per verificare il loro funzionamento, abbiamo analizzato centinaia di set di immagini di training per capire i processi interni di questi ‘motori del vedere’”.
Al primo piano sono esposte fotografie estrapolate da vari database appartenenti a università, enti governativi e centri di ricerca di varie nazioni. Dalla CIA proviene A Facial Recognition Project Report, un documento Top Secret del 1963 che rivela uno studio sperimentale sul riconoscimento facciale finanziato dalla Central Intelligence Agency (CIA).
Dal National Institute of Standards proviene il set di dati Feret Dataset per lo studio del riconoscimento facciale durante l’invecchiamento, composto da foto segnaletiche di individui arrestati in più occasioni.
Il Casia Gait and Cumulative Foot Pressure è invece un insieme di informazioni creato dal Centro per la biometrica e al ricerca sulla sicurezza dell’Accademia delle Scienze cinese, e utilizzato per studiare il riconoscimento dell’andatura delle persone.
Al piano superiore invece i vari raggruppamenti di immagini descrivono come si è evoluta la raccolta di dati dal 2000 a oggi, in concomitanza con l’esplosione di Internet e l’avvento dei social media grazie ai quali l’IA può contare oggi sulla disponibilità di miliardi di immagini gratuite.
Ciò che emerge è che la capacità di visione delle macchine è cresciuta esponenzialmente negli ultimi anni, accanto al potere computazionale e alle infrastrutture disponibili.
La classificazione degli esseri umani attuate attraverso i sistemi di IA sono sempre più invasive e complesse. Il Selfie Dataset realizzato all’Università della Florida Centrale contiene 40.000 fotografie raccolte su Instagram e suddivise in categorie in base a età, sesso, razza, forma del volto, espressioni facciali, colore e taglio di capelli, accessori e luce.
Image-Net di Li Fei-Fei e Kai Li, due ricercatori delle università di Stanford e Princeton, è un progetto per mappare l’intero universo di oggetti. Image-Net include 14.197.122 immagini suddivise in 21.841 categorie. In mostra sono presentate le immagini più rappresentative della sezione persone, contenente quasi un milione di fotografie classificate in oltre 2000 tipologie.
Interessante, in chiusura, Age, Gender and Emotion in the Wild di Trevor Paglen. L’artista ha messo a punto un sistema che impiega i modelli sviluppati dai ricercatori di Facebook e Amazon per stimare l’età, il sesso e la condizione emotiva dei volti rilevati dalla telecamera installata nella sala.
I visitatori della mostra vengono ripresi e classificati secondo gli algoritmi dei giganti di Internet. L’immagine della sottoscritta è risultata descrivere una persona di sesso femminile (corretto), di età compresa tra i 48 e i 53 anni (corretto), psicologa/sociologa (sbagliato), avente a che fare con l’aviazione (per via dei pantaloni verde salvia che indossavo, informazione evidentemente sbagliata). Emozioni rilevate dalla macchina sulla base dell’espressione facciale: felicità, paura.
Una mostra inquietante e al tempo stesso rincuorante: sarà dura insegnare alle macchine che l’abito non fa il monaco!
Esperimenti scientifici condotti da alcuni ricercatori dimostrano che un individuo adulto è in grado di decidere in pochi secondi se la persona ritratta in una fotografia è votabile oppure no alle prossime elezioni.
Solo più tardi subentrano le valutazioni razionali che contribuiscono a ponderare il nostro giudizio e a renderlo più articolato.
Quell’energia potente che si chiama istinto è in verità la sintesi di una serie di impulsi diversi. Dati di memoria stampati nell’elica del nostro DNA si incrociano con informazioni sensoriali rilevate dal nostro corpo. A ciò si aggiungono influenze culturali e ambientali raccolte nell’arco di una vita grazie all’esperienza, che si mescolano con il ricordo ancestrale di pulsioni e paure e speranze nutrite sotto la volta celeste milioni di anni fa dai nostri antenati e non ancora sopite.
E’ l’istinto, mediato e addomesticato, con tutte le limitazioni e i pregiudizi che esso porta con sé, a guidare in parte le nostre scelte.
E proprio l’istinto è la magia che differenzia l’uomo dalla macchina.
Perché una macchina sia in grado di elaborare un’immagine alla stessa velocità con cui procede la mente umana, ci vogliono anni di apprendimento, enormi data set da elaborare, straordinaria capacità di calcolo. Perché per quanto limitata sia la quantità di informazioni che un individuo possa tenere a mente, rispetto a un calcolatore, la complessità di elaborazione dei dati da parte dell’uomo rimane ancora oggi decisamente impareggiabile. Lo dimostra un’esposizione fotografica inaugurata a Milano presso l’Osservatorio Fondazione Prada e aperta al pubblico fino al 24 febbraio 2020.
A Facial Recognition Project Report, Woodrow Wilson Bledsoe, 1963. Tra i primi studi sul riconoscimento facciale finanziato dalla CIA.
“Training Humans” è il frutto di un lavoro condotto dal duo formato da Kate Crawford, professoressa e studiosa nell’ambito dell’intelligenza artificiale, e Trevor Pagle, artista e ricercatore.
La mostra è incentrata su un vasto repertorio di immagini di training, ossia fotografie impiegate dagli scienziati dagli anni Sessanta a oggi, per la messa a punto di sistemi di intelligenza artificiale (IA) come “vedere” e classificare il mondo e in particolar modo i volti umani. “Questi materiali visivi rappresentano la nuova fotografia vernacolare che guida la visione artificiale” ha affermato Kate Crawford. “Per verificare il loro funzionamento, abbiamo analizzato centinaia di set di immagini di training per capire i processi interni di questi ‘motori del vedere’”.
Al primo piano sono esposte fotografie estrapolate da vari database appartenenti a università, enti governativi e centri di ricerca di varie nazioni. Dalla CIA proviene A Facial Recognition Project Report, un documento Top Secret del 1963 che rivela uno studio sperimentale sul riconoscimento facciale finanziato dalla Central Intelligence Agency (CIA).
Dal National Institute of Standards proviene il set di dati Feret Dataset per lo studio del riconoscimento facciale durante l’invecchiamento, composto da foto segnaletiche di individui arrestati in più occasioni.
Il Casia Gait and Cumulative Foot Pressure è invece un insieme di informazioni creato dal Centro per la biometrica e al ricerca sulla sicurezza dell’Accademia delle Scienze cinese, e utilizzato per studiare il riconoscimento dell’andatura delle persone.
Al piano superiore invece i vari raggruppamenti di immagini descrivono come si è evoluta la raccolta di dati dal 2000 a oggi, in concomitanza con l’esplosione di Internet e l’avvento dei social media grazie ai quali l’IA può contare oggi sulla disponibilità di miliardi di immagini gratuite.
Ciò che emerge è che la capacità di visione delle macchine è cresciuta esponenzialmente negli ultimi anni, accanto al potere computazionale e alle infrastrutture disponibili.
La classificazione degli esseri umani attuate attraverso i sistemi di IA sono sempre più invasive e complesse. Il Selfie Dataset realizzato all’Università della Florida Centrale contiene 40.000 fotografie raccolte su Instagram e suddivise in categorie in base a età, sesso, razza, forma del volto, espressioni facciali, colore e taglio di capelli, accessori e luce.
Image-Net di Li Fei-Fei e Kai Li, due ricercatori delle università di Stanford e Princeton, è un progetto per mappare l’intero universo di oggetti. Image-Net include 14.197.122 immagini suddivise in 21.841 categorie. In mostra sono presentate le immagini più rappresentative della sezione persone, contenente quasi un milione di fotografie classificate in oltre 2000 tipologie.
Interessante, in chiusura, Age, Gender and Emotion in the Wild di Trevor Paglen. L’artista ha messo a punto un sistema che impiega i modelli sviluppati dai ricercatori di Facebook e Amazon per stimare l’età, il sesso e la condizione emotiva dei volti rilevati dalla telecamera installata nella sala.
I visitatori della mostra vengono ripresi e classificati secondo gli algoritmi dei giganti di Internet. L’immagine della sottoscritta è risultata descrivere una persona di sesso femminile (corretto), di età compresa tra i 48 e i 53 anni (corretto), psicologa/sociologa (sbagliato), avente a che fare con l’aviazione (per via dei pantaloni verde salvia che indossavo, informazione evidentemente sbagliata). Emozioni rilevate dalla macchina sulla base dell’espressione facciale: felicità, paura.
Una mostra inquietante e al tempo stesso rincuorante: sarà dura insegnare alle macchine che l’abito non fa il monaco!
COMMENTI
LA MAPPA
NOTIZIE
VEDI ANCHE
-
Trieste | A Trieste dal 4 al 13 ottobre
I tesori di Aquileia si raccontano alla Barcolana
-
Brescia | Aspettando la grande mostra al Museo di Santa Giulia
Rinascimento a Brescia. In viaggio nel tempo con il curatore Enrico Valseriati
-
Brescia | “La stagione della migrazione a Nord" al Museo di Santa Giulia dal 9 novembre al 23 febbraio 2025
A Brescia il sudanese Khalid Albaih racconta il dramma umanitario del suo Paese
-
Firenze | A Firenze dal 24 ottobre al 26 gennaio
A Palazzo Strozzi come dentro un fiore: arriva il duo DRIFT
-
Da Torino a Taranto, un viaggio nel segno della paura e del mistero
Halloween al museo: gli eventi da non perdere per un weekend da brivido