Arrestato per un errore del riconscimento facciale

Che nessun sistema sia infallibile è cosa nota. Peraltro anche un testimone può confondersi, ricordare male, essere convinto di aver riconosciuto una persona, magari perché gli vengono sottoposte 10 fotografie e lui, istintivamente e in buona fede, tende a identificare il più somigliante, essendo portato ad operare una scelta nell’insieme proposto. Ma quando è un computer a decidere il nostro destino e a farci arrestare per un errore molte riflessioni devono essere fatte riguardo l’applicazione concreta delle tecnologie che stiamo implementando. E’ noto che le persone di colore creano più problemi dei bianchi a questi sistemi. Non è una considerazione razziale, si tratta di un problema tecnico, dovuto alla maggiore difficoltà dei sistemi di individuare i punti salienti dato il minore contrasto all’interno delle immagini, e non ha nulla a che vedere con i bias dei sistemi di intelligenza artificiale. Come abbiamo detto, anche gli umani sbagliano, il problema è che con un umano si può discutere, con un computer no. In Europa il GDPR tutela anche da queste situazioni, o almeno ci prova, come di recente sottolineato dall’EDPB in risposta ad una domanda di una parlamentare europea.

Il riconoscimento facciale non è infallibile

L’EDPB si occupa degli algoritmi scorretti

Print
Share

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *