riconoscimento facciale

La portata degli algoritmi nella vita umana quotidiana è notevole, ma non sempre equità e parità di trattamento vengono applicate allo stesso modo. Infatti, un recente studio condotto al MIT ha individuato sia il genere che il pregiudizio facciale negli algoritmi di riconoscimento facciale.

Per porre rimedio a questa disparità, un team della Computer Science & Artificial Intelligence Lab del MIT sta lavorando su un nuovo algoritmo per il rilevamento del volto e della struttura di base dei dati di allenamento, consentendo così l’identificazione e la minimizzazione automatica del bias tramite ricampionamento.

Durante i test, l’algoritmo è stato in grado di ridurre il pregiudizio del 60% rispetto ai recenti sistemi di riconoscimento facciale. L’innovazione è tutta nel de-biaser digitale del MIT il quale, a differenza degli attuali sistemi che richiedono qualche input da parte degli umani per comprendere i pregiudizi, riesce, da un set di dati, a ricampionare i volti in modo appropriato.

Attualmente, la classificazione facciale è dotata di una tecnologia considerata risolutiva, ma in realtà i dati utilizzati spesso non vengono adeguatamente controllati. La correzione di questi problemi è di importanza vitale se inseriti in un contesto più di sicurezza, ossia rivolto a forze dell’ordine e ad altri domini.

Inoltre, il sistema sviluppato dal team del MIT potrebbe diventare particolarmente rilevante per set di dati più grandi, i quali non possono essere controllati manualmente, oltre che estendersi ad altre applicazioni di visione artificiale.

Anche se non tutti sono particolarmente favorevoli ai sistemi di riconoscimento facciale, poiché considerati alla stregua di un sistema di controllo di tipo orwelliano, in futuro potranno offrire quella precisione necessaria in un ambito più mondiale di sicurezza del cittadino.