Le auto autonome risultano peggiori nel rilevare i pedoni bambini, secondo uno studio
Gli studi mostrano che le auto autonome non rilevano bene i pedoni bambini.
L’Intelligenza Artificiale ha una storia tristemente nota di pregiudizi, dai sistemi di riconoscimento facciale che identificano erroneamente le persone di colore ai chatbot che ammirano Hitler. In alcuni contesti, i risultati possono essere fatali.
Un caso emblematico è stato scoperto questa settimana. Secondo una nuova ricerca, i sistemi di rilevamento dei pedoni utilizzati nella ricerca sui veicoli autonomi presentano importanti pregiudizi legati all’età e alla razza.
Lo studio aggiunge un altro ostacolo all’introduzione delle auto senza conducente. Rileva anche un’allarmante potenziale problematica per la sicurezza stradale.
Le scoperte derivano da una revisione sistematica di otto popolari sistemi di rilevamento dei pedoni. Ricercatori del King’s College di Londra (KCL) hanno testato il software su oltre 8.000 immagini di pedoni.
Hanno scoperto che l’accuratezza media del rilevamento era quasi il 20% più alta per gli adulti rispetto ai bambini. I sistemi erano inoltre più precisi del 7,5% per i pedoni dalla pelle chiara rispetto a quelli dalla pelle più scura.
- Il ‘Budget Ryan Reynolds’ porta Bitcoin FC alle grandi ...
- Google potenzia la sicurezza di Gmail con un nuovo controllo di ver...
- Il processo di Trump è l’ultima speranza dell’America
Queste discrepanze derivano da una causa comune dei pregiudizi dell’IA: dati di addestramento non rappresentativi.
“C’è un vecchio detto quando si tratta di ingegneria e scienza dei dati: ‘Spazzatura dentro, spazzatura fuori’. I sistemi di intelligenza artificiale devono essere addestrati con molti dati di addestramento e le inadeguatezze di quei dati si riflettono inevitabilmente nell’IA”, ha detto il dottor Jie Zhang, docente di informatica al KCL, a TNW.
“In questo caso, le gallerie di immagini open-source utilizzate per addestrare questi sistemi di rilevamento dei pedoni non sono rappresentative di tutti i pedoni e sono sbilanciate verso gli adulti dalla pelle chiara. Con meno dati su cui addestrarsi, l’IA diventa meno accurata nel rilevare gruppi sottorappresentati.”
Un altro problema è emerso nelle condizioni di illuminazione. In condizioni di basso contrasto e scarsa luminosità, i pregiudizi nei confronti dei bambini e delle persone dalla pelle scura sono stati accentuati. Ciò suggerisce che entrambi i gruppi sarebbero a maggior rischio durante la guida notturna.
Anche se i produttori di auto non pubblicizzano i dettagli del loro software di rilevamento dei pedoni, di solito si basano sugli stessi sistemi open-source utilizzati nella ricerca. Zhang è quindi convinto che affrontino gli stessi problemi.
Per ridurre i rischi, auspica una maggiore trasparenza e regolamentazioni più stringenti sui sistemi di rilevamento dei pedoni.
“Gli sviluppatori dovrebbero iniziare ad essere più trasparenti riguardo a come vengono addestrati i loro sistemi di rilevamento, così come le loro prestazioni, in modo che possano essere misurati in modo oggettivo – le conseguenze di non farlo potrebbero essere gravi”, ha detto.
“Ma oltre a questo, i produttori devono lavorare per assicurarsi che i loro sistemi di intelligenza artificiale siano equi e rappresentativi, e parte dell’impulso in tal senso arriverà dai responsabili delle politiche e da una regolamentazione più rigorosa in materia di equità nell’IA.”
Puoi leggere lo studio qui.