Tecnologia

L’intelligenza artificiale può avere i pregiudizi proprio come gli uomini

I recenti studi su 840 miliardi di parole dimostrano che nell’apprendimento del linguaggio le macchine assumono comportamenti pregiudiziali per quanto riguarda razza e genere

L’intelligenza artificiale si perfeziona con il tempo. L’esempio più evidente di questo miglioramento è Google Translate che dopo diversi anni di carriera è sempre più affidabile nelle traduzioni, proprio come se fossero fatte da persone in carne ed ossa. L’altra faccia della medaglia è, però, che i processi automatizzati di comprensione del linguaggio finiscono per ereditare dagli uomini che li hanno programmati anche i pregiudizi. Le ultime ricerche dimostrano che la vicinanza tra gli uomini e le macchine ha trasferito anche convinzioni e atteggiamenti nascosti che i sistemi di intelligenza artificiale non possono fare a meno di imitare.

Come le macchine capiscono il linguaggio

«Molti dicono che l’intelligenza artificiale abbia dei pregiudizi. No. Siamo noi ad averne e l’intelligenza artificiale li sta solo imparando», dice la ricercatrice dell’università di Bath Joanna Bryson. E se una macchina impara un comportamento sbagliato, non è dotata degli antidoti sociali o culturali per contrastarlo o mitigarlo, anche quando questo è palesemente sbagliato. Lo studio, pubblicato dalla rivista Science, si concentra sui meccanismi di comprensione delle parole. «Il principale motivo per il quale abbiamo deciso di studiare questi meccanismi è che negli ultimi anni sono stati fondamentali per permettere ai computer di capire il senso di un discorso», dice Arvind Narayanan, informatico della Princeton University e autore dello studio. I ricercatori hanno preso in esame il modello in grado di rappresentare matematicamente il linguaggio e aiutare le macchine a capire una parola nel suo contesto, molto di più di quello che può fare un dizionario.

I pregiudizi dell’intelligenza artificiale

L’analisi di questo sistema di apprendimento ha, però, rivelato che le associazioni di genere che le macchine imparano sono in qualche modo discriminatorie: se ai fiori viene associata la bellezza e agli insetti il concetto di fastidio, quando si parla di donne si finisce per nominare l’arte, la casa e la letteratura. Ingegneria e matematica sembrano essere solo cose da uomini. Stesso discorso con le razze: le associazioni immediate fatte agli uomini afro-americani sono tutte a parole non proprio piacevoli. Questi risultati sono stati osservati dopo l’analisi di 840 miliardi di parole attinte da testi online.

Gli algoritmi non mentono

Secondo Sandra Wachter, ricercatrice in etica dei dati e algoritmi all’università di Oxford, potrebbe esserci un aspetto positivo della faccenda: «Almeno con gli algoritmi possiamo sapere dove risiede il pregiudizio. Gli uomoni possono mentire sulle ragioni di un loro comportamento. Al contrario, non ci aspettiamo che gli algoritmi ci mentano o ci ingannino», spiega. La vera sfida ora è realizzare un sistema che controlli l’intelligenza artificiale, individui eventuali pregiudizi e riesca in qualche modo a combatterli. In maniera automatica.

Galaxy Note 8, tutte le notizie prima del lancio

Dopo la sfortunata storia del Note 7, quest’anno Samsung spera di bissare il successo del Galaxy S8. Con un terminale munito di pennino e accessori omaggio per chi prenota subito

Il motore di ricerca della moda cresce e aggiunge altre città | Papèm

La startup, guidata da Alberto Lo Bue e Carlo Alberto Lipari, dopo aver ricevuto il premio Endeavor ai MYllennium awards, ha annunciato che l’espansione non si fermerà fino a quando Papèm non sarà presente in ogni angolo di tutte le città

Zooppa lancia il primo contest per video VR a 360°. Ecco come partecipare

C’è tempo fino al 16 ottobre, saranno selezionati i migliori video promozionali o di storytelling girati con tecnologia 360° e della durata massima di 120 secondi
Garmin è partner tecnologico dell’iniziativa e mette in palio 5 Camere VIRB 360

DevSecOps: lo sviluppo software agile attento alla sicurezza

Sviluppatori, esperti di sicurezza, reparto IT: tutti devono collaborare per creare software davvero sicuro. Un concetto che si concretizza nel DevSecOps, un modo moderno e veloce per arrivare dall’idea alla produzione senza correre rischi