Tecnologia

L’intelligenza artificiale può avere i pregiudizi proprio come gli uomini

I recenti studi su 840 miliardi di parole dimostrano che nell’apprendimento del linguaggio le macchine assumono comportamenti pregiudiziali per quanto riguarda razza e genere

L’intelligenza artificiale si perfeziona con il tempo. L’esempio più evidente di questo miglioramento è Google Translate che dopo diversi anni di carriera è sempre più affidabile nelle traduzioni, proprio come se fossero fatte da persone in carne ed ossa. L’altra faccia della medaglia è, però, che i processi automatizzati di comprensione del linguaggio finiscono per ereditare dagli uomini che li hanno programmati anche i pregiudizi. Le ultime ricerche dimostrano che la vicinanza tra gli uomini e le macchine ha trasferito anche convinzioni e atteggiamenti nascosti che i sistemi di intelligenza artificiale non possono fare a meno di imitare.

Come le macchine capiscono il linguaggio

«Molti dicono che l’intelligenza artificiale abbia dei pregiudizi. No. Siamo noi ad averne e l’intelligenza artificiale li sta solo imparando», dice la ricercatrice dell’università di Bath Joanna Bryson. E se una macchina impara un comportamento sbagliato, non è dotata degli antidoti sociali o culturali per contrastarlo o mitigarlo, anche quando questo è palesemente sbagliato. Lo studio, pubblicato dalla rivista Science, si concentra sui meccanismi di comprensione delle parole. «Il principale motivo per il quale abbiamo deciso di studiare questi meccanismi è che negli ultimi anni sono stati fondamentali per permettere ai computer di capire il senso di un discorso», dice Arvind Narayanan, informatico della Princeton University e autore dello studio. I ricercatori hanno preso in esame il modello in grado di rappresentare matematicamente il linguaggio e aiutare le macchine a capire una parola nel suo contesto, molto di più di quello che può fare un dizionario.

I pregiudizi dell’intelligenza artificiale

L’analisi di questo sistema di apprendimento ha, però, rivelato che le associazioni di genere che le macchine imparano sono in qualche modo discriminatorie: se ai fiori viene associata la bellezza e agli insetti il concetto di fastidio, quando si parla di donne si finisce per nominare l’arte, la casa e la letteratura. Ingegneria e matematica sembrano essere solo cose da uomini. Stesso discorso con le razze: le associazioni immediate fatte agli uomini afro-americani sono tutte a parole non proprio piacevoli. Questi risultati sono stati osservati dopo l’analisi di 840 miliardi di parole attinte da testi online.

Gli algoritmi non mentono

Secondo Sandra Wachter, ricercatrice in etica dei dati e algoritmi all’università di Oxford, potrebbe esserci un aspetto positivo della faccenda: «Almeno con gli algoritmi possiamo sapere dove risiede il pregiudizio. Gli uomoni possono mentire sulle ragioni di un loro comportamento. Al contrario, non ci aspettiamo che gli algoritmi ci mentano o ci ingannino», spiega. La vera sfida ora è realizzare un sistema che controlli l’intelligenza artificiale, individui eventuali pregiudizi e riesca in qualche modo a combatterli. In maniera automatica.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Google, Facebook e marketing digitale: così il turismo in Portogallo fa numeri e dà lavoro

Visibilità nelle ricerche online e offerte personalizzate. Ecco come il Paese lusitano ha fatto delle proprie bellezze un business, con un fatturato 2016 di 11 miliardi (e 40 mila posti di lavoro in oltre 4 mila aziende)

Questa startup di Wylab trova borse di studio per atleti | Usa College Sport

Selezionare borse di studio per atleti nelle università statunitensi, questa la mission del progetto di Deljan Bregasi: «Abbiamo relazioni con 2000 diverse università e possiamo comunicare con migliaia di allenatori di 14 sport diversi»