Lara Martino

Lara Martino

Gen 17, 2017, 3:48pm

Il Mit fa un sito che simula incidenti di auto senza pilota (e tu decidi chi deve morire)

L'università di Boston ha creato un sito sul quale gli utenti analizzano diversi scenari e propongono la scelta che ritengono più etica in caso di imprevisti su strada con le macchine self-driving. Il tentativo è quello di programmarle secondo il senso comune

Lo scenario migliore sarebbe quello di un’automobile che si guida da sola e che è in grado di evitare ogni incidente scongiurando così la perdita di vite umane. Ma la realtà è diversa dalla fantasia e anche un’innovazione con un forte tasso di crescita come questa non è immune agli imprevisti. Lo sanno bene le aziende che ci lavorano e i ricercatori che la studiano. Il MIT di Boston ha quindi deciso di creare una piattaforma, la Moral Machine, per invitare gli utenti alla discussione sul problema: in situazioni in cui l’auto senza conducente si trovi a scegliere tra la vita e la morte di qualcuno, chi è meglio salvare? La notizia riportata da Business Insider UK arriva dopo mesi di dibattiti seguiti al primo incidente mortale a bordo di una su una Tesla Model S nel mese di maggio 2016 in Florida, negli Stati Uniti.

auto-senza-pilota

Come moralizzare le macchine

Detta così, l’iniziativa del MIT potrebbe sembrare un gioco nemmeno tanto divertente del tipo “Chi butti giù dalla torre?”. L’idea del confronto tra gli utenti, però, è venuta per rendere questo processo quanto più possibile basato sul crowdsourcing. È un progetto serio e ben strutturato dal nome eloquente. Un mezzo come la macchina senza pilota, progettata per non dipendere dal giudizio dell’uomo e dalle sue debolezze psicofisiche, finisce per essere rimesso comunque all’opinione delle persone che, dopo un’attenta analisi delle ipotetiche situazioni che si possono verificare, decidono in che modo dovrebbe essere programmato il particolare veicolo a quattro ruote. L’obiettivo finale dichiarato è quello di aggiungere “moralità” al funzionamento delle macchine, sollevando i programmatori dalla grossa responsabilità di imporre le proprie categorie di giudizio alla loro creatura.

Gli utenti decidono chi salvare

Innanzitutto si parte dal presupposto che esitano degli incidenti inevitabili, dovuti a comportamenti irrazionali. Da lì poi si passa a valutare in che modo si possa rendere questi episodi il meno dannosi possibile per chi viene coinvolto.

Agli utenti vengono proposti diversi casi come ad esempio l’improvviso attraversamento della strada da parte di un pedone.

La domanda che viene fatta è: l’automobile deve cercare di evitare l’ostacolo mettendo a rischio la vita dei suoi passeggeri o continuare la sua corsa andando a investire il pedone? I più creativi possono addirittura sottoporre al giudizio collettivo scenari alternativi pensati per l’occasione e pronti per essere discussi.

Il senso comune per programmare le macchine

L’idea della Moral Machine è stata ispirata dal cosiddetto problema del carrello ferroviario, un esperimento di filosofia etica formulato da Philippa Ruth Ford. In quel caso si ipotizzava che ci fossero 5 persone bloccate su un binario. Con l’impatto del carrello ferroviario sarebbero morte tutte, ma era possibile ucciderne solo una azionando gli scambi in una o in un’altra direzione: qual è la decisione più etica da prendere in questi casi?
Le vittime tra le quali scegliere negli esempi proposti dalla Moral Machine sono di diverso tipo: animali, donne, uomini, pensone anziane, bambini, criminali. E suscitano quindi ulteriori dubbi morali sulla possibilità di decidere della vita di una persona in base alla sua supposta utilità sociale. Alla fine della fase di giudizio, agli utenti è offerta anche una sorta di statistica su quale tipo di soggetto hanno salvato di più. Ovviamente non ci sono risposte sbagliate a questo tipo di quesiti. Lo scopo dell’iniziativa è quello di riflettere in maniera condivisa su un problema e cercare di orientare il funzionamento delle macchine secondo il senso comune prima che vengano impiegate su strada.