Sicurezza

Facebook e YouTube lavorano contro la propaganda terroristica sulle loro piattaforme

Il social per eccellenza e il portale di videosharing si attrezzano per fare fronte alla minaccia estremista con un misto di tecnologia e buon senso: il riconoscimento automatico spesso non basta a eliminare i contenuti pericolosi

Contrastare la minaccia del terrorismo è una faccenda che passa anche attraverso i social. Le piattaforme di condivisione sono uno degli strumenti impiegati dagli estremisti per portare avanti la propria propaganda, così come per individuare e reclutare potenziali “volontari” destinati a essere arruolati tra le fila di combattenti per la libertà o per costituire vere e proprie cellule di attentatori. Per questo alcuni grandi nomi, Google e Facebook in testa, puntano ad attrezzarsi per fare fronte a questo tipo di problematica: varare un misto di misure tecnologiche, senza dimenticare il tocco umano, per meglio pattugliare le rispettive piattaforme.

Il supporto dell’intelligenza artificiale

Vista la crescente spinta da parte dei governi ad attrezzare programmi sempre più vasti e profondi di monitoraggio e in alcuni casi moderazione dei messaggi in transito, sia Facebook che Google (in particolare su YouTube) si stanno dotando degli strumenti necessari a migliorare sempre di più i sistemi di filtraggio automatici. Facebook fa menzione esplicita di algoritmi di intelligenza artificiale, da impiegare per cercare di mappare e individuare i gruppi potenzialmente pericolosi, così come per rintracciare contenuti inneggianti all’odio di natura razziale o religiosa. Lo stesso accadrà con YouTube, con l’impiego di tecnologie destinate anche a identificare video che sono stati già giudicati contrari alla policy e rimossi, ma che sono stati caricati nuovamente.

Su questo punto si apre un possibile dibattito che è tutto tranne che banale: se è vero che gli algoritmi di riconoscimento di video e audio hanno fatto degli enormi passi avanti in questi anni, spinti soprattutto dalle necessità legate al rispetto del diritto d’autore, è altrettanto vero che identificare un video di propaganda terroristica può essere complesso. Anche la semplice riproposizione di un servizio di una emittente televisiva che effettua il resoconto di un attentato, nel contesto giusto, può essere ad esempio un contenuto utile a fare proselitismo alla causa: va da sé che in questo caso il semplice riconoscimento delle immagini risulta di fatto inutile.

Il fattore umano

Occorre dunque prevedere anche il contributo umano per far fronte alla questione, e sia Google che Facebook non trascurano questo aspetto. Per quanto riguarda YouTube, da Mountain View illustrano nel dettaglio l’intenzione di allargare gradualmente un programma che fin qui si è dimostrato promettente, con l’individuazione di una serie di soggetti (utenti e organizzazioni) promossi al rango di “trusted flagger”: esperti capaci di offrire un’opinione puntuale sulla liceità o il contesto nel quale i contenuti vengono postati, contribuendo con l’intelligenza umana al lavoro che le macchine possono svolgere fino a un certo punto. Facebook, dal canto suo, ammette allo stesso modo che l’intelligenza artificiale è uno strumento potente: ma, da sola, non basta.

C’è anche un altro aspetto da considerare, ovvero il confine tra libertà di espressione e la propaganda terroristica: allo stato dell’arte, è impossibile far discernere alla macchina la prima dalla seconda, e dunque solo un essere umano può valutare in modo preciso se quello che viene postato sia o meno contrario alle policy del servizio. Da parte sua, Google ha comunque voluto precisare che quella che si apre oggi è l’era della tolleranza zero: le maglie si faranno decisamente più strette d’ora in avanti, e spesso i contenuti che magari in passato sarebbero rimasti online in virtù di una valutazione controversa a questo punto potrebbero essere rimossi senza troppi complimenti.

Pubblicità contro il terrorismo

Infine, c’è un altro aspetto interessante che Google mette in evidenza per quanto riguarda la gestione della propaganda terroristica su YouTube: la tecnologia che fino a oggi è servita per indirizzare al meglio la pubblicità, per massimizzare l’efficacia del messaggio rivolto al cliente ideale (targeted advertising), sarà impiegata anche per individuare i soggetti a rischio reclutamento da parte degli estremisti. Un esperimento in tal senso ha dato ottimi risultati, con gli utenti che hanno finito per cliccare sui banner anti-terrorismo con una frequenza decisamente superiore alla media, finendo per consumare milioni di minuti di video di contro-propaganda.

L’approccio generale, in ogni caso, deve essere sistemico: per questo sia Facebook che Google chiudono i propri annunci con un richiamo esplicito alla collaborazione con gli altri grandi player del settore, così come con i governi e le organizzazioni attive in questo settore. L’obiettivo finale è di mettere in comune le informazioni, così da migliorare l’efficacia generale delle azioni di contrasto al terrorismo in Rete.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Ti potrebbe interessare anche

Perché non dobbiamo avere paura dell’intelligenza artificiale (ma solo della nostra stupidità)

Il dibattito sull’Intelligenza artificiale rischia di riprodurre dinamiche anti-tecnologiche. Il problema però non è la tecnologia ma quello che ne sappiamo.

Soundreef, la startup che ha sfidato i monopoli: «Che lavoro essere controcorrente»

Operano in 36 Paesi, fatturano 5 milioni di euro, contano un team di 25 persone. Davide D’Atri, CEO di Soundreef, una delle dieci realtà d’eccellenza finaliste di SIOS nel 2015 ci racconta che cosa è cambiato da quel giorno. In attesa del nuovo StartupItalia! Open Summit di dicembre 2017