Un bug grosso all’algoritmo di Facebook ha impedito a Meta di controllare i contenuti e tenere sotto controllo i feed pericolosi.
In passato Facebook è stata sotto accusa per il mancato controllo delle fake news e di contenuti ingannevoli e volutamente inneggianti alla violenza. Dopo le polemiche il gruppo di Zuckerberg ha lavorato ad un algoritmo in grado di bloccare automaticamente contenuti nocivi per la community applicando un down ranking automatico di simili post o notizie che di fatto ne impedisce la diffusione su larga scala. Ovviamente una volta individuati i contenuti, o una volta che giunge la segnalazione, se simili post sono contrari alle policy del social network vengono direttamente rimossi.
A quanto pare però, il sistema di IA utilizzato per gestire in automatico questo sistema di controllo non ha funzionato correttamente negli ultimi sei mesi. A rendere pubblico l’accaduto è stato il sito ‘The Verge‘, sul quale viene spiegato che la testata è entrata in possesso di un documento interno nel quale si parla della problematica. In questa viene specificato che il primo riscontro da parte dei tecnici è stato in ottobre, quando uno di essi ha notato che contenuti palesemente fasulli o con titoli fuorvianti e sensazionalistici acquisivano una forte diffusione nonostante fossero quelli che il sistema dovrebbe bloccare. Una volta riscontrato il problema il livello di allerta è stato impostato su 1, ovvero allo step che precede il livello critico.
La problematica ha causato un danno all’integrità delle visualizzazioni e del sistema di feed, tuttavia un responsabile della compagnia contattato dal giornale ha chiarito che adesso il problema è stato risolto: “Abbiamo trovato la causa originaria in un bug del software e lo abbiamo riparato”. Lo stesso portavoce di Meta, Jeff Osbourne, ha poi tranquillizzato sugli effetti di questa problematica: “Non c’è stato un impatto significativo o a lungo termine sul nostro sistema di metrica”.
Facebook, il bug all’algoritmo è la prova dell’impossibilità di controllare i contenuti?
Stando a quanto emerso dall’articolo di ‘The Verge‘, il problema è stato riscontrato una prima volta nel 2019 e tra il 2019 ed il 2021 ci sono stati 5 differenti episodi in cui il sistema di protezione automatica da contenuti dannosi ha fallito nel suo compito. Viene spiegato che nell’ottobre dello scorso anno c’è stato l’episodio più consistente e duraturo, dunque, che proprio in quella occasione ci si è resi conto che si trattava di un problema nel codice e bisognava intervenire per risolverlo.
Purtroppo problematiche di questo tipo, specie in siti o social network così grandi per diffusione e contenuti, sono normali ed è logico che si possano verificare. E’ dunque impossibile controllare i contenuti e proteggere gli utenti da feed dannosi? Non esattamente, visto che il bug in questione non ha danneggiato gli altri tool di controllo del social network, dunque è stato possibile per tutto il tempo segnalare e rimuovere fake news e contenuti dannosi.
Tuttavia è anche vero che in una simile situazione sarebbe stato probabilmente più semplice identificare il problema se gli utenti stessi fossero stati a conoscenza del funzionamento dell’agolritmo che è stato danneggiato. Se infatti chi popola il social e lo utilizza quotidianamente fosse a conoscenza del fatto che un determinato tipo di contenuti viene automaticamente penalizzato, sarebbe stato ovvio a tutti quando questo meccanismo non stava funzionando.