Mercoledì sera, molti utenti di Instagram, il social network di Meta, hanno segnalato un’anomala presenza di video violenti nei loro feed, con immagini di persone ferite o uccise in circostanze poco chiare, spesso riprese da telecamere di sicurezza o telefonini. Il fenomeno ha riguardato anche utenti minorenni, esponendoli a contenuti senza alcun preavviso o avvertenza sulla natura esplicita delle immagini. Meta, l’azienda proprietaria della piattaforma, ha riconosciuto l’errore e ha dichiarato di aver risolto il problema, senza però fornire dettagli sulle cause.
Un giornalista del Wall Street Journal ha riportato di aver visto comparire nei suoi suggerimenti video pubblicati da account che non seguiva, circostanza non insolita dato l’algoritmo di Instagram, ma in questo caso con contenuti particolarmente scioccanti. La società ha ribadito che quei contenuti «non avrebbero dovuto essere consigliati», senza però chiarire se il problema sia stato un malfunzionamento tecnico o il risultato di una modifica intenzionale dell’algoritmo. L’episodio ha riacceso il dibattito sulla capacità di Meta di moderare efficacemente i contenuti che circolano sulle sue piattaforme.
Già a gennaio l’azienda aveva annunciato la fine dei suoi programmi di fact checking, una decisione giustificata con la necessità di difendere la «libertà di espressione». La scelta era stata vista da molti come un segnale di avvicinamento alle posizioni di Donald Trump, in vista delle elezioni presidenziali statunitensi. Ora, dopo l’errore di mercoledì, la questione del controllo sui contenuti digitali torna al centro del dibattito, con nuove pressioni su Meta affinché rafforzi la protezione degli utenti, in particolare i più giovani.