Un errore o una nuova direzione di Meta?
Dietro questa vicenda potrebbe nascondersi molto di più di un semplice bug. Negli ultimi mesi, Meta ha cambiato strategia sulla moderazione dei contenuti, riducendo i controlli automatici e lasciando più spazio all’autoregolazione degli utenti. La decisione è arrivata dopo la scelta di interrompere i programmi di fact-checking di terze parti e limitare il declassamento automatico di post controversi.
A gennaio, Mark Zuckerberg ha annunciato un nuovo approccio alla gestione dei contenuti:
- Meno interventi sugli algoritmi, con post che vengono declassati solo se violano le regole più gravi (terrorismo, sfruttamento sessuale, frodi).
- Maggiore affidamento alle segnalazioni degli utenti, come già accade su X di Elon Musk con il sistema delle Community Notes.
- Riduzione della moderazione politica, con la fine del fact-checking su contenuti sensibili e un’apertura ai post politici.
L’influenza del nuovo scenario politico
Molti osservatori collegano questi cambiamenti al ritorno sulla scena di Donald Trump. Meta, che negli anni scorsi aveva limitato la visibilità di contenuti conservatori e disinformazione, sembra ora voler recuperare terreno con una moderazione più “morbida”.
Il rischio, però, è che questa strategia si traduca in una maggiore diffusione di contenuti estremi. Il recente incidente con i reel violenti potrebbe essere il primo effetto visibile di questa nuova direzione: meno filtri, più viralità incontrollata.
Un problema di algoritmi o di risorse?
Oltre alla strategia aziendale, c’è un altro fattore da considerare: i tagli al personale. Tra il 2022 e il 2023, Meta ha licenziato oltre 21.000 dipendenti, colpendo in particolare i team che si occupavano di moderazione e sicurezza online.
Meno risorse significa meno capacità di controllare i contenuti problematici prima che diventino virali. Se a questo si aggiunge una minore regolamentazione algoritmica, il rischio di episodi simili potrebbe aumentare.
Il futuro della moderazione su Instagram
Meta ha dichiarato di aver risolto il problema, ma la vera domanda è: quanto è stato davvero un errore e quanto invece un effetto collaterale di una nuova strategia più permissiva?
Con la crescente concorrenza di piattaforme come TikTok e X, Meta sta cercando di ridefinire il proprio approccio alla gestione dei contenuti. Se da un lato vuole evitare accuse di censura, dall’altro rischia di rendere il feed meno sicuro e più caotico per milioni di utenti.
L’episodio dei reel violenti potrebbe essere solo l’inizio di una nuova fase per Instagram, in cui la moderazione sarà sempre più in mano agli utenti. Ma siamo davvero pronti per un social network senza filtri?