Bluesky, recentemente lanciato nel 2023, attira l’attenzione come un’alternativa promettente ai social network esistenti, segnati dalla disinformazione. Mentre milioni di utenti fuggono dalla piattaforma X, inondata di discorsi estremi e di false notizie, Bluesky emerge come uno spazio di discussione potenzialmente sano. Questa piattaforma, progettata per facilitare scambi autentici, deve però affrontare sfide significative, tra cui l’arrivo di account malintenzionati e i pericoli di una moderazione insufficiente.
Un rapido aumento degli utenti
Dalla elezione di Donald Trump, il numero di utenti di Bluesky è esploso, attirando circa dieci milioni di internauti desiderosi di sfuggire agli eccessi di X. Molti sperano di trovare un ambiente meno inquinato da discorsi radicali e manipolazione dell’informazione. La diversità degli utenti è sorprendente, comprendendo scienziati, giornalisti, esperti e attivisti di sinistra, ma anche account con intenzioni dubbie, rivelando una tensione palpabile all’interno della piattaforma.
Una presenza preoccupante della disinformazione
In questa lotta per un dialogo sano, Bluesky deve affrontare l’emergere di numerosi attori della disinformazione. Tra di essi, figure controverse come Xavier Azalbert, noto per le sue posizioni rassicuranti durante la crisi del Covid-19, o ancora Pierre Sautarel con i suoi contenuti dai sottotesti xenofobi. I loro metodi, uniti all’anonimato, alimentano discussioni potenzialmente tossiche sulla piattaforma.
Strumenti di moderazione in divenire
Bluesky si pone come un antidoto alla deriva sensazionalista di X, integrando vari strumenti di moderazione. Tra questi dispositivi, un filtro di contenuti modulabile consente agli utenti di mascherare contenuti violenti o fuorvianti. Inoltre, la piattaforma prevede un sistema di “community notes”, che permetterebbe alla comunità di verificare la veridicità delle informazioni condivise, rafforzando così la responsabilità collettiva di fronte alla disinformazione.
La sfida dei contenuti illegali
Tuttavia, la vulnerabilità di Bluesky risiede nel suo sistema di auto-difesa comunitaria. Sebbene si basi sulla fiducia tra utenti, questo modello può paradossalmente ridurre la vigilanza. Esempi notevoli includono il prestigioso giornale Nature, che ha, per inadvertita, diffuso un’immagine falsa generata dall’IA in un articolo che esaltava il successo di Bluesky tra gli scienziati. Questo fenomeno solleva interrogativi sulla facilità con cui informazioni fuorvianti possono circolare anche in una rete che vuole essere critica di fronte alla disinformazione.
Un futuro incerto
Man mano che Bluesky si sviluppa, la questione della sua capacità di mantenere uno spazio di dibattito sano mentre si protegge dai discorsi nocivi rimane fondamentale. La possibilità di elencare account da bloccare, che vanno dai relais del Cremlino ai troll, offre una forma di protezione agli utenti. Tuttavia, questa dinamica potrebbe anche portare a una forma di isolamento, creando una bolla di pensiero omogenea in cui la diversità delle opinioni sarebbe compromessa.
Bluesky rappresenta un’iniziativa lodevole che cerca di ridefinire le norme dei social network di fronte alla disinformazione. Tuttavia, la sua capacità di stabilire un equilibrio tra libertà di espressione e protezione contro la disinformazione sarà cruciale nel suo percorso futuro. Il dibattito rimane aperto sull’efficacia dei suoi strumenti e sulla sua strategia a lungo termine per proteggere la verità nell’era digitale.







