Il volto sorridente di TikTok, quello fatto di balletti, filtri e viralità innocua, ha un sottosuolo cupo, inaccessibile. È lì che lavora Sara – nome di copertura – 28 anni, moderatrice di contenuti per il colosso cinese. Non programma, non crea, non progetta: osserva. Sei ore al giorno, occhi fissi su contenuti da rimuovere. Non avete idea di cosa ho visto, dice. E lo dice con un tono che tradisce qualcosa di spezzato. “Il mondo è marcio”. La leggerezza che scorriamo col dito è il risultato di una selezione silenziosa, disumana.
Il prezzo umano dell’algoritmo: la moderatrice che guarda l’abisso
Il suo schermo trasmette in sequenza scene che la piattaforma non ci mostra mai. Suicidi. Violenza sessuale. Autolesionismo. Pestaggi. Torture. La sofferenza non è un’astrazione. È una routine. Un lavoro. Ma non si lavora sull’orrore senza pagarne il conto. Sara racconta di avere l’insonnia. Paralisi del sonno. Flashback notturni. È un disturbo post-traumatico da esposizione digitale. Non combatte, non fugge. Osserva, segnala, cancella. Ma intanto registra tutto dentro.
La macchina invisibile che pulisce la rete
Siamo convinti che la tecnologia sia neutra. Che gli algoritmi ci proteggano. Ma la verità è che l’algoritmo non giudica: etichetta. E chi decide davvero, chi seleziona i limiti del tollerabile, è un essere umano. Sara è parte di quell’esercito invisibile – migliaia di moderatori – che fa il lavoro sporco per rendere i social luoghi “sicuri”. I dati scorrono, i video si moltiplicano, la violenza aumenta. E il filtro umano, pagato poco e formato in fretta, deve stare al passo.
Supporto? Solo nei protocolli
TikTok, come altre piattaforme, offre supporto psicologico ai moderatori. Sedute settimanali. Gruppi di decompressione. Ma il protocollo non basta. Chi guarda l’orrore tutti i giorni ha bisogno di qualcosa che le aziende non mettono in budget: il riconoscimento del danno. E soprattutto il diritto a smettere. Ma non si esce facilmente da un lavoro che sfrutta il silenzio e l’opacità. Chi racconta, come ha fatto Sara, rompe un tabù. Mostra che il problema non è il singolo contenuto, ma il sistema che lo genera e lo gestisce.
Una filiera del dolore sotto contratto
Il lavoro della moderazione è stato esternalizzato, marginalizzato, spersonalizzato. Le piattaforme lo delegano a società terze, spesso collocate fuori dall’Europa. In Italia, pochi ne parlano. Nessuno lo regola. Non esiste una normativa che riconosca questo mestiere come usurante. Non esistono tutele vere. I moderatori vivono in una zona grigia, tra algoritmo e trauma, in una filiera del dolore legalizzata e accettata perché utile.
Consumatori ignari, carnefici inconsapevoli
Ogni utente che scorre contenuti puliti ignora ciò che è stato rimosso. Ma dietro ogni esclusione, ogni censura necessaria, c’è un occhio umano che ha guardato. E si è rotto un po’. Sara non chiede empatia. Chiede consapevolezza. “Se sapeste solo un decimo di quello che vedo, non riuscireste a dormire”, dice. Poi sorride, ma è un sorriso che pesa.
Il buco nero della rete
I social non sono specchi, sono baratri. La violenza non è un incidente di percorso, è un sintomo. E chi la modera, chi ne fa mestiere e condanna, vive al bordo del buco nero. Senza tutele, senza voce, senza volto. Sara ha parlato. Ora tocca a noi ascoltare. E chiedere: a che prezzo edulcoriamo la nostra navigazione? Chi ci protegge dal male – e chi protegge chi lo guarda per noi?