• 8501 intesa GREEN 25
  • POSTE25 850 1

Il prezzo umano dell’algoritmo: la moderatrice che guarda l’abisso

- di: Cristina Volpe Rinonapoli
 
Il prezzo umano dell’algoritmo: la moderatrice che guarda l’abisso

Il volto sorridente di TikTok, quello fatto di balletti, filtri e viralità innocua, ha un sottosuolo cupo, inaccessibile. È lì che lavora Sara – nome di copertura – 28 anni, moderatrice di contenuti per il colosso cinese. Non programma, non crea, non progetta: osserva. Sei ore al giorno, occhi fissi su contenuti da rimuovere. Non avete idea di cosa ho visto, dice. E lo dice con un tono che tradisce qualcosa di spezzato. “Il mondo è marcio”. La leggerezza che scorriamo col dito è il risultato di una selezione silenziosa, disumana.

Il prezzo umano dell’algoritmo: la moderatrice che guarda l’abisso

Il suo schermo trasmette in sequenza scene che la piattaforma non ci mostra mai. Suicidi. Violenza sessuale. Autolesionismo. Pestaggi. Torture. La sofferenza non è un’astrazione. È una routine. Un lavoro. Ma non si lavora sull’orrore senza pagarne il conto. Sara racconta di avere l’insonnia. Paralisi del sonno. Flashback notturni. È un disturbo post-traumatico da esposizione digitale. Non combatte, non fugge. Osserva, segnala, cancella. Ma intanto registra tutto dentro.

La macchina invisibile che pulisce la rete
Siamo convinti che la tecnologia sia neutra. Che gli algoritmi ci proteggano. Ma la verità è che l’algoritmo non giudica: etichetta. E chi decide davvero, chi seleziona i limiti del tollerabile, è un essere umano. Sara è parte di quell’esercito invisibile – migliaia di moderatori – che fa il lavoro sporco per rendere i social luoghi “sicuri”. I dati scorrono, i video si moltiplicano, la violenza aumenta. E il filtro umano, pagato poco e formato in fretta, deve stare al passo.

Supporto? Solo nei protocolli
TikTok, come altre piattaforme, offre supporto psicologico ai moderatori. Sedute settimanali. Gruppi di decompressione. Ma il protocollo non basta. Chi guarda l’orrore tutti i giorni ha bisogno di qualcosa che le aziende non mettono in budget: il riconoscimento del danno. E soprattutto il diritto a smettere. Ma non si esce facilmente da un lavoro che sfrutta il silenzio e l’opacità. Chi racconta, come ha fatto Sara, rompe un tabù. Mostra che il problema non è il singolo contenuto, ma il sistema che lo genera e lo gestisce.

Una filiera del dolore sotto contratto
Il lavoro della moderazione è stato esternalizzato, marginalizzato, spersonalizzato. Le piattaforme lo delegano a società terze, spesso collocate fuori dall’Europa. In Italia, pochi ne parlano. Nessuno lo regola. Non esiste una normativa che riconosca questo mestiere come usurante. Non esistono tutele vere. I moderatori vivono in una zona grigia, tra algoritmo e trauma, in una filiera del dolore legalizzata e accettata perché utile.

Consumatori ignari, carnefici inconsapevoli

Ogni utente che scorre contenuti puliti ignora ciò che è stato rimosso. Ma dietro ogni esclusione, ogni censura necessaria, c’è un occhio umano che ha guardato. E si è rotto un po’. Sara non chiede empatia. Chiede consapevolezza. “Se sapeste solo un decimo di quello che vedo, non riuscireste a dormire”, dice. Poi sorride, ma è un sorriso che pesa.

Il buco nero della rete
I social non sono specchi, sono baratri. La violenza non è un incidente di percorso, è un sintomo. E chi la modera, chi ne fa mestiere e condanna, vive al bordo del buco nero. Senza tutele, senza voce, senza volto. Sara ha parlato. Ora tocca a noi ascoltare. E chiedere: a che prezzo edulcoriamo la nostra navigazione? Chi ci protegge dal male – e chi protegge chi lo guarda per noi?

Notizie dello stesso argomento
Trovati 35 record
Pagina
5
01/07/2025
Operai in buca, colpiti da malore: uno in coma, allarme caldo sul lavoro
Emergenza caldo nei luoghi di lavoro: operai in coma a Vicenza, sindacati del Nordest invo...
01/07/2025
Mercati di Traiano, la luce che racconta Roma: il progetto Areti-Acea come architettura dello sguardo
È un’illuminazione che va oltre la retorica del decoro, quella inaugurata il 26 giugno ai ...
01/07/2025
Giansanti (Confagricoltura): “Risorse agricole usate per le armi: settore allo stremo
Giansanti (Confagricoltura): “Risorse agricole usate per le armi: settore allo stremo"
01/07/2025
Clima estremo in Europa, 18 città italiane sotto allarme: temperature record e incendi nel continente
L’Italiaoggi vede ben 18 città classificate con il bollino rosso per il caldo estremo
01/07/2025
Terremoto ai Campi Flegrei: disagi sull’Alta Velocità e nuova attenzione sul rischio vulcanico
Paura ai Campi Flegrei: scossa di magnitudo 4.6 scuote Napoli, disagi sull’Alta Velocità e...
01/07/2025
LinkedIn o Tinder? Dove nasce davvero una storia d’amore
LinkedIn sfida Tinder anche in amore: tra curriculum e cuori, sempre più storie iniziano s...
Trovati 35 record
Pagina
5
  • POSTE25 720
  • 720 intesa GREEN 25