Una memo trapelata mostra che TikTok sa di avere un problema di lavoro

A leaked memo reveals TikTok is aware of a labor issue.

Il mese scorso, un tribunale in Kenya ha emesso una storica sentenza contro Meta, proprietaria di Facebook e Instagram. Il gigante tecnologico statunitense è stato dichiarato il “vero datore di lavoro” delle centinaia di persone impiegate a Nairobi come moderatori sulle sue piattaforme, che analizzano post e immagini per filtrare contenuti violenti, discorsi d’odio e altri contenuti scioccanti. Ciò significa che Meta può essere citata in giudizio in Kenya per violazioni dei diritti dei lavoratori, anche se i moderatori sono tecnicamente impiegati da un appaltatore terzo.

Il gigante dei social media TikTok stava seguendo da vicino il caso. L’azienda utilizza anche moderatori esterni in Kenya e in altri paesi del Sud globale, attraverso un contratto con Majorel con sede in Lussemburgo. Documenti trapelati ottenuti dall’ONG Foxglove Legal, visti da WIRED, mostrano che TikTok è preoccupata di poter essere la prossima ad affrontare possibili cause legali.

“TikTok probabilmente affronterà rischi reputazionali e regolatori per il suo accordo contrattuale con Majorel in Kenya”, dice la nota. Se i tribunali kenyani si pronunceranno a favore dei moderatori, la nota avverte che “TikTok e i suoi concorrenti potrebbero essere oggetto di attenzione per presunte violazioni dei diritti dei lavoratori”.

La sentenza contro Meta è arrivata dopo che l’azienda tecnologica ha cercato di far respingere una causa intentata contro di essa e il suo partner esterno, Sama, dal moderatore sudafricano Daniel Motaung, che è stato licenziato dopo aver cercato di formare un sindacato nel 2019.

Motaung ha dichiarato che il lavoro, che consisteva nel guardare ore di contenuti violenti, grafici o altrimenti traumatici ogni giorno, gli ha causato il disturbo da stress post-traumatico. Ha anche affermato di non essere stato completamente informato sulla natura del lavoro prima di trasferirsi dal Sudafrica al Kenya per iniziare il lavoro. Motaung accusa Meta e Sama di diverse violazioni della legge sul lavoro in Kenya, tra cui il traffico di esseri umani e l’ostacolo all’organizzazione sindacale. Se il caso di Motaung avrà successo, potrebbe consentire ad altre grandi aziende tecnologiche che esternalizzano in Kenya di essere chiamate a rispondere per il trattamento del personale, fornendo un quadro per casi simili in altri paesi.

“[TikTok] lo interpreta come una minaccia per la reputazione”, afferma Cori Crider, direttrice di Foxglove Legal. “Il fatto che stiano sfruttando le persone è la minaccia per la reputazione”.

TikTok non ha risposto a una richiesta di commento.

Nel gennaio, mentre la causa di Motaung procedeva, Meta ha cercato di interrompere i rapporti con Sama e trasferire le sue operazioni di esternalizzazione a Majorel, partner di TikTok.

Nel processo, si prevedeva che 260 moderatori di Sama avrebbero perso il lavoro. A marzo, un giudice ha emesso un’inibitoria che ha impedito a Meta di terminare il contratto con Sama e trasferirlo a Majorel fino a quando il tribunale non avrebbe potuto stabilire se i licenziamenti violassero le leggi sul lavoro del Kenya. In una causa separata, i moderatori di Sama, alcuni dei quali hanno parlato a WIRED all’inizio di quest’anno, hanno affermato che Majorel li aveva messi in una lista nera per impedirgli di candidarsi ai nuovi posti di lavoro come moderatori per Meta, in rappresaglia per aver cercato di migliorare le condizioni di lavoro presso Sama. A maggio, 150 moderatori esterni che lavorano per TikTok, ChatGPT e Meta tramite aziende terze hanno votato per formare e registrare l’Unione dei Moderatori di Contenuti Africani.

Majorel ha declinato un commento.

I documenti di TikTok mostrano che l’azienda sta considerando un’audizione indipendente del sito di Majorel in Kenya. Majorel ha siti in tutto il mondo, incluso in Marocco, dove i suoi moderatori lavorano sia per Meta che per TikTok. Un tale esercizio, che spesso comporta l’assunzione di uno studio legale esterno o di una società di consulenza per condurre interviste e fornire una valutazione formale secondo criteri come le leggi sul lavoro locali o gli standard internazionali dei diritti umani, “potrebbe attenuare l’attenzione dei rappresentanti sindacali e dei media”, dice la nota.

Paul Barrett, direttore aggiunto del Center for Business and Human Rights presso la New York University, afferma che queste audizioni possono essere un modo per le aziende di apparire come se stessero prendendo provvedimenti per migliorare le condizioni nella loro catena di approvvigionamento, senza dover apportare i drastici cambiamenti necessari.

“Ci sono stati casi in diversi settori in cui le audizioni sono state in gran parte dimostrative, solo un po’ di teatro per dare a un’azienda globale una stella d’oro in modo che possano dire di essere conformi a tutti gli standard rilevanti”, afferma, notando che è difficile dire in anticipo se un’audizione potenziale sulle operazioni di moderazione di TikTok sarebbe similemente cosmetica.

Meta ha condotto diverse audizioni, tra cui nel 2018, affidando a consulenti di Business for Social Responsibility la valutazione del suo impatto sui diritti umani in Myanmar a seguito di un genocidio che gli investigatori delle Nazioni Unite hanno affermato essere in parte alimentato da discorsi d’odio su Facebook. Lo scorso anno, Meta ha pubblicato il suo primo rapporto sui diritti umani. Tuttavia, l’azienda ha più volte rimandato la pubblicazione della copia completa e non censurata del suo rapporto sull’impatto dei diritti umani in India, commissionato nel 2019 a seguito delle pressioni dei gruppi per i diritti umani che l’hanno accusato di contribuire all’erosione delle libertà civili nel paese.

La memo di TikTok non fa nulla riguardo a come l’azienda potrebbe utilizzare tale valutazione per aiutare a guidare il miglioramento delle condizioni materiali dei suoi lavoratori esternalizzati. “Noterai che le raccomandazioni non stanno improvvisamente dicendo che dovrebbero semplicemente dare alle persone accesso a psichiatri, o permettere loro di optare per contenuti tossici e preselezionarli in modo molto accurato, o pagarli in modo più equo che riconosca i rischi intrinsechi del lavoro”, afferma Crider. “Penso che si tratti della performance di fare qualcosa”.

Barrett afferma che c’è un’opportunità per TikTok di affrontare la questione in modo più proattivo rispetto ai suoi predecessori. “Penso che sarebbe molto sfortunato se TikTok dicesse: ‘Stiamo cercando di minimizzare la responsabilità, ridurre al minimo la nostra responsabilità e non solo esternalizzare questo lavoro, ma anche esternalizzare la nostra responsabilità di assicurare che il lavoro che viene svolto per conto della nostra piattaforma sia fatto in modo appropriato e umano'”.