Come X sta cercando di sfuggire alla responsabilità attraverso cause legali
Come X cerca di evitare responsabilità con azioni legali
Il 19 luglio, Bloomberg News ha riportato ciò che molti altri hanno detto da tempo: Twitter (ora chiamato X) stava perdendo inserzionisti, in parte a causa della sua scarsa applicazione contro i discorsi di odio. Citato pesantemente nella storia era Callum Hood, responsabile della ricerca presso il Center for Countering Digital Hate (CCDH), un’organizzazione non profit che monitora i discorsi di odio sulle piattaforme social, il cui lavoro ha evidenziato diversi casi in cui Twitter ha permesso che contenuti violenti, odiosi o fuorvianti rimanessero sulla piattaforma.
Il giorno successivo, X ha annunciato di intentare una causa legale contro la non profit e la European Climate Foundation, per l’uso improprio dei dati di Twitter che avrebbe portato alla perdita di entrate pubblicitarie. Nella causa legale, X afferma che i dati utilizzati dal CCDH nella sua ricerca sono stati ottenuti utilizzando le credenziali di accesso della European Climate Foundation, che aveva un account con lo strumento di ascolto dei social di terze parti, Brandwatch. Brandwatch ha una licenza per utilizzare i dati di Twitter tramite la sua API. X sostiene che il CCDH non era autorizzato ad accedere ai dati di Twitter/X. La causa legale accusa anche il CCDH di estrarre dati dalla piattaforma di Twitter senza autorizzazione adeguata, in violazione dei termini di servizio dell’azienda.
X non ha risposto alla richiesta di commento di ENBLE.
“La ricerca del Center for Countering Digital Hate mostra che l’odio e la disinformazione si diffondono come un incendio sulla piattaforma sotto la proprietà di Musk, e questa causa legale è un tentativo diretto di silenziare quegli sforzi”, afferma Imran Ahmed, CEO del CCDH.
Gli esperti intervistati da ENBLE vedono l’azione legale come l’ultimo tentativo delle piattaforme social di limitare l’accesso ai loro dati da parte dei ricercatori e delle organizzazioni della società civile che cercano di tenerle responsabili. “Stiamo parlando di accesso non solo per i ricercatori o gli accademici, ma potrebbe potenzialmente essere esteso anche agli attivisti, ai giornalisti e persino ai responsabili politici”, afferma Liz Woolery, responsabile delle politiche digitali di PEN America, un’organizzazione non profit che difende la libertà di espressione. “Senza quel tipo di accesso, è davvero difficile per noi impegnarci nella ricerca necessaria per comprendere meglio l’entità e l’entità del problema che affrontiamo, ossia come i social media influenzano la nostra vita quotidiana e come migliorarla”.
- Questo psicologo vuole vaccinarti contro le fake news
- Questa resa dei conti tra umani e chatbot potrebbe proteggerti dai ...
- Instagram aggiunge un tocco musicale alla condivisione delle foto, ...
Nel 2021, Meta ha bloccato i ricercatori dell’Ad Observatory dell’Università di New York dal raccogliere dati sugli annunci politici e sulla disinformazione legata al Covid-19. L’anno scorso, l’azienda ha annunciato che avrebbe ridotto gradualmente il suo strumento di monitoraggio CrowdTangle, che è stato fondamentale per consentire ai ricercatori e ai giornalisti di monitorare Facebook. Sia Meta che Twitter stanno citando in giudizio Bright Data, un’azienda israeliana di raccolta dati, per l’estrazione dei loro siti. (Meta aveva precedentemente incaricato Bright Data di estrarre altri siti per suo conto.) Musk ha annunciato a marzo che l’azienda avrebbe iniziato a addebitare 42.000 dollari al mese per la sua API, escludendo la grande maggioranza dei ricercatori e degli accademici che l’hanno utilizzata per studiare problemi come la disinformazione e i discorsi di odio in oltre 17.000 studi accademici.
Ci sono motivi per cui le piattaforme non vogliono che i ricercatori e gli attivisti indaghino ed espongano le loro mancanze. Per anni, le organizzazioni di difesa hanno utilizzato esempi di contenuti violativi sulle piattaforme social come un modo per far pressione sugli inserzionisti affinché ritirassero il loro sostegno, costringendo le aziende a affrontare problemi o a cambiare le loro politiche. Senza la ricerca di base sui discorsi di odio, la disinformazione e altri contenuti dannosi sui social media, queste organizzazioni avrebbero poco potere per costringere le aziende a cambiare. Nel 2020, inserzionisti, tra cui Starbucks, Patagonia e Honda, hanno abbandonato Facebook dopo che la piattaforma Meta è stata trovata ad avere un approccio negligente alla moderazione della disinformazione, in particolare ai post dell’ex presidente degli Stati Uniti Donald Trump, causando milioni di perdite all’azienda.
Appena Musk ha preso il controllo di Twitter alla fine di ottobre 2022, ha licenziato molti dei membri dello staff responsabili di mantenere i discorsi di odio e la disinformazione fuori dalla piattaforma e ha ripristinato gli account degli utenti che erano stati precedentemente banditi, tra cui Trump e l’influencer Andrew Tate, attualmente incriminato in base alle leggi sulla tratta di esseri umani in Romania. Uno studio pubblicato all’inizio di quest’anno dall’Information Sciences Institute dell’Università della California del Sud, dall’Oregon State University, dall’UCLA e dall’UC Merced ha rilevato che i discorsi di odio sono aumentati drasticamente dopo che Musk ha preso il comando di Twitter. Nel periodo approssimativo, l’azienda ha visto le sue entrate pubblicitarie dimezzate mentre i marchi, tra cui General Motors, Pfizer e United Airlines, hanno abbandonato la piattaforma, apparentemente preoccupati che i loro prodotti apparissero accanto a disinformazione e discorsi di odio.
E questo ha molto infastidito Musk. Il 4 novembre 2022, ha twittato: “Twitter ha subito una massiccia riduzione delle entrate, a causa di gruppi attivisti che fanno pressione sugli inserzionisti, anche se nulla è cambiato con la moderazione dei contenuti e abbiamo fatto tutto il possibile per accontentare gli attivisti. Estremamente disordinato! Stanno cercando di distruggere la libertà di parola in America”.
Woolery di PEN America si preoccupa che, che la causa legale di X contro il CCDH abbia fondamento o meno, il costo per combatterla sarà sufficiente per intimidire altre organizzazioni che svolgono un lavoro simile. “Le cause legali come questa, specialmente quando si tratta di un’organizzazione non profit, sono considerate sicuramente un tentativo di silenziare i critici”, afferma. “Se un’organizzazione non profit o un’altra persona non ha una posizione finanziaria tale da poter davvero, veramente dare tutto ciò che serve per difendersi, allora corre il rischio di avere una difesa scarsa o di semplicemente concordare una transazione e cercare di uscirne per evitare di incorrere in ulteriori costi e danni reputazionali”.
Ma la causa non mette solo pressione sui ricercatori stessi. Mette anche in evidenza un altro canale attraverso il quale potrebbe essere più difficile per i sostenitori accedere ai dati: le piattaforme di ascolto sociale di terze parti. Queste aziende accedono e analizzano i dati provenienti dalle piattaforme social per consentire ai loro clienti – dai contractor per la sicurezza nazionale alle agenzie di marketing – di ottenere informazioni sul loro pubblico e indirizzare messaggi.
Tal-Or Cohen Montemayor, fondatrice e direttrice esecutiva di CyberWell, un’organizzazione no-profit che monitora l’antisemitismo online in inglese e in arabo, afferma che nel novembre 2022, poco dopo che Musk ha preso il controllo dell’azienda, CyberWell si è rivolta a Talkwalker, una società di ascolto sociale di terze parti, per ottenere una sottoscrizione che le permettesse di analizzare i discorsi antisemiti sulla piattaforma allora chiamata Twitter.
Cohen Montemayor afferma che Talkwalker le ha detto che l’azienda non poteva accettarla come cliente a causa della natura del lavoro di CyberWell. Afferma che sembra che “gli strumenti open source esistenti e gli strumenti di ascolto sociale siano riservati solo agli inserzionisti e ai ricercatori pagati. Le organizzazioni non profit sono attivamente bloccate dall’uso di queste risorse”.
Talkwalker non ha risposto a una richiesta di commento su se i suoi accordi con X le vietino di accettare come clienti organizzazioni che monitorano l’odio. X non ha risposto alle domande su quali parametri stabilisce per i tipi di clienti che le società di ascolto sociale di terze parti possono accettare.
Secondo la causa di X contro CCDH, un accordo del 2023 tra Brandwatch e X stabiliva che qualsiasi violazione dei dati di X attraverso i clienti di Brandwatch sarebbe stata considerata responsabilità della società di ascolto sociale. Su Bluesky, un concorrente di X, Yoel Roth, l’ex direttore senior della fiducia e della sicurezza di Twitter, ha scritto: “Il business di ascolto sociale di Brandwatch è completamente, totalmente, al 100% dipendente dall’accesso ai dati di Twitter, quindi immagino che non sia sorprendente vedere quanto si stiano piegando indietro per accontentare l’azienda”.
Per quanto riguarda Brandwatch, in un tweet del 20 luglio, ha citato il rapporto CCDH citato nella causa di X, dicendo: “Recentemente, siamo stati citati in un articolo sulla rilevanza del marchio che si basava su dati incompleti e obsoleti. Conteneva metriche usate fuori contesto per fare affermazioni non comprovate su Twitter”.
Brandwatch non ha risposto a una richiesta di commento.
Ma Ahmed di CCDH afferma che l’affermazione che la ricerca della sua organizzazione si basa su dati incompleti è un modo per X di oscurare i problemi della sua stessa piattaforma. “Ogni volta che affermi di aver trovato informazioni lì, loro dicono semplicemente: ‘No, è una bugia. Solo noi abbiamo i dati. Non potresti conoscere la verità. Solo noi conosciamo la verità. E valutiamo i nostri stessi compiti'”, afferma.
Un rappresentante di un altro strumento di ascolto sociale di terze parti che utilizza i dati di X, che ha chiesto di rimanere anonimo per proteggere la propria azienda da ritorsioni da parte di X, ha confermato a ENBLE che aziende come la loro dipendono pesantemente dai dati di Twitter/X. “Molti dei servizi molto incentrati su Twitter, molti di essi sono al 100% Twitter”, dicono, notando che Instagram ha da tempo chiuso il suo API e che le conversazioni sulle piattaforme di Meta tendono a non essere così pubbliche come quelle su X. “Per quanto riguarda i dati, Twitter continua a svolgere un ruolo significativo nel fornire dati alle aziende di analisi”. Osservano che, sebbene il nuovo API a pagamento di X abbia stretto la morsa sulle aziende di analisi di terze parti, “è praticamente come se ti tenessero in ostaggio”, perdere l’accesso ai dati di X potrebbe uccidere un’azienda.
Aggiungono che non hanno visto linee guida che limitino l’uso dei dati di X per discorsi di odio o ricerche di advocacy, ma ci sono specifiche linee guida “conosci il tuo cliente” che vietano la condivisione dei dati di X con le agenzie governative senza autorizzazione preventiva. Lo stesso giorno in cui X ha annunciato la causa, il 31 luglio, America First Legal, un’organizzazione no-profit di estrema destra guidata dall’ex funzionario di Trump Stephen Miller, ha annunciato di aver presentato richieste ai sensi della Freedom of Information Act (FOIA) per esaminare le comunicazioni tra CCDH e varie agenzie governative degli Stati Uniti, sostenendo che si tratti di un “coordinatore di attività di censura illegali” (Ahmed afferma che la sua organizzazione non ha mai coordinato con il governo degli Stati Uniti). Ciò sarebbe, se vero, apparentemente anche una violazione di quei termini di servizio.
La causa di X afferma anche che il CCDH è finanziato sia dai concorrenti di X che da “enti governativi e loro affiliati”, ma afferma che “X Corp. attualmente non dispone di informazioni sufficienti per includere le identità di questi enti, organizzazioni e persone in questa Denuncia”.
Anche senza minacce legali, ci sono costi significativi per i ricercatori che si concentrano sulla disinformazione e sui discorsi di odio sulle piattaforme. Gli esperti intervistati da ENBLE affermano di temere che la minaccia di azioni legali possa avere un effetto intimidatorio su altre organizzazioni che studiano l’odio e la disinformazione.
Dopo aver pubblicato un rapporto che dimostrava come i contenuti antisemiti si fossero raddoppiati sulla piattaforma dopo il passaggio di Musk, Sasha Havlicek, co-fondatrice e CEO dell’Istituto per il Dialogo Strategico (ISD), un think tank con sede a Londra focalizzato sull’estremismo e la disinformazione, afferma che l’azienda ha subito un’ondata di tweet abusivi. “In risposta, Twitter ha pubblicato un thread che ha avuto circa 3 milioni di visualizzazioni”, dice. “Musk stesso ha risposto con una emoticon di feci”.
A dicembre, Musk ha collaborato con giornalisti di estrema destra per pubblicare i cosiddetti “Twitter Files”, una selezione di documenti interni che sembravano dimostrare come il Twitter pre-Musk avesse silenziato alcuni utenti conservatori. Alcuni dei documenti includevano i nomi e gli indirizzi email dei ricercatori di disinformazione presso l’Osservatorio di Internet di Stanford, molti dei quali erano studenti universitari all’epoca. Un ex studente, che ha preferito rimanere anonimo per timore di molestie, afferma che le persone il cui indirizzo email è finito nei “Twitter Files” sono state oggetto di continue molestie per il loro ruolo nella ricerca sulla disinformazione.
“Vedendo come sono andate le cose e considerando la possibilità di subire molestie, molte persone che hanno lavorato su questo progetto ora stanno pensando due volte”, afferma l’ex studente.
“Bisogna chiedersi”, afferma Havlicek dell’ISD. “Chi è ora il censor?”.
Havlicek dice di sperare che il Digital Services Act (DSA) dell’UE, che alla fine obbligherà i grandi social media a fornire accesso ai dati per i ricercatori, possa essere una guida per altri paesi. Ma resta aperta la questione di eventuali ostacoli legali relativi ai dati raccolti legalmente dai ricercatori europei in base al DSA, ma condivisi con ricercatori o sostenitori non europei.
“Sono stato a Bruxelles qualche settimana fa per parlare con gli esperti dei servizi digitali su come possiamo utilizzare i dati resi disponibili attraverso il regime di trasparenza dei dati del DSA”, afferma Ahmed. “E quando saranno disponibili, li utilizzeremo nel modo più efficace possibile”.