Ex dipendente di Sito di social network Facebook Che ha fatto trapelare documenti interni all’azienda che hanno rivelato la sua identità domenica scorsa (3) in un’intervista all’americana “CBS News” durante il programma “60 Minutes”.
Frances Haugen, 37 anni, ha lavorato come product manager per l’azienda ed è stata responsabile di progetti relativi alle elezioni.
Tra i documenti ottenuti dal “Wall Street Journal” i rapporti di metà settembre indicano che Facebook Celebrità protette dalle regole sui contenuti, che l’azienda lo sapeva Instagram che è Tossico per gli adolescenti e che la risposta dell’azienda alle preoccupazioni dei dipendenti sul traffico di esseri umani è stata spesso “debole”.
Durante un’intervista con CBS News, Haugen ha accusato Facebook di “mettere i profitti al di sopra della sicurezza” e ha affermato che “ha funzionato per incoraggiare il cambiamento nel gigante dei social media, non per provocare indignazione”.
È programmata per testimoniare davanti al Congresso degli Stati Uniti martedì (5) per parlare di più del suo tempo presso il gigante dei social network.
“Suggerire di incoraggiare i contenuti dannosi e di non fare nulla al riguardo è semplicemente falso”, ha affermato Facebook. g 1.
In un’intervista “60 Minutes”, ho spiegato come l’algoritmo, che sceglie quale contenuto mostrare a ciascun utente, è ottimizzato per i contenuti che generano una reazione.
“Nessuno su Facebook è dannoso”, ha detto Hugin. “Ma gli incentivi sono pervertiti, giusto?”
“Facebook si è reso conto che se avesse cambiato l’algoritmo per renderlo più sicuro, lo avrebbe fatto Le persone trascorreranno meno tempo sul sito, faranno clic su meno annunci e guadagneranno meno‘, ha continuato.
“Facebook guadagna di più quando si consumano più contenuti. Alla gente piace essere coinvolta in cose che suscitano una risposta emotiva.
Haugen ha affermato che durante le elezioni presidenziali statunitensi del 2020, la società ha riconosciuto il pericolo rappresentato da questo contenuto e ha attivato sistemi di sicurezza per mitigarlo. Ma questo sistema doveva essere interrotto dopo la fine delle elezioni.
“La versione di Facebook che esiste oggi sta distruggendo le nostre società e causando violenze etniche in tutto il mondo”, ha affermato.
Francis Hogan ha iniziato a lavorare su Facebook nel giugno 2019, in un team di circa 200 persone focalizzate sull'”integrità civile”, responsabili della gestione delle questioni relative alle elezioni.
Si è dimessa nell’aprile 2021, ma è rimasta per un altro mese per completare progetti e assegnare incarichi ad altri dipendenti.
Frances Hogan, ex dipendente di Facebook, è intervistata dall’emittente statunitense CBS News su “60 Minutes” – Immagine: CBS News/60MINUTES via REUTERS
I documenti che ho fatto trapelare erano nei sistemi “Workplace”, una rete aziendale interna. Ha detto che non è difficile ritrarre le informazioni, comprese le presentazioni del CEO Mark Zuckerberg, che era nei forum aperti per questo sistema.
Ingegnere informatico qualificato, Haugen ha lavorato per altre aziende tecnologiche come google browser e Pinterest, specializzato nella creazione di algoritmi che determinano ciò che le persone vedranno nei loro feed.
Secondo lei, Facebook è “molto peggio” di qualsiasi cosa abbia visto prima.
Facebook nega le accuse
Facebook ha risposto alle segnalazioni del Wall Street Journal. Nick Clegg, vicepresidente delle relazioni globali di Facebook, ha pubblicato una serie di tweet il 18 settembre facendo riferimento a quella che ha definito una “caratterizzazione errata” di Stories.
Secondo lui, le affermazioni secondo cui Facebook ignori deliberatamente e sistematicamente la ricerca scomoda sono “false”. La rete ha anche affermato che i documenti trapelati sono stati rilasciati al pubblico “senza contesto sufficiente” e ha deciso di pubblicare il materiale con “annotazioni”.
per me g 1Facebook ha dichiarato: “I nostri team lavorano ogni giorno per proteggere la capacità di miliardi di persone di esprimersi pubblicamente mantenendo la nostra piattaforma un luogo sicuro e positivo. Continuiamo ad apportare importanti miglioramenti per combattere la disinformazione e i contenuti dannosi sui nostri servizi. Suggeriamo di incoraggiare contenuti dannosi e non fare nulla al riguardo.” Semplicemente scorretto.”