La exempleada de Facebook que ha filtrado sus documentos internos: permiten el odio y la desinformación, solo quieren ganar dinero

Hace unas sema­nas se filtró una inves­ti­ga­ción interna de Face­book a The Wall Street Jour­nal que mostraba cómo la empresa sabe perfec­ta­mente que sus redes soci­a­les son tóxi­cas para las muje­res adoles­cen­tes, algo que ha negado en público.

Y ahora ya se conoce quién es la persona que ha filtrado la infor­ma­ción y, además, ha llegado con más decla­ra­ci­o­nes y hechos muy inter­e­san­tes. Es alguien que conoce muy bien las diná­mi­cas inter­nas en Face­book: Fran­ces Haugen, Product Mana­ger o (ahora ex) direc­tora de producto en la empresa. Y también ha desve­lado varios deta­lles y secre­tos inter­nos desco­no­ci­dos hasta ahora.

Fran­ces Haugen tiene 37 años, es cien­tí­fica de datos, licen­ci­ada en inge­ni­e­ría informá­tica y con un máster en nego­cios de Harvard. Ha traba­jado para empre­sas como Google y Pinte­rest. Con expe­ri­en­cia dentro del sector, dice la ex direc­tiva que ha estado en otras redes soci­a­les y lo que ha visto en Face­book «es sustan­ci­al­mente peor en que todo lo que había visto antes en otras plata­for­mas».

Haugen confirma lo que Face­book niega

Aunque mucho se habla de que Face­book va influyendo nega­ti­va­mente en dife­ren­tes aspec­tos de la soci­e­dad por las infor­ma­ci­o­nes que nos envía de forma cons­tante (entre otras, que sus redes soci­a­les son plata­for­mas idóneas para propa­gar desin­for­ma­ción), con los docu­men­tos filtra­dos por Haugen se confirma que Mark Zucker­berg y su plan­ti­lla también lo saben aunque lo nieguen. Esto ha puesto a la red social en el ojo del huracán.

Ahora la denun­ci­ante de Face­book dice que la compañía incen­tiva el «conte­nido que enfada, pola­ri­zante y divi­sivo». Curi­o­sa­mente, Tim Cook, CEO de Apple, ya habló de esto. Según Cook, estas redes prio­ri­zan "las teorías cons­pi­ra­ti­vas y la inci­ta­ción a la violen­cia” porque son temas que hacen parti­ci­par a más perso­nas en esas conver­sa­ci­o­nes. De este modo, las empre­sas que gesti­o­nan estas plata­for­mas soci­a­les, tienen la opor­tu­ni­dad de reco­pi­lar más infor­ma­ción perso­nal de la ciuda­da­nía y así tienen más datos para vender.

Un conflicto de inter­e­ses: qué es bueno para Face­book y qué lo es para el público

Fran­ces Haugen ha dicho en una entre­vista que lo que vio en Face­book una y otra vez fue que había conflic­tos de interés entre lo que era bueno para el público y lo que era bueno para Face­book. Y Face­book optó siem­pre por opti­mi­zar sus propios inter­e­ses, que es ganar más dinero.

Por otro lado, dice que estu­dios inter­nos mues­tran que la empresa está minti­endo al público acerca de los avan­ces signi­fi­ca­ti­vos contra el odio, la violen­cia y la desin­for­ma­ción. Uno de los estu­dios de Face­book reali­zado este año y cuya infor­ma­ción ha sido ahora reve­lada por Haugen concluye que se estima que la empresa ha conse­guido atajar el odio en las plata­for­mas sola­mente entre un 3 y un 5% de lo que hay en total.

De acuerdo con la anti­gua direc­tiva: cuando nos enfren­ta­mos a un espa­cio de infor­ma­ción que está lleno de conte­nido enfa­dado, que fomenta el odio o que es pola­ri­zante, «esto erosi­ona nues­tra confi­anza cívica, erosi­ona nues­tra fe en los demás, erosi­ona nues­tra capa­ci­dad de querer cuidar de los demás».

Como conse­cu­en­cia, «la versión de Face­book que existe hoy en día puede frag­men­tar nues­tras soci­e­da­des y causa violen­cia étnica en todo el mundo», ha dicho en refe­ren­cia a los deli­tos de odio que tienen lugar de unas perso­nas a otras por su color de piel o su reli­gión. Y recordó la limpi­eza étnica que tuvo lugar en Myan­mar en 2018, cuando los mili­ta­res usaron Face­book para presen­tar su geno­ci­dio y fomen­tar el discurso de odio hacia la mino­ría étnica rohinyá.

El algo­ritmo que elige unos conte­ni­dos sobre otros

Uno de los graves proble­mas que Haugen ve es que, como usua­rios, pode­mos tener el telé­fono en las manos y acce­der a infor­ma­ción de un modo cons­tante, a través de lo que Face­book nos va mostrando en nues­tro 'Feed'. Y ahí entran en juego los famo­sos algo­rit­mos que van deci­di­endo qué vemos y qué no.

«Tienes tu telé­fono. Podrías ver 100 piezas de conte­nido si te sien­tas y te despla­zas durante solo cinco minu­tos. Face­book tiene miles de opci­o­nes que podría mostrarte. El algo­ritmo elige entre esas opci­o­nes basán­dose en el tipo de conte­nido con el que más has inter­ac­tu­ado en el pasado». Al mismo tiempo, los estu­dios de Face­book inter­nos saben que el conte­nido que incita al odio, que es divi­sivo, que es pola­ri­zante, produce mayo­res reac­ci­o­nes.

Para la ex direc­tiva, mien­tras solo se prio­riza el conte­nido con más reac­ci­o­nes que, a su vez suele ser el que propaga infor­ma­ci­o­nes que provo­can la ira de los lecto­res, los usua­rios seguirán reci­bi­endo cada vez más infor­ma­ción de este estilo. Y para Face­book da igual que sea cierta o falsa la infor­ma­ción. El algo­ritmo no prio­riza este aspecto y dice Haugen que es desde 2018 que este aspecto está tan marcado. De hecho, recordó cómo los diri­gen­tes euro­peos han cues­ti­o­nado abier­ta­mente este hecho.

Con esto, dice la inge­ni­era que «Face­book gana más dinero cuando se consume más conte­nido. La gente se invo­lu­cra más con cosas que provo­can una reac­ción emoci­o­nal. Y a cuanta más rabia se les expone, más inter­ac­túan y más consu­men».

Por qué Haugen deci­dió filtrar los datos y cómo lo hizo

La ex direc­tiva ha dicho que ella no quería seguir traba­jando para una compañía que manti­ene estos secre­tos tan impor­tan­tes ocul­tos para sus usua­rios. «Imagina que sabes lo que está pasando dentro de Face­book y sabes que nadie en el exte­rior lo sabe», y quiso desve­lar la infor­ma­ción. Fran­ces Haugen contó que fue reclu­tada por Face­book en 2019 y dice que aceptó el trabajo poni­endo como condi­ción traba­jar contra la desin­for­ma­ción en la plata­forma.

Para que su deci­sión fuera consis­tente y no quedara en pala­bras que se lleva el aire, reco­piló los docu­men­tos inter­nos que pudo antes de desve­lar las infor­ma­ci­o­nes o renun­ciar.

Ella traba­jaba en el área de Inte­gri­dad Cívica, que buscaba atajar ries­gos para las elec­ci­o­nes, incluida la desin­for­ma­ción. Pero después de las últi­mas elec­ci­o­nes en Esta­dos Unidos, hubo un punto de infle­xión dentro de la compañía. Se deci­dió disol­ver este área y, de hecho, dos meses después, hubo el asalto al Capi­to­lio, de acuerdo con Haugen.

Ella consi­dera que cuando la firma se deshizo de este área desti­nada a frenar la desin­for­ma­ción fue el momento en el que dejó de confiar en que Face­book quiera inver­tir real­mente en evitar que Face­book sea peli­groso.

Imagen de portada: CBS News