Hace unas semanas se filtró una investigación interna de Facebook a The Wall Street Journal que mostraba cómo la empresa sabe perfectamente que sus redes sociales son tóxicas para las mujeres adolescentes, algo que ha negado en público.
Y ahora ya se conoce quién es la persona que ha filtrado la información y, además, ha llegado con más declaraciones y hechos muy interesantes. Es alguien que conoce muy bien las dinámicas internas en Facebook: Frances Haugen, Product Manager o (ahora ex) directora de producto en la empresa. Y también ha desvelado varios detalles y secretos internos desconocidos hasta ahora.
Frances Haugen tiene 37 años, es científica de datos, licenciada en ingeniería informática y con un máster en negocios de Harvard. Ha trabajado para empresas como Google y Pinterest. Con experiencia dentro del sector, dice la ex directiva que ha estado en otras redes sociales y lo que ha visto en Facebook "es sustancialmente peor en que todo lo que había visto antes en otras plataformas".
Haugen confirma lo que Facebook niega
Aunque mucho se habla de que Facebook va influyendo negativamente en diferentes aspectos de la sociedad por las informaciones que nos envía de forma constante (entre otras, que sus redes sociales son plataformas idóneas para propagar desinformación), con los documentos filtrados por Haugen se confirma que Mark Zuckerberg y su plantilla también lo saben aunque lo nieguen. Esto ha puesto a la red social en el ojo del huracán.
Ahora la denunciante de Facebook dice que la compañía incentiva el "contenido que enfada, polarizante y divisivo". Curiosamente, Tim Cook, CEO de Apple, ya habló de esto. Según Cook, estas redes priorizan "las teorías conspirativas y la incitación a la violencia” porque son temas que hacen participar a más personas en esas conversaciones. De este modo, las empresas que gestionan estas plataformas sociales, tienen la oportunidad de recopilar más información personal de la ciudadanía y así tienen más datos para vender.
Un conflicto de intereses: qué es bueno para Facebook y qué lo es para el público
Frances Haugen ha dicho en una entrevista que lo que vio en Facebook una y otra vez fue que había conflictos de interés entre lo que era bueno para el público y lo que era bueno para Facebook. Y Facebook optó siempre por optimizar sus propios intereses, que es ganar más dinero.
Por otro lado, dice que estudios internos muestran que la empresa está mintiendo al público acerca de los avances significativos contra el odio, la violencia y la desinformación. Uno de los estudios de Facebook realizado este año y cuya información ha sido ahora revelada por Haugen concluye que se estima que la empresa ha conseguido atajar el odio en las plataformas solamente entre un 3 y un 5% de lo que hay en total.
De acuerdo con la antigua directiva: cuando nos enfrentamos a un espacio de información que está lleno de contenido enfadado, que fomenta el odio o que es polarizante, "esto erosiona nuestra confianza cívica, erosiona nuestra fe en los demás, erosiona nuestra capacidad de querer cuidar de los demás".
Como consecuencia, "la versión de Facebook que existe hoy en día puede fragmentar nuestras sociedades y causa violencia étnica en todo el mundo", ha dicho en referencia a los delitos de odio que tienen lugar de unas personas a otras por su color de piel o su religión. Y recordó la limpieza étnica que tuvo lugar en Myanmar en 2018, cuando los militares usaron Facebook para presentar su genocidio y fomentar el discurso de odio hacia la minoría étnica rohinyá.
El algoritmo que elige unos contenidos sobre otros
Uno de los graves problemas que Haugen ve es que, como usuarios, podemos tener el teléfono en las manos y acceder a información de un modo constante, a través de lo que Facebook nos va mostrando en nuestro 'Feed'. Y ahí entran en juego los famosos algoritmos que van decidiendo qué vemos y qué no.
"Tienes tu teléfono. Podrías ver 100 piezas de contenido si te sientas y te desplazas durante solo cinco minutos. Facebook tiene miles de opciones que podría mostrarte. El algoritmo elige entre esas opciones basándose en el tipo de contenido con el que más has interactuado en el pasado". Al mismo tiempo, los estudios de Facebook internos saben que el contenido que incita al odio, que es divisivo, que es polarizante, produce mayores reacciones.
Para la ex directiva, mientras solo se prioriza el contenido con más reacciones que, a su vez suele ser el que propaga informaciones que provocan la ira de los lectores, los usuarios seguirán recibiendo cada vez más información de este estilo. Y para Facebook da igual que sea cierta o falsa la información. El algoritmo no prioriza este aspecto y dice Haugen que es desde 2018 que este aspecto está tan marcado. De hecho, recordó cómo los dirigentes europeos han cuestionado abiertamente este hecho.
Con esto, dice la ingeniera que "Facebook gana más dinero cuando se consume más contenido. La gente se involucra más con cosas que provocan una reacción emocional. Y a cuanta más rabia se les expone, más interactúan y más consumen".
Por qué Haugen decidió filtrar los datos y cómo lo hizo
La ex directiva ha dicho que ella no quería seguir trabajando para una compañía que mantiene estos secretos tan importantes ocultos para sus usuarios. "Imagina que sabes lo que está pasando dentro de Facebook y sabes que nadie en el exterior lo sabe", y quiso desvelar la información. Frances Haugen contó que fue reclutada por Facebook en 2019 y dice que aceptó el trabajo poniendo como condición trabajar contra la desinformación en la plataforma.
Para que su decisión fuera consistente y no quedara en palabras que se lleva el aire, recopiló los documentos internos que pudo antes de desvelar las informaciones o renunciar.
Ella trabajaba en el área de Integridad Cívica, que buscaba atajar riesgos para las elecciones, incluida la desinformación. Pero después de las últimas elecciones en Estados Unidos, hubo un punto de inflexión dentro de la compañía. Se decidió disolver este área y, de hecho, dos meses después, hubo el asalto al Capitolio, de acuerdo con Haugen.
Ella considera que cuando la firma se deshizo de este área destinada a frenar la desinformación fue el momento en el que dejó de confiar en que Facebook quiera invertir realmente en evitar que Facebook sea peligroso.
Imagen de portada: CBS News