Arturo Béjar, ex ingeniero de Meta: “En Instagram está el mayor acoso sexual de la historia de la humanidad”

Imatge
Whistleblower Exposes Meta's 'Placebo' Safety Features For Children
Àmbits Temàtics

“Un tercio de los adoles­cen­tes en Insta­gram han reci­bido acoso sexual en el último mes”, avisa el anti­guo jefe de inge­ni­e­ría de Face­book y asesor de Insta­gram, fuente clave de la inves­ti­ga­ción de EEUU contra Meta

— Más de 40 esta­dos de EEUU deman­dan a Insta­gram por ser “dañina” para los meno­res y la equi­pa­ran al tabaco

“No sé por qué no cons­truye­ron la herra­mi­enta. Yo cuando hablo de esto hablo acerca de lo que sé. Y lo que sé es que un tercio de los meno­res de 16 años con cuenta en Insta­gram han reci­bido acoso sexual en el último mes. En los últi­mos siete días son uno de cada ocho. Sé que es fácil cons­truir lo que yo le expli­que a Adam. Sé que les costa­ría apro­xi­ma­da­mente dos o tres meses hacerlo. Y sé que no lo han hecho. ¿Por qué? Eso es algo que el mundo les tiene que pregun­tar”.

Son pala­bras de Arturo Béjar, ex inge­ni­ero de Meta. “Adam” es Adam Mosseri, el máximo respon­sa­ble de Insta­gram después del propio Mark Zucker­berg. “La herra­mi­enta” es un botón que permita a los meno­res denun­ciar que han reci­bido acoso sexual a través de un mensaje directo.

Béjar es uno de los extra­ba­ja­do­res de la corpo­ra­ción que han compa­re­cido ante el Senado de EEUU en su nueva inves­ti­ga­ción contra Meta, Face­book e Insta­gram. Su decla­ra­ción ha sido una de las bases de la macro­de­manda de los fisca­les gene­ra­les del país contra la compañía. En esta entre­vista con elDi­a­rio.es el ex jefe de inge­ni­e­ría de la compañía explica lo que vio dentro de Insta­gram, cómo actuó Mark Zucker­berg y el resto de la direc­ción cuando les avisó perso­nal­mente de los proble­mas o cómo Meta y su funda­dor ofre­cen datos “engaño­sos” a la prensa y a los regu­la­do­res cuando se ven obli­ga­dos a dar expli­ca­ci­o­nes.

“Los datos sobre Insta­gram son trági­cos. Es proba­ble­mente el mayor acoso sexual de la histo­ria de la huma­ni­dad. Tienes cien­tos de millo­nes de adoles­cen­tes y un tercio de ellos han reci­bido alguna forma de acoso, por su sexo, por su cuerpo. La respu­esta de la compañía es We care [nos preo­cu­pa­mos] y hemos lanzado 30 herra­mi­en­tas para solu­ci­o­narlo, pero cuando las revi­sas ves que muchas de ellas ni siqui­era están acti­vas por defecto”, denun­cia.

 

 

 

 

 

 

 

Arturo Béjar testi­fica ante los sena­do­res del Comité de Justi­cia de EEUU

 

“¿Cómo puede uno confiar en lo que esta compañía dice? Mark Zucker­berg se para ante el Congreso y le dice al mundo que 'la preva­len­cia del odio’ en la plata­forma es del 0,8%, cuando sus propios estu­dios gene­ra­dos por un equipo de profe­si­o­na­les del más alto nivel están arro­jando que entre un 15% y un 20% de los usua­rios reci­bi­e­ron acoso en base a su cuerpo, su reli­gión, su iden­ti­dad. ¿Cómo puedes decir que no hay un problema, cuando la gente que usa el producto y tus equi­pos te dicen que sí? Es como que si le pidi­e­ras a un niño que cali­fi­cara su propia tarea. No, lo que están dici­endo no es un reflejo de la expe­ri­en­cia real de la gente”, asevera Béjar.

 

Direc­tor de inge­ni­e­ría y consul­tor

 

El recor­rido de Béjar en la corpo­ra­ción de redes soci­a­les y su ascen­den­cia sobre la cúpula son aspec­tos clave de su testi­mo­nio. Durante seis años fue direc­tor de inge­ni­e­ría de Face­book, antes de que la corpo­ra­ción pasara a llamarse Meta.

 

“Diri­gía un grupo llamado Protect & Care. Era respon­sa­ble de la 'Inte­gri­dad del sitio’, que dete­nía los ataques y los compor­ta­mi­en­tos mali­ci­o­sos; de la 'Infra­es­truc­tura de segu­ri­dad’, que diseñaba siste­mas resis­ten­tes y traba­jaba en el cumpli­mi­ento; y de un grupo llamado 'Care’, que desar­ro­llaba las herra­mi­en­tas de aten­ción al usua­rio y al cliente interno de Face­book. También super­visé las herra­mi­en­tas de segu­ri­dad infan­til”, deta­lla.

 

Entre otras funci­o­nes, Béjar era la persona encar­gada de desar­ro­llar las herra­mi­en­tas para que los usua­rios pudi­e­ran comu­ni­car a la plata­forma que algo no iba bien. Esto le colocó en una posi­ción en la que tenía una rela­ción directa con la direc­ción ejecu­tiva de Face­book, a saber: el propio Zucker­berg, Sheryl Sand­berg (direc­tora de opera­ci­o­nes de la compañía de 2008 a 2022 y arqui­tecta de su modelo de nego­cio basado en la publi­ci­dad segmen­tada) y Chris Cox (uno de sus prime­ros inge­ni­e­ros y direc­tor de producto desde 2014).

 

Tenía una reunión de estra­te­gia con ellos al menos dos veces al año y era una de las voces más auto­ri­za­das de Sili­con Valley en la protec­ción de los usua­rios en las plata­for­mas online, hasta que en 2015 aban­donó la compañía. En parte, para poder pasar más tiempo con su fami­lia.

 

En 2019, su hija de catorce años le enseñó un mensaje privado en el que otro usua­rio de Insta­gram le pregun­taba si quería tener sexo con él. Ella no le había dado ningún pie para ello. “Trata­mos de repor­tarlo y no era posi­ble. No había ninguna herra­mi­enta para ayudarla. Muchas de las cosas que habí­a­mos cons­truido durante mi tiempo allí ya no esta­ban dispo­ni­bles, habían desa­pa­re­cido”, relata Béjar en conver­sa­ción con este medio.

 

Su hija le explicó que casi todas sus amigas había reci­bido mensa­jes de este estilo por parte de otros meno­res, en ocasi­o­nes incluso insi­nu­a­ci­o­nes de adul­tos. Era algo habi­tual.

 

El inge­ni­ero se puso enton­ces en contacto con su anti­gua empresa para pregun­tar por estos proble­mas. La respu­esta fue una oferta de trabajo para que volvi­era como asesor del equipo de “Bienes­tar” de Insta­gram, el encar­gado de hacer que la plata­forma sea más segura para los usua­rios más jóve­nes, con espe­cial aten­ción a su salud mental.

 

“No fue una buena expe­ri­en­cia”, relató Béjar a los sena­do­res de EEUU en novi­em­bre.

 

Cómo prote­ger a los adoles­cen­tes

 

“La gente de la empresa apenas recor­daba las lecci­o­nes que habí­a­mos apren­dido”, conti­nuó el experto. “Lo más impor­tante que apren­di­mos sobre los adoles­cen­tes antes de 2015 fue que cuando uno de ellos pide ayuda, el conte­nido que estuvo invo­lu­crado en el inci­dente no importa tanto como darles apoyo, ayudar­les en el momento. Así que crea­mos una herra­mi­enta que les pregun­taba —uti­li­zando un lenguaje que proba­mos y desar­ro­lla­mos en cola­bo­ra­ción con los adoles­cen­tes— qué estaba ocur­ri­endo, qué emoción esta­ban expe­ri­men­tando y cuál era su inten­si­dad”.

 

Béjar explica que durante su primera etapa en Face­book, los estu­dios inter­nos de su equipo mostra­ron que en un 90% de las ocasi­o­nes los conte­ni­dos que repor­tan los adoles­cen­tes no viola­ban los térmi­nos de uso de la red social. “Y lo que es más impor­tante y en prin­ci­pio sorpren­dente, descu­bri­mos que en el 50% de los proble­mas que los adoles­cen­tes seña­la­ban como las malas expe­ri­en­cias más inten­sas, el conte­nido resul­taba clara­mente benigno para noso­tros, como obser­va­do­res exter­nos”.

 

Sus estu­dios mostra­ban además que en el 90% de los casos, las perso­nas que habían publi­cado los conte­ni­dos que termi­na­ban siendo más hiri­en­tes para los adoles­cen­tes no tenían inten­ción de causar­les daño. “Cuando me fui, en 2015, basán­do­nos en la expe­ri­en­cia, habí­a­mos apren­dido que para obte­ner la mejor medida del éxito de una herra­mi­enta de apoyo, simple­mente nece­sitá­ba­mos pregun­tar: ¿Reci­biste ayuda para lo que tú nece­si­ta­bas?”.

 

“Cuando volví en 2019, me quedé perplejo”, reme­mora Béjar. “Había muchos miem­bros del equipo moti­va­dos y con talento traba­jando en la segu­ri­dad. Pero nadie en ese equipo era cons­ci­ente del trabajo que habí­a­mos hecho en Face­book y de las lecci­o­nes que habí­a­mos apren­dido cuatro años antes. El grupo de Insta­gram y los talen­to­sos equi­pos de inves­ti­ga­ción inter­nos habían desar­ro­llado algu­nas prue­bas muy preo­cu­pan­tes de que los jóve­nes adoles­cen­tes esta­ban expe­ri­men­tando una gran angus­tia y abuso en la plata­forma Insta­gram”.

 

Sin embargo, la cúpula de la corpo­ra­ción estaba ocul­tando esos proble­mas ante los regu­la­do­res: “Los altos direc­ti­vos infor­ma­ban exter­na­mente de datos dife­ren­tes que subes­ti­ma­ban enor­me­mente la frecu­en­cia de los daños expe­ri­men­ta­dos por los usua­rios”.

 

“Me compro­metí a enten­der esta brecha y empecé a reco­pi­lar parte de la inves­ti­ga­ción para trans­mi­tir el problema a los altos direc­ti­vos”, afirma el experto.

 

El email

 

Los proble­mas de Insta­gram para prote­ger a los meno­res ya habían salido a la luz a raíz del testi­mo­nio de Fran­ces Haugen, otra extra­ba­ja­dora de la compañía. La apor­ta­ción más tras­cen­den­tal de Béjar para los sena­do­res y los fisca­les gene­ra­les es su capa­ci­dad para mostrar que la direc­tiva de la compañía sabía perfec­ta­mente lo que estaba pasando. Él mismo los avisó.

 

 

 

 

 

 

 

 

La exem­ple­ada de Face­book Fran­ces Haugen, antes de testi­fi­car ante el Senado de EEUU, el 5 de octu­bre de 2021, en Washing­ton. EFE/Jabin Bots­ford

 

“Me dedi­qué por mucho tiempo a traba­jar con el equipo para acumu­lar una infor­ma­ción que yo pensaba que cuando se la presen­tara a los ejecu­ti­vos, con los cuales yo había traba­jado muy cerca­na­mente, iban a decir 'no, qué es esto, esto no debe ser así. Vamos a resol­ver­lo’. Habla­mos de acoso sexual, entre meno­res, de adul­tos a meno­res, bullying, cosas que no debe­rían estar en este tipo de plata­for­mas”, revela en conver­sa­ción con este medio.

 

Final­mente el 5 octu­bre de 2021 envío un email a Zucker­berg, Sand­berg, Cox y Mosseri. Era el mismo día que Haugen decla­raba en el Senado.

 

“Sé cómo hay que prepa­rar ese tipo de comu­ni­ca­ci­o­nes con los ejecu­ti­vos”, avisa Béjar. Les presentó los datos inter­nos que había reco­pi­lado: “El número de perso­nas que infor­ma­ban en las encu­es­tas de que habían tenido una expe­ri­en­cia nega­tiva en Insta­gram era del 51% cada semana, pero solo el 1% de ellas denun­ci­aba el conte­nido infrac­tor y solo el 2% de ellas conse­guía que se reti­rara el conte­nido infrac­tor. El 21,8% de los jóve­nes de 13 a 15 años afir­ma­ban haber sido objeto de algún tipo de acoso en los últi­mos siete días, el 39,4% de los niños de 13 a 15 años decían haber expe­ri­men­tado una compa­ra­ción nega­tiva en los últi­mos siete días, y el 24,4% de los jóve­nes de 13 a 15 años respon­dían haber reci­bido insi­nu­a­ci­o­nes no dese­a­das, todo ello en los siete días ante­ri­o­res”. 

 

También les contaba el caso concreto de su hija, con una cita textual que ejem­pli­fi­caba el problema: “Le pregunté por qué los chicos no deja­ban de hacer eso. Me dijo que si lo único que pasa es que les bloquean, ¿por qué iban a dejar de hacerlo?”, les relató.

 

Béjar no provocó la reac­ción que espe­raba. Sand­berg expresó empa­tía por su hija pero no ofre­ció ideas concre­tas para actuar. Mosseri le pidió una reunión. Zucker­berg no contestó. “Eso fue inusual. Podría haber ocur­rido, pero no recu­erdo que Mark no me hubi­era respon­dido antes en nume­ro­sas comu­ni­ca­ci­o­nes que tuve con él, ya fuera por correo elec­tró­nico o soli­ci­tando una reunión en persona”

 

Su acción terminó siendo en vano, incluyendo la reunión con Mosseri. “Le expli­qué que algo muy senci­llo sería cons­truir un botón con el que un adoles­cente pueda recha­zar un mensaje privado y decir 'esto no es para mí'. Cuando se trata de mensa­jes priva­dos, la norma debe­ría ser 'esta es mi casa, son mis reglas’. No importa el conte­nido. Tú me mandas un mensaje, yo decido que no quiero ese mensaje. Debe­ría ser muy fácil. No tendría que tener que repor­tarlo y pasar ocho panta­llas expli­cando por qué no quiero reci­bir ese tipo de mensa­jes. Así es como encu­en­tras a los preda­do­res, que envían muchos de esos mensa­jes. Adam lo enten­día. En ningún momento me dijo que estaba en desa­cu­erdo. Lo enten­día e inclu­sive era él quien hablaba acerca de la impor­tan­cia de ese botón y de que la gente se sinti­era prote­gida después de usarlo, porque ese es el incen­tivo para que se use”, revela.

 

“No veo ninguna razón para que no se imple­men­tara una medida senci­lla de cons­truir como esa. Pero no se hizo”.

 

La respu­esta de Meta

 

elDi­a­rio.es se ha puesto en contacto con Meta para incluir su postura en esta infor­ma­ción. La compañía se ha remi­tido a la comu­ni­ca­ción que elevó a raíz de la demanda de los fisca­les gene­ra­les de EEUU contra ella.

 

“Compar­ti­mos el compro­miso de los fisca­les gene­ra­les de propor­ci­o­nar a los adoles­cen­tes expe­ri­en­cias segu­ras y posi­ti­vas online, y ya hemos intro­du­cido más de 30 herra­mi­en­tas para apoyar a los adoles­cen­tes y sus fami­lias. Nos decep­ci­ona que, en lugar de traba­jar de forma produc­tiva con empre­sas de todo el sector para crear normas claras y adecu­a­das a su edad para las nume­ro­sas apli­ca­ci­o­nes que utili­zan los adoles­cen­tes, los fisca­les gene­ra­les hayan elegido este camino”, expuso enton­ces una porta­voz de Meta.

 

Béjar ya anti­cipó la respu­esta de las 30 herra­mi­en­tas en su conver­sa­ción con elDi­a­rio.es. “Siem­pre hablan de las 30 herra­mi­en­tas. Es infor­ma­ción engañosa con la que inten­tan distraer a los repor­te­ros y a los regu­la­do­res. Si tu repa­sas la lista, ves que muchas de ellas ni siqui­era está acti­va­das por defecto. Hay una de ellas que es muy buena. Sirve para que a los meno­res no les lleguen noti­fi­ca­ci­o­nes por la noche. ¡Pero no está acti­vada por defecto! Tienes que nave­gar por los menús para acti­var el boton­cito. Así, ¿cuánta gente lo va a usar?”.

 

El móvil y los adoles­cen­tes

 

elDi­a­rio.es preguntó al ex inge­ni­ero de Meta por la campaña que se está desar­ro­llando en este momento en España para impe­dir el uso del móvil en los cole­gios, así como la volun­tad de muchas fami­lias de retra­sar la entrega de este tipo de dispo­si­ti­vos a los adoles­cen­tes o incluso prohi­bir su uso. Béjar se arre­pi­ente de haberle entre­gado un móvil a su hija tan pronto.

 

“Si yo tuvi­era que hacer todo otra vez, bajo ninguna circuns­tan­cia le hubi­era dado un telé­fono a mi hija con estos servi­cios insta­la­dos hasta que no tuvi­era por lo menos 16 años”, responde. “Enti­endo la nece­si­dad de comu­ni­carse, de mandarse mensa­jes con amigos, tareas, correos de escu­ela, cosas así. Pero todos los produc­tos de redes soci­a­les están diseña­dos para maxi­mi­zar bene­fi­cios y no toman sufi­ci­ente respon­sa­bi­li­dad acerca de los daños que están provo­cando en nues­tros meno­res. Las compañías dicen que no hay adic­ción, pero yo estoy viendo que mi hijo o mi hija está pasán­dose horas con él, no está haci­endo la tarea y si tratas de quitar el telé­fono te grita”, afirma.

 

“Siento que sí, que dado el grado de irres­pon­sa­bi­li­dad negli­gente de las compañías que están gene­rando estos produc­tos para meno­res, como papás no debe­rí­a­mos darle a ningún niño de 13 años algo que tuvi­era acceso a redes soci­a­les. No, porque no está diseñado para ellos. Está diseñado para algo más”, concluye.

 

Foto: Andrea Daquino en MIT Tech­no­logy Review