Instagram y Facebook cobran por anunciar la app de inteligencia artificial usada para desnudar a menores en Almendralejo

Imagen
Àmbits Temàtics

Las redes socia­les de Meta han distribuido entre sus usua­rios publi­ci­dad pagada por esta y otras herra­mien­tas utiliza­das para crear imáge­nes de desnu­dos no consen­ti­das

— Un negocio con lista de espera: la app usada para 'desnu­dar’ a meno­res en Badajoz cobra 9 euros por 25 fotos 

Instagram y Facebook cobran por publi­citar entre sus usua­rios la misma apli­ca­ción de inteli­gen­cia arti­fi­cial que se usó para crear imáge­nes de meno­res de edad desnu­das en Almen­dra­lejo (Badajoz) el pasado septiem­bre. Las redes socia­les de Meta promo­cio­na­ron al menos 22 anun­cios de esta herra­mienta entre el 24 y el 27 de abril que se distribuye­ron en varios países de la UE, incluyendo España, según ha podido comprobar elDia­rio.es en su Biblio­teca de Anun­cios.

La plaga de anun­cios trampa con imáge­nes de famo­sos se descon­trola en X, Instagram, Facebook y YouTube

La app se sirve de una fotogra­fía real de una mujer subida por el usua­rio, de la que elimina la ropa de la imagen de manera no consen­tida usando algorit­mos gene­ra­ti­vos. Su empleo con meno­res de edad provocó una gran alarma social en España cuando un grupo de alum­nas de un insti­tuto descu­brió que sus compa­ñe­ros habían creado y compar­tido por Whats­App imáge­nes falsas que las mostra­ban desnu­das.

“Las fotos han pasado por un montón de manos y, aunque sea mentira, que todo el mundo las vea puede hacer­les mucho daño. Hay niñas que lo están pasando verda­de­ra­mente mal porque se están metiendo con ellas a raíz de esto”, lamen­taba la madre de una de las meno­res afec­ta­das. El caso desató un debate sobre el poten­cial de esta tecno­logía y su capa­ci­dad para gene­rar violen­cia contra la mujer cuando se emplea sin restric­cio­nes.

A pesar de la contro­ver­sia, los 16 anun­cios dife­ren­tes que estuvie­ron acti­vos a fina­les de abril para promo­cio­narla no hicie­ron saltar las alar­mas en Meta. Ni de sus filtros automá­ti­cos ni en la revi­sión humana, si es que esta llegó a exis­tir. Meta no bloqueó ninguna de las versio­nes de la publi­ci­dad en ningún momento, tal y como refleja la herra­mienta que recoge los conte­ni­dos que se han promo­cio­nado en sus siste­mas.


Dos versio­nes de los anun­cios de Instagram y Facebook que han promo­cio­nado la app que se usó para crear imáge­nes falsas de meno­res desnu­das en Almen­dra­lejo.

La distribución de los anun­cios fue limitada. Las cifras de impacto varían de casi mil en las versio­nes más distribui­das a unas pocas dece­nas. Meta no informa de cuánto cobró por esta promo­ción, unos datos que solo ofrece en la cate­go­ría de anun­cios políti­cos. Solo se distribuye­ron entre hombres de más de 18 años, asegura la herra­mienta de trans­pa­ren­cia publi­cita­ria de la corpo­ra­ción dirigida por Mark Zucker­berg.

La publi­ci­dad se pagó a través de la página de Facebook de “Neshe”, un anun­ciante que asegura ser una marca de trajes típi­cos alema­nes hechos a mano. Sin embargo, su página web no funciona y su acti­vi­dad en Facebook se limita a dos publi­ca­cio­nes subi­das el pasado septiem­bre. Tiene un solo me gusta. elDia­rio.es se ha inten­tado poner en contacto con los admi­nis­tra­do­res de la página pero no ha obte­nido respuesta.

Esta redac­ción también ha pregun­tado a Meta por estos anun­cios, pero no ha obte­nido respuesta al cierre de esta infor­ma­ción.

Anun­cios del mismo tipo todavía acti­vos

La app del caso de Almen­dra­lejo no es ni mucho menos única en su clase. En este momento, de hecho, las redes socia­les de Meta tienen anun­cios acti­vos que promo­cio­nan otras herra­mien­tas del mismo estilo para elimi­nar la ropa de fotogra­fías de muje­res y crear deepfakes.


Anun­cios que promo­cio­nan apps para crear 'deepfakes’ acti­vos este martes en Instagram y Facebook.

Según mues­tra la Biblio­teca de Anun­cios de Meta, la corpo­ra­ción ha tenido un goteo ince­sante de este tipo de publi­ci­dad en los últi­mos meses. Algu­nos de ellos han sido elimi­na­dos de sus siste­mas por violar su política de anun­cios, pero otros conte­ni­dos que promo­cio­na­ban las mismas pági­nas y las mismas apps no han sido detec­ta­dos.


Los filtros de Meta no detec­ta­ron anun­cios de apps para desnu­dar muje­res con IA publi­ca­dos por las mismas pági­nas que ofre­cie­ron conte­ni­dos que sí fueron bloquea­dos.

Las carac­te­rís­ti­cas de los anun­cian­tes son casi siem­pre las mismas. Las pági­nas que los publi­can apenas acumulan un puñado de publi­ca­cio­nes o me gusta y no suelen tener ningún segui­dor. El impacto de sus anun­cios varía en función de la canti­dad inver­tida.

 

Como expli­ca­ron varios juris­tas a elDia­rio.es, algu­nas de las conse­cuen­cias lega­les del uso de este herra­mien­tas para crear deepfakes no consen­ti­dos siguen en el aire. Sería un delito contra el honor y la inti­mi­dad, en todo caso, crear­las y compar­tir con terce­ros sin el permiso de la persona que aparece en ellos. Sin embargo, no esta­ría penada su mera crea­ción y alma­ce­na­miento.

En el caso de meno­res, en cambio, todo cambia. La mera pose­sión se considera delic­tiva y, de hecho, la Poli­cía ya ha reali­zado varias deten­cio­nes de perso­nas que alma­ce­na­ban porno­gra­fía infan­til creada con inteli­gen­cia arti­fi­cial. “Si las imáge­nes mues­tran a meno­res se trata de un delito de porno­gra­fía infan­til simulada que está prevista en el propio artículo 189 del Código Penal. Basta que sean imáge­nes realis­tas para que el delito se consume”, explicó a este medio el abogado Carlos Sánchez Almeida.