Violencias sexuales mediante Inteligencia Artificial

Imatge
Àmbits Temàtics

La consi­de­ra­ción de las 'deep­fa­kes’ sexu­a­les como nueva forma de violen­cia sexual plan­tea retos técni­cos, éticos y lega­les. ¿Con base en qué elemen­tos debe­rí­a­mos defi­nir qué conse­cu­en­cias debe acar­rear esta conducta?

— Rosa­lía, tras las fotos mani­pu­la­das que la mostra­ban desnuda: “El cuerpo de una mujer no es una mercan­cía para tu estra­te­gia de marke­ting”

Rosa­lía, hace unos días, después de que un rapero divul­gara un nude suyo ficti­cio, denun­ci­aba vía Twit­ter que esta prác­tica era una forma de violen­cia y que los cuer­pos de las muje­res no eran un objeto de consumo.

Las violen­cias sexu­a­les medi­ante las nuevas tecno­lo­gías están a la orden del día. Frente a este fenó­meno, el Tribu­nal Supremo ha venido reali­zando una labor inter­pre­ta­tiva muy inno­va­dora. En 2021 castigó por primera vez la “viola­ción online”, en un supu­esto de cibe­rin­ti­mi­da­ción, en el que el agre­sor logró que las adoles­cen­tes reali­za­ran conduc­tas sexu­a­les inde­se­a­das, consis­ten­tes en la intro­duc­ción de miem­bros u obje­tos en sus propios cuer­pos, acci­o­nes que este contem­plaba a través de las panta­llas. Estos prece­den­tes jurí­di­cos están ayudando a dejar atrás la limi­tada concep­ción de la violen­cia sexual como acceso físico inde­se­ado, para avan­zar hacia el para­digma más amplio del respeto a la liber­tad sexual.

Este es el prisma desde el que tene­mos que anali­zar las nuevas formas de violen­cia sexual, como las come­ti­das medi­ante la Inte­li­gen­cia Arti­fi­cial. La Inte­li­gen­cia Arti­fi­cial gene­ra­tiva ya está consi­gui­endo crear voz, imagen o vídeo con un grado tan alto de sofis­ti­ca­ción que consi­gue persu­a­dir sobre su auten­ti­ci­dad, de ahí su nombre, deep­fa­kes. 

A nivel euro­peo, la propu­esta de ley de Inte­li­gen­cia Arti­fi­cial está teni­endo en cuenta la nece­si­dad de regu­lar las deep­fa­kes, esta­ble­ci­endo una serie de exigen­cias de trans­pa­ren­cia a su crea­ción. Mien­tras tanto, la ciuda­da­nía no está teni­endo al abasto herra­mi­en­tas para chequear la vera­ci­dad de estas crea­ci­o­nes, que ya están circu­lando por doquier, y la soci­e­dad sigue muy apegada a la creen­cia de que lo que se puede ver, es cierto. Este poder de conven­cer sobre la vera­ci­dad de algo que es falso no puede subes­ti­marse, ya que tiene una enorme capa­ci­dad de inci­dir en la forma­ción de la opinión pública y en la crea­ción de reali­dad social.

La consi­de­ra­ción de las deep­fa­kes sexu­a­les como nueva forma de violen­cia sexual, plan­tea retos técni­cos, éticos y lega­les. ¿En base a qué elemen­tos debe­rí­a­mos defi­nir qué conse­cu­en­cias debe acar­rear esta conducta?

Quien crea estas deep­fa­kes sexu­a­les sabe que está creando un producto comu­ni­ca­tivo falso, que son una forma de engaño y mani­pu­la­ción y que no cuenta con el consen­ti­mi­ento de la mujer. También sabe del efecto social que va a provo­car su divul­ga­ción. Sus obje­ti­vos pueden variar mucho, puede consis­tir en una estra­te­gia de marke­ting como en el caso de Rosa­lía, en un ataque a una peri­o­dista crítica, en un acto de violen­cia contra la expa­reja, en un intento de desa­cre­di­tar a una denun­ci­ante de violen­cia sexual, o en un acto de deni­gra­ción misó­gino, entre otros muchos. Lo que sí será un deno­mi­na­dor común será la inten­ción. Divul­gar la repre­sen­ta­ción de los cuer­pos y conte­ni­dos sexu­a­les toda­vía consi­gue tener un devas­ta­dor poder de repre­sa­lia, descré­dito, despres­ti­gio y estigma de las muje­res. A esta diná­mica patri­ar­cal se le añade el hecho de que en la era de la posver­dad, la distin­ción entre lo cierto y lo falso cada vez tiene menos valor social.

La llamada ley del 'solo sí es sí', en su trámite de enmi­en­das, perdió la opor­tu­ni­dad de regu­lar como delito sexual las deep­fa­kes a pesar de que una forma­ción polí­tica lo propuso, pero sí asentó unos muy buenos cimi­en­tos para abor­dar­las en un futuro próximo, colo­cando el consen­ti­mi­ento sexual como elemento estruc­tu­ral del delito e incor­po­rando por primera vez el concepto de daño social en las violen­cias sexu­a­les.

Actu­al­mente, los recur­sos lega­les frente a las deep­fa­kes no son dema­si­ado opera­ti­vos. Una primera duda es si los tribu­na­les tendrán la capa­ci­dad de deter­mi­nar cuándo una imagen o vídeo ha sido creado medi­ante inte­li­gen­cia arti­fi­cial y por lo tanto es “falso”. Una segunda consi­de­ra­ción es la de si los tribu­na­les sabrán compren­der que se trata de una forma de violen­cia contra las muje­res y que es grave. Y una tercera consi­de­ra­ción es la de si conta­mos con infrac­ci­o­nes que sean apli­ca­bles a esa conducta. Por el momento, en los deli­tos del Código Penal como el de divul­ga­ción incon­sen­tida de imáge­nes sexu­a­les, no le puede ser de apli­ca­ción porque está pensado para imáge­nes reales. El delito de stal­king, consis­tente en la crea­ción de perfi­les falsos en las redes soci­a­les o en webs de contac­tos, provo­cando el acoso o la humi­lla­ción de la mujer, también le sería difí­cil­mente de apli­ca­ción. En casos muy espe­cí­fi­cos, según el obje­tivo de la deep­fake, podría acudirse a otros deli­tos como el de inju­rias, el de propi­e­dad inte­lec­tual, el de coac­ci­o­nes o el de obstruc­ción a la justi­cia, entre otros. Por lo tanto, de momento, en sede penal, solo podrí­a­mos acudir al delito gené­rico contra la inte­gri­dad moral. Otra opción sería acudir a otras juris­dic­ci­o­nes, como la norma­tiva admi­nis­tra­tiva de protec­ción de datos o la juris­dic­ción civil, de tutela al honor, la inti­mi­dad y la propia imagen.

Lo cierto es que urge inno­var y que crear nuevos deli­tos para esta nueva forma de violen­cia sexual, no será sufi­ci­ente. Se tendrá que reali­zar una reforma más profunda, de carác­ter concep­tual. Será nece­sa­rio repen­sar concep­tos como el de priva­ci­dad, violen­cia, liber­tad, honor o digni­dad, en un nuevo contexto social en el que el ámbito virtual, por mucha ficción que incor­pore, es real, desde el momento en que lo son las conse­cu­en­cias de las inter­ac­ci­o­nes que se dan en él.

Lo que resulta claro es que la respu­esta social y jurí­dica a las deep­fa­kes no puede consi­de­rar­las un fenó­meno de menor grave­dad por el hecho de que se trate de crea­ci­o­nes ficti­cias, dado que estas también tiene la capa­ci­dad de causar un grave daño social a las muje­res. Posi­ci­o­na­mi­en­tos públi­cos como el de Rosa­lía empu­jan a la soci­e­dad a iden­ti­fi­car estas nuevas formas de violen­cia sexual y a enten­der que el consen­ti­mi­ento sexual debe respe­tarse más allá de la esfera física.

Autora: Laia Serra

Foto­gra­fía: Rosa­lía en el conci­erto de Mallorca el pasado agosto Isaac Buj / Europa Press / Archivo