RECOGIDA DE ADHESIONES: La implantación de la Inteligencia Artificial en frontera y la vulneración de derechos

Reci­en­te­mente ha apare­cido en prensa la noti­cia sobre la volun­tad del gobi­erno español de apli­car la llamada « fron­tera inte­li­gente » en los pasos fron­te­ri­zos de Ceuta y Meli­lla con el fin de ejer­cer un mayor control de segu­ri­dad medi­ante el uso de inte­li­gen­cia arti­fi­cial a través de la reco­gida de datos biomé­tri­cos (reco­no­ci­mi­ento facial, huellas dacti­la­res…). Frente a esta noti­cia, las abajo firman­tes mani­fes­ta­mos nues­tra preo­cu­pa­ción y cree­mos nece­sa­rio aler­tar de los peli­gros asoci­a­dos a este tipo de deci­si­o­nes polí­ti­cas que conlleva el uso de la inte­li­gen­cia arti­fi­cial.



Los duros contro­les fron­te­ri­zos son espa­cios de poten­cial vulne­ra­ción de dere­chos:



Vulne­ra­ción de dere­chos funda­men­ta­les: el impacto en los dere­chos bási­cos que puede tener en un futuro la reco­pi­la­ción de datos biomé­tri­cos como ya ocurre en apli­ca­ción del Conve­nio de Dublín. Los tras­la­dos de perso­nas soli­ci­tan­tes de asilo de un estado miem­bro a otro en contra de su volun­tad, en aumento en los últi­mos años, han sido, en parte, propi­ci­a­das por la reco­pi­la­ción de datos

biomé­tri­cos
, como sus huellas dacti­la­res.



Viola­ción de la priva­ci­dad: los datos biomé­tri­cos son datos intrín­se­cos a las perso­nas. La reco­pi­la­ción de datos biomé­tri­cos en perso­nas sin pasa­porte euro­peo no cumple con el prin­ci­pio de propor­ci­o­na­li­dad. Estas perso­nas se encu­en­tran a menudo en situ­a­ción de vulne­ra­bi­li­dad y no se tienen en cuenta las conse­cu­en­cias no dese­a­das de dispo­ner de unos datos biomé­tri­cos de perso­nas que no cuen­tan con meca­nis­mos de protec­ción, garan­tía, y repa­ra­ción adecu­a­dos.



Discri­mi­na­ción y crimi­na­li­za­ción. La apli­ca­ción de la “fron­tera inte­li­gente” como un elemento de lucha contra el terro­rismo supone un peli­gro de discri­mi­na­ción y crimi­na­li­za­ción y la convi­erte en un nuevo dispo­si­tivo racista dentro del Estado Español. Las polí­ti­cas anti­ter­ro­ris­tas a menudo han resul­tado una herra­mi­enta de propa­ga­ción de la isla­mo­fo­bia, que han tenido como conse­cu­en­cia un rechazo gene­ra­li­zado hacia la pobla­ción migrante y raci­a­li­zada. Es de sobra cono­cido que los algo­rit­mos de reco­no­ci­mi­ento facial suelen arro­jar falsos posi­ti­vos y falsos nega­ti­vos en rostros no caucá­si­cos, lo cual, en este contexto concreto, podría supo­ner graves conse­cu­en­cias para perso­nas iden­ti­fi­ca­das erró­ne­a­mente como sospe­cho­sas de actos terro­ris­tas. La utili­za­ción de IA para el control fron­te­rizo profun­di­za­ría la estig­ma­ti­za­ción y crimi­na­li­za­ción de grupos de perso­nas que ya se encu­en­tran en una gran situ­a­ción de vulne­ra­bi­li­dad y/o exclu­sión.



Trans­pa­ren­cia y audi­ta­bi­li­dad. El proce­di­mi­ento adolece de una falta de trans­pa­ren­cia tanto en la forma, como en el fondo. Tampoco se menci­ona la audi­ta­bi­li­dad y publi­ci­dad de los algo­rit­mos. Por las infor­ma­ci­o­nes cono­ci­das, no se habla de que los algo­rit­mos que se empleen sean audi­ta­bles y/o expli­ca­bles, tampoco de meca­nis­mos de traza­bi­li­dad que permi­tan super­vi­sión humana ni de polí­ti­cas de protec­ción de datos.



Meca­nis­mos de control y revi­sión. Resulta impres­cin­di­ble incor­po­rar meca­nis­mos de control y revi­sión de los proce­di­mi­en­tos algo­rít­mi­cos que permi­tan enmen­dar erro­res de manera ágil por grupos de perso­nas inde­pen­di­en­tes en los que han de poder parti­ci­par enti­da­des en defensa de los dere­chos huma­nos y antir­ra­cis­tas. El uso de estos siste­mas de reco­no­ci­mi­ento facial supone una doble secu­ri­ti­za­ción del proceso, que estig­ma­tiza pero también diluye la respon­sa­bi­li­dad humana y polí­tica ante los daños, efec­tos inde­se­a­dos o conse­cu­en­cias nega­ti­vas de su uso.

Por todo ello, la apli­ca­ción de meca­nis­mos de inte­li­gen­cia arti­fi­cial en el control fron­te­rizo supone un peli­gro de vulne­ra­ción de dere­chos huma­nos, discri­mi­na­ción, crimi­na­li­za­ción y viola­ción de la priva­ci­dad.



Por ello exigi­mos:



• La apli­ca­ción de la regu­la­ción de la IA y protec­ción de datos elabo­rada por la Comi­sión Euro­pea también a contex­tos y situ­a­ci­o­nes que se consi­de­ran de tipo “secu­ri­ta­rio”, no puede haber vacío legal en este ámbito.



• La dero­ga­ción del Regla­mento UE 2017/2226 del Parla­mento Euro­peo y del Consejo 30/11 /17 que permite el reco­no­ci­mi­ento facial.



• La nece­si­dad de infor­ma­ción y consen­ti­mi­ento infor­mado ante el uso de estos siste­mas, incluso si se llegan a apli­car y desple­gar.



• Incor­po­ra­ción sistemá­tica de obser­va­do­res de dere­chos huma­nos en las actu­a­ci­o­nes en fron­tera.



• Apli­ca­ción de tecno­lo­gías expli­ca­bles y audi­ta­bles, audi­to­ría y control externo de las tecno­lo­gías apli­ca­das, los datos e imáge­nes alma­ce­na­das.



• Para que la tarea de fisca­li­za­ción y control por parte de la soci­e­dad civil se pueda llevar a cabo de manera rigu­rosa, los proce­sos de diseño y prue­bas de los siste­mas, incluyendo las bases de datos utili­za­das para cali­brar los algo­rit­mos, deben ponerse a dispo­si­ción de audi­to­rías inde­pen­di­en­tes y perso­nas afec­ta­das.

Puedes anadirte a las ahesi­o­nes aqui

ADHE­SI­O­NES:

Acollim Cerda­nyola-Ripo­llet 
Afro­fé­mi­nas
Alba Sud
Alianza por la Soli­da­ri­dad 



Asoci­a­ción Muje­res de Guate­mala



Asoci­a­ción de Muje­res Migran­tes y Diver­sas
Asoci­a­ción Pro Dere­chos Huma­nos Anda­lu­cía (APDHA) 
Asso­ci­a­ció Atza­vara – arrels
– Asso­ci­a­ció Cultu­ral 9 barris 
Asso­ci­a­ció de Soft­ware Lliure Deci­dim



Bit Lab Cultu­ral Coope­ra­tiva
Cami­nando Fron­te­ras



Canò­drom – Ateneu d’In­no­va­ció Digi­tal i Demo­crà­tica
Cara­vana Obrim Fron­te­res
Centre de Drets Humans Irídia
Centre Delàs



CGT Ceuta Acción Social
CIEMEN – Centre Inter­na­ci­o­nal Escarré per a les mino­ries ètni­ques i les naci­ons 
Conci­en­cia Afro
Coor­di­na­dora de barrios, Madrid
Coor­di­na­dora Obrim Fron­te­res
Data­For­Go­odBCN
Digi­tal Fems
Dones­tech
Elite taxi 
– Ensor­rem Fron­te­res
Equipo Dece­nio Afro­des­cen­di­ente
Femi­nis­mIA



Foto­mo­vi­mi­ento
Funda­ció Autò­noma Soli­dà­ria
Girona Acull
Insti­tut Drets Humans Cata­lu­nya 
Intered
Justí­cia i Pau
Lafede.cat –  Orga­nit­za­ci­ons per la Justí­cia Global
Novact



No Name Kitchen
Núria Social
Obser­va­tori de Drets Humans i Empresa 
Obser­va­tori DESC
Oxfam Inter­mon
Plata­forma 12D



Plata­forma Benvin­guts Refu­gi­ats Menorca



Red Acoge
Red de Muje­res Lati­no­a­me­ri­ca­nas y del Caribe
Regu­la­ri­za­ci­ó­nYa 
Resi­li­ence Earth
RidersX­De­re­chos 
Rights Inter­na­ti­o­nal Spain 
Sant Just Soli­dari
Servei Civil Inter­na­ci­o­nal de Cata­lu­nya (SCI)
Servi­cio Domés­tico Activo (SEDOAC)
Sindi­cato de Mante­ros de BCN
Sindi­cato de Mante­ros de Madrid 
Social Project 4.0
Soli­dary Wheels
SOS Racisme Cata­lu­nya 



SOS Racismo Gali­cia
SOS Racismo Madrid
Stop Mare Mortum
Tanquem els CIEs Barce­lona 
Taxi project 
Unitat contra el Feixisme i el Racisme – UCFR 



ViT Foun­da­tion (Visu­a­li­za­tion for Trans­pa­rency)