La distopia llegó: pensar las tecnologías del reconocimiento de personas desde la periferia por Florencia Goldsman

Post original publicado aqui

En un pasado no tan lejano, les migrantes que buscaban mejores opciones de vida o simplemente sobrevivir fueron recibidos por países contenedores. Hoy, sin embargo, la inteligencia artificial y los algoritmos están siendo utilizados para la segregación social, la criminalización de los reclamos y la estigmatización ad infinitum de movimientos masivos de personas. Huellas digitales, registro del iris de los ojos, medidas de rasgos faciales y acceso a la información de ADN. La distopia ya llegó. Construir, comprender y accionar desde la periferia se hace preciso.

Algoritmos, uso extensivo de bases de datos para el control social, inteligencia artificial y tecnologías biométricas*, ¿cómo se desanuda la complejidad de estos temas? Y, ¿cómo entenderlos desde una perspectiva feminista? Hoy más que nunca tenemos que sacudir la pereza mental que nos deja absortas frente a las pantallas y desandar preguntas como ¿qué intereses están por detrás de los algoritmos?, ¿cuáles son las nuevas injusticias está creando la tecnología?, ¿qué ocurre cuando existe presión política empujando los desarrollos tecnológicos en el ámbito local?

Desanudemos poco a poco: vivimos en un mundo datificado y la importancia de nuestros datos que generan bases de información inconmensurables se entrecruza con la posibilidad de entender a los datos como un commodity, un elemento capaz de ser vendido como una información central para el monitoreo de las personas.

El tratamiento masivo (y comercial de los datos) tiene como meta pronosticar y modificar el comportamiento humano, es un medio para producir ingresos y, al mismo tiempo, control de mercado. Otro de los usos de las bases de datos es ser la fuente predilecta del desarrollo de procesos de inteligencia artificial, pues esta se define en términos generales como una tecnología que realiza predicciones en función de la detección automática de patrones que aparecen en los datasets.

Enfoquemos los lentes feministas: para analizar críticamente las bases de datos debemos implicarnos en comprender el contexto, quién y de qué manera se generaron dichos datos, cuáles son los posibles errores presentes y cuáles son las partes del fenómeno que el propio recorte obliga a omitir. ¿Quién decide recolectar ciertos datos? ¿Acaso podemos crear bases de datos desde un enfoque ético?¿Cómo se ve un conjunto de datos sustentable y colaborativo? Algunas respuesta las ensaya Catherine D’Inazio, quien esta por lanzar su libro Datos Feministas (Feminist Data).

¿Acaso podemos crear bases de datos desde un enfoque ético?¿Cómo se ve un conjunto de datos sustentable y colaborativo?CLIC PARA TUITEAR

Mientras tanto, el presente de los programas de desarrollo de inteligencia artificial, que encabezan muchos Estados del mundo, lejos está de un planeamiento orientado a la justicia social y el bienestar humano. Por el contrario, las tomas de decisiones se basan en algoritmos que determinan la repartición de bienes y servicios, incluyendo la educación, la salud pública, la policía, el acceso al empleo y a la vivienda, entre otros. Así lo interpretan las investigadoras Paz Peña y Joana Varón: “Los programas de lucha contra la pobreza están siendo datificados por gobiernos, y se utilizan algoritmos para determinar los beneficios sociales para los pobres y los desempleados”, explican en la Revista América Latina en Movimiento. Se transforma, de esa manera, la experiencia vivida de la pobreza y la vulnerabilidad en datos procesables por máquinas, que impactan sobre la vida y los medios de subsistencia de la ciudadanía implicada.

Datos para el racismo y la segregación de les migrantes

Los casos aterradores de persecución étnica y genocidios que parecían lejanos en la historia, así como expresiones de racismo que se creían casi erradicadas, podrían regresar de la mano de las tecnologías producidas en el norte global, advierten desde el centro de investigación en defensa de los Derechos Digitales R3D. Tanto es así que desde esta organización están analizando de manera profunda las consecuencias sociales de políticas estadounidenses que marcan una declaración de principios. Que Donald Trump busque crear una base de datos con el ADN de personas migrantes es coherente con su racismo evidente, no obstante, nos advierte de la gravedad del asunto.

El problema con el uso de las bases de datos y programas con algoritmos para resultados predictivos, en especial cuando se orienta al “mantenimiento del orden”, es que se ejecutan sin transparencia, rendición de procesos o involucramiento de la colectividad en las decisiones relativas a su aplicación o en la evaluación y supervisión de sus efectos, lo que limita aún mas la detección y corrección de los resultados no deseados.

En todo el mundo y de diversas maneras, es ubicua la tecnología de control y seguimiento de personas. Estas tecnologías pueden explicarse a través del concepto de biometría que, en la definición de Wikipedia, se describe así: “(del griego bios vida y metron medida) es la toma de medidas estandarizadas de los seres vivos o de procesos biológicos. Se llama también biometría al estudio para el reconocimiento inequívoco de personas basado en uno o más rasgos conductuales o físicos intrínsecos”.

Acerca de los desarrollos actuales de colecta de datos genéticos con fines de identificación, vigilancia, o predicción se conoce hoy solo la punta del iceberg. “Lo que sí sabemos, y que es una de las cuestiones que aumentan los riesgos en caso de filtraciones o malos usos de datos genéticos, es que a partir de información biométrica utilizada en la identificación de un individuo es posible identificar también a sus familiares”, detalla Santiago Narváez, investigador de R3D.

Si las tecnologías biométricas consisten en la recopilación, almacenamiento y procesamiento de datos derivados del cuerpo y sus movimientos, una aplicación desproporcionada de este tipo de tecnologías atenta de forma directa contra los derechos a la privacidad, la integridad y la autonomía de las personas. A esto se suman las consecuencias negativas como la discriminación de ciertos grupos sociales, como es el caso de las personas migrantes, debido a los sesgos de diseño e implementación, o la restricción de las libertades -de expresión, movimiento, asociación- de las personas en general mediante un efecto silencioso de autocensura.

«Ejecutar sistemas biométricos en fronteras y pasaportes implica que el Estado detenta un monopolio sobre el movimiento de las personas», @petalosoyCLIC PARA TUITEAR

El muro tech que Trump erige en el contexto migratorio tiene por finalidad ser utilizado para denegar la entrada y solicitudes de refugio a familiares de personas identificadas como ‘no deseables’. “Un uso como este de los datos genéticos es la materialización del discurso discriminatorio manejado por la administración de Trump que posiciona a todas las personas migrantes como criminales. Un uso como este de bases de datos genéticas podría utilizarse en el contexto migratorio buscando justificar la discriminación cultural y social al ligar el origen o la relación genética de las personas con la propensión a cometer crímenes”, afirma Narváez.

Ejecutar sistemas biométricos en fronteras y pasaportes implica que el Estado detenta un monopolio sobre el movimiento de las personas. La biometrización de los controles de flujo migratorio y de los controles identitarios contribuye con la creación un mundo de vigilancia en el cual el individuo no es libre de escapar. Además, la simple concentración de grandes cantidades de datos personales pone en riesgo la privacidad de las personas migrantes, en caso de que ocurra una filtración o que las bases sean atacadas.

A esto se suma que las tecnologías de identificación biométrica distan de ser perfectas, su uso actual deriva en identificaciones erróneas. Son conocidos los casos, tanto con el reconocimiento facial como con el seguimiento de huellas digitales, en que la identificación biométrica comporta sesgos que impactan más a personas con rasgos no caucásicos, a personas con edad avanzada y a niñas y niños, lo que ha producido la detención de personas inocentes.

En los Estados Unidos, usadas para estudiar y luego sopesar la potencial reincidencia en crímenes de personas que viven privadas de su libertad, estas tecnologías fortalecieron (basándose en bases sesgadas y ofreciendo resultados erróneos) la actual discriminación que recae sobre personas negras.

Cuerpos diversos detrás de los datos

La exigencia de estos sistemas informáticos de organizar nuestra diversidad humana en una serie finita de categorías define una intención de totalidad universalizante. Dichos programas tienen por objetivo facilitar el trabajo obrero a los algoritmos que hacen la faena de cruzar variables y encontrar similaridades. Para que este universo se pueda organizar, pues, se requiere de un cuerpo referente y categorías que definen lo “normal” y lo “anormal”. ¿Diversas identidades? ¿Transiciones de sexo/género? ** Sintax Error**.

Entonces, ¿cuál es el cuerpo-referencia para los sistemas que financian nuestros Estados? La investigadora Marianne Díazseñala que hay que poner en evidencia los potenciales efectos de discriminación de poblaciones minoritarias (personas con discapacidad, personas transgénero, miembros de religiones minoritarias) “a causa de la naturaleza misma de los sistemas biométricos e identitarios en general, que buscan clasificar al individuo como parte de una taxonomía predefinida, dejando fuera a todo aquel que no encaje correctamente en las categorías establecidas”.

Los datos biométricos son datos personales y, por tanto, deberían estar protegidos por una serie de leyes pensadas para evitar su uso desproporcionado. Esto es: protegerlos de que sean utilizados sin control y, a la vez, que las personas titulares tengan los medios para tomar medidas que reparen daños o usos abusivos de sus datos. “Dichas leyes imponen principios que deben de seguirse en el tratamiento de datos que componen cuestiones como la necesidad de obtención de consentimiento para el tratamiento, la obligación de ofrecer información completa a los titulares para que estos entiendan cómo serán tratados sus datos personales, con que finalidad y puedan decidir si quieren que sean tratados así. También les provee a los titulares cuestiones como la cancelación del tratamiento de sus datos personales”, detalla Narváez. Las legislaciones desactualizadas y la falta de consideración de los datos biométricos como datos sensibles componen el cuadro latinoamericano. En Europa, la Ley de protección de datos europea (General Data Protection Regulation) sentó las bases para un debate profundo sobre derechos y obligaciones sobre los datos de las personas.

Consultada por Pikara Magazine, la investigadora e integrante de la fundación Vía Libre Carolina Martínez Elebi señala que podamos comenzar a rasgar y abrir una brecha en este avance hacia un futuro menos distópico. “No puedo hacer mucho para que me devuelvan aquello que como individuo publiqué o los datos que ya di. Lo que puedo hacer es a futuro, como docente, madre, amiga es no seguir divulgando los datos de otras personas. Abogar no solo por el respeto hacia el uso que se hace de mis datos sino también de las demás personas”.

Emprender estos debates, traducir información compleja, inventar usos radicales de tecnologías que instalan más opresión. “Comenzar la transmisión de conocimiento a generaciones mas jóvenes para que puedan ejecutar un cambio. Involucrar a niños y niñas y adolescentes en usos mas críticos de las tecnologías”, aporta Martínez Elebi. Cuestionemos el uso que damos a las tecnologías a diario, construyamos una resistencia digital que crezca desde la periferia.

 

*procesamiento de datos derivados del cuerpo y sus movimientos

Referencias recomendadas por la autora

Revista América Latina en Movimiento No. 545

Con mi cara no

How to Hide from Machines