Qué factores se tienen en cuenta en una Evaluación de Impacto de Derechos Fundamentales en IA

¿Qué facto­res se tienen en cuenta a la hora de reali­zar una Evalu­a­ción de Impacto de Dere­chos Funda­men­ta­les en las deci­si­o­nes auto­ma­ti­za­das y perfi­les? Análi­sis de los Dere­chos Funda­men­ta­les en riesgo en el sector de las finan­zas (puntu­a­ci­o­nes de crédito), y en recur­sos huma­nos (contra­ta­ción y reclu­ta­mi­ento).

El propó­sito de apli­car la ética digi­tal, además de servir para preser­var la priva­ci­dad de las perso­nas, sirve también para hacer el bien a las perso­nas y evitar hacer­les el mal. Hay veces en las que una orga­ni­za­ción sabe cómo hacer el bien y evitar hacer el mal, y hay otras en las que nece­sita ayuda para poder saber cómo hacerlo.

Uno de los mayo­res males en nues­tra soci­e­dad están siendo produ­ci­dos por deci­si­o­nes auto­ma­ti­za­das y perfi­les perso­na­les reali­za­das por orga­ni­za­ci­o­nes a las que no les importa hacer el mal si a través de él consi­gue sus obje­ti­vos comer­ci­a­les y econó­mi­cos.

La discri­mi­na­ción algo­rít­mica es trans­ver­sal a todos los secto­res y está aumen­tando las desi­gual­da­des en la pobla­ción. Y, seamos realis­tas, vivi­mos en un sistema en el que prác­ti­ca­mente no tene­mos dere­cho a impug­nar una deci­sión auto­ma­ti­zada o un perfi­lado.

¿Por qué? Uno de los facto­res que influyen de manera deci­siva es que las orga­ni­za­ci­o­nes no comu­ni­can cuándo un indi­vi­duo, o grupo de indi­vi­duos, ha sido objeto de una deci­sión auto­ma­ti­zada y/o perfi­lado.

¿Qué impli­ca­ci­o­nes nega­ti­vas tiene esto a efec­tos prác­ti­cos? Que no se detecta la discri­mi­na­ción (del tipo que sea) porque, tanto la ley como la juris­pru­den­cia, consi­de­ran la discri­mi­na­ción contex­tual, y el uso creci­ente de algo­rit­mos está inter­rum­pi­endo los meca­nis­mos tradi­ci­o­na­les contra la preven­ción e inves­ti­ga­ción de casos de discri­mi­na­ción.

Por otro lado, la ley de no discri­mi­na­ción se basa en la idea de compa­ra­ción. Un grupo o persona desfa­vo­re­cida recibe un trato menos favo­ra­ble debido a una carac­te­rís­tica prote­gida en compa­ra­ción con un grupo o persona que recibe un trato prefe­ren­cial. Por lo tanto, las recla­ma­ci­o­nes sólo se pueden plan­tear si una víctima real­mente se siente en desven­taja.

La persona que ha sufrido discri­mi­na­ción debe propor­ci­o­nar eviden­cia de una desven­taja parti­cu­lar. Esto, actu­al­mente, depende de que la víctima sepa que ha sido objeto de una deci­sión auto­ma­ti­zada o perfil, del contexto en el que esa desven­taja se haya dado, y del cono­ci­mi­ento que tenga sobre los crite­rios en los que se haya basado tal perfi­lado.

A su vez, las venta­jas compe­ti­ti­vas que las deci­si­o­nes auto­ma­ti­za­das apor­tan a las orga­ni­za­ci­o­nes es evidente. Mayor efici­en­cia, venta­jas compe­ti­ti­vas y un enorme bene­fi­cio econó­mico, pero pueden causar un enorme impacto en nues­tros dere­chos funda­men­ta­les. Recu­er­den el artí­culo sobre cómo el Código Postal es usado para discri­mi­nar precios

EVALU­A­CIÓN DE IMPACTO DE DERE­CHOS FUNDA­MEN­TA­LES.

¿De qué depende de que se haga una evalu­a­ción de impacto de dere­chos funda­men­ta­les y ética desde el diseño? De que la orga­ni­za­ción y sus inte­gran­tes, empe­zando por su CEO, tengan sus valo­res e iden­ti­dad defi­ni­dos, que tengan como uno de sus obje­ti­vos el preser­var la priva­ci­dad de las perso­nas y el respeto a sus dere­chos funda­men­ta­les. Esto, como base.

VALO­RES, ese aspecto funda­men­tal de las orga­ni­za­ci­o­nes para su funci­o­na­mi­ento ético, y tan (mal) usados, en muchas ocasi­o­nes, para limpiar su imagen mien­tras produ­cen daño a la soci­e­dad.

¿Por qué es funda­men­tal que las orga­ni­za­ci­o­nes que usan deci­si­o­nes auto­ma­ti­za­das y perfi­les perso­na­les incluyan valo­res desde el diseño de su tecno­lo­gía? Por una razón muy senci­lla, porque es esen­cial que estén diseña­dos para adop­tar, apren­der y seguir las normas y valo­res de la comu­ni­dad a la que sirven y de las perso­nas que viven en ella.

Pero no sólo me refi­ero a la ley de protec­ción de datos. También es nece­sa­rio impli­car las leyes que se apli­quen en el contexto en el que las deci­si­o­nes auto­ma­ti­za­das y perfi­lado se despli­e­guen, o se vayan a desple­gar (contexto finan­ci­ero, trabajo, vivi­enda, soci­al…). Así como, las normas rela­ti­vas a la discri­mi­na­ción, igual­dad.

El RGPD es uno de los mayo­res avan­ces en mate­ria de protec­ción de datos a nivel global, pero por sí solo, no es la única respu­esta para hacer que las deci­si­o­nes auto­ma­ti­za­das y perfi­les cumplan con la ley, y sean dignos de confi­anza.

 VALO­RES.

Sigui­endo con los valo­res y expli­cado de una manera muy escu­eta, en primer lugar, en la etapa de diseño. En esta etapa se deter­mi­nará qué tipos de datos se usarán para la alimen­ta­ción del algo­ritmo, y cuáles se dejan fuera.

La deci­sión de elegir estos datos puede ser (y, de hecho, lo es) el resul­tado de los sesgos de las perso­nas que los selec­ci­o­nan. Por lo tanto, desde el diseño esta deci­sión auto­ma­ti­zada o perfil ya está predes­ti­nado a provo­car discri­mi­na­ci­o­nes y sesgos.

Aquí se ve clara­mente cómo la cola­bo­ra­ción de un equipo multi­dis­ci­pli­nar más que impor­tante, es crucial. Cien­tí­fi­cos soci­a­les, huma­nis­tas, éticos, filó­so­fos, juris­tas, cien­tí­fi­cos de datos, inge­ni­e­ros…

En segundo lugar, los valo­res inter­vi­e­nen en la deter­mi­na­ción de las ponde­ra­ci­o­nes del modelo esta­dís­tico para lograr el resul­tado dese­ado. No obstante, los posi­bles fallos deben ser adver­ti­dos y resu­el­tos por el diseña­dor, por ejem­plo, haci­endo funci­o­nar el sistema en entor­nos expe­ri­men­ta­les pero segu­ros, lejos del público.

En tercer lugar, el resul­tado dese­ado, que es la deci­sión auto­ma­ti­zada o el perfi­lado, puede ser contra­rio a los dere­chos funda­men­ta­les de las perso­nas y no preser­var su priva­ci­dad. Aquí, entra la comu­ni­ca­ción a las perso­nas de que han sido objeto de una deci­sión auto­ma­ti­zada y/o perfi­lado, dar a cono­cer los pará­me­tros, impug­nar la deci­sión auto­ma­ti­zada y la inter­ven­ción humana.

Una vez entre­nado, el sistema puede utili­zarse para infe­rir nueva infor­ma­ción y hacer predic­ci­o­nes basa­das en otros datos: esto implica intro­du­cir esos datos en el sistema para que recorra el modelo, que en última instan­cia produce el resul­tado adecu­ado. 

Múlti­ples cues­ti­o­nes se origi­nan en el uso del apren­di­zaje automá­tico, como el sesgo, la injus­ti­cia, la discri­mi­na­ción en los datos de entrada (en la etapa de capta­ción de datos perso­na­les) en el análi­sis y el resul­tado (la etapa de despli­e­gue o de compu­ta­ción) y siem­pre que haya inter­ven­ción humana, en la etapa final de la toma de deci­si­o­nes, así como la ausen­cia de trans­pa­ren­cia, expli­ca­bi­li­dad y respon­sa­bi­li­dad que se han iden­ti­fi­cado como problemá­ti­cas en las deci­si­o­nes auto­ma­ti­za­das.

Las deci­si­o­nes auto­ma­ti­za­das que tiene efec­tos lega­les o simi­la­res y signi­fi­ca­ti­vos para los indi­vi­duos sólo es válida cuando se basa en el consen­ti­mi­ento explí­cito de un indi­vi­duo. El artí­culo 7 (1) GDPR esti­pula que la carga de la prueba de que se ha dado el consen­ti­mi­ento (explí­cito) recae en el contro­la­dor. 

Este estricto enfo­que del uso de la deci­sión auto­ma­ti­zada sustenta la nece­si­dad de una evalu­a­ción de los efec­tos de la deci­sión auto­ma­ti­zada en los dere­chos funda­men­ta­les en una etapa temprana, deben abor­darse en la etapa de diseño y desar­ro­llo. 

En la etapa poste­rior al despli­e­gue, queda poco espa­cio para que las orga­ni­za­ci­o­nes hagan los ajus­tes apro­pi­a­dos, mien­tras que la confi­anza de los consu­mi­do­res puede resul­tar grave­mente dañada.

Por otro lado, una evalu­a­ción del impacto sobre los dere­chos funda­men­ta­les y ética encaja perfec­ta­mente en la Evalu­a­ción de Impacto de Protec­ción de Datos.

En una Evalu­a­ción de Impacto de Protec­ción de Datos, en el sentido del RGPD, conti­ene por lo gene­ral al menos:

1) Una descrip­ción sisté­mica de la opera­ción de trata­mi­ento prevista, los fines del trata­mi­ento y el interés legí­timo que persi­gue el respon­sa­ble del trata­mi­ento;

2) Una evalu­a­ción de la nece­si­dad y propor­ci­o­na­li­dad de las opera­ci­o­nes de trata­mi­ento en rela­ción con los fines;

3) Una evalu­a­ción de los ries­gos para los dere­chos y liber­ta­des de las perso­nas físi­cas y

4) Las medi­das previs­tas para hacer frente a los ries­gos, incluida, entre otras cosas, la demos­tra­ción del cumpli­mi­ento del RGPD, teni­endo en cuenta los dere­chos e inter­e­ses legí­ti­mos de los inter­e­sa­dos y otras perso­nas afec­ta­das. 

Paso 1: Esta­ble­cer la línea de base

El primer paso es respon­der a la pregunta: Qué dere­chos funda­men­ta­les se ven afec­ta­dos, incluida una primera evalu­a­ción de su grave­dad.

En una primera apro­xi­ma­ción, pode­mos tener en cuenta los sigui­en­tes para nues­tro análi­sis:

I. Dere­chos de priva­ci­dad y protec­ción de datos – que compren­den (y no se limi­tan a) el dere­cho a la vida privada, la auto­no­mía perso­nal, la invi­o­la­bi­li­dad del hogar, la priva­ci­dad física, la corres­pon­den­cia secreta, el desar­ro­llo de la propia iden­ti­dad, el dere­cho a tener una convic­ción o una creen­cia.

II. Dere­chos de igual­dad – ante la ley, entre hombres y muje­res, prohi­bi­ción de la discri­mi­na­ción por reli­gión, cultura, ideas polí­ti­cas, inte­gra­ción de perso­nas disca­pa­ci­ta­das.

III. Liber­tad de expre­sión y de infor­ma­ción, liber­tad de reunión y de asoci­a­ción. 

MUY IMPOR­TANTE. Las tecno­lo­gías de toma de deci­si­o­nes auto­ma­ti­za­das y perfi­les perso­na­les afec­tan a todo el espec­tro de dere­chos polí­ti­cos, civi­les, econó­mi­cos, soci­a­les y cultu­ra­les garan­ti­za­dos por la Decla­ra­ción Univer­sal de Dere­chos Funda­men­ta­les

Paso 2: Iden­ti­fi­car los impac­tos de la IA y solven­tar­los.

El segundo paso consiste en iden­ti­fi­car cómo la intro­duc­ción de la IA cambia los impac­tos sobre los dere­chos funda­men­ta­les del campo en el que se intro­duce la tecno­lo­gía.

¿Dónde se produ­cen estos impac­tos sobre los Dere­chos Funda­men­ta­les? Funda­men­tal­mente provi­e­nen de tres fuen­tes:

De la canti­dad de datos que se reco­pi­len y de la trans­pa­ren­cia u opaci­dad a la hora de hacerlo, de la cali­dad de los datos de capa­ci­ta­ción, y del diseño del sistema.

Esas deci­si­o­nes de diseño pueden tener reper­cu­si­o­nes tanto posi­ti­vas como nega­ti­vas en los dere­chos funda­men­ta­les, que se basarán en las expe­ri­en­cias vita­les indi­vi­du­a­les y en los prejui­cios de los diseña­do­res.

La IA conlleva el grave riesgo de perpe­tuar, ampli­fi­car y, en última instan­cia, osifi­car los sesgos y prejui­cios soci­a­les exis­ten­tes, con las consi­gui­en­tes conse­cu­en­cias para el dere­cho a la igual­dad.

La IA no tiene ninguna capa­ci­dad de modi­fi­car su propio sesgo. En cambio, requi­e­ren una aten­ción cons­tante por parte de los respon­sa­bles del diseño y el funci­o­na­mi­ento de esos siste­mas para garan­ti­zar que sus resul­ta­dos sean cohe­ren­tes con la evolu­ción de las noci­o­nes de equi­dad. 

Vamos a ver ahora, de manera escu­eta, las conse­cu­en­cias para los dere­chos funda­men­ta­les de la intro­duc­ción de la toma de deci­si­o­nes sobre la IA en dos campos: 

○ Finan­zas (puntu­a­ci­o­nes de crédito)

○ Recur­sos huma­nos (contra­ta­ción y reclu­ta­mi­ento)

1. Finan­zas (puntu­a­ci­o­nes de crédito)

 ¿Qué Dere­chos Funda­men­ta­les se pueden ver afec­ta­dos?

1. Dere­cho a la no discri­mi­na­ción

2. Dere­cho a la igual­dad ante la ley

La IA puede redu­cir la discri­mi­na­ción en los prés­ta­mos al propor­ci­o­nar deter­mi­na­ci­o­nes más exac­tas de la solven­cia de los grupos margi­na­dos, pero también puede discri­mi­nar­los de formas nove­do­sas.

3. Dere­cho a la priva­ci­dad y a la protec­ción de datos. Los siste­mas de puntu­a­ción credi­ti­cia basa­dos en la IA se basan en la reco­pi­la­ción, el alma­ce­na­mi­ento y el análi­sis de gran­des canti­da­des de datos perso­na­les, lo que plan­tea impor­tan­tes proble­mas de priva­ci­dad.

4. Liber­tad de expre­sión e infor­ma­ción

5. Dere­cho a la liber­tad de reunión y asoci­a­ción pací­fica

Dado que « todos los datos son datos de crédito » para las cali­fi­ca­ci­o­nes credi­ti­cias gene­ra­das por la IA, es posi­ble que las perso­nas se asus­ten de expre­sarse o asoci­arse con cier­tos otros por temor a que esto afecte a su capa­ci­dad de pedir pres­tado.

El volu­men de datos que los siste­mas de puntaje credi­ti­cio basa­dos en la IA reco­gen y anali­zan es apabu­llante. Hay bancos que tienen en cuenta más de 3.000 vari­a­bles para deci­dir si ofre­cen, o no, un crédito, como por ejem­plo cómo el soli­ci­tante tiende a teclear, lo que aparen­te­mente se corre­la­ci­ona con un mayor riesgo de impago.

También exami­nan toda nues­tra la huella digi­tal, incluyendo el uso de las redes soci­a­les, la geolo­ca­li­za­ción, los hábi­tos de nave­ga­ción en su web, el histo­rial de uso del telé­fono (incluyendo mensa­jes y los regis­tros de llama­das), el compor­ta­mi­ento de compra.

Sin embargo, este nuevo enfo­que también conlleva ries­gos consi­de­ra­bles. Uno de ellos se deriva de la cali­dad y preci­sión de los datos utili­za­dos para entre­nar estos siste­mas, así como de la impar­ci­a­li­dad y preci­sión de los datos que estos siste­mas utili­zan para deci­dir sobre la soli­ci­tud de crédito de un indi­vi­duo en parti­cu­lar.

Otro problema surge de las deci­si­o­nes subje­ti­vas que los inge­ni­e­ros toman sobre cómo codi­fi­car y cate­go­ri­zar los datos que alimen­tan en sus algo­rit­mos, aparen­te­mente obje­ti­vos. Por ejem­plo, hay bancos que tradu­cen cier­tas vari­a­bles, como el tiempo que uno pasa leyendo los térmi­nos y condi­ci­o­nes de su sitio web, en valo­res cate­gó­ri­cos del 1 al 10. 

Otra de las vari­a­bles está rela­ci­o­nada con su entorno, de manera que pueden ser discri­mi­na­dos o recom­pen­sa­dos en función de las carac­te­rís­ti­cas de su red perso­nal.

Si hay dos indi­vi­duos en una posi­ción finan­ci­era idén­tica, pero los amigos del primer indi­vi­duo viven en vecin­da­rios « ricos » mien­tras que los amigos del segundo viven en vecin­da­rios « pobres », un algo­ritmo puede deter­mi­nar que el primero tiene un mejor riesgo credi­ti­cio que el segundo. 

Estas deci­si­o­nes pueden corre­la­ci­o­nan con clasi­fi­ca­ci­o­nes como las basa­das en la raza, género o reli­gión, provo­cando graves casos de discri­mi­na­ción.

El uso de la IA en la toma de deci­si­o­nes finan­ci­e­ras puede incluso supo­ner una vulne­ra­ción del dere­cho de liber­tad de opinión, expre­sión y asoci­a­ción de las perso­nas, al ser puntu­a­dos depen­di­endo de las acti­vi­da­des en las que parti­ci­pen y que, en opinión del banco, afec­tarán nega­ti­va­mente a su puntu­a­ción credi­ti­cia.

Se han dado casos en los que una enti­dad finan­ci­era redujo el límite de crédito a clien­tes que habían incur­rido en gastos en conse­je­ros matri­mo­ni­a­les, talle­res de repa­ra­ción y recau­chu­tado de neumá­ti­cos, bares y clubes noctur­nos, salas de billar, casas de empeño, salo­nes de masaje y otros.

En una época en que « todos los datos son datos de crédito », las perso­nas pueden sentirse para­li­za­das al expre­sar cier­tos puntos de vista o asoci­arse con otros, por temor a que un algo­ritmo utilice su compor­ta­mi­ento en su contra en el contexto finan­ci­ero.

2. Recur­sos Huma­nos.

¿Qué Dere­chos Funda­men­ta­les se pueden ver afec­ta­dos?

1. Dere­cho a la no discri­mi­na­ción

Los siste­mas de contra­ta­ción basa­dos en la inte­li­gen­cia arti­fi­cial pueden perpe­tuar las pautas de discri­mi­na­ción en el empleo debido a los sesgos en los datos de capa­ci­ta­ción, aunque podrían progra­marse para evitarlo.

2. Dere­cho a la priva­ci­dad y a la protec­ción de datos.

Espe­ci­al­mente si compar­ten sus datos con los emple­a­do­res, los siste­mas de contra­ta­ción basa­dos en la inte­li­gen­cia arti­fi­cial que sondean una amplia vari­e­dad de fuen­tes de datos pueden afec­tar a la priva­ci­dad de los soli­ci­tan­tes de empleo y de los emple­a­dos también.

3. Dere­cho a la liber­tad de opinión, expre­sión e infor­ma­ción

4. Dere­cho a la reunión y asoci­a­ción.

Dado que « todos los datos » podrían ser « datos de contra­ta­ción » para la IA, la gente podría sentir miedo a la hora de expre­sarse libre­mente o asoci­arse con cier­tas otras por miedo al impacto en su emple­a­bi­li­dad.

Cada vez más, los emple­a­do­res del sector público y privado recur­ren a la IA para que les ayude en el proceso de contra­ta­ción por al menos dos razo­nes: 

La primera es la capa­ci­dad: el número de soli­ci­tan­tes por puesto se ha multi­pli­cado en los últi­mos siete años, mien­tras que la dota­ción de perso­nal en los depar­ta­men­tos de recur­sos huma­nos se manti­ene esta­ble.

La segunda es la equi­dad: hay una creci­ente conci­en­cia de que los proce­sos de contra­ta­ción están plaga­dos de prejui­cios y discri­mi­na­ción implí­ci­tos, y que las deci­si­o­nes de contra­ta­ción a menudo se redu­cen a « ¿es esta persona como yo? ». Muchas orga­ni­za­ci­o­nes creen que la IA puede ofre­cer al menos una solu­ción parcial a este problema.

La respon­sa­bi­li­dad de las empre­sas de respe­tar los dere­chos funda­men­ta­les se aplica no sólo a los servi­cios que pres­tan y los produc­tos que venden, sino también a sus opera­ci­o­nes inter­nas. Los proce­sos de contra­ta­ción defec­tu­o­sos pueden tener impor­tan­tes reper­cu­si­o­nes en el dere­cho a la no discri­mi­na­ción, el dere­cho a igual sala­rio por igual trabajo y los dere­chos a la liber­tad de expre­sión y asoci­a­ción.

Sobre este tema ya escribí un hilo y un artí­culo que pueden leer aquí.

Esto es todo por hoy, como siem­pre, gracias por leerme.

 

Autora: Manu­ela Batta­glini – trans­pa­ren­tin­ter­net.com