Inteligencia artificial y ciudades: la carrera global hacia la regulación de los algoritmos

Imatge
Adjunts
Adjunt Mida
Artículo en pdf 235.08 KB
Àmbits Temàtics

Existe una nece­si­dad creci­ente de asegu­rar que el desar­ro­llo y uso de apli­ca­ci­o­nes de inte­li­gen­cia arti­fi­cial (IA) no compro­meta los dere­chos funda­men­ta­les. Esto ha preci­pi­tado una carrera global entre gran­des poten­cias, foros y orga­ni­za­ci­o­nes inter­na­ci­o­na­les, así como empre­sas y orga­nis­mos públi­cos y priva­dos, por fijar los están­da­res que deben gober­nar y regu­lar este fenó­meno.   

Ante un contexto regu­la­to­rio global frag­men­tado, las ciuda­des se están posi­ci­o­nando como acto­res norma­ti­vos muy rele­van­tes. 

Las ciuda­des asumen un papel regu­la­dor indi­vi­du­al­mente, medi­ante el desar­ro­llo de están­da­res e inici­a­ti­vas de gober­nanza loca­les, pero también colec­ti­va­mente, en el marco de alian­zas de ciuda­des como la CC4DR o Euro­ci­ties.

La inte­li­gen­cia arti­fi­cial (IA) dejó de evocar un futuro de cien­cia ficción mucho antes de que los deba­tes sobre el poten­cial del sistema ChatGPT irrum­pi­e­ran en nues­tras vidas a fina­les de 2022. De hecho, como lo fuera la elec­tri­ci­dad o la irrup­ción de Inter­net en su momento, la IA promete ser una de las fuer­zas más trans­for­ma­do­ras de nues­tro tiempo, con poten­cial para revo­lu­ci­o­nar todas las indus­trias y secto­res econó­mi­cos. Sus apli­ca­ci­o­nes son infi­ni­tas: toma de deci­si­o­nes algo­rít­mi­cas, trata­mi­ento masivo de gran­des volú me­nes de datos, siste­mas de proce­sa­mi­ento de lenguaje natu­ral y de voz, predic­ción de situ­a­ci­o­nes de riesgo, o incluso el contro­ver­tido reco­no­ci­mi­ento biomé­trico.  Apli­ca­ci­o­nes que, la mayo­ría de ellas, ya se usan de manera recur­rente en secto­res tan diver­sos como los de la justi­cia, la gestión de recur­sos huma­nos, los servi­cios finan­ci­e­ros, la movi­li­dad, la sani­dad o la provi­sión de servi­cios públi­cos. 

No es casual que las inver­si­o­nes en IA se hayan dispa­rado en todo el mundo, ni que, cada vez más, encon­tre­mos este concepto en las estra­te­gias de segu­ri­dad naci­o­nal de muchos gobi­er­nos. Tampoco debe­ría sorpren­der que se hayan preci­pi­tado las diná­mi­cas compe­ti­ti­vas para domi­nar el desar­ro­llo de la IA en una suerte de « carrera global hacia la IA », de la que parti­ci­pan explí­ci­ta­mente tanto las gran­des poten­cias como las gran­des plata­for­mas tecno­ló­gi­cas. « Quien domine la inte­li­gen­cia arti­fi­cial, domi­nará el mundo », adver­tía Vladi­mir Putin en 2017 y, desde enton­ces, esta carrera global no ha hecho más que acele­rarse. 

Los siste­mas de IA son mucho más que meros compo­nen­tes de soft­ware. De hecho, tan o más impor­tante que estos es el sistema soci­o­téc­nico que los rodea. Así, cual­quier debate sobre la IA y su gober­nanza debe­ría consi­de­rar nece­sa­ri­a­mente las orga­ni­za­ci­o­nes que la crean, desar­ro­llan, imple­men­tan, usan y contro­lan, además de los indi­vi­duos que se van a ver afec­ta­dos por ella o las nuevas rela­ci­o­nes soci­a­les que gene­ran. Esto es así porque el uso de siste­mas de IA tiene impli­ca­ci­o­nes éticas y lega­les muy signi­fi­ca­ti­vas, pudi­endo llegar a compro­me­ter una gran vari­e­dad de dere­chos funda­men­ta­les como pueden ser el de la priva­ci­dad, la no discri­mi­na­ción o la protec­ción de datos. Es más, la IA puede tener (y ya está teni­endo) un impacto adverso sobre la demo­cra­cia y el Estado de dere­cho, en parti­cu­lar, en lo que se refi­ere a su poten­cial para influir en los discur­sos soci­a­les y polí­ti­cos, mani­pu­lar la opinión pública a través de la produc­ción y difu­sión de conte­nido en redes soci­a­les, filtrar el acceso a la infor­ma­ción, o gene­rar nuevas desi­gual­da­des. 

En este contexto, cada vez más se insta a los gobi­er­nos no solo a impul­sar polí­ti­cas para esti­mu­lar la inno­va­ción en IA, sino también a adop­tar medi­das para prote­ger a nues­tras soci­e­da­des de los ries­gos que puede compor­tar el uso de esta tecno­lo­gía disrup­tiva.  De esta forma, a la « carrera por desar­ro­llar la IA » se le ha sumado la « carrera por regu­lar la IA », donde ser el primero en actuar puede dar una ventaja compe­ti­tiva nada despre­ci­a­ble. En este nuevo campo de juego que se ha abierto, además, los gobi­er­nos naci­o­na­les no están solos, ya que, ante su lento actuar, las ciuda­des –una vez más– se están posi­ci­o­nando como acto­res indis­pen­sa­bles para el desar­ro­llo de una IA ética y respon­sa­ble.  

Un contexto global frag­men­tado 

La gober­nanza global de la IA se arti­cula hoy a través de una multi­tud de marcos norma­ti­vos e inici­a­ti­vas frac­ci­o­na­dos, hete­ro­gé­neos y disper­sos impul­sa­dos por varios acto­res. A estas altu­ras, todas las gran­des poten­cias ya han publi­cado sus estra­te­gias para promo­ver el uso y el desar­ro­llo de la IA y, desde 2016, se han empe­zado a coor­di­nar esfu­er­zos (de manera no dema­si­ado exitosa) en el marco de foros inter­gu­ber­na­men­ta­les como el G-7 o el G-20. Algu­nas orga­ni­za­ci­o­nes inter­na­ci­o­na­les como la Unesco o la Orga­ni­za­ción para la Coope­ra­ción y el Desar­ro­llo Econó­mico (OCDE) también se han apun­tado a esta compe­ti­ción por formu­lar están­da­res regu­la­to­rios globa­les para la IA, como también lo han hecho muchas empre­sas, centros de inves­ti­ga­ción, orga­ni­za­ci­o­nes de la soci­e­dad civil y gobi­er­nos subna­ci­o­na­les. 

Sin duda nos encon­tra­mos ante un contexto global frag­men­tado, que se explica por dife­ren­tes facto­res como la ambi­güe­dad del mismo concepto de « inte­li­gen­cia arti­fi­cial »1. En este sentido, desta­can las dife­ren­cias funda­men­ta­les que exis­ten entre los mode­los de gober­nanza tecno­ló­gica promo­vi­dos por los tres bloques regi­o­na­les más impor­tan­tes del mundo (Esta­dos Unidos, China y la Unión Euro­pea [UE]) o la ausen­cia de un marco regu­la­to­rio real­mente global impul­sado por orga­ni­za­ci­o­nes inter­na­ci­o­na­les. A ello cabe añadir las difi­cul­ta­des por conju­gar inter­e­ses, normas y códi­gos de conducta comu­nes entre corpo­ra­ci­o­nes priva­das (que son los prin­ci­pa­les desar­ro­lla­do­res de esta tecno­lo­gía), los gobi­er­nos y la opinión pública. 

Como en otras esfe­ras de la gober­nanza tecno­ló­gica global, Esta­dos Unidos, China y la UE manti­e­nen dife­ren­cias ideo­ló­gi­cas muy signi­fi­ca­ti­vas con respecto a la regu­la­ción de datos y la gober­nanza de la IA. Es una confron­ta­ción de mode­los que tiene consi­de­ra­bles rami­fi­ca­ci­o­nes geopo­lí­ti­cas, lo que está condi­ci­o­nando sobre­ma­nera las inici­a­ti­vas del resto de acto­res del sistema inter­na­ci­o­nal. Por ello, merece la pena entre­te­nerse a enten­der las dife­ren­cias prin­ci­pa­les entre estos tres enfo­ques, que podrí­a­mos carac­te­ri­zar, a gran­des rasgos, como la autor­re­gu­la­ción capi­ta­lista de Esta­dos Unidos, el tecno-auto­ri­ta­rismo de China y la regu­la­ción inte­gral garan­tista de la Unión Euro­pea. 

La regu­la­ción de la UE 

La UE es, en muchos senti­dos, pionera en la regu­la­ción del ámbito digi­tal desde una pers­pec­tiva garan­tista y de defensa del consu­mi­dor. Su Regla­mento Gene­ral de Protec­ción de Datos (GDPR, por sus siglas en inglés), que entró en vigor en 2018, sentó un prece­dente para la regu­la­ción de datos a nivel global2, puesto que inspiró otra legis­la­ción simi­lar en Esta­dos Unidos y China. Del mismo modo, la Ley de Inte­li­gen­cia Arti­fi­cial (AI Act), presen­tada por la Comi­sión Euro­pea en 2021 y aún en nego­ci­a­ción, cons­ti­tuye uno de los esfu­er­zos regu­la­to­rios más avan­za­dos en este ámbito que puede marcar un nuevo están­dar global. 

Con todo, esta propu­esta legis­la­tiva debe contex­tu­a­li­zarse en el marco de otras inici­a­ti­vas que confor­man la polí­tica euro­pea en mate­ria de inte­li­gen­cia arti­fi­cial, inici­ada en 2018, y que incluyen, entre otras, la Estra­te­gia Euro­pea de Inte­li­gen­cia Arti­fi­cial (2018), las Direc­tri­ces éticas para una IA fiable (2019) –for­mu­la­das por el Grupo de Exper­tos de Alto Nivel sobre IA– y el Libro Blanco de la UE sobre IA (2020).  En cual­quier caso, la Ley de Inte­li­gen­cia Arti­fi­cial, que podría entrar en vigor en 2024 y que supone una nueva e inno­va­dora regu­la­ción basada en el riesgo que conlleva la IA, junto con la Ley de Merca­dos Digi­ta­les (DMA) y la Ley de Servi­cios Digi­ta­les (DSA) confor­man un enfo­que holís­tico de cómo las auto­ri­da­des buscan gober­nar el uso de la IA y la tecno­lo­gía de la infor­ma­ción en la soci­e­dad. 

Espe­cí­fi­ca­mente, la Ley de la IA persi­gue dos obje­ti­vos funda­men­ta­les: a) regu­lar los usos de la IA con el fin de abor­dar los bene­fi­cios y ries­gos de esta tecno­lo­gía, y b) crear un espa­cio seguro para la inno­va­ción en IA que cumpla con un alto nivel de protec­ción del interés público, la segu­ri­dad y los dere­chos y liber­ta­des funda­men­ta­les. Asimismo, persi­gue la confor­ma­ción de un ecosis­tema de confi­anza que fomente la adop­ción de servi­cios de IA. Para ello, sigue un enfo­que regu­la­to­rio basado en el riesgo; es decir, la ley aplica deter­mi­na­das obli­ga­ci­o­nes y restric­ci­o­nes en función de cuatro nive­les de riesgo deri­va­dos del uso de la IA (véase la figura 1).

Nota 286_Figura 1

La regu­la­ción de China 

Por su parte, en 2017, China adoptó el « Plan de Desar­ro­llo de la IA de la próxima gene­ra­ción », que deta­llaba los prin­ci­pios y los obje­ti­vos estra­té­gi­cos que deben guiar el desar­ro­llo de la IA en un amplio abanico de secto­res. El obje­tivo sin duda era conver­tir el país en un líder mundial en este campo. Desde enton­ces, China ha desar­ro­llado otros meca­nis­mos para regu­lar el desar­ro­llo de la IA, espe­ci­al­mente en el campo de la super­vi­sión algo­rít­mica y de datos. Destaca, en este sentido, la Ley de Protec­ción de Infor­ma­ción Perso­nal (PILP), apro­bada en 2021 e inspi­rada en gran parte en el GDPR euro­peo.  Asimismo, en marzo de 2022 entró en vigor una nueva regu­la­ción orien­tada a super­vi­sar las « reco­men­da­ci­o­nes algo­rít­mi­cas de los moto­res de nave­ga­ción de Inter­net ». En concreto, esta regu­la­ción otorga a los usua­rios nuevos dere­chos, incluida la posi­bi­li­dad de optar por no utili­zar algo­rit­mos de reco­men­da­ción y elimi­nar los datos del usua­rio. Sin embargo, también incluye unas dispo­si­ci­o­nes algo más opacas sobre mode­ra­ción de conte­nido que requi­e­ren que las empre­sas priva­das promu­e­van acti­va­mente infor­ma­ción « posi­tiva » que siga la línea oficial del Partido Comu­nista. En este sentido, la regu­la­ción de los algo­rit­mos de China va mucho más allá del espa­cio digi­tal, pues también dicta qué tipo de compor­ta­mi­ento el Gobi­erno chino consi­dera favo­ra­ble o no en la soci­e­dad. A este enfo­que, carac­te­ri­zado por muchos como tecno-auto­ri­ta­rio, se contra­pone el de Esta­dos Unidos. 

La regu­la­ción de Esta­dos Unidos 

La apro­xi­ma­ción esta­dou­ni­dense responde a lógica del « capi­ta­lismo de vigi­lan­cia ». Si empe­za­mos por la regu­la­ción de la protec­ción de datos, cabe desta­car que Esta­dos Unidos aún no cuenta con una ley naci­o­nal en este ámbito, algo que pueda ser equi­pa­ra­ble al GDPR euro­peo. Ante esta inac­ción del Gobi­erno fede­ral, cinco esta­dos (Cali­for­nia, Colo­rado, Connec­ti­cut, Utah y Virgi­nia) han adop­tado algún tipo de legis­la­ción3. En el ámbito de inte­li­gen­cia arti­fi­cial, tampoco existe una regu­la­ción a escala esta­tal, si bien la Algo­rith­mic Accoun­ta­bi­lity Act (2022) es un primer paso en esta direc­ción. 

De hecho, el desar­ro­llo tardío de una regu­la­ción a nivel esta­tal puede atri­buirse a la oposi­ción signi­fi­ca­tiva, por parte de la soci­e­dad, al uso de la IA en el sector público, muy espe­ci­al­mente al uso de tecno­lo­gías de reco­no­ci­mi­ento facial por parte de las fuer­zas del orden público.  En este sentido, si bien Esta­dos Unidos y la UE diver­gen en la regu­la­ción de la IA (autor­re­gu­la­ción versus regu­la­ción inte­gral), ambas poten­cias compar­ten la volun­tad de vincu­lar las inici­a­ti­vas de regu­la­ción a la protec­ción de dere­chos digi­ta­les bási­cos. En ausen­cia de legis­la­ción naci­o­nal que las reco­nozca explí­ci­ta­mente, algu­nas enti­da­des subna­ci­o­na­les han comen­zado a imple­men­tar sus propias regu­la­ci­o­nes, como se expli­cará a conti­nu­a­ción.  

El poder norma­tivo colec­tivo de las ciuda­des4 

La IA promete bene­fi­cios a todos los nive­les, pero es en las ciuda­des donde más se está expe­ri­men­tando, al combi­narse su adop­ción, en la mayo­ría de los casos, con otras tecno­lo­gías como el Inter­net de las cosas, el 5G o el Big Data. También son los entor­nos urba­nos el lugar donde su impacto resulta más tangi­ble. Hoy, muchos gobi­er­nos loca­les ya usan regu­lar­mente la IA para prede­cir la demanda de algu­nos servi­cios, anti­ci­par problemá­ti­cas, comu­ni­carse más rápi­da­mente con los ciuda­da­nos medi­ante chat­bots, mejo­rar la toma de deci­si­o­nes o avan­zar hacia sus obje­ti­vos de soste­ni­bi­li­dad, sobre todo en áreas como la cali­dad del aire o la movi­li­dad. 

Sin embargo, esta creci­ente adop­ción de la IA en entor­nos urba­nos no está exenta de desa­fíos, espe­ci­al­mente en lo que se refi­ere a las habi­li­da­des que requi­e­ren las ciuda­des para apro­ve­char todo su poten­cial. Existe, además, el impe­ra­tivo de asegu­rar que el uso de solu­ci­o­nes basa­das en IA cumpla con los están­da­res de segu­ri­dad y respon­sa­bi­li­dad, prote­gi­endo los dere­chos digi­ta­les de la ciuda­da­nía. Dar respu­esta a estos retos requi­ere de actu­a­ci­o­nes que van mucho más allá de la capa­ci­dad de legis­lar de los gobi­er­nos loca­les. No obstante, ante un contexto regu­la­to­rio global frag­men­tado y la exis­ten­cia de vacíos lega­les nota­bles, las ciuda­des se están posi­ci­o­nando como acto­res norma­ti­vos indis­pen­sa­bles, ya sea indi­vi­du­al­mente medi­ante el desar­ro­llo de están­da­res loca­les, ya sea colec­ti­va­mente en el marco de alian­zas y redes de ciuda­des.   

En el ámbito de la actu­a­ción colec­tiva de las ciuda­des, es refe­ren­cia obli­gada el trabajo que está desar­ro­llando la Coali­ción de Ciuda­des por los Dere­chos Digi­ta­les (Cities Coali­tion for Digi­tal Rights [CC4DR]). Esta es una inici­a­tiva lanzada en novi­em­bre de 2018 por las ciuda­des de Barce­lona, Ámster­dam y Nueva York, que cuenta con el apoyo de ONU-Hábi­tat y cuya misión es la promo­ción y defensa de los dere­chos digi­ta­les en entor­nos urba­nos. Conce­bida como una alianza pragmá­tica basada en prin­ci­pios, sus ciuda­des miem­bros (actu­al­mente alre­de­dor de 50) compar­ten buenas prác­ti­cas y cono­ci­mi­ento experto para abor­dar desa­fíos comu­nes vincu­la­dos a la formu­la­ción de polí­ti­cas basa­das en dere­chos digi­ta­les. Es una coali­ción, además, que trabaja para elabo­rar marcos lega­les, éticos y opera­ti­vos que ayuden a las ciuda­des a promo­ver los dere­chos huma­nos en entor­nos digi­ta­les. 

En julio de 2021, la CC4DR puso en marcha el Obser­va­to­rio Global de Inte­li­gen­cia Arti­fi­cial Urbana (GOUAI, por sus siglas en inglés), con el fin de promo­ver siste­mas éticos de IA en las ciuda­des5. El GOUAI persi­gue tres obje­ti­vos funda­men­ta­les. En primer lugar, contri­buir a la defi­ni­ción de unos prin­ci­pios éticos bási­cos que puedan guiar la adop­ción de solu­ci­o­nes de IA en las ciuda­des; concre­ta­mente, se busca que las herra­mi­en­tas algo­rít­mi­cas emple­a­das en entor­nos urba­nos sean justas y no discri­mi­na­to­rias, trans­pa­ren­tes y abier­tas, respon­sa­bles, ciber­se­gu­ras, que salva­guar­den la priva­ci­dad de los ciuda­da­nos y que sean soste­ni­bles. En segundo lugar, apoyar la opera­ci­o­na­li­za­ción de estos prin­ci­pios, medi­ante el mapeo de proyec­tosy estra­te­gias de IA urbana ética de refe­ren­cia. Estas buenas prác­ti­cas, desar­ro­llas por ciuda­des de todo el mundo, pueden consul­tarse en el « Atlas of Urban AI » lanzado en 2022. Final­mente, el GOUAI se propone dise­mi­nar estos prin­ci­pios y buenas prác­ti­cas entre la comu­ni­dad urbana inter­na­ci­o­nal, a fin de promo­ver la regu­la­ción de la IA con pers­pec­tiva ética desde lo local. 

Asimismo, a través de las asoci­a­ci­o­nes muni­ci­pa­lis­tas, los gobi­er­nos loca­les también están inten­tando inci­dir polí­ti­ca­mente en la nego­ci­a­ción de regu­la­ci­o­nes trans­na­ci­o­na­les como, por ejem­plo, la Ley de IA de la UE (AI Act). Aquí destaca el rol de Euro­ci­ties, la red de las gran­des ciuda­des euro­peas confor­mada por más de 200 miem­bros de 38 países. A prin­ci­pios de 2020, Euro­ci­ties  formuló una respu­esta al Libro Blanco de la Comi­sión Euro­pea sobre inte­li­gen­cia arti­fi­cial, en la que se deta­lla­ban las opor­tu­ni­da­des y retos de las IA para las ciuda­des euro­peas y se abogaba, entre otras peti­ci­o­nes, por la inclu­sión de repre­sen­tan­tes de gobi­er­nos loca­les en el grupo de trabajo sobre IA de la UE, más finan­ci­a­ción para el desar­ro­llo de habi­li­da­des y alfa­be­ti­za­ción digi­tal en los gobi­er­nos muni­ci­pa­les, o que el futuro marco regu­la­to­rio de la UE para una IA confi­a­ble tenga en cuenta los prin­ci­pios éticos defi­ni­dos en el sí de la CC4DR. 

Tras la publi­ca­ción de la propu­esta de la Comi­sión Euro­pea para la futura Ley de IA en 2021, Euro­ci­ties dedicó esfu­er­zos impor­tan­tes a fomen­tar la discu­sión entre sus miem­bros alre­de­dor de la rele­van­cia y las impli­ca­ci­o­nes de esta regu­la­ción euro­pea para los gobi­er­nos loca­les. Ello se tradujo en la presen­ta­ción de enmi­en­das concre­tas en nombre de las ciuda­des a la propu­esta de regla­mento, así como en la orga­ni­za­ción de acti­vi­da­des para seguir inci­di­endo en las nego­ci­a­ci­o­nes. Un ejem­plo concreto sería la carta envi­ada a los rela­to­res del regla­mento. 

En cuanto al posi­ci­o­na­mi­ento polí­tico común en este ámbito, en gene­ral las ciuda­des están a favor de la defi­ni­ción amplia de siste­mas de IA que se incluye en la Ley de IA, como también apoyan el enfo­que basado en el riesgo y la propu­esta de prohi­bir los usos inacep­ta­bles. Piden, sin embargo, la prohi­bi­ción total de los siste­mas de captura masiva de datos biomé­tri­cos en espa­cios públi­cos hasta que pueda veri­fi­carse el respeto a los dere­chos huma­nos. Asimismo, denun­cian la falta de aline­a­ción de los siste­mas de IA con el Regla­mento Gene­ral de Protec­ción de Datos de la UE. 

Regu­lar desde abajo: instru­men­tos loca­les para gober­nar la IA6 

Ante los lími­tes y défi­cits de la mayo­ría de las legis­la­ci­o­nes naci­o­na­les, muchas ciuda­des han comen­zado a desar­ro­llar sus propios marcos de gober­nanza e instru­men­tos norma­ti­vos para asegu­rar un uso respon­sa­ble de la IA en sus juris­dic­ci­o­nes. Así, de manera análoga a los esfu­er­zos desem­peña­dos por algu­nos países y orga­ni­za­ci­o­nes inter­na­ci­o­na­les, los gobi­er­nos loca­les están defi­ni­endo marcos norma­ti­vos éticos y los prin­ci­pios recto­res que deben guiar la apli­ca­ción muni­ci­pal de una IA respon­sa­ble y basada en los dere­chos huma­nos. Estos prin­ci­pios éticos suelen quedar reco­gi­dos en decla­ra­ci­o­nes y estra­te­gias muni­ci­pa­les.  

Un buen ejem­plo de ello es la « Estra­te­gia muni­ci­pal de algo­rit­mos y datos para el impulso ético de la inte­li­gen­cia arti­fi­cial » de Barce­lona, publi­cada en 2021. En ella se define un modelo de gober­nanza de la IA basada en los dere­chos digi­ta­les y los prin­ci­pios democrá­ti­cos. Entre las medi­das que se incluyen, destaca la crea­ción de un regis­tro público de algo­rit­mos, o el esta­ble­ci­mi­ento de cláu­su­las a la compra pública para asegu­rar que las lici­ta­ci­o­nes muni­ci­pa­les de siste­mas de IA sean respe­tu­o­sas con los dere­chos huma­nos. Otra ciudad pionera en este sentido es Nueva York, cuya « Estra­te­gia sobre IA » (de octu­bre 2021)también apela a que la ciudad se bene­fi­cie del uso de la IA de manera ética y respon­sa­ble, teni­endo en cuenta los dere­chos digi­ta­les. Espe­cí­fi­ca­mente, la estra­te­gia deta­lla cómo moder­ni­zar la infra­es­truc­tura de datos de la ciudad y define las áreas en las que la IA tiene el poten­cial de intro­du­cir más bene­fi­cios con el menor daño posi­ble, así como las formas en que la admi­nis­tra­ción puede usar la IA inter­na­mente para servir a los ciuda­da­nos. Final­mente, esta estra­te­gia contem­pla la reali­za­ción de alian­zas con centros de inves­ti­ga­ción, así como actu­a­ci­o­nes espe­cí­fi­cas para garan­ti­zar que un mayor uso de la IA no vaya en detri­mento de los dere­chos digi­ta­les de los neoyor­qui­nos. 

En el contexto lati­no­a­me­ri­cano, destaca la ciudad de Buenos Aires, que tiene un « Plan de IA » (agosto 2021) orien­tado a maxi­mi­zar el apro­ve­cha­mi­ento de los bene­fi­cios de la IA para la gestión de la ciudad, acom­pañar la evolu­ción y conso­li­da­ción del uso de la IA en indus­trias y áreas estra­té­gi­cas clave del entra­mado produc­tivo y del gobi­erno, así como miti­gar los poten­ci­a­les ries­gos deri­va­dos del uso de la IA, defi­ni­endo unos prin­ci­pios éticos y lega­les, como la trans­pa­ren­cia, la priva­ci­dad, la ciber­se­gu­ri­dad, el respeto al medio ambi­ente, la respon­sa­bi­li­dad, la inter­ven­ción humana y el gobi­erno abierto. 

Más allá de estas estra­te­gias holís­ti­cas, algu­nas ciuda­des están impul­sando regla­men­tos espe­cí­fi­cos para esta­ble­cer lími­tes en el uso de la IA en sus comu­ni­da­des, espe­ci­al­mente en esos casos donde existe el riesgo de que el uso de siste­mas auto­ma­ti­za­dos pueda condu­cir a discri­mi­na­ci­o­nes y quebra­mi­ento de dere­chos funda­men­ta­les.  Es el caso de la Ley de Nueva York sobre los siste­mas de contra­ta­ción auto­ma­ti­za­dos, que esti­pula que cual­quier de estos siste­mas usado en la ciudad a partir de abril de 2023 debe some­terse a una audi­to­ría de sesgo para evaluar su posi­ble impacto dispar en algu­nos grupos. Otro ejem­plo són los regla­men­tos impul­sa­dos por muchas otras ciuda­des esta­dou­ni­den­ses, como Boston, Minne­a­po­lis, San Fran­cisco, Oakland o Port­land, para prohi­bir a agen­cias guber­na­men­ta­les –incluida la poli­cía– el uso de tecno­lo­gías de reco­no­ci­mi­ento facial. Estas prohi­bi­ci­o­nes son el resul­tado de la preo­cu­pa­ción por la viola­ción de las liber­ta­des civi­les y la discri­mi­na­ción incrus­ta­das en estas herra­mi­en­tas a través de sesgos en los datos y en los algo­rit­mos. 

Por último, deter­mi­na­das polí­ti­cas públi­cas loca­les pueden tener un impacto norma­tivo tan profundo como algu­nos de los regla­men­tos ante­ri­or­mente menci­o­na­dos. Es el caso de la crea­ción de regis­tros de algo­rit­mos en Ámster­dam y en Helsinki, una inici­a­tiva pionera medi­ante la cual estas dos ciuda­des publi­can en porta­les web públi­cos infor­ma­ción sobre los siste­mas algo­rít­mi­cos usados para pres­tar algu­nos servi­cios, cons­ti­tuyén­dose en una herra­mi­enta funda­men­tal para garan­ti­zar la trans­pa­ren­cia y rendi­ción de cuen­tas. Tal es su impor­tan­cia que otras siete ciuda­des euro­peas (Barce­lona, Boloña, Bruse­las, Eind­ho­ven, Mann­heim, Rotter­dam y Sofia), con el apoyo de Euro­ci­ties, han unido esfu­er­zos con Ámster­dam y Helsinki para desar­ro­llar un esquema de datos estan­da­ri­zado que esta­blezca la infor­ma­ción que se debe­ría publi­car en los regis­tros de algo­rit­mos. Con ello, estas ciuda­des se están posi­ci­o­nando como pione­ras en esta carrera por regu­lar la IA desde lo local. 

Apunte final 

Existe una nece­si­dad cada vez más acuci­ante de asegu­rar que el desar­ro­llo y uso de apli­ca­ci­o­nes de IA no compro­meta los dere­chos funda­men­ta­les. Esta cons­ta­ta­ción ha preci­pi­tado una nueva carrera global por fijar los están­da­res que deben gober­nar y regu­lar la IA. Con la proli­fe­ra­ción de inici­a­ti­vas norma­ti­vas de dife­rente natu­ra­leza, se ha abierto un terreno de juego en el que parti­ci­pan no solo las gran­des poten­cias, sino también otros acto­res como orga­nis­mos inter­gu­ber­na­men­ta­les, las gran­des plata­for­mas tecno­ló­gi­cas, orga­ni­za­ci­o­nes de la soci­e­dad civil, y las ciuda­des. 

En un contexto global de frag­men­ta­ción norma­tiva y anta­go­nismo de mode­los de gober­nanza de lo digi­tal, esca­lar las regu­la­ci­o­nes que están adop­tando muchas ciuda­des del mundo puede conver­tirse en una manera prác­tica, ágil y eficaz para acele­rar la adop­ción de solu­ci­o­nes de IA a todos los nive­les. Al fin y al cabo, de la misma manera que las ciuda­des son hoy centros incu­es­ti­o­na­bles de inno­va­ción y espa­cios de expe­ri­men­ta­ción para la respu­esta a gran­des desa­fíos globa­les como el cambio climá­tico, las fron­te­ras de la gober­nanza de la IA también se pueden empe­zar a defi­nir en gran medida desde abajo.    

Cabe recal­car, sin embargo, que hoy en día el trabajo norma­tivo de las ciuda­des en mate­ria de regu­la­ción de la IA es, esen­ci­al­mente, un fenó­meno del Norte Global. Es signi­fi­ca­tivo, por ejem­plo, que el 90% de las ciuda­des de la Coali­ción de Ciuda­des por los Dere­chos Digi­ta­les sean euro­peas o de Esta­dos Unidos. En este sentido, quizás sea rele­vante pregun­tarse si el espí­ritu garan­tista y de protec­ción de los dere­chos digi­ta­les a la que respon­den la mayo­ría de estas regu­la­ci­o­nes también puede acabar inspi­rando inici­a­ti­vas simi­la­res en otros contex­tos donde la lógica impe­rante es la tecno-auto­ri­ta­ria. 

Refe­ren­cia

Finne­more, Martha y Sikkink, Kathryn. « Inter­na­ti­o­nal Norm Dyna­mics and Poli­ti­cal Change ». Inter­na­ti­o­nal Orga­ni­za­tion, vol. 52, n.º 4  (1998), p. 887–917. 

Notas:

1– No existe una defi­ni­ción de consenso sobre IA, a pesar de los muchos inten­tos que se han hecho en esta direc­ción. Hay que tener en cuenta, además, que no existe como tal una IA, sino que este es un concepto para­guas que engloba dife­ren­tes tecno­lo­gías y apli­ca­ci­o­nes. Para compli­carlo aún más, las apli­ca­ci­o­nes que se suelen adscri­bir a la IA están en conti­nua evolu­ción.

2– Esto se ve en cómo la legis­la­ción ha inspi­rado otras leyes, por ejem­plo, la Ley de Priva­ci­dad del Consu­mi­dor de Cali­for­nia (CCPA) y la Ley de Protec­ción de Infor­ma­ción Perso­nal de China (PIPL).

3– De entre estas, destaca la Consu­mer Privacy Act (CCPA) de Cali­for­nia que, ante la ausen­cia de legis­la­ción a nivel fede­ral, se ha conver­tido en la regu­la­ción de facto en este sector.

4– Esta Nota Inter­na­ci­o­nal no emplea el término « norma » y « poder norma­tivo » desde su acep­ción jurí­dica (es decir, regla jurí­dica esta­ble­cida por una auto­ri­dad compe­tente para orde­nar el compor­ta­mi­ento medi­ante la crea­ción de dere­chos y debe­res), sino que lo hace desde la pers­pec­tiva del cons­truc­ti­vismo social y la gober­nanza global. Desde este enfo­que, las normas se defi­nen como expec­ta­ti­vas colec­ti­vas o están­da­res de compor­ta­mi­ento apro­pi­ado (Finne­more y Sikkink, 1998).

5– El GOUAI está lide­rado por el Programa Ciuda­des Globa­les de CIDOB.

6-Los proyec­tos que se menci­o­nan en esta sección forman parte del Atlas of Urban AI del GOUAI, dispo­ni­ble en el sigui­ente enlace: https://gouai.cidob.org/atlas  

7-  Esta estra­te­gia fue elabo­rada en el ante­rior mandato, bajo el lide­razgo del CTO de Nueva York John Farmer. El nuevo equipo de la Oficina sobre Tecno­lo­gía e Inno­va­ción de Nueva York publicó su Plan Estra­té­gico en octu­bre de 2022 y, sorpren­den­te­mente, no incluye ni una sola refe­ren­cia a la gober­nanza o regu­la­ción de la IA. Véase: https://www1.nyc.gov/assets/oti/down­lo­ads/pdf/about/stra­te­gic-plan-2022.pdf 

DOI: https://doi.org/10.24241/Note­sInt.2023/286/es

Autora: Marta Galce­ran-Vercher, inves­ti­ga­dora prin­ci­pal, Programa Ciuda­des Globa­les, CIDOB