Donestech signa la petició civil a la UE que protegeixi els drets de les persones en les negociacions del "triòleg" de la Llei d'IA

Traduc­ció de l’arti­cle en anglès i tot l’es­ta­ment en anglès amb enti­tats signants

La soci­e­tat civil demana a la UE que prote­geixi els drets de les perso­nes en les nego­ci­a­ci­ons del «triò­leg» de la Llei d’IA

A mesura que les insti­tu­ci­ons de la UE inicien reuni­ons deci­si­ves sobre la Llei d’In­tel·­li­gèn­cia Arti­fi­cial (IA), una àmplia coali­ció de la soci­e­tat civil les insta a prio­rit­zar les perso­nes i els drets fona­men­tals en aquesta legis­la­ció histò­rica.

150 orga­nit­za­ci­ons de la soci­e­tat civil dema­nen al Parla­ment Euro­peu, a la Comis­sió Euro­pea i al Consell de la UE que posin en primer lloc les perso­nes i els seus drets fona­men­tals a la Llei d’IA mentre les insti­tu­ci­ons de la UE proce­dei­xen a les nego­ci­a­ci­ons de «triò­leg». Aques­tes reuni­ons deci­si­ves deter­mi­na­ran la legis­la­ció final i fins a quin punt centra els drets humans i les preo­cu­pa­ci­ons de les perso­nes que podrien veure’s afec­ta­des per siste­mes d’IA «risco­sos».

Els siste­mes d’IA ja estan tenint un impacte de gran abast a les nostres vides. Cada cop s’uti­lit­zen més per super­vi­sar-nos i iden­ti­fi­car-nos als espais públics, predir la nostra proba­bi­li­tat de crimi­na­li­tat, redi­ri­gir la poli­cia i el control de la immi­gra­ció cap a zones ja super­vi­gi­la­des, faci­li­tar les viola­ci­ons del dret a dema­nar asil, predir les nostres emoci­ons i cate­go­rit­zar-nos. . També s’uti­lit­zen per pren­dre deci­si­ons cruci­als sobre nosal­tres, per exem­ple, qui acce­deix als siste­mes de benes­tar.

Sense una regu­la­ció adequada, això agreu­jarà els danys soci­als exis­tents de la vigi­làn­cia massiva, la discri­mi­na­ció estruc­tu­ral i el poder centra­lit­zat de les grans empre­ses tecno­lò­gi­ques.

La Llei d’IA és una opor­tu­ni­tat crucial per regu­lar aquesta tecno­lo­gia i per prio­rit­zar els drets de les perso­nes sobre els bene­fi­cis. Mitjan­çant aquesta legis­la­ció, la UE ha de garan­tir que el desen­vo­lu­pa­ment i l’ús de la IA siguin respon­sa­bles, siguin públi­ca­ment trans­pa­rents i que les perso­nes tinguin poder per desa­fiar els danys:

    Poten­ciar les perso­nes afec­ta­des mante­nint un marc de respon­sa­bi­li­tat, trans­pa­rèn­cia, acces­si­bi­li­tat i repa­ra­ció

Això inclou exigir una avalu­a­ció de l’im­pacte dels drets fona­men­tals abans de desple­gar siste­mes d’IA d’alt risc, el regis­tre de siste­mes d’alt risc en una base de dades pública, requi­sits d’ac­ces­si­bi­li­tat horit­zon­tals i inte­grats per a tots els siste­mes d’IA, el dret a presen­tar quei­xes quan un sistema d’IA vulnera els drets de les perso­nes., i el dret a la repre­sen­ta­ció i els drets a recur­sos efec­tius.

    Limi­tar la vigi­làn­cia perju­di­cial i discri­mi­na­tò­ria per part de les auto­ri­tats de segu­re­tat naci­o­nal, cossos de segu­re­tat i migra­ci­ons

Quan els siste­mes d’IA s’uti­lit­zen per a l’apli­ca­ció de la llei, la segu­re­tat i el control de la migra­ció, hi ha un risc encara més gran de danys i viola­ci­ons dels drets fona­men­tals, espe­ci­al­ment per a les comu­ni­tats ja margi­na­des. Cal que hi hagi línies verme­lles clares per a aquest ús per evitar danys. Això inclou la prohi­bi­ció de tot tipus d’iden­ti­fi­ca­ció biomè­trica remota, siste­mes de control predic­tiu, avalu­a­ci­ons de riscos indi­vi­du­als i siste­mes analí­tics predic­tius en contex­tos migra­to­ris.

    Feu retro­ce­dir el lobby de Big Tech i elimi­neu les llacu­nes que sosca­ven la regu­la­ció

Perquè la Llei d’IA s’apli­qui amb eficà­cia, els nego­ci­a­dors han de recu­lar els esfor­ços de pres­sió de Big Tech per sosca­var la regu­la­ció. Això és espe­ci­al­ment impor­tant quan es tracta de la clas­si­fi­ca­ció de riscos dels siste­mes d’IA. Aquesta clas­si­fi­ca­ció ha de ser objec­tiva i no ha de deixar espai perquè els desen­vo­lu­pa­dors d’IA puguin auto­de­ter­mi­nar si els seus siste­mes són prou «signi­fi­ca­tius» per ser clas­si­fi­cats com d’alt risc i reque­rei­xen control legal. Les empre­ses tecno­lò­gi­ques, amb els seus incen­tius per obte­nir bene­fi­cis, sempre voldran subclas­si­fi­car els seus propis siste­mes d’IA.

Redac­tat per: Euro­pean Digi­tal Rights, Access Now, Algo­rithm Watch, Amnis­tia Inter­na­ci­o­nal, Bits of Free­dom, Elec­tro­nic Fron­tier Norway (EFN), Euro­pean Centre for Not-for-Profit Law, (ECNL), Euro­pean Disa­bi­lity Forum, Fair Trials, Homo Digi­ta­lis, Consell Irlan­dès per a les Lliber­tats Civils (ICCL), Funda­ció Panopty­kon, Plata­forma per a la Coope­ra­ció Inter­na­ci­o­nal sobre els Drets dels Migrants Indo­cu­men­tats (PICUM).