Censura algorítmica, ¿la mejor herramienta contra los discursos de incitación al odio?

«Debe­ría darse un debate previo con pers­pec­tiva democrá­tica y social, que tenga en consi­de­ra­ción todas las conse­cu­en­cias indi­vi­du­a­les y colec­ti­vas a corto y largo plazo del uso de esa herra­mi­enta», refle­xi­ona Laia Serra.

El pasado 18 de marzo el OBERAXE hacía pública su prueba piloto de una nueva herra­mi­enta para comba­tir los discur­sos de inci­ta­ción al odio en línea. Esta consiste en la crea­ción de un algo­ritmo de rastreo que se entrena en base a un catá­logo de pala­bras que le permi­ten iden­ti­fi­car el discurso ilícito y en base a una serie de grupos de pala­bras, que le permi­ten distin­guir entre discurso grave y menos grave. 

Una primera refle­xión sobre la adop­ción de cual­quier nueva herra­mi­enta de lucha contra los discur­sos tóxi­cos, que pueda tener un impacto en los dere­chos funda­men­ta­les de todas, es la de reivin­di­car trans­pa­ren­cia y consenso social. 

Los algo­rit­mos rastre­a­do­res se están creando para auto­ma­ti­zar la detec­ción de discur­sos, dado que la detec­ción por parte de perso­nas no permite anali­zar la ingente publi­ca­ción de conte­ni­dos. Su imple­men­ta­ción por parte de las gran­des empre­sas se está haci­endo a base de una polí­tica de hechos consu­ma­dos, sigui­endo el crite­rio único de la capa­ci­dad o efici­en­cia técnica de la inte­li­gen­cia arti­fi­cial (AI).

Pero este crite­rio no debe­ría ser el único. Debe­ría darse un debate previo con pers­pec­tiva democrá­tica y social, que tenga en consi­de­ra­ción todas las conse­cu­en­cias indi­vi­du­a­les y colec­ti­vas a corto y largo plazo del uso de esa herra­mi­enta. Y este debate en la actu­a­li­dad es difí­cil, dado que la soci­e­dad en gene­ral y los secto­res soci­a­les que enfren­tan estos discurso, no suelen tener un nivel de cono­ci­mi­ento sufi­ci­ente sobre el funci­o­na­mi­ento de la AI como para posi­ci­o­narse al respecto. 

Una segunda refle­xión versa sobre los impac­tos de esta herra­mi­enta deri­va­dos de la mecá­nica de su funci­o­na­mi­ento y de cómo ha sido confec­ci­o­nada. Los algo­rit­mos de rastreo se entre­nan de acuerdo a un listado o banco de pala­bras. El algo­ritmo aprende a iden­ti­fi­car los discur­sos tóxi­cos en base a esas pala­bras clave y luego, perfec­ci­ona su capa­ci­dad iden­ti­fi­ca­tiva con rela­ci­o­nes de pala­bras y el diálogo entre sí, que le permi­ten esta­ble­cer patro­nes y jerar­quías de grave­dad de los discur­sos.

La problemá­tica de los algo­rit­mos en gene­ral, inclui­dos los de rastreo, es que tienen la capa­ci­dad de ir perfec­ci­o­nando su apren­di­zaje de forma auto­ma­ti­zada, lo que se deno­mina machine lear­ningEsta evolu­ción provoca que, final­mente, la opera­tiva en base a la cual el algo­ritmo va resol­vi­endo las deci­si­o­nes que adopta no pueda ser expli­cada ni tan solo por sus crea­do­res inici­a­les. El hecho de que la crea­ción de algo­rit­mos requi­era impor­tan­tes inver­si­o­nes y que estén suje­tos a patente también difi­culta su poste­rior fisca­li­za­ción

A esta comple­ji­dad técnica inhe­rente a cual­quier algo­ritmo se añade otro elemento espe­ci­al­mente deli­cado y peli­groso en mate­ria de liber­tad de expre­sión. El proce­sa­mi­ento del lenguaje natu­ral es de los campos en los que la AI sigue siendo muy imper­fecta. La tecno­lo­gía se encu­en­tra con la difi­cul­tad de discer­nir el contexto en el que se emite, el tipo o regis­tro de discurso y la inten­ción de los emiso­res. A esta difi­cul­tad prin­ci­pal se añade la de anali­zar el resto de compo­nen­tes del lenguaje y de captar los mati­ces deri­va­dos de la ambi­güe­dad propia de los térmi­nos usados en el mensaje. Como ejem­plo gráfico de la comple­ji­dad de este análi­sis, podría citarse el término “negra­tas”, que podría ser usado tanto en clave deni­gra­to­ria por una cuenta de extrema dere­cha como en clave de reapro­pi­a­ción crítica por una cuenta antir­ra­cista.  

Al hilo de esta consi­de­ra­ción, se enlaza la sigui­ente, la del sesgo de los algo­rit­mos. Los sesgos –bias en inglés– implí­ci­tos en los algo­rit­mos, sean predic­ti­vos, de reco­no­ci­mi­ento facial o de rastreo, han provo­cado nume­ro­sas publi­ca­ci­o­nes inter­na­ci­o­na­les sobre esta grave problemá­tica. El sesgo provi­ene de las pala­bras inclui­das en el listado inicial, de los prin­ci­pios y reglas intro­du­ci­das en el algo­ritmo, y del nivel de super­vi­sión y recti­fi­ca­ción en el proceso de entreno del algo­ritmo. A gran­des rasgos las inves­ti­ga­ci­o­nes concluyen que resulta muy difí­cil evaluar previ­a­mente y recti­fi­car el sesgo gene­rado desde los cimi­en­tos del algo­ritmo. 

En el caso concreto del banco de pala­bras selec­ci­o­nado por el OBERAXE para entre­nar el algo­ritmo, la inclu­sión de algu­nas pala­bras como “nazi”, “boicot” o “fron­tera”, por la poli­va­len­cia de senti­dos y contex­tos en los que se pueden usar, pueden llevar a resul­ta­dos de censura inde­se­a­dos. Pero quizás el ejem­plo más alar­mante sea el de la inclu­sión del término “sionismo” en ese catá­logo. Con ello, el OBERAXE hace suya la polé­mica defi­ni­ción de anti­se­mi­tismo de la Alianza Inter­na­ci­o­nal para el Recu­erdo del Holo­causto (IHRA) que incluye como ejem­plo de anti­se­mi­tismo la crítica a las polí­ti­cas del Gobi­erno de Israel. 

Una tercera refle­xión por anali­zar las conse­cu­en­cias de la mecá­nica opera­tiva del algo­ritmo, el llamado fenó­meno black box o “caja negra”. Se trata de una metá­fora muy gráfica de la pérdida de control sobre la compren­sión y traza­bi­li­dad de la opera­tiva del algo­ritmo que le lleva a la deci­sión final así como a la predic­ción de sus resul­ta­dos. Esta difi­cul­tad de fisca­li­za­ción abre el inter­ro­gante sobre el sistema de respon­sa­bi­li­dad y de rendi­ción de cuen­tas de quie­nes los usen. Algu­nos ejem­plos que han tras­cen­dido nos mues­tran cómo los proce­sos auto­ma­ti­za­dos medi­ante algo­rit­mos, como el de detec­ción de fraude en las pres­ta­ci­o­nes soci­a­les, han llegado a provo­car deci­si­o­nes erró­neas e injus­tas como la dene­ga­ción de pres­ta­ci­o­nes soci­a­les a miles de ciuda­da­nos en Holanda.

El algo­ritmo del OBERAXE es un ensayo piloto en el que su entreno está siendo super­vi­sado por perso­nas. ¿Pero cuál será su impacto cuando se empi­ece a usar? Las expec­ta­ti­vas de éxito en la detec­ción de conte­ni­dos tóxi­cos chocarán con una difi­cul­tad insal­va­ble. Para que la capa­ci­dad masiva de detec­ción del algo­ritmo surti­era efec­tos en la reduc­ción del discurso de inci­ta­ción al odio, debe­ría auto­ri­zarse a que su detec­ción llevara apare­jada su elimi­na­ción automá­tica, algo muy peli­groso en mate­ria de liber­tad de expre­sión y plura­lismo polí­tico. Si por el contra­rio se quiere preser­var la exis­ten­cia de un filtrado de los conte­ni­dos que deben ser elimi­na­dos por un crite­rio humano, nunca habrá sufi­ci­ente perso­nal como para anali­zar en tiempo real los miles de conte­ni­dos detec­ta­dos por el algo­ritmo. 

En el campo de la liber­tad de expre­sión, las empre­sas gesto­ras de las redes soci­a­les llevan años reci­bi­endo críti­cas por la opaci­dad de sus crite­rios de mode­ra­ción de conte­ni­dos, que ni son públi­cos ni respe­tan los están­da­res inter­na­ci­o­na­les sobre qué discur­sos deben ser consi­de­ra­dos ilíci­tos por ser inci­ta­do­res al odio y a la discri­mi­na­ción. El hecho de que sean empre­sas priva­das las que defi­nan qué conte­ni­dos son líci­tos y mere­cen circu­lar, según su parti­cu­lar crite­rio e interés, genera un gran défi­cit democrá­tico de base. La intro­duc­ción de la “censura algo­rít­mica” multi­pli­cará su radio de acción y puede supo­ner la ampli­a­ción expo­nen­cial de ese défi­cit de base. Quie­nes creen algo­rit­mos, los entre­nen y los usen según sus propias pers­pec­ti­vas e inter­e­ses polí­ti­cos y comer­ci­a­les, van a poder inci­dir perma­nen­te­mente en los proce­sos de crea­ción de opinión y de parti­ci­pa­ción polí­tica y no solo en peri­odo elec­to­ral, como ya suce­dió con el escán­dalo de Cambridge Analy­tica.  

Se trata de uno de los desa­fíos contem­porá­neos de mayor calado en el plano ético y regu­la­dor de la respon­sa­bi­li­dad. ¿Cómo podrá saber el usua­rio el “crite­rio” auto­ma­ti­zado en base al cual se ha elimi­nado su conte­nido o le han cerrado la cuenta por reite­ra­ción de conte­ni­dos ilíci­tos? ¿Quién es respon­sa­ble de esta deci­sión, los crea­do­res del algo­ritmo, sus entre­na­do­res, la empresa privada que los usa, la Admi­nis­tra­ción que permite que se vulne­ren dere­chos funda­men­ta­les de la ciuda­da­nía como el de la liber­tad de expre­sión y de parti­ci­pa­ción, por parte de las empre­sas priva­das que gesti­o­nan las redes soci­a­les? ¿En el caso que se judi­ci­a­lice la censura inde­bida de conte­ni­dos, cómo y a quién podrán atri­buir respon­sa­bi­li­da­des y exigir recti­fi­ca­ci­o­nes los Tribu­na­les?

Ante esta reali­dad, tene­mos que asumir que el impacto de la inte­li­gen­cia arti­fi­cial es uno de los mayo­res retos actu­a­les en mate­ria de Dere­chos Huma­nos y que la soci­e­dad civil tene­mos la respon­sa­bi­li­dad de posi­ci­o­nar­nos y gene­rar consen­sos que inter­pe­len el sector privado. Quizás debe­rí­a­mos empe­zar por el inicio y refle­xi­o­nar sobre si el crite­rio de la efici­en­cia tecno­ló­gica, a medio y largo plazo, será el más efec­tivo en térmi­nos democrá­ti­cos y de garan­tía de dere­chos.

 
Laia Serra
28 junio 2021