Inteligencia artificial para controlarnos a todos

Lo que aprende un niño de su entorno no siem­pre es posi­tivo. El apren­di­zaje implica adap­ta­ción al medio, nada más, y a veces se logra con conduc­tas que son perju­di­ci­a­les

Catedrá­tica de psico­lo­gía en la Univer­si­dad de Deusto y autora de ‘Nues­tra mente nos engaña’ (Shack­le­ton Books, 2019)
 

Hace ya unos cuan­tos años, cuando impar­ti­endo una confe­ren­cia se me ocur­rió decir que la inte­li­gen­cia arti­fi­cial (IA) iba a desar­ro­llar sesgos, como las perso­nas, recibí no pocas críti­cas, y fueron varios los inge­ni­e­ros que me escri­bi­e­ron explicán­dome que no, que la inte­li­gen­cia arti­fi­cial solo hace aque­llo que los progra­ma­do­res huma­nos hayan progra­mado en su inte­rior; por tanto, si hay sesgos, no se puede decir que sean inhe­ren­tes a la máquina, sino que serán erro­res de progra­ma­ción, y por tanto solu­ci­o­na­bles vía progra­ma­ción, decían. Pero hubo también muchos inge­ni­e­ros que se mostra­ron preo­cu­pa­dos ya enton­ces por esta posi­bi­li­dad. La cues­tión es que no habla­mos de los anti­guos siste­mas exper­tos y las máqui­nas que hacen lo que se les ha progra­mado para hacer, sino de las máqui­nas que apren­den y que hacen lo que han apren­dido a hacer. Hoy sabe­mos que hay muchas IAs en redes soci­a­les y en empre­sas de selec­ción de perso­nal, incluso en juzga­dos, que son sexis­tas, racis­tas, etc. Apren­den lo que ven.

 

La cues­tión es que cuando deci­mos que una máquina aprende, esto signi­fica que se adapta, cambia, evolu­ci­ona. Sale de fábrica con una progra­ma­ción que le permite adap­tarse a los cambios del entorno, y esto signi­fica nece­sa­ri­a­mente que a veces habrá mejo­ría, y a veces lo contra­rio. Lo mismo que sucede con las perso­nas cuando apren­de­mos y nos adap­ta­mos al entorno. A veces las malas compañías hacen que apren­da­mos cosas malas.

Lo que aprende un niño de su entorno no siem­pre es posi­tivo. El apren­di­zaje implica adap­ta­ción al medio, nada más, y a veces se logra con conduc­tas que son perju­di­ci­a­les. Si lo pien­san un poco, mejo­rar y empe­o­rar son térmi­nos rela­ti­vos que depen­den de cuál sea la vara de medir que utili­ce­mos. Lo único que hace­mos las inte­li­gen­cias natu­ra­les (huma­nas y anima­les), y ahora también las arti­fi­ci­a­les, es adap­tar­nos: tratar de reali­zar con más frecu­en­cia aque­llas conduc­tas que el entorno nos premia, y con menos frecu­en­cia las que no nos premia. Eso es todo.

Por tanto, pense­mos ahora, ¿cómo apren­derá una IA a vivir en un mundo como el nues­tro? ¿Qué compor­ta­mi­en­tos apren­derá? ¿Qué tipo de sesgos y prejui­cios desar­ro­llará? Eviden­te­mente, el tipo de compor­ta­mi­ento que esa IA va a ir apren­di­endo no es en prin­ci­pio ni bueno ni malo; va a depen­der de aque­llas conduc­tas que su entorno le premie. Tendrá unos obje­ti­vos prefi­ja­dos que los habrán marcado sus progra­ma­do­res (normal­mente del estilo de «maxi­miza el bene­fi­cio de la empresa X»). Si una conducta resulta recom­pen­sada con altos bene­fi­cios para la empresa, tenderá a repe­tirse, sea cual sea, y dañe a quien dañe, eso es lo de menos si cumple su obje­tivo. Por tanto, si sus obje­ti­vos coin­ci­den con los nues­tros, genial. Si no coin­ci­den, tene­mos un problema. Sere­mos pequeñas hormi­gui­tas a las que la máquina no tiene por qué pres­tar aten­ción mien­tras trabaja por conse­guir sus metas. Puede hacer­nos daño.

Por ejem­plo, cada vez que una IA de las que andan suel­tas por las redes soci­a­les inter­ac­ci­ona con noso­tros, esta­mos premi­ando o casti­gando, a menudo sin ser cons­ci­en­tes de ello, las estra­te­gias que pone a prueba para alcan­zar sus obje­ti­vos. ¿Que nos manda un tuit que no nos hace reac­ci­o­nar? No pasa nada, nos mandará otro un poco más exage­rado a ver si este sí lo retui­te­a­mos. Y así, poco a poco van apren­di­endo qué cosas nos hacen reac­ci­o­nar y cuáles no, cuáles nos hacen reac­ci­o­nar con ira, incluso con odio en las redes. El obje­tivo es que compar­ta­mos la infor­ma­ción, que la haga­mos viral, y que lleve­mos a más gente a hacer click en su web, eso maxi­miza sus bene­fi­cios, luego lo que ocurra a los que este­mos en medio poco importa. ¿Que aumenta el odio y el popu­lismo en las redes? ¿Y?

Lo más grave es que expe­ri­men­tan a diario con todos noso­tros, nos roban millo­nes de datos muy priva­dos, de perso­na­li­dad, emoci­o­na­li­dad, rela­ción social, tiem­pos de respu­es­tas, pausas… Estos datos les propor­ci­o­nan un poder inmenso, y apren­den qué boto­nes presi­o­nar en cada uno de noso­tros para que reac­ci­o­ne­mos de la manera más intensa posi­ble, siem­pre en bene­fi­cio de su empresa.

No pode­mos prote­ger­nos indi­vi­du­al­mente de esto. Es dema­si­ado costoso, por ejem­plo, cuando nave­ga­mos por la red, evitar que las webs implan­ten sus cookies en nues­tro móvil y que sus IAs vayan apren­di­endo de noso­tros y puedan saber y prede­cir en todo momento qué produc­tos nos gustan para poder vendér­nos­los antes de que pense­mos siqui­era en ellos. Esto permite a estas empre­sas adelan­tarse a nues­tros deseos y tener siem­pre listo lo que vamos a encar­gar­les, lo cual es una inno­va­ción muy venta­josa para ellas, que no tienen que produ­cir ni distri­buir aque­llo que no vamos a pedir­les. Saben cuánto esta­mos dispu­es­tos a pagar por esos artí­cu­los que no sabe­mos que dese­a­mos pero que acaba­re­mos pidi­endo, y pueden incluso cambi­ar­nos el precio a cada uno, cada día. Y da lo mismo también si se trata de vender­nos una lava­dora o un presi­dente: saben qué mensa­jes publi­ci­ta­rios acti­varán qué teclas en cada uno. Hay que cambiar las leyes y endu­re­cer las sanci­o­nes.

Y sí, yo lo llamo robar datos e infor­ma­ción porque no tienen nues­tro consen­ti­mi­ento infor­mado para hacer los expe­ri­men­tos psico­ló­gi­cos que hacen con noso­tros. De eso sabe­mos un poco en las facul­ta­des de psico­lo­gía de las univer­si­da­des de todo el mundo porque noso­tros hace­mos también expe­ri­men­tos psico­ló­gi­cos con huma­nos hace muchos años. La dife­ren­cia está en que siem­pre hemos tenido unas normas éticas muy claras que debe­mos cumplir a raja­ta­bla. Las empre­sas tecno­ló­gi­cas multi­mi­llo­na­rias, en cambio, actúan como si no exis­ti­era la ética de la inves­ti­ga­ción. No piden los datos a los usua­rios, ni les infor­man, se los roban y punto. Cuando nos infor­man, lo hacen en docu­men­tos largos e inin­te­li­gi­bles que está más que demos­trado que es impo­si­ble que leamos. Y hacen expe­ri­men­tos sobre perso­na­li­dad y reac­ci­o­nes emoci­o­na­les que no son solo ya cues­tión de robo de datos, sino de mani­pu­la­ción de perso­nas, lo cual es mucho más grave.