Lo que aprende un niño de su entorno no siempre es positivo. El aprendizaje implica adaptación al medio, nada más, y a veces se logra con conductas que son perjudiciales
Hace ya unos cuantos años, cuando impartiendo una conferencia se me ocurrió decir que la inteligencia artificial (IA) iba a desarrollar sesgos, como las personas, recibí no pocas críticas, y fueron varios los ingenieros que me escribieron explicándome que no, que la inteligencia artificial solo hace aquello que los programadores humanos hayan programado en su interior; por tanto, si hay sesgos, no se puede decir que sean inherentes a la máquina, sino que serán errores de programación, y por tanto solucionables vía programación, decían. Pero hubo también muchos ingenieros que se mostraron preocupados ya entonces por esta posibilidad. La cuestión es que no hablamos de los antiguos sistemas expertos y las máquinas que hacen lo que se les ha programado para hacer, sino de las máquinas que aprenden y que hacen lo que han aprendido a hacer. Hoy sabemos que hay muchas IAs en redes sociales y en empresas de selección de personal, incluso en juzgados, que son sexistas, racistas, etc. Aprenden lo que ven.
La cuestión es que cuando decimos que una máquina aprende, esto significa que se adapta, cambia, evoluciona. Sale de fábrica con una programación que le permite adaptarse a los cambios del entorno, y esto significa necesariamente que a veces habrá mejoría, y a veces lo contrario. Lo mismo que sucede con las personas cuando aprendemos y nos adaptamos al entorno. A veces las malas compañías hacen que aprendamos cosas malas.
Lo que aprende un niño de su entorno no siempre es positivo. El aprendizaje implica adaptación al medio, nada más, y a veces se logra con conductas que son perjudiciales. Si lo piensan un poco, mejorar y empeorar son términos relativos que dependen de cuál sea la vara de medir que utilicemos. Lo único que hacemos las inteligencias naturales (humanas y animales), y ahora también las artificiales, es adaptarnos: tratar de realizar con más frecuencia aquellas conductas que el entorno nos premia, y con menos frecuencia las que no nos premia. Eso es todo.
Por tanto, pensemos ahora, ¿cómo aprenderá una IA a vivir en un mundo como el nuestro? ¿Qué comportamientos aprenderá? ¿Qué tipo de sesgos y prejuicios desarrollará? Evidentemente, el tipo de comportamiento que esa IA va a ir aprendiendo no es en principio ni bueno ni malo; va a depender de aquellas conductas que su entorno le premie. Tendrá unos objetivos prefijados que los habrán marcado sus programadores (normalmente del estilo de "maximiza el beneficio de la empresa X"). Si una conducta resulta recompensada con altos beneficios para la empresa, tenderá a repetirse, sea cual sea, y dañe a quien dañe, eso es lo de menos si cumple su objetivo. Por tanto, si sus objetivos coinciden con los nuestros, genial. Si no coinciden, tenemos un problema. Seremos pequeñas hormiguitas a las que la máquina no tiene por qué prestar atención mientras trabaja por conseguir sus metas. Puede hacernos daño.
Por ejemplo, cada vez que una IA de las que andan sueltas por las redes sociales interacciona con nosotros, estamos premiando o castigando, a menudo sin ser conscientes de ello, las estrategias que pone a prueba para alcanzar sus objetivos. ¿Que nos manda un tuit que no nos hace reaccionar? No pasa nada, nos mandará otro un poco más exagerado a ver si este sí lo retuiteamos. Y así, poco a poco van aprendiendo qué cosas nos hacen reaccionar y cuáles no, cuáles nos hacen reaccionar con ira, incluso con odio en las redes. El objetivo es que compartamos la información, que la hagamos viral, y que llevemos a más gente a hacer click en su web, eso maximiza sus beneficios, luego lo que ocurra a los que estemos en medio poco importa. ¿Que aumenta el odio y el populismo en las redes? ¿Y?
Lo más grave es que experimentan a diario con todos nosotros, nos roban millones de datos muy privados, de personalidad, emocionalidad, relación social, tiempos de respuestas, pausas… Estos datos les proporcionan un poder inmenso, y aprenden qué botones presionar en cada uno de nosotros para que reaccionemos de la manera más intensa posible, siempre en beneficio de su empresa.
No podemos protegernos individualmente de esto. Es demasiado costoso, por ejemplo, cuando navegamos por la red, evitar que las webs implanten sus cookies en nuestro móvil y que sus IAs vayan aprendiendo de nosotros y puedan saber y predecir en todo momento qué productos nos gustan para poder vendérnoslos antes de que pensemos siquiera en ellos. Esto permite a estas empresas adelantarse a nuestros deseos y tener siempre listo lo que vamos a encargarles, lo cual es una innovación muy ventajosa para ellas, que no tienen que producir ni distribuir aquello que no vamos a pedirles. Saben cuánto estamos dispuestos a pagar por esos artículos que no sabemos que deseamos pero que acabaremos pidiendo, y pueden incluso cambiarnos el precio a cada uno, cada día. Y da lo mismo también si se trata de vendernos una lavadora o un presidente: saben qué mensajes publicitarios activarán qué teclas en cada uno. Hay que cambiar las leyes y endurecer las sanciones.
Y sí, yo lo llamo robar datos e información porque no tienen nuestro consentimiento informado para hacer los experimentos psicológicos que hacen con nosotros. De eso sabemos un poco en las facultades de psicología de las universidades de todo el mundo porque nosotros hacemos también experimentos psicológicos con humanos hace muchos años. La diferencia está en que siempre hemos tenido unas normas éticas muy claras que debemos cumplir a rajatabla. Las empresas tecnológicas multimillonarias, en cambio, actúan como si no existiera la ética de la investigación. No piden los datos a los usuarios, ni les informan, se los roban y punto. Cuando nos informan, lo hacen en documentos largos e ininteligibles que está más que demostrado que es imposible que leamos. Y hacen experimentos sobre personalidad y reacciones emocionales que no son solo ya cuestión de robo de datos, sino de manipulación de personas, lo cual es mucho más grave.