En los últimos años, los algoritmos y la robótica se han instalado en nuestro día a día, hasta tal punto de que hay aplicaciones informáticas que toman decisiones sobre nosotros sin que seamos conscientes de ello y otras que se usan para controlar aspectos de nuestra vida. Lo vemos en sistemas de reconocimiento facial para vigilar espacios e identificar personas, por ejemplo.
El punto en común que tienen estas tecnologías es que actúan y deciden de forma automatizada, a veces sin supervisión humana, de ahí que haya que poner límites sobre lo que pueden hacer y lo que no. Una aplicación desregulada de las tecnologías basadas en inteligencia artificial (IA) podría hacer que tanto empresas como gobiernos antepongan sus intereses al aspecto ético, que garantiza el respeto a los derechos de la ciudadanía, su privacidad o su presunción de inocencia.
Para abordar todas estas cuestiones, la Unión Europea (UE) ha presentado ya una propuesta de reglamento que tendrán que seguir todos los países miembros. En él pone límites a algunas aplicaciones de este tecnología pero también hace excepciones. En la Maldita Twitchería hemos analizado con especialistas en este campo lo que dice el reglamento y respondemos a esta gran pregunta: ¿por qué hace falta regular la inteligencia artificial? *
Algunos ejemplos recientes ponen de manifiesto que esta regulación es cada vez más importante: "En Estados Unidos se está despidiendo a docentes en base a decisiones algorítmicas. En Gran Bretaña, en el servicio de Correos, un algoritmo antifraude identificó erróneamente a un montón de carteros que no solo perdieron su trabajo sino que fueron acusados de robar. Se demostró que el algoritmo funcionaba fatal. Se les condenó por robo. Impactos muy importantes a nivel de garantías", señala Gemma Galdón, directora de Eticas Consulting y Eticas Foundation y auditora de algoritmos.
Al final, los algoritmos son comandos informáticos que las empresas patentan y en eso se escudan para no aclarar su funcionamiento: alegando que hacerlo perjudicaría a sus intereses económicos. Para Galdón, en Europa hay una "opacidad total" a la hora de conocer el alcance real de los algoritmos. La normativa que se ha presentado busca precisamente hacer los procesos algorítmicos más transparentes y evitar que se produzcan discriminaciones entre colectivos concretos de la población.
La primera propuesta para una regulación a gran escala de la IA ha venido de la mano de la Unión Europea, pero lo cierto es que en otras regiones del mundo se utilizan tecnologías automatizadas para controlar y vigilar a la ciudadanía. El eurodiputado socialista Ibán García del Blanco, encargado de liderar la propuesta del Parlamento Europeo para una regulación ética de la IA, explica que lo que quiere la UE es que esta norma sirva para marcar líneas rojas a nivel global.
"Hay que tener en cuenta la vertiente internacional, ya que tendremos que ponernos de acuerdo con el resto del mundo sobre los aspectos básicos. No somos superpotencia al uso, con ejércitos muy poderosos ni posturas unánimes pero somos una potencia regulatoria que muchas veces arrastra al resto del mundo. Lo que nosotros hagamos es posible que sea la norma general en el futuro, porque si quieres operar en el mercado común tendrás que cumplir ciertas normas", explicó el eurodiputado.
Una vez que el Parlamento y la Comisión europeos hayan presentado sus posturas finales, el baile de negociaciones continúa con la entrada del Consejo Europeo, del que forman parte los líderes políticos de los países miembros. Este debate entre las tres principales instituciones de la UE, conocido como trílogo, se extenderá durante los próximos meses para negociar punto por punto el texto final. García del Blanco espera que el texto pueda ver la luz "a finales de este mismo año".
En la propuesta de la Comisión, se habla de manera directa de “prácticas prohibidas” de IA. Algunos ejemplos: sistemas que utilicen “técnicas subliminales” que influyan en las decisiones de las personas, la explotación de “vulnerabilidades” de colectivos y la puesta en marcha por parte de Gobiernos de sistemas de valoración social de sus ciudadanos.
En Maldita.es ya os hablamos sobre la carta firmada por setenta académicos, profesionales y activistas que reclamaron al Gobierno español el freno inmediato de las herramientas de reconocimiento facial (que utilizan IA para identificar a personas en espacios públicos y privados) hasta la regularización de las mismas. Esta regulación prohibe este tipo de sistemas, a no ser que estén justificados por un tema de seguridad. ¿Por ejemplo? Para detectar posibles atentados terroristas.
La cuestión es, según Ana Valdivia, investigadora de inteligencia artificial en procesos migratorios en King's College London, que hasta la fecha no hay constancia de que un programa de este tipo haya identificado a un terrorista. "Esto es una regulación con consecuencias políticas. Estamos investigando qué empresas privadas están desarrollando esos algoritmos y cuánto dinero les está dando la UE. También qué tipo de métrica y de precisión tienen", resume.
¿A quién afectan en mayor medida este tipo de sistemas de vigilancia? Valdivia hace hincapié en las personas migrantes. Según la experta, el Convenio de Dublín, que regula las peticiones de asilo de las personas que llegan a la costa mediterránea de la UE, utiliza algoritmos para registrar su huella dactilar, controlar su paso por el territorio europeo y facilitar las deportaciones. El problema de estas decisiones tomadas por la inteligencia artificial es que, muchas veces, "lo que dice el algoritmo va a misa, no se le puede contestar".
Con la llegada de la 'ley Rider' se ha abierto la puerta a que los trabajadores conozcan con mayor profundidad los algoritmos que influyen y toman decisiones relacionadas con su puesto de trabajo. De este punto y de cómo España se ha convertido en pionera aprobando este tipo de legislación hablamos con el abogado laboralista Íñigo Molina, que nos explicó que esta nueva norma es "un paso adelante" ya que ayudará a "fiscalizar" unos parámetros que hasta ahora eran totalmente opacos para los trabajadores.
Molina considera que la entrada en vigor de esta modificación del Estatuto de los Trabajadores hace que los sindicatos puedan tener acceso a los parámetros de estos algoritmos "antes de que haya una decisión" que la empresa tenga que justificar, como puede ser un despido. "Ahora los trabajadores se puede preparar para ello y esto es importante puesto que los algoritmos tienen sesgos que pueden afectarles directamente", añade.
Helena Matute y Ujue Agudo son investigadoras en psicología e inteligencia artificial y cómo influyen los sesgos en las personas, sobre todo los relacionados con la tecnología. Elaboraron un estudio en el que demostraron que las personas tendemos a confiar en las recomendaciones que nos hace un sistema informático cuando hablamos de dos casos muy concretos: la elección de pareja (o de un ligue) y de candidato político.
"Tenemos que hacer ese estudio desde el algoritmo, a ver cómo podemos hacer mejores algoritmos, que sean lo más eficaces posibles, cómo podemos comprobar que realmente están funcionando bien, que no entren en ese loop de feedback que se retroalimente inadecuadamente", señalan. "Les estamos dando una autoridad, entendiendo de ellos que son máquinas neutrales, muy eficientes y efectivas y por eso mismo estamos confiando en ellos".
* Hemos actualizado esta pieza para aclarar que no es un reglamento ya aprobado y en vigor, sino que puede introducir cambios en las fases de negociación.
Primerafechadepublicacióndeesteartículo: 17/05/2021