Ronaldo, Messi y los algoritmos adversarios

Hace unas semanas, Cristiano Ronaldo aseguraba que la competencia con Messi le había hecho ser mejor jugador, y que él había hecho ser mejor jugador a Messi. Su rivalidad había ayudado a ambos a marcar una época en la historia del fútbol. Esa misma rivalidad ha llevado a Nadal, Federer y Djokovic a romper los registros de todos los tenistas que les precedieron. ¿Qué tiene que ver la rivalidad de Cristiano y Messi o la de Nadal y Federer con los algoritmos?

La competencia, bien entendida, es capaz de sacar lo mejor de cada uno. Esto lo entendió un joven investigador de la Universidad de Montreal llamado Ian Goodfellow hace cinco años. Propuso un método de aprendizaje automático basado en la competencia entre dos algoritmos en un juego de suma cero. En este juego, las ganancias o pérdidas de un algoritmo se equilibran con las ganancias y pérdidas del otro.

Un algoritmo es un conjunto de instrucciones desarrollado para ejecutar una determinada tarea. Los algoritmos no entienden de cansancio o de excusas. Un algoritmo no se rinde y son capaces de hacer millones de repeticiones hasta encontrar una solución. Bajo estas premisas, Goodfellow desarrolló una novedosa metodología de aprendizaje que ha revolucionado la inteligencia artificial en estos últimos cinco años. Si juntamos dos algoritmos compitiendo entre sí, y se diseña esa competencia de forma “sana”, las posibilidades son infinitas.

Conocidas como Redes Generativas Antagónicas o Adversarias (del inglés Generative Adversarial Networks), han supuesto un avance disruptivo en campos como la generación de información, la edición de imágenes y audio, la seguridad y la ética en la inteligencia artificial.

Para hacerse una idea del impacto de Goodfellow y su metodología no hay más que ver en número de veces que su trabajo ha sido citado por otros investigadores en los últimos cuatro años. En apenas 4 años ha conseguido más de 60 mil citas. Algo que a investigadores muy reputados les ha llevado toda una vida. Las Redes Adversarias tienen múltiples aplicaciones que incluyen la creación de contenido digital, la detección de Fakes News (DeepFake), o el desarrollo de una inteligencia artificial más ética, entre otras muchas.

Ronaldo, Messi y los algoritmos adversarios

¿Quién vigila a los vigilantes? Usando Redes adversarias para introducir ética en la Inteligencia Artificial

Hace 23 años el escritor Alan Moore planteó esta pregunta en su comic Watchmen. Partiendo de esta idea y de las posibilidades que ofrecen las Redes Adversarias de Goodfellow, en la Universidad Autónoma de Madrid (UAM) se ha desarrollado un método que permite eliminar ciertos factores sensibles (e.j. género, etnia, edad) de la toma de decisión de un algoritmo.

El método, denominado SensitiveNets o Redes Sensibles, ha sido probado en tecnologías de reconocimiento facial. Se ha demostrado que estas tecnologías son sensibles a los sesgos humanos y su rendimiento se ve condicionado por factores demográficos como el género, la edad o la etnia.

Esto quiere decir que nuestro color de piel, edad o género pueden llegar a determinar el resultado de una búsqueda basada en estas tecnologías. Investigadores de diferentes instituciones de renombre (MIT, Maryland University, University of Notre Dame) han demostrado que existen grupos demográficos que reciben un trato discriminatorio por parte de estas inteligencias artificiales.

En otras palabras, los sistemas se equivocan más en personas pertenecientes a grupos desfavorecidos. Este trato no hace más que agrandar la brecha en una sociedad ya muy desigual. La tecnología desarrollada por la UAM se basa en el uso de dos algoritmos enfrentados entre sí como hemos comentado antes.

El primero es un algoritmo de reconocimiento facial tradicional (El Vigilante) basado en el popular aprendizaje profundo. El segundo es un detector de información sensible (El que vigila al Vigilante). El aprendizaje del primero le llevará a entrenarse para reconocer caras y a su vez no permitir que el segundo sea capaz de detectar la información sensible en el proceso (e.j. género, etnia, edad).

El segundo algoritmo tiene como objetivo buscar cualquier rastro de esa información sensible en la decisión del primero, en una especie de juego del gato y el ratón. Ambos algoritmos se entrenan con una nueva base de datos de 24 mil identidades que permite realizar más de 100 billones de posibles iteraciones.

Al final de un proceso de aprendizaje que no lleva más de dos horas, se consigue una inteligencia artificial en la que la información sensible ha sido eliminada del proceso de toma de decisión. Esta tecnología se puede aplicar múltiples campos como el ya mencionado reconocimiento facial, pero también en algoritmos de análisis automático de curriculum vitae, algoritmos de scoring crediticioo cualquier otro sistema de aprendizaje automático expuesto a sesgos humanos.

Para entender la dificultad de la tarea, hay que tener en cuenta que la información sensible se puede extraer de múltiples fuentes. Recientemente se ha publicado que el algoritmo de crédito de Apple concede mayores créditos a hombres que mujeres incluso cuando ambos tienen ingresos similares. Apple se defiende argumentando que no utilizan el género como entrada en su sistema.

Pero esto no quiere decir que el algoritmo no pueda detectarlo a través de información tan sencilla como los establecimientos y hábitos de compra. Se hace necesario por tanto vigilar estos algoritmos no estén detectando la información sensible (género) y teniéndola en cuenta en su proceso de toma de decisión venga de donde venga.

Aythami Morales Moreno es miembro del Grupo de investigación BiDA-Lab y profesor contratado doctor en el Departamento deElectrónica y de las Comunicaciones de la Universidad Autónoma de Madrid