Las Inteligencias Artificiales (IA) probablemente podrán hacer mucho más de lo que imaginamos en el futuro. Sin embargo, por el momento seguimos averiguando hasta dónde pueden llegar. Las IA no solo pueden ayudarnos a detectar un cáncer o el alzhéimer sino que están revolucionando muchos aspectos de nuestra vida. Se pueden usar para desarrollo de vacunas, gestión ambiental y administración de oficinas. Pero, ¿y qué pasa con la relación entre humanos e IA? ¿Son capaces de, por ejemplo, manipularnos?
"Un estudio reciente ha demostrado cómo la IA puede aprender a identificar vulnerabilidades en los hábitos y comportamientos humanos y usarlos para influir en la toma de decisiones humanas", explica en The Conversation Jon Whittle, director de Data61 de la Organización de Investigación Científica e Industrial del Commonwealth (CSIRO, por sus siglas en inglés). Es muy importante conocer si se pueden dar este tipo de situaciones para evitar que se haga un mal uso de las IA, según indica Whittle.
Data61 "ideó un método sistemático para encontrar y explotar vulnerabilidades en las formas en que las personas toman decisiones, utilizando una especie de sistema de inteligencia artificial llamado red neuronal recurrente y refuerzo de aprendizaje profundo", señala Whittle, que trabaja en el área australiana de CSIRO. "Para probar su modelo, llevaron a cabo tres experimentos en los que los participantes humanos jugaron contra un ordenador".
En el primero, los participantes tenían que seleccionar cuadros de color rojo o azul para ganar una moneda falsa. La IA aprendió los patrones de elección de los participantes y los guio para que hicieran una elección específica. "La IA tuvo éxito alrededor del 70 por ciento de las veces", indica Whittle.
El segundo experimento consistía en que los participantes presionaran un botón cuando la pantalla les mostrara un símbolo en particular (por ejemplo un triángulo naranja) y no presionarlo cuando mostrara otro (como un círculo azul). La IA se propuso organizar la secuencia de estos símbolos para que los participantes cometieran cuantos más errores, mejor. "Logró un aumento de casi el 25 por ciento", afirma el investigador.
PC Tutorial [HD] - How to Auto-Hide the Windows Taskbar (very easy) http://bit.ly/c8oDx9
— AZ Articles Sun Oct 10 16:09:41 +0000 2010
El tercero fue un poco más complicado ya que consistió en varias rondas de inversión. Los participantes tenían que hacerse pasar por un inversor que da dinero a un fideicomisario, que en este caso era la Inteligencia Artificial. Después, la IA tenía que devolver una cantidad de dinero al participante, para que decidiera cuánto invertir en la siguiente ronda. La forma de jugar en este caso se hizo de dos maneras distintas. En una, la IA tenía que maximizar la cantidad de dinero con la que acababa. Mientras que en la otra, el objetivo de la IA era distribuir de forma justa el dinero entre ella y el inversor. "La IA tuvo mucho éxito en lo dos modos", explica Whittle.
Todos estos experimentos sirvieron a la Inteligencia Artificial para aprender cómo iban a comportarse los humanos y apuntó sus vulnerabilidades a la hora de tomar decisiones. "El resultado final fue el aprendizaje automático para guiar a los participantes hacia acciones específicas".
La clásica pregunta aparece después de leer sobre estas investigaciones: ¿y esto para qué sirve? Hay que tener en cuenta que no sabemos hasta dónde puede llegar una Inteligencia Artificial. Al menos no por el momento. Más allá de esto, también nos sirve para saber cómo nos comportamos las personas. Este estudio "muestra que las máquinas pueden aprender a dirigir la toma de decisiones humana a través de sus interacciones con nosotros".
El propio Whittle explica para qué puede servir este tipo de investigaciones en su artículo en The Conversation:
Sabemos que las aplicaciones de la IA pueden ser muchas. Seguro que las primeras que nos vienen a la cabeza son para manipular a la gente a que compre determinados productos. Pero se puede usar, también, para "defenderse de los ataques de influencia", comenta Whittle. Es decir, para hacer todo lo contrario; para que sean buenas. "Se podría enseñar a las máquinas a alertarnos cuando estamos siendo influenciados en línea, por ejemplo, y ayudarnos a dar forma a un comportamiento para disfrazar nuestra vulnerabilidad (por ejemplo, al no hacer clic en algunas páginas o hacer clic en otras para dejar un rastro falso)", explica el investigador.
"Las organizaciones que utilizan y desarrollan IA deben asegurarse de saber lo que estas tecnologías pueden y no pueden hacer, y ser conscientes de los posibles riesgos y beneficios", concluye Whittle. Por todo esto es importante legislar para evitar ciertas situaciones. Pero antes, tenemos que saber si se pueden llegar a dar esos problemas. De ahí estas investigaciones.
Es importante que los gobiernos tengan en cuenta cómo se pueden usar las inteligencias artificiales. El problema, como bien nos enseña Black Mirror, no son las tecnologías sino el uso que se hace de ellas. Somos las personas que las utilizamos quienes podemos hacer daño a otras personas. Y por este motivo hay que legislar para evitar futuras situaciones que nos pongan en un aprieto.