CAMBRIDGE – Un anciano estadista, un exejecutivo de una megatecnológica y un experto en informática se encuentran en un bar. ¿De qué hablan? De inteligencia artificial, por supuesto, porque todo el mundo está hablando de eso (o a eso, llámese Alexa, Siri o como sea). No hay que esperar un futuro de ciencia ficción; la era de la IA ya llegó. El aprendizaje automático, en particular, está teniendo un fuerte impacto en nuestras vidas y también afectará en gran medida nuestro futuro.
Ese es el mensaje de este nuevo y fascinante libro del ex secretario de Estado de los Estados Unidos Henry A. Kissinger, el ex director ejecutivo de Google Eric Schmidt y el decano del MIT Daniel Huttenlocher. Que trae una advertencia: la IA pondrá en duda la primacía de la razón humana, que ha existido desde los albores de la Ilustración.
¿Pueden pensar las máquinas? ¿Son inteligentes? ¿Y qué significan esos términos? En 1950, el famoso matemático británico Alan Turing propuso evitar esos arduos dilemas filosóficos y usar como criterio de evaluación el desempeño: si la actuación de una máquina nos resulta indistinguible de la de un ser humano, hay que catalogarla como «inteligente». Los programas de computación antiguos producían en general soluciones rígidas y estáticas, que no pasaban esta «prueba de Turing», y el campo de la IA estuvo estancado durante toda la década de los ochenta.
Pero en los noventa se produjo un avance revolucionario, al aplicarse una nueva modalidad basada en dejar a las máquinas aprender por sí mismas, en vez de actuar guiadas por programas con los que se buscaba codificar el entendimiento humano. A diferencia de los algoritmos clásicos, que contienen instrucciones para generar resultados precisos, los algoritmos de aprendizaje automático contienen instrucciones para mejorar resultados imprecisos. Así nació el moderno campo del aprendizaje automático: programas capaces de aprender por medio de la experiencia.
Al principio, la técnica de apilar capas de algoritmos de aprendizaje automático en redes neurales (inspiradas por la estructura del cerebro humano) se vio limitada por la falta de poder de cómputo. Pero eso cambió en los últimos años. En 2017, AlphaZero (un programa de IA desarrollado por DeepMind, una subsidiaria de Google) derrotó a Stockfish, el mejor programa de ajedrez del mundo. El hecho destacable no es que un programa le haya ganado a otro, sino que se enseñó a sí mismo cómo hacerlo. Sus creadores le dieron las reglas del ajedrez e instrucciones para que buscara una estrategia ganadora. Tras solo cuatro horas de aprender jugando contra sí mismo, AlphaZero se convirtió en campeón mundial de ajedrez al derrotar a Stockfish veintiocho veces sin perder un solo partido (hubo 72 empates).
Al jugar, AlphaZero utiliza su capacidad para reconocer patrones en vastos conjuntos de posibilidades que para la mente humana es imposible percibir, procesar o emplear. Desde entonces, métodos de aprendizaje automático similares han permitido a la IA no solo derrotar a expertos en ajedrez humanos sino descubrir estrategias ajedrecísticas totalmente nuevas. Como señalan los autores, con esto la IA trasciende la prueba de Turing: ya no se trata solo de un desempeño que no se pueda distinguir de la inteligencia humana, sino de un desempeño que supera a los humanos.
Existen además redes neurales generativas, que tienen la capacidad de crear imágenes o textos nuevos. Los autores mencionan a GPT‑3, de OpenAI, como una de las IA generativas más notables de la actualidad. En 2019, la empresa desarrolló un modelo lingüístico que se entrena a sí mismo consumiendo textos disponibles en Internet, y que, a partir de unas pocas palabras y la detección de patrones en elementos secuenciales, puede extrapolar oraciones y párrafos. El sistema es capaz de componer textos nuevos y originales que pasan la prueba de Turing: mostrar una conducta inteligente que no se pueda distinguir de la de un ser humano.
Tuve una experiencia personal de sus capacidades: le di al programa unas pocas palabras, y tras una búsqueda en Internet, redactó en menos de un minuto una noticia falsa creíble en relación conmigo. Por supuesto que era un invento, pero mi caso no tiene importancia. ¿Y si fuera una noticia sobre un líder político en medio de una elección crucial? ¿Qué futuro le aguarda a la democracia si unos días antes de una votación cualquier usuario de Internet puede lanzar bots generativos a inundar el discurso político?
Ya bastante tiene la democracia con el problema de la polarización política, a cuyo empeoramiento contribuyen los algoritmos de las redes sociales que procuran obtener «clics» (e ingresos publicitarios) presentando a los usuarios ideas cada vez más extremas para tenerlos «enganchados» al sitio. El problema de las noticias falsas no es nuevo, pero lo que sin duda es nuevo es su amplificación rápida, barata y a gran escala mediante algoritmos de IA. Que haya derecho a la libre expresión no implica derecho a la libre amplificación.
Los autores consideran que estos temas fundamentales comienzan a adquirir relevancia cuando plataformas de redes globales como Google, Twitter y Facebook están usando la IA para reunir y filtrar volúmenes de información que para sus usuarios serían imposibles de procesar. Pero estos métodos de filtrado conducen a una segregación de los usuarios, al crear cámaras de resonancia sociales que fomentan desacuerdos entre diversos grupos. Lo que una persona considera una descripción exacta de la realidad se vuelve muy diferente de la realidad que ven otras personas o grupos, y eso refuerza y profundiza la polarización. Cada vez más, la IA decide lo que es importante y lo que es verdadero; y los resultados no presagian nada bueno para la salud de la democracia.
Por supuesto que la IA también tiene muchos beneficios potenciales para la humanidad. Un algoritmo de IA puede dar una interpretación más fiable de los resultados de una mamografía que un técnico humano. (Esto plantea un interesante problema a médicos que decidan no seguir la recomendación de la máquina: ¿se exponen a juicios por mala praxis?)
Los autores citan el caso de la halicina, un nuevo antibiótico descubierto en 2020 gracias a una investigación del MIT en la que usando IA fue posible crear en unos pocos días modelos de millones de compuestos (una tarea fuera del alcance de los seres humanos) para explorar métodos bactericidas todavía no descubiertos ni explicados. Los investigadores señalaron que descubrir la halicina sin IA, con métodos de experimentación tradicionales, hubiera sido demasiado caro o imposible. Como observan los autores, el potencial de la IA es enorme: traducir idiomas, detectar enfermedades y crear modelos del cambio climático son solo algunos ejemplos de su posible campo de acción.
El libro no habla mucho sobre el fantasma de la IAG (la inteligencia artificial general), es decir, software capaz de realizar cualquier actividad intelectual, incluso relacionar tareas y conceptos en forma interdisciplinaria. Cualquiera sea el futuro a largo plazo de la IAG, ya bastantes problemas tenemos con la IA generativa basada en aprendizaje automático que ya existe. Esta puede extraer conclusiones, ofrecer pronósticos y tomar decisiones, pero no tiene conciencia de sí, ni puede pensar acerca de su lugar en el mundo. No tiene intencionalidad, motivación, moralidad o emociones. Es decir, no es el equivalente de un ser humano.
vjindal:How to open files provided in each CFT question in terminal? or we have to use windows?
— Sequoia IITK Thu Jun 22 18:22:54 +0000 2017
Pero a pesar de los límites de la IA actual, no debemos subestimar los profundos efectos que ya está teniendo en el mundo. En palabras de los autores:
«Inconscientes de las muchas comodidades modernas que ya nos provee la IA, en forma lenta y casi pasiva hemos comenzado a depender de la tecnología sin registrar el hecho de nuestra dependencia ni sus consecuencias. En la vida diaria, la IA nos acompaña, nos ayuda a tomar decisiones respecto de qué comer, qué ropa usar, en qué creer, dónde ir y cómo llegar allí (…) Pero el precio (en gran medida inadvertido) de estas y otras posibilidades es que se altera la relación de las personas con la razón y con la realidad».
La IA ya tiene influencia en la política mundial. Por ser una tecnología habilitante de alcance general, la desigualdad en su distribución no puede sino afectar el equilibrio mundial de poder. En este estadio, si bien el aprendizaje automático está al alcance de todo el mundo, las principales potencias en materia de IA son Estados Unidos y China. De las siete empresas mundiales más importantes en el área, tres son estadounidenses y cuatro son chinas.
El presidente chino Xi Jinping ha puesto como meta que en 2030 China sea el país líder en IA. Kai‑Fu Lee (de Sinovation Ventures, en Beijing) señala que con su inmensa población, la Internet más grande del mundo, abundancia de datos y escasa preocupación por la privacidad, China está bien posicionada para el desarrollo de la IA. Además, Lee sostiene que tener un mercado enorme y numerosos ingenieros puede resultar más importante que contar con universidades y científicos de primer nivel.
Pero la calidad de los datos es tan importante como la cantidad, y lo mismo puede decirse de la calidad de chips y algoritmos. En esto es posible que Estados Unidos lleve la delantera. Kissinger, Schmidt y Huttenlocher sostienen que puesto que el desarrollo de una IA más avanzada depende de la disponibilidad de datos y poder de cómputo, diseñar métodos de entrenamiento que reduzcan el uso de ambos factores es una frontera crítica.
Además de la competencia económica, la IA tendrá un importante efecto sobre la competencia militar y sobre la guerra. En palabras de los autores, «la introducción de una lógica no humana en los sistemas militares transformará la estrategia». Cuando haya sistemas de IA con aprendizaje automático generativo combatiendo unos contra otros, tal vez a los humanos les resulte difícil anticipar los resultados de su interacción. Tener velocidad, amplitud de efectos y capacidad de resistencia se tornará más valioso.
La IA volverá los conflictos más intensos e impredecibles. La superficie de ataque de unas sociedades conectadas a través de redes digitales será demasiado inmensa para que operadores humanos la defiendan en forma manual. La existencia de armas letales capaces de elegir objetivos e iniciar el combate en forma autónoma restará capacidad a los seres humanos para intervenir a tiempo. Por más que nos esforcemos en asegurar que el sistema funcione bajo control o supervisión de seres humanos, habrá fuertes incentivos para el ataque preventivo y la escalada prematura. La gestión de crisis se volverá más difícil.
Estos riesgos deben alentar a los Gobiernos a instituir mecanismos de consulta y tratados de control de armamentos; pero todavía no está claro cómo sería un control de armamentos en el caso de la IA. A diferencia de las armas nucleares y convencionales (voluminosas, visibles, pesadas y contables) verificar enjambres de drones o torpedos provistos de IA es más difícil, y los algoritmos que los manejan son todavía más elusivos.
Por la importancia y la omnipresencia de la IA en aplicaciones civiles, limitar su desarrollo general no será fácil. Pero todavía estamos a tiempo de hacer algo en relación con las capacidades de selección de objetivos militares. Estados Unidos ya distingue entre armas mejoradas mediante IA (AI-enabled weapons) y armas autónomas inteligentes (autonomous AI weapons). Las primeras son armas con más precisión y poder letal, pero que todavía están bajo control humano; las segundas pueden tomar decisiones letales sin intervención humana. Estados Unidos dice que no poseerá armas del segundo tipo.
Además, Naciones Unidas ha estado estudiando la posibilidad de instituir un nuevo tratado internacional para la prohibición de armas de esa naturaleza. Pero, ¿lo firmarán todos los países? ¿Cómo se verificará su cumplimiento? Y con las capacidades de aprendizaje de la IA generativa, ¿evolucionarán las armas en modos que les permitan evadir las restricciones? En cualquier caso, se necesitan medidas que limiten el impulso hacia la automaticidad. Y por supuesto, no se debe permitir ninguna automaticidad en la cercanía de sistemas de armas nucleares.
Sin negar el grado de lucidez y sabiduría contenidas en un libro que está muy bien escrito, desearía que los autores hubieran dicho algo más en relación con posibles soluciones a los problemas concernientes al control humano de la IA en el nivel nacional e internacional. Señalan las debilidades de la IA: no tiene conciencia de sí, no siente ni sabe lo que no sabe. Por más brillante que sea superando a los seres humanos en algunas actividades, es incapaz de identificar y evitar errores que serían obvios para cualquier niño. El Premio Nobel de Literatura Kazuo Ishiguro lo expone en forma brillante en su novela Klara y el sol.
Kissinger, Schmidt y Huttenlocher observan que la incapacidad de la IA para verificar por sí misma errores evidentes pone de manifiesto la importancia de desarrollar procesos de evaluación que permitan a los seres humanos identificar límites, analizar los cursos de acción propuestos e incorporar resiliencia a los sistemas por si la IA falla. No se debe permitir el uso de la IA en ningún sistema mientras sus creadores no hayan demostrado mediante dicha evaluación que se puede confiar en ella. Como dicen los autores: «Crear certificaciones profesionales, mecanismos de vigilancia normativa y programas de supervisión de la IA (además de la experiencia en auditoría que su ejecución demandará) será un proyecto crucial para la sociedad».
En tal sentido, el rigor del régimen regulatorio debe depender del peligro implícito en la actividad. La IA usada para conducir un auto tiene que estar sujeta a más control que la que se usa en plataformas de entretenimiento como TikTok.
Finalmente, los autores proponen crear una comisión nacional, formada por figuras prestigiosas de los más altos niveles gubernamentales, empresariales y académicos, que tendrá dos funciones: asegurar que el país siga siendo intelectual y estratégicamente competitivo en IA y generar conciencia mundial de las derivaciones culturales de la tecnología. Son palabras sabias, pero me gustaría que hubieran dicho más en relación con cómo alcanzar esos importantes objetivos. Mientras tanto, han creado una introducción que se lee con placer a cuestiones que serán cruciales para nuestro futuro y que nos obligarán a replantearnos la naturaleza misma de la humanidad.
Joseph S. Nye, ex secretario adjunto de los Estados Unidos en el área de defensa para la seguridad internacional, expresidente del Consejo Nacional de Inteligencia de los Estados Unidos y ex subsecretario de Estado para la asistencia en seguridad, ciencia y tecnología, es profesor en Harvard.
Henry A. Kissinger, Eric Schmidt y Daniel Huttenlocher, The Age of AI: And Our Human Future
Este artículo fue publicado originalmente en Project Syndicate.