Su preocupación tiene mucho que ver con el dinero. Los pesos pesados del sector tecnológico están apostando fuerte en este sentido. Google, por ejemplo, adquirió la empresa DeepMind, especializada en el desarrollo de redes neurales en la que ya había invertido Musk. El gigante de las búsquedas trabaja en un sistema informático capaz de distinguir en un vídeo una cara humana de la de un perro, gente patinando o durmiendo, un gato... Y todo por sí solo y sin que nadie haya puesto etiquetas en el archivo previamente. La inversión en inteligencia artificial es tal, que hoy en día podemos disfrutar de asistentes digitales que nos facilitan muchas labores del día a día como es es caso de Echo de Amazon.
La idea es que vaya aprendiendo, por así decirlo, tras 'alimentarse con millones de grabaciones'. IBM, por su parte, afina su superordenador Watson, que en 2011 derrotó a los campeones humanos del concurso estadounidense de preguntas y respuestas 'Jeopardy!'. Su intención es mejorar las funciones cognitivas del ingenio y comprobar sus capacidades para realizar diagnósticos médicos, análisis de la personalidad y traducciones en tiempo real. Los ingenieros de Facebook no se quedan atrás y han ideado un algoritmo que permite reconocer un rostro con éxito el 97 % de las veces, aunque haya sido mal captado.
Musk asegura que las cosas van demasiado rápido, y que por eso la IA es una tecnología que puede resultar tan peligrosa como los maletines nucleares. En el coro de los agoreros del apocalipsis artificial destaca la voz del filósofo británico Nick Bostrom, de la Universidad de Oxford, que compara nuestro destino con el de los caballos, cuando fueron sustituidos por los automóviles y los tractores. En 1915, había en EE. UU. unos veintiséis millones de estos equinos. En la década de los cincuenta, quedaban solo dos millones. Los caballos fueron sacrificados para venderse como comida para perros. Para Bostrom, la IA supone un riesgo existencial para la humanidad comparable con el impacto de un gran asteroide o el holocausto nuclear. Todo ello, por supuesto, siempre que podamos construir ordenadores pensantes. Pero ¿qué significa exactamente esto?
En realidad, el concepto de inteligencia artificial no es tan reciente como parece. Desde los tiempos de Alan Turing –al que se considera el padre de la misma– y la construcción de su dispositivo Bombe, que permitió descifrar los códigos de la máquina alemana Enigma, han pasado más de setenta años. En un momento dado del film 'The Imitation Game' (Morten Tyldum, 2014), en el que Benedict Cumberbatch interpreta al célebre matemático, un detective le pregunta: '¿Podrán las máquinas algún día pensar como los humanos?'. A lo que él responde: 'La mayoría de la gente piensa que no'.
El problema es que está haciendo una pregunta estúpida. Desde luego que las máquinas no pueden pensar como las personas. Son diferentes, y piensan diferente. La cuestión es: 'por el hecho de que algo sea diferente, ¿significa que no puede pensar?'. El detective le interpela entonces por el título de su artículo, 'The Imitation Game'. 'Es un juego, un test para determinar si alguien es un ser humano o una máquina', indica Turing. 'Hay un tema general. Un juez pregunta, y a partir de las respuestas, decide si habla con una persona o una máquina'. La escena quizá sea inventada, pero su contenido es real. El test existe.
La IA causa furor gracias a la literatura y al cine. Pero ¿cuál es el grado real de progreso? Hace años, estuve en el Instituto de Robótica de Pittsburgh, en EE. UU., uno de los templos de esta disciplina. Por entonces, formaba parte de un equipo de TVE que recogía los últimos avances tecnocientíficos en una serie de divulgación llamada 2.Mil. Tengo que reconocerlo: me llevé un chasco morrocotudo por culpa de la imagen de la robótica que nos ha inculcado la ciencia ficción.
Los aparatos que tenían allí eran poco más que cacharros en manos de ingenieros en vaqueros, y parecían salidos de un garaje de frikis. Se averiaban a la menor ocasión. Me hablaron de Florence, una enfermera robot que iba a revolucionar la geriatría. En realidad, se trataba de una especie de tonel con cabeza a la que habían pegado ojos y labios de silicona para dibujar sonrisas.
Florence tenía una cámara de televisión incorporada y un monitor. Las pilas se le agotaban rápido. Y, desde luego, no entendía lo que le decíamos. Todo aquello que pronunciaba tenía que programarse con antelación, así que un ingeniero trabajó a destajo para que saliera al pasillo y nos diera un mensaje de bienvenida.
Había leído muchas cosas sobre lo que hacían en Pittsburgh, especialmente de Xavier, un robot que sabía por dónde iba, toda una revolución. Pero no era otra cosa que otro tonel con ruedas que se desplazaba por los pasillos del instituto gracias a un mapa que tenía en su memoria. Ante unas escaleras, se paraba para no matarse. Por lo visto, irrumpía en las dependencias para contar chistes verdes. Aquella mañana vi a Xavier mientras era llevado a rastras, una imagen que jamás olvidaré. ¡Estaba en las catacumbas de la robótica! Acudí a la oficina de Hans Moravec, uno de los visionarios más famosos, pero todo lo que decía resultaba difícil de creer.
Moravec estaba convencido de que en cincuenta años los androides desplazarían a los humanos. Durante más de una hora estuvo hablando sin parar sobre la evolución de estos dispositivos y su creciente inteligencia, gracias al avance de los microprocesadores y su capacidad de manejar cada vez más información. Fue una charla cautivadora. La evolución de las máquinas iba a ser imparable. 'Ha llegado la hora de que nos marchemos', concluía este científico nacido en Austria.
Moravec dejó el instituto para fundar una compañía de robots industriales con visión 3D. Antes, me había enseñado en su ordenador una imagen percibida por uno donde se veían sillas y mesas que tenían un aspecto pixelado. ¿Y cómo podría saber la máquina qué era qué? En aquel verano de 1999, Moravec contaba que estaba fascinado por un nuevo buscador de internet, el más inteligente y mejor diseñado. Fue la primera vez que oí hablar de Google.
En 2014, Google compró una empresa de IA a Musk y ha desarrollado el primer coche autónomo, que ya ha recorrido un par de millones de kilómetros sin conductor, y el sistema que diferencia gatos de personas en YouTube. El mundo está literalmente invadido por cantidades inconcebibles de información que circula por la red y la capacidad de computación aumenta sin cesar. Pero ¿de verdad tenemos razones para temer que una máquina llegue algún día a pensar como nosotros?