Los mediados de los noventas fueron una época dorada para la informática. Habilitada por las conexiones de fibra óptica, surgía una red de redes que auguraba un mundo sin distancias. En esa nueva frontera programadores colaboraban para desarrollar audaces tecnologías de comunicación y de cómputo que amenazaban a la hegemonía de gigantes como IBM y Microsoft. Con Jurassic Park y Toy Story, las gráficas digitales llegaban a Hollywood a cambiar para siempre la historia del cine. El correo electrónico desplazaba al correo tradicional. Y en los escritorios virtuales de los usuarios aparecían por primera vez Mosaic y luego Internet Explorer y los conectaban a algo que no existía unos meses antes: la Web.
En esa época de frenesí y de optimismo acerca de las posibilidades de la técnica, me encontraba haciendo una concentración sobre inteligencia artificial en una universidad norteamericana. Pero en el departamento de IA no había frenesí ni optimismo; la emoción de aquellos días no parecía permear sus paredes. El ambiente no era el hervidero de ideas de los laboratorios de programación y de los start-ups financiados con capital de riesgo. No había semiadolescentes en trance creativo, dopados con cafeína. Más se parecía a un departamento de física, en donde los grandes descubrimientos no llegan con frecuencia y cuando llegan son resultado de años de acumulación glacial de datos. Un ambiente aburrido. En el peor de los casos se respiraba franco pesimismo.
La disciplina estaba estancada hacía años. Todas las estrategias, todos los intentos de crear una máquina pensante –aún una con capacidades limitadas– habían fracasado, cuando no hecho el ridículo. En ciertos ámbitos restringidos, particularmente el ajedrez, se habían obtenido éxitos fulgurantes y ya las máquinas superaban la inteligencia del hombre, pero eran máquinas incapaces de hacer otra cosa sino aquella para la cual se les había diseñado. ¿Era eso “pensar” de verdad? ¿Podía aquello llamarse realmente “inteligencia”? A lo sumo se trataba de aparatos que habían aprendido trucos sofisticados, como los animales de circo, pero todo eso distaba muchísimo de parecerse a los procesos del pensamiento humano.
La neurología veía en la creación de un cerebro digital una tarea que permanecería imposible por muchas generaciones. Tal vez nunca se podría alcanzar ni la velocidad ni la capacidad de almacenamiento de datos de la corteza cerebral. La teología y la filosofía cuestionaban la posibilidad misma de que algo que no fuera humano se pudiera llamar inteligente. Se bromeaba que “inteligencia artificial” era un oxímoron–un término compuesto por ideas que se contradicen entre si, como decir “un silencio ensordecedor”.
Se acercaba y luego quedaba atrás 2001, la fecha simbólica en la que HAL, el computador conversador e inteligente de las novelas de Arthur C. Clarke y de la película de Kubrick, decidía rebelarse contra los tripulantes de su nave espacial y asesinarlos. Mientras tanto acá en la Tierra la única rebelión de las máquinas que había funcionado había sido contra el gran maestro ruso Gary Kasparov, derrotado en 1997 por Deep Blue, un cerebro electrónico diseñado en IBM.
Pero luego algo empezó a cambiar; en los últimos años de varios frentes llegaron las innovaciones que hoy nos tienen al borde de un salto en la historia de las máquinas inteligentes. Será el tema de la próxima columna.
Una versión de esta columna apareció publicada en El Heraldo de Barranquilla el 21 de junio de 2010.