/* Pedirle a Googlebot y otros que me dejen de indexar, para que no me penalicen en Google PageRank */ Código Abierto: Unos y ceros

martes, 2 de noviembre de 2010

Unos y ceros

En su sitio de internet, la prestigiosa publicación británica The Economist la semana pasada organizó un debate alrededor de la idea de que el desarrollo más importante del siglo XX fue la computación. Dos expertos fueron invitados a opinar, uno a favor y uno en contra de la moción, y después de leer sus argumentos y refutaciones, los lectores habían de votar por la exposición más convincente.

En mucho me encuentro de acuerdo con la propuesta de la revista. Para la humanidad la computación es un descubrimiento no menos prometeico que el del fuego, un conocimiento que cambia todos los paradigmas de la ciencia y del saber, y que lleva a la civilización al siguiente peldaño de su Historia. Como anotaba el defensor de la moción, el futurólogo Peter Cochrane, el mundo moderno es tan complejo, que sin computadores no podremos encontrarle sentido a la abrumadora maraña de datos de que disponemos —en la medicina, en la ciencias sociales, en la conservación ambiental— para solucionar nuestros embrollos planetarios. Si hace un siglo todavía podíamos sobrevivir solo de ingenio humano, hoy sin la ayuda de la computación no tenemos futuro como especie.

Pero en un punto me aparto de Cochrane y de la revista, y es en la escogencia de la invención del computador como el hecho crítico de esa revolución. Para mi ese momento hay que ubicarlo mejor en la digitalización de la información, que es el proceso asombroso por el cual todo el conocimiento se puede escribir con la economía de apenas dos valores, un uno y un cero. A ese lenguaje se le llama código binario.

Los computadores electrónicos no saben de números, ni de letras, ni de ideas; solamente entienden de cambios de voltaje en sus circuitos. Para procesar textos o números, primero hay que convertir esa información a voltajes que la máquina pueda manipular. El código binario permite representar cualquier letra, cifra, o dato, en unos y ceros que a su vez son convertidos a voltajes en los transistores de los computadores, lo que permite almacenarlos, manipularlos, transformarlos y analizarlos.

Nada que el hombre haya inventado supera a la representación binaria en simplicidad y versatilidad, ya que ésta no solo sirve para almacenar aburridos números. Todo lo que percibimos con los sentidos o entendemos con la mente —la silueta de un niño de vientre en el ecógrafo, el canto de una ballena cruzando el océano, el tono exacto de un azul de Cezanne—, puede ser convertido a esas cadenas de unos y ceros que para los computadores son tan sencillas de descifrar como lo es para nosotros nuestra lengua materna. Así como la naturaleza logró preservar la fórmula para fabricar un ser humano en el alfabeto de cuatro letras del ADN (del que nuestro cuerpo es apenas el recipiente que transmite ese conocimiento a la próxima generación), nosotros tenemos en el código binario el lenguaje que hará que lo que hemos creado y aprendido siga estando disponible dentro de mil años.

Pero revisando la Historia descubro que mi propuesta no sirve para el invento más importante del siglo, pues resulta que este método, tan central a la electrónica de nuestra era, es mucho más antiguo de lo que imaginamos. Ya Leibniz y Bacon, en los siglos dieciocho y diecisiete, cientos de años antes del microchip, habían planteado una representación alterna del conocimiento bajo un lenguaje, no de unos y ceros, pero sí de dos símbolos cualesquiera —blanco y negro, día y noche, yin y yang— siempre y cuando estuvieran en oposición.

Una versión de esta columna apareció publicada en El Heraldo de Barranquilla el 2 de noviembre de 2010.

No hay comentarios:

Publicar un comentario

Nota: solo los miembros de este blog pueden publicar comentarios.