/* Pedirle a Googlebot y otros que me dejen de indexar, para que no me penalicen en Google PageRank */ Código Abierto: noviembre 2010

miércoles, 24 de noviembre de 2010

De la narración al collage

A todos los que vivimos parte de nuestra vida en la era pre-internet nos está pasando: nuestra capacidad de concentración no es la que era antes. El modelo reinante de acceso a la información se ha vuelto push —“empujar”, en inglés— en lugar de pull —“halar”—, lo que significa que en vez de ser nosotros los que buscamos la información, ella es la que nos encuentra. A diario se acumulan los mensajes en el buzón electrónico. En Twitter y en Facebook una agencia personalizada de prensa nos mantiene al tanto de los acontecimientos en las vidas de nuestros amigos y conocidos. Y el celular y el computador se encargan de que cada seudonoticia alcance su máximo potencial de distracción.

No obstante, la red no es culpable por si sola de nuestro déficit de atención. Desde finales de los sesentas la neurología empezó a entender que el cerebro humano es un órgano mucho más plástico de lo que se había creído hasta entonces. Las vías cerebrales pueden en cierta manera reprogramarse, debilitando algunas conexiones y fortaleciendo otras. Nuestra manera de absorber el mundo a través de los medios digitales sin duda está recableando nuestro cerebro, imprimiendo cambios profundos en la cognición y la cultura.

Marshall McLuhan, sin apelar a la neurología, lo entendió perfectamente cuando dijo que “el medio es el mensaje”. Para McLuhan el “contenido” de los medios —la noticia, la fotografía, la canción, la entrevista— es un señuelo que distrae la mente, mientras el medio en si —la prensa, la radio, la TV, el internet—, por sus características tecnológicas y por las formas como presenta y estructura la información, modifica lo que somos como personas y como sociedad. No es lo mismo ser un hombre de la Edad Media que un hombre de la era de la imprenta. No es lo mismo una mujer de la era de la TV que una de la era del internet. Sus maneras de pensar son tan distintas —no por lo que piensan, sino por cómo lo piensan— que difícilmente pueden entenderse.

¿Cómo será el individuo producto de la era actual? Es temprano para sacar conclusiones, pero algunos elementos ya están claros. Mientras los libros, la radio, y hasta la misma TV, favorecen un lectura lineal del mundo, en el planeta digital la información es inconexa. En la red se salta de página en página, de dato en dato. Se pierde paciencia para el texto largo y la argumentación articulada. En el mundo pre-internet la manera dominante de estructurar la información era narrativa; en el actual es el collage.

Sin pretender hacer admoniciones en contravía del espíritu de nuestro tiempo, me parece que una de las habilidades más valiosas que habremos de desarrollar —y de enseñarle a nuestros hijos desde temprano— es la de saber cómo desconectarse. Por más divertidos que sean los artefactos culturales que predominan en la red —productos ingeniosos del talento audiovisual y del diseño gráfico—, las obras cumbres de la creatividad y del pensamiento humano surgieron de circunstancias propicias a la concentración, la reflexión y el discurso. No sabemos aún qué tipo de pensamiento surgirá de nuestro paisaje fragmentario, pero si en él se atrofian los canales neuroquímicos que durante siglos evolucionamos para permitir el pensamiento profundo, en el futuro el lujo más grande serán las zonas de desconexión, a cuya entrada se deberá colgar un aviso que advierta: “Silencio, hombres pensando.

Una versión de esta columna apareció publicada en El Heraldo de Barranquilla el 22 de noviembre de 2010.

domingo, 21 de noviembre de 2010

Sodoma y Gomorra

Nada revela tanto sobre nuestro consumo insostenible de aparatos electrónicos como el que hoy sea mejor, o más barato, reemplazarlos que repararlos. Cuando yo era niño un televisor o una nevera eran un tesoro en el hogar; cambiarlos como consecuencia de algún daño menor era una extravagancia, cuando no económicamente inviable. Se conseguían repuestos, las cosas se reparaban. Las idas al taller de electrónica hacían parte de la vida citadina, como las visitas al mecánico, al peluquero, o al odontólogo. En cambio, hoy, aparatos tan complejos como un reproductor de DVD, un teléfono celular, y hasta un computador portátil, son desechados con menos consideración que la que produce salir de una valija vieja.

¿Qué importa, si sale más barato así?”, pregunta el homo economicus, y no se puede negar que tiene algo de razón. Pero basta con abrir ese cajón que todos tenemos en la casa o la oficina, el que está lleno de cables, de adaptadores, y de cachivaches afiliados a aparatos viejos que ya nunca volveremos a usar, para inquietarse sobre nuestro comportamiento como consumidores. En un mundo de recursos en disminución, ¿en qué momento nos volvimos tan descuidados y derrochadores?

¡Y qué faltas tan graves a la estética y al diseño! ¿No podían diseñarse objetos con una mayor vida útil, con mayor posibilidad de reuso? (¿O, como mínimo, adaptadores eléctricos que sirvan para varios aparatos?)

No: la industria electrónica se ha volcado completamente hacia un modelo de obsolescencia programada, en el que se da como normal que un celular dure dos años, y un computador portátil, máximo cinco. Aún si el computador no se daña durante su vida útil, lo que es común, los fabricantes ya no permiten actualizarlos como hasta hace unos quince años, cuando todavía se podía repotenciar el equipo cambiando el procesador viejo por uno más rápido. Hoy la única opción es comprar todo de nuevo.

El lado más sórdido de este modelo, en donde resurgen en venganza los costos reales de nuestra adicción al consumo desechable, está en los residuos. Lo que botamos cuando reemplazamos el computador o el televisor de plasma no es tecnología trivial, sino rayos láser, pantallas de cristal líquido, microchips más poderosos que los que guiaron al Apollo a la luna. Sus componentes están llenos de plomo, cadmio, mercurio, berilio, arsénico, y otros compuestos tóxicos que fueron extraídos de la tierra profunda —que nos aislaba de ellos— e ingresados en nuestro ecosistema a través de su uso en la electrónica.

Cien millones de computadores son desechados al año solo en Estados Unidos, y se calcula que hay medio billón de teléfonos celulares en desuso consignados a gavetas y cajones. Tarde o temprano los minerales que contienen terminarán en el basurero, contaminando el suelo y nuestras fuentes de agua.

Lo barato sale caro, y los países pobres enfrentan la peor parte del problema. Al año, veinticinco millones de toneladas de material electrónico son enviadas al tercer mundo —principalmente a África, India y la China— donde son desarmadas a golpes por niños y niñas para recuperar los metales más valiosos. En la capital de Ghana hay un barrio tan emponzoñado por estas prácticas que sus habitantes lo llaman “Sodoma y Gomorra”. El resto se incinera, liberando al aire un legado de cáncer y toxicidad que con toda seguridad habremos de pagar nosotros y las generaciones que nos sucedan. El verdadero precio de nuestros trastes baratos lo enfrentaremos entonces.



Una versión de esta columna apareció publicada en El Heraldo de Barranquilla el 16 de noviembre de 2010.

lunes, 8 de noviembre de 2010

Auge, caída, y auge de Apple Computer

Soy usuario de los computadores Mac de Apple desde la primera vez que pude comprar uno, en 1993. Estaba en la universidad y la tienda de computadores del campus tenía descuentos permanentes en los equipos de la marca de la manzana. Era una de tantas estrategias desesperadas de la compañía para posicionar sus productos en el nicho universitario —o en cualquier nicho, ya que las cosas en Apple no andaban bien desde hacía años—.

En esa época, en que los PCs invadían al mundo bajo la forma de intercambiables cajas grises, tan similares las unas a las otras que terminaron siendo conocidas como “clones”, ser usuario de Apple era una especie de rebeldía, un desafío al statu quo. El culto a la manzana consistía en poner la sencillez y la elegancia por encima del mero desempeño, cosa que se rascaban la cabeza tratando de entender del lado de los PCs, en donde se valoraba la velocidad y el rendimiento. Los PCs, además, eran democráticos y baratos; las Macs aristocráticas y excluyentes. Los PCs se construían alrededor del pragmatismo y la versatilidad; las Macs anteponían la estética a la función. Esas filosofías opuestas hacían que las Macs, a pesar de ser menos poderosas, fueran más fáciles de usar. Umberto Eco analizó el asunto y concluyó que la Mac era católica y la PC protestante: de un lado, la verdad revelada, un solo camino hacia la salvación; del otro, la ardua libertad, el esfuerzo de tener que reinterpretar la doctrina cada vez, la posibilidad de que la impresora no funcionara.

Como a toda aristocracia, a la de la Mac le llegó su decadencia. A sus máquinas les sobraban los problemas técnicos y eran más lentas y menos compatibles que las de la competencia. Su participación en el mercado cayó por debajo del 3%. Eso parecía animar más a los seguidores del culto, que se veían a si mismos como los eternos incomprendidos que Apple usaba en su publicidad —Dylan, Lennon, King, Gandhi, Picasso—, pero cosa muy distinta pensaban los accionistas de la empresa, que llegaba al final del milenio al borde de la bancarrota.

Fue entonces que el ex-director exiliado, Steve Jobs, fue llamado a que salvara la empresa que él mismo había fundado. Y logró el milagro. En diez años la Mac volvió a ser el computador de referencia, el iPod se convirtió en el símbolo de la música digital, el iPhone transformó la telefonía, y el iPad se constituyó en la primera amenza a la imprenta desde que Gutenberg la perfeccionara. En mayo de este año la compañía superó en capitalización de mercado a su archienemigo Microsoft, dirimiéndose así una rivalidad de tres décadas entre Bill Gates, el gafufo acartonado de Harvard, y Jobs, el hippie budista de California.

Cuando el desadaptado del curso se convierte en el preferido de la profesora, ha perdido cualquier capacidad de inquietar al salón. Esta semana Bank of America y Citibank, dos baluartes del mundo corporativo norteamericano, anunciaron su intención de repartir iPhones entre sus empleados. Cuando tu producto cae en manos de un encorbatado ejecutivo del Citi, ha perdido cualquier tipo de pedigrí contracultural. Por eso ahora el gran desafío para Apple será el de mantener viva la llama de su talante independiente en medio del vendaval de su éxito. De lo contrario quedará convertida en la manzana que el niño obediente coloca todas las mañanas sobre el escritorio de la profesora.

Una versión de esta columna apareció publicada en El Heraldo de Barranquilla el 8 de noviembre de 2010.

martes, 2 de noviembre de 2010

Unos y ceros

En su sitio de internet, la prestigiosa publicación británica The Economist la semana pasada organizó un debate alrededor de la idea de que el desarrollo más importante del siglo XX fue la computación. Dos expertos fueron invitados a opinar, uno a favor y uno en contra de la moción, y después de leer sus argumentos y refutaciones, los lectores habían de votar por la exposición más convincente.

En mucho me encuentro de acuerdo con la propuesta de la revista. Para la humanidad la computación es un descubrimiento no menos prometeico que el del fuego, un conocimiento que cambia todos los paradigmas de la ciencia y del saber, y que lleva a la civilización al siguiente peldaño de su Historia. Como anotaba el defensor de la moción, el futurólogo Peter Cochrane, el mundo moderno es tan complejo, que sin computadores no podremos encontrarle sentido a la abrumadora maraña de datos de que disponemos —en la medicina, en la ciencias sociales, en la conservación ambiental— para solucionar nuestros embrollos planetarios. Si hace un siglo todavía podíamos sobrevivir solo de ingenio humano, hoy sin la ayuda de la computación no tenemos futuro como especie.

Pero en un punto me aparto de Cochrane y de la revista, y es en la escogencia de la invención del computador como el hecho crítico de esa revolución. Para mi ese momento hay que ubicarlo mejor en la digitalización de la información, que es el proceso asombroso por el cual todo el conocimiento se puede escribir con la economía de apenas dos valores, un uno y un cero. A ese lenguaje se le llama código binario.

Los computadores electrónicos no saben de números, ni de letras, ni de ideas; solamente entienden de cambios de voltaje en sus circuitos. Para procesar textos o números, primero hay que convertir esa información a voltajes que la máquina pueda manipular. El código binario permite representar cualquier letra, cifra, o dato, en unos y ceros que a su vez son convertidos a voltajes en los transistores de los computadores, lo que permite almacenarlos, manipularlos, transformarlos y analizarlos.

Nada que el hombre haya inventado supera a la representación binaria en simplicidad y versatilidad, ya que ésta no solo sirve para almacenar aburridos números. Todo lo que percibimos con los sentidos o entendemos con la mente —la silueta de un niño de vientre en el ecógrafo, el canto de una ballena cruzando el océano, el tono exacto de un azul de Cezanne—, puede ser convertido a esas cadenas de unos y ceros que para los computadores son tan sencillas de descifrar como lo es para nosotros nuestra lengua materna. Así como la naturaleza logró preservar la fórmula para fabricar un ser humano en el alfabeto de cuatro letras del ADN (del que nuestro cuerpo es apenas el recipiente que transmite ese conocimiento a la próxima generación), nosotros tenemos en el código binario el lenguaje que hará que lo que hemos creado y aprendido siga estando disponible dentro de mil años.

Pero revisando la Historia descubro que mi propuesta no sirve para el invento más importante del siglo, pues resulta que este método, tan central a la electrónica de nuestra era, es mucho más antiguo de lo que imaginamos. Ya Leibniz y Bacon, en los siglos dieciocho y diecisiete, cientos de años antes del microchip, habían planteado una representación alterna del conocimiento bajo un lenguaje, no de unos y ceros, pero sí de dos símbolos cualesquiera —blanco y negro, día y noche, yin y yang— siempre y cuando estuvieran en oposición.

Una versión de esta columna apareció publicada en El Heraldo de Barranquilla el 2 de noviembre de 2010.