divulgatum está dedicado a la difusión de conocimiento científico en español e inglés, mediante artículos que tratan en detalle toda clase de temas fascinantes pero poco conocidos.
divulgatum is devoted to the dissemination of scientific knowledge in Spanish and English, through articles that go into the details of all sorts of fascinating, if not
widely known, subjects.

Saturday, February 4, 2017

La búsqueda de la información

Los esfuerzos de la humanidad por dominar y entender la información han transformado drásticamente nuestro mundo y nuestra percepción misma del cosmos.


La escritura cuneiforme fue una de las primeras formas de expresión escrita, desarrollada por los sumerios de Mesopotamia (hoy en día, Irak) a finales del cuarto milenio AC. Algunos de sus símbolos representan sílabas, mientras que otros son logogramas que representan palabras completas. Aún hay ciertos logogramas en uso hoy en día, como los símbolos $, % y &. (Museo de Civilizaciones de Anatolia, Ankara.)

COMO CIUDADANOS DE un mundo dominado por la tecnología, estamos habituados a manipular información diariamente; aun así, pocos de nosotros pensamos alguna vez en ella. De hecho, la información en sí misma ha demostrado ser una noción notablemente difícil de comprender para el ser humano, y ha sido sólo recientemente que hemos comenzado a atisbar su verdadera naturaleza y el increíble papel que juega en nuestro universo.

La historia del ser humano sin duda revela que nuestra habilidad para manipular y estructurar datos es mayormente el fruto de una tremenda revolución que se ha desencadenado a lo largo de los últimos dos siglos. Sin embargo, los primeros pasos en nuestro uso consciente de formas abstractas de información se remontan a un tiempo considerablemente anterior. El origen se halla unos cinco mil años en el pasado, en la que es seguramente la mayor invención de la historia, si bien una de las más simples: la escritura. Gracias a símbolos que podían ser usados para representar palabras enteras (logogramas, tales como los caracteres chinos), o bien sonidos individuales (fonogramas, como las letras de un alfabeto), las ideas, emociones y sucesos de la humanidad podían, de pronto, ser extraídos del cerebro humano y almacenados físicamente en materiales duraderos, como arcilla, piedra o papiro. Una tecnología tan disruptiva, sobrenatural incluso, desencadenó de inmediato una tremenda revolución cultural, poniendo fin a la prehistoria y dando comienzo a lo que llamamos historia. Éste no sería sino el inicio de un largo viaje hacia el dominio de la información.

Durante los siguientes cinco mil años, la escritura fue prácticamente la única forma de manipular y registrar información conocida por el hombre. El siguiente gran hito en nuestra relación con la información no habría de llegar hasta la Revolución Industrial del siglo XIX, gracias a un brillante mercader francés llamado Joseph Marie Jacquard, quien en 1804 patentó el que era el aparato más complejo diseñado hasta la fecha. El telar de Jacquard, con su aparentemente rudimentaria estructura de madera, fue de hecho el primer dispositivo comercial programable, contando con la increíble habilidad de tejer cualquier patrón imaginable en seda, sin necesidad de intervención humana. Tal logro era posible mediante el uso de miles de tarjetas perforadas (tarjetas de papel con patrones de agujeros y espacios en blanco), el conjunto de las cuales albergaba la información necesaria para crear de forma precisa un diseño textil específico. Al transformar la información de dibujos a patrones abstractos de agujeros y espacios en blanco, y permitir a la máquina traducir estos patrones ininteligibles en diseños tangibles e increíblemente detallados, el extenuante proceso de manufacturación textil se aceleró de un modo hasta entonces inconcebible, consolidando a Francia como la capital mundial de la seda. Con un número adecuado de tarjetas, unos símbolos tan simples como agujeros y espacios en blanco podían capturar la información del más complejo de los patrones; y, de hecho, de cualquier cosa imaginable. Por vez primera, la abstracción de información y las máquinas programables habían revelado al mundo su potencial para alcanzar niveles sobrehumanos de productividad en tareas arduas y repetitivas. Hoy en día, casi cualquier tarea repetitiva de manufacturación es realizada automáticamente por máquinas.


Igual de transformativa fue la irrupción de dos de las mayores invenciones tecnológicas del siglo XIX: el telégrafo eléctrico de Samuel Morse —precedido por otros diseños de telégrafo excesivamente complicados— y el sistema de codificación que porta su nombre, el código Morse. Gracias a éstos, los mensajes podían ser fácilmente codificados en pulsos eléctricos y enviados rápidamente a través de cables. El mundo pronto se vio envuelto en una densa red global de telecomunicaciones; algo que hoy damos por sentado. Así nacía la ‘era de la información’, que se caracterizaría por el desarrollo de sistemas electrónicos de comunicación espectacularmente rápidos, fiables y virtualmente ilimitados.


Sin embargo, la invención que quizá reconozcamos como la más influyente para la vida moderna (de hecho, muchos de nosotros hemos pasado frente a ella gran parte del día) no llegaría hasta mediados del siglo XX, de la mano de una de las mentes más brillantes de la historia. En 1936, el matemático inglés de 24 años Alan Turing publicó un artículo científico en relación a un problema matemático extremadamente abstracto; fue en este trabajo donde el término máquina computadora, referido a una versión teórica del ordenador moderno, vio por primera vez la luz. El ordenador, en principio una consecuencia imprevista del trabajo teórico de Turing, se convertiría en acaso el invento tecnológico más fundamental del último siglo, elevando a su inventor a la categoría de padre indiscutible de la informática. Cabe destacar que otras máquinas computadoras ya habían sido concebidas antes del siglo XX; el ‘motor diferencial’ y el ‘motor analítico’, dos calculadoras mecánicas increíblemente complejas diseñadas por el matemático británico Charles Babbage, son consideradas como los primeros prototipos de ordenador, a pesar de que su construcción nunca fue completada durante la vida de su inventor. No obstante, fue el trabajo teórico y práctico de Turing el que condujo directamente a la creación del primer computador electrónico durante la Segunda Guerra Mundial. El ahora famoso suicidio de Turing a sus 41 años, fruto de la depresión en que cayó después de que las autoridades británicas le obligaran a someterse a una terapia hormonal como ‘tratamiento’ para su homosexualidad, supuso una trágica e incalculable pérdida para la humanidad. Los avances que el genio podría haber legado al campo de la computación pertenecen ahora al reino de la imaginación.

Con la combinación de abstracciones simbólicas para representar la información, comunicaciones instantáneas e impresionantes máquinas computadoras, se podría pensar que el ser humano había logrado finalmente liberar el poder de la información hasta su último extremo. Esto queda muy lejos de la verdad, aún hoy; de hecho, el hombre ignoraba siquiera qué es realmente la información hasta hace unas décadas, cuando la teoría de la información, una nueva disciplina científica dedicada a explorar las facetas más abstractas de la misma, irrumpió en escena. En 1948, el padre de la teoría de la información, Claude Shannon, acuñó un nombre para la unidad elemental de la información, el bit (un diminutivo del inglés binary digit, ‘dígito binario’). Un bit se puede considerar como un átomo de información, ya que representa la cantidad más pequeña posible de la misma. Un bit sólo puede adoptar uno de dos valores posibles: cero (que normalmente significa ‘no’, ‘falso’, ‘apagado’) y uno (‘sí’, ‘verdadero’, ‘encendido’). Combinaciones de múltiples bits dan lugar a medidas de información cada vez más potentes y familiares, tales como bytes, megabytes y terabytes.

Aún más sorprendente fue el descubrimiento de que la información es, en realidad, algo muy distinto de una invención humana puramente abstracta. La propia naturaleza era ya una maestra en el uso y aprovechamiento de la información hace miles de millones de años. Hacia finales del siglo pasado, la ciencia ya había demostrado que las células están continuamente leyendo, procesando y actuando en respuesta a información proveniente de su entorno interno y externo. De forma similar a un ordenador, la célula emplea conjuntos de reglas para reaccionar a la información; pero, en lugar de circuitos electrónicos, confía en intrincadas redes de reacciones químicas entre moléculas señalizadoras especializadas, a fin de transferir información entre sus receptores —los cuales reconocen ciertas señales químicas, mecánicas o eléctricas— y las ‘máquinas’ moleculares encargadas de llevar a cabo la acción requerida. De forma crucial, estas redes de señalización no sólo son capaces de transmitir información, al igual que un cable, sino que también pueden procesarla, como el procesador de un ordenador. Tales habilidades computacionales permiten a la célula tomar decisiones vitales, como autorreplicarse, transformarse en un tipo de célula más especializado, o incluso suicidarse. Es gracias a estas redes de señalización que, por ejemplo, las neuronas en el cerebro se activan en respuesta a ciertas moléculas, denominadas neurotransmisores, y que las células epiteliales en la piel sienten la presencia de una herida abierta y comienzan a replicarse sin descanso hasta que ésta se cierra por completo.


Representación esquemática de la red de señalización celular conocida como la red mTOR. Cada rectángulo verde en el diagrama corresponde a una proteína diferente. (Fuente: Mol. Syst. Biol. 6:453.)

La información no es meramente algo creado y utilizado por el mundo natural y el ingenio humano, sino mucho más. Es una propiedad real y fundamental del universo físico en el que vivimos. Lo que normalmente llamamos información es sólo nuestra representación simplificada de la verdadera información contenida en el mundo que nos rodea. Consideremos, por ejemplo, una fotografía de algún objeto. La fotografía es una representación gráfica precisa del objeto en dos dimensiones, y como tal, contiene parte de su información, como su forma, color y textura. No obstante, carece de casi toda la información presente en el objeto real. Un sencillo ejemplo es el hecho de que a menudo es imposible estimar el tamaño de un objeto basándose en una fotografía, a menos que ésta incluya un segundo objeto cuyo tamaño ya conozcamos. En tal caso, podemos combinar la información procedente de nuestra experiencia previa del mundo con la información contenida en la fotografía, para realizar una inferencia acerca de la información en el objeto real.

Si descendemos a un nivel microscópico, la cantidad de información en el mundo físico se vuelve simplemente inconcebible. Consideremos de nuevo el caso de una célula —tal vez en nuestro propio cuerpo—. Al igual que en el ejemplo anterior, podemos medir diferentes tipos de información sobre esta célula, como su forma, tamaño, o la cantidad de ADN en ella, y representar dicha información de varias maneras. Sin embargo, la célula física contiene mucha, mucha más información; por ejemplo, la organización espacial de los orgánulos que la componen; la localización y estructura de cada una de sus enzimas, lípidos, proteínas, azúcares y ácidos nucleicos; la dinámica química que rige las redes de señalización que permiten a la célula reaccionar a su entorno; la suma de toda la información hereditaria codificada en su material genético; el nivel energético de cada electrón de cada átomo de cada partícula en ella; o las fuerzas nucleares que mantienen todas éstas juntas en la forma de un solo sistema, la célula. En otras palabras, algo tan minúsculo como una célula microscópica contiene una cantidad de información real, física, que sobrepasa el conjunto de toda la información simbólica producida por la humanidad durante el curso de la historia. Podemos echar una mirada en derredor y tratar de imaginar cuánta información es extraída continua e inconscientemente de nuestro entorno por nuestro cerebro; y cuánta información podríamos ser capaces de medir a partir de cada objeto y ser viviente a nuestro alrededor, si solamente contáramos con las herramientas adecuadas… y suficiente espacio de almacenamiento.


El esfuerzo de la humanidad por representar y manipular la información en su propio beneficio ha propiciado la invención de métodos cada vez más ingeniosos de representar, transmitir y almacenar información. Hemos descubierto, dominado y aprovechado las propiedades únicas ofrecidas por cada tipo de representación simbólica (símbolos escritos, agujeros, señales eléctricas, bits…) y de medio físico (piedra, papel, cables, ondas de radio, discos duros…). Aun con todo esto, nuestra comprensión de la información como una propiedad inherente del cosmos permanece incompleta, y nuevas formas de almacenar y transmitir información, desde partículas cuánticas hasta ADN, continúan siendo exploradas. El viaje hacia un control verdadero de la información está lejos de terminar; de hecho, puede que nos hallemos al borde mismo de nuestra auténtica revolución de la información.



Referencias:
Order and Disorder: The Story of Information. BBC documentary (2012).
Tyson, J.J., Novak, B. Control of cell growth, division and death: information processing in living cells. Interface Focus (2014).
Azeloglu, E.U., Iyengar, R. Signaling Networks: Information Flow, Computation, and Decision Making. Cold Spring Harbor Perspectives in Biology (2015).