divulgatum está dedicado a la difusión de conocimiento científico en español e inglés, mediante artículos que tratan en detalle toda clase de temas fascinantes pero poco conocidos.
divulgatum is devoted to the dissemination of scientific knowledge in Spanish and English, through articles that go into the details of all sorts of fascinating, if not
widely known, subjects.

Saturday, February 4, 2017

The pursuit of information

Humanity’s efforts to dominate and understand information have drastically transformed our world and our very perception of the cosmos.

Cuneiform script was one of the earliest writing systems, developed by the Sumerians of Mesopotamia (modern-day Iraq) in the late fourth millennium BC. Some of its signs represent syllables, while others are logograms, representing entire words. We still use certain logograms today, such as the symbols $, % and &. (Museum of Anatolian Civilizations, Ankara.)

AS CITIZENS OF A WORLD dominated by technology, we are used to manipulating information on a daily basis; yet few of us ever wonder about information itself. In fact, information has been a very hard notion for humans to grasp, and it has been only very recently that we have begun to figure out its true nature and the extraordinary role it plays in our universe.

Human history readily reveals that our proficiency in manipulating and structuring data is mainly a product of a tremendous revolution which has unfolded over the last two centuries. The first steps of humanity’s conscious use of abstract forms of information, however, date back to a much earlier epoch. The starting point lies some five thousand years in the past, in what is arguably the greatest invention in history, yet one of the simplest — writing. Thanks to symbols representing either whole words (logograms, such as Chinese characters) or individual sounds (phonograms, like the letters in an alphabet), humanity’s ideas, emotions and events could suddenly be extracted from the human brain and stored physically on durable materials like clay, stone or papyrus. Such disruptive, otherworldly technology immediately sparked a tremendous cultural revolution, bringing prehistory to an end and setting human history in motion. This was but the very beginning of a long journey toward mastering information.

For the following five thousand years, writing was pretty much the only way of manipulating and recording information known to humans. The next great milestone in our relationship with information would not arrive until the nineteenth century’s Industrial Revolution. It came from a brilliant French industrialist and inventor named Joseph Marie Jacquard, who in 1804 patented what was the most complex apparatus designed to that day. The Jacquard loom, with its apparently rudimentary wooden structure, was in fact the first commercial programmable device, having the stunning ability to weave any desired pattern in silk without human intervention. This was achieved by means of thousands of punched cards (paper slips with patterns of holes and blank spaces in them), which together carried the information needed to precisely create a particular fabric design. By transforming the information from drawings to abstract patterns of holes and blanks, and empowering the machine to translate the unintelligible patterns into tangible, incredibly detailed silk designs, the strenuous process of weaving was sped up to an extent that was simply unimaginable before, consolidating France as the world capital of silk production. Given a large enough number of cards, symbols as simple as holes and blanks could capture the information of even the most complicated pattern — or, in fact, of anything we can think of. For the first time, information abstraction and programmable machines had shown their potential for superhuman performance in repetitive, labour-intensive tasks. Today, nearly any repetitive manufacturing task is mindlessly performed by machines.

Equally transformative was the irruption of two landmark technological inventions of the nineteenth century, Samuel Morse’s electric telegraph — preceded by other, overly complicated telegraph designs — and his eponymous coding system, the Morse code. Thanks to these, messages could easily be encoded into electrical pulses and rapidly sent along wires. The world was soon shrouded in a global, dense telecommunications network — something that we see as a given today. It was the very dawn of the ‘information age’, which would be characterised by spectacularly fast, reliable and virtually limitless electronic communication systems.

However, the invention that we would perhaps recognise as most influential to modern human life (indeed, many of us have been staring at one for most of the day) was not to arrive until the mid-twentieth century, by the hand of one of the most brilliant minds in history. In 1936, the then-24-year-old British mathematician Alan Turing published an article that addressed a highly abstract mathematical problem; it was in this work that the term computing machine, meant as a theoretical version of the modern computer, first saw the light. An unforeseen consequence of Turing’s theoretical work, the computer was to become arguably the most fundamental practical invention of the last century, lionising its inventor as the undisputed father of informatics. Notably, other kinds of computing machines had already been devised before the twentieth century; the ‘difference engine’ and the ‘analytical engine’, two mind-boggling mechanical calculators designed by the British mathematician Charles Babbage, are widely regarded as the first computer prototypes, albeit they were never completely built in their inventor’s lifetime. However, it was Turing’s theoretical and practical work that directly led to the invention of the first electronic computer during World War II. Turing’s now-famous suicide at the age of 41, triggered by the depression he was thrown into after the British authorities forced him to undertake hormonal therapy as a ‘treatment’ for his homosexuality, entailed a tragic and incalculable loss for mankind. The breakthroughs he could have ushered into the field of computing are now left to the imagination.

With the combination of symbolic abstractions to represent information, instant communications, and breath-taking computing machines, one may think that humans had finally unleashed information’s power to its full extent. This remains far from true today; in fact, we did not even know what information really is until some decades ago, when information theory, a new scientific discipline devoted to exploring the most abstract facets of information, was founded. In 1948, the father of information theory, Claude Shannon, formally coined a name for the elementary unit of information, the bit (a contraction of ‘binary digit’). Bits can be thought of as the atoms of information, since they represent the smallest possible quantity of it. A bit can only hold one of two possible values: zero (usually meaning ‘off’, ‘false’, ‘no’) and one (‘on’, ‘true’, ‘yes’). Combining multiple bits gives rise to increasingly powerful, and familiar, measures of information, such as bytes, megabytes and terabytes.

Even more bewildering was the realisation that information is actually far from a purely abstract human invention. Nature itself was already a master at handling and exploiting information billions of years ago. By the end of the last century, it had become clear to science that the living cell is continuously reading, processing and responding to information from its inner and outer environment. Similar to a computer, the cell employs sets of rules to react to information; but instead of electronic circuits, it relies on intricate networks of chemical reactions between specialised signalling molecules, in order to transfer information from its receptors — which recognise certain chemical, mechanical or electrical signals — to the molecular ‘machines’ that perform the required action. Crucially, these signalling networks are not only able to transmit information, like a wire, but they can also process it, like a computer’s processor. This is possible thanks to the existence of different possible states (for example, ‘active’ and ‘inactive’) between which some molecules and chemical reactions in the cell can switch, just like the minute transistors in a computer do. Such computational abilities enable the cell to make vital decisions such as self-replicating, transforming into a more specialised type of cell, or even committing suicide. It is thanks to signalling networks that, for example, neurons in the brain fire in response to special molecules termed neurotransmitters, or epithelial cells in the skin sense the presence of an open wound, and start replicating ceaselessly until the gash is fully closed.

Diagrammatic representation of a cellular signalling network known as the mTOR network. Each green rectangle in the diagram corresponds to a different protein. (Credit: Mol. Syst. Biol. 6:453.)

Information is not merely something created and wielded by both the natural world and human ingenuity, but very much more. It is a real, fundamental property of the physical universe which we inhabit. What we usually call information is just our simplified representation of the actual information concealed in the world around us. Think, for example, of a photograph of some object. The photograph is a precise graphical representation of the object in two dimensions and, as such, contains some of its information, such as shape, colour and texture. And yet, it is missing almost all the information present in the actual object. A simple example of this is that it is often impossible to figure out the real size of an object on the basis of a picture, unless the scene includes another object whose size we already know. We then combine the information coming from our previous experience of the world with that in the picture, to make an inference about the actual object’s information.

If we go down to the microscopic level, the amount of information in the physical world becomes simply fathomless. Consider again the case of a living cell — perhaps in your own body. As in the example above, we can measure different types of information about the cell, such as its shape, its size, or the amount of DNA in it, and represent such information in various ways. However, the physical cell still harbours much, much more information; for instance, the spatial arrangement of the organelles that compose it; the location and structure of every one of its enzymes, lipids, proteins, sugars and nucleic acids; the chemical dynamics of the signalling networks that allow it to react to its environment; the sum of all the hereditary information encoded in its genetic material; the energy level of every electron of every atom of every single particle in it; and the nuclear forces binding them all together as a single system, the living cell. In other words, something as small as a microscopic cell holds an amount of real, physical information that surpasses all the symbolic information produced by humanity over the whole course of history. We can take a look around and try to imagine how much information our brains constantly and subconsciously extract from our surroundings; and how much information we would be able to measure from every object and living thing around us, if only we had access to the right tools — and sufficient storage space.

Humanity’s effort to represent and exploit information for its own benefit has seen the invention of ever more-ingenious ways of representing, transmitting and storing the latter. We have discovered, mastered and taken advantage of the unique properties granted by each type of symbolic representation (written symbols, holes, electrical signals, bits…) and physical medium (stone, paper, wires, radio waves, hard disk drives…); yet our understanding of information as an inherent property of the cosmos is still incomplete. Furthermore, novel means of storing and transmitting information, from quantum particles through to DNA, are continuously being explored. The journey towards achieving true control of information is far from finished; in fact, we may be just at the brink of our real information revolution.

Special thanks are due to Máire Ní Leathlobhair for her invaluable help with composition.

Order and Disorder: The Story of Information. BBC documentary (2012).
Tyson, J.J., Novak, B. Control of cell growth, division and death: information processing in living cells. Interface Focus (2014).
Azeloglu, E.U., Iyengar, R. Signaling Networks: Information Flow, Computation, and Decision Making. Cold Spring Harbor Perspectives in Biology (2015).

La búsqueda de la información

Los esfuerzos de la humanidad por dominar y entender la información han transformado drásticamente nuestro mundo y nuestra percepción misma del cosmos.

La escritura cuneiforme fue una de las primeras formas de expresión escrita, desarrollada por los sumerios de Mesopotamia (hoy en día, Irak) a finales del cuarto milenio AC. Algunos de sus símbolos representan sílabas, mientras que otros son logogramas que representan palabras completas. Aún hay ciertos logogramas en uso hoy en día, como los símbolos $, % y &. (Museo de Civilizaciones de Anatolia, Ankara.)

COMO CIUDADANOS DE un mundo dominado por la tecnología, estamos habituados a manipular información diariamente; aun así, pocos de nosotros pensamos alguna vez en ella. De hecho, la información en sí misma ha demostrado ser una noción notablemente difícil de comprender para el ser humano, y ha sido sólo recientemente que hemos comenzado a atisbar su verdadera naturaleza y el increíble papel que juega en nuestro universo.

La historia del ser humano sin duda revela que nuestra habilidad para manipular y estructurar datos es mayormente el fruto de una tremenda revolución que se ha desencadenado a lo largo de los últimos dos siglos. Sin embargo, los primeros pasos en nuestro uso consciente de formas abstractas de información se remontan a un tiempo considerablemente anterior. El origen se halla unos cinco mil años en el pasado, en la que es seguramente la mayor invención de la historia, si bien una de las más simples: la escritura. Gracias a símbolos que podían ser usados para representar palabras enteras (logogramas, tales como los caracteres chinos), o bien sonidos individuales (fonogramas, como las letras de un alfabeto), las ideas, emociones y sucesos de la humanidad podían, de pronto, ser extraídos del cerebro humano y almacenados físicamente en materiales duraderos, como arcilla, piedra o papiro. Una tecnología tan disruptiva, sobrenatural incluso, desencadenó de inmediato una tremenda revolución cultural, poniendo fin a la prehistoria y dando comienzo a lo que llamamos historia. Éste no sería sino el inicio de un largo viaje hacia el dominio de la información.

Durante los siguientes cinco mil años, la escritura fue prácticamente la única forma de manipular y registrar información conocida por el hombre. El siguiente gran hito en nuestra relación con la información no habría de llegar hasta la Revolución Industrial del siglo XIX, gracias a un brillante mercader francés llamado Joseph Marie Jacquard, quien en 1804 patentó el que era el aparato más complejo diseñado hasta la fecha. El telar de Jacquard, con su aparentemente rudimentaria estructura de madera, fue de hecho el primer dispositivo comercial programable, contando con la increíble habilidad de tejer cualquier patrón imaginable en seda, sin necesidad de intervención humana. Tal logro era posible mediante el uso de miles de tarjetas perforadas (tarjetas de papel con patrones de agujeros y espacios en blanco), el conjunto de las cuales albergaba la información necesaria para crear de forma precisa un diseño textil específico. Al transformar la información de dibujos a patrones abstractos de agujeros y espacios en blanco, y permitir a la máquina traducir estos patrones ininteligibles en diseños tangibles e increíblemente detallados, el extenuante proceso de manufacturación textil se aceleró de un modo hasta entonces inconcebible, consolidando a Francia como la capital mundial de la seda. Con un número adecuado de tarjetas, unos símbolos tan simples como agujeros y espacios en blanco podían capturar la información del más complejo de los patrones; y, de hecho, de cualquier cosa imaginable. Por vez primera, la abstracción de información y las máquinas programables habían revelado al mundo su potencial para alcanzar niveles sobrehumanos de productividad en tareas arduas y repetitivas. Hoy en día, casi cualquier tarea repetitiva de manufacturación es realizada automáticamente por máquinas.

Igual de transformativa fue la irrupción de dos de las mayores invenciones tecnológicas del siglo XIX: el telégrafo eléctrico de Samuel Morse —precedido por otros diseños de telégrafo excesivamente complicados— y el sistema de codificación que porta su nombre, el código Morse. Gracias a éstos, los mensajes podían ser fácilmente codificados en pulsos eléctricos y enviados rápidamente a través de cables. El mundo pronto se vio envuelto en una densa red global de telecomunicaciones; algo que hoy damos por sentado. Así nacía la ‘era de la información’, que se caracterizaría por el desarrollo de sistemas electrónicos de comunicación espectacularmente rápidos, fiables y virtualmente ilimitados.

Sin embargo, la invención que quizá reconozcamos como la más influyente para la vida moderna (de hecho, muchos de nosotros hemos pasado frente a ella gran parte del día) no llegaría hasta mediados del siglo XX, de la mano de una de las mentes más brillantes de la historia. En 1936, el matemático inglés de 24 años Alan Turing publicó un artículo científico en relación a un problema matemático extremadamente abstracto; fue en este trabajo donde el término máquina computadora, referido a una versión teórica del ordenador moderno, vio por primera vez la luz. El ordenador, en principio una consecuencia imprevista del trabajo teórico de Turing, se convertiría en acaso el invento tecnológico más fundamental del último siglo, elevando a su inventor a la categoría de padre indiscutible de la informática. Cabe destacar que otras máquinas computadoras ya habían sido concebidas antes del siglo XX; el ‘motor diferencial’ y el ‘motor analítico’, dos calculadoras mecánicas increíblemente complejas diseñadas por el matemático británico Charles Babbage, son consideradas como los primeros prototipos de ordenador, a pesar de que su construcción nunca fue completada durante la vida de su inventor. No obstante, fue el trabajo teórico y práctico de Turing el que condujo directamente a la creación del primer computador electrónico durante la Segunda Guerra Mundial. El ahora famoso suicidio de Turing a sus 41 años, fruto de la depresión en que cayó después de que las autoridades británicas le obligaran a someterse a una terapia hormonal como ‘tratamiento’ para su homosexualidad, supuso una trágica e incalculable pérdida para la humanidad. Los avances que el genio podría haber legado al campo de la computación pertenecen ahora al reino de la imaginación.

Con la combinación de abstracciones simbólicas para representar la información, comunicaciones instantáneas e impresionantes máquinas computadoras, se podría pensar que el ser humano había logrado finalmente liberar el poder de la información hasta su último extremo. Esto queda muy lejos de la verdad, aún hoy; de hecho, el hombre ignoraba siquiera qué es realmente la información hasta hace unas décadas, cuando la teoría de la información, una nueva disciplina científica dedicada a explorar las facetas más abstractas de la misma, irrumpió en escena. En 1948, el padre de la teoría de la información, Claude Shannon, acuñó un nombre para la unidad elemental de la información, el bit (un diminutivo del inglés binary digit, ‘dígito binario’). Un bit se puede considerar como un átomo de información, ya que representa la cantidad más pequeña posible de la misma. Un bit sólo puede adoptar uno de dos valores posibles: cero (que normalmente significa ‘no’, ‘falso’, ‘apagado’) y uno (‘sí’, ‘verdadero’, ‘encendido’). Combinaciones de múltiples bits dan lugar a medidas de información cada vez más potentes y familiares, tales como bytes, megabytes y terabytes.

Aún más sorprendente fue el descubrimiento de que la información es, en realidad, algo muy distinto de una invención humana puramente abstracta. La propia naturaleza era ya una maestra en el uso y aprovechamiento de la información hace miles de millones de años. Hacia finales del siglo pasado, la ciencia ya había demostrado que las células están continuamente leyendo, procesando y actuando en respuesta a información proveniente de su entorno interno y externo. De forma similar a un ordenador, la célula emplea conjuntos de reglas para reaccionar a la información; pero, en lugar de circuitos electrónicos, confía en intrincadas redes de reacciones químicas entre moléculas señalizadoras especializadas, a fin de transferir información entre sus receptores —los cuales reconocen ciertas señales químicas, mecánicas o eléctricas— y las ‘máquinas’ moleculares encargadas de llevar a cabo la acción requerida. De forma crucial, estas redes de señalización no sólo son capaces de transmitir información, al igual que un cable, sino que también pueden procesarla, como el procesador de un ordenador. Tales habilidades computacionales permiten a la célula tomar decisiones vitales, como autorreplicarse, transformarse en un tipo de célula más especializado, o incluso suicidarse. Es gracias a estas redes de señalización que, por ejemplo, las neuronas en el cerebro se activan en respuesta a ciertas moléculas, denominadas neurotransmisores, y que las células epiteliales en la piel sienten la presencia de una herida abierta y comienzan a replicarse sin descanso hasta que ésta se cierra por completo.

Representación esquemática de la red de señalización celular conocida como la red mTOR. Cada rectángulo verde en el diagrama corresponde a una proteína diferente. (Fuente: Mol. Syst. Biol. 6:453.)

La información no es meramente algo creado y utilizado por el mundo natural y el ingenio humano, sino mucho más. Es una propiedad real y fundamental del universo físico en el que vivimos. Lo que normalmente llamamos información es sólo nuestra representación simplificada de la verdadera información contenida en el mundo que nos rodea. Consideremos, por ejemplo, una fotografía de algún objeto. La fotografía es una representación gráfica precisa del objeto en dos dimensiones, y como tal, contiene parte de su información, como su forma, color y textura. No obstante, carece de casi toda la información presente en el objeto real. Un sencillo ejemplo es el hecho de que a menudo es imposible estimar el tamaño de un objeto basándose en una fotografía, a menos que ésta incluya un segundo objeto cuyo tamaño ya conozcamos. En tal caso, podemos combinar la información procedente de nuestra experiencia previa del mundo con la información contenida en la fotografía, para realizar una inferencia acerca de la información en el objeto real.

Si descendemos a un nivel microscópico, la cantidad de información en el mundo físico se vuelve simplemente inconcebible. Consideremos de nuevo el caso de una célula —tal vez en nuestro propio cuerpo—. Al igual que en el ejemplo anterior, podemos medir diferentes tipos de información sobre esta célula, como su forma, tamaño, o la cantidad de ADN en ella, y representar dicha información de varias maneras. Sin embargo, la célula física contiene mucha, mucha más información; por ejemplo, la organización espacial de los orgánulos que la componen; la localización y estructura de cada una de sus enzimas, lípidos, proteínas, azúcares y ácidos nucleicos; la dinámica química que rige las redes de señalización que permiten a la célula reaccionar a su entorno; la suma de toda la información hereditaria codificada en su material genético; el nivel energético de cada electrón de cada átomo de cada partícula en ella; o las fuerzas nucleares que mantienen todas éstas juntas en la forma de un solo sistema, la célula. En otras palabras, algo tan minúsculo como una célula microscópica contiene una cantidad de información real, física, que sobrepasa el conjunto de toda la información simbólica producida por la humanidad durante el curso de la historia. Podemos echar una mirada en derredor y tratar de imaginar cuánta información es extraída continua e inconscientemente de nuestro entorno por nuestro cerebro; y cuánta información podríamos ser capaces de medir a partir de cada objeto y ser viviente a nuestro alrededor, si solamente contáramos con las herramientas adecuadas… y suficiente espacio de almacenamiento.

El esfuerzo de la humanidad por representar y manipular la información en su propio beneficio ha propiciado la invención de métodos cada vez más ingeniosos de representar, transmitir y almacenar información. Hemos descubierto, dominado y aprovechado las propiedades únicas ofrecidas por cada tipo de representación simbólica (símbolos escritos, agujeros, señales eléctricas, bits…) y de medio físico (piedra, papel, cables, ondas de radio, discos duros…). Aun con todo esto, nuestra comprensión de la información como una propiedad inherente del cosmos permanece incompleta, y nuevas formas de almacenar y transmitir información, desde partículas cuánticas hasta ADN, continúan siendo exploradas. El viaje hacia un control verdadero de la información está lejos de terminar; de hecho, puede que nos hallemos al borde mismo de nuestra auténtica revolución de la información.

Order and Disorder: The Story of Information. BBC documentary (2012).
Tyson, J.J., Novak, B. Control of cell growth, division and death: information processing in living cells. Interface Focus (2014).
Azeloglu, E.U., Iyengar, R. Signaling Networks: Information Flow, Computation, and Decision Making. Cold Spring Harbor Perspectives in Biology (2015).