divulgatum está dedicado a la difusión de conocimiento científico en español e inglés, mediante artículos que tratan en detalle toda clase de temas fascinantes pero poco conocidos.
divulgatum is devoted to the dissemination
of scientific knowledge in Spanish and English, through
articles that go into the details of all sorts of fascinating but not widely known subjects.

Sunday, September 10, 2017

Natural chaos



Patterns composed of ever-smaller branches are very common in nature; some examples are (clockwise from top left): plants, rivers, pulmonary bronchi and blood vessels.
(Credits: Catherine Macbride; Jassen Todorov; Guzel Studio; Inozemtsev Konstantin.)

IN SOME WAY, the movement of the celestial bodies across the sky resembles that of a colossal clockwork device. Stars and planets follow orbits which are neatly described by mathematical equations, such that by knowing their position at a given point in time, we can foretell their positions at any future time. This is the basis of our ability to predict lunar phases, solar and lunar eclipses, meteor showers and other astronomical phenomena. It is perhaps unsurprising that, until quite recently, science believed the whole universe to operate in such a way, following predictable, ‘clockwork’ processes. Such a view is termed ‘determinism’ since, according to it, the future is completely predetermined by mathematical equations, such that no randomness or unpredictability would be left, were we able to work out those equations. This was perfectly put by the prominent eighteenth-century mathematician Pierre-Simon Laplace, who wrote:

An intellect which, at a certain moment, would know all forces that set nature in motion, and all positions of all items of which nature is composed, if this intellect were also vast enough to submit these data to analysis, it would embrace in a single formula the movements of the greatest bodies of the universe and those of the tiniest atom; for such an intellect, nothing would be uncertain, and the future, just like the past, would be present before its eyes.

However elegant this might sound, over the second half of the last century it became increasingly clear to scientific minds that the universe is very little like this. Various natural processes, even though they could be perfectly described using mathematics, were found to display a behaviour that was, on all accounts, impossible to forecast. In time, these and other baffling discoveries led us to realise that unpredictability is an intrinsic property of the universe; not only this, but it is this very property that grants inanimate matter the dazzling ability to spontaneously organise itself into the complex shapes and structures of the natural world. The uncanny force responsible for the unpredictability of the world received what is, in fact, a very popular name — chaos.


Although the term ‘chaos’ commonly serves as synonym for disorder or mayhem, its mathematical meaning is more specific. In a system that can be completely described by deterministic mathematical equations, without any unknown or random component, chaos is the property that makes this system capable of behaving unpredictably. In order words, even if we know the state of the system at a given moment, and the equations that describe the system’s evolution, it is impossible for us to predict its future behaviour.


One of the first to describe a system with chaotic behaviour was the meteorologist Edward Lorenz, who in the early 1960s was trying to model the weather using mathematics. The dominant view at the time was that the weather was a deterministic phenomenon, and thus could be forecasted using equations. But once Lorenz had written down a set of equations that captured the dynamics of air masses, he found that these did not yield any useful predictions. Actually, his system appeared to suffer from extreme sensitivity to even the slightest change in its starting conditions; these variations, initially tiny, rapidly amplified across the system as this evolved, causing it to deviate from its predicted course, and thus leading to completely unexpected outcomes.

Lorenz presented his findings in a talk which he titled: ‘Does the flap of a butterfly’s wings in Brazil set off a tornado in Texas?’. This concept would rapidly capture the public’s imagination, giving birth to the popular expression ‘the butterfly effect’. What Lorenz’s results imply is that, even if we should, in theory, be able to forecast the weather by measuring a set of variables (such as atmospheric pressure, temperature, humidity, wind speed, etc.) and solving some equations that describe the evolution of atmospheric conditions, these equations are so sensitive to even infinitesimal changes in their initial values, that we cannot possibly measure the variables we need with such accuracy as to be able to reliably predict the weather beyond a couple of days from now. It turns out that the butterfly effect, that is, a high sensitivity to the initial conditions, is actually a hallmark of chaotic systems.

The butterfly effect is easier to understand thanks to a simpler phenomenon than the weather. In the 1970s, biologist Robert May was working on an equation to model the changes in animal populations over generations. This is known today as the logistic equation, and is indeed very simple. Given a value, Current Size, that represents the current size of a population in relation to its maximum possible size (for example, a value of 0.5 means that the population has half the maximum size), using the logistic equation, we can easily find out the size of the population in its next generation, Future Size:

Future Size = 3.7 × Current Size × (1 – Current Size).

The 3.7 value in the equation above is arbitrary, and as suitable as almost any other value between 3.6 and 4. Given this equation, if the current population size, Current Size, were, for instance, 0.27 (27% of the maximum size), then the size in the next generation would be:

Future Size = 3.7 × 0.27 × (1 – 0.27) = 3.7 × 0.27 × 0.73 ≈ 0.729.

The logistic equation is as simple as it looks, and yet it has a property which is shared between all chaotic systems: feedback. In other words, the equation’s result — in this case, 0.729 — is fed back into the equation, since this value will be the new Current Size when we try to determine the population size in the following generation (the next Future Size). Because the population size in each generation depends on the size in the previous generation, it is easy to see how even the smallest variation in our initial value will grow larger as we solve the equation for more and more generations. If the initial value of the system is a real amount that we need to measure, this implies that we can never measure it accurately enough as to be able to predict its future values indefinitely. But the more precision we achieve in our measurements, the longer we will reliably predict the system’s behaviour.

To show the logistic equation’s chaotic behaviour, let us use again the value 0.27 as our initial value for Current Size. We can use this value to calculate Future Size, which will then become the new Current Size, and repeat this process for many generations, making use of the logistic equation each time. Now, imagine that we did not measure the initial population size with absolute accuracy, and that the actual initial size was not 0.27, but 0.270001 (this represents a change of just 0.00037% in the initial value). In this case, it turns out that with our ‘inaccurate’ initial value of 0.27, we will only be able to predict the future population size for twenty-three generations, and no further. Beyond the twenty-third generation, the system will no longer abide by our predictions, and so we say that it behaves chaotically after this point.

Graph representing the evolution of the size of a population, as described by the logistic equation, for 50 generations and initial values of 0.27 (upper, in blue) and 0.270001 (lower, in red). The system follows the same evolution for the first 23 generations; after this point (discontinuous line), the system displays a different behaviour in each case. Therefore, with an initial value of 0.27 it is impossible to predict the system if the true initial value is not exactly 0.27. This is known as chaotic behaviour.

Chaos is not a rare phenomenon at all; it actually crops up everywhere, from climate to living systems to the stock market. The world is inevitably shrouded in unpredictability; on the other hand, the fact that chaos is so embedded in the fabric of the universe is what makes nature capable of spawning the amazing designs we see around us, from the shapes of clouds to the structure of our circulatory system. For, as a visionary mathematician named Benoît Mandelbrot discovered in the seventies, chaos is at the heart of a special kind of geometry that can be used to describe the rough and irregular shapes of nature. Mandelbrot realised that Euclidean geometry, which is concerned with perfect shapes, such as lines, triangles and spheres, is not able to explain the physical world around us; for neither are the mountains triangles, nor are the clouds spheres. Nature seems to have a preference for characteristically rough, ‘imperfect’ structures, and before Mandelbrot, no one knew how to measure and describe that roughness. Mandelbrot’s new geometry, fractal geometry, was one of the greatest mathematical revolutions of the twentieth century. Mandelbrot realised that there is a property common to almost all the shapes of nature, something called self-similarity. This can be described as the property by which an object is composed of parts that look themselves like small versions of the whole object. The closer we look at mountains, trees, clouds and sea waves, the more detail we see, and this new detail always repeats a similar geometric pattern. A tree branch resembles a small tree, just as a rock resembles a small mountain, depending only on how closely we observe them. Amazingly, the pattern of progressively smaller branches adopted by plants is also found in the structure of our blood vessels, our nerves and our lungs — just to mention some.

Mandelbrot discovered that this kind of irregular, self-similar forms, which he christened fractals, are described by simple mathematical equations that have the property of feedback, just like May’s logistic equation and Lorenz’s atmospheric model. This sparked an incredible breakthrough: the realisation that chaos is the force behind nature’s amazing ability to self-organise into the multitude of complicated structures and patterns we see in the world. Chaos is the property that empowers simple mathematical rules to spontaneously give rise to unimaginably complex systems. Our intuition of complexity as something that cannot suddenly arise from something much simpler, but that necessarily implies a process of complex, even conscious, design, needs to be reappraised. For nature is, at the same time, marvellously complicated and marvellously simple.



References:
The Secret Life of Chaos. BBC (2010).
Butterflies, Chaos and Fractals. Lecture by Prof. Raymond Flood, Gresham College (2013).
Benoît Mandelbrot. The Fractal Geometry of Nature (Henry Holt & Co., 1982).

Caos natural



Los patrones compuestos de ramificaciones cada vez más pequeñas son muy comunes en la naturaleza; algunos ejemplos son (en sentido de las agujas del reloj, desde la esquina superior izquierda): plantas, ríos, bronquios pulmonares y vasos sanguíneos.
(Imágenes: Catherine Macbride; Jassen Todorov; Guzel Studio; Inozemtsev Konstantin.)

EN CIERTO MODO, el movimiento de los cuerpos celestiales se asemeja al de un colosal dispositivo mecánico. Las estrellas y planetas siguen órbitas que pueden ser descritas de forma precisa por ecuaciones matemáticas, de modo que, conociendo sus posiciones en un instante dado, podemos vaticinar sus posiciones en cualquier momento futuro. Ésta es la base de nuestra capacidad para predecir fases lunares, eclipses de sol y de luna, lluvias de estrellas y otros fenómenos astronómicos. Quizá no deba sorprendernos el que, hasta hace bastante poco, la ciencia interpretara el universo entero de esta forma, como una gran máquina regida por procesos ‘mecánicos’, predecibles. Esta postura se conoce como ‘determinismo’, ya que, según ella, el futuro está absolutamente predeterminado por ecuaciones matemáticas, tal que nada permanecería aleatorio o impredecible si pudiéramos descifrar estas ecuaciones. Tal pensamiento quedó perfectamente expresado en palabras del prominente matemático del siglo XVIII Pierre-Simon Laplace, quien escribió:

Un intelecto el cual, en un cierto momento, conociera todas las fuerzas que dan movimiento a la naturaleza, y todas las posiciones de todos los elementos de los que la naturaleza está compuesta, si este intelecto fuera también lo suficientemente vasto como para someter estos datos a análisis, abarcaría en una sola fórmula los movimientos de los mayores cuerpos del universo y los del átomo más pequeño; para tal intelecto, nada sería incierto, y el futuro, tal como el pasado, estaría presente ante sus ojos.

Por muy elegante que esto pueda sonar, a lo largo de la segunda mitad del siglo pasado la comunidad científica vio cada vez con mayor claridad que el universo no se comporta de este modo. Varios procesos naturales fueron descubiertos, los cuales, pese a que podían ser perfectamente descritos matemáticamente, mostraban un comportamiento que era, a todas luces, imposible de pronosticar. Durante las décadas siguientes, estos y otros desconcertantes descubrimientos nos llevaron a comprender que la imprevisibilidad es una propiedad intrínseca del universo; no sólo esto, sino que es precisamente esta propiedad la que dota a la materia inanimada de la habilidad de autoorganizarse en las complejas formas y estructuras de la naturaleza. La inexplicable fuerza responsable de la imprevisibilidad del mundo recibió el que es, de hecho, un nombre muy popular: caos.


Aunque el término ‘caos’ es comúnmente un sinónimo de desorden o vorágine, su significado matemático es más concreto. En un sistema completamente descrito por ecuaciones matemáticas determinísticas, sin ningún componente desconocido o aleatorio, el caos es la propiedad que dota a este sistema de la capacidad de comportarse impredeciblemente. En otras palabras, incluso si conocemos perfectamente el estado del sistema en un momento dado, así como las ecuaciones que describen la evolución del sistema, es imposible predecir el comportamiento futuro del mismo.


Uno de los primeros en describir un sistema con comportamiento caótico fue el meteorólogo Edward Lorenz, quien a principios de los sesenta estaba intentando modelar el tiempo atmosférico mediante matemáticas. El pensamiento dominante de la época era que el tiempo era un fenómeno determinístico y, por tanto, podía ser pronosticado mediante ecuaciones. Pero una vez que Lorenz hubo escrito un conjunto de ecuaciones que describía la dinámica de masas de aire, se encontró con que éste no conducía a predicción útil alguna. Lo que su sistema parecía sufrir, en cambio, era una sensibilidad extrema a la más ligera variación en sus condiciones de inicio; estos cambios, aunque al principio fueran minúsculos, eran rápidamente amplificados a lo largo del sistema conforme éste evolucionaba, haciéndolo desviarse de su curso predicho, y llevando a resultados absolutamente inesperados.

Lorenz presentó sus hallazgos en una charla titulada: ‘¿Desencadena el aleteo de una mariposa en Brasil un tornado en Texas?’. Este concepto pronto capturó la imaginación popular, dando origen a la célebre expresión ‘el efecto mariposa’. Lo que los resultados de Lorenz implican es que, incluso si deberíamos, en teoría, poder predecir el tiempo midiendo una serie de variables (tales como presión atmosférica, temperatura, humedad, velocidad del viento, etc.) y resolviendo las ecuaciones que describen la evolución de las condiciones atmosféricas, la realidad es que estas ecuaciones son tan sensibles a cambios infinitesimales en sus valores iniciales, que nunca seremos capaces de medir las variables que necesitamos con suficiente precisión como para predecir el tiempo de forma fiable por más de unos días. Resulta que el efecto mariposa, es decir, la alta sensibilidad a las condiciones de inicio, es una marca distintiva de los sistemas caóticos.

El efecto mariposa es más fácil de entender gracias a un fenómeno más sencillo que el tiempo atmosférico. En los años setenta, el biólogo Robert May estaba trabajando en una ecuación para modelar los cambios en poblaciones de animales a lo largo de las generaciones. Esta ecuación se conoce hoy como la ecuación logística, y es verdaderamente simple. Dado un valor, Tamaño Actual, el cual representa el tamaño actual de una población en relación a su tamaño máximo posible (por ejemplo, un valor de 0,5 significa que la población tiene la mitad del tamaño máximo), usando la ecuación logística, podemos averiguar fácilmente el tamaño que tendrá la población en la siguiente generación, al que llamaremos Tamaño Futuro:

Tamaño Futuro = 3,7 × Tamaño Actual × (1 – Tamaño Actual).

El valor 3,7 en esta ecuación es arbitrario, y tan adecuado para nuestros propósitos como casi cualquier otro valor entre 3,6 y 4. Dada esta ecuación, si el tamaño actual de la población, Tamaño Actual, fuera, por ejemplo, 0,27 (el 27% del tamaño máximo), entonces el tamaño en la próxima generación sería:

Tamaño Futuro = 3,7 × 0,27 × (1 – 0,27) = 3,7 × 0,27 × 0,73 ≈ 0,729.

La ecuación logística es tan simple como parece, y aun así posee una propiedad que comparten todos los sistemas caóticos: retroalimentación. En otras palabras, el resultado de la ecuación (en este caso, 0,729) es introducido de nuevo en la ecuación, dado que este valor se convertirá en el nuevo Tamaño Actual cuando intentemos determinar el tamaño de la población en la generación siguiente (el nuevo Tamaño Futuro). Debido a que el tamaño de la población en cada generación depende del tamaño en la generación anterior, es fácil ver que incluso la variación más minúscula en nuestro valor inicial se expandirá a medida que resolvemos la ecuación para más y más generaciones futuras. Si el valor inicial del sistema es una cantidad real que debe ser medida, esto implica que nunca podremos medirla con la suficiente precisión como para poder predecir sus futuros valores indefinidamente. Pero cuanto mayor precisión logremos en nuestras mediciones, por más tiempo podremos predecir fiablemente el comportamiento del sistema.

Con objeto de ilustrar el comportamiento caótico de la ecuación logística, usaremos de nuevo el valor 0,27 como nuestro valor inicial del Tamaño Actual. Podemos usar este valor para calcular el Tamaño Futuro, que se convertirá a continuación en el nuevo Tamaño Actual, y repetir este proceso por muchas generaciones, haciendo uso de la ecuación logística en cada paso. Ahora, imaginemos que no hemos medido el tamaño inicial de la población con precisión absoluta, y que el auténtico tamaño inicial no era 0,27, sino 0,270001 (esto supone un cambio de sólo un 0,00037% en el valor de inicio). En tal caso, resulta que con nuestro ‘impreciso’ valor inicial de 0,27, solamente seremos capaces de predecir el tamaño futuro de la población durante veintitrés generaciones, y no más. Tras la vigesimotercera generación, el sistema no se ceñirá a nuestras predicciones, por lo que decimos que se comporta caóticamente pasado este punto.

Gráfica que representa la evolución del tamaño de una población, descrito por la ecuación logística, durante 50 generaciones, para los valores iniciales 0,27 (superior, en azul) y 0,270001 (inferior, en rojo). El sistema sigue la misma evolución durante las primeras 23 generaciones; pasado este punto (línea discontinua), el sistema muestra comportamientos diferentes en cada caso. Por tanto, con un valor inicial de 0,27 es imposible predecir el sistema si el verdadero valor inicial no es exactamente 0,27, lo que se conoce como comportamiento caótico.

El caos no es en absoluto un fenómeno extraño; en realidad, está presente en todas partes, desde el clima hasta los sistemas vivientes, pasando por el mercado de valores. El mundo está inevitablemente inmerso en la imprevisibilidad; por otra parte, el hecho de que el caos esté tan infiltrado en el tejido del universo es lo que ha hecho a la naturaleza capaz de dar lugar a los asombrosos diseños que vemos a nuestro alrededor, desde la forma de las nubes hasta la estructura de nuestro sistema circulatorio. Pues, tal como un visionario matemático llamado Benoît Mandelbrot descubrió en los setenta, el caos es esencial para un tipo especial de geometría, el cual es capaz de describir las formas rugosas e irregulares de la naturaleza. Mandelbrot era consciente de que la geometría euclídea, que se interesa por las formas perfectas, tales como líneas, triángulos y esferas, no sirve para explicar el mundo físico que nos rodea; pues ni las montañas son triángulos, ni las nubes son esferas. La naturaleza parece tener preferencia por formas característicamente rugosas, ‘imperfectas’, y antes de Mandelbrot, nadie sabía cómo medir y describir tal rugosidad. La nueva geometría de Mandelbrot, la geometría fractal, fue una de las mayores revoluciones matemáticas del siglo XX. Mandelbrot intuyó que existe una propiedad común a casi todas las formas naturales, algo llamado autosemejanza. Ésta se puede describir como la propiedad por la que un objeto se compone de partes que se asemejan a versiones más pequeñas del objeto completo. Cuanto más de cerca observamos las montañas, los árboles, las nubes y las olas del mar, más y más detalle somos capaces de ver, y este nuevo detalle repite siempre un patrón geométrico similar. Una rama de un árbol se asemeja a un árbol pequeño, tal como una roca se asemeja a una montaña pequeña, dependiendo tan sólo de cómo de cerca las observemos. Increíblemente, el patrón de ramificaciones cada vez más pequeñas adoptado por las plantas está también presente en la estructura de nuestros vasos sanguíneos, nuestros nervios y nuestros pulmones, por citar sólo algunos.

Mandelbrot descubrió que este tipo de formas irregulares y autosemejantes, a las cuales denominó fractales, son descritas por sencillas ecuaciones matemáticas que poseen la propiedad de retroalimentación, tal como la ecuación logística de May y el modelo atmosférico de Lorenz. Esto desencadenó un avance prodigioso: el entendimiento de que el caos es la fuerza detrás de la increíble habilidad de la naturaleza para generar la multitud de complicadas estructuras y patrones que encontramos en el mundo. El caos es la propiedad que otorga a las reglas matemáticas más simples el poder para dar lugar, espontáneamente, a sistemas inimaginablemente complejos. Nuestra noción intuitiva de la complejidad como algo que no puede emerger súbitamente a partir de algo mucho más simple, sino que implica necesariamente un proceso de diseño complejo, incluso consciente, necesita ser replanteada. Porque la naturaleza es, al mismo tiempo, maravillosamente complicada y maravillosamente simple.



Referencias:
The Secret Life of Chaos. BBC (2010).
Butterflies, Chaos and Fractals. Ponencia por el Prof. Raymond Flood, Gresham College (2013).
Benoît Mandelbrot. The Fractal Geometry of Nature (Henry Holt & Co., 1982).

Sunday, May 7, 2017

On the universality of life



Cyanobacteria were among the earliest life forms on Earth, and are still found in almost every habitat. Over millions of years, they created the atmospheric oxygen that we breathe today.
(Image credit: Josef Reischig/Wikimedia.)

HOW FREQUENT IS life in our universe? The answer depends, primarily, on how easy it is for life to arise in the first place.

Even in the case that life had the smallest imaginable chance of occurring — while not being impossible, as we can tell for ourselves — we would certainly not be alone in the cosmos. The sheer size of our universe simply rules out the possibility that ours is the only planet to harbour life. If only one in a trillion stars were to have an orbiting planet in conditions such that the emergence of life were possible — these relate to the presence of liquid water, which is thought to be one of the few essential requirements for life as we know it — the number of stars in the universe is so inconceivably huge that there would exist billions of such habitable worlds throughout the cosmos.

How life on Earth began, how matter suddenly self-organised into autonomous systems with the ability to perpetuate themselves over time, is undoubtedly one of the most fascinating questions ever presented to human curiosity. It is also among the most hotly debated ones, and there are still a number of possibly valid answers to it. The most widely accepted one is that life, by what seems an unimaginable stroke of luck, at some point spontaneously assembled itself from the different essential molecules, such as lipids and amino acids, that where ubiquitous in the hot primordial seas of young Earth. Alternatively, if life on our planet did not arise on its own, then it must have been introduced from outer space, perhaps as frozen primitive cells which hitched a long ride on a comet or an asteroid. Nonetheless, in most scientists’ view, it is far more likely that some extremely primitive form of life arose by fortunate assembly of organic molecules — which is not that fortunate after all, given that it took hundreds of millions of years for this to happen — rather than the aggregate probability that life originated in some other part of the universe and was subsequently brought to Earth by whichever means.


By studying nature over centuries, we have gradually worked out the set of intangible rules that govern all forms of life on Earth. Such rules, I believe, are directly derived from the physical laws that permeate our cosmos, and are therefore universal. If the fundamental laws of physics, such as those which describe the gravitational and electromagnetic forces, seem to apply evenly throughout the known universe, then the principles of life, being an elaboration of the former, should be equally valid in any setting where life is viable, provided that there is sufficient time for life to arise. Although long time spans seem to be required for the emergence of life, once this occurs, life must abide to the very same laws that direct it on our own world. If we were to gather these laws under a single name, we should turn to what is undoubtedly one of the most transformative concepts in the history of science — so much so that some persist to reject it still today, in quite the same way as others in the past rejected the notion that the Earth is not at the centre of the universe. The concept’s name is, of course, evolution.


As an omnipresent life-powering process, evolution arises from the combination of various properties of life itself. The first of these is life’s necessity to replicate itself in order to avoid death, for even an ideal organism that is not affected by ageing, given sufficient time, will ineluctably die of some cause. The process of replication of living things is bound to be imperfect, due to the impossibility of perfection being an intrinsic and evident property of our universe. Perfection is a concept devised by humans; in reality, there exists no perfectly smooth surface, no perfectly uniform substance, no matter or process which is free from the smallest degree of physical imperfection, anywhere in the cosmos. In fact, there are no such things as ‘perfection’ and ‘imperfection’ in the universe; anything that abides to its physical laws is just fine. The impossibility of perfection implies that, instead of being identical copies of each other, organisms will accumulate minute differences over generations, thus introducing variation, which is a central ingredient of evolution, in their populations.

Secondly, because of the pressures imposed by the environment in which organisms live — which can often be reduced to the restless struggle to eat and not being eaten — such differences between creatures of a same kind will make them not just different, but better or worse than others at playing the game of life. Specifically which individuals are better, however, is something that can vary at any time, in response to the whims of an ever-changing environment. One of the fundamental principles of life, which is but an application of simple causality, prescribes that those individuals which are better adapted to the environment will survive longer and replicate more, gradually displacing the less-fit individuals in their population and slowly shaping their species over time. This phenomenon, which seems obvious today, yet took thousands of years for us to grasp, is called natural selection. And, together with variation, it is the driving force behind evolution.

Evolution is therefore the consequence of two unavoidable phenomena in life: first, variation between living things, caused by imperfections in the processes by which these replicate themselves; and second, natural selection of those individuals which are better equipped for survival. Because variation provides the ‘pool’ of possible forms from which natural selection can ‘pick’, those organisms which are constantly exposed to very hostile environments, such as viruses or cancer cells, tend to vary extremely quickly, by favouring imperfect replication systems that allow them to adapt and evolve faster.

It is therefore sensible to affirm that, wherever in the universe life may arise, even if we cannot predict many of its qualities, we can be certain that it will abide to the universal laws of replication, variation and selection; quite simply because these are the only possibility for the survival of life, just as gravity is the only possibility for the existence of stars and planets. Moreover, there are some physical characteristics of living things that could indeed be predicted under certain conditions. For example, even if the concrete shape and lifestyle of alien organisms is unknowable to us, we can safely say that they will need to gather some information about their surroundings — they will need some way to sense. If we accept that life will occur within a fluid, such as water or air, it is virtually sure that, as their complexity increases, living beings will soon evolve some means of sensing mechanical or electrical changes in such fluid. If life is exposed to the light of a star — which is needed for liquid water to exist — evolution will no doubt come up with sensors to detect changes in this light: eyes, as simple or complex as we may imagine them. Even very basic organisms, such as the mould or cyanobacteria in our world, will benefit from some chemical way to learn, at least to an elementary degree, what is going on in their immediate vicinity. This is so important an advantage, that some of these sensors have already arisen multiple times here on Earth. For instance, the eyes of an octopus and our own eyes are not evolutionarily related — that is, the eyes of vertebrates and cephalopods were independently evolved — and yet they perform the same exact function and are staggeringly similar. This phenomenon, termed convergent evolution, gives a hint of just how powerful a life-shaping force natural selection can be.

It is also enlightening that, despite evolution sometimes giving rise to complex life forms, we find a striking variety of very simple organisms living around us today — so simple indeed that we cannot even see them. The fact that a huge diversity of microorganisms, including bacteria and viruses, still thrive on Earth four billion years after the beginning of life is a clear sign that complexity is not a requisite for survival. This is especially true in the case of intelligence, which we tend to regard as the pinnacle of evolution. Complexity, particularly in the case of advanced intelligence, is a very expensive characteristic to develop and maintain for a species, and therefore evolution does not go down that path very often; otherwise, there would be many more complex and highly intelligent species around us. Moreover, with all of man’s supposed superiority over all other life forms, one must consider the actual likelihood that our species will still be here in just a million years from now. In my view, it is difficult to overstress how unlikely our long-term survival is, especially as we are already failing to manage the development of our own populations, as well as the unsustainable overuse of natural resources which we regard to be infinite. On the other hand, the simplest life forms on this planet have been around almost since the beginning of life, and are likely to stay until the day Earth becomes completely uninhabitable.

If an overdeveloped intelligence is probably not very suitable for long-term survival, it does spark a unique phenomenon — the temporary alteration of the rules of life. Thanks to the development of our societies, technology and medicine, those who, according to nature’s dictates, are less fit for survival, nevertheless have an opportunity to defy natural selection. In other words, we have used our intelligence to bypass the very laws which dictate who survives and who perishes; and by doing so, although making life much fairer from our standpoint, we have effectively arrested the progress of our evolution. We have in fact just begun treading our own evolutionary path, which will be largely independent of the natural environment around us; the threats to our survival are no longer to come from the natural world, but rather from the artificial world that we have built for ourselves.

I maintain that life is far from a one-off accident. Life is a property of our cosmos. Given the appropriate setting, it will naturally occur, in the same way as stars, nebulae or black holes are triggered by a specific series of conditions and events. Our knowledge of life on Earth tells us that the laws which define such life, whatever its shape, size or ecological role may be, are but a natural consequence of the imperfect character of the universe and the plain interactions between life forms and their environment (including other life forms). Together with the unfathomable scale of the cosmos, of which Earth itself is just an unremarkable, negligible blue atom, the simplicity and universality of these principles indicate that life is no uncommon thing in our universe. On the contrary, life must be everywhere around us; although it may be too far away, buried in the void reaches of space, for us ever to discover it.


Sobre la universalidad de la vida



Las cianobacterias fueron unas de las primeras formas de vida en la Tierra, y aún pueden encontrarse en casi cualquier hábitat. A lo largo de millones de años, crearon el oxígeno atmosférico que respiramos hoy.
(Imagen: Josef Reischig/Wikimedia.)

¿CÓMO DE FRECUENTE es la vida en nuestro universo? La respuesta depende, fundamentalmente, del grado de facilidad con que la vida pueda aparecer en primer lugar.

Incluso en el caso de que la probabilidad de la aparición de vida fuera lo más pequeña imaginable —sin llegar a ser nula, como sabemos por experiencia—, ciertamente no estaríamos solos en el cosmos. La extensión del universo en que vivimos simplemente invalida la posibilidad de que el nuestro sea el único planeta en albergar vida. Si tan sólo una de cada billón de estrellas tuviera en órbita un planeta con condiciones tales que la aparición de vida fuera posible —éstas están ligadas a la presencia de agua líquida, uno de los pocos requisitos indispensables para la vida tal como la conocemos—, el número de estrellas en el universo es tan inconcebiblemente grande que podría haber miles de millones de tales mundos habitables.

El comienzo de la vida en la Tierra, la súbita auto-organización de la materia inerte en sistemas autónomos con la capacidad de perpetuarse a sí mismos en el tiempo, es sin duda uno de los más fascinantes enigmas jamás presentados ante la curiosidad humana. Ha sido también uno de los más largamente debatidos, y aún hoy en día existen diferentes posibles explicaciones. La más aceptada es que la vida, mediante lo que aparenta ser un inimaginable golpe de suerte, en algún momento se originó espontáneamente a partir de las diferentes moléculas esenciales, tales como lípidos y aminoácidos, que abundaban en los cálidos mares primordiales de una Tierra todavía joven. Por el contrario, si la vida no comenzó en nuestro planeta, entonces tuvo que haber sido introducida desde el espacio, quizá en forma de células primitivas que, congeladas, realizaron un larguísimo viaje a bordo de un cometa o un asteroide. No obstante, en la opinión de la mayoría de los científicos, es mucho más probable que una forma de vida extremadamente primitiva surgiera de una combinación fortuita de moléculas orgánicas —quizá no tan fortuita, teniendo en cuenta que fueron necesarios cientos de millones de años para que esto ocurriera—, frente a la probabilidad conjunta de que la vida se originase en algún otro rincón del universo y fuera luego transportada a la Tierra por cualesquiera medios.


A lo largo de siglos de estudiar la naturaleza, hemos ido descubriendo un conjunto de reglas intangibles que gobiernan toda forma de vida en nuestro planeta. Tales reglas, en mi opinión, se derivan directamente de las leyes físicas que rigen nuestro universo, y son, por tanto, universales. Si las leyes fundamentales de la física, tales como las que describen las fuerzas gravitatoria y electromagnética, parecen aplicarse homogéneamente a lo largo y ancho del universo conocido, entonces las leyes de la vida, siendo una elaboración de aquéllas, deben ser igualmente válidas en cualquier escenario en el que la vida sea posible, siempre que se disponga de suficiente tiempo para el surgimiento de la misma. Aunque esto parece requerir lapsos de tiempo considerablemente largos, una vez que la vida nazca, donde quiera que esto suceda, deberá por fuerza adherirse a los mismos principios que la rigen en nuestro propio mundo. Si quisiéramos reunir estos principios bajo un solo nombre, deberíamos acudir al que es sin duda uno de los conceptos más transformativos en la historia de la ciencia; tanto así, que algunos insisten en rechazarlo incluso hoy, al igual que otros en el pasado rechazaron la idea de que la Tierra no se encuentra en el centro del universo. El nombre de tal concepto es, por supuesto, evolución.


Como proceso propulsor de la vida, la evolución nace de la combinación de varias propiedades fundamentales de la misma. La primera de éstas es que la vida necesita replicarse a sí misma con el fin de evitar la muerte, dado que incluso un organismo ideal que fuera inmune al envejecimiento, llegado un punto, perecería irremediablemente por una u otra causa. El proceso por el cual las formas de vida se replican a sí mismas está condenado a ser imperfecto, ya que la imposibilidad de perfección es una propiedad evidente e intrínseca de nuestro propio universo. La perfección es un concepto ideado por el ser humano; en la realidad, no hay ninguna superficie perfectamente lisa, ninguna sustancia perfectamente uniforme, ningún proceso o materia libre del más mínimo grado de imperfección física, en ningún lugar del cosmos. De hecho, cosas tales como ‘perfección’ o ‘imperfección’ son inexistentes; cualquier cosa que se ciña a las leyes de la física es simplemente aceptable. La imposibilidad de perfección implica que, en lugar de ser copias idénticas, los organismos irán acumulando diferencias minúsculas a lo largo de las generaciones, introduciendo así variación, la cual es un ingrediente esencial de la evolución, en sus poblaciones.

En segundo lugar, debido a las presiones impuestas por el entorno en que los organismos viven —las cuales pueden a menudo reducirse a la perpetua lucha por comer y no ser comido—, tales diferencias entre criaturas de la misma clase las harán no sólo diferentes, sino mejores o peores jugadoras del juego de la vida. Qué individuos en concreto son mejores, no obstante, es algo que puede variar en cualquier momento, en respuesta a los caprichos de un entorno natural siempre cambiante. Uno de los principios fundamentales de la vida, el cual no es sino una aplicación de la simple causalidad (que no casualidad), establece que aquellos individuos mejor adaptados al entorno sobrevivirán por más tiempo y se replicarán más, desplazando gradualmente a los individuos peor adaptados de la población, y moldeando así lentamente a su especie. Este fenómeno, que parece obvio hoy en día pero nos llevó miles de años aprehender, se conoce como selección natural. Y, junto con la variación, es la fuerza motriz de la evolución.

La evolución es, por tanto, la consecuencia de dos fenómenos inevitables en la vida: primero, variación entre los seres vivos, a raíz de las imperfecciones en los procesos por los cuales éstos se replican a sí mismos; y segundo, selección natural de aquellos individuos mejor equipados para la supervivencia. Dado que la variación provee el ‘suministro’ de posibles formas entre las que la selección natural puede ‘escoger’, los organismos que sufren una exposición constante a entornos altamente hostiles, como virus o células cancerosas, tienden a variar extremadamente deprisa, favoreciendo sistemas de replicación imperfectos que les permiten adaptarse y evolucionar más rápidamente.

Es por tanto sensato afirmar que, dondequiera que la vida tome forma en el universo, incluso si no podemos predecir muchas de sus cualidades, podemos estar seguros de que obedecerá las leyes universales de replicación, variación y selección; sencillamente porque éstas son el único medio para la supervivencia de la vida, del mismo modo que la gravedad es el único medio para la existencia de estrellas y planetas. Hay, además, ciertos aspectos de la vida que probablemente sí podrían ser predichos bajo circunstancias específicas. Por ejemplo, aun cuando la forma y conducta de organismos extraterrestres nos son incognoscibles, podemos decir con seguridad que estos tendrán la necesidad de recopilar alguna clase de información relativa a su entorno; en otras palabras, necesitarán un modo de sentir. Si asumimos que la vida tendrá lugar en un fluido, tal como agua o aire, es prácticamente seguro que tales criaturas, conforme aumenta su complejidad, pronto adquirirán una forma de detectar cambios mecánicos o eléctricos en dicho fluido. Si la vida está expuesta a la luz de una estrella —la cual es necesaria para la presencia de agua líquida—, la evolución proveerá sin duda sensores para detectar cambios en esta luz: ojos, tan simples o complejos como queramos imaginarlos. Incluso organismos muy simples, comparables al moho o las cianobacterias de nuestro mundo, necesitarán de algún medio químico para conocer, al menos a un nivel elemental, lo que ocurre en su entorno inmediato. Esto constituye una ventaja tan crucial, que algunos de estos sensores ya han aparecido más de una vez aquí en la Tierra. Por ejemplo, los ojos de un pulpo y nuestros propios ojos no guardan ninguna relación evolutiva —es decir, los ojos de los vertebrados y de los cefalópodos evolucionaron independientemente—, pese a que ambos desempeñan idénticas funciones y son asombrosamente similares. Este fenómeno, denominado evolución convergente, da una idea de la potencia de la selección natural como fuerza moldeadora de la vida.

Es también aleccionador el hecho de que, a pesar de que la evolución a veces da lugar a formas de vida complejas, todavía encontramos una sorprendente variedad de organismos muy simples a nuestro alrededor —tan simples, de hecho, que no podemos siquiera verlos—. El que una inmensa diversidad de microorganismos, incluyendo bacterias y virus, continúen proliferando en la Tierra cuatro mil millones de años después del inicio de la vida es una clara señal de que la complejidad no es un requisito para la supervivencia. Esto es especialmente cierto en el caso de la inteligencia, la cual tendemos a considerar como la cúspide de la evolución. La complejidad, especialmente en el caso de la inteligencia avanzada, es un rasgo muy caro de desarrollar y mantener para una especie y, en consecuencia, la evolución no suele seguir ese camino; de lo contrario, encontraríamos muchas más especies complejas y altamente inteligentes a nuestro alrededor. Es más, con toda la supuesta superioridad del ser humano sobre cualquier otra forma de vida, uno debe considerar la probabilidad de que nuestra especie continúe aquí dentro de tan sólo un millón de años. En mi opinión, es difícil exagerar cómo de improbable es nuestra supervivencia a largo plazo, especialmente teniendo en cuenta que ya estamos fallando en controlar el desarrollo de nuestras poblaciones, así como el sobreuso insostenible de unos recursos naturales que creemos infinitos. Por otra parte, los organismos más simples de este planeta llevan aquí casi desde los propios comienzos de la vida, y probablemente seguirán aquí hasta el día en que la Tierra se vuelva absolutamente inhabitable.

Aunque una inteligencia desproporcionadamente alta probablemente no sea un rasgo muy deseable para la supervivencia a largo plazo, al menos desencadena un fenómeno único: la alteración temporal de las leyes de la vida. Gracias al desarrollo de nuestras sociedades, tecnología y medicina, aquellas personas que, de acuerdo a los dictados de la naturaleza, son menos aptas para la supervivencia, tienen sin embargo la oportunidad de desafiar a la selección natural. En otras palabras, con nuestra inteligencia, hemos sido capaces de circunvalar las leyes que dictan quién sobrevive y quién perece; y con ello, aunque hemos hecho la vida mucho más justa desde nuestro punto de vista, también hemos detenido el progreso de nuestra evolución. De hecho, no hemos sino comenzado a adentrarnos en nuestra propia senda evolutiva, la cual habrá de ser, en gran medida, independiente del entorno natural que nos rodea; las amenazas a nuestra supervivencia no se hallan ya en el mundo natural, sino en el mundo artificial que nos hemos construido.

Yo sostengo que la vida está muy lejos de ser un accidente excepcional. La vida es una propiedad de nuestro universo. Dadas las condiciones adecuadas, ocurrirá de forma natural, del mismo modo que las estrellas, las nebulosas o los agujeros negros se originan a consecuencia de una serie específica de condiciones y eventos. Nuestro conocimiento de la vida en la Tierra nos enseña que las leyes que la definen, sin importar la forma, tamaño o función ecológica que la vida adopte, no son sino una consecuencia natural del carácter imperfecto del cosmos y de la simple interacción entre las formas de vida y su entorno (incluyendo otras formas de vida). Junto con la escala inconcebible del cosmos, del cual la propia Tierra no es más que un invisible átomo azul, la simplicidad y universalidad de estos principios indican que la vida no es algo inusual en nuestro universo. Al contrario, la vida tiene que ser omnipresente a nuestro alrededor; aunque quizá se halle demasiado lejos, sepultada en la profundidad vacía del espacio, como para que lleguemos a descubrirla.


Saturday, February 4, 2017

The pursuit of information

Humanity’s efforts to dominate and understand information have drastically transformed our world and our very perception of the cosmos.


Cuneiform script was one of the earliest writing systems, developed by the Sumerians of Mesopotamia (modern-day Iraq) in the late fourth millennium BC. Some of its signs represent syllables, while others are logograms, representing entire words. We still use certain logograms today, such as the symbols $, % and &. (Museum of Anatolian Civilizations, Ankara.)

AS CITIZENS OF A WORLD dominated by technology, we are used to manipulating information on a daily basis; yet few of us ever wonder about information itself. In fact, information has been a very hard notion for humans to grasp, and it has been only very recently that we have begun to figure out its true nature and the extraordinary role it plays in our universe.

Human history readily reveals that our proficiency in manipulating and structuring data is mainly a product of a tremendous revolution which has unfolded over the last two centuries. The first steps of humanity’s conscious use of abstract forms of information, however, date back to a much earlier epoch. The starting point lies some five thousand years in the past, in what is arguably the greatest invention in history, yet one of the simplest — writing. Thanks to symbols representing either whole words (logograms, such as Chinese characters) or individual sounds (phonograms, like the letters in an alphabet), humanity’s ideas, emotions and events could suddenly be extracted from the human brain and stored physically on durable materials like clay, stone or papyrus. Such disruptive, otherworldly technology immediately sparked a tremendous cultural revolution, bringing prehistory to an end and setting human history in motion. This was but the very beginning of a long journey toward mastering information.

For the following five thousand years, writing was pretty much the only way of manipulating and recording information known to humans. The next great milestone in our relationship with information would not arrive until the nineteenth century’s Industrial Revolution. It came from a brilliant French industrialist and inventor named Joseph Marie Jacquard, who in 1804 patented what was the most complex apparatus designed to that day. The Jacquard loom, with its apparently rudimentary wooden structure, was in fact the first commercial programmable device, having the stunning ability to weave any desired pattern in silk without human intervention. This was achieved by means of thousands of punched cards (paper slips with patterns of holes and blank spaces in them), which together carried the information needed to precisely create a particular fabric design. By transforming the information from drawings to abstract patterns of holes and blanks, and empowering the machine to translate the unintelligible patterns into tangible, incredibly detailed silk designs, the strenuous process of weaving was sped up to an extent that was simply unimaginable before, consolidating France as the world capital of silk production. Given a large enough number of cards, symbols as simple as holes and blanks could capture the information of even the most complicated pattern — or, in fact, of anything we can think of. For the first time, information abstraction and programmable machines had shown their potential for superhuman performance in repetitive, labour-intensive tasks. Today, nearly any repetitive manufacturing task is mindlessly performed by machines.


Equally transformative was the irruption of two landmark technological inventions of the nineteenth century, Samuel Morse’s electric telegraph — preceded by other, overly complicated telegraph designs — and his eponymous coding system, the Morse code. Thanks to these, messages could easily be encoded into electrical pulses and rapidly sent along wires. The world was soon shrouded in a global, dense telecommunications network — something that we see as a given today. It was the very dawn of the ‘information age’, which would be characterised by spectacularly fast, reliable and virtually limitless electronic communication systems.


However, the invention that we would perhaps recognise as most influential to modern human life (indeed, many of us have been staring at one for most of the day) was not to arrive until the mid-twentieth century, by the hand of one of the most brilliant minds in history. In 1936, the then-24-year-old British mathematician Alan Turing published an article that addressed a highly abstract mathematical problem; it was in this work that the term computing machine, meant as a theoretical version of the modern computer, first saw the light. An unforeseen consequence of Turing’s theoretical work, the computer was to become arguably the most fundamental practical invention of the last century, lionising its inventor as the undisputed father of informatics. Notably, other kinds of computing machines had already been devised before the twentieth century; the ‘difference engine’ and the ‘analytical engine’, two mind-boggling mechanical calculators designed by the British mathematician Charles Babbage, are widely regarded as the first computer prototypes, albeit they were never completely built in their inventor’s lifetime. However, it was Turing’s theoretical and practical work that directly led to the invention of the first electronic computer during World War II. Turing’s now-famous suicide at the age of 41, triggered by the depression he was thrown into after the British authorities forced him to undertake hormonal therapy as a ‘treatment’ for his homosexuality, entailed a tragic and incalculable loss for mankind. The breakthroughs he could have ushered into the field of computing are now left to the imagination.

With the combination of symbolic abstractions to represent information, instant communications, and breath-taking computing machines, one may think that humans had finally unleashed information’s power to its full extent. This remains far from true today; in fact, we did not even know what information really is until some decades ago, when information theory, a new scientific discipline devoted to exploring the most abstract facets of information, was founded. In 1948, the father of information theory, Claude Shannon, formally coined a name for the elementary unit of information, the bit (a contraction of ‘binary digit’). Bits can be thought of as the atoms of information, since they represent the smallest possible quantity of it. A bit can only hold one of two possible values: zero (usually meaning ‘off’, ‘false’, ‘no’) and one (‘on’, ‘true’, ‘yes’). Combining multiple bits gives rise to increasingly powerful, and familiar, measures of information, such as bytes, megabytes and terabytes.

Even more bewildering was the realisation that information is actually far from a purely abstract human invention. Nature itself was already a master at handling and exploiting information billions of years ago. By the end of the last century, it had become clear to science that the living cell is continuously reading, processing and responding to information from its inner and outer environment. Similar to a computer, the cell employs sets of rules to react to information; but instead of electronic circuits, it relies on intricate networks of chemical reactions between specialised signalling molecules, in order to transfer information from its receptors — which recognise certain chemical, mechanical or electrical signals — to the molecular ‘machines’ that perform the required action. Crucially, these signalling networks are not only able to transmit information, like a wire, but they can also process it, like a computer’s processor. This is possible thanks to the existence of different possible states (for example, ‘active’ and ‘inactive’) between which some molecules and chemical reactions in the cell can switch, just like the minute transistors in a computer do. Such computational abilities enable the cell to make vital decisions such as self-replicating, transforming into a more specialised type of cell, or even committing suicide. It is thanks to signalling networks that, for example, neurons in the brain fire in response to special molecules termed neurotransmitters, or epithelial cells in the skin sense the presence of an open wound, and start replicating ceaselessly until the gash is fully closed.


Diagrammatic representation of a cellular signalling network known as the mTOR network. Each green rectangle in the diagram corresponds to a different protein. (Credit: Mol. Syst. Biol. 6:453.)

Information is not merely something created and wielded by both the natural world and human ingenuity, but very much more. It is a real, fundamental property of the physical universe which we inhabit. What we usually call information is just our simplified representation of the actual information concealed in the world around us. Think, for example, of a photograph of some object. The photograph is a precise graphical representation of the object in two dimensions and, as such, contains some of its information, such as shape, colour and texture. And yet, it is missing almost all the information present in the actual object. A simple example of this is that it is often impossible to figure out the real size of an object on the basis of a picture, unless the scene includes another object whose size we already know. We then combine the information coming from our previous experience of the world with that in the picture, to make an inference about the actual object’s information.

If we go down to the microscopic level, the amount of information in the physical world becomes simply fathomless. Consider again the case of a living cell — perhaps in your own body. As in the example above, we can measure different types of information about the cell, such as its shape, its size, or the amount of DNA in it, and represent such information in various ways. However, the physical cell still harbours much, much more information; for instance, the spatial arrangement of the organelles that compose it; the location and structure of every one of its enzymes, lipids, proteins, sugars and nucleic acids; the chemical dynamics of the signalling networks that allow it to react to its environment; the sum of all the hereditary information encoded in its genetic material; the energy level of every electron of every atom of every single particle in it; and the nuclear forces binding them all together as a single system, the living cell. In other words, something as small as a microscopic cell holds an amount of real, physical information that surpasses all the symbolic information produced by humanity over the whole course of history. We can take a look around and try to imagine how much information our brains constantly and subconsciously extract from our surroundings; and how much information we would be able to measure from every object and living thing around us, if only we had access to the right tools — and sufficient storage space.


Humanity’s effort to represent and exploit information for its own benefit has seen the invention of ever more-ingenious ways of representing, transmitting and storing the latter. We have discovered, mastered and taken advantage of the unique properties granted by each type of symbolic representation (written symbols, holes, electrical signals, bits…) and physical medium (stone, paper, wires, radio waves, hard disk drives…); yet our understanding of information as an inherent property of the cosmos is still incomplete. Furthermore, novel means of storing and transmitting information, from quantum particles through to DNA, are continuously being explored. The journey towards achieving true control of information is far from finished; in fact, we may be just at the brink of our real information revolution.



Special thanks are due to Máire Ní Leathlobhair for her invaluable help with composition.

References:
Order and Disorder: The Story of Information. BBC documentary (2012).
Tyson, J.J., Novak, B. Control of cell growth, division and death: information processing in living cells. Interface Focus (2014).
Azeloglu, E.U., Iyengar, R. Signaling Networks: Information Flow, Computation, and Decision Making. Cold Spring Harbor Perspectives in Biology (2015).

La búsqueda de la información

Los esfuerzos de la humanidad por dominar y entender la información han transformado drásticamente nuestro mundo y nuestra percepción misma del cosmos.


La escritura cuneiforme fue una de las primeras formas de expresión escrita, desarrollada por los sumerios de Mesopotamia (hoy en día, Irak) a finales del cuarto milenio AC. Algunos de sus símbolos representan sílabas, mientras que otros son logogramas que representan palabras completas. Aún hay ciertos logogramas en uso hoy en día, como los símbolos $, % y &. (Museo de Civilizaciones de Anatolia, Ankara.)

COMO CIUDADANOS DE un mundo dominado por la tecnología, estamos habituados a manipular información diariamente; aun así, pocos de nosotros pensamos alguna vez en ella. De hecho, la información en sí misma ha demostrado ser una noción notablemente difícil de comprender para el ser humano, y ha sido sólo recientemente que hemos comenzado a atisbar su verdadera naturaleza y el increíble papel que juega en nuestro universo.

La historia del ser humano sin duda revela que nuestra habilidad para manipular y estructurar datos es mayormente el fruto de una tremenda revolución que se ha desencadenado a lo largo de los últimos dos siglos. Sin embargo, los primeros pasos en nuestro uso consciente de formas abstractas de información se remontan a un tiempo considerablemente anterior. El origen se halla unos cinco mil años en el pasado, en la que es seguramente la mayor invención de la historia, si bien una de las más simples: la escritura. Gracias a símbolos que podían ser usados para representar palabras enteras (logogramas, tales como los caracteres chinos), o bien sonidos individuales (fonogramas, como las letras de un alfabeto), las ideas, emociones y sucesos de la humanidad podían, de pronto, ser extraídos del cerebro humano y almacenados físicamente en materiales duraderos, como arcilla, piedra o papiro. Una tecnología tan disruptiva, sobrenatural incluso, desencadenó de inmediato una tremenda revolución cultural, poniendo fin a la prehistoria y dando comienzo a lo que llamamos historia. Éste no sería sino el inicio de un largo viaje hacia el dominio de la información.

Durante los siguientes cinco mil años, la escritura fue prácticamente la única forma de manipular y registrar información conocida por el hombre. El siguiente gran hito en nuestra relación con la información no habría de llegar hasta la Revolución Industrial del siglo XIX, gracias a un brillante mercader francés llamado Joseph Marie Jacquard, quien en 1804 patentó el que era el aparato más complejo diseñado hasta la fecha. El telar de Jacquard, con su aparentemente rudimentaria estructura de madera, fue de hecho el primer dispositivo comercial programable, contando con la increíble habilidad de tejer cualquier patrón imaginable en seda, sin necesidad de intervención humana. Tal logro era posible mediante el uso de miles de tarjetas perforadas (tarjetas de papel con patrones de agujeros y espacios en blanco), el conjunto de las cuales albergaba la información necesaria para crear de forma precisa un diseño textil específico. Al transformar la información de dibujos a patrones abstractos de agujeros y espacios en blanco, y permitir a la máquina traducir estos patrones ininteligibles en diseños tangibles e increíblemente detallados, el extenuante proceso de manufacturación textil se aceleró de un modo hasta entonces inconcebible, consolidando a Francia como la capital mundial de la seda. Con un número adecuado de tarjetas, unos símbolos tan simples como agujeros y espacios en blanco podían capturar la información del más complejo de los patrones; y, de hecho, de cualquier cosa imaginable. Por vez primera, la abstracción de información y las máquinas programables habían revelado al mundo su potencial para alcanzar niveles sobrehumanos de productividad en tareas arduas y repetitivas. Hoy en día, casi cualquier tarea repetitiva de manufacturación es realizada automáticamente por máquinas.


Igual de transformativa fue la irrupción de dos de las mayores invenciones tecnológicas del siglo XIX: el telégrafo eléctrico de Samuel Morse —precedido por otros diseños de telégrafo excesivamente complicados— y el sistema de codificación que porta su nombre, el código Morse. Gracias a éstos, los mensajes podían ser fácilmente codificados en pulsos eléctricos y enviados rápidamente a través de cables. El mundo pronto se vio envuelto en una densa red global de telecomunicaciones; algo que hoy damos por sentado. Así nacía la ‘era de la información’, que se caracterizaría por el desarrollo de sistemas electrónicos de comunicación espectacularmente rápidos, fiables y virtualmente ilimitados.


Sin embargo, la invención que quizá reconozcamos como la más influyente para la vida moderna (de hecho, muchos de nosotros hemos pasado frente a ella gran parte del día) no llegaría hasta mediados del siglo XX, de la mano de una de las mentes más brillantes de la historia. En 1936, el matemático inglés de 24 años Alan Turing publicó un artículo científico en relación a un problema matemático extremadamente abstracto; fue en este trabajo donde el término máquina computadora, referido a una versión teórica del ordenador moderno, vio por primera vez la luz. El ordenador, en principio una consecuencia imprevista del trabajo teórico de Turing, se convertiría en acaso el invento tecnológico más fundamental del último siglo, elevando a su inventor a la categoría de padre indiscutible de la informática. Cabe destacar que otras máquinas computadoras ya habían sido concebidas antes del siglo XX; el ‘motor diferencial’ y el ‘motor analítico’, dos calculadoras mecánicas increíblemente complejas diseñadas por el matemático británico Charles Babbage, son consideradas como los primeros prototipos de ordenador, a pesar de que su construcción nunca fue completada durante la vida de su inventor. No obstante, fue el trabajo teórico y práctico de Turing el que condujo directamente a la creación del primer computador electrónico durante la Segunda Guerra Mundial. El ahora famoso suicidio de Turing a sus 41 años, fruto de la depresión en que cayó después de que las autoridades británicas le obligaran a someterse a una terapia hormonal como ‘tratamiento’ para su homosexualidad, supuso una trágica e incalculable pérdida para la humanidad. Los avances que el genio podría haber legado al campo de la computación pertenecen ahora al reino de la imaginación.

Con la combinación de abstracciones simbólicas para representar la información, comunicaciones instantáneas e impresionantes máquinas computadoras, se podría pensar que el ser humano había logrado finalmente liberar el poder de la información hasta su último extremo. Esto queda muy lejos de la verdad, aún hoy; de hecho, el hombre ignoraba siquiera qué es realmente la información hasta hace unas décadas, cuando la teoría de la información, una nueva disciplina científica dedicada a explorar las facetas más abstractas de la misma, irrumpió en escena. En 1948, el padre de la teoría de la información, Claude Shannon, acuñó un nombre para la unidad elemental de la información, el bit (un diminutivo del inglés binary digit, ‘dígito binario’). Un bit se puede considerar como un átomo de información, ya que representa la cantidad más pequeña posible de la misma. Un bit sólo puede adoptar uno de dos valores posibles: cero (que normalmente significa ‘no’, ‘falso’, ‘apagado’) y uno (‘sí’, ‘verdadero’, ‘encendido’). Combinaciones de múltiples bits dan lugar a medidas de información cada vez más potentes y familiares, tales como bytes, megabytes y terabytes.

Aún más sorprendente fue el descubrimiento de que la información es, en realidad, algo muy distinto de una invención humana puramente abstracta. La propia naturaleza era ya una maestra en el uso y aprovechamiento de la información hace miles de millones de años. Hacia finales del siglo pasado, la ciencia ya había demostrado que las células están continuamente leyendo, procesando y actuando en respuesta a información proveniente de su entorno interno y externo. De forma similar a un ordenador, la célula emplea conjuntos de reglas para reaccionar a la información; pero, en lugar de circuitos electrónicos, confía en intrincadas redes de reacciones químicas entre moléculas señalizadoras especializadas, a fin de transferir información entre sus receptores —los cuales reconocen ciertas señales químicas, mecánicas o eléctricas— y las ‘máquinas’ moleculares encargadas de llevar a cabo la acción requerida. De forma crucial, estas redes de señalización no sólo son capaces de transmitir información, al igual que un cable, sino que también pueden procesarla, como el procesador de un ordenador. Tales habilidades computacionales permiten a la célula tomar decisiones vitales, como autorreplicarse, transformarse en un tipo de célula más especializado, o incluso suicidarse. Es gracias a estas redes de señalización que, por ejemplo, las neuronas en el cerebro se activan en respuesta a ciertas moléculas, denominadas neurotransmisores, y que las células epiteliales en la piel sienten la presencia de una herida abierta y comienzan a replicarse sin descanso hasta que ésta se cierra por completo.


Representación esquemática de la red de señalización celular conocida como la red mTOR. Cada rectángulo verde en el diagrama corresponde a una proteína diferente. (Fuente: Mol. Syst. Biol. 6:453.)

La información no es meramente algo creado y utilizado por el mundo natural y el ingenio humano, sino mucho más. Es una propiedad real y fundamental del universo físico en el que vivimos. Lo que normalmente llamamos información es sólo nuestra representación simplificada de la verdadera información contenida en el mundo que nos rodea. Consideremos, por ejemplo, una fotografía de algún objeto. La fotografía es una representación gráfica precisa del objeto en dos dimensiones, y como tal, contiene parte de su información, como su forma, color y textura. No obstante, carece de casi toda la información presente en el objeto real. Un sencillo ejemplo es el hecho de que a menudo es imposible estimar el tamaño de un objeto basándose en una fotografía, a menos que ésta incluya un segundo objeto cuyo tamaño ya conozcamos. En tal caso, podemos combinar la información procedente de nuestra experiencia previa del mundo con la información contenida en la fotografía, para realizar una inferencia acerca de la información en el objeto real.

Si descendemos a un nivel microscópico, la cantidad de información en el mundo físico se vuelve simplemente inconcebible. Consideremos de nuevo el caso de una célula —tal vez en nuestro propio cuerpo—. Al igual que en el ejemplo anterior, podemos medir diferentes tipos de información sobre esta célula, como su forma, tamaño, o la cantidad de ADN en ella, y representar dicha información de varias maneras. Sin embargo, la célula física contiene mucha, mucha más información; por ejemplo, la organización espacial de los orgánulos que la componen; la localización y estructura de cada una de sus enzimas, lípidos, proteínas, azúcares y ácidos nucleicos; la dinámica química que rige las redes de señalización que permiten a la célula reaccionar a su entorno; la suma de toda la información hereditaria codificada en su material genético; el nivel energético de cada electrón de cada átomo de cada partícula en ella; o las fuerzas nucleares que mantienen todas éstas juntas en la forma de un solo sistema, la célula. En otras palabras, algo tan minúsculo como una célula microscópica contiene una cantidad de información real, física, que sobrepasa el conjunto de toda la información simbólica producida por la humanidad durante el curso de la historia. Podemos echar una mirada en derredor y tratar de imaginar cuánta información es extraída continua e inconscientemente de nuestro entorno por nuestro cerebro; y cuánta información podríamos ser capaces de medir a partir de cada objeto y ser viviente a nuestro alrededor, si solamente contáramos con las herramientas adecuadas… y suficiente espacio de almacenamiento.


El esfuerzo de la humanidad por representar y manipular la información en su propio beneficio ha propiciado la invención de métodos cada vez más ingeniosos de representar, transmitir y almacenar información. Hemos descubierto, dominado y aprovechado las propiedades únicas ofrecidas por cada tipo de representación simbólica (símbolos escritos, agujeros, señales eléctricas, bits…) y de medio físico (piedra, papel, cables, ondas de radio, discos duros…). Aun con todo esto, nuestra comprensión de la información como una propiedad inherente del cosmos permanece incompleta, y nuevas formas de almacenar y transmitir información, desde partículas cuánticas hasta ADN, continúan siendo exploradas. El viaje hacia un control verdadero de la información está lejos de terminar; de hecho, puede que nos hallemos al borde mismo de nuestra auténtica revolución de la información.



Referencias:
Order and Disorder: The Story of Information. BBC documentary (2012).
Tyson, J.J., Novak, B. Control of cell growth, division and death: information processing in living cells. Interface Focus (2014).
Azeloglu, E.U., Iyengar, R. Signaling Networks: Information Flow, Computation, and Decision Making. Cold Spring Harbor Perspectives in Biology (2015).