divulgatum está dedicado a la difusión de conocimiento científico en español e inglés, mediante artículos que tratan en detalle toda clase de temas fascinantes pero poco conocidos.
divulgatum is devoted to the dissemination
of scientific knowledge in Spanish and English, through
articles that go into the details of all sorts of fascinating but not widely known subjects.

Tuesday, June 5, 2018

Frontiers of gravity

The most familiar force of nature may be the key to a fuller understanding of the universe.


In his famous cannonball thought experiment, Isaac Newton demonstrated that gravity gives rise to orbital motions. (Source: Newton 1729/1962, vol. 2.)

OF THE FOUR KNOWN fundamental forces which are responsible for the physics of our universe—the electromagnetic force, the weak and strong nuclear forces and the gravitational force—the latter stands out in many senses. The gravitational force, commonly known as gravity, was the first of these forces to be described mathematically. Gravity is also, by far, the least powerful of the fundamental forces: the second weakest force—the aptly named weak force that gives rise to radioactivity—is over a trillion trillion times stronger than the gravitational force. But the reason why gravity, a phenomenon that has been familiar to us for so long, can still be so special, is its connection to some of the biggest questions in modern physics.

Everyone on Earth continuously experiences our planet’s gravitational pull, and as a result, the physics of gravity are intrinsically embedded in our mental model of how the world works. Indeed, one of the first things that babies learn is how objects fall to the floor when thrown or dropped—a phenomenon from which they seem to derive some delight. This made it quite hard for us to realise that gravity actually is a physical force, and especially, that the force which makes objects fall here on Earth is the same one that keeps the skies above us in perpetual motion.

The name that inevitably comes to mind when talking of gravity is that of Isaac Newton. In the late seventeenth century, the legendary natural scientist came up with a tremendously ingenious thought experiment. He imagined a cannon standing on top of an extremely tall mountain. If a projectile were fired from this cannon towards the horizon, it would travel horizontally while also falling by effect of gravity, before eventually landing. If the cannon’s power were increased, the projectile would fly horizontally further away, travelling greater distance than before. And, if the canon’s power were to be increased infinitely, the projectile would be fired with such force that it would never stop falling—always travelling horizontally around the Earth without ever hitting the ground. From this idea, Newton rightly concluded that the gravitational force which attracts objects towards the Earth is what keeps the Moon in orbit around us: the Moon is just forever falling towards the Earth.


By extending his logic, Newton declared the gravitational force to be also responsible for the orbits of the planets around the Sun. In his law of universal gravitation, he described gravity as a universal force between every two bodies (or particles) in the universe, whose intensity increases in proportion to the bodies’ masses and decreases in proportion to the square of the distance between them—that is, if the distance between two objects is doubled, then the gravitational force between them becomes four times weaker. Newton considered gravity an instantaneous and boundless force; according to him, the pull exerted by an object travels instantly and does not stop at a given distance, but it becomes weaker and weaker until being impossible to detect.


Newton’s relatively simple mathematical formula could explain such mysteries as the elliptical shape of the planets’ orbits and the tides of Earth’s oceans. His theory, however, failed to explain the nature of gravitation itself—why it exists. Furthermore, Newtonian gravity appeared as a mystical force capable of working instantly across empty space, and this was not happily accepted by contemporary scientists. Most European scholars at the time subscribed to René Descartes’s theory of planetary motion, which presented the planets’ orbits as the product of massive vortices swirling within an invisible fluid that filled the universe. But Newton’s theory would eventually prove more accurate than Descartes’s, forcing scientists to face the reality of an empty universe.

A successful explanation of the nature of gravity arrived in the early twentieth century, thanks to Albert Einstein. The iconic physicist’s celebrated general theory of relativity was truly ground-breaking, completely transforming the way we understand both the largest bodies and the smallest particles in the universe. Einstein’s theory built on the now popular concept of space-time: a mathematical model where the three dimensions of space and the one dimension of time are intertwined into a single four-dimensional continuum, hence defying our false intuition of space and time as separate aspects of reality. This model allowed Einstein to present gravity not as an attractive force exerted by particles or objects, but as a property of space-time itself, which arises from its distortion. We can think of this as if bodies with a very large mass, such as a planet or a star, were ‘bending’ the space-time fabric of the universe around them, just like a stone would deform an elastic rubber band by means of its weight. Gravity as we perceive it is a consequence of this deformation of space-time, and not a force that ‘pulls’ us towards the Earth; rather, it is the ‘warped’ space-time around the Earth that is ‘pushing’ us against it.

General relativity was transformative in many ways. It not only provided a long-sought explanation for the mysterious force of gravity and a better understanding of its properties—such as its actual speed, which is exactly that of light—but it also predicted novel physical phenomena, like black holes and gravitational waves, whose existence physicists have only been able to confirm many decades later. (In fact, gravitational waves were first detected in 2016, a hundred years since general relativity had predicted them.) Einstein’s theory also solved some puzzling astronomical mysteries, such as that of the orbital motion of Mercury. Astronomers had long identified a discrepancy between the observed motion of this planet and the one predicted by Newtonian law; as a consequence, the nineteenth-century mathematician Urbain Le Verrier posited the existence of Vulcan, a new planet between the Sun and Mercury whose gravitational pull altered Mercury’s orbit. Vulcan’s existence seemed the only explanation for the inconsistencies in Mercury’s motion; moreover, a similar reasoning had previously led Le Verrier to successfully predict the position of the planet Neptune, precipitating its discovery. However, the arrival of general relativity showed that Mercury’s behaviour could be accounted for without the need of an additional planet, thus nullifying Le Verrier’s hypothesis.

If twentieth-century physics was witness to revolutionary breakthroughs sparked by minds such as Einstein’s, today’s physics is grappling with a myriad of daunting mysteries—the greatest of which seem inextricably linked to gravity. In particular, astronomical observations over the last century have confronted physicists with two extremely puzzling phenomena. The first harks back to Edwin Hubble’s discovery that galaxies lying further away from our own are moving away from us at a greater speed. This led Hubble to conclude that the universe is expanding, and later research has showed that the speed of this expansion is actually increasing. Such accelerated inflation of the universe implies the existence of a force that acts to counteract gravity, as otherwise the gravitational pull of galaxies would restrain the expansion. This mysterious anti-gravitational force was given the name of dark energy, and apart from the rate of expansion of the universe, scientist have so far failed to obtain any direct evidence of its existence.

The other great astronomical mystery of our time, together with dark energy, is suitably named dark matter—although ‘invisible matter’ would be more accurate. The notion of dark matter stems from the observation that gravity seems to be persistently stronger on the outskirts of galaxies than dictated by general relativity. In other words, the stars in almost every galaxy are rotating around the galactic centre much faster than they should, which suggests that galaxies have more mass than the one in the matter we can see. To account for this missing mass, researchers proposed the existence of dark matter, a kind of matter which does not interact with conventional matter electromagnetically—and therefore is invisible to our eyes and telescopes, which can only detect electromagnetic radiation. Dark matter does, however, display gravitational interactions with visible matter, which is the reason why galaxies seem to have more mass than we can see.


Dark matter is thought to surround galaxies in a diffuse halo, which is shown in black in this artist’s view. (Credit: A. Evans, adapted by J. Freundlich & F. Ducouret.)

When physicists calculated how much dark matter would be needed to account for the excess mass, they were shocked to find that dark matter would outweigh all the visible matter in the universe by a factor of five to one; in other words, if dark matter does exist, then five-sixths of the universe are invisible to us. And more intriguingly, although dark matter is indirectly supported by plenty of astronomical observations, it resembles dark energy in its dogged resistance to direct detection.

If decades of research have yielded no direct evidence of dark energy and dark matter, should we believe in them? Many scientists argue that there is no reason why we should expect visible matter to be the only kind of matter there is. Our eyes have evolved to detect the electromagnetic interactions of matter—that is, the way in which matter produces or reflects light. If there existed a kind of matter incapable of electromagnetic interaction, then such matter would be invisible to us—but that could hardly be an argument against its existence.


Some physicists, on the other hand, regard dark matter as a modern-day analogue of Vulcan: it could be a false solution to fundamental flaws in our understanding of how gravity operates. Just as it happened to Vulcan, an improved theory of gravity may be able to explain all our astronomical observations without being contingent on elusive particles; and indeed, several alternative theories of gravitation have seen the light over the last decades, each aspiring to supersede general relativity by successfully explaining every existing observation. The most popular of these is modified Newtonian dynamics, or MOND. This theory proposes that, over relatively small distances, gravity behaves according to Newtonian law, decreasing in proportion to the square of the distance; however, over vast cosmic distances—like that between the centre of a galaxy and its edge—gravity ‘switches’ to a different formula, weakening much more slowly than Newton and Einstein predicted. This reformed law of gravitation would explain why galactic outskirts present stronger gravity than expected, without the need for massive amounts of dark matter to supply additional mass.

However, while dark matter and dark energy continue to dodge detection, Einstein’s theory of gravity is proving extremely robust. In fact, the latest measurements of gravitational waves have already invalidated some alternative gravity theories. Although MOND has yet to be proven right or wrong, its immediate future seems in jeopardy: recent discoveries of galaxies composed almost exclusively of dark matter, as well as galaxies with practically no dark matter in them, both constitute a serious challenge for theories like MOND. If gravity is just behaving differently than we believe, as these theories propose, then this modified gravity should still be universal, implying that the proportion of dark matter estimated in each galaxy should be roughly the same, and extremely ‘dark’ or ‘luminous’ galaxies such as the ones discovered should not exist. On the other hand, if dark matter does exist, these exotic galaxies will allow a more detailed study of its gravitational properties.

Our understanding of gravity has been transformed and transformative over the last three centuries. Notwithstanding, physics now seems to be at the crossroads between a redefinition of gravity and a belief in mysterious particles and forces. But we should not expect this uncertainty to linger for much longer. At this very moment, researchers are applying the most advanced technology on Earth and in space in unrelenting efforts to detect even the smallest signal confirming the existence of dark matter and dark energy, and searching for any minute crack in general relativity’s predictions, which could provide the missing piece in the puzzle. But so far, Einstein’s equations remain unbowed. And if Einstein was not mistaken, then the only explanation for what we see in the universe must be the existence of forces and particles which, thus far, we are largely unable to measure or comprehend. Whichever the case, the uncertainty will likely be resolved sooner than later, marking the dawn of the next revolution in our understanding of the cosmos.



References:
Castelvecchi, D. How gravitational waves could solve some of the Universe’s deepest mysteries. Nature (2018).
Randall, L. What is dark matter? Nature (2018).
Wolchover, N. The case against dark matter. Quanta Magazine (2016).
Sokol, J. A victory for dark matter in a galaxy without any. Quanta Magazine (2018).
Moskvitch, K. Troubled times for alternatives to Einstein’s theory of gravity. Quanta Magazine (2018).

Las fronteras de la gravedad

La más familiar de las fuerzas naturales podría ser la clave para una mayor comprensión del universo.


En su célebre experimento teórico de la bala de cañón, Newton demostró cómo la gravedad da lugar al movimiento orbital. (Fuente: Newton 1729/1962, vol. 2.)

DE LAS CUATRO FUERZAS fundamentales responsables, hasta donde sabemos, de la física de nuestro universo —la fuerza electromagnética, las fuerzas nucleares débil y fuerte y la fuerza gravitatoria—, esta última destaca en muchos sentidos. La fuerza gravitatoria, comúnmente conocida como gravedad, fue la primera de estas fuerzas en ser descrita matemáticamente. La gravedad es también, con diferencia, la menos potente de las fuerzas fundamentales: la segunda fuerza más débil —la aptamente llamada fuerza débil que da lugar a la radiactividad— es más de un billón de billones de veces más potente que la gravedad. Pero la razón de que la gravedad, ese fenómeno que nos es familiar desde hace tanto, siga siendo tan especial, es su profunda conexión con algunas de las grandes preguntas de la física moderna.

Todos nos encontramos bajo el efecto constante de la atracción gravitatoria terrestre y, en consecuencia, la gravedad está intrínsecamente imbuida en nuestro modelo mental de cómo funciona el mundo. Una de las primeras cosas que los bebés aprenden es cómo los objetos caen al suelo al ser lanzados o soltados —un fenómeno del que parecen obtener gran deleite—. Este hecho hizo difícil para nosotros el darnos cuenta de que la gravedad realmente es una fuerza y, especialmente, de que la fuerza que hace caer los objetos aquí en la Tierra es la misma que mantiene el firmamento sobre nuestras cabezas en movimiento.

El nombre que inevitablemente viene a la mente al hablar de gravedad es el de Isaac Newton. A finales del siglo XVII, el legendario científico ideó un experimento teórico tremendamente ingenioso. Newton imaginó un cañón situado sobre una montaña extremadamente alta; si un proyectil fuese disparado por este cañón hacia el horizonte, viajaría horizontalmente mientras que también caería por efecto de la gravedad, hasta finalmente tocar tierra. Si aumentásemos la potencia del cañón, el proyectil viajaría más lejos, recorriendo más distancia horizontal que antes; y si pudiéramos aumentar la potencia del cañón de manera infinita, el proyectil sería propulsado con tal fuerza que jamás cesaría de caer: permanecería para siempre viajando horizontalmente alrededor de la Tierra, sin jamás aterrizar. A partir de esta idea, Newton concluyó, acertadamente, que la fuerza gravitatoria que atrae los objetos hacia la Tierra es la misma que mantiene la Luna en órbita: la Luna está simplemente cayendo eternamente hacia la Tierra.


Extendiendo este razonamiento, Newton declaró que la fuerza gravitatoria es causa no sólo del movimiento de la Luna, sino también de las órbitas de los planetas alrededor del Sol. En su ley de gravitación universal, Newton describió la gravedad como una fuerza omnipresente, existente entre todo par de cuerpos (o partículas) en el universo, cuya intensidad aumenta en proporción a las masas de estos cuerpos y decrece en proporción al cuadrado de la distancia que los separa —es decir, al doblar la distancia entre dos objetos, la atracción entre ellos se vuelve cuatro veces más débil—. Newton consideraba la gravedad como una fuerza instantánea e ilimitada; según él, la atracción ejercida por un objeto se transmite de forma instantánea y no termina a una distancia específica, sino que se torna más y más débil hasta ser indetectable.


La fórmula matemática de Newton, con su relativa sencillez, fue capaz de resolver misterios tales como la forma elíptica de las órbitas de los planetas y los ritmos de las mareas. Su teoría, no obstante, era incapaz de explicar la naturaleza misma de la gravitación —el porqué de su existencia—. Asimismo, la gravedad newtoniana daba la impresión de ser una fuerza mística capaz de actuar de forma instantánea a través del vacío, propiedades que no fueron fácilmente aceptadas por los científicos de la época. La mayoría de académicos europeos defendían la teoría del movimiento planetario propuesta por René Descartes, la cual presentaba las órbitas de los planetas como el producto de inmensos vórtices giratorios que ocurrían en un fluido invisible que llenaba el universo. Pero la teoría de Newton acabaría demostrando ser más precisa que la de Descartes, obligando a los científicos a afrontar la realidad de un universo vacío.

Una explicación triunfante de la naturaleza de la gravedad llegaría a principios del siglo XX, gracias a Albert Einstein. La celebrada teoría general de la relatividad del icónico científico fue realmente revolucionaria, transformando completamente la forma en que entendemos tanto los cuerpos más grandes como las partículas más pequeñas del universo. Einstein basó su nueva explicación de la gravedad en el ahora popular concepto de espacio-tiempo: un modelo matemático en el que las tres dimensiones del espacio y la única dimensión del tiempo se entrelazan en un solo continuo tetradimensional, desafiando nuestro errado entendimiento intuitivo del espacio y el tiempo como aspectos separados de la realidad. Este modelo permitió a Einstein presentar la gravedad no como una fuerza atractiva ejercida por partículas u objetos, sino como una propiedad del propio espacio-tiempo que se origina cuando éste se distorsiona. Podemos visualizar esto como si aquellos cuerpos con una masa extrema, como nuestro planeta, ‘doblasen’ el tejido espacio-temporal del universo a su alrededor, del mismo modo que una piedra deformaría una banda de goma elástica con su peso. La gravedad tal como la percibimos es un efecto de esta distorsión del espacio-tiempo, y no una fuerza que ‘tira’ de nosotros hacia la Tierra; más bien, es el espacio-tiempo deformado alrededor de la Tierra el que nos ‘empuja’ hacia ella.

La relatividad general fue transformadora en muchos sentidos. No sólo proporcionó una largamente esperada explicación para la misteriosa fuerza de la gravedad y un mejor entendimiento de sus propiedades —tales como su velocidad, que no es instantánea, sino igual a la de la luz—; también predijo fenómenos físicos inéditos, como los agujeros negros y las ondas gravitatorias, cuya existencia no pudo ser confirmada hasta muchas décadas después. (De hecho, las ondas gravitatorias fueron detectadas por primera vez en 2016, cien años después de haber sido predichas por la relatividad general.) La teoría de Einstein también resolvió algunos misterios astronómicos, como el movimiento orbital de Mercurio. Los astrónomos habían identificado tiempo atrás una discrepancia entre las observaciones del movimiento de este planeta y las predicciones newtonianas; como consecuencia, en el siglo XIX, el matemático Urbain Le Verrier propuso la existencia de Vulcano, un planeta nuevo situado entre el Sol y Mercurio, cuya atracción gravitatoria había alterado la órbita de Mercurio. La existencia de Vulcano parecía ser la única explicación para las inconsistencias observadas en Mercurio; es más, un razonamiento similar había llevado anteriormente a Le Verrier a predecir con éxito la posición del planeta Neptuno, precipitando así su descubrimiento. Sin embargo, la llegada de la relatividad general demostró que el comportamiento de Mercurio podía ser descrito sin necesidad de un planeta adicional, refutando así la hipótesis de Le Verrier.

Si bien la física del siglo XX fue testigo de avances revolucionarios iniciados por mentes como Einstein, la física moderna tiene una miríada de nuevos misterios con los que lidiar, los mayores de los cuales están inextricablemente conectados con la gravedad. En particular, observaciones astronómicas a lo largo del último siglo han puesto de relieve dos fenómenos extremadamente desconcertantes. El primero se remonta al descubrimiento, por parte de Edwin Hubble, de que las galaxias que se encuentran más lejos de la nuestra se alejan de nosotros a mayor velocidad. Esto llevó a Hubble a concluir que el universo se está expandiendo y, de hecho, investigaciones posteriores han demostrado que esta expansión se está acelerando. Esta inflación cósmica acelerada implica la existencia de una fuerza que actúa en contra de la gravedad, dado que, de lo contrario, la atracción entre las diferentes galaxias frenaría la expansión. La misteriosa fuerza antigravitatoria fue bautizada como energía oscura y, aparte de por la tasa de expansión del universo, los científicos no han obtenido aún ninguna prueba directa de su existencia.

El otro gran misterio astronómico de nuestro tiempo, junto con la energía oscura, recibe el apropiado nombre de materia oscura —aunque ‘materia invisible’ sería más correcto—. El concepto de materia oscura surgió a raíz de la observación de que las regiones externas de las galaxias exhiben señales de una gravitación consistentemente más intensa de lo previsto según la relatividad general. En otras palabras, parece que las estrellas en casi cada galaxia rotan alrededor del centro galáctico mucho más rápido de lo que deberían, lo que sugiere que las galaxias contienen más masa de la que hay en la materia que podemos ver. Para explicar este exceso de masa, los astrofísicos propusieron la existencia de la materia oscura, un tipo de materia que no interactúa con la materia ordinaria de forma electromagnética, y resulta, por tanto, invisible a nuestros ojos y telescopios, los cuales solamente pueden detectar radiación electromagnética. La materia oscura, sin embargo, sí interactúa gravitatoriamente con la materia visible, siendo éste el motivo por el que las galaxias parecen tener más masa de la que podemos ver.


Se piensa que la materia oscura forma un halo difuso en torno a casi todas las galaxias, el cual se muestra en negro en esta ilustración artística. (Imagen: A. Evans, adaptada por J. Freundlich & F. Ducouret.)

Tras calcular cuánta materia oscura se necesitaría para justificar el exceso de gravedad observado, los físicos quedaron conmocionados al descubrir que esta clase de materia superaría en masa a toda la materia visible del universo por un factor de cinco a uno; en otras palabras, si la materia oscura realmente existe, cinco sextos del universo son invisibles para nosotros. Más intrigante aún es que, aunque la materia oscura cuenta con el apoyo indirecto de multitud de observaciones astronómicas, se asemeja a la energía oscura en su obstinada resistencia a todo intento de detección directa.

Si décadas de investigación no han proporcionado evidencia directa de la existencia de la energía oscura y la materia oscura, ¿deberíamos creer en ellas? Muchos científicos opinan que no hay motivo para suponer que la materia visible debería ser el único tipo de materia que existe. Nuestros ojos han evolucionado para detectar interacciones electromagnéticas en la materia —es decir, la forma en que la materia produce o refleja luz—. Si existiese una clase de materia incapaz de interactuar electromagnéticamente, tal materia sería invisible para nosotros, pero esto difícilmente constituiría un argumento en contra de su existencia.


Algunos físicos, por otra parte, consideran la materia oscura como una versión moderna de Vulcano: podría tratarse de una solución falsa a un defecto fundamental en nuestra comprensión de cómo opera la gravedad. Tal como ocurrió con Vulcano, una teoría mejorada de la gravitación podría ser capaz de explicar todas las observaciones astronómicas sin depender de partículas invisibles; y, en efecto, varias teorías alternativas de la gravedad han visto la luz en las últimas décadas, cada una aspirando a reemplazar a la relatividad general al ser capaz de explicar con éxito cada observación. La más popular de estas teorías es la dinámica newtoniana modificada, o MOND (del inglés modified Newtonian dynamics). Esta teoría propone que, en distancias relativamente cortas, la gravedad opera de acuerdo a la ley de Newton, disminuyendo en proporción al cuadrado de la distancia; sin embargo, en vastas distancias cósmicas —tales como la que hay entre el centro de una galaxia y su borde— la gravedad ‘cambia’ a una fórmula distinta, disminuyendo mucho más lentamente de lo predicho por Newton y Einstein. Esta ley reformada de la gravitación explicaría por qué las regiones externas de las galaxias presentan una gravedad más intensa de la que deberían, sin necesidad de cantidades masivas de materia oscura para justificar esta gravedad adicional.

No obstante, mientras que la materia oscura y la energía oscura permanecen indetectables, la teoría de la relatividad de Einstein está demostrando ser extremadamente robusta. De hecho, las últimas mediciones de ondas gravitatorias ya han invalidado algunas teorías alternativas de la gravedad. Aunque aún queda por demostrar si MOND es cierta, su futuro inmediato no parece muy prometedor: recientes descubrimientos de galaxias compuestas casi exclusivamente de materia oscura, así como galaxias prácticamente carentes de materia oscura, constituyen un serio desafío a teorías como MOND. Si, como defienden estas teorías, la gravedad simplemente se comporta de manera diferente a como pensamos, esta gravedad modificada debería seguir siendo universal; esto implica que la proporción de materia oscura estimada en cada galaxia debería ser aproximadamente igual, y galaxias extremadamente ‘oscuras’ o ‘luminosas’ como las recientemente descubiertas no deberían existir. Por otra parte, si la materia oscura realmente existe, tales galaxias exóticas permitirían un estudio detallado de sus propiedades gravitatorias.

Nuestro entendimiento de la gravedad ha sido transformado y transformador a lo largo de los últimos tres siglos. Sin embargo, la física parece estar ahora en la encrucijada entre una redefinición de la gravedad y la creencia en fuerzas y partículas misteriosas. Pero no hemos de esperar que esta incertidumbre se prolongue mucho más. En este mismo momento, investigadores de todo el mundo están aplicando las últimas tecnologías en la Tierra y el espacio, en un incesante esfuerzo por detectar una señal que confirme la existencia de la materia oscura y la energía oscura, y buscando la más mínima grieta en las ecuaciones de la relatividad general, la cual podría ofrecer la última pieza del puzle. Pero, de momento, las ecuaciones de Einstein permanecen invictas. Y si Einstein no estaba errado, entonces la única explicación posible a lo que vemos en el universo es la existencia de partículas y fuerzas que, por ahora, somos en gran parte incapaces de medir o comprender. En cualquier caso, la incertidumbre probablemente se disipará más pronto que tarde, marcando el inicio de la próxima revolución en nuestro entendimiento del cosmos.



Referencias:
Castelvecchi, D. How gravitational waves could solve some of the Universe’s deepest mysteries. Nature (2018).
Randall, L. What is dark matter? Nature (2018).
Wolchover, N. The case against dark matter. Quanta Magazine (2016).
Sokol, J. A victory for dark matter in a galaxy without any. Quanta Magazine (2018).
Moskvitch, K. Troubled times for alternatives to Einstein’s theory of gravity. Quanta Magazine (2018).

Monday, December 18, 2017

The origin of shape



An image of a human brain (left) next to a computer simulation generated by reproducing the physical forces acting on the brain's surface (right). Colours indicate analogous brain regions in both images.
(Source:
Nature Physics 12, 588–593.)

THE HUMAN BODY is composed of around ten trillion cells – more than a hundred times the number of stars in the Milky Way. These cells are not all identical, but are classified into a myriad of different cell types: the cells making up, for example, the skin, the eye, and the brain, are strikingly different from each other, both in structure and in function. Even within a same tissue there are tens of distinct cell types, each performing a different role. It is certainly hard to imagine that such an immense organisation of specialised units can have stemmed from a single cell: the fertilised zygote arising from the fusion of an ovum (an egg cell) and a spermatozoon (a sperm cell). During the first days of embryonic development, this zygote multiplies to produce a sphere covered by a single layer of identical cells, called the blastula; not much later, this develops into a more complex structure, the gastrula, which is made up of multiple layers, each one composed of a different type of cells. The layers in the gastrula subsequently give rise to the different tissues and organs in the embryo.

Understanding the whole process by which the different parts of an organism, each composed of specialised cells with specific roles and structures, originate from a clump of undifferentiated cells, is clearly one of the most compelling scientific questions. The technical name for it is morphogenesis, from the Greek terms morpho, ‘shape’, and genesis, ‘origin’: the origin of shape.


It may come as a surprise that the first mechanistic explanation for morphogenesis was not to arrive until the mid-twentieth century. It should hardly surprise, however, that such breakthrough would be the product of the gifted mind of the mathematician Alan Turing, best remembered as the ‘father’ of computer science. In an article published in 1952, two years before his premature death, Turing proposed a system of chemical substances, called morphogens, that would explain how certain patterns of shape arise in living organisms. He described such system as evolving in time through a series of chemical reactions and diffusions; this results in a particular distribution across space of two different chemical signals, one of them promoting tissue growth, the other suppressing it. The outcome is a pattern of differential growth – some groups of cells multiplying faster than others – leading to the formation of a certain shape in the living tissue. Amazingly, Turing was able to predict some of these patterns decades before they could be first observed in the laboratory.


The term morphogen is still employed today to refer to those substances or molecules which partake in morphogenesis. We now know that the way in which many morphogens operate is by regulating cell differentiation, that is, the process whereby a cell of a ‘generic’ type transforms into a cell of a more specialised type. A family of proteins known as transcription factors are pivotal in the cell differentiation process. Transcription factors interact with cellular DNA, being able to ‘switch’ genes ‘on’ or ‘off’ in the cell. In some cases, those genes, in turn, regulate the activation of yet other genes, giving rise to genetic regulatory networks. In consequence, the action of a few transcription factors, or even a single one, can drastically affect the cell’s fate – for example, by determining important properties, such as the ability to adhere to other cells. This is especially true during what is perhaps the most crucial period in embryonic development: the process by which the blastula develops into the gastrula, known as gastrulation. To give rise to the multilayered structure of the gastrula, the cells in the blastula need to transiently ‘switch off’, by means of specific transcription factors, adhesion to their neighbour cells. This done, they can move to their new positions in the gastrula, where they regain their adhesion capabilities.

As the name indicates, morphogenesis does not only involve the differentiation of cells and their organisation into groups of distinct cell types, but also the formation of the very biological shapes which keep organisms alive and working. Interestingly, chemicals are not the only players in this process; physics has been discovered to have a considerable part in how living tissues, such as the gut or the brain, acquire their characteristic shapes. The human small intestine, for instance, is a tube between five and eleven metres in length, which folds and loops in a particular manner that allows it to fit in the abdominal cavity. It has been shown that the pattern of loops observed in the developing intestine of chick embryos can be explained by the physical forces that arise when a semirigid tube – in this case, the intestine itself – experiences substantial growth, while attached to an elastic material that does not change size. In the case of the intestine, the role of such elastic material corresponds to the mesentery, a tissue whose function is to anchor the intestine to the abdominal wall. Although this finding was largely proven using computer simulations, a simple physical analogy may be useful here. Let us imagine an elastic flat rubber band, with a flexible plastic tube sewn to one of its edges; if this tube started to grow, while the size of the rubber band remained unchanged, the shape adopted by the tube would soon match the shape in which the intestines are folded in the chick embryo. This suggests that the way in which the intestine folds is simply a physical consequence of the substantial growth experienced by this organ during early development.

The shape adopted by a flexible plastic tube when sewn to a stretched elastic rubber band, once this has been allowed to return to its original size (top) matches the pattern of loops seen in the developing intestine of chick embryos (bottom). (Source: Nature 476, 57–62.)

Another striking example of the physics underlying organic shapes is the mammalian brain. Two important regions of this are the white matter, located inside the brain, and the grey matter, which forms its outer layer (the cortex). The latter normally folds into the characteristic pattern of curved grooves that we immediately associate with this organ. Recent research has shown this morphological pattern to be the result of the physical tensions that arise when a layer of soft material increases in size, while anchored to a core of another soft material whose size does not vary. Because the outer layer – in this case, the grey matter – is firmly attached to the inner core – the white matter – it cannot expand freely in all directions. Instead, a compressive tension builds up that opposes the growth of the outer layer. To minimise such tension, the material must fold drastically in long, deep creases known as invaginations; the resulting shape allows the volume to increase while alleviating the physical stress generated in the process. When this physical system is simulated on a computer, the resulting structures look staggeringly similar to the surface of the brain. Moreover, by simulating the proportions of white and grey matter observed in different mammalian species, the shape of their brains can be reproduced; for instance, mice have much smoother brains than humans, because the proportion of grey matter in their brains is much lower. The peculiar shape of the human brain hence seems to be the solution provided by physics to the problem of achieving large volumes of grey matter.

There is certainly much more to be learned about the physical and chemical mechanisms behind morphogenesis. The inconceivably complex, marvellously tuned nine-month programme by which a single-celled zygote becomes a fully formed foetus baffles us still today. From the subtle patterns of gene regulation to the chemical and physical interactions between cells and tissues across space and time, deciphering the mathematical basis of the origin of organic shapes will always be counted among the most beautiful and captivating missions of science.



References:
Turing, A.M. The chemical basis of morphogenesis. Philosophical Transactions of the Royal Society of London (1952).
Wolpert, L. The triumph of the embryo (Courier Corporation, 2008).
Savin, T., Kurpios, N.A., Shyer, A.E., Florescu, P., Liang, H., Mahadevan, L., Tabin, C.J. On the growth and form of the gut. Nature (2011).
Tallinen, T., Biggins, J.S. Mechanics of invagination and folding: Hybridized instabilities when one soft tissue grows on another. Physical Review E (2015).
Tallinen, T., Chung, J.Y., Rousseau, F., Girard, N., Lefèvre, J., Mahadevan, L. On the growth and form of cortical convolutions. Nature Physics (2016)

El origen de la forma



Imagen de un cerebro humano (izquierda) junto a una simulación informática generada al reproducir las fuerzas físicas que actúan en la superficie del cerebro (derecha). Los colores indican regiones análogas en ambas imágenes. (Fuente: Nature Physics 12, 588–593.)

EL CUERPO HUMANO está compuesto de unos diez billones de células, más de cien veces el número de estrellas en la Vía Láctea. Estas células no son todas idénticas, sino que se clasifican en unos ciento cincuenta tipos: por ejemplo, las células de la piel, del ojo y del cerebro son notablemente distintas entre sí, tanto en función como en estructura. Incluso dentro de un mismo tejido existen decenas de tipos celulares, cada uno con un papel diferente. Es ciertamente difícil imaginar que tan inmensa organización de unidades especializadas pueda haber surgido de una sola célula: el cigoto fertilizado formado tras la fusión de un óvulo y un espermatozoide. En los primeros días de desarrollo embrionario, este cigoto se multiplica para dar lugar a una esfera recubierta de una sola capa de células idénticas, llamada blástula; poco después, ésta se transforma en la gástrula, una estructura más compleja compuesta de múltiples capas, cada una de las cuales contiene tipo de células distinto. Las capas de la gástrula se desarrollan luego en los diferentes tejidos y órganos del embrión.

Entender el proceso completo por el cual las diferentes partes de un organismo, cada una formada por células especializadas con roles y estructuras específicas, se originan a partir de un grupo de células no diferenciadas, es sin duda una de las más fascinantes cuestiones científicas. El nombre técnico de este proceso es morfogénesis, del griego morpho, ‘forma’, y genesis, ‘origen’: el origen de la forma.


Puede resultar sorprendente que la primera descripción de un mecanismo asociado con la morfogénesis no tuviera lugar hasta mediados del siglo pasado. No debiera sorprendernos, sin embargo, que tal avance fuera el producto de la excepcional mente del matemático Alan Turing, más conocido como el ‘padre’ de la informática. En un artículo publicado en 1952, dos años antes de su prematura muerte, Turing propuso un sistema de sustancias químicas, denominadas morfógenos, el cual era capaz de explicar cómo ciertos patrones morfológicos se originan en los seres vivos. Turing describió el modo en que este sistema evoluciona en el tiempo mediante una serie de reacciones y difusiones químicas, la cual genera una distribución espacial específica de dos señales químicas diferentes, una de ellas fomentando el crecimiento del tejido y la otra suprimiéndolo. El resultado es un patrón de crecimiento diferencial, en el que unos grupos de células se multiplican más rápido que otros, llevando a la creación de una forma en el tejido. Increíblemente, Turing predijo algunos de estos patrones de crecimiento décadas antes de que pudieran ser observados en el laboratorio.


El término morfógeno aún se emplea hoy en día para referirse a aquellas sustancias o moléculas que participan en la morfogénsis. Hoy sabemos que la forma en que muchos morfógenos funcionan es mediante la regulación de la diferenciación celular, es decir, el proceso por el cual una célula de un tipo ‘genérico’ se transforma en una de un tipo más especializado. En particular, una familia de proteínas conocidas como factores de transcripción es fundamental para el proceso de diferenciación celular. Los factores de transcripción interactúan con el ADN celular, siendo capaces de ‘activar’ o ‘desactivar’ genes en la célula. En algunos casos, estos genes regulan, a su vez, la activación de otros genes, dando lugar a una red reguladora genética. En consecuencia, la acción de unos pocos factores de transcripción, o incluso de uno solo, puede conllevar efectos drásticos para el destino de la célula; por ejemplo, mediante la determinación de propiedades tan importantes como la habilidad de adherirse a otras células. Esto es especialmente cierto durante la que es quizá la fase más crucial en el desarrollo embrionario: el proceso por el cual la gástrula se desarrolla a partir de la bástula, conocido como gastrulación. Para dar lugar a la estructura multicapa de la gástrula, las células que componen la bástula necesitan ‘desactivar’ temporalmente, por medio de factores de transcripción específicos, su capacidad de adherirse a las células vecinas. Tras esto, las células se desplazan a sus nuevas posiciones en la gástrula, donde recuperan sus capacidades adhesivas.

Como el propio nombre indica, la morfogénesis no sólo incluye la diferenciación de las células y su organización en grupos de diferentes tipos celulares, sino también la creación de las formas biológicas que mantienen a los organismos vivos y en funcionamiento. Interesantemente, en este proceso no sólo participan sustancias químicas; la física juega también un papel fundamental en el proceso por el que los tejidos vivos, como el intestino o el cerebro, adquieren su forma característica. El intestino delgado humano, por ejemplo, es un tubo de entre cinco y once metros de longitud, que se pliega y enrolla en una forma concreta que le permite caber en la cavidad abdominal. Se ha demostrado que el patrón de bucles observado en el intestino en desarrollo de embriones de pollo puede recrearse por medio de las fuerzas físicas que se generan cuando un tubo semirrígido –en este caso, el propio intestino– aumenta de tamaño, mientras se encuentra sujeto a un material elástico cuyo tamaño no varía. En el caso del intestino, el papel de este material elástico corresponde al mesenterio, un tejido cuya función es anclar el intestino a la pared abdominal. Aunque este descubrimiento fue demostrado en su mayoría mediante simulaciones informáticas, una simple analogía física puede ser de ayuda: imaginemos una banda plana de goma elástica con un tubo de plástico flexible cosido a uno de sus bordes. Si este tubo comienza a aumentar de tamaño, mientras la banda de goma permanece igual, la forma resultante realmente coincide con la forma en que el intestino se halla plegado en los embriones de pollo. Esto sugiere que la forma del intestino es simplemente una consecuencia física del crecimiento que este órgano experimenta durante las primeras etapas de desarrollo.

La forma que adopta un tubo de plástico flexible al ser cosido a una banda de goma elástica estirada, una vez que ésta ha recuperado su tamaño original (arriba) coincide con el patrón de bucles observado en el intestino en desarrollo de embriones de pollo (abajo). (Fuente: Nature 476, 57–62.)

Otro sorprendente ejemplo de la física subyacente a las formas orgánicas es el cerebro de los mamíferos. Dos de las principales regiones del mismo son la materia blanca, situada en el interior del cerebro, y la materia gris, la cual forma su capa más externa (el córtex). Ésta normalmente se pliega en un patrón característico de surcos curvados que inmediatamente asociamos con este órgano. Investigaciones recientes han demostrado que este patrón morfológico es el resultado de las tensiones físicas que se generan cuando una capa de material blando aumenta de tamaño, mientras permanece anclada a un núcleo formado por otro material blando cuyo tamaño no varía. Al estar sujeta al núcleo interno –en este caso, la materia blanca–, la capa externa –la materia gris– es incapaz de expandirse libremente en todas direcciones. En su lugar, una tensión compresiva se acumula en la capa externa, oponiéndose a su crecimiento; para minimizar tal tensión, el material debe plegarse drásticamente en largos y profundos surcos, los cuales reducen el estrés físico y permiten un aumento del volumen. Cuando este proceso es simulado en un ordenador, las estructuras resultantes son asombrosamente similares a la superficie del cerebro. Es más, al simular las proporciones de material blanca y gris observadas en distintas especies de mamíferos, la forma de sus cerebros puede ser reproducida; por ejemplo, el cerebro de los ratones es mucho más liso que el de los humanos, debido a que su proporción de materia gris es mucho más baja. La peculiar forma del cerebro humano parece ser, por tanto, la solución ofrecida por la física al problema de adquirir grandes volúmenes de materia gris.

Queda ciertamente mucho que aprender acerca de los mecanismos físicos y químicos que posibilitan el fenómeno de la morfogénesis; el inconcebiblemente complejo y maravillosamente coordinado proceso por el que un cigoto unicelular da lugar a un feto completamente formado sigue asombrándonos aun hoy en día. Desde los sutiles patrones de regulación genética hasta las interacciones químicas y físicas entre células y tejidos a lo largo del espacio y el tiempo, descifrar las bases matemáticas del origen de las formas orgánicas se contará siempre entre las más cautivadoras misiones de la ciencia.



Referencias:
Turing, A.M. The chemical basis of morphogenesis. Philosophical Transactions of the Royal Society of London (1952).
Wolpert, L. The triumph of the embryo (Courier Corporation, 2008).
Savin, T., Kurpios, N.A., Shyer, A.E., Florescu, P., Liang, H., Mahadevan, L., Tabin, C.J. On the growth and form of the gut. Nature (2011).
Tallinen, T., Biggins, J.S. Mechanics of invagination and folding: Hybridized instabilities when one soft tissue grows on another. Physical Review E (2015).
Tallinen, T., Chung, J.Y., Rousseau, F., Girard, N., Lefèvre, J., Mahadevan, L. On the growth and form of cortical convolutions. Nature Physics (2016)

Sunday, September 10, 2017

Natural chaos



Patterns composed of ever-smaller branches are very common in nature; some examples are (clockwise from top left): plants, rivers, pulmonary bronchi and blood vessels.
(Credits: Catherine Macbride; Jassen Todorov; Guzel Studio; Inozemtsev Konstantin.)

IN SOME WAY, the movement of the celestial bodies across the sky resembles that of a colossal clockwork device. Stars and planets follow orbits which are neatly described by mathematical equations, such that by knowing their position at a given point in time, we can foretell their positions at any future time. This is the basis of our ability to predict lunar phases, solar and lunar eclipses, meteor showers and other astronomical phenomena. It is perhaps unsurprising that, until quite recently, science believed the whole universe to operate in such a way, following predictable, ‘clockwork’ processes. Such a view is termed ‘determinism’ since, according to it, the future is completely predetermined by mathematical equations, such that no randomness or unpredictability would be left, were we able to work out those equations. This was perfectly put by the prominent eighteenth-century mathematician Pierre-Simon Laplace, who wrote:

An intellect which, at a certain moment, would know all forces that set nature in motion, and all positions of all items of which nature is composed, if this intellect were also vast enough to submit these data to analysis, it would embrace in a single formula the movements of the greatest bodies of the universe and those of the tiniest atom; for such an intellect, nothing would be uncertain, and the future, just like the past, would be present before its eyes.

However elegant this might sound, over the second half of the last century it became increasingly clear to scientific minds that the universe is very little like this. Various natural processes, even though they could be perfectly described using mathematics, were found to display a behaviour that was, on all accounts, impossible to forecast. In time, these and other baffling discoveries led us to realise that unpredictability is an intrinsic property of the universe; not only this, but it is this very property that grants inanimate matter the dazzling ability to spontaneously organise itself into the complex shapes and structures of the natural world. The uncanny force responsible for the unpredictability of the world received what is, in fact, a very popular name — chaos.


Although the term ‘chaos’ commonly serves as synonym for disorder or mayhem, its mathematical meaning is more specific. In a system that can be completely described by deterministic mathematical equations, without any unknown or random component, chaos is the property that makes this system capable of behaving unpredictably. In order words, even if we know the state of the system at a given moment, and the equations that describe the system’s evolution, it is impossible for us to predict its future behaviour.


One of the first to describe a system with chaotic behaviour was the meteorologist Edward Lorenz, who in the early 1960s was trying to model the weather using mathematics. The dominant view at the time was that the weather was a deterministic phenomenon, and thus could be forecasted using equations. But once Lorenz had written down a set of equations that captured the dynamics of air masses, he found that these did not yield any useful predictions. Actually, his system appeared to suffer from extreme sensitivity to even the slightest change in its starting conditions; these variations, initially tiny, rapidly amplified across the system as this evolved, causing it to deviate from its predicted course, and thus leading to completely unexpected outcomes.

Lorenz presented his findings in a talk which he titled: ‘Does the flap of a butterfly’s wings in Brazil set off a tornado in Texas?’. This concept would rapidly capture the public’s imagination, giving birth to the popular expression ‘the butterfly effect’. What Lorenz’s results imply is that, even if we should, in theory, be able to forecast the weather by measuring a set of variables (such as atmospheric pressure, temperature, humidity, wind speed, etc.) and solving some equations that describe the evolution of atmospheric conditions, these equations are so sensitive to even infinitesimal changes in their initial values, that we cannot possibly measure the variables we need with such accuracy as to be able to reliably predict the weather beyond a couple of days from now. It turns out that the butterfly effect, that is, a high sensitivity to the initial conditions, is actually a hallmark of chaotic systems.

The butterfly effect is easier to understand thanks to a simpler phenomenon than the weather. In the 1970s, biologist Robert May was working on an equation to model the changes in animal populations over generations. This is known today as the logistic equation, and is indeed very simple. Given a value, Current Size, that represents the current size of a population in relation to its maximum possible size (for example, a value of 0.5 means that the population has half the maximum size), using the logistic equation, we can easily find out the size of the population in its next generation, Future Size:

Future Size = 3.7 × Current Size × (1 – Current Size).

The 3.7 value in the equation above is arbitrary, and as suitable as almost any other value between 3.6 and 4. Given this equation, if the current population size, Current Size, were, for instance, 0.27 (27% of the maximum size), then the size in the next generation would be:

Future Size = 3.7 × 0.27 × (1 – 0.27) = 3.7 × 0.27 × 0.73 ≈ 0.729.

The logistic equation is as simple as it looks, and yet it has a property which is shared between all chaotic systems: feedback. In other words, the equation’s result — in this case, 0.729 — is fed back into the equation, since this value will be the new Current Size when we try to determine the population size in the following generation (the next Future Size). Because the population size in each generation depends on the size in the previous generation, it is easy to see how even the smallest variation in our initial value will grow larger as we solve the equation for more and more generations. If the initial value of the system is a real amount that we need to measure, this implies that we can never measure it accurately enough as to be able to predict its future values indefinitely. But the more precision we achieve in our measurements, the longer we will reliably predict the system’s behaviour.

To show the logistic equation’s chaotic behaviour, let us use again the value 0.27 as our initial value for Current Size. We can use this value to calculate Future Size, which will then become the new Current Size, and repeat this process for many generations, making use of the logistic equation each time. Now, imagine that we did not measure the initial population size with absolute accuracy, and that the actual initial size was not 0.27, but 0.270001 (this represents a change of just 0.00037% in the initial value). In this case, it turns out that with our ‘inaccurate’ initial value of 0.27, we will only be able to predict the future population size for twenty-three generations, and no further. Beyond the twenty-third generation, the system will no longer abide by our predictions, and so we say that it behaves chaotically after this point.

Graph representing the evolution of the size of a population, as described by the logistic equation, for 50 generations and initial values of 0.27 (upper, in blue) and 0.270001 (lower, in red). The system follows the same evolution for the first 23 generations; after this point (discontinuous line), the system displays a different behaviour in each case. Therefore, with an initial value of 0.27 it is impossible to predict the system if the true initial value is not exactly 0.27. This is known as chaotic behaviour.

Chaos is not a rare phenomenon at all; it actually crops up everywhere, from climate to living systems to the stock market. The world is inevitably shrouded in unpredictability; on the other hand, the fact that chaos is so embedded in the fabric of the universe is what makes nature capable of spawning the amazing designs we see around us, from the shapes of clouds to the structure of our circulatory system. For, as a visionary mathematician named Benoît Mandelbrot discovered in the seventies, chaos is at the heart of a special kind of geometry that can be used to describe the rough and irregular shapes of nature. Mandelbrot realised that Euclidean geometry, which is concerned with perfect shapes, such as lines, triangles and spheres, is not able to explain the physical world around us; for neither are the mountains triangles, nor are the clouds spheres. Nature seems to have a preference for characteristically rough, ‘imperfect’ structures, and before Mandelbrot, no one knew how to measure and describe that roughness. Mandelbrot’s new geometry, fractal geometry, was one of the greatest mathematical revolutions of the twentieth century. Mandelbrot realised that there is a property common to almost all the shapes of nature, something called self-similarity. This can be described as the property by which an object is composed of parts that look themselves like small versions of the whole object. The closer we look at mountains, trees, clouds and sea waves, the more detail we see, and this new detail always repeats a similar geometric pattern. A tree branch resembles a small tree, just as a rock resembles a small mountain, depending only on how closely we observe them. Amazingly, the pattern of progressively smaller branches adopted by plants is also found in the structure of our blood vessels, our nerves and our lungs — just to mention some.

Mandelbrot discovered that this kind of irregular, self-similar forms, which he christened fractals, are described by simple mathematical equations that have the property of feedback, just like May’s logistic equation and Lorenz’s atmospheric model. This sparked an incredible breakthrough: the realisation that chaos is the force behind nature’s amazing ability to self-organise into the multitude of complicated structures and patterns we see in the world. Chaos is the property that empowers simple mathematical rules to spontaneously give rise to unimaginably complex systems. Our intuition of complexity as something that cannot suddenly arise from something much simpler, but that necessarily implies a process of complex, even conscious, design, needs to be reappraised. For nature is, at the same time, marvellously complicated and marvellously simple.



References:
The Secret Life of Chaos. BBC (2010).
Butterflies, Chaos and Fractals. Lecture by Prof. Raymond Flood, Gresham College (2013).
Benoît Mandelbrot. The Fractal Geometry of Nature (Henry Holt & Co., 1982).

Caos natural



Los patrones compuestos de ramificaciones cada vez más pequeñas son muy comunes en la naturaleza; algunos ejemplos son (en sentido de las agujas del reloj, desde la esquina superior izquierda): plantas, ríos, bronquios pulmonares y vasos sanguíneos.
(Imágenes: Catherine Macbride; Jassen Todorov; Guzel Studio; Inozemtsev Konstantin.)

EN CIERTO MODO, el movimiento de los cuerpos celestiales se asemeja al de un colosal dispositivo mecánico. Las estrellas y planetas siguen órbitas que pueden ser descritas de forma precisa por ecuaciones matemáticas, de modo que, conociendo sus posiciones en un instante dado, podemos vaticinar sus posiciones en cualquier momento futuro. Ésta es la base de nuestra capacidad para predecir fases lunares, eclipses de sol y de luna, lluvias de estrellas y otros fenómenos astronómicos. Quizá no deba sorprendernos el que, hasta hace bastante poco, la ciencia interpretara el universo entero de esta forma, como una gran máquina regida por procesos ‘mecánicos’, predecibles. Esta postura se conoce como ‘determinismo’, ya que, según ella, el futuro está absolutamente predeterminado por ecuaciones matemáticas, tal que nada permanecería aleatorio o impredecible si pudiéramos descifrar estas ecuaciones. Tal pensamiento quedó perfectamente expresado en palabras del prominente matemático del siglo XVIII Pierre-Simon Laplace, quien escribió:

Un intelecto el cual, en un cierto momento, conociera todas las fuerzas que dan movimiento a la naturaleza, y todas las posiciones de todos los elementos de los que la naturaleza está compuesta, si este intelecto fuera también lo suficientemente vasto como para someter estos datos a análisis, abarcaría en una sola fórmula los movimientos de los mayores cuerpos del universo y los del átomo más pequeño; para tal intelecto, nada sería incierto, y el futuro, tal como el pasado, estaría presente ante sus ojos.

Por muy elegante que esto pueda sonar, a lo largo de la segunda mitad del siglo pasado la comunidad científica vio cada vez con mayor claridad que el universo no se comporta de este modo. Varios procesos naturales fueron descubiertos, los cuales, pese a que podían ser perfectamente descritos matemáticamente, mostraban un comportamiento que era, a todas luces, imposible de pronosticar. Durante las décadas siguientes, estos y otros desconcertantes descubrimientos nos llevaron a comprender que la imprevisibilidad es una propiedad intrínseca del universo; no sólo esto, sino que es precisamente esta propiedad la que dota a la materia inanimada de la habilidad de autoorganizarse en las complejas formas y estructuras de la naturaleza. La inexplicable fuerza responsable de la imprevisibilidad del mundo recibió el que es, de hecho, un nombre muy popular: caos.


Aunque el término ‘caos’ es comúnmente un sinónimo de desorden o vorágine, su significado matemático es más concreto. En un sistema completamente descrito por ecuaciones matemáticas determinísticas, sin ningún componente desconocido o aleatorio, el caos es la propiedad que dota a este sistema de la capacidad de comportarse impredeciblemente. En otras palabras, incluso si conocemos perfectamente el estado del sistema en un momento dado, así como las ecuaciones que describen la evolución del sistema, es imposible predecir el comportamiento futuro del mismo.


Uno de los primeros en describir un sistema con comportamiento caótico fue el meteorólogo Edward Lorenz, quien a principios de los sesenta estaba intentando modelar el tiempo atmosférico mediante matemáticas. El pensamiento dominante de la época era que el tiempo era un fenómeno determinístico y, por tanto, podía ser pronosticado mediante ecuaciones. Pero una vez que Lorenz hubo escrito un conjunto de ecuaciones que describía la dinámica de masas de aire, se encontró con que éste no conducía a predicción útil alguna. Lo que su sistema parecía sufrir, en cambio, era una sensibilidad extrema a la más ligera variación en sus condiciones de inicio; estos cambios, aunque al principio fueran minúsculos, eran rápidamente amplificados a lo largo del sistema conforme éste evolucionaba, haciéndolo desviarse de su curso predicho, y llevando a resultados absolutamente inesperados.

Lorenz presentó sus hallazgos en una charla titulada: ‘¿Desencadena el aleteo de una mariposa en Brasil un tornado en Texas?’. Este concepto pronto capturó la imaginación popular, dando origen a la célebre expresión ‘el efecto mariposa’. Lo que los resultados de Lorenz implican es que, incluso si deberíamos, en teoría, poder predecir el tiempo midiendo una serie de variables (tales como presión atmosférica, temperatura, humedad, velocidad del viento, etc.) y resolviendo las ecuaciones que describen la evolución de las condiciones atmosféricas, la realidad es que estas ecuaciones son tan sensibles a cambios infinitesimales en sus valores iniciales, que nunca seremos capaces de medir las variables que necesitamos con suficiente precisión como para predecir el tiempo de forma fiable por más de unos días. Resulta que el efecto mariposa, es decir, la alta sensibilidad a las condiciones de inicio, es una marca distintiva de los sistemas caóticos.

El efecto mariposa es más fácil de entender gracias a un fenómeno más sencillo que el tiempo atmosférico. En los años setenta, el biólogo Robert May estaba trabajando en una ecuación para modelar los cambios en poblaciones de animales a lo largo de las generaciones. Esta ecuación se conoce hoy como la ecuación logística, y es verdaderamente simple. Dado un valor, Tamaño Actual, el cual representa el tamaño actual de una población en relación a su tamaño máximo posible (por ejemplo, un valor de 0,5 significa que la población tiene la mitad del tamaño máximo), usando la ecuación logística, podemos averiguar fácilmente el tamaño que tendrá la población en la siguiente generación, al que llamaremos Tamaño Futuro:

Tamaño Futuro = 3,7 × Tamaño Actual × (1 – Tamaño Actual).

El valor 3,7 en esta ecuación es arbitrario, y tan adecuado para nuestros propósitos como casi cualquier otro valor entre 3,6 y 4. Dada esta ecuación, si el tamaño actual de la población, Tamaño Actual, fuera, por ejemplo, 0,27 (el 27% del tamaño máximo), entonces el tamaño en la próxima generación sería:

Tamaño Futuro = 3,7 × 0,27 × (1 – 0,27) = 3,7 × 0,27 × 0,73 ≈ 0,729.

La ecuación logística es tan simple como parece, y aun así posee una propiedad que comparten todos los sistemas caóticos: retroalimentación. En otras palabras, el resultado de la ecuación (en este caso, 0,729) es introducido de nuevo en la ecuación, dado que este valor se convertirá en el nuevo Tamaño Actual cuando intentemos determinar el tamaño de la población en la generación siguiente (el nuevo Tamaño Futuro). Debido a que el tamaño de la población en cada generación depende del tamaño en la generación anterior, es fácil ver que incluso la variación más minúscula en nuestro valor inicial se expandirá a medida que resolvemos la ecuación para más y más generaciones futuras. Si el valor inicial del sistema es una cantidad real que debe ser medida, esto implica que nunca podremos medirla con la suficiente precisión como para poder predecir sus futuros valores indefinidamente. Pero cuanto mayor precisión logremos en nuestras mediciones, por más tiempo podremos predecir fiablemente el comportamiento del sistema.

Con objeto de ilustrar el comportamiento caótico de la ecuación logística, usaremos de nuevo el valor 0,27 como nuestro valor inicial del Tamaño Actual. Podemos usar este valor para calcular el Tamaño Futuro, que se convertirá a continuación en el nuevo Tamaño Actual, y repetir este proceso por muchas generaciones, haciendo uso de la ecuación logística en cada paso. Ahora, imaginemos que no hemos medido el tamaño inicial de la población con precisión absoluta, y que el auténtico tamaño inicial no era 0,27, sino 0,270001 (esto supone un cambio de sólo un 0,00037% en el valor de inicio). En tal caso, resulta que con nuestro ‘impreciso’ valor inicial de 0,27, solamente seremos capaces de predecir el tamaño futuro de la población durante veintitrés generaciones, y no más. Tras la vigesimotercera generación, el sistema no se ceñirá a nuestras predicciones, por lo que decimos que se comporta caóticamente pasado este punto.

Gráfica que representa la evolución del tamaño de una población, descrito por la ecuación logística, durante 50 generaciones, para los valores iniciales 0,27 (superior, en azul) y 0,270001 (inferior, en rojo). El sistema sigue la misma evolución durante las primeras 23 generaciones; pasado este punto (línea discontinua), el sistema muestra comportamientos diferentes en cada caso. Por tanto, con un valor inicial de 0,27 es imposible predecir el sistema si el verdadero valor inicial no es exactamente 0,27, lo que se conoce como comportamiento caótico.

El caos no es en absoluto un fenómeno extraño; en realidad, está presente en todas partes, desde el clima hasta los sistemas vivientes, pasando por el mercado de valores. El mundo está inevitablemente inmerso en la imprevisibilidad; por otra parte, el hecho de que el caos esté tan infiltrado en el tejido del universo es lo que ha hecho a la naturaleza capaz de dar lugar a los asombrosos diseños que vemos a nuestro alrededor, desde la forma de las nubes hasta la estructura de nuestro sistema circulatorio. Pues, tal como un visionario matemático llamado Benoît Mandelbrot descubrió en los setenta, el caos es esencial para un tipo especial de geometría, el cual es capaz de describir las formas rugosas e irregulares de la naturaleza. Mandelbrot era consciente de que la geometría euclídea, que se interesa por las formas perfectas, tales como líneas, triángulos y esferas, no sirve para explicar el mundo físico que nos rodea; pues ni las montañas son triángulos, ni las nubes son esferas. La naturaleza parece tener preferencia por formas característicamente rugosas, ‘imperfectas’, y antes de Mandelbrot, nadie sabía cómo medir y describir tal rugosidad. La nueva geometría de Mandelbrot, la geometría fractal, fue una de las mayores revoluciones matemáticas del siglo XX. Mandelbrot intuyó que existe una propiedad común a casi todas las formas naturales, algo llamado autosemejanza. Ésta se puede describir como la propiedad por la que un objeto se compone de partes que se asemejan a versiones más pequeñas del objeto completo. Cuanto más de cerca observamos las montañas, los árboles, las nubes y las olas del mar, más y más detalle somos capaces de ver, y este nuevo detalle repite siempre un patrón geométrico similar. Una rama de un árbol se asemeja a un árbol pequeño, tal como una roca se asemeja a una montaña pequeña, dependiendo tan sólo de cómo de cerca las observemos. Increíblemente, el patrón de ramificaciones cada vez más pequeñas adoptado por las plantas está también presente en la estructura de nuestros vasos sanguíneos, nuestros nervios y nuestros pulmones, por citar sólo algunos.

Mandelbrot descubrió que este tipo de formas irregulares y autosemejantes, a las cuales denominó fractales, son descritas por sencillas ecuaciones matemáticas que poseen la propiedad de retroalimentación, tal como la ecuación logística de May y el modelo atmosférico de Lorenz. Esto desencadenó un avance prodigioso: el entendimiento de que el caos es la fuerza detrás de la increíble habilidad de la naturaleza para generar la multitud de complicadas estructuras y patrones que encontramos en el mundo. El caos es la propiedad que otorga a las reglas matemáticas más simples el poder para dar lugar, espontáneamente, a sistemas inimaginablemente complejos. Nuestra noción intuitiva de la complejidad como algo que no puede emerger súbitamente a partir de algo mucho más simple, sino que implica necesariamente un proceso de diseño complejo, incluso consciente, necesita ser replanteada. Porque la naturaleza es, al mismo tiempo, maravillosamente complicada y maravillosamente simple.



Referencias:
The Secret Life of Chaos. BBC (2010).
Butterflies, Chaos and Fractals. Ponencia por el Prof. Raymond Flood, Gresham College (2013).
Benoît Mandelbrot. The Fractal Geometry of Nature (Henry Holt & Co., 1982).