divulgatum está dedicado a la difusión de conocimiento científico en español e inglés, mediante artículos que tratan en detalle toda clase de temas fascinantes pero poco conocidos.
divulgatum is devoted to the dissemination
of scientific knowledge in Spanish and English, through
articles that go into the details of all sorts of fascinating but not widely known subjects.
Showing posts with label historia. Show all posts
Showing posts with label historia. Show all posts

Sunday, July 20, 2025

La lucha por la supervivencia de la evolución


Este artículo es una versión revisada de Evolución en evolución (2019), escrita para el Magdalene College Magazine (2024–25).

El concepto de la evolución como un proceso que conlleva la transformación gradual de masas de individuos por medio de la acumulación de cambios impalpables es un concepto cuya falsedad es inmediatamente demostrada por el estudio de la genética. De una vez por todas, esa carga, tan gratuitamente asumida por los evolucionistas del siglo pasado en ignorancia de la fisiología genética, puede ser relegada al olvido.

William Bateson (1909), p. 289


La primera edición de El Origen de las Especies (1859) de Charles Darwin.
(Imagen: Scott Thomas Images.)


EXISTE UNA CONCEPCIÓN popular generalizada de las revoluciones científicas como eventos singulares que se despliegan, fulminantes y definitivos, en un abrir y cerrar de ojos. Nombres como Galileo, Newton o Einstein se invocan típicamente como figuras míticas, con una capacidad milagrosa para transformar por sí solas nuestra visión del mundo. Sin embargo, parece que las rupturas de paradigma drásticas y radicales que asociamos con las revoluciones científicas son bastante más difíciles de encontrar hoy en día. Se podría especular —y se nos perdonaría— que ésta podría ser la consecuencia de ciertos cambios en la naturaleza del trabajo académico, los cuales han frenado el progreso de la investigación para hacer sitio a un volumen cada vez mayor de papeleo ineludible. Pero lo cierto es que, en lugar de estancarse, el progreso científico es ahora considerablemente más rápido que nunca antes. La verdadera razón por la que hoy en día no encontramos revoluciones científicas tan agudas y repentinas como las que se encuentran en los libros de divulgación científica es que tales eventos no son revoluciones en el sentido habitual de la palabra. En lugar de cambios cataclísmicos, estos son procesos fastidiosamente prolongados, que requieren décadas de trabajo científico acumulativo para madurar y desarrollarse. Si bien tanto los divulgadores científicos como los propios científicos, por no mencionar la industria cinematográfica, suelen ser culpables de tergiversar los descubrimientos científicos a base de filtrarlos a través de una lente dramática pseudo-wagneriana, la realidad es que, al ser los académicos criaturas escépticas y orgullosas por naturaleza, cada gran cambio conceptual tiene que filtrarse lentamente, en lugar de verterse directamente, en el pozo del conocimiento aceptado. Por nombrar sólo un ejemplo, la estructura de doble hélice de la molécula de ADN, ahora aclamada como el mayor avance biológico de la segunda mitad del siglo XX, siguió siendo considerada por muchos como poco más que una posibilidad teórica años después de su publicación. Incluso Sir Isaac Newton, ese gastado arquetipo de genio científico sobrenatural, tuvo que soportar una guerra intelectual de desgaste de décadas con sus competidores continentales antes de que su ley de gravitación universal fuera ampliamente aceptada fuera de Gran Bretaña.

Entre los casos documentados de revoluciones científicas que se desarrollaron gradualmente, uno destaca por ser a la vez particularmente interesante y sorprendentemente desconocido: la historia de cómo la teoría de la evolución por selección natural de Charles Darwin llegó a ser la idea central y unificadora de la biología. Contrariamente a la creencia popular, ésta no fue una revolución repentina, sino un prolongado proceso de intenso debate académico que comenzó con la publicación de las ideas de Darwin en 1859 y que no cesaría hasta finales de la década de 1940. Durante este período, la diferenciación de la biología en varias nuevas disciplinas creó las condiciones para la apertura de una brecha insalvable entre los naturalistas de formación clásica y una nueva generación de biólogos experimentales. Como resultado, el pensamiento evolucionista se dividió en dos corrientes opuestas que sólo serían reconciliadas con el futuro desarrollo de una teoría unificada de la evolución.

Durante su vida, Darwin presenció cómo su teoría de la selección natural ganaba aceptación y prestigio entre un pequeño círculo de naturalistas y biólogos evolucionistas. Este grupo de darwinistas tempranos incluía a Alfred Newton, primer Profesor de Zoología en la Universidad de Cambridge, quien escribió: “Nunca dudé ni por un instante, ni entonces ni después, de que teníamos uno de los descubrimientos más grandiosos de nuestra época, un descubrimiento tanto más grandioso por su simplicidad” (Newton, 1888, p. 244). A pesar de este limitado éxito, Darwin nunca experimentó el desarrollo definitivo de su teoría, que habría de convertirla en la piedra angular de la biología que es hoy —una condición que se resume mejor en el famoso aforismo de Theodosius Dobzhansky: “Nada en biología tiene sentido excepto a la luz de la evolución”—. De hecho, podría resultar difícil para los biólogos actuales concebir siquiera los extremos de oposición a los que el llamado “darwinismo” se enfrentó desde finales del siglo XIX hasta la década de 1930.

En aquel entonces, el darwinismo era sólo una entre varias teorías discordantes que intentaban explicar los procesos por los cuales se desarrollan las especies biológicas. Algunas de éstas, ahora conocidas como teorías “esencialistas”, se basaban en una noción de especies como “líneas” uniformes de individuos virtualmente idénticos, cada una hecha a imagen de una “esencia” inmutable (un concepto claramente prestado del platonismo). Por lo tanto, el pensamiento esencialista rechazaba la existencia de una variación natural significativa dentro de cada especie. Por otro lado, las teorías “poblacionistas” veían a las especies como poblaciones compuestas de individuos distintos y únicos, y por lo tanto inevitablemente portadores de un grado sustancial de variación biológica natural; ejemplos de dicha variación podrían ser diferencias en el tamaño adulto, el color del pelaje o la forma de las hojas. Además, algunas teorías presumían la existencia de una “herencia blanda”, caracterizada por la noción de que el material hereditario (lo que ahora llamamos “genes”) puede alterarse hasta cierto punto a través de la interacción del organismo con su entorno. La teoría de la evolución de Lamarck por herencia de caracteres adquiridos destaca como un ejemplo notorio de esta corriente, al postular que cualquier cambio fisiológico adquirido por un individuo durante su vida será heredado por sus descendientes. Otras teorías, en cambio, admitían únicamente la “herencia dura”, según la cual el material hereditario no puede modificarse mediante la interacción con el entorno, de modo que los caracteres adquiridos por un individuo durante su vida no se transmiten a su descendencia. La biología moderna ha aportado pruebas contundentes contra la noción de herencia blanda; sabemos que, al menos en los animales, las células germinales que transmiten los genes de un individuo a la siguiente generación están aisladas de otros tejidos, impidiendo así la modificación ambiental del material genético en estas células. (Esto no incluye la exposición sistémica a ciertos agentes agresivos que no se encuentran normalmente en la naturaleza, como los rayos X y los carcinógenos químicos; además, si bien se ha argumentado que los descubrimientos de cambios epigenéticos hereditarios en algunas especies cuestionan la noción de una herencia estrictamente dura, la validez de estos argumentos aún es cuestión de debate.) Por lo tanto, podría resultar sorprendente que casi todas las teorías tempranas de la evolución, incluida la de Darwin, admitieran cierto grado de herencia blanda. En particular, el darwinismo asumía originalmente cierta plasticidad del material genético, de modo que éste podía modificarse hasta cierto punto mediante el uso o desuso de ciertos órganos durante la vida; Darwin creía que dicho proceso facilitaría la selección natural, permitiendo a las especies adaptarse eficazmente a su entorno. Algunos de los partidarios de Darwin, en particular los biólogos August Weismann y Alfred Russell Wallace, desarrollarían más tarde una elaboración de la teoría de Darwin conocida como “neodarwinismo”, que rechazaba definitivamente la posibilidad de cualquier tipo de herencia blanda. A través de sus propios estudios sobre poblaciones naturales en el Sudeste Asiático, Wallace había llegado de forma independiente a una teoría de la evolución fundamentalmente similar, aunque menos desarrollada, que la de Darwin. Fue el conocimiento de este hecho lo que finalmente impulsó a Darwin a publicar la teoría en la que había estado trabajando discretamente durante dos décadas. Antes de la publicación del libro de Darwin, Darwin y Wallace (1858) decidieron presentar un resumen de sus conclusiones en una comunicación conjunta a la Sociedad Linneana de Londres.

Basándose en principios como la herencia blanda y dura, el esencialismo y el poblacionismo, una amplia gama de teorías evolutivas fue propuesta entre las décadas de 1860 y 1940, de las cuales el darwinismo rara vez estuvo entre las favoritas. El principal factor que impulsaba a los científicos a apoyar una teoría sobre otra era su campo particular de especialización, y la cantidad y variedad de dichos campos dentro de la biología se estaba expandiendo como nunca antes, con disciplinas emergentes que incluían la embriología, la citología y la ecología. No obstante, desde la perspectiva del pensamiento evolutivo, una de estas nuevas ciencias sería sin duda la más impactante de todas: la genética, nacida del redescubrimiento inesperado de las leyes de la herencia biológica de Gregor Mendel en el año 1900. Los primeros genetistas se basaron en el conocimiento recuperado de los escritos de Mendel y comenzaron a desarrollar una comprensión detallada de los principios de la mutación genética y la herencia. Sin embargo, la chispa de esta nueva comprensión, lejos de promover un progreso concertado en la biología evolutiva, sirvió para encender un largo y cáustico conflicto entre las diferentes disciplinas biológicas.


Ilustración de la herencia de caracteres de las semillas de guisante (Fig. 3 en Bateson, 1909). Una planta de una variedad con semillas redondas y verdes, al ser fertilizada con polen de una variedad con semillas amarillas u rugosas, produce semillas redondas y amarillas (YR). En términos genéticos, esto indica que los caracteres de “redondez” y “amarillez” son dominantes. Sin embargo, al cruzarse entre sí, las semillas de estas nuevas plantas (F2) presentan una distribución de caracteres que se ajusta con precisión a las leyes de la herencia de Mendel.


Desde el principio, los padres fundadores de la genética se opusieron a la idea de Darwin de la selección natural como principal fuerza impulsora de la evolución. Tanto los primeros genetistas como los primeros paleontólogos interpretaron sus propias observaciones como claramente concordantes con la hipótesis de que las nuevas formas biológicas surgen mediante un cambio discontinuo o “mutación”. Una mutación se definía como una modificación discreta del material genético que causa un cambio fisiológico visible, y a menudo disruptivo, en el organismo. Tales eventos, argumentaban los genetistas, a veces resultarían en la transformación instantánea de una especie existente en una nueva, sin la producción de formas intermedias. Esta teoría, basada implícitamente en principios esencialistas, se conocía como “saltacionismo” debido a su creencia en la especiación por “saltación”, un gran salto evolutivo que conduce de una forma a otra. Ofrecía un contrapunto a la teoría de Darwin, que se basaba en una concepción gradualista de la evolución derivada del pensamiento poblacionalista, según la cual las especies daban lugar a nuevas especies de forma gradual, mediante una sucesión continua de formas intermedias. Por descabellado que pueda parecer hoy, el saltacionismo encajaba a la perfección con las observaciones experimentales de los genetistas, así como con la evidencia paleontológica previa. La extrema escasez del registro fósil impedía a los paleontólogos observar una progresión continua de formas que vincularan dos especies relacionadas, mientras que los genetistas estaban acostumbrados a trabajar con poblaciones uniformes de individuos casi idénticos —normalmente plantas o ratones— para minimizar la interferencia experimental. Los mutantes producidos en estos experimentos genéticos presentaban drásticas modificaciones físicas que eran heredadas por su descendencia de acuerdo con las leyes de Mendel. Parecía lógico, pues, suponer que mutaciones como éstas, eventos poco frecuentes pero altamente disruptivos, fueran la fuerza impulsora del origen de nuevas especies. En defensa de los genetistas, cabe señalar que ahora conocemos casos en los que nuevas especies han surgido mediante una única alteración genética, como la duplicación del genoma completo en algunas plantas. Por lo tanto, la idea de la especiación por saltación no es imposible; pero, como teoría, el saltacionismo carece de la generalidad necesaria para explicar la evolución de la mayoría de especies conocidas.

El darwinismo estaba también plagado por un problema adicional. La base fisiológica de la herencia era completamente desconocida en el siglo XIX, y Darwin había recurrido implícitamente a una teoría conocida como “herencia mixta”, según la cual la constitución de un organismo es un promedio uniforme de las constituciones de sus progenitores. El redescubrimiento y la confirmación del trabajo de Mendel demostraron rápidamente que la herencia no opera de esta manera, sino mediante la segregación de genes discretos de progenitores a descendientes. De hecho, puede demostrarse matemáticamente que la herencia mixta conduciría a una situación en la que cada individuo de una especie mostraría exactamente la misma forma de cada rasgo, eliminando toda la variación natural e imposibilitando así la evolución. Por lo tanto, los genetistas argumentaron que la noción darwinista completa de evolución gradual basada en la variación continua, la herencia mixta y la selección natural, era simplemente insostenible a la luz de sus resultados experimentales. Algunos de los primeros genetistas más distinguidos, como T. H. Morgan y William Bateson —quien tradujo la obra de Mendel al inglés y acuñó el propio término “genética”—, llegaron incluso a declarar que la genética había finalmente puesto fin al darwinismo (véase la cita introductoria al comienzo de este artículo). Sin embargo, cabe recordar que la genética era en sí misma una disciplina controvertida en aquel entonces, compuesta por múltiples corrientes en pugna; y los primeros genetistas, o “mendelianos”, estaban tan ansiosos por establecer la validez de sus propias teorías sobre la herencia como los darwinistas lo estaban por ver reivindicadas sus ideas evolutivas. Además, a pesar de su oposición al darwinismo, las contribuciones de esta primera generación de genetistas —en particular, la elucidación de las leyes de la herencia, el descubrimiento de los genes y los cromosomas, y la refutación de la noción de herencia blanda— acabarían siendo esenciales para el perfeccionamiento de la teoría evolutiva.

A diferencia de los genetistas, los biólogos con formación naturalista, incluyendo zoólogos y botánicos, solían extraer sus conclusiones del estudio directo de poblaciones naturales, e insistían en que sus observaciones de la diversidad natural concordaban perfectamente con la teoría de evolución gradual mediante selección natural de Darwin. La verdadera raíz del desacuerdo probablemente residía en la absoluta falta de comunicación entre ambos bandos: naturalistas y genetistas no sólo sostenían teorías contrapuestas, sino que también seguían enfoques muy distintos en la investigación científica, abordaban diferentes cuestiones biológicas, asistían a distintas reuniones, leían y publicaban en diferentes revistas, e incluso empleaban vocabularios distintos, incluyendo definiciones incompatibles para términos tan fundamentales como “especie” y “mutación”. Además, los genetistas parecían considerar a los naturalistas como amantes de la especulación, incapaces de someter sus ideas a una contrastación adecuada, mientras que los naturalistas tendían a descartar a los genetistas como experimentalistas de mente estrecha y sin experiencia en poblaciones naturales reales. La incomprensión y el resentimiento se agravaron con facilidad en semejante atmósfera, creando gradualmente una brecha cada vez más honda entre ambas disciplinas. Prueba asombrosa de ello es que, cuando una generación más joven de genetistas teóricos y experimentales —incluyendo a Sir Ronald Fisher, J. B. S. Haldane, Sewall Wright y H. J. Muller— comenzó a obtener, a finales de la década de 1910, nuevos resultados que demostraban cómo la acumulación de efectos de numerosos genes heredados discretamente puede dar lugar a la diversidad continua descrita por los naturalistas (véase la figura siguiente), y, por lo tanto, cómo el mendelismo y el neodarwinismo eran, de hecho, compatibles, esto no contribuyó a cerrar la enorme brecha entre genetistas y naturalistas. En cambio, debido al distanciamiento provocado por la constante hostilidad, la comunicación académica se vio tan perjudicada que los naturalistas pasarían décadas perseverando en sus esfuerzos por refutar las ideas ya obsoletas de la anterior generación de genetistas.


Ilustración del “modelo infinitesimal” de Fisher (1918), que explica la aparición de variación biológica continua a partir de la contribución combinada de un gran número de genes mendelianos discretos, o loci. Cada fila del diagrama presenta una distribución simulada de valores poblacionales para un rasgo determinado por un número creciente de genes individuales. Las barras del lado izquierdo indican el efecto individual de cada gen que contribuye al rasgo (desde sólo dos genes en el caso superior hasta 500 en el caso inferior). El lado derecho proporciona las distribuciones correspondientes de valores de rasgos en la población simulada, mostrando cómo los valores de un rasgo se distribuyen de forma más normal a medida que aumenta el número de genes. Esto explica por qué muchos caracteres fisiológicos en humanos y otras especies siguen una distribución normal o gaussiana.
(Imagen: Chamaemelum/Wikimedia Commons.)


De este modo, naturalistas y genetistas avanzaron por caminos separados durante las tres primeras décadas del siglo XX, cada uno arrastrando sus propias cargas conceptuales: los naturalistas mantenían perspectivas obsoletas sobre la naturaleza de la mutación genética y la herencia; los genetistas se veían obstaculizados por las perspectivas saltacionistas y por la creencia en que la evolución de las especies podía comprenderse mediante la extrapolación de la evolución de mutaciones individuales en entornos experimentales. Incluso en la década de 1930, cuando experimentos cruciales en selección artificial, junto con el trabajo de los primeros genetistas matemáticos, demostraron sin lugar a dudas la realidad de la evolución por selección natural, los libros de texto especializados aún enumeraban hasta seis teorías de la evolución como potencialmente correctas.

Este estancamiento finalmente se disiparía en la década de 1940, principalmente gracias a la perspicacia de un paleontólogo, George Simpson, y dos zoólogos, Julian Huxley y Bernhard Rensch. Quizás los únicos científicos de su generación que habían acumulado un profundo conocimiento de los últimos avances en cada una de las disciplinas relevantes, en tres libros independientes, Huxley (1942), Simpson (1944) y Rensch (1947) describieron cómo los hallazgos de zoólogos, botánicos, genetistas, paleontólogos y otros podían integrarse en un marco teórico coherente capaz de explicar todo el proceso evolutivo. En su libro (que se publicó primero debido a circunstancias derivadas de la Segunda Guerra Mundial), Huxley bautizó esta nueva teoría con el nombre con el que se la conoce hoy: la “síntesis evolutiva moderna”. La síntesis moderna afirma que la evolución gradual de las especies puede explicarse mediante la acumulación de innumerables mutaciones genéticas con efectos generalmente pequeños, junto con la recombinación (la redistribución del material genético a medida que se transmite de progenitores a descendientes) y la acción tanto de la selección natural como de procesos estocásticos sobre la diversidad genética producida por la mutación y la recombinación. Una característica clave de la teoría es que explica cómo estos mecanismos genéticos y selectivos de bajo nivel dan lugar a procesos evolutivos de alto nivel, incluyendo el origen de las especies, géneros y niveles taxonómicos superiores.

La forja de la síntesis evolutiva moderna no fue en sí misma una revolución científica, sino la conclusión a un prolongado cambio de paradigma iniciado por Darwin y Wallace casi un siglo antes. Dicha conclusión no implicó la victoria de una tradición científica sobre otra, sino la fusión de dos marcos conceptuales radicalmente distintos —el naturalismo y el experimentalismo— en un todo. Para que alcanzar tal hito, primero fue necesario superar una serie de obstáculos, surgidos del persistente aislamiento entre los dos bandos opuestos. Esto lo lograrían aquéllos que, en lugar de centrarse en su propia especialidad, mostraron curiosidad suficiente para aprender sobre los avances en otros campos, y apertura mental suficiente para percibir los puntos en común latentes bajo el conflicto. El legado de la síntesis moderna es la unificación de la biología evolutiva en un solo campo; tras su llegada, la discordia y la hostilidad que habían reinado durante medio siglo dieron paso a un consenso generalizado. Y los puentes construidos en aquel entonces permanecerían sólidamente en pie hasta el día de hoy: aunque aún hay debate sobre aspectos particulares de la teoría —como las implicaciones conceptuales de la memoria epigenética y el intercambio horizontal de genes entre organismos—, el marco básico de la síntesis ha permanecido esencialmente intacto desde la década de 1940.

La historia de la síntesis evolutiva moderna, nuestro marco actual para comprender la evolución, es valiosa tanto para científicos como para historiadores. La larga serie de descubrimientos y avances conceptuales que vinculan la teoría original de Darwin con nuestra interpretación unificada del proceso evolutivo ofrece un ejemplo ilustrativo de las consecuencias de fenómenos que se han manifestado una y otra vez en la historia de la ciencia: resistencia a nuevas ideas, comunicación deficiente agravada por diferencias semánticas, y especialización excesiva que genera sentimientos tribalistas de superioridad hacia otras disciplinas. Con suerte, esta historia también ofrecerá una lección sobre el estudio de la historia de las ideas científicas, y cómo éste permite una comprensión mucho más profunda que el mero estudio de sus definiciones; pues, mientras que las definiciones aspiran a la simplicidad y la rotundidad, la historia de la ciencia transmite la verdad de que la ciencia es un proceso vivo, cuyo progreso es fundamentalmente arduo, gradual, y absolutamente plagado de discordia.



Referencias
Bateson, W. (1909). Mendel’s Principles of Heredity (Cambridge University Press).
Darwin, C., Wallace, A.R. (1858). On the Tendency of Species to form Varieties; and on the Perpetuation of Varieties and Species by Natural Means of Selection. Journal of the Proceedings of the Linnean Society of London. Zoology, 3 (9): 45–62.
Darwin, C. (1859). On the Origin of Species by Means of Natural Selection, or the Preservation of Favoured Races in the Struggle for Life (John Murray).
Fisher, R.A. (1918). The Correlation between Relatives on the Supposition of Mendelian Inheritance. Transactions of the Royal Society of Edinburgh, 52 (2): 399–433.
Huxley, J. (1942). Evolution: The Modern Synthesis (Allen and Unwin).
Mayr, E. (1980). ‘Some Thoughts on the History of the Evolutionary Synthesis’, in The Evolutionary Synthesis: Perspectives on the Unification of Biology (Harvard University Press).
Newton, A. (1888). Early days of Darwinism. Macmillan’s Magazine, 57: 241–249.
Rensch, B. (1947). Neuere Probleme der Abstammungslehre (Enke).
Simpson, G.G. (1944). Tempo and Mode in Evolution (Columbia University Press).

Thursday, October 3, 2019

Evolución en evolución

La historia de cómo llegamos a comprender la evolución es un fascinante ejemplo del verdadero carácter de las revoluciones científicas.


La primera edición de El Origen de las Especies, publicado por Charles Darwin en 1859. (Imagen: Scott Thomas Photography.)

ES NATURAL IMAGINAR las revoluciones científicas como eventos que acontecen en un instante, cual relámpagos de razón deslumbradora. Concebimos a Galileo, Newton, Darwin, Einstein y tantos otros como figuras grandiosas y solitarias que transformaron por completo nuestro entendimiento del mundo, para conmoción y sorpresa de todos. Cuesta encontrar, sin embargo, ejemplos de revoluciones científicas de tal magnitud en la actualidad. Esto no se debe, por supuesto, a una menor intensidad de la empresa científica; de hecho, el progreso de esta última es hoy más rápido e impresionante que nunca antes. El verdadero motivo de que no podamos señalar demasiadas revoluciones científicas hoy en día es que éstas no son realmente revoluciones —transformaciones súbitas y dramáticas—, sino procesos muy prolongados, que normalmente requieren décadas de desarrollo. La narrativa popular tiende a representar descubrimientos científicos en un tono excesivamente dramático de culminación, iluminación y triunfo; en realidad, dado que los científicos son escépticos por naturaleza, cada gran cambio de paradigma ha necesitado muchos años para ser aceptado. En ciencia, cualquier idea, por muy transformativa, debe ser sujeta a un largo proceso de escrutinio académico y, de ser posible, confirmación experimental, hasta establecerse gradualmente como canon. La tan celebrada estructura de la doble hélice del ADN, tras ser inicialmente propuesta por Watson y Crick, fue considerada durante años como poco más que una mera posibilidad. Hasta Newton, arquetipo del genio científico, tuvo que soportar décadas de amarga competición intelectual antes de que su ley de la gravitación universal fuera finalmente aceptada fuera de Inglaterra.

Entre las muchas narrativas de revoluciones científicas, una es fascinante y desconocida por igual: la historia de cómo la famosa teoría de la evolución mediante selección natural de Charles Darwin se convirtió en el dogma supremo de la biología (esta historia fue brillantemente narrada por Ernst Mayr en el libro The Evolutionary Synthesis). Al contrario de lo que se cree, esto no implicó un cambio instantáneo de paradigma, sino más bien un prolongado proceso de feroz debate académico que no llegaría a su fin hasta mediados de la década de 1940, casi un siglo después de que Darwin publicara su teoría en 1859. Durante este periodo, la disgregación de la biología en nuevos campos de estudio propició el desarrollo de una brecha infranqueable entre los naturalistas clásicos y los biólogos experimentales, llevando a una segregación intelectual que solamente sería resuelta con la forja de una nueva teoría unificada de la evolución, conocida hoy como la síntesis moderna. En breve, esta teoría declara que la evolución gradual de las especies puede explicarse en términos de la acumulación de minúsculos cambios genéticos, recombinación (la reorganización del material genético entre progenitores y descendientes), y la acción de la selección natural sobre esta diversidad genética. La característica fundamental de la síntesis moderna es que explica cómo estos mecanismos genéticos dan lugar a procesos evolutivos de más alto nivel, tales como la especiación y la macroevolución.

En vida, Darwin vio cómo su teoría recibía la consideración y estima de algunos naturalistas, pero nunca presenció su desarrollo último como pilar incuestionable de la biología. De hecho, es difícil concebir hoy en día la intensidad de la oposición a la que el darwinismo tuvo que hacer frente desde finales del siglo XIX, y hasta tan tarde como 1930. En aquel entonces, el darwinismo era solamente una de muchas teorías que intentaban explicar el proceso por el que las especies biológicas se originan. Algunas de estas teorías evolutivas, conocidas como teorías esencialistas, se basaban en la noción de que las especies eran ‘líneas’ puras y uniformes de individuos prácticamente idénticos, declarando así la ausencia de variación natural dentro de cada especie. Por el contrario, las teorías populacionistas interpretaban las especies como poblaciones compuestas de organismos únicos y distintos, y por lo tanto poseedoras de una cantidad considerable de variación natural. Además, algunas teorías reconocían la existencia de herencia blanda, caracterizada por la modificación del material genético a través de la interacción de un organismo con su entorno; un ejemplo particularmente notorio de esta idea es la teoría lamarckiana de la herencia de caracteres adquiridos, la cual proponía que los cambios biológicos adquiridos por un individuo durante el curso de su vida son heredados por sus descendientes. Otras teorías reconocían solamente la herencia dura, la cual se distingue por la noción de que el material hereditario no puede ser alterado por acción del entorno. Hoy consideramos el concepto de herencia blanda como falso, y el material genético como inmutable mediante la interacción del individuo con su entorno (aunque descubrimientos recientes de variación epigenética heredable en ciertas especies podrían suponer un desafío a esta idea). Puede resultar sorprendente, por tanto, el hecho de que prácticamente todas las primeras teorías evolutivas, incluyendo la versión original del darwinismo, admitían un cierto grado de herencia blanda. En particular, el darwinismo asumía una cierta ‘plasticidad’ del material genético, el cual podría ser alterado hasta cierto punto mediante el uso o desuso de caracteres biológicos. No mucho más adelante, el neodarwinismo, una variación de la teoría de Darwin desarrollada por algunos de sus seguidores, entre ellos el naturalista Alfred Russel Wallace, rechazaría por completo la posibilidad de la herencia de caracteres adquiridos, adoptando una perspectiva de herencia dura.


En base a éstos y otros principios, una gran variedad de teorías evolutivas fueron desarrolladas entre los años 1860 y 1940, de las cuales el darwinismo era raramente la favorita. El principal factor que movía a cada autor a defender una u otra teoría era su campo de experiencia, y el número de tales campos se hallaba en una expansión sin precedentes. Durante la segunda mitad del siglo XIX, la ciencia de la biología, hasta entonces dividida en las disciplinas de zoología y botánica, experimentó una diferenciación en múltiples nuevos campos, incluyendo la embriología, la citología y la ecología. Desde el punto de vista del pensamiento evolutivo, sin embargo, la más influyente de estas nuevas disciplinas sería sin duda la genética —el estudio de los genes y la herencia—, la cual nació tras el redescubrimiento de las leyes de herencia genética de Gregor Mendel en 1900. A partir de este año, los genetistas acumularían un creciente entendimiento de los principios de mutación genética y herencia molecular; no obstante, este conocimiento, en lugar de motivar nuevos avances en el estudio de la evolución, daría pie a una larga y feroz confrontación entre las distintas disciplinas biológicas.


Desde un comienzo, los padres fundadores de la genética fueron firmes opositores del darwinismo y la idea de selección natural. Estos primeros genetistas, junto con los paleontólogos, defendían que el origen de nuevas especies tenía lugar por medio de cambios discontinuos, de modo que una modificación aislada y drástica del material genético (la cual denominaron una mutación), desencadenaba un cambio radical en la fisiología del organismo, resultando así en la transformación instantánea de una especie en otra, sin ninguna forma intermedia. Esta teoría, basada en principios esencialistas, era conocida como saltacionismo, debido a su defensa de la especiación por medio de grandes saltos evolutivos entre especies. Aunque pueda parecer absurda hoy en día, esta idea encajaba notablemente bien con las primeras observaciones de los genetistas, así como con anteriores descubrimientos paleontológicos. Con objeto de evitar cualquier forma de interferencia experimental, los genetistas hacían uso de ‘stocks’, o reservas de individuos casi idénticos (normalmente moscas de la fruta, por ser relativamente fáciles de criar y estudiar). En estos ‘stocks’ de moscas, los primeros genetistas descubrieron que mutaciones genéticas puntuales resultaban en modificaciones dramáticas de ciertos caracteres heredables, tales como el color de los ojos o la forma de las alas. Parecía razonable, por tanto, concluir que la evolución procedía del mismo modo, mediante mutaciones muy infrecuentes pero de gran efecto, las cuales ocasionaban la transformación instantánea de una especie en otra. La evolución gradual por medio de la acción de la selección natural sobre la variación genética existente en una especie parecía estar en contradicción total con estos resultados, llevando a algunos genetistas a afirmar que la evolución darwiniana había sido irrevocablemente refutada por la genética. A pesar de estos errores, la genética produjo algunas contribuciones significativas al pensamiento evolutivo durante este periodo, la más notable de las cuales fue quizá la refutación de la existencia de la herencia blanda.

Por otra parte, aquellos biólogos que habían recibido una formación de naturalistas, tales como los zoólogos y botánicos, estaban acostumbrados a obtener conclusiones directamente a partir del estudio de poblaciones naturales, e insistían en que todas sus observaciones apoyaban la teoría de evolución gradual de Darwin, y no el saltacionismo. La raíz de esta confusión, sin embargo, yacía sin duda en la falta de comunicación entre ambos campos: los naturalistas y los genetistas no sólo defendían distintas teorías, sino que tenían diferentes enfoques científicos, perseguían distintos intereses biológicos, asistían a diferentes reuniones y congresos, publicaban en diferentes revistas, e incluso empleaban distinto vocabulario (incluyendo el uso de acepciones incompatibles para términos tan esenciales como ‘especie’ y ‘mutación’). Es más, los genetistas tendían a considerar a los naturalistas como biólogos especulativos que eran incapaces de confirmar sus ideas en el laboratorio, y por tanto carecían de objetividad; a su vez, los naturalistas veían a los genetistas como miopes experimentalistas sin conocimiento real de las poblaciones naturales, e insensibles a la importante distinción entre herencia y evolución. Todo esto condujo a una interminable confusión y un creciente rencor entre las dos disciplinas, y, quizá más importante, a un tremendo vacío comunicativo. Una prueba extraordinaria de este fenómeno es el hecho de que, cuando una nueva generación de jóvenes genetistas —incluyendo nombres como Hermann Muller, J.B.S. Haldane y Ronald Fisher— comenzaron a obtener, desde finales de los años 1910 en adelante, nuevos resultados que refutaban la teoría saltacionista y apoyaban el neodarwinismo y la selección natural, esto no contribuyó a reparar la brecha entre genetistas y naturalistas. En su lugar, debido a la alienación creada por las perpetuas discrepancias entre ambos campos, la falta de comunicación era tan intensa que los naturalistas pasarían décadas esforzándose por seguir refutando las ideas ya obsoletas de los anteriores genetistas. Fue mayormente a causa de esta extrema segregación académica que la llegada de la síntesis moderna se atrasaría hasta la década de 1940.

De este modo, durante las tres primeras décadas del siglo XX, los naturalistas y los genetistas avanzaron por caminos aislados, cada cual cargando con sus propios lastres conceptuales: los primeros albergaban ideas erróneas acerca de la naturaleza de las mutaciones genéticas y la herencia; los últimos estaban dominados por la creencia de que la evolución de las especies y otros niveles taxonómicos podía entenderse mediante simple extrapolación del conocimiento acerca de cómo genes individuales evolucionan en poblaciones aisladas e ideales. Hasta la década de 1920, cuando cruciales experimentos de selección artificial, junto con el trabajo de los primeros genetistas matemáticos, contribuyeron a establecer la creencia en la selección natural, los textos especializados aún presentaban hasta seis teorías evolutivas diferentes como potencialmente correctas.

Este sombrío panorama sería transformado por completo a partir de 1940, gracias a la perspicacia de un paleontólogo, George Gaylord Simpson, y dos zoólogos, Julian Huxley y Bernhard Rensch. Siendo quizá los únicos científicos de su generación que habían adquirido un conocimiento detallado de los últimos avances en cada una de las disciplinas relevantes, Simpson, Huxley y Rensch publicaron independientemente tres libros, en los que demostraron cómo los hallazgos de los zoólogos, paleontólogos, genetistas y otros biólogos podían combinarse para explicar todos los niveles de la evolución, desde la aparición de alteraciones en genes individuales hasta el origen de las especies, géneros y niveles superiores, en un marco único y consistente. En su libro, Huxley bautizó esta nueva teoría con el nombre por el que es conocida hoy: la síntesis moderna.

La forja de la síntesis moderna no fue en sí misma una revolución científica, sino más bien la compleción de un cambio de paradigma iniciado por Darwin casi un siglo antes. Es más, la síntesis no implicó la victoria de una tradición científica sobre otra, sino la integración de dos marcos conceptuales radicalmente diferentes —naturalismo y experimentalismo— en un nuevo conjunto armonioso. Para hacer posible tal fusión, fue necesario, en primer lugar, eliminar confusiones conceptuales y barreras comunicativas entre los campos enfrentados, algo que sólo estaba al alcance de aquéllos que, en lugar de centrarse en la especialización académica, fueron lo suficientemente curiosos como para aprender acerca de los avances externos a sus respectivas disciplinas, y lo suficientemente abiertos de mente como para observar similitudes en lugar de diferencias. El verdadero impacto de la síntesis moderna fue la unificación de la biología evolutiva en un único campo; tras la llegada de la nueva teoría, la discordia y hostilidad total que habían reinado durante las tres décadas previas fueron reemplazadas por un acuerdo casi absoluto. Nuevos puentes habían sido alzados, los cuales permanecerían sólidamente en pie hasta el día de hoy; aunque aún existe discusión sobre ciertos aspectos de la teoría (tales como el papel de la herencia epigenética y la transferencia horizontal de genes), el marco fundamental de la síntesis ha permanecido esencialmente intacto desde que fuera trazado por primera vez en los años cuarenta.

La historia de la síntesis moderna, nuestro actual paradigma para el estudio de la evolución, posee valor para historiadores y científicos por igual. La larga serie de descubrimientos y avances conceptuales que condujo a una interpretación unificada de la evolución, a partir de la teoría original de Darwin, constituye una ilustración particularmente informativa de fenómenos que han tenido lugar una y otra vez a lo largo de la historia de la ciencia: resistencia a nuevas ideas, especialización excesiva, barreras terminológicas, brechas de comunicación, sentimientos de superioridad y hostilidad entre disciplinas, y la crucial importancia de la colaboración y el entendimiento para el avance científico. La historia de la síntesis moderna revela así el verdadero método del progreso científico, el cual es, por supuesto, más difícil, desordenado y gradual de lo que querríamos imaginar. Es también un ejemplo revelador de cómo la exploración de la historia de las ideas científicas ofrece una comprensión mucho más profunda que el mero estudio de sus definiciones; pues mientras que estas últimas pretenden ser estáticas y permanentes, la historia nos demuestra que la ciencia es algo vivo y en constante cambio, y que la búsqueda del conocimiento es fundamentalmente laboriosa, progresiva, colaborativa y eterna.



Referencias
Mayr, E. (1980). ‘Some Thoughts on the History of the Evolutionary Synthesis’, in The Evolutionary Synthesis: Perspectives on the Unification of Biology (Harvard University Press).
Huxley, J. (1942). Evolution: The Modern Synthesis (Allen and Unwin).
Simpson, G. G. (1944). Tempo and Mode in Evolution (Columbia University Press).
Rensch, B. (1947). Neuere Probleme der Abstammungslehre (Enke).

Saturday, February 4, 2017

La búsqueda de la información

Los esfuerzos de la humanidad por dominar y entender la información han transformado drásticamente nuestro mundo y nuestra percepción misma del cosmos.


La escritura cuneiforme fue una de las primeras formas de expresión escrita, desarrollada por los sumerios de Mesopotamia (hoy en día, Irak) a finales del cuarto milenio AC. Algunos de sus símbolos representan sílabas, mientras que otros son logogramas que representan palabras completas. Aún hay ciertos logogramas en uso hoy en día, como los símbolos $, % y &. (Museo de Civilizaciones de Anatolia, Ankara.)

COMO CIUDADANOS DE un mundo dominado por la tecnología, estamos habituados a manipular información diariamente; aun así, pocos de nosotros pensamos alguna vez en ella. De hecho, la información en sí misma ha demostrado ser una noción notablemente difícil de comprender para el ser humano, y ha sido sólo recientemente que hemos comenzado a atisbar su verdadera naturaleza y el increíble papel que juega en nuestro universo.

La historia del ser humano sin duda revela que nuestra habilidad para manipular y estructurar datos es mayormente el fruto de una tremenda revolución que se ha desencadenado a lo largo de los últimos dos siglos. Sin embargo, los primeros pasos en nuestro uso consciente de formas abstractas de información se remontan a un tiempo considerablemente anterior. El origen se halla unos cinco mil años en el pasado, en la que es seguramente la mayor invención de la historia, si bien una de las más simples: la escritura. Gracias a símbolos que podían ser usados para representar palabras enteras (logogramas, tales como los caracteres chinos), o bien sonidos individuales (fonogramas, como las letras de un alfabeto), las ideas, emociones y sucesos de la humanidad podían, de pronto, ser extraídos del cerebro humano y almacenados físicamente en materiales duraderos, como arcilla, piedra o papiro. Una tecnología tan disruptiva, sobrenatural incluso, desencadenó de inmediato una tremenda revolución cultural, poniendo fin a la prehistoria y dando comienzo a lo que llamamos historia. Éste no sería sino el inicio de un largo viaje hacia el dominio de la información.

Durante los siguientes cinco mil años, la escritura fue prácticamente la única forma de manipular y registrar información conocida por el hombre. El siguiente gran hito en nuestra relación con la información no habría de llegar hasta la Revolución Industrial del siglo XIX, gracias a un brillante mercader francés llamado Joseph Marie Jacquard, quien en 1804 patentó el que era el aparato más complejo diseñado hasta la fecha. El telar de Jacquard, con su aparentemente rudimentaria estructura de madera, fue de hecho el primer dispositivo comercial programable, contando con la increíble habilidad de tejer cualquier patrón imaginable en seda, sin necesidad de intervención humana. Tal logro era posible mediante el uso de miles de tarjetas perforadas (tarjetas de papel con patrones de agujeros y espacios en blanco), el conjunto de las cuales albergaba la información necesaria para crear de forma precisa un diseño textil específico. Al transformar la información de dibujos a patrones abstractos de agujeros y espacios en blanco, y permitir a la máquina traducir estos patrones ininteligibles en diseños tangibles e increíblemente detallados, el extenuante proceso de manufacturación textil se aceleró de un modo hasta entonces inconcebible, consolidando a Francia como la capital mundial de la seda. Con un número adecuado de tarjetas, unos símbolos tan simples como agujeros y espacios en blanco podían capturar la información del más complejo de los patrones; y, de hecho, de cualquier cosa imaginable. Por vez primera, la abstracción de información y las máquinas programables habían revelado al mundo su potencial para alcanzar niveles sobrehumanos de productividad en tareas arduas y repetitivas. Hoy en día, casi cualquier tarea repetitiva de manufacturación es realizada automáticamente por máquinas.


Igual de transformativa fue la irrupción de dos de las mayores invenciones tecnológicas del siglo XIX: el telégrafo eléctrico de Samuel Morse —precedido por otros diseños de telégrafo excesivamente complicados— y el sistema de codificación que porta su nombre, el código Morse. Gracias a éstos, los mensajes podían ser fácilmente codificados en pulsos eléctricos y enviados rápidamente a través de cables. El mundo pronto se vio envuelto en una densa red global de telecomunicaciones; algo que hoy damos por sentado. Así nacía la ‘era de la información’, que se caracterizaría por el desarrollo de sistemas electrónicos de comunicación espectacularmente rápidos, fiables y virtualmente ilimitados.


Sin embargo, la invención que quizá reconozcamos como la más influyente para la vida moderna (de hecho, muchos de nosotros hemos pasado frente a ella gran parte del día) no llegaría hasta mediados del siglo XX, de la mano de una de las mentes más brillantes de la historia. En 1936, el matemático inglés de 24 años Alan Turing publicó un artículo científico en relación a un problema matemático extremadamente abstracto; fue en este trabajo donde el término máquina computadora, referido a una versión teórica del ordenador moderno, vio por primera vez la luz. El ordenador, en principio una consecuencia imprevista del trabajo teórico de Turing, se convertiría en acaso el invento tecnológico más fundamental del último siglo, elevando a su inventor a la categoría de padre indiscutible de la informática. Cabe destacar que otras máquinas computadoras ya habían sido concebidas antes del siglo XX; el ‘motor diferencial’ y el ‘motor analítico’, dos calculadoras mecánicas increíblemente complejas diseñadas por el matemático británico Charles Babbage, son consideradas como los primeros prototipos de ordenador, a pesar de que su construcción nunca fue completada durante la vida de su inventor. No obstante, fue el trabajo teórico y práctico de Turing el que condujo directamente a la creación del primer computador electrónico durante la Segunda Guerra Mundial. El ahora famoso suicidio de Turing a sus 41 años, fruto de la depresión en que cayó después de que las autoridades británicas le obligaran a someterse a una terapia hormonal como ‘tratamiento’ para su homosexualidad, supuso una trágica e incalculable pérdida para la humanidad. Los avances que el genio podría haber legado al campo de la computación pertenecen ahora al reino de la imaginación.

Con la combinación de abstracciones simbólicas para representar la información, comunicaciones instantáneas e impresionantes máquinas computadoras, se podría pensar que el ser humano había logrado finalmente liberar el poder de la información hasta su último extremo. Esto queda muy lejos de la verdad, aún hoy; de hecho, el hombre ignoraba siquiera qué es realmente la información hasta hace unas décadas, cuando la teoría de la información, una nueva disciplina científica dedicada a explorar las facetas más abstractas de la misma, irrumpió en escena. En 1948, el padre de la teoría de la información, Claude Shannon, acuñó un nombre para la unidad elemental de la información, el bit (un diminutivo del inglés binary digit, ‘dígito binario’). Un bit se puede considerar como un átomo de información, ya que representa la cantidad más pequeña posible de la misma. Un bit sólo puede adoptar uno de dos valores posibles: cero (que normalmente significa ‘no’, ‘falso’, ‘apagado’) y uno (‘sí’, ‘verdadero’, ‘encendido’). Combinaciones de múltiples bits dan lugar a medidas de información cada vez más potentes y familiares, tales como bytes, megabytes y terabytes.

Aún más sorprendente fue el descubrimiento de que la información es, en realidad, algo muy distinto de una invención humana puramente abstracta. La propia naturaleza era ya una maestra en el uso y aprovechamiento de la información hace miles de millones de años. Hacia finales del siglo pasado, la ciencia ya había demostrado que las células están continuamente leyendo, procesando y actuando en respuesta a información proveniente de su entorno interno y externo. De forma similar a un ordenador, la célula emplea conjuntos de reglas para reaccionar a la información; pero, en lugar de circuitos electrónicos, confía en intrincadas redes de reacciones químicas entre moléculas señalizadoras especializadas, a fin de transferir información entre sus receptores —los cuales reconocen ciertas señales químicas, mecánicas o eléctricas— y las ‘máquinas’ moleculares encargadas de llevar a cabo la acción requerida. De forma crucial, estas redes de señalización no sólo son capaces de transmitir información, al igual que un cable, sino que también pueden procesarla, como el procesador de un ordenador. Tales habilidades computacionales permiten a la célula tomar decisiones vitales, como autorreplicarse, transformarse en un tipo de célula más especializado, o incluso suicidarse. Es gracias a estas redes de señalización que, por ejemplo, las neuronas en el cerebro se activan en respuesta a ciertas moléculas, denominadas neurotransmisores, y que las células epiteliales en la piel sienten la presencia de una herida abierta y comienzan a replicarse sin descanso hasta que ésta se cierra por completo.


Representación esquemática de la red de señalización celular conocida como la red mTOR. Cada rectángulo verde en el diagrama corresponde a una proteína diferente. (Fuente: Mol. Syst. Biol. 6:453.)

La información no es meramente algo creado y utilizado por el mundo natural y el ingenio humano, sino mucho más. Es una propiedad real y fundamental del universo físico en el que vivimos. Lo que normalmente llamamos información es sólo nuestra representación simplificada de la verdadera información contenida en el mundo que nos rodea. Consideremos, por ejemplo, una fotografía de algún objeto. La fotografía es una representación gráfica precisa del objeto en dos dimensiones, y como tal, contiene parte de su información, como su forma, color y textura. No obstante, carece de casi toda la información presente en el objeto real. Un sencillo ejemplo es el hecho de que a menudo es imposible estimar el tamaño de un objeto basándose en una fotografía, a menos que ésta incluya un segundo objeto cuyo tamaño ya conozcamos. En tal caso, podemos combinar la información procedente de nuestra experiencia previa del mundo con la información contenida en la fotografía, para realizar una inferencia acerca de la información en el objeto real.

Si descendemos a un nivel microscópico, la cantidad de información en el mundo físico se vuelve simplemente inconcebible. Consideremos de nuevo el caso de una célula —tal vez en nuestro propio cuerpo—. Al igual que en el ejemplo anterior, podemos medir diferentes tipos de información sobre esta célula, como su forma, tamaño, o la cantidad de ADN en ella, y representar dicha información de varias maneras. Sin embargo, la célula física contiene mucha, mucha más información; por ejemplo, la organización espacial de los orgánulos que la componen; la localización y estructura de cada una de sus enzimas, lípidos, proteínas, azúcares y ácidos nucleicos; la dinámica química que rige las redes de señalización que permiten a la célula reaccionar a su entorno; la suma de toda la información hereditaria codificada en su material genético; el nivel energético de cada electrón de cada átomo de cada partícula en ella; o las fuerzas nucleares que mantienen todas éstas juntas en la forma de un solo sistema, la célula. En otras palabras, algo tan minúsculo como una célula microscópica contiene una cantidad de información real, física, que sobrepasa el conjunto de toda la información simbólica producida por la humanidad durante el curso de la historia. Podemos echar una mirada en derredor y tratar de imaginar cuánta información es extraída continua e inconscientemente de nuestro entorno por nuestro cerebro; y cuánta información podríamos ser capaces de medir a partir de cada objeto y ser viviente a nuestro alrededor, si solamente contáramos con las herramientas adecuadas… y suficiente espacio de almacenamiento.


El esfuerzo de la humanidad por representar y manipular la información en su propio beneficio ha propiciado la invención de métodos cada vez más ingeniosos de representar, transmitir y almacenar información. Hemos descubierto, dominado y aprovechado las propiedades únicas ofrecidas por cada tipo de representación simbólica (símbolos escritos, agujeros, señales eléctricas, bits…) y de medio físico (piedra, papel, cables, ondas de radio, discos duros…). Aun con todo esto, nuestra comprensión de la información como una propiedad inherente del cosmos permanece incompleta, y nuevas formas de almacenar y transmitir información, desde partículas cuánticas hasta ADN, continúan siendo exploradas. El viaje hacia un control verdadero de la información está lejos de terminar; de hecho, puede que nos hallemos al borde mismo de nuestra auténtica revolución de la información.



Referencias:
Order and Disorder: The Story of Information. BBC documentary (2012).
Tyson, J.J., Novak, B. Control of cell growth, division and death: information processing in living cells. Interface Focus (2014).
Azeloglu, E.U., Iyengar, R. Signaling Networks: Information Flow, Computation, and Decision Making. Cold Spring Harbor Perspectives in Biology (2015).

Friday, July 22, 2016

Una historia de malignidad

La relación de la humanidad con el cáncer y los intentos de curar el mismo se extienden a través de la historia, desde el antiguo Egipto hasta hoy.


The Agnew Clinic, por Thomas Eakins, 1889. (Dominio público.)

EL CÁNCER ES quizá la enfermedad más temida e infame de nuestro tiempo. Una diagnosis de cáncer supone, incluso en los mejores casos, un periodo de tremenda carga emocional para el paciente y sus seres queridos, marcado por la perspectiva de un futuro incierto, incómodos y prolongados tratamientos, y la disrupción absoluta de la vida del paciente, donde vencer a la enfermedad se transforma en la principal meta.

A pesar de esto, somos increíblemente afortunados de vivir en una época en la que se dispone de un conocimiento detallado acerca de la naturaleza del cáncer, sus causas y las formas más eficaces de tratar muchos de sus cientos de tipos y subtipos. Para nosotros, el horror que esta enfermedad debía de transmitir en tiempos pasados, cuando ni siquiera existía la certeza de saber qué era el cáncer, es casi inimaginable. Numerosas descripciones históricas de casos de cáncer ilustran la intensa desesperación que solía acompañar a este mal, y los extremos a los que pacientes, médicos y cirujanos por igual estaban dispuestos a llegar con tal de intentar ponerle fin.

Los primeros escritos sobre cáncer se remontan a las civilizaciones griega y egipcia, aunque tales evidencias son ambiguas y escasas, posiblemente debido a dos factores. Por una parte, es probable que la corta esperanza de vida propia de la época —unos veinticinco o treinta años para las clases menos privilegiadas—, junto con diferencias en la alimentación y otros factores ambientales, impidieran una alta incidencia de cáncer en estas poblaciones. Hoy en día es bien sabido que los principales factores de riesgo en el desarrollo de cáncer son la edad y la exposición a los efectos cancerígenos de agentes externos, tales como la luz ultravioleta o el humo de tabaco. Por otra parte, la diagnosis médica en la antigüedad era más un arte que una ciencia, llegando a ser notablemente imprecisa; muchas descripciones escritas de ‘cáncer’ bien podrían referirse a otros males, desde úlceras o inflamaciones hasta lepra. Esto probablemente se aliaba con el hecho de que sólo aquellos tumores situados en la superficie del cuerpo, o cerca de ésta, podían ser detectados.


Tal como el libro Constructions of Cancer in Early Modern England, de Alanna Skuse, recalca, a fin de comprender las formas de diagnosticar y tratar el cáncer en tiempos pasados, primero es necesario conocer el paradigma médico de aquel entonces, el cual difiere extraordinariamente con el de nuestros días. Hasta principios del siglo XIX, la corriente médica dominante era el llamado galenismo o humoralismo, nacido en la Grecia clásica de la mano de Hipócrates y Galeno de Pérgamo. Esta teoría se basa en la noción de que a través del cuerpo circulan cuatro tipos de humores: la flema, la sangre, la cólera y la melancolía. Estos cuatro fluidos se mezclan para formar la llamada ‘sangre nutritiva’, la cual fluye por los vasos sanguíneos. La salud humana dependía de un delicado equilibrio entre estos cuatro humores, y toda enfermedad era considerada como la consecuencia de un desequilibrio insano, causado por una combinación de predisposiciones innatas y factores ambientales. No sólo afectaban estos humores a la salud física, sino también a la propia personalidad, tal que la predominancia de uno de los cuatro fluidos resultaba en personas de carácter flemático, jovial, colérico o melancólico, respectivamente. En particular, el cáncer estaba firmemente asociado a la acumulación y consiguiente degradación de la melancolía en ciertas partes del cuerpo.


El cáncer se ha distinguido siempre de las otras muchas enfermedades fatales del ser humano. La percepción del cáncer como una enfermedad originada a partir del propio cuerpo, pero al mismo tiempo capaz de consumirlo lentamente, condujo a una personificación de la enfermedad como una criatura consciente y maligna que ‘devoraba’ el cuerpo subrepticiamente desde el interior. Éste es el origen del término ‘malignidad’, que ha sobrevivido a la incluso a la llegada de la medicina moderna. El propio término ‘cáncer’ cuenta con raíces considerablemente antiguas: el nombre proviene del griego karkinos, ‘cangrejo’. La asociación entre enfermedad y animal derivó, aparentemente, del parecido entre la forma de ciertos tumores y la de un cangrejo, así como de la tenaz resistencia que la enfermedad presenta ante cualquier intento de cura, y que recuerda a la firmeza con que el cangrejo se aferra a la roca. La imagen del cáncer como enfermedad cruel y voraz llevó también a una identificación metafórica con otros animales, como el lobo o el gusano; símiles que, con el paso del tiempo, llegaron a degenerar en paralelismos literales, con algunos textos relatando la presencia real de lobos y gusanos en el interior de tumores.

El pecho femenino fue sin duda, y hasta hace unos dos siglos, el sitio de la enfermedad por excelencia, hasta el punto de que el término ‘cáncer’ era entendido, salvo que se indicara lo contrario, como cáncer de mama. De hecho, escritos médicos del amplio periodo que abarca desde la Edad Media hasta el siglo XVIII —en el que la medicina era un campo invariablemente masculino— describen repetidamente el cuerpo de la mujer como algo misterioso, capaz de generar vida, aunque también imperfecto y vulnerable. Existía una creencia generalizada de que las mujeres tenían dificultad a la hora de regular la composición humoral de su cuerpo, lo que desembocaba en fenómenos extraños como la menstruación, mediante la cual el cuerpo se libraba de un exceso perjudicial de humores. Curiosamente, mientras que los cánceres en hombres, incluyendo tumores en la zona genital, nunca se consideraban una consecuencia de la fisiología masculina, sino el efecto de un desequilibrio humoral causado por un estilo de vida inadecuado, era común achacar la aparentemente elevada incidencia de cáncer de mama a diferentes ‘defectos’ en la anatomía femenina, algo inevitablemente asociado a las enigmáticas cualidades que distinguían a mujeres de hombres. Era particularmente prevalente la noción de que la acumulación de leche en los pechos, quizá debido a una reticencia de la mujer a dar el pecho, provocaba la acumulación y degradación de dicho fluido, con efectos nocivos sobre el seno femenino. Por otro lado, los golpes y moratones, que no eran raros en tiempos en los que la violencia doméstica era perfectamente tolerada, si no defendida, también estaban asociados con la aparición de tumores. Tan establecida estaba dicha relación que, en la Inglaterra del siglo XVIII, un hombre fue llevado a juicio acusado de provocar un cáncer a una mujer al propinarle un puñetazo en el pecho en plena calle.

La forma en que la medicina se enfrentaba al cáncer en estos tiempos conllevaba la aplicación de terapias progresivamente más agresivas, conforme el tumor se mostraba invulnerable a aquellas más ‘suaves’. El primer recurso solía basarse en la consideración de la enfermedad como la consecuencia de un desequilibrio humoral: recomendaciones de dieta, ejercicio y complejas pócimas con propiedades antiinflamatorias, sedantes o incluso tóxicas, iban dirigidas a compensar la acumulación de melancolía en el cuerpo del paciente. Algunos remedios, dada la asociación de la enfermedad con diferentes criaturas, intentaban una aproximación de ‘igual contra igual’, incluyendo ingredientes tales como polvo de coraza de cangrejo, gusanos o lengua de lobo. Esto refleja cómo el discurso médico se desvió progresivamente de una identificación metafórica del cáncer con estos animales hacia un creencia en la implicación literal de los mismos en la enfermedad. No obstante, una vez que estos remedios fallaban, el siguiente paso solía consistir en la aplicación de sustancias extremadamente agresivas, tales como el mercurio y el arsénico —las cuales podrían ser consideradas como una forma primitiva de quimioterapia—. Estas sustancias, con su tremenda potencia corrosiva, eran juzgadas en ocasiones como lo único capaz de hacer frente al ímpetu devorador de un cáncer rebelde. Aunque los efectos secundarios de tales tratamientos eran tan severos que muchos médicos se oponían terminantemente a su uso, la mayoría de pacientes optaba por ellos con tal de escapar a la más terrible arma del arsenal médico: la cirugía.


Las ilustraciones del libro de Johannes Scultetus Het vermeerderde wapenhuis der heel-musters (1748) ejemplifican la deshumanización del paciente como medio de ignorar su enorme sufrimiento. (Imagen cortesía de la Wellcome Library, bajo licencia CC-BY 4.0.)

Cuando hasta los remedios químicos más agresivos se mostraban ineficaces, algunos pacientes eran persuadidos de que la única esperanza de cura residía en tratar de extirpar el tumor. Mientras que muchas de las intervenciones médicas de hoy en día suponen un impacto mínimo en la vida del paciente, hace sólo dos siglos el panorama era bien distinto. Antes de la llegada de la anestesia, los antisépticos y los antibióticos, incluso las operaciones menos invasivas no sólo provocaban un dolor terrible, sino que ponían al paciente en riesgo de muerte a causa de hemorragias, infecciones u otras complicaciones. Todo esto hacía de la cirugía el más peligroso y temido de todos los procedimientos médicos. A falta de anestesia, los cirujanos administraban opiáceos y alcohol antes de la operación, con objeto de hacerla más llevadera; no obstante, el paciente debía permanecer despierto, dado que la inconsciencia podía ser síntoma de una excesiva pérdida de sangre u otros problemas.

Las cirugías de cáncer eran particularmente arriesgadas, invasivas, prolongadas y dolorosas, hasta un extremo que probablemente escapa a la imaginación del hombre moderno. Al ser el cáncer de mama la variante más frecuente de la enfermedad, la mayoría de cirugías eran mastectomías radicales —amputaciones completas del pecho—, aunque también existen descripciones de operaciones en zonas tan variadas como los ojos, las piernas o el escroto. Las cirugías más complejas llevaban varios días, en cada uno de los cuales el cuerpo del paciente era abierto con cuchillos o instrumentos similares a fin de extirpar la mayor parte posible del tumor; la herida era luego cauterizada con hierros al rojo vivo o vendajes. El paciente permanecía en la consulta durante la noche, en un intenso dolor y, de ser necesario, el proceso se repetía al día siguiente.

Resulta evidente que la razón por la que los enfermos de cáncer accedían a someterse a tan brutales intervenciones era el convencimiento de que éste era el único modo de evitar la muerte. Por otra parte, la mayoría de estas operaciones terminaban con la vida del paciente, por lo que es improbable que los cirujanos estuvieran deseosos de llevarlas a cabo, dado que tales fracasos podían suponer un golpe duradero a su reputación y sus ingresos. Es de suponer que los cirujanos accedían, por su parte, a realizar cirugías tan arriesgadas debido a una necesidad moral de intentar aliviar el sufrimiento de los enfermos de cáncer avanzado. La paradoja del cirujano, que hiere al paciente con el fin de curarlo, ha sido señalada por los historiadores médicos a lo largo de los siglos.


No obstante, aunque tanto cirujano como paciente acordaran que la cirugía era la mejor alternativa, ésta no resultaba un proceso fácil para ninguno. Tal era el sufrimiento de los pacientes durante las operaciones que se necesitaba la ayuda de varios asistentes para sujetarlos durante el curso de las mismas —además de para preparar el instrumental—. Los gritos de agonía del paciente volvían las operaciones más largas emocionalmente agotadoras y desalentadoras. En consecuencia, los cirujanos se mentalizaban para ignorar tales signos de sufrimiento, suprimiendo la presencia del paciente y centrándose en la extirpación del tumor; dicha actitud les valió fama de despiadados, llegando a ser comparados con carniceros o torturadores. Los textos médicos de épocas pasadas reflejan claramente la anulación del paciente durante la operación como forma de ignorar su tormento: en ninguna descripción de una cirugía se menciona el estado del paciente como persona, sino sólo como el cuerpo donde la batalla contra el tumor se desarrolla. Las ilustraciones de estos textos, análogamente, muestran a mujeres con una expresión invariablemente serena, incluso mientras uno de sus pechos es perforado o amputado. Los registros que se conservan sugieren que, a diferencia de lo que ocurría en tratamientos más ‘leves’, una vez que la operación era acordada el paciente salía de escena, dejando solos al cirujano y al cáncer.

Es evidente que tanto médicos como pacientes debían afrontar la decisión de hasta qué punto valía la pena llegar con tal de intentar curar una enfermedad que, después de todo, bien podía ser incurable. El hecho de que gran parte de los tratamientos de cáncer resultaran tan dolorosos como la propia enfermedad —y que las cirugías a menudo terminaran en defunción— hacía a algunos enfermos decidirse por tratamientos paliativos, dirigidos simplemente a retrasar la muerte y aliviar el sufrimiento en la medida de lo posible. Los principales ingredientes de estos remedios eran plantas con efectos analgésicos y opiáceos, tales como el láudano. No cabe duda de que, en los casos más avanzados, los enfermos recurrían también a este tipo de sustancias para lograr una muerte indolora.

Aunque, hasta el siglo pasado, la humanidad convivía con una variedad de enfermedades devastadoras o altamente contagiosas frente a las que la medicina poco podía hacer, el cáncer siempre se ha destacado entre ellas por su particular naturaleza ‘maligna’. La caracterización del cáncer como una entidad a la vez propia y profundamente extraña al cuerpo, con una disposición cruel y traicionera, ha sobrevivido hasta nuestros días y es apreciable en muchas campañas mediáticas relacionadas con la enfermedad. El uso que a menudo se hace del cáncer como símbolo de corrupción interna y degradación moral tampoco es nuevo; de hecho, pocos aspectos de la relación entre el cáncer y la humanidad lo son. Lo que sí ha cambiado en este último siglo, sin embargo, es el extraordinario poder de la ciencia y la medicina para diagnosticar y tratar este mal, ahondar en sus causas y, con colosales esfuerzos, avanzar lentamente en el camino para ponerle fin. Por muy terrible que el impacto del cáncer pueda ser, no debemos olvidar que el horizonte nunca ha sido tan brillante como hoy.




Referencias:
Skuse, A. Constructions of Cancer in Early Modern England (Palgrave Macmillan, 2015).
David, A.R., Zimmerman, M.R. Cancer: an old disease, a new disease or something in between? Nature Reviews Cancer (2010).