miércoles, 20 de mayo de 2015

¿Humanos modificados genéticamente?

Últimamente he hecho algunas conferencias sobre el impacto que tiene la ciencia en la sociedad y los problemas éticos que pueden generar algunos de los avances más recientes, a raíz de un libro que publiqué el año pasado. Uno de los ejemplos que pongo es el de la manipulación genética. En las últimas décadas hemos aprendido a jugar con el ADN, y ahora somos capaces de generar animales y cultivos modificados, a los que añadimos o quitamos genes para obtener el efecto que nos interese. En sí mismo, esto ya ha propiciado muchas discusiones, sobre todo en torno a si son prácticas seguras o no. Pero una de las implicaciones de estas técnicas, mucho más importante desde el punto de vista moral, se suele comentar poco: la posibilidad de manipular el genoma humano.

El motivo por el que no se habla mucho de la idea de alterar los genes de nuestros hijos antes de que nazcan es doble. Por un lado, la mayoría de países tienen leyes que lo prohíben, principalmente porque serían cambios que se mantendrían en generaciones futuras. Pero la razón principal es que, hasta ahora, no era técnicamente posible. El debate, pues, se había dejado de lado porque era demasiado abstracto. Las cosas cambiaron repentinamente con el descubrimiento de la técnica llamada CRISPR / Cas9, que ha alterado la forma de trabajar en los laboratorios pero que ha pasado bastante desapercibida a la sociedad, quizá porque sus aplicaciones en la vida real aún quedan lejos. Precisamente, Pere Puigdomènech explicaba los detalles técnicos en esta sección la semana pasada, y comentaba que el CRISPR / Cas9 nos proporciona por fin las herramientas para editar el genoma humano tal como lo hacemos con el de cualquier otro ser vivo. Por primera vez, el concepto pasa a ser en teoría factible.

En las conferencias, avisaba de que no tardaríamos en ver experimentos en esta dirección y que entonces sí deberíamos empezar a considerar seriamente si es deseable o no cortar y pegar los genes de un embrión humano para mejorarlo. Y precisamente hace cosa de unos meses comenzó a circular en el mundo científico el rumor de que alguien ya lo había conseguido hacer. Aún no se sabía quién ni dónde, pero la reacción fue inmediata: el debate sobre si se debían prohibir este tipo de estudios estalló en las revistas especializadas. Unos expertos decían que era un avance espectacular que nos permitiría un salto biológico gigantesco, mientras que otros decían que los peligros que entrañaba la técnica eran demasiado grandes para lanzarse a ella de cabeza. Pensemos en ello: poder cambiar los genes que el azar y nuestros padres nos dan podría hacernos más resistentes a enfermedades, más longevos, más fuertes, más inteligentes... pero también tenemos la información para hacernos más altos, más rubios y más blancos. A pesar de que el beneficio social podría ser inconmensurable, el espectro de la eugenesia, la teoría que propone hacer evolucionar la especie humana seleccionando ciertos genes y que tanto daño causó en manos de los nazis, resucita de repente multiplicado por mil. ¿Quién decidiría qué es mejor? ¿Cómo evitaríamos la discriminación y la homogeneización de la especie?

Finalmente, se ha visto que era cierto: el día antes de Sant Jordi, un grupo de científicos chinos dirigidos por el doctor Junji Huang publicaba en la revista Protein & Cell el artículo que describe cómo han intentado modificar en embriones humanos el gen responsable de una enfermedad llamada beta talasemia usando el CRISPR / Cas9. El porcentaje de éxito fue bajo, y habrá mucho trabajo antes de que la técnica se pueda aplicar clínicamente. Pero es el primer paso.

Lo más sorprendente es que esta noticia no haya salido en las primeras páginas. Aparte del artículo de Pere Puigdomènech y este mismo, he visto pocas referencias a ella. Hacen falta más. ¿Si podría cambiar el destino de nuestra especie, por qué la discusión se limita a las publicaciones del ramo? ¿Por qué no tenemos artículos de opinión en cada diario defendiendo una u otra postura? Antes de que vayamos un día al médico y nos presente un catálogo con todas las opciones para tunear a nuestro hijo, hemos de poder decir si este es el futuro que realmente nos interesa. Y para eso debemos tener toda la información. Es necesario que los científicos comuniquemos, pero también precisamos una prensa que entienda que la ciencia no debe relegarse por defecto a un rincón secundario del periódico o del telediario. Y, sobre todo, es necesario que todos nos interesamos por estos temas. Por eso hoy he vuelto a hablar de eso, para pedir a todo el mundo un poco más de implicación en las novedades científicas. Están pasando cosas muy interesantes en biomedicina, y las consecuencias nos afectarán a todos de una manera todavía difícil de prever. Debemos esforzarnos para no quedarnos fuera ni dejar a nadie fuera de esta revolución que estamos a punto de vivir.

[Artículo publicado en El Periódico, 18/4/15 (en català).]

martes, 21 de abril de 2015

Sobre Dios y la muerte

Los humanos somos los únicos animales del planeta conscientes de estar vivos, y el precio que pagamos por este privilegio es muy alto. Saber que nuestra existencia no es infinita nos genera una serie de temores que inciden de manera importante en nuestro comportamiento, no solo como personas sino también a nivel de especie. La principal consecuencia de ello ha sido la aparición a lo largo de la historia de una gran diversidad de religiones, que se fundamentan en plantear realidades alternativas para facilitar la aceptación de nuestra mortalidad.

Dicho de otro modo, mientras que no podremos demostrar nunca que un dios haya creado al hombre, es evidente que el hombre ha creado el concepto de Dios como ansiolítico para las crisis existenciales. Por ejemplo, la perspectiva de una prórroga celestial más allá de los límites biológicos de la vida en la Tierra puede hacer más llevadera la poca relevancia que tiene el individuo dentro de la inmensidad del universo.

Aunque este tipo de creencias basadas en leyendas primitivas no son necesariamente incompatibles con el razonamiento científico, cada uno tiende a elegir mayoritariamente uno u otro punto de vista como guía principal para entender el mundo que nos rodea. Pero hay momentos en los que se nos hace casi imprescindible recurrir a la imaginación para suavizar el impacto perturbador de la cruda realidad. Lo he experimentado yo mismo estos días, cuando mi hijo de 7 años ha tenido que enfrentarse por primera vez con la muerte de alguien de la familia cercana. A la hora de hacerle entender que no volvería a ver a esa persona que tanto amaba, no le he explicado que, debido a los caminos insondables de la evolución, cuando las funciones bioquímicas de un organismo interrumpen la entropía se apodera de él de una manera irreversible, que sería una descripción mecanística del hecho ajustada a la realidad tal como la conocemos. En lugar de eso, le he consolado diciéndole sin vacilación que este familiar a partir de ahora le vigilaría desde el cielo, donde estaría jugando con sus amigos los ángeles.

Esto podría considerarse mucho más que una mentira piadosa: para resolver un conflicto emocional, un científico ha recurrido de manera automática a una fantasía muy elaborada que proviene de las tradiciones ancestrales de su cultura, que le ha proporcionado más servicio práctico en este contexto que la explicación puramente biológica, sea o no congruente con su forma habitual de pensar. Es una prueba de cómo la religión está inmersa en el tejido básico de las interacciones sociales, aunque no siempre seamos conscientes de eso, y encontraríamos muchas más.

Hay expertos que proponen que esta necesidad casi instintiva de recurrir en momentos clave a un ser divino superior y a toda la parafernalia que lo rodea ha jugado de hecho un papel importante en el desarrollo y el mantenimiento de las complejas redes sociales humanas. Esta teoría defiende que, sin la idea de Dios como entidad todopoderosa y omnipresente, las sociedades no habrían podido nunca llegar a ser tan grandes y estables como lo son ahora. Una de las razones sería que, más allá de proporcionar un confort puntual, la divinidad representaría un código moral superior rigurosamente vigilado desde arriba, que llegaría donde las leyes y la policía humanas no pueden, evitando así que los ciudadanos cometieran crímenes que desestabilizan la comunidad.

Un trabajo reciente del doctor Joseph Watts, que estudia las casi 400 civilizaciones primitivas de las islas de Austronesia, entre Madagascar y Rapa Nui (la isla de Pascua), propone precisamente lo contrario, que tal vez la presencia de un dios que lo ve todo no es tan esencial para iniciar el proceso de crecimiento social como dicen los demás. Watts ha observado que la complejidad política de estas sociedades isleñas no dependía de que antes hubieran establecido la adoración a un dios supremo y vigilante. Más bien al revés: Dios aparece en estos casos una vez la sociedad ya ha evolucionado considerablemente. Un posible motivo sería que la religión organizada facilita que ciertos avispados accedan al poder necesario para controlar al resto de la población canalizando el miedo a la ira divina.

Con independencia del papel que el temor a un dios que reparte castigos y recompensas haya tenido en el establecimiento de las civilizaciones, su importancia a la hora de explicar lo que no podemos explicar es una de las virtudes que lo han hecho más perdurable. Por eso decía que Dios y ciencia no son excluyentes: siempre habrá cosas imposibles de racionalizar, como el dolor que genera la pérdida de un ser querido. En estos casos, aferrarse al imaginario religioso puede ser una solución muy atractiva.

(Quisiera dedicar este artículo a Ana. La echaremos mucho de menos.)

[Artículo publicado en El Periódico, 18/4/15 (en català).]

martes, 31 de marzo de 2015

Jugar a ser Dios


Ya está a la venta la traducción de Jugar a ser Dios (el original en inglés sigue inédito...), el libro que Chris Willmott y yo hemos escrito sobre el impacto social y ético de los descubrimientos biomédicos recientes. Ganó el Premio Europeo de Divulgación Científica que otorgan la Editorial Bromera y la Universidad de Valencia y está dirigido a un público general interesado en la ciencia no necesariamente con un conocimiento ámplio del tema, como mis libros anteriores. Aquí tenéis más detalles:



martes, 24 de marzo de 2015

La ignorancia científica

Hace unos días, en una televisión publica entrevistaron a J. M. Mulet, investigador y divulgador, que acaba de publicar Medicina sin engaños, un libro atrevido y muy bien documentado sobre la estafa de las seudociencias. El espectáculo fue triste. Quien le hacía las preguntas no solo se olvidaba de la supuesta neutralidad periodística (un pecado, por otra parte, frecuente hoy en día), sino que, haciendo patente su absoluta ignorancia, trataba al doctor Mulet como una persona obsesionada por sus convicciones y que rechaza considerar alternativas igual de válidas.

Por desgracia, este es un problema muy extendido al que se enfrenta la ciencia. Demasiado a menudo se la obliga a compararse con ideas peregrinas e indemostrables, como si estas tuvieran el mismo valor que una teoría confirmada con años de investigaciones. La ciencia no es una cuestión de creencias, sino de hechos. Por ejemplo, que la homeopatía no tiene ningún efecto biológico más allá del placebo no es una opinión: es una realidad. También lo es la evolución o que la Tierra gira alrededor del sol. No hay vuelta de hoja. ¿Por qué, pues, los científicos debemos seguir luchando contra esta suspicacia enquistada cuando intentamos explicar cómo funcionan las cosas? Se trata de un problema básico de comunicación.

Vladimir de Semir, uno de los grandes expertos en el tema de la divulgación científica que tenemos en el país, acaba de publicar Decir la ciencia, un interesante estudio que analiza la difícil relación entre ciencia y comunicación pública. De Semir se plantea si lo que necesitamos son más científicos comunicadores (gente que, como yo mismo, tiene un laboratorio y también colabora en los medios) o mejores comunicadores científicos (el periodista con conocimientos más o menos extensos del campo). Los primeros quizá entienden mejor la información que hay detrás de un descubrimiento, pero los otros suelen transmitir mejor. La conclusión es que es necesario educar a los dos para que obtengan las habilidades que les faltan y juntos consigan que la ciencia llegue a todos, que al fin y al cabo es el objetivo.

Es una estrategia excelente, pero na debemos olvidar el tercer vértice del triángulo: el público. Mientras un grueso importante de la población siga siendo capaz de tragarse cualquier animalada que se les quiera vender sin plantearse si el principio en el que se basa tiene lógica, las semillas de la mejor divulgación científica no acabarán de germinar nunca.

Es una cuestión de ignorancia, como decía al principio, pero no por falta de educación convencional. Por ejemplo, una gran proporción de padres que rechazan vacunar a sus hijos tienen un título universitario. No es necesario que recuerde el peligro que representa esta moda, muy bien explicado por mi compañero de sección Pere Puigdomènech la semana pasada.

Hay que dar a todo el mundo las herramientas para poder detectar los engaños. Para empezar, la ciencia ha de volver a los diarios por la puerta grande. Son pocos los que aún mantienen una sección de ciencia decente. Y los esfuerzos de rigor de los periodistas científicos los echan por tierra otras secciones dela misma publicación, que con cualquier excusa referente al nombre de su cabecera o de ser entrevistas, tienen barra libre para glorificar a cualquier charlatán sin pedirle que aporte pruebas de lo que dice. Es normal que el lector acabe pensando que tiene el mismo peso el iluminado que habla de los peligros mortales del wifi que el profesor que ha descubierto un nuevo tratamiento contra el cáncer.

Y tenemos que ir aún más allá. Es urgente que en la escuela se cree una asignatura seria que explique el razonamiento científico, que enseñe a buscar y analizar datos y sacar conclusiones propias. Es la mejor protección que podemos dar a los ciudadanos para evitar que sigan muriendo niños por enfermedades que ya deberían estar erradicadas o que alguien se suicide por desconocimiento, como le pasó a Steve Jobs cuando optó por las terapias alternatives para tratarse un tumor .

En su libro De Semir cita una encuesta que dice que la mayoría de la población de la UE está interesada en la investigación científica. Así pues, la base existe. Se debe aprovechar. Potenciar la divulgación de calidad debe ser una prioridad de los gobiernos. También los medios, que tienen una responsabilidad muy grande de filtrar las seudociencias. Y de las editoriales, que deben seguir publicando libros por incómodos que sean, como el de J.M. Mulet, o el igualmente excelente Homeopatia sense embuts de Jesús Purroy, y rechazar falacias nocivas sobre enzimas prodigiosas y dietas mágicas, aunque les den más dinero. Entre todos podemos conseguir desterrar el oscurantismo. Solamente hemos de tener ganas de ponernos a ello.

[Artículo publicado en El Periódico, 22/2/15 (en català).]

Nota: podéis ver la entrevista a la que me refiero al principio aquí.

martes, 24 de febrero de 2015

La epifanía del supositorio

Un amigo me comenta que el médico le ha recetado un supositorio, un artefacto que él relacionaba con una infancia remota de televisión en blanco y negro. Le digo que, aunque no es muy habitual, todavía resulta útil hoy en día para solucionar ciertos problemas a los adultos. Y añado que no se le olvide ponérselo al revés de lo que parece lógico: la parte plana primero, empujando por la más amplia y acabada en punta. Me mira atentamente para intentar descubrir si le estoy tomando el pelo, pero se lo aseguro que es verdad. Aún recuerdo cuando me lo explicaron en la facultad hace casi un cuarto de siglo. En su momento también me sorprendió y me quedó grabado. No muy convencido, mi amigo me da las gracias. Lo vuelvo a ver poco después y, antes de que pueda preguntarle cómo fue, me cuenta que la estrategia del supositorio invertido fue un desastre, que aquello no acababa de entrar donde debía entrar y se le deshacía a las manos de tanto apretar. Avergonzado, le pido disculpas por el mal consejo y le prometo no volverlo a repetir nunca más.

Este episodio, tan escatológico como real, me servirá hoy para hacer dos reflexiones. Para empezar, que a los 20 años nos tragamos cualquier cosa que un profesor nos dice desde la tarima. Siendo estudiantes no es del todo extraño que nos falte la capacidad de reflexión crítica, que es clave para hacer avanzar el mundo: es una herramienta que precisamente se debería aprender en la universidad, sea cual sea la carrera que estudiamos. Por desgracia, solo algunos afortunados acaban desarrollando como buenamente pueden, más a consecuencia de los golpes que van recibiendo, no a resultas de ningún plan de estudios programado. ¿Dónde estaría la especie humana si no hubiéramos aprendido a cuestionar la verdad establecida y buscarle costuras? Muchas veces no habrá, pero de vez en cuando descubriremos una alternativa mejor. El día que en las facultades enseñamos a dudar y a razonar más que memorizar, tendremos por fin una población bien preparada.

Con la edad he alcanzado la madurez y la experiencia necesarias para ir más allá de la normativa aceptada, por lo que después de hablar con mi amigo me puse a hacer un poco de investigación. Inmediatamente encontré el culpable de todo: un artículo publicado en la prestigiosa revista médica 'Lancet' en 1991. En él, aducían una serie de razones fisiológicas para recomendar el cambio de forma de aplicación de los supositorios y hacían un estudio a partir de seiscientos voluntarios, la mayoría egipcios, que sugería que poniendo la punta plana primero, la inserción es más sencilla y satisfactoria. Las conclusiones se convirtieron inmediatamente en dogma: a partir de entonces, no sólo se explica así en las facultades de medicina, como pude comprobar en primera persona, sino que pasa a ser el estándar que se enseña en las escuelas de enfermería de todo el mundo. O sea que si va a un hospital y necesita un supositorio, probablemente se lo pondrán del revés. Pero lo más sorprendente es que después de este trabajo revolucionario, nadie vuelve a hablar nunca más del tema. Un artículo del 2006, publicado en el 'Journal of Clinical Nursing', se hacía cruces y reclamaba que serían necesarios estudios más completos y extensos antes de establecer una normativa tan universal.

Y aquí viene la segunda reflexión. Los humanos tendemos a buscar verdades absolutas, afirmaciones inmutables que nos permitan encontrar un punto de anclaje al que aferrarnos. Supongo que es parte de la desesperación existencial propia de nuestra naturaleza, como lo demuestra el hecho de que haya tantos 'libros sagrados', escritos hace siglos, a los que una buena parte de la población todavía recurre constantemente para buscar una guía vital.

Nos pasa menos a los científicos, porque se supone que debemos ser inquisitivos por naturaleza, pero el caso del supositorio es un ejemplo de cómo a veces podemos aceptar una hipótesis con los ojos cerrados sin validarla debidamente. El artículo de 'Lancet' se convirtió inesperadamente en el Nuevo Testamento de la administración de medicamentos por vía rectal y, si hay que hacer caso de la experiencia de mi amigo, sin los méritos necesarios. Quizá simplemente es que los esfínteres de los egipcios no tienen la misma morfología que la de los europeos y sería necesaria una metodología más flexible. Aquí, como en tantos otros casos, lo que ha fallado es el espíritu crítico.

A veces cosas tan simples como un supositorio esconden una epifanía que puede dar lugar a reflexiones interesantes. Solo debemos tener los ojos abiertos y las preguntas en la punta de la lengua. En mi búsqueda, además, he descubierto otra cosa: el edificio donde trabajo lleva el nombre de la persona que comercializó los primeros supositorios en forma de torpedo, Henry S. Wellcome. Qué mundo más pequeño.

[Artículo publicado en El Periódico, 22/2/15 (en català).]

lunes, 29 de diciembre de 2014

El descubrimiento del año

Siempre que se acaba el año, periódicos y revistas airean listas de éxitos de todo tipo, que a su vez sirven de resumen de los libros, los discos, los conciertos, los personajes o las noticias que más han destacado los últimos 12 meses. También lo hacen las publicaciones científicas. Prácticamente en todos los 'top ten' del 2014 ha figurado, en lo alto y con letras de oro, la hazaña de la sonda 'Rosetta' y su estudio pionero del cometa 67P/ Churyumov-Gerasimenko. Han aparecido también, entre otros, descubrimientos de fósiles interesantes que han aclarado momentos clave de la evolución o avances en biología sintética que anuncian posibilidades impactantes para un futuro cercano.

Algunas listas mencionaban un experimento que ha dado unos resultados sorprendentes en el campo del envejecimiento. Lo que han hecho es mezclar la circulación de un ratón joven con la de uno de edad avanzada, una técnica complicada pero que hace más de 150 años que se conoce. Lo que vieron los científicos es que el animal viejo acababa 'rejuveneciendo' cuando la sangre del otro corría por sus venas. Esto se ha ido descubriendo gradualmente desde principios de este siglo, pero la novedad es que este año se ha hallado el factor específico presente en el plasma que se cree que sería el responsable del efecto. Se llama GDF11 y en estos momentos se está llevando a cabo el primer ensayo clínico para determinar si realmente tiene propiedades 'anti-ageing': 18 afectados de la enfermedad de Alzheimer están siendo tratados con inyecciones de plasma de donantes jóvenes y se espera que a final del 2015 sabremos si tienen algún efecto positivo a la hora de frenar el deterioro neuronal.

No es el único tratamiento contra el envejecimiento que podría funcionar. A pesar de que actualmente aún no tenemos ningún producto que sea verdaderamente útil en este sentido, hay un montón de laboratorios en todo el mundo, entre ellos el mío, buscando posibles soluciones. Una podría ser los antinflamatorios, unas pastillas que mucha gente toma regularmente. Concretamente, la semana pasada se publicó en la revista 'PLOS Genetics' que el ibuprofeno alarga entre el 10 y el 17% la vida de gusanos, levaduras y moscas, tres modelos usados frecuentemente en investigación. Las razones de este efecto inesperado aún no están muy claras.

Resultados similares se han visto con la metformina, un fármaco que usamos hoy para controlar la diabetes, o la rapamicina, que tiene el problema de ser un inmunosupresor importante. Además, en mi laboratorio hemos descubierto una sustancia que prolonga la esperanza de vida de las moscas más de un 20%, a la vez que las mantiene más activas, unos resultados que esperamos hacer públicos próximamente. Y hay muchas otras opciones que se están estudiando, con resultados preliminares positivos. El caso es que todavía no sabemos si ninguno de estos tratamientos tendrá algún efecto en humanos. La mayoría de expertos cree que un día u otro encontraremos algo que frenará (poco o mucho) nuestro envejecimiento. Puede ser un momento histórico que abra las compuertas de una revolución médica sin precedentes.

Explicaba todo esto en una charla que hice la semana pasada en un instituto y una de las primeras preguntas que me hicieron los alumnos fue por qué los científicos estamos tan obsesionados con detener el envejecimiento, cuando hay otros problemas más importantes. Le contesté que cuando tuviera 40 años y le empezaran a chirriar algunas articulaciones entendería rápidamente la razón. La búsqueda de la inmortalidad es una obsesión antigua, reflejada ya en una de las primeras obras literarias conocidas, 'La epopeya de Gilgamesh', de cerca de 4.000 años de antigüedad, y ahora que por fin entendemos a nivel celular por qué nos hacemos viejos no nos detendremos.

El problema es que la ciencia está avanzando más rápidamente que la sociedad. ¿Estamos preparados para un mundo en el que una parte importante de los humanos (inicialmente la de los países ricos, con toda seguridad) viva más de 100 años? ¿Cómo aseguraremos la sostenibilidad de una población en la que el porcentaje de viejos supere con mucho el de jóvenes? ¿Dónde meteremos tanta gente si los nacimientos continúan al mismo ritmo pero tardamos mucho más en morir?

No son escenarios apocalípticos sacados de libros de ciencia ficción, sino realidades que la investigación biomédica puede hacer posibles a corto o medio plazo. Tanto en conferencias como en uno de mis últimos libros de divulgación ('Jugar a ser dioses', escrito a medias con Chris Willmott) defiendo que tenemos que empezar a debatir estos temas lo antes posible, para que los investigadores, mientras tanto, sigamos haciendo nuestro trabajo. Debemos evitar que llegue un día en que el descubrimiento científico del año sea a la vez el anuncio de una catástrofe social de repercusiones imprevisibles.

[Artículo publicado en El Periódico, 06/9/14 (en català).]

martes, 16 de diciembre de 2014

Estas Navidades... ¡regala libros!

Si buscáis un libro con un toque de ciencia para regalar (o regalaros) estas Navidades, permitidme que os recomiende uno que se acaba de publicar, que he coescrito con otros dos científicos (David Bueno y Eduard Martorell). Se llama Los límites de la vida y es una novela sobre qué significa estar vivo. Hay mucha ciencia, un poco de filosofía pero también intriga y romance. Recomendable para todo el mundo que esté interesado en la ciencia, de 12-13 años en adelante. Aquí tenéis el booktrailer:


Lo podéis comprar online aquí o aquí (en formato digital).

Ya de paso os recomiendo los otros libros de que he publicado en castellano (disponibles todos aquí o aquí), y para los que vivís en América, aquí):

Divulgación científica:
Inmortales y perfectos (2008)
Las grandes plagas modernas (2010).
Qué es el cáncer (y por qué no hay que tenerle miedo) (2013)

Novela:
Colmillos (2011)

Cuentos para niños:
Cinco días en otro planeta (2013)

martes, 2 de diciembre de 2014

La recompensa de la nostalgia

Quentin Compson es un joven estudiante que, desde una habitación en la residencia de la Universidad de Harvard, recuerda la historia de varias generaciones de su familia y, de rebote, la vida en el sur de los Estados Unidos que acaba de dejar atrás. El año es 1936, y la narración de Quentin es el núcleo de '¡Absalón, Absalón!', una de las novelas más conocidas de William Faulkner y un buen ejemplo del uso literario de la nostalgia para crear obras de arte perdurables. Otro caso, tan conocido que muchos pueden citar sin ni siquiera haber abierto el libro, es la magdalena 'proustiana', que con un simple mordisco desencadena los recuerdos que llenan los seis volúmenes de 'En busca del tiempo perdido'. ¿Qué tiene la nostalgia que nos fascina tanto, desde el punto de vista creativo y, por tanto, también desde el emocional?

Si la pregunta te la puedes hacer leyendo a escritores tan prestigiosos como Faulkner o Proust, una posible explicación biológica se podía encontrar hace poco en la revista 'Neuron', en la que un artículo escrito por unos científicos de la Rutgers University, en New Jersey, proponía que el ejercicio de la nostalgia desencadena una respuesta química en el cerebro comparable a la que experimentamos cuando nos dan dinero. Es decir: desconectar del presente para repasar los 'grandes éxitos' del pasado genera una recompensa física tangible, lo que explicaría por qué somos adictos a la nostalgia. Para demostrarlo, el grupo de investigadores dirigido por el doctor Mauricio Delgado pidió a un grupo de voluntarios que recordaran momentos felices y otros neutros mientras se sometían a una resonancia magnética funcional, una técnica de imagen que permite ver en tiempo real qué partes del cerebro están activas y cuáles no. Como era de esperar, todos los sujetos se pasaban más tiempo pensando en los recuerdos agradables que en los que no tenían ningún componente emocional positivo. Las mejores experiencias de la vida

Lo más sorprendente era que, durante la sesión nostálgica, se les encendían unas zonas cerebrales conocidas como el córtex medial prefrontal y el cuerpo estriado, las mismas que se sabe que responden siempre que hay una ganancia económica. Con su curiosidad en aumento, los científicos les propusieron otro experimento. Les ofrecieron una cantidad de dinero para recordar un hecho positivo y una más elevada para recordar uno neutro. La mayoría de voluntarios no lo dudaban: preferían menos dinero a cambio de poder disfrutar una vez más de las mejores experiencias de su vida. Además, la respuesta neurológica observada con la resonancia era de mayor magnitud en aquellas personas que después de la sesión decían que su estado de ánimo había mejorado notablemente.

Todo esto demostraría que esta necesidad mental de volver periódicamente a lo bueno que hemos dejado atrás tiene una razón de ser, más allá de proporcionar temas interesantes a los artistas. Solo hay que reconocer cómo disfrutamos de festivales nostálgicos como pueden ser las cenas con amigos de la infancia, donde la inevitable sucesión espontánea de batallitas obliga al córtex medial prefrontal a hacer horas extras. La capacidad tan típica de los humanos de perdernos en los recuerdos podría ser en realidad una estrategia más de la evolución, una respuesta biológica tal vez aparecida gracias a unas conexiones neurológicas accidentales, que la selección natural habría conservado por claros efectos euforizantes que tendrían en nuestro estado de ánimo. La voluntad de innovar

Pero abusar puede ser peligroso. Así como una dosis razonable de nostalgia parece ser saludable, convertirla en una máxima que te dirija el curso de la vida, como aún ahora podemos ver que hacen ciertos elementos reaccionarios de la sociedad, va en contra de lo que ha permitido que nuestra especie lograra hitos espectaculares: la voluntad de innovar. El problema viene cuando se quiere ir más allá del ejercicio de la imaginación para intentar reproducir, en un entorno contemporáneo, lo que la memoria nos dice que era mejor, en lugar de continuar caminando adelante. Para avanzar debemos venerar el pasado, pero siempre sabiendo qué tenemos que dejar atrás.

De una manera u otra, la nostalgia es una parte importante de nuestra existencia, y ahora sabemos que esto tiene una razón biológica de ser. Está muy integrada en las rutinas vitales de la humanidad, lo que hace que acabe reflejándose en las manifestaciones artísticas o que algunos lo utilicen de estandarte para justificar su tradicionalismo. Incluso el lenguaje ha sentido la necesidad de crear palabras únicas para definirla, como la 'saudade' portuguesa o la morriña gallega, por poner dos ejemplos practicamente intraducibles. No tiene nada de malo recrearse un rato en los recuerdos felices: el cerebro se lo agradecerá. Téngalo bien presente, y la próxima vez que hinque el diente a una magdalena hágalo sin remordimientos pero con mesura.

[Artículo publicado en El Periódico, 06/9/14 (en català).]

lunes, 3 de noviembre de 2014

Biología y cuidado de los hijos

Hay pocos sonidos más insoportables que el llanto de un niño. La mayoría de humanos reaccionamos al oírlo con una incomodidad que nos empuja a buscar una solución, aunque el emisor no sea hijo nuestro. Un artículo publicado el mes pasado en la revista American Naturalist descubría que este instinto trasciende los límites de las especies: un ciervo, al oír un llanto grabado anteriormente, correrá a auxiliar de la misma manera a una cría suya que a una de foca, de marmota o incluso humana. De hecho, hace tiempo que se sabe que los perros responden cuando oyen llorar a bebés, igual que lo hacemos nosotros si un perro se queja, pero se creía que esto era un efecto secundario de la domesticación. Parece que no: en el llanto de un mamífero hay un componente ancestral y universal que dispara las alarmas de todos los otros animales de la misma clase, aunque en algunos casos nos separen hasta 90 millones de años de evolución.

El experimento se hizo con un ciervo hembra pero, al menos en humanos, todo indica que debería funcionar en ambos sexos. Existe la concepción, tan errónea como fuertemente arraigada, de que las mujeres están biológicamente más preparadas para la paternidad que los hombres. Que esto no es cierto lo demuestran estudios como el que apareció este mayo en la revista PNAS, donde un grupo de científicos explicaban que el cerebro de los padres experimenta los mismos cambios a nivel hormonal y funcional que el de las madres cuando ellos son los principales encargados de cuidar a los hijos. Estos datos corroboran un trabajo del 2011, también visto en PNAS, que decía que la paternidad hacía disminuir en los hombres los niveles de testosterona, una hormona normalmente implicada en actividades poco relacionadas con la atención a los bebés.

Así pues, las diferencias entre géneros en cuanto a la habilidad de ser buenos progenitores parecen determinadas sobre todo por condicionantes sociales, no por los cromosomas. Lo más grave es que no es solo la actitud machista de algunos hombres lo que perpetúa esta falacia, sino que muchas mujeres se sienten cómodas admitiendo su supuesta superioridad maternal, sin darse cuenta de que así entorpecen los esfuerzos que hacemos para evitar la discriminación en el mercado laboral.

Es evidente que aún existe el famoso techo de cristal que hace que algunos hombres vean a las mujeres menos capaces para ocupar puestos de responsabilidad en una organización, aunque me gustaría creer que la concienciación de las últimas décadas ha hecho que las nuevas generaciones ya no caigamos tanto en esta trampa. Pero, aparte de este impedimento, existe otro motivo que sabotea las carreras de las mujeres, y que se basa en esta malentendida capacidad biológica de ocuparse mejor de los niños. Tengo la impresión de que juega un papel importante en determinar estadísticas como la que se publicó en noviembre del año pasado en la revista Family Relations, donde se decía que, a pesar de que muchas parejas jóvenes creen que la responsabilidad de criar la descendencia en los primeros años debe ser compartida, a la hora de la verdad las madres pasan una media del 70% del tiempo libre cuidando a los hijos, mientras que en los padres esta cifra llega como máximo al 50%.

Solo hay una diferencia insalvable entre hombres y mujeres cuando hablamos de paternidad: los hombres no podemos incubar un embrión dentro de nosotros. Pero pasados los nueve meses de gestación no hay motivos biológicos para cargar el mochuelo mayoritariamente a las mujeres. Incluso la lactancia se puede compartir. Existen bombas que extraen leche, y si no, tenemos alternativas muy buenas que deberían dejar de demonizarse: aunque la leche materna es sin duda más recomendable, ningún niño ha sufrido daños irreversibles por haber sido criado con leche de tarro. Si este es el precio a pagar para recuperar una parte de la competitividad de la mujer, tal vez vale la pena hacer el sacrificio.

Es muy sencillo luchar por la igualdad de géneros cuando podemos echar toda la culpa al machismo ruidoso y atávico, fácilmente identificable con los estratos más casposos de la sociedad. Aunque es cierto que todavía quedan restos, es más peligroso este machismo social insidioso que llevamos hombres y mujeres interiorizado después de milenios de inmovilidad de los papeles sexuales en la pareja. Hasta que no seamos todos conscientes de que ese tipo de machismo existe, no haremos los primeros pasos para erradicarlo. La biología no lo apoya. Que quede claro: no existe ningún impedimento físico para que los hombres que lo deseen puedan ocuparse más de los hijos que de su trabajo, del mismo modo que debería ser perfectamente normal que una madre escogiera dedicar más tiempo a su vida laboral que a tener cuidado de las criaturas, como mayoritariamente han hecho siempre los hombres.  

[Artículo  publicado en El Periódico, 06/9/14 (en català).]

martes, 7 de octubre de 2014

Los invisibles genes de la inteligencia

Los hijos heredan de los padres cosas buenas y malas, como por ejemplo el color de los ojos, la piel y el cabello, una nariz más o menos grande, la predisposición a engordar, algunas habilidades atléticas o la capacidad intelectual. ¿O no? Aunque la mayoría de la gente estaría de acuerdo con esta afirmación, algunos científicos matizarían el último punto. Así como es obvio que la práctica totalidad de nuestros rasgos físicos vienen muy determinados por la mezcla del ADN que recibimos de los progenitores, cuando hablamos de inteligencia, el origen no es tan claro. Es cierto que existe una correlación entre los cocientes intelectuales de generaciones consecutivas de una familia, muchas veces obvia sin que sea necesario hacer medidas muy complicadas, pero, ¿qué parte depende realmente de los genes y qué del entorno?

Esta es una pregunta con muchas implicaciones prácticas, más allá de la simple curiosidad científica. Si el límite de la inteligencia que podemos alcanzar estuviera marcado solo por la agilidad neuronal de nuestros ascendientes, sería inútil esforzarse en mejorar más allá de un punto determinado. En cambio, si todo el mundo puede llegar a ser un premio Nobel, estaríamos desaprovechando el potencial de un montón de personas que no tienen acceso a la estimulación necesaria para llegar tan lejos como podrían. Evidentemente, lo más posible es que haya un punto medio entre el determinismo genético de la primera opción y el conductismo exagerado de la segunda, y esto es precisamente lo que se está intentando definir desde que las mejoras técnicas nos han permitido leer genomas enteros invirtiendo cantidades cada vez más asequibles de tiempo y dinero. La clave es encontrar qué genes pueden hacernos más o menos inteligentes para poder valorar así en qué porcentaje determinan nuestra capacidad cerebral.

Errores metodológicos

Pero de momento, los resultados que se han obtenido resultan poco claros, hasta el punto de que una buena parte de los trabajos que han identificado regiones del ADN posiblemente implicadas en la inteligencia han sido criticados severamente y, en algunos casos, hasta se ha visto que contenían errores metodológicos importantes. Eso sí: los de estudios realizados en gemelos idénticos en los últimos años confirman que el cociente intelectual debe tener un fuerte componente genético.

Además, se sabe que la inteligencia puede variar a lo largo del tiempo, y el hecho de que las capacidades mentales de los niños se correlacionen con las que tienen cuando son adultos se convierte en una prueba más de que debe haber una base genética importante. Y sin embargo, a principios de esta década se vio que las diferencias en el ADN de un grupo de individuos no eran suficientes para explicar las variaciones de la inteligencia que había entre ellos, lo que se ha llamado el «problema de la herencia desaparecida». Si es tan obvio que ciertos genes determinan la inteligencia, ¿por qué no los encontramos?

Amplio estudio de variantes genéticas

El último estudio en este campo, publicado hace unas semanas en la revista 'PNAS' por el doctor Daniel Benjamin y sus colaboradores, ha sido considerado por los expertos uno de los más rigurosos y amplios y, sin embargo, ha vuelto a topar con el problema de dónde se esconden los «genes de la inteligencia». Los investigadores estudiaron las variantes genéticas de más de 106.000 personas y encontraron 69 que están relacionadas con qué nivel de educación habían alcanzado. Un buen principio. Encima, tres de estas variantes se veían también más a menudo en los individuos con cocientes intelectuales más altos. ¿Son estos, pues, los genes 'invisibles' que buscábamos? Lo que pasa es que, a la hora de la verdad, sus efectos resultan muy pequeños: haber heredado dos copias (del padre y de la madre) de una de estas variantes solo haría subir 0,3 puntos el cociente. Es decir, ninguno de los genes identificados determina significativamente por sí solo qué inteligencia tenemos. Si un estudio tan exhaustivo como este no ha encontrado los genes responsables del intelecto, ha llegado la hora de replantearnos las hipótesis.

La explicación más lógica para esta sorprendente falta de datos genéticos que corroboren que la inteligencia se hereda podría ser que hay muchos genes (cientos o quizá miles) que participan. Si fuera así, cada uno de estos genes aportaría únicamente una parte muy pequeña en la suma total, como sugiere el estudio que hemos comentado. Por lo tanto, sería casi imposible descubrir todo el conjunto entero a menos que se estudiaran muchas más personas. El doctor Benjamin calcula que esta cifra debería llegar a ser de al menos un millón de individuos. Quizá algún día llegaremos, quién sabe, pero de momento parece seguir sin saberse en qué rincón del genoma está la información que especifica hasta dónde puede llegar el cerebro.

[Artículo publicado en El Periódico, 06/9/14 (en català).]