La música de las estrellas

El Sol canta, a su manera. Y gracias a ese canto podemos conocer su composición y estructura interna. La ciencia que estudia las vibraciones del Sol se denomina Heliosismología, que es una manera elegante de hablar de la información que podemos extraer del Sol escuchándolo.

Por supuesto, estas vibraciones no pueden viajar por vacío del espacio y llegar hasta nosotros. Esta música la percibimos como cambios en el brillo de su superficie. Sin embargo, hay formas de poder escucharla de verdad, si transformamos estas vibraciones de brillo en sonido, como en el siguiente video:

Los astrónomos escuchan los latidos del Sol, las vibraciones de su superficie, y así aprenden cómo es por dentro, de la misma manera que los seismólogos aprenden la composición de la Tierra escuchando los terremotos. Pero estudiar los terremotos de la Tierra es mucho más fácil que estudiar el Sol. El trabajo se podría comparar a adivinar cómo está hecho un piano oyéndolo caerse por las escaleras.

Todos podemos distinguir entre si los sonidos de un tambor, un piano o una campana. Para estudiar el Sol, los instrumentos de los heliosismólogos tienen que ser todavía más precisos, tanto que serían capaces de distinguir el equivalente a la diferencia entre un violín Stradivarius y uno normal: pueden detectar variaciones de brillo de una parte entre 10 millones.

Contrariamente a la intuición, el Sol es prácticamente opaco a la radiación electromagnética. Para que un rayo de luz nos llegue, primero tiene que llegar a su superficie, y no es tarea fácil. Un fotón puede tardar sobre 170,000 años en llegar desde el centro del Sol a la superficie.

Por otro lado, el astro rey es transparente a los neutrinos. Hay varios experimentos que detectan los neutrinos que emanan del Sol, pero su detección es tremendamente complicada, por lo que estudiar la estructura interna de esta manera es poco práctico.

Afortunadamente, sí se pueden detectar fácilmente las ondas de la superficie del Sol, como si fueran las olas de un estanque. Usando estas ondas sonoras, estas vibraciones, podemos ver dentro del Sol, de la misma manera que podemos ver el interior del cuerpo humano con los ultrasonidos.

    Simulacion de las oscilaciones acusticas (modos p) en el Sol.

Simulacion de las oscilaciones acústicas (modos p) en el Sol.

La idea de estudiar las oscilaciones de las estrellas data del siglo XVIII, pero no fue hasta 1960 que los primeros patrones de oscilacion solar fueron medidos por Robert Leighton, Robert Noyes y George Simon.

El Sol está vibrando constantemente, en una sinfonía de modos acústicos superpuestos, como las cuerdas de una guitarra sonando a la vez. El periodo de la oscilación es de unos cuantos minutos y una onda tarda unas pocas horas en atravesar el Sol, a la velocidad de 1 centímetro por segundo.

Dependiendo del modo de oscilación, de la frecuencia a la que resuene el Sol, podremos mirar más o menos dentro del Sol. Los astrónomos están interesados en tres tipos de ondas: las acústicas, las gravitatorias y las ondas de gravedad superficiales. Estas tres ondas generan los llamados modos p, modos g y modos f, respectivamente. Cada modo nos da información de una parte del interior del Sol.

Dependiendo del tipo de oscilación podemos ver a diferente profundidad del Sol, lo que nos da información de su estructura interna.

Dependiendo del tipo de oscilación podemos ver a diferente profundidad del Sol, lo que nos da información de su estructura interna.

El movimiento asociado a los modos f y p se restringen esencialmente a la región exterior del núcleo solar, es decir, las ondas bordean el núcleo de la estrella, por lo que estos modos contienen poca información de las partes más profundas del Sol. Para ver el núcleo necesitamos los modos g, que surgen de la lucha entre la fuerza de la gravedad, que tiende a colapsar la estrella bajo su propio peso, y la presión de radiación, debida a las reacciones de fusión. Estos modos nos muestran el nucleo, pero son muy difíciles de detectar porque, al ser ondas tan profundas, la vibración en la superficie es muy tenue.

Dado el éxito a la hora de entender la dinámica del plasma en el Sol, los astrónomos se plantearon si podrían repetir el procedimiento para otras estrellas. Esto, por supuesto, plantea muchos más problemas, porque las estrellas están infinitamente más lejos que el Sol. Pero esto no es excusa, y en la última década se ha avanzado mucho en esta dirección, en la llamada astrosismología.

El satélite Kepler, el satélite de la NASA lanzado en 2009, famoso por descubrir cientos de planetas extrasolares, ha conseguido captar el sonido de miles de estrellas, lo que nos da información de primera mano sobre su composición. El descubrimiento de nuevos planetas extrasolares se basa en la variación del brillo de la estrella cuando el planeta pasa por delante. Así, conocer la sinfonía de la estrella es crucial para poder detectar planetas.

Detección de planetas extrasolares por el método del tránsito

Detección de planetas extrasolares por el método del tránsito

Gracias a Kepler sabemos que las estrellas grandes vibran en tonos bajos, mientras que las pequeñas lo hacen en tonos altos. Como ejemplo, una de las estrellas mejor estudiadas por Kepler es la gigante roja denominada KIC 11026764. Pocas estrellas en el Universo se conocen con tanta precisión como esta gigante roja. Por cómo oscila sabemos que la estrella tiene 5.94 mil millones de años de edad y que utiliza la fusión del hidrógeno como combustible, además de tener un núcleo rico en helio.

Image

Variación del brillo de las estrellas medido por el satelite Kepler

Descubriendo el LHC: juego de imanes

El Gran Colisionador de Hadrones (LHC) del CERN (Ginebra) es a día de hoy el acelerador de partículas más grande del mundo. A lo largo de sus casi 27 km de circunferencia, dos haces de protones viajando en sentidos contrarios son acelerados hasta unas 0.999999991 veces la velocidad de la luz hasta una energía de 7 TeV cada uno (marca que se alcanzará a partir de diciembre de 2014).

Tunel del LHC con el detalle de un dipolo

Tunel del LHC con el detalle de un dipolo

Cada haz está compuesto por 280 trillones de protones, organizados en 2808 paquetes formando una especie de racimo o collar de cuentas (es decir, el haz no es continuo, sino que va por impulsos). La energía combinada de tantos protones es brutal. Para hacernos una idea, cada haz lleva una energía igual a la de un tren de alta velocidad viajando a 200 kilometros por hora (362 megajulios), concentrada en escasos milímetros.

Esta energía tiene el potencial peligro de destruir cualquier cosa que toque, por lo que la manipulación de los haces debe ser lo más precisa posible. Entonces, ¿cómo controlamos los protones sin reventar ningun elemento por el camino? Pues consiguiendo que mientras viajan a toda velocidad por el tunel oscilen en el plano perpendicular.

Movimiento betatron de los protones en el LHC, entre los experimentos ATLAS y ALICE (simulado con SixTrack).

Movimiento betatrón de los protones en el LHC, entre los experimentos ATLAS y ALICE. Cada punto es un protón. Simulación de 2000 protones, imagínate con 280 trillones.

Y ¿cómo conseguimos este movimiento tan hipnótico? La respuesta es con campos magnéticos. El LHC utiliza unos 6500 imanes superconductores, que deben mantenerse a una temperatura inferior a la del Espacio Exterior (1,9 K o -271 C).

El acelerador se diseña alrededor de una trayectoria de referencia. Ésta consta de secciones rectas y zonas curvas. Las secciones rectas son necesarias para colocar los detectores de partículas y ensamblar otros componentes (colimadores, dump, etc).

Esquema del LHC, donde se aprecian las secciones curvas y las secciones rectas.

Esquema del LHC, donde se aprecian las secciones curvas y las secciones rectas.

Para entender el movimiento de los protones en un acelerador circular necesitamos como mínimo dos tipos de imanes. Por un lado, los dipolos son imanes que producen un campo magnético uniforme. Son los encargados de desviar la trayectoria de los protones, haciendo que describan una órbita cerrada.  

Esquema de un proton siendo desviado por un dipolo

Esquema de un protón siendo desviado por un dipolo

Los aceleradores lineales son muy limitados tanto en fase de aceleración como en tamaño. Los aceleradores circulares son más versátiles, pero nos vemos en la obligación de introducir componentes que curven el haz, obligándolo a mantenerse dentro del túnel. El LHC tiene 1232 dipolos de unos 15 metros cada uno, que tuercen la dirección del haz ligeramente hasta que éste realiza una vuelta completa.

Dipolos del LHC. Cada cilindro lleva un haz de protones en un sentido.

Dipolos del LHC. Cada cilindro lleva un haz de protones en un sentido.

Pero con esto no tenemos todo. Debido a posibles errores, perturbaciones o
directamente a que no todas las partículas se curvan por igual, se puede perder el haz
rápidamente al salir de las zonas de curvado, como sucedería con un láser. Por ello
necesitamos cuadrupolos para enfocar o desenfocar el haz y poder manipularlo mejor.  Así evitamos que los protones se dispersen y colisionen con las paredes.

Analogo optico al efecto de los cuadrupolos sobre el haz.

Análogo óptico al efecto de los cuadrupolos sobre el haz.

Nos gustaría obtener fuerzas del tipo oscilador armónico para mantener las partículas oscilando alrededor de la trayectoria de referencia, como en la animacion que mostré más arriba. Los cuadrupolos nos dan exactamente esto, pues sus campos magnéticos dependen linealmente de las coordenadas. Con esto obtenemos un efecto similar a un juego de lentes.

Cuadrupolo de enfoque y desenfoque. Observa que cuando el cuadrupolo enfoca en una direccion, desenfoca en la otra.

Cuadrupolo de enfoque y desenfoque. Observa que cuando el cuadrupolo enfoca en una direccion, desenfoca en la otra.

Según los signos de los campos magnéticos en una u otra dirección obtendremos cuadrupolos de enfoque o cuadrupolos de desenfoque. Usando una combinación de ambos solucionamos nuestro problema de movimiento inestable. Mantendremos el haz enfocado en ambas direcciones transversales cuando elijamos bien la fuerza, tipo y posición de los cuadrupolos en el acelerador.

Cuadrupolo del LHC. Se aprecian los cuatro imanes dispuestos en forma de cruz.

Cuadrupolo del LHC. Se aprecian los cuatro imanes dispuestos en forma de cruz.

El movimiento oscilatorio en el plano perpendicular a la dirección de movimiento del haz se conoce como movimiento u oscilación de betatrón. Este nombre tiene su origen en los estudios de estabilidad de las orbitas en los antiguos betatrones, los aceleradores de electrones desarrollados en los años 40 del siglo pasado.

Los protones describen un movimiento de oscilacion alrededor de la posicion de equilibrio

Los protones describen un movimiento de oscilación alrededor de la posicion de equilibrio

Por supuesto, sólo con estos dos tipos de imanes no podríamos construir un acelerador estable. Hay muchos otros tipos de imanes en los aceleradores circulares, como los sextupolos, octupolos, y otros multipolos de orden superior. Son imanes más complicados que solucionan problemas concretos de la manipulación del haz, como la aberración cromática, las distorsiones en los campos magnéticos, las correcciones en la órbita cerrada… Pero eso lo dejaremos para otra ocasión.

Las lentes gravitacionales encuentran la “masa perdida” de los cúmulos galácticos

Image

Diferencias en la temperatura del fondo cósmico de microondas (CMB) medidos por el satélite Planck.

Cuando el Universo contaba solamente con 380.000 años su temperatura bajó lo suficiente para a los electrones les saliera energéticamente rentable unirse a los protones, formando átomos de hidrógeno. En este momento, los átomos fueron neutros y los fotones, que antes se movían lentamente por el plasma de partículas cargadas, pudieron viajar libremente por el espacio, llevándose consigo la información de la estructura del Universo Primigenio. Ese fondo de fotones sigue con nosotros hasta ahora y, debido a la expansión del Universo, su energía se ha movido al rango de las microondas (por eso se conoce como fondo cósmico de microondas o CMB por sus siglas en inglés).

La imagen más detallada del CMB nos la ha proporcionado el satélite Planck, lanzado por la Agencia Espacial Europea en 2009. Sus resultados muestran un Universo casi uniforme, que cuadra con la teoría inflaccionaria de la Cosmología, que dice que el Universo sufrió una expansión exponencial (inflacción) poco después del Big Bang. Las pequeñas diferencias de temperatura en el CMB son el resultado de las fluctuaciones cuánticas en la densidad de la bola de plasma caliente que era por entonces el Cosmos. Esos minúsculos cambios en la densidad crecieron a lo largo de los millones de años de expansión, dando lugar a los cúmulos de galaxias que vemos hoy en día.

Sin embargo, cuando el año pasado se dieron a conocer los resultados de Planck, los investigadores se dieron cuenta de que alrededor del 40% de la masa de los cúmulos galácticos visibles hoy en día no aparecía cuando se comparaba con la que cabría esperar a partir de las fluctuaciones medidas en el CMB. Es decir, debería haber más masa de la que vemos si tomamos como referencia los datos de Planck. Esta discrepancia rápidamente se vio como una señal de Física más allá del Modelo Estándar, y numerosas explicaciones aparecieron para solventar el problema, como neutrinos fantasma, nuevas partículas, etc.

Imagen de lente gravitacional cortesía de la NASA, ESA, M. Postman (STScI) y el CLASH Team

Imagen de lente gravitacional cortesía de la NASA, ESA, M. Postman (STScI) y el CLASH Team

Sin embargo, un artículo aparecido la semana pasada en arXiv sugiere que los cúmulos galácticos tienen en realidad más masa que la estimada por Planck, por lo que los datos pueden ser explicados sin recurrir a Física exótica. El artículo técnico es A. von der Linden et al. http://arxiv.org/abs/1402.2670. Los autores usan la técnica de lentes gravitacionales para medir la masa de los cúmulos, obteniendo un método más fiable que el utilizado en Planck, que se basa en el efecto de Sunyaev-Zel’dovich.

Medida de la masa de los cúmulos galácticos usando Sunyaev-Zel'dovich y lentes gravitacionales.

Medida de la masa de los cúmulos galácticos usando Sunyaev-Zel’dovich y lentes gravitacionales.

El efecto Sunyaev-Zel’dovich (SZ) se produce cuando los fotones, en este caso los del CMB, ganan energía al atravesar un gas de electrones energéticos. Esta ganancia de energía se puede correlacionar con la masa de las galaxias en el cúmulo, ya que a mayor masa del cúmulo más capacidad de atrapar gas caliente, pero tiene un error asociado nada despreciable.

Por su parte, el trabajo de Von der Linder ha utilizado el telescopio Subaru y el telescopio Canada-France-Hawaii, ambos en el monte Mauna Kea (Hawaii), para medir la distorsión de la luz alrededor de los cúmulos. La Relatividad General predice que la luz se curva en presencia de grandes masas, lo que se conoce como lentes gravitacionales. Midiendo esta curvatura se obtiene una predicción mucho más fiable de la masa total del cúmulo. Los investigadores midieron 22 cúmulos de galaxias, con masas alrededor de 10^{15} masas solares en promedio, unas 1000 veces mayor que la masa de la Vía Lactea, y obtuvieron un valor un 43% mayor que el de Planck.

Habrá que esperar a futuros estudios con técnicas similares y mayores cúmulos, para ver si así se soluciona la discrepancia con los datos de Planck. Sin embargo, aunque no existiera discrepancia, el estudio de la evolución de los cúmulos galácticos seguiría siendo importante, pues gracias a ello podemos conocer si el efecto de la energía oscura, esa misteriosa fuerza repulsiva que provoca la aceleración de la expansión del Universo, ha cambiado con el tiempo o no.

Noticia extraída de Nature.com

Los casinos de Monte Carlo y la Física

Casino de Monte Carlo

Casino de Monte Carlo

Ciertamente, la financiación de la ciencia no esta en sus mejores momentos, e incluso hay investigadores que han tenido que recurrir a programas de televisión para conseguir dinero para sus investigaciones. Pero yo al menos, afortunadamente, no he tenido que recurrir al casino para ganarme el sueldo. Aunque el título huela a dinero, este post va por otro camino. Si menciono la ciudad del Principado de Mónaco es por la técnica para simular procesos complejos, que toma su nombre de la ciudad famosa por sus casinos.

Las simulaciones Monte Carlo acoge en un mismo nombre una gran cantidad de algoritmos computacionales basados en utilizar números aleatorios (mejor dicho, pseudoaleatorios) para obtener la solución a un problema complejo, simulando el mismo problema con diferentes condiciones iniciales para conseguir la distribución de probabilidad de la cantidad que se quiera obtener. De hecho, es lo mismo que hacemos al apostar en una ruleta del casino, con resultados más o menos desastrosos para nuestros bolsillos.

Una máquina de pinball de 1995: ``Theatre of magic''. via Wikipedia.

Una máquina de pinball de 1995: “Theatre of magic”. via Wikipedia.

Pongamos un ejemplo. Supongamos que tenemos un pinball y queremos calcular la probabilidad de que la bola de pinball caiga directamente entre las dos paletas sin que podamos intervenir. La dinámica de este sistema es demasiado complicada como para ser analizada desde un punto de vista analítico. Las mínimas variaciones en la energía, posición o dirección del lanzamiento inicial podrían hacer caer a la bola en un lugar completamente diferente. Haría falta entonces repetir el experimento de lanzar la bola numerosas veces con un pinball real y anotar cuidadosamente los resultados. Sin embargo, este experimento requeriría, primero, de un paintball real, de mucho tiempo (libre) y no podríamos saber si el hecho de colocar un elemento adicional en el tablero cambiaría la probabilidad o no.

La alternativa es hacer un experimento virtual, una simulación de Monte Carlo. En este ejemplo, el procedimiento sería desarrollar un programa que simule el paintball, reproduciendo la interacción de la bola con todos los elementos del tablero. A continuación, lanzaríamos virtualmente numerosas bolas con diferentes energías, posiciones y direcciones. La precisión del resultado (el número de veces que la bola pasa a través de las paletas, de forma que el jugador no pueda jugar, dividido por el número de disparos realizados) dependerá del número de lanzamientos efectuados. Cuando se ha realizado un número suficientemente grande de eventos (la estadística es suficientemente grande), es posible hacer medidas, lo que consiste en simular la respuesta de nuestros detectores o instrumentos de medida a la serie de eventos generados. Por ejemplo, es posible medir el número medio de colisiones con un elemento del tablero, o incluso medir (siempre virtualmente), la energía disipada de media por la bola en la colisión con un elemento. Medida, esta última, que será muy difícil de realizar con una experiencia real.

Aunque Enrico Fermi ya planteo este metodo en 1930, oficialmente los orígenes del método de Monte Carlo se remontan a 1946. En el laboratorio de Los Alamos (epicentro del Proyecto Manhattan donde se desarrollo la bomba atómica) los físicos John von Neumann y Stanislaw Ulam  estudiaban el transporte de neutrones a través de materiales para mejorar la protección ante la radiación. La ecuación de transporte que describe el proceso es tremendamente complicada, imposible de resolver analíticamente para casos realistas. Un dia, Ulam estaba enfermo, pasando el rato jugando al solitario, cuando se pregunto cuál era la probabilidad de obtener las 52 cartas en el orden correcto. Lo intento con cálculo probabilístico, pero al final se le ocurrió utilizar números aleatorios para resolver el problema. La aplicación de este método al problema de transporte de neutrones fue inmediata. El nombre de Monte Carlo le fue asignado más tarde por Nicholas Metropolis, en referencia a la tradición de juegos de azar del Principado. La difusión de la técnica de simulación ha seguido, claramente, a la de los ordenadores y está hoy en día prácticamente omnipresente en los experimentos de física.

Al igual que sucede en nuestro experimiento de pinball, en los experimentos reales
las simulaciones Monte Carlo se utilizan ampliamente desde la concepción de un experimento, para evaluar cuáles serán las características que el experimiento deberá tener para poder medir las cantidades deseadas. Posteriormente son utilizadas para concebir y optimizar los detectores y para interpretar las señales. Por ejemplo, en la figura  de abajo se representan los datos experimentales medidos durante el experimento ATLAS y las predicciones de la simulación Monte Carlo.

En negro se representan los datos medidos a través del experimento ATLAS,  en rojo y en violeta las predicciones de la simulación Monte Carlo de eventos debidos a otros procesos ya conocidos,  en verde la diferencia entre la predicción de la simulación y los datos efectivamente medidos.  El excedente es compatible con la señal que será obtenida si estuviera producida por el bosón de Higgs y  si este tuviera una masa de 125 GeV, como vemos en la simulación en azul.

En negro se representan los datos medidos a través del experimento ATLAS, en rojo y en violeta las predicciones de la simulación Monte Carlo de eventos debidos a otros procesos ya conocidos, en verde la diferencia entre la predicción de la simulación y los datos efectivamente medidos. El excedente es compatible con la señal que será obtenida si estuviera producida por el bosón de Higgs y si este tuviera una masa de 125 GeV, como vemos en la simulación en azul.

Evidentemente, es esencial que la simulación reproduzca de la forma más exacta posible los datos que serán producidos durante la adquisicion de datos experimental. Si no, sería casi imposible reconstruir los procesos que los han generado a partir de las señales producidas por los detectores. Así, el uso de simulaciones numéricas para reconstruir los eventos que generan las señales son imprescindibles.

Para obtener simulaciones realistas, se han desarrollado numerosos programas a lo largo de los años, dependiendo del problema que se quiera resolver. Cuando se trata de simulaciones dedicadas a experimentos de Física de Partículas, estos programas (como FLUKA, Geant4, MCNPX,…) simulan lo que sucede en millones de interacciones en las cuales, en función de la energía implicada, las partículas puede ser aniquiladas o creadas, y se describe el transporte y las interacciones de las partículas con los átomos del material.

Además de en la investigación básica, las técnicas de Monte Carlo se aplican actualmente en prácticamente todos los campos de la ciencia, desde la Biología a las Telecomunicaciones, en las Matemáticas y, por supuesto, en la Física Médica. En particular, la utilización de códigos de transporte Monte Carlo es muy importante en numerosas etapas del tratamiento del cáncer mediante radioterapia.

El transporte de partículas a través de los tejidos del cuerpo es complejo, no solamente debido a la complejidad de describirlo a través de la resolución de la ecuación de transporte de Boltzman, sino también por la heterogeneidad intrínseca del cuerpo humano. La Física Médica utiliza sobre todo sistemas de Planificación de Tratamiento (TPS por sus siglas en ingles), programas especializados basados en modelos analíticos que ayudan a obtener una distribución tridimensional de la dosis a administrar al paciente.

En algunos casos, las soluciones analíticas aproximadas pueden ser útiles. De hecho, para la radioterapia tradicional basada en rayos X y electrones, estas soluciones son bastante rápidas y precisas. No obstante, en los últimos decenios, la utilización de protones y de iones está surgiendo como alternativa.

Por supuesto, la localización exacta del lugar donde la dosis se libera es esencial para este tipo de tratamiento y una simulación de Monte Carlo es la herramienta ideal para hacer este tipo de predicciones, sobre todo para aquello que concierne a iones pesados como el carbono, que además de interaccionar con el medio, puede fragmentarse.

Esquema de la fragmentación del carbono.

Esquema de la fragmentación del carbono.

La predicción de la fragmentación del carbono, que constituye parte de nuestro trabajo,
es uno de los puntos sobre los cuales se concentra la investigación. Su importancia deriva del hecho de que la fragmentación del carbono falsea la dosis liberada,
ya que los fragmentos se crean y viajan por el cuerpo. Por otro lado, se busca una forma de utilizar estos fragmentos para obtener imágenes en tiempo real de la zona afectada para permitir el control directo del emplazamiento y de la cantidad de dosis liberada en el paciente.

Comparación entre la dosis administrada por un software numérico y un código Monte Carlo (FLUKA)  en el caso donde existan implantes metálicos. Imagen: K. Parodi et al, IJROBP 2007.

Comparación entre la dosis administrada predicha por un software numérico analitico (TPS) y el código Monte Carlo FLUKA en el caso donde existan implantes metálicos. Imagen: K. Parodi et al, IJROBP 2007.

La utilización de simulaciones de Monte Carlo para verificar la dosis depositada en el
paciente es particularmente importante en el caso de cambios bruscos de densidad,
por ejemplo en la proximidad de los pulmones o si existen implantes metálicos, como vemos en la figura.

En conclusión, la técnica de Monte Carlo permite simular procesos que son muy complejos como para poderse tratar de forma analítica. En lo concerniente a la hadronterapia, las simulaciones de Monte Carlo se utilizan tanto en la investigación como en las clínicas para diseñar experimentos, en pantallas protectoras y en procedimientos de seguridad, para verificar los planes de tratamiento a estudiar de nuevas técnicas para la evaluación de los tratamientos.

Accastampato es una iniciativa de divulgación realizado por estudiantes de Física de la Universidad la Sapienza de Roma, con el objetivo de mostrar al público no especializado y los estudiantes de instituto diversos temas de investigación, explicados de una manera sencilla y amena. Gracias al esfuerzo de sus editores, la revista se traduce actualmente al italiano, inglés, francés y español. La idea es enviar partidas de la revista a diversos institutos de Italia, Francia y España, aunque la financiación a veces es insuficiente. Por fortuna, la revista se puede descargar gratuitamente de su página web, y os invito a descargarla o leerla online.

Este post esta basado en una colaboración que realice junto con Carlo Mancini Terracciano para su último número “Los átomos que curan“, dedicado a la Física aplicada a la Medicina.

Un corazón en el anillo

Las Matemáticas son bellas. Sí, no me miréis raro, a mi me parecen bonitas. Con unas sencillas reglas podemos explicar miles de fenómenos. Además, lo mejor que tienen es que aparecen donde menos lo esperamos. Están en los edificios que construimos, en el movimiento de los astros, el comportamiento de los átomos …

Por ejemplo, ¿qué tienen en común el punto de una circunferencia girando sobre otra y la luz que se refleja en el interior de un anillo o una taza de café? Pues, sorprendentemente, ambas dibujan la misma curva, la llamada curva del corazón.

Generacion de una epicicloide con k=3

Generación de una epicicloide con k=3, es decir, la rueda que gira tiene un radio tres veces menor que la fija. (Wikipedia)

La curva del corazón es una epicicloide. En Geometría, una epicicloide es una curva plana producida por la trayectoria de un punto de una circunferencia, llamada epiciclo, que rueda sin deslizarse sobre otra circunferencia fija. Dependiendo de la relación entre los radios de ambas circunferencias \frac{r_1}{r_2} podemos obtener una gran variedad de figuras, bellamente simétricas. Por supuesto, cuando la relación entre radios es un número racional, es decir k=\frac{r_1}{r_2}=\frac{n}{m} con n,m números enteros, la curva que se dibuja es cerrada, denominándose curvas algebráicas. 

Cuando las dos circunferencias tienen el mismo radio obtenemos una cardioide, llamada así porque la curva recuerda al dibujo de un corazón.

Generación de una cardioide por dos ruedas del mismo radio. (Wikipedia)

Generación de una cardioide por dos ruedas del mismo radio. (Wikipedia)

     – Bueno, todo esto es muy bonito pero, ¿qué tiene que ver esto con la luz reflejada en un anillo?

Ya llego a este punto, lector impaciente, pero primero veamos unos conceptos de Óptica. Como ya sabéis, si tenéis una lupa o un espejo parabólico (como los hornos solares), cuando a la lente le da el Sol hay un punto en el que los rayos del Sol se concentran, pudiendo llegar a mucha temperatura e incluso a quemar pequeños objetos. Este punto se llama foco, del latín focus, palabra de la que también derivan fogón o fuego. Los rayos del Sol llegan paralelos y al atravesar la lente o reflejarse en el espejo parabólico se dirigen todos a un punto, donde se suman, explicando que se caliente tanto.

Esto explica el calentamiento global...

Esto explica el calentamiento global…

Bien, ¿qué sucede si la lente o el espejo no son perfectos o enviamos la luz desde una fuente que se encuentra fuera del eje óptico (por ejemplo, giramos la lupa, no la enfocamos al Sol)? En este caso, la luz, en vez de concentrarse en un punto se extenderá en una superficie más o menos definida. Esta curva también tendrá más temperatura y luminosidad, y por lo tanto se denomina cáustica (del griego kaustikos, “que quema”). Todos hemos visto estas curvas, por ejemplo en el fondo de la piscina o el mar. Son esas hipnóticas bandas luminosas provocadas por el movimiento del agua.

Un pez entre cáusticas

Un pez entre cáusticas

–  Primero me hablas de curvas matemáticas, luego de lupas y ahora del mar. ¿Seguro que están relacionados?

Claro, todo está relacionado, ahora llega la explicación. Si coges una circunferencia reflectante, como una taza o un anillo, y la pones bajo la luz solar cuando el Sol no esté muy alto en el cielo, o iluminas su interior con una linterna en su borde, obtendrás una cardioide* (la curva del corazón). Así de sencillo.

cardioide

¿Cómo es posible que dos fenómenos físicos tan diferentes den lugar a la misma curva? Para verlo podemos usar dos enfoques. Uno es el de la óptica geométrica. Para ello dibujamos líneas, que representan los rayos de luz, desde un borde de la circunferencia y observamos dónde confluyen sus reflexiones (La figura de la izquierda del par que muestro abajo). La envolvente de estas líneas, es decir, la curva dibujada por la suma de los rayos, es nuestra cardioide.

Cardioides generadas por rayos de luz emitidos desde el borde inferior. Representación con rayos lineales (izquierda) y ondulatoriamente (derecha).

Cardioides generadas por rayos de luz emitidos desde el borde inferior. Representación con rayos lineales (izquierda) y ondulatoriamente (derecha). Los rayos emitidos por la fuente están en azul, mientras que las reflexiones se muestran en rojo (son colores arbitrarios, la luz no cambia de frecuencia al rebotar).

Pero también podemos verlo ondulatoriamente. Los rayos de luz son ondas, por lo que se propagarán como las olas en un estanque, rebotando en las paredes de la circunferencia. Cuando dos ondas viajando en sentidos contrarios se encuentran, sus intensidades se pueden sumar o anularse, dependiendo si tienen fase igual o contraria. En nuestra circunferencia veremos más intensamente las crestas de las ondas que se encuentran con fases similares, cuya envolvente es precisamente la cardioide. Esta cáustica no es nítida porque lleguen más rayos a la misma, sino porque las ondas, que inundan la circunferencia, se encuentran en la curva con la misma fase, y suman sus contribuciones.

* Nota: En realidad, al iluminar la circunferencia con una luz infinitamente lejana (como el Sol) se obtiene una nefroide o curva del riñón. Es muy parecida a la cardioide, pero el nombre no es tan atractivo, así que permitidme la aproximación.

Átomos que curan: Terapia con iones

Imagen de la primera imagen "médica" de rayos X por Wilhelm Röntgen (1845–1923) de la mano izquierda de su esposa Anna Bertha Ludwig

Imagen de la primera imagen “médica” de rayos X por Wilhelm Röntgen (1845–1923) de la mano izquierda de su esposa Anna Bertha Ludwig. (fuente: Wikipedia)

Antes del descubrimiento de las radiaciones ionizantes, es decir, partículas con energía suficiente para arrancar electrones de los átomos, los médicos disponían de pocos medios para tratar tumores. Tal era la necesidad de nuevas técnicas que, pocos meses después de que Röntgen descubriera los rayos X en Noviembre de 1895, estos ya se utilizaron para tratar lesiones de la piel, sin ningún control y con poco conocimiento de las características físicas y el efecto biológico de estos fotones energéticos. Tanta prisa venía de los propios pacientes, que se sentían abandonados con sus enfermedades incontroladas. Así pues, ya en 1896 los rayos X se usaron para tratar cáncer de pecho. En 1904 ya había artículos que hablan de la Radioterapia, del uso terapéutico de los rayos X y el Radio, elemento radioactivo descubierto por Marie Curie, en lo que se denominó Curie-terapia.

En retrospectiva, la falta de conocimiento de los efectos biológicos y los mecanismos de acción de los nuevos rayos hicieron más mal que bien, llevaron a numerosas muertes y un deficiente tratamiento de los cánceres. Sin embargo, poco a poco estas deficiencias se fueron solventando con investigaciones básicas en el campo de la Biología y de la Física. Miles de estudios sobre el efecto de la radiación sobre las células y el desarrollo de la Física Moderna (donde conviene resaltar la Cuántica, la Nuclear y el estudio de las partículas fundamentales) llenaron los huecos necesarios para hacer de la Radioterapia algo seguro y, por supuesto, efectivo.

Ciertamente, a principios del siglo XX no se tenían los controles éticos de hoy en día. El tratamiento con estas nuevas partículas empezó antes que una adecuada investigación de sus propiedades. Se produjeron muchos errores y los pacientes sufrieron daños innecesarios. Sin embargo, a medida que se iba teniendo más información, se pudieron diagnosticar y tratar diversos tipos de tumor con éxito. Pronto, el uso de rayos X, alfa y beta se convirtieron en tratamientos rutinarios para curar una gran variedad de tumores. Hoy en día estas técnicas están muy asentadas y extendidas por el globo, y millones de personas se pueden beneficiar de sus efectos.

A pesar de los logros alcanzados con la radioterapia convencional, en las últimas décadas la terapia con iones (donde englobo también los protones) ha atraído mucha atención, convirtiéndose en una interesante opción para tratar ciertos tipos de cánceres, ya que presenta numerosas ventajas frente a la terapia con rayos X o electrones. Esta terapia, ideada por 1946 Robert R. Wilson, se basa en lanzar protones o iones acelerados en ciclotrones o sincrotrones hacia los tumores.

Por supuesto, el objetivo de los médicos es concentrar la mayor cantidad de radiación en la zona a tratar, mientras que las zonas circundantes deberían recibir poca dosis. Esto es especialmente delicado cuando la zona a tratar está a suficiente profundidad o cuando se encuentra cerca de órganos sensibles, como la médula espinal.

Antes de que la partícula elegida para el tratamiento llegue al tumor, ésta debe viajar a través de la piel y los tejidos que rodean el objetivo. Los fotones son partículas especialmente penetrantes, ya que no tienen carga ni masa, y son capaces de depositar dosis en una amplia región. Sin embargo, la mayor parte de esta radiación se queda a escasos centímetros de la piel normalmente entre 0,5 y 3 cm dependiendo de la energía inicial. A partir de ahí va perdiendo energía gradualmente hasta que llega al blanco. Los electrones se comportan de forma similar, y esta propiedad se utiliza con éxito para el tratamiento de tumores superficiales.

Sin embargo, si el tumor es profundo, esta aproximación es muy poco eficiente, ya que irradia una gran cantidad de tejido sano (problema que se agudiza si hay un órgano vital cerca). Hay formas de mejorar la dosis en el tumor, como sumar rayos X desde diferentes ángulos para repartir la radiación depositada en tejidos sanos (la llamada iMRT o intensity-Modulated Radiation Therapy). Aun así, no es una solución ideal, porque, aunque repartida, la radiación se queda ahí, y puede causar cánceres secundarios derivados del tratamiento.

Energía liberada en función de la distancia atravesada para diferentes tipos de partículas

Dosis liberada en función de la distancia atravesada para diferentes tipos de partículas

Por el contrario, los iones (de los cuales principalmente se usan el protón y el ion de carbono) son partículas pesadas y cargadas, que pierden velocidad gradualmente al atravesar los tejidos. La peculiaridad que hace tan interesante a estas partículas es que, al entrar en el cuerpo, sólo depositan una pequeña cantidad de su energía. La dosis liberada aumenta poco a poco a medida que la partícula va frenando y penetrando en el cuerpo hasta que súbitamente crece formando un pico bien definido, provocado cuando el ion frena completamente por culpa de su interacción con los átomos del cuerpo. Este pico se conoce como pico de Bragg, en honor a su descubridor William Henry Bragg, premio Nobel de 1915 por sus estudios en cristalografía con rayos X.

Comparación de las dosis recibidas usando rayos X (izquierda) e iones de carbono (derecha).

Comparación de las dosis recibidas usando rayos X (izquierda) e iones de carbono (derecha). Los colores muestran la energía liberada por las partículas al viajar por el cuerpo. Para suministrar suficiente dosis al tumor (área morada), los rayos X deben irradiar a su vez los tejidos circundantes, mientras que los iones de carbono son más precisos.

Por su carga, los iones son partículas fáciles de acelerar y manipular con campos magnéticos. Por ello, el comportamiento del ion se puede conocer con detalle y podemos dirigir el pico de máxima dosis (pico de Bragg) a la zona del tumor. Después de liberar toda su energía, el ion deja de irradiar, por lo que la radiación se puede localizar en la zona del tumor con gran precisión, dejando las regiones sanas prácticamente intactas.

Esta alternativa es mucho menos invasiva que la radioterapia tradicional, y es un bonito ejemplo de la aplicación de la investigación básica en aceleradores y Física de partículas (como la que se realiza actualmente en el LHC del CERN, aunque mucho mucho menos energética, claro) para la Medicina.

Lanza a favor de la Medicina científica

Hoy ha empezado la Conferencia “Física para la Salud en Europa” (ICTR-PHE2014), una conferencia transversal en la que médicos, físicos, biólogos y químicos se reúnen para luchar contra el cáncer. Creo que es una estupenda oportunidad de mostrar las increíbles aplicaciones de la Física Nuclear y de Partículas en campos tan importantes como la Medicina y, en especial, el tratamiento del cáncer.

El cáncer no es una enfermedad en si misma. La palabra “cáncer” agrupa un gran número de enfermedades, caracterizadas por el crecimiento descontrolado de células anormales y su posible movimiento por el cuerpo. Dada esta gran variedad de enfermedades diferentes, no se puede dar con una solución única (desconfiad del que clama encontrar la cura para TODOS los tipos de cáncer). Si este transporte de células cancerosas no se controla se puede producir la muerte del paciente. Los factores que producen cáncer pueden ser variados, tanto factores externos (tabaco, organismos infecciosos, productos químicos, radiación,…) como factores internos (mutaciones genéticas heredadas, hormonas, sistema inmunológico y mutaciones con origen en el metabolismo). La Medicina moderna dispone de varias armas para combatirla, entre las que se encuentran la cirugía, la radioterapia, la quimioterapia, terapia hormonal, terapia biológica, braquioterapia y así como nuevas técnicas bajo desarrollo.

En los próximos días hablaré de las aplicaciones que curan o detectan tumores, tanto las bien asentadas como las nuevas tendencias. Pero antes, me gustaría dar un mensaje prometedor. Hay una creciente tendencia anticientífica o conspiranoica que asegura que estamos siendo envenenados, que algún poder oscuro nos quiere hacer enfermar, que los casos de cáncer no dejan de crecer y que la Medicina occidental no puede hacer nada para ayudarnos. Por supuesto, en muchos casos estos mensajes alarmistas son usados para atraer víctimas hacia las llamadas pseudociencias, bajo la idea equivocada de que si la Medicina científica no puede ayudar al paciente, los potingues e ideas peregrinas del chamán de turno seguro que sí. Nada más lejos de la realidad. Los datos epidemiológicos de que disponemos dicen que estamos venciendo al cáncer. Queda mucho por saber, y mucho por luchar, pero la tendencia es clara. El cáncer ya no es tan temible como hace unas décadas. Pero erradicarlo completamente requiere de un esfuerzo colectivo, un esfuerzo de financiación hacia la Ciencia, que paso a paso, despacio pero con pie seguro, va aumentando nuestro conocimiento con la luz de la evidencia.

Image

Imagen del número medio de muertes por cada 100.000 habitantes (hombres) en EEUU por año para diferentes tipos de cáncer (American Cancer Society).

La imagen que os muestro es la tendencia del número de muertes por cada 100.000 habitantes en EEUU desde 1930 hasta 2009. Como vemos, la mortalidad de la mayoría de los cánceres es a la baja. Desde su pico en los años 90 las muertes por cáncer han caído un 20%. Por supuesto, debemos tener en cuenta que las técnicas de detección han mejorado con los años, y muertes que hace décadas tenían causa desconocida hoy se pueden determinar como mejor precisión. En la gráfica se aprecia bien el asombroso aumento de cánceres de pulmón y bronquios, con pico en 1990, causado por el tabaquismo, ya por fortuna disminuyendo gracias a los esfuerzos de prevención.

Casos de cáncer detectados por cada 100.000 habitantes en EEUU por año.

Casos de cáncer detectados por cada 100.000 habitantes en EEUU por año, donde se especifica el tipo de cáncer (American Cancer Society).

Por otro lado, la siguiente imagen nos muestra que el número de cánceres detectados se ha mantenido prácticamente estable en los últimos 40 años. Por lo tanto no es cierto que hayan aumentado recientemente. La única excepción parece ser el cáncer de próstata, que muestra un pico alrededor de 1990. La razón de este pico es que en esa época se empezó a usar de forma rutinaria la detección precoz. Esto hace suponer que si una buena técnica de detección hubiera existido antes, la curva sería más constante.

Viendo estos datos yo me siento esperanzado y confiado de que algún día no muy lejano la palabra “cáncer” pierda su aura de miedo.