Investigadora de la Universidad de Barcelona promueve las pseudociencias

Apadrina un cientifico

La ciencia no esta en su mejor momento. Por un lado, los sucesivos gobiernos españoles van reduciendo la financiación destinada a I+D, lo que ha llevado a la ciencia española al borde del colapso (aprovecho para pedir que apadrinéis a un científico, no os arrepentiréis). Por otro lado, la sociedad cada vez está más separada de los descubrimientos científicos. Raramente estos tienen cabida en la televisión, y, cuando lo tienen, el rigor informativo deja mucho que desear.  Como consecuencia de la poca educación científica general, las pseudociencias campan a sus anchas por nuestro país. Por ese motivo creo que los divulgadores, profesores y científicos deben unirse, mostrar al público su trabajo, dedicar parte de su escaso tiempo para que la gente valore la ciencia, el conocimiento y la utilidad del pensamiento racional. Porque, si nadie les da a conocer la ciencia, la sociedad estará desprotegida frente a charlatanes dispuestos a engañarles con cuentos de fantasmas, auras, chakras, ovnis y demás elementos mágicos.

Entonces, el papel del investigador frente al charlatán debería estar claro para todo el mundo. Podéis imaginar mi sorpresa al descubrir que la investigadora y profesora titular de la Universidad de Barcelona Anna Diez se dedica a promover la pseudociencia del Reiki en congresos de nula credibilidad como el VII Congreso de Ciencia y Espíritu, celebrado en Barcelona en Mayo de 2011. Sinceramente, no me esperaba que un profesor universitario en activo, en una rama de ciencias como la Química Terapéutica, que además dirige un grupo de investigación, tenga en su curriculum dudosos títulos como maestra de Reiki o terapeuta practicante de chamanismo transcultural. Lo que es más, esta profesora ha escrito un libro titulado “Reiki: qué es y cómo funciona“, publicado por la editorial de la Universidad de Barcelona (para mas inri), e imparte cursos de Reiki al módico precio de 150 euros. Abajo os dejo el vídeo de su charla:

Pero, ¿qué es el Reiki? El Reiki es una supuesta técnica de curación mediante la imposición de manos inventada por Mikao Usui en el siglo XIX. Según sus practicantes, el terapeuta se convierte en un medio a través del cual canaliza la energía universal, que fluye a través de sus manos curando las dolencias del paciente. Las enfermedades, dicen, surgen debido al desequilibrio del campo energético humano, que ellos intentan equilibrar. Los maestros de Reiki, como otras pseudociencias como la homeopatía o la acupuntura, recurren frecuentemente a explicaciones basadas en teorías cientificas, como el electromagnetismo y la física cuántica, para dar credibilidad a su práctica . Por el camino, sin embargo, mezclan conceptos, los sacan de contexto y se inventan otros pocos para acomodarlos a su visión de la realidad (ver video anterior, a partir del minuto 43:25, no tiene desperdicio).

Por supuesto, esta pseudociencia no ha probado eficacia más allá del placebo. El ejemplo que me parece más revelador (por su sencillez y contundencia) es el experimento realizado en 1996 por una niña de 9 años, Emily Rosa, que demostró que los practicantes de una variante occidental del reiki no eran capaces de detectar la energía vital que dicen manipular.

El experimento de Emily Rosa. Dibujo: Pat Linse.Emily reunió a veintiún sanadores, que aceptaron ponerse a prueba. De uno en uno, los hizo sentarse en una mesa, de tal forma que la escolar se encontraba enfrentada y separada del sanador por un biombo. El cartón solo dejaba pasar las manos del sanador, pero impidiendo que viera nada más. La niña colocaba entonces su mano encima de una de las del terapeuta, al azar, y anotaba si este era capaz de detectar el supuesto campo energético humano. Los terapeutas acertaron en 123 (44%) de 280 intentos, lo esperado por azar. La niña publicó dos años después los resultados de su investigación en la prestigiosa revista de la Asociación Médica Americana, dejando claro que el toque terapéutico es una patraña.

Cada uno es libre de creer lo que quiera. El problema de que una profesora de universidad promueva el Reiki es que se aprovecha del prestigio social que tienen los científicos para dar credibilidad a su fantasía, y, consciente o inconscientemente, da credibilidad a la práctica en si. La gente puede caer en el argumento de autoridad y pensar, “si un profesor de universidad dice que el Reiki funciona, quién soy yo para contradecirlo”. En la siguiente entrevista a esta señora se aprecia este efecto, ya que el entrevistador alaba su profesión y la utiliza para dar credibilidad a las palabras de la Sra. Diez.

¿Cómo es posible que esto pase en una Universidad del siglo XXI? Si esta mujer quiere practicar y promover el Reiki, una práctica a todas luces irracional, debería dejar de un lado su puesto y su posición. Si no, ¿cómo esperamos que la gente valore la ciencia si la propia universidad mezcla ciencia y pseudociencia?

A mí esta historia me ha dejado un mal sabor de boca, ¿qué opináis?

Anuncios

La música de las estrellas

El Sol canta, a su manera. Y gracias a ese canto podemos conocer su composición y estructura interna. La ciencia que estudia las vibraciones del Sol se denomina Heliosismología, que es una manera elegante de hablar de la información que podemos extraer del Sol escuchándolo.

Por supuesto, estas vibraciones no pueden viajar por vacío del espacio y llegar hasta nosotros. Esta música la percibimos como cambios en el brillo de su superficie. Sin embargo, hay formas de poder escucharla de verdad, si transformamos estas vibraciones de brillo en sonido, como en el siguiente video:

Los astrónomos escuchan los latidos del Sol, las vibraciones de su superficie, y así aprenden cómo es por dentro, de la misma manera que los seismólogos aprenden la composición de la Tierra escuchando los terremotos. Pero estudiar los terremotos de la Tierra es mucho más fácil que estudiar el Sol. El trabajo se podría comparar a adivinar cómo está hecho un piano oyéndolo caerse por las escaleras.

Todos podemos distinguir entre si los sonidos de un tambor, un piano o una campana. Para estudiar el Sol, los instrumentos de los heliosismólogos tienen que ser todavía más precisos, tanto que serían capaces de distinguir el equivalente a la diferencia entre un violín Stradivarius y uno normal: pueden detectar variaciones de brillo de una parte entre 10 millones.

Contrariamente a la intuición, el Sol es prácticamente opaco a la radiación electromagnética. Para que un rayo de luz nos llegue, primero tiene que llegar a su superficie, y no es tarea fácil. Un fotón puede tardar sobre 170,000 años en llegar desde el centro del Sol a la superficie.

Por otro lado, el astro rey es transparente a los neutrinos. Hay varios experimentos que detectan los neutrinos que emanan del Sol, pero su detección es tremendamente complicada, por lo que estudiar la estructura interna de esta manera es poco práctico.

Afortunadamente, sí se pueden detectar fácilmente las ondas de la superficie del Sol, como si fueran las olas de un estanque. Usando estas ondas sonoras, estas vibraciones, podemos ver dentro del Sol, de la misma manera que podemos ver el interior del cuerpo humano con los ultrasonidos.

    Simulacion de las oscilaciones acusticas (modos p) en el Sol.

Simulacion de las oscilaciones acústicas (modos p) en el Sol.

La idea de estudiar las oscilaciones de las estrellas data del siglo XVIII, pero no fue hasta 1960 que los primeros patrones de oscilacion solar fueron medidos por Robert Leighton, Robert Noyes y George Simon.

El Sol está vibrando constantemente, en una sinfonía de modos acústicos superpuestos, como las cuerdas de una guitarra sonando a la vez. El periodo de la oscilación es de unos cuantos minutos y una onda tarda unas pocas horas en atravesar el Sol, a la velocidad de 1 centímetro por segundo.

Dependiendo del modo de oscilación, de la frecuencia a la que resuene el Sol, podremos mirar más o menos dentro del Sol. Los astrónomos están interesados en tres tipos de ondas: las acústicas, las gravitatorias y las ondas de gravedad superficiales. Estas tres ondas generan los llamados modos p, modos g y modos f, respectivamente. Cada modo nos da información de una parte del interior del Sol.

Dependiendo del tipo de oscilación podemos ver a diferente profundidad del Sol, lo que nos da información de su estructura interna.

Dependiendo del tipo de oscilación podemos ver a diferente profundidad del Sol, lo que nos da información de su estructura interna.

El movimiento asociado a los modos f y p se restringen esencialmente a la región exterior del núcleo solar, es decir, las ondas bordean el núcleo de la estrella, por lo que estos modos contienen poca información de las partes más profundas del Sol. Para ver el núcleo necesitamos los modos g, que surgen de la lucha entre la fuerza de la gravedad, que tiende a colapsar la estrella bajo su propio peso, y la presión de radiación, debida a las reacciones de fusión. Estos modos nos muestran el nucleo, pero son muy difíciles de detectar porque, al ser ondas tan profundas, la vibración en la superficie es muy tenue.

Dado el éxito a la hora de entender la dinámica del plasma en el Sol, los astrónomos se plantearon si podrían repetir el procedimiento para otras estrellas. Esto, por supuesto, plantea muchos más problemas, porque las estrellas están infinitamente más lejos que el Sol. Pero esto no es excusa, y en la última década se ha avanzado mucho en esta dirección, en la llamada astrosismología.

El satélite Kepler, el satélite de la NASA lanzado en 2009, famoso por descubrir cientos de planetas extrasolares, ha conseguido captar el sonido de miles de estrellas, lo que nos da información de primera mano sobre su composición. El descubrimiento de nuevos planetas extrasolares se basa en la variación del brillo de la estrella cuando el planeta pasa por delante. Así, conocer la sinfonía de la estrella es crucial para poder detectar planetas.

Detección de planetas extrasolares por el método del tránsito

Detección de planetas extrasolares por el método del tránsito

Gracias a Kepler sabemos que las estrellas grandes vibran en tonos bajos, mientras que las pequeñas lo hacen en tonos altos. Como ejemplo, una de las estrellas mejor estudiadas por Kepler es la gigante roja denominada KIC 11026764. Pocas estrellas en el Universo se conocen con tanta precisión como esta gigante roja. Por cómo oscila sabemos que la estrella tiene 5.94 mil millones de años de edad y que utiliza la fusión del hidrógeno como combustible, además de tener un núcleo rico en helio.

Image

Variación del brillo de las estrellas medido por el satelite Kepler

La misión Kepler anuncia el descubrimiento de 715 nuevos planetas

milesdemillones

20140226-192602.jpg

La NASA está dando en estos momentos una rueda de prensa anunciando los nuevos resultados de los datos almacenados por el telescopio espacial Kepler.

El resultado son 715 nuevos planetas confirmados fuera de nuestro Sistema Solar. Estos nuevos mundos orbitan alrededor de 305 estrellas, es decir la mayoría de ellos pertenecen a sistemas con múltiples planetas. La mayoría son de tamaños relativamente pequeños y orbitan en órbitas circulares y planas muy parecidas a las de los planetas de nuestro sistema solar interior.

Se ha desarrolado una nueva técnica de verificación de planetas candidatos llamada “verificación por multiplicidad” que facilita el descubrimiento de estrellas con más de un planeta alrededor suyo.

Cuatro de los nuevos planetas tienen menos de 2,5 veces el tamaño de nuestra Tierra y además orbitan la zona habitable de sus soles.

Uno de estos nuevos mundos es Kepler-296f, tiene solo dos veces el tamaño de…

Ver la entrada original 135 palabras más

El gobierno de Japón planea reabrir las centrales nucleares

Después del accidente de Fukushima la aceptación de la energía nuclear en el país nipón (y en el mundo) cayó drásticamente. El miedo de la población a sufrir un nuevo accidente provocó que el gobierno japonés cerrara las centrales nucleares que no habían sufrido ningún daño después del accidente de Marzo de 2011. Por supuesto, aunque su objetivo era fomentar las energías renovables, a corto plazo esta decisión disparó los niveles de emisión de gases de efecto invernadero. Desde entonces el país ha vivido un apagón nuclear.

Tres años después, en el marco de un nuevo plan energético, el gobierno ha decidido reabrir esas centrales y construir nuevas, con el objetivo de asegurar el abastecimiento de energía. La decisión ha llegado con polémica, pues muchos lo ven como un cambio en la política energética del país orientada a fomentar las energías renovables.

Susquehanna_steam_electric_stationEl miedo a la energía nuclear tiene su origen, principalmente, en su aplicación en las armas nucleares y los accidentes como Chernobil y Fukushima. Por supuesto, las películas y libros se han encargado de hablarnos de mutantes, apocalipsis, radiación mortal… Pero, ¿son las centrales nuclear más peligrosas que el resto de centrales energéticas?

Recientemente, un grupo de investigadores presentó un estudio en el que concluía que el uso de la energía nuclear en lugar de las fuentes de energía de combustibles fósiles había prevenido la muerte de millones de personas en el mundo (1.84 millones, concretamente), y que podría salvar a muchas otras en las próximas décadas. El estudio se centraba en la ausencia de emisiones de gases de efecto invernadero, lluvia ácida o contaminación del aire. Es decir, si la energía producida por centrales nucleares hubiese sido producida por combustibles fósiles habría 1.84 millones de muertos más.

muertes-energia

Figura basada en el estudio ENSAD (Energy-related Severe Accident Database) del Instituto Suizo Paul Scherrer. Se comparan las tasas de muertes inmediatas por cada gigavatio eléctrico – año producido, basadas en la experiencia histórica de accidentes graves ocurridos en el periodo 1969-2000. Nótese que la escala vertical es logarítmica. Las tasas de gases licuados de petróleo (LPG) son las más altas, incluso en los países de la OCDE y del grupo EU15. En el caso de la energía nuclear, todas las muertes corresponden al accidente de Chernóbil. La tabla no incluye las muertes latentes que puedan producirse, por ejemplo, por la contaminación resultante de la combustión de carbón u otros combustibles fósiles, o por los efectos posteriores de la radiactividad producida en Chernóbil. (via http://pendientedemigracion.ucm.es/info/otri/cult_cient/infocientifica/201103_04not.htm)

¿Y qué pasa con los residuos nucleares? Claramente, es un tema polémico. Nadie quiere tener cerca residuos que pueden ser peligrosos. Hay una gran cantidad de campañas y movimientos que avisan del riesgo potencial de los residuos radiactivos de larga vida producidos en las centrales nucleares. Sin embargo, estos cementerios están especialmente diseñados para no tener fugas. Los residuos, que no son mucha cantidad,se entierran a gran profundidad. Los residuos de la quema del carbón, por otro lado, son mucho más peligrosos. Primero, porque se emiten al aire y quedan en el suelo. Segundo porque son más dañinos. Estos residuos incluyen berilio, cadmio, arsénico, níquel y cromo; elementos cancerígenos que, a diferencia de los residuos nucleares, sí duran para siempre. Además, el carbón también contiene cantidades de uranio, como impurezas, que es una fuente de emisión del radón. Como en las centrales nucleares se consume el uranio, se previene la muerte por exposición a gas radón.

En la siguiente tabla os muestro las muertes eventuales causadas por los residuos de una planta generadora de 1000 MW–año de energía eléctrica:

Nuclear

Residuos de alta actividad …………..0.018

Emisión de Radón…………………. -420*

Emisión de rutinas (Xe,C-14,Cr,H-3) …..0.3

Residuos de baja actividad …………..0.0004

Carbón

Contaminación del aire ………………75

Emisión de Radón…………………… 30

Cancerígenos químicos………………..70

Solar

Carbón para materiales (acero,vidrio,aluminio)……………. 3

Sulfúrico de Cadmio(si es usado) ……..80

* El numero negativo significa cantidad de muertes evitadas y no causadas

Por supuesto, estos datos contrastan el uso de energía nuclear frente a combustibles fósiles. El uso de energías renovables no está contemplado y, aunque no están libres de riesgos, pueden ser una alternativa en un futuro.

Como conclusión, no hay que tener tanto miedo a la energía nuclear. Es una tecnología con décadas de historia. Desafortunadamente, no está exenta de accidentes, pero están mucho más controlados y producen menos daños que el resto de accidentes en centrales energéticas. Desgraciadamente, se les da más publicidad negativa.

Descubriendo el LHC: juego de imanes

El Gran Colisionador de Hadrones (LHC) del CERN (Ginebra) es a día de hoy el acelerador de partículas más grande del mundo. A lo largo de sus casi 27 km de circunferencia, dos haces de protones viajando en sentidos contrarios son acelerados hasta unas 0.999999991 veces la velocidad de la luz hasta una energía de 7 TeV cada uno (marca que se alcanzará a partir de diciembre de 2014).

Tunel del LHC con el detalle de un dipolo

Tunel del LHC con el detalle de un dipolo

Cada haz está compuesto por 280 trillones de protones, organizados en 2808 paquetes formando una especie de racimo o collar de cuentas (es decir, el haz no es continuo, sino que va por impulsos). La energía combinada de tantos protones es brutal. Para hacernos una idea, cada haz lleva una energía igual a la de un tren de alta velocidad viajando a 200 kilometros por hora (362 megajulios), concentrada en escasos milímetros.

Esta energía tiene el potencial peligro de destruir cualquier cosa que toque, por lo que la manipulación de los haces debe ser lo más precisa posible. Entonces, ¿cómo controlamos los protones sin reventar ningun elemento por el camino? Pues consiguiendo que mientras viajan a toda velocidad por el tunel oscilen en el plano perpendicular.

Movimiento betatron de los protones en el LHC, entre los experimentos ATLAS y ALICE (simulado con SixTrack).

Movimiento betatrón de los protones en el LHC, entre los experimentos ATLAS y ALICE. Cada punto es un protón. Simulación de 2000 protones, imagínate con 280 trillones.

Y ¿cómo conseguimos este movimiento tan hipnótico? La respuesta es con campos magnéticos. El LHC utiliza unos 6500 imanes superconductores, que deben mantenerse a una temperatura inferior a la del Espacio Exterior (1,9 K o -271 C).

El acelerador se diseña alrededor de una trayectoria de referencia. Ésta consta de secciones rectas y zonas curvas. Las secciones rectas son necesarias para colocar los detectores de partículas y ensamblar otros componentes (colimadores, dump, etc).

Esquema del LHC, donde se aprecian las secciones curvas y las secciones rectas.

Esquema del LHC, donde se aprecian las secciones curvas y las secciones rectas.

Para entender el movimiento de los protones en un acelerador circular necesitamos como mínimo dos tipos de imanes. Por un lado, los dipolos son imanes que producen un campo magnético uniforme. Son los encargados de desviar la trayectoria de los protones, haciendo que describan una órbita cerrada.  

Esquema de un proton siendo desviado por un dipolo

Esquema de un protón siendo desviado por un dipolo

Los aceleradores lineales son muy limitados tanto en fase de aceleración como en tamaño. Los aceleradores circulares son más versátiles, pero nos vemos en la obligación de introducir componentes que curven el haz, obligándolo a mantenerse dentro del túnel. El LHC tiene 1232 dipolos de unos 15 metros cada uno, que tuercen la dirección del haz ligeramente hasta que éste realiza una vuelta completa.

Dipolos del LHC. Cada cilindro lleva un haz de protones en un sentido.

Dipolos del LHC. Cada cilindro lleva un haz de protones en un sentido.

Pero con esto no tenemos todo. Debido a posibles errores, perturbaciones o
directamente a que no todas las partículas se curvan por igual, se puede perder el haz
rápidamente al salir de las zonas de curvado, como sucedería con un láser. Por ello
necesitamos cuadrupolos para enfocar o desenfocar el haz y poder manipularlo mejor.  Así evitamos que los protones se dispersen y colisionen con las paredes.

Analogo optico al efecto de los cuadrupolos sobre el haz.

Análogo óptico al efecto de los cuadrupolos sobre el haz.

Nos gustaría obtener fuerzas del tipo oscilador armónico para mantener las partículas oscilando alrededor de la trayectoria de referencia, como en la animacion que mostré más arriba. Los cuadrupolos nos dan exactamente esto, pues sus campos magnéticos dependen linealmente de las coordenadas. Con esto obtenemos un efecto similar a un juego de lentes.

Cuadrupolo de enfoque y desenfoque. Observa que cuando el cuadrupolo enfoca en una direccion, desenfoca en la otra.

Cuadrupolo de enfoque y desenfoque. Observa que cuando el cuadrupolo enfoca en una direccion, desenfoca en la otra.

Según los signos de los campos magnéticos en una u otra dirección obtendremos cuadrupolos de enfoque o cuadrupolos de desenfoque. Usando una combinación de ambos solucionamos nuestro problema de movimiento inestable. Mantendremos el haz enfocado en ambas direcciones transversales cuando elijamos bien la fuerza, tipo y posición de los cuadrupolos en el acelerador.

Cuadrupolo del LHC. Se aprecian los cuatro imanes dispuestos en forma de cruz.

Cuadrupolo del LHC. Se aprecian los cuatro imanes dispuestos en forma de cruz.

El movimiento oscilatorio en el plano perpendicular a la dirección de movimiento del haz se conoce como movimiento u oscilación de betatrón. Este nombre tiene su origen en los estudios de estabilidad de las orbitas en los antiguos betatrones, los aceleradores de electrones desarrollados en los años 40 del siglo pasado.

Los protones describen un movimiento de oscilacion alrededor de la posicion de equilibrio

Los protones describen un movimiento de oscilación alrededor de la posicion de equilibrio

Por supuesto, sólo con estos dos tipos de imanes no podríamos construir un acelerador estable. Hay muchos otros tipos de imanes en los aceleradores circulares, como los sextupolos, octupolos, y otros multipolos de orden superior. Son imanes más complicados que solucionan problemas concretos de la manipulación del haz, como la aberración cromática, las distorsiones en los campos magnéticos, las correcciones en la órbita cerrada… Pero eso lo dejaremos para otra ocasión.

Las lentes gravitacionales encuentran la “masa perdida” de los cúmulos galácticos

Image

Diferencias en la temperatura del fondo cósmico de microondas (CMB) medidos por el satélite Planck.

Cuando el Universo contaba solamente con 380.000 años su temperatura bajó lo suficiente para a los electrones les saliera energéticamente rentable unirse a los protones, formando átomos de hidrógeno. En este momento, los átomos fueron neutros y los fotones, que antes se movían lentamente por el plasma de partículas cargadas, pudieron viajar libremente por el espacio, llevándose consigo la información de la estructura del Universo Primigenio. Ese fondo de fotones sigue con nosotros hasta ahora y, debido a la expansión del Universo, su energía se ha movido al rango de las microondas (por eso se conoce como fondo cósmico de microondas o CMB por sus siglas en inglés).

La imagen más detallada del CMB nos la ha proporcionado el satélite Planck, lanzado por la Agencia Espacial Europea en 2009. Sus resultados muestran un Universo casi uniforme, que cuadra con la teoría inflaccionaria de la Cosmología, que dice que el Universo sufrió una expansión exponencial (inflacción) poco después del Big Bang. Las pequeñas diferencias de temperatura en el CMB son el resultado de las fluctuaciones cuánticas en la densidad de la bola de plasma caliente que era por entonces el Cosmos. Esos minúsculos cambios en la densidad crecieron a lo largo de los millones de años de expansión, dando lugar a los cúmulos de galaxias que vemos hoy en día.

Sin embargo, cuando el año pasado se dieron a conocer los resultados de Planck, los investigadores se dieron cuenta de que alrededor del 40% de la masa de los cúmulos galácticos visibles hoy en día no aparecía cuando se comparaba con la que cabría esperar a partir de las fluctuaciones medidas en el CMB. Es decir, debería haber más masa de la que vemos si tomamos como referencia los datos de Planck. Esta discrepancia rápidamente se vio como una señal de Física más allá del Modelo Estándar, y numerosas explicaciones aparecieron para solventar el problema, como neutrinos fantasma, nuevas partículas, etc.

Imagen de lente gravitacional cortesía de la NASA, ESA, M. Postman (STScI) y el CLASH Team

Imagen de lente gravitacional cortesía de la NASA, ESA, M. Postman (STScI) y el CLASH Team

Sin embargo, un artículo aparecido la semana pasada en arXiv sugiere que los cúmulos galácticos tienen en realidad más masa que la estimada por Planck, por lo que los datos pueden ser explicados sin recurrir a Física exótica. El artículo técnico es A. von der Linden et al. http://arxiv.org/abs/1402.2670. Los autores usan la técnica de lentes gravitacionales para medir la masa de los cúmulos, obteniendo un método más fiable que el utilizado en Planck, que se basa en el efecto de Sunyaev-Zel’dovich.

Medida de la masa de los cúmulos galácticos usando Sunyaev-Zel'dovich y lentes gravitacionales.

Medida de la masa de los cúmulos galácticos usando Sunyaev-Zel’dovich y lentes gravitacionales.

El efecto Sunyaev-Zel’dovich (SZ) se produce cuando los fotones, en este caso los del CMB, ganan energía al atravesar un gas de electrones energéticos. Esta ganancia de energía se puede correlacionar con la masa de las galaxias en el cúmulo, ya que a mayor masa del cúmulo más capacidad de atrapar gas caliente, pero tiene un error asociado nada despreciable.

Por su parte, el trabajo de Von der Linder ha utilizado el telescopio Subaru y el telescopio Canada-France-Hawaii, ambos en el monte Mauna Kea (Hawaii), para medir la distorsión de la luz alrededor de los cúmulos. La Relatividad General predice que la luz se curva en presencia de grandes masas, lo que se conoce como lentes gravitacionales. Midiendo esta curvatura se obtiene una predicción mucho más fiable de la masa total del cúmulo. Los investigadores midieron 22 cúmulos de galaxias, con masas alrededor de 10^{15} masas solares en promedio, unas 1000 veces mayor que la masa de la Vía Lactea, y obtuvieron un valor un 43% mayor que el de Planck.

Habrá que esperar a futuros estudios con técnicas similares y mayores cúmulos, para ver si así se soluciona la discrepancia con los datos de Planck. Sin embargo, aunque no existiera discrepancia, el estudio de la evolución de los cúmulos galácticos seguiría siendo importante, pues gracias a ello podemos conocer si el efecto de la energía oscura, esa misteriosa fuerza repulsiva que provoca la aceleración de la expansión del Universo, ha cambiado con el tiempo o no.

Noticia extraída de Nature.com

Los casinos de Monte Carlo y la Física

Casino de Monte Carlo

Casino de Monte Carlo

Ciertamente, la financiación de la ciencia no esta en sus mejores momentos, e incluso hay investigadores que han tenido que recurrir a programas de televisión para conseguir dinero para sus investigaciones. Pero yo al menos, afortunadamente, no he tenido que recurrir al casino para ganarme el sueldo. Aunque el título huela a dinero, este post va por otro camino. Si menciono la ciudad del Principado de Mónaco es por la técnica para simular procesos complejos, que toma su nombre de la ciudad famosa por sus casinos.

Las simulaciones Monte Carlo acoge en un mismo nombre una gran cantidad de algoritmos computacionales basados en utilizar números aleatorios (mejor dicho, pseudoaleatorios) para obtener la solución a un problema complejo, simulando el mismo problema con diferentes condiciones iniciales para conseguir la distribución de probabilidad de la cantidad que se quiera obtener. De hecho, es lo mismo que hacemos al apostar en una ruleta del casino, con resultados más o menos desastrosos para nuestros bolsillos.

Una máquina de pinball de 1995: ``Theatre of magic''. via Wikipedia.

Una máquina de pinball de 1995: “Theatre of magic”. via Wikipedia.

Pongamos un ejemplo. Supongamos que tenemos un pinball y queremos calcular la probabilidad de que la bola de pinball caiga directamente entre las dos paletas sin que podamos intervenir. La dinámica de este sistema es demasiado complicada como para ser analizada desde un punto de vista analítico. Las mínimas variaciones en la energía, posición o dirección del lanzamiento inicial podrían hacer caer a la bola en un lugar completamente diferente. Haría falta entonces repetir el experimento de lanzar la bola numerosas veces con un pinball real y anotar cuidadosamente los resultados. Sin embargo, este experimento requeriría, primero, de un paintball real, de mucho tiempo (libre) y no podríamos saber si el hecho de colocar un elemento adicional en el tablero cambiaría la probabilidad o no.

La alternativa es hacer un experimento virtual, una simulación de Monte Carlo. En este ejemplo, el procedimiento sería desarrollar un programa que simule el paintball, reproduciendo la interacción de la bola con todos los elementos del tablero. A continuación, lanzaríamos virtualmente numerosas bolas con diferentes energías, posiciones y direcciones. La precisión del resultado (el número de veces que la bola pasa a través de las paletas, de forma que el jugador no pueda jugar, dividido por el número de disparos realizados) dependerá del número de lanzamientos efectuados. Cuando se ha realizado un número suficientemente grande de eventos (la estadística es suficientemente grande), es posible hacer medidas, lo que consiste en simular la respuesta de nuestros detectores o instrumentos de medida a la serie de eventos generados. Por ejemplo, es posible medir el número medio de colisiones con un elemento del tablero, o incluso medir (siempre virtualmente), la energía disipada de media por la bola en la colisión con un elemento. Medida, esta última, que será muy difícil de realizar con una experiencia real.

Aunque Enrico Fermi ya planteo este metodo en 1930, oficialmente los orígenes del método de Monte Carlo se remontan a 1946. En el laboratorio de Los Alamos (epicentro del Proyecto Manhattan donde se desarrollo la bomba atómica) los físicos John von Neumann y Stanislaw Ulam  estudiaban el transporte de neutrones a través de materiales para mejorar la protección ante la radiación. La ecuación de transporte que describe el proceso es tremendamente complicada, imposible de resolver analíticamente para casos realistas. Un dia, Ulam estaba enfermo, pasando el rato jugando al solitario, cuando se pregunto cuál era la probabilidad de obtener las 52 cartas en el orden correcto. Lo intento con cálculo probabilístico, pero al final se le ocurrió utilizar números aleatorios para resolver el problema. La aplicación de este método al problema de transporte de neutrones fue inmediata. El nombre de Monte Carlo le fue asignado más tarde por Nicholas Metropolis, en referencia a la tradición de juegos de azar del Principado. La difusión de la técnica de simulación ha seguido, claramente, a la de los ordenadores y está hoy en día prácticamente omnipresente en los experimentos de física.

Al igual que sucede en nuestro experimiento de pinball, en los experimentos reales
las simulaciones Monte Carlo se utilizan ampliamente desde la concepción de un experimento, para evaluar cuáles serán las características que el experimiento deberá tener para poder medir las cantidades deseadas. Posteriormente son utilizadas para concebir y optimizar los detectores y para interpretar las señales. Por ejemplo, en la figura  de abajo se representan los datos experimentales medidos durante el experimento ATLAS y las predicciones de la simulación Monte Carlo.

En negro se representan los datos medidos a través del experimento ATLAS,  en rojo y en violeta las predicciones de la simulación Monte Carlo de eventos debidos a otros procesos ya conocidos,  en verde la diferencia entre la predicción de la simulación y los datos efectivamente medidos.  El excedente es compatible con la señal que será obtenida si estuviera producida por el bosón de Higgs y  si este tuviera una masa de 125 GeV, como vemos en la simulación en azul.

En negro se representan los datos medidos a través del experimento ATLAS, en rojo y en violeta las predicciones de la simulación Monte Carlo de eventos debidos a otros procesos ya conocidos, en verde la diferencia entre la predicción de la simulación y los datos efectivamente medidos. El excedente es compatible con la señal que será obtenida si estuviera producida por el bosón de Higgs y si este tuviera una masa de 125 GeV, como vemos en la simulación en azul.

Evidentemente, es esencial que la simulación reproduzca de la forma más exacta posible los datos que serán producidos durante la adquisicion de datos experimental. Si no, sería casi imposible reconstruir los procesos que los han generado a partir de las señales producidas por los detectores. Así, el uso de simulaciones numéricas para reconstruir los eventos que generan las señales son imprescindibles.

Para obtener simulaciones realistas, se han desarrollado numerosos programas a lo largo de los años, dependiendo del problema que se quiera resolver. Cuando se trata de simulaciones dedicadas a experimentos de Física de Partículas, estos programas (como FLUKA, Geant4, MCNPX,…) simulan lo que sucede en millones de interacciones en las cuales, en función de la energía implicada, las partículas puede ser aniquiladas o creadas, y se describe el transporte y las interacciones de las partículas con los átomos del material.

Además de en la investigación básica, las técnicas de Monte Carlo se aplican actualmente en prácticamente todos los campos de la ciencia, desde la Biología a las Telecomunicaciones, en las Matemáticas y, por supuesto, en la Física Médica. En particular, la utilización de códigos de transporte Monte Carlo es muy importante en numerosas etapas del tratamiento del cáncer mediante radioterapia.

El transporte de partículas a través de los tejidos del cuerpo es complejo, no solamente debido a la complejidad de describirlo a través de la resolución de la ecuación de transporte de Boltzman, sino también por la heterogeneidad intrínseca del cuerpo humano. La Física Médica utiliza sobre todo sistemas de Planificación de Tratamiento (TPS por sus siglas en ingles), programas especializados basados en modelos analíticos que ayudan a obtener una distribución tridimensional de la dosis a administrar al paciente.

En algunos casos, las soluciones analíticas aproximadas pueden ser útiles. De hecho, para la radioterapia tradicional basada en rayos X y electrones, estas soluciones son bastante rápidas y precisas. No obstante, en los últimos decenios, la utilización de protones y de iones está surgiendo como alternativa.

Por supuesto, la localización exacta del lugar donde la dosis se libera es esencial para este tipo de tratamiento y una simulación de Monte Carlo es la herramienta ideal para hacer este tipo de predicciones, sobre todo para aquello que concierne a iones pesados como el carbono, que además de interaccionar con el medio, puede fragmentarse.

Esquema de la fragmentación del carbono.

Esquema de la fragmentación del carbono.

La predicción de la fragmentación del carbono, que constituye parte de nuestro trabajo,
es uno de los puntos sobre los cuales se concentra la investigación. Su importancia deriva del hecho de que la fragmentación del carbono falsea la dosis liberada,
ya que los fragmentos se crean y viajan por el cuerpo. Por otro lado, se busca una forma de utilizar estos fragmentos para obtener imágenes en tiempo real de la zona afectada para permitir el control directo del emplazamiento y de la cantidad de dosis liberada en el paciente.

Comparación entre la dosis administrada por un software numérico y un código Monte Carlo (FLUKA)  en el caso donde existan implantes metálicos. Imagen: K. Parodi et al, IJROBP 2007.

Comparación entre la dosis administrada predicha por un software numérico analitico (TPS) y el código Monte Carlo FLUKA en el caso donde existan implantes metálicos. Imagen: K. Parodi et al, IJROBP 2007.

La utilización de simulaciones de Monte Carlo para verificar la dosis depositada en el
paciente es particularmente importante en el caso de cambios bruscos de densidad,
por ejemplo en la proximidad de los pulmones o si existen implantes metálicos, como vemos en la figura.

En conclusión, la técnica de Monte Carlo permite simular procesos que son muy complejos como para poderse tratar de forma analítica. En lo concerniente a la hadronterapia, las simulaciones de Monte Carlo se utilizan tanto en la investigación como en las clínicas para diseñar experimentos, en pantallas protectoras y en procedimientos de seguridad, para verificar los planes de tratamiento a estudiar de nuevas técnicas para la evaluación de los tratamientos.

Accastampato es una iniciativa de divulgación realizado por estudiantes de Física de la Universidad la Sapienza de Roma, con el objetivo de mostrar al público no especializado y los estudiantes de instituto diversos temas de investigación, explicados de una manera sencilla y amena. Gracias al esfuerzo de sus editores, la revista se traduce actualmente al italiano, inglés, francés y español. La idea es enviar partidas de la revista a diversos institutos de Italia, Francia y España, aunque la financiación a veces es insuficiente. Por fortuna, la revista se puede descargar gratuitamente de su página web, y os invito a descargarla o leerla online.

Este post esta basado en una colaboración que realice junto con Carlo Mancini Terracciano para su último número “Los átomos que curan“, dedicado a la Física aplicada a la Medicina.