La misión Kepler anuncia el descubrimiento de 715 nuevos planetas

milesdemillones

20140226-192602.jpg

La NASA está dando en estos momentos una rueda de prensa anunciando los nuevos resultados de los datos almacenados por el telescopio espacial Kepler.

El resultado son 715 nuevos planetas confirmados fuera de nuestro Sistema Solar. Estos nuevos mundos orbitan alrededor de 305 estrellas, es decir la mayoría de ellos pertenecen a sistemas con múltiples planetas. La mayoría son de tamaños relativamente pequeños y orbitan en órbitas circulares y planas muy parecidas a las de los planetas de nuestro sistema solar interior.

Se ha desarrolado una nueva técnica de verificación de planetas candidatos llamada “verificación por multiplicidad” que facilita el descubrimiento de estrellas con más de un planeta alrededor suyo.

Cuatro de los nuevos planetas tienen menos de 2,5 veces el tamaño de nuestra Tierra y además orbitan la zona habitable de sus soles.

Uno de estos nuevos mundos es Kepler-296f, tiene solo dos veces el tamaño de…

Ver la entrada original 135 palabras más

El gobierno de Japón planea reabrir las centrales nucleares

Después del accidente de Fukushima la aceptación de la energía nuclear en el país nipón (y en el mundo) cayó drásticamente. El miedo de la población a sufrir un nuevo accidente provocó que el gobierno japonés cerrara las centrales nucleares que no habían sufrido ningún daño después del accidente de Marzo de 2011. Por supuesto, aunque su objetivo era fomentar las energías renovables, a corto plazo esta decisión disparó los niveles de emisión de gases de efecto invernadero. Desde entonces el país ha vivido un apagón nuclear.

Tres años después, en el marco de un nuevo plan energético, el gobierno ha decidido reabrir esas centrales y construir nuevas, con el objetivo de asegurar el abastecimiento de energía. La decisión ha llegado con polémica, pues muchos lo ven como un cambio en la política energética del país orientada a fomentar las energías renovables.

Susquehanna_steam_electric_stationEl miedo a la energía nuclear tiene su origen, principalmente, en su aplicación en las armas nucleares y los accidentes como Chernobil y Fukushima. Por supuesto, las películas y libros se han encargado de hablarnos de mutantes, apocalipsis, radiación mortal… Pero, ¿son las centrales nuclear más peligrosas que el resto de centrales energéticas?

Recientemente, un grupo de investigadores presentó un estudio en el que concluía que el uso de la energía nuclear en lugar de las fuentes de energía de combustibles fósiles había prevenido la muerte de millones de personas en el mundo (1.84 millones, concretamente), y que podría salvar a muchas otras en las próximas décadas. El estudio se centraba en la ausencia de emisiones de gases de efecto invernadero, lluvia ácida o contaminación del aire. Es decir, si la energía producida por centrales nucleares hubiese sido producida por combustibles fósiles habría 1.84 millones de muertos más.

muertes-energia

Figura basada en el estudio ENSAD (Energy-related Severe Accident Database) del Instituto Suizo Paul Scherrer. Se comparan las tasas de muertes inmediatas por cada gigavatio eléctrico – año producido, basadas en la experiencia histórica de accidentes graves ocurridos en el periodo 1969-2000. Nótese que la escala vertical es logarítmica. Las tasas de gases licuados de petróleo (LPG) son las más altas, incluso en los países de la OCDE y del grupo EU15. En el caso de la energía nuclear, todas las muertes corresponden al accidente de Chernóbil. La tabla no incluye las muertes latentes que puedan producirse, por ejemplo, por la contaminación resultante de la combustión de carbón u otros combustibles fósiles, o por los efectos posteriores de la radiactividad producida en Chernóbil. (via http://pendientedemigracion.ucm.es/info/otri/cult_cient/infocientifica/201103_04not.htm)

¿Y qué pasa con los residuos nucleares? Claramente, es un tema polémico. Nadie quiere tener cerca residuos que pueden ser peligrosos. Hay una gran cantidad de campañas y movimientos que avisan del riesgo potencial de los residuos radiactivos de larga vida producidos en las centrales nucleares. Sin embargo, estos cementerios están especialmente diseñados para no tener fugas. Los residuos, que no son mucha cantidad,se entierran a gran profundidad. Los residuos de la quema del carbón, por otro lado, son mucho más peligrosos. Primero, porque se emiten al aire y quedan en el suelo. Segundo porque son más dañinos. Estos residuos incluyen berilio, cadmio, arsénico, níquel y cromo; elementos cancerígenos que, a diferencia de los residuos nucleares, sí duran para siempre. Además, el carbón también contiene cantidades de uranio, como impurezas, que es una fuente de emisión del radón. Como en las centrales nucleares se consume el uranio, se previene la muerte por exposición a gas radón.

En la siguiente tabla os muestro las muertes eventuales causadas por los residuos de una planta generadora de 1000 MW–año de energía eléctrica:

Nuclear

Residuos de alta actividad …………..0.018

Emisión de Radón…………………. -420*

Emisión de rutinas (Xe,C-14,Cr,H-3) …..0.3

Residuos de baja actividad …………..0.0004

Carbón

Contaminación del aire ………………75

Emisión de Radón…………………… 30

Cancerígenos químicos………………..70

Solar

Carbón para materiales (acero,vidrio,aluminio)……………. 3

Sulfúrico de Cadmio(si es usado) ……..80

* El numero negativo significa cantidad de muertes evitadas y no causadas

Por supuesto, estos datos contrastan el uso de energía nuclear frente a combustibles fósiles. El uso de energías renovables no está contemplado y, aunque no están libres de riesgos, pueden ser una alternativa en un futuro.

Como conclusión, no hay que tener tanto miedo a la energía nuclear. Es una tecnología con décadas de historia. Desafortunadamente, no está exenta de accidentes, pero están mucho más controlados y producen menos daños que el resto de accidentes en centrales energéticas. Desgraciadamente, se les da más publicidad negativa.

Descubriendo el LHC: juego de imanes

El Gran Colisionador de Hadrones (LHC) del CERN (Ginebra) es a día de hoy el acelerador de partículas más grande del mundo. A lo largo de sus casi 27 km de circunferencia, dos haces de protones viajando en sentidos contrarios son acelerados hasta unas 0.999999991 veces la velocidad de la luz hasta una energía de 7 TeV cada uno (marca que se alcanzará a partir de diciembre de 2014).

Tunel del LHC con el detalle de un dipolo

Tunel del LHC con el detalle de un dipolo

Cada haz está compuesto por 280 trillones de protones, organizados en 2808 paquetes formando una especie de racimo o collar de cuentas (es decir, el haz no es continuo, sino que va por impulsos). La energía combinada de tantos protones es brutal. Para hacernos una idea, cada haz lleva una energía igual a la de un tren de alta velocidad viajando a 200 kilometros por hora (362 megajulios), concentrada en escasos milímetros.

Esta energía tiene el potencial peligro de destruir cualquier cosa que toque, por lo que la manipulación de los haces debe ser lo más precisa posible. Entonces, ¿cómo controlamos los protones sin reventar ningun elemento por el camino? Pues consiguiendo que mientras viajan a toda velocidad por el tunel oscilen en el plano perpendicular.

Movimiento betatron de los protones en el LHC, entre los experimentos ATLAS y ALICE (simulado con SixTrack).

Movimiento betatrón de los protones en el LHC, entre los experimentos ATLAS y ALICE. Cada punto es un protón. Simulación de 2000 protones, imagínate con 280 trillones.

Y ¿cómo conseguimos este movimiento tan hipnótico? La respuesta es con campos magnéticos. El LHC utiliza unos 6500 imanes superconductores, que deben mantenerse a una temperatura inferior a la del Espacio Exterior (1,9 K o -271 C).

El acelerador se diseña alrededor de una trayectoria de referencia. Ésta consta de secciones rectas y zonas curvas. Las secciones rectas son necesarias para colocar los detectores de partículas y ensamblar otros componentes (colimadores, dump, etc).

Esquema del LHC, donde se aprecian las secciones curvas y las secciones rectas.

Esquema del LHC, donde se aprecian las secciones curvas y las secciones rectas.

Para entender el movimiento de los protones en un acelerador circular necesitamos como mínimo dos tipos de imanes. Por un lado, los dipolos son imanes que producen un campo magnético uniforme. Son los encargados de desviar la trayectoria de los protones, haciendo que describan una órbita cerrada.  

Esquema de un proton siendo desviado por un dipolo

Esquema de un protón siendo desviado por un dipolo

Los aceleradores lineales son muy limitados tanto en fase de aceleración como en tamaño. Los aceleradores circulares son más versátiles, pero nos vemos en la obligación de introducir componentes que curven el haz, obligándolo a mantenerse dentro del túnel. El LHC tiene 1232 dipolos de unos 15 metros cada uno, que tuercen la dirección del haz ligeramente hasta que éste realiza una vuelta completa.

Dipolos del LHC. Cada cilindro lleva un haz de protones en un sentido.

Dipolos del LHC. Cada cilindro lleva un haz de protones en un sentido.

Pero con esto no tenemos todo. Debido a posibles errores, perturbaciones o
directamente a que no todas las partículas se curvan por igual, se puede perder el haz
rápidamente al salir de las zonas de curvado, como sucedería con un láser. Por ello
necesitamos cuadrupolos para enfocar o desenfocar el haz y poder manipularlo mejor.  Así evitamos que los protones se dispersen y colisionen con las paredes.

Analogo optico al efecto de los cuadrupolos sobre el haz.

Análogo óptico al efecto de los cuadrupolos sobre el haz.

Nos gustaría obtener fuerzas del tipo oscilador armónico para mantener las partículas oscilando alrededor de la trayectoria de referencia, como en la animacion que mostré más arriba. Los cuadrupolos nos dan exactamente esto, pues sus campos magnéticos dependen linealmente de las coordenadas. Con esto obtenemos un efecto similar a un juego de lentes.

Cuadrupolo de enfoque y desenfoque. Observa que cuando el cuadrupolo enfoca en una direccion, desenfoca en la otra.

Cuadrupolo de enfoque y desenfoque. Observa que cuando el cuadrupolo enfoca en una direccion, desenfoca en la otra.

Según los signos de los campos magnéticos en una u otra dirección obtendremos cuadrupolos de enfoque o cuadrupolos de desenfoque. Usando una combinación de ambos solucionamos nuestro problema de movimiento inestable. Mantendremos el haz enfocado en ambas direcciones transversales cuando elijamos bien la fuerza, tipo y posición de los cuadrupolos en el acelerador.

Cuadrupolo del LHC. Se aprecian los cuatro imanes dispuestos en forma de cruz.

Cuadrupolo del LHC. Se aprecian los cuatro imanes dispuestos en forma de cruz.

El movimiento oscilatorio en el plano perpendicular a la dirección de movimiento del haz se conoce como movimiento u oscilación de betatrón. Este nombre tiene su origen en los estudios de estabilidad de las orbitas en los antiguos betatrones, los aceleradores de electrones desarrollados en los años 40 del siglo pasado.

Los protones describen un movimiento de oscilacion alrededor de la posicion de equilibrio

Los protones describen un movimiento de oscilación alrededor de la posicion de equilibrio

Por supuesto, sólo con estos dos tipos de imanes no podríamos construir un acelerador estable. Hay muchos otros tipos de imanes en los aceleradores circulares, como los sextupolos, octupolos, y otros multipolos de orden superior. Son imanes más complicados que solucionan problemas concretos de la manipulación del haz, como la aberración cromática, las distorsiones en los campos magnéticos, las correcciones en la órbita cerrada… Pero eso lo dejaremos para otra ocasión.

Las lentes gravitacionales encuentran la “masa perdida” de los cúmulos galácticos

Image

Diferencias en la temperatura del fondo cósmico de microondas (CMB) medidos por el satélite Planck.

Cuando el Universo contaba solamente con 380.000 años su temperatura bajó lo suficiente para a los electrones les saliera energéticamente rentable unirse a los protones, formando átomos de hidrógeno. En este momento, los átomos fueron neutros y los fotones, que antes se movían lentamente por el plasma de partículas cargadas, pudieron viajar libremente por el espacio, llevándose consigo la información de la estructura del Universo Primigenio. Ese fondo de fotones sigue con nosotros hasta ahora y, debido a la expansión del Universo, su energía se ha movido al rango de las microondas (por eso se conoce como fondo cósmico de microondas o CMB por sus siglas en inglés).

La imagen más detallada del CMB nos la ha proporcionado el satélite Planck, lanzado por la Agencia Espacial Europea en 2009. Sus resultados muestran un Universo casi uniforme, que cuadra con la teoría inflaccionaria de la Cosmología, que dice que el Universo sufrió una expansión exponencial (inflacción) poco después del Big Bang. Las pequeñas diferencias de temperatura en el CMB son el resultado de las fluctuaciones cuánticas en la densidad de la bola de plasma caliente que era por entonces el Cosmos. Esos minúsculos cambios en la densidad crecieron a lo largo de los millones de años de expansión, dando lugar a los cúmulos de galaxias que vemos hoy en día.

Sin embargo, cuando el año pasado se dieron a conocer los resultados de Planck, los investigadores se dieron cuenta de que alrededor del 40% de la masa de los cúmulos galácticos visibles hoy en día no aparecía cuando se comparaba con la que cabría esperar a partir de las fluctuaciones medidas en el CMB. Es decir, debería haber más masa de la que vemos si tomamos como referencia los datos de Planck. Esta discrepancia rápidamente se vio como una señal de Física más allá del Modelo Estándar, y numerosas explicaciones aparecieron para solventar el problema, como neutrinos fantasma, nuevas partículas, etc.

Imagen de lente gravitacional cortesía de la NASA, ESA, M. Postman (STScI) y el CLASH Team

Imagen de lente gravitacional cortesía de la NASA, ESA, M. Postman (STScI) y el CLASH Team

Sin embargo, un artículo aparecido la semana pasada en arXiv sugiere que los cúmulos galácticos tienen en realidad más masa que la estimada por Planck, por lo que los datos pueden ser explicados sin recurrir a Física exótica. El artículo técnico es A. von der Linden et al. http://arxiv.org/abs/1402.2670. Los autores usan la técnica de lentes gravitacionales para medir la masa de los cúmulos, obteniendo un método más fiable que el utilizado en Planck, que se basa en el efecto de Sunyaev-Zel’dovich.

Medida de la masa de los cúmulos galácticos usando Sunyaev-Zel'dovich y lentes gravitacionales.

Medida de la masa de los cúmulos galácticos usando Sunyaev-Zel’dovich y lentes gravitacionales.

El efecto Sunyaev-Zel’dovich (SZ) se produce cuando los fotones, en este caso los del CMB, ganan energía al atravesar un gas de electrones energéticos. Esta ganancia de energía se puede correlacionar con la masa de las galaxias en el cúmulo, ya que a mayor masa del cúmulo más capacidad de atrapar gas caliente, pero tiene un error asociado nada despreciable.

Por su parte, el trabajo de Von der Linder ha utilizado el telescopio Subaru y el telescopio Canada-France-Hawaii, ambos en el monte Mauna Kea (Hawaii), para medir la distorsión de la luz alrededor de los cúmulos. La Relatividad General predice que la luz se curva en presencia de grandes masas, lo que se conoce como lentes gravitacionales. Midiendo esta curvatura se obtiene una predicción mucho más fiable de la masa total del cúmulo. Los investigadores midieron 22 cúmulos de galaxias, con masas alrededor de 10^{15} masas solares en promedio, unas 1000 veces mayor que la masa de la Vía Lactea, y obtuvieron un valor un 43% mayor que el de Planck.

Habrá que esperar a futuros estudios con técnicas similares y mayores cúmulos, para ver si así se soluciona la discrepancia con los datos de Planck. Sin embargo, aunque no existiera discrepancia, el estudio de la evolución de los cúmulos galácticos seguiría siendo importante, pues gracias a ello podemos conocer si el efecto de la energía oscura, esa misteriosa fuerza repulsiva que provoca la aceleración de la expansión del Universo, ha cambiado con el tiempo o no.

Noticia extraída de Nature.com

Creacionistas hablando de la evolución

creationism

La Biblia fue escrita por cientos de manos durante siglos. Los escritores eran gente supersticiosa, tenian nulos conocimientos cientificos y, por lo tanto, explicaron el mundo como buenamente pudieron, al igual que miles de civilizaciones a lo largo del globo y la historia de la humanidad.

El ser humano siempre ha querido entender el mundo que le rodea, y en cierto sentido tambien ha querido controlarlo. La religión fue uno de esos intentos (fallidos). El metodo cientifico nos ayudo a superar esta fase supersticiosa con una herramienta objetiva, universal y contrastable.

El problema es cuando hay gente que todavia se agarra, contra toda evidencia, a las explicaciones de unos pastores de hace 2000 años. Uno de los frentes de choque es la Teoria de la Evolución de Darwin, que colisiona de frente con la explicación de la creación del mundo del Genesis.

En el siguiente video un claro ejemplo de como la gente esta dispuesta a creerse cualquier cosa. A mi me da un poco de pena, la verdad.

Los casinos de Monte Carlo y la Física

Casino de Monte Carlo

Casino de Monte Carlo

Ciertamente, la financiación de la ciencia no esta en sus mejores momentos, e incluso hay investigadores que han tenido que recurrir a programas de televisión para conseguir dinero para sus investigaciones. Pero yo al menos, afortunadamente, no he tenido que recurrir al casino para ganarme el sueldo. Aunque el título huela a dinero, este post va por otro camino. Si menciono la ciudad del Principado de Mónaco es por la técnica para simular procesos complejos, que toma su nombre de la ciudad famosa por sus casinos.

Las simulaciones Monte Carlo acoge en un mismo nombre una gran cantidad de algoritmos computacionales basados en utilizar números aleatorios (mejor dicho, pseudoaleatorios) para obtener la solución a un problema complejo, simulando el mismo problema con diferentes condiciones iniciales para conseguir la distribución de probabilidad de la cantidad que se quiera obtener. De hecho, es lo mismo que hacemos al apostar en una ruleta del casino, con resultados más o menos desastrosos para nuestros bolsillos.

Una máquina de pinball de 1995: ``Theatre of magic''. via Wikipedia.

Una máquina de pinball de 1995: “Theatre of magic”. via Wikipedia.

Pongamos un ejemplo. Supongamos que tenemos un pinball y queremos calcular la probabilidad de que la bola de pinball caiga directamente entre las dos paletas sin que podamos intervenir. La dinámica de este sistema es demasiado complicada como para ser analizada desde un punto de vista analítico. Las mínimas variaciones en la energía, posición o dirección del lanzamiento inicial podrían hacer caer a la bola en un lugar completamente diferente. Haría falta entonces repetir el experimento de lanzar la bola numerosas veces con un pinball real y anotar cuidadosamente los resultados. Sin embargo, este experimento requeriría, primero, de un paintball real, de mucho tiempo (libre) y no podríamos saber si el hecho de colocar un elemento adicional en el tablero cambiaría la probabilidad o no.

La alternativa es hacer un experimento virtual, una simulación de Monte Carlo. En este ejemplo, el procedimiento sería desarrollar un programa que simule el paintball, reproduciendo la interacción de la bola con todos los elementos del tablero. A continuación, lanzaríamos virtualmente numerosas bolas con diferentes energías, posiciones y direcciones. La precisión del resultado (el número de veces que la bola pasa a través de las paletas, de forma que el jugador no pueda jugar, dividido por el número de disparos realizados) dependerá del número de lanzamientos efectuados. Cuando se ha realizado un número suficientemente grande de eventos (la estadística es suficientemente grande), es posible hacer medidas, lo que consiste en simular la respuesta de nuestros detectores o instrumentos de medida a la serie de eventos generados. Por ejemplo, es posible medir el número medio de colisiones con un elemento del tablero, o incluso medir (siempre virtualmente), la energía disipada de media por la bola en la colisión con un elemento. Medida, esta última, que será muy difícil de realizar con una experiencia real.

Aunque Enrico Fermi ya planteo este metodo en 1930, oficialmente los orígenes del método de Monte Carlo se remontan a 1946. En el laboratorio de Los Alamos (epicentro del Proyecto Manhattan donde se desarrollo la bomba atómica) los físicos John von Neumann y Stanislaw Ulam  estudiaban el transporte de neutrones a través de materiales para mejorar la protección ante la radiación. La ecuación de transporte que describe el proceso es tremendamente complicada, imposible de resolver analíticamente para casos realistas. Un dia, Ulam estaba enfermo, pasando el rato jugando al solitario, cuando se pregunto cuál era la probabilidad de obtener las 52 cartas en el orden correcto. Lo intento con cálculo probabilístico, pero al final se le ocurrió utilizar números aleatorios para resolver el problema. La aplicación de este método al problema de transporte de neutrones fue inmediata. El nombre de Monte Carlo le fue asignado más tarde por Nicholas Metropolis, en referencia a la tradición de juegos de azar del Principado. La difusión de la técnica de simulación ha seguido, claramente, a la de los ordenadores y está hoy en día prácticamente omnipresente en los experimentos de física.

Al igual que sucede en nuestro experimiento de pinball, en los experimentos reales
las simulaciones Monte Carlo se utilizan ampliamente desde la concepción de un experimento, para evaluar cuáles serán las características que el experimiento deberá tener para poder medir las cantidades deseadas. Posteriormente son utilizadas para concebir y optimizar los detectores y para interpretar las señales. Por ejemplo, en la figura  de abajo se representan los datos experimentales medidos durante el experimento ATLAS y las predicciones de la simulación Monte Carlo.

En negro se representan los datos medidos a través del experimento ATLAS,  en rojo y en violeta las predicciones de la simulación Monte Carlo de eventos debidos a otros procesos ya conocidos,  en verde la diferencia entre la predicción de la simulación y los datos efectivamente medidos.  El excedente es compatible con la señal que será obtenida si estuviera producida por el bosón de Higgs y  si este tuviera una masa de 125 GeV, como vemos en la simulación en azul.

En negro se representan los datos medidos a través del experimento ATLAS, en rojo y en violeta las predicciones de la simulación Monte Carlo de eventos debidos a otros procesos ya conocidos, en verde la diferencia entre la predicción de la simulación y los datos efectivamente medidos. El excedente es compatible con la señal que será obtenida si estuviera producida por el bosón de Higgs y si este tuviera una masa de 125 GeV, como vemos en la simulación en azul.

Evidentemente, es esencial que la simulación reproduzca de la forma más exacta posible los datos que serán producidos durante la adquisicion de datos experimental. Si no, sería casi imposible reconstruir los procesos que los han generado a partir de las señales producidas por los detectores. Así, el uso de simulaciones numéricas para reconstruir los eventos que generan las señales son imprescindibles.

Para obtener simulaciones realistas, se han desarrollado numerosos programas a lo largo de los años, dependiendo del problema que se quiera resolver. Cuando se trata de simulaciones dedicadas a experimentos de Física de Partículas, estos programas (como FLUKA, Geant4, MCNPX,…) simulan lo que sucede en millones de interacciones en las cuales, en función de la energía implicada, las partículas puede ser aniquiladas o creadas, y se describe el transporte y las interacciones de las partículas con los átomos del material.

Además de en la investigación básica, las técnicas de Monte Carlo se aplican actualmente en prácticamente todos los campos de la ciencia, desde la Biología a las Telecomunicaciones, en las Matemáticas y, por supuesto, en la Física Médica. En particular, la utilización de códigos de transporte Monte Carlo es muy importante en numerosas etapas del tratamiento del cáncer mediante radioterapia.

El transporte de partículas a través de los tejidos del cuerpo es complejo, no solamente debido a la complejidad de describirlo a través de la resolución de la ecuación de transporte de Boltzman, sino también por la heterogeneidad intrínseca del cuerpo humano. La Física Médica utiliza sobre todo sistemas de Planificación de Tratamiento (TPS por sus siglas en ingles), programas especializados basados en modelos analíticos que ayudan a obtener una distribución tridimensional de la dosis a administrar al paciente.

En algunos casos, las soluciones analíticas aproximadas pueden ser útiles. De hecho, para la radioterapia tradicional basada en rayos X y electrones, estas soluciones son bastante rápidas y precisas. No obstante, en los últimos decenios, la utilización de protones y de iones está surgiendo como alternativa.

Por supuesto, la localización exacta del lugar donde la dosis se libera es esencial para este tipo de tratamiento y una simulación de Monte Carlo es la herramienta ideal para hacer este tipo de predicciones, sobre todo para aquello que concierne a iones pesados como el carbono, que además de interaccionar con el medio, puede fragmentarse.

Esquema de la fragmentación del carbono.

Esquema de la fragmentación del carbono.

La predicción de la fragmentación del carbono, que constituye parte de nuestro trabajo,
es uno de los puntos sobre los cuales se concentra la investigación. Su importancia deriva del hecho de que la fragmentación del carbono falsea la dosis liberada,
ya que los fragmentos se crean y viajan por el cuerpo. Por otro lado, se busca una forma de utilizar estos fragmentos para obtener imágenes en tiempo real de la zona afectada para permitir el control directo del emplazamiento y de la cantidad de dosis liberada en el paciente.

Comparación entre la dosis administrada por un software numérico y un código Monte Carlo (FLUKA)  en el caso donde existan implantes metálicos. Imagen: K. Parodi et al, IJROBP 2007.

Comparación entre la dosis administrada predicha por un software numérico analitico (TPS) y el código Monte Carlo FLUKA en el caso donde existan implantes metálicos. Imagen: K. Parodi et al, IJROBP 2007.

La utilización de simulaciones de Monte Carlo para verificar la dosis depositada en el
paciente es particularmente importante en el caso de cambios bruscos de densidad,
por ejemplo en la proximidad de los pulmones o si existen implantes metálicos, como vemos en la figura.

En conclusión, la técnica de Monte Carlo permite simular procesos que son muy complejos como para poderse tratar de forma analítica. En lo concerniente a la hadronterapia, las simulaciones de Monte Carlo se utilizan tanto en la investigación como en las clínicas para diseñar experimentos, en pantallas protectoras y en procedimientos de seguridad, para verificar los planes de tratamiento a estudiar de nuevas técnicas para la evaluación de los tratamientos.

Accastampato es una iniciativa de divulgación realizado por estudiantes de Física de la Universidad la Sapienza de Roma, con el objetivo de mostrar al público no especializado y los estudiantes de instituto diversos temas de investigación, explicados de una manera sencilla y amena. Gracias al esfuerzo de sus editores, la revista se traduce actualmente al italiano, inglés, francés y español. La idea es enviar partidas de la revista a diversos institutos de Italia, Francia y España, aunque la financiación a veces es insuficiente. Por fortuna, la revista se puede descargar gratuitamente de su página web, y os invito a descargarla o leerla online.

Este post esta basado en una colaboración que realice junto con Carlo Mancini Terracciano para su último número “Los átomos que curan“, dedicado a la Física aplicada a la Medicina.

El cine de Futurama y el tamaño del infinito

Entre los guionistas de Los Simpsons y Futurama hay varios físicos y matemáticos, como J. Stewart Burns (Matemático por Harvard y Berkeley), David X. Cohen (Físico por Harvard) y Ken Keeler (Matemáticas por Harvard). Esto explica muchos de los guiños matemáticos que aparecen en sus capítulos. En ocasiones estos están tan ocultos y son tan sutiles que sólo un experto podría detectarlos. Hoy me valdré de uno de sus guiños para hablaros del más pequeño de los infinitos. ¿El infinito más pequeño? ¿Se puede hablar de tamaño del infinito? Veamos que sí, en cierta forma.

Image

Un cine al que nunca se le acaban las entradas

En el capítulo “Bender salvaje” aparece la imagen de un cine muy particular, el Loew’s \aleph_0-Plex. El nombre, una clara parodia de los Multi-Plex, contiene un objeto matemático curioso, la \aleph_0, (pronunciado “alef-sub-cero”, referencia a la primera letra del alfabeto Hebreo). En Matemáticas, y en particular en Teoría de Conjuntos, los números \aleph son símbolos que representan la cardinalidad (tamaño) de conjuntos infinitos.  Los números alef se usan para medir el tamaño de conjuntos, por lo tanto son diferentes del infinito \infty del Álgebra o el Cálculo. El más pequeño de ellos es nuestro \aleph_0, que representa el conjunto infinito de elementos numerables, es decir, los infinitos compuestos por números que podemos contar con los dedos, como los números naturales o los enteros. Es decir, el cine de Futurama es un cine con un número infinito, pero numerable, de salas de cines.

infinity

Imaginemos por un momento que algo así puede existir. Para simplificarlo, supongamos que existe una sala de cine con infinitos asientos numerados como 1,2,3,4,… Justo en ese cine ponen la pelicula que llevamos tanto tiempo esperando. Llegamos con poco tiempo de antelación, esperando que no nos toque muy atrás, y al llegar a la taquilla descubrimos con horror que la sala está llena. De alguna forma hay infinitas personas en la sala, la persona 1 sentada en el asiento 1, la persona 2 en el asiento 2 y así sucesivamente.

En una sala finita no habría nada que hacer, nos tocaría irnos a casa. Pero en este caso la sala es infinita, y que esté llena no es impedimento para que haya asiento para uno más. Lo único que tiene que hacer el acomodador es pedir a cada persona que ocupe el asiento contiguo. Así, la persona 1 se moveria al asiento 2, la persona 2 al asiento 3, la persona n al asiento n+1, etc. De esta forma, ninguna persona perderá su asiento y el asiento número 1 quedará libre para que nos sentemos nosotros.

Hotel-de-Hilbert-occupé-libre

Es más, si llegan infinitas personas detrás nuestro tampoco sería un problema. El acomodador podría pedir que cada persona n se moviera al asiento 2n (es decir, 1\rightarrow2,2\rightarrow4,3\rightarrow6,\ldots) y ya tendríamos infinitos asientos libres para los que esperan.

Paradójicamente, antes de que llegaramos nosotros y nuestros infinitos amigos había el mismo número de personas que de asientos, y después de acomodar a infinitas nuevas personas esto no cambio, seguía habiendo el mismo número de personas que de asientos. Esto es así porque hemos sido capaces de encontrar una función biyectiva entre asientos y personas, es decir, hemos asociado una persona a un solo asiento, sin repetir, y en todos los asientos hay una persona.

Este ejercicio mental recibe el nombre del Hotel de Hilbert, en honor al matemático David Hilbert (1862-1943), que fue el que lo describió por primera vez, utilizando el ejemplo de un hotel.

David Hilbert, yendo a la moda de la epoca.

David Hilbert, yendo a la moda de la época.

De la misma forma, se puede demostrar que los números enteros (\ldots,-3,-2,-1,0,1,2,\ldots), que incluyen los números negativos más los naturales tienen la misma cantidad de elementos que los números naturales. Lo mismo ocurre con los números racionales, de la forma \frac{a}{b}, con a y b números enteros. Todos estos conjuntos tienen cardinalidad (tamaño) igual a \aleph_0.

Para irnos a un infinito más grande (llamado \aleph_1) tenemos que hablar del conjunto de los números reales, que incluyen los números que se pueden escribir como una secuencia infinita de decimales. Así, por ejemplo, hay mas números reales entre 0 y 1 que números naturales. Pero, sin embargo, el tamaño de los números reales entre 0 y 1 es el mismo que el de todos los números reales. Para rizar más el rizo, hay el mismo número de puntos en una linea que en un plano, y tantos puntos en un plano como en el espacio, sea de las dimensiones que sea. Todos tienen cardinalidad \aleph_1.

Incluso hay infinitos mas grandes que el de los reales (denominados \aleph_2, \aleph_3,\ldots). El matemático Georg Cantor provó que los conjuntos infinitos siempre tienen más subconjuntos que elementos, es decir, hay mas formas de agrupar los elementos de un conjunto infinito que elementos en el conjunto. Así, hay más subconjuntos de números reales que números reales, más subconjuntos de subconjuntos de números reales que subconjuntos de números reales, y así sucesivamente. ¡Hay incluso infinitos de tamaño infinito!

Os recomiendo ver el divertido video de 60 segundos (inglés subtitulado) de The Open University, donde explica esta paradoja con una simpática animación.