Acerca de larevoluciondelosquanta

Si hay algún adjetivo que me describa es curioso compulsivo. Todo lo que pueda aprender sobre este Cosmos tan alucinante en el que vivimos es poco. Tal vez por eso estudié Física y me dedico a la investigación. Desde aquí quiero compartir pensamientos con vosotros. ¡Gracias por acompañarme!

La Irreconciliabilidad de Razón y Fe

La Ciencia es una forma de ver el mundo, una forma de entender el Cosmos mediante una observación meticulosa y crítica de los fenómenos físicos. Esto choca frontalmente con la Religión, que afirma tener todas las respuestas, aunque vayan en contra del sentido común.

¿Son Ciencia y Religión reconciliables? Neil deGrasse Tyson nos da su visión personal en el siguiente vídeo.

Anuncios

El auge y la decadencia de la Medicina del Placebo

Durante las últimas dos décadas, los practicantes de medicinas alternativas y complementarias (MAC) han contado tanto al público como a la comunidad científica que nos estábamos perdiendo muchos tratamientos potencialmente efectivos y útiles simplemente porque pertenecen a otras culturas o porque no encajan en el paradigma científico actual. “Dadnos los recursos para investigar estos diamantes en bruto”, argumentaban, “y os daremos nuevas herramientas para mejorar la salud”.

Estas décadas y unos cuantos de miles de millones de dólares en investigación más tarde, la comunidad MAC no ha demostrado esencialmente nada. Los resultados son claros: ninguna de las terapias alternativas estudiadas funciona realmente. La evidencia muestra que la homeopatía es sólo agua, que la acupunctura no es más efectiva que la atención dedicada del terapeuta al paciente, y que las energías vitales místicas en realidad no existen.

Un informe de investigación financiado por el NCCAM (Instituto Nacional de Medicina Complementaria y Alternativa estadounidense), encontró que todas estas investigaciones, por valor de más de 2 mil millones de dólares, no ha añadido ningún nuevo método efectivo a las ya existentes herramientas del sistema de salud.

En la actualidad, sin embargo, está sucediendo un cambio de estrategia. Algunos practicantes de medicinas alternativas, al mismo tiempo que no cejan en proclamar la validez de sus terapias, afirman que, aún en el caso de que no funcionen mejor que el placebo, el placebo es un tratamiento efectivo por si mismo. En esencia, están abogando por una medicina del placebo vía tratamientos alternativos.

Además, afirman que tal vez deberíamos parar de gastar tiempo haciendo ensayos médicos (estudios en los que se evalúa si un tratamiento funciona o no) y empezar a preguntarnos cómo actúa el placebo y cómo podemos integrarlo en el sistema de salud y la prevención..

En realidad, podemos argumentar que se conoce perfectamente el alcance del efecto placebo. Es lo que teníamos en la era de la medicina pre-científica, cuando la esperanza de vida rondaba los 40 años.

Recientemente, un artículo en el New England Journal of Medicine escrito por David Gorski (se puede leer un excelente review aquí) muestra de manera sencilla la verdadera naturaleza del efecto placebo. Fijémonos en las siguientes figuras.

En este estudio se comparó un medicamento probado para el asma con dos placebos, un inhalador placebo (sin principio activo) y la acupuntura, a la vez que se mantuvo un grupo de control sin tratamiento. Las dos figuras superiores resumen el estudio. La figura superior muestra los resultados subjetivos, es decir, cómo se sentía el paciente tras probar el medicamento/tratamiento. Los dos grupos de placebo muestran una mejora respecto al grupo de control (sin tratamiento), al mismo nivel que el tratamiento real (albuterol).

La figura inferior muestra la misma comparación, pero para resultados objetivos, en este caso, la medida de la función del pulmón, la capacidad pulmonar. Aquí vemos que los dos placebos no muestran mejora respecto al grupo de control. Sin embargo, el medicamento real tiene un efecto visible, una mejora de la capacidad pulmonar.

Estos resultados ponen la medicina del placebo en una posición muy clara, y es un resultado generalizable y consistente con otros estudios sobre el placebo. Para resultados objetivos fisiológicos, no hay efecto placebo. Los placebos no son mejores que no tratarse en absoluto.

Cabe destacar que en las gráficas se observa aún una mejora incluso en el grupo de control. Esto refleja efectos no específicos, efectos estadísticos como la regresión a la media. Hay muchos efectos no controlados que tienen que ser evaluados mediante estudios estadísticos para obtener un resultado claro. Comparando con el grupo de control vemos que el efecto placebo está enteramente compuesto de estos efectos estadísticos.

Esto significa que no hay pruebas del llamado efecto mente sobre la materia que tenga un efecto fisiológico objetivo medible.

Para resultados subjetivos, donde el paciente dice sentirse mejor, hay un efecto grande adicional. Esto se compone de la esperanza del paciente en curarse, sesgos cognitivos, y otros efectos psicológicos.

Lo que este estudio sugiere es que el efecto placebo se compone de efectos psicológicos que no vale la pena potenciar. Son efectos terapéuticos no específicos e ilusiones estadísticas.

Como conclusión, el efecto placebo no parece ser suficiente justificación para utilizar ningún tratamiento o ritual particular. La otra conclusión es que la magnitud del efecto placebo para efectos objetivos no fue mayor que el efecto de un ritual particular como la acupuntura. Esto choca con las afirmaciones de los terapeutas alternativos de que la medicina alternativa proporciona un efecto placebo más potente que la medicina científica.

Los rituales pseudocientíficos no son necesarios, y vienen acompañados con el riesgo de promover creencias pseudocientíficas en el sistema de salud. Como James Randi dijo, “Es muy peligroso creer en cosas absurdas”. Esto es, quizás, mucho más cierto en el campo de la medicina.

Traducion libre de un artículo publicado en Neurologica Blog por .

Investigadora de la Universidad de Barcelona promueve las pseudociencias

Apadrina un cientifico

La ciencia no esta en su mejor momento. Por un lado, los sucesivos gobiernos españoles van reduciendo la financiación destinada a I+D, lo que ha llevado a la ciencia española al borde del colapso (aprovecho para pedir que apadrinéis a un científico, no os arrepentiréis). Por otro lado, la sociedad cada vez está más separada de los descubrimientos científicos. Raramente estos tienen cabida en la televisión, y, cuando lo tienen, el rigor informativo deja mucho que desear.  Como consecuencia de la poca educación científica general, las pseudociencias campan a sus anchas por nuestro país. Por ese motivo creo que los divulgadores, profesores y científicos deben unirse, mostrar al público su trabajo, dedicar parte de su escaso tiempo para que la gente valore la ciencia, el conocimiento y la utilidad del pensamiento racional. Porque, si nadie les da a conocer la ciencia, la sociedad estará desprotegida frente a charlatanes dispuestos a engañarles con cuentos de fantasmas, auras, chakras, ovnis y demás elementos mágicos.

Entonces, el papel del investigador frente al charlatán debería estar claro para todo el mundo. Podéis imaginar mi sorpresa al descubrir que la investigadora y profesora titular de la Universidad de Barcelona Anna Diez se dedica a promover la pseudociencia del Reiki en congresos de nula credibilidad como el VII Congreso de Ciencia y Espíritu, celebrado en Barcelona en Mayo de 2011. Sinceramente, no me esperaba que un profesor universitario en activo, en una rama de ciencias como la Química Terapéutica, que además dirige un grupo de investigación, tenga en su curriculum dudosos títulos como maestra de Reiki o terapeuta practicante de chamanismo transcultural. Lo que es más, esta profesora ha escrito un libro titulado “Reiki: qué es y cómo funciona“, publicado por la editorial de la Universidad de Barcelona (para mas inri), e imparte cursos de Reiki al módico precio de 150 euros. Abajo os dejo el vídeo de su charla:

Pero, ¿qué es el Reiki? El Reiki es una supuesta técnica de curación mediante la imposición de manos inventada por Mikao Usui en el siglo XIX. Según sus practicantes, el terapeuta se convierte en un medio a través del cual canaliza la energía universal, que fluye a través de sus manos curando las dolencias del paciente. Las enfermedades, dicen, surgen debido al desequilibrio del campo energético humano, que ellos intentan equilibrar. Los maestros de Reiki, como otras pseudociencias como la homeopatía o la acupuntura, recurren frecuentemente a explicaciones basadas en teorías cientificas, como el electromagnetismo y la física cuántica, para dar credibilidad a su práctica . Por el camino, sin embargo, mezclan conceptos, los sacan de contexto y se inventan otros pocos para acomodarlos a su visión de la realidad (ver video anterior, a partir del minuto 43:25, no tiene desperdicio).

Por supuesto, esta pseudociencia no ha probado eficacia más allá del placebo. El ejemplo que me parece más revelador (por su sencillez y contundencia) es el experimento realizado en 1996 por una niña de 9 años, Emily Rosa, que demostró que los practicantes de una variante occidental del reiki no eran capaces de detectar la energía vital que dicen manipular.

El experimento de Emily Rosa. Dibujo: Pat Linse.Emily reunió a veintiún sanadores, que aceptaron ponerse a prueba. De uno en uno, los hizo sentarse en una mesa, de tal forma que la escolar se encontraba enfrentada y separada del sanador por un biombo. El cartón solo dejaba pasar las manos del sanador, pero impidiendo que viera nada más. La niña colocaba entonces su mano encima de una de las del terapeuta, al azar, y anotaba si este era capaz de detectar el supuesto campo energético humano. Los terapeutas acertaron en 123 (44%) de 280 intentos, lo esperado por azar. La niña publicó dos años después los resultados de su investigación en la prestigiosa revista de la Asociación Médica Americana, dejando claro que el toque terapéutico es una patraña.

Cada uno es libre de creer lo que quiera. El problema de que una profesora de universidad promueva el Reiki es que se aprovecha del prestigio social que tienen los científicos para dar credibilidad a su fantasía, y, consciente o inconscientemente, da credibilidad a la práctica en si. La gente puede caer en el argumento de autoridad y pensar, “si un profesor de universidad dice que el Reiki funciona, quién soy yo para contradecirlo”. En la siguiente entrevista a esta señora se aprecia este efecto, ya que el entrevistador alaba su profesión y la utiliza para dar credibilidad a las palabras de la Sra. Diez.

¿Cómo es posible que esto pase en una Universidad del siglo XXI? Si esta mujer quiere practicar y promover el Reiki, una práctica a todas luces irracional, debería dejar de un lado su puesto y su posición. Si no, ¿cómo esperamos que la gente valore la ciencia si la propia universidad mezcla ciencia y pseudociencia?

A mí esta historia me ha dejado un mal sabor de boca, ¿qué opináis?

Investigadores obtienen la imagen de un rostro a partir del ADN

Estamos en la escena de un crimen. Es un caso especialmente difícil de resolver. No hay testigos visuales, los investigadores no tienen ningún sospechoso ni un móvil que pueda explicar los hechos. Sin embargo, están cerca de resolver el caso, porque han encontrado un pelo del atacante. Llevan la prueba al laboratorio y en unas horas tienen la cara del asesino, reconstruida a partir de su ADN.

CSI: CRIME SCENE INVESTIGATION

Aunque parece una escena sacada de CSI o una película de ciencia ficción, puede que dentro de no mucho tiempo se pueda hacer algo parecido. Unos investigadores de la Universidad de Pensilvania han desarrollado un programa de ordenador que puede crear un modelo tridimensional basto de una cara a partir de una muestra de ADN.

Desde hace unos años se puede conocer el color de los ojos y el pelo a partir del ADN de una persona, conociendo los genes que regulan estas características. Sin embargo, la estructura de una cara es mucho más compleja, y mucho más importante para investigadores forenses. El problema es que es mucho más difícil conectar los rasgos de un rostro con variaciones genéticas.

El antropólogo Shriver y sus colegas tomaron imágenes de alta resolución de las caras de 592 personas con ancestros europeos y africanos y usaron esas imágenes para crear modelos 3D de las caras. De estos modelos tomaron más de 7000 puntos de la superficie y midieron cómo esas caras variaban de la media (si tenían la nariz más plana, los pómulos más anchos, si eran más masculinas o femeninas, así como la etnia).

nature-facial-morphology

En un segundo paso, los autores compararon el genoma de los voluntarios para identificar puntos en los que el ADN se diferenciaba por una sola base. Para reducir la búsqueda, se enfocaron en genes que se piensa están involucrados en el desarrollo del rostro, como la forma de la cabeza en el desarrollo embrionario temprano, y aquellos que se encuentran mutados en patologías que afectan a la forma del rostro. Entonces, teniendo en cuenta el sexo y los ancestros de la persona, fueron capaces de calcular la probabilidad de que un gen fuera responsable de una característica facial particular.

Una vez identificaron 20 genes asociados con la forma de la cara, desarrollaron un programa que realiza el trabajo inverso, es decir, transforma el ADN de un individuo desconocido en un modelo facial. Por supuesto, se trata de aproximaciones, ya que hay muchos genes que están involucrados en el proceso. Identificarlos a todos podría llevar mucho tiempo. Por eso los autores afirman que se necesitan más personas y genes para dar resultados más precisos.

¿Veremos estas investigaciones aplicadas a la vida real? ¿Tendrán en un futuro los policias este tipo de herramientas?  Seguro que, de ser así, su trabajo se simplificaría mucho.

Fuente: http://www.nature.com/news/mugshots-built-from-dna-data-1.14899

La música de las estrellas

El Sol canta, a su manera. Y gracias a ese canto podemos conocer su composición y estructura interna. La ciencia que estudia las vibraciones del Sol se denomina Heliosismología, que es una manera elegante de hablar de la información que podemos extraer del Sol escuchándolo.

Por supuesto, estas vibraciones no pueden viajar por vacío del espacio y llegar hasta nosotros. Esta música la percibimos como cambios en el brillo de su superficie. Sin embargo, hay formas de poder escucharla de verdad, si transformamos estas vibraciones de brillo en sonido, como en el siguiente video:

Los astrónomos escuchan los latidos del Sol, las vibraciones de su superficie, y así aprenden cómo es por dentro, de la misma manera que los seismólogos aprenden la composición de la Tierra escuchando los terremotos. Pero estudiar los terremotos de la Tierra es mucho más fácil que estudiar el Sol. El trabajo se podría comparar a adivinar cómo está hecho un piano oyéndolo caerse por las escaleras.

Todos podemos distinguir entre si los sonidos de un tambor, un piano o una campana. Para estudiar el Sol, los instrumentos de los heliosismólogos tienen que ser todavía más precisos, tanto que serían capaces de distinguir el equivalente a la diferencia entre un violín Stradivarius y uno normal: pueden detectar variaciones de brillo de una parte entre 10 millones.

Contrariamente a la intuición, el Sol es prácticamente opaco a la radiación electromagnética. Para que un rayo de luz nos llegue, primero tiene que llegar a su superficie, y no es tarea fácil. Un fotón puede tardar sobre 170,000 años en llegar desde el centro del Sol a la superficie.

Por otro lado, el astro rey es transparente a los neutrinos. Hay varios experimentos que detectan los neutrinos que emanan del Sol, pero su detección es tremendamente complicada, por lo que estudiar la estructura interna de esta manera es poco práctico.

Afortunadamente, sí se pueden detectar fácilmente las ondas de la superficie del Sol, como si fueran las olas de un estanque. Usando estas ondas sonoras, estas vibraciones, podemos ver dentro del Sol, de la misma manera que podemos ver el interior del cuerpo humano con los ultrasonidos.

    Simulacion de las oscilaciones acusticas (modos p) en el Sol.

Simulacion de las oscilaciones acústicas (modos p) en el Sol.

La idea de estudiar las oscilaciones de las estrellas data del siglo XVIII, pero no fue hasta 1960 que los primeros patrones de oscilacion solar fueron medidos por Robert Leighton, Robert Noyes y George Simon.

El Sol está vibrando constantemente, en una sinfonía de modos acústicos superpuestos, como las cuerdas de una guitarra sonando a la vez. El periodo de la oscilación es de unos cuantos minutos y una onda tarda unas pocas horas en atravesar el Sol, a la velocidad de 1 centímetro por segundo.

Dependiendo del modo de oscilación, de la frecuencia a la que resuene el Sol, podremos mirar más o menos dentro del Sol. Los astrónomos están interesados en tres tipos de ondas: las acústicas, las gravitatorias y las ondas de gravedad superficiales. Estas tres ondas generan los llamados modos p, modos g y modos f, respectivamente. Cada modo nos da información de una parte del interior del Sol.

Dependiendo del tipo de oscilación podemos ver a diferente profundidad del Sol, lo que nos da información de su estructura interna.

Dependiendo del tipo de oscilación podemos ver a diferente profundidad del Sol, lo que nos da información de su estructura interna.

El movimiento asociado a los modos f y p se restringen esencialmente a la región exterior del núcleo solar, es decir, las ondas bordean el núcleo de la estrella, por lo que estos modos contienen poca información de las partes más profundas del Sol. Para ver el núcleo necesitamos los modos g, que surgen de la lucha entre la fuerza de la gravedad, que tiende a colapsar la estrella bajo su propio peso, y la presión de radiación, debida a las reacciones de fusión. Estos modos nos muestran el nucleo, pero son muy difíciles de detectar porque, al ser ondas tan profundas, la vibración en la superficie es muy tenue.

Dado el éxito a la hora de entender la dinámica del plasma en el Sol, los astrónomos se plantearon si podrían repetir el procedimiento para otras estrellas. Esto, por supuesto, plantea muchos más problemas, porque las estrellas están infinitamente más lejos que el Sol. Pero esto no es excusa, y en la última década se ha avanzado mucho en esta dirección, en la llamada astrosismología.

El satélite Kepler, el satélite de la NASA lanzado en 2009, famoso por descubrir cientos de planetas extrasolares, ha conseguido captar el sonido de miles de estrellas, lo que nos da información de primera mano sobre su composición. El descubrimiento de nuevos planetas extrasolares se basa en la variación del brillo de la estrella cuando el planeta pasa por delante. Así, conocer la sinfonía de la estrella es crucial para poder detectar planetas.

Detección de planetas extrasolares por el método del tránsito

Detección de planetas extrasolares por el método del tránsito

Gracias a Kepler sabemos que las estrellas grandes vibran en tonos bajos, mientras que las pequeñas lo hacen en tonos altos. Como ejemplo, una de las estrellas mejor estudiadas por Kepler es la gigante roja denominada KIC 11026764. Pocas estrellas en el Universo se conocen con tanta precisión como esta gigante roja. Por cómo oscila sabemos que la estrella tiene 5.94 mil millones de años de edad y que utiliza la fusión del hidrógeno como combustible, además de tener un núcleo rico en helio.

Image

Variación del brillo de las estrellas medido por el satelite Kepler

La misión Kepler anuncia el descubrimiento de 715 nuevos planetas

milesdemillones

20140226-192602.jpg

La NASA está dando en estos momentos una rueda de prensa anunciando los nuevos resultados de los datos almacenados por el telescopio espacial Kepler.

El resultado son 715 nuevos planetas confirmados fuera de nuestro Sistema Solar. Estos nuevos mundos orbitan alrededor de 305 estrellas, es decir la mayoría de ellos pertenecen a sistemas con múltiples planetas. La mayoría son de tamaños relativamente pequeños y orbitan en órbitas circulares y planas muy parecidas a las de los planetas de nuestro sistema solar interior.

Se ha desarrolado una nueva técnica de verificación de planetas candidatos llamada “verificación por multiplicidad” que facilita el descubrimiento de estrellas con más de un planeta alrededor suyo.

Cuatro de los nuevos planetas tienen menos de 2,5 veces el tamaño de nuestra Tierra y además orbitan la zona habitable de sus soles.

Uno de estos nuevos mundos es Kepler-296f, tiene solo dos veces el tamaño de…

Ver la entrada original 135 palabras más

El gobierno de Japón planea reabrir las centrales nucleares

Después del accidente de Fukushima la aceptación de la energía nuclear en el país nipón (y en el mundo) cayó drásticamente. El miedo de la población a sufrir un nuevo accidente provocó que el gobierno japonés cerrara las centrales nucleares que no habían sufrido ningún daño después del accidente de Marzo de 2011. Por supuesto, aunque su objetivo era fomentar las energías renovables, a corto plazo esta decisión disparó los niveles de emisión de gases de efecto invernadero. Desde entonces el país ha vivido un apagón nuclear.

Tres años después, en el marco de un nuevo plan energético, el gobierno ha decidido reabrir esas centrales y construir nuevas, con el objetivo de asegurar el abastecimiento de energía. La decisión ha llegado con polémica, pues muchos lo ven como un cambio en la política energética del país orientada a fomentar las energías renovables.

Susquehanna_steam_electric_stationEl miedo a la energía nuclear tiene su origen, principalmente, en su aplicación en las armas nucleares y los accidentes como Chernobil y Fukushima. Por supuesto, las películas y libros se han encargado de hablarnos de mutantes, apocalipsis, radiación mortal… Pero, ¿son las centrales nuclear más peligrosas que el resto de centrales energéticas?

Recientemente, un grupo de investigadores presentó un estudio en el que concluía que el uso de la energía nuclear en lugar de las fuentes de energía de combustibles fósiles había prevenido la muerte de millones de personas en el mundo (1.84 millones, concretamente), y que podría salvar a muchas otras en las próximas décadas. El estudio se centraba en la ausencia de emisiones de gases de efecto invernadero, lluvia ácida o contaminación del aire. Es decir, si la energía producida por centrales nucleares hubiese sido producida por combustibles fósiles habría 1.84 millones de muertos más.

muertes-energia

Figura basada en el estudio ENSAD (Energy-related Severe Accident Database) del Instituto Suizo Paul Scherrer. Se comparan las tasas de muertes inmediatas por cada gigavatio eléctrico – año producido, basadas en la experiencia histórica de accidentes graves ocurridos en el periodo 1969-2000. Nótese que la escala vertical es logarítmica. Las tasas de gases licuados de petróleo (LPG) son las más altas, incluso en los países de la OCDE y del grupo EU15. En el caso de la energía nuclear, todas las muertes corresponden al accidente de Chernóbil. La tabla no incluye las muertes latentes que puedan producirse, por ejemplo, por la contaminación resultante de la combustión de carbón u otros combustibles fósiles, o por los efectos posteriores de la radiactividad producida en Chernóbil. (via http://pendientedemigracion.ucm.es/info/otri/cult_cient/infocientifica/201103_04not.htm)

¿Y qué pasa con los residuos nucleares? Claramente, es un tema polémico. Nadie quiere tener cerca residuos que pueden ser peligrosos. Hay una gran cantidad de campañas y movimientos que avisan del riesgo potencial de los residuos radiactivos de larga vida producidos en las centrales nucleares. Sin embargo, estos cementerios están especialmente diseñados para no tener fugas. Los residuos, que no son mucha cantidad,se entierran a gran profundidad. Los residuos de la quema del carbón, por otro lado, son mucho más peligrosos. Primero, porque se emiten al aire y quedan en el suelo. Segundo porque son más dañinos. Estos residuos incluyen berilio, cadmio, arsénico, níquel y cromo; elementos cancerígenos que, a diferencia de los residuos nucleares, sí duran para siempre. Además, el carbón también contiene cantidades de uranio, como impurezas, que es una fuente de emisión del radón. Como en las centrales nucleares se consume el uranio, se previene la muerte por exposición a gas radón.

En la siguiente tabla os muestro las muertes eventuales causadas por los residuos de una planta generadora de 1000 MW–año de energía eléctrica:

Nuclear

Residuos de alta actividad …………..0.018

Emisión de Radón…………………. -420*

Emisión de rutinas (Xe,C-14,Cr,H-3) …..0.3

Residuos de baja actividad …………..0.0004

Carbón

Contaminación del aire ………………75

Emisión de Radón…………………… 30

Cancerígenos químicos………………..70

Solar

Carbón para materiales (acero,vidrio,aluminio)……………. 3

Sulfúrico de Cadmio(si es usado) ……..80

* El numero negativo significa cantidad de muertes evitadas y no causadas

Por supuesto, estos datos contrastan el uso de energía nuclear frente a combustibles fósiles. El uso de energías renovables no está contemplado y, aunque no están libres de riesgos, pueden ser una alternativa en un futuro.

Como conclusión, no hay que tener tanto miedo a la energía nuclear. Es una tecnología con décadas de historia. Desafortunadamente, no está exenta de accidentes, pero están mucho más controlados y producen menos daños que el resto de accidentes en centrales energéticas. Desgraciadamente, se les da más publicidad negativa.