Shared posts

25 Mar 20:12

Bailando con Saturno

by Tokaidin
Dando vida a fotografías estáticas.

Cassini de desplaza a una media de 2.4 Kilómetros/Segundo con respecto a Saturno, aunque en ocasiones, como ocurrirá el próximo 9 de Abril, cuando afronte una de sus mayores aproximaciones al planeta de los últimos años, puede multiplicarse, y ese día en concreto llegará hasta los 9 Kilómetros/Segundo. Unas velocidades asombrosas que hacen que las imágenes que nos envía habitualmente sean en forma de tomas cortas, increiblemente hermosas pero congeladas en el tiempo.

Afortunadamente podemos apreciar la compleja danza de Cassini entre Saturno y sus lunas gracias a secuencias de imágenes fijas, encadenadas formando animaciones simples. En ocasiones como parte de una serie de observaciones de rutina de las que se saca un rendimiento no programado, pero en muchas otras planificadas de forma expresa para lograr este tipo de secuencias, este tipo de "magia" en movimiento es posible gracias a los equipos de ingeniería y ciencia que trabajan en esta misión, que se coordinan para construir una serie de instrucciones minuciosamente precisos que posteriormente son enviadas. Cassini se encarga del resto, girando y haciendo todo tipo de maniobras para orientar sus cámaras de forma que puedan captar sus objetivos pasando entre ellos a gran velocidad.

Como resultado podemos disfrutar de lo más cercano a tener una visión en movimiento de Saturno y su complejo sistema de lunas y anillos, limitadas pero pese a ello espectaculares, y que dotan a las ya de por sí maravillosas fotografías de Cassini de una profundidad temporal que aún magnifica lo que esta ya veterana sonda significa para la exploración planetaria.

La pequeña Encelado moviéndose entre las estrellas de fondo, con sus geisers claramente visibles.

Dione desplazándose por delante del planeta y la sombra que los anillos proyectan sobre el.

El reflejo del Sol sobre los brillantes anillos.

La pequeña luna pastora Prometheus dejando su caótica huella gravitatoria en el anillo F.

Aproximándose a las iluminadas capas atmosféricas de Titán.

La pequeña luna Epimetheus seguida por las cámaras de Cassini.

Siguiendo el desplazamiento de Mimas. 

Dancing With Saturn
25 Mar 20:11

Los bebés no toman el pecho como creíamos

by noreply@blogger.com (Antonio Martínez Ron)

La manera en que el bebé consigue extraer la leche del pecho de su madre durante la lactancia ha sido objeto de debate durante más de un siglo. Las últimas evidencias muestran que el secreto no está en la presión de la mandíbula del niño sobre el pezón, sino en el sistema de vacío que se crea en la cavidad bucal durante el proceso. La última prueba la presentan esta semana en la revista PNAS un equipo de científicos encabezados por el israelí David Elad, quienes han analizado el proceso mediante imágenes por ultrasonido.

Leer más y ver vídeo en: Los bebés no toman el pecho como creíamos (Next)

Entrada publicada en Fogonazos http://www.fogonazos.es/
23 Mar 20:15

Tenemos un universo, tenemos un problema

by Cuentos Cuánticos

Durante los últimos días, y a causa del descubrimiento del BICEP2 de algo llamado polarización en modos B de la radiación cósmica de fondo, han habido dimes y diretes en relación a la existencia de un universo, de un multiverso y de otras cosas al respecto.

Pues bien, yo aquí he venido a sincerarme… A pesar de haber estudiado cosmología una temporadita de mi vida, he venido a confesar que no tengo ni puñetera idea de la mayoría de las cosas de las que se hablan en este contexto.  Todo lo que puedo decir es que actualmente la física teórica está plagada de ideas lo suficientemente locas y atrevidas como para sorprender al más pintado. Además, estas ideas polarizan las opiniones de físicos, aficionados y de los que pasaban por allí.  El problema en mi opinión, y sí, esta es mi opinión personal, es que nadie pone énfasis en qué es lo aceptado teórica y experimentalmente, es decir, fuera de toda duda (fuera de toda duda en ciencia se traduce por:  estamos bastante seguros mientras no se demuestre lo contrario), y lo que son puras elucubraciones teóricas asociadas a los modelos que estamos usando para describir la realidad que nos rodea (por favor, uso realidad en el sentido de la calle, no estoy haciendo ontología, axiología, teleología o cualquier otra logía que se os ocurra).

Por lo tanto, voy a poner aquí unas cuantas cosas que me llevan de cabeza en este tema.  Son cosas que si las piensas dos veces tienes tres opiniones distintas, por eso procuro pensarlas solo una vez y, la mayoría de las veces, media vez.  Voy a procurar seguir la siguiente estructura:

  1. El título de las secciones será alguna idea cosmológica.
  2. Intentaré decir y fundamentar si la idea es aceptada (comprobada con mayor o menor grado) o no lo es.  Algunas, directamente son ideas falsas que pululan por ahí.
  3. Procuraré explicar, en la medida de lo posible y lo más llanamente que sea capaz, de dónde viene la idea y qué importancia tiene.

Espero que esto le sirva a alguien, a mí me servirá para poner orden en mi cabeza.

El big bang fue la explosión de un punto que lo contenía todo

Estado de la idea:

Hoy día tenemos múltiples evidencias de que nuestro universo se está expandiendo.  Además sabemos que lo está haciendo de forma acelerada.  Por lo tanto podemos hacer la siguiente cadena de razonamientos:

  1. Si todo está separándose de todo (y aquí por todo tenemos que entender las galaxias) en el pasado todo estaba más junto, más cerca.
  2. Si extrapolamos esta situación llegamos a la conclusión de que tuvo que haber un instante en el que toda la materia/energía que conocemos estaría concentrada en un único punto.

A eso se le han dado varios nombres, big bang, huevo cósmico, etcétera.

La idea por tanto nos lleva a pensar que todo lo que existe pre-existía contenido en un punto.  Pero aquí vienen varios problemas, ese punto tendría una densidad infinita y una temperatura infinita. Lo que es aún más grave, la expansión del universo involucra la propia expansión del espaciotiempo. Es dicha expansión del espaciotiempo lo que “arrastra” a las galaxias que están en su seno.  Por lo tanto, ese huevo cósmico también contenía todo el espaciotiempo.  Nada existía fuera de él.

El origen del universo se plantea en este contexto como la “explosión” de este huevo.  Esta imagen ha pululado y se ha asentado en el imaginario popular echando profundas raíces.  Sin embargo, es una imagen falsa y sin sentido físico.  Las razones son las siguientes:

a)  Si todo estaba contenido en un punto con propiedades infinitas de densidad y temperatura nuestras leyes de la física no pueden describir ese sistema.  El susodicho huevo no es algo físico.

b)  No tenemos ninguna explicación ni razón para que dicho huevo “explotara” generando el universo.

c)  Hoy sabemos que la materia como la vemos hoy día no es como ha sido siempre durante la evolución del universo.  En los experimentos de alta energía hemos visto como la materia se comporta de formas extrañas y exóticas cuando está en un ambiente de alta energía.  En la evolución del universo, al estar más y más comprimido la temperatura sería más y más alta.  Por tanto la energía disponible en el ambiente sería tal que las formas en las que se presentaba la materia tendrían poco que ver con la materia que estamos acostumbrados a ver a nuestro alrededor.  Esto quiere decir que aún no sabemos que había justo en los primerísimos instantes del universo.

Cuando un científico habla del big bang habla de la historia del universo sin especificar su origen. Asumimos que tuvo un origen, no podemos explicar el mismo, pero si podemos explicar su evolución.

¿Qué cosas hemos predicho sobre el universo y su evolución?

a)  La teoría del big bang, como teoría de la evolución del universo sin entrar en su origen, ha predicho las proporciones de los primeros elementos químicos, hidrógeno, helio, litio, etc.

b)  Ha permitido entender la estructura a gran escala del universo. La forma en la que se distribuyen las galaxias en el universo.

c)  Y quizás lo más impactante, predijo la presencia de una radiación cósmica de microondas que nos llegaba desde todas las direcciones. Esta radiación tendría que tener la misma energía en todos los puntos salvo por fluctuaciones de una parte en 100.000.

La radiación cósmica de fondo es la mejor fuente de información que tenemos para contrastar nuestros modelos y para hacer observaciones sobre características que adquirió el universo temprano. Cada vez somos capaces de hacer mejor medidas sobre dicha radiación y de extraer más y mejor información sobre el universo.

El universo tiene un tamaño de…  El universo es infinito

En muchas ocasiones nos hablan sobre el tamaño del universo. En muchas otras nos dicen que el universo es infinito. ¿Nos toman el pelo?

La respuesta es, no.

Cuando nos hablan del tamaño del universo nos están hablando del universo observable.  El universo que es accesible a nosotros. Y tenemos que recordar que solo podemos tener conocimiento de un suceso o localización de algo en el universo si ha dado tiempo a que nos llegue información sobre dicho suceso o localización.  Sabemos que la información se traslada por el universo con una velocidad que a lo sumo es la velocidad de la luz en el vacío.  Por tanto, esto hace que tengamos regiones de las que podemos tener conocimiento y otras de las que no.

observableLa región de universo observable tiene un tamaño finito. El tamaño viene dado por la distancia máxima que han podido seguir los rayos de luz en la vida del universo.

¿Hay más universo fuera de mi universo observable?  Pues no podemos estar seguros, no sabemos lo que hay ahí fuera, ni tan siquiera si hay algo.  Sin embargo, podemos suponer que no estamos en ningún sitio especial del universo así que si nos movemos a un punto distante, a otra galaxia, nuestro universo observable cambiaría.  Es de suponer que no encontraremos una barrera donde el universo acabe bruscamente. Así el tamaño del universo “completo” (observable + no observable) podría ser infinito.

De hecho, hoy día sabemos que nuestro universo se está expandiendo de forma acelerada.  Hay una sutil relación entre este hecho y las posibles “formas geométricas” y “tamaños” del universo completo (no solo el observable).  Lo que ahora asumimos en cosmología es que nuestro universo completo es infinito en extensión espacial, siendo nuestro universo observable un parche de universo, al que podemos acceder por observaciones.

Para concluir,

Nuestro universo puede ser infinito en extensión espacial. De ese universo solo podemos acceder a una pequeña parte conocida como “universo observable”.

El universo pasó por una fase de expansión muy, muy rápida llamada inflación

Estado de la idea:

Esta idea está hoy día aceptada por los datos acumulados en distintas misiones de observación cosmológica.

Lo que nos cuenta es que el universo pasó un proceso de expansión exponencial y salvaje en los primeros instantes de su vida.  Este proceso es capaz de explicar una serie de detalles que pasamos a mencionar:

a)  El universo es homogéneo a gran escala.  El universo se presenta homogéneo, tan homogéneo que solo hay variaciones en la densidad del mismo en una parte en 100.000.  Esto es justo lo que se ve en la radiación cósmica de fondo.

Esta homogeneidad no hace referencia a escalas pequeñas, sistema solar o galaxias, hay que ir a escalas mucho más grandes donde los elementos más pequeños distinguibles serían cúmulos o supercúmulos de galaxias.  Entonces el universo se muestra como una pasta homogénea con pequeños grupos despreciables.

Con la teoría del big bang no era posible tener un universo tan homogéneo sin que el estado inicial del universo “hubiera sido seleccionado con una precisión exquisita”.  Pero dado que no hay ningún mecanismo que haga esa selección de forma natural tendríamos que pensar que nuestro universo empezó de una forma arbitraria.  Hawking y compañía demostraron en la década de los 70 que no hay ninguna posibilidad de acabar con un universo tan homogéneo como el que vemos si empezamos con unas condiciones iniciales arbitrarias.

La inflación soluciona esto de una forma simple y elegante, da igual con que situación inicial empieces, tras la expansión brutal que implica la inflación siempre acabarás con una distribución homogénea con pequeñas variaciones.  La inflación tiene como efecto tamizar el universo.

b)  La inflación también predice que tenemos que ver distintas características en la radiación cósmica de fondo.  Hay una cosa en la radiación cósmica de fondo que se denomina multipolos. Distintos modelos cosmológicos describen de forma diferente la forma en la que se presentan dichos multipolos en la radiación.  Lo que se encuentra es:

figure4

Diferentes curvas de distintos colores corresponden a distintos modelos cosmológicos.  La curva roja es la que mejor ajusta a los datos observacionales y es la que predice la inflación (los modelos más sencillos con constante cosmológica).

Además, la inflación explica de dónde procede la materia que observamos en el universo.  Inicialmente se produce un proceso de expansión inflacionaria y llegado un momento esta inflación se detiene, se frena, y en el proceso de frenado se libera energía que se transforma en las partículas y en los campos cuya evolución dio lugar al universo que conocemos.

La inflación no modifica al big bang (historia de la evolución térmica del universo), lo complementa y lo amplía explicando algunas cosas que la teoría originaria no podía explicar.

Evidentemente, la teoría inflacionaria no está libre de problemas:

a. Hay, literalmente, cientos de modelos inflacionarios con distintos modos en los que la inflación empieza y acaba.  Afortunadamente dan lugar a distintas predicciones sobre distintos observables y ahora estamos en disposición de eliminar aquellos cuyas predicciones no coinciden con la observaciones experimentales.

b.  Los modelos inflacionarios tienen una extensión metafísica, parecen implicar que nuestro universo solo es una parte de algo mayor llamado multiverso.  Ahora hablaremos de eso con más detalles.

Nuestro universo no es más que un miembro de un multiverso

Estado de la idea:

La idea es que nuestro universo forma parte de algo mayor, el multiverso. Este multiverso es un conjunto de universos desconectados entre sí y que, hipotéticamente, no pueden tener contacto unos con otros.

Esta idea aparece en varias teorías físicas, y no tiene su origen en ideas esotéricas o mágicas, se extrae de teorías físicas que están siendo, en su mayoría, comprobadas observacionalmente o que tienen suficiente entidad teórica como para intentar comprobarlas desde el punto de vista experimental.  Ejemplos de teorías que conducirían a la idea de multiverso son la teoría de cuerdas, la inflación, la teoría cuántica, etc.

Aquí describiremos el multiverso inflacionario.  Para ellos necesitamos explicar algunos conceptos previos.

El vacío

El vacío en física no es la nada absoluta, es un estado físico de los sistemas que está bien definido y que tiene propiedades particulares que le posibilitan interactuar con otros estados de diversos sistemas.  Es decir, el vacío es algo bien definido en física y no implica la ausencia de todo.

En teoría cuántica los campos como el campo electromagnético está asociado a la presencia de unas determinadas partículas, los fotones. Así podemos decir:

Sabemos que en una región hay campo electromagnético porque hay fotones.  Si en una región encontramos fotones sabemos que hay campo electromagnético.

Esto pasa con todos los campos cuánticos conocidos, el Higgs, el electromagnético, el débil, etc.  Cada uno de ellos tiene sus propias partículas asociadas con características propias del campo al que están asociadas.

La primera noción que podemos tener del vacío es la siguiente:

El estado de vacío cuántico de un campo es el estado de mínima energía del mismo y que tiene ausencia de sus partículas asociadas.

Así, el campo electromagnético estará en el vacío si tenemos una situación en la que no hay fotones y por tanto el campo electromagnético está en su estado de mínima energía.

Esto es lo que sucede con la mayoría de los campos conocidos.

Si representamos el campo por una bola y sus posibles energías por una superficie, la situación de vacío es que el campo (la bola), esté en el mínimo de energía:

Sin embargo, hay campos que pueden estar en la situación de no tener partículas asociadas presentes y no estar en su mínima energía.

Cuando el valor esperado del vacío es nulo (vacuum expectation value) no hay partículas presentes del campo, sin embargo el campo no está en su mínima energía.  Esta situación es la que presenta por ejemplo el campo de Higgs.  Cuando un campo está en esta situación, energía no nula y sin partículas asociadas, se dice que está en estado de falso vacío.

Propiedades del falso vacío

La primeras propiedades del falso vacío son:

a)  Al no ser el estado de mínima de energía de un sistema es inestable.  Eso quiere decir que decaerá o se “desintegrará” en el estado de mínima energía propia del sistema, el estado de vacío real.

b)  Al pasar del falso vacío al vacío real, la energía sobrante se transforma en otros campos y partículas.

Si metemos la gravedad de por medio una región con falso vacío tiene propiedades espectaculares:

1.-  Produce una expansión enorme en dicha región. Actúa como una fuente de repulsión gravitatoria.  Esto es lo que produce la inflación.

2.-  Su densidad de energía no disminuye al expandirse el espacio, se mantiene contante.

¿Cómo sale el multiverso de la teoría inflacionaria?

La cadena de ideas que nos lleva al multiverso es la siguiente:

1.-   Inicialmente todo era un falso vacío.  Y permítanme tomar este tuit del amigo @inerciacreativa

Hijo, antes todo esto era vacío cuántico…—
Jose Cuesta (@InerciaCreativa) March 18, 2014

2.-  Este falso vacío se expande de forma inflacionaria, así que también llamaré al falso vacío, vacío inflacionario.

lYUmQ

3.-  Este vacío fluctúa, es decir, su valor oscila alrededor del valor de energía que le corresponde en la configuración en la que se encuentra.  Las fluctuaciones son inevitables, son debido a la naturaleza cuántica del campo y del vacío inflacionario.  Estas fluctuaciones modelan la forma gráfica de la energía del campo y a veces hacen que el falso vacío decaiga a un vacío real. Pero eso no tiene por qué pasar en todo el espaciotiempo a la vez, lo hará en una pequeña región.  Esta región dejará de expandirse de forma inflacionaria, “sumergida” en un falso vacío que sigue expandiéndose de forma exponencial.  Se crearán partículas, se fijaran las constantes físicas en función del nuevo valor del vacío y tendremos un universo.  A estos universos se los denomina universo burbuja.

8xkRW

3.-  Pero el falso vacío exterior sigue expandiéndose de forma inflacionaria.  La burbuja donde se ha frenado la inflación seguirá una evolución dictada por las leyes de la física que gobiernen la materia que se ha creado en su interior.  El proceso de decaimiento del falso vacío a uno real se hará por zonas, será aleatorio y continuará por siempre:

vtBAB

Pocket-Universe

¿Estas burbujas son universos?

Teóricamente, sí.

En estas burbujas las leyes de la física se fijan por cómo haya decaído el vacío inflacionario al vacío real.

El vacío inflacionario no tiene una gráfica de energía simple, más bien es algo así:

CD-Potential1

Dependiendo del vacío inflacionario de partida y del vacío real de llegada, las leyes de la física no tienen que ser la misma en distintas burbujas.  Las leyes de la física a baja energía, aquellas que controlan los procesos físicos relevantes a nuestra escala, están influídas por el valor de determinados campos en el vacío.  Por ejemplo, hoy sabemos que las masas de las partículas tienen que ver con el vacío del campo de Higgs.  Esto fija masas, cargas e interacciones efectivas en las burbujas, así aunque haya un conjunto de leyes físicas operando en todo el multiverso, en cada burbuja, cada vacío selecciona unas leyes físicas efectivas a baja energía distintas en cada burbuja.

Pero las burbujas están encerradas y aisladas.  Bueno, el nombre burbuja, dominio, pocket, o cualquier otro es engañoso.  En estas regiones la geometría puede ser infinita, no podemos pensar que son bolas sumergidas en un océano de falso vacío que se expande como loco.  La matemática aquí es bellísima y nos dice que estás “burbujas”, o “dominios”, o “universos hijos”, o “universos pocket”, pueden tener geometrías tal y  como entendemos la geometría de nuestro universo.

Multiverse

¿Se podría comprobar experimental u observacionalmente la existencia de otros universos?

Pues parece difícil, sin embargo, en física no es la primera vez que se propone algo que en principio no es comprobable y al final se ha comprobado.  Empezando por los neutrinos y acabando con la tan buscada supersimetría que aún no ha dado la cara.  Unas veces se ha encontrado algo que en principio era inobservable, como los neutrinos. Con los neutrinos hemos pasado de ser no observables a tener cañones que los lanzan donde queremos.

Pero dado que cabezotas hay en todos sitios y en física son especialmente abundantes:

First Observational Tests of Eternal Inflation  Se plantean encontrar pruebas de las colisiones de burbujas en el multiverso mirando los datos de la radiación cósmica de fondo del WMAP.  RESULTADO = NINGUNA EVIDENCIA.

Cosmological avatars of the landscape. I. Bracketing the supersymmetry breaking scale.

¿Podría nuestro universo tener alguna señal de entrelazamiento cuántico con otro universo del multiverso?   RESULTADO=NINGUNA EVIDENCIA.

No haré una lista pormenorizada de cuantos trabajos hablan de observar el multiverso en datos a los que podemos o podríamos acceder.

A mí, no me gusta el tema de los multiversos por varios motivos:

1.-  La principal razón es… Porque no.

2.-  La segunda es que los modelos inflacionarios todavía no están libres de problemas en su definición.  Por ahora se basan en modelos extrapolados de modelos efectivos, es decir, no sabemos qué campo es el que generó la inflación.  Lo que parecen indicar los datos es que debe de ser un campo escalar. Afortunadamente ya hemos encontrado un campo escalar fundamental en la naturaleza, el Higgs.  Eso hace más plausible encontrar otro, el inflatón, que produzca la inflación.

3.-  Los argumentos gravitatorios asumen que la relatividad general es válida en el contexto inflacionario, tal vez lo sea, pero no está probado. Seguramente hay que partir de un estado anterior preinflacionario en el que una teoría de gravedad cuántica sea indispensable para saber qué genero y cómo la inflación.

Pero el modelo inflacionario nos lleva genéricamente a pensar en un multiverso del tipo explicado aquí, tendremos que seguir pensando en el tema y viendo a ver si podemos descartar o aceptar la imagen en base a datos observacionales.  Al igual que tenemos que seguir buscando la energía oscura, dimensiones extra o señales de supercuerdas. Al final, como siempre en este negocio, decidirán los datos.

Para terminar:

A mí, el multiverso me parece una ordinariez.

Esta entrada ha quedado un poco larga, pero nadie dijo que fuera fácil ;)

Nos seguimos leyendo…


Archivado en: cosmología, Sin categoría Tagged: big bang, cosmología, falso vacío, inflación cosmológica, inflación eterna, radiación cósmica de fondo, vacío cuántico

11 Dec 07:08

"Carmina Burana", flashmob en Viena

by noreply@blogger.com (Antonio Martínez Ron)
Gilbmartinez

Imprersionante!


Haceos un favor. Poneos los auriculares y dedicadle unos minutos a este flashmob en una estación de trenes de Viena. Se os van a poner los pelos como escarpias. Vía: Tywkiwdbi

Entrada publicada en Fogonazos http://www.fogonazos.es/
17 Nov 09:01

Conoce tus elementos - El selenio

En la última entrega de la serie Conoce tus elementos estudiamos el de treinta y tres protones, el arsénico. Hoy lo haremos con el de treinta y cuatro protones –y por tanto, salvo que esté ionizado, treinta y cuatro electrones–, un elemento de los que han tardado en ser descubiertos hasta hace bastante poco: el selenio.

Existen varias razones para ello y si eres un veterano de la serie estoy seguro de que te hueles cuáles son. La primera es la escasez de este elemento químico en la corteza terrestre: tan sólo un 0,000 005% en masa, es decir, prácticamente nada. Esto ya supondría una dificultad para percatarnos de que existe, pero en segundo lugar el selenio es muy reactivo, de modo que no aparece puro jamás. Forma óxidos con una facilidad pasmosa, lo mismo que reacciona con casi cualquier metal para formar sales binarias, de modo que en la Naturaleza sólo aparece en forma de compuestos.

Pero, para hacerlo aún más difícil, también es casi imposible encontrar compuestos del selenio en grandes concentraciones. Dicho de otro modo, no es que haya muy pocas rocas de selenio en la corteza y haya que encontrar uno de esos raros yacimientos, es que no hay yacimientos específicos de minerales de selenio. Aparece como impureza en minerales de otros elementos similares pero mucho más comunes, de modo que para darse cuenta de que está ahí hace falta examinar esos otros minerales y percibir que hay algo extraño e inesperado en ellos.

Todas estas razones son las que hicieron que no fuéramos conscientes de la existencia del selenio hasta principios del siglo XIX. Su descubrimiento se trató, de hecho, de una casualidad, aunque era inevitable tarde o temprano según nuestra ciencia química avanzaba y nos fijábamos más en pequeños detalles que antes se nos hubieran pasado desapercibidos. El responsable fundamental fue un genio sueco que no ganó varios Nobeles por una razón muy simple: no existían aún durante su vida. Estoy hablando de un viejo conocido nuestro, Jöns Jacob Berzelius.

Jöns Jacob Berzelius
Jöns Jacob Berzelius (1779-1848).

Como digo, todo fue fruto de la casualidad. El primer laboratorio químico industrial de Suecia había sido establecido en Mariefred, en la antigua destilería del castillo de Gripsholm. Sin embargo, por las razones que fuesen, la empresa quebró y salió a subasta pública en 1816. Un químico sueco, Johan Gottlieb Gahn –a quien conocimos como descubridor del manganeso–, convenció a algunos inversores y otros dos químicos amigos suyos –H. P. Eggertz y Jöns Jacob Berzelius– para entrar en la subasta y comprar el laboratorio. Aunque Berzelius no estaba muy interesado en los negocios, imagino que poder formar parte del laboratorio industrial más importante de Suecia y el primero de todos lo tentaría mucho: tanto que aceptó y se convirtió en uno de los directores.

Aunque no estoy seguro, sospecho que Berzelius no estaba motivado sólo por la posibilidad de ganar dinero, sino también de disponer de un laboratorio bien guarnecido con el que poder realizar nuevos descubrimientos. Si así fue, tenía toda la razón, como se demostraría tan sólo un año más tarde de comprar el laboratorio de Gripsholm.

Los tres químicos cambiaron el rumbo del laboratorio –algo inteligente, ya que había quebrado–. Anteriormente se había dedicado a producir alcohol etílico para fabricar luego con él ácido acético, pero ahora empezó a producir ácido sulfúrico (H2SO4) y ácido nítrico (HNO3), aunque ahora mismo el que nos interesa más es el primero, enseguida verás por qué.

La fábrica de Gripsholm obtenía parte del azufre necesario para producir ácido sulfúrico de la mina sueca de Falun llamada Stora Kopparberg (Gran Mina de Cobre), que además del metal que le daba nombre extraía muchos otros minerales. Entre ellos se encontraban grandes cantidades de pirita (FeS2), uno de los más importantes minerales de hierro. Gripsholm usaba pirita de Stora Kopparberg y también de otras minas, pero algo extraño succedía cuando se usaba la pirita de esta mina en particular.

Stora Kopparberg
Stora Kopparberg (Lapplaender / Creative Commons Attribution-Sharealike 2.0 Germany License).

El proceso químico extraía el azufre de la pirita, pero la de Stora Kopparberg dejaba un residuo rojizo que no era azufre y que no aparecía en la de las otras minas: el azufre obtenido de ella era impuro. Los técnicos de Gripsholm pensaron al principio que se trataba de arsénico, algo que no sólo no tenía utilidad para ellos sino que era muy tóxico, con lo que dejaron de utilizar la pirita de Stora Koppaberg. Sin embargo, cuando Gahn y Berzelius se enteraron de esto decidieron asegurarse de que ese resto rojizo era, en efecto, arsénico.

Para ello aislaron unos 200 kg de azufre impuro de la pirita de la mina de Falun y luego separaron, a su vez, el azufre del residuo rojizo que constituía la impureza. Consiguieron así una pequeña muestra de 3 g del polvo rojizo que supuestamente era arsénico. Como puedes imaginar, no llevó mucho tiempo a dos químicos de la talla de Gahn y Berzelius –sobre todo el segundo– darse cuenta de que aquello no podía ser arsénico.

Al principio Berzelius pensó que podía tratarse de un elemento muy raro descubierto unas décadas antes, el teluro (aún no hemos llegado a él en la serie, pero se parece en muchas cosas al selenio por estar en el mismo grupo). En alguna carta inicial el sueco expresó esta sospecha. Sin embargo, como no estaba seguro, se llevó parte de la muestra de Gripsholm a su laboratorio principal en Estocolmo y allí realizó un examen más detallado. Tras ese análisis no le quedó duda: aunque se parecía al teluro, el residuo rojizo era un elemento nuevo y desconocido hasta entonces. El descubrimiento se produjo en 1817, tan sólo un año después de la compra de Gripsholm.

Dado que se parecía al teluro y que el nombre de ese elemento provenía del latín tellus (tierra), Berzelius decidió bautizar al nuevo elemento con un nombre relacionado. Si el teluro era el elemento de la Tierra, el otro sería el elemento de la Luna, cuyo nombre griego es Selene, con lo que lo llamó selenio. Sí, es un poco tonto y lleva a confusión –el helio, por ejemplo, se llama así porque se detectó por primera vez en el Sol, Helios–, ya que el selenio no tiene absolutamente nada que ver con la Luna, pero así son las cosas.

Berzelius determinó cuidadosamente las propiedades del selenio puro, así como los tipos de compuestos que formaba con oxígeno, fósforo, azufre y otros elementos conocidos. El selenio resultó tener varias formas alótropas, es decir, de la misma composición pero diferente estructura y propiedades, como sucede con muchos otros elementos. El polvo rojizo que se había encontrado en Gripsholm era uno de estos alótropos, formado por anillos de ocho átomos de selenio (Se8), y es una forma muy común al obtener el elemento a partir de reacciones químicas a alta temperatura. Recibe el nombre de selenio rojo.

Selenio rojo
Selenio rojo (W. Oelen / Creative Commons Attribution-Sharealike License 3.0).

Las otras dos formas alotrópicas más comunes son menos llamativas. Si se funde el selenio rojo es posible luego enfriarlo de modo que forme una sustancia amorfa parecida al vidrio pero de color negro, cuya estructura química es mucho más compleja que la del selenio rojo. Este selenio recibe el nombre de selenio negro y está formado por polímeros de miles de átomos de selenio unidos unos a otros en forma de anillos entrelazados.

Selenio negro
Selenio negro (Images of Elements / Creative Commons Attribution-Sharealike License 3.0).

Como dije al principio ninguna de estas formas de selenio puro es químicamente estable: al exponerlas al aire, por ejemplo, ambas forman óxidos de selenio y dejan de ser puras. El selenio suele venderse en forma de pastillas de selenio negro, pero cubiertas con una fina capa del alótropo más estable, el selenio gris, formado fundamentalmente mediante el enfriamiento muy lento de selenio fundido. Este enfriamiento lento permite que se formen cristales hexagonales de átomos de selenio, a diferencia de las dos formas amorfas anteriores. Aunque, como digo, siga sin ser estable, la estructura cristalina lo es mucho más que las otras dos: por ejemplo, no se oxida tanto al ser expuesta al oxígeno del aire.

Selenio gris
Pastillas de selenio negro recubiertas de selenio gris (W. Oelen / Creative Commons Attribution-Sharealike License 3.0).

Al observar el selenio gris cristalino, su color y su brillo metálico al pulirlo, Berzelius llegó a la conclusión de que se trataba de un metal, a pesar de que hoy sabemos que sus propiedades electrónicas son las de un elemento no metálico o, como mucho, un semimetal. Por ejemplo, desde el principio se realizaron experimentos para medir su resistencia eléctrica, que resultó ser mucho mayor que la de los metales “de verdad”. Está muy a la derecha de la tabla, en el mismo grupo que el azufre y el teluro y justo entre ambos, de modo que tiene propiedades intermedias entre los dos. Este “muy a la derecha” significa, por la estructura de la tabla periódica, que el selenio está muy cerca de completar una capa electrónica, de modo que puede alcanzar la estabilidad ganando un par de electrones más –lo mismo que oxígeno, azufre y teluro–. De ahí que su estado de oxidación más común sea -2.

Sin embargo también puede mostrar estados de oxidación +2, +4 y +6 en los que no gana electrones sino que los pierde. Esto sucede, por ejemplo, si se encuentra con oxígeno –un elemento muy electronegativo, es decir, muy hambriento de electrones–, en cuyo caso puede formar diferentes óxidos como SeO, SeO2 o SeO3. Algo parecido le pasa al azufre, pero el selenio tiene una capa electrónica más, de modo que es menos electronegativo y puede llegar a comportarse como un semimetal, lo mismo que el silicio y otros elementos similares.

El propio Berzelius notó en sus experimentos algo preocupante: el selenio parecía ser tóxico en algunos de sus compuestos. En sus propias palabras describiendo el selenuro de hidrógeno (H2Se),

El gas tiene el olor del sulfuro de hidrógeno [H2S, el gas de las bombas fétidas] cuando está diluido en el aire; pero si se respira más concentrado produce una sensación dolorosa en la nariz y una inflamación violenta que desemboca en una inflamación de las mucosas. Aún sigo sufriendo los efectos de haber respirado hace unos días una burbuja de selenuro de hidrógeno no más grande que un guistante pequeño. Apenas había percibido el sabor hepático en la boca cuando experimenté otra sensación aguda: me entró un mareo que, sin embargo, pronto me abandonó, y la sensibilidad de la membrana schneideriana [una mucosa que cubre el seno maxilar] estaba tan dañada que el amoníaco más fuerte apenas producía un efecto sobre la nariz.

Dejando aparte la audacia o imprudencia de Berzelius, desde el principio estuvo claro que el selenio era algo con lo que era necesario tener cuidado. Las buenas noticias eran que, dada su escasez, era muy difícil estar expuesto a burbujas de selenuro de hidrógeno como las que atacaron a Berzelius salvo que las produjera uno mismo. Sin embargo sí es cierto que muchos compuestos del selenio –no sólo el H2Se sino el selenio puro y muchas de sus sales– son tóxicas, aunque no tengas que preocuparte por ello porque es rarísimo que estés expuesto a estos compuestos.

Al mismo tiempo que satisfacíamos nuestra curiosidad sobre este nuevo elemento, muchos científicos e ingenieros intentaban determinar si tenía alguna propiedad especial que lo hiciera útil industrialmente, o si era simplemente una impureza indeseable. Pronto se determinó que era, eléctricamente hablando, un semiconductor –como el silicio–, pero no era el único ni eso lo hacía especial.

Hubo que esperar décadas, pero en 1873 un ingeniero británico, Willoughby Smith, descubrió algo realmente inusual en el selenio, por total y completa casualidad una vez más. Willoughby estaba involucrado en la fabricación e instalación de cables submarinos de telégrafo eléctrico, y se hallaba intentando diseñar circuitos de prueba que permitiesen comprobar que el cable submarino transmitía perfectamente según se iba soltando bajo el agua.

Para su circuito de prueba hacía falta un semiconductor, y Willoughby empleó cilindros de selenio gris (recuerda, la forma cristalina), que no funcionaron bien: eran inconsistentes en sus propiedades eléctricas, de modo que presentaban una resistencia en el laboratorio y otra distinta –mucho mayor –al meterlos bajo el agua. El británico no hizo lo que imagino que hubiera hecho yo –sustituir el selenio por otro semiconductor– sino que intentó determinar por qué el selenio cambiaba su resistencia eléctrica.

Tras realizar experimentos en laboratorio Willoughby llegó a una conclusión sorprendente, que publicó en Nature bajo el título Effect of Light on Selenium during the passage of an Electric Current (Efecto de la luz sobre el selenio durante el paso de una corriente eléctrica): el selenio gris era extraordinariamente sensible a la luz. Al iluminarlo su resistencia eléctrica disminuía, de modo que al probar los circuitos bajo la luz del Sol el selenio gris conducía relativamente bien –para ser un semiconductor, por supuesto– pero al sumergirlo en las profundidades y la consecuente oscuridad su resistencia aumentaba mucho. Esto era un problema para probar cables telegráficos, pero una propiedad utilísima para muchas otras cosas.

Se trataba del primer semiconductor fotosensible que conocíamos, y los ojos de los ingenieros de todo el mundo se pusieron a hacer chiribitas. Entre ellos se encontraba nada menos que Alexander Graham Bell, que se planteó lo siguiente: ¿no sería posible convertir la voz en pulsos luminosos en un emisor y luego recibir esos pulsos con un receptor de selenio para convertirlos en impulsos eléctricos? Junto con su ayudante, Charles Sumner Tainter, Bell puso manos a la obra y los dos hombres consiguieron su propósito en 1880.

El aparato, bautizado con el magnífico nombre de fotófono, era de una sencillez propia de los genios. El emisor tenía un espejo parabólico de gran tamaño con una bombilla en su foco, que recibía directamente la voz de quien hablaba. El sonido hacía vibrar el espejo, con lo que los rayos de luz eran reflejados en distintas direcciones cuando el espejo vibraba: el haz se “esparcía” o se “concentraba” según la forma del espejo vibrante.

El receptor, a su vez, tenía otro espejo parabólico con una pieza de selenio en el foco unida a un circuito eléctrico: allí pasaba justo lo contrario. El receptor de selenio recibía pulsos de luz acompasados a la luz que llegaba al espejo, de modo que el circuito recibía pulsos eléctricos cuando el selenio recibía luz y, en consecuencia, disminuía su resistencia eléctrica. El aparato funcionaba estupendamente bien e imagino que a muchos les hubiera parecido magia. A mí lo que me sorprende es su absoluta sencillez.

Fotófono
Receptor del fotófono del Alexander Graham Bell, con su pieza de selenio en el foco (dominio público).

El fotófono fue eclipsado unos años más tarde por la radio, pero siguió utilizándose con usos muy concretos pero importantísimos. A diferencia de las ondas de radio, mucho más difíciles de enfocar, el fotófono permitía comunicarse a distancia y sin cables de un modo muy preciso, con lo que en la guerra era muchísimo más útil que la radio… siempre que hubiera una línea de visión ininterrumpida entre emisor y receptor, por supuesto. Ése era uno de sus puntos flacos, ya que la niebla, la lluvia o una cadena montañosa lo dejaban fuera de juego.

Sin embargo, Alexander Graham Bell lo consideró hasta su muerte su mayor invento –más importante que el teléfono–, y el concepto no es tan diferente del que utilizaríamos muchos años más tarde al desarrollar la fibra óptica, que también convierte la información en pulsos luminosos que luego se transforman, en el receptor, en impulsos eléctricos. Sin embargo, ahora ya no usamos selenio como hizo Bell, por razones que describiré en un momento.

Durante un tiempo el selenio fue muy utilizado como fotorreceptor en muchos circuitos fotosensibles, como los de los fotómetros en fotografía o incluso células fotoeléctricas que usaban luz en vez de radiación ultravioleta o infrarroja como las modernas. Y es que el selenio, como otros semiconductores fotosensibles, es capaz no sólo de disminuir su resistencia eléctrica ante la luz: es capaz, si las condiciones son las adecuadas, de generar una corriente eléctrica al exponerlo a la luz. Es un material no sólo fotosensible, sino fotovoltaico. De hecho, algunos de los fotómetros de selenio usados en fotografía ni siquiera necesitan una pila para funcionar, sino que la pieza de selenio genera el suficiente voltaje para el aparato al exponerlo a la luz.

Fotómetro de selenio
Fotómetro de selenio (Audriusa / Creative Commons Attribution-Sharealike 3.0 License).

Además de sus propiedades fotovoltaicas, a finales del siglo XIX se descubrió que era posible usarlo como semiconductor para fabricar rectificadores de mayor calidad que los anteriores. Un rectificador es un dispositivo usado en electrónica para convertir una corriente alterna en otra continua, lo cual es utilísimo en una enorme variedad de aparatos, por ejemplo televisores o radios.

El caso es que, por unas y otras razones, hubo una “edad de oro del selenio” entre 1900 y 1940. Sin embargo esto se terminó y hoy en día apenas se usa en electrónica –y, como veremos, en casi ninguna otra cosa–, una vez más por varias razones. La primera es que ya he dicho repetidas veces que el selenio es muy, muy escaso, y pronto descubrimos otros semiconductores de características muy similares –incluso en sus propiedades frente a la luz–, pero muchísimo más comunes y por lo tanto mucho más baratos. Quien destronó al selenio en casi todos sus papeles fue el silicio, también con propiedades fotovoltaicas, también un excelente semiconductor… y constituyente de un 27% de la corteza terrestre.

Rectificadores de selenio
Rectificadores de selenio del ordenador MADDIDA (1950).

Pero hubo una razón más que seguro que te estás oliendo ya, como hizo Berzelius desde el principio: el selenio y muchos de sus compuestos son tóxicos. Cuando los rectificadores de las televisiones pegaban un petardazo por alguna razón, del aparato salía un olor desagradable y, además, un gas tóxico. He leído que los técnicos sabían que había fallado el rectificador precisamente por el olor nauseabundo, aunque no sé si también eran conscientes de que estaban respirando un gas venenoso.

De modo que llegó el ocaso del selenio, más o menos hacia 1940-1950. Hoy en día se produce una cantidad bastante pequeña, unas 2 000 toneladas anuales en todo el mundo; sé que parece mucho, pero es una cantidad ridícula comparada con la de cualquier otro semiconductor “exitoso”. Y de esa cantidad apenas usamos nada en electrónica.

De hecho, la mitad de la producción mundial se destina al vidrio de colores. Si recuerdas su forma alotrópica roja, el color es muy bello e intenso, y se emplea para dar color al vidrio. Al estar embebido en el vidrio no hay peligro –salvo que se funda, algo que no va a pasar en una casa– de que se emitan gases tóxicos.

Selenio en vidrio
Vidrio tintado con selenio.

También se emplea, en menor medida, en aleaciones diversas, lo mismo que en la obtención de manganeso mediante la electrólisis, en forma de SeO2. Incluso se sigue utilizando en pequeñas cantidades para la fabricación de células fotovoltaicas, haciendo honor a su pasado fotosensible, unido a otros semiconductores. Sin embargo, como dije antes, se trata de un elemento cuyo glorioso pasado ya queda lejos.

Irónicamente, en los años 50 –cuando llegaba su ocaso– se descubrió que formaba parte de la bioquímica de algunos organismos simples. Esto puede parecer contradictorio porque he dicho que es tóxico, pero pasa muchas veces que algunos elementos químicos son necesarios en pequeñas cantidades pero peligrosos en grandes concentraciones.

De hecho un par de décadas después descubrimos que no sólo existe en nuestro cuerpo, sino que es un oligoelemento esencial para la vida de todos los mamíferos. Forma parte de dos aminoácidos, la selenocisteína y la selenometionina, además de varias enzimas, y en resumen sin pequeñas cantidades de selenio no podríamos vivir. Afortunadamente se trata de uno de esos casos en los que no hay que preocuparse: en una dieta normal y corriente hay suficiente selenio para olvidarse de ello, y no hay tanto que sea un peligro.

Selenocisteína y selenometionina
Selenocisteína (izq.) y selenometionina (der.).

Sí, es uno de esos casos: no podemos vivir sin selenio ni tampoco con un exceso de este elemento. No he conseguido descubrir exactamente qué hace en el cuerpo a nivel químico, pero sí que interfiere en suficientes procesos como para ser terrible en grandes concentraciones. Por encima de 400 microgramos diarios puede producir selenosis, pero una vez más no hay por qué preocuparse ya que, en condiciones normales, no estamos expuestos a tal cantidad de selenio en nuestra vida cotidiana.

Lo que sí es muy peligroso y no hace falta una gran cantidad para que lo sea es el selenuro de hidrógeno, H2Se, el gas que inhaló por accidente el bueno de Berzelius. Es hediondo y además corrosivo, ya que al disolverse en agua le proporciona carácter ácido. En contacto con las mucosas, como comprobó el químico sueco, puede provocar estragos. Una vez más lo bueno es que, salvo en un laboratorio, nadie suele estar expuesto a este gas.

En la siguiente entrega de la serie nos acercaremos aún más al margen derecho de la tabla con un elemento aún más reactivo que el selenio: el elemento de treinta y cinco protones, el bromo.

Para saber más (esp/ing cuando es posible):

17 Nov 08:53

(Vídeo) Doodling in Math Class: Dragon Dungeons

by ^DiAmOnD^

Hoy os traigo un nuevo vídeo de Vi Hart. Se trata de la segunda parte de DRAGONS, y sus protagonistas vuelven a ser los fractales, con la Dragon Curve, la curva de Koch y el triángulo de Sierpinski como principales protagonistas:

No se puede negar que la señorita Hart (cuyo canal de youtube es éste) se curra mucho sus vídeos.

Entra en Gaussianos si quieres hacer algún comentario sobre este artículo, consultar entradas anteriores o enviarnos un mensaje.

Construye tú también el poliedro de Császár.

17 Nov 08:40

Ecuaciones de Maxwell y Relatividad

by reyeszam

Hoy estamos realmente contentos en Cuentos Cuánticos porque tenemos el palcer de presentar a una nueva colaboradora, Reyes Zambrano (@MReyesZam). Seguro que nos hará pasar buenos ratos leyendo sus aportaciones a este blog. Y qué mejor manera de empezar que entrando fuerte. Hoy nos hablará sobre las ecuaciones de Maxwell y relatividad, una entrada para aficionados y estudiantes de relatividad especiao y electromagnetismo. Disfrutadla.

Bienvenida Reyes y gracias por participar :)

¿Qué tienen que ver las ecuaciones de Maxwell con la relatividad? En seguida vamos a verlo, pero, empecemos por el principio…

Maxwell

James Clerk Maxwell en una ilustración de 1880 aparecida en la revista Popular Science Monthly Volume 17

Las ecuaciones de Maxwell llevan más de 140 años describiendo los fenómenos electromagnéticos. Aquí las tenemos:

\vec{\nabla}\cdot \vec{E} = \dfrac{\rho}{\epsilon_0}

\vec{\nabla}\times \vec{B} = \mu_0 \vec{J} +\dfrac{1}{c^2} \dfrac{\partial \vec{E}}{\partial t}

\vec{\nabla}\cdot \vec{B} = 0

\vec{\nabla}\times \vec{E} = -\dfrac{\partial \vec{B}}{\partial t}

donde \vec{E} es el campo eléctrico, \vec{B} es el campo magnético y \vec{J} la densidad de corriente.

Estas ecuaciones han resistido a todas las teorías de la Física que han venido después, incluida la relatividad. Esto significa que deberían poder aplicarse cuando tratemos con fenómenos relativistas.

Los fenómenos electromagnéticos son, en algunas ocasiones, curiosos. Por ejemplo, si tenemos un grupo de cargas fijas, un observador en reposo respecto a ellas ve un campo eléctrico asociado, pero otro observador que está en movimiento puede ver también un campo magnético. ¿Cómo se pasa de una descripción a la otra? Necesitamos unas relaciones matemáticas que hagan las transformaciones . Y esas relaciones no son las conocidas transformaciones de Galileo, son las transformaciones de Lorentz.

Se llaman así porque en 1904 fueron escritas por Hendrik Antoon Lorentz. Las transformaciones proporcionaban una base para el desarrollo de la relatividad especial, aunque las consecuencias importantes de la relatividad no fueron descubiertas por este científico. Lorentz creía en el concepto de eter, e intentó ajustar sus cálculos para que cuadraran con dicho concepto.

Lorentz

Hendrick Antoon Lorentz por Jan Veth

Las transformaciones conectan las coordenadas del espacio y del tiempo de un sistema de referencia con las cantidades correspondientes en otro sistema de referencia que se encuentra en movimiento uniforme respecto al primero. Podemos interpretarlas como una rotación en el espacio de cuatro dimensiones x, y, z, t.

x' = \dfrac{1}{\sqrt{1-\dfrac{u^2}{c^2}}}\left( x - u t \right)

y' = y

z' = z

t' = \frac{1}{\sqrt{1-\dfrac{u^2}{c^2}}}\left( t - \dfrac{u}{c^2} t \right)

donde \vec{u} es la velocidad uniforme de un sistema de referencia S’ que se mueve en la dirección x respecto de otro sistema de referencia S.  x',y',z',t' son las coordenadas en el sistema de referencia S’ y x, y, z, t son las coordenadas en el sistema de referencia S.

Henri Poincaré y Albert Einstein enunciaron el principio de la relatividad, según el cual las leyes de la naturaleza deben ser las mismas para dos observadores en movimiento uniforme uno respecto al otro.

En concreto, en 1905, en su artículo “Sobre la electrodinámica de los cuerpos en movimiento” (en alemán, “Zur elektrodynamik bewegter körper”), Einstein enunció los dos postulados básicos de la relatividad.

卡西爱因斯坦Karsh Einstein

El primer postulado dice: “Las leyes de la naturaleza son las mismas en todos los sistemas de coordenadas que se mueven con movimiento uniforme uno respecto al otro”.

Y sabemos que los postulados de la relatividad especial tienen que cumplirse. Al menos, hasta ahora, todos los intentos de encontrar fisuras en esta teoría han fallado. Luego entonces, las ecuaciones de Maxwell tendrán que cumplir el primer postulado.  Y ¿lo hacen? Claro que sí. El propio Einstein en el mencionado artículo de 1905 lo comprueba.

Sin embargo, hemos visto que las transformaciones de Lorentz mezclan las coordenadas del espacio y del tiempo. En las ecuaciones de Maxwell las coordenadas deberían también aparecer en una forma simétrica. Dicho de otra manera, que entren en la ecuación en un nivel equivalente tanto coordenadas espaciales como el tiempo, con rotacionales y divergencias en cuatro dimensiones.

Hay una forma de escribir estas ecuaciones, llamada formulación covariante, en la que  tenemos esta simetría.  Serán las mismas ecuaciones, pero escritas de otro modo . Para llegar a esta formulación habrá que hacer algunas cuentas. Pues, allá vamos…

Sabemos que los campos eléctrico y magnético pueden derivarse de los potenciales escalar y vectorial, \phi y \vec{A}:

\vec{B} = \vec{\nabla}\times\vec{A}

\vec{E} = -\vec{\nabla}\cdot\phi - \dfrac{\partial\vec{A}}{\partial t}

Y con ambos potenciales vamos a escribir un cuadrivector \vec{U}=(U_1, U_2, U_3, U_4) donde:

U_1 = A_x

U_2 = A_y

U_3 = A_z

U_4 = \dfrac{i\phi}{c}

Al que vamos a llamar cuadripotencial o potencial universal.

Si calculamos las tres componentes del campo eléctrico y las tres del campo magnético, usando las definiciones anteriores, y sustituimos las componentes de los potenciales vector y escalar por las del potencial universal, obtenemos:

\frac{i}{c} E_1 = \dfrac{\partial U_1}{\partial x_4} - \dfrac{\partial U_4}{\partial x_1}

\frac{i}{c} E_2 = \dfrac{\partial U_2}{\partial x_4} - \dfrac{\partial U_4}{\partial x_2}

\frac{i}{c} E_3 = \dfrac{\partial U_3}{\partial x_4} - \dfrac{\partial U_4}{\partial x_3}

B_1 = \dfrac{\partial A_z}{\partial x_2}-\dfrac{\partial A_y}{\partial x_3}

B_2 = \dfrac{\partial A_x}{\partial x_3}-\dfrac{\partial A_z}{\partial x_1}

B_3 = \dfrac{\partial A_y}{\partial x_1}-\dfrac{\partial A_x}{\partial x_2}

Por tanto, \vec{B} e \dfrac{i}{c}\vec{E} juntos, forman el rotacional cuadridimensional de \vec{U}.

Si ahora definimos una cantidad a la que vamos a llamar F, Tensor de Campo Electromagnético, como:

F_{\mu\nu} = \dfrac{\partial U_{\nu}}{\partial x_{\mu}} - \dfrac{\partial U_{\mu}}{\partial x_{\nu}}

Resulta que F es el rotacional en cuatro dimensiones de \vec{U}.

F = \vec{\square}\times \vec{U}

¿Os gustan las matrices? Pues, vamos a escribir F en forma matricial, simplemente, para verlo mejor:

F = \left( \begin{array}{cccc}  0 & B_3 & -B_2 & -\frac{i}{c}E_1 \\  -B_3 & 0 & _1 & -\frac{i}{c}E_2 \\  B_2 & -B_1 & 0 & -\frac{i}{c}E_3 \\  \frac{i}{c}E_1 & \frac{i}{c}E_2 & \frac{i}{c}E_3 & 0  \end{array}  \right)

Ahora tenemos que calcular la divergencia del tensor de campo electromagnético. Nos queda lo siguiente.

\sum_{\nu=1}^{4} \dfrac{\partial F_{\mu\nu}}{\partial x_{\nu}} = \dfrac{\partial}{\partial x_{\mu}} \sum_{\nu} \dfrac{\partial U_{\nu}}{\partial x_{\nu}} - \sum_{\nu} \dfrac{\partial^2 U_{\mu}}{\partial x_{\nu}^2}

Y ahora, ¿qué hacemos con ésto? Aunque parece que las expresiones son cada vez más complicadas, en realidad, ya está casi todo el trabajo hecho. Vamos a ver que los dos sumandos a la derecha del igual van a simplificarse, de tal forma, que nos va a llevar a una fórmula muy sencilla para justo la  mitad de las ecuaciones de Maxwell.

El primer sumando es cero. Y ¿por qué? La respuesta está en una condición que hacemos cumplir a los potenciales escalar y vectorial, la llamada condición de Lorentz. Es ésta:

\vec{\nabla} \cdot \vec{A} = -\mu_0 \epsilon_0 \dfrac{\partial \phi}{\partial t}

Que escrita en función de las componentes del potencial universal es:

\sum_{i=1}^{4} \dfrac{\partial U_{\nu}}{\partial x_{\nu}} = 0

Hay una razón para imponer esta condicion y es simplificar las expresiones que se obtienen cuando en la segunda y cuarta ecuaciones de Maxwell sustituimos las ecuaciones que relacionan los campos con los potenciales. Operando, tras esta simplificación,  llegamos a una ecuación de onda para el potencial vector:

\nabla^2 \vec{A} - \frac{1}{c^2} \dfrac{\partial^2 \vec{A}}{\partial t^2} = -\mu_0 \vec{J}

Donde \vec{J} es la densidad de corriente.

Usando el cuadripotencial se escribe así:

\sum_{\nu=1}^{4} \dfrac{\partial^2 U_{\lambda}}{\partial x_{\nu}^2} = -\mu_0 J_{\lambda}

donde J_{\lambda} son las componentes del cuadrivector J. Porque la densidad de corriente también puede, y debe, escribirse en forma covariante.  Las tres primeras componentes seran las componentes conocidas en tres dimensiones y la cuarta es ic\rho . Esto es así debido a la relación que existe entre ambas, la conocida ecuación de continuidad:

\vec{\nabla}\cdot \vec{J} + \dfrac{\partial \rho}{\partial t} = 0

Usando el cuadrivector se escribe:

\sum_{\nu=1}^{4} \dfrac{\partial J_\nu}{\partial x_\nu} = 0

O, lo que es lo mismo.

\vec{\square}\cdot \vec{J} = 0

Pero, no nos desviemos del camino. En la ecuación de onda del potencial vector escrita usando el cuadripotencial aparece, a la izquierda del igual, una expresión que vimos antes cuando calculamos la divergencia del tensor de campo electromagnético. Vamos a sustituir en la expresión de la divergencia del tensor esta expresión por lo que nos ha salido en la ecuación del potencial vector. Y nos encontramos, una vez hecho ésto, con una bonita expresión para F:

\sum_{\nu} \dfrac{\partial F_{\mu\nu}}{\partial x_{\nu}} = \mu_0 J_{\mu}

Pero a los físicos nos gustan más las ecuaciones simples y elegantes, así que la escribimos de esta manera:

\vec{\square}\cdot F = \mu_0 \vec{J}

Esta ecuación representa a las dos primeras ecuaciones de Maxwell, en lo que se llama Formulación Covariante de las Ecuaciones de Maxwell.

Las otras dos ecuaciones de Maxwell vienen representadas, en la mencionada formulación, por la siguiente expresión:

\dfrac{\partial F_{\mu\nu}}{\partial x_{\lambda}} + \dfrac{\partial F_{\nu\lambda}}{\partial x_{\mu}} + \dfrac{\partial F_{\lambda\mu}}{\partial x_{\nu}} = 0

donde \mu \neq \nu \neq \lambda representan tres de los subídices 1, 2, 3 ó 4. Esta formula se deduce directamente de la expresión del tensor de campo electromagnético.

Llegamos al final. Ahora, ya sabemos  cómo se escriben las ecuaciones de Maxwell para que las coordenadas del espacio y del tiempo estén tratadas a un nivel equivalente tal como se hace en relatividad.

¡Hasta pronto!


Archivado en: relatividad especial, Sin categoría Tagged: campo eléctrico, campo magnético, ecuaciones de Maxwell, formulación covariantes, relatividad especial, tensor electromagnético, transformaciones de Lorentz
12 Nov 20:46

Francis en #rosavientos: El meteoro de Cheliábinsk, el asteroide con seis colas y las exotierras de Kepler

by emulenews

Dibujo20131109 Russian meteorite picture - kostanai - kazakhstan - nasha gazeta newspaper

Ya puedes oír el audio de mi sección Eureka, en La Rosa de los Vientos, de Onda Cero, siguiendo este enlace. Como siempre una transcripción libre y algunos enlaces.

Esta semana se han publicado nuevos datos sobre el meteoro que cayó en Rusia el pasado 15 de febrero en Cheliábinsk. ¿Qué novedades hay sobre este meteoro? Ya comenté en su momento en Eureka los datos iniciales sobre su trayectoria y la estimación mediante infrasonidos de su masa. Estos datos preliminares han sido revisados esta semana por dos artículos publicados en Nature y un artículo publicado en Science. El meteoro que impactó en Cheliábinsk tenía una masa entre 12.000 y 13.000 toneladas métricas, casi el doble de lo que se estimó en su momento, impactó en la parte superior de la atmósfera a una velocidad de unos 19 km/s, más de 50 veces la velocidad del sonido en esa región de la atmósfera, liberando una energía de unos 500 kilotones de TNT, que por fortuna fue, en gran parte, absorbida por la atmósfera (lo que minimizó los daños, aunque llevó al hospital por lesiones leves a 1.200 personas).

Desde el impacto de Tunguska en 1908, la Tierra no había sido testigo una colisión espacial tan destructiva. El meteoro se fracturó en miles de pedazos a una altura entre 30 y 45 km  El 75% de la masa del asteroide se vaporizó, mientras que el resto se convirtió en polvo. Sólo el 0,05% (unas 4 o 6 toneladas) sobrevivió a la explosión y cayó al suelo en forma de meteoritos. Sólo se han encontrado unos pocos meteoritos en tierra, el mayor de los cuales, con 600 kg de masa, formó un agujero circular en el hielo de la superficie del lago Chebarkul, a 60 km al suroeste de Cheliábinsk y acabó en el fondo del lago desde donde ha sido recuperado para su estudio. Los nuevos análisis de todos los datos recabados sobre este meteoro nos dan mucha información sobre este tipo de sucesos y nos permite estimar la probabilidad de futuros sucesos similares.

Más información en este blog en «Los últimos datos sobre el meteoro de Chelyabinsk,» LCMF, 7 Nov 2013. Los tres artículos técnicos son Jiří Borovička et al., «The trajectory, structure and origin of the Chelyabinsk asteroidal impactor,» Nature, AOP, 06 Nov 2013; P. G. Brown et al., «A 500-kiloton airburst over Chelyabinsk and an enhanced hazard from small impactors,» Nature, AOP 06 Nov 2013; y Olga P. Popova et al., «Chelyabinsk Airburst, Damage Assessment, Meteorite Recovery, and Characterization,» Science, AOP 07 Nov 2013 [DOI].

En español te recomiendo leer a Alicia Rivera, «El superbólido ruso alcanzó un brillo aparente de 30 veces el Sol,» El País, 6 Nov 2013, Teresa Guerrero, «El riesgo de meteoritos peligrosos es 10 veces más alto de lo que se creía,» El Mundo, 7 Nov 2013, José Manuel Nieves, «La otra mitad del meteorito de Chelyabinsk está aún ahí arriba,» ABC, 6 Nov 2013, y «El asteroide que explotó sobre los cielos rusos mandó a más de 1.200 personas al hospital,» Agencia SINC, 7 Nov 2013.

Los oyentes están interesados en el riesgo que supone la colisión de meteoritos peligrosos contra la Tierra. ¿Qué hemos aprendido al respecto gracias al meteoro de Cheliábinsk? Gracias al análisis de todos los meteoros que han colisionado con la Tierra en el siglo pasado y a los datos del meteoro de Cheliábinsk los expertos estiman que el riesgo de impactos similares es 10 veces mayor de lo que se creía hace sólo un año. El meteoro de Cheliábinsk es una condrita cuya composición indica que su origen está en el cinturón de asteroides que orbita el Sol entre los planetas Marte y Júpiter. Se estima que se formó hace 4452 millones de años y desde entonces había estado vagando por el Sistema Solar hasta que la Tierra se topó en su camino. Los cálculos estadísticos realizados teniendo en cuenta este meteoro indican que las colisiones con asteroides cercanos son más frecuentes de lo esperado. Hasta ahora se pensaba que un impacto como el de Cheliábinsk solamente tenía lugar una vez cada unos 150 años, pero ahora creemos que su frecuencia es mayor y se aproxima a un choque cada unos 30 años. Eso significa que los eventos de tipo Tunguska tendrían lugar cada pocos siglos en vez de una vez por milenio como creíamos hasta hace menos de un año. Antes se creía que existían entre tres y cuatro millones de asteroides como el de Cheliábinsk en el Sistema Solar, pero los nuevos datos indican la cifra real está más cerca de los veinte millones. Las agencias espaciales tendrán que reforzar los programas de detección de asteroides cercanos si queremos anticipar este tipo de eventos en el futuro.

Dibujo20131109 rotating asteroid P 2013 P5 with 6 tails

Los asteroides del cinturón de asteroides entre los planetas Marte y Júpiter guardan aún muchos misterios por desvelar. ¿Hay algo curioso al respecto que nos puedas contar? El telescopio espacial Hubble de la NASA observó en agosto de este año el asteroide más misterioso hasta el momento, llamado P/2013 P5, misterioso porque tiene seis colas de polvo, como las de los cometas. La publicación en la revista The Astrophysical Journal Letters ha causado gran expectación en la comunidad científica porque nunca se había vista nada igual antes. Todavía no se tiene ninguna explicación adecuada de este misterio. Lo más asombroso es que las colas del asteroide cambian muy rápido, en tan sólo dos semanas. Se cree que este asteroide está en rotación y hay una ley física que afirma que hay una velocidad de rotación máxima a partir de la cual la superficie del asteroide comienza a volar a pedazos, expulsando polvo en erupciones periódicas. Se cree que este asteroide ha superado la velocidad de rotación crítica y está expulsando polvo de forma periódica que da lugar a las seis colas que ha observado el telescopio espacial Hubble. Pero esta hipótesis todavía no está confirmada, pues no se ha podido medir la velocidad de rotación de este asteroide. La verdad es que los asteroides nos guardan aún muchos misterios por desvelar.

Más información en «Hubble Sees an Asteroid with Six Comet-like Tails,» NASA News, 7 Nov 2013, siendo el artículo técnico David Jewitt et al., «The extraordinary multi-tailed main-belt comet P/2013 P5,» The Astrophysical Journal Letters 778: L21, 2013. En español puedes leer a Europa Press, «El asteroide de seis colas,» Público, 8 Nov 2013, Agencias, «El enigmático asteroide ‘aspersor’ de seis colas,» El Mundo, 8 Nov 2013, «El asteroide con seis colas, un «aspersor giratorio» que enloquece a los astrónomos,» RT Ciencia, 8 Nov 2013.

kepler exoplanet candidates - size histogram 2013 NASA

Cambiando de tema, esta semana se han publicado los últimos resultados del telescopio espacial Kepler de la Nasa sobre exoplanetas. ¿Qué se ha descubierto? El último análisis de los datos del telescopio espacial Kepler de la NASA han identificado un total de 833 nuevos candidatos a exoplanetas, de los que 104 son planetas en la zona de habitabilidad de su estrella y 10 de ellos son candidatos a exotierras, planetas del tamaño de la Tierra. Con estos nuevos datos, los candidatos a exoplanetas descubiertos por Kepler ascienden a 3538. Pero lo más importante es el estudio estadístico de estos datos. Se publica en la revista PNAS que el 78% de todos estos planetas son de tamaño terrestre (con un radio inferior a 1,25 veces el de la Tierra) o más pequeños. Como hasta 10 de estos planetas rocosos deben estar en la zona habitable de su Tierra, es decir, podrían ser exotierras, se puede estimar el número de exotierras en nuestra galaxia, la Vía Láctea. El resultado es que el 22% de las estrellas de tipo solar tienen al menos un planeta terrestre situado en la zona habitable. ¡Un quinto de todas las estrellas de tipo solar podrían tener exotierras girando a su alrededor! Esta noticia confirma lo que ya indicaban estudios anteriores, los planetas habitables son muy comunes en nuestra Galaxia. Pero esto no significa que sean planetas con vida. Además conviene recordar que estos resultados estadísticos son pura especulación y que se trata de candidatos a exotierras, que han de ser confirmados por estudios futuros. Por ahora no se trata de planetas confirmados. Hasta el momento, el 90% de los candidatos a planetas de Kepler se han confirmado como planetas, pero queda un 10% de falsos positivos y además su tamaño y órbita podrían ser ligeramente distinta. Así que algunos candidatos a exotierras podrían estar situados fuera de la zona habitable. Pero lo importante es que podemos decir con seguridad que la Vía Láctea está llena de planetas de tamaño terrestre potencialmente habitables. Ahora sólo falta confirmar alguno de ellos de forma definitiva. Un resultado que huele a Premio Nobel.

Más información en «NASA Kepler Results Usher in a New Era of Astronomy,» NASA News, 4 Nov 2013. El artículo técnico es Erik A. Petigura, Andrew W. Howard, Geoffrey W. Marcy, «Prevalence of Earth-size planets orbiting Sun-like stars,» PNAS, AOP 4 Nov 2013. El español te recomiendo leer a Daniel Marín, «Nuevos resultados de Kepler: los planetas habitables de tipo terrestre son comunes en la Galaxia,» Eureka, 4 Nov 2013, Teresa Guerrero, «Una de cada cinco estrellas como el Sol tiene planetas del tamaño de la Tierra en su zona habitable,» El Mundo, 5 Nov 2013.

08 Nov 12:17

La cocina del CIS al extremo

En estos días se han publicado los resultados de la encuesta del CIS, que según todos los medios han dado un resultado acerca de la estimación de voto que muestra una recuperación del PP que conseguiría un 34% de los votos, y toda una serie de resultados que han sido ampliamente reproducidos en todos los medios.
01 Nov 12:25

Sobre el alzhéimer y la prueba del cacahuete

by noreply@blogger.com (Antonio Martínez Ron)

¿Se puede detectar el alzhéimer por la pérdida del olfato? Hace un par de semanas, un estudio publicado en Journal of the Neurological Sciences tuvo bastante eco en los medios norteamericanos: habían conseguido detectar signos precoces del alzhéimer mediante una simple prueba que consistía en oler un bote de mantequilla de cacahuete. Aunque suena estrafalario, los neurocientíficos saben desde hace tiempo que la pérdida del olfato es un indicador de algunas enfermedades degenerativas, entre ellas el alzhéimer, y se afanan en encontrar la manera de detectarlas precozmente. Pero, ¿qué hay de cierto en la noticia sobre esta prueba?

Es mi ultima colaboración con la CCCientífica. Seguir leyendo en: Sobre el alzhéimer y la prueba del cacahuete (Frontera)

Entrada publicada en Fogonazos http://www.fogonazos.es/
31 Oct 20:14

Leonard Susskind nos cuenta qué son el campo y el bosón de Higgs

by emulenews

Como muchos ya sabéis, Lenny Susskind imparte cursos de adultos (como ya hacía Richard Feynman) en los que cuenta conceptos muy complicados de física a un público general (alumnos y exalumnos de la Univ. Stanford). Este vídeo titulado “Demystifying the Higgs Boson” es un buen ejemplo. Lenny nos explica qué es un campo, qué es al vacío de un campo, qué es la masa, cómo le da masa el campo de Higgs a los fermiones y cómo le da masa a los bosones vectoriales. Sin fórmulas matemáticas, pero con las ideas correctas. Algunas de las metáforas que usa ya las he añadido a mi bolso de metáforas sobre el Higgs. Muy recomendable esta charla.


Archivado en: Bosón de Higgs, Ciencia, Física, Noticia CPAN, Noticias, Personajes, Physics, Recomendación, Science Tagged: Bosón de Higgs, Ciencia, Conferencia, Física, Noticias, Personajes
27 Oct 11:24

Cauchy y el rigor en el análisis matemático

by emulenews

Dibujo20131015 cours d analyse - cauchy - book cover and photograph

Muchos historiadores de la matemática afirman que el rigor en matemáticas nació con Augustin-Louis Cauchy. Todo un revolucionario, Cauchy trató de establecer una base rigurosa para el análisis matemático. Un buen ejemplo fue su demostración del teorema del valor intermedio, que afirma que toda función real f(x) continua en un intervalo [a,b] asume cada valor posible entre f(a) y f(b) en ese intervalo. Parece obvio gracias a la idea intuitiva de continuidad y de hecho hasta Cauchy nadie pensó que fuera necesario demostrarlo, pero hoy en día todos los estudiantes de matemáticas se pelean con su demostración rigurosa (aunque sin saberlo, como homenaje en memoria de Cauchy). Por cierto, Cauchy enseñó la demostración de este teorema por primera vez en el curso que impartió en la École Royale Polytechnique en 1816. Su libro de texto de 1821, admirado por más de una generación de matemáticos, presenta dos demostraciones diferentes; la más famosa, la que todos los estudiantes de matemáticas aprenden, fue relegada a un apéndice. Nos lo recuerda Michael J. Barany, “Stuck in the Middle: Cauchy’s Intermediate Value Theorem and the History of Analytic Rigor,” Notices of the AMS 60: 1334-1338, Nov. 2013.

Dibujo20131021 augustin cauchy - stamp - republique francaise

La Revolución Francesa, bajo las consignas de libertad, igualdad y fraternidad, fue acompañada de una revolución matemática. Por primera vez, la élite de los ingenieros militares y civiles comenzó a recibir una formación matemática en París que comprendía las matemáticas más avanzadas del momento. Estos ingenieros aplicaron las matemáticas que estudiaron a los problemas más acuciantes del mundo moderno: infraestructuras, la navegación, la minería, la energía e incluso a la guerra. El buque insignia de esta revolución fue la École Polytechnique (que fue rebautizada como École Royale Polytechnique tras la derrota de Napoleón y el regreso de la monarquía). En esta institución Cauchy dejó su huella como estudiante y como profesor.

Cauchy fue un profesor impopular tanto entre los estudiantes como entre sus compañeros de facultad. Sus clases eran muy densas y difíciles de seguir, muchas veces prolongaba la clase más allá de su horario oficial y además realizaba continuas revisiones del temario. Para Cauchy las matemáticas del siglo XVIII eran una disciplina que había perdido el norte. Todo un siglo de innovaciones matemáticas maravillosas que habían sido logradas a costa del rigor. Matemáticos como Euler manejaban series que no eran convergentes y expresiones formales sin sentido que producían conclusiones absurdas. No estaban claros conceptos tan básicos como el de infinito, el de límite, los números imaginarios y muchos más. Cauchy admiraba la formulación axiomática de la geometría realizada por Euclides. El álgebra presentaba un estado similar, pero era considerada por los matemáticos del siglo XVIII como una herramienta, versátil, pero de poca utilidad a la hora de resolver problemas prácticos. Por el contrario, el análisis era muy útil en todo tipo de problemas prácticos, pero carecía de un formulación rigurosa. Cauchy quería que el status de la geometría y del álgebra fuera extendido al análisis. Por ello decidió revisar todo el análisis desde el punto de vista de la geometría y apoyado por el álgebra como herramienta.

Por supuesto, el “Curso de Análisis” de Cauchy, como suele ocurrir con todo trabajo pionero, carece de rigor en muchos aspectos. Por ejemplo, Cauchy asume que todas las funciones continuas son diferenciables. Sin embargo, lo importante del proyecto de reforma del análisis iniciado por Cauchy, que trata de llevar el rigor al análisis de la mano de la geometría y del álgebra, es que inició un camino hacia el rigor cuya culminación fue el motor de gran parte de la matemática de todo el siglo XIX, con la honrosa excepción del genial Henri Poincaré que vio en el rigor un corsé del que había que deshacerse.

El cénit del rigor en las matemáticas llegó en el siglo XX con Nicolas Bourbaki, el nombre colectivo de un grupo de matemáticos franceses que, en los años 1930, se pusieron a revisar todos los fundamentos de las matemáticas con una exigencia absoluta en el rigor tratando de combatir la corriente que había nacido con Poincaré. Matemáticos como Jean Dieudonné, André Weil, Henri Cartan, Claude Chevalley, y otros antiguos alumnos de la Escuela Normal Superior de París recogieron el guante de Cauchy e impusieron a toda la matemática el concepto de rigor matemático como definición de la labor del matemático.

Un matemático es una máquina de demostrar teoremas con absoluto rigor. La máxima revolucionaria de Bourbaki es Vive la rigueur!

Coda final. Esta entrada participa en la edición 4.1231056 del Carnaval de Matemáticas, cuyo anfitrión es el blog Scientia. Me hubiera gustado escribir una entrada sobre las Matemáticas de la Vida gracias a la Química, pero ya impartí una charla sobre el tema que puedes volver a ver siguiendo este enlace.


Archivado en: Ciencia, Historia, Matemáticas, Mathematics, Personajes, Science Tagged: Ciencia, Historia, Matemáticas, Personajes
27 Oct 08:04

(Vídeo) Solución en 3D para el enigma de los azulejos que aparecen y desaparecen

by ^DiAmOnD^

Seguro que muchos de vosotros conocéis el caso de los azulejos que aparecen y desaparecen (que también se vio con tabletas de chocolate) que se hizo famoso hace unos meses. En la red se podían ver vídeos y animaciones de todo tipo en los que al eliminar algunas piezas de una cuadrícula (de azulejos o de chocolate) la propia cuadrícula parecía quedar tal cual estaba al principio. ¿Llegasteis a ver alguna solución que explicara por qué ocurría aquello?

Antes de nada vamos a ver el vídeo que publiqué en este blog en marzo de este año sobre el tema:

Impresionante, ¿verdad? Bueno, en realidad tampoco lo es tanto, como es natural.

Bien, en aquel post ya decíamos que parece ser que la solución del asunto tiene que ver con el famoso juego inventado por Martin Gardner en el que al recolocar las piezas en las que está dividido un triángulo un cuadradito desaparece:

Bien, pues hoy os traigo una solución en 3D que posiblemente termine por explicar este tema a todos los que todavía no lo hubieran visto (seguro que quedaba gente). Ahí va:

Ahora volved a ver el vídeo anterior. ¿Os cuadra esta explicación? Seguro que no habíais imaginado que podría ser por algo así.


Vía este tuit de @tocamates.


Esta es mi cuarta aportación a la Edición 4.1231056 del Carnaval de Matemáticas, cuyo anfitrión es nuestro amigo José Manuel López Nicolás en su blog Scientia.

Entra en Gaussianos si quieres hacer algún comentario sobre este artículo, consultar entradas anteriores o enviarnos un mensaje.

Vota a Gaussianos en los Premios Bitácoras 2013



Si no sabes cómo hacerlo te lo explico aquí.

Construye tú también el poliedro de Császár.

26 Oct 17:28

Cecilia Payne-Gaposchkin

by omalaled

Durante mucho tiempo se pensó que la composición de las estrellas como nuestro Sol debían ser muy similares a la composición de planetas como el nuestro. La persona que nos sacó de ese error no fue un astrónomo… sino una astrónoma. La maravillosa Cecilia Payne. Lo que vais a leer está sacado del libro Eurekas y Euforias, de Walter Gratzer, otro de aquellos libros maravillosos que recomiendo leer. Me encanta la conclusión final. Sin más preámbulo os copio y pego lo que dice ese libro.

Cecilia Payne-Gaposchkin (1900-1979) fue una astrónoma de gran relieve que sin duda hubiera logrado aún más de lo que consiguió si no hubiera tenido que luchar contra los prejuicios de una profesión aferrada a la tradición. Licenciada en Cambridge inmediatamente después de la primera guerra mundial, intentó inicialmente hacerse bióloga, pero la física formaba parte de su Tripos en Ciencia Natural y así se encontró en el Laboratorio Cavendish, aterrorizada por unos profesores predominantemente misóginos, especialmente Ernest Rutherford, en cuyas clases fue obligada, como única mujer, a sentarse en la primera fila y ser la receptora de las ironías olímpicas del gran hombre.

El trabajo de laboratorio era el terreno del doctor Searle, una némesis barbada y explosiva que producía terror en mi corazón. Si uno cometía un error era enviado a permanecer «de pie en el rincón» como un niño que se ha portado mal. No tenía paciencia con las estudiantes femeninas. Decía que perturbaban el equipamiento magnético y más de una vez le oí gritar: «¡Vaya y quítese su corsé!», pues la mayoría de las chicas llevaban entonces esas prendas en las que los huesos de ballena que les daban rigidez empezaban a ser reemplazados por varillas de acero. Pese a todas sus excentricidades, nos dio una excelente formación en todo tipo de medidas precisas y en el tratamiento correcto de los datos.

La epifanía de Cecilia Payne llegó una tarde cuando, como ella dijo, se le abrió espectacularmente la puerta a un nuevo mundo:

Estaba prevista una conferencia en la Gran Sala del Trinity College. El profesor Eddington iba a anunciar los resultados de la expedición que había dirigido en 1919 para observar el eclipse en Brasil. A los estudiantes del Newnham College se les habían asignado cuatro entradas para la conferencia y (casi por accidente, pues uno de mis amigos no pudo ir) una entrada me tocó a mí. La gran sala estaba abarrotada. El orador era un hombre delgado y de tez oscura que parecía ajeno a su audiencia y hablaba con una completa indiferencia. Hizo un esbozo de la Teoría de la Relatividad en lenguaje popular, como nadie mejor que él podría hacerlo. Describió la contracción de Lorentz-Fitzgerald [una manifestación de la relatividad], el experimento de Michelson-Morley [medida de la velocidad de la luz] y sus consecuencias [la eliminación del éter de la física, de acuerdo con la teoría de Einstein]. Llegó al desplazamiento de las imágenes estelares cerca del Sol tal como predecía Einstein y describió su verificación de la predicción. El resultado fue una completa transformación de mi imagen del mundo. De nuevo fui consciente del estruendo que produjo la comprensión de que todo movimiento es relativo. Cuando volví a mi habitación descubrí que podía reproducir la conferencia palabra por palabra … Creo que durante tres noches no dormí. Mi mundo había quedado tan sacudido que experimenté algo muy parecido a una depresión nerviosa.

Desde entonces, Cecilia Payne quedó completamente enamorada de la astronomía. Leyó todos los libros sobre el tema que pudo encontrar en la biblioteca. El maravilloso Hypothéses cosmogoniques de Henri Poincaré se convirtió, recuerda ella, en una fuente perenne de inspiración.

Supe que iba a haber una noche abierta al público en el Observatorio. Fui en bicicleta por Madingley Road y encontré a los visitantes reunidos en el telescopio Sheepshanks, ese curioso instrumento que, en palabras de William Marshall [un astrónomo residente] «combinaba todas las desventajas de un refractor y un reflector» … El brusco pero amable segundo ayudante, Henry Green, estaba ajustando el telescopio y al poco tiempo tuve una vista de una estrella doble cuyas componentes (como él señaló) diferían en color. «¿Cómo puede ser eso si tienen la misma edad?», le pregunté. Él no encontraba una respuesta y viendo que yo seguía con mis preguntas abandonó desesperado. «Te dejaré encargada de esto», dijo, y se fue escaleras abajo. Para entonces, él había orientado el instrumento a la espiral Andrómeda. Yo empecé a explayarme sobre ella (¡el cielo perdone mi presuntuosidad!) y estaba de pie con una niña pequeña en mis brazos diciéndole lo que tenía que mirar. Oí una risa ahogada detrás de mí y encontré a Eddington allí de pie.

Como le oí decir más tarde cuando llegué a conocerle, Henry Green había ido al estudio de «el profesor» y le dijo: «Hay una mujer haciendo preguntas», y le pidió ayuda. Había llegado el momento y no perdí la oportunidad. Le dije que me gustaría ser astrónoma. ¿Fue entonces o fue más tarde cuando me dio la respuesta que iba a sostenerme frente a tantos rechazos? «No puedo ver ninguna objeción insuperable». Le pregunté qué debería leer. Él mencionó varios libros y descubrí que los había leído todos. Así que él me remitió al Monthly Notices y al Astrophysical Journal. Estaban disponibles en la biblioteca del Observatorio en la que dijo que yo sería bienvenida. Para parafrasear el epitafio de Herschel [William Herschel, el astrónomo del siglo XVIII, él me había abierto las puertas de los cielos.

El entusiasmo y la determinación de Cecilia Payne le ganaron la estima de los más jóvenes y más brillantes astrónomos de Cambridge. Así es como conoció a uno de los más famosos:

Una tarde subí en bicicleta al observatorio de Física Solar con una pregunta en mi mente. Encontré a un joven, al que el cabello le caía sobre los ojos, que estaba sentado en el tejado de uno de los edificios y reparándolo. «He venido a preguntar», le grité, «por qué el efecto Stark [el efecto de un campo eléctrico sobre la posición de las líneas de un espectro] no se observa en los espectros estelares». Bajó y se presentó como E. A. Milne, el segundo en el mando del observatorio. Más tarde se convirtió en un buen amigo y una gran inspiración para mí. No sabía la respuesta a mi pregunta, que sigue preocupándome.

A pesar del apoyo de Milne y Eddington, Cecilia Payne no pudo progresar en el mundo cerrado de la astronomía británica, de modo que se trasladó a Harvard donde siguió una carrera notable. Su trabajo más famoso concernía a la composición del Sol. Ella demostró que la interpretación entonces aceptada de las líneas del espectro de la luz solar —según la cual éstas reflejaban la presencia de hierro en gran abundancia en el interior del Sol— estaba equivocada.

Descubrió que el Sol estaba formado fundamentalmente por hidrógeno y que el resto era helio. Este resultado, desarrollado en su tesis doctoral, era demasiado revolucionario para la comunidad de Harvard y sólo le atrajo desdenes, especialmente por parte del decano de los astrónomos norteamericanos, el pomposo y poderoso Henry Norris Russell.

Se necesitaron algunos años para que el trabajo de Cecilia Payne fuese confirmado y aceptado. Y, por supuesto, dio la explicación —fusión nuclear— para el aparentemente inagotable suministro de energía del Sol. Ella fue reivindicada por un análisis teórico de no otro que el propio Russell, quien con retraso le dio su pleno crédito, aunque sin reconocer su anterior repudio hacia aquel trabajo. Harvard siguió sin hacer nada por promocionar su carrera y, pese a la magnitud de sus logros, se le impuso una carga docente tan grande que estuvo a punto de acabar con su investigación. Fue muy admirada como profesora y en una etapa posterior de su carrera se las arregló para colaborar en un proyecto de investigación con su hija, quien siguió sus pasos en la astronomía pero en una época más abierta. Para entonces ella había llegado a ser catedrática y directora del departamento de astronomía de Harvard. Se había casado con un bullicioso astrónomo ruso, Sergei Gaposchkin, a quien había conocido en Europa cuando él estaba en mala situación y había conseguido introducirlo en la facultad de Harvard. Él nunca fue realmente mucho más que el ayudante de su mujer, y en una ocasión se le oyó decir con exageración aparentemente inconsciente: «Cecilia es una científica incluso más grande que yo».

En sus memorias, Cecilia Payne aconsejaba a los aspirantes a científico:

Los jóvenes, especialmente las mujeres jóvenes, suelen pedirme consejo. Aquí está, valeat quantum. No emprendas una carrera científica en busca de fama o dinero. Hay maneras más fáciles y mejores de conseguirlos. Empréndela sólo si nada más te satisface; pues nada más es probablemente lo que recibirás.

Walter Gratzer, Eurekas y Euforias.

26 Oct 17:21

Michael Faraday (I)

Hablando de… es la serie caótico-histórica de El Tamiz. En ella hablamos más o menos de cualquier cosa de manera caprichosa y enlazamos cada artículo con el siguiente para poner de manifiesto que todo está conectado de una manera u otra; los primeros 32 artículos de la serie están disponibles, además de en la web, en forma de dos libros, pero esto tiene pinta de no terminarse pronto (al menos, mientras vosotros y yo nos sigamos divirtiendo).

En los últimos artículos hemos hablado del café, bebida protagonista de la Cantata del café de Johann Sebastian Bach, cuya aproximación intelectual y científica a la música fue parecida a la de Vincenzo Galilei, padre de Galileo Galilei, quien a su vez fue padre de la paradoja de Galileo en la que se pone de manifiesto lo extraño del concepto de infinito, cuyo tratamiento matemático sufrió duras críticas por parte de Henri Poincaré, el precursor de la teoría del caos, uno de cuyos padres, Sir Robert May, fue Presidente de la Royal Society de Londres, sociedad formada a imagen de la Casa de Salomón descrita en el Nova Atlantis de Francis Bacon cuando científicos de las siguientes generaciones leyeron sus escritos, como le sucedió a Robert Boyle, cuyo trabajo en óptica fue bienintencionado pero muy inferior al de otros estudiosos de la naturaleza de la luz, cuyo carácter de onda electromagnética nunca hubiéramos descubierto sin la ayuda de Michael Faraday.

Pero hablando de Michael Faraday…

Como siempre me pasa en este tipo de artículos, mi intención no es convertirte en un experto en Michael Faraday, sino dar una idea de su genio y por qué me parece admirable, qué lo hace especial y valiosísimo para nosotros y, si es posible, despertar en ti el interés necesario para que luego leas textos más doctos sobre él, que los hay por todas partes. Desde luego en esta entrada voy a mezclar constantemente hechos y opinión, de modo que si quieres una biografía aséptica sobre alguien a quien admiro profundamente, ¡hasta luego y buena suerte! El ladrillo que vas a leer es baboso hasta decir basta –y es un ladrillo tal que he tenido que partirlo en trozos, para variar–.

Y es que Faraday puede servir de inspiración para casi todo el mundo: como ejemplo de persona íntegra, de superación de uno mismo, de tesón y disciplina, inteligencia, intuición, capacidad de divulgación, apertura de mente, superación de dificultades… sí, así de objetivo va a ser este artículo.

Michael Faraday nació en 1791 en Newington Butts, que era entonces un pueblecito pero ahora es parte de Londres. Su familia era muy humilde: su padre, James Faraday, era herrero. La familia se había mudado a Newington Butts poco antes del nacimiento de Michael desde Outhgill, en Cumbria, al norte de Inglaterra, y no tenían un duro. Hago énfasis en esto para mostrar lo casi inevitable: estamos hablando de la Inglaterra de ocho años antes de que Napoleón tomara el poder en Francia. La movilidad de clases era casi inexistente y las expectativas del pequeño Michael eran exactamente las mismas que las de su padre: convertirse en aprendiz (James lo había sido del herrero de Outhgill), tomar un oficio y criar hijos que se convirtieran en aprendices a su vez. Todos pobres como ratas, por supuesto.

Michael Faraday
Michael Faraday (1791-1867).

Y así es como empezó la vida de Faraday. Al menos tuvo la suerte de ir al colegio unos años y aprender así a leer y escribir, además de rudimentos de las matemáticas, pero con tan sólo trece años empezó a trabajar de chico de los recados. Faraday llevaba cosas para unos y otros, pero uno de sus clientes –aunque aún no lo supieran ni el uno ni el otro– cambiaría su vida para siempre.

Faraday repartía periódicos para un librero, George Ribeau, que necesitaba un aprendiz de encuadernador. Dado que el joven Faraday parecía un chaval espabilado, Ribeau decidió tomarlo como aprendiz, y con él permanecería unos siete años. Fue aquí donde todo cambiaría para él. Aunque ya había demostrado curiosidad e inteligencia antes, bajo la tutela de Ribeau descubrió algo que lo dejó maravillado: los libros.

Se suponía que el niño se limitaba a encuadernar libros y, sobre todo, reparar la encuadernación de libros usados, pero ¿cómo no iba a echarles un ojo mientras hacía su trabajo? Desde luego, muchos de esos libros eran aburridos para un preadolescente, pero algunos de ellos le abrieron los ojos a una realidad nueva. Afortunadamente para él George Ribeau resultó ser no sólo comprensivo con él –muchos otros no le hubieran dejado perder el tiempo leyendo los libros y copiando los fragmentos que más le gustaban– sino una parte activa en su crecimiento intelectual.

En la librería de Ribeau Faraday leyó la Enciclopiedia Britannica, la Lógica de Isaac Watts y su adendo, El desarrollo de la mente, que lo llevaron a admirar el potencial del intelecto humano y el poder de la razón. Lo fascinaron los artículos sobre electricidad y química de la Britannica, lo mismo que Conversaciones de Química, de Jane Marcet, que era un texto divulgativo sobre Química. Marcet era una mujer, lo cual convierte su libro en algo muy inusual para la época y tal vez explique sucesos posteriores en la vida de Faraday; te pido paciencia, porque ya llegaremos a ellos, pero no olvides este comienzo en el que un libro científico escrito por una mujer lo inspiró en su adolescencia.

Jane Marcet
Jane Marcet (1769-1858).

El libro de Marcet estaba basado en lo que había aprendido en las charlas sobre química impartidas por Sir Humphry Davy. Éste era un divulgador de primera y no sólo contaba cosas, sino que realizaba experimentos en vivo y en directo frente a su público –muy nutrido de mujeres, como Marcet– y gracias a él mucha gente que nunca iría a la universidad pudo aprender mucha Química. A su vez Marcet hizo llegar el conocimiento de Davy a mucha más gente, como el jovencísimo Michael Faraday, gracias a su libro de 1805, que se hizo muy popular.

Faraday quedó tan fascinado con la química y la electricidad –que parecen haber sido los dos campos que más lo sedujeron– que se gastaba casi todo lo que ganaba, que no era mucho, en materiales para replicar experimentos descritos en los libros e intentar otros nuevos. Poco a poco, según se desarrollaba su aprendizaje, el joven lo tuvo más y más claro: no quería ser encuadernador, sino científico. Pero claro, había un problema – su extracción social hacía imposible ese sueño.

Afortunadamente para él, Michael Faraday estuvo rodeado durante su juventud de diferentes personas que reconocieron su potencial y lo ayudaron de manera absolutamente altruista. Un joyero y científico londinense, John Tatum, había iniciado en 1808 una serie de clases magistrales que impartía desde su propia casa para la City Philosophical Society, y el joven Faraday se moría por asistir. Había, sin embargo, dos problemas: por un lado George Ribeau debía darle permiso para ir a esas clases, y por otro costaban un chelín cada una (un chelín que Faraday no tenía). Ribeau le dio permiso, y el hermano de Michael, George Faraday –que era herrero como su padre–, le pagó varias de esas clases.

De boca de Tatum Faraday conoció a Newton, Nicol, Magrath y muchos otros. No exagero al decir que lo más importante que hizo Tatum por la ciencia en toda su vida fue dar estas clases al jovencísimo Michael. Además, dado el amor de Faraday por los libros, el joven se dedicó a tomar notas con ilustraciones de todas esas clases, además de todo tipo de cosas que iba aprendiendo y sobre las que leía en la librería. Tenía por entonces diecinueve años y su período de aprendiz bajo Ribeau estaba a punto de terminar: ¿qué haría entonces?

La bondad y el interés de quienes lo rodeaban le dio la respuesta el mismo año que terminaba su aprendizaje bajo Ribeau, 1812. Uno de los clientes de Ribeau era un músico londinense llamado William Dance, que sentía simpatía por el joven –pues Faraday tenía ya 21 años y ya no era un adolescente– y por su hambre de conocimiento científico. Por lo tanto Dance le regaló algo que Faraday jamás hubiera podido pagar: cuatro entradas para asistir a charlas del divulgador magistral que había inspirado a Jane Marcet, ¡nada menos que Sir Humphry Davy!

Humphry Davy
Sir Humphry Davy (1778-1829).

Faraday quedó absolutamente subyugado por Davy, que debe de haber sido un profesor de primera categoría. Recopiló todo lo aprendido en esas clases en más de trescientas páginas de notas e ilustraciones y, con una audacia producto de su enorme ingenuidad, escribió a Davy con sus notas y explicándole sus preocupaciones, sus anhelos, sus dudas sobre continuar como aprendiz de encuadernador y su amor por la ciencia.

Y Sir Humphry Davy le contestó.

Gracias a su primer mentor, Ribeau, a Marcet, a su hermano George y a Dance, se había cerrado el círculo y Faraday entró en contacto personal con su auténtico padre científico. Davy –que era más listo que el hambre– se había dado cuenta de la aguda inteligencia del muchacho, por más que careciese de educación formal, e imagino además que le tocaría la fibra sensible la transparencia e ingenuidad absoluta de Michael.

En 1813, mientras realizaba experimentos con tricloruro de nitrógeno (NCl3), Sir Humphry sufrió un accidente que lo dejó temporalmente ciego. Dado que no quería dejar su trabajo de experimentación por esa razón, se le ocurrió que tal vez podría contratar a un asistente. Más o menos al mismo tiempo la Royal Institution de la que Davy era miembro fundador –también era fellow de la Royal Society, por supuesto– despidió a uno de los ayudantes de laboratorio y dejó el puesto vacante… más claro, agua: Sir Humphry le mandó una carta a Michael para concertar una entrevista y ofrecerle el puesto. Era como si los astros se hubieran confabulado para que el joven dejase la encuadernación y se dedicase a la ciencia, si no como científico de primera clase al menos como ayudante.

Eso sí, Davy no prometía un camino de rosas. En palabras del propio Michael Faraday, en una de las cartas de Davy el científico, aunque ofreciéndole el puesto,

[…] me aconsejó no descartar las otras posibilidades frente a mi, diciéndome que la Ciencia era una amante cruel y que, desde un punto de vista pecuniario, la recompensa para quienes la servían era escasa. Le hizo gracia mi idea de la moral superior de los hombres de conocimiento y dijo que dejaría que la experiencia de unos cuantos años me enseñara la verdad sobre ese asunto.

Es decir, que Davy demostró ser –como Ribeau o Dance antes que él– una persona de principios. Tenía gran interés en contratar a Faraday, pero siempre se mostró sincero con él. La Royal Institution aceptó la sugerencia de Davy y, a riesgo de aburrirte como una mona, no puedo dejar de compartir el primer texto “oficial” de la historia en el que aparece una mención a quien se convertiría en uno de los mayores genios científicos de todos los tiempos. Se trata del acta de la reunión de la Royal Institution el 1 de marzo de 1813:

Sir Humphry Davy tiene el honor de informar a la dirección de que ha encontrado una persona deseosa de ocupar el puesto dejado en la Institución por William Payne. Su nombre es Michael Faraday. Es un joven de veintidós años de edad. Hasta donde Sir H. Davy ha podido observar y discernir parece bien preparado para el puesto. Sus hábitos parecen saludables, su disposición activa y alegre, su comportamiento inteligente. Está dispuesto a aceptar las mismas condiciones que las que disfrutaba el Sr. Payne cuando abandonó la Institución.

Resuelto – Michael Faraday será contratado para ocupar el puesto ocupado hasta ahora por el Sr. Payne en sus mismas condiciones.

Sir Humphry Davy, como he dicho ya, era un genio de la divulgación, y un experimentador de primera clase. Hemos hablado de él muchas veces en El Tamiz por ser el descubridor del sodio y el magnesio además de muchas otras cosas. Sin embargo creo que en 1813 hizo su mayor aportación a la ciencia. Un tiempo después otro científico, Henry Paul Harvey, dijo de este asunto:

El mayor descubrimiento de Sir Humphry Davy fue Michael Faraday.

Pero Davy no sólo lo descubrió: lo protegió, lo educó, lo puso en contacto con los científicos más importantes de la época y lo convirtió –lo digo sin exagerar, aunque puede que me equivoque– en el pilar de la Ciencia que sería después.

Para empezar, Sir Humphry se llevó a Faraday en un viaje por Europa –un lugar muy tormentoso por entonces–. Había logrado un salvoconducto de la Francia de Napoleón para sí mismo, su mujer y dos sirvientes, una doncella para Lady Jane Davy y un valet para él. Pero, dado que a Sir Humphry lo que realmente le interesaba era la investigación científica y el viaje iba a durar más de un año, hizo una trampichuela, afirmó que su sirviente habitual se había puesto enfermo y se llevó a Faraday como mayordomo –oficialmente, claro–.

Digo trampichuela porque aquí no parece que Sir Humphry fuera muy honesto con nadie. Por un lado engañó a Francia, porque Faraday no era ningún sirviente. Por otro engañó a Lady Jane de la misma manera –ella esperaba llevar dos personas de servicio pero Sir Humphry empleaba a Faraday como ayudante casi todo el tiempo–. Finalmente sospecho que también engañó a Faraday, porque a Michael esto de ir de sirviente no le hacía mucha gracia y Davy le aseguró que en cuanto llegasen a Francia contrataría un sirviente francés para liberarlo a él… pero tardó meses en hacerlo. No sé los detalles así que me es difícil juzgar, pero sí tengo una cosa clara: Sir Humphry Davy se salió con la suya en todo.

Para más desgracias, Lady Jane parece haber sido una petarda. Ni siquiera su marido se llevaba muy bien con ella, y Faraday tenía verdaderos problemas porque ella era bastante clasista y consideraba que Faraday era su sirviente (algo que oficialmente era, claro). En alguna carta a casa, Michael Faraday dice que si el viaje lo hubieran hecho Davy y él solos hubiera sido fantástico, pero que Lady Jane era un tostón –no con estas palabras, por supuesto–.

Antes de que sientas pena por el pobre Michael, arrastrado a un viaje por Europa como sirviente de Davy y la plasta de su mujer, espera. A lo largo del viaje Faraday aprendió lo que no está escrito de Davy, que no sólo lo empleaba como ayudante sino que lo iba educando poco a poco. En Francia Davy –con Faraday a su lado– se reunió con André-Marie Ampère y asistió a una conferencia de Joseph-Louis Gay-Lussac. En Italia conversaron con Alessandro Volta y Davy demostró empíricamente ante el Gran Duque de la Toscana que el diamante está compuesto de carbono. En cada ciudad que visitaban se reunían con los químicos más importantes de lugar, que llevaban a Davy muestras para que él, utilizando su laboratorio portátil, intentara determinar su composición.

André-Marie Ampère, Joseph-Louis Gay-Lussac y Alessandro Volta
Trío de ases: André-Marie Ampère, Joseph-Louis Gay-Lussac y Alessandro Volta.

Faraday no sería el mismo después de este viaje de dieciocho meses. En las muchas cartas que escribió a su madre durante el viaje –y a las que enlazaré al final– hay una constante: la conciencia de su propia ignorancia. Imagino que en parte esto se debió a ver mundo, y no cualquier parte del mundo, sino lo más erudito de toda Europa. Y en parte porque Davy era un genio, y sus entrevistas y reuniones con otros genios, y cuanto más veía, escuchaba y leía el joven Faraday, más se daba cuenta de lo poco que sabía – en gran medida porque, aunque me repita, todos los otros eran nobles y ricos y tenían una educación universitaria y él no:

Aquí, querida madre, todo está bien. Tengo buena salud y estoy satisfecho con todo excepto con mi propia ignorancia, que se me hace cada día más visible, aunque hago todo lo posible por remediarlo.

Fue también durante el viaje, conociendo mucha gente y viendo a qué fines destinaban el conocimiento científico, que Faraday perdió parte de su ingenuidad. Antes de que te deprimas, no quiero decir que perdiera su integridad – a lo largo de toda su vida mantuvo una honradez ímproba. Pero se dio cuenta, para su horror, de que para mucha gente el conocimiento sólo tiene sentido como medio para obtener un fin, y que a menudo ese conocimiento se convierte en herramienta para el mal:

Conocimiento. Sí, conocimiento; ¿pero qué conocimiento? Conocimiento del mundo, de los hombres, de las costumbres, de los libros y de los idiomas – cosas en sí mismas valiosas más allá de toda medida, pero que veo cada día prostituídas con los más bajos propósitos.

El largo viaje terminó cuando Napoleón escapó de su exilio en la isla de Elba: Davy tenía miedo de que la reanudación de la guerra los pusiera en peligro (la verdad es que ya se había arriesgado bastante antes), de modo que decidió volver a casa. En abril de 1815 Michael Faraday estaba de vuelta en Londres y era mucho más sabio –no sólo por la instrucción de Davy, sino por los libros que había leído y las conversaciones que había disfrutado–, menos ingenuo y exactamente igual de decidido a dedicar su vida a la ciencia.

Como digo, Sir Humphry Davy fue la mayor influencia sobre él, y tras el viaje por Europa la admiración del joven por su maestro –a quien había visto destrozar argumentos de científicos famosos y demostrar que tenía razón en multitud de cosas utilizando la experimentación– era enorme. Sin embargo, Faraday tenía las cualidades de un buen científico experimental: entre ellas, una extraordinaria capacidad de observación y análisis. Era igualmente consciente de los puntos débiles de su mentor, como su desorden y falta de método, y estaba decidido a no caer en los mismos errores que él.

Su otra gran influencia científica, a través de sus escritos –pues los dos nunca se encontraron– fue Joseph Priestley (de quien hablamos recientemente por sus investigaciones sobre la fotosíntesis). Lo que Faraday admiraba de Priestley más que ninguna otra cosa es algo que podemos seguir aplicándonos hoy sin cambiar una coma:

El Dr. Priestley tenía esa libertad de mente y esa independencia del dogma y las ideas preconcebidas que tan a menudo apresan a los hombres y los llevan de una falacia a otra, sin dejar que sus ojos se abran y vean que se trata de falacias. Tengo gran interés en exhortaros a todos –pues confío en que sois seguidores de la ciencia– a que prestéis atención a esto. Y es que el Dr. Priestley realizó sus grandes descubrimientos en gran parte por tener una mente que podía abandonar fácilmente lo que había sostenido antes, y recibir nuevos pensamientos e ideas; y me aventuraré a decir que todos sus descubrimientos se produjeron a partir de la facilidad con la que era capaz de abandonar sus ideas preconcebidas.

Joseph Priestley
Joseph Priestley (1733-1804).

Durante estos primeros años en Londres a la vuelta del viaje, Faraday asentó su conocimiento científico –aunque nunca tendría la preparación formal de sus colegas, y muchos tardaron un tiempo en considerarlo un igual–. Aunque seguía siendo ayudante de laboratorio daba clases, realizaba experimentos ante la Royal Institution, publicaba artículos con lo que descubría y se iba ganando una reputación.

Por esta época, en gran medida por la influencia de Sir Humphry Davy, su trabajo experimental se centró en la química: elementos y compuestos, difusión de gases y electroquímica –algo que estaba naciendo por entonces, y el propio Davy había utilizado para realizar algunos de sus descubrimientos de elementos químicos–. Obtuvo un ascenso en el laboratorio y se casó con Sarah Barnard en 1821.

Barnard pertenecía a una congregación cristiana que había sido fundada en Escocia por John Glas a medidados del siglo XVIII (y que, por cierto, ya no existe). Su yerno Robert Sandeman la extendió por el resto de Gran Bretaña e incluso en el continente americano, y por eso a menudo sus seguidores eran llamados sandemanianos fuera de Escocia y glasitas en Escocia. Se trataba de una variante del cristianismo que intentaba ir a las raíces primitivas de la religión y, francamente, no tiene mucho interés que entremos en detalles ahora. Sólo lo menciono porque la familia de Faraday era sandemaniana, como la de Sarah Barnard, y fue a través de la iglesia que ambas familias se conocían. El propio Michael, por cierto, fue sandemaniano hasta su muerte y de esto hablaremos en un rato.

Michael Faraday y Sarah Barnard
Faraday junto a su mujer, Sarah.

La vida de Faraday, sin embargo, cambió en 1821 por algo completamente distinto de su matrimonio, y el cambio sería a la vez para bien y para mal. Hasta este momento Faraday había tenido fortuna en todo: su inteligencia y su integridad le habían ganado amigos en todas partes, y tenía el cariño e incluso la admiración de todos quienes lo rodeaban. Gracias a sus primeros mentores había caído bajo el ala de Sir Humphry, que se había portado con él como merecía el carácter admirable del joven. Pero ahora, en 1821, iba a enfrentarse a lo que probablemente sería el episodio más desagradable de su vida.

Pero la semilla de este desagradable trance había sido plantada un año antes en Copenhague.

El 21 de abril de 1820 el físico y químico danés Hans Christian Ørsted estaba dando una charla sobre magnetismo cuando se encendió un circuito eléctrico cerca de una aguja imantada y Ørsted observó que la aguja se movía. A partir de ese momento se dedicó a realizar experimentos sobre la relación entre electricidad y magnetismo y llegó a la conclusión clara y meridiana de que existía una conexión entre ambos fenómenos: una corriente eléctrica afectaba a los imanes situados cerca de ella y era capaz de moverlos.

Hans Christian Ørsted
Hans Christian Ørsted (1777-1851).

La publicación de las conclusiones de Ørsted, como no podría ser de otra manera, creó un interés enorme en muchísimos científicos de todo el mundo. Existían aspectos teóricos fascinantes relacionados con el descubrimiento del danés, pero también aspectos prácticos. Por ejemplo, si un circuito eléctrico podía hacer girar un imán, ¿no podrían entonces utilizarse corrientes eléctricas para producir un giro constante en imanes? ¿no sería esto entonces un motor pero sin combustión de ninguna clase? ¡Un motor eléctrico!

Un químico y físico inglés, William Hyde Wollaston, decidió atacar el problema. Para construir su idea buscó la ayuda de Sir Humphry Davy: se proponía construir un dispositivo que produjera un giro constante a partir de una corriente eléctrica. Pero, a pesar del genio de los dos hombres y la ayuda de Faraday, el experimento fracasó (Wollaston no entendía aún el comportamiento de electricidad y magnetismo y su idea no podía funcionar). Tanto Wollaston como Davy se dedicaron a otras cosas, pero Faraday no dejó el asunto en paz y siguió trabajando en ello.

Pero de lo que consiguió entonces y sus consecuencias, buenas y malas, hablaremos en la segunda entrega de este artículo si aún te quedan ganas, dentro de una semana. ¡Hasta entonces!

26 Oct 17:21

Michael Faraday (II)

En la primera parte de este artículo tripartito hablamos sobre la infancia y juventud de Michael Faraday: sus humildes comienzos como repartidor de periódicos y aprendiz de encuadernador, su viaje por Europa con Sir Humphry Davy, su trabajo como ayudante de laboratorio de la Royal Institution y el experimento fallido de Wollaston y Davy de construir un motor eléctrico. Como dijimos al terminar la historia, Faraday decidió seguir trabajando en el asunto después de que los otros dos –al menos en apariencia– se dieran por vencidos.

Unos meses más tarde el joven había conseguido un prototipo de lo que, por lo que sé, es el primer motor eléctrico de la historia. Se trataba de lo que hoy conocemos como un motor homopolar, es decir, en el que la polaridad nunca cambia. Básicamente era una pila unida a dos electrodos sumergidos en mercurio, y un cable colgando sobre uno de ellos que estaba imantado. El cable daba vueltas alrededor del imán sumergido mientras se mantenía la corriente encendida: se estaba convirtiendo energía eléctrica en energía cinética de manera directa.

Motor homopolar de Faraday
Motor homopolar de Faraday.

Fue el gran logro de Faraday hasta ese momento, y también su mayor tragedia. Aunque la idea no era la de Wollaston, que había intentado hacer girar el cable sobre su eje, no alrededor de un imán, Faraday era consciente de que nunca hubiera empezado a experimentar en esto sin la idea de Wollaston. Así, mientras se apresuraba a escribir el artículo que sería publicado con sus resultados, fue a casa de Wollaston para entrevistarse con él para preguntarle si podía dar cuenta de los experimentos realizados por el otro. Pero Wollaston, como Davy, estaba de viaje en ese momento.

Y entonces Faraday metió la pata: no esperó a que Wollaston volviera de viaje, ni mencionó sin permiso del otro sus experimentos en electromagnetismo. Simplemente publicó sus resultados sin mencionarlo. Y eso está muy, pero que muy feo en un mundo en el que el mérito es algo importantísimo y los egos son tan grandes como edificios. Digo que Michael metió la pata porque, por un lado, mostró una gran integridad toda su vida y este episodio, de haber sido deshonesto, sería una excepción rarísima. Al hablar de ello posteriormente él siempre sostuvo que se precipitó y que no mencionó el experimento de Wollaston porque no se atrevió a hacerlo sin su permiso, y creo que es cierto – pero también lo es que cometió un error imperdonable.

Irónicamente la persona en perdonarlo más fácilmente fue el propio William Hyde Wollaston: Faraday le escribió apresuradamente cuando empezaron los rumores sobre que había robado la idea al otro científico, y Wollaston le quitó importancia. Desafortunadamente, quien no le quitó importancia y nunca sentiría el mismo aprecio por él sería Sir Humphry Davy. La actuación de su pupilo había sido una decepción para Davy.

Todo se confunde, además, por los posibles celos de Davy hacia Faraday: éste le pasaba casi todos los artículos que iba a publicar en la Philosophical Transactions de la Royal Society, y poco a poco Davy fue viendo el auge en la fama y la excelencia de Faraday. Davy modificaba los artículos de Faraday para mejorarlos (porque su gramática era mejor y el otro cometía errores a menudo), y en algún caso parece que Faraday sintió cierto rencor porque Humphry se atribuía ideas o “chispas de ideas” que luego llevarían a descubrimientos del joven y que daban más mérito del debido a su mentor.

No he podido averiguar exactamente qué emociones dominaban a los dos hombres, pero por las cartas a lo largo de los años no me cabe duda de que existían dos cosas: cierto resentimiento o alejamiento entre ellos a partir de esta época y, al mismo tiempo, un afecto que nunca abandonarían el uno por el otro. Una relación extraña.

Humphry Davy en 1830
Grabado de Sir Humphry Davy en 1830.

El caso es que en 1823, tras tantos méritos como experimentador, se propuso el nombre de Faraday como fellow de pleno derecho de la Royal Society, y Sir Humphry Davy pidió a Faraday que retirase su nombre. Faraday le contestó que él no se había propuesto a sí mismo, y que no podía retirarse, a lo que Davy replicó que entonces debía ponerse en contacto con quienes lo habían propuesto para que retirasen su nombre. Faraday respondió que no le harían caso, y que Davy debía hacer lo que considerase mejor para la Society: si pensaba que Faraday no merecía ese honor debía actuar al respecto.

Puedes preguntarte qué diablos podía hacer Davy al respecto: muchísimo, porque en 1820 había sido elegido nada más y nada menos que Presidente de la sociedad. Cuando en 1823 se propuso el nombre de Faraday oficialmente el Presidente, mentor y amigo de Faraday anunció públicamente que se oponía a su nominación.

También podrías pensar que esto crearía un abismo entre los dos: ¡pues no! En 1825 Davy propuso a Faraday como director del laboratorio químico de la Royal Society, tan sólo bajo la supervisión del catedrático de Química (eso sí, ¿el nombre del catedrático de Química? ¡Humphry Davy!). Como digo, todo rarísimo, y dudo que alguna vez sepamos seguro lo que pasaba por la cabeza de ambos hombres. Sí parece seguro que el episodio del motor homopolar hizo que Faraday apenas experimentase con electromagnetismo hasta que su mentor murió.

De hecho podríamos dividir la vida de Faraday en dos partes: antes y después de la muerte de Davy. Hasta la muerte de su mentor el joven había sido un científico prometedor pero siempre bajo el ala de alguien: muy poco de su trabajo estaba asociado sólo a su nombre, y casi todas sus investigaciones eran o bien como ayudante o bien bajo la dirección de otro –en muchos casos Davy–. En parte debido a que Davy era fundamentalmente un químico, casi todo el trabajo de Faraday se había dedicado a la química. En 1829, a partir de la muerte de Davy, su protector y mentor, todo cambió. Faraday tenía por entonces treinta y ocho años, con lo que no era viejo pero sí superaba la edad a la que la mayor parte de los genios crean su obra magna.

Faraday joven
Faraday al final de su treintena, a la muerte de Davy.

El cambio podría haber sido para mal: al fin y al cabo cualquiera hubiera dado lo que fuese por tener a Davy como maestro. Pero no fue hasta que el maestro murió que el alumno empezó a demostrar su auténtica talla: la de un gigante como ha habido muy pocos en la historia de la ciencia. He repetido más veces que Einstein, en su despacho, tenía las fotos de tres científicos: Isaac Newton, James Maxwell y Michael Faraday. No era por capricho.

Poco después de la muerte de Davy Michael Faraday, aún muy interesado en la electricidad y su conexión con el magnetismo, empezó a realizar algunos de los experimentos más importantes realizados jamás en ese campo. Su intuición era la siguiente: Ørsted había demostrado que la electricidad podía afectar al magnetismo con su experimento del circuito y la aguja imantada. ¿No podría suceder lo contrario?

¿No podría emplearse el magnetismo para producir electricidad?

No puedo imaginar la escena en su laboratorio, con imanes, circuitos, bobinas de hilo y trozos de acero, sin que me entre un escalofrío. Imagino que a él le pasó lo mismo cuando, en 1831, tras múltiples experimentos fallidos, presenció exactamente lo que había intuido que podría pasar.

El inglés preparó el siguiente experimento. En primer lugar empleó el efecto observado por Ørsted una década antes: conectó una pila a un hilo de cobre enrollado en una bobina. Al encender el circuito el hilo era recorrido por una corriente eléctrica y la bobina de cobre, por lo tanto, se convertía en un imán.

En segundo lugar preparó otro circuito idéntico al primero, con su hilo de cobre enrollado en una bobina más grande, pero con una diferencia fundamental: el segundo circuito no tenía pila. En vez de una pila Faraday conectó un galvanómetro, es decir, un aparato que mide la corriente eléctrica que recorre un circuito.

Experimento de inducción de Faraday
Experimento de inducción de Michael Faraday. A: bobina conectada a la pila (a la derecha). B: bobina conectada al galvanómetro G.

El segundo circuito, por tanto, no estaba conectado a fuente alguna de energía eléctrica y, evidentemente, el galvanómetro no medía corriente alguna. Pero aquí viene lo revolucionario del experimento del inglés. En un primer experimento Faraday encendió el circuito de la pila –hoy en día solemos llamarlo circuito primario– y en el segundo circuito apareció una corriente eléctrica. Te recuerdo que en el segundo circuito –el secundario– no había pila.

Sin embargo, la corriente que aparecía en el segundo circuito –lo que hoy llamamos corriente inducida– tan sólo duraba un instante y luego desaparecía aunque se mantuviese el primario encendido. Más curioso aún era que al apagar el circuito primario también aparecía, durante un momento, una corriente inducida en el segundo.

Este fenómeno de inducción mutua, por tanto, no se debía a que en el primer circuito hubiera simplemente corriente: era necesario un cambio en la corriente. Pero en un segundo experimento Faraday se dio cuenta de algo aún más raro e infinitamente más importante en la práctica.

Faraday encendió el circuito de la pila y lo dejó encendido –con lo que no había ya corriente en el secundario– y movió la bobina pequeña respecto a la grande, metiéndola y sacándola de la bobina mayor y en el segundo circuito apareció una corriente eléctrica.

Puede que esto no te impresione: al fin y al cabo sí hay una pila, aunque esté en el primer circuito. Puede ser curioso que no haga falta que el segundo circuito esté tocando la pila, pero no es más que una curiosidad que puede servir de truco de feria. Si es así, espera un momento porque debes comprender algo esencial.

Cuando Faraday tenía el primer circuito encendido pero dejaba la bobina en reposo respecto a la bobina grande no pasaba absolutamente nada. Sólo aparecía una corriente en el segundo cuando movía la bobina con la mano. Y –aquí llega el quid de la cuestión– la corriente en el segundo circuito era tanto mayor cuanto más rápido Faraday movía la bobina . Si aún no se te ha producido el encendido de bombilla –ja, ja, ja– aquí tienes la guinda del pastel:

Si Faraday movía la bobina con la suficiente rapidez, la corriente en el segundo circuito era mayor que la producida por la pila en el primario.

¿Magia? ¿Sortilegio? ¿Energía proveniente de la nada? ¡No! Para Faraday la cosa estaba clara, y fue demostrada con números más tarde: la energía extra en el segundo circuito provenía del propio movimiento de la bobina pequeña. Faraday había fabricado, por pura curiosidad, un dispositivo capaz de transformar energía mecánica en energía eléctrica.

Sí, el descubrimiento que cambiaría la faz de la Tierra a lo largo del siglo siguiente –de ello hablaremos en un momento– fue el resultado de simple y pura curiosidad. Michael Faraday nunca pensaba para qué podría servir lo que descubriría al pensar y experimentar, entre otras cosas porque no sabía a dónde podría llevarle el camino. Hemos hablado de esto hace tiempo en un editorial, pero Faraday lo dice de un modo muchísimo más conciso y más claro:

[…] a quienes tienen la costumbre de preguntar ante cualquier cosa nueva, “¿Para qué sirve?” […] La respuesta del experimentador debería ser, “Esfuérzate por darle un uso”.

De hecho, en el caso concreto de la electricidad producida mediante este dispositivo, en una ocasión parece que el secretario del Tesorero del Reino, William Ewart Gladstone, le preguntó sobre el valor práctico de la electricidad –recuerda que, por entonces, aún no se le habían encontrado demasiados usos concretos–. Faraday respondió que no tenía la menor idea de cuál podría ser, pero que había grandes probabilidades de que el otro pudiera aplicarle un impuesto tarde o temprano. Imagino que eso lo dejaría satisfecho.

Y en verdad existían muchísimo usos prácticos del experimento de Faraday: tantos que podríamos hablar de ellos durante series enteras. Como ejemplo, podría conectarse la bobina pequeña a un sistema de biela-manivela unido a unas palas en un río caudaloso y se generaría una corriente eléctrica mayor que la producida por la pila. Se convertiría la energía cinética del agua en energía eléctrica.

Eso es casi exactamente lo que hacemos hoy en día en las centrales hidroeléctricas, aunque por supuesto la magnitud de todo ello es gigantesca comparada con el experimento de pupitre de Michael Faraday, y las bobinas rotan alrededor de un eje cuando el agua empuja las palas de la turbina.

Los Nihuiles, central hidroeléctrica
Sala de turbinas de la central hidroeléctrica de Los Nihuiles, Argentina (dominio público).

Este descubrimiento, aunque crucial, era inevitable. Una vez establecida la conexión magnetismo → electricidad era cuestión de tiempo que nos diéramos cuenta de que la relación era en ambos sentidos. De hecho, más o menos al mismo tiempo que Faraday, docenas de científicos de todo el mundo estaban realizando experimentos similares y el inglés no fue el primero en lograrlo –aunque sí en incorporarlo a una serie de experimentos coherentes con explicaciones detalladas a lo largo del tiempo–.

En 1829 un científico y sacerdote italiano, Francesco Zantedeschi, observó la aparición de una corriente eléctrica al mover un imán cerca de un circuito circular. Y al mismo tiempo que Faraday un estadounidense, Joseph Henry, realizó experimentos muy similares. En el caso de Zantedeschi creo que el problema fue que era italiano y en el siglo XIX no se prestaba, en el resto de Europa, demasiada atención a los artículos publicados en Italia, además de que el texto de Faraday es mucho más completo que el de Zantedeschi. En el de Henry la explicación está clara: el americano no publicó hasta después de Faraday. Estoy convencido además de que otros probablemente observaron cosas parecidas y nunca publicaron nada.

Zantedeschi y Henry
Francesco Zantedeschi (1797-1873) y Joseph Henry (1797-1878).

En cualquier caso, el genio de Faraday era muy superior al de los otros dos: no por los experimentos que realizaba, sino por las conclusiones maravillosas que era capaz de extraer. Usando el gran imán de herradura de la Royal Society, Faraday se dispuso a examinar exactamente qué estaba produciendo la corriente inducida en el segundo circuito. Para ello realizó múltiples experimentos con las bobinas en diferentes orientaciones, cables de diversa geometría y en distintas posiciones, y utilizando algo que resultó ser clave: limaduras de hierro.

Era bien sabido que al espolvorear limaduras de hierro alrededor de un imán las pequeñas partículas metálicas se orientaban en determinadas direcciones. Tras la experiencia de Ørsted muchos científicos hicieron lo mismo con cables, y comprobaron lo inevitable: las limaduras de hierro no se colocaban de ninguna manera si no pasaba corriente por el cable, pero sí lo hacían si se encendía la corriente. El francés André-Marie Ampère –a quien recordarás que Faraday conoció en París durante su viaje por el continente con Davy– había empleado esto para tratar de medir la intensidad del campo magnético creado por el cable, ya que las limaduras tendían a estar más apretadas en zonas en las que el campo magnético era más intenso.

Limaduras alrededor de un cable
Limaduras de hierro alrededor de un cable perpendicular al papel (dominio público).

Bien, Faraday tuvo uno de sus saltos mentales. No se me ocurre otra manera de llamar a estos momentos del inglés en los que, aparentemente sin suficientes razones para llegar a la conclusión, se aventuraba a probar algo que luego resultaba ser cierto. Supongo que hay quien tiene la suerte de que su inconsciente es así de creativo y afilado. El caso es que Michael Faraday, tras realizar experimentos en los que observaba las limaduras de hierro y las posiciones y orientaciones de las bobinas, llegó a una conclusión revolucionaria.

En primer lugar observó las limaduras de hierro que trazaban esas etéreas curvas alrededor de los cables, y se movían cuando se movía la bobina del circuito primario o cuando se encendía o apagaba el circuito. ¿Qué eran esas líneas a las que tan bien se ajustaban las limaduras? De acuerdo con el inglés eran líneas de fuerza magnética, y mostraban la geometría e intensidad del magnetismo generado por la corriente eléctrica. Esto es de tal abstracción y genialidad que me deja sin palabras. En su exposición ante la Royal Society en 1831, Faraday dice:

Por curvas magnéticas me refiero a las líneas de fuerza magnética que trazan las limaduras de hierro.

¿Y qué importa cómo sean esas líneas “pintadas” por las limaduras, podríamos pensar? Pero aquí viene el final del salto, que no es un brinco al vacío y es la razón de que el inglés se plantease la importancia de esas curvas. Lo que determinaba que en el circuito secundario apareciese una corriente inducida era el cambio en el número de líneas de fuerza magnética que cortaba la superficie encerrada por el circuito. Daba igual qué produjera ese cambio en el número de líneas que atravesaban el circuito: encenderlo, apagarlo, alejarlo, acercarlo… o hacerlo girar.

En 1832 Faraday demostró ante la Royal Society cómo era posible inducir una corriente eléctrica mediante la rotación de un electroimán frente a un circuito estacionario, algo que no había hecho por casualidad sino como consecuencia de su doble hipótesis: las líneas de fuerza magnética y la inducción como cambio en el número de líneas que cruzaban el circuito. La Royal Society se rindió a sus pies, pero Faraday no había hecho más que empezar, aunque tuviera ya cuarenta y un años.

El descubrimiento y la explicación de Faraday se convertirían años más tarde, tras su digestión por parte de una mente matemática tan genial como la física de Faraday, en una ecuación bellísima, concisa y extraordinaria. La mente matemática era la de James Clerk Maxwell y la expresión recibe hoy el nombre de ley de Faraday y es una de las cuatro ecuaciones de Maxwell a las que hemos dedicado una mini-serie completa:

Al mismo tiempo que realizaba sus experimentos en electromagnetismo Faraday seguía trabajando en química. El inglés nunca dejó de realizar experimentos químicos y de hecho en 1833, ya famoso, se creó para él una nueva cátedra en la Royal Institution, la cátedra fulleriana de Química, que mantendría hasta su muerte (y en la que posteriormente se han sentado, entre otros, William y Lawrence Bragg). El nombre se debe a quien la creó y financió, John Fuller, a quien le gustaba ser conocido como John el honesto pero cuyo mote más común era el loco Jack.

Un año más tarde, en 1834, Faraday publicó un artículo en el que describía la cantidad de sustancia que se depositaba en un electrodo en una cuba electrolítica, combinando así sus dos grandes pasiones –química y electromagnetismo– y creando una nueva rama de la Química, la electroquímica. Sus conclusiones en este artículo reciben hoy en día el nombre de leyes de la electrólisis de Faraday.

Sin embargo creo que lo más admirable de esta época, aunque no sea tan glorioso como la ley de inducción, fueron las charlas de Navidad. En 1825, seis años antes de ganar fama mundial con su experimento sobre inducción, Faraday creó una nueva tradición: una charla anual en Navidad en la que un científico de la Institución hablase sobre algún asunto interesante al público en general. Aquí está la clave de la cuestión: no era una reunión de científicos, sino una charla divulgativa a la que podía acudir cualquier persona sin formación y, en especial, los jóvenes. Faraday nunca olvidó sus orígenes, y siempre tuvo gran interés en hacer accesible el mundo de la ciencia a los más jóvenes. Él mismo dio diecinueve de las charlas que creó, aunque posteriormente lo han hecho otros divulgadores de la talla de Sagan, Stewart o Dawkins.

Y es que ésta era la segunda cualidad por la que Faraday se hizo famoso, además de su genio intuitivo: su capacidad de divulgación, en una época en la que esto era rarísimo. Desgraciadamente –y es, de verdad, una gran desgracia– sólo tenemos los testimonios de sus contemporáneos y no hay vídeos de sus conferencias, pero parece haber sido un genio y la gente salía de sus charlas embelesada. Según Jane Pollack en el St. Paul’s Magazine, la cosa se ponía muy caliente:

Era una elocuencia irresistible que atrapaba la atención e llamaba a la simpatía. Había un brillo en sus ojos que ningún pintor podría copiar y que ningún poeta podría describir. Ese brillo parecía enviar una extraña luz al corazón mismo de su público, y cuando hablaba se sentía que el tono de su voz y el fervor de sus palabras sólo podían pertenecer al dueño de esos ojos incandescentes. Su pensamiento era veloz y creaba frases nuevas. Su entusiasmo parecía llevarlo al éxtasis mientras hablaba de los encantos de la Naturaleza y levantaba el velo de sus más profundos misterios. Su cuerpo, entonces, cobraba movimiento a raíz de su mente; su pelo se despeinaba en su cabeza, sus manos se movían nerviosas, su cuerpo delgado parecía temblar a causa de su propia vitalidad. Su público se encendía con él, y todos los rostros se ruborizaban.

Charla de Faraday
Una de las charlas de Navidad de Faraday.

En fin, el amor es así, pero no es sólo ella quien da cuenta de esta cualidad de Michael: la gente se peleaba por asistir a sus clases y charlas, a pesar de que su educación formal nunca alcanzase la talla de sus colegas tanto en la Society como en la Institution. Esto se debía a dos razones: por un lado a su talento natural, porque a mi público no se le encienden las mejillas, y a veces incluso tiene que luchar por mantener los ojos abiertos. Y, por otro lado, al esfuerzo consciente: Faraday consideraba esencial la educación científica y sabía que era necesario cautivar a quien le escuchaba, cuestionar sus ideas preconcebidas, asombrarlo y mantener su interés de principio a fin. En una carta a su amigo Benjamin Abbott en la que le da recomendaciones para el arte de impartir charlas, Faraday le dice:

Debe encenderse una llama en el comienzo y mantenerla viva con esplendor incesante hasta el final.

Los años siguientes, hasta alrededor de 1840, Faraday examinó con multitud de experimentos todo lo relacionado con la electricidad. Hasta entonces no estaba claro si existía un tipo o varios –recuerda que estamos aún muy lejos del descubrimiento del electrón–: existían lo que se llamaba triboelectricidad (la resultante de frotar objetos o hacerlos chocar), electricidad animal, electricidad química, electricidad voltaica… De modo que el inglés realizó experiencias en las que tratab a de determinar qué tenían en común, si era posible convertir un tipo en otro, qué las diferenciaba exactamente, más allá de sus orígenes diversos, etc.

Su conclusión fue bastante clara: cualquiera que fuese el origen, la carga eléctrica era una sola, y su movimiento era la corriente eléctrica. Las diferencias entre los distintos “sabores” de la electricidad –origen aparte– se encontraban en la magnitud de la carga o su movimiento –la intensidad– y en el ímpetu de ese movimiento –el voltaje–. Cuando esas magnitudes variaban mucho en uno u otro experimento el fenómeno parecía distinto, pero se trataba de una diferencia de grado, no de naturaleza. La electricidad era una.

Como tantas otras veces, Faraday había hecho de gran unificador: había cerrado el círculo entre electricidad y magnetismo por una parte –un círculo que había empezado a trazar Ørsted–, y había desterrado las diferencias entre distintos tipos de electricidad por la otra. Tenía por entonces unos cincuenta años y su trabajo no había hecho más que empezar, aunque el experimento de las corrientes inducidas es uno de los más importantes realizados jamás, y uno de los tres “grandes” que realizó el propio Faraday. Pero de los otros dos hablaremos en la última entrega de este tocho faradiano, dentro de una semana.

02 Oct 07:45

Hacienda dice que las donaciones ilegales a partidos desgravan

by Fernando J. Pérez

El PP apenas ha recibido buenas noticias desde que el juez Pablo Ruz inició la investigación de los papeles de Bárcenas. Tras la publicación por EL PAÌS de la contabilidad secreta del extesorero popular, el pasado 31 de enero, la formación conservadora ha rezado un rosario en el que solo hay misterios dolorosos: la exposición a la luz pública de sus secretos financieros –los oficiales y los ocultos-; la citación como testigos de sus secretarios generales; su expulsión de la causa por fraude procesal; la investigación por destrucción de pruebas por el borrado de los discos duros de los ordenadores de Bárcenas…

Por eso sorprendía ayer que el PP no celebrara con gran aparato pirotécnico el primer gran informe de la causa cuyas conclusiones son abiertamente favorables a sus intereses. En un escrito presentado el pasado 25 de septiembre, los peritos de la Agencia Tributaria que auxilian al juez Ruz en la investigación sostienen que los pagos de los empresarios a la caja B del PP -8,3 millones de euros entre 1990y 2008- y su reparto en forma de sobresueldos a los líderes de la formación y para el pago de gastos electorales y de funcionamiento del partido no revisten, en general, las características del delito fiscal.

El escrito, de 42 páginas y que fue publicado el lunes por la agencia estatal Efe antes aun de que lo recibieran las partes, considera que los sobresueldos supuestamente percibidos por los líderes populares antes de 2007 han prescrito desde el punto de vista penal, por lo que no tiene sentido su análisis. También apunta que los pagos posteriores a 2008 no superarían, de ser ciertos, la cuota tributaria de 120.000 euros que separa una simple defraudación de un delito fiscal castigado con hasta cinco años de cárcel. Y eso tanto en el Impuesto de Sociedades, que correspondería abonar al PP, como en los Impuestos sobre la Renta de las Personas Físicas de los políticos perceptores de los fondos.

El único resquicio delictivo que contemplan los peritos de la Agencia Tributaria es el supuestamente cometido por el arquitecto Gonzalo Urquijo, interiorista que remodeló la sede central del PP en la madrileña calle Génova 13 entre 2005 y 2010. Según la contabilidad manuscrita de Bárcenas, en 2008, Urquijo cobró en negro por este concepto 880.000 euros, lo que supone una cuota defraudada de 264.000 euros, claramente un delito fiscal.

El PP ha optado por mantener un perfil bajo ante esta buena noticia. Tal vez los líderes populares han leído con atención la letra pequeña del informe que, si bien exculpa al partido y sus dirigentes de los delitos fiscales, lo hace en algunos casos mediante sugestivos argumentos legales.

Uno de los casos más llamativos se refiere al Impuesto de Sociedades del PP como empresa en 2008. Ese año, el partido no presentó declaración sobre ese impuesto, y los peritos interpretan que fue así porque el partido entendió que “todas las rentas [la diferencia entre los ingresos y los gastos]” de ese ejercicio “estaban exentas” de tributación de acuerdo con lo dispuesto en la Ley Orgánica de Financiación de Partidos Políticos. A falta de declaración, los expertos de Hacienda analizan las entradas y salidas de dinero que Bárcenas reflejó en su contabilidad manuscrita.

Ese año, según la contabilidad b de Bárcenas, el partido ingresó 1.055.000 euros y realizó pagos por 1.464.710 euros. Los peritos consideran que las donaciones son irregulares a la luz de la Ley de Financiación de Partidos, ya que superaban en muchos casos los límites de 100.000 euros por donante y procedían de empresas que no pueden dar dinero a partidos porque tienen contratos con la Administración.

Sin embargo, los peritos sostienen que el hecho de que los donativos incumplan la Ley de Financiación de Partidos no implica que no puedan estar sujetos a desgravación fiscal. Los expertos dicen que esa normativa considera exentas de tributación “las donaciones privadas efectuadas por personas físicas o jurídicas”, es decir, todas y no solo aquellas ingresadas de forma legal por los partidos.

Según los expertos, si la Ley de Financiación hablara de donaciones realizadas “conforme a lo dispuesto” por esa norma –es decir solo las legales- “no habría dudas de que la exención no alcanzaría a las donaciones privadas analizadas” en la contabilidad de Bárcenas. Y por lo tanto, la cuota defraudada por el PP en el Impuesto de Sociedades del PP en 2008 superaría ampliamente los 120.000 euros del umbral del delito fiscal.

Los peritos también hacen la interpretación más favorable al PP al calcular la cuota del Impuesto de Sociedades de 2007. Los inspectores de Hacienda consideran “gastos deducibles” los pagos a dirigentes no reflejados en la contabilidad oficial. De no aplicarse esta desgravación y la de otras partidas que sí están consignadas en las cuentas oficiales, la cantidad defraudada por el partido conservador en ese año se elevaría a 135.500 euros, también por encima del listón del delito fiscal.

El informe no tiene duda de que los supuestos pagos de la contabilidad paralela de Bárcenas tienen que ver con “la financiación de actividades propias de los partidos políticos”, y “por lo tanto, no cabe denegar la exención”. Los peritos aplican la desgravación con independencia de que los ingresos figuren en una contabilidad b y provengan además de personas que no pueden donar a partidos y en cantidades superiores a la legal. Los expertos se limitan a señalar que la ley de financiación de partidos “no contiene ningún efecto jurídico en el ámbito tributario” y sostienen que “dichos incumplimientos constituyen una infracción grave sancionable con una multa a imponer por el Tribunal de Cuentas”.

En algunos de sus escritos, el juez Ruz y el fiscal anticorrupción han apuntado la apreciación contraria a los peritos de Hacienda. Según ellos, las donaciones irregulares no estarían sujetas a desgravación y formarían parte del cálculo de la cuota del Impuesto de Sociedades. Sin embargo, en su última resolución, el magistrado no rebate las conclusiones del escrito de los peritos.

En el caso de las implicaciones fiscales para los perceptores de sobresueldos, el informe es más bien parco. Se limita a señalar, sin entrar en detalles personales, que “a tenor de las cuantías supuestamente entregadas a las personas físicas, su integración en las declaraciones de IRPF de 2007 y 2008 no generaría cuota delictiva”. Además, dado que el plazo para presentar la declaración de 2007 finaliza en junio de 2008, “la acción penal puede estar prescrita” al haber transcurrido más de cinco años.

01 Oct 19:52

Y esta fue mi charla en Naukas 2013

by omalaled

Este fin de semana pasado asistí he hice de ponente a las charlas #Naukas13 en Bilbao. Ya había ido el año pasado y conocía la sensación. No obstante, este año, para mí, ha sido diferente. No sé por qué. Quizás porque no he parado de ver charlas geniales, quizás porque ya nos conocíamos todos un poco más, quizás porque la organización cada vez hace más cosas (desde poner libros de divulgación en venta hasta hacer charlas para críos), etc. La cuestión es que este evento no lo olvidaré nunca.

No exagero un ápice. Ninguna, repito, ninguna de las personas que he conocido o vuelto a ver me ha sido indiferente. Cada una de ellas ha sido enriquecedora a su manera y con todos ellos he disfrutado de la conversación, charlando de todos los temas posibles. Ojalá los políticos que gobiernan tuvieran la décima parte de la cabeza, mente abierta y educación que tienen estas personas. Todos ellos, incluido un servidor, buscamos personas formadas, críticas y escépticas. Buscamos libertad de expresión y de pensamiento y todo ello lo canalizamos a través de la divulgación científica.

Lo he dicho en la lista de correo de Naukas, pero lo repetiré aquí públicamente:

Cuando aberron me preguntó si quería entrar en Amazings [la comunidad que hoy compone Nautas] no tenía ni idea de lo que me iba a encontrar. Conocer a gente como vosotros, en directo y en acción, con la “multidisciplinaridad” que hay y los diferentes puntos de vista, enfrentados en algunos casos, pero siempre argumentados sólidamente, y (esto es quizás lo más importante) lo educados como personas que sois, me hace cambiar mi perspectiva y opinión de muchas cosas. He llegado a pensar que estas reuniones en Bilbao han sido una de las experiencias más enriquecedoras intelectualmente de toda mi vida.

Me parece que estas reuniones tienen más impacto en nosotros mismos que no al público al que queremos creer que va dirigido. Por mi parte, vuelvo el año que viene. No sé de qué hablaré, pero tengo un año para preparármelo.

Por el momento, os dejo el enlace a mi charla (o hacer click sobre la foto). Espero que os guste.

30 Sep 16:45

Post Vintage (66): El último viaje de la flota del Kaiser

by Tokaidin
La curiosa procedencia del acero que se utilizó en los Apolo y diversas sondas interplanetarias

La historia de la carrera espacial está llena de hechos curiosos y que, en su mayor parte, resultan desconocidos para el gran público...incluso cuando, como es este caso, implica objetos tan grandes como un acorazado y momentos aparentemente tan desligados de ella como es la primera guerra mundial. Y es que la tecnología que nos lleva hacia las estrellas no deja de ser, en buena parte, el resultado de reunir y llevar un paso más allá una herencia cuyas raices se adentran en el pasado mucho más de lo que podamos imaginar. Y entre ellas algunas sorprendentes que se remontan al final de la 1ª guerra mundial.

Noviembre de 1918. Alemania, militarmente acorralada en el exterior, ahogada economicamente y al borde de la revolución interna, finalmente se rinde a las potencias aliadas y se firma el armisticio. La Flota imperial germana, que tantos problemas había causado a la británica y que llegó a disputarle la hegemonía de los océanos, queda bajo control de Gran Bretaña y es confinada en el fondeadero de la Royal Navy en Scapa Flow, al norte de Escocia, a la espera de decidir su destino.

Y este se decide rápido y de forma inesperada, ya que el almirante alemán, pensando que los británicos habían decidido finalmente apropiarse de su flota (no dejaban de ser buques de guerra magníficamente construidos, que podían ser perfectamente intgrados en la Royal Navy), envía una señal codificada, acordada de antemano, y los alemanes hunden todos los barcos. Un último gesto de resistencia valiente pero en parte inutil, ya que Scape Flow es muy poco profundo y algunos de ellos, a lo largo de los años, terminaron siendo reflotados y puestos en servicio. Otros, pero, resultan irrecuperables y con el tiempo deberán ser eliminados, ya que no tienen ningún valor ni se puede sacar nada de ellos que merezca el esfuerzo. Hasta 1945.

El final de la 2ª Guerra Mundial y la aparición del armamento nuclear cambia por completo la situación y convierte los barcos que permanecen sumergidos en Scape Flow en algo valioso. Más exactamente el acero con el que están construidos.

Y es que necesita mucho aire para fabricarlo, un aire que desde 1945, con la primera detonación atómica y las que siguieron, esta ligeramente contaminado de radiación. Son niveles extremadamente pequeños, solo por encima del que sería su nivel natural, pero suficiente para afectar al acero que se fabrica desde entonces. No lo suficiente para tener un efecto real en su calidad ni para afectarnos (motivo por el cual se sigue fabricando), pero que lo hace inutil cuando se trata de construir instrumentos extremadamente sensibles, como es el caso de los monitores de radiación empleados en algunas naves espaciales.

De golpe los 3 buques de guerra y cuatro cruceros ligeros que aún permanecían en las aguas de Scapa Flow, construidos antes de anterior a 1945 adquirieron un valor inesperado, y su acero, con el tiempo, tomó un lugar en la carrera espacial...sondas como la Galileo y las Pioneer llevaron hacia otros mundos fragmentos de lo que un día fue la poderosa flota del Kaiser, y los Apolo dejarón en la superficie lunar instrumentos construidos con dicho acero. Poco podían imaginar las tripulaciones alemanas, cuando miraban La Luna brillar sobre las aguas del Atlántico en las oscuras noches oceánicas de la guerra, que un día sus barcos, aunque solo fueran en parte, encontrarían en ella su lugar de descanso definitivo.

El confinamiento y posterior auto-hundimiento de la flota alemana en Scape Flow.

Algunos sería reflotados con el tiempo, otros permanecen hoy día como una valiosa fuente de acero limpio.

Las numerosas pruebas nucleares al aire libre realizadas desde 1945 hasta hace relativamente poco tiempo han dejado su huella en el ambiente que nos rodea.

Seguramente nadie en la flota alemana pensaba que parte de ella llegaría tan lejos...literalmente hasta otros mundos y más allá.

Los barcos alemanes que llegaron a la Luna
30 Sep 16:38

¿Un hiperagujero negro dio origen al universo?

by Kanijo

Artículo publicado por Zeeya Merali el 13 de septiembre de 2013 en Nature News

Según proponen los teóricos, el Big Bang fue un espejismo procedente del colapso de estrellas en dimensiones superiores.

Podría ser el momento de apostar en contra del Big Bang. Los cosmólogos han especulado que el universo se formó a partir de los escombros expulsados cuando una estrella de cuatro dimensiones colapsó en un agujero negro — un escenario que ayudaría a explicar por qué el cosmos parece ser tan uniforme en todas las direcciones.

Agujero negro

Agujero negro


El modelo estándar del Big Bang nos dice que el universo estalló a partir de un punto infinitamente denso, o singularidad. Pero nadie sabe qué habría disparado este estallido: las leyes de la física conocida no pueden decirnos qué sucedió en dicho momento.

“Por lo que saben los físicos, podría haber dragones volando desde la singularidad”, dice Niayesh Afshordi, astrofísico del Instituto Perimeter para Física Teórica en Waterloo, Canadá.

También es difícil explicar cómo un violento Big Bang habría dejado tras de sí un universo que tiene una temperatura casi completamente uniforme, debido a que no parece haber suficiente tiempo desde el nacimiento del cosmos para que haya alcanzado un equilibrio térmico.

Para la mayor parte de cosmólogos, la explicación más plausible para tal uniformidad es que, poco después del comienzo del tiempo, alguna forma desconocida de energía hizo que el joven universo se inflase a un ritmo que era superior a la velocidad de la luz. De esta forma, una pequeña parte con una temperatura aproximadamente universo se habría estirado en el vasto cosmos que vemos hoy. Pero Afshordi señala que “el Big Bang fue tan caótico, que no está claro si en algún momento habría habido dicha pequeña zona homogénea a partir de la cual la inflación empezase a trabajar”.

En la brana

En un artículo publicado la semana pasada en el servidor arXiv1, Afshordi y sus colegas vuelven su atención hacia una propuesta2 realizada en 2000 por un equipo que incluía a Gia Dvali, físico actualmente en la Universidad Ludwig Maximilians en Múnich, Alemania. En dicho modelo, nuestro universo tridimensional es una membrana, o brana, que flota a través de un ‘universo superior’ que tiene cuatro dimensiones espaciales.

El equipo de Ashfordi se dio cuenta de que si este universo superior contenía sus propias estrellas de cuatro dimensiones, algunas de ellas colapsarían formando agujeros negros 4D, de la misma forma que las estrellas masivas de nuestro universo lo hacen: estallan como supernovas, expulsan de forma violenta sus capas exteriores, y las capas internas colapsan en un agujero negro.

En nuestro universo, un agujero negro está limitado por una superficie esférica conocida como horizonte de sucesos. Mientras que en un espacio tridimensional común un objeto bidimensional (una superficie) es lo que crea los límites del agujero negro, en el universo superior el horizonte de sucesos de un agujero negro en 4D sería un objeto 3D – una forma conocida como hiperesfera. Cuando el equipo de Afshordi modeló la muerte de una estrella en 4D, hallaron que el material expulsado formaría una brana en 3D alrededor del horizonte de sucesos tridimensional, y se expandiría lentamente.

Los autores proponen que el universo 3D en el que vivimos podría ser sólo una brana – y que detectamos el crecimiento de la brana en forma de expansión cósmica. “Los astrónomos midieron la expansión y extrapolaron que el universo debía haber empezado con un Big Bang — pero esto es sólo un espejismo”, dice Afshordi.

Discrepancia en el modelo

El modelo también explica de forma natural la uniformidad de nuestro universo. Debido a que el universo superior en 4D podría haber existido durante un tiempo infinitamente largo hacia el pasado, habría habido una gran cantidad de oportunidades para que distintas partes del universo 4D alcanzaran un equilibrio, el cual habría heredado nuestro universo 3D.

Esta descripción tiene ciertos problemas, no obstante. A principios de año, el observatorio espacial  Planck, de la Agencia Espacial Europea, publicó datos que cartografiaban las ligeras fluctuaciones de temperatura en el fondo cósmico de microondas — la antigua radiación que porta la marca de los primeros momentos del universo. Los patrones observados encajan con las predicciones realizadas por el modelo estándar del Big Bang e inflación, pero el modelo del agujero negro se desvía de las observaciones de Planck en, aproximadamente, un 4%. Esperando resolver la discrepancia, Afshordi dice que está refinando su modelo.

A pesar de la discrepancia, Dvali elogia la ingeniosa forma en la que el equipo se despoja del modelo del Big Bang. “La singularidad es el problema más fundamental de la cosmología, y ellos han reescrito la historia de forma que nunca lo encontremos”, comenta. Mientras que los resultados de Planck “demuestran que la inflación es correcta”, queda abierta la cuestión de cómo tuvo lugar la inflación, añade Dvali. El estudio podría ayudar a demostrar cómo la inflación estuvo motivada por el movimiento del universo a través de una realidad de dimensiones superiores, concluye.


Artículos de referencia:
Nature doi:10.1038/nature.2013.13743
1.- Pourhasan, R., Afshordi, N. & Mann, R. B. Borrador en http://arxiv.org/abs/1309.1487(2013).
2.- Dvali, G., Gabadadze, G. & Porrati, M. Phys. Lett. B 485, 208–214 (2000).

Autor: Zeeya Merali
Fecha Original: 13 de septiembre de 2013
Enlace Original

29 Sep 18:46

(Documental) La música de los números primos

by ^DiAmOnD^
Gilbmartinez

molt interessant

Los números primos, conocidos desde hace miles de años, están más de moda que nunca. Su utilización en criptografía, con todo lo que ello conlleva, hace que sea así. Por ello siempre es interesante hablar sobre su historia y sus propiedades y dar a conocer los problemas y las preguntas sin resolver en las que están involucrados.

Por todas estas razones (y por muchas otras) pienso que el documental que os traigo hoy sigue siendo de interés. Se trata de La música de los números primos, de la BBC, y lo presenta el conocido matemático Marcus du Sautoy. Está dividido en tres partes de unos 26 minutos cada una. Cuando tengáis un rato libre ya tenéis algo interesante en lo que dedicar el tiempo. Merece la pena.

Aquí tenéis la presentación del documental:

Los números primos son los átomos de las matemáticas. También son extraordinariamente evasivos porque surgen aparentemente sin esquema alguno. Es el problema matemático más célebre aún sin resolver, y quien lo resuelva se hará inmortal, además de ganar el premio de 1 millón de dólares, ofrecido al matemático que lo resuelva antes.

Ya en el año 300 a.C., Euclides constató que debí­a haber un número infinito de números primos. Algunos de los grandes matemáticos estuvieron obsesionados con la búsqueda de un patrón de distribución de los mismos. Fueron clave en el nacimiento del ordenador, ayudaron a Gran Bretaña a ganar la II Guerra Mundial y son fundamentales para explicar el comportamiento de los átomos.

Esta es la épica historia de 3.000 años de alegrí­a y desesperación matemática, de luz deslumbrante y callejones sin salida. Marcus du Sautoy, Catedrático de Matemáticas de la Universidad de Oxford y uno de los cientí­ficos más prestigiosos de Inglaterra nos acerca al fascinante mundo de las matemáticas, a su belleza y a sus secretos.

Y aquí van los vídeos:

La música de los números primos (1/3)

La música de los números primos (2/3)

La música de los números primos (3/3)


Segunda aportación a la Edición 4.123105 del Carnaval de Matemáticas, que en esta ocasión organiza David Orden en su blog Cifras y Teclas.

Entra en Gaussianos si quieres hacer algún comentario sobre este artículo, consultar entradas anteriores o enviarnos un mensaje.

Vota a Gaussianos en los Premios Bitácoras 2013



Si no sabes cómo hacerlo te lo explico aquí.

Construye tú también el poliedro de Császár.

27 Sep 04:58

Un arma eficaz contra la resistencia a los antibióticos

by Javier Sampedro

Los antibióticos fueron uno de los grandes avances de la medicina moderna y, en justa correspondencia, su pérdida de eficacia es uno de los grandes problemas de la contemporánea. Cuanto más usamos –y abusamos de— los antibióticos, más resistentes se hacen las bacterias a ellos, hasta el extremo de que buena parte de la mortalidad hospitalaria se debe a agentes infecciosos refractarios a cualquiera de estos fármacos o sus combinaciones. Científicos daneses presentan ahora una solución asombrosamente simple: alternar entre ciertos pares exactos de antibióticos.

No vale alternar cualquier antibiótico con cualquier otro, como ya saben muchos que lo han hecho. Por ejemplo, el cloranfenicol puede alternarse con la polimixina B, pero no con la fosfomicina ni con la rifampicina; la tetraciclina puede alternarse con la colistina, la nitrofurantoína o la estreptomicina, pero no con la kanamicina o la amoxicilina. Cada par de antibióticos útil para combatir la resistencia es un mundo, y no podía predecirse a partir de primeros principios. Ahora, hay que usar la lista de los biólogos daneses.

Cambiar al paciente de un antibiótico a otro es una práctica obvia y extendida cuando surgen resistencias –aunque no siempre eficaz—, pero el trabajo de hoy va mucho más allá, al identificar las secuencias de fármacos exactas que permiten erradicar la resistencia y al desarrollar un sistema racional. Lejla Imamovic y Morten Sommer, del departamento de biología de sistemas de la Universidad Técnica de Dinamarca, en Lyngby, presentan hoy en Science Translational Medicine, —la subsidiaria de la revista Science dedicada a investigaciones de evidente o inmediata utilidad médica— una lista de los pares de antibióticos cuya alternancia evita la aparición de resistencias en las bacterias.

Los autores reconocen que sus resultados no pueden llegar a la práctica clínica sin superar antes los ensayos clínicos que demuestren su seguridad y eficacia. Sus experimentos se han llevado a cabo in vitro, con una bacteria modelo de laboratorio –Escherichia coli, un habitante tradicional del intestino humano— y técnicas de evolución artificial para hacerla resistente a cada uno de los 23 antibióticos más utilizados en la práctica médica.

También han confirmado sus resultados con dos cepas bacterianas aisladas de pacientes, ambas recogidas en los hospitales daneses por constituir casos notables de multirresistencia, o resistencia simultánea, a media docena de los antibióticos más valiosos. Y sus conclusiones se mantienen con ese material más realista: utilizar los pares de antibióticos correctos suprime la resistencia. ¿Hay posibilidades, entonces, de abordar los ensayos clínicos a corto plazo?

“Sí”, responde Sommer a EL PAÍS, “creemos que este concepto, el ciclo de sensibilidad colateral, será directamente aplicable para el tratamiento de pacientes, puesto que los antibióticos que hemos usado en nuestro estudio ya están aprobados por los reguladores sanitarios; obviamente, estos ensayos requieren que el médico evalúe su validez clínica; en el caso de las infecciones crónicas, pensamos que los ciclos de sensibilidad colateral tienen un fuerte potencial de impactar en la práctica clínica”.

La “sensibilidad colateral” a la que se refiere Sommer es el concepto central de su investigación y se trata de lo siguiente. Cuando una población de bacterias se ve atacada por un antibiótico, lo habitual es que intente adaptarse a él. Este proceso, aparentemente dotado de un propósito presciente, se basa en realidad en la más ciega lógica darwiniana: las meras variantes aleatorias que, por casualidad, resultan vivir un poco mejor en el nuevo ambiente tóxico causado por el fármaco sobreviven y se reproducen más que el resto; la repetición de este proceso durante muchas generaciones –y una generación de bacterias puede durar tan poco como 20 minutos— acaban generando una población de bacterias resistentes al antibiótico en cuestión.

El descubrimiento de Imamovic y Sommer es que ese proceso de adaptación para resistir a un antibiótico genera siempre una hipersensibilidad a otro antibiótico. No a cualquier otro, sino a un antibiótico concreto de una lista de 23, o a lo sumo a unos pocos de esa lista. La explicación es bien curiosa: que la adaptación a los antibióticos se basa en el ajuste fino de una red de genes interrelacionados: una red genética que, literalmente, se ocupa de bregar con los desafíos químicos del entorno. Y al tocar la red para resistir a un antibiótico, a la bacteria le resulta inevitable hacerse muy vulnerable a otro.

En la lógica profunda de las redes metabólicas y de los circuitos genéticos que las codifican –o las significan— yace una balanza que imparte una suerte de justicia bioquímica. Siempre es posible adaptarse a una agresión, pero nunca sale gratis.

Las resistencias a los antibióticos llevan décadas creciendo en los entornos hospitalarios, y cada vez más en cualquier otro entorno. La razón es el uso extensivo —en el caso de los hospitales— o directamente el abuso –en el de la recetitis con que se viene tratando la soledad en estos tiempos duros— de estos fármacos esenciales, que junto al saneamiento de las aguas se han podido apuntar el grueso de la duplicación de la esperanza de vida que han conseguido las sociedades occidentales en el siglo XX. Y de la que esperan alcanzar los países en desarrollo en el XXI, y mejor antes que después.

El trabajo de los científicos daneses se centra en los antibióticos, pero la aparición de resistencias no es ni mucho menos una peculiaridad de estos fármacos: lo mismo ocurre con los tratamientos para la tuberculosis, los paliativos de la malaria o la quimioterapia contra el cáncer. Sommer cree que su estrategia de ciclos de “sensibilidad colateral” puede tener relevancia también en esos campos alejados de su experimentación.

“En el caso del cáncer”, sigue diciendo a este diario, “se sabe también que el desarrollo de resistencia a la quimioterapia en el tumor puede resultar en sensibilidad colateral (hipersensibilidad a un fármaco distinto); de acuerdo con esto, también vemos un potencial notable para aplicar los ciclos de sensibilidad colateral a los tratamientos del cáncer”.

En la variedad no solo está el gusto: también la vida.

27 Sep 04:56

Discursos de Madrid 2020 y su preparación: 220.000 euros

by Bruno García Gallo
Gilbmartinez

300000 $ por el relaxing cup of café con leche?

El emotivo discurso de Felipe de Borbón ante el Comité Olímpico Internacional (“no me dirijo a ustedes como Príncipe, soy deportista y padre orgulloso de dos niñas que quieren un futuro brillante”), las bromas de Pau Gasol (“a veces, me pregunto cómo serán mis hijos; tengo la sensación de que serán altos”) y la invitación de la alcaldesa, Ana Botella, a tomar una “relaxing cup of café con leche in Plaza Mayor” tuvieron un autor y un precio: el estadounidense Terrence Burns, entrenador y responsable de todos los mensajes de la candidatura madrileña para organizar los Juegos de 2020, que cobró 300.000 dólares (220.000 euros) por su trabajo, según fuentes de la oficina olímpica.

Tanto el Ayuntamiento (PP) como el Comité Olímpico Español se habían negado a desvelar la cifra, pese a que ha sido solicitada oficialmente por UPyD. “Nunca hablo de mis honorarios, lo siento”, replicó Burns, preguntado por la revista Vanity Fair.

La candidatura sí ha explicado que el precio es “de mercado”, e incluso se rebajó sobre las presentaciones iniciales del estadounidense. Rosa Matías, directora de la agencia Well-Comm Talento para Comunicar, coincide en que es “un precio razonable, de mercado, y mucho más para el mercado estadounidense”.

¿Cuál fue la labor de Burns? Su contrato no ha sido hecho público, pero diversas fuentes conocedoras de su trabajo coinciden en que supervisó todos los detalles con el Comité Olímpico Internacional (COI), ya fueran las palabras, sonrisas, o simplemente por la forma de caminar o saludarse en su presencia. Fue el autor de los discursos en los tres encuentros previos con miembros del organismo en Lausana y San Petersburgo, y en la presentación del 7 de septiembre en Buenos Aires, cuando Madrid cayó ante Tokio.

Como fundador y presidente de la agencia Helios Partners, Burns había asesorado anteriormente a las candidaturas olímpicas de Pekín 2008, Vancouver 2010, Sochi 2014 y PyeongChang 2018, y a Rusia en su aspiración de lograr el Mundial de 2018. En los cinco casos, con éxito. Comenzó a trabajar con Madrid en febrero, antes de la visita de la comisión de evaluación del COI.

“Los discursos fueron una labor de equipo en la que también intervinieron los ponentes y sus equipos, algunos con un papel muy relevante en el resultado final”, asegura un miembro de la candidatura. Según otra fuente, el Príncipe hizo cambios ligeros en su discurso en francés, Gasol eliminó una broma de su intervención y Botella sustituyó algunas expresiones de su texto.

Todos ellos ensayaron con Burns y una colaboradora, primero en Madrid (en el caso de la alcaldesa y del presidente regional, Ignacio González, solo un día y no más de una hora) y posteriormente en Buenos Aires, en la semana antes de la votación, entre media hora y una hora diaria, y en ocasiones, como en el caso del Príncipe, incluso dos veces al día.

Burns era “el hilo conductor” de las presentaciones, explica el consejero delegado de Madrid 2020, Víctor Sánchez, pero la estrategia internacional de comunicación recayó en la agencia británica M-is, a la que se contrató en junio de 2012 por 2,4 millones de euros (más IVA) en “un proceso simplificado y sin publicidad”, según ha informado la candidatura.

Un miembro del equipo reconoce, sin embargo, que la labor de la agencia no estaba muy clara, pues se limitaba a “asesorar”. Sánchez tercia que, mientras Burns se ocupaba de “cómo pasar el mensaje”, M-is “definía el mensaje a nivel internacional”. Además, se encargó de hacer cinco vídeos: uno para el encuentro de San Petersburgo, otro que fue finalmente desechado y publicado en la web, y los tres de Buenos Aires, supervisados también por Burns.

La candidatura iba a costar 11,5 millones al Ayuntamiento y otros 12,4 millones a patrocinadores, pero está previsto que cierre con un superávit de tres millones —al no haberse gastado todo—,que presumiblemente volverán a las arcas públicas. Según el presupuesto inicial de gastos, que se ha rebajado un tercio, estaba previsto dedicar 13,3 millones a publicidad y promoción, 5 millones a consultores externos, 4,1 millones a salarios, 2,7 millones a gastos administrativos y 2,6 millones a viajes.

01 Sep 06:20

Gusanos entrelazados

by Cuentos Cuánticos

Imagen tomada del blog: Lisa Paints

Hay dos ideas que nos hacen vibrar, los agujeros de gusano y el entrelazamiento cuántico.

Recientemente estos conceptos se están relacionando de una forma muy sugestiva. En esta entrada intentaré explicar lo que he entendido de la nueva propuesta o conjetura. La idea, acertada o no, me resulta muy atractiva y, sin duda, dará de que hablar durante un tiempo. Espero poder explicar la motivación de la idea sin entrar en los escabrosos detalles técnicos que la envuelven (y que son muy interesantes).

Agujeros de gusano

En relatividad general nos encontramos de cara con el concepto de agujero negro. Estos son objetos donde la gravedad muestra su cara mas cruda. Al concentrar una gran cantidad de masa/energía, sin rotación ni carga, en el espaciotiempo la geometría resultante nos dice que nada puede escapar de las inmediaciones de la misma. Aparece un horizonte, esto nos indica la región del espaciotiempo a partir de la cual no se puede escapar hacia el infinito, hacia el exterior del agujero.

Sin embargo, un punto no muy conocido de la matemática involucrada en el estudio de los agujeros negros, o al menos que yo no he visto reflejado en las discusiones más básicas de los mismos, es que la relatividad general admite soluciones en las que aparecen agujeros de gusano. Estas soluciones, que proceden del estudio de los agujeros negros, nos dicen que se pueden crear túneles en el espaciotiempo.  Estos túneles se pueden presentar en dos variedades:

  • Un túnel que conecta dos universos.

Agujero de gusano conectando dos universos asintóticamente planos.

  • Un túnel que conecta dos puntos distantes del mismo universo.

Agujero de gusano conectando dos puntos distantes del mismo universo.

Estas son soluciones perfectamente compatibles con relatividad general, no salen de la manga sino de un estudio pormenorizado de las soluciones de agujero negro sin carga ni rotación, el agujero negro de Schwarzschild.  A estos agujeros de gusano también se los denomina, puentes de Einstein-Rosen.

La relatividad general nos dice que la física ha de ser independiente del estado de movimiento del observador que la describe. Esto implica que un mismo fenómeno ha de poder ser descrito usando cualquier sistema de coordenadas que elijamos. Evidentemente, unas coordenadas serán mejores que otras para simplificar los resultados o discernir sobre las propiedades geométricas del espaciotiempo con el que estemos tratando.

En el caso de los agujeros negros, al emplear las coordenadas de Kruskal, encontramos que el espaciotiempo adquiere una estructura muy curiosa.

Al principio uno se decide por describir el agujero negro por la siguiente figura:

En este diagrama, que representa un espaciotiempo completo encontramos los siguientes elementos representativos:

  1. El diamante inferior derecho representa el espaciotiempo completo exterior a un agujero negro.
  2. La línea rosa indica la presencia de un horizonte. Como vemos si seguimos las líneas amarillas, oscuras y claras, que representan fotones moviéndose hacia el interior o exterior del agujero, una vez han traspasado el horizonte no pueden salir de él y están condenadas a encontrarse con la línea azul superior. Esta línea azul representa la singularidad del agujero negro.

Pero esta representación, que está basada en el comportamiento de la solución de agujero negro con unas determinadas coordenadas no está completa. En realidad, lo que obtenemos es una duplicación de las regiones:

Lo que ocurre es que la región I y II se “duplican” en el sentido que encontramos una región III que es análoga a I, es decir, describen universos o distintas regiones del universo. Y la región II y IV describen soluciones inversas temporalmente.  Si de la región II nada puede escapar, de la región IV todo escapa. La región IV, que también tiene un horizonte (o anti-horizonte), representaría lo que se conoce como un agujero blanco.

Esta representación plana de un espaciotiempo de cuatro dimensiones tiene una sorpresa. El punto de unión de las cuatro regiones en realidad representa un túnel que conecta las regiones I y III teniendo como entrada la región II y como salida la región IV. Esto representa un agujero de gusano.  Lo que veríamos en tres dimensiones espaciales, con el tiempo congelado, alrededor de ese punto sería:

Para más información sobre este hecho: Embeddings and time evolution of the Schwarzschild wormhole.

Propiedades relevantes de los agujeros de gusano

Haré una lista breve de las propiedades más interesantes de los agujeros de gusano para el caso que nos ocupa.

  1. La fuerza gravitatoria (fuerzas de marea) en la garganta del agujero de gusano es muy elevada. Serían insoportables para agujeros con una masa menor que 10000 masas solares.
  2. A pesar de que la solución de Schwarzschild es una solución estática, es decir, un observador exterior no vería evolución temporal en el agujero (si no interactúa con nada externo), Fuller y Wheeler (Causality and Multiply connected space-time, 1962) demostraron que los agujeros de gusano son entidades dinámicas. La garganta se abre y se cierra en un tiempo muy breve, tan breve que ni tan siquiera un fotón podría cruzar de la boca de entrada a la de salida.

Es decir, que aunque uno, en principio, podría ir de un punto del espaciotiempo a otro muy alejado a través del agujero de gusano en un tiempo menor que el que tardaría un fotón yendo por el espacio exterior al agujero de gusano, la física se empeña en que esto no es posible. Se dice por tanto que los agujeros de gusano no son atravesables. Cualquier perturbación haría que la garganta se cerrara rápidamente y acabaría todo en un agujero negro de los de toda la vida. Y entrar en esos sitios no es muy recomendable.

Por tanto, la causalidad y la localidad (que nada se puede propagar a mayor velocidad que la de la luz en el vacío) quedan aseguradas, tal y como esperaría un observador exterior a un agujero negro que formara parte de un agujero de gusano, en contra de lo que pudiera parecer en un principio.

Entrelazamiento cuántico

El entrelazamiento cuántico es uno de los fenómenos más sorprendentes con los que nos podemos enfrentar en física. En grandes líneas nos dice que dos sistemas cuánticos que han interactuado de un modo específico se convierten en un único sistema del que no podemos describir sus componentes por separado. Así, aunque tengamos una parte del sistema total en un punto y otra en otro punto muy alejado, al actuar sobre una de las partes la otra responde de forma correlacionada a las medidas.

Llamaremos a estos sistemas pares EPR porque fueron Einstein, Podolsky y Rosen los que los propusieron para atacar la cuántica diciendo que eso violaría la localidad y por tanto la cuántica sería incompleta al entrar en contradicción con la relatividad especial.  Para más detalles aquí os dejo las entradas en las que hemos hablado de EPR.

Hoy día sabemos que estos pares EPR no se pueden usar para mandar mensajes instantáneos entre puntos separados del espaciotiempo. Por lo tanto, no se viola la causalidad.

ER=EPR

Hace poco salió un artículo de Leonard Susskind y Juan Maldacena titulado:

Cool horizons for entangled black holes

En este artículo, los dos chavales, nos llevan a pensar sobre lo siguiente:

Cuando estudiamos el estado cuántico de dos agujeros negros conectados por un puente de Einstein-Rosen (ER) encontramos que están entrelazados.  Esto lo podemos escribir como ER=EPR.

Maldacena y Susskind, basándose en un trabajo de Mark Van Raamsdonk, dan un salto y nos dicen:

Si es cierto que todo par de agujeros conectados por un puente ER están entralazados (ER=EPR), asumamos que cualquier par de partículas cuánticas entrelazadas están conectadas por un puente ER (EPR=ER).

Esta idea nos lleva a concluir que hay una íntima relación entre las características cuánticas y la estructura del espaciotiempo al nivel más fundamental.  Su motivación es la siguiente:

  1. Ni los puentes ER ni los pares EPR violan la localidad ni la causalidad.
  2. Para que dos observadores A y B tengan miembros de un par EPR entrelazado estos han tenido que estar en contacto y en interacción. No se puede crear entrelazamiento a distancia. Del mismo modo, dados dos agujeros negros no conectados por un puente ER no pueden ser convertidos en un agujero de gusano si no se ponen en interacción mutua.

La conjetura de que todo par EPR está conectado por un ER y viceversa, resumido en la cadena de símbolos ER=EPR, nos llevaría a un nuevo nivel en nuestra búsqueda de una descripción cuántica de la gravedad, a una nueva forma de pensar en el entrelazamiento cuántico, a nuevas ideas acerca de la estructura y comportamiento de los agujeros negros, y a toda una plétora de nuevas preguntas por resolver.

Como todo artículo rompedor este trabajo ha suscitado mucha controversia y ya hay muchos trabajos que apoyan la conjetura (sin probarla) y muchos otros que la critican.  Un buen sitio para leer sobre esta moda en física es la entrada que escribió Francis en su blog:  ER=EPR, la nueva conjetura de Maldacena y Susskind.

Mi opinión:  La idea me gusta. Me gusta mucho, pero a saber la utilidad o la profundidad de la misma. Así que tendremos que estar atentos al tema.

Nos seguimos leyendo…


Archivado en: agujeros negros, mecánica cuántica, relatividad general Tagged: agujeros blancos, agujeros de gusano, agujeros negros, entrelazamiento, EPR, ER=EPR, puentes de Einstein-Rosen
19 Aug 16:55

Sobre las teorías de Kaluza-Klein y la supergravedad en D=11

by emulenews

El verano es la época ideal para conversar. En los últimos días Amarashiki (@riemannium,TSOR), Alejandro Rivero (@arivero,web) y Kac-Moody (@1KacMoody1) han mantenido una interesante charla sobre la supergravedad (Sugra) y las teorías de Kaluza-Klein (KK) en Twitter sobre la cuestión “¿por qué se abandonó la línea de investigación en [teorías de Kaluza-Klein y Sugra] en 1985?,” que surgió al hilo de la entrada de Alejandro como invitado en mi blog (“Lo que pudo haber sido“). No soy experto en estas lides, pero yo creía que la razón estaba bastante clara: la primera revolución de la teoría de supercuerdas en el verano de 1984 y los problemas que antes de dicho verano se habían detectado en las teorías de supergravedad en 11 dimensiones relacionados con la quiralidad del modelo estándar y con sus divergencias ultravioletas (se trata de una teoría no renormalizable). Para los expertos en Kaluza-Klein y supergravedad cambiar de tópico de trabajo a la teoría de supercuerdas prometía muchos más éxitos. Por todo ello creo que fueron abandonadas estas ideas. Como sus problemas aún no han sido resueltos y se cree que no tienen una solución elegante, siguen abandonadas. Permíteme recordar la situación de las teorías de Kaluza-Klein y de supergravedad antes del verano de 1984 (me basaré, como no, en M.J. Duff, B.E.W. Nilsson, C.N. Pope, “Kaluza-Klein Supergravity,” Physics Reports 130: 1-142, 1986, y en M.J. Duff, “Supergravity, Kaluza-Klein and superstrings,” pp. 18-60 en 11th Intl. Conf. General Relativity and Gravitation, Cambridge UP, 1987).

Los físicos creemos que la realidad está formada por dos entidades básicas: espaciotiempo curvado (la gravedad) y campos cuánticos (el modelo estándar). Hay dos caminos posibles para una “teoría de todo” que unifique ambas entidades en la escala de Planck. El primero es que todo es espaciotiempo curvado y por tanto los campos (cuánticos) son el resultado de la existencia de dimensiones extra del espaciotiempo muy curvadas y de forma muy compacta. Copar con campos clásicos es fácil y esta es la idea de las teorías de Kaluza-Klein y de la supergravedad; sin embago, en el caso cuántico hay un grave problema, esta teoría no es renormalizable, como tampoco lo es la versión cuántica de la gravedad de Einstein, y por tanto no puede ser válida en la escala de Planck.

Y el segundo camino es que todo son campos cuánticos y el espaciotiempo es una entidad emergente, aunque por el momento no tenemos muy claro cómo emerge. Hay muchas propuestas en diferentes grados de desarrollo. La más popular y la que presenta un mayor grado de evolución es la asociada a campos cuánticos “cuerdísticos” (la generalización de los campos de partículas “puntuales” a campos de cuerdas y branas), en la llamada teoría de cuerdas y teoría M (ST/MT). Gracias a la simetría del espejo (“mirror symmetry”) y a la dualidad T se sabe que en esta teoría no existen las distancias menores que la longitud de Planck, aunque la descripción detallada de la teoría a esta escala no es conocida en detalle. Sin embargo, hay muchas otras ideas para entender la emergencia del espaciotiempo; sin ser exhaustivo me vienen a la cabeza las siguientes posibilidades (todas en un grado de desarrollo que podemos calificar como “pobre” comparado con ST/MT y cuya consistencia interna está sujera a grandes dificultades técnicas aún no resueltas): las ideas asociadas a la gravedad cuántica de bucles (LQG), las ideas asociadas al principio holográfico, las asociadas a la causalidad de las interacciones entre campos como la teoría de triangulaciones dinámicas causales (CDT), y las asociadas a fuerzas entrópicas entre los campos como en la teoría de la gravedad entrópica de Erik Verlinde. Para evitar malentendidos, me gustaría recalcar que la única teoría de gravedad cuántica consistente hasta el momento es la ST/MT y que en la actualidad hay físicos tratando de incorporar las demás ideas en el marco ST/MT con objeto de transformarlas en teorías consistentes.

Volvamos a la idea de Kaluza-Klein, impecable a nivel clásico. Las ecuaciones de la gravedad de Einstein para un espaciotiempo con D>4 dimensiones describen además del gravitón (partícula de espín 2), bosones gauge (partículas de espín 1 descritas por ecuaciones de Yang-Mills) y bosones escalares llamados dilatones (de espín cero que se puede hacer que actúen como bosones de Higgs). La topología de las D – 4 dimensiones extra es diferente del resto, son compactas (cerradas y acotadas, como una esfera o un toroide), por lo que tienen un tamaño finito. Las simetrías del modelo estándar, SU(3)xSU(2)xU(1), se pueden incorporar tomando un grupo G de simetría que contenga a SU(3)xSU(2)xU(1) y compactificando las dimensiones extra con una variedad diferenciable cuyo grupo de isometría sea G (a este idea se le suele llamar graviGUT, porque el grupo G define una teoría de gran unificación o GUT).

¿Por qué no observamos las D – 4 dimensiones extra del espaciotiempo? En las teorías de Kaluza-Klein las cargas (gauge) son proporcionales a la constante de Newton de la gravedad y el factor es una función inversa al tamaño de las dimensiones extra; como las cargas gauge son muy grandes comparadas con la gravedad, recuerda que es muy débil, las dimensiones extra tienen un tamaño muy pequeño. Lo habitual es tomar la escala de Planck (unos 10-33 cm). La versión cuántica de la teoría implica la existencia de nuevas partículas asociadas a campos confinados en las dimensiones extra campactas, llamadas partículas de Kaluza-Klein; no observamos estas partículas porque su masa es del orden de la energía de Planck (unos 1019 GeV).

Las teorías de Kaluza-Klein (o teorías graviGUT) tienen muchos problemas, pero mencionaré sólo tres de ellos. El primero es que la teoría no incorpora fermiones (leptones y quarks), que como en el caso del modelo estándar, han de ser introducidos ad hoc como en cualquier otra teoría GUT (luego no se trata de una teoría de todo, sino de “casi todo”). El segundo es que la versión cuántica de estas teorías no es renormalizable (los problemas que aparecen al cuantizar la gravedad de Einstein en 4 dimensiones se mantienen en D dimensiones). Y el tercero que mencionaré es que la teoría no es quiral, a diferencia del modelo estándar, y no se conoce ningún mecanismo de rotura espontánea de la simetría que rompa una teoría no quiral en una teoría quiral. Que no me peguen los expertos. Se han publicado soluciones a estas problemas, pero no son del todo satisfactorias. Por ejemplo, en lugar de usar las ecuaciones de Einstein para la gravedad que tienen derivadas hasta el segundo orden, como las ecuaciones de Newton, se puede usar una generalización con infinitas derivadas cuya versión cuántica parece ser renormalizable, pero que mantiene otros problemas.

Una solución natural para incorporar fermiones en una teoría de Kaluza-Klein es utilizar la supersimetría, que conduce a la teoría llamada supergravedad. La supersimetría es una simetría que transforma fermiones en bosones y viceversa. Además, aplicar dos transformaciones supersimétricas equivale a una traslación en el espaciotiempo, es decir, la supersimetría equivale a una raíz cuadrada de una traslación (SUSY2=TRASLACIÓN). La supergravedad es la teoría tipo gauge basada en la supersimetría como simetría local y no hay que meter de forma explícita las ecuaciones de Einstein, ya que esta teoría incluye una partícula de espín 2, que actúa como gravitón, y la gravedad aparece de manera natural (algo parecido ocurre en QED al hacer la simetría U(1) local aparece el electromagnetismo como arte de magia). Asociado al gravitón hay partículas de espín 3/2 llamados gravitinos; su número es igual al número de supersimetrías diferentes de la teoría. Hay varias razones teóricas en contra de la existencia de partículas de espín mayor de 2, por lo que el número máximo de supersimetrías es N=8. Este número de supersimetrías determina el espectro completo de partículas. Por ejemplo, para N=8 supersimetrías hay un supermultiplete que contiene un gravitón (espín 2), 8 gravitinos (espín 3/2), 28 bosones vectoriales (espín 1), 56 fermiones de espín 1/2, y 70 bosones escalares (espín 0).

Una teoría de todo debe ser única (en algún sentido) y la supergravedad es única en D=11 dimensiones. La razón es que el número de supersimetrías impone un número máximo de dimensiones para el espaciotiempo. Como el número de supersimetrías es N≤8 y un espinor de Dirac en 4 dimensiones tiene 4 componentes, el número máximo de componentes permitido para un espinor de Dirac en D dimensiones debe ser 32 lo que obliga a que D≤11 (el número de componentes de un espinor de Dirac es igual a 2(D-1)/2 para D impar y 2D/2 para D par). El espaciotiempo tiene 4 dimensiones, luego la teoría en 11 dimensiones debe tener 7 dimensiones extra compactificadas en el sentido de las teorías de Kaluza-Klein.

La dualidad entre supergravedades (N=1 en D=11)↔(N=8 en D=4) es muy sugerente y llevó a prestar mucha atención a la (única) teoría de la supergravedad N=1 en D=11 dimensiones. La gravedad en esta teoría descrita por un tensor métrico de 44 grados de libertad (componentes del campo del gravitón) y un gravitino de 128 componentes. La supersimetría obliga a que aparezcan campos bosónicos de 84 componentes (84+44=128). Además de aparecer las ecuaciones de Einstein sin ser impuestas, también surge la separación de las dimensiones extra M11=M4xM7, cuando el tensor de cuatro índices de intensidad del campo gauge de 84 componentes es constante (es decir, lo más simple posible). La fenomenología de la teoría N=8 en D=4 da muchos problemas y es preferible una teoría N=1 en D=4; a principios de los 1980 hubo mucho revuelo cuando se descubrió que tomando M7=S7 (la esfera en 7 dimensiones) aparece de forma natural un mecanismo de Higgs que rompe la supersimetría N=8 en D=4 en la supersimetría N=1 en D=4, pero su grupo de holonomía H(M7)=G2 que implica un grupo gauge SO(8) que no es suficiente para contener el modelo estándar SU(3)xSU(2)xU(1). Hay otras propuestas para M7 que permiten grupos más grandes capaces de albergar el modelo estándar, pero ninguna admite una rotura de simetría “natural” hasta N=1.

Volvamos al principio, ¿por qué se abandonó la idea de la supergravedad N=1 en D=11 tras el verano de 1984 cuando en 1983 podríamos decir que había euforia por ella? Como es obvio influyó la primera revolución de la teoría de cuerdas, la teoría de supercuerdas de 1984, pero hay razones más importantes que están descritas en todos los artículos de revisión sobre esta teoría. Destacaré tres de ellas.

La primera es un artículo de Edward Witten que mostró que una supergravedad en D=11 con dimensiones extra compactificadas en una variedad diferenciable no puede ser rota de forma espontánea a una teoría quiral en D=4 dimensiones. Si la teoría no es quiral en D=11 entonces tampoco lo puede ser en D=4 (la quiralidad se preserva en dimensiones impares y sólo puede surgir en la rotura de simetría en espaciotiempos con dimensión par). Para resolver este problema se puede “complicar” la teoría en D=11 introduciendo ad hoc la quiralidad o usando simetrías “ocultas”, pero la unicidad, la simplicidad y la belleza de la teoría desaparece. Los pocos expertos que siguieron investigando en supergravedad tras la revolución de la teoría de cuerdas se concentraron en la teoría en D=10 dimensiones. Pero los fermiones quirales tienen asociados la aparición de anomalías quirales que violan las simetrías gauge de la teoría Yang-Mills en D=4; se pensó que podrían ser eliminadas con una compactificación adecuada, pero se demostró en 1983 que dicha compactificación no existe. Para resolver este problema basta compactificar en una variedad que no sea diferenciable (como una red discreta), pero a mucha gente no le gusta esta idea porque no se puede recuperar de forma fácil el modelo estándar.

La segunda razón por la que en 1985 se relegó a un segundo plano la idea de la supergravedad N=1 en D=11 fue que la compactificación de las dimensiones extra introduce una constante cosmológica enorme, proporcional a la masa de Planck al cuadrado; en aquel momento se pensaba que la constante cosmológica era nula (hoy sabemos que existe la energía oscura, pero la constante cosmológica es unos 120 órdenes de magnitud más pequeña que la masa de Planck al cuadrado). Hoy en día se pueden reducir estos 120 órdenes de magnitud a menos de 60 (según los detalles técnicos), un número que sigue siendo enorme.

La tercera razón, quizás la más importante es que la teoría no es renormalizable y presenta divergencias ultravioletas. Ha habido progresos recientes en la renormalización de “la supergravedad N=8” (yo los califiqué en este blog de forma muy optimista como “una nueva revolución en la física teórica“), pero el problema de fondo sigue siendo el mismo. Aunque la teoría sea renormalizable hasta 5 bucles, hay argumentos fuertes en contra a partir de 7 bucles, inclusive. Hoy en día no parece que la teoría pueda ser renormalizable a todos los órdenes. La teoría de cuerdas, por el contrario, parece finita a todos los órdenes.

En resumen, espero que esta entrada aclare un poco mi opinión sobre este asunto que se discutió en Twitter y espero que en los comentarios, si os apetece, continuemos el debate, si os sigue suscitando interés.


Archivado en: Ciencia, Física, Historia, Matemáticas, Mathematics, Noticia CPAN, Physics Tagged: Ciencia, Física, Física teórica, Historia, Kaluza-Klein, Matemáticas, Supercuerdas, Supergravedad, supersimetría, Teoría de cuerdas (String Theory)
15 Aug 09:13

La historia de las cinco sigmas en física de partículas

by emulenews

Dibujo20130814 CDF diboson bump - fake signal after lhc analysis

El físico de origen español Luis W. Alvarez le sugirió en 1967 al físico Gerald (Gerry) R. Lynch que modificara su simulador de Montecarlo llamado GAME para generar histogramas que incluyeran falsos “picos” (bumps) de nuevas partículas (resonancias). Los resultados del nuevo programa fueron mostrados a físicos de partículas para que indicaran “a ojo de buen cubero” si había o no había “nuevas partículas” en dichos histogramas. Muchos físicos vieron nuevas partículas donde sólo había fluctuaciones estadísticas. Nos lo cuenta Luis W. Alvarez, “Recent developments in particle physics,” pp. 1-49 en “Evolution of Particle Physics,” Academic Press, 1970. Por cierto, esta entrada viene a colación por Tommaso Dorigo, “Demystifying The Five-Sigma Criterion,” AQDS, August 11th, 2013.

En aquella época se producían entre 10.000 y 20.000 histogramas al año, que eran explorados por unos 1000 físicos a la caza de nuevas partículas. Desde 1957, los nuevos descubrimientos eran publicados en el listado del Particle Data Group (PDG). La mayoría eran hadrones (entonces no se sabía que eran partículas compuestas de quarks, aunque se sospechaba), llamados resonancias. Muchos “descubrimientos” fueron refutados por otros experimentos, por lo que se decidió marcar todas las nuevas resonancias como “no confirmadas.” Había que decidir un criterio estadístico riguroso. Arthur H. Rosenfeld, uno de los padres de la iniciativa del PDG, en una conferencia sobre mesones celebrada en 1967 en Filadelfia, usó el resultado de Gerry Lynch para proponer un mínimo de tres desviaciones típicas (popularmente llamadas sigmas) para que una “nueva” partícula fuera incorporada al PDG. Nos lo cuenta en ”The Particle Data Group: Growth and Operations-Eighteen Years of Particle Physics,” Annual Review of Nuclear Science 25: 555-598, 1975. Su artículo original de 1968 se titula “Are There Any Far-out Mesons or Baryons?,” como nos recuerda Tommaso Dorigo, “Demystifying The Five-Sigma Criterion – Part II,” AQDS, August 14th, 2013.

Tres sigmas no son suficientes, como han mostrado muchos casos. Uno de los más famosos en los que falló la regla de las tres sigmas fue el famoso descubrimiento del quark top en 1984 en el experimento UA1, liderado por Carlo Rubbia, en el colisionador SPS en el CERN. La teoría predecía 3,5 sucesos de dicho tipo y se observaron 12 sucesos (una fluctuación de tres sigmas). Pero al acumular más datos en UA1, la fluctuación cambió de signo y el descubrimiento fue desmentido pocos meses más tarde (de hecho, UA2 tampoco observó dicha fluctuación a favor). El quark top no tenía una masa de 40 ± 10 GeV/c², y gracias a UA1 y UA2 en 1990 ya se sabía que su masa era superior a 69 GeV, más allá de su capacidad de observación.

El número de cinco sigmas se estableció para el descubrimiento del quark top en 1995. En 1994 aparecieron las primeras evidencias del quark top a tres sigmas en CDF, pero el recuerdo de la historia de 1984 y que DZERO no lo hubiera observado, hizo que se recomendaran cinco sigmas para proclamar un descubrimiento. En 1995, tanto CDF como DZERO, los dos experimentos del Tevatrón, en el Fermilab, cerca de Chicago, EEUU, observaron el quark top con cinco sigmas. Hoy sabemos que tiene una masa de 173,3 ± 0,8 GeV/c² (de hecho, el LHC es una fábrica de quarks top).

Hoy en día, un descubrimiento en física de partículas requiere que dos experimentos diferentes observen el resultado con al menos cinco sigmas, que en el caso del bosón de Higgs fueron CMS y ATLAS del LHC en el CERN. Descubrimientos realizados por un único experimento, como el caso de las seis sigmas que alcanzaron los neutrinos superlumínicos del experimento OPERA en septiembre de 2011 son considerados por la mayoría de los físicos como falsas alarmas. Sólo cuando son ratificados de forma independiente por otro experimento se puede hablar en sentido estricto de un descubrimiento. Hoy sabemos que el error de OPERA era sistemático, no estadístico, debido a un fallo.

El incremento de la estadística (número de sucesos mostrados en los histogramas) produce fluctuaciones espurias a tres sigmas de forma continua y algunas pocas pueden alcanzar sin problemas las cinco sigmas; de hecho, con la ingente estadística de sucesos del LHC en la próxima década en algunas búsquedas de sucesos muy raros (como la presencia de partículas supersimétricas de gran masa) habrá falsos anuncios si no sube a entre siete y diez sigmas como cota indicativa de un descubrimiento. En la interpretación del número de sigmas de un resultado de física de partículas la clave es el consenso entre la comunidad.

Por cierto, lo he aclarado en varias ocasiones en este blog, pero quizás convenga recordar qué son las sigmas o desviaciones típicas en la significación estadística de un resultado, concepto que se utiliza en el campo del contraste de hipótesis. En este campo se estudia la probabilidad de que los datos observados en un experimento correspondan a algo nuevo (la hipótesis a contrastar) o sean resultado de una fluctuación estadística de lo ya conocido (la llamada hipótesis nula). La teoría predice para la hipótesis nula un valor medio (μ) y una desviación típica (σ). La diferencia entre valor medio observado y μ se puede cuantificar con un número de desviaciones típicas σ, es decir, con un número de sigmas. Estas son las famosas sigmas.

Por supuesto este análisis estadístico supone que las fuentes de error en la fluctuación son muchas e independientes, lo que permite aproximarla por una distribución gaussiana. En física de partículas hay errores estadísticos, que cumplen con esta condición, y errores sistemáticos, que no tienen por qué cumplirla, por ello el contraste de hipótesis utilizado es un poco más sofisticado, pero en esencia esta es la idea. Por tanto, el número de sigmas de una observación corresponde a probabilidad de que su origen sea la hipótesis nula; una sigma (desviación estándar) corresponde a una probabilidad del 16%, tres sigmas al 0,17%, y las “mágicas” cinco sigmas a una probabilidad del 0,000027%.

PS (17 ago 2013): Como Eclectikus en los comentarios, recomiendo leer a Lubos Motl, “In defense of five standard deviations,” TRF, Aug 14, 2013.

PS (19 ago 2013): Como he enlazado las dos primeras entradas de Tommaso Dorigo, también quiero enlazar las dos siguientes “Demystifying The Five-Sigma Criterion – Part III,” AQDS, Aug 17th 2013, y “Demystifying The Five-Sigma Criterion – Part IV And Summary,” AQDS, Aug 19th 2013. Esta última incluye la figura que abre esta entrada en su última versión obtenida por CDF, que ya no muestra el “falso” pico en azul tras analizar 8,9 /fb de colisiones en el Tevatrón (en lugar de 4,9 /fb) y mejorar la estimación de los sucesos de fondo (reducir los errores sistemáticos en la estimación teórica). Me permito copiarla aquí, sin más detalles, como coda final.

Dibujo201300619 cdf run ii - preliminary result por diboson fake bump


Archivado en: Ciencia, Física, Historia, Noticia CPAN, Noticias, Physics, Science Tagged: Ciencia, Estadística, Experimento, Física, Historia, Noticias, Partículas elementales
12 Aug 16:43

Mamá vuelve al podio

by Gorka Rodrigálvarez Pérez

Someterse a un análisis de orina para un atleta no es nada comparado con sufrir durante horas de entrenamiento intensivo, padecer multitud de lesiones y una retahíla de tareas que se complican todavía más cuando entra en juego también el apartado económico. Más peligroso resulta cuando la pequeña prueba introduce un nuevo factor en el complicado binomio inicial: el apartado familiar. Sobre todo para ellas. Quedarse embarazada ha sido para muchas mujeres el punto final de su trayectoria como deportistas, puesto que ha existido siempre la convicción social de que el cuerpo femenino no es capaz de recuperar el estado inicial tras la gestación.

Sin embargo, el abandono del deporte tras el parto es para los expertos en medicina deportiva una decisión errónea. Entre las pruebas que manejan, los botones más recientes: Edna Kiplagat y Valeria Straneo. Ambas se han convertido en campeona y subcampeona del Mundo de maratón en los Mundiales de atletismo que se disputan estos días en Moscú. Las dos celebraron la gesta con sus pequeños.

La medicina deportiva actual da la vuelta al viejo axioma. De hecho, los médicos aseveran que la planificación del embarazo es hoy en día una práctica habitual en muchas atletas, y que se lleva a cabo principalmente en los años posolímpicos. “Generalmente se calcula en ciclos de cuatro años, por lo que 2013 es, por ejemplo, el periodo perfecto para quedarse embarazada ahora y llegar a tiempo a los Juegos de Río 2016”, descubre Xabier Leibar, doctor en Sistemas Deportivos de Alto Rendimiento y médico de la Real Federación Española de Remo.

El mantra de que la maternidad es contraproducente para las atletas es algo contra lo que se lucha desde los departamentos médicos. La gestación del embarazo conlleva la variación del ritmo de entrenamiento, ya que se trata de un ciclo en el que la actividad física de la deportista mengua. Sin embargo, el programa de preparación para acudir a una cita olímpica sufre, embarazo de por medio o no, una ralentización en alguno de sus años, ya que no es posible mantener el nivel óptimo durante un periodo tan largo. “Los chicos también descansan una temporada, pero ellas aprovechan los parones para ser madres”, conviene el profesor.

Una vez tomada la decisión, es en ese momento cuando surge otra de las grandes preguntas: ¿Se ha de abandonar el entrenamiento? ¿Se puede competir estando embarazada? ¿Hasta qué mes de gestación puede ser perjudicial el ejercicio físico para el niño? Ese universo interrogante no contempla una misma respuesta homogénea puesto que la salud de cada atleta es en sí misma un caso independiente. Aun así, el avance en el seguimiento médico ampara la continuación del entrenamiento en la mayoría de los casos. “Yo seguí activa, mi intención ha sido siempre la de compaginar el deporte con la maternidad, es algo que no he querido dejar atrás. Para mí era algo muy importante, un proyecto que tenía desde hace tiempo”, reconoce Maialen Chourraut, de 30 años, medalla de bronce en los Juegos de Londres 2012 en la modalidad K-1 de piragüismo, y que fue mamá el pasado mes de junio. “Durante el embarazo seguí remando, fui al gimnasio, a caminar, lógicamente a un ritmo inferior pero no me detuve en ningún momento”, confiesa.

“¡Mientras que el cuerpo me lo permita voy a seguir haciéndolo! No entrenándome superduro, pero sí que me doy unas vueltecitas navegando. En cuanto tenga el bebé, me sienta capaz y pueda... ¡empezaré a entrenarme a tope!”, confesó entusiasmada Marina Alabau, de 27 años, medalla de oro en la clase RS:X de vela en los últimos Juegos de Londres, el pasado mes de abril tras conocer que estaba esperando su primer hijo.

“He visto muchos casos de chicas que lo han terminado por dejar. Viví la época en la que nada de esto estaba programado, pero creo que el cambio en la planificación ha sido además de una evolución deportiva un avance social”, añade Leibar. “No hay ninguna duda de que una atleta puede recuperar su nivel tras tener un hijo”, se suma Margarita Pérez, profesora de Fisiología del Ejercicio de la Universidad Europea de Madrid.

Muchas atletas han recuperado su nivel competitivo tras el parto o incluso han llegado a mejorarlo. De hecho, durante los tres primeros meses del embarazo se produce dentro de la placenta una hormona, la corio gonado tropina, que aumenta la sensibilidad de la musculatura potenciando su fortaleza como preparación al parto. “Se han dado circunstancias curiosas en el mundo del deporte. Por ejemplo, los hombres embarazados. Atletas que han dado positivo en esta hormona en algunos análisis de sangre. Un resultado difícil de justificar puesto que se trata de una sustancia exclusivamente femenina”, descubre el doctor Leibar.

El caso más paradigmático en la recuperación física de una deportista es el de la maratoniana Paula Radcliffe. Diez meses después de dar a luz a su primera hija, la fondista británica logró con 33 años la victoria en el maratón de Nueva York en 2007. Pero su ejemplo solo es la muestra más extrema de la recuperación física, ya que los médicos recomiendan aguardar un periodo de reposo mínimo de entre tres y cuatro meses. Un espacio en el que la lactancia es necesaria para el desarrollo del bebé y que, sin embargo, provoca un desgaste considerable para la madre.

Con todo, la preparación deportiva no está exenta de biberones, pañales y noches en vela. Algo incapaz de controlar ya que ese nuevo miembro de la familia es a su vez determinante a la hora de planificar la nueva situación. Sin embargo, para las atletas que regresan al podio tras la maternidad como Radcliffe, Kiplagat y Straneo no es más que el mejor regalo a la hora de recibir el otro premio, el deportivo, puesto que ya cuentan con un pequeño gran motivo para ser felices. Y ellos les acompañan ahora en el podio.

06 Aug 20:31

Conoce tus elementos – El arsénico

by Pedro

En la serie Conoce tus elementos, tras un largo trecho en el que sólo había metales de transición (los elementos de la “zona media” de la tabla) hemos entrado en la pequeña región de metaloides o semimetales de este período. Lo hicimos en la última entrega de esta larga serie al hablar del germanio, y hoy conoceremos el segundo metaloide de este cuarto período, uno mucho más siniestro que aquél. Entre sus mórbidos apodos se encuentra el de el rey de los venenos, veneno de reyes o el más significativo de todos, polvo de sucesión. Hablaremos del elemento de treinta y tres protones: el arsénico.

A diferencia de elementos como el germanio del que hablamos en el anterior capítulo de la serie, el arsénico es un viejísimo conocido de la humanidad por su gran abundancia en la Tierra, aunque durante muchos siglos lo utilizamos fundamentalmente en compuestos y no puro. Y cuando digo “lo utilizamos” quiero decir fundamentalmente “matamos con él”, porque es un elemento de una toxicidad tremebunda para todos los organismos pluricelulares.

Sé que esto de matar puede sonar fatal, pero no sólo estoy hablando de matar seres humanos –que también, porque mira que nos gusta matar de las maneras más exóticas–. Muchos compuestos que contienen arsénico han venido siendo usados desde la Antigüedad como insecticidas o raticidas milenios antes del desarrollo del primer insecticida industrial. Irónicamente esto salvó muchas vidas, ya que acabó con plagas que podrían haber dejado sin alimento a gran cantidad de población.

La toxicidad del arsénico es tan importante que prácticamente lo ha definido como elemento para nosotros; tanto es así que antes siquiera de hablar de nuestro conocimiento sobre él y sobre la historia de su descubrimiento, para variar, voy a hacerlo brevemente del porqué de esa toxicidad. ¿Por qué es un veneno tan terrible y eficaz para casi cualquier cosa viviente?

La razón es que todos los seres pluricelulares, además de muchos unicelulares –luego hablaremos de una excepción crucial–, utilizan el mismo mecanismo de respiración celular: las células eucariotas lo hacen en las mitocondrias y las procariotas en el mismo citoplasma. Y una parte esencial de este proceso biológico es un ciclo cuyo nombre, si has tenido que estudiarlo, probablemente aún te conjure escalofríos: el ciclo de Krebs (¡brrr!).

Este ciclo, también llamado ciclo del ácido cítrico o de los ácidos tricarboxílicos, involucra tal cantidad de reacciones químicas que no vamos a hablar de él en detalle, pero en él hay una molécula absolutamente crucial sin la que el ciclo, y por tanto la respiración celular, no puede existir: el trifosfato de adenosina o adenosín trifosfato, más conocido simplemente por sus iniciales en inglés, ATP. El ATP aparece y desaparece muchas veces durante la respiración celular.

Trifosfato de adenosina ATP
ATP, trifosfato de adenosina (dominio público).

Como puedes ver por su nombre, el ATP contiene un elemento viejo conocido de la serie: el fósforo, situado justo encima del arsénico en la tabla periódica. Esto significa que tiene muchas propiedades similares –otras no tanto ya que, al fin y al cabo, no son átomos idénticos–. En lo que a nosotros respecta ahora mismo, hay algo en lo que sí se parecen mucho: ambos pueden tomar el mismo lugar en algunas reacciones químicas del metabolismo.

Dicho mal y pronto –que me perdonen los bioquímicos que lean estos párrafos–, el arsénico puede colarse en la cadena de producción del ATP en lugar del elemento “legítimo”, el fósforo, de modo que se inhibe la formación de ATP. En otras palabras, el arsénico es lo suficientemente parecido al fósforo para tomar parte en reacciones en las que estaría él, pero es lo suficientemente diferente del fósforo para que las moléculas formadas no tengan función biológica y no se formen las que sí la tenían.

Puedes imaginarte el resultado: además de otras reacciones en el cuerpo en las que toma parte el ATP, la inhibición de su formación supone que el ciclo de Krebs no se produce. Además, la presencia de arsénico inhibe la formación de enzimas en el mismo ciclo, como la piruvato deshidrogenasa, sin las que tampoco puede llevarse a cabo la respiración celular. Como resultado, por supuesto, la célula no respira y en poco tiempo muere. Pero ¿qué células utilizan el ciclo de Krebs? Pues, para empezar, todas y cada una de las células de tu cuerpo y del resto de los animales. De hecho, como he dicho antes, hay muy pocas células vivas que no utilicen este proceso de respiración celular… con lo que casi cualquier célula expuesta al suficiente arsénico, dicho burdamente, se ahoga sin remisión.

Así, si ingieres suficiente arsénico, según éste se expande por el cuerpo va matando células poco a poco: muy probablemente en lugares como los riñones y el hígado al principio, pero posteriormente en otros órganos. Si se inhala sucede algo similar, pero los primeros órganos afectados son los pulmones. Por esta razón una dosis suficiente produce, si no se hace nada al respecto, la muerte: los órganos van dejando de funcionar uno tras otro. Además, incluso si no se consume la cantidad suficiente, aún mueren células de ciertos órganos, con lo que sus funciones se ven afectadas. En resumen, que es un veneno bastante terrible en sus efectos.

Además, dado que afecta a casi cualquier órgano, su ingestión no tiene unos síntomas muy evidentes. Hoy en día sí es posible detectar su presencia en el cuerpo, por supuesto, pero imagina que vivieras en la Edad Media: el número de enfermedades que producen daños similares al arsénico era tan enorme que era prácticamente imposible saber si alguien moría por una infección o envenenamiento. ¿Cólera o arsénico? ¡Quién sabe! A esto volveremos luego, porque es muy importante.

Este tóxico elemento, como digo, nos ha sido conocido en sus compuestos desde hace muchísimo tiempo. Por una parte, como he dicho antes, es muy abundante en la corteza terrestre (aunque casi nunca puro). Por otra parte su carácter venenoso se mantiene en muchos de sus compuestos. Así, por ejemplo, desde antiguo se conocían dos rocas bastante similares, de bello aspecto por su brillante color pero ambas venenosas: el rejalgar y el oropimente.

Rejalgar
Rejalgar, As4S4 (Rob Lavinsky / Creative Commons Attribution-Sharealike 3.0 License).

El rejalgar forma cristales preciosos, en algunos casos similares al rubí por su color rojo intensísimo –tanto es así que a veces se lo llama rubí de arsénico–. Su nombre proviene del árabe rahj al-ġār, polvo de la cueva, ya que aparecía en lugares subterráneos como cavernas o minas. El color rojo intenso era tan maravilloso que a menudo se empleaba para fabricar pigmentos rojizos. Pero lo más peculiar del rejalgar no era su belleza sino el hecho de que era bastante tóxico. Tanto es así que en muchos lugares del mundo se pulverizaba la roca y se utilizaba para matar o repeler insectos y ratones: en la antigua China, por ejemplo, se espolvoreaba rodeando casas o graneros con este propósito. Irónicamente los antiguos chinos también lo espolvoreaban sobre cierto vino que bebían en algunos festivales, aunque creo que ya no se hace desde que se conoce su verdadera composición química, que no es otra que un sulfuro de arsénico cristalizado (As4S4).

También era conocido por los antiguos griegos, que lo usaban de igual manera como plaguicida (algo que se siguió haciendo durante la Edad Media en casi toda Europa). El rejalgar solía aparecer a menudo asociado a otra roca muy parecida: bellísima y venenosa. Esta otra roca era de un color amarillo magnífico y se usó durante muchos siglos para crear pinturas y tintes amarillos; de ahí su nombre en latín, aurum pigmentum (pigmento dorado), que se convirtió en auripigmentum y de ahí al castellano oropimente. El propio nombre del arsénico viene del sirio al zarniqa, el nombre sirio del oropimente.

Oropimente
Oropimente, As2S3 (dominio público).

Como el rejalgar, el oropimente se utilizó durante siglos como veneno e insecticida. Sin embargo, en este caso su nombre da cuenta de la importancia de su uso como pigmento, mucho mayor que la del rejalgar: se conocían otros pigmentos rojos intensos, pero casi ninguno amarillo. De hecho el oropimente siguió siendo el principal pigmento de este color hasta el siglo XIX, cuando descubrimos otras fuentes de tinte amarillo igual de bellas pero no tan venenosas, como el cadmio. Además, la reactividad tanto del rejalgar como del oropimente los hacían poco útiles cuando se mezclaban con algunos otros compuestos, porque reaccionaban con ellos y cambiaban el color de la mezcla.

El caso es que, como ves, ambas rocas tienen propiedades similares y lo suficientemente llamativas como para convertirse en algo muy interesante para nosotros. Los alquimistas medievales hicieron muchos experimentos con ambas rocas. Puedes imaginar cuál de los dos minerales les interesó más, con muchísima diferencia: el oropimente. Muchos de ellos pensaban que la única fuente de pigmento amarillo tenía necesariamente que contener oro, o ser algún tipo de precursor del oro. Así, multitud de alquimistas intentaron obtener el precioso metal a partir de esa venenosa roca, imagino que a menudo con terribles consecuencias a largo plazo.

Desgraciada e inevitablemente, no sólo los ratones y los insectos fueron las víctimas de los compuestos de arsénico pulverizados. En la antigua Corea se utilizaba en la pena capital, y durante la Edad Media y el Renacimiento fue un veneno muy empleado para quitar de enmedio a figuras políticas incómodas. Lamentablemente en muchos casos nos es imposible saber si alguien fue realmente envenenado con arsénico o no, porque sólo tenemos las crónicas de la época y, como dijimos antes, la elevada mortandad por enfermedades y lo indeterminado de los síntomas del arsénico sólo nos permiten sospecharlo. La familia Borgia parece haberlo utilizado a paladas, pero no fueron los únicos, ni mucho menos: de ahí el mote que mencionamos al principio de polvo de sucesión.

El uso de arsénico como veneno para cometer crímenes disminuyó de manera radical en el siglo XIX. No es que haya desaparecido su uso con este terrible propósito, pero cualquiera que utilizase arsénico como veneno antes de 1836 podía estar razonablemente seguro de que el veneno sería difícilmente detectado, mientras que después de 1836 era casi inevitable que la policía lo detectase. El responsable fue el químico británico James Marsh.

En 1832 Marsh tomó parte como perito químico en un juicio por asesinato: se sospechaba que un hombre había matado a su abuelo mezclando arsénico en el café, pero no era posible saber si esto era cierto o no. Marsh se puso a trabajar en ello y, tras mucho esfuerzo, consiguió detectar trazas de arsénico en la muestra que le había sido entregada… pero había tardado tanto que para entonces el jurado había absuelto al, indudablemente, asesino. Esto enfureció tanto a Marsh que puso todo su empeño en diseñar una prueba rápida, certera y muy sensible para detectar arsénico.

Aparato de Marsh
Aparato de la prueba de Marsh (1836, dominio público).

Alberto Magno

La prueba de Marsh, como se acabó llamando, se publicó en el Edinburgh Philosophical Journal en 1836, y era de una enorme sencillez. Se tomaba la muestra sospechosa de contener arsénico y se calentaba en presencia de ácido sulfúrico (H2SO4) y zinc metálico. El arsénico se asociaba al hidrógeno del ácido y ese hidrógeno era reemplazado a su vez por el zinc. Se formaban entonces un sulfato de zinc que no era importante, pero sí lo era el compuesto de arsénico e hidrógeno, llamado arsina (AsH3). Al quemar la arsina se depositaba sobre las paredes del recipiente arsénico metálico que formaba una película negruzca: si aparecía ese tono negruzco es que había arsénico en la muestra original, ya que eso no pasaba cuando no estaba presente el veneno.

La prueba de Marsh fue una revolución porque, además de ser barata y rápida, era de una sensibilidad enorme para la época: bastaban 2·10-5 gramos de arsénico para que la película negruzca fuera perceptible. Por lo tanto, cualquier asesino potencial después de 1836 podía utilizar arsénico, pero no podía esperar salirse de rositas si la policía conseguía una muestra de la sustancia que hubiese empleado. Todo cambió entonces y no pudo haber más Borgias — aunque, como digo, se ha seguido empleando para asesinar gente desde entonces, pero ya sin impunidad.

Ahora bien, como pasa con muchos otros venenos terribles, el arsénico también fue empleado como medicina. Recuerda que los auténticos antibióticos son, históricamente hablando, algo de ayer por la mañana. Dado que el arsénico es venenoso, se utilizó durante mucho tiempo para tratar algunas enfermedades infecciosas; imagino que era una de esas situaciones en las que intentas matar más células invasoras que las del propio cuerpo, pero también imagino que serían tratamientos durísimos, algo similar a una quimioterapia agresiva.

El caso es que, durante muchísimo tiempo, utilizamos compuestos del arsénico como el oropimente y el rejalgar sin saber qué los hacía especiales, dado que nadie había sido capaz de aislar el elemento. El primero en conseguirlo fue el alemán Alberto Magno –a la derecha– alrededor de 1250, calentando As2S3 con jabón. Con el tiempo se fueron descubriendo otras maneras más eficaces de obtener arsénico en gran cantidad y con mayor pureza. Alberto Magno no pudo ver, por lo tanto, una pieza de arsénico elemental como la siguiente:

Arsénico
Arsénico puro (Tomihahndorf / Creative Commons Attribution-Sharealike 3.0 License).

El arsénico puro tiene tres formas alotrópicas (es decir, de la misma composición pero con los átomos asociados de diferente manera), y la de la foto es la más común de todas, el arsénico gris. Como ves, tiene una apariencia similar a la de un metal –recuerda que estamos justo entre metales y no metales, y el arsénico es realmente un metaloide–. Los otros dos alótropos son bastante menos estables y más tóxicos: el arsénico amarillo y el arsénico negro. Por esta inestabilidad sólo es posible disponer de ellos si se preparan en un laboratorio; incluso el más estable, el arsénico gris, es muy poco frecuente en la naturaleza, ya que el arsénico reacciona con bastante facilidad con casi cualquier cosa.

Una vez tuvimos la capacidad de producirlo en cantidad, el arsénico aumentó su importancia como veneno, tanto en medicina como en agricultura (usándolo como insecticida). Incluso llegó a usarse durante cierto tiempo como producto de belleza, aunque resulte difícil creerlo hoy en día: al untar su óxido, As2O3, sobre la piel, la tez adquiere un tinte pálido y mortecino (algo no demasiado sorprendente, claro). Para nosotros en la actualidad esto no resulta nada atractivo, pero en la Inglaterra victoriana una mujer pálida era lo más de lo más. Algunas llegaban incluso a ingerirlo (!) mezclado con vinagre y polvo de tiza. En fin.

El auge de los antibióticos hizo que el uso del arsénico en medicina fuera disminuyendo mucho, pero incluso hoy en día sigue empleándose óxido de arsénico para tratar ciertos tipos de cáncer resistentes a otros tratamientos. Sin embargo se trata de excepciones: el arsénico como medicina casi ha desaparecido. Donde se continuó utilizando durante bastante más tiempo fue en la agricultura: tan sólo en 2004 la Unión Europea prohibió su uso para proteger la madera contra termitas y otros insectos, y sigue empleándose para este propósito en muchos países del mundo. Todavía se sigue utilizando como insecticida en algunas plantaciones, pero cada vez menos por razones obvias.

También puede resultar sorprendente el hecho de que lo seguimos usando en avicultura y ganadería: se añade en pequeñas dosis a la comida de pollos y cerdos porque previene ciertas enfermedades y, por razones que desconozco, acelera el engorde de los animales. Sin embargo hay estudios que demuestran que parte del arsénico permanece en la carne y creo que en breve, si Dios quiere, desaparecerá también de esa industria.

Por otro lado, del mismo modo que la tecnología hacía del arsénico algo obsoleto para muchas cosas, también lo convertía en un elemento esencial para nuestra industria. Como ya dijimos al hablar del galio, el auge de la electrónica hizo que los metaloides –como el galio y el propio arsénico– pasaran de ser “metales malos” a elementos de un inmenso valor. El compuesto formado por estos dos metaloides, el arseniuro de galio (GaAs) resultó ser un semiconductor de primera clase, superior en determinadas situaciones al propio silicio. Por si te lo estás preguntando, el arseniuro de galio es tóxico y California –un estado bastante paranoide con estas cosas– lo considera una sustancia carcinógena, pero dado que se usa en chips y normalmente no los comemos, no tienes por qué preocuparte si tienes aparatos que lo contengan en su interior. Pero ¿no es sorprendente que un tradicional veneno resulte especialmente útil en electrónica? Estoy convencido de que los Borgia se hubieran sorprendido.

Arseniuro de galio
Arseniuro de galio (W. Oelen/CC Attribution-Sharealike 3.0 License).

Lo que seguro que no te sorprende es que ha sido empleado para fabricar armas químicas. Aunque afortunadamente no ha sido empleado más que en un puñado de ocasiones, los Estados Unidos lo utilizaron en Vietnam como parte del agente azul ((CH3)2AsO·OH), un herbicida de amplio espectro. Rociaban con él plantaciones de arroz para acabar con ellas ya que, por supuesto, las células vegetales también realizan el ciclo de Krebs y grandes cantidades de arsénico acaban con ellas tan gustosamente como con los animales.

Y es que, como ves, todo gira alrededor de lo mismo: lo que hace útil al arsénico es su carácter venenoso, pero al mismo tiempo eso hace que no queramos tenerlo cerca. Según nuestro conocimiento de la química ha aumentado hemos ido encontrando alternativas que siguen siendo tóxicas para otros organismos pero no tanto para nosotros, de modo que lo hemos ido abandonando. Al fin y al cabo el mejor veneno es el más específico, y el arsénico es justo lo contrario por su efecto sobre el ciclo de Krebs, que es uno de los procesos biológicos más universales.

Eso sí, ¡no absolutamente universal! Después de tanto leer sobre lo tóxico que es, aquí viene la sorpresa: algunas bacterias no sólo son capaces de sobrevivir en presencia de arsénico sino que lo utilizan como parte de su biología. Se conocía desde hace tiempo la existencia de estas bacterias peculiares, que son capaces de “respirar” en ausencia de oxígeno, utilizando como oxidantes sales de arsénico: durante la oxidación del combustible el arsénico de estas sales pasa de As+5 a As+3, que es más estable y más común. Lo raro era que, para poder realizar este proceso químico, esas bacterias requieren de sales de arsénico con estado de oxidación +5 y, dado que no es muy común ni muy estable, ¿de dónde lo sacan?

Obtuvimos la respuesta en 2008: existen otras bacterias capaces de realizar una especie de “fotosíntesis” protagonizada por el arsénico. En esta fotosíntesis alternativa –en la que no hace falta agua, a diferencia de la fotosíntesis “normal”– se oxidan átomos de As+3 para producir otros de As+5. El resultado de esta fotosíntesis alternativa es el que las otras bacterias emplean para “respirar”: unas reducen As+5 a As+3 y las otras (utilizando la luz solar) oxidan As+3 a As+5. Como ves, es un ciclo similar al de la fotosíntesis y respiración celular de los organismos más conocidos, pero en este caso el arsénico no sólo no es venenoso sino que es un requisito imprescindible para la vida de estas bacterias.

Bacterias arsénico
Bacterias “arsenicófilas” de la familia Halomonadaceae (AAAS).

El Instituto de Astrobiología de la NASA descubrió en 2010 algunas de estas bacterias que van incluso más allá: algunos miembros de la familia Halomonadaceae que viven en lago Mono de California –un lugar de enorme salinidad y basicidad, con un pH de 10– han incorporado el arsénico en su biología en lugar del fósforo hasta el punto de necesitar minúsculas cantidades del segundo elemento. Inicialmente parecía que estas bacterias incluso empleaban arsénico en su ADN, pero estudios posteriores han descartado esta idea. Estas bacterias extremas son interesantes para la astrobiología porque nos dan pistas sobre cómo la vida puede encontrar caminos cuando nos parecería que no existe ninguno: un veneno empleado como elemento esencial para la vida. Vivimos en un mundo maravilloso.

En la próxima entrega de la serie, según nos vamos acercando a completar una capa electrónica, abandonamos los metaloides y entramos de lleno en el mundo de los no metales. Conoceremos el elemento de treinta y cuatro protones: el selenio.

Para saber más (esp/ing cuando es posible, pero esta vez en castellano hay bien poco):

06 Aug 20:25

El caso Lucia de Berk

by omalaled

A través del libro Mala ciencia de Ben Goldacre me entero de lo que sucedió con una enfermera en Holanda llamada Lucia de Berk. Lo sucedido es un ejemplo más de lo que ha venido a conocerse como la “falacia del fiscal” de la que ya os hablé en su día con otros ejemplos. No obstante, Goldacre nos da una mejor explicación cuando corría el año 2010.

Se puede tener muy mala suerte de veras. Una enfermera llamada Lucia de Berk lleva seis años presa en Holanda, condenada por siete delitos de asesinato consumados y tres en grado de tentativa. Durante su turno de servicio, falleció un número inusitadamente elevado de personas, y eso, esencialmente, unido a alguna que otra prueba circunstancial muy débil, es lo que conforma la sustancia de la acusación que la llevó a la cárcel. Jamás ha confesado, sigue proclamando su inocencia y su juicio ha generado un amplio número de artículos teóricos en las publicaciones especializadas en estadística.

La sentencia se basó fundamentalmente en una cifra: la de una probabilidad entre 342 millones de que la acusada fuera inocente. Incluso aunque halláramos errores en el cálculo de esa probabilidad (y créanme que los hallaremos), como ya ocurrió en nuestra historia anterior, la cifra en sí continuaría siendo prácticamente irrelevante. Y es que, como ya hemos mencionado en reiteradas ocasiones, lo interesante de la estadística no son los complicados cálculos matemáticos, sino lo que esos números significan.

Hay también una importante lección que todos podemos extraer de este caso para nuestro propio beneficio: los sucesos improbables ocurren. Siempre hay alguien que gana la lotería cada semana, y niños a los que les alcanza un rayo. Nada de esto es extraño y sorprendente salvo cuando sucede algo muy, muy específico e improbable después de haberlo predicho.

La que sigue es una analogía.

Imaginemos que estoy en las inmediaciones de un enorme granero de madera armado con una imponente ametralladora. Me vendo los ojos y —riéndome a grandes carcajadas como un maníaco— disparo miles y miles de balas contra una pared del granero. Luego arrojo el arma al suelo, me acerco caminando hasta la pared en cuestión y la examino detenidamente durante un tiempo, toda ella, por arriba y por abajo. Entonces, doy con un lugar en el que descubro tres agujeros de bala muy próximos entre sí, dibujo una diana a su alrededor y anuncio orgulloso que soy un excelente tirador.

Supongo que ustedes no estarían de acuerdo con mis métodos ni con las conclusiones de esa deducción. Pero eso fue exactamente lo que sucedió en el caso de Lucia: los fiscales encontraron siete muertes en el turno de una de las enfermeras y en un mismo hospital, ciudad, país y planeta, y luego trazaron una diana en torno a ellas.

Eso infringe una regla fundamental de toda investigación con estadísticas: no se puede buscar la hipótesis en los resultados. Antes de acudir a los datos con la herramienta estadística que pretendamos utilizar, necesitamos contar con una hipótesis concreta que contrastar. Si nuestra hipótesis procede del análisis de unos datos, entonces no tiene sentido alguno analizar los mismos datos de nuevo para confirmarla.

Ésa es una forma bastante compleja, filosófica y hasta matemática de lo que se llama un argumento circular. Pero en el caso que aquí les refiero también hubo formas mucho más concretas de razonamiento circular. Para recopilar más datos, los investigadores volvieron a las salas del hospital en busca de más muertes dudosas. Pero todas las personas a las que preguntaron si recordaban algún incidente sospechoso sabían que les estaban haciendo aquellas preguntas porque Lucia podía ser una asesina en serie. Existía un riesgo elevado de que el concepto mismo de incidente sospechoso se vinculara de inmediato (como sinónimo) a la idea de que Lucia estuvo presente.

Las otras muertes repentinas acaecidas cuando la enfermera no estaba allí quedaron así, por definición, excluidas de los cálculos de los investigadores. No eran sospechosas, porque Lucia no se encontraba presente. Pero la cosa empeora aún más. Nos pidieron que elaboráramos una lista de incidentes acaecidos durante los turnos de Lucia o al poco de terminados éstos, dijo un empleado del hospital. Eso sirvió para que los investigadores desenterraran más pautas y para que aumentara la probabilidad de que hallaran más muertes sospechosas durante los turnos de la enfermera. Mientras tanto, Lucia aguardaba su juicio en prisión.

Así se fabrican las pesadillas.

Al mismo tiempo, se ignoró casi por completo una enorme cantidad de información estadística. En los tres años anteriores a que Lucia entrara a trabajar en aquel pabellón, hubo siete muertes. En los tres años en los que sí trabajó en el pabellón, se contaron seis defunciones. Da que pensar: parece extraño que la tasa de mortalidad descendiera en un ala del hospital desde el momento preciso en el que una asesina en serie —dispuesta a matar a todo enfermo que se le pusiera por delante— llega a ella. Si Lucia los hubiera matado a todos, por tanto, durante los tres años que trabajó allí, no se habría producido ninguna muerte natural en aquel pabellón.

Ah, claro, pero, por otra parte, y como bien se encargó de revelar la fiscalía durante el juicio, a Lucia le gustaba el tarot. Y escribía cosas raras en su diario privado, del cual se leyeron fragmentos en voz alta en la vista oral. Así que tal vez fuera una asesina, de todos modos. Sin embargo, lo más extraño de todo es que, al generar la cifra espuria de turno, que esta vez fue de una probabilidad entre 342 millones, el estadístico de la fiscalía cometió un error matemático rudimentario y simple. Combinó test estadísticos individuales multiplicando sus valores p (la manera matemática de caracterizar la casualidad o, lo que es lo mismo, la significación estadística).

Esta parte es para los incondicionales de la ciencia más dura y será seguramente suprimida o acortada por el editor, pero voy a escribirla de todos modos: no se puede multiplicar los valores p entre sí y ya está. Hay que entrelazarlos con alguna herramienta estadística ingeniosa, como, quizás, el método de Fisher para la combinación de valores p independientes. Si multiplicamos los valores p entre sí sin más, los incidentes más inocuos y probables pasan de pronto a parecer sumamente improbables.

Pongamos que uno de ustedes ha trabajado en veinte hospitales y que en cada uno de ellos se ha observado una pauta inocua de incidentes (digamos que con un valor p=0,5). Si tomamos esos valores p neutros, que nos definen unos resultados puramente casuales, y los multiplicamos entre sí, obtendremos un valor p final de 0,5 elevado a la vigésima potencia, lo que viene a ser p < 0,000001, que es un valor de una suma, extrema y elevadísima significación estadística. Basándonos en ese error matemático y siguiendo el razonamiento de quien lo ha calculado, si ustedes cambian con frecuencia de hospital en el que trabajan, se convierten automáticamente en sospechosos. ¿Que sí, que alguno de ustedes ha trabajado en veinte hospitales diferentes? Por el amor de Dios, en ese caso, ni se le ocurra contárselo a la policía neerlandesa.

En junio de 2008 el caso fue reabierto y se investigó más a fondo la muerte de aquellos niños. La conclusión es que fueron muertes naturales y que el comportamiento en otros casos de Lucia de Berk había, incluso, salvado vidas.

No obstante, la naturaleza humana es algo compleja. Si tuvierais que llevar a un bebé a un hospital y supierais que Lucia de Berk trabaja allí, ¿estaríais tranquilos?

Fuentes:
Ben Goldacre, Mala ciencia.
http://www.badscience.net/2010/04/lucia-de-berk-a-martyr-to-stupidity/
http://en.wikipedia.org/wiki/Lucia_de_Berk

02 Aug 19:41

La búsqueda del monopolo electrodébil de Cho-Maison predicho por el modelo estándar

by emulenews

Dibujo20130802 monopole - anti-monopole moedal array - lhcb

En la electrodinámica cuántica (QED) el grupo U(1)em puede ser trivial, igual a SU(1), o no trivial, en cuyo caso las ecuaciones de Maxwell deben incluir un monopolo magnético de Dirac. En la teoría electrodébil (EW) el grupo SU(2)×U(1)Y se rompe en U(1)em gracias al mecanismo de Higgs; el origen de este U(1)em es una combinación del grupo U(1)Y, que puede ser trivial, y del subgrupo U(1) del grupo SU(2), que no es trivial y contiene un monopolo de ‘t Hooft-Polyakov. Por tanto, el grupo U(1)em tras la rotura de simetría electrodébil debe ser no trivial y el modelo estándar debe presentar un monopolo magnético electrodébil, llamado monopolo de Cho-Maison, que es una combinación de los monopolos de Dirac y de ‘t Hooft-Polyakov. En muchos libros se afirma, quizás a la ligera, que la teoría EW no predice ningún monopolo electrodébil porque en la rotura de simetría se puede hacer que U(1)em sea igual a U(1)Y, sin contenido alguno del subgrupo U(1) de SU(2); pero esta elección no es “natural” y no está justificada por ninguna razón física o matemática (salvo eliminar de forma explícita la existencia del monopolo). El monopolo electrodébil de Cho-Maison tiene una carga magnética (4π)/e, en lugar de (2π)/e como el monopolo de Dirac, porque su origen es el subgrupo U(1) de SU(2) que tiene periodo 4π en lugar de 2π. Usando una masa de 125 GeV para el bosón de Higgs, se estima que la masa del monopolo de Cho-Maison es de 3,85 TeV, sin tener en cuenta las correcciones cuánticas, que podrían subir esta masa hasta 6,72 TeV. La búsqueda de este monopolo con masa entre 4 y 7 TeV es la tarea emprendida por el experimento MoEDAL en el LHC que empezará a tomar datos en 2015 y se instalará junto a LHCb. Nos lo cuentan Y. M. Cho, J. L. Pinfold, “Electroweak Monopole Production at the LHC – a Snowmass White Paper,” arXiv:1307.8390, Subm. 31 Jul 2013.

Dibujo20130802 simplified depiction moedal detector in lhc

El experimento MoEDAL será el séptimo experimento del LHC y se instalará junto al detector de vértices (VELO) del experimento LHCb, en el punto 8 de cruce de haces. Su objetivo es buscar nueva física que se manifieste como partículas altamente ionizadas, como el monopolo de Cho-Maison (cuya ionización es unas 5000 veces mayor que la producida por un protón moviéndose a la misma velocidad). Se espera que inicie la toma de datos en 2015 cuando el LHC opere en modo colisiones protón-protón a 13 TeV c.m. (o en el mejor caso a 14 TeV).

Dibujo20130802 magnetic charge 14 tev pythia drell-yan monopolo 1000 gev lhc

Dibujo20130802 electric charge 14 tev pythia drell-yan monopolo 1000 gev lhc

Los monopolos electrodébiles tienen una gran carga magnética y son absorbidos muy rápido por la parte más interior de los detectores ATLAS y CMS, lo que impide su detección cuando tienen una carga eléctrica o magnética muy alta. El experimento MoEDAL explorará una región más grande de posibles parámetros, de hecho, gran parte del rango de posibles masas del monopolo de Cho-Maison será explorado por MoEDAL.

El monopolo, como el bosón de Higgs, es una predicción del modelo estándar. Aún así, creo que no es exagerado afirmar que su descubrimiento sería más revolucionario.


Archivado en: Ciencia, Física, LHC - CERN, Noticia CPAN, Noticias, Physics, Science Tagged: Ciencia, Experimento, Física, LHC - CERN, MoEDAL, Monopolo magnético, Noticias, Partículas elementales