Shared posts

02 Aug 13:37

El mapa de los humanos que no pueden beber leche

by noreply@blogger.com (aberron)

Como puedes comprobar en este mapa publicado por Nature, solo el 35% de la humanidad puede beber leche sin tener un buen dolor de estómago después de los 7 u 8 años. La tolerancia a la lactosa, que a muchos nos parece tan natural, es fruto de una mutación genética ocurrida en un pasado no muy lejano en algún lugar entre Asia y Europa. "Si eres intolerante a la lactosa y te bebes un vaso de leche", explican en la revista científica, "te vas a poner realmente malo. Diarrea explosiva, básicamente como una disentería".

Un equipo multidisciplinar estudia desde hace años la pequeña variación genética que se extendió por Europa y permitió a sus poblaciones aprovechar este valioso recurso cuando las cosechas fallaban. El proyecto LeCHE (Lactase Persistence in the early Cultural History of Europe) reúne todo tipo de pruebas, desde arqueológicas hasta genéticas. La mutación que compartimos los europeos se debe al cambio de un solo nucleótido en la secuencia de ADN, mientras que las de otros grupos tolerantes a la lactosa, localizados en África occidental, Oriente Medio y el sudeste asiático, se deben a otras mutaciones.

¿Dónde se produjo este cambio y cómo? Hay varias teorías y muchas pistas interesantes, pero las pruebas principales apuntan a un lugar en oriente Medio hace unos 10.000 años, cuando se empezó a desarrollar la ganadería. El análisis de los restos de ganado neolíticos encontrados en Europa revela que se trata de variedades de esa zona, de modo que los primeros pastores habrían viajado hasta estos lugares con sus rebaños y quizá la mutación que les hizo resistentes.

Los miembros del proyecto LeCHE también han investigado otros aspectos fascinantes. El análisis de las vasijas de esas fechas revela que en el este de Europa, en la actual Polonia, ya se fabricaba queso hace 7.000 años. Se cree transformar la leche en yogur y queso, y reducir así el contenido en lactosa, ayudó a los primeros europeos a adaptarse mejor a su consumo, especialmente en el norte, donde el frío permite conservar mejor estos derivados. Hoy en día, de hecho, en el sur de Europa la tolerancia a la lactosa es menor que en el norte - con porcentajes del 40% en Grecia y Turquía, por ejemplo, frente al 90% de Gran Bretaña o los países escandinavos.

La capacidad de consumir leche ofreció a estas primeras poblaciones una ventaja clara frente a las hambrunas, y un aporte extra de vitamina D en los países con menos sol, aunque en este punto, apuntan en Nature, la extensión de la tolerancia en países como España es una pequeña anomalía y pone el papel de la vitamina D en duda.

La investigación sobre cómo se extendió la capacidad de algunas poblaciones de beber leche puede arrojar pistas sobre el desarrollo y extensión de otras enzimas como la amilasa, que ayuda a digerir el almidón y que podría estar asociada a al consumo de cereales, o la alcohol deshidrogenasa, vital para procesar el alcohol y que podría dar pistas sobre los orígenes de nuestro gusto por la bebida. Pero aún queda mucho por descubrir.

Para conocer más, os recomiendo el fascinante artículo publicado por Nature.

Enlace: Archaeology: The milk revolution (Nature)


Entrada publicada en Fogonazos http://www.fogonazos.es/
29 Jul 15:43

Francis en Trending Ciencia: Logran parar pulsos de luz durante un minuto

by emulenews

Dibujo20130728 trending ciencia - stored ligth pattern during one minute

Ya puedes escuchar mi nuevo podcast para Trending Ciencia siguiendo este enlace. Como siempre, una transcripción, enlaces a los artículos técnicos y algunas imágenes.

He elegido como tema una noticia que Nuño Domínguez, periodista científico de esMateria.com, ha titulado como “Récord mundial: Científicos alemanes detienen la luz durante un minuto.” Nos cuenta que “en el laboratorio de física cuántica que dirige Thomas Halfmann (…) en la Universidad Técnica de Darmstadt, Alemania (…) [han paralizado] un rayo de luz durante un minuto: todo un récord mundial que casi multiplica por cuatro el anterior. El avance técnico es un importante paso hacia (…) una especie de internet [imposible de hackear] que funcione con luz y en el que los mensajes vayan [cifrados] usando fotones. Cualquier intento de interferir en esos fotones destruiría la clave o el mensaje que transportan, lo que hace que la clave sea teóricamente inexpugnable. Pero para poder enviar mensajes con fotones [hay que] construir (…) una memoria informática que los guarde [todo el tiempo que sea necesario].”

Nuño Domínguez nos cuenta esMateria.com que ”la técnica de Halfmann consiste en disparar un primer rayo láser de control a un cristal opaco, lo que lo vuelve transparente. Después se dispara un segundo láser, que lleva un mensaje, en este caso una imagen. En ese momento se apaga el primer rayo láser y el mensaje queda encerrado en el cristal. Aplicando campos magnéticos Halfmann logra que los átomos del cristal retengan la luz durante un tiempo récord, [sesenta segundos], un minuto. Después se enciende el primer láser, el cristal vuelve a tornarse transparente y la luz congelada en el tiempo vuelve a correr, transmitiendo su mensaje. Por ahora no han llegado al régimen de un solo fotón que se necesita para las memorias cuánticas.”

Algunos comentarios en Twitter me han llamado la atención. Unos por creer que se ha logrado parar los fotones individuales (algo obviamente imposible por definición de fotón). Otros por creer que se ha logrado a alta temperatura, mal interpretando la frase de Nuño Domínguez en esMateria.com: “Este mismo año, otro equipo de EEUU logró el récord [anterior] al retener la luz durante 16 segundos dentro de una nube de gas a unos 273 grados bajo cero, algo que ahora ha quedado totalmente pulverizado con la Transparencia Inducida Electromagnéticamente (EIT, en inglés) usada por Halfmann.” El nuevo récord de 60 segundos se ha logrado con el cristal enfriado a 4 Kelvin, es decir, a 269 grados bajo cero. De hecho, poder aplicar la nueva técnica a pocos fotones, o incluso a un sólo fotón, con seguridad requerirá bajar la temperatura a unos micro- o nano-Kelvin. Permíteme una discusión sobre el nuevo resultado técnico de Halfmann y sus colegas, cuyo mayor interés es que se ha utilizado un cristal, un dispositivo de estado sólido, en lugar de un gas de átomos ultrafríos o un condensado de Bose-Einstein.

Dibujo20130728 experimental setup - Stopped Light and Image Storage by Electromagnetically Induced Transparency

La computación cuántica, las redes de comunicación cuántica y el tratamiento de información cuántica utilizando fotones requiere desarrollar memorias cuánticas para la luz que preserven la coherencia cuántica y el grado de entrelazamiento cuántico. Georg Heinze, Christian Hubrich y Thomas Halfmann, de la Universidad de Darmstadt, Alemania, publican en la revista Physical Review Letters un artículo que muestra una memoria óptica coherente de estado sólido capaz de almacenar un pulso de luz clásica, e incluso una imagen completa, durante más de un minuto; por ahora, el tiempo de almacenamiento de luz más largo logrado hasta la fecha.

El artículo téncico es Georg Heinze, Christian Hubrich, and Thomas Halfmann, “Stopped Light and Image Storage by Electromagnetically Induced Transparency up to the Regime of One Minute,” Phys. Rev. Lett. 111: 033601 (2013). Recomiendo leer a Hugues de Riedmatten (ICFO/ICREA, Barcelona), “Viewpoint: A Long-Term Memory for Light,” Physics 6: 80 (2013).

¿Cómo se logra detener un pulso de luz, almacenarla sin destruir su coherencia cuántica durante un largo tiempo y luego recuperarlo cuando resulte necesario? Obviamente, no se pude parar un fotón, que siempre se mueve a la velocidad de la luz en el vacío. Para lograr que un pulso de luz se mueva más lento en un cristal sólido es necesario que los fotones interaccionen con los átomos de la estructura cristalina, que los absorben y reemiten; este proceso físico da como resultado el concepto de índice de refracción del cristal. En principio, este proceso destruye la coherencia cuántica. Para evitar esta destrucción es necesario ejecutar un protocolo cuántico que transforme la coherencia cuántica de la luz en coherencias cuánticas atómicas y a la inversa. Hay varias maneras de lograrlo. En el nuevo artículo del grupo de Halfmann se ha utilizado un fenómeno físico llamado transparencia inducida electromagnéticamente (EIT), un efecto de interferencia cuántica que hace un medio opaco se vuelva transparente en una estrecha banda del espectro. La alemana Lene V. Hau (Univ. Harvard, EEUU) es firme candidata al Premio Nobel de Física junto a Stephen E. Harris (Univ. Stanford, EEUU) por haber utilizado en 1999 la transparencia inducida electromagnéticamente en un condensado de Bose-Einstein (BEC) ultrafrío para ralentizar pulsos de luz a solo 17 m/s, unos 61 km/h. La dra. hau ha logrado parar pulsos de luz y el campo de la “luz lenta” ha sido muy activo en la última década.

¿En qué consiste la transparencia inducida electromagnéticamente? El proceso es sencillo. Considera un átomo con tres estados energéticos, dos estados fundamentales, sean |g> y |s> cuyo nivel de energía es ligeramente diferente, y un estado excitado |e>. Un haz láser de control se ajusta para excitar los átomos en un estado de superposición entre los niveles |s> y |e>, es decir, para que se comporten como bits cuánticos entre esos dos niveles. Un segundo láser de entrada se utiliza para lograr la transición entre el otro nivel fundamental |g> y el nivel excitado |e>. La condición de transparencia inducida electromagnéticamente se logra cuando la diferencia entre las energías de los fotones de ambos láseres es idéntica a la diferencia de energía entre los dos niveles fundamentales |g> y |s>. Gracias a este fenómeno se produce una interferencia cuántica destructiva que reduce la probabilidad de transición entre los dos estados fundamentales y el estado excitado, lo que vuelve el medio transparente a los fotones cuya frecuencia esté ajustada de forma adecuada. Como resultado el índice de refracción reduce la velocidad de grupo de los pulsos de luz entrante hasta lograr un valor nulo, parando de forma efectiva los pulsos de luz. Una vez almacenado el pulso de luz en el cristal se puede apagar el haz láser de control con lo que los fotones se convierten en estados excitaciones de los átomos (estos estados se llaman ondas de espín). Estas ondas de espín pueden ser almacenadas en los átomos durante un tiempo similar al tiempo de coherencia que sobreviven los niveles energéticos que se comportan como un bit cuántico. Si antes de que actúe la decoherencia cuántica se activa el pulso láser de control, los fotones se reemitidos por los átomos, provocando que el pulso de luz sea recuperado.

¿Cuál puede ser el tiempo de almacenamiento de estas memorias de luz? Como la luz se almacena en coherencias atómicas, el límite está dado por la vida media de la coherencia entre los dos estados energéticos de los átomos (el tiempo que los dos estados de espín pueden permanecer en una superposición coherente). El límite para esta duración se llama tiempo de relajación de la población de espines (el tiempo promedio necesario para que un estado excitado se relaje en el estado fundamental). Pero por supuesto, en la práctica, el tiempo de almacenamiento suele ser mucho más corto. Cualquier interacción con el entorno provoca la decoherencia, por ello hay que aislar los átomos del medio ambiente todo lo que sea posible y ahí es fundamental enfriar los átomos a temperaturas muy cercanas al cero absoluto (273 grados bajo cero).

Dibujo20130728 energy levels with and without external magnetic field - Stopped Light and Image Storage by EIT

Lo más interesante del nuevo artículo de Georg Heinze, Christian Hubrich y Thomas Halfmann es que han utilizado la transparencia inducida electromagnéticamente en un cristal de estado sólido, lo que les ha permitido luchar contra la decoherencia cuántica a 4 Kelvin (269 grados bajo cero) durante unos 60 segundos. Este tiempo te puede parecer muy corto, pero la primera vez que se logró detener la luz clásica en 2001 gracias a la transparencia inducida electromagnéticamente se alcanzaron unos pocos microsegundos. Más o menos el mismo tiempo que se logró almacenar por primera vez  un sólo fotón, logro publicado en Nature en 2005 utilizando un gas de átomos de rubidio. En gases atómicos el mayor problema para incrementar la duración de la memoria de luz es el movimiento aleatorio de los átomos, lo que provoca desfases en las ondas de espín. El récord logrado este mismo año en gases atómicos de 16 segundos para pulsos clásicos se logró colocando los átomos en una red óptica que limita y reduce su movimiento.

Pero lo que tiene que quedar claro para cualquier oyente es que utilizar dispositivos de estado sólido permite un control mucho más preciso de los movimientos de los átomos. El problema es que aprovechar la transparencia inducida electromagnéticamente para parar la luz en sólidos es mucho más difícil debido a que las interacciones entre los átomo son mucho más fuertes. Más aún, almacenar fotones individuales en sólidos, es decir, preservar la coherencia cuántica de la luz es mucho más difícil y requiere utilizar tecnologías criogénicas (temperaturas cercanas al cero absoluto). Heinze y sus colegas han usado un cristal de silicato de itrio dopado con praseodimio, que permite una vida para las ondas de espín en fase de unos 100 segundos, con lo que el récord de 60 segundos podría llegar a alcanzar hasta unos 100 segundos. Sin embargo, sólo se pueden usar pulsos de luz clásicos ya que en este cristal el tiempo de decoherencia cuántica es mucho más corto (unos 500 μs). Hay maneras de superar este límite utilizando campos magnéticos externos y  pulsos de radiofrecuencia para reducir el impacto de los diversos mecanismos de decoherencia. Sin embargo, no parece que se pueda llegar a mucho más de un segundo sin nuevas innovaciones.

Dibujo20130728 Signal pulse energy and retrieved images vs storage time

El artículo Nuño Domínguez en esMateria.com nos decía que estos físicos alemanes han logrado almacenar imágenes. En realidad resulta que la memoria de pulsos de luz es multimodo y permite almacenar modos espaciales de la luz. Gracias a ellos los autores han logrado una imagen con un conjunto de rayas horizontales con unos 100 micrómetros de largo. Pero hay que tener cuidado, ya que no se puede almacenar una imagen óptica clásica cualesquiera, sólo se pueden almacenar modos ópticos. Estos modos son muy prometedores porque permiten el desarrollo de técnicas de multiplexado espacial de la información. En un futuro cuando se puedan almacenar fotones individuales que se comporten como bits cuánticos, estas técnicas de multiplexado permitirán almacenar múltiples fotones (o bits cuánticos) en diferentes lugares del cristal. Pero por ahora esto es especulación y no parece fácil que se vaya a poder lograr a corto plazo sin nuevas innovaciones técnicas en este tipo de experimentos.

El nuevo artículo ilustra sus memorias ópticas con pulsos luminosos clásicos y además tiene bastantes limitaciones en cuanto a eficiencia de almacenamiento (menor del 1%). Las aplicaciones prácticas de esta técnica y la extensión del esquema al régimen cuántico requieren superar enormes desafíos. No es una tarea fácil, peo hay muchos grupos de investigadores en todo el mundo que están trabajando en este campo. A la pregunta de si será posible lograr tiempos de almacenamiento de horas lo único que podemos decir es que utilizando los cristales de silicato de itrio dopado con praseodimio será muy difícil sino imposible superar los 100 segundos (incluso con pulsos clásicos). Quizás se pueda lograr un ligero incremento con una temperatura mucho más baja de los 4 Kelvin, pero la esperanza, en mi opinión, está en nuevos materiales de estado sólido que se puedan proponer en los próximos años capaces de lograr el almacenamiento de luz coherente durante horas. Habrá que estar al tanto de estos avances.

Lo dicho, si no has escuchado aún mi último podcast para Trending Ciencia, sigue este enlace.


Archivado en: Óptica, Ciencia, Física, Noticias, Physics, Podcast en Trending Ciencia, Recomendación, Science Tagged: Óptica, Ciencia, Curiosidades, Experimento, Física, Física cuántica, Luz lenta, Noticias
29 Jul 15:39

Una mejora de Ramanujan para la fórmula de Stirling

by ^DiAmOnD^

La fórmula de Stirling es una buena aproximación del factorial bien conocida por, al menos, los lectores más antiguos de este blog (seguro que por mucha más gente). Dicha fórmula dice que

n! \approx n^n \cdot e^{-n} \cdot \sqrt{2 \pi n}

entendiendo \approx como “equivalente”. De hecho, cuando mayor es n más equivalentes son los valores de esas dos expresiones. Esto significa, grosso modo, que el límite del cociente de esas dos expresiones cuando n tiende a infinito es 1. Vamos, que en términos de límites las dos son “iguales” (no es exactamente así, pero nos vale para que quede más o menos clara la relación entre ellas).

Como hemos dicho, esta fórmula de Stirling da aproximaciones buenas del factorial en el sentido descrito anteriormente, pero según qué precisión necesitemos las aproximaciones obtenidas quizás no sean tan buenas. Por ejemplo, para n=4:

\begin{array}{rl} 4!= & 24 \\ 4^4 \cdot e^{-4} \cdot \sqrt{2 \cdot \pi \cdot 4}= & 23.5062 \end{array}

Con esta aproximación estaríamos cometiendo un error relativo del 2%:

E_r=\cfrac{|4!-4^4 \cdot e^{-4} \cdot \sqrt{2 \cdot \pi \cdot 4}|}{4!} \cdot 100 \%= 2.05 \%

que no está mal, pero quizás en ocasiones sea muy grande. Por ejemplo, para que el error relativo baje del 1% debemos irnos hasta n=9, y el primer número entero positivo para el cual la aproximación por la fórmula de Stirling de su factorial nos da un error relativo menor del 0.1% es n=84.

La cuestión es que hay varias expresiones que dan mejores aproximaciones que la de Stirling. Una de estas mejoras, debida a Srinivasa Ramanujan, es la que nos ocupa hoy. Aquí la tenéis:

n! \approx n^n \cdot e^{-n} \cdot \sqrt{\pi} \cdot \sqrt[6]{8n^3+4n^2+n+\frac{1}{30}}

Srinivasa Ramanujan
Nadie duda ahora que es de Ramanujan, ¿verdad?

Con esta fórmula, para n=4 obtenemos el valor 24.0001, mucho más aproximado al valor real, que es 24. El error relativo en este caso es 0.000282%, muchísimo más pequeño que el que da la fórmula de Stirling. Y por poner otro ejemplo, para el caso n=83 el error relativo de la fórmula de Stirling era un pelín mayor del 0.1%. Con la fórmula de Ramanujan es 0.000000001987%. La diferencia es sustancial, como se puede ver.

La fórmula de Stirling tiene la característica de que el error relativo va disminuyendo conforme aumenta el valor de n. Pues el caso es que la fórmula de Ramanujan también posee esa interesante propiedad: cuanto mayor es n menor es el error relativo de la aproximación de Ramanujan. Al ser éste mucho más bajo que el que da la fórmula de Stirling, es bastante evidente que la de Ramanujan es mucho mejor aproximación.

¿Hay demostración de todo esto? Pues sí, pero no por el propio Ramanujan, que lo dejó sin demostrar, sino por Ekatherina Karatsuba, que lo probó en el año 2000 en su trabajo On the asymptotic representation of the Euler gamma function by Ramanujan. Lo que demostró Karatsuba fue que la función

h(x)=(g(x))^6-(8x^3+4x^2+x)

con g(x)={({e \over x})^x \, \Gamma (x+1) \over \sqrt{x}}es monótona creciente y está acotada “en infinito” por 1 \over 30. Como ya sabemos que \Gamma (x+1)=x! para valores enteros positivos de x (vamos, que la función gamma es una generalización del factorial), este resultado demuestra que la aproximación de Ramanujan comentada anteriormente es correcta.

Y para terminar comentar que ni mucho menos estas dos aproximaciones para el factorial, la de Stirling y la de Ramanujan, son las únicas interesantes. Os dejo por aquí tres más que he encontrado junto la aproximación que dan para 4!, para que podáis comparar con ellas:

  • Fórmula de Burnside:

    n! \approx \sqrt{2 \pi} \left ( \cfrac{n+1/2}{e} \right )^{n+1/2}

    Para n=4 su valor es 24.2226179.

  • Fórmula de Gosper:

    n! \approx n^n \cdot e^{-n} \cdot \sqrt{\pi} \cdot \sqrt{2n + {1 \over 3}}

    Para n=4 su valor es 23.9908895.

  • Y una tremenda de Necdet Batir que aparece en el último enlace al final de este post:

    n! \approx n^n \cdot e^{-n} \cdot \sqrt{2\pi \left ( n+\cfrac{1}{6}+\cfrac{1}{72n}-\cfrac{31}{6480n^2}-\cfrac{139}{155520 n^3}+\cfrac{9871}{6531840 n^4} \right)}

    Su valor para n=4 es 24.00000001332. Buenísima, ¿verdad? Por ser ésta tan buena vamos a dar un par de valores más. Para n=6 tenemos que 6!=720, y nuestra fórmula da como resultado 719.999999376. Y para n=12 tenemos que 12!=479001600, y nuestra fórmula nos da 479001599.9859. Podéis comparar estos valores con los que dan las otras fórmulas para convenceros de que ésta es realmente impresionante.

Y ahora os toca a vosotros. ¿Conocéis más aproximaciones buenas del factorial tipo las que hemos descrito por aquí? Los comentarios son vuestros.


Fuentes y enlaces relacionados:

Entra en Gaussianos si quieres hacer algún comentario sobre este artículo, consultar entradas anteriores o enviarnos un mensaje.

Construye tú también el poliedro de Császár.

26 Jul 13:13

Conferencia de Matt Strassler sobre el bosón de Higgs

by emulenews

El físico teórico Matt Strassler, autor del blog Of Particular Significance, nos habla del campo de Higgs en esta charla en inglés titulada “The Quest for the Higgs Boson.” Si tienes una hora y te interesa el tema, te la recomiendo (olvida la presentación de los primeros 10 minutos y las preguntas (que casi no se escuchan) de los últimos 20). ¡Qué la disfrutes!


Archivado en: Bosón de Higgs, Ciencia, Física, Noticia CPAN, Noticias, Physics, Recomendación, Science Tagged: Bosón de Higgs, Ciencia, Conferencia, Física, Física teórica, Noticias, Partículas elementales
22 Jul 20:09

El nuevo resultado del experimento japonés T2K sobre los neutrinos

by emulenews

Dibujo20130722 tokai-to-kamioka t2k experiment

El experimento japonés T2K (Tokai to Kamioka) estudia la oscilación de neutrinos muónicos en electrónicos en modo aparición, usando un haz de neutrinos generado en el laboratorio J-PARC en Tokai que es dirigido hacia el detector Super-Kamiokande situado a 295 km de distancia. T2K ha confirmado a 7,5 sigmas que el parámetro θ13 tiene un valor distinto de cero (θ13>0). Recordarás que en 2012 fue noticia que los experimentos Daya Bay, RENO y Double Chooz confirmaron a más de 5 σ que θ13>0, pero lo hicieron en modo desaparición con la oscilación de antineutrinos electrónicos en antineutrinos muónicos. La novedad es la observación en modo aparición; ya había indicios indirectos en 1999, pero las primeras señales fueron obtenidas en 2011 por MINOS que obtuvo indicios a 1,7 σ y por el propio T2K que los obtuvo a 2,5 σ, resultado que alcanzó 3,1 σ  en 2012 (pero aún lejos de un descubrimiento, que requiere superar las 5 σ). Ahora T2K logra superar las 5 σ y puede proclamar por derecho propio un descubrimiento (aunque de carácter menor, ya que quien pasará a los libros de historia como el primero en demostrar que θ13>0 será el experimento chino Daya Bay). Más información en Jorge Díaz, “Experimento T2K descubre nueva oscilación de neutrinos,” Conexión Causal, julio 19, 2013. Nos lo ha contado Atsuko K. Ichikawa (Univ. Kyoto, Japón), “Neutrino mixing: Results from accelerator experiments,” Slides, EPS-HEP’13, 23 Julio 2013.

Dibujo20130722 tokai-to-kamioka t2k experiment

Recuerda que existen tres tipos de neutrinos, o sabores: electrónicos, muónicos y tipo tau. Los neutrinos cuando se propagan van cambiando de sabor (oscilando) en el sentido de que cambia la probabilidad de que al detectar dicho neutrino tenga cierto sabor. En un haz de neutrinos muónicos (como el producido en Tokai con una energía media de 6 GeV), tras recorrer 295 km hasta Super-Kamiokande (SK), se pueden detectar neutrinos electrónicos (oscilación en modo aparición), neutrinos muónicos (oscilación en modo desaparición) y neutrinos tipo tau (aunque SK no puede detectarlos, como hace OPERA en Gran Sasso, Italia, con los neutrinos generados en el CNGS del CERN). En este nuevo resultado se han observado 28 neutrinos electrónicos con una energía promedio de 6 GeV, cuando el fondo esperado era de 4,64 ± 0,51, es decir, se ha confirmado la aparición de neutrinos electrónicos en el haz de muónicos con 7,5 sigmas de confianza estadística. Por cierto, la interpretación del resultado θ13>0 y el cálculo del número de sigmas de confianza estadística depende de si la jerarquía de masas de los neutrinos es normal o invertida. Esta figura muestra ambos resultados.

Dibujo20130722 t2k preliminary result for normal and inverted hierarchy

¿Por qué es importante saber que θ13 no es nulo? Porque sólo en dicho caso la física de los neutrinos puede contener alguna violación de la simetría CP (uno de los responsables de la asimetría entre materia y antimateria). El próximo gran objetivo de los experimentos de neutrinos será descubrir si existe esta violación de la simetría CP en la física de los neutrinos (la mayoría de los físicos cree que la hay); también hay que saber si la jerarquía de masas es normal o invertida y si los neutrinos son partículas de Majorana o Dirac. Y muchas otras cosas más, porque la física de los neutrinos es realmente muy interesante.


Archivado en: Ciencia, Física, Noticia CPAN, Noticias, Physics, Science Tagged: Ciencia, Experimento, Física, Neutrinos, Noticias, Oscilación de neutrinos, T2K
17 Jul 09:09

Juegos paradójicos

by Alberto

Me pide mi amigo Enrique que escriba algo para celebrar los dos años de su fantástico bitácora. Siguiendo mi antigua tradición cada vez que colaboro con este blog, me propongo relatar algo relacionado con las matemáticas, pero nacido de la mente de un físico, lo cual prueba que los físicos son mucho mejores que lo que algunos piensan. Puede que estéis apostando por Newton o Feynmann o alguno otro por el estilo, pero la realidad es que el protagonista de esta historia no está ni en desiertos remotos ni en montañas lejanas. Nos lo podemos encontrar en la capital del (por poco tiempo) Reino, en cuya universidad complutense ejerce su magisterio.

Pero antes de presentar a nuestro protagonista veamos un par de juegos bien simples:

Para jugar ambos juegos disponemos de un total de 100€.
El primer juego, al que en un alarde de originalidad llamaremos juego A (por la primera letra del alfabeto), consiste en apostar en cada turno 1€ y perderlo siempre. Evidentemente no es el más apetecible de los juegos y al cabo de 100 turnos habremos perdido todo nuestro dinero.
El segundo juego, al que llamaremos B, como los más sagaces entre los lectores ya habían adivinado, consiste en contar el dinero que nos queda, si es una cantidad par ganamos 3€, si es una cantidad impar perdemos 5€. No es difícil de analizar tampoco este juego y los 100€ iniciales también se desvanecerían al cabo de 100 turnos. Pero ahora veamos qué ocurre si podemos jugar alternativamente ambos juegos tan malos para nosotros:
Empecemos por B: tenemos 100€ y, por tanto, ganamos 3€ para colocarnos en 103€, ahora juguemos A y perdemos 1€ y nos situamos en 102€, si ahora jugamos B, volvemos a ganar y ya tenemos 105€. Así, si jugamos BABABABA… (N.B.: señor Rajoy: los puntos suspensivos son tres y no cuatro como usted se empeña en escribir en sus mensajes de texto), al cabo de 100 turnos hemos ganado 100€.
¿Qué ha ocurrido aquí? Sencillamente que mezclando de forma adecuada dos juegos perdedores, hemos obtenido un juego ganador. Esto es lo que se conoce, inapropiadamente, como la paradoja de Parrondo, que toma su nombre de Juan Manuel Rodríguez Parrondo, profesor del departamento de Física atómica, molecular y nuclear de la complutense. Aclaro que lo que me parece inapropiado es llamarlo paradoja, no que tome su nombre del bueno de Juan Manuel. También aclaro que existen secuencias que no son tan favorables como la anterior, porque si jugamos ABABABA…, cada dos turnos perdemos 6 euros.

El profesor Rodríguez Parrondo

El profesor Rodríguez Parrondo

Naturalmente, desde que esta paradoja alcanzó cierto renombre, en parte gracias a la labor divulgadora del australiano Derek Abbot (como el mismo Rodríguez Parrondo admite en esta entrevista), se ha tratado de aplicar en muy diversos campos, como la ingeniería, dinámica de poblaciones y, muy especialmente, en economía, disciplina en la que, de alguna u otra forma, esta paradoja siempre se ha aplicado en los mercados bursátiles bajistas intentando aprovechar los dientes de sierra que todo valor presenta para conseguir una estrategia alcista. Por ejemplo, el también físico Sergei Maslov desarrolla en este trabajo una estrategia de compra y venta de acciones que, en algún sentido, está íntimamente ligada con la paradoja de Parrondo. También en Genética, explica por qué dos alelos que por separado tenderían a desaparecer por selección natural, pueden reforzarse si aparecen juntos en un mismo organismo.

Pero, no olvidemos que soy matemático, propongamos otros dos juegos con monedas (y así introducimos el azar), parecidos a los que he comentado anteriormente para examinar con mayor profundidad la paradoja de Parrondo desde un punto de vista probabilístico. De hecho, estos son los dos juegos que propone el propio Rodríguez Parrondo en su web:

Para el nuevo juego A necesitamos una moneda ligeramente descompensada y de tal forma que la probabilidad de cruz sea algo mayor que ½ (diremos que 1/2+ε, donde ε es un número pequeño y positivo) y, por tanto, la de cara será 1/2-ε. Nuestra obligación es siempre apostar un euro a que saldrá cara y, por tanto, este también es un juego perdedor. Efectivamente, al cabo de n turnos habremos perdido aproximadamente n(1/2+ε)-n(1/2-ε)=2nε euros. Para el nuevo juego B necesitamos dos monedas. La primera de las monedas (moneda G) nos favorece y hace que ganemos con un (3/4-ε) de probabilidad. La segunda (moneda P) es perjudicial y perderemos con ella (9/10-ε) de las veces. Para determinar cuál de las dos monedas jugamos, lo que haremos, como antes, es contar nuestro capital, si es múltiplo de 3 jugaremos con la moneda mala y si no lo es, utilizaremos la buena. Así, aproximadamente jugaremos con la moneda buena el doble de veces que con la mala (no es del todo cierto, dado el carácter del juego, pero vale como simplificación), pero como la maldad de la moneda P es mucho más del doble que la bondad de la moneda G, este juego también es perdedor. Lo curioso es que para este par de juegos el comportamiento si lo jugamos alternadamente y escogemos ε adecuadamente, es mucho más interesante que el juego simplificado que contamos al principio. Efectivamente, aunque ambos juegos son perdedores, casi cualquier mezcla que hagamos entre ellos resulta ser un juego vencedor, pero voy a intentar aclararlo a continuación:
Un ε adecuado (no es difícil ver la razón, pero la omito para evitar tecnicismos) puede ser ε=0.005. De la propia web de Rodríguez Parrondo copio la siguiente gráfica que muestra distintas simulaciones de los dos juegos A y B combinados:

plot

Cada una de las líneas representa una combinación específica de ambos juegos. La línea superior, marcada con [3,2] significa que jugamos tres veces A, después dos B y así sucesivamente, la siguiente, marcada con [2,2] significa que jugamos 2 veces A, 2 veces B y así sucesivamente. En dicho gráfico vemos que no solo los tres patrones estudiados salen ganadores, sino que también si decidimos aleatoriamente en cada momento cuál de los dos jugar (línea random), también obtenemos un juego ganador. Naturalmente, a partir de esta gráfica, surgen varias preguntas y existen muchos trabajos que tratan de responder a dichas preguntas: ¿cuáles son las secuencias ganadoras? ¿existe una estrategia óptima? En este sentido, es conocida la secuencia óptima: repetir el patrón ABABB (ello ha sido demostrado por un compañero de departamento del propio Rodríguez Parrondo: Luis Dinis (Luis Dinis, “Optimal sequence for Parrondo games”. Physical Review 77 (2) Article Number: 021124 – FEB 2008). El método seguido por Dinis no es trivial, pero abre nuevas puertas para el examen de diversos juegos de Parrondo y plantea la búsqueda de los juegos de Parrondo “más paradójicos” en el sentido de que dos juegos muy negativos den combinados juegos muy positivos o de juegos de Parrondo combinación de más de dos juegos o en los que el capital no juegue ningún papel.

Por último, me gustaría destacar que en campos tan alejados como la psicología o la sociopolítica se ha señalado que las paradojas de Parrondo pueden jugar algún papel. Por ejemplo, mentir en política suele ser negativo (o debería serlo) y tener una aventura extramatrimonial también suele ser negativo para la opinión pública. Así, cuando se supo que el presidente Clinton había tenido una aventura con Mónica Lewinski, su popularidad decreció, cuando la negó, volvió a decrecer, pero cuando admitió que había mentido, su popularidad sobrepasó los valores iniciales. Con esto no estoy animando a nuestros políticos a que mientan y admitan que han mentido, más bien los conmino a tener muchas aventuras matrimoniales, extramatrimoniales y de todo tipo, puede que con esta receta no mejoren como políticos, pero seguro que estarán menos amargados y así saldremos todos ganando.

Felicides Enrique, muchas felicidades querido gato.


Archivado en: Sin categoría
12 Jul 16:55

'Menos bingos e mais trebalhar...'

by Gilbebo
'

Pongamos un poco más de orden en esta 'comunidad' tan revuelta.

1) Ninguna familia puede gastar 3, 4 o 5 años muy por encima de sus posibilidades sin que eso tenga consecuencias nefastas.

Tampoco las comunidades o los estados. Pero no nos dejemos llevar por los medios de comunicación.

  • ¿Cuál es el nivel de endeudamiento total del Estado? (aprox. 4x los impuestos que cobra)
  • ¿Y cuál el de las familias? (aprox. 2x su renta disponible)
  • ¿Y cuál el de las empresas? (12x sus beneficios, desconozco cuantas veces sus ingresos totales)

Las inversiones y gastos deben ir en paralelo a sus ingresos disponibles. Lo contrario significa pasar la deuda a las generaciones futuras sin pedirles permiso.

A nivel del Estado el déficit de uno, dos o tres años debe ser compensado por superávit en los siguientes. Siendo las elecciones cada 4 años no debería aumentarse la deuda total de un país al final de ese periodo a no ser que hubiese un amplio consenso a favor (4/5 partes del parlamento?) por inversiones o circunstancias excepcionales.

2) Dicho lo cual. Que ahora el gobierno reduzca el déficit NO nos va a sacar de la crisis (que es fundamentalmente, una crisis de falta de empleo sostenible en el tiempo).

Previsiblemente va a facilitar pagar la deuda y disminuir su coste (tendremos que pagar menos intereses al estar más equilibrados ingresos y gastos).

Pero que los funcionarios tengan menos salario (sea o no proprocional/justo respecto a situaciones similares que se están dando en el ámbito privado) y que se invierta menos en infraestructuras no va a crear ni un sólo empleo, en cualquier caso va a ralentizar esa creación. Tal como apuntaba Marc Vidal ¿nos hemos vuelto todos locos o qué? ¿De verdad alguien piensa que reduciendo inversión y capacidad de gasto del funcionariado vamos a crear más empleo?

3) Lo contrario, gastar más para intentar 'paliar' la crisis es lo que se ha hecho (aumentando el déficit en los últimos 2 años) con resultados como mucho limitados (aunque nunca podremos saber exactamente 'qué hubiera pasado si se hubiesen levantado menos calles con el Plan E y vuelto a tapar' Tengo un ejemplo en la esquina de la mía así que nadie me diga que 'no es verdad')

4) La 'gran inversión pública' va destinada a 'grandes empresas constructoras' que suelen subcontratar a otras subcontratas que subcontratan a otras subcontratas.

La señal falsa que llega a los últimos peones que están picando las aceras es que 'aún hay esperanza de seguir trabajando en esto' y no sé si alguno debería plantearse ya reciclarse en el sector rehabilitación o incluso marchar a buscar trabajo en otros países (incluyendo los de origen) con necesidad real constructora. Yo no tengo problema en emigrar para trabajar aunque, como cualquier persona, supongo que preferiría trabajar no demasiado lejos de donde crecí.

Sería razonable quizás facilitar esa vuelta capitalizando la mitad del paro (p.ej. aquellos que llevasen más de 3 meses aquí sin trabajo) y la otra mitad a pagársele completa en euros -por ejemplo a través de entidades financieras españolas o consulados- allá, donde igual ahora tienen más oportunidades que aquí, (y por favor, no veáis en esto ninguna insinuación racista o xenófoba porque entonces es que no me conocéis). De hecho ese paro completo se le podría pagar independientemente de si encontrase o no trabajo en otro país.

5) ¿Qué hacer pues?

  • Buena parte del ahorro de la reducción del salario de funcionarios debería invertirse directamente en formación intensiva orientada a empleo (¿cuáles son los nichos que sí ofrecen trabajo? ¿atención tercera edad?,
    ¿capacitación en rehabilitación de edificios?, ¿formadores en nuevas tecnologías?...) Y a los que no se quieran formar pues se quita el subsidio y punto.

    Que los que se sacrifiquen sepan que su sacrificio se traduce en parte en empleo directo.

    Ello debería complementarse con el hecho de que, para evitar rigideces en el sistema público los puestos de funcionarios deberían ofertarse por periodos de 10-15 años máximo y luego volver a salir a concurso público (si son aún necesarios para entonces).
  • Hay que reducir 'la escala de vida' -que no necesariamente su calidad- en todo el país.

    Escala de vida = menos horas de trabajo, más gente trabajando, reduciendo al mínimo los costes fijos del empleo para que sea 'indiferente o incluso mejor a efecto de cargas para el empresario contratar 4 personas trabajando 6 horas vs. 3 trabajando 8. Realizar un consumo no despilfarrador ni especulativo (pensando que 'otros' nos pagarán la fiesta) .
  • También hay que ser mínimamente conscientes de nuestras acciones de compra.

    Tanto antes como aún más durante la crisis todo el mundo quería comprar barato y no importaba de dónde venían y cómo se hacían los productos. Ahora nos quejamos porque aquí no hay trabajo. Al menos saber que algo fabricado en la UE se hace bajo unas condiciones laborales y de seguridad determinadas, mientras que en otros sitios probablemente no.

Un último apunte. Sobre el tema de los mercados de valores. Todo el mundo está atemorizado por si 'los inversores se marchan'. Vamos a ver ¿de qué 'inversores' estamos hablando? ¿De la Nissan? o de la SIMDFIAR ¿Sociedad de la Isla de Man en Derivados Financieros Ibéricos de Alto Riesgo?.

El que 'invierte' en bolsa no es estrictamente hablando un' inversor' (alguien que 'vierte' su dinero 'en' un lugar productivo).

Es un 'jugador' de la bolsa. ¿Por qué? porque ni un sólo céntimo de su dinero va a parar a los proyectos de la empresa de la que compra acciones (a no ser que sea la primera emisión de acciones o ampliación de capital).

Por tanto ese dinero es dinero para jugar a la ruleta.

¿Qué ocurre si un montón de inversores extranjeros vende masivamente sus acciones de 'Repsol'? Pues que su precio bajará pero Repsol no va a dejar de tener dinero para sus proyectos porque bajen sus acciones.

En todo caso puede que se hagan con ella accionistas diferentes aprovechando ese menor precio y echen a los gestores, ¿pero de verdad nos ha de preocupar eso? pobrecitos...con las indemnizaciones que cobrarían...

Otros dirán, 'pues si baja su precio porque se van los agentes extranjeros los españoles que tengan su dinero en Repsol perderán parte de su patrimonio en forma de cotizacion a la baja'. Hemos dicho que es un juego. El que quiera jugar que juegue, eso sí, cuando se trata de dinero que provenga de planes pensiones habría que establecer límites, igual que algunos ludópatas tienen el acceso prohibido a los bingos porque pueden arruinar a ellos mismos y el futuro de sus familias.

Y si no que inviertan en micro-créditos que SÍ van a un proyecto empresarial concreto.

Ligando esa necesidad de canalizar dinero en actividad productiva con el tema de impuestos a rentas altas... por supuesto esas rentas tendrán más capacidad de reducir algo su liquidez sin ver afectado notablemente su ritmo de vida ... pero...¿ por qué no pensar una manera de que parte de ese dinero que se le podría 'requerir' a esas rentas se invierta directamente en proyectos empresariales locales?

¿Algo así como que parte de ese esfuerzo venga de un 'impuesto productivo' que se convirtiese en un fondo para el ICO -Instituto de Crédito Oficial para PyMES- que incluso se les remuneraría a un interés, aunque bajo?

En esa línea: ¿Por qué no reconvertir las famosas 'SICAV' en instrumentos de inversión productiva a través del ICO y no en bolsa? Es una idea muy verde pero a tiempos revueltos...

¿Más sobre temas relacionados?





07 Jul 10:12

Lección contra la conspiranoia: el hombre del paraguas

by noreply@blogger.com (aberron)

En la famosa filmación de Abraham Zapruder del asesinato de John Fitzgerald Kennedy aparece un tipo entre el público con un paraguas abierto. El hecho no tendría más relevancia si no fuera porque aquel 22 de noviembre el cielo estaba totalmente despejado en Dallas. Otra filmaciones desde distintos ángulos muestran al hombre sosteniendo el paraguas justo en el lugar donde Kennedy es abatido por las balas. La historia dio pie a todo tipo de especulaciones, desde un sofisticado mecanismo para lanzar dardos hasta la posibilidad de que estuviera haciendo alguna señal.

Pero la verdad es más retorcida que todo eso. Os aconsejo ver este estupendo vídeo de 6 minutos dirigido por Errol Morris, publicado por The New York Times en 2011 y subtitulado por Vicent Montagud. No os perdáis ni un detalle hasta el final:


"Si encuentras algo que parece realmente siniestro, que es obvio que solo puede tener una base siniestra...", asegura John 'Tink' Thompson en el vídeo, "olvídalo, amigo. Porque nunca se te podrán ocurrir por tus propios medios todas las explicaciones no siniestras y perfectamente válidas para ese hecho". Para tallarlo en piedra.

Podéis leer el estupendo artículo de Vicent Montagud, "El hombre del paraguas en Egipto", donde encontré el vídeo. Vía @vicentmontagud

Entrada publicada en Fogonazos http://www.fogonazos.es/
04 Jul 07:49

Cómo fabricar un corazón a partir de células “madre”

by emulenews

Doris Taylor, la doctora Frankenstein, trabaja en medicina regenerativa en el Instituto del Corazón de Texas, Houston, EEUU. Su objetivo es fabricar órganos, como un corazón (pero también pulmones, riñones, etc.), a partir de un órgano sin vida (de un cadáver humano o de un cerdo), eliminando todas sus células cardíacas usando un detergente adecuado, repoblando el órgano con células “madre” de un paciente humano y obteniendo un nuevo órgano vivo que puede ser transplantado evitando todo tipo de rechazos. Esta utopía está cada día más cerca. Por ahora los nuevos órganos sólo laten en el laboratorio, pero Taylor es muy optimista y cree que en menos de una década se podrán realizar los primeros transplantes de órganos completos en pacientes (y quizás en un lustro los primeros transplantes de trozos o partes de órganos). Nos lo cuenta este vídeo de Nature, que viene acompañado del artículo Brendan Maher, “Tissue engineering: How to build a heart. With thousands of people in need of heart transplants, researchers are trying to grow new organs,” News Feature, Nature 499: 20–22, 04 Jul 2013.

Dibujo20130703 customized heart organ - research procedure

Convertir células “madre” de un paciente en un corazón que excitado por un marcapasos se pone a latir y mantiene sus latidos durante horas ha sido el objetivo de muchos expertos en medicina regenerativa durante la última década. El mayor problema para pasar de un trozo plano de tejido en una placa de Petri a un órgano en tres dimensiones es incluir la intrincada red de capilares que suministra el oxígeno y los nutrientes a todas las células cardíacas, y elimina los productos de desecho; parecía ciencia ficción, pero ya es una realidad. La Dra. Taylor considera que lo mejor es utilizar como andamio un corazón de cerdo, pues su matriz extracelular es muy parecida a la humana y son mucho más seguros para los seres humanos (es muy poco probable que porten enfermedades humanas); además, obtener corazones de cerdo es muy barato.

El paso más complicado es la limpieza de las células cardíacas del corazón que hará el papel de andamio (la llamada “descelularización”). En muchas ocasiones no se eliminan todas las células y las pocas que quedan pueden causar problemas de rechazo. La repoblación con células madre (“recelularización”) tampoco está libre de desafíos. Aún no se sabe cuál es el tipo óptimo de célula a utilizar (células cardíacas maduras (cardiocitos), células “madre” embrionarias, celúlas totipotentes inducidas (iPS), etc.) y en los estudios en laboratorio se suelen combinar diferentes tipos celulares.

Parece una utopía, pero el vídeo de Nature que abre esta entrada nos hace pensar que el apelativo de doctora Frankenstein le viene que ni pintado a la Dra. Taylor.

De hecho, ya se ha crecido un “brote” de hígado humano en el cerebro y en el abdomen de un ratón con insuficiencia hepática, evitando su muerte. Takanori Takebe, Universidad de la ciudad de Yokohama, Japón, y su grupo han utilizado células “madre” pluripotentes inducidas (iPS), reprogramadas a partir de células humanas de la piel. las células transplantadas proliferaron sin problemas alrededor de la red vascular del ratón. Los resultados son aún muy preliminares, aunque también muy esperanzadores. Aún no se ha crecido un hígado en su sitio del cuerpo y tampoco se sabe si el nuevo órgano puede producir tumores a medio o largo plazo, matando al ratón de cáncer, como nos recuerda la experta Valerie Gouon-Evans, Hospital Mount Sinai en Nueva York, EEUU. Nos lo cuenta Monya Baker, “Miniature human liver grown in mice. Cells self-organize and grow.  into functional organs after transplantation,” Nature News, 04 Jul 2013, siendo el artículo técnico Takanori Takebe et al., “Vascularized and functional human liver from an iPSC-derived organ bud transplant,” Nature, Published online 03 Jul 2013.


Archivado en: Ciencia, Medicina, Noticias, Science Tagged: células madre, Ciencia, Medicina, Medicina regenerativa, Nature, Noticias
23 Jun 20:39

La naturaleza de la luz (I)

by Pedro

Hablando de… es la serie caótico-histórica de El Tamiz. En ella hablamos más o menos de cualquier cosa de manera caprichosa y enlazamos cada artículo con el siguiente para poner de manifiesto que todo está conectado de una manera u otra; los primeros 32 artículos de la serie están disponibles, además de en la web, en forma de dos libros, pero esto tiene pinta de no terminarse pronto (al menos, mientras vosotros y yo nos sigamos divirtiendo). En los últimos artículos hemos hablado de Giordano Bruno, cuyas obras fueron prohibidas por el Papa Clemente VIII, quien en cambio tres años antes dio el beneplácito de la Iglesia al café, bebida protagonista de la Cantata del café de Johann Sebastian Bach, cuya aproximación intelectual y científica a la música fue parecida a la de Vincenzo Galilei, padre de Galileo Galilei, quien a su vez fue padre de la paradoja de Galileo en la que se pone de manifiesto lo extraño del concepto de infinito, cuyo tratamiento matemático sufrió duras críticas por parte de Henri Poincaré, el precursor de la teoría del caos, uno de cuyos padres, Sir Robert May, fue Presidente de la Royal Society de Londres, sociedad formada a imagen de la Casa de Salomón descrita en el Nova Atlantis de Francis Bacon cuando científicos de las siguientes generaciones leyeron sus escritos, como le sucedió a Robert Boyle, cuyo trabajo en óptica fue bienintencionado pero muy inferior al de otros estudiosos de la naturaleza de la luz.

Pero hablando de la naturaleza de la luz…

Un aviso pertinente: como siempre me pasa en esta serie he empezado a escribir, y escribir, y una cosa me ha llevado a otra… “Pero ¿cómo no voy a mencionar tal cosa?”, pensaba. “Ah, pero claro, entonces también hablaré sobre esta otra…” De manera inocente, ¡lo juro! me ha salido un ladrillo de tal calibre que he tenido que partirlo no en dos, sino en tres partes. Dicho en otras palabras, vais a acabar hasta las mismísimas narices de la luz y de los cambios de rumbo y digresiones constantes… pero ¿quién dijo que Hablando de… servía para aprender de algo concreto? Divaguemos juntos entonces.

El problema es que la luz es una de las cosas más sutiles, enrevesadas y difíciles de entender con las que se ha encontrado el ser humano al observar el Universo. Por eso ha sido el objeto de discusiones enconadísimas a lo largo de la historia de la ciencia, y a ellas se han dedicado algunas de las mentes más afiladas de todos los tiempos. Además esa misma sutileza de la luz supone que, para entenderla, nos ha hecho falta mecánica, geometría, ondulatoria, electricidad, magnetismo, relatividad, cuántica… pueden contarse con los dedos de una mano las ramas de la Física que no son necesarias para comprender este misterio.

Sin embargo, irónicamente durante milenios simplemente aceptamos la existencia de la luz sin pensar demasiado en ello –o, al menos, no tenemos mención alguna al respecto hasta el siglo V a.C.–. Teníamos claro lo evidente y necesario para sobrevivir: algunos objetos emiten luz por sí mismos, otros la reflejan de una manera u otra, y nosotros somos capaces de ver gracias a los ojos. Al fin y al cabo no hace falta más que mirar al Sol o a una lámpara para darse cuenta de lo primero, y taparse los ojos para comprender lo segundo. Pero, como digo, no fuimos más allá de este conocimiento práctico y concreto que no requiere de razonamiento alguno.

Cuando finalmente empezamos a pensar de verdad en el problema, se hizo evidente que era un problema de muy difícil solución. En este largo artículo vamos a recorrer las distintas ideas que se fueron proponiendo acerca de esa naturaleza de la luz. Como verás, poco a poco fuimos refinando nuestras sospechas, pero el problema es tan sutil que en casi todas las épocas hubo más de una hipótesis acerca de ella –las primeras más bien burdas, las posteriores mucho más elaboradas–, y una discusión a veces acalorada acerca de cuál se acercaba más a la realidad. ¿Listo para empezar el viaje? Pues retrocedamos dos milenios y medio.

Fue entonces cuando vivió el primero de quien tenemos noticia que postuló una hipótesis razonada sobre la naturaleza de la luz: Empédocles de Agrigento (¡sorpresa, un filósofo griego!). Además de poeta, Empédocles fue uno de los principales filósofos naturales del siglo V a.C. Vivió en la Magna Grecia, en lo que hoy es Agrigento pero por entonces era la ciudad helena de Akragas, en el sur de Sicilia, entre alrededor de 490 y 430 a.C.

Empédocles de Agrigento
Empédocles de Agrigento en un grabado del s. XVII.

Aunque Empédocles escribió sobre muchos asuntos, lo que nos interesa hoy se encuentra en su obra Sobre la Naturaleza, un poema de dos mil versos del que, desgraciadamente, sólo conservamos medio millar. En él postula la idea por la que es más conocido: la existencia de cuatro elementos fundamentales (tierra, aire, agua y fuego), pero también habla sobre la percepción y los sentidos y ahí, por fin, encontramos la primera mención de la Historia sobre la naturaleza de la luz.

La hipótesis sobre la luz y la visión de Empédocles era endiabladamente complicada, y en muchos aspectos errónea, pero contiene algunos gérmenes de verdad que resulta sorprendente encontrar en una época tan temprana. Recuerda que estamos hablando de la Grecia clásica: filosofía y ciencia aún no se han separado y todavía no se ha establecido una de las “patas” de la ciencia moderna, la experimentación. Sin embargo, sí existe ya por entonces la contribución helena al desarrollo de la ciencia: la primacía de la razón. Aunque Empédocles aún involucra a los dioses en sus ideas, las conclusiones concretas que obtiene son fruto del razonamiento lógico a partir de los fenómenos observados.

Según el siciliano, el ojo está formado por los cuatro elementos, y el fuego en su interior emite luz que atraviesa la córnea y sale al exterior. Esta primera hipótesis sobre la luz y la visión es, por tanto, una hipótesis de emisión, pero como veremos luego hay sutilezas en ella que no la hacen tan extrema. Aunque no tenemos constancia del porqué de esta hipótesis, sospecho que tiene que ver con dos razones que Empédocles, como cualquiera con dos ojos en la cara, seguramente había observado:

  • En ocasiones, cuando se mira a los ojos de un gato o algún otro animal por la noche, se ven dos discos brillantes en el interior. De acuerdo con la hipótesis de emisión, esto es porque los gatos tienen fuegos oculares especialmente poderosos, tanto que pueden ser percibidos por el ser humano.

  • Algunas personas ven mucho mejor que otras, y esta diferencia puede ser explicada porque su fuego interior es más intenso que el de quienes ven peor. Dado que los gatos ven muy bien de noche, y que es muy difícil percibir discos de luz en los ojos del ser humano por la noche, esto explica también por qué estos animales ven mejor que nosotros.

Pero la emisión era sólo una parte de la hipótesis de Empédocles: al fin y al cabo, el siciliano podría ser ingenuo y vivir en una época en la que no tenía nada anterior en lo que basarse, pero no era tonto. No hace falta pensar mucho para darse cuenta del agujero enorme en una hipótesis pura de emisión: ¿por qué vemos de día y no en la oscuridad?

Aquí entra la segunda parte de la hipótesis de Empédocles: el ojo humano no es lo único que contiene un fuego interior. El Sol, la Luna, las lámparas, etc., también los contienen, y emiten a su vez luz. Tanto la emitida por el ojo como por cualquier otro fuego, de acuerdo con el de Agrigento, viaja en línea recta –en forma de rayos, en términos modernos–, hasta los objetos. Estos rayos, según Empédocles, viajan de un lugar a otro a una velocidad finita.

Cuando los objetos reciben estos rayos, a su vez emiten los suyos propios en respuesta. Cuando estos rayos “secundarios” entran en contacto con los emitidos por el ojo, la interacción entre ambos constituye la visión. Así, el proceso no sería puramente de emisión, sino de emisión-recepción. Esto explicaría, según Empédocles, por qué no vemos en la oscuridad: no hay suficiente luz sobre los objetos, ya que nuestro ojo no tiene un fuego tan intenso. El de un gato seguramente sí puede emitir suficiente “fuego” como para ver, pero no nosotros.

Algunas de las ideas de Empédocles son sorprendentemente acertadas: la existencia de rayos luminosos, la velocidad finita de la luz, la reacción de los objetos al recibir luz emitida por otros… sin embargo, en otras cosas estaba completamente equivocado, sobre todo en la concepción de la visión como la interacción entre dos fuegos, uno interior y otro exterior.

Sé que hoy en día resulta un poco ingenua su hipótesis de emisión-recepción, pero ¿es tan diferente de la manera en la que delfines o murciélagos perciben las cosas? ¿resulta tan absurda dados los conocimientos empíricos de la época? Yo creo que no. El problema principal de Empédocles, como el de casi todos los científicos de la época, era la ausencia casi total de experimentos preparados cuidadosamente: se basaban en observaciones casuales.

Parte de lo que sabemos de las ideas de Empédocles se debe a los versos que conservamos de Sobre la naturaleza, pero la otra parte se la debemos al científico griego más influyente sobre nuestra concepción de las cosas durante muchos siglos: Aristóteles de Estagira. Irónicamente, Aristóteles no estaba de acuerdo en casi nada con Empédocles en lo que respecta a la luz, pero a la manera griega –¡qué grandes eran!–, antes de destrozar las ideas del otro las describía con cierto detalle, para poner de manifiesto sus agujeros, con lo que gracias a Aristóteles conocemos mucho mejor las ideas de Empédocles.

Así, de la velocidad finita de la luz de Empédocles, Aristóteles nos dice, en su Sobre los sentidos:

Empédocles afirma que la luz del Sol viaja primero por el espacio intermedio antes de llegar al ojo, o alcanzar la Tierra. Esto podría considerarse plausible, ya que cualquier cosa que se mueve por el espacio viaja de un lugar a otro; por tanto, debe haber un intervalo de tiempo durante el que viaja de un lugar a otro. Pero dado que cualquier intervalo de tiempo es divisible en partes, podemos suponer que hubo un instante en el que el rayo de luz solar no había llegado al ojo, sino que estaba todavía viajando por el espacio intermedio.

Sin embargo, según Aristóteles la luz no viaja por ninguna parte, porque no es algo que se mueva: es una presencia que inunda el espacio. O existe, o no lo hace, pero no empieza a existir en unas regiones del espacio para llegar a otras. Si fuese de otro modo podríamos detectar ese movimiento, por ejemplo cuando sale el Sol por el este. Pero no sucede así — la luz llega al oeste de manera instantánea. En Sobre el alma, Aristóteles refuta a Empédocles así:

Empédocles (y con él los que usan las mismas formas de expresarse) erraba al hablar de la luz como algo que “viaja” o que existe en un momento dado entre la Tierra y su envoltura, con un movimiento imperceptible para nosotros; esta idea es contraria tanto a las pruebas argumentales como a los hechos observados. Si la distancia recorrida fuese corta tal vez este movimiento fuera inobservable, pero cuando la distancia es desde el extremo oriental al occidental, lleva demasiado lejos a nuestra credulidad.

Dicho de otra manera, Aristóteles acepta el hecho de que la luz pueda moverse tan rápido que, al encender una linterna, parezca inundar el espacio circundante de manera instantánea. Pero es imposible, de acuerdo con él, que no sea perceptible un cierto intervalo de tiempo “desde el extremo oriental al occidental”, con lo que parece referirse a la salida del Sol, que llena de luz de uno al otro horizonte de modo instantáneo.

Por lo tanto, según el estagirita no tiene sentido intentar determinar la velocidad de la luz: cuando existe, es algo ubicuo. De acuerdo con Aristóteles tampoco hay emisión alguna por parte del ojo: cuando hay luz en el exterior –luz creada por fuegos externos–, ésta llena todo el espacio, incluido el interior del ojo y su fuego interno, y por eso vemos. Si no hay luz externa no podemos ver. Su hipótesis, por tanto, no es de emisión como la de Empédocles, sino de absorción.

Otro filósofo griego que encontró problemas con las ideas de Empédocles fue el genial Euclides de Alejandría, del cambio de siglo IV-III a.C. Al igual que Empédocles, Euclides es más conocido por algo que no tiene que ver con nuestro asunto de hoy, en este caso por ser el padre de la geometría. Euclides era, de hecho, mucho más matemático que científico, pero dedicó parte de su atención a la hipótesis de emisión de Empédocles y encontró un problema fundamental en ella.

Supongamos, pensaba el alejandrino, que me encuentro en el campo en una noche estrellada, y tengo los ojos cerrados. Las estrellas están muy, muy lejos de mí, como puede comprobarse por el hecho de que, al movernos, sus posiciones aparentes no cambian en absoluto. Por lo tanto, cuando abro los ojos y el fuego interior emite rayos hacia ellas, debería haber un desfase entre el momento en el que abro los ojos y el momento en el que veo las estrellas. Como mínimo, entre un instante y otro debería pasar el tiempo necesario para que la luz viajase de mi ojo a la estrella y de vuelta.

Sin embargo, al abrir los ojos vemos las estrellas instantáneamente, luego debía ser falsa una de dos cosas en la hipótesis de Empédocles: o bien la visión no se producía por la excitación del objeto por parte del fuego del ojo, o bien la luz viajaba de manera instantánea.

En lo que todos los filósofos griegos estaban de acuerdo era en que existía una interacción entre dos fuegos, el interno y el externo. Lo mismo opinaba Platón, que como Empédocles era partidario de la hipótesis de emisión. En uno de sus diálogos, Timeo, dice lo siguiente sobre la luz y la visión (énfasis mío):

Los primeros instrumentos que construyeron fueron los ojos portadores de luz y los ataron al rostro por lo siguiente. Idearon un cuerpo de aquel fuego que sin quemar produce la suave luz, propia de cada día. En efecto, hicieron que nuestro fuego interior, hermano de ese fuego, fluyera puro a través de los ojos, para lo cual comprimieron todo el órgano y especialmente su centro hasta hacerlo liso y compacto para impedir el paso del más espeso y filtrar sólo al puro. Cuando la luz diurna rodea el flujo visual, entonces, lo semejante cae sobre lo semejante, se combina con él y, en línea recta a los ojos, surge un único cuerpo afín, donde quiera que el rayo proveniente del interior coincida con uno de los externos. Como causa de la similitud el conjunto tiene cualidades semejantes, siempre que entra en contacto con un objeto o un objeto con él, transmite sus movimientos a través de todo el cuerpo hasta el alma y produce esa percepción que denominamos visión.

Platón y Aristóteles
Platón (izquierda) y Aristóteles (derecha), parte de La escuela de Atenas, de Rafael.

Pero desde luego ni Empédocles, ni Aristóteles, ni Euclides ni Platón podían demostrar sus ideas: ninguno midió una velocidad para la luz, ni realizó ningún experimento que demostrase sin lugar a dudas que su hipótesis era verdadera y la otra falsa. Tampoco podían demostrar siquiera aquello en lo que todos estaban de acuerdo, la existencia de un fuego interior del ojo. Aunque aquí nos centraremos en la naturaleza de la luz y no tanto en la del ojo, hoy sabemos que la cosa es muy diferente de como pensaban Empédocles y compañía en este aspecto.

Aunque no postulase hipótesis sobre la naturaleza de la luz, no puedo dejar de mencionar a otro genio, Arquímedes de Siracusa –más conocido por su principio que por esto–. De acuerdo con los relatos posteriores, cuando los romanos sitiaban Siracusa entre 214 y 212 a.C. Arquímedes empleó todo tipo de argucias científico-ingenieriles para ponerles freno. Tanto es así que, al parecer, cuando los barcos romanos veían cualquier signo de vigas, poleas, espejos u otros artilugios sospechosos sobre las murallas de la ciudad, ponían pies en polvorosa.

Espejos de Arquímedes
Grabado de los espejos de Arquímedes, en la Óptica de Alhacén de la que hablaremos luego.

Entre las faenas de Arquímedes contra los romanos parece haber estado el uso de la luz del Sol, reflejada de alguna manera. Las historias más fantasiosas hablan de la concentración de rayos solares sobre los barcos hasta hacerlos arder, aunque conseguir esto es realmente difícil. Versiones más moderadas hablan del uso de espejos no para quemar los barcos, sino para deslumbrar a los marineros y hacerlos menos eficaces. Muy probablemente Arquímedes dispuso muchos espejos –seguramente escudos de bronce o similares– apuntando al mismo barco y consiguiendo así enfocar la luz solar hasta cierto punto. Sea como fuere, no se trató tanto de una especulación teórica sobre la naturaleza de los rayos solares como un uso práctico de la reflexión –que es uno de los fenómenos luminosos más fáciles de predecir y explicar–.

Quien sí fue un teórico de tomo y lomo y propuso una idea nueva y diferente de la de los helenos fue otro científico de la Antigüedad, en este caso un romano. Se trataba de un atomista, Tito Lucrecio Caro. Alrededor de 55 a. C. este individuo de intuición maravillosa, en su De rerum natura (Sobre la naturaleza de las cosas), dice más o menos esto (no es una cita, pues el original es un poema algo farragoso, sino que está dicho con mis pobres palabras):

Los objetos más ligeros y sutiles, compuestos de los átomos más pequeños, son a menudo los que se mueven más rápido. Esto sucede con la luz y el calor del Sol, formados por minúsculas partículas que se mueven sin impedimento a través de los intersticios del aire, golpeados a su vez por los que vienen detrás.

Como digo, esto es de una intuición que deja la boca abierta. En la concepción de Lucrecio –una vez más indemostrable por experimento alguno que pudiera realizarse en el siglo I a.C.–, a diferencia de la de Aristóteles, la luz está formada por minúsculas partículas que se mueven a una velocidad gigantesca. Sí, está equivocado al pensar que unas partículas se mueven empujadas por las que vienen por detrás, pero la conjetura del romano me deja sin palabras.

El siguiente en decir algo novedoso sobre la luz fue otro genio, Herón de Alejandría, que vivió en el siglo I d.C. Nos encontramos ya, por tanto, en la época helenística, pero sigue siendo la misma cultura la que avanza en el conocimiento de la luz –y en casi todos los demás, para qué vamos a engañarnos–. En su Catoptrica el alejandrino examinó cuidadosamente la propagación de la luz, la reflexión y la trayectoria de los rayos luminosos. Su principal contribución fue una forma primitiva del principio del mínimo camino óptico (posteriormente llamado principio de Fermat): un rayo de luz que se propaga por un mismo medio seguirá el camino más corto entre dos puntos dados.

Esto puede sonar como una estupidez, pero el de Alejandría no sólo se refiere al hecho de que el camino más corto entre los puntos A y B es una recta y por lo tanto la luz se propaga en línea recta. No: Herón incluye en este principio la luz que se refleja en uno o más espejos, y esto supone un avance fundamental en el modo de mirar el problema, si no en las conclusiones.

La mejor manera de comprender la relevancia del principio de Herón es con un ejemplo. Si, por ejemplo, sabemos que un rayo de luz parte de A y llegará a B tras reflejarse en un espejo en algún punto C, ¿cuál será ese punto C? ¿Será C1, C2 o C3? Cada punto determinaría una trayectoria diferente para el rayo:

Camino más corto

Si se miden las tres longitudes, la que pasa por C2 es la más corta de las tres, de modo que de acuerdo con el alejandrino ésa será la trayectoria del rayo. Dicho en términos más modernos, el ángulo con el que incide la luz sobre el espejo es idéntico al ángulo con el que se refleja. Pero la importancia de este principio de mínimo recorrido de Herón es doble por lo que significa, sobre todo por la segunda razón:

  • Suponer que la luz sigue una trayectoria sugiere que Herón pensaba que era algo que se movía, aunque fuera incapaz de determinar su velocidad.

  • Supone el primer tratamiento matemático del comportamiento de la luz que produce una predicción concreta. En esto, como en muchas otras cosas, Herón fue único para su época. Este punto merece que nos detengamos en él.

Donde los filósofos anteriores habían especulado de manera cualitativa, Herón realiza una predicción concreta, medible y comprobable experimentalmente: basta tomar una fuente de luz, asegurar que incide sobre cierto punto tras reflejarse en un espejo y luego verificar en qué punto del espejo se produce la reflexión –existen varias maneras de hacer esto y dejo al paciente lector que piense en alguna para ejercitar las neuronas–.

Desde luego, Herón es incapaz de explicar por qué la luz hace eso, ni tampoco predice qué sucederá si la luz se refracta entrando en el agua o en un cristal, pero el paso hacia delante ya se había dado. No hacía falta más que continuar el camino marcado por él.

Curiosamente el siguiente paso fue dado casi inmediatamente después y exactamente en el mismo sitio, Alejandría –lo cual no es sorprendente ya que por entonces esa ciudad era el centro de la ciencia mundial–, por otro científico muy conocido: Claudio Ptolomeo. Como parece estar siendo frecuente en este artículo, Ptolomeo es mucho más conocido por algo diferente, su modelo geocéntrico del Universo como modificación de los anteriores. Sin embargo, el de Alejandría se dedicó también a muchas otras cosas, y entre ellas al estudio de la óptica.

Al igual que Herón, Ptolomeo se limitó a describir cómo se comporta la luz en ciertas situaciones, no a especular sobre por qué lo hace. Por lo tanto podríamos llegar a la conclusión –errónea en mi opinión– de que no aportó nada al estudio de la naturaleza de la luz. Sin embargo, la descripción detallada y minuciosa de un fenómeno es uno de los pasos esenciales para comprender las razones que hay detrás. La clave es recordar que la Ciencia es un proceso colectivo: que uno no consiga extraer las conclusiones no quiere decir que no pueda establecer las bases sobre las que otro –con mejores herramientas, más capacidad o simplemente más suerte– pueda llegar al final de la carrera.

Claudio Ptolomeo publicó un tratado, Óptica, en el que muestra el mismo estilo que en casi todo lo demás que hizo: no plantea ideas nuevas o revolucionarias, pero perfecciona lo que existía anteriormente. En cierto sentido es un compilador de conocimientos anteriores, pero también filtra, aclara, detalla y en algunos aspectos –no muchos– amplía. Nuestra inmensa fortuna es, por un lado, que esta obra fue traducida al árabe –y volveremos a mencionarla precisamente por eso dentro de un rato–, de modo que la conservamos hoy en día.

Por otro, Ptolomeo es una fuente extraordinaria para conocer el “consenso científico” de la época. Imagina el lugar: Alejandría era el centro de conocimiento académico absoluto en el mundo, y su Biblioteca contenía las mejores referencias en prácticamente todo. Desde luego, en cuanto a libros de filosofía natural no existía absolutamente nada que pudiera comparársele. Además, allí se congregaba un número sin igual de científicos –atraídos, en gran medida, precisamente por la misma Biblioteca– que discutían sobre prácticamente todo.

Por lo tanto, la Óptica de Ptolomeo es un lugar estupendo donde detenernos un momento para comprender la visión general de los científicos del siglo I d.C. acerca de la luz –y esto es importante porque no habría otro avance hasta el siglo X–. Aunque había pequeños desacuerdos, las ideas generales eran las siguientes:

  • La luz es emitida por fuegos diversos, divididos en dos tipos: el del interior del ojo y los objetos calientes.

  • Esa luz se transmite en línea recta siempre que no cambie de medio, ya que si lo hace cambia de dirección (aquí fue donde Ptolomeo hizo su propia contribución, de la que hablaremos en un momento).

  • La visión se produce cuando los rayos internos emitidos por el ojo interaccionan con los externos emitidos por otros fuegos.

  • La posición de las cosas es determinada por el ojo dependiendo del ángulo que forman los rayos internos unos con otros.

  • La naturaleza de las cosas –por ejemplo, su color– es determinada por el ojo dependiendo de la naturaleza de los rayos externos con los que interaccionan los internos.

En lo que Ptolomeo avanzó sin duda más allá que Herón fue en el estudio de lo que le sucede a la luz al cambiar de medio, es decir, al sufrir refracción, por ejemplo en el paso del aire a un vidrio o al agua y viceversa. Como recordarás, Herón se había limitado a determinar el comportamiento de la luz reflejada, no refractada.

Lo mismo que Herón, Ptolomeo desafía nuestra imagen del científico griego –y por más que vivieran en el moderno Egipto y en una época más bien tardía, ambos eran de cultura griega–: realizó multitud de cuidadosos experimentos. A diferencia de Herón, Ptolomeo no enunció sus leyes en función de la distancia recorrida por los rayos, sino del ángulo. Para determinar los ángulos que formaban los rayos con las diversas superficies –dentro y fuera del agua, por ejemplo– construyó recipientes con muescas equiseparadas.

Los cuidadosos experimentos de Ptolomeo lo llevaron a varias conclusiones. Por un lado, se dio cuenta de que el cambio de dirección de los rayos tenía que ver con la densidad de los materiales. Si el cambio de densidad de un medio a otro era ligero (por ejemplo, del agua al vidrio o viceversa) el cambio de dirección también lo era, mientras que si el cambio de densidad era brusco (como del aire al agua o al revés) el rayo cambiaba de dirección también bruscamente.

Claudio Ptolomeo
Claudio Ptolomeo, en un grabado barroco.

Aunque Ptolomeo realizó meticulosas tablas con los ángulos de incidencia y refracción, no consiguió una ley matemática que relacionase ambos. Si el rayo era casi perpendicular a la superficie de separación de los medios, los ángulos de incidencia y refracción parecían ser casi proporcionales, pero esta proporcionalidad se perdía para ángulos más grandes. Desde luego, el de Alejandría no sabía por qué pasaba esto, pero su trabajo sirvió de trampolín para científicos posteriores.

Desgraciadamente hay muy poco que contar entre el siglo I y el X. Hubo que esperar a que surgiera una nueva Alejandría, en el sentido de un centro de saber y discusión en el que germinase nuevo conocimiento, y ese lugar fue Bagdad. Allí, durante el esplendor abásida, multitud de científicos recuperaron gran parte del saber griego –entre otras cosas la Catoptrica de Herón y la Óptica de Ptolomeo– y, además de guardar nuevas copias para la posteridad, realizaron sus propios avances.

Estos científicos musulmanes no dieron importancia, como casi nadie antes, a la hipótesis atomista de Lucrecio, y siguieron considerando la luz como rayos –nada más allá– que se propagaban en línea recta por el espacio, lo mismo que Ptolomeo. Para que te hagas una idea de la importancia que dieron los califas abásidas a las obras griegas en general y a Ptolomeo en particular, en uno de los tratados que firmaron con el Imperio Bizantino aparecía el siguiente punto: Constantinopla proporcionaría a la Casa de la Sabiduría de Bagdad –el equivalente a la Biblioteca de Alejandría– una copia del Almagesto de Ptolomeo. ¡Era un tesoro de tal categoría que era utilizado en la negociación política!

De modo que Ptolomeo se convirtió en la base de la concepción abasí sobre la luz. Sin embargo, el consenso entre ellos eliminó una parte de la teoría híbrida de absorción-emisión de Ptolomeo y sus coetáneos: de acuerdo con los científicos de Bagdad del siglo X, la visión se debe únicamente a la entrada en el ojo de rayos luminosos. Ya no hay rayos emitidos por los ojos.

Además, casi todos estaban de acuerdo en que la luz se propagaba por el espacio, no como pensaba Aristóteles que inundase todo instantáneamente. Uno de ellos, Abū Rayhān al-Bīrūnī, aunque fue incapaz de medir la velocidad de la luz, postuló una hipótesis muy razonable: ya que al observar un fenómeno más o menos lejano, como un rayo, se ve el suceso antes de oírlo, la luz debe ser muchísimo más rápida que el sonido.

Otro, Abu Saʿd al-ʿAlaʾ ibn Sahl, enunció utilizando triángulos rectángulos y las relaciones entre catetos e hipotenusas la ley de la refracción, que desgraciadamente conocemos hoy como ley de Snell (luego veremos en honor a quién). Ibn Sahl detalló el diseño y construcción de espejos parabólicos, lentes biconvexas y planoconvexas y, en general, desarrolló la óptica de Ptolomeo hasta límites que hubieran hecho salivar al alejandrino.

Dibujo de la ley de refracción de Ibn Sahl
Diagrama de refracción del manuscrito de Ibn Sahl, publicado en 984.

Mucho más importante que los dos anteriores fue Ibn al-Haytham, más conocido en Occidente como Alhacén. Escribió entre 1011 y 1021 un tratado de óptica en siete volúmenes, traducido al latín como Opticae Thesaurus, algo así como Enciclopedia de Óptica, que supuso la desaparición absoluta de la idea de rayos emitidos por el ojo.

Alhacén argumentó de la siguiente manera: es posible comprobar situaciones en las que rayos luminosos externos dañan al ojo, por ejemplo al mirar una luz muy brillante. Sin embargo, nadie ha observado jamás que los rayos del interior del ojo alteren en modo alguno lo que hay fuera de él al mirarlo. Por lo tanto no hay razón que haga pensar que el ojo emite nada, y muchas para pensar que los objetos externos emiten algo.

Además, Ibn al-Haytham diferenció dos tipos de luz: la luz primaria y la luz secundaria. Los objetos que brillan por sí mismos emiten el primer tipo. Todos los demás objetos, al recibir luz primaria, emiten a su vez luz secundaria –cuánta y de qué tipo depende de la naturaleza de cada objeto–. Aunque podemos ver ambas con el ojo, no es posible que exista la luz secundaria sin que lo haga la primaria, de modo que ésta es necesaria para la visión.

Libro de óptica de Alhacén
Portada de una traducción al latín del séptimo volumen de la Óptica de Alhacén, en una edición de 1574.

Alhacén fue incluso más allá: dado que infinitos rayos luminosos entran en el ojo, ¿cómo es posible que veamos imágenes nítidas y no un batiburrillo de luz difusa? Porque los rayos que inciden sobre el ojo lo hacen con diversos ángulos, y sólo los que penetran perpendicularmente a la córnea pueden alcanzar el fondo del ojo; los otros se refractan dentro y no alcanzan el final del camino. No me negarás que, independientemente de la corrección de sus conclusiones, el tipo no era de un genio extraordinario. Más importante que las conclusiones, por supuesto, es el hecho de que Alhacén las basaba en observación y razonamiento.

¿Qué hacían los europeos mientras Bagdad publicaba colecciones enteras de óptica? Poco más que traducirlas al latín. No es que nadie hablase sobre el asunto –lo hicieron John Pecham, Roger Bacon, Vitelo y otros–, pero realmente no merece la pena siquiera que nos detengamos en lo que dijeron. Sus ideas, aunque influenciadas por los científicos musulmanes, estaban mezcladas con neoplatonismo, superstición y filosofía barata, y no tenían suficiente rigor, base empírica ni fundamento en la razón.

Irónicamente, con el tiempo la ciencia islámica declinó y fue en gran medida ahogada por el fundamentalismo religioso, mientras que en Europa sucedió exactamente al contrario y la libre discusión de ideas filosóficas y científicas fue en aumento, especialmente a partir del Renacimiento. También irónicamente la herencia griega no llegó a Europa occidental desde la propia Grecia –a través de Constantinopla–, sino de traducciones del árabe que habían sido, a su vez, traducidas del griego. Lo bueno de esto es, por supuesto, que las concepciones de los libros en árabe eran refinamientos de las griegas, con lo que nuestra base fue más sofisticada de lo que hubiera sido de otro modo.

El incomparable Galileo Galilei, de hecho, hizo un intento por avanzar en la idea de al-Bīrūnī de que la luz viaja más rápido que el sonido. El italiano diseñó un experimento para medir la velocidad de la luz, el primero del que tengo noción. Si eres tamicero añejo has leído ya largo y tendido sobre Galileo, y no tengo que repetir aquí mi admiración por él. En este caso fracasó, pero se trataba de un problema muy difícil y su intento es de todos modos tan delicioso que lo tengo que contar.

Galileo pensó en lo siguiente: mirar un suceso lejano, como hizo al-Bīrūnī, y comprobar que lo vemos antes de escucharlo, sólo lleva a la conclusión de aquél, es decir, que la luz es más rápida que el sonido. Galileo habla de esto en su inefable Discorsi e dimostrazioni matematiche, intorno à due nuove scienze (Discursos y demostraciones matemáticas en torno a dos nuevas ciencias). Allí menciona el caso de un disparo de cañón y el tiempo que pasa entre ver la llamarada y oír el disparo.

¿Cómo medir la velocidad de algo como la luz que es más rápido que cualquier otra cosa conocida? Galileo dio con la solución. Su experimento consistía en tomar dos linternas cubiertas, y llevar una a una gran distancia de la otra. Un experimentador descubriría su linterna al mismo tiempo que empezaba a contar el tiempo; cuando el otro viera la luz descubriría la suya, y cuando el primero viera la luz del segundo detendría la cuenta del tiempo. De este modo, el tiempo que transcurriese medido por el primer observador permitiría, conocida la distancia entre las dos linternas, calcular la velocidad de la luz.

Galileo Galilei
Galileo Galilei (1564-1642).

Galileo no tuvo éxito por más lejos que puso las linternas, entre otras cosas porque no disponía de relojes lo suficientemente precisos. No pudo más que llegar a la conclusión de que era algo muy, muy rápido. Pero ¿no es magnífico su razonamiento? Introduce la experimentación cuidadosa, el cálculo matemático para alcanzar conclusiones y, en mi opinión, lo más grande de la idea: medir la velocidad de algo más rápido que cualquier otra cosa sin recurrir a nada más que el propio fenómeno que estamos observando. Como siempre, este sinvergüenza de Pisa me deja sin palabras.

Otro científico de principios del XVII dedicado al estudio de la luz fue el holandés Willebrord Snellius. Francamente, no mencionaría a Snellius si no fuese porque, a pesar de ser sólo uno de los que obtuvo lo que hoy conocemos como ley de la refracción, por alguna razón en casi todo el mundo se la conoce como ley de Snell en su honor. Ya hemos dicho antes que Alhacén la obtuvo unos cuantos siglos antes que él –aunque algunos científicos europeos no la conocían–. Además, versiones equivalentes a la de Snellius fueron obtenidas casi al mismo tiempo por Descartes y Fermat. Pero, a veces, la historia de la ciencia es así de injusta, y Snellius ha recibido el crédito –aunque creo que en Francia se la conoce como ley de Descartes–.

Snellius no es muy importante en esto –menos aún que Galileo– porque intentó determinar cómo cambiaban los rayos de luz al cambiar de medio, pero no atacó el problema fundamental: ¿qué eran esos rayos?

A eso se dedicó precisamente René Descartes, pero aquí surge el primer duelo entre hipótesis luminosas de la ciencia moderna –el primero de varios–, ya que otro francés, Pierre Gassendi, propuso una idea opuesta a la de Descartes. De ese primer duelo, Descartes versus Gassendi, y de muchas otras cosas más, hablaremos en la segunda parte del artículo, si es que aún te quedan ganas.

23 Jun 20:19

Polvo fractal con dimensión entera

by Salvador Ruiz Fargueta

Como comentaba en el post sobre el “Vacío cuántico, vacío fractal ”,  la existencia del cuanto de acción ha destruido por completo la propia noción de trayectoria clásica.

Laurent Nóttale complementó la definición de Richard Feynman (1965) y A. Hibbs sobre las trayectorias virtuales típicas de una partícula cuántica, indicando que los caminos cuánticos posibles son, en número infinitos, y todos son curvas fractales caracterizadas por una propiedad geométrica común: su dimensión fractal es 2.

En algunos foros he leído que no se entendía bien lo de la dimensión fractal entera, en este caso 2, pero tal como indicaba en la expresión general de la dimensión fractal:

Dimensión fractal = dimensión topológica + factor dimensional


( El factor dimensional, siempre positivo, es tanto mayor cuanto más irregular es el fractal: indica la capacidad de ocupar más espacio del que indica su propia dimensión topológica)

Si el factor dimensional es entero, también lo será la dimensión fractal. Eso es lo que ocurre con las trayectorias virtuales en mecánica cuántica y también en una serie de fractales típicos, como puede ser el fractal del movimiento browniano en un plano (dimensión fractal 2)  o la curva de Peano (dimensión fractal 2) que tiene más de 100 años de existencia.


Si una curva clásica tiene dimensión topológica 1, cuando hablamos de curvas fractales con una dimensión  entre 1 y 2 estamos indicando que son capaces de ocupar parte del plano. Y es precisamente esa capacidad la que viene expresada por el factor dimensional.  En el caso de la curva de Peano o del movimiento browniano, en el límite, ocupan todo el plano, de ahí que su dimensión fractal sea 2 , la propia dimensión del plano.



Como ejemplo, todavía más llamativo, observamos en la figura un fractal clásico
 (el primero que se conoce), el polvo de Cantor que toma toma su nombre de Georg  Cantor  que en 1883 lo utilizó como herramienta de investigación para una de sus principales preocupaciones: el continuo.





A partir de una recta se le van quitando los segmentos centrales hasta conseguir una serie infinita de puntos aislados, de ahí el nombre de polvo. Si restablecemos de forma escalonada  el segmento que antes le quitábamos, el nuevo fractal sigue  teniendo estructura quebrada y autosemejante , pero ahora en lugar de tener una dimensión fractal igual a log 2/ log 3 tiene una dimensión entera: log 3/ log 3 =1. Nos ayuda, también,  a entender como se calcula, de forma práctica, la dimensión fractal de una figura.



Esta otra figura es una síntesis de dos de los fractales clásicos, Koch  y  Cantor, y nos ayuda de forma intuitiva a entender el cálculo de su dimensión fractal. En la figura original de Koch, sobre los segmento A1-B1-D1-E1 se construye  la figura que forman los segmentosA-B-C-D-E. Su dimensión fractal es  log 4/ log 3  ( cuatro segmentos sobre tres). En la nueva construcción se ha sustraido 1/4 de cada uno de los segmentos superiores para dejar 4 segmentos de longitud 3/4: al final son 3 sobre 3 (log 3/ log 3 = 1).

Se pueden construir infinidad de fractales con dimensión entera y, precisamente, esa irregularidad que representa una dimensión fractal entera en un fractal creo que nos ayuda a entendelos mejor.

NOTA: Este post se publicó también en la revista Ciencia Abierta de la Universidad de Chile, en el número 31, sección de Educación, artículo nº 14 de dicha sección. Allí se añadió una parte más sobre la llamada dimensión de Hausdorff-Besicovitch:


En 1975 Benoit Mandelbrot publicó un ensayo titulado” Los objetos fractales: forma, azar y dimensión”. En la introducción comentaba los conceptos de objeto fractal y fractal como términos que había inventado a partir del adjetivo latino “fractus” ( roto, fracturado). Posteriormente, en 1982, publicó el libro “The Fractal Geometry of Nature”, en donde proponía : “Un fractal es, por definición, un conjunto cuya dimensión de Hausdorff-Besicovitch es estrictamente mayor que su dimensión topológica.”

De forma simplificada, esa dimensión tan rara se podría entender de la siguiente manera: Una línea recta de longitud N queda recubierta por un número N de segmentos de longitud unidad. Podemos expresarlo diciendo que longitud_línea = N(+1). Un cuadrado con lado N queda recubierto por N2 pequeños cuadrados de lado la unidad. De forma similar a la línea se puede expresar que superficie_cuadrado = (N)(+2). Sabemos que una línea recta tiene dimensión topológica 1 y una superficie dimensión 2. Para
recubrirlos necesitamos un elemento similar pero más pequeño ND veces (en estos ejemplos de magnitud unidad). En general, el exponente D , generalizado a cualquier objeto, representa la dimensión de Hausdorff-Besicovitch del objeto.

Han sido propuestas otras definiciones y, de hecho, estamos ante un concepto geométrico para el que aún no existe un una definición precisa, ni una teoría única y comúnmente aceptada.

Kenneth Falconer, en su obra titulada “Fractal Geometry: Mathematical Foundations and Applications”, en 1990, describe un concepto de estructura fractal ‘F’ como la que satisface alguna(s) de las propiedades siguientes:
(1).- “F” posee detalle a todas las escalas de observación;
(2).- No es posible describir “F” con Geometría Euclidiana, tanto local
como globalmente;
(3).- “F” posee alguna clase de autosemejanza, posiblemente estadística;
(4).- La dimensión fractal de “F” es mayor que su dimensión topológica;
(5).- El algoritmo que sirve para describir “F” es muy simple, y
posiblemente de carácter recursivo.

En resumen, una técnica análoga a la que los biólogos aplican al concepto de vida.

Cuando observamos un fractal, de hecho, apreciamos algo que nos es familiar, más cercano que las perfectas figuras geométricas clásicas que nos han enseñado en el colegio.

Las ramificaciones de los árboles, las roturas imperfectas de una montaña o una costa, la disposición de la máxima superficie en un mínimo espacio de nuestro tejido pulmonar...

Los fractales nos acercan a la compleja "simplicidad" de la Naturaleza.
24 May 20:26

Cierra el mayor cine de Barcelona

Gilbmartinez

Una pena!

El histórico cine Urgel, propiedad del Grupo Balañá, cerrará sus puertas el próximo 30 de mayo, por falta de rentabilidad económica de la sala, que, con 1.832 butacas, es la más grande de Barcelona, según han informado fuentes del sector de la exhibición. Más detalles sobre el cierre de esta sala, en HoyCinema.com ...
11 May 12:25

Sábado, reseña: “Hasta el infinito, y más allá” de Clara Grima y Raquel García Ulldemolins

by emulenews

Dibujo20130511 Hasta el infinito y mas alla - book cover - clara grima y raquel garcia

—¡Toma, toma, toma! ¡Cómo mola! —como diría el pequeño Ven. Hay muchos libros titulados “Hasta el infinito, y más allá” pero el de Clara Grima y Raquel García Ulldemolins, editado por Espasa, es único por muchas cosas. Gracias a las (mate)aventuras de Ven(tura), Sal(vador) y su fiel compañero canino Gauss, niños y adultos disfrutarán acercándose a las matemáticas desde un punto de vista muy diferente al habitual. “Un libro para todos aquellos que temen a las Matemáticas,” complemento ideal a “El Diablo de los Números” de Hans Magnus Enzensberger. Este estupendo libro de Clara y Raquel, que recomiendo a todos los lectores, es un regalo ideal para ocasiones especiales y, por qué no, para todas las ocasiones. ¿Aún no lo has leído? ¡A qué estás esperando!

El libro empieza por el más difícil todavía: “Perdona, Buzz, pero después del infinito no hay nada.” Qué padre no ha tenido que contestar a las preguntas ¿qué es el infinito? y ¿qué hay más allá del infinito? que se realizan todos los niños tras oír a Buzz Lightyear en la saga Toy Story de Disney Pixar. Un concepto difícil que se ilustra en el libro gracias al hotel de Hilbert en “¡Mi infinito es más grande que el tuyo!” Muchos padres disfrutarán con este capítulo, aunque creo que para muchos niños será un inicio muy duro. Yo hubiera empezado el libro con algo más ligero, más gráfico, quizás con “¿Qué es eso que dibujas Mati? ¡Ese caramelo es mío!” sobre los diagramas de Voronoi, famosos en España gracias a “¿Está Voronoi? Que se ponga,” “Cada uno en su región y Voronoi en la de todos” y por supuesto a ”Mati y sus mateaventuras.”

Sigue el libro por un camino difícil para los niños, con “Mati, ¿estás segura de que π no es racional?,” y con “Voy a leerte la mente, abuela.” Los matemáticos disfrutan explicando la evolución del concepto de número, pero conceptos tan abstractos como el de número real o el de números binarios, propios del siglo XIX, me parece que deberían formar parte del final del libro y no del principio, pues pueden desanimar a muchos lectores potenciales.

Muchos de los tópicos presentados en el libro son muy conocidos, pero se presentan con tal frescura que se disfrutan como si fuera la primera vez. En “Flores, palacios y números” se discuten el número aúreo, “No te creo Mati, ¿cómo va ser un número de oro?,” y la sucesión de números de Fibonacci, “Una flor, otra, dos flores.”

Clara Grima investiga en geometría computacional en la Universidad de Sevilla, por lo que tiende a poner ejemplos de teoría de grafos con los que disfrutarán grandes y pequeños. “Cómo voy a salir del laberinto sin el hilo?,” “¡Ese caramelo es mío!” y “¿Por qué no hay un poli en cada sala?” son claros ejemplos. Tópicos modernos e interesantes con los que disfrutarán incluso los estudiantes de ciencias matemáticas y los profesores de matemáticas podrán incorporar con facilidad a sus clases. Todo ello sin olvidar temas muy populares en la divulgación matemática como los tratados en ”Pues vaya lío de puentes, ¿no?” y “¿Sólo con 4 colores?” En este último caso yo hubiera retado a los lectores más jóvenes a resolver un problema más sencillo que el famoso mapa de 1 de abril de Martin Gardner, como por ejemplo el siguiente.

Dibujo20131011 four color map

En casa todos hemos disfrutado del libro, pero no todo pueden ser piropos. “Antes de empezar…” nos dice Mati que “a mucha gente no le gustan las palabras esdrújulas” como matemáticas. Sin embargo, el libro abusa de ellas y sobre todo del sufijo “-mente.” Estas palabras dificultan el ritmo de la lectura y deben ser evitadas para lograr una lectura más ágil, sobre todo, en mi opinión, para libros dirigidos a niños y jóvenes. Cuando yo leí por primera vez “respondió vehementemente” me quedé sorprendido. Muchos lectores tendrán que recurrir al diccionario para saber qué es la “vehemencia” o algo “vehemente” (términos aplicados muchas veces al estado emocional del pequeño Ven). Yo hubiera escrito “respondió vehemente” o incluso hubiera evitado este término adulto. Hay muchos más ejemplos como “Gauss miraba atentamente,” que yo hubiera cambiado por “Gauss miraba atento,” o “números correspondientes entre 64 y 127″ que yo hubiera acortado a “números entre 64 y 127″ sin pérdida de significado.

Yo hubiera hecho una buena revisión del lenguaje utilizado, tratando que fuera menos adulto y más ágil. Hay muchos pequeños cambios que en una segunda edición se podrían corregir con facilidad. Por cierto, el libro presenta pocas erratas, aunque destaca el “2 + x 0,08″ en la fórmula de la página 42.

En resumen, me ha gustado mucho este pequeño libro de popularización de las matemáticas. Su módico precio hará las delicias de quienes quieran regalar el mejor regalo posible: un poco de cultura matemática.


Archivado en: Ciencia, Libros, Matemáticas, Mathematics, Noticias, Recomendación, Science Tagged: Ciencia, Libros, Matemáticas, Noticias, Popularización, Reseña
07 May 10:40

Supersimetría… ¿ande andas?

by Cuentos Cuánticos

La supersimetría no aparece por ningún sitio. Esto es algo inquietante para los físicos, al menos para mí, por varios motivos. En esta entrada vamos a encontrarnos con estos motivos, con el origen y significado de la supersimetría y con la pregunta de qué pasará si no encontramos pruebas de dicha simetría.

El caso es, en mi opinión, que si la naturaleza ha decidido no usar esta simetría debería de reconsiderarlo.

La idea de la supersimetría

Se llama supersimetría a la hipotética relación que existen entre bosones y fermiones.  En la naturaleza encontramos que las partículas tiene una característica denominada espín. Este espín puede tomar valores enteros y semienteros. La diferencia entre bosones y fermiones es que los bosones son las partículas de espín entero y los fermiones las partículas de espín semientero (entrada: Bosones y Fermiones esos famosos desconocidos).

La supersimetría nos dice que todo bosón/fermión tiene asociado un fermión/bosón.

Si quieres ver una deducción formal (pero creo que facilita) sobre esta relación: Supersimetría en acción.

El problema es que la supersimetría, aplicada tal cual se define, nos dice que por cada bosón/fermión deberíamos de encontrar un fermión/bosón con exactamente la misma masa.  Y esto no es lo que vemos a nuestro alrededor, nosostros conocemos los electrones (que es un fermión) pero no encontramos ningún bosón de la misma masa que el electrón asociado con él por una transformación supersimétrica.

Así que nos encontramos en la siguiente situación:

  • La supersimetría nos obliga a aceptar que tenemos el doble de partículas fundamentales que las que conocemos.

  • Estas partículas compañeras supersimétricas de las usuales no se han visto. Esto quiere decir que sus masas no son iguales, las partículas supersimétricas tienen que ser mucho más pesadas que las usuales y por eso aún no se han producido en los aceleradores.

Los físicos se refieren a esto con el término “rotura de la simetría”. De algún modo, una simetría que debería de estar presente, (y que se notaría porque tendríamos pares bosón/fermión relacionados por supersimetría y de la misma masa), no lo está y como consecuencia los miembros supersimétricos del par son de una masa mucho mayor que las partículas usuales.

Origen y necesidad de la supersimetría

Originalmente la supersimetría se introdujo en física porque en las primeras versiones de la teoría de cuerdas únicamente se podían describir bosones. Esto no está nada bien para una teoría que pretende describir nuestra física ya que sabemos que los fermiones están entre nosotros y abundantemente.  Entonces, al introducir la supersimetría la teoría de cuerdas pudo dar cabida tanto a bosones como a fermiones y como efecto colateral el número de dimensiones en las que la teoría de cuerdas era consistente bajó de 26 a 10.

Pero la supersimetría no es exclusiva de la teoría de cuerdas, hoy día hay muchos modelos no cuerderos que la emplean. Valgan como ejemplo:

  1. La supersimetría nos ayuda a entender los efectos de mezcla y las masas de los fermiones y los neutrinos. De hecho hay cálculos en modelos supersimétricos en teoría de gran unificación que nos dicen que el neutrino ha de tener una masa $10^{-2}$eV.
  2. Partículas supersimétricas pueden ser las que conformen la materia oscura.
  3. El cálculo de la constante cosmológica en teoría cuántica de campos con supersimetría pudiera explicar qué es eso de la energía oscura y por qué su densidad es positiva y muy cercana a cero.
  4. En teoría cuántica de campos la supersimetría explicaría por qué el Higgs tiene una masa bajita a pesar de que lo que se esperaría sería una masa muy, muy alta. (Hablamos de esto en: Jerarquías, dimensiones y radones. Segunda entrega)

La supersimetría no es un elemento que queramos imponer al universo porque nuestras teorías quedan bonitas. Es que sería muy difícil entender por qué esta simetría de las leyes físicas no se ha realizado en la naturaleza. Generalmente, hasta la fecha, se ha verificado eso de “Si algo no está totalmente prohibido entonces seguro que ocurre”.

Los problemas con la supersimetría

Los problemas con esta simetría se pueden establecer en:

Aún no la hemos visto

A pesar de todos los esfuerzos, aún no hay confirmación experimental de las partículas supersimétricas.  Esto quiere decir que de existir tales partículas la más ligera de las mismas tiene una masa superior a la energía que se están produciendo en las colisiones de partículas actualmente en el LHC.

Si la supersimetría no se viera en el LHC cuando se incremente su energía no podríamos excluirla del todo, aunque quedaría muy mal parada. Cada vez existen más cotas indirectas de la masa que deberían de tener las partículas supersimétricas y, se supone, que el LHC debería de ver algo.

Los leptones y los bariones no se conservan

En el modelo estándar los leptones (partículas que no sienten la interacción fuerte) y los bariones (partículas que sí sienten dicha interacción y están formadas por tres quarks) se conservan. Es decir, que si en una colisión empezamos con un número de leptones y de bariones el resultado final contendrá los mismos números de estas clases de partículas. (Para la definición de número leptónico y bariónico: Partícula que bien te conservas).

Al introducir supersimetría esta característica se pierde. Esto es potencialmente peligroso porque gracias a la conservación del número bariónico sabemos que el protón (que es un barión) es estable ya que no hay ningún barión de menor masa al que pueda decaer.  Pero si el número bariónico no se conserva el protón puede decaer a otro tipo de partículas. Sin embargo, las medidas experimentales sobre la vida media del protón imponen cotas muy fuertes a este comportamiento (la vida del protón es comparable a la edad del universo).

¿Cómo se rompe la supersimetría?

El problema de que no veamos partículas supersimétricas de las usuales se resuelve diciendo que la supersimetría está rota. Entonces tenemos que responder la pregunta acerca de qué rompe esta simetría. Hay dos posibilidades, o es por efectos gravitatorios o es por efectos no-gravitatorios.

Pero tenemos cuestiones por resolver, si la cosa se rompe gravitatoriamente entonces tenemos problemas para explicar la rotura de simetría CP. Esta es la responsable de que la materia domine sobre la antimateria en nuestro universo y cada vez está mejor entendida y estudiada experimentalmente, lo cual también acota la supersimetría. Si la rotura es no-gravitatoria podemos solventar el problema de la simetría CP (y de otros relacionados) pero entonces habría problemas con el valor predicho para la constante cosmológica.

Pesadilla en Higgs Street

Actualmente podemos decir que tenemos una partícula de Higgs. Esto es bueno porque confirma la teoría pero tiene puntos malos:

a) Si no encontramos nada más estaremos en problemas en física porque no habrá forma de entender por qué no hay nada más y por qué el modelo estándar funciona tan bien aunque no se considere una teoría final.

b)  No encontrar supersimetría implicaría que no entenderíamos por qué el Higgs (y las partículas que adquieren masa con él) es tan ligero comparado con la masa de Planck. Tenemos otros modelos, por ejemplo dimensiones extra o modelos tecnicolor. Pero ni hemos visto dimensiones extra más allá de las usuales y el resto de modelos están casi completamente descartados por el experimento.

Sinceramente espero que se encuentre algo más en el LHC o será difícil construir un acelerador mayor y por tanto más costoso. Además de estar en muchos problemas para descubrir qué es la energía y la materia oscura.  Espero que la supersimetría aparezca, y esto solo es un deseo personal, porque es una simetría elegante que haría que nuestro entendimiento de la naturaleza fuera elegante y más completo.

Referencias

Physicistis’ nightmare scenario: The Higgs and nothing else

Un artículo divulgativo, en inglés, donde se tratan los temas asociados a encontrar únicamente el Higgs del modelo estándar en el LHC.

Supersymmetry and other scenarios

Conferencia semidivulgativa de E. Witten sobre la supersimetría sus bondades y sus defectos.

Hoy me dio por ser honesto

Entrada del blog en las que discutimos algunos aspectos mencionados en esta ocasión.

Nos seguimos leyendo…

 


Archivado en: modelo estándar y extensiones, partículas elementales, supersimetría, teoría cuántica de campos Tagged: bosón de Higgs, bosones, fermiones, GUT, LHC, número bariónico, número leptónico, problema de la jerarquía, supersimetría, teorías de gran unificación

07 May 09:41

Francis en Trending Ciencia: Mitos sobre el bosón de Higgs

by emulenews
Gilbmartinez

Para leer detenidamente

Dibujo20130314 peter higgs

Ya puedes escuchar mi nuevo podcast sobre Física para Trending Ciencia. Permíteme una transcripción escrita del audio.

El año 2012 pasará a los anales de la historia de la física por el descubrimiento del bosón de Higgs en el Gran Colisionador de Hadrones del CERN, cerca de Ginebra (el famoso LHC por sus siglas en inglés Large Hadron Collider). La única partícula predicha por la teoría del modelo estándar de las partículas elementales que aún faltaba por encontrar permitirá estudiar el campo de Higgs, responsable de que haya partículas con masa, y las propiedades del universo cuando solo tenía una billonésima de segundo tras la gran explosión (el big bang). Además, muchos físicos creemos que la física del campo de Higgs podría ser una puerta hacia el descubrimiento de nuevas leyes físicas más allá del modelo estándar. Alrededor de la partícula de Higgs se han generado un gran número de mitos y malentendidos. Muchos físicos evitan ideas matemáticas y conceptos abstractos cayendo en analogías inadecuadas que en lugar de ayudar al profano solo le confunden más. En este podcast trataré de aclarar algunos de los mitos sobre el bosón de Higgs; no están todos, pero espero haber incluido los más comunes.

Dibujo20130115 higgs boson - hugs bison

El campo de Higgs no explica la gravedad. Mucha gente cree que si el campo de Higgs permite explicar el origen de la masa de las partículas, entonces debe ayudar a entender el origen de la gravedad. Sin embargo, esto no es así, la masa es la fuente de la gravedad solo en la física newtoniana, donde los objetos sin masa, como la luz, ni producen, ni perciben la gravedad. Por el contrario, en la teoría de Einstein los rayos de luz se curvan en un campo gravitatorio, ya que la fuente de la gravedad en la teoría de la relatividad es la energía, a través del llamado tensor de energía-momento.

En la física newtoniana la masa es una propiedad intrínseca de todos los cuerpos que se conserva; de hecho, Newton se refiere a ella como “cantidad de materia”. Hay dos tipos de masa en la física newtoniana, la inercial y la gravitatoria. La segunda ley de Newton afirma que la fuerza es igual al producto de la masa (inercial) por la aceleración, en símbolos F=m a. La ley de la gravitación universal de Newton dice que la fuerza de la gravedad es igual al producto de la masa (gravitatoria) por la aceleración de la gravedad, en símbolos F=m g, donde g=G M/R2 (M es la masa que genera el campo gravitatorio, R la distancia entre ambos cuerpos y G es una constante universal). El principio de equivalencia (newtoniano) afirma que la masa inercial y la masa gravitatoria son idénticas. Los cuerpos en movimiento tienen momento (“cantidad de movimiento”), el producto entre la masa y la velocidad, en símbolos p=m v, y energía (cinética), la mitad del producto de la masa por la velocidad al cuadrado, en símbolos E=m v2/2. Tanto el momento como la energía son propiedades conservadas en la física newtoniana, igual que la masa.

En la física relativista los conceptos fundamentales son la energía y el momento. De hecho, la masa es la energía de un cuerpo en reposo y no se conserva (por ejemplo, en las desintegraciones radiactivas, o en la aniquilación de materia y antimateria). La famosa fórmula de Einstein E=m c², es válida solo para p=0. Para un cuerpo en movimiento la energía es igual a E²=(m c²)² + (p c)², de tal forma que la energía de un cuerpo con masa nula, como la luz, es E=p c. La energía (el tensor de energía-momento) es la fuente de la gravedad en la teoría de Einstein y actúa curvando el espaciotiempo. El principio de equivalencia (relativista) afirma que la gravedad y la aceleración de un cuerpo en un espaciotiempo curvo son equivalentes entre sí (a nivel local). En la teoría de la relatividad la distinción entre masa inercial y gravitatoria no tiene sentido físico. Las partículas tienen masa gracias a su interacción con el campo de Higgs, pero incluso si no existiera el campo de Higgs y las partículas no tuvieran masa también serían sensibles a la gravedad. El campo de Higgs, como cualquier otro campo, tiene asociado un tensor de energía-momento, siendo capaz de producir y percibir la gravedad. El Higgs gravita, pero más allás de eso no hay nada de especial en la conexión entre el Higgs y la gravedad.

Dibujo20130106 Higgs - decay - two Z - four leptons - ATLAS event

El campo de Higgs no le da masa a los cuerpos. Otro mito muy extendido es que la física del bosón de Higgs permite explicar la masa de todos los objetos que nos rodean en la vida cotidiana. En realidad menos del 5% de la masa de un cuerpo es debida a la masa de las partículas (elementales) que lo forman (quarks y electrones), el resto es energía (tanto cinética como potencial de enlace).

La masa de un cuerpo compuesto de partes es igual a la suma de las masas de cada una de éstas menos la energía de enlace que las une entre sí. La energía de los enlaces químicos que unen los átomos es despreciable, unas mil millones de veces menor que la masa de un átomo. Los átomos están formados por un núcleo orbitado por electrones ligados a él por un campo electromagnético. La energía de inonización, necesaria para extraer un electrón de un átomo es del orden de los 10 eV. El defecto de masa total para un humano se puede calcular fácilmente (en mi blog lo comento) dando como resultado unos 7,6 gramos por cada kilogramo, más o menos 12 explosiones de Hiroshima por cada kilogramo. Para todos los cuerpos, la masa de los núcleos corresponde a más del 99,9% de la masa total de sus átomos.

Un núcleo está formado por protones y neutrones (es decir, nucleones) unidos entre sí por una fuerza nuclear fuerte (efectiva). La masa de un núcleo siempre es menor que la suma de las masas de sus nucleones (aislados), porque la energía de enlace (llamada defecto de masa) es negativa. Esta energía por nucleón es menor del 1% de su masa, luego más del 99% de la masa de un cuerpo es debida a la masa de sus protones y neutrones. Los nucleones están compuestos de quarks ligados por la fuerza fuerte, es decir, por un campo de gluones (descritos por la teoría llamada cromodinámica cuántica, QCD). Lejos, el nucleón se comporta como si estuviera formado por tres quarks (de valencia); la masa estimada de estos quarks da cuenta de menos del 1% de su masa total.

Sin embargo, el interior del protón es muy complicado. El campo de gluones es tan fuerte que produce multitud de pares quark-antiquark virtuales, incluyendo quarks extraños (s), por lo que es difícil saber cuánta masa de un nucleón es debida a la masa de sus quarks, es decir, al campo de Higgs. Los modelos numéricos (QCD en redes o lattice QCD en inglés) indican que aproximadamente el 95% de la masa de un nucleón es debida al campo de gluones (suma de energía potencial y cinética). Luego menos del 5% es debido al campo de Higgs.

A escala cósmica, la cuestón es aún peor. Según los datos del telescopio espacial Planck de la NASA sobre el fondo cósmico de microondas, El 31% del universo es materia y el 69% restante es energía oscura, pero solo el 5% del universo es materia bariónica, siendo el 26% restante materia oscura. No sabemos lo que es la materia oscura, pero la mayoría de los físicos creemos que son partículas aún por descubrir. Tampoco sabemos si el campo de Higgs dota de masa a dichas partículas (podría ser otro bosón de Higgs diferente (dentro de una familia de Higgs) u otro mecanismo diferente). Por tanto, con seguridad, el Higgs explica la masa de menos del 5% de la masa de la materia bariónica que constituye un 5% de todo el universo. Decir que el Higgs explica la masa en general es un poco exagerado, creo.

Dibujo20121229 higgs cake - 80 years old

El vacío del campo de Higgs no es el éter. Un mito que desagrada mucho a los físicos es la interpretación del campo de Higgs como el nuevo éter del siglo XXI. Para explicar el campo de Higgs, que permea todo el espaciotiempo, como cualquier otro campo fundamenal, mucha gente imagina el universo como una piscina inmensa llena de agua en reposo. Todo lo que avanza a través del agua encuentra una resistencia que se interpreta como la masa. Como el agua está en reposo, define un sistema de referencia absoluto, violando los principios de la teoría de la relatividad. Obviamente, esta imagen no tiene ningún sentido físico y ni siquiera permite explicar cómo una partícula puede tener masa cuando está parada. El campo de Higgs es un campo relativista y su valor para el vacío no tiene nada que ver con el éter.

En el siglo XIX el éter era necesario para entender la naturaleza de la luz, ya que se pensaba que si estaba formada por ondas (electromagnéticas) tenía que haber un medio que oscilara, como ocurre con el sonido que son ondas de presión en el aire. Sin embargo, la teoría de la relatividad desterró el concepto de éter porque permite definir un sistema de referencia absoluto, algo incompatible con los resultados de los experimentos.

Los campos (relativistas) pueden propagar energía e información de un lugar a otro en forma de ondas y pueden afectar a otros campos sin que exista un medio que oscile. El campo de Higgs es un campo relativista, como puede serlo el campo electromagnético, y en ambos casos el éter es un concepto innecesario.

La idea de asociar el campo de Higgs al éter se justifica porque su vacío tiene un valor positivo de la energía. Los campos permiten la propagación de ondas, que en los campos cuánticos se observan como partículas. El estado del campo sin partículas se denomina vacío y el valor de la energía asignado al vacío es arbitrario. Lo único que se puede medir en los experimentos es la diferencia entre la energía de las partículas del campo y la energía del vacío. Por convenio, cuando el valor del vacío de un campo no cambia se le asigna un valor igual a cero. Sin embargo, el valor de la energía del vacío para un campo puede cambiar de valor en una transición de fase, como le ocurre al campo de Higgs. Por encima de cierta energía crítica el vacío toma un valor cero y las partículas de Higgs son ondas del campo respecto a dicho valor nulo; por debajo de esta energía crítica el vacío adquiere un valor positivo y las partículas del campo corresponden a ondas respecto a dicho valor no nulo. En ambos casos el valor asignado a la energía del vacío es constante en todos los puntos del espaciotiempo y no permite definir ningún sistema de referencia absoluto. Por ello no tiene sentido físico considerar que se asemeja a la noción clásica de éter.

Espero que te haya gustado mi nuevo podcast para Trending Ciencia que puedes oír siguiendo este enlace.


Archivado en: Bosón de Higgs, Ciencia, Física, Noticia CPAN, Noticias, Physics, Podcast en Trending Ciencia, Relatividad, Science Tagged: Bosón de Higgs, Ciencia, Física, LHC - CERN, Noticias, Partículas elementales, trending
01 May 13:29

El PP: “No hay más protestas porque se confía en el Gobierno”

by El País
Gilbmartinez

!Que cojones tienen!

No hay más manifestaciones porque la gente "es sensata" y "sabe que se están haciendo las cosas que se tenían que hacer". Esta es la tesis defendida por Rafael Hernando, portavoz adjunto del Grupo Popular en el Congreso de los Diputados. Por ello, el dirigente del PP descarta un "estallido social" si la situación económica no mejora. Esta misma mañana el número tres del PSOE, Óscar López, se ha pronunciado en sentido contrario. "Hay 6,2 millones de razones [en referencia al número de parados] para salir a la calle", ha asegurado con motivo del Día del Trabajo.

"Todo el mundo sabe que esto no iba a ser fácil y lo dijimos desde el primer momento. Entiendo que haya gente que tenga impaciencia", ha afirmado Hernando en una entrevista concedida a Europa Press. El portavoz adjunto en el Congreso ha puntualizado, sin embargo, que con la conflictividad social "no se genera empleo" y ha apuntado que en el pasado "no se ha actuado con la misma beligerancia" contra el Gobierno.

El Ejecutivo del PP ya ha sufrido dos huelgas generales y cientos de manifestaciones. De ahí que Hernando pida la colaboración de los agentes sociales para salir de la crisis. En su opinión, hay posibilidades de llegar a entendimientos y los sindicatos no deben estar "prisioneros" de las estrategias políticas de aquellos partidos con los que tienen "cierta empatía".

El dirigente popular ha reprochado al PSOE que a lo largo de este primer año de mandato el Ejecutivo ha recibido "más zancadillas que otra cosa" y ha subrayado que los socialistas deben aclarar si quieren llegar a acuerdos, en vez de estar "improvisando cada día" sobre la idea de un pacto. "Está muy bien pedir acuerdos, pero luego hay que culminarlos", ha dicho Hernando, quien ha manifestado que el Gobierno está abierto a pactos "en positivo".

"Creo que ellos [PSOE] tienen vértigo o han sentido vértigo durante todo este tiempo a pactar con el Ejecutivo. Eso, más ser rehenes de IU [como ejemplo de ello, ha citado el decreto andaluz para frenar los desahucios, impulsado por una consejera de IU] y ver que el discurso radical tiene enganche en la calle, les ha condicionado enormemente desde el punto de vista interno y de posibilitar acuerdos en determinadas cosas", ha afirmado Hernando. El portavoz del PP ha acusado al principal partido de la oposición de bloquear los acuerdos: "Hasta ahora el que ha puesto siempre dificultades para culminar pactos es el PSOE. Supongo que porque no quería sentirse cómplice de las medidas dura que había que tomar a lo largo de este año y también porque supongo que está influenciado por ese pacto anti-PP que hay en Andalucía".

Por su parte, el líder del PSOE, Alfredo Pérez Rubalcaba, ha escrito hoy en su página de Facebook, que hoy "no es una fecha de celebración" para los 6,2 millones de parados y especialmente para los tres millones "que no tienen ningún tipo de ayuda". No obstante, invita a todos a "seguir defendiendo su derecho a un trabajo digno, porque el principal enemigo que hoy debemos combatir es la resignación".

29 Apr 12:35

Francis en Trending Ciencia: El entrelazamiento entre cubits de diamante

by emulenews
Gilbmartinez

Excelente artículo, como siempre!

Dibujo20130428 diamond qubits based on nitrogen defects

Disfruta de mi nuevo podcast para Trending Ciencia siguiendo este enlace. He elegido como tema para mi nuevo podcast sobre física una noticia sobre mecánica cuántica, en concreto, un nuevo récord de distancia en el entrelazamiento de dos cubits de estado sólido implementados mediante cristales de diamante (ya hablé de ello en este blog). El grupo de investigación del Prof. Ronald Hanson, de la Universidad Técnica de Delft, Países Bajos, ha publicado online en Nature el pasado 24 de abril un artículo cuyo primer autor es su estudiante de doctorado Hannes Bernien, que ya apareció en el servidor de preprints arxiv el 26 de diciembre del año pasado, en concreto, el artículo arxiv:1212.6136.

El artículo técnico es H. Bernien et al., “Heralded entanglement between solid-state qubits separated by three metres,” Nature, AOP 24 April 2013 [arXiv:1212.6136]. Recomiendo leer también a Richard Van Noorden, “Diamond shows promise for a quantum Internet. Crystal could be used to connect distant quantum networks,” Nature News, 24 Apr 2103.

Entrelazar cubits de estado sólido en distancias grandes es muy difícil pues se requiere un protocolo con una partícula que actúa como mediadora que recorra dicha distancia. Entrelazar dos cubits implementados con diamante en una distancia de 3 metros parece poco, pues esta distancia es muy pequeña comparada los casi 200 km que se logran con cubits implementados con fotones, pero trabajar con cubits implementados con diamante es mucho más difícil.

Pero antes de discutir más sobre este logro, permíteme recordar qué es el entrelazamiento cuántico, qué son los cubits implementados en celdas de diamante y por qué son tan interesantes.

Dibujo20130428 ronald hanson - tu delf - and his research group

La mecánica cuántica está basada en el principio de superposición. Cada estado de un sistema se describe con una función de onda y la suma de dos funciones de onda corresponde a un nuevo estado llamado de superposición. Cuando un sistema cuántico está compuesto por varias partes, cada parte se describe con una función de onda y el sistema cuántico conjunto se describe por el producto de estas funciones de onda, si el sistema cuántico no está entrelazado y es separable.

El entrelazamiento cuántico es resultado de la aplicación del principio de superposición a un sistema compuesto. Para simplificar la exposición supongamos que tenemos un sistema cuántico compuesto por dos partículas llamadas Alicia y Berto. Supongamos que la partícula Alicia puede estar en dos estados diferentes, sean Arriba y Abajo, y que la partícula Berto puede estar en otros dos estados diferentes, sean Izquierda y Derecha. Si la partícula Alicia está en el estado Arriba y Berto en el estado Izquierda, entonces el sistema compuesto por Alicia y Berto está en el estado producto Arriba-Izquierda. Este estado se llama separable porque podemos saber en qué estado están cada una de las partículas. Lo mismo pasa si el sistema compuesto está, por ejemplo, en el estado producto Abajo-Derecha; en dicho estado Alicia está en el estado Abajo y Berto en el estado Derecha. Este fenómeno es similar a lo que pasa con cualquier teoría clásica de ondas, por ejemplo, con los sonidos gracias a los cuales escuchas este podcast; si hubiera música de fondo, podrías separar los diferentes instrumentos musicales que están interpretando la obra gracias al principio de superposición, y saber qué pasajes interpreta el violín y cuáles la flauta. Sin embargo, la mecánica cuántica permite utilizar el principio de superposición para construir estados que no son separables, estados que llamamos entrelazados.

Imagina que el sistema compuesto de las partículas Alicia y Berto está en el estado de superposición Arriba-Izquierda y Abajo-Derecha, es decir, su función de onda es la suma de dos productos de funciones de onda. Este estado es entrelazado porque no se puede separar en un estado individual para Alicia y otro para Berto. En el estado entrelazado Arriba-Izquierda más Abajo-Derecha, ¿en qué estado está Alicia? No lo podemos saber, es imposible saberlo. Un estado entrelazado no permite saber en qué estado están las partes que constituyen el sistema compuesto. Alicia puede estar en el estado Arriba o en el estado Abajo. Y lo mismo le pasa a Berto, que puede estar en el estado Izquierda o Derecha. En mecánica cuántica se dice que en el estado entralazado Arriba-Izquierda más Abajo-Derecha ni Alicia ni Berto tienen estados bien definidos de forma individual, sólo tiene un estado bien definido el sistema compuesto.

Ahora bien, el estado entrelazado implica algo realmente sutil, algo que disgustaba a Albert Einstein, si el sistema está en un estado entrelazado y medimos el estado de la partícula Alicia, el resultado de esta medida nos informa sobre el estado de la otra partícula, Berto, incluso si ésta se encuentra muy lejos, tan lejos que una señal luminosa no puede enviar esta información a tiempo. Imagina que ponemos a Alicia en la Luna y dejamos a Berto en la Tierra. Al medir el estado de Alicia en la Luna y obtener como resultado Abajo, sabemos instantáneamente que el estado de Berto en al Tierra es Derecha. Si alguien mide en la Tierra el estado de Berto antes de que pasen los 1,3 segundos que separan la Tierra y la Tierra, obtendrá como valor Derecha, incluso si una señal luminosa no hubiera tenido tiempo de propagar la información de la medida en la Luna del estado de Alicia.

El entrelazamiento cuántico introduce una noción de no localidad en la mecánica cuántica. Sin embargo, el entrelazamiento no puede ser utilizado para enviar información más rápido que la luz, pues los resultados de las medidas de cada partícula entrelazada son aleatorios y no se puede seleccionar los valores obtenidos para codificar información clásica. La única manera de enviar información entre Alicia en la Luna y Berto en la Tierra utilizando el entrelazamiento es enviar por un canal clásico (mediante señales luminosas) la información de los resultados de las medidas de Alicia en la Luna hasta la Tierra. Pero entonces estamos limitados por la localidad de la teoría de la relatividad y es imposible (virtualmente imposible) enviar información más rápido que la luz utilizando el entrelazamiento cuántico.

Hasta principios de los 1980, se pensaba que el entrelazamiento cuántico era una simple curiosidad de la mecánica cuántica, pero en la actualidad se utiliza para diseñar ordenadores cuánticos, sistemas de comunicación de información cuántica (la llamada internet cuánica) y sistemas de cifrado (o criptografía) cuánticas. El secreto de la gran potencia de cálculo de los ordenadores cuántics es que al aplicar una operación a un registro con varios cubits entrelazados, se aplica dicha operación a todos los posibles estados del registro; por ejemplo, si entrelazamos 10 cubits, el sistema estará en un estado de superposición lineal de 2 elevado a 10, es decir, 1024 estados posibles, y si aplicamos un operador cuántico a este registro de 10 cubits, estaremos aplicando dicho operador de forma simultánea a los 1024 estados posibles. Una sola aplicación equivale a 1024 operaciones simultáneas. La explosión exponencial en el número de estados hace que un ordenador con 400 cubits entrelazados podría procesar más bits de información al mismo tiempo que átomos hay en el universo. Gracias a esta potencia computacional, los ordenadores cuánticos podrán resolver algunos problemas (como la factorización de números enteros) de forma más eficiente que cualquier ordenador clásico.

El gran poblema de la computación cuántica es que los cubits son muy frágiles y cuando se entralazan varios cubits el estado entrelazado dura poco tiempo porque sufre un fenómeno llamado decoherencia. El resto del universo afecta al registro de varios cubits y realiza de forma espontánea medidas de dicho sistema que destruyen el estado entrelazado, destruyendo el cálculo del ordenador cuántico. El gran objetivo a resolver en el desarrollo de futuros ordenadores cuánticos es lograr diseñar y fabricar cubits altamente robustos capaces de sobrevivir a la decoherencia durante largo tiempo. Aquí es donde entran los cubits de diamante.

Dibujo20130428 chip with diamond - zoom in of diamond - tu delf

Un diamante es un cristal de carbono muy duro (pocos materiales lo rayan), aunque también muy frágil y no soporta altas temperaturas. ¿Cómo se puede implementar un cubit en un cristal de diamante? Hay dos opciones básicas. Por un lado, una impureza de nitrógeno en un diamante puede comportarse como un cubit gracias al espín de su núcleo N-14, o al espín de su electrón, o incluso como dos cubits usando simultáneamente ambos. Por otro lado, un cristal de diamante ultrapuro, con una molécula de carbono 13 por cada millón de átomos de carbono 12, podría almacenar un cubit en dicho carbono 13. De hecho, con esta última tecnología se ha logrado que un cubit evite la decoherencia durante tres minutos y hay modelos físicos teóricos que afirman que se podría llegar a nada menos que 24 horas, y todo ello a temperatura ambiente. Mantener el estado de un cubit durante tres minutos (180 segundos) parece poco, pero para los tiempos que se suelen manejar en la física cuántica es enorme. Con la tencología utilizada por el Prof. Ronald Hanson, de la Universidad Técnica de Delft, Países Bajos, y sus colegas sólo se ha logrado mantener un cubit de larga vida durante 10 milisegundos. De nuevo parece poco tiempo, pero se trata del tiempo de coherencia más larga lograda hasta ahora para un solo espín del electrón en un cubit de estado sólido. Los avances en el campo de la computación cuántica van despacio, pero para algunos físicos, el diamante será para los ordenadores cuánticos lo que el silicio ha sido para los clásicos.

Los cubits de diamante son muy robustos ante la decoherencia, pero esta robustez también supone una gran dificultad a la hora de entrelazar varios cubits de diamante. Y más aún, cuando los cubits a entrelazar se encuentran a gran distancia. Por ello, el trabajo del grupo de investigación del Prof. Ronald Hanson de la Universidad Técnica de  Delft, en Países Bajos, merece que le dediquemos un podcast para Trending Ciencia. Recuerda que el carbono tiene cuatro electrones de valencia y que el nitrógeno tiene cinco. El cubit se almacena en el electrón de valencia en exceso del nitrógeno que actúa como defecto en el cristal de diamante. El cristal actúa como una prisión para el cubit que permite que su estado sea muy robusto ante la decoherencia. Para leer el estado o para cambiar el estado de dicho cubits se utilizan fotones, en concreto de microondas.

Los cubits implementados con diamante se pueden implementar mediante técnicas de nanofabricación en un chip, pero en aplicaciones relacionadas con comunicaciones cuánticas, por ejemplo, para la futura red cuántica de comunicaciones, lo que algunos llaman internet cuántica, se requiere un procedimiento que entrelace cubits en distancias más grandes. Hanson y sus colegas han elegido tres metros como podrían haber elegido unos cuantos metros más, pues su procedimiento, a priori, basado en el intercambio de parejas de fotones, no está limitado de forma fuerte por esta distancia.

En la internet cuántica cada nodo de procesado local contiene un registro de cubits bien controlado y de larga vida que se entrelaza con otros nodos. Los cubits sólidos son ideales para formar parte de estos nodos, porque son muy robustos y se cree que son escalables gracias a las técnicas de nanofabricación. El nuevo protocolo cuántico, no quiero entrar en los detalles técnicos, que los interesados podrán disfrutar gracia al preprint en arxiv 1212.6136, permite entralazar nodos lejanos en la red cuántica que almacenen cubits en cristales de diamante. La demostración del protocolo en una distancia de 3 metros es sólo simbólica. Perfectamente se podría haber logrado en cientos de metros. Lo importante es que reivindica la tecnología de los cubits de estado sólido basados en diamante como una tecnología muy prometedora para el futuro de los  ordenadores cuánticos, la internet cuántica y la ingeniería de la información cuántica en general.

Espero que te haya gustado mi nuevo podcast y que nos sigamos oyendo en Trending Ciencia. Por cierto, si aún no has escuchado el audio, sigue este enlace.


Archivado en: Ciencia, Computación cuántica, Física, Mecánica Cuántica, Nanotecnología, Noticias, Physics, Podcast en Trending Ciencia, Science Tagged: Ciencia, Computación cuántica, cubits, diamante, Experimento, Física, Física cuántica, Noticias