Nueva dirección: http://pasalavida.org/

La vida es sueño

Posted by Jordi Guzman en 8 enero 2009


Pedro Calderón de la Barca. Medallón de la Biblioteca Nacional, Madrid.

Pedro Calderón de la Barca. Medallón de la Biblioteca Nacional, Madrid.

La vida es sueño es quizá la obra más conocida de Pedro Calderón de la Barca (1600-1681) que, junto con el genial Lope de Vega, conforman la pareja de autores teatrales más importantes del Siglo de Oro español aunque, por supuesto, hay muchos más.

En esta obra se nos presenta como argumento principal la desdicha de Segismundo, hijo del rey de Polonia, un reino inventado, al cual un oráculo predijo el día de su nacimiento que seria un rey cruel, por lo que su padre le recluyó de por vida en una torre. Por causa de las subtramas en donde no voy a entrar (si queréis leer la obra en la Biblioteca virtual Miguel de Cervantes lo podéis hacer ) el rey decide dar una oportunidad a su hijo el cual lleva ya largos años de cautiverio.

A tal efecto le suministran una pócima la cual hará que, si el comportamiento de este no es el adecuado, lo puedan volver a llevar preso pensando él que todo ha sido un sueño. Efectivamente, Segismundo la lía parda, intenta forzar a la protagonista femenina, Rosaura, mata a un criado y se pelea con quien se le pone por delante. Consecuentemente es nuevamente llevado a la torre. De todas formas hay que aclarar que Segismundo no es un personaje malvado, solo es que esta alterado por su injusta cautividad, su carácter ira cambiando según evoluciona la obra siempre para bien. Al poco, Segismundo recita el famoso monologo que os reproduzco a continuación. Si queréis saber el desenlace tendréis que leer la obra, es relativamente  corta (75 páginas) y de fácil lectura, ¡animo!

Acto II, escena 19. Monologo de Segismundo.

Es verdad; pues reprimamos
esta fiera condición,
esta furia, esta ambición
por si alguna vez soñamos.
Y sí haremos, pues estamos
en mundo tan singular,
que el vivir sólo es soñar;
y la experiencia me enseña
que el hombre que vive sueña
lo que es hasta despertar.
Sueña el rey que es rey,
y vive con este engaño mandando,
disponiendo y gobernando;
y este aplauso que recibe
prestado, en el viento escribe,
y en cenizas le convierte
la muerte (¡desdicha fuerte!);
¡que hay quien intente reinar,
viendo que ha de despertar
en el sueño de la muerte!
Sueña el rico en su riqueza
que más cuidados le ofrece;
sueña el pobre que padece
su miseria y su pobreza;
sueña el que a medrar empieza,
sueña el que afana y pretende,
sueña el que agravia y ofende;
y en el mundo, en conclusión,
todos sueñan lo que son,
aunque ninguno lo entiende.
Yo sueño que estoy aquí
destas prisiones cargado,
y soñé que en otro estado
más lisonjero me vi.
¿Qué es la vida? Un frenesí.
¿Qué es la vida? Una ilusión,
una sombra, una ficción,
y el mayor bien es pequeño;
que toda la vida es sueño,
y los sueños, sueños son.

Acerca de estos anuncios

Posted in Arte, Historia del Arte, Literatura, Teatro | Leave a Comment »

Atmósferas en Súper-Tierras

Posted by Jordi Guzman en 8 enero 2009


081023_habitable_planet_02Estamos en el borde de la siguiente fase de descubrimientos planetarios. Cientos de masivos planetas similares a Júpiter han sido descubiertos, pero ahora los astrónomos se están volviendo hacia los planetas más pequeños y familiares. Los planetas de la masa de la Tierra están fuera de nuestro alcance actual, pero una nueva clase de planetas súper-Tierras están siendo descubiertos, y aún más se descubrirán con la próxima generación de telescopios espaciales y terrestres. Tal vez la investigación más interesante será la de las atmósferas de estos planetas.

Las súper-Tierras pueden tener hasta 10 veces la masa de la Tierra, pero con una superficie sólida y agua líquida que podrían hacerlos perfectamente habitables. Una reciente presentación de Eliza Miller-Ricci de la Universidad de Harvard en la 213 reunión de la Sociedad Astronómica Americana discutía los tipos de atmósferas que los astrónomos podrían ver cuando estas súper-Tierras empiecen a aparecer. Aunque es interesante científicamente – la emisión de gases geológicos, evidencias de tectónica de placas, y el grosor o finura de la atmósfera, la pregunta más interesante es: ¿Pueden las súper-Tierras soportar vida?

Para tener vida tal y como la conocemos, las súper-Tierras (como los planetas normales terrestres) necesitarán tener agua líquida en su superficie, y esto requiere un cierto rango de temperatura – la zona habitable de la estrella madre. Tal y como vemos en nuestro propio Sistema Solar, la atmósfera de un planeta ayuda a regular su temperatura; Venus tiene un gruesa atmósfera y está lo bastante caliente para fundir plomo, mientras que la Tierra tiene una buena temperatura para permitir que se forme agua líquida en su superficie. Marte tiene una delgada atmósfera y es realmente frío. No es sólo el grosor de la atmósfera lo que importa, también es lo que hay en ella: dióxido de carbono, agua, etc.

Los planetas muy masivos como Júpiter están en su mayor parte formados por hidrógeno. Los planetas terrestres de menor masa como la Tierra no pueden mantener su hidrógeno, el cual escapa durante la fase inicial de formación del planeta. Pero estas súper-Tierras podrían ser capaces de mantener su hidrógeno. En lugar de una atmósfera baja en hidrógeno como la de la Tierra, podrían tener una atmósfera con grandes cantidades de agua. Y el agua es un potente gas invernadero – la cantidad de trazas de vapor de agua en la atmósfera de la Tierra cuentan con el 60% del efecto invernadero, manteniendo el planeta cálido y habitable.

Pregunté a Miller-Ricci sobre qué impacto tendrán grandes cantidades de hidrógeno en la atmósfera de un planeta súper-Tierra. Tenemos agua aquí en la Tierra, pero muy poca en la atmósfera. El vapor de agua en un potente gas de invernadero y ayudaría a definir la temperatura del planeta. “La cantidad de hidrógeno en la atmósfera de una súper-Tierra afectaría significativamente a su zona habitable. Esta es una pregunta realmente importante, es lo que siguiente que vamos a observar”.

Las misiones actuales pueden detectar súper-Tierras usando el método del tránsito, donde los planetas atenúan la luz de su estrella madre cuando pasan frente a ella. Restando la firma química cuando el planeta pasa tras la estrella, los astrónomos pueden determinar su atmósfera.

Encontrar súper-Tierras es el límite de los actuales telescopios, pero se lanzarán pronto instrumentos más potentes. La misión Kepler de la NASA, que se lanzará en abril de 2009, descubrirá más súper-Tierras de las que ya se han encontrado. Pero la siguiente generación de telescopios espaciales, como el Telescopio Espacial James Webb de la NASA, permitirá a los astrónomos fotografiar directamente las atmósferas de estos planetas.

Articulo traducido y posteado en Ciencia Kanija, el original se publicó en Universe Today y su autor es Fraser Cain.

Posted in Astronomía, Ciencia, Exobiología | Leave a Comment »

David Palumbo – Pinturas

Posted by Jordi Guzman en 8 enero 2009


David Palumbo es un norteamericano nacido en Marquette, Michigan, en 1982. Poseedor de una indudable calidad como pintor se ha dedicado al retrato, a realizar portadas para libros, comics, carteles de cine o para revistas, ademas de realizar exposiciones en la zona de Filadelfia en donde, supongo vive. En su página podéis ver más trabajos suyos así como en su blog. Clic para ampliar.

akrasanreachers

eightofswords

litasseoftriolle

madnessofflowers

serulswiftblade

swordoflegends

thesethingsreallywork

Vía Mira y calla

Posted in Arte, Ilustración, Pinturas | 3 Comments »

Thomas A. Szakolczay – Diseño conceptual

Posted by Jordi Guzman en 8 enero 2009


Thomas A. Szakolczay ha trabajado como diseñador conceptual, de vestuario, accesorios y personajes para juegos como todos los Call of duty, Gears of War o Unreal Tournament III entre otros, tambien se encarga del diseño gráfico de sus intefaces En su página se pueden ver más trabajos suyos y en Conceptart sus interesantes bosquejos. Clic para ampliar.

aileroncharacters

alliedgroup

codv_flying

codv_makin_fishingvillage

gb_firehouse

medusa2tas

Posted in 3D, Arte, Diseño, Gráfico, Ilustración, Informática, Juegos, Pinturas | 1 Comment »

Retrato de Einstein hecho con una palabra

Posted by Jordi Guzman en 8 enero 2009


Muy buena la imagen de Einstein realizado con Processing por Jeff Clark basado en la famosa fotografía de Philippe Halsman. Clic para ampliar.

wp_einstein1

Vía Neatorama

Posted in Fotografía, Informática, Programación | 5 Comments »

Ron Asheton in memoriam

Posted by Jordi Guzman en 7 enero 2009


Robert Matheu

The Stooges en 1970. Ron Asheton e Iggy Pop. Foto: Robert Matheu

Ayer mismo encontraron el cuerpo sin vida en su casa de Ann Arbor, Michigan, del que fuera miembro fundador de una de las bandas fundamentales, en lo que se refiere al guitarreo furioso y al punk, que ha dado los Estados Unidos, The Stooges (los monigotes). Parece ser que llevaba ya unos días muerto y se supone que ha sido un ataque al corazón. Ron Asheton participó como guitarrista y compositor en los dos primeros   LPs de la banda de Detroit,  The Stooges (1969) y Funhouse (1970), en el tercero Raw Power (1973) participo como bajista.  Aunque no soy mucho de hacer listas ni de mostrarlas tengo que decir en su honor que según la revista Rolling Stone, Asheton estaba en el puesto 29 de la lista de los 100 grandes guitarristas de todos los tiempos, un autentico pionero en extraer de las entrañas de su guitarra unos sonidos que en la época eran completamente novedosos. Descanse en paz. El tema que sigue apareció en su primer álbum.

I wanna be your dog

Posted in Glam, Música, Rock | 4 Comments »

Sistemas Spidron

Posted by Jordi Guzman en 7 enero 2009


Según cuentan en la página de donde he sacado las imagenes que siguen un Spidron es: Una figura plana que consiste en dos secuencias alternas de triángulos isósceles los cuales, una vez doblados por sus bordes, exhiben unas extraordinarias propiedades espaciales.  Este tipo de figura lo invento el diseñador industrial húngaro Dániel Erdély en los años 70 del siglo pasado. Cuando se convierten estas figuras planas en tridimensionales su resultado es agradablemente estético. Clic para ampliar.

rhombic30steps-bigfit

spacefilling

spidro-halfoctahedron1

spidro-halfoctahedron2

spidrohedron-ld-a

spidron-dodecahedronnfit

spidron-fractalnfit

Vía FFFFOUND!

Posted in 3D, Diseño, Geometría, Informática, Matemática | 1 Comment »

Emek – Portada y carteles de Eryka Badu

Posted by Jordi Guzman en 7 enero 2009


He escogido para mostraros el trabajo del norteamericano Emek dedicado a la cantante Eryka Badu, tanto a la portada de su ultimo álbum New Amerykah como a diversos carteles de conciertos, verdaderamente impresionantes. En su página se pueden ver más trabajos suyos. Clic para ampliar.

badu_cover_emek

badu_hamsa_hand

badu_healer_cover

badu_nigeria_gig

badu_roots_vortex_gig

badu_russia_jpeg

badu_speakergirl_poster

Vía OMG Posters!

Posted in Arte, Carteles, Ilustración, Música | 1 Comment »

Pistas sobre el origen de la vida

Posted by Jordi Guzman en 7 enero 2009


Un par de equipos de investigadores nos dan nuevas pistas sobre cómo y por qué podría haber surgido la vida.

tierra_primitivaPocas cosas son más interesantes y tan difíciles de saber como el origen de la vida. Desde que hace ya décadas, gracias al experimento de Miller y Urey, sabemos que es fácil conseguir los bloques orgánicos constitutivos de las moléculas de la vida. Incluso recientemente un análisis de las muestras dejadas por Miller procedentes de experimentos realizados en los cincuenta desveló alguna sorpresa. En esa época Miller realizó unos experimentos con una mezcla de gases similares a los gases volcánicos, pero no se sabe por qué no publicó nada al respecto. El análisis realizado en 2008 realizado con máquinas modernas, revelaba que se formaron 22 aminoácidos (bloques que forman las proteínas), 5 aminas y muchas otras moléculas formadas por radicales hidroxílicos.
Pero el paso siguiente, conseguir una molécula que porte información y se autorreplique es mucho más difícil. Al igual que los pasos que se dieron después hasta conseguir la primera célula.
Quizás no dispongamos de los cientos de millones de años que uso la Naturaleza o de un laboratorio de tamaño planetario repleto de moléculas orgánicas. Sin embargo, se sigue investigando en el tema. No es fácil describir los innumerables pasos que fueron necesarios, pero la descripción de alguno de ellos o la descripción de las reglas básicas detrás de todos ellos quizás sí sean útiles. Un par de equipos de investigadores nos dan nuevas pistas sobre cómo y por qué podría haber surgido la vida. En el primer caso desde el punto de vista experimental y en el segundo desde el punto teórico más básico.

Se cree que la primera molécula autorreplicante consistiría en ARN, pero no se sabe cómo podría haber evolucionado hasta tener un significado biológico. El equipo de Ernesto di Mauro del Istituto Pasteur-Fondazione Cenci-Bolognetti ha realizado un experimento que intenta responder la pregunta de cómo las moléculas orgánicas primitivas de ARN se ensamblaron para producir los cimientos de la vida. Concretamente, cómo unos trozos se fueron juntando hasta obtener una molécula de ARN con relevancia biológica.
El ARN crece mediante la adición de una nueva base a uno de los extremos de manera encadenada, pero el problema es que en aquella época no había enzimas que catalizaran esta reacción. Aunque el ARN puede crecer desde tamaños pequeños sin la presencia de enzimas lo hace de una manera tan lenta que nunca alcanza una longitud lo suficientemente larga. Además, sus extremos pueden unirse entre sí e impedir que se añadan más bases. Estos investigadores se plantearon si habría algún mecanismo que superara esta barrera termodinámica. Para ello cultivaron pequeños fragmentos de ARN en agua a diferentes temperaturas y grados de acidez.
Encontraron que bajo condiciones favorables, consistentes en una temperatura por debajo de 70 grados centígrados y un medio ácido, trozos de ARN de entre 10 y 24 bases se ensamblaban espontáneamente en el transcurso de 14 horas. Los fragmentos eran de doble hebra con los extremos unidos entre sí y no tenían el mismo tamaño, situación similar a la que se encontraría en el medio natural. Además, vieron que la reacción era más eficiente cuando mayor era el tamaño de los fragmentos hasta que decaía cuando se alcanzaban las 100 bases.
Esta fusión espontánea podría ser un sistema simple mediante el cual el ARN superó la barrera inicial para crecer y así adquirir un tamaño con relevancia biológica, de unas 100 bases. A partir de ese tamaño las moléculas de ARN pueden ser funcionales y plegarse en estructuras tridimensionales.

En otro estudio reciente Arto Annila de la Universidad de Helsinki y Erkki Annila del Instituto de Investigación de los Bosques Fineses dan pistas sobre las fuerzas termodinámicas que pudieron determinar el origen de la vida.
Todos los organismos están compuestos por moléculas que se ensamblan gracias numerosas reacciones químicas. Según el calor fluye de los focos cálidos a los fríos la termodinámica nos dice que estas moléculas obedecen la tendencia natural de disipar la diferencia de energía. Por tanto, las reacciones que se favorecen son las que disminuyen la energía del sistema hasta que se alcanza el estado estable o equilibrio químico.
Aunque estos autores no especifican las reacciones químicas implicadas que dieron origen a la vida, explican que las moléculas implicadas sufrieron una serie de reacciones cada vez más complejas para así minimizar la diferencia de energía entre la materia terrestre y la energía procedente del Sol. Eventualmente el proceso avanzó tanto que dio lugar a las estructuras funcionales sofisticadas que llamamos seres vivos.
Según los autores la idea más importante del estudio es no hacer la distinción entre materia animada e inanimada, y que los procesos de la vida no son diferentes de otros procesos naturales.
El estudio fue publicado en International Journal of Astrobiology y en él se considera que la sopa primordial contenía los elementos básicos que reaccionaban entre sí y con una fuente externa de energía como el Sol. Los compuestos obtenidos formaban sistemas químicos que iban ensamblándose entre sí, prosperando los que capturaban y distribuían más y mejor la energía solar en busca del estado estable, en una suerte de selección natural. El proceso evolutivo no era (ni es) determinista, siendo incluso caótico, ya que los flujos de energía crean diferencias de energía que afectan los propios flujos.
Gracias a las variaciones al azar se conseguían compuestos novedosos que podían emerger del sistema primordial. Algunos de esos compuestos podrían haber sido excepcionalmente buenos creando flujos de energía, permitiendo al sistema disipar diferencias de energía de forma más eficiente y alcanzar altos niveles de entropía. Este tipo de compuestos ventajoso podrían haber ganado la competición sobre los demás en el periodo de evolución química. Pero estos científicos afirman que identificar estos compuestos será muy difícil. Explican que su estudio pretende explicar por qué surgió la vida pero no cómo lo hizo.
Según ellos lo más relevante es el hecho de que la tendencia física a disipar diferencias de energía no distingue entre materia animada de la inanimada. El orden y complejidad que caracteriza los sistemas biológico modernos no tiene valor por sí mismos, sino que su estructura y organización jerárquica emergió y se desarrollo porque proporcionaba modos hacia un aumento del flujo de energía.
Como ejemplos los investigadores citan el código genético, que podría haber servido como mecanismo de aumento de la entropía, aumentando el flujo de energía hacia un aumento de la entropía. Los organismos complejos actuales tienen un metabolismo celular que es otro sistema que aumenta la entropía y disipa energía en el ambiente. La cadena alimenticia de un ecosistema sería otro ejemplo.
La vida sería una cosa natural que emergería simplemente para satisfacer leyes de la Física básica. Por así decirlo, nuestro propósito como seres vivos sería distribuir la energía sobre la Tierra, energía proveniente de la gran diferencia de energía potencial entre el Sol y el frío espacio. Los organismos evolucionan por selección natural, pero a un nivel más básico la selección natural estaría dirigida por un principio termodinámico: aumentar la entropía y disminuir las diferencias de energía.
Los procesos naturales a partir de los cuales la vida emerge son los mismos procesos que mantienen a la vida funcionando en todas las escalas temporales. Desde el punto de vista termodinámico no habría un momento especial a partir del cual la vida surgió y no habría forma de distinguir el momento en el cual se paso de la materia inanimada a la animada.
Arto Annila añade que la búsqueda del origen de la vida parece un intento fútil porque la vida en su totalidad es un proceso natural que, según la segunda ley de la termodinámica, no define un comienzo. “Preguntar cómo comenzó la vida sería lo mismo que preguntar cuándo y dónde el primer soplo de viento que agitó la superficie de una laguna”, añade.

Fuentes y referencias:
Nota de prensa.
Artículo original (resumen).
Artículo original.

Articulo traducido y posteado en NeoFronteras.

Posted in Biología, Ciencia, Paleontología | Leave a Comment »

John Picacio – Portadas de libros

Posted by Jordi Guzman en 7 enero 2009


John Picacio es un artista norteamericano que vive y trabaja en San Antonio, Texas. Esta especializado en la creación de portadas de libros, ha ilustrado para libros de Harlan Ellison, Michael Moorcook, Robert Silverberg, Neil Gaiman o Frederick Pohl solo por poner los más conocidos. Ha recibido numerosos premios por su trabajo y en 2005, 2006 y 2007 ha sido nominado en la categoria de mejor artista profesional para los  Premios Hugo. En su página y en su blog On the front se pueden ver muchos más trabajos suyos.

empire

fastforward

firnatine

gateway

interzone204

live

penny

starofgypsies

Posted in Arte, Ciencia Ficción, Ilustración, Libros, Pinturas | Leave a Comment »

Colisionadores de átomos de sobremesa podrían reemplazar al LHC

Posted by Jordi Guzman en 6 enero 2009


LBNL)

Lásers súper-potentes podrían pronto competir con el LHC (Imagen: LBNL)

Cuando se conectó el Gran Colisionador de Hadrones el pasado septiembre – y se apagó ignominiosamente días más tarde – fue tema del tipo de frenesí mediático normalmente reservado a las estrellas del rock y famosas modelos. Estos, según nos dijeron, fueron los primeros momentos de la máquina más compleja jamás construida. Lo que no se nos contó es que algo similar nunca volverá a ser construido.

Un problema es la descomunal escala del proyecto. El LHC necesitó algo más de 20 años para ser diseñado y construido, y tuvo un coste de alrededor de 9 mil millones de dólares. El precio no incluyó el túnel circular de 27 kilómetros que alberga la máquina bajo la frontera franco-suiza cerca de Ginebra – que fue construido un par de décadas antes que el acelerador.

Algún día, los físicos de partículas querrán actualizar el LHC a un modelo mayor, mejor y más caro. De hecho, ya están trabajando en su sucesor conocido como el Colisionador Lineal Internacional. Si el público impide el pago del precio, los físicos pueden despedirse de sus sueños de descubrir las leyes de la naturaleza haciendo impactar partículas entre sí a altas energías. Dado el actual caos económico, el ILC puede que nunca se construya.

Tal vez no sea necesario. En laboratorio de todo el mundo, el se está esbozando el dibujo de un diseño completamente nuevo de acelerador que podría revolucionar la economía de la física de partículas. Fuera quedan los túneles de muchos kilómetros de longitud; ahora llegan compactas construcciones de una fracción de ese tamaño. Aún más intrigante, esta nueva hornada de aceleradores están concebidos a partir de poco más que el fino aire.

Entonces, ¿por qué los aceleradores de partículas son tan grandes? Una respuesta simple es que para crear las partículas exóticas y extremadamente masivas que nos dirán más sobre cómo funciona el universo, se necesitan partículas más familiares y menos masivas que tienen que ser colisionadas a enormes energías. Altas energías significan altas velocidades, sólo una fracción por debajo de la velocidad de la luz – y esto significa dar a las partículas un largo preliminar.

Esto es cierto, pero pasa por alto una importante sutileza. Las máquinas como el LHC usan campos eléctricos para acelerar protones y electrones y otras partículas cargadas. Cuanto más potente es el campo, mayor es la aceleración. Pero para hacer un colisionador de partículas más rápido no sólo es necesario aumentar el campo eléctrico. Una aceleración eficiente sólo puede tener lugar en el vacío: de otra forma, el rayo de partículas impacta con átomos perdidos y pierde energía. Si el campo eléctrico es demasiado fuerte, empieza a arrancar electrones del material de los muros que contienen el vacío. Esto provoca que vuelen chispas, cortocircuitando el acelerador y haciéndolo inútil.

Los físicos del acelerador deben, por tanto, hacer una aproximación muy cuidadosa, usando campos eléctricos más pequeños para llevar a las partículas a mayores energías a lo largo de grandes distancias. Esto, junto con las limitaciones de los imanes se usan para doblar los rayos de partículas, es la verdadera razón por la que los protones necesitan al menos 17 millones de vueltas completas al LHC – un viaje de aproximadamente 450 millones de kilómetros – para acelerar a una energía entre 450 gigaelectronvoltios a 7000 GeV. Resuelve el problema de colapso del material y estarás en camino de hacer un acelerador que puede hacer lo mismo que el LHC, pero a unas distancias mucho menores.

En 1979, John Dawson de la Universidad de California en Los Ángeles y Toshiki Tajima de la Universidad de Texas en Austin tenían una propuesta seria para hacer esto (Physical Review Letters, vol 43, p 267). En lugar de esquivar el desconcertante fenómeno del colapso del material, se propusieron explotarlo.

Un plan tan audaz demandaba un material extraordinario, y ambos tenían el mismo en mente: una exótica forma de aire fino conocida como plasma. Al contrario que el aire, que está hecho en su mayor parte de átomos neutros y moléculas, un plasma consiste en iones positivos inmersos en un mar de electrones arrancados de ellos. Dawson y Tajima idearon el envío de un pulso intenso de luz láser a través de este plasma. El campo eléctrico de la luz pasaría a través del mar de electrones ligeros, empujándolos lejos de su camino mientras deja a los iones positivos más pesados relativamente inmóviles. Esto crearía un área de baja densidad electrónica inmediatamente donde el pulso pasa.

Los electrones desplazados rápidamente volverían hacia los iones positivos a la estela del pulso, atraídos por la carga opuesta. Se agruparía brevemente tras el pulso antes de llegar más lejos y crear otra área de menor densidad. Mientras tanto, el pulso estaría limpiando electrones de la siguiente región y repitiendo el proceso. El resultado es un patrón ondulatorio de variación de densidades electrónicas a lo largo del camino de la luz (ver diagrama).

“Es como una lancha a motor en un lago creando una onda en el agua por debajo de ella”, dice Wim Leemans, físico que lidera el desarrollo de aceleradores basados en plasma en el Laboratorio Nacional Lawrence Berkeley en California. Y así como surfistas en una ola del mar, los electrones justo en la posición adecuada de la cresta de la ola de densidad pueden bajarla – logrando una enorme cantidad de energía cuando lo hacen.

La gran ventaja de este esquema es que los enormes campos eléctricos de aceleración creados por los electrones desplazados están contenidos en una diminuta burbuja de plasma detrás del pulso de luz. Al contrario que los muros de un acelerador convencional, el material de plasma ya está “roto”, con todos sus electrones arrancados de sus átomos originales. “No puedes hacerles más daño”, dice Robert Bingham, físico del Laboratorio Rutherford Appleton cerca de Oxford, Reino Unido. Por lo que dado un pulso láser con la intensidad, duración y forma adecuadas, no parece haber virtualmente límite a la aceleración que podría lograrse en una distancia corta.

No se necesitó mucho tiempo para que la idea cuajase. Para mediados de la década de 1980, los físicos habían confirmado el esquema de Dawson y Tajima creando algo de plasma y acelerando un puñado de electrones a unos miles de gigaelectronvoltios. En la década de 1990, fueron unos cuantos miles de millones de electrones, y las energías alcanzaron los 0,1 GeV a lo largo de menos de un milímetro – una distancia muchos miles de veces más corta de lo requerido en un acelerador convencional.

Rayo de avance

Cuando un pulso láser pasa a través de un plasma, expulsa fuera de su camino a los electrones formando una onda de densidad tras de si que aplica una potente fuerza de aceleración en una corta distancia

Acelerador de bolsillo: Cuando un pulso láser pasa a través de un plasma, expulsa fuera de su camino a los electrones formando una onda de densidad tras de sí que aplica una potente fuerza de aceleración en una corta distancia

Incluso así, esto era unas 500 veces menos energía de la que podía lograrse con el acelerador de electrones más avanzado de esa época -el Gran Colisionador de Electrones-Positrones, el cual residía entonces en el túnel del LHC. Y aparte de eso, sólo algunos electrones eran acelerados a toda potencia. Dependiendo de dónde estuviesen en la onda de densidad, algunos eran menos acelerados y otros nada en absoluto. Este amplio rango de energías era inútil para los físicos que querían llevar a las partículas juntas a energías definidas con precisión.

El avance llegó en 2004, cuando tres grupos – uno bajo el mando de Leeman y otros en Francia y Reino Unido – anunciaron de forma independiente que habían logrado crear rayos de electrones acelerados a una única energía, más menos un uno por ciento (Nature, vol 431, p 535, p 538 y p 541).

Los investigadores usaron distintos trucos para lograr esto, pero los tres equipos explotaron el fenómeno de romper las ondas. Así como una ola en el agua en calma que crece demasiado para soportarse colapsa, la onda de densidad de los electrones en el plasma puede crecer demasiado y romperse. Justo antes de que esto suceda, la onda transfiere su energía directamente a los electrones, como un tirachinas. Controlando cuidadosamente la potencia del láser y la densidad del plasma, es posible mantener una única onda detrás del pulso justo a punto de romperse. El resultado es un rayo de electrones de una energía estrechamente definida.

La nueva técnica era suficiente para propulsar electrones fiablemente a energías de más de 1 GeV – suficiente para encender el interés de investigadores de otras disciplinas. Esto se debe a que un rayo de electrones con una energía de pocos GeV, cuando es desviado por un campo magnético, irradia parte de su energía en forma de rayos-X muy energéticos. La longitud de onda de esta luz es lo bastante corta como para estudiar en detalle cómo se comportan las moléculas, átomos e incluso electrones aislados. La lista de investigadores que quieren tener sus muestras bajo estas sondas súper-submicroscópicas es interminable: todo el mundo, desde biólogos que estudian la estructura de las moléculas de la vida, a científicos de materiales e ingenieros eléctricos que buscan formas de incrustar diseños cada vez menores en chips de ordenador.

Desafortunadamente, las máquinas actualmente necesarias para generar estos rayos-X, aunque no tan gigantes como los colosos de la física de partículas, aún son bastante considerables. La Fuente de Luz Diamante, abierta en enero de 2007 en el Laboratorio Rutherford Appleton, es uno de los últimos ejemplos. Tuvo un coste aproximado de 400 millones de libras en su construcción y, con una circunferencia de medio kilómetros, cubre el área de varios campos de fútbol.

Los aceleradores de plasma no harán que las instalaciones como Diamond queden obsoletas de la noche a la mañana, dado que no pueden igualar la intensidad y frecuencia de pulso que pueden producir las máquinas mayores. Pero cualquier laboratorio de tamaño decente sería capaz de producir su propia fuente de rayos-X de alta energía en cinco años aproximadamente, dice Victor Malka, líder del grupo en la Escuela Politécnica de Palaiseau, Francia, que estuvo implicado en el avance de 2004.

A pesar de ser un avance revolucionario, un nivel tan bajo de energía es improbable que impresione a un físico de partículas hambriento de energía. El bebé de Thomas Katsouleas, por otra parte, tal vez podría.

Katsouleas es un ingeniero eléctrico de la Universidad de Duke en Durham, Carolina del Norte, y parte de un equipo implicado en una serie de experimentos potencialmente innovadores en el Laboratorio del Acelerador Nacional SLAC en Stanford, California. “La energía mínima para ver una nueva física es probablemente un rayo de 250 GeV impactando en otro de 250 GeV”, dice. En 2007, Katsouleas y sus colegas dieron un impresionante salto adelante hacia ese objetivo, creando un nuevo récord para la mayor energía lograda usando un acelerador de plasma: 85 GeV.

Según admitió, hizo un poco de trampa. Los electrones con los que empezó no estaban a la energía relativamente baja de los tranquilos electrones del propio plasma, sino a la emisión de 42 GeV de uno de los aceleradores de electrones convencionales más poderosos del mundo: el acelerador principal de 3 kilómetros de largo de SLAC. Incluso así, la duplicación de energía que logró el equipo de Katsouleas en apenas un metro de plasma es asombroso (Nature, vol 445, p 741).

En el experimento del equipo de SLAC, los electrones de alta energía desempeñaron el papel del pulso láser en los anteriores experimentos, creando los gradientes de densidad y acelerando los campos eléctricos en su estela. “La física es casi la misma”, dice Patric Muggli, colega de Katsouleas. Desgraciadamente, los problemas también: sólo parte de los electrones del rayo original quedan atrapados en el remolino, la mayor parte de los mismos pasan sin verse afectado, produciendo un frustrante espectro borroso de energías de electrones en el otro extremo.

Idealmente, los investigadores enviarían un segundo pulso de electrones de alta energía en el plasma justo tras el primero, sincronizándolos perfectamente para que naveguen en la estela del primero. Pero dado que el acelerador SLAC sólo envía un pulso cada vez, el equipo está observando el mismo resultado dando forma al único pulso que por lo que es a todos los efectos partido en dos. Los resultados se esperan, según dicen, en los próximos años.

Más allá de esto, el equipo de SLAC tiene planes ambiciosos, actualmente sin fondos, para colocar un segundo acelerador de plasma después del primero de forma que la salida de uno sea inmediatamente acelerada por el siguiente. “Una vez has demostrado las dos etapas, has resuelto el problema”, dice Mark Hogan, parte del equipo: si puedes unir dos aceleradores, puedes unir tres o más, continuando hasta que haya el número necesario para crear colisiones físicamente interesantes.

Existen otras dificultades, por supuesto. Para hacer todo lo que un acelerador actual hace, un acelerador de plasma debería ser capaz de acelerar positrones – electrones cargados positivamente. En los aceleradores convencionales, esto no es un problema demasiado grave: las corrientes de cargas opuestas simplemente fluyen en direcciones opuestas.

En un acelerador de plasma, no obstante, las cosas no son tan fáciles. Cuando un rayo de positrones de alta energía entra en un plasma, no repele los electrones, sino que los atrae, lo cual es algo totalmente distinto. “Aún no hemos resulto la física tras este problema, pero estamos trabajando en ello”, dice Katsouleas.

A pesar de estas cuestiones abiertas, la tecnología de plasma no está lejos del punto en el que pudiera reemplazar a un acelerador de diseño más convencional. Más inmediatamente, experimentos tales como los del SLAC abren la posibilidad de una nueva rama de aceleradores híbridos que sean compactos y rentables para lo que pueden hacer. La primera etapa sería un acelerador convencional de una escala de un kilómetro, la segunda un equipo de ignición en miniatura para llegar la energía de los electrones a nuevas cotas.

Súperbarato

Hogan y Muggli tienen planes incluso más ambiciosos. Han ideado un acelerador lineal convencional de un par de kilómetros de largo para crear un rayo de electrones de 25 GeV de energía. Acoplados en el extremo habría 20 fases consecutivas de plasma para acelerar el rayo a 500 GeV en sólo unos pocos metros adicionales. Tal máquina requeriría de bastante trabajo serio, pero Hogan y Muggli afirman que podría estar listo y funcionando para 2025.

El componente esencial de un acelerador de plasma – un tubo de gas – es, al menos comparado con las grandes sumas de las que se suelen hablar en física, básicamente gratis. Por tal razón, dice Katsouleas, la tecnología será difícil de ignorar si los físicos de partículas quieren tener fondos para sus planes más ambiciosos. Para él, la cuestión ahora no es si llegarán los aceleradores de plasma, sino qué los impulsará: ¿los pulsos láser de los experimentos originales, o los electrones de los experimentos de SLAC?

Katsouleas cree que la respuesta es obvia. Aunque el coste por vatio de la potencia de un láser se prevé que caiga en la próxima década de alrededor de 1000 dólares a unos 70, el precio equivalente para proporcionar un rayo de electrones inicial está sólo alrededor de los 10 dólares. Con un rayo de 250 GeV que requiere unos 100 megavatios para alimentarlo, la diferencia de precio será una consideración muy a tener en cuenta.

Leemans cree que este juicio es prematuro, y que los problemas aún por resolver en el desarrollo de un rayo de energía única con un acelerador de plasma alimentado por electrones podría ser un obstáculo significativo. Está buscando patrocinio para un proyecto de desarrollo de un acelerador de 10 GeV usando una fuente de luz láser incluso como primer paso para máquinas aún más potentes.

En marzo de este año, el Departamento de Energía de los Estados Unidos tiene previsto anunciar su evaluación de ambas aproximaciones, con vistas a invertir en alguna de ellas. La decisión podría tener profundas consecuencias para el futuro de la física de partículas de alta energía. ¿Qué costará la siguiente generación de aceleradores de partículas?

Articulo traducido y posteado en Ciencia Kanija, el original se publicó en NewScientist.

Posted in Ciencia, Física, Tecnología | Leave a Comment »

Visualizando la Ley de Moore

Posted by Jordi Guzman en 6 enero 2009


En 1965 Gordon E. Moore a la sazón director de Fairchild Semiconductor, una empresa norteamericana pionera en la introducción y desarrollo de los circuitos integrados, propuso una ley en la que se decía que cada dos años se duplica la cantidad de transistores en un circuito integrado. Este interesante articulo de Technology Review sirve para que nos hagamos una idea de la enorme incrementación de componentes en los circuitos de forma gráfica. Clic para ampliar.

Primer transistor plano, desarrollado por el cofundador de Fairchild Semiconductor, Jean Hoerni, en 1959.

Primer transistor plano, desarrollado por el cofundador de Fairchild Semiconductor, Jean Hoerni, en 1959.

En 1979 Intel presentó el chip 8080 con aproximadamente 8.000 transistores.

En 1979 Intel presentó el chip 8080 con aproximadamente 8.000 transistores.

Intel 386 presentado en 1985 con 270.000 transistores

Intel 386 presentado en 1985 con 270.000 transistores.

PowerPC 601 de IBM presentado en 1993 con 2,8 millones de transistores.

PowerPC 601 de IBM presentado en 1993 con 2,8 millones de transistores.

Intel Core 2 Duo presentado en 2007 con 410 millones de transistores.

Intel Core 2 Duo presentado en 2007 con 410 millones de transistores.

AMD Phenom II que tiene prevista su presentación a principios de 2009, con cuatro nucleos y alrededor de 758 millones de transistores.

AMD Phenom II que tiene prevista su presentación a principios de 2009, con cuatro nucleos y alrededor de 758 millones de transistores.

Posted in Electrónica, Informática, Nanotecnología, Tecnología | 5 Comments »

Amy Bennett – Oleos

Posted by Jordi Guzman en 6 enero 2009


Los oleos de Amy Bennett nos remiten irremediablemente a modelos en miniatura y es que la estadounidense realmente hizo a escala 1:87 modelos de las casas de sus vecinos.  Grandes cuadros de los que he hecho esta selección, en su página se pueden ver en su totalidad. Clic para ampliar.

31e

32e

38e

45e

49e

56e

57e

Vía BOOOOOOOM!

Posted in Arte, Pinturas | 2 Comments »

Imágenes de Belgrado

Posted by Jordi Guzman en 6 enero 2009


Magnificas imágenes hechas por una usuaria de Flickr llamada Katarina 2353 en los alrededores de Belgrado, Servia. Vale la pena pasarse a echar un ojeada porque son 129 fotos muy interesantes de las que he hecho esta selección. Clic para ampliar.

1

2

3

4

5

6

7

8

Vía A Welsh View

Posted in Fotografía, Paisajes | 2 Comments »

Mapa del centro de la Vía Láctea

Posted by Jordi Guzman en 6 enero 2009


Genial imagen compuesta del centro de la Vía Láctea tomadas por el Hubble y por el telescopio espacial Spitzer. La imagen es en infrarrojo y en ella se puede ver gas caliente, polvo, restos de supernovas y escondido en medio, demasiado pequeño para poderlo apreciar, un supermasivo agujero negro. Es del tamaño de nuestro sistema solar pero la imagen abarca 300 x 115 años luz.   Clic para ampliar.

NASA, ESA, and Q.D. Wang (University of Massachusetts, Amherst), Jet Propulsion Laboratory, and S. Stolovy (Spitzer Science Center/Caltech)

Crédito: NASA, ESA, y Q.D. Wang (University of Massachusetts, Amherst), Jet Propulsion Laboratory, y S. Stolovy (Spitzer Science Center/Caltech)

Vía Bad Astronomer

Posted in Astronomía, Ciencia, Fotografía, Tecnología, Vehiculos | 2 Comments »

 
Seguir

Recibe cada nueva publicación en tu buzón de correo electrónico.

Únete a otros 589 seguidores