Nueva dirección: http://pasalavida.org/

Archive for the ‘Investigación’ Category

El éxito de las colisiones en el LHC inaugura los nuevos descubrimientos de la física

Posted by Jordi Guzman en 30 marzo 2010


El descubrimiento de la misteriosa materia oscura del Universo, la confirmación de la existencia de una supersimetría entre las partículas y el hallazgo del escurridizo bosón de Higgs son algunos de los enigmas de la Física que podrían resolverse en los próximos dos años gracias al éxito alcanzado hoy por el Gran Colisionador de Hadrones (LHC) del CERN, en la frontera franco-suiza. Esta mañana dos haces de protones han colisionado en el LHC a 7 teraelectronvoltios (TeV), la mayor energía alcanzada jamás en un acelerador de partículas.

El momento que miles de físicos de partículas de todo el mundo estaban

Tras unas horas de retraso por incidencias técnicas, a las 13.06 horas dos paquetes de protones que circulaban por el gigantesco anillo de 27 kilómetros del LHC han chocado. En la imagen, el centro de control del CERN. Foto: SINC.

esperando ha sucedido esta mañana en el CERN, no muy lejos de Ginebra (Suiza). Tras unas horas de retraso por incidencias técnicas, a las 13.06 horas dos paquetes de protones que circulaban por el gigantesco anillo de 27 kilómetros del LHC han chocado, según han confirmado los cuatro detectores (CMS, ATLAS, ALICE y LHCb) de la gran máquina. Comienza así el programa de investigación del mayor colisionador de partículas del mundo.

Los científicos del CERN han arrancado en aplausos cuando las pantallas de sus ordenadores se han iluminado con los gráficos de colores que confirmaban el éxito de las colisiones. “Las manchas azules y rojas son depósitos de energía del calorímetro (medidor de la energía de las partículas) y las rayas amarillas representan las trayectorias que han seguido las partículas cargadas durante la colisión”, explica a SINC Juan Alcaraz, investigador principal del proyecto del CIEMAT en el detector CMS.

Los haces han circulado en sentido contrario a 3,5 TeV cada uno, la mayor energía conseguida hasta ahora en un acelerador, pero al colisionar se ha generado el doble: 7 TeV. Esto supone 3,5 veces más que los aproximadamente 2 TeV con los que trabajan en el colisionador Tevatrón del Fermilab, la “competencia” del LHC en Estados Unidos.

A partir de este momento, y a lo largo de entre 18 y 24 meses, comienza “la serie más grande de nuevos descubrimientos potenciales que los físicos de partículas han visto en más de una década”, según ha señalado Rolf Heuer, Director General del CERN.

Supersimetría y materia oscura

Heuer, que de viaje por Japón ha compartido por videoconferencia el éxito del acontecimiento, ha destacado que el LHC “tiene una oportunidad real en los próximos dos años de descubrir partículas supersimétricas, posiblemente elucidando la naturaleza de la materia oscura, que constituye cerca de un cuarto del Universo”.

La supersimetría es una hipótesis que plantea que a cada una de las partículas elementales de la materia, divididas en fermiones (como los quarks) y bosones (como el fotón), le corresponde un compañero supersimétrico bosón o fermión respectivamente. Así, por ejemplo, el quark “arriba” tiene una partícula supersimétrica “sarriba”, y el fotón tiene otra denominada “fotino”, ninguna de las dos descubiertas hasta ahora.

La partícula supersimétrica más ligera sería el neutralino (en el que participa el “fotino”, entre otros), y podría ser clave para explicar la naturaleza de la materia oscura, que de momento no se ha podido detectar directamente.

Los detectores ATLAS y CMS tendrán cada uno datos suficientes para duplicar la sensibilidad a partículas supersimétricas establecida hasta ahora, de hasta 400 GeV). El LHC elevará el rango de descubrimiento hasta 800 GeV.

Los experimentos del LHC también explorarán la posibilidad de encontrar nuevas partículas masivas y dimensiones “extra” (además de las tres conocidas) hasta masas de 2 TeV (también el doble del 1 TeV actual), así como continuar la investigación sobre la asimetría materia-antimateria o sobre por qué las dos no se aniquilaron mutuamente en los instantes siguientes al Big Bang.

En busca del bosón de Higgs

Además de estos descubrimientos potenciales, el programa de investigación del LHC se centrará en la búsqueda del bosón de Higgs, o al menos descartar que se encuentra en determinados rangos de energía. Esta partícula mítica en el campo de la física podría explicar la masa de otras partículas elementales y muchos aspectos de la estructura de la materia.

Tan pronto como se hayan “redescubierto” las partículas conocidas del Modelo Estándar aceptado por los científicos, un paso previo necesario antes de buscar “la nueva física”, los experimentos del LHC iniciaran la búsqueda sistemática del bosón de Higgs.

Con las colisiones cruzadas el análisis combinado de ATLAS y CMS será capaz de explorar un amplio rango de masas, e incluso hay una oportunidad de descubrir si el bosón de Higgs tiene una masa de cerca de 160 GeV. Si es mucho más ligero o muy pesado, será más difícil de encontrar en esta primera carrera del LHC.

Miles de científicos en todo el mundo esperan impacientes la llegada de los datos del LHC a través de la red de computación Grid, entre ellos más de dos mil estudiantes de doctorado para elaborar sus tesis.

Después de esta “primera carrera” de alrededor de dos años del LHC –con una pequeña parada técnica entre medias-, la gran máquina se apagará para realizar el mantenimiento rutinario y poder completar los trabajos necesarios para alcanzar la energía para la que está diseñado:14 TeV. Hasta ahora el CERN operaba en ciclos anuales.

“Dos años de funcionamiento continuo es mucho pedir tanto para los operadores como los experimentos del LHC, pero valdrá la pena el esfuerzo”, concluye Heuer.

___________________________________________________________

Declaraciones de los portavoces de los cuatro experimentos del LHC

ATLAS, Fabiola Gianotti: “Con estas energías de colisión récord, los experimentos del LHC se dirigen a una vasta región por explorar, y comienza la caza de materia oscura, nuevas fuerzas, nuevas dimensiones y el bosón de Higgs. El hecho de que los experimentos ya han publicado artículos científicos con los datos del año pasado es muy buena señal para esta primera carrera de la física”.

CMS, Guido Tonelli: “Todos hemos quedado impresionados con el rendimiento del LHC hasta ahora, y es particularmente satisfactorio ver cómo nuestros detectores de partículas están trabajando, mientras que nuestros equipos de física en todo el mundo ya están analizando los datos. Nos dirigiremos pronto a algunos de los mayores misterios de la física moderna, como el origen de la masa, la gran unificación de las fuerzas y la presencia de la abundante materia oscura en el universo. Espero momentos muy emocionantes frente de nosotros”.

ALICE, Jürgen Schukraft: “Este es el momento que esperábamos y para el que nos hemos preparado. Estamos deseando obtener los resultados de las colisiones de protones, y este año, más adelante, de colisiones de iones de plomo, para darnos nuevas pistas sobre la naturaleza de la interacción fuerte y la evolución de la materia en el Universo temprano”.

LHCb, Andrei Golutvin: “LHCb está listo para la física. Tenemos un gran programa de investigación por delante de nosotros para explorar la naturaleza de la asimetría materia-antimateria en más profundidad como jamás se había hecho antes”.

Artículo publicado en Servicio de Información y Noticias Científicas (SINC).

Más sobre el tema en Pasa la vida:

About these ads

Posted in Ciencia, Física, Ingeniería, Investigación, Tecnología | 4 Comments »

Sigue en directo las primeras colisiones del LHC

Posted by Jordi Guzman en 30 marzo 2010


Esta mañana a las 8:30 (hora española) se están iniciando los preparativos para intentar las primeras colisiones de haces en el interior del LHC con una energía de 7 TeV, 3,5 por cada haz. Se puede seguir todo el proceso en directo por medio de 5 webcast que el propio CERN ha puesto a disposición publica, tambien tienen una cuenta en Twitter.

Más sobre el tema en Pasa la vida:

Posted in Ciencia, Física, Internet, Investigación, Tecnología, Web 2.0 | 1 Comment »

Zapatero inaugura el acelerador de partículas Sincrotrón ALBA

Posted by Jordi Guzman en 23 marzo 2010


Hoy [por ayer] se ha inaugurado el Sincrotron ALBA, “la mayor infraestructura para la investigación construida en la historia de nuestro país”, según lo ha definido el Presidente del Gobierno José Luis Rodríguez Zapatero, que junto al Presidente de la Generalitat José Montilla, la Ministra de Ciencia e Innovación Cristina Garmendia han asistido al acontecimiento. Este microscopio gigante situado en Cerdanyola del Vallès (Barcelona) comenzará a operar como laboratorio científico en 2011 y su luz servirá para que unos mil científicos de toda Europa realicen investigaciones sobre las estructuras biológicas y de multitud de materiales.

“Este laboratorio es la mayor infraestructura para la investigación construida en nuestro país y en todo el sudoeste de Europa, y

Instalaciones del Sincrotrón ALBA.

atraerá a investigadores europeos y de todo el mundo”, ha destacado el Presidente Zapatero durante la inauguración hoy en Cerdanyola del Vallès, cerca de Barcelona, del nuevo Sincrotrón ALBA, un acelerador de electrones que genera una luz con la que se estudia la materia.

“Esta infraestructura ofrecerá a nuestras empresas un inmejorable instrumento para hacer innovación y crear patentes nuevas e incrementar su competitividad”, ha señalado Zapatero, que también ha calificado a este proyecto como “una buena muestra de inversión pública eficaz y de cooperación entre instituciones”.

El presupuesto del Sincrotrón ALBA entre 2003 y 2009 asciende a 201 millones de euros, financiados a partes iguales por el Gobierno español y la Generalitat de Catalunya, a través de la Conselleria d’Innovació, Univeristats i Empresa que dirige Josep Huguet. Ambas han creado el Consorcio para la Construcción, Equipamiento y Explotación del Laboratorio de Luz Sincrotrón (CELLS) para gestionar la instalación.

A partir de 2010 el coste de operación anual de este gran laboratorio será de 15,5 millones de euros, “y está garantizada su continuidad gracias a un compromiso presupuestario de 400 millones de euros hasta 2022”, según ha confirmado Zapatero.

El presidente ha destacado que esta inauguración se produce en “un momento significativo para el desarrollo de la ciencia y la innovación en España”, ya que en este mes de marzo confluyen la aprobación del anteproyecto de la Ley de la Ciencia, la aprobación del Proyecto de Ley de Economía Sostenible -que también fomenta la innovación y el conocimiento- y la celebración de la 6ª Conferencia Europea de Grandes Infraestructuras (ECRI 2010), que comienza mañana en Barcelona.

Por su parte, el Presidente de la Generalitat de Catalunya, José Montilla, ha agradecido “el compromiso de la Ministra Garmendia con Cataluña”, y ha señalado que hoy “vemos los frutos positivos de la política de inversión en I+D+i con la unión de esfuerzos y recursos de los diferentes gobiernos”. También ha recordado que los primeros beneficiarios del sincrotrón trabajarán en campos relacionados con ámbitos como la la química, la farmacia, la biomedicina y el sector alimentario.

La ministra Cristina Garmendia ha destacado además otros campos de aplicación de la luz del sincrotrón, como la ciencia de los materiales y la biología estructural, aunque muchas investigaciones también se realizarán “en las fronteras de la ciencia”.

Las previsiones son que el año que viene, cuando comience a operar oficialmente la instalación, unos mil científicos trabajen en las siete estaciones experimentales con las que arrancará ALBA.

Dos potentes aceleradores y un anillo de almacenamiento

El sincrotrón consta de tres componentes o aceleradores: un acelerador lineal del que parte el haz de electrones, un propulsor que los acelera a altas energías (3 gigaelectronvoltios) –ambos ya operativos-, y un anillo de almacenamiento donde se produce la luz sincrotrón (rayos X, básicamente) que servirá a los investigadores para estudiar las muestras.

“El anillo de almacenamiento empezará a funcionar sobre el mes de julio”, ha adelantado a SINC el Presidente de la Comisión Ejecutiva de CELLS, Ramón Pascual, “y a finales de año comenzaremos con los usuarios que nos ayuden a poner la maquina a punto, porque no se enchufa el primer día y ya funciona”.

El Director de la Comisión Ejecutiva de CELLS, Joan Bordas, ha indicado durante la inauguración que hoy “empieza una nueva vida que se extenderá unos 30 años, el periodo en que ALBA tendrá un gran potencial para generar excelentes resultados”.

El sincrotrón ALBA será el motor del futuro parque científico y tecnolígico “Parc de l’Alba” de Cerdanyola del Vallés, según ha recordado la alcaldesa de la localidad, Carme Carmona.

Artículo publicado en Servicio de Información y Noticias Científicas (SINC).

Posted in Ciencia, Física, Investigación, Tecnología | 4 Comments »

Confirmado: el impacto de un asteroide en la Tierra acabó con los dinosaurios

Posted by Jordi Guzman en 5 marzo 2010


Un equipo internacional de 41 científicos, en el que participa la Universidad de Zaragoza (UNIZAR), confirma que la extinción masiva producida hace 65,5 millones de años, que acabó con la era de los dinosaurios, fue provocada por el impacto de un asteroide de 12 kilómetros de diámetro en la Península de Yucatán (México). El estudio aporta nuevas evidencias geológicas que fortalecen esta hipótesis.

En los años ’80 se realizaron los primeros estudios sobre la hipótesis de que

El impacto de un gran asteroide contra los sedimentos ricos en azufre presentes en Chicxulub sigue siendo la causa más plausible de la extinción en masa en el límite K-T. Mapa de gravedad en 3D del cráter de Chicxulub (México). Mapa: David A. King / USRA / LPI.

un meteorito de grandes dimensiones se había estrellado contra la Tierra hace 65 millones de años, y había afectado a cerca del 70% de las especies animales y vegetales del planeta. En 1991 se descubría en Yucatán (México) el cráter de Chicxulub de más de 200 kilómetros de diámetro que coincidía con las extinciones. A pesar de las evidencias científicas, algunos sectores de la comunidad científica cuestionaban esta hipótesis del asteroide.

Para confirmarla, un grupo de 41 expertos de Europa, EE UU, México, Canadá y Japón presentan en el último número de la revista Science nuevos datos a partir del estudio de las perforaciones submarinas y de sitios continentales, así como del análisis de la literatura científica sobre el tema. Según los investigadores, las hipótesis alternativas no explican la abrupta

Foraminíferos.

extinción en masa.

“Tras combinar todos los datos disponibles a partir de diferentes disciplinas científicas, hemos concluido que un asteroide de gran tamaño que colisionó hace más de 65 millones de años en lo que es hoy México fue el principal causante de las extinciones en masa”, confirma Peter Schulte, autor principal del estudio y profesor adjunto en la Universidad de Erlangen (Alemania).
foraminíferos

El registro fósil ha demostrado que un evento de extinción en masa, denominado límite K-T, tuvo lugar a lo largo y ancho del planeta hace unos 65,5 millones de años. Los geólogos lo utilizan para marcar el fin del periodo Cretácico y el inicio del periodo Paleógeno (antes conocido como el periodo Terciario).

La aportación española: los fósiles microscópicos

Los tres investigadores de la Universidad de Zaragoza (UNIZAR) que han participado en este estudio son Laia Alegret, Ignacio Arenillas y José Antonio Arz, especialistas en el estudio de fósiles microscópicos (los foraminíferos) que ayudan a datar las rocas sedimentarias marinas que los contienen y a conocer sus ambientes de depósito. Los tres científicos han contribuido a la datación de las unidades sedimentarias relacionadas con el impacto meteorítico en el Golfo de México y el Caribe.

“Nuestra investigación se ha centrado en cuatro líneas: la datación precisa de los sedimentos ligados al impacto de Chicxulub y su correlación con el límite K-T; la intensidad y velocidad de las extinciones en torno al límite K-T (es decir, si la extinción fue catastrófica o gradual); la caracterización ambiental de los depósitos generados por el impacto de Chicxulub; y los bruscos cambios ambientales y climáticos que condicionaron la posterior radiación evolutiva de nuevas especies”, explica a SINC Ignacio Arenillas, uno de los autores españoles e investigador en el Departamento de Ciencias de la Tierra (Paleontología) de la UNIZAR.

Para corroborar la teoría impactista, la investigación española recogió resultados obtenidos en Europa, Sudamérica, el norte de África y en diversos sondeos oceánicos, desde la respuesta de las comunidades marinas a los cambios ambientales desencadenados, incluyendo la intensidad de las extinciones, hasta la radiación evolutiva posterior de nuevas especies.

“El estudio de los foraminíferos nos ha permitido correlacionar el impacto de Chicxulub y la extinción en masa del límite K-T. Además, hemos corroborado que su extinción fue catastrófica, es decir, acontecida en un intervalo de tiempo geológicamente instantáneo, y que por tanto sólo es explicable por la teoría impactista”, señala Arenillas.

Según los científicos españoles, la extinción se produjo “bruscamente” en un intervalo de tiempo ‘geológicamente instantáneo’ (en menos de uno o dos años). “Los principales cambios ambientales y climáticos, así como las radiaciones evolutivas, se produjeron tras el impacto meteorítico en el límite K-T y no antes, como sugerían algunas de las hipótesis rivales”, afirma el paleontólogo.

Ante la complejidad de demostrar los datos, Alegret, Arenillas y Arz confiesan que se encontraron con ciertos obstáculos como la adecuada interpretación de los datos geológicos y paleontológicos: “Había discrepancias de interpretación entre los partidarios de ambas hipótesis en torno a la naturaleza de los sedimentos ligados al impacto de Chicxulub en el Golfo de México, a su edad y, sobre todo, a la velocidad de las extinciones”.

Los tres micropaleontólogos españoles señalan a SINC que aportar evidencias “inequívocas” y datos clave que confirmaran definitivamente la teoría impactista fue “la labor más difícil”.

Descartar las hipótesis alternativas

A lo largo de la historia la comunidad científica ha propuesto muchas hipótesis que han intentado explicar el evento de la extinción masiva. “La que más eco ha tenido es la de las causas múltiples, que no negaba la existencia de impactos meteoríticos o de otros factores de extinción (por ejemplo, descensos del nivel del mar), y proponía como principal causa el incremento de la actividad volcánica en el área del Deccan (en la actual India), hacia finales del Cretácico”, apunta Arenillas. La hipótesis del impacto de Chicxulub quedaba en un segundo puesto, ya que sugería que habría ocurrido hace 300.000 años antes de la extinción del límite K-T.

Según la hipótesis de causas múltiples, las Trampas de Deccan (volcanes inusualmente activos) provocaron un enfriamiento global y una lluvia ácida, principales causantes de la extinción en masa, y no el impacto de un gran meteorito en Chicxulub (México).

Sin embargo, para el equipo internacional esta teoría no es viable. La caracterización ambiental de los sedimentos producidos por el impacto en Chicxulub ha permitido demostrar que algunos mecanismos propuestos por la hipótesis multicausal, como el descenso de 1.000 metros en el nivel del mar en un corto espacio de tiempo, son “técnicamente imposibles”, asegura el paleontólogo.

Un millón de veces superior a la mayor bomba nuclear

Los modelos sugieren que el impacto en Chicxulub desató una energía un millón de veces superior a la de la mayor bomba nuclear jamás detonada. Un impacto de esta dimensión habría eyectado material a altas velocidades por todo el mundo y provocado terremotos superiores a 10 en la escala Richter, así como el colapso de plataformas continentales, deslizamientos de tierra, corrimientos, movimientos en masa y tsunamis. También habrái creado un secuencia de depósitos gruesa y compleja cerca de Chicxulub.

“Si pretendemos desentrañar la secuencia de eventos en torno al límite K-T, quizás el último lugar del mundo en el que deberíamos buscar sea cerca del sitio del impacto en Chicxulub, pues es allí donde más desordenados están los depósitos de sedimentos”, declaran los investigadores estadounideses.

Los científicos han descubierto que, a pesar de la evidencia de un volcanismo “relativamente activo” en India, los ecosistemas marinos y terrestres sólo han exhibido cambios menores durante el periodo de 500.000 años anterior al límite K-T. En el preciso momento en que se alcanza el límite, se produjo una abrupta e importante disminución en la productividad (una medida de la masa total de los seres vivos) y la diversidad de especies.

Además, lejos de Chicxulub, el registro geológico muestra que un único meteorito de gran tamaño impactó contra la Tierra justo en el límite K-T. Todos los cambios notables en los ecosistemas de la Tierra se produjeron justo en ese límite. Así que el impacto de un gran asteroide contra los sedimentos ricos en azufre presentes en Chicxulub sigue siendo la causa más plausible de la extinción en masa en el límite K-T.

Según Sean Gulick y Gail Christeson, investigadores en el Instituto de Austin de Geofísicas de la Universidad de Texas (EE UU), el asteroide habría aterrizado a más profundidad en el agua de lo que se pensaba hasta el momento, liberando más vapor de agua y aerosoles sulfúricos a la atmósfera.

“Esto podría haber incrementado la letalidad del impacto de dos formas: alterando el clima (los aerosoles sulfúricos en la capa atmosférica superior pueden ejercer un efecto de enfriamiento) y provocando una lluvia ácida (el vapor de agua puede facilitar la liberación de los aerosoles sulfúricos de la capa atmosférica inferior)”, asevera Gulick.

———————————-

Referencia bibliográfica:

P. Schulte, et al. “The Chicxulub Asteroid Impact and Mass Extinction at the Cretaceous-Paleogene Boundary” Science vol 327, 5 de marzo de 2010.

Artículo publicado en Servicio de Información y Noticias Científicas (SINC)

Posted in Ciencia, Geología, Investigación, Paleontología | 2 Comments »

Europa autoriza por primera vez en doce años el cultivo de una patata transgénica

Posted by Jordi Guzman en 4 marzo 2010


La Comisión Europea ha autorizado esta mañana [por anteayer] el cultivo de un organismo genéticamente modificado (OGM), la patata Amflora. Esta autorización se produce doce años más tarde de la última, que se produjo en 1998. A esta aprobación se unen otras decisiones sobre la comercialización para consumo humano y animal de tres productos derivados de maíz transgénico.

Por primera vez en 12 años, Europa ha autorizado hoy un cultivo transgénico. Así lo ha anunciado la Comisión Europea (CE) que

Campo de maíz contaminado por semillas genéticamente modificadas. Foto: Archivo de Proyectos.

lanzará una propuesta antes de verano para dar libertad a los Estados miembro a cultivar o no OGM. Las autorizaciones para el cultivo de transgénicos durarán diez años.

La CE ha adoptado además esta mañana dos decisiones sobre la patata genéticamente modificada Amflora, diseñada por la empresa agroquímica BASF. Por un lado autoriza el cultivo de Amflora en la Unión Europea (UE) para fines industriales (como la producción de papel) y, por otro, permite el uso de productos derivados del almidón de la patata como alimento para animales. Esta decisión pone fin al proceso iniciado en Suecia en enero de 2003, y se basa en conocimientos científicos “rigurosos”.

“Tras un examen completo y en profundidad de cinco casos de OGM que estaban a la espera, me ha parecido evidente que ninguna cuestión científica nueva debía ser más analizada que antes. Todas las cuestiones científicas, sobre todo en cuestiones de seguridad, han sido escrupulosamente examinadas”, ha señalado John Dalli, comisario de Salud y Política de los Consumidores de la CE.

Dalli también ha añadido que esta decisión prevé condiciones de cultivo estrictas para evitar que las semillas de las patatas transgénicas abandonadas en el campo se extiendan accidentalmente en la naturaleza.

El comercio del maíz transgénico

La CE ha adoptado también hoy tres decisiones sobre la comercialización, la importación y la transformación de tres productos a base de maíz transgénico (MON863xMON810, MON863xNK603 y MON863xMON810xNK603 procedentes de la empresa estadounidense Monsanto) para consumo animal y humano, pero no para cultivo.

La Autoridad Europea de Seguridad Alimentaria (EFSA, en sus siglas en inglés) aprobó el pasado 11 de junio de 2009 estos tres productos que también pasaron por un proceso de autorización establecido en la legislación de la UE. La mayor preocupación acerca del consumo de estos productos transgénicos y de la patata Amflora es la presencia de un gen resistente a antibióticos que la EFSA ha asegurado haber analizado con detenimiento.

Sin embargo, a pesar del visto bueno de la CE sobre estos OGM, las organizaciones ecologistas como Amigos de la Tierra, CECU, COAG y Greenpeace han denunciado hoy la autorización del cultivo de este tubérculo, por contener un gen que lo hace resistente a determinados antibióticos, y han pedido la prohibición del cultivo en Europa.

Las ONG han advertido que este cultivo supone “un riesgo inaceptable para la salud de las personas, los animales, y el medio ambiente”. Desde la Organización Mundial de la Salud y la Agencia Europea del Medicamento también han advertido de la importancia de los antibióticos afectados por la patata Amflora porque la presencia de la patata en los campos podría aumentar la resistencia de determinadas bacterias a antibióticos imprescindibles en tratamientos contra la tuberculosis.

Artículo publicado en Servicio de Información y Noticias Científicas (SINC)

Posted in Agricultura, Ciencia, Genética, Investigación, Tecnología | Leave a Comment »

Identificada una sustancia clave para evitar recaer en el hábito de fumar

Posted by Jordi Guzman en 10 febrero 2010


Un estudio realizado por investigadores del Laboratorio de Neurofarmacología del Departamento de Ciencias Experimentales y de la Salud (CEXS) de la Universidad Pompeu Fabra (UPF), conjuntamente con científicos de la Universidad de Stanford, en Estados Unidos, ha puesto de manifiesto que unas moléculas denominadas hipocretinas juegan un papel importante en la recaída en el hábito tabáquico.

El tabaquismo es uno de los hábitos de consumo que causa más adicción, además de importantes problemas de salud a los

Investigadores del Laboratorio de Neurofarmacología implicados en el trabajo. Foto: UPF

fumadores. Esta adicción supone una pérdida del control sobre su consumo y un síndrome de abstinencia al dejar de fumar que favorece la recaída en el hábito, incluso después de largos periodos de abstinencia. Los tratamientos de deshabituación al hábito tabáquico tienen como principal objetivo evitar la recaída, hecho muy frecuente entre los fumadores.

El estudio del Laboratorio de Neurofarmacología, publicado hoy en la revista Journal of Neuroscience, forma parte de la tesis doctoral que está llevando a cabo la investigadora Ainhoa Plaza-Zabala, primera firmante del artículo, bajo la dirección del profesor Fernando Berrendero, coautor del trabajo. Este trabajo de investigación básica se ha llevado a cabo en un modelo animal de autoadministración de nicotina.

Las hipocretinas (conocidas también como orexina) son neuromoduladores de naturaleza peptídica que se encuentran en las neuronas del hipotálamo cerebral. Estas sustancias se relacionan con el metabolismo energético, la regulación de la ingesta y el período de vigilia. Recientemente se les ha asociado con los mecanismos de recompensa y con la adicción. Se ha comprobado que una actividad incrementada de las hipocretinas conduce a estados de ansiedad que pueden conducir a recaer en el consumo de determinadas sustancias que causan adicción.

Las principales conclusiones que se extraen del trabajo de los investigadores de la UPF son diversas. En primer lugar, que las hipocretinas juegan un papel crucial en la modulación de los episodios de ansiedad derivados de los efectos de la nicotina y en los procesos neurobiológicos subyacentes a la recaída en el hábito de fumar. Las hipocretinas modulan los efectos que la nicotina ejerce sobre la ansiedad interactuando con los factores liberadores de corticotropina (CRF), un péptido implicado en la respuesta al estrés, y con las neuronas de vasopresina (AVP) del hipotálamo.

Finalmente, en el proceso fisiológico de recaída en el consumo de nicotina, el CRF y las hipocretinas intervienen de manera independiente pero complementaria, lo cual tiene importantes implicaciones en vistas a diseñar una estrategia terapéutica basada en el bloqueo de la acción de estos dos péptidos para evitar la recaída al tabaco tras un periodo de abstinencia.

Trabajo de referencia:

A. Plaza-Zabala; E. Martín-García; L. de Lecea; R. Maldonado; F. Berrendero, “Hypocretins Regulate the Anxiogenic-Like Effects of Nicotine and induce Reinstatement of Nicotine-Seeking Behavior”, Journal of Neuroscience, 10 de febrero de 2010.

Artículo publicado en Servicio de Información y Noticias Científicas (SINC).

Posted in Biología, Ciencia, Investigación, Medicina, Química | 4 Comments »

Visualizan en 3D las conexiones neuronales

Posted by Jordi Guzman en 21 enero 2010


Un equipo de investigadores del Instituto Max Planck de Bioquímica (Alemania), encabezado por el físico español Rubén Fernández-Busnadiego, ha conseguido obtener imágenes en 3D de las vesículas y filamentos implicados en la comunicación neuronal. El método se basa en una novedosa técnica de microscopía electrónica que enfría las células tan rápido que permite congelar las estructuras biológicas en plena actividad.

“Hemos aplicado la crio-tomografía electrónica, una novedosa técnica de microscopía basada en la congelación ultrarrápida de

Visualización tridimensional de la sinapsis mediante tomografía electrónica: vesículas sinápticas (amarillo), membrana celular (violeta), conectores entre vesículas (rojo), filamentos que anclan las vesículas a la membrana celular (azul marino), microtúbulo (verde oscuro), material del espacio sináptico (verde claro) y densidad postsináptica (naranja). Imagen: Fernández-Busnadiego et al.(clic para ampliar)

células, al estudio y obtención de imágenes tridimensionales de la sinapsis, la estructura celular donde tiene lugar la comunicación entre las neuronas del cerebro de los mamíferos” explica a SINC Rubén Fernández-Busnadiego, primer autor del estudio que este mes es portada de la revista Journal of Cell Biology y físico del Instituto Max Planck de Bioquímica (Alemania).

En la sinapsis una célula presináptica (emisor) libera neurotransmisores sobre otra postsináptica (receptor), generando en ella un impulso eléctrico y estableciendo así la transmisión de información nerviosa. En este trabajo los investigadores se han centrado en las diminutas vesículas (de unos 40 nanómetros de diámetro) que transportan y liberan los neurotransmisores desde los terminales presinápticos.

“Gracias a la aplicación de determinados tratamientos farmacológicos y del avanzado método de análisis de imágenes 3D que hemos desarrollado, se puede observar la multitud de estructuras filamentosas que pueblan el terminal presináptico e interactúan directamente con las vesículas sinápticas, así como descubrir su papel fundamental en respuesta a la actividad eléctrica del cerebro”, destaca Fernández-Busnadiego.

Los filamentos conectan a las vesículas entre sí y con la zona activa, la parte de la membrana celular donde se produce la liberación de los neurotransmisores. Según el físico español, estas estructuras filamentosas actúan como barreras que limitan el libre movimiento de las vesículas, manteniéndolas en su lugar hasta que llega el impulso eléctrico, además de determinar la facilidad con la que se fusionan con la membrana.

Imágenes bajo 0

La técnica en la que se basan estos descubrimientos, la crio-tomografía electrónica, permite obtener imágenes tridimensionales del interior de las células y minimizar las alteraciones estructurales. Esto es posible porque las células no están fijadas con reactivos químicos sino que están vitrificadas, es decir, congeladas tan rápidamente que el agua de su interior no tiene tiempo de cristalizar y se mantiene en estado sólido.

El uso de microscopios especialmente equipados permite la visualización de estas muestras, que se conservan siempre a temperaturas de nitrógeno líquido (inferiores a -140 ºC). Además, este método no requiere de tinciones adicionales, por lo que la densidad de las estructuras biológicas se observa directamente.

————————————-

Referencia bibliográfica:

Rubén Fernández-Busnadiego, Benoît Zuber, Ulrike Elisabeth Maurer, Marek Cyrklaff, Wolfgang Baumeister y Vladan Lučić. “Quantitative analysis of the native presynaptic cytomatrix by cryoelectron tomography”. The Journal of Cell Biology 188 (1):145-156, 11 de enero de 2010.
Artículo publicado en Servicio de Información y Noticias Científicas (SINC).

Posted in Ciencia, Física, Investigación, Neurología, Tecnología | 1 Comment »

Una fuente inagotable de células humanas para estimular la regeneración nerviosa

Posted by Jordi Guzman en 21 diciembre 2009


Investigadores del Centro de Biología Molecular “Severo Ochoa” (CBMSO), centro mixto perteneciente al Consejo Superior de Investigaciones Científicas (CSIC) y a la Universidad Autónoma de Madrid (UAM), han obtenido líneas celulares de glía envolvente humana reversiblemente inmortalizadas que son capaces de estimular la regeneración nerviosa.

El sistema nervioso central no es capaz de regenerarse tras una lesión. La glía envolvente olfatoria (GE) es un tipo celular con

Figura (A): Línea de GE humana inmortalizada (x400). Figura (B): Regeneración de neuronas de retina adulta sobre línea de GE humana inmortalizada (x200)

características propias que se encuentra en el sistema olfativo, donde se cree que favorece la regeneración nerviosa. Es por ello que este tipo glial ha despertado tanto interés durante los últimos tiempos. De hecho, numerosos estudios en modelos animales han demostrado que los transplantes de glia envolvente olfatoria favorecen la regeneración nerviosa y la reparación de las lesiones de la médula espinal.

El trabajo realizado por los científicos del CBMSO (CSIC-UAM), publicado en Glia, demuestra que es factible preparar de manera reproducible cultivos de GE humana a partir de los bulbos olfativos obtenidos de autopsias, y que las células obtenidas estimulen la regeneración de las neuronas adultas del sistema nervioso central.

Sin embargo, los cultivos preparados directamente a partir de tejidos tienen el problema de que no se pueden expandir indefinidamente. Por tanto obtener un número suficiente de células gliales para el tratamiento de las lesiones de la médula espinal podría ser limitante en algunos casos (lesiones de gran tamaño). Asimismo, el tratamiento temprano de las lesiones medulares requeriría el transplante inmediato de estas células.

Por estas razones este grupo ha inmortalizado las células de GE humana utilizando genes claves para el control de la proliferación celular, permitiendo su división indefinida en cultivo. El método empleado posibilita además la eliminación de dichos genes tras la expansión de las células (inmortalización reversible). El objeto es expandir las células tanto como sea necesario para después eliminar los genes que permiten dicha expansión antes de su transplante en la médula espinal, evitando los riesgos que conllevaría el uso de células que los portaran (por ejemplo la formación de tumores). Varias de las líneas obtenidas mantienen, antes y después de la eliminación de dichos genes, una capacidad regenerativa equivalente a la de la GE original no inmortalizada. Además las células se pudieron seguir hasta un mes después de su implante en un modelo animal de lesión de la médula espinal (xenotransplante de células humanas en ratas).

El trabajo del laboratorio de NeuroRegeneración del CBMSO es una prueba de que es posible generar bancos de líneas de GE homogéneas y bien caracterizadas para su capacidad neuro-regenerativa. Estas células, de inmediata disponibilidad, podrían ser usadas en aquellos pacientes en los que pudiera ser inviable un autotransplante con sus propias células de GE (obtenidas a partir de la mucosa olfativa). Esto podría darse en una variedad de casos: por la imposibilidad de obtener números suficientes de células propias por factores como la edad y la variabilidad individual de la respuesta celular en cultivo, o por la existencia de lesiones de gran calibre.

Se eliminaría, por tanto, la incertidumbre que conlleva la preparación de cultivos directamente a partir de los tejidos de los pacientes y el tiempo que ello acarrea (alrededor de un mes). También se posibilitaría en el futuro el tratamiento temprano de las lesiones medulares, momentos en que las células de la GE podrían ejercer al máximo sus efectos beneficiosos, aprovechando su capacidad para proteger al tejido del daño que se produce en las horas siguientes a la lesión para, a tiempos más largos, mediar regeneración de las vías nerviosas en las mejores condiciones posibles.

Estos estudios han sido previamente patentados a nivel internacional y dicha patente esta licenciada a la empresa Noscira S.A.
Artículo publicado en Servicio de Información y Noticias Científicas (SINC).

Posted in Biología, Ciencia, Investigación, Medicina, Neurología | 1 Comment »

Científicos españoles crean una piel humana artificial con propiedades biomecánicas mediante ingeniería tisular

Posted by Jordi Guzman en 4 diciembre 2009


Han empleado dos biomateriales de fibrina y agarosa y, posteriormente, la han integrado en ratones atímicos, obteniendo unos niveles óptimos de desarrollo, maduración y funcionalidad. Este descubrimiento podría ser útil en el tratamiento de diferentes patologías que afectan la normalidad de la piel.

Científicos de la Universidad de Granada han logrado generar piel humana artificial empleando la ingeniería tisular, a partir de dos biomateriales de fibrina y agarosa, que han integrado a la perfección en ratones con unos niveles óptimos de desarrollo, maduración y funcionalidad.

Este descubrimiento, pionero en todo el mundo, facilitará el uso de piel humana en la clínica, y además puede ser empleado en multitud de pruebas de laboratorio sobre tejidos biológicos sin necesidad de utilizar animales de laboratorio. También podría ser útil en el tratamiento de diferentes patologías que afectan la normalidad de la piel.

Este trabajo ha sido llevado a cabo por José María Jiménez Rodríguez, del grupo de investigación de Ingeniería Tisular del departamento de Histología de la Universidad de Granada, y dirigido por los profesores Miguel Alaminos Mingorance, Antonio Campos Muñoz y José Miguel Labrador Molina.

El trabajo de los científicos de la UGR ha abarcado desde la selección de las células que han utilizado para la fabricación de la piel artificial y el análisis de su comportamiento in vitro, hasta un control de calidad de los tejidos implantados en ratones atímicos. Para ello, fue necesario desarrollar diversas técnicas microscópicas y de inmunofluorescencia que permitieron a los científicos evaluar factores tan importantes como la proliferación celular, la existencia de patrones morfológicos de diferenciación, la expresión de citoqueratinas, involucrinas y filagrinas, la angiogénesis y la integración con tejidos del organismo receptor.

Muestras de piel humana

Para llevar a cabo esta investigación, los científicos obtuvieron muestras de piel humana a partir de pequeñas biopsias procedentes de pacientes sometidos a intervenciones en el Servicio de Cirugía Plástica del Hospital Universitario Virgen de las Nieves de Granada. Todos los pacientes incluidos en el estudio dieron su consentimiento previo a la participación en el mismo.

Para el desarrollo de los diferentes constructos de piel humana artificial, se utilizó fibrina humana procedente de plasma sanguíneo de donantes sanos, a los cuales se añadió ácido tranexámico (como antifibrinolítico), cloruro cálcico para precipitar la reacción de coagulación de la fibrina y agarosa al 0,1%. Estos sustitutos de piel artificial se implantaron en el dorso de unos ratones atímicos para su evolución in vivo, analizándose los equivalentes cutáneos implantados mediante microscopía óptica y electrónica de transmisión y barrido e inmunofluorescencia.

La piel generada en laboratorio mostró adecuados niveles de biocompatibilidad con el receptor y ausencia de cualquier signo de rechazo, dehiscencia o infección. Además, todos los animales que participaron en el estudio mostraron la aparición de tejido de granulación tras seis días del implante, el cual dio paso a una cicatrización total a partir del vigésimo día.

El trabajo realizado en la UGR supone la primera vez que se elabora piel humana artificial con una dermis basada en biomateriales de fibrina y agarosa, ya que hasta la fecha se habían elaborado sustitutos de piel artificial en función de otros biomateriales como colágeno, fibrina, ácido poliglicólico, quitosan, etc.

El hecho de utilizar estos biomateriales en esta investigación “aportó resistencia, firmeza y elasticidad a la piel” -apunta Jiménez Rodríguez-. En definitiva, hemos creado una piel con mayor estabilidad, que además presenta una funcionalidad muy similar a la piel humana normal”.

Artículo publicado en Servicio de Información y Noticias Científicas (SINC)

Posted in Biología, Ciencia, Investigación, Medicina | 1 Comment »

Continúa el debate sobre el meteorito de Marte

Posted by Jordi Guzman en 3 diciembre 2009


Usando unos instrumentos analíticos más avanzados disponibles actualmente, un equipo de investigación del Centro Espacial ha

Esta es una imagen de una superficie plana pulida de un trozo cortado del meteorito egipcio de Nakhla fotografiado con un microscopio electrónico de barrido (SEM). El material más brillante es el mineral olivino, un silicato de magnesio-hierro formado cuando un flujo de lava se enfrió en Marte. En algún punto, el meteorito se fracturó, y quedó sumergido en el agua de Marte. El agua marciana precipitó una variedad de materiales en las grietas. Crédito: NASA

re-examinado el hallazgo de 1996 de un meteorito que contiene sólidas pruebas de que la vida pudo haber existido en el antiguo Marte.

La nueva investigación se centró en investifar las propuestas alternativas para la creación de materiales que se cree que son signos de vida antigua encontrados en el meteorito. El nuevo estudio defiente que la antigua vida sigue siendo la explicación más plausible para los materiales y estructuras encontrados en el meteorito.

En 1996, un grupo de científicos liderados por David McKay, Everett Gibson y Kathie Thomas-Keprta del Centro Espacial Johnson de la NASA en Houston publicaron un artículo en la revista Science anunciando el descubrimiento de pruebas biogénicas en el meteorito ALH84001. Un artículo recientemente publicado revisita la hipótesis original con nuevos análisis.

El artículo, “Origin of Magnetite Nanocrystals in Martian Meteorite ALH84001“, de Thomas-Keprta y los coautores Simon Clemett, McKay, Gibson y Susan Wentworth, todos científicos en el Consejo de Exploración Científica e Investigación en Astromateriales en el JSC, aparece en el ejemplar de noviembre de la revista Geochimica et Cosmochimica Acta de la Sociedad Geoquímica y la Sociedad Meteorítica.

Los cristales de magnetita en ALH84001 han sido el centro del debate sobre la posibilidad de vida en Marte. La magnetita es un mineral magnético férrico. En la Tierra, algunas bacterias acuáticas y terrestres secretan el mineral dentro de sus células. El estudio de 1996 sugería que algunos cristales de magnetita asociados con glóbulos carbonatados en ALH84001 eran biogénicos debido a que comparten muchas características con los encontrados en las bacterias de la Tierra.

Otros científicos han defendido que la magnetita de ALH84001 estuvo probablemente causada por procesos inorgánicos, y que esos mismos procesos pueden recrearse artificalmente en el laboratorio calentando carbonatos en un proceso conocido como descomposición térmica, formando magnetita idéntica a la encontrada en el meteorito de Marte.

En este nuevo estudio, el equipo de investigación del JSC research re-evaluó la principal hipótesis alternativa no biológica de la descomposición por calor o impacto de las magnetitas. Concluyen que la explicación biogénica es una hipótesis más viable para el origen de las magnetitas.

“En este estudio, interpretamos nuestros resultados y sugieren que la hipótesis inorgánica in situ es inconsistente con los datos, y por tanto deducimos que la hipótesis biogénica aún es una explicación viable”, dijo la autora principal Thomas-Keprta, científico senior para Barrios Technology en el JSC.

“Creemos que la hipótesis biogénica es más sólida ahora que cuando la propusimos por primera vez hace 13 años”, dijo Gibson, científico senior de la NASA.

Además del nuevo artículo sobre ALH84001, el equipo del JSC ha publicado un artículo que identifica formas o morfologías en meteoritos marcianos que recuerdas a microfósiles y formas microbianas de muestras de la Tierra.

Estas nuevas formas, vistas con un microscopio electrónico de barrido, son conocidas como biomorfos debido a que guardan un estrecho parecido con unas características conocidas producidas biológicamente en la Tierra. Los biomorfos observados en los meteoritos serán en centro del equipo del JSC con estudios más detallados, incluyendo análisis químicos e isotópicos.

“Las pruebas que apoyan la posibilidad de vida pasada en Marte han estado acumulándose lentamente durante la última década”, dijo McKay, científico jefe de la NASA para exploración y astrobiología en el JSC.

“Estas pruebas incluyen signos de agua superficial en la antigüedad incluyendo ríos, lagos y posiblemente océanos, signos de corrientes de agua cerca o en la superficie, depósitos derivados del agua de minerales de arcilla y carbonatos en suelos viejos, y la reciente liberación de metano en la atmósfera marciana, un hallazgo que puede tener varias explicaciones, incluyendo la presencia de vida microbiana, la fuente principal de metano en la Tierra”.

Artículo traducido y posteado en Ciencia Kanija, el original se publicó en Mars Daily. Las negritas son mías.

Posted in Astrobiología, Biología, Ciencia, Espacio, Exobiología, Investigación, Marte | Leave a Comment »

El LHC establece un nuevo récord del mundo

Posted by Jordi Guzman en 1 diciembre 2009


El LHC o Gran Colisionador de Hadrones del CERN se ha convertido hoy en el acelerador de partículas más potente del mundo después de que esta mañana sus dos haces de protones hayan alcanzado una energía de 1,18 teraelectronvoltios (TeV). Hasta ahora el récord lo ostentaba el colisionador Tevatron del Fermi National Accelerator Laboratory (Fermilab) de EE UU, que en 2001 consiguió los 0,98 TeV.

Hoy [por ayer] el LHC ha marcado otro hito en su camino hacia los primeros descubrimientos en Física previstos para 2010. Esta

Centro de control del CERN.

mañana los responsables de la gigantesca máquina han conseguido acelerar dos haces de protones hasta una energía de 1,18 TeV, lo que supera el anterior récord mundial de 0,98 TeV establecido por el colisionador Tevatron del Fermilab (EE UU), según confirma el CERN en un comunicado.

“De momento nos conformamos con que la puesta en marcha del LHC vaya sin problemas”, dice el Director General del CERN Rolf Heuer. “Es fantástico, pero seguimos trabajando paso a paso porque todavía queda mucho por hacer antes de que el año que viene comiencen a llegar los primeros descubrimientos físicos. Mantendré el champán en frío hasta entonces”.

Los nuevos avances llegan tan sólo 10 días después de que el LHC volviera a ponerse en marcha, lo que demuestra el “excelente funcionamiento” de la máquina. El 20 de noviembre se inyectaron los primeros haces en el Gran Colisionador y en los días posteriores los operadores de la máquina restablecieron la circulación de los haces en el interior del anillo. La operación se realizó de forma alterna, primero en una dirección y luego en la otra, a una energía de inyección de 450 GeV y aumentando la duración del haz de forma gradual hasta aproximadamente 10 horas. El 23 de noviembre circularon por primera vez dos haces juntos y los cuatro grandes detectores de LHC registraron los primeros datos de colisión.

El logro de la pasada noche vuelve a confirmar que el LHC progresa sin problemas hacia los primeros hallazgos físicos a comienzos de 2010. El récord mundial de energía se alcanzó ayer cuando el haz 1 se aceleró desde 450 GeV hasta los 1.050 GeV (1,05 TeV) a las 21:28 horas del domingo 29 de noviembre. Tres horas más tarde los dos haces del LHC se aceleraron con éxito a 1,18 TeV, a las 00:44 horas de hoy.

“Estaba aquí hace 20 años cuando encendimos el anterior acelerador de partículas más importante del CERN, el LEP”, señala el Director de Investigación y Tecnología Steve Myers, que añade:“Pensé que se trataba de una máquina fantástica de manejar, pero ésta es algo más. Lo que nos llevaba días o semanas con el LEP, lo estamos haciendo en horas con el LHC. De momento todo augura que será un programa de investigación fabuloso”.

La próxima acción programada es una fase “concentrada” en la que se aumentará la intensidad del haz antes de Navidad y previa a la entrega de grandes cantidades de datos de colisión a los experimentos. Hasta el momento, todo el trabajo de puesta en marcha del LHC se ha llevado a cabo con un haz piloto de intensidad baja, pero se necesita una intensidad más alta para proporcionar índices de colisión protón-protón significativos.

El objetivo de la fase actual es asegurar que estas intensidades más altas puedan manejarse de forma segura, así como garantizar condiciones estables para los experimentos que se realicen durante las colisiones. Se estima que esta etapa durará aproximadamente una semana, tras la cual, y hasta finales de año, se harán colisionar haces en el LHC para realizar calibraciones. Los primeros descubrimientos físicos en el gran colisionador están programados para el primer trimestre de 2010, a una energía de colisión de 7 TeV (3,5 TeV por haz).

Artículo publicado en Servicio de Información y Noticias Científicas (SINC)

Posted in Ciencia, Física, Investigación, Tecnología | 5 Comments »

La verdad sobre la desaparición de las abejas

Posted by Jordi Guzman en 3 noviembre 2009


Una película llamada “La desaparición de las abejas (Vanishing of the Bees)” se estrenó en los cines de todo el Reino Unido a principios de este mes. Es un documental sin cortes sobre el “misterioso colapso” de la población de abejas por todo el planeta – un fenómeno que recientemente ha atraído gran atención y sobre el que se ha escrito mucho.

La idea de que las abejas están desapareciendo por razones desconocidas se ha incrustado en la consciencia general. También es una

Abejas

Aún polinizando. Imagen: Sipa Press/Rex Features

gran historia que aprovecha la ansiedad de nuestra era. Pero, ¿es cierto? Creemos que no, no aún al menos.

Primero lo básico. La polinización por parte de abejas y otros animales – moscas, mariposas, pájaros y murciélagos – es necesaria para la producción de frutas y semillas en muchas plantas silvestres y cultivadas. Más de un 80% de las 250 mil especies de plantas con flor del planeta están polinizadas por animales.

La agricultura es un beneficiario a gran escala de estos servicios de polinización, por lo que afirmar que estos polinizadores están en declive ha disparado las alarmas ya que nuestro suministro alimenticio podría estar en peligro, y puede que estemos al borde de una “crisis de polinización” global.

Las afirmaciones de tal crisis descansan sobre tres pilares básicos: esas abejas son las responsables de la producción de una gran porción de nuestro alimento; que esos polinizadores están declinando a nivel mundial; y que la caída en los polinizadores amenaza al rendimiento de la agricultura. Numerosos artículos científicos, artículos de muchos medios e incluso una resolución del Parlamento Europeo de 2008 presentan cada uno de estos aspectos como una verdad incontestable. ¿Pero lo son?

Nuestro análisis de los datos procedente de la Organización de los Alimentos y Agricultura de las Naciones Unidas revelan una perspectiva diferente de la crisis de polinización – una que es menos catastrófica que lo descrito en las películas (Current Biology, vol 18, p 1572, and vol 19, p 915).

La primera base – que las abejas son responsables de la producción de una gran fracción de nuestra comida – es simplemente falsa. Los polinizadores son importantes para muchos cultivos, pero es un mito que la humanidad se moriría de hambre sin abejas.

Aproximadamente el 70 por ciento de los 115 cultivos más productivos, incluyendo la mayor parte de frutas y oleaginosas, son polinizadas por animales. Esto hace una cifra de casi 2500 millones de toneladas de comida al año, aproximadamente un tercio de la producción agrícola global. No obstante, pocos de estos cultivos dependen completamente de la polinización animal, dependiendo en gran parte de su capacidad de auto-polinización.

Aparte de eso, la producción de muchos alimentos básicos no dependen en absoluto de los polinizadores: los cultivos de carbohidratos tales como el trigo, arroz y maíz son polinizados por el viento o auto-polinizados. Si las abejas desaparecen por completo, la producción agrícola global bajaría entre un 4 y un 6 por ciento.

¿Qué hay de la bajada de polinizadores? Las afirmaciones de una desaparición global de abejas están basadas en colecciones de (a menudo extremos) ejemplos regionales, lo cual no necesariamente es representativo de las tendencias globales. Estos ejemplos tienden a proceder de zonas de Europa y Norteamérica donde quedan pocos hábitats naturales o semi-naturales.

La cantidad de abejas domesticadas, el polinizador de cultivos más importante de todos, también ha decrecido considerablemente en los Estados Unidos y algunos países europeos en las décadas recientes. No obstante, estas bajadas se compensan con el fuerte incremento en Asia, Latinoamérica y África. Es más, el número de colmenas gestionadas en todo el mundo se ha incrementado aproximadamente en un 45 por ciento en las últimas cinco décadas.

También ha habido algunas aterradoras historias sobre el “desorden por colapso de la colonia” y la expansión del ácaro Varroa en los Estados Unidos y Europa. De nuevo, estos son fenómenos reales, pero problemas pasajeros más que fuerzas directoras de tendencias a largo plazo. En lugar de esto, la bajada a largo plazo parece ser consistente con la dinámica económica de la industria de la miel, la cual parece estar desplazándose a los países en desarrollo en busca de una producción más barata.

Finalmente, ¿una baja abundancia de los polinizadores afectan a la productividad de la agricultura? Es cierto que una carencia de polinizadores, especialmente las abejas, puede limitar la producción de muchos cultivos y plantas silvestres. También es cierto que muchos cultivos dependientes de los polinizadores han crecido más lentamente que aquellos cultivos en su mayoría no dependientes. No obstante, contrariamente a lo que se esperaría si bajan los polinizadores, la media de producción de los cultivos dependientes de los polinizadores se ha incrementado a ritmo estable durante las últimas décadas, al igual que los cultivos no dependientes, sin signos de ralentización.

En general, debemos concluir que las afirmaciones de una crisis global en la polinización agrícola no son ciertas.

Los problemas de polinización pueden ser inminentes, no obstante. La producción agrícola global ha mantenido su ritmo con la duplicación de la población humana durante las últimas cinco décadas, pero la pequeña proporción de ésta que depende de los polinizadores se ha cuadruplicado durante el mismo periodo. Esto incluye los alimentos de lujo tales como las frambuesas, cerezas, mangos y anacardos. El incremento en la producción de estos cultivos ha sido conseguido, en parte, por un incremento de un 25 por ciento en el área de cultivo en respuesta a una mayor demanda de los mismos.

Esta expansión puede presionar la capacidad de polinización global, por dos razones. La demanda de servicios de polinización ha crecido más rápido que la cantidad de abejas domésticas, y la limpieza de tierra asociada ha destruido gran parte de los hábitats naturales de los polinizadores silvestres.

El incremento acelerado de los cultivos dependientes de polinizadores por tanto tienen el potencial de disparar futuros problemas para estos cultivos y plantas silvestres. Estos problemas pueden crecer conforme la bajada en la producción de frambuesas, cerezas y el resto aumenten rápidamente sus precios, estimulando aún más la expansión de los cultivos. Por lo que aunque la actual crisis de la polinización es en gran parte un mito, puede que pronto tengamos una real entre manos.

Artículo traducido y posteado en Ciencia Kanija, el original se publicó en NewScientist, los autores son Marcelo Aizen es un investigador del Consejo de Investigación Nacional Científico y Técnico de Argentina. Lawrence Harder es profesor de ecología de polinización en la Universidad de Calgary en Alberta, Canadá.

 

Para los que estén interesados en el tema, en Investigación y Ciencia nº 397 de octubre de 2009 hay un artículo sobre la enfermedad causante del despoblamiento de las colmenas.

La silenciosa pandemia de las abejas.

De cómo se descubrió la causa de una enfermedad silenciosa que ha causado el despoblamiento de millares de colmena.

Era el año 2004. El laboratorio de pa­tología apícola del Centro Agrario de Marchámalo (Guadalajara) estaba colapsado por miles de cajas de cartón, lle­nas de abejas enfermas y moribundas, remitidas por apicultores de toda Espa­ña. Las muestras esperaban su estudio para averiguar la causa de un extraño proceso, en el que las abejas desapare­cían. Un cuadro clínico nuevo para api­cultores y veterinarios, que estaba oca­sionando grandes pérdidas económicas. A los ojos de ambos, las colmenas son animales de producción (como las vacas y las ovejas), puesto que generan pro­ductos para el consumo humano; asimis­mo, son benefactoras para los ecosiste­mas al polinizar plantas, silvestres y cultivadas.

A esa patología se la denominó en 2005 “desabejamiento de las colmenas”, expresión sustituida luego por el actual “síndrome del despoblamiento de las col­menas” (SDC) en España y Europa, o “Colony Collapse Disorder” (CCD) en EE.UU. Las abejas desaparecen y la colmena muere sin presentar una sintomatología que permita intuir el origen del problema.

Primavera sin abejas melíferas

En invierno es cuando se observan las mayores pérdidas. Ello coincide con el momento en que los apicultores se dis­ponen a preparar su “ganado” para la re­colección de primavera. El campo está henchido de néctar y polen, pero no hay suficientes abejas para trabajar. La deses­peración del apicultor se exacerba cuan­do ve que sus colmenas no despiertan y que no se multiplica el número de abe­jas para recolectar. Aun cuando la abeja reina haya sobrevivido, ya no hay tiem­po ni suficientes abejas trabajadoras para el momento de la floración. Se pierde la cosecha de ese año y la polinización debe ser asumida por otras especies. Las col­menas, que no consiguen reponer las abe­jas que mueren en el campo, se acaban despoblando y mueren.

En esta situación nos encontrábamos ya en 2000, cuando algunos apiculto­res y veterinarios consultaban al Centro Apícola por casos de debilitamien­to o de elevada e inexplicable mortalidad de colmenares completos, en apariencia sanos. Como en toda ganadería, en la apicultura mueren cada año, por cau­sas diversas, cierto número de animales o colmenas. Sin embargo, nada hacía pronosticar lo que ocurriría los años si­guientes.

Iniciado el nuevo milenio, llegaban desde Francia noticias que responsabili­zaban del desastre a los laboratorios que comercializaban insecticidas (fipronil e imidacloprida) para el tratamiento de se­millas de maíz o girasol. Esta hipótesis ya se había descartado en España como causa principal de la pandemia, pues sólo uno de esos productos estaba permitido en nuestro país; se utilizó en el 8 por ciento de las semillas de girasol planta­das entre 2004 y 2009 en Cuenca, Cór­doba y Sevilla. Análisis de esos compues­tos (sobre todo neonicotinoides) en abejas pecoreadoras y polen de dichas zonas, realizados por el grupo de José Luis Bernal, de la Universidad de Valladolid, habían arrojado resultados nega­tivos. Sin embargo, en Francia continua­ban las batallas legales para encontrar un culpable químico de la pérdida de miles de colmenas.

Nosema apis, el primer sospechoso

En España aumentaban las denuncias y continuaba la remisión de muestras. Pre­sentaban un aspecto desconcertante: mu­chas esporas de Nosema, pero ni rastro de diarrea (síntoma patognomónico de la nosemosis debida a N. apis). Aquello no era normal. Con la colaboración de Amparo Martínez, de Tragsega, empre­sa dedicada a la sanidad ganadera y ani­mal, se realizó un estudio epidemiológi­co de los miles de muestras enviadas a Marchámalo.

Los resultados confirmaron las obser­vaciones iniciales. Las esporas de Nose­ma apis (parásito fúngico unicelular que invade el tracto intestinal y causa disen­tería apiar) parecían tener alguna rela­ción —al menos estadística— con la de­saparición de las abejas. Cuando en las muestras se observaban esporas de Nose­ma, se multiplicaba por seis la posibili­dad de un despoblamiento de la colme­na. Ahora bien, había hasta un 10 por ciento de las colmenas despobladas que no contenían esporas del parásito.

Era evidente que el diagnóstico de una enfermedad y la detección de un agente potencialmente patógeno no eran lo mismo. En ningún momento se ha­bían observado signos de nosemosis, bien conocidos por veterinarios y apicultores: heces (“diarrea”) de abejas en el interior de la colmena y abejas débiles que no pueden volar o con el abdomen dilata­do por las heces, entre otros. En Fran­cia, los expertos comenzaron a denomi­narla “nosemosis seca” por la ausencia de diarrea. Se sugirió una posible adaptación del agente o una mutación que causara un cuadro clínico nuevo, menos agudo y más crónico.

Nosema ceranae, el auténtico culpable

Los primeros intentos por conocer las características moleculares del parásito sospechoso resultaron infructuosos: las muestras no contenían ADN de Nosema apis. Tras un cambio metodológico, se resolvió el misterio. El material genéti­co no correspondía a N. apis, ni a una cepa mutante con la capacidad patóge­na modificada. Se trataba de otro pará­sito muy semejante: Nosema ceranae, des­crito sólo en la abeja asiática. Casi de forma simultánea, investigadores de Taiwán lo detectaron también en la abe­ja europea de su país.

Nos hallábamos ante un panorama inesperado: de los once apiarios inclui­dos en el estudio inicial, diez estaban infectados por un parásito transfronterizo. El fenómeno evocaba una situa­ción semejante a la que se enfrentó nuestra apicultura en 1985, cuando en­tró en España uno de los principales patógenos de las abejas: el acaro Varroa, procedente también del sudeste asiáti­co. Desaparecieron el 40 por ciento de las colmenas. Casi veinte años después, otro parásito asiático estaba implicado en un proceso similar.

Comenzó así una carrera a contrarreloj: infecciones experimentales para comprobar que la detección de ADN se correspondía con un patógeno nue­vo, seguimiento en campo de infecciones naturales para describir el curso de la enfermedad, demostración de los postulados de Koch sobre la capacidad de transmisión del agente entre hospedadores, estudio de posibles formas de contagio entre colmenares y de factores implicados en la patología observada, aplicación de nuevos métodos diagnós­ticos y seguimiento de la difusión de la enfermedad en España. Asimismo, se contactó con científicos de otros países que corroboraron nuestras observacio­nes y se desarrollaron estrategias para evitar las inmensas pérdidas que esta­ban sufriendo los apicultores. Todo ello con la colaboración de Pilar García Palencia, de la Universidad Complutense de Madrid, y la ayuda de Lourdes Prie­to, experta en diagnóstico molecular de la Policía Científica.

El trabajo emprendido culminó en la demostración en colmenares profesiona­les de que N. ceranae era el único pató­geno responsable de la muerte de dece­nas de colmenas. Empezó a detectarse en numerosos países. Ya no era sólo un parásito de abejas europeas criadas en Taiwán o en España. En cuanto se bus­caba, aparecía, pero nadie se había per­catado de la invasión silenciosa.

Un problema complejo

Los países que importan colmenas (Ca­nadá, por ejemplo) y los que, además, desplazan grandes cantidades de ellas para polinizar su territorio (EE.UU.) denun­ciaban ya en el siglo pasado la presencia, en lugares muy distantes, de N. ceranae. Pero no lo relacionaban con el SDC. Po­cos veterinarios participaron en esos es­tudios, que se centraron más en el insec­to (abeja) que en el animal de producción (colmena). Es posible que la dualidad abeja-colmena haya dificultado la des­cripción del cuadro clínico de la enfermedad, pues no es lo mismo estudiar la patología que se observa en una colme­na que la que se aprecia en una abeja.

Además, la colonia de abejas ha de­mostrado una gran capacidad de adap­tación —verbigracia, aumento en la pues­ta de huevos de la reina— a la continua muerte de abejas, lo que ha encubierto el efecto patógeno de N. ceranae. Una vez debilitada la colonia, otros patóge­nos aprovechan la situación para atacar. Y, como ya detectamos en nuestro estu­dio estadístico inicial, amén de Nosema siguen coexistiendo otros factores debi­litantes: ácaros Varroa (que vehiculan nu­merosos virus), insecticidas (la mayoría acaricidas aplicados frente a Varroa), fal­ta de polen y condiciones climáticas ad­versas.

Sabemos ahora que los millones de esporas detectadas en los estudios inicia­les correspondían a N. ceranae, un pará­sito patógeno clínicamente insidioso, pre­sente en todo el país, que no provoca diarrea, sino la muerte de abejas viejas. Se transmite entre colmenares. Presenta un período de incubación de más de un año, durante el cual la reina aumenta la puesta de huevos para compensar la pérdida de abejas. Mientras la reina es joven, se mantiene la población y la co­lonia de abejas parece sana (estado asintomático), pero cuando se agota, la col­mena colapsa por falta de individuos jóvenes. El SDC se caracteriza, pues, por un largo período de incubación, duran­te el cual la infección pasa inadvertida; el despoblamiento se nota sólo cuando la muerte de la colmena es inminente.

Aránzazu Meana

Facultad de veterinaria Universidad Complutense de Madrid

Raquel Martín Hernández y Mariano Higes

Centro Agrario Marchámalo de la Junta de Comunidades de Castilla-la Mancha

Posted in Biología, Ciencia, Entomología, Investigación | Leave a Comment »

El satélite SMOS ya surca los cielos

Posted by Jordi Guzman en 2 noviembre 2009


Tras más de una década de investigaciones y desarrollos tecnológicos liderados por primera vez desde España, hoy por fin el satélite SMOS se ha puesto en órbita. Esta madrugada la nave ha despegado con éxito desde el cosmódromo de Plesetsk, en el norte de Rusia, y pronto comenzará a enviar datos sobre la salinidad de los océanos y la humedad del suelo, una información clave para entender mejor el cambio climático.

Poco antes de la hora prevista para el lanzamiento del satélite SMOS, las 02:50 (hora española), el nerviosismo era patente entre las

SMOS & Proba 2 Launch campaign with Rockot launcher

Lanzamiento de SMOS. Imagen: ESA.

cerca de 200 personas que hoy se han reunido en el Centro Europeo de Astronomía Espacial (ESAC), en Villanueva de la Cañada (Madrid), para observar la retransmisión en directo del acontecimiento.

Muchos de los ingenieros y científicos presentes han dedicado gran parte de su vida profesional a sacar adelante este proyecto de la Agencia Espacial Europea (ESA), destinado a cartografiar la salinidad de los mares y la humedad del suelo a escala global.

Por primera vez la industria aeroespacial española ha liderado la fabricación de un instrumento tan complejo como SMOS (Soil Moisture and Ocean Salinity) para la ESA y la responsabilidad era grande.

Las palabras que el Director General de la ESA, Jean-Jacques Dordain, pronunció el viernes pasado en este centro estaban en la mente de todos: “SMOS es muy importante para el planeta, para la ESA y para España”. El presupuesto de la misión es de 300 millones de euros, de los que un tercio los aporta España, otro tercio Francia y el resto los demás países de la agencia.

Dos pantallas gigantes situadas en el salón de actos del ESAC congregaron a los visitantes cuando comenzó la transmisión desde el centro de control de la misión en CNES-Toulouse (Francia) y el cosmódromo ruso de Plesetsk, el lugar del lanzamiento. El jefe de Comunicación para España y Portugal de la ESA, Javier Ventura-Traveset, anunció que le acababa de llegar a su PDA el mensaje “All green in Plesetsk”, y en unos instantes el lanzador Rockot despegó con los satélites SMOS y Proba-2 (un demostrador tecnológico) a bordo.

En la sala de ESAC, salvo la toma de algunas fotografías, no hubo expresiones de júbilo. El público experto recordaba el caso del satélite Cryosat-1, que no logró desprenderse de la segunda etapa del cohete que lo transportaba y la misión fracasó. Diversas animaciones generadas por telemetría tranquilizaron a los asistentes al ver que las etapas del lanzador se separaban correctamente, pero la transmisión de televisión se interrumpió y hubo que esperar más de 50 minutos para saber si llegaba alguna señal de SMOS.

Los brazos de MIRAS se abrirán el martes

“Durante ese tiempo no hay visibilidad con el satélite”, explicó a SINC, Guillermo Buenadicha, ingeniero de operaciones del instrumento principal de SMOS. El ingeniero mostró la sala de control en ESAC donde se supervisará el único instrumento que lleva el satélite, completamente nuevo e innovador: MIRAS (radiómetro interferómetro de imágenes de microondas con síntesis de apertura en 2D).

Se trata de una antena con tres brazos en forma de “Y”, de unos ocho metros de diámetro, en la que se disponen 69 receptores para detectar las radiaciones microondas emitidas desde la superficie de la Tierra. “Una vez realizada una verificación térmica, los brazos se desplegarán completamente el martes a las 8 de la tarde”, adelantó Buenadicha.

El procesamiento de los datos obtenidos con SMOS, que con complejos algoritmos se transformarán en mapas de humedad y salinidad, también se realiza en otra de las salas del ESAC, donde el equipo ya trabajaba en los preparativos, mientras los visitantes de la noche se volvieron a congregar frente a las pantallas.

Momentos de incertidumbre

Sobre las 4 de la madrugada Ventura-Traveset anunció que todo parecía ir “nominal”, que los paneles solares se habían desplegado, pero no acababa de llegar la confirmación de la comunicación correcta con SMOS. Fueron unos momentos de tensión, sobre todo al observar los gestos de nerviosismo de François Bermudo, Jefe de Proyecto SMOS en CNES-Toulouse. Tras unos minutos de incertidumbre, finalmente Bermudo se dirigió a la cámara y con una sonrisa informó que la estación de Hertebeesthoek, en Sudáfrica, se había comunicado con SMOS.

El satélite, con sus 658 kilos de masa (355 kg de carga útil y 303 kg de la plataforma Próteus que controla su vuelo -con 28 kg de combustible de hidracina-) ya orbitaba a una altitud media de 758 kilómetros, según lo previsto, y se confirmaba el éxito del lanzamiento. En ese momento sí: los aplausos y los abrazos inundaron la sala. Algunos de los asistentes no pudieron ocultar su emoción.

En cualquier caso, la misión del agua de la ESA, como también se denomina a SMOS, no ha hecho más que empezar. Se prolongará durante tres años, más otros dos prorrogables. Los próximos dos meses serán críticos y la fase de puesta en servicio se prolongará otros cuatro meses más, para realizar todo tipo de pruebas y calibraciones (se apuntará a MIRAS al fondo oscuro y frío del universo para ello). Los primeros datos de interés para la comunidad científica estarán disponibles en abril de 2010.

“Tendremos una información muy útil para los investigadores que estudian la dinámica oceánica y la hidrología, pero también para perfeccionar los modelos de predicción del tiempo y responder mejor a algunas preguntas sobre el cambio climático”, destacó a SINC Jordi Font, profesor del Instituto de Ciencias del Mar del CSIC, que junto al investigador Yann Kerr, director del CESBIO en Francia, son los dos directores científicos de la misión (el primero para el tema de la salinidad de los océanos y el segundo para el de la humedad de los suelos).

Mientras los científicos esperan impacientes los datos de SMOS, los técnicos que durante más de una década han desarrollado el satélite descansaron por fin aliviados. Manuel Martín-Neira, ingeniero del Instrumento Principal de SMOS, que desde 1992 trabaja y conoce bien todos los problemas que ha tenido que superar el proyecto, quiso expresar su mensaje a los responsables de la ESA: ¡Misión cumplida!

———————–

Más información:

Animación que muestra cómo se separa SMOS se separa el vehículo de lanzamiento Breeze.

Artículo publicado en Servicio de Información y Noticias Científicas (SINC)

 

Posted in Astrofísica, Astronáutica, Astronomía, Ciencia, Climatología, Investigación | Leave a Comment »

Utilizan biomateriales para la regeneración ósea

Posted by Jordi Guzman en 19 octubre 2009


El laboratorio de Fisiopatología Ósea y Biomateriales de la Unidad de Investigación del Hospital Universitario La Paz (UAM) en colaboración con el Departamento de Química Inorgánica y Bioinorgánica de la Facultad de Farmacia de la Universidad Complutense de Madrid ha investigado la respuesta celular a materiales desarrollados para aplicaciones de ingeniería tisular ósea.

El hueso es un tejido que se renueva de forma continua a lo largo de la vida del individuo mediante el proceso de remodelado óseo. Esta continua remodelación permite al hueso regenerarse tras ser dañado mediante la creación de un tejido idéntico al original.

Células madre mesenquimales cultivada sobre sustitutivos óseos basados en fosfatos cálcicos

Células madre mesenquimales cultivada sobre sustitutivos óseos basados en fosfatos cálcicos

Habitualmente, la dinámica del hueso es suficiente para reparar fracturas y reconstruir defectos comunes. Sin embargo, tras la destrucción de grandes volúmenes de masa ósea, como en el caso de traumatismos graves, tumores, infecciones y desórdenes en el desarrollo, el tejido dañado no es capaz de regenerarse por sí mismo.

En estos casos se requiere un injerto óseo o un sustitutivo sintético para ayudar o completar la reparación de la deficiencia esquelética. El mejor sustitutivo óseo es el propio hueso, ya sea proveniente del propio paciente o bien obtenido de un donante.

Sin embargo, existen problemas asociados al uso de injertos óseos como la insuficiente cantidad de tejido disponible cuando se trata del mismo paciente o el riesgo de transmisión de enfermedades en el caso de donantes. Estas limitaciones han propiciado que numerosos grupos de investigadores trabajen en el desarrollo de materiales de origen sintético que funcionen como sustitutivos óseos.

Entre los materiales más investigados se encuentran las cerámicas biodegradables basadas en fosfatos cálcicos. Estos materiales poseen una composición química y estructura muy similar a la del hueso y además se degradan de manera gradual en el organismo, permitiendo la regeneración del tejido. Una de las complicaciones asociadas al empleo de estos sustitutivos óseos es la aparición de partículas alrededor del material implantado bien a consecuencia de su degradación o por deficiencias en su procesado.

La integración de los materiales implantados en el tejido óseo comienza con el reclutamiento de células precursoras que darán lugar a células formadoras de hueso. El grupo FIOBI (HULP, UAM), ha investigado el efecto de partículas cerámicas basadas en fosfatos cálcicos desarrolladas por BIOMAT (UCM) sobre la capacidad de células madre humanas procedentes del estroma de la médula ósea para madurar a células de linaje osteoformador. Estas células maduras u osteoblastos forman una matriz ósea mineralizada con depósitos de sales, principalmente sales de calcio.

Los resultados, recientemente publicados en la revista Acta Biomaterialia indican que partículas cerámicas basadas en fosfatos cálcicos pueden alterar el comportamiento de células madre a través del contacto directo célula-partícula, así como impedir su maduración a células formadoras de hueso a través de modificaciones en los niveles de calcio del microambiente óseo. Estos efectos pueden ser más o menos acusados en función de la composición química de los materiales particulados. En concreto, se ha observado que partículas de apatita deficientes en calcio interfieren con la formación matriz mineral mediante la captación de calcio del medio mientras que no se observaron estos efectos al emplear partículas de fosfato cálcico bifásico.

Este estudio refleja la importancia de investigar exhaustivamente las posibles complicaciones que conlleva el uso de materiales sintéticos desarrollados como sustitutivos óseos y aporta información valiosa referente al efecto biológico de materiales con distintas relaciones calcio/fosforo en su composición.

Artículo publicado en Servicio de Información y Noticias Científicas (SINC)

Posted in Ciencia, Investigación, Medicina, Tecnología | 2 Comments »

Construyendo el ATLAS en cinco minutos

Posted by Jordi Guzman en 30 septiembre 2009


ATLAS (A Toroidal LHC ApparatuS, Aparato Toroidal del LHC) es un enorme detector de partículas del Gran Colisionador de Hadrones (LHC) – uno de los cinco -, con 45 m de largo, 25 de ancho y un peso de nada menos que 7000 toneladas.

En este vídeo, que también se puede ver en The ATLAS Experiment, podemos ver el trabajo de ensamblaje de la enorme y sofisticada maquinaria, un montaje que requirió seis años condensado en algo menos de cinco minutos.

Vía Symmetry Breaking

Posted in Ciencia, Física, Investigación, Tecnología, Vídeos | 4 Comments »

 
Seguir

Recibe cada nueva publicación en tu buzón de correo electrónico.

Únete a otros 579 seguidores