LA TIERRA EN DIRECTO DESDE LA ESTACION ESPACIAL INTERNACIONAL

miércoles, 28 de septiembre de 2016

FOTOS ROVER CURIOSITY ( SOL 1471 )


Image taken by Navcam: Left B  Image taken by Navcam: Left B  Image taken by Navcam: Left B  Image taken by Navcam: Left B

Image taken by Navcam: Left B  Image taken by Navcam: Left B  Image taken by Navcam: Left B  Image taken by Navcam: Left B

Image taken by Mastcam: Left  Image taken by Mastcam: Left  Image taken by Mastcam: Left

FUENTE

LA LUNA DE SATURNO ENCELADO FOTOGRAFIADA POR LA SONDA CASSINI EL 25 SEPTIEMBRE 2016


N00268648.jpg fue tomada el 25/09/2016 15:40 (GMT) y recibido en la Tierra el 26/09/2016 06:12 (GMT). La cámara estaba apuntando hacia ENCELADO y la imagen fue tomada usando los filtros CL1 y CL2. Esta imagen no se ha validado o calibrado.
Una imagen validada y calibrada será archivada con el Sistema de Datos Planetarios de la NASA.
Crédito de la imagen: NASA / JPL-Caltech / Instituto de Ciencia Espacial
Para obtener más información sobre las imágenes en bruto visita nuestraseccion de preguntas más frecuentes.

FUENTE

Cassini: Mission to Saturn: Latest Raw Images - NASA



EL CRATER URVARA EN CERES FOTOGRAFIADO POR LA SONDA DAWN EL 2 JUNIO 2016


Target Name: Ceres
 Is a satellite of: Sol (our sun)
 Mission: Dawn
 Spacecraft: Dawn
 Instrument: Framing Camera
 Product Size: 1024 x 1024 pixels (w x h)
 Produced By: JPL
 Full-Res TIFF: PIA20941.tif (1.05 MB)
 Full-Res JPEG: PIA20941.jpg (207.8 kB) 
La nave espacial Dawn de la NASA capta parte del borde norte del cráter Urvara (101 millas, 163 kilómetros de ancho) en esta imagen.
La sonda Dawn obtuvo esta imagen el 2 de junio de 2016, en su órbita de mapeo de baja altitud, a una distancia de cerca de 240 millas (385 kilómetros) sobre la superficie. La resolución de la imagen es de 120 pies (35 metros) por píxel.
La misión de la sonda Dawn es administrada por el JPL para la Dirección de Misiones Científicas de la NASA en Washington. Dawn es un proyecto del Programa de Descubrimiento de la Dirección, gestionado por el Centro de Vuelo Espacial Marshall de la NASA en Huntsville, Alabama. UCLA es responsable de la ciencia general de la misión Dawn. Orbital ATK, Inc., en Dulles, Virginia, diseñó y construyó la nave espacial. El Centro Aeroespacial Alemán, el Instituto Max Planck para la Investigación del Sistema Solar, la Agencia Espacial Italiana y el Instituto Nacional de Astrofísica italiana son los socios internacionales en el equipo de la misión. Para obtener una lista completa de los participantes de la misión, ver http://dawn.jpl.nasa.gov/mission .
Para obtener más información acerca de la misión Dawn, visite http://dawn.jpl.nasa.gov .
Crédito de la imagen:
NASA / JPL-Caltech / UCLA / MPS / DLR / IDA

FUENTE

Catalog Page for PIA20941 - Photojournal - NASA



IMAGEN LUNAR 27 SEPTIEMBRE 2016


images by Wes Higgins (left) and Lunar Orbiter IV-123 (right)

FUENTE

LA PENINSULA IBERICA DESDE LA ESTACION ESPACIAL INTERNACIONAL



Imagen tomada desde la Estación Espacial Internacional el 20 de septiembre de 2016 a las 23:48 UTC. Se puede ver la Península Ibérica (Portugal y España) en el centro de la imagen. A la derecha se puede ver el Estrecho de Gibraltar y la costa norte de África. La concentración de luz cerca del centro de la imagen es Madrid, la capital de España. Lisboa, la capital de Portugal, está ubicada en la zona inferior-derecha. Al momento de tomarse la imagen, la Estación Espacial Internacional estaba ubicada sobre el Océano Atlántico viendo en dirección Oeste.

FUENTE

La Península Ibérica desde la Estación Espacial Internacional – El ...




SE TE DILATARAN LAS PUPILAS CON ESTE VIDEO DE LA VIA LACTEA A4.000.000 ISO


La gran mayoría de nosotros jamás ha visto un cielo inundado de estrellas, nuestros ojos han quedado ciegos, incapaces de ver más allá de una densa neblina de luz y contaminación. 
La indescriptible sensación de ver la Vía Láctea iluminando un cielo oscuro ha quedado reservada para unos pocos privilegiados. Miles de millones de soles bañando de fotones nuestra retinas, generando estímulos medibles en nuestros fotorreceptores, susurrando una bella historia de millones de años a nuestra corteza cerebral. 
Son 6 minutos y medio de verdadera belleza, una nueva cámara (no digo nombre ni marca) tomando un vídeo a 4.000.000 ISO, algo impensable hace unos pocos años. Está en inglés… da igual… solo guarda 6 minutos para verlo con tranquilidad… quizás nuestro cerebro también ha perdido la capacidad de concentrarse durante tanto tiempo…
El vídeo está tomado durante la Oregon Star Party de este año, la noche en el que las Perseidas alcanzaron su máximo pico, hay jóvenes mirando a través de telescopios en vez de a una pantalla de móvil,… no sé en qué momento nos desviamos del camino. 
En unas pocas horas nos dirán que una helada luna de Júpiter escupe parte de su océano subterráneo compuesto de agua y materiales orgánicos (y quién sabe qué más) hacia el espacio, y nos dará igual, quizás es demasiado pronto,… o quizás es demasiado tarde…

de juanjogom

FUENTE

La Vía Láctea en un vídeo a 4.000.000 ISO | milesdemillones




28 SEPTIEMBRE 2016 - LISTADO DE TERREMOTOS ( EN EL MUNDO Y EN ESPAÑA ) ( Actualizacion automatica al clicar en la FUENTE )




Ultimos Terremotos Magnitud Mayor de 4 Grados En El Mundo

FUENTES
(Las Fuentes SE ACTUALIZAN automaticamente al clicar en ellas)

http://geofon.gfz-potsdam.de/eqinfo/list.php


EMSC: Terremotos CENTRO SISMOLOGICO EUROPEO DEL MEDITERRANEO


Origin Time
UTC
MagLatitude
degrees
Longitude
degrees
Depth
km
A
M
Flinn-Engdahl Region Name
2016-09-28 04:01:484.86.68°N126.70°E71AMindanao, Philippines

*****************************************************************************
INFORMACION SISMICA EN ESPAÑA 28 SEPTIEMBRE 2016 Actualizacion automatica al clicar en la Fuente

FUENTE


EventoFechaHora (GMT)*LatitudLongitudProf
(km)
Int. (***) Máx.MagTipo Mag. (**)LocalizaciónInfo
ign2016tbiz28/09/201602:51:0229.7022-14.31353.6mbLgATLÁNTICO-CANARIAS[+]
ign2016tbie28/09/201602:26:2135.6292-3.58372.1mbLgALBORÁN SUR[+]
ign2016tbgh28/09/201601:29:5735.5373-3.6578232.1mbLgALBORÁN SUR[+]
ign2016tbfu28/09/201601:14:2035.5730-3.6029132.8mbLgALBORÁN SUR[+]

martes, 27 de septiembre de 2016

No se deben perforar más pozos de petróleo

Un informe sostiene que, si se quiere mantener los objetivos del acuerdo de París, no se pueden abrir más minas de carbón o perforar nuevos campos de pozos de petróleo o gas.

Foto
El año 2015 fue el año más cálido desde 1880, el color indica anomalía en la temperatura. Fuente: NASA/NOAA.
Según el acuerdo de la cumbre del clima de París, los países que ahora están firmando en la ONU este tratado se comprometen a rebajar sus emisiones de gases de efecto invernadero.
La idea es que, como máximo, no lleguemos a superar los dos grados centígrados extras de temperatura media global por encima de los niveles preindustriales. Aunque algunos climatólogos sostienen que 1,5 grados ya es desastroso y que no podemos ya evitarlos aunque queramos. La realidad es que el acuerdo de París llega tarde y hubiera sido mejor que se hubiera firmado hace 15 años o más. Se ha perdido un tiempo precioso.
Según un informe reciente del Oil Change International, si se quiere cumplir con los acuerdos de París entonces no se pueden abrir más minas de carbón o perforar nuevos campos de pozos de petróleo o gas. Incluso habría que ir cerrando ya este tipo de instalaciones si se quieren cumplir con los acuerdos.
Si no se abren instalaciones nuevas y se siguen explotando las infraestructuras ya existentes en el mundo, simplemente no se podrán cumplir con las metas de los acuerdos de París y el aumento de temperatura superará los 2 grados centígrados. Aunque el acuerdo prefiere sensatamente que la temperatura no suba de los 1,5 grados, es muy difícil que se realicen los esfuerzos necesarios para conseguirlo.
Según el IPCC, para no llegar a los 2 grados de subida se necesitaría emitir un máximo de 843.000 millones de toneladas de dióxido de carbono durante 22 años, lo que significaría mantener las emisiones al ritmo anual actual.
Pero los cálculos de Greg Muttitt, autor del estudio, indican que las actuales reservas de carbón, petróleo y gas actualmente en uso corresponden a unas emisiones de 941.000 millones de toneladas de dióxido de carbono una vez consumidas.
Esto obligaría a no perforar más pozos o abrir nuevas minas y, por tanto, no habría que hacer nuevas exploraciones en busca de nuevos yacimientos. Esto incluiría, por supuesto, el nefasto fracking. Además, habría que sustituir las reservas actuales por fuentes de energía renovables.
“No hay más sitio en la atmósfera. No se deben construir nuevas infraestructuras basadas en combustibles fósiles. Esto significa no fracking para buscar gas en RU o en cualquier otro país… Todo el desarrollo energético necesita estar enfocado en las energías limpias de ahora en adelante”, dice Muttitt.
Un problema que tenemos como civilización es la inercia que tienen ciertos procesos económicos. Si unos inversores deciden poner su dinero en una central térmica de carbón esperan recuperar su dinero con el paso del tiempo. Lo mismo se puede decir de una mina de carbón o un campo petrolífero. Si un gobierno decide cerrar una de estas instalaciones antes de tiempo, entonces los inversores pueden perder mucho dinero y una central de cualquier tipo es algo muy caro que tarda mucho tiempo en amortizarse. Lo mismo se puede decir de una mina o un pozo petrolífero. Así que el capital se opone normalmente a medidas de ese tipo.
Los analistas dicen que la inversión en fuentes de energía fósiles está ya decayendo desde los acuerdos de París. Otros, como Anthony Hobley (Carbon Tracker Initiative) esperan que el fin de la inversión en minas de carbón sea inminente. La quema de carbón está declinando desde 2013, cuando China alcanzo el cenit del carbón, y los 200.000 millones de dólares invertidos en este tipo de energía no parece que se recuperen en su totalidad.
Hay cierta luz de esperanza en este escenario, pues las alternativas ya están aquí y son rentables. Hace unos días la Abu Dhabi Water and Electricity Authority (ADWEA) confirmaba que el precio de la energía solar fotovoltaica ya ha caído a los 2,26 céntimos el KWh. Todo ello sin necesidad de subvenciones de ningún tipo. Este precio es la mitad que el precio de la electricidad producida por gas natural en los EEUU.
Esto significa que el consumo privado de este tipo de energía está al borde de la rentabilidad. La tendencia indica, además, que los precios de la energía solar fotovoltaica seguirán a la baja durante mucho tiempo.
¿Llegaremos a tiempo de evitar un desastre aún mayor del inevitable? Al parecer todo depende de la voluntad que se tenga al respecto.
Copyleft: atribuir con enlace a http://neofronteras.com/?p=5065

Hogares tóxicos

Un estudio pone de relieve los productos químicos, posiblemente perjudiciales, que hay en los hogares.

Foto
El aire y polvo de nuestros hogares porta todo una panoplia de productos químicos tóxicos.
Un estudio publicado recientemente reafirma lo que ya se sabía sobre el ambiente que respiramos en nuestras casas. Entre otras cosas señala que se pueden encontrar fenoles, retardantes del fuego o phthalatos en el polvo de nuestros hogares. Además, se encuentran a un nivel tan alto que los investigadores creen que es muy posible que las personas que allí viven inhalen o ingieran pequeñas cantidades de estas sustancias todos los días. Aunque todavía no se sabe si el nivel de exposición es suficiente como para provocar daños para la salud.
Según Ami Zota (George Washington University) estos productos provienen de la misma vivienda y se desprenden de ciertos objetos que hay dentro, como materiales de construcción, cables eléctricos, perfumes, etc.
Para entender mejor esta exposición Zota y sus colaboradores realizaron un estudio basado en 26 artículos publicados en revistas con revisión de pares, además de datos aún por publicar sobre contaminantes en hogares de 14 estados de los EEUU. Los datos provienen tanto de áreas urbanas como rurales e incluyen recintos como colegios y lugares de trabajo. El estudio se centra sólo en la exposición a estos compuestos y no en los posibles daños para la salud que puedan llevar asociados, lo que necesitaría de datos epidemiológicos sobre los habitantes de las viviendas.
Los 10 productos químicos más comunes se encontraban en un 90% de las muestras, lo que sugiere que estos provienen de objetos presentes en la mayoría de las viviendas.
El compuesto más común fue DEHP un phthalato usado en los plásticos flexibles, en cosméticos y en productos de aseo personal. En experimentos de laboratorio realizados con ratas se pudo comprobar que interfiere con el aparato reproductor masculino y está relacionado con el cáncer de hígado.
Cuando Zota y sus colaboradores calcularon cuánta cantidad de los diferentes compuestos ingerían lo niños en edad preescolar vieron que el primero era el retardante de fuego TCEP, compuesto que está relacionado con el cáncer y daños cerebrales según experimentos en ratones. Pero no se sabe aún si la exposición a este producto químico alcanza niveles peligrosos para los humanos.
Según Zota lo malo es que aún no se saben los efectos perjudiciales que puedan tener estos productos en una exposición a largo plazo. Tampoco se sabe si el posible efecto perjudicial para la salud es superior al estar combinados entre sí.
Mientras tanto siempre es una buena idea ventilar la casa todos los días, pues puede que la contaminación interior sea mayor que la exterior.
Copyleft: atribuir con enlace a http://neofronteras.com/?p=5063

Personas sin propiocepción

Encuentran dos pacientes que, debido a una mutación, carecen de propiocepción.

Foto
Muchas de las ideas que tenemos sobre nuestra percepción de la realidad o sobre lo que somos como seres humanos se desvanecen cuando consideramos ciertas condiciones neurológicas.
Acerca del tema de las enfermedades neurológicas tenemos de lectura obligatoria los libros que escribió sobre el asunto Oliver Sacks, recientemente fallecido. En ellos podemos leer casos como aquel que no podía recordar más allá de los últimos minutos, otro que creía que sus seres queridos habían sido usurpados por unos extraños o ese que confundía la cabeza de su mujer por un sombrero.
El cerebro tiene ciertas áreas que están especializadas, si falla una específica de cualquier parte del cerebro entonces la función que desarrollaba deja de realizarse. Un ictus en el lugar inapropiado y nos podemos quedar, por ejemplo, sin lenguaje. A veces lo que se pierde es tanto que Sacks contaba de casos clínicos que, según él, no tenían alma.
La literatura científica sobre casos neurológicos es muy variada, pero, al parecer, no dejan aparecer nuevos casos, sea innatos o adquiridos. El último que ha sido descubierto es el que unos individuos que nunca han tenido propiocepción.
La propiocepción se refiere a la capacidad que tiene el cuerpo para detectar el movimiento y la posición en las articulaciones. A veces se le denomina el sexto sentido. De algún modo el cerebro sabe en todo momento cómo están situadas nuestras piernas, brazos y cuerpo en general aunque no los veamos. Podemos hacer el pequeño experimento de cerrar los ojos, extender los brazos y tratar de tocarnos la punta de la nariz con los dedos índices. Comprobaremos que el error cometido suele ser bastante pequeño.
Por tanto, la propiocepción es esencial para saber qué postura tenemos, para movernos y andar o para poder mantener el equilibrio. Pues bien, se ha podido comprobar al menos dos casos clínicos que no tienen propiocepción. Esta condición neurológica todavía no tiene nombre.
Los pacientes aquejados de esta condición no saben cómo están situados sus articulaciones, brazos o piernas y tienen que mirar y ver cómo están posicionados para saberlo. Se han descubierto y estudiado recientemente dos casos: una niña de 9 años y una joven de 19. Ahora se publican los resultados. En ambos casos tienen una rara mutación genética.
Esta condición fue descubierta por Carsten Bönnemann (National Institutes of Health de Bethesda, Maryland), que está especializado en el diagnóstico de enfermedades genéticas desconocidas en personas jóvenes.
Entre otras cosas pudo notar en estos dos pacientes síntomas similares, como que las caderas, dedos y pies se doblaban en ángulos inusuales. Además padecían de escoliosis, tenían dificultades para caminar y mostraban una gran falta de coordinación. Ni siquiera eran capaces de sentir físicamente objetos que presionaban sobre su piel.
Así que Bönnemann analizó sus genomas en busca de mutaciones que pudieran tener en común. Descubrió que en ambos casos tenían una mutación en el gen PIEZO2, que es un gen ligado al sentido del tacto del cuerpo y a la habilidad de realizar movimientos coordinados.
Cuando en estudios previos se silenció este gen en ratones de laboratorio se comprobó que la acción tenía resultados fatales, por lo que se creía que no podía haber humanos con este gen afuncional. Pero la realidad ha demostrado que esto no es así.
Las pruebas realizadas a estas pacientes mostraron lo severo de su condición. Cuando se les privaba de la visión con una venda no podían andar sin caerse, pero sin la venda podían hacerlo casi normalmente. Cuando se les pidió que se tocaran con el índice la nariz, tal y como lo hemos descrito antes, se pudo comprobar que fallaban miserablemente si estaban privadas del sentido de la vista, pero acertaban cuando podían ver. Cuando los investigadores movían los brazos las pacientes hasta una determinada postura, estas no podían saber cuál era al tener los ojos vendados. Básicamente, los test realizados demostraban que no tenían propiocepción, pero en su vida cotidiana lo compensaban parcialmente gracias al sentido de la vista.
Además, los investigadores realizaron otras pruebas, como la de colocar un diapasón vibrante sobre su piel. Pero esto no les producía la sensación de vibración. Al pasar un pincel suave por distintas regiones de la piel de sus cuerpos describían una sensación espinosa, cuando a la mayoría de la gente le parece una sensación placentera.
Los investigadores repitieron este último test mientras que las pacientes estaban en una máquina de resonancia magnética nuclear funcional. De este modo podían analizar la actividad cerebral. Comprobaron que, durante estas pruebas, en lugar se activarse las áreas del cerebro relativas a las sensaciones físicas, se activaban las diferentes áreas relacionadas por la respuesta emocional al tacto. Básicamente, no podían sentir físicamente el pincel, pero experimentaban algo así como una respuesta emocional al tacto.
Finalmente, los investigadores sometieron a las pacientes a la aplicación de un dispositivo se que tornaba cada vez más frío o caliente hasta que producía cierto grado de dolor. Pero las pacientes fueron tan buenas como las personas normales de control en la determinación de la temperatura y en sentir dolor.
Según los resultados de estas pruebas los investigadores sugieren que PIEZO2 es un gen ligado a la propiocepción y el tacto, pero no ligado al dolor o la sensación de calor.
Lo que todavía no está claro es cómo esta mutación está ligada a las deformidades óseas detectadas. Puede que la proteína que expresa este gen tenga algún papel en el desarrollo. Pero también puede ocurrir que la propiocepción sea necesaria para un desarrollo normal del esqueleto y que si el cerebro no sabe la postura para orientar adecuadamente las articulaciones, entonces al final el esqueleto se deforma por mal uso.
De momento la estadística de dos casos es escasa, pero los investigadores implicados creen que, ahora que se han determinado la mutación, se pueden hallar más casos entre la población.
Una posibilidad sobre la que se podría especular sería que las distintas variaciones del gen PIEZO2 pudieran contribuir a la agilidad o torpeza de las personas, pero Bönnemann no lo cree así.
Copyleft: atribuir con enlace a http://neofronteras.com/?p=5059

ALMA observa la región de HUDF

ALMA ha estudiado la misma región del cielo cubierta por HUDF, proporcionando una perspectiva de la época dorada de la formación de galaxias.

Foto
Emisión de monóxido de carbono en naranja sobre la imagen HUDF en donde las galaxias aparecen en azul. Fuente: B. Saxton (NRAO/AUI/NSF); ALMA (ESO/NAOJ/NRAO); NASA/ESA Hubble.
La capacidad de un telescopio para obtener más y mejores datos depende del diámetro de su espejo primario.
Cuando más grande es este espejo más fotones podrá recolectar y, además, mayor resolución tendrá al ser menor el efecto de la difracción. Pero, además, la resolución alcanzada está limitada por la difracción, que también dependerá la longitud de onda de las ondas electromagnéticas que usemos para observar. A mayor longitud de onda peor resolución para un mismo diámetro de espejo.
Una manera de aumentar el diámetro efectivo es hacer que varios espejos funcionen como uno solo. Esto se puede hacer con luz visible, pero es más fácil con ondas de radio. Se puede hacer que dos radiotelescopios operen juntos incluso a kilómetros de distancia, por lo que se tendrá una resolución de kilómetros, tantos como la distancia que medie entre ellos. Pero las ondas de radio tienen una longitud de onda tan larga que los radiotelescopios no tienen tanta resolución como los telescopios ópticos.
Pero si nos vamos a los ondas submilimétricas la resolución puede mejorar, y mucho, respecto a las ondas de radio convencionales, de tal modo que las imágenes rivalicen con las del Hubble. Esto es precisamente los que hace ALMA (Atacama Large Millimeter/submillimeter), una formación de 66 radiotelescopios que se extiende por 12 km y que se encuentra en un altiplano a 5000 m sobre el nivel del mar en el desierto de Atacama. Cada antena parabólica tiene 12 metros de ancho.
Ya podemos atisbar la ciencia que se podrá hacer con este complejo de antenas, pues se han preparado recientemente varios artículos en los que se presentan resultados del espacio profundo de la época de mayor formación de galaxias.
Un telescopio potente no es más que una máquina del tiempo que nos permite ver directamente lo que sucedía en el Universo hace miles de millones de años, sólo hace falta mirar a miles de millones de años luz de distancia para conseguirlo. Pero la luz que nos llega de esas distancias es muy escasa.
El telescopio Hubble, al estar fuera de atmósfera, puede recolectar más luz. Pero, y lo que quizás es más interesante, puede acumular luz durante varios días seguidos. Las imágenes de campo profundo (deep field) que tomó en su día se basan precisamente en este truco. Día tras día fue acumulando un fotón tras otro apuntando a la misma zona del cielo hasta revelar galaxias ultralejanas.
Una de esas imágenes fue la Hubble Ultra Deep Field (HUDF) que se publicó en 2004 y que corresponde a una pequeña región (cientos de veces más pequeña que el tamaño aparente de la luna llena en el cielo) de la constelación de Fornax (el horno). En esa imagen aparecían unas 10.000 galaxias y revelaba cómo era el Universo al cabo de sólo 1000 millones de años tras el Big Bang.
En septiembre de 2012 la NASA publicó una versión más refinada de esta misma zona del cielo: eXtreme Deep Field (XDF). Algunas de las galaxias que se podían apreciar en la imagen se veían tal y como eran hace 13.200 millones de años.
ALMA ha observado esa misma zona del cielo, esta vez en ondas submilimétricas para así saber más de ese momento del Universo. En esta misión han participado diversos equipos de astrofísicos.
La capacidad que tiene de ALMA de ver en una gama del espectro electromagnético diferente a la óptica permite estudiar objetos astronómicos de diferente clase, como nubes masivas de formación estelar u objetos que de otro modo serían demasiado débiles para ser observados con luz visible. En concreto, las ondas submilimétricas permiten a los astrofísicos ver las emisiones de las nubes de gas, así como las del polvo cálido que contienen las galaxias del Cosmos.
En este caso se usaron sólo 50 horas de observación para observar distintas regiones de esa zona del cielo en varias ocasiones. Las imágenes obtenidas son más profundas y precisas que las realizadas otras veces en esta banda de ondas electromagnéticas.
Además, se ha podido poner en correspondencia los objetos observados por ALMA con las galaxias de HUDF. Según alguno de los investigadores (Jim Dunlop) se está conectando por primera vez de manera apropiada la visión del visible y ultravioleta del Universo distante del Hubble con la visión submilimétrica de ALMA. Los resultados obtenidos se publicarán en breve en varios artículos en Astrophysical Journal y Monthly Notices of the Royal Astronomical Society.
Gracias a ALMA se ha podido saber la abundancia del gas que forma estrellas a lo largo del tiempo, proporcionando una perspectiva de la época dorada de la formación de galaxias, hace 10.000 millones de años.
Al parecer, en esa época había galaxias de alta masa, de a partir de 20.000 millones de masas solares, y virtualmente nada más. Para hacernos una idea, nuestra Vía Láctea tiene 100.000 millones de masas solares
Algunas de las observaciones de ALMA fueron especialmente diseñadas para detectar galaxias ricas en monóxido de carbono, lo que revela regiones de formación estelar, regiones que son muy difíciles de observar con el Hubble.
Los resultados indican un rápido aumento en el contenido de gas de las galaxias según se mira hacia atrás en el tiempo. Esto estaría relacionado con la notable tasa de formación de estrellas durante la época de formación de galaxias hace 10.000 millones de años.
Por tanto, las imágenes muestran que el ritmo de formación de galaxias jóvenes está relacionado con su masa total en estrellas, por lo que ha podido confirmar que la masa estelar de una galaxia es el mejor indicador del ritmo de formación estelar para el Universo lejano (temprano).
Otro aspecto ha sido el poder descubrir una población de galaxias que no era claramente evidente en otras campañas de observación.
Ya se está planeando una nueva campaña de observación con ALMA de 150 horas de duración sobre la misma región de HUDF. Con ello se pretende saber más sobre la historia de formación de estrellas en el Universo.
Copyleft: atribuir con enlace a http://neofronteras.com/?p=5055

Exposición múltiple a los pesticidas en las colmenas

En las colmenas se van acumulando pesticidas de diverso tipo, algo que se correlaciona con su despoblamiento.

Foto
Los humanos no somos seres de luz que podamos vivir fuera de Naturaleza, ni tampoco hemos sido elegidos por la divinidad para explotar o expoliar todos los recursos y seres de este mundo. O, al menos, no debería ser así.
No podemos vivir sin la existencia de los ecosistemas terrestres, con sus plantas y animales. Y si transformamos todos los continentes en campos de cultivos para una población en crecimiento exponencial el fin del ser humano está garantizado.
Que la administración de los recursos terrestres la estamos realizando rematadamente mal es algo que ya sabemos. Pero incluso hay señales que nos indican que empieza a ser muy grave.
Las luciérnagas, por mencionar una especie que es singular carismática, están desapareciendo de todo el mundo. Algunos sólo las hemos conocido cuando hemos viajado a selvas remotas. Pero no son los únicos insectos que desaparecen.
Desde hace unos años las colmenas se están despoblando de abejas, principalmente en los EEUU, pero también en otros sitios. De hecho, las poblaciones de abejas y abejorros se están reduciendo por todo el mundo. Esto es muy grave pues estos insectos son los responsables de gran parte del trabajo de polinización de las plantas, que incluye las plantas que producen nuestras verduras y frutas.
Parece el comienzo de una película distópica de ficción científica en la que unas señales anticipan un desastre inminente. En ella los personajes no se percatan de lo que se les viene encima hasta que ya es demasiado tarde.
Pero no se trata de ciencia ficción, sino de ciencia real y asentada que algunos pretenden negar. El caso del despoblamiento de las colmenas es un hecho que se viene dando desde hace una década que ha sido estudiado mucho recientemente.
Desde hace un tiempo en NeoFronteras hemos publicado diversos estudios que apuntan a las posibles causas de este problema. Generalmente, estos estudios señalan al uso de pesticidas como causa. Pero estos análisis se centraban generalmente en determinados tipos de pesticidas de forma específica. Esto facilita mejor el estudio desde el punto de vista científico que si el número de pesticidas a estudiar fuera mayor.
Ahora se publica otro estudio que se centra en el análisis sistemático del efecto que el uso de multitud de pesticidas de muchos tipos tiene sobre las colmenas de abejas. El resultado sugiere que la acumulación de los pesticidas en las colmenas se correlaciona con una alta tasa de muerte en las abejas que la habitan.
Dennis vanEngelsdorp (The University of Maryland) sus colaboradores han encontrado que los diferentes compuestos químicos de origen humano que se pueden encontrar en una colmena son un predictor del colapso de la colmena por despoblamiento. Esto sugiere que la adición de más compuestos, aunque sean en bajas dosis, sobrepasa la capacidad que puedan tener las abejas de desentoxicarse a sí mismas.
El estudio se realizó sobre 91 colmenas de tres diferentes apicultores comerciales de EEUU sobre la campaña agrícola completa. Estos apicultores cobran por la labor polinizadora de los campos de cultivos realizada por sus colmenas y transportan estas a lo largo de parte del país, obteniendo además los típicos productos elaborados por las abejas, como la miel.
En este caso las colmenas comenzaban su viaje en Florida y se movían (en camiones) hacia la costa este de los EEUU pasando un tiempo en cada localización elegida, tanto en localizaciones para polinizar como en otras por su alta rentabilidad a la hora de producir miel.
En cada parada los investigadores midieron varios parámetros, como el número de pesticidas encontrados y el total de pesticidas relevantes. Además calcularon una “cuota de peligrosidad” diseñada por otros científicos que integraba el peligro para la colmena de la acumulación de toxicidad.
Encontraron que en la cera de las colmenas y en el polen procesado se iban acumulando a lo largo de la temporada 93 tipos distintos de pesticidas. Es especialmente grave en el caso del polen procesado, pues de él se alimentan las abejas en sus primeros estadios de desarrollo como fuente de proteínas. En este polen encontraron de 5 a 20 tipos de pesticidas en todas y cada una de las muestras tomadas que excedían los límites seguros dados por la cuota de peligrosidad.
Además, hallaron que los tres parámetros medidos estaban correlacionados con la probabilidad de colapso de la colmena o muerte de la reina.
Curiosamente, el mayor número de pesticidas acumulados en las colmenas se daba muy pronto al comienzo de la temporada, justo después de colocar las colmenas en campos de cultivos floridos de manzanos o arándanos. Las zonas salvajes sin cultivas en las que los apicultores las colocaban colmenas para la producción de miel daban cierto respiro a las abejas.
El estudio sugiere que algunos fungicidas, que también han demostrado tener mortalidad sobre las larvas de abeja en el laboratorio, pueden tener efectos sobre la supervivencia de la colmena en los campos. En especial, encontraron una correlación entre fungicidas y muerte de las reina y mortalidad de en la colmena.
“Nos sorprendió encontrar tal abundancia de fungicidas en las colmenas, pero fue aún más sorprendente encontrar que estos fungicidas están relacionados con una mortalidad inminente en la colmenas.”, dice Kirsten Traynor.
Se creía que los fungicidas eran seguros para las abejas, pues están diseñados para atacar los hongos y no los insectos. Lo malo es que los apicultores los aplican directamente en grandes dosis a las colmenas para, supuestamente, controlar la varroa (un arácnido).
Este estudio toma prestado un concepto de la lucha contra el cáncer en humanos: el exposoma, o la suma total de compuestos químicos a los que está expuesto el organismo a lo largo de su vida. En este caso el “organismo” es la propia colmena, que es considerada como un superorganismo que funciona como una unidad coherente.
Es especial el caso de muerte de la reina de la colmena. Las obreras pueden intentar criar a otra reina, pero si fracasan la población de la colmena está condenada a desaparecer. Para los casos de exposición baja a los pesticidas en la cera de la colmena la probabilidad de muerte de la reina era casi nula. Sin embargo, cuando la exposición era más alta la reina moría durante la temporada.
Esto supone un problema grave para los apicultores, pues antes una reina duraba dos años ahora dura sólo una temporada. En la actualidad reemplazan a la reina al menos en la mitad de las colmenas cada primavera, pero algunas reinas no consiguen terminar vivas la temporada.
Los investigadores encontraron pocos neonicotinoides o sus derivados en los análisis realizados, pese a su gran uso. Lo achacan a que quizás no analizaron los elementos necesarios, como el néctar, o a que estos se degradan tan rápido en la colmena que dejan pocos residuos.
“Tenemos que encontrar la manera de reducir la cantidad de estos productos a los que están expuestas las abejas mientras que a la vez ayudamos a los agricultores con sus cultivos. Esto requerirá un examen cuidadoso del la pulverización de la plantas para estar seguros de que sólo se usa el producto que se necesita, y sólo cuando se necesita, para así reducir el número de productos a los que las abejas se exponen mientras polinizan los campos”, dice vanEngelsdorp.
Copyleft: atribuir con enlace a http://neofronteras.com/?p=5050

Mundo amiloide

Experimentos recientes avalan la posibilidad de que las moléculas precursoras de la vida en la Tierra fueran estructuras amiloides.

Foto
Experimentos realizados por científicos del ETH muestran que es muy fácil conseguir que estructuras bidimensionales similares a las proteínas se formen espontáneamente a partir de sus bloques constituyentes. Este descubrimiento apoya la idea de que la vida comenzaría de forma primordial de una manera similar.
Así como es fácil describir la proliferación de vida en multitud de especies gracias a los mecanismos de la evolución, describir la abiogénesis que produjo las primeras formas de vida es una tarea complicada. Entre otras cosas no disponemos de una máquina del tiempo para ir a eras tan remotas, ni tampoco se han conservado pruebas fósiles químicas de ello que podamos estudiar, así que se queda un poco fuera de la ciencia.
De algún modo unas moléculas orgánicas más o menos sencillas (aminoácidos, azúcares, bases nitrogenadas, etc), que se pueden producir de manera espontánea de forma fácil por procesos químicos, dieron lugar a estructuras capaces de reproducirse a través de procesos desconocidos. Estas estructuras reproducibles lograban pasar algún tipo de información a las siguientes generaciones. Una vez se tuvo esto, fue fácil que se produjeran por evolución los primeros microorganismos hace unos 3800 millones de años. Pero este salto es brutal.
A falta de pruebas fósiles directas se puede intentar remedar lo que pasó en aquel entonces en un laboratorio. Pero esto no es tampoco nada fácil. Las escalas de tiempo y volúmenes son muchísimo menores en el laboratorio que en la Tierra primordial. Tampoco sabemos si hay una única vía que produzca la vida y bioquímica que conocemos. Puede que algún día demos con una, pero, ¿podremos afirmar que esa vía es la única? Si podemos contestar que sí entonces sabremos cómo comenzó la vida. Si no lo podemos hacer, ¿podremos afirmar que esa vía fue la empleada por la vida en aquel entonces?
No se sabe qué bloques constituyentes lograron formar las primeras moléculas complejas que dieron lugar a estructuras reproductivas. Hay varias hipótesis que proponen distintos precursores.
Roland Riek y Jason Greenwald creen que los bloques primordiales podrían ser agregados de proteínas denominados amiloides. Para comprobar esta propuesta hicieron una serie de experimentos que trataban de demostrar la facilidad con que se forman de manera espontánea. Ahora publican los resultados obtenidos.
Los experimentos realizados se circunscribieron al uso de sólo cuatro aminoácidos simples (glicina, alanina, aspartato y valina) de los veinte que componen las proteínas de los seres vivos de ahora.
Además de estos aminoácidos añadieron un catalizador consistente en sulfuro de carbonilo. La razón de la elección de este compuesto químico se debe a que forma parte de los gases expulsados por los volcanes y, se supone, que cuando la vida comenzó había una mayor actividad volcánica que ahora, así que este gas estaba muy presente entonces.
Comprobaron que esta composición lograba la formación espontánea de cadenas de aminoácidos hasta formar péptidos con entre 4 y 14 aminoácidos constituyentes. Entonces estas cadenas se arreglaron entre ellas para colocarse de forma paralela y dar lugar a estructuras amiloides en forma de láminas. Entonces, estas láminas terminaron formando fibras que contenían miles de cadenas de péptidos. Estructuras que fueron identificadas por microscopía electrónica (ver imagen de cabecera).
Estas estructuras no se forman por simple mezcla de los componentes en un tubo de ensayo, sino que el procedimiento es distinto. Los investigadores tuvieron que dejar caer lentamente aminoácidos activados por sulfuro de carbonilo en el tubo de ensayo a lo largo de varias horas. Estas condiciones remedan lo que pudo haber sucedido en los tiempos de la abiogénesis en un proceso que pudo durar incluso años en el que un flujo de compuestos químicos frescos se iban cayendo a la sopa primordial.
La propuesta de que los estructuras amiloides podrían ser buenas candidatas para la abiogénesis se debe que son capaces de realizar ciertas funciones químicas. Así por ejemplo, ya el año pasado Riek y su equipo descubrieron que estas estructuras son capaces de dividir ésteres.
Sin embargo, hay algo que todavía falta demostrar para considerar a estas estructuras buenas candidatas: su posible capacidad de replicación. Es decir, si son capaces de replicarse como lo hace el ADN o el ARN. De momento no hay experimentos que demuestren este punto.
Hace ya mucho tiempo se propuso que las primeras moléculas que dieron origen a la vida serían las de ARN, es lo que llamó “mundo de ARN”. La razón de elegir el ARN frente al ADN es que el primero presenta cierta capacidad catalítica.
No obstante, se empieza a pensar que quizás no se dio tal mundo de ARN, pues las moléculas de ARN biológicamente funcionales son muy grandes y complejas y es difícil pensar en un método que forme tales moléculas de forma espontánea. Por otro lado, las amiloides más simples poseen ciertas propiedades químicas interesantes. Además son más estables que el ARN en los ambientes duros, como los que reinaban en aquel entonces. Incluso los bloques constituyentes del ARN son más complejos que los que forman las amiloides. Por estas razones se propone a estas candidatas como precursoras de la vida desde hace un tiempo. Ya veremos si finalmente ganan la carrera.
Copyleft: atribuir con enlace a http://neofronteras.com/?p=5047

Predicen extinción masiva en los océanos

La sobre-explotación de las grandes especies marinas conducirán a una gran extinción de los océanos si no cambiamos nuestro comportamiento.

Foto
El ser humano está destruyendo las especies marinas más grandes a un ritmo muy superior al que evitaría su desaparición. Así que estos animales se extinguirán antes y los océanos terrestres se enfrentarán a una extinción masiva por efecto dominó.
El principal causante de este declive de especies es la sobrepesca efectuada por los humanos, algo que no tiene precedentes en la historia de la vida sobre la Tierra.
Jonathan Payne (Universidad de Stanford) ha puesto en contexto esta extinción moderna con las cinco extinciones masivas que se han dado antes en este planeta.
Payne y sus colaboradores examinaron la asociación entre el nivel de amenaza de extinción y las tendencias ecológicas, como el tamaño del cuerpo, durante los últimos 500 años para dos grandes tipos de animales marinos (moluscos y vertebrados) y lo compararon con lo que ha sucedido a lo largo de los últimos 445 millones de años, en especial con hace 66 millones de años (justo antes de la extinción del Cretácico en la que desaparecieron los dinosaurios). Acaban de publicar un artículo con sus hallazgos.
Para esta tarea se valieron de los datos del registro fósil. Comprobaron que lo que está pasando ahora es muy distinto de los que ha venido pasando en pasado geológico.
En especial, los autores del estudio encontraron que la era moderna es única en el grado en el que las criaturas de mayor tamaño son eliminadas de los mares, lo que las hace encaminarse hacia la extinción. Calculan que por cada factor de 10 en aumento de la masa corporal se tiene una amenaza de extinción en un factor de 13. Es decir, en la actualidad, cuando más grande es una animal marino, más fácil que se extinga.
Esta extinción selectiva puede tener consecuencias graves sobre la salud de los ecosistemas marinos debido a que se tiende a eliminar seres de la parte más alta de la pirámide alimenticia. Estos animales son muy importantes porque se mueven a lo largo de toda la columna de agua y el lecho marino y ayudan a reciclar nutrientes a lo largo de todos los océanos. Las consecuencias de su desaparición pueden ser nefastas para las demás especies, que pueden desaparecer también por efecto dominó.
Judy Skog, director de la sección de ciencias de la Tierra de la National Science Foundation y responsable de financiar el estudio, dice que el hallazgo se debe incorporar en la toma de decisiones acerca de la administración de los recursos marinos, sobre todo de las reservas pesqueras. Según él, estos resultados muestran que los grandes animales marinos van a desaparecer de los mares más rápido que los animales pequeños. El registro fósil indica que esta tendencia no ha sucedido en el pasado y que es el resultado del mundo moderno.
Los autores no analizan las causas de esta desaparición porque esta está ya documentada profusamente en la literatura científica y apunta a un culpable: el ser humano. Básicamente es consistente con la sobrepesca y la explotación de especies de gran tamaño que, sin duda, se efectúa. Conforme las especies de mayor tamaño se van agotando se explotan las siguientes de mayor tamaño y así sucesivamente.
Esto no es más que la ley de optimización del forrajeo, que tan buenos ejemplos tenemos en tierra firme. Entre otros está la extinción de la megafauna que el ser humano efectuó en distintos continentes.
Básicamente el ser humano penetra en un nuevo ecosistema y caza primero a los animales más grandes, sean los mamuts de Norteamérica o los moas de Nueva Zelanda, porque es lo que mejor relación recompensa/esfuerzo tiene. Una vez agotados pasa a cazar otras especies más pequeñas.
Hasta hace poco los seres humanos estaban restringidos a pescar cerca de las costas y con barcos y tecnología rudimentarios, por lo que su impacto era escaso. Pero, desde que la tecnología moderna lo permitió, el ser humano consiguió penetrar en todos los mares y a cualquier profundidad para pescar a escala industrial. Hemos conseguir penetrar en un nuevo ecosistema y estamos destruyendo su megafauna.
Payne dice que todavía hay esperanza para revertir el proceso si los seres humanos cambian su comportamiento.
“No podemos hacer mucho para revertir la acidificación y el calentamiento de los océanos, que son, ambas, amenazas reales que deben ser abordadas. Pero podemos cambiar los tratados relativos a la caza y la pesca. Las poblaciones de peces tienen el potencial de recuperarse mucho más rápidamente que el clima o la química oceánica. Podemos invertir esta situación de una forma relativamente rápida con las decisiones administrativas apropiadas a nivel nacional e internacional”, añade.
Copyleft: atribuir con enlace a http://neofronteras.com/?p=

Riesgos de los cultivos genéticamente modificados

Un estudio reciente alerta de los problemas ambientales que está produciendo la adopción de cultivos genéticamente modificados en EEUU.

Foto
Países con legislación permitiendo o prohibiendo la elaboración y comercialización de organismos genéticamente modificados. Fuente: Wikipedia.
Ahora que Bayer compra Monsanto, con lo que se generará un gran monstruo de los agroquímicos, no está mal recordar el riesgo que supone la adopción de los cultivos genéticamente modificados, como los que Monsanto comercializa desde hace años.
Dejar en manos organizaciones con ánimo de lucro la alimentación humana y la ecología del planeta supone un importante tema político. Pero dejando de lado estos aspectos hay otros, como el ecológico y el económico, que nos deben preocupar, como lo que refleja un estudio publicado recientemente por científicos de varias universidades de EEUU.
Según Federico Ciliberto (University of Virginia) y sus colaboradores, la amplia adopción de los cultivos genéticamente modificados ha disminuido temporalmente el uso de insecticidas, lo que podría ser interpretado como algo positivo. Pero esto no se ve recompensado debido a que las malas hierbas se han hecho resistentes a los herbicidas y ahora se usan más estos pesticidas.
Ciliberto ha liderado un extenso estudio sobre pesticidas y cultivos genéticamente modificados (CGM) junto a Edward D. Perry (Kansas State University), David A. Hennessy (Michigan State University) y GianCarlo Moschini (Iowa State University). Estos economistas estudiaron los datos anuales procedentes de 10.000 agricultores que han estado cultivando soja o maíz (5000 para cada tipo de cultivo) desde 1998 a 2011 en localizaciones a lo largo de todo EEUU, tanto normales como CGM.
Desde 2008 los cultivos con plantas modificadas genéticamente representan el 80% del total de cultivos de maíz y soja en EEUU.
El maíz es modificado normalmente con dos genes. Uno de ellos provoca que el insecto que coma las semillas se muera intoxicado. Es decir, el tóxico ya está en la semilla de maíz y, en teoría, no habría necesidad de que el agricultor aplicase más insecticida desde el “exterior”.
El otro es un gen que, introducido en el maíz, permite que la planta tolere el glifosato, que es un herbicida empleado comúnmente en productos como el Roundup. Es decir, en este caso el maíz no tiene de origen el herbicida, sino que este es aplicado por el agricultor. La soja es modificada solamente de esta misma última manera para que resista también el glifosato.
La consecuencia más obvia es que los agricultores consumen menos insecticidas una vez adoptan el cultivo de maíz modificado. En concreto un 11,2% menos respecto a los que usan maíz normal. Además, usaron un 1,3% menos herbicida sobre un periodo de 13 años.
Por otro lado, en el caso de la soja, los investigadores apreciaron entre los agricultores que adoptaron soja modificada un incremento en el uso de los herbicidas de un 28% respecto a los que no adoptaron estos cultivos.
Los autores del estudio atribuyen este mayor uso de glifosato a que las malas hierbas desarrollan resistencia a este pesticida. En un principio se observa una reducción en el uso de este herbicida, pero en el transcurso del tiempo los agricultores van usando mayor cantidad según las hierbas evolucionan para adaptarse a la presencia de este producto químico en su ambiente.
Esto no ocurre todavía para el caso del maíz debido este tipo de CGM se adoptó más tarde, pero también se observa un aumento del uso de glifosato en el maíz en los 5 últimos años del estudio. Esto indicaría que el problema de la resistencia a este herbicida está aumentando en ambos casos.
Entre 2006 y 2011 el porcentaje de hectáreas tratados solamente con glifosato disminuyó de un 40% a un 19% en maíz y de un 70% a un 41% en soja. Esto es una consecuencia de que los agricultores están usando otros productos además o en lugar del glifosato al ser las hierbas resistentes a este herbicida más comunes.
La resistencia a los insectos no se está desarrollando tan rápido porque las leyes federales de EEUU obligan a los agricultores a tener una parcela en sus campos que esté libre de CGM. Los insectos pueden ir a estos lugares a modo de “santuarios” y no necesitan desarrollar resistencia a los insecticidas procedentes de los CGM. Como interaccionan con otros miembros de su especie en otras partes del campo de cultivo, sus genes, al dispersarse por la población, reducen la propagación de posibles genes mutantes resistentes al insecticida.
Según los autores del estudio, pese a la disminución temporal en el uso de insecticidas, el uso cada vez mayor de herbicidas constituye un problema ambiental significativo porque las dosis cada vez mayores de estos químicos dañan la biodiversidad y contaminan el aire y el agua.
Estos investigadores han medido el impacto medioambiental de la adopción de los CGM usando la cuota de impacto ambiental (EIQ en inglés), que mide el impacto de los productos químicos usados por los agricultores. Han calculado la EIQ tanto para agricultores que tienen CGM como los que plantan cultivos convencionales, encontrado poca diferencia. Sin embargo, en el caso de la soja modificada han podido medir una correlación entre un uso de una cantidad mayor de herbicida e impactos negativos sobre el medio, pues se produce una mayor contaminación de los ecosistemas.
Ciliberto dice que se sorprendió por el gran aumento en el uso de este herbicida y se muestra preocupado por el impacto que esto pueda tener sobre el medio ambiente. “No esperaba ver un patrón tan fuerte”, añade.
No está de más recordar este estudio y otros similares a los que hace poco clamaban por la inocuidad “avalada por la ciencia” de los CGM.
Sus voceros en “medios de comunicación” tradicionales
deberían ir rectificando.
“Life finds a way”, Jeff Goldblum (Dr. Ian Malcolm en Jurassic Park).
Copyleft: atribuir con enlace a http://neofronteras.com/?p=5043