jueves, 28 de febrero de 2008

UNA MUESTRA AUDIOVISUAL DE LOS EQUILIBRIOS ECOLOGICOS DE NUESTRO PLANETA TIERRA DETALLA LOS ECOCISTEMAS Y MUESTRA QUE SOMOS PARTE

Inusual Dinosaurio Con Cabeza de Cocodrilo

Se ha demostrado que un raro dinosaurio británico tenía un cráneo que funcionaba como el de un cocodrilo comedor de peces, a pesar de parecerse a un dinosaurio típico. También poseyó dos grandes garras al extremo de sus miembros delanteros, quizás usadas como ganchos para agarrar y alzar los peces del agua. Emily Rayfield, de la Universidad de Bristol, utilizó técnicas de modelado por ordenador para demostrar que mientras el Baryonyx walkeri estaba comiendo, su cráneo se doblaba y estiraba de la misma forma que el cráneo de cierto cocodrilo devorador de peces con mandíbulas largas y estrechas.Durante la excavación, fueron encontrados dientes y escamas de un pez parcialmente digerido, y un hueso de dinosaurio, en la región del estómago del animal, demostrando que este dinosaurio comía peces, aunque no se limitase necesariamente a ellos. Es más, tenía un cráneo muy raro que se parecía en parte al de un dinosaurio y en parte al de un cocodrilo, así que los investigadores quisieron establecer a cuál de los dos se parecía más, estructural y funcionalmente.
Los huesos del cráneo del Baryonyx fueron escaneados con tomografía computerizada y se reconstruyó digitalmente la estructura, de modo que los investigadores pudieron ver la anatomía interior del cráneo. Luego analizaron modelos digitales del hocico de un Baryonyx, de un dinosaurio terópodo, de un aligátor y de un cocodrilo comedor de peces, para ver cómo se movía cada hocico durante el proceso de la alimentación. Entonces, los compararon entre sí.Los resultados mostraron que el comportamiento durante la alimentación del Baryonyx era notablemente diferente del de un dinosaurio terópodo carnívoro típico, o del de un aligátor, y más similar al de un cocodrilo devorador de peces. Como la mayor parte de la dieta de ese cocodrilo consiste en peces, el estudio de Rayfield sugiere que éste también pudo ser el caso para el Baryonyx en el Cretáceo.El dinosaurio en cuestión se descubrió cerca de Dorking, en Surrey, Reino Unido, en 1983, por un coleccionista aficionado, William Walker, y denominado como Baryonyx walkeri en su honor en 1986 por Alan Charig y Angela Milner. Es un dinosaurio del Cretáceo temprano, con alrededor de 125 millones de años de antigüedad.

miércoles, 27 de febrero de 2008

Descubren Nueva Pieza en el Rompecabezas de la Estatura Humana

En estudios que involucraron a más de 35.000 personas y un examen de todo el genoma humano, un equipo internacional ha encontrado evidencias de que las variantes genéticas comunes recientemente asociadas con la osteoartritis también pueden desempeñar un papel, aunque menor, en la estatura humana. Las variantes más fuertemente asociadas con la estatura en el nuevo estudio genómico, se sitúan en una región del genoma humano que se piensa influye en la expresión del gen GDF5, involucrado en el desarrollo del cartílago de las piernas y de otros huesos largos. Ciertas variantes raras del gen GDF5 han sido relacionadas con trastornos del desarrollo del esqueleto, y recientemente se ha establecido un vínculo entre las variantes más comunes y la susceptibilidad a la osteoartritis de la cadera y las rodillas en las poblaciones europeas y asiáticas."Las variantes comunes que nosotros identificamos están asociadas con la baja estatura, y, como ha sido descrito previamente, con un incremento del riesgo de padecer osteoartritis", expone una de las miembros principales del equipo de investigación, Karen L. Mohlke, de la Universidad de Carolina del Norte en Chapel Hill. "Nuestros hallazgos hacen pensar en una asociación entre la base genética de la estatura y la osteoartritis, potencialmente facilitada por alteraciones en el crecimiento y desarrollo de los huesos".La Dra. Mohlke y sus colegas hacen énfasis en que las nuevas variantes sólo intervienen en una pequeña fracción de la base genética de la estatura, lo que significa que se necesita mucha más investigación antes de que los científicos puedan bosquejar un cuadro completo de esta compleja característica humana.
Una amplia variedad de factores, incluyendo los genéticos, los del ambiente prenatal y los de la dieta, interactúan para determinar qué estatura alcanza una persona. Actualmente se piensa que los factores genéticos son responsables de por lo menos el 80 por ciento de la variación en la estatura entre las personas. Sin embargo, las nuevas variantes genéticas, junto con otra variante genética, recientemente identificada y asociada con la estatura, la denominada HMGA2, son responsables de menos del 1 por ciento de la variación en la estatura humana.Específicamente, la variante genética recientemente identificada está asociada con un promedio de diferencias en la estatura de aproximadamente 0,4 centímetros. El efecto exacto fue de entre 0,3 y 1,4 centímetros, dependiendo de la población y de si el individuo tiene una o dos copias de la versión "más alta" de la variante. No se descubrieron diferencias de este efecto entre hombres y mujeres, ni las variantes parecieron estar asociadas con el peso o el índice de masa corporal.La osteoartritis es, por un amplio margen, el tipo más común de artritis, afectando a mucha gente en el mundo, sólo en EE.UU. a 21 millones de personas.Los investigadores especulan con que las variantes genéticas que reducen la producción de la proteína GDF5 pueden afectar a la cantidad de cartílago en la columna vertebral, así como a la proporción de los miembros y/o los ángulos de las articulaciones, produciendo tanto una disminución modesta en la estatura como un incremento en la susceptibilidad a desarrollar osteoartritis.

martes, 26 de febrero de 2008

Los Aerosoles Generados Por Actividades Humanas También Afectan a la Circulación Oceánica

En una nueva investigación, los científicos Wenju Cai y Tim Cowan, del CSIRO, han constatado que los cambios en la circulación oceánica influyen a su vez sobre los sistemas meteorológicos y son parcialmente responsables de un movimiento de estos sistemas muy hacia el sur de Australia meridional y de otras regiones de latitud media.
"Los aerosoles hacen enfriar la superficie oceánica del Hemisferio Norte, lo que induce un desequilibrio hemisférico. Esto provoca un incremento del transporte de calor desde las masas oceánicas del Hemisferio Sur a las del Hemisferio Norte a través del Atlántico sur", explica Cai.Según los investigadores, ésta es la primera vez que se comprueba que los aerosoles generados por las actividades humanas son parcialmente responsables de intensificar alguna característica oceánica. También están influyendo en el movimiento hacia el sur de gradientes de temperatura máxima de la superficie marítima, en tormentas de latitud media, y en la corriente en chorro hacia el oeste.El proceso intensifica rasgos atmosféricos como el Modo Anular Austral, un sistema que describe variaciones de contrastes de presión entre latitudes medias y altas.
Utilizando un modelo de clima atmosférico y oceánico, los investigadores pueden ver a esta intensificación extenderse a mayor altitud en la troposfera y luego incidir en la superficie de la Tierra para reforzar la circulación oceánica y los cambios de los sistemas meteorológicos.Hasta ahora, la mayoría de los estudios sobre los impactos de aerosoles de origen antropogénico se han centrado en el Hemisferio Norte y en las influencias tropicales, tales como las inundaciones veraniegas y las sequías en China, un debilitamiento de los monzones del sur de Asia, y tendencias de incremento de las lluvias sobre el noroeste de Australia.Así como los aerosoles volcánicos tienen una fuerte firma de enfriamiento sobre el contenido calórico del océano, con implicaciones para la subida del nivel del mar, los aerosoles generados por el hombre provocan la redistribución del calor a través de los océanos del planeta, provocando un cambio en el posicionamiento del Modo Anular Austral y, por consiguiente, en los patrones del tiempo meteorológico a lo largo del sur de Australia.

lunes, 25 de febrero de 2008

El Proceso de Reparación Celular Es el Más Adecuado Para Mitigar el Riesgo de Cáncer

La manera aparentemente ineficiente en la que nuestros cuerpos reemplazan las células muertas, es una defensa contra el cáncer, según una nueva investigación.
El que una célula se divida en dos células hijas idénticas podría parecer la forma más simple de conservar en perfectas condiciones nuestro organismo. Sin embargo, esa es la fórmula para propiciar el crecimiento descontrolado, ya que, como señala John W. Pepper, profesor de ecología y biología evolutiva de la Universidad de Arizona y miembro del Instituto BIO5 de dicha universidad: "Cuando las células alcanzan el punto en el que se dividen constantemente, en lugar de sólo cuando es necesario, se producen células cancerosas".Los organismos multicelulares usan un proceso aparentemente ineficiente para reemplazar las células perdidas. Por ejemplo, la piel convoca a células madre dermoespecíficas para producir células intermedias que a su vez producen células epiteliales.Aunque notables en su trabajo, las nuevas células epiteliales son callejones evolutivos sin salida, puesto que no pueden reproducirse.Perder la capacidad de reproducción fue el camino que tomaron los organismos unicelulares para volverse multicelulares. Los patrones de diferenciación celular en los animales suprimen la evolución somática.En la investigación, con Pepper han colaborado Kathleen Sprouffske de la Universidad de Pensilvania en Filadelfia, y Carlo C. Maley del Instituto Wistar.
Pepper se interesó en los orígenes de la cooperación entre células mientras estaba en el Instituto de Santa Fe, en Nuevo México. "Los organismos son simplemente un conjunto de células. Si entendemos las condiciones bajo las cuales cooperan, podremos comprender las causas por las que se interrumpe la cooperación. El cáncer es una ruptura de la cooperación", explica Pepper.Pepper y sus colegas usaron un modelo informático especial para comparar diferentes modos de reproducción celular.Los resultados indican que si las células se reprodujesen simplemente haciendo réplicas de sí mismas, sus descendientes tendrían mayor probabilidad de acumular mutaciones.En cambio, si la reproducción celular es mucho más complicada, los descendientes tendrán menos mutaciones.Suprimir las mutaciones que fomentan el crecimiento celular descontrolado, sería particularmente importante para organismos mayores que tienen vidas largas.

Hallazgos Clave Sobre Generación de Electricidad Mediante Bacterias

Investigadores del Instituto de Biodiseño (de la Universidad Estatal de Arizona) están utilizando bacterias como una opción viable para generar electricidad. En un nuevo estudio, dirigido por Andrew Kato Marcus y sus colegas Cesar Torres y Bruce Rittmann, han obtenido conocimientos cruciales que pueden llevar a la comercialización de una prometedora tecnología para células de combustible microbianas (MFCs por sus siglas en inglés).
Puede emplearse cualquier tipo de desecho, como aguas residuales o estiércol de cerdo, y la célula de combustible microbiana genera energía eléctrica. A diferencia de las células de combustible convencionales que dependen del gas hidrógeno como combustible, la célula de combustible microbiana puede utilizar diversos combustibles orgánicos disueltos en el agua.Las bacterias tienen una diversidad tan rica que los investigadores pueden encontrar bacterias que se alimenten de casi cualquier desecho como parte de su dieta diaria. Al unir el metabolismo bacteriano directamente con la producción de electricidad, la MFC elimina los pasos extra necesarios en otras tecnologías de células de combustible.Hay muchos tipos de reactores para MFCs. Sin embargo, todos tienen un par de terminales como los de las baterías: un ánodo y un cátodo.Las bacterias dependen del ánodo para vivir. Como las bacterias emplean el ánodo en su metabolismo, se posicionan estratégicamente en su superficie para formar una comunidad bacteriana a la que se denomina biofilm.
El nuevo modelo numérico desarrolla la idea de que la matriz bacteriana es conductora.El tratamiento de la matriz del biofilm como un conductor permitió al equipo describir el transporte de electrones impulsados por el gradiente del potencial eléctrico. La relación entre la matriz del biofilm y el ánodo se puede describir ahora mediante una ecuación común para un circuito eléctrico, la ley de Ohm.El biofilm completo está actuando como el propio ánodo, un electrodo viviente.El concepto del ánodo de biofilm permitió al equipo describir el transporte de electrones desde las bacterias al electrodo, y el gradiente del potencial eléctrico.En su modelo, el equipo identificó tres variables cruciales para controlar una MFC: la cantidad de material de desecho (combustible), la acumulación de biomasa en el ánodo y el potencial eléctrico en el biofilm. El tercer factor es un concepto totalmente nuevo en las investigaciones sobre las MFCs.Modelando el potencial en el ánodo del biofilm, los científicos tienen ahora un indicador de cómo está operando la MFC y por qué. Pueden predecir cuánto voltaje proporcionará y cómo aumentar al máximo el rendimiento de energía controlando los diversos factores.

Arquitectura Medieval, Precursora de unas Matemáticas del Siglo XX

Los intrincados trabajos de mosaico decorativo presentes en la arquitectura medieval del mundo islámico parecen mostrar la avanzada geometría de cuasicristal decagonal, un concepto descubierto por los matemáticos y físicos occidentales sólo en los años setenta y ochenta del pasado siglo. De confirmarse el hallazgo, la aplicación islámica medieval de esta geometría sería al menos medio milenio anterior a su uso en Occidente.El hallazgo ha sido realizado por Peter J. Lu de la Universidad de Harvard, y Paul J. Steinhardt de la Universidad de Princeton."No podemos decir con seguridad lo que implica", advierte Lu. "Podría ser la prueba de un destacado papel de las matemáticas en el arte islámico medieval, o podría ser simplemente una forma más fácil para los artesanos de construir su arte. Sería increíble que todo fuera coincidencia. Como mínimo, nos muestra que una cultura a la que con frecuencia no damos suficiente crédito, estuvo bastante más avanzada de lo que pensábamos".Los asombrosos y detallados patrones geométricos de los mosaicos son un rasgo distintivo de la arquitectura islámica medieval a lo largo de Oriente Medio y Asia Central. Los historiadores del arte hace mucho tiempo asumieron que esos elementos fueron creados a partir de modelos más simples y con herramientas elementales como reglas y compases. Pero no se ha explicado cómo los artistas y arquitectos pudieron crear los inconfundiblemente complejos patrones en los mosaicos que adornan muchos de los edificios islámicos medievales."Las reglas y compases permiten hacer un buen trabajo para las simetrías recurrentes de los modelos más simples que vemos", explica Lu, "pero probablemente se requirió la utilización de herramientas más complejas para conseguir las composiciones de mosaicos con sofisticadas simetrías decagonales".Si bien es posible crear estos modelos de manera individual utilizando herramientas básicas, son increíblemente difíciles de reproducir en una escala mayor sin generar grandes distorsiones geométricas. Los más complejos trabajos de mosaico islámicos medievales tienen tan poca distorsión que ello hace sospechar a Lu que hay mucho más que herramientas básicas y trabajo paciente detrás de tales obras."Colocar individualmente centenares de decágonos con una regla habría sido sumamente difícil" argumenta Lu. "Resulta mucho más probable que esos artesanos usaran mosaicos particulares que nosotros hemos encontrado descomponiendo la obra de arte".Estos mosaicos primarios constan de juegos de cinco polígonos contiguos. Para los artesanos islámicos medievales pueden haber representado una caja de herramientas para generar grandes números de distintivos patrones de mosaicos sin el proceso largo, meticuloso, y a menudo defectuoso, de crear cada segmento de modo individual.Estos mosaicos especiales se pueden haber usado para generar una amplia gama de complejas pautas de mosaico en las construcciones más importantes del Islam medieval, incluyendo edificios en Irán, Turquía, Irak, Afganistán y la India.

Resuelven el Cubo de Rubik en 26 Movimientos

Es un juguete con el que la mayoría de los niños ha jugado alguna vez, pero los resultados de Gene Cooperman, profesor de Ciencias Informáticas de la Universidad del Nordeste, y su colaborador Dan Kunkle, no son la obra de un niño. Los dos han demostrado que bastan 26 movimientos para resolver cualquier configuración de un cubo de Rubik, un nuevo récord. Históricamente el mejor resultado demostrado contemplaba 27 movimientos.Cooperman y Kunkle pudieron lograr este nuevo récord a través de dos técnicas primarias: utilizaron 7 terabytes de disco distribuido como una extensión de la memoria RAM, para poder albergar algunas grandes tablas y desarrollar una nueva y ultraveloz forma de computar los movimientos, e incluso grupos completos de movimientos, empleando la teoría matemática de los grupos.Cooperman y Kunkle pusieron todas las configuraciones del cubo de Rubik en una familia de juegos de configuraciones. Luego buscaron el resultado de aplicar un solo movimiento a todas las configuraciones de una familia de juegos de configuraciones a la vez. Simularon esto en un ordenador a una velocidad de 100 millones de veces por segundo, usando una nueva técnica en la teoría matemática de los grupos.
En mayo del año 1997, Richard Korf, profesor de ciencias de la computación en la Universidad de California en Los Ángeles (UCLA), anunció que había encontrado las primeras soluciones óptimas al Cubo de Rubik. Su investigación demostró que la solución óptima media era de 18 movimientos y creyó que cualquier cubo podría resolverse en no más de 20 movimientos. Sin embargo fue incapaz de demostrar esto y nadie había podido demostrar nunca que podría resolverse en menos de 27 movimientos.El programa primero hace un gran precómputo, y luego, con gran rapidez, en aproximadamente un segundo, encuentra una solución en 26 movimientos o menos para cualquier estado del cubo de Rubik.Cooperman y Kunkle utilizaron las computadoras de Teragrid (teragrid.org) y de la Universidad del Nordeste.El Cubo de Rubik, inventado a finales de la década de 1970 por el húngaro Erno Rubik, es quizás el más famoso de los puzzles combinatorios de su tiempo. La publicidad en su embalaje habla de miles de millones de combinaciones, lo que realmente es una subestimación. Hay de hecho, más de 43 trillones (millones de millones de millones) de estados diferentes que pueden alcanzarse desde cualquier configuración dada.

Ignorando la Matemática Subyacente, los Antiguos Crearon Sofisticadas Máquinas

Un investigador en la Universidad de Harvard está reuniendo un creciente número de evidencias de que antiguos artesanos griegos fueron capaces de diseñar sofisticadas máquinas sin conocer necesariamente la teoría matemática que respalda su construcción.
Análisis recientes de tratados técnicos que datan del siglo quinto antes de nuestra era, revelan que la tecnología floreció entre artesanos con un conocimiento teórico limitado.Los artesanos tenían su propio tipo de conocimiento que no tenía que estar basado en la teoría, y eran capaces de construir dispositivos calibrados con precisión.
La balanza, usada para medir el peso en todo el mundo antiguo, es el mejor ejemplo de los hallazgos del profesor Mark Schiefsky sobre la distinción entre el conocimiento teórico y el práctico de los constructores. Trabajando con un grupo dirigido por Jürgen Renn, Director del Instituto Max Planck para la Historia de la Ciencia, en Berlín, Schiefsky ha encontrado que la balanza conocida como "balanza romana", que tiene los brazos desiguales, estaba en uso ya en los siglos cuarto y quinto aC, antes de que Arquímedes y otros pensadores de la era Helenística hicieran una demostración matemática de sus fundamentos teóricos."La gente asume que Arquímedes fue el primero en usar la balanza romana porque se tiende a creer que uno no puede crear tal artefacto sin conocer la ley de la palanca. En realidad, sí es posible hacerlo, y diversos artesanos lo hicieron. Ellos tenían su propio juego de reglas para fabricar la balanza y calibrarla", explica Schiefsky.Las necesidades prácticas, así como el método de prueba y error, llevaron al desarrollo de tecnologías tales como la citada balanza romana.

La Evolución Lingüística Sigue Pautas Propias de la Selección Natural

Los matemáticos de la Universidad de Harvard, Erez Lieberman, Jean-Baptiste Michel y sus colegas, basándose en una fórmula desarrollada por ellos, conciben el desarrollo lingüístico como un esquema esencialmente evolutivo: Al igual que los genes y los organismos sufren la selección natural, las palabras, específicamente los verbos irregulares del idioma inglés que no forman el tiempo pasado añadiendo la partícula "-ed" al final de la palabra, están sujetos a una poderosa presión "normalizadora" a medida que el idioma se desarrolla.
El análisis matemático de esta evolución lingüística revela que la conjugación de los verbos irregulares se comporta de una manera sumamente regular, hasta el punto de que se pueden predecir las futuras fases de la trayectoria evolutiva de un verbo.Antes, los idiomas se consideraban sistemas demasiado confusos y difíciles para ser estudiados matemáticamente, pero ahora estos investigadores han sido capaces de cuantificar con éxito un aspecto del cambio y desarrollo del idioma.Lieberman, Michel y sus colegas partieron para su nuevo trabajo de estudios realizados anteriormente sobre siete reglas que competían unas contra otras para la conjugación de los verbos en el inglés antiguo. El uso de seis de estas reglas se ha ido perdiendo gradualmente con el paso del tiempo. Encontraron que la única regla superviviente, que agrega el sufijo "-ed" para formar el pasado simple y el participio pasado, contribuye a la decadencia evolutiva de los verbos irregulares ingleses según una función matemática específica: Se regularizan a un ritmo inversamente proporcional a la raíz cuadrada de su frecuencia de uso.
En otros términos, un verbo empleado con una frecuencia 100 veces menor, evolucionará 10 veces más rápidamente.Para desarrollar esta fórmula, los investigadores rastrearon el estado de 177 verbos irregulares del inglés antiguo a través de los cambios lingüísticos producidos en el inglés medieval y luego en el inglés moderno. De estos 177 verbos que eran irregulares hace 1.200 años, quedaban 145 irregulares en el inglés medieval posterior y sólo 98 siguen siendo irregulares hoy.Lieberman y el grupo de Michel computaron la "longevidad" de los verbos irregulares supervivientes para predecir cuánto tiempo deberá transcurrir para que se regularicen. Los más comunes, como "be" (en español, ser o estar), y "think" (pensar), tienen una longevidad esperada tan larga (38.800 y 14.400 años, respectivamente) que a efectos prácticos nunca serán regulares. Los verbos irregulares con menores frecuencias de uso, como "shrive" (en español, confesar) y "smite" (golpear) con longevidades esperadas de 300 y 700 años, respectivamente, es mucho más probable que sucumban a la regularización.

Representación Gráfica de Conjuntos Inmensos de Datos Para Detectar Peligros

Poco después del 11-S, los estadounidenses se preguntaron alarmados: ¿Cómo nuestros servicios de vigilancia pasaron por alto los indicios? Sospechosos que figuraban en listas de observación movieron dinero en formas llamativas. El "parloteo" sospechoso había aumentado en los meses anteriores. Un sujeto de visita en el país había ofrecido dinero en efectivo para aprender a pilotar, pero no a aterrizar, un avión de pasajeros. En retrospectiva, estas pepitas de información delatora proporcionaron indicios del terrible ataque que se avecinaba.
El problema fue que la mayoría de tales pepitas estaban ocultas en medio de una avalancha de datos que llegaron más rápido de lo que los analistas podían procesar. La recogida de datos de un día podría llenar más de 6 millones de iPods de 160 gigas. Lo que es más, como las personas, las pepitas algunas veces discrepan. Y, como una historia contada y recontada que se va distorsionando, sus mensajes cambiaron, a veces de manera imperceptible.Finalmente, la mayoría de las pepitas están bajo la forma de datos difusos no estructurados. Por ejemplo, el mismo rostro puede aparecer en tres videos de vigilancia. Tales indicios, como la mayoría, no vienen convenientemente empaquetados en una hoja de cálculo ordenada o en un texto escudriñable letra a letra; deben ser inferidos a partir de fotos, videos y voces.Para impedir un próximo 11-S, los analistas deben mezclar, por así decirlo, el ojo enciclopédico de Google con el genio deductivo de Sherlock Holmes.A finales del siglo pasado, Edward Tufte catalogó formas de visualizar datos estructurados (por ejemplo, horarios de trenes) o similares (por ejemplo, tasas de mortalidad). Hoy en día, los investigadores de la Dirección de Ciencia y Tecnología del Departamento de Seguridad Nacional de Estados Unidos están creando formas de apreciar datos difusos como una imagen tridimensional donde los indicios de amenazas pueden resaltar de entre todo lo demás.
El emergente campo del análisis visual lleva ahora el trabajo de Tufte a su siguiente fase. Los investigadores que trabajan en esta labor están automatizando la forma en que los analistas reconocen y valoran las amenazas potenciales. Los matemáticos, lingüistas y expertos en lógica hacen que el universo colectivo de datos asuma una forma significativa. Ellos le asignan brillo, color, textura, y tamaño a miles de millones de datos conocidos o supuestos, y crean reglas para integrar estos valores de forma que resalten las amenazas. Por ejemplo, las grabaciones de video de un día, llamadas de teléfonos móviles, fotos, registros bancarios, salas de chat en internet y mensajes de correo electrónico, pueden tomar la forma de una nube gris azulada. Si un gran peligro acecha a Los Ángeles y a Boston, estas ciudades son resaltadas en un mapa de Estados Unidos.Las imágenes estáticas de un mes pueden ser animadas como una película que presenta de manera acelerada el paso del tiempo, y en la que una "cordillera" creciendo revela una amenaza en auge.Pasarán años antes que el análisis visual pueda detectar automáticamente pistas a partir de datos difusos tales como el video, pero se van haciendo progresos hacia esa meta.

Pasos Matemáticos Cruciales Para el Ensayo de Cirugías Con Copias Virtuales de Cada Paciente

Accidentalmente, un cirujano mata a un paciente, deshace el error y comienza de nuevo. ¿Pueden los matemáticos hacer realidad esa idea de la ciencia-ficción? Se aproxima con rapidez el día en que un cirujano pueda practicar sobre el "doble digital" de su paciente (una copia virtual del cuerpo de éste) antes de realizar la operación quirúrgica real, según el matemático Joseph Teran de la UCLA que está ayudando a hacer viable una tecnología para la cirugía virtual. Las ventajas de esta nueva tecnología salvarán vidas.
"El cirujano puede permitirse cometer errores sin consecuencias cuando utiliza un simulador, y aprender de sus errores", explica Teran. "Si comete errores, puede deshacerlos como lo hace cualquiera que se equivoca al teclear una palabra en un documento usando un procesador de textos. Volver a empezar es un gran beneficio de la simulación. La simulación quirúrgica está llegando, no hay ninguna duda sobre esto. Es una alternativa más barata frente a los cadáveres y una alternativa más segura para los pacientes".Los pacientes pueden ser escaneados y entonces es posible generar un doble digital tridimensional. Es una copia virtual del cuerpo del paciente, incluyendo sus órganos internos. El cirujano hace primero la operación quirúrgica en el paciente virtual. Con un simulador, un cirujano puede practicar un procedimiento decenas o cientos de veces. Cuando está clara la mejor forma de realizar la cirugía, entonces el paciente acudirá al hospital para ser operado.
Ahora, ya puede hacerse un doble corporal tridimensional digital de cualquier persona, pero actualmente eso requiere la labor de 20 especialistas entre seis y nueve meses. En un futuro cercano, un único técnico podrá hacerlo en cuestión de minutos. La disponibilidad fácil de esta tecnología permitirá a los cirujanos cometer menos errores sobre los pacientes reales. El único factor limitante es la complejidad de la geometría involucrada, pero Teran y sus colaboradores están trabajando en eso.La tecnología será especialmente útil para nuevos tipos de cirugías, que por su carácter novedoso no hayan podido ser ensayadas tanto como sería deseable.Hacer realidad la cirugía virtual requerirá resolver ecuaciones matemáticas, así como progresar en la geometría computacional y en la informática. Siendo un experto en matemáticas aplicadas, Teran trabaja en estos campos; él desarrolla algoritmos para resolver las ecuaciones. Los adelantos hechos por Teran y otros científicos en la geometría computacional, ecuaciones especiales y la computación a gran escala están acelerando la viabilidad práctica de la cirugía virtual.

Modelo Matemático Para los Copos de Nieve

Ahora pueden hacerse crecer copos de nieve tridimensionales en un modelo computerizado, utilizando un programa desarrollado por matemáticos de la Universidad de California en Davis y la Universidad de Wisconsin-Madison.
Ningún copo de nieve es verdaderamente igual a otro, aunque pueden ser muy similares entre sí. El por qué no son más diferentes es un misterio. Modelar el proceso puede resolver, al menos en parte, este enigma.Complicados, increíblemente variados y bellos, los copos de nieve han intrigado a los matemáticos por lo menos desde 1611, cuando Johannes Kepler predijo que la estructura de seis puntas reflejaría una estructura cristalina subyacente.Los copos de nieve crecen a partir del vapor de agua condensado alrededor de algún tipo de núcleo, como una partícula de polvo. La superficie del cristal creciente es una compleja capa semilíquida donde las moléculas del vapor de agua circundante pueden pegarse o despegarse. Lo más probable es que las moléculas se peguen a las concavidades.
El modelo construido por Janko Gravner, profesor de matemáticas en la Universidad de California en Davis, y David Griffeath, de la Universidad de Wisconsin-Madison, toma en cuenta estos factores, así como la temperatura, la presión atmosférica y la densidad del vapor de agua. Ejecutando el modelo bajo condiciones diferentes, los investigadores han podido recrear una amplia gama de formas de los copos de nieve naturales.En lugar de intentar modelar cada molécula de agua, se divide el espacio en pequeñas porciones tridimensionales de un micrómetro de lado. El programa tarda aproximadamente 24 horas en producir un "copo de nieve" en un ordenador moderno de escritorio.Como en el mundo real, las agujas son el patrón más común de copo de nieve generado en el ordenador. El copo de nieve clásico de seis puntas es relativamente raro, tanto en la simulación por ordenador, como en la naturaleza.Gravner y Griffeath también se las arreglaron para generar algunos nuevos copos de nieve, como un "copo mariposa" que se parece a tres mariposas pegadas entre sí a lo largo del cuerpo. Gravner sostiene que no parece haber ninguna razón para que estas formas no aparezcan en la naturaleza, aunque reconoce que serían muy frágiles e inestables.

jueves, 21 de febrero de 2008

Quienes Hablan Por Teléfono Mientras Conducen, Enlentecen el Tráfico

Las personas al volante de un vehículo que hablan a través del teléfono móvil no sólo son peligrosas por el riesgo de sufrir una distracción que provoque un accidente, sino que también circulan más despacio en la autopista, adelantan a vehículos lentos con menos frecuencia, y tardan más tiempo en completar sus viajes, según un estudio de la Universidad de Utah que sugiere que los conductores que utilizan teléfonos celulares congestionan el tráfico.
"Al final del día, los trayectos diarios promedio de una persona entre el lugar de residencia y el del trabajo consumen más tiempo por culpa de esa persona que estuvo usando el teléfono móvil justo enfrente de ellos", explica Dave Strayer, profesor de psicología de la Universidad de Utah y jefe del equipo de investigación.De modo que, si usted habla por teléfono mientras está conduciendo, le tomará más tiempo llegar desde el punto A hasta el punto B, y retrasará a todos los demás que vayan detrás suyo en la carretera.Strayer realizó el estudio con Joel Cooper, Ivana Vladisavljevic, y Peter Martin, todos de la Universidad de Utah.En el nuevo estudio, se utilizó un simulador de conducción PatrolSim. Una persona se sienta en un asiento delantero equipado con acelerador, frenos, y otros elementos de un automóvil Ford, y se proyectan escenas realistas de tráfico en tres pantallas alrededor del conductor.Los participantes fueron 36 estudiantes de psicología de la Universidad de Utah.Los resultados indicaron que, cuando los conductores conversaban por teléfono, realizaban menor cantidad de cambios de carril, tenían una velocidad general media inferior, y experimentaban un incremento significativo en el tiempo de viaje en condiciones de mediana y alta densidad de tráfico.Bajo condiciones de mediana y alta densidad de tráfico, los conductores que hablaron por teléfono fueron, respectivamente, un 21 y un 19 por ciento menos propensos a cambiar de carril (aproximadamente seis cambios de carril por cada 14,8 kilómetros de conducción, frente a siete u ocho cambios de carril realizados por los conductores que no hablaron por teléfono).Esto puede parecer poco relevante, pero si hay muchas personas que no están cambiando de carril cuando debieran, y conduciendo más despacio, se puede reducir de manera sustancial el flujo de tráfico.
Bajo condiciones de baja, mediana y alta densidad de tráfico, los usuarios de teléfonos móviles emplearon, respectivamente, un 31, un 16 y un 12 por ciento más de tiempo siguiendo a un vehículo lento a una distancia de cerca de 60 metros, que los conductores que no estaban distraídos. Si el conductor de esa clase no hubiese estado distraído hablando por teléfono, hubiera alcanzado y sobrepasado al vehículo lento y llegado antes a su destino.Si dos o tres personas ralentizan a los conductores que vienen detrás, esto origina un efecto de cascada y se hacen más lentos los trayectos diarios entre el lugar de residencia y el del trabajo de todos los demás.De por sí, permanecer en un carril sin adelantar vehículos podría ser interpretado como más seguro, al igual que conducir ligeramente más despacio o mantener una mayor distancia a otros vehículos también puede ser considerado más seguro. Pero si se hace esto debido a que se está distraído hablando por teléfono, entonces no es más seguro.En comparación con los conductores no distraídos, los que hablaron por teléfono circularon, en promedio, unos 3 kilómetros por hora más despacio. Esto provoca un incremento en las demoras para todos los automóviles en un sistema, y las demoras se incrementan a medida que crece el porcentaje de conductores que hablan por teléfono.

Activan la Producción de Insulina en Ratones Diabéticos

Investigadores de la Universidad de Florida han inducido a células hepáticas y pancreáticas de ratones diabéticos a producir insulina, mediante la estrategia de inyectar a los animales una proteína llamada Pdx1, que existe de forma natural. Con ello han inaugurado una nueva vía de investigación que algún día podría llevar a tratamientos más seguros para la diabetes tipo 1.
La Pdx1 activa los genes que controlan el desarrollo de las células del páncreas encargadas de sintetizar y liberar la insulina necesaria para mantener niveles seguros de glucosa en el organismo."La Pdx1 es tan especial porque posee una secuencia única de aminoácidos que actúa como una especie de pasaporte molecular, dejándola pasar libremente hacia el interior de las células, entrar en el núcleo y activar la producción y descarga de insulina", explica la científica principal, Dra. Li-Jun Yang, profesora de patología, inmunología, y medicina de laboratorio del Colegio de Medicina de la Universidad de Florida.

La labor de investigación previa ha mostrado que insertar el gen Pdx1 en células del hígado o del páncreas puede inducir la producción de insulina, pero la mayoría de los métodos de terapia genética utilizan virus para introducir en las células un fragmento de ADN modificado por ingeniería genética. La desventaja de tales enfoques técnicos es que los investigadores nunca pueden estar del todo seguros de que los virus sean completamente inofensivos.La idea de la terapia proteica es que, con el tiempo, las propias células de una persona podrían ser reprogramadas para producir la hormona de forma natural, reponiendo la capacidad del organismo de regular adecuadamente los niveles de azúcar en la sangre sin tener que usar un virus potencialmente peligroso para infiltrar genes correctivos en el organismo o tener que trasplantar células pancreáticas procedentes de otra persona.Con esta terapia proteica, ahora sí hay razón para creer que los niveles normales de azúcar en la sangre pueden mantenerse durante largos períodos, de modo que una inyección poco frecuente de Pdx1 podría reemplazar algún día a las inyecciones diarias de insulina. Las células reprogramadas y regeneradas sintetizarían y liberarían la insulina, manteniendo automáticamente niveles seguros de azúcar en la sangre.

miércoles, 20 de febrero de 2008

Vive la ciencia

Acaba la segunda campaña del Proyecto Sen en Mut.

A lo largo del mes de Octubre, el Instituto de Estudios del Antiguo Egipto (IEAE) desarrolló la segunda campaña de trabajo en Luxor (Egipto). Se trata de la adecuación y presentación de uno de los monumentos mas destacables entre las tumbas de particulares ubicadas en la necrópolis de la antigua ciudad de Tebas. Se trata de la TT 353, uno de los dos monumentos que el arquitecto jefe de la reina Hatshepsut (1473-1458 a. de C) se hizo excavar.
Descubierto por Herbert Winlock en enero de 1927, y situado en la parte exterior de la esquina noroeste del templo de la reina, en Deir el Bahari.
El proyecto elaborado por el I.E.A.E. consiste en la habilitar el monumento para hacer compatible la visita del público con su adecuado preservación. Al mismo tiempo, y dadas las pequeñas dimensiones de la única cámara visitable, proceder a la instalación en el área exterior de un módulo didáctico, con una sala de reproducción del techo astronómico y de los paramentos con texto jeroglíficos.
Al finalizar la segunda campaña las gestiones del I.E.A.E. han conseguido que el Servicio de antigüedades de Egipto (SCA) cerrara los cuartos de baño que provocaban en los últimos años gravísimas filtraciones de agua en el interior del monumento TT 353.

Rosetta sobrevuela la Tierra

Volverá a visitar nuestro planeta por tercera y última vez en noviembre de 2009

La sonda europea Rosetta ha dado con éxito otro paso importante en su misión, sobrevolando nuestro planeta a las 20:57 T.U. del 13 de noviembre de 2007. Gracias a este acercamiento, el vehículo será catapultado hacia el sistema solar externo. Aún así, deberá realizarse otra aproximación a la Tierra para adquirir aún más empuje.


Imagen: la Antártida, observada por Rosetta. Las imágenes han sido obtenidas empleando la cámara de navegación del vehículo, poco después de su máxima aproximación a la Tierra.

Imagen: el limbo terrestre frente a la negrura del espacio, visto por Rosetta.

La maniobra se desarrolló automáticamente y sin problema alguno, sobrevolando la sonda la región del Océano Pacífico austral a una altura mínima de 5295 km sobre la superficie terrestre y una velocidad de 45 000 km/h (12.5 km/s). El vehículo ha recorrido ya una distancia de más de 3000 millones de kilómetros, lo cual supone aproximadamente el 40% de lo que deberá viajar durante toda su misión hacia el cometa 67/P Churyumov-Gerasimenko. Este ha sido el segundo encuentro con la Tierra, precedido por una aproximación a Marte este mismo año.
Imagen: esta llamativa fotografía corresponde a la cara de nuestro planeta no iluminada por el Sol, en donde se aprecian las luces de los núcleos urbanos del hemisferio Norte. Se trata de una composición de dos tomas, ambas efectuadas con la cámara de campo amplio OSIRIS a bordo de la sonda. La toma correspondiente a las luces nocturnas se obtuvo a las 18:45 T.U. del 13 de noviembre desde una distancia de 80 000 km sobre el Océano Índico. Veinte minutos después se realizó la imagen correspondiente al limbo austral iluminado por el Sol, hallándose Rosetta a 75 000 km de distancia a nuestro planeta.

Imagen: la Luna, observada un día después del máximo acercamiento.

Durante el máximo acercamiento, Rosetta obtuvo vistas de nuestro planeta y realizó observaciones de la atmósfera y magnetosfera terrestre, efectuando además una búsqueda de meteoros. Poco después de la medianoche del 13 de noviembre, la sonda giró para efectuar imágenes de la Luna. Durante el progresivo alejamiento de nuestro planeta siguiendo su nueva trayectoria, el vehículo ha seguido obteniendo imágenes del sistema Tierra-Luna y trasmitiendo datos a las estaciones de seguimiento.
Rosetta volverá a visitar la Tierra por tercera y última vez en noviembre de 2009, pero antes de eso (septiembre de 2008), durante su paso por el cinturón principal de asteroides, llevará a cabo una aproximación al asteroide Steins.

miércoles, 13 de febrero de 2008

El Nilo se come los cimientos de los templos de Luxor

Las aguas del Nilo están royendo los cimientos de los templos de Luxor, la antigua Tebas, que en solo veinte años han sufrido más que en sus tres milenios de historia.
Y todo por culpa de la presa de Asuán: aunque puso a Egipto en la modernidad, el precio fue perturbar el sueño de los dioses, que según los egipcios antiguos reposaban en Tebas tras la creación del mundo.
Ahora un ambicioso proyecto tiene como fin rebajar dos metros el nivel de las aguas subterráneas, que están minando los cimientos de algunos de los templos más visitados del turismo mundial.
"Los templos están en un estado muy grave, ya que en los últimos veinte años han sufrido el peor deterioro en sus miles de años de vida", dijo a Efe el jefe del proyecto, Jeremy Gustaffon, de la Agencia estadounidense para el Desarrollo Internacional (USAID).
La razón de este deterioro está más al sur, en la presa de Asuán, a unos 250 kilómetros de Luxor: desde que la presa fuera completada en 1970, el nivel de las aguas subterráneas ha subido considerablemente hasta suponer un peligro inminente para los templos.



A eso hay que añadir las filtraciones de las aguas provenientes del regadío de las tierras agrícolas de los alrededores, que en los últimos años también han aumentado.
"Como los monumentos son de piedra arenisca porosa, pueden absorber el agua, algo que ya ha pasado con los cimientos de los templos", advirtió Gustaffon.
Un proyecto similar en la otra orilla del Nilo, también en Luxor, ya ha conseguido salvar los grandiosos templos de Karnak y Luxor.
Ahora, los colosales monumentos de Ramesseum, Seti I, Amenofis III y Medinet Habu, así como los templos menores y tumbas de la ribera occidental, serán el objetivo de la nueva iniciativa, explicó a Efe el director de Egiptología del Consejo Supremo de Antigüedades, Sabri Abdel Aziz.
Con financiación de la USAID, el proyecto, que tiene un presupuesto de entre 40 y 50 millones de libras (unos 9 millones de dólares) según Aziz, se pondrá en marcha el próximo junio.
A lo largo de 5 kilómetros repletos de antigüedades y bajo la supervisión de dos técnicos estadounidenses, numerosos obreros y expertos en arqueología egipcios excavarán hasta una profundidad de 7 metros para rebajar las aguas.
Y cuando se seque la tierra, no sólo los monumentos descubiertos disfrutarán de buena salud, sino que además los arqueólogos podrán desvelar lo que hasta ahora ha permanecido escondido bajo las aguas.

"No descartamos en absoluto que las excavaciones den lugar a nuevos descubrimientos arqueológicos" afirmó Aziz.
Para ello, los responsables del proyecto tomarán una serie de precauciones como utilizar sensores en la misma tierra que detecten una posible pieza arqueológica antes de cavar. Si es necesario, excavarán con sus propias manos, y siempre procurarán que las obras estén a una distancia mínima de 50 metros de los templos.
Al final del proyecto, se instalarán unas tuberías para drenar todas las aguas subterráneas y hacerlas desembocar en un canal cercano.
Este proyecto de 17 meses no afectará al turismo, ya que los viajeros podrán seguir visitando los templos de Ramesseum, Seti I, Amenofis III y Medinet Habu, situados inmediatamente al sur del Valle de los Reyes.

Descubriendo la mitad desconocida de Mercurio

Los responsables de la misión MESSENGER han mostrado otras dos imágenes obtenidas durante el reciente sobrevuelo de la sonda espacial al planeta Mercurio. Durante la jornada del 14 de enero de 2008, la sonda observó aproximadamente la mitad del hemisferio nunca antes estudiado por vehículos espaciales. Las fotografías, realizadas por la cámara de campo estrecho -integrada en el Sistema de Imagen Dual- del vehiculo están sirviendo para construir mosaicos con los que estudiar la evolución geológica de este planeta.
Veinte minutos antes de la máxima aproximación de MESSENGER, cuando la sonda se encontraba a 5000 km de distancia, sus cámaras realizaban la imagen superior. Los objetos que en ella se aprecian tienen 400 metros de diámetro y el área observada mide 370 km de extremo a extremo. En la toma se muestra parte de un cráter de impacto reciente con cadenas de cráteres secundarios localizadas cerca del ecuador del planeta. Las estructuras de impacto presentan terrazas que han colapsado posteriormente a su formación. Las cadenas de cráteres secundarios, formados por el impacto de las eyecciones que salieron expulsadas durante la generación del cráter principal forman cadenas lineales que en su conjunto conforman un terreno con colinas suaves. A partir de la densidad de cráteres de impacto y el análisis cronológico de las estructuras superficiales, los científicos pueden determinar la edad relativa de las diferentes formas del terreno (cráteres, fracturas, colinas, llanuras...).
La cámara de campo estrecho de la MESSENGER obtuvo varias tomas del planeta empleando cada uno de sus 11 filtros de color. Esta imagen de Mercurio en fase creciente fue realizada en la región del espectro visible, concretamente a 750 nm de longitud de onda (zona del rojo más próxima al infrarrojo). El área abarca regiones ya fotografiadas con la Mariner 10, pero en condiciones de observación muy diferentes. Mientras que en los sobrevuelos de los años ’70 la luz solar iluminaba verticalmente el área, quedando ocultado el relieve del terreno. En este sobrevuelo la iluminación es oblicua, de tal forma que las regiones cercanas al terminador pueden ser estudiadas con mayor facilidad para averiguar su topografía superficial.
Esta imagen -que sirve a los científicos para localizar y estudiar en su contexto las tomas de detalle mostradas en noticias anteriores- fue realizada 80 minutos antes del máximo acercamiento, desde una distancia de 27 000 km, siendo los detalles más pequeños de 10 km de diámetro.

Censo agujeros negros