jueves, 28 de julio de 2011

Un Paso Más Cerca de los Reactores Prácticos de Fusión Nuclear

Los reactores de fusión nuclear prácticos están ahora un poco más cerca de la realidad gracias a nuevos experimentos con el reactor experimental Alcator C-Mod del MIT. Este reactor es, de entre todos los de fusión nuclear ubicados en universidades, el de mayor rendimiento en el mundo.


Los nuevos experimentos han revelado un conjunto de parámetros de funcionamiento del reactor, lo que se denomina "modo" de operación, que podría proporcionar una solución a un viejo problema de funcionamiento: cómo mantener el calor firmemente confinado en el gas caliente cargado (llamado plasma) dentro del reactor, y a la vez permitir que las partículas contaminantes, las cuales pueden interferir en la reacción de fusión, escapen y puedan ser retiradas de la cámara.


La mayoría de los reactores experimentales de fusión nuclear del mundo, como el del Centro de Ciencia del Plasma y Fusión del MIT, son del tipo tokamak, en los que se usan poderosos campos magnéticos para retener el plasma caliente dentro de una cámara en forma de donut (o toroidal). El término tokamak proviene del nombre ruso del primer reactor de esta clase, desarrollado en Rusia en la década de 1960.

Por regla general, dependiendo de cómo se configuren la fuerza y la forma del campo magnético, tanto el calor como las partículas pueden escaparse (en una configuración llamada modo-L) o bien pueden ser retenidos con firmeza en el plasma (en una configuración llamada modo-H).

Ahora, después de unos 30 años de pruebas usando la serie de reactores Alcator (que con los años ha evolucionado), unos investigadores del MIT, incluyendo al profesor Dennis Whyte, han descubierto otro modo de funcionamiento, al cual han llamado modo-I, en el que el calor permanece firmemente retenido mientras que las partículas, incluyendo las contaminantes, pueden escapar. Este modo de funcionamiento debería ser capaz de evitar que esos agentes contaminantes "envenenen" la reacción de fusión.

martes, 8 de junio de 2010

Un estudio sienta las bases de la tomografía aplicada al mundo cuántico

Científicos de la Universidad Carlos III de Madrid (UC3M) han probado la validez de la representación tomografía de estados cuánticos, lo que puede ayudar a trabajar con tecnologías cuánticas para transmitir información de manera más eficiente y segura.

Cualquier sistema físico - sea un electrón, una molécula de agua, un virus, un ser humano, un planeta entero - está caracterizado en cada instante de manera distintiva y específica, en un lugar determinado y con unas características particulares. Esto es lo que llamamos el “estado del sistema”, pero cuando se intenta describir dicho “estado” de manera precisa de acuerdo con nuestro conocimiento actual de las leyes que rigen el universo es necesario recurrir a formulaciones abstractas, ya que las leyes de la física cuántica, la teoría física que mejor describe el universo en el que existimos, son muy diferentes a las que rigen la física clásica de Newton. Durante el último siglo diversos científicos han obtenido diversas representaciones que ayudan a entender el mundo de la mecánica cuántica, que impera en el entorno de lo más pequeño, de lo subatómico. Ahora investigadores de la UC3M que trabajan en la descripción tomográfica de los estados cuánticos han probado que ésta es equivalente a las descripciones clásicas realizadas por grandes científicos del siglo XX, al contener la misma información y ser igual de rica que éstas.

“Estamos intentando deslindar los aspectos conceptuales de la representación tomográfica de estados cuánticos y prácticamente acabamos de probar que la representación tomográfica de los estados cuánticos es completa, esto es, que es tan buena como las representaciones tradicionales debidas a Schrodinger, Heisenberg, Dirac, etc.”, asegura el catedrático de la UC3M, Alberto Ibort. Él lleva investigando esta materia desde hace unos años y ha publicado recientemente un resumen de sus hallazgos sobre la tomografía de estados cuánticos en un artículo en la revista Physics Letters A, en colaboración con científicos del Instituto de Física Lebedev (Rusia) y de la Universidad de Nápoles Federico II (Italia).

El mundo cuántico al detalle

Lo que tratan de hacer estos investigadores es diseccionar los estados cuánticos para describir su naturaleza real de una forma parecida, aunque más sofisticada, a cómo funcionan algunas máquinas de diagnóstico de los hospitales. “Una imagen tomográfica de un estado cuántico describe el estado cuántico completamente, al igual que una imagen tomográfica ordinaria nos permite visualizar un organismo o un cuerpo con todos sus detalles”, explica el profesor Ibort, del Departamento de Matemáticas de la UC3M. De esta forma, una representación tomográfica de un estado cuántico es una función matemática que se obtiene al realizar ciertas manipulaciones del sistema físico que se pretenda analizar, de la misma manera que la tomografía computerizada empleada en los hospitales obtiene una función de la densidad de los tejidos humanos en cualquier dirección para poder reconstruir después una imagen 3D de nuestro cuerpo.

La utilización de técnicas tomográficas puede tener enormes implicaciones en las tecnologías de la comunicación, según los investigadores. “Si la tomografía cuántica se desarrolla como la tomografía médica, podríamos utilizar métodos derivados de ella para mejorar la transmisión de información por canales cuánticos”, comenta Alberto Ibort. Y es que una de las principales aplicaciones de las tecnologías cuánticas es la manipulación y transmisión de la información utilizando las propiedades cuánticas de la luz. En este sentido, la tomografía cuántica permite manipular la luz a nivel cuántico de manera diferente y más versátil. Por ejemplo, podría pensarse en “comprimir” información cuántica (qbits) utilizando una representación tomográfica de ella, según los expertos.

El campo de la Información Cuántica es una de las áreas de desarrollo mas prometedoras dentro de la Física y adquiere su mayor relevancia en la criptografía cuántica y la computación cuántica. Estas tecnologías prometen, por ejemplo, comunicaciones absolutamente seguras y una capacidad computacional inmensa, de forma que están llamadas a revolucionar nuestras vidas de manera comparable a como lo hicieron en su momento el láser o el ordenador personal.

Estos investigadores de la UC3M lideran una de las líneas de investigación del proyecto QUITEMAD (QUantum Information Technologies MADrid), un consorcio científico que reúne a expertos en Información Cuántica de la Universidad Complutense de Madrid, la Universidad Politécnica de Madrid y el Consejo Superior de Investigaciones Científicas, con el apoyo de diversas empresas nacionales e internacionales y la financiación de la Comunidad de Madrid y el Fondo Social Europeo. ”Estamos trabajando en colaboración con otros miembros de QUITEMAD en el desarrollo de técnicas provenientes del mundo de las telecomunicaciones para su uso en tomografía cuántica y en particular nos gustaría desarrollar un análogo de las técnicas de muestreo ("sampling") tan útiles en el dominio de las telecomunicaciones para el análisis de cierta clase de estados cuánticos”, revela el profesor Ibort.

QUITEMAD tiene cinco objetivos científicos concretos: criptografía cuántica, computación cuántica, control cuántico y tomografía, correlaciones cuánticas y simulación cuántica. Estas cinco líneas de investigación tienen aplicaciones científicas y tecnológicas relevantes, que van desde la implementación de criptografía cuántica para el sector industrial hasta el desarrollo y la puesta en funcionamiento de nuevas técnicas de computación e información cuánticas, incluyendo su realización experimental en colaboración con laboratorios nacionales e internacionales. Además de los objetivos científicos, el proyecto contempla objetivos estratégicos como formar en las tecnologías de la información cuántica a nuevos equipos que puedan abordar con éxito los retos futuros de universidades y empresas, con la finalidad de dotar a Madrid de un estatus de excelencia y vanguardia en el ámbito europeo y mundial.

lunes, 7 de junio de 2010

Rayos Gamma Provienen de Lejanías de Hoyos Negros


Conforme la materia del disco "cae" hacia el agujero una parte de su energía se proyecta hacia el universo en forma de chorro de partículas.

Los "chorros" de partículas emitidos desde las galaxias blazars, con un agujero negro supermasivo en su centro, se crean más lejos de lo que se pensaba, según revela un trabajo publicado en el último número de la revista Nature.  El trabajo afirma que la mayor parte de la luz de chorro -los rayos gamma, la fuente de luz más energética del universo-, así como la luz óptica, se crean en el mismo lugar, lo que ha permitido a los investigadores determinar dónde se generan los rayos gamma.  La investigación que publica la revista también aporta datos para comprender mejor cómo la energía escapa de un agujero negro.  En este trabajo, liderado por el Kavli Institute for Particle Astrophysics and Cosmology de Estados Unidos, participaron investigadores españoles del Instituto de Ciencias del Espacio y del Consejo Superior de Investigaciones Científicas en Barcelona.  En él se incluyen datos de más de 20 telescopios, entre ellos el telescopio Kanata en Japón, los del Roque de los Muchachos y Calar Alto (CSIC- Max Planck) en España, y el telescopio espacial Fermi. Los blazars son galaxias que tienen en su centro un agujero negro supermasivo, alrededor del cual se genera un disco de acreción, así llamado porque rodea a un objeto central masivo y lo alimenta, siendo atraído por éste y contribuyendo a su aumento de masa.  Conforme la materia del disco "cae" hacia el agujero negro, alimentándolo, una parte de su energía se proyecta hacia el universo en forma de chorro de partículas.  A pesar de su importancia, ya que son los mayores aceleradores de partículas del universo, estos chorros son relativamente desconocidos y se sabe muy poco sobre su estructura y sobre cómo y dónde se producen.

domingo, 6 de junio de 2010

El Láser Puede Recrear Agujeros Negros

La posibilidad de concebir lo que sucede en los agujeros negros va permitir estudiar estos fenómenos astronómicos

La tecnología láser puede ser utilizada para recrear en las reducidas dimensiones de un laboratorio los cambios que experimenta la materia cuando se produce un agujero negro, según un estudio publicado por la revista Nature.  El trabajo llevado a cabo por el profesor del Instituto de Ingeniería Láser de la Universidad de Osaka (Japón) Shinsuke Fujioka, probó que el uso de un láser de 300 gigavatios para causar la implosión de una delgada lámina de silicio puede devenir en plasma fotoionizado.  Este tipo de plasma, mucho más difícil de producir que el convencional, da lugar a un espectro de rayos X que puede ser detectado por algunos satélites que orbitan alrededor de la Tierra.  Los plasmas en su mayoría, incluso aquellos que ocurren en el Sol, son gases ionizados cuyo átomos han perdido o ganado electrones debido a cargas eléctricas, en el caso de las estrellas calientes por las altas temperaturas.  La ionización de los plasmas en las cercanías de un agujero negro, sin embargo, se lleva a cabo por la acción del inmenso flujo de fotones generados por la materia que es absorbida por el agujero negro.  Los autores del estudio descubrieron que la forma del espectro de rayos X que se da en el plasma fotoionizado es muy parecida a la forma que tienen los rayos que emanan de las estrellas binarias Cygnos X-3, candidato a ser un agujero negro, y Vela X-1, una estrella de neutrones, según las mediciones realizadas por el satélite Chandra.  La capacidad de recrear las condiciones que se producen en las inmediaciones de un agujero negro hace mucho más sencillo estudiar estos procesos y otros que ocurren en los llamados "objetos astrofísicos masivos", además de mejorar la interpretación sobre las astronómicas medidas de estos objetos.

sábado, 5 de junio de 2010

SATELITE MUESTRA COMO SE ENCIENDEN LOS HOYOS NEGROS

El Swift de la NASA recopiló datos que explicarán el comprtamiento de apenas 1% de los agujeros supermasivos.

Científicos de la agencia espacial estadounidense (NASA) empiezan a comprender porqué de una pequeña parte de un agujero negro se puede emitir grandes cantidades de energía.  El satélite Swift recopiló datos que explicarán el comprtamiento de apenas 1% de los agujeros negros supermasivos, informó la agencia espacial.  Los nuevos hallazgos confirman que los agujeros negros se "encienden" cuando las galaxias colisionan, y los datos pueden ofrecer una perspectiva sobre el comportamiento futuro de estos agujeros en nuestra galaxia, la Vía Láctea, señaló la NASA.  Las intensas emisiones desde el núcleo de las galaxias, cercanas a un agujero negro supermasivo, contiene entre un millón y mil millones de veces la masa del Sol. Algunos de estos núcleos galácticos activos (AGN) son los objetos más luminosos del Universo.  "Se ha logrado demostrar que la 'violencia' en las fusiones de las galaxias pueden alimentar los núcleos de los hoyos negros", dijo Michael Koss, líder de la investigación.  Estos datos servirán para saber cómo "se encienden los agujeros negros", dijo Koss.  Los resultados que completarán el estudio aparecerá en la edición del 20 de junio de The Astrophysical Journal Letters, informó la NASA.

viernes, 4 de junio de 2010

JUPITER CON "CICATRIZ" DEL TAMAÑO DEL OCEANO PACIFICO


El telescopio Hubble confirmó el impacto en el planeta


Hace casi un año la superficie de Júpiter recibió el impacto de un objeto que dejó sobre su superficie una cicatriz del tamaño del océano Pacífico, reveló un estudio publicado por la revista The Astrophysical Journal Letters.  La marca fue detectada por un astrónomo aficionado australiano en julio de 2009 y su existencia fue confirmada por otros observatorios y después por el telescopio espacial Hubble.  El golpe sufrido por la superficie de Júpiter, el mayor planeta del sistema solar, fue igual a la explosión de varios miles de bombas atómicas de tamaño medio, indicó un comunicado difundido por la NASA en su sitio de internet.   Según los astrónomos, aparentemente el impacto fue causado por un asteroide de unos 500 metros de diámetro y las imágenes transmitidas por el Hubble son las primeras que muestran de manera directa sus consecuencias sobre la superficie de un planeta.   Pero no se trata de un acontecimiento astronómico desusado, pues desde el comienzo de la astronomía se había observado que el planeta sufría el impacto de objetos cósmicos.
 
Además, en 1995 los científicos detectaron la caída de más de 20 trozos del cometa P/Shoemaker-Levy 9 (SL9) sobre la superficie de Júpiter.  En un comunicado, la NASA indicó que el último impacto y la marca de otros sobre la superficie revelan que Júpiter es un sitio agitado en el cual pueden producirse hechos imprevistos.  "Este solitario suceso nos tomó por sorpresa y solo podemos ver lo que ocurrió después del impacto", señaló Heidi Hammel, del Instituto de Ciencias Espaciales que encabezó el estudio sobre el impacto.  "Afortunadamente, tenemos las observaciones del Hubble hechas en 1994" lo cual ha permitido realizar comparaciones, añadió.  Esos análisis pusieron de manifiesto que el halo de la colisión desapareció rápidamente lo que, según los científicos, constituye una prueba de que se trató de un asteroide sólido y no de un cometa.  Además, la forma alargada del sitio de impacto demuestra que el asteroide cayó de manera oblicua.  Según la NASA, un análisis de las posibles órbitas del asteroide realizado por científicos encabezados por Agustín Sanchez-Lavéga, de la Universidad del País Vasco (España) , indicó que probablemente el objeto cósmico provino de la llamada familia Hilda, un cinturón de asteroides cercano a Júpiter.

jueves, 3 de junio de 2010

JAPONESES USARAN A LA LUNA COMO CELDA SOLAR


Con ayuda de robots se colocaría el cinturón de celdas solares y los dispositivos que enviarían la energía a través de antenas de microondas y láser hasta receptores en la Tierra, que podrían operar las 24 horas al dia.  No sólo Bill Gates se preocupa por invertir en proyectos que contrarresten el cambio climático al intentar controlar la temperatura.


Una empresa de construcción japonesa propuso utilizar a la Luna para generar energía limpia e incluso producir oxígeno y agua.   Shimizu Co. presentó el "Anillo lunar", con el que propone colocar celdas solares en todo el ecuador del satélite de la Tierra, que captarán la energía en una cara de la Luna.  Este energía se convertiría en electricidad para transmitirse al lado visible de la Tierra.   Con ayuda de robots, se colocaría el cinturón de celdas solares y los dispositivos, los cuales enviarían la energía a través de antenas de microondas y láser hasta receptores en la Tierra, que podrían operar las 24 horas al día.  La promoción del uso de energías alternativas, en lugar de los combustibles fósiles (carbón, gas y petróleo), es uno de los pilares de la acción contra el cambio climático.  La expansión de los parques eólicos, incluso en la superficie marina, se conjugan con proyectos que, con la inversión necesaria y el desarrollo tecnológico, se podrían lograr.  Los ingenieros de Shimzu dicen que "el anillo lunar inicialmente tendría un ancho de unos pocos kilómetros, pero podría extenderse hasta 400", publicó el portal del diario español ABC.

"Si bien los argumentos expuestos por esta corporación son absolutamente válidos, y la ausencia de atmósfera en nuestro satélite lo convierte en el sitio ideal para aprovechar al 100% la eficiencia de los paneles solares, su realización práctica es -hoy por hoy- imposible.
"De hecho, si la NASA intentase llevar a la Luna paneles para cubrir solamente un kilómetro cuadrado, agotaría su presupuesto durante varios años", aseguró el diario

miércoles, 2 de junio de 2010

LA DOCENCIA, LA BUENA DOCENCIA,HAY QUE PREMIARLA(PREMIO SPORE)

La docencia, la buena docencia, hay que premiarla. El buen docente, si es realmente bueno, puede publicar su labor hasta en Science y Nature. Pero ha de ser bueno. Realmente bueno. Un ejemplo, el premio SPORE (Science Prize for Online Resources in Education), premio de la revista Science al desarrollo de materiales educativos online. Este año han sido premiados unos docentes de geofísica por su labor en el desarrollo de unos workshops (desde 2002) llamados “On the Cutting Edge” (“en la cresta de la ola”) dirigidos a profesores y titulados en ciencias geofísicas (han pasado por ellos más de 1400 docentes de 450 departamentos de geofísica). Los ganadores acaban publicar un artículo en la propia Science contando su experiencia: Cathryn A. Manduca et al., “On the Cutting Edge: Teaching Help for Geoscience Faculty,” Science 327: 1095-1096, 26 February 2010. Mejor premio, imposible.


Para mí, lo más interesante de lo que cuentan es algo muy importante, algo que no hay que olvidar. La docencia no es una labor individual. El docente contra el resto del mundo es cosa del pasado. Las nuevas tecnologías en docencia, las nuevas metodologías, las nuevas experiencias docentes requieren un equipo de docentes. El docente es un profesional de la docencia. Ya no vale el “cada maestro con su librillo.” El docente debe colaborar con otros docentes, no sólo de su departamento, sino también de otras instituciones, debe crear redes sociales, ahora muy de moda con la Internet 2.0, en las compartir materiales docentes. Como dicen los autores en inglés “a self-sustaining community of sharing” (una comunidad autosostenida de docentes que comparta materiales).

Los lectores habituales de este blog ya sabéis que me encantan los vídeos que muestran experimentos en física de fluidos. Los dos vídeos que ilustran esta entrada son resultado del proyecto “On the Cutting Edge.” En su web, los interesados, podréis encontrar, entre otros materiales, más vídeos que serán de gran utilidad no sólo para profesores de geociencias, sino también para profesores de física e ingeniería en su sentido más amplio.

martes, 1 de junio de 2010

HACIA UN SEGUNDO MAS PRECISO EN LOS RELOJES ATOMICOS;SUPERANDO EL LIMITE CUANTICO DE LA INTERFEROMETRIA DE RAMSEY.

Se define un segundo como la duración de 9 192 631 770 períodos de la radiación asociada a la transición hiperfina del estado fundamental del isótopo 133 del átomo de cesio. El estado del arte en relojes atómicos se basa en la interferometría de campos oscilantes separados desarrollada por Norman F. Ramsey en 1949 (Premio Nobel de Física 1989). La precisión de la interferometría de Ramsey está limitada por la estadística clásica debido a que el número de átomos utilizados es finito. Gross et al. Demuestran en Nature que se puede superar el límite de Ramsey mediante interferometría atómica no lineal utilizando un condensado de Bose-Einstein. Grosso modo, la técnica en lugar de medir la transición hiperfina en un átomo de cesio, utiliza un estado entrelazado de muchos átomos (170 átomos del isótopo 87 del rubidio) y mide la transición hiperfina en este “macroátomo” (el estado condensado de Bose-Einstein se describe con una única función de onda y se comporta como un “átomo” macroscópico). Utilizando su técnica de interferometría no lineal han obtenido una medida un 61% más precisa que el límite (cuántico) teórico. El artículo técnico es C. Gross, T. Zibold, E. Nicklas, J. Estève, M. K. Oberthaler, “Nonlinear atom interferometer surpasses classical precision limit,” Nature, advance online publication 31 March 2010.


Estos avances parecen muy alejados de la realidad cotidiana. Uno se imagina un reloj atómico como una máquina enorme, de dos metros de alto, caro de construir y con un alto consumo de energía. Sin embargo, desde 2004 se fabrican relojes atómicos del tamaño de un chip, los llamados chips atómicos. Estos chips tienen gran número de aplicaciones en dispositivos portátiles de precisión atómica para comunicaciones inalámbricas seguras, navegación GPS precisa y otras aplicaciones, aunque todavía son caros. Riedel et al. Publican también en Nature la aplicación de estados comprimidos de espín (spin-squeezed states) en condensados de Bose-Einstein de dos componentes para superar el límite de Ramsey en chips atómicos, así como su aplicación al desarrollo de relojes atómicos (esto último aún en desarrollo). Utilizando una técnica diferente, pero relacionada, logran utilizar técnicas interferométricas para medir las transiciones hiperfinas en estados entrelazados de 4 ± 1 átomos. El incremento en precisión más allá del límite cuántico no es tan espectacular como en el trabajo anterior, pero el hecho de que lo logren en chips atómicos merece toda nuestra atención. El artículo técnico es Max F. Riedel, Pascal Böhi, Yun Li, Theodor W. Hänsch, Alice Sinatra, Philipp Treutlein, “Atom-chip-based generation of entanglement for quantum metrology,” Nature, advance online publication 31 March 2010.



Representación en la esfera de Bloch de la evolución del estado interno del BEC (arriba), control de la no linealidad (χ) en el chip atómico en función de la densidad de solape normalizada entre los dos BEC (abajo, izquierda) y secuencia PS (21 abril 2010): Ya han aparecido en papel estos artículos técnicos, acompañados de un comentario de Charles A. Sackett, “Quantum measurement: A condensate’s main squeeze,” News and Views, Nature 464: 1133-1134, 22 April 2010, quien nos recuerda que el entrelazamiento permite que la incertidumbre cuántica de una variable se reduzca a costa del incremento de la de otra. Buena manera de describir el secreto de estos trabajos técnicos.

lunes, 31 de mayo de 2010

LA RELACION ENTRE LA TASA METABOLICA Y LA MASA CORPORAL

Si dedicas 5 minutos a leer este blog, gastarás unos 350 J/kg, julios de energía por kilogramo de masa corporal. Un ratón consumiría 3000 J/kg en el mismo tiempo y un elefante africano de 4 toneladas sólo 200 J/kg. Los animales más grandes consumen menos energía y requieren, proporcionalmente, menos alimento. Todo el mundo lo sabe. Pero, ¿cuál es la relación matemática exacta entre tasa metabólica y masa corporal? Desde hace casi 200 años se ha estudiado teórica y empíricamente esta relación y la propuesta estándar es una ley de potencias. Kolokotrones et al. Publican en Nature un nuevo análisis que muestra que para los mamíferos una ley de potencias no es adecuada (el exponente no es constante, crece con el tamaño). Además, proponen modificaciones en la teoría de la red fracal de distribución de nutrientes que se utiliza para entender el por qué la tasa metabólica no varía en proporción directa con la masa corporal. Nos lo cuenta Craig R. White, “Physiology : There is no single ρ,” News and Views, Nature 464: 691-693, 1 April 2010, haciéndose eco del artículo técnico de Tom Kolokotrones, Van Savage, Eric J. Deeds, Walter Fontana, “Curvature in metabolic scaling,” Nature 464: 753-756, 1 April 2010.


La relación entre tasa metabólica y masa corporal fue estudiada por primera vez en los 1830 por Sarrus y Rameaux, en una serie de conferencias en la Academia Real de Medicina de París. Como el calor corporal producido por el metabolismo debe ser disipado al medio ambiente a través de la piel, la tasa metabólica debe ser proporcional a la superficie corporal y no al volumen (o masa corporal). Rubner lo demostró empíricamente en 1883 utilizando perros. En 1916, el Premio Nobel de Medicina August Krogh propuso el uso de una ley de potencias para describir la relación entre tasa metabólica (T) y masa corporal (m), es decir, T=A mp. Para animales de sangre caliente, como pájaros y mamíferos, Rubner sugirió que la potencia p es próxima a 2/3, pero que para animales de sangre fría es cercana a 1. Sin embargo, en 1932 Kleiber, e independientemente Brody y Proctor, encontraron empíricamente un exponente p cercano a 3/4, que se llama ley de Kleiber. Hemmingsen en 1960 descubrió que esta ley es válida tanto para animales de sangre caliente como fría. Sin embargo, en los últimos años se han publicado varios estudios que contradicen la universalidad de la ley de Kleiber. La explicación actual de esta ley es la teoría de la red de distribución fractal, que predice que el exponente suponiendo que la red que suministra nutrientes en el cuerpo tiene una geometría fractal.

Kolokotrones et al. Aportan dos contribuciones importantes. Primero, demuestran empíricamente que la ley de Kleiber no es aplicable a mamíferos. Esencialmente, el valor del exponente p crece con el tamaño corporal: la tasa metabólica crece más rápido con la masa corporal en mamíferos grandes que en los pequeños. Este resultado confirma definitivamente la evidencia reportada por múltiples estudios en mamíferos en los últimos 3 años. Segundo, introducen modificaciones en las hipótesis en la teoría de la red de distribución fractal que justifican la variación del exponente p que han encontrado en mamíferos.

En resumen, un trabajo interesante que quizás no será el definitivo ya que en estos asuntos “polémicos” no suele haber una respuesta científica definitiva y universal.

domingo, 30 de mayo de 2010

Enredo fantasmal

Una de las más extrañas predicciones de la teoría de la mecánica cuántica es que las partículas pueden quedarse «enredadas» incluso después de haber sido separadas en el espacio, de forma que cuando una acción se realiza sobre una partícula, la segunda partícula responde de inmediato. En junio de 2009, los físicos midieron por primera vez un nuevo tipo de sistema, dos pares separados de partículas que vibran.

sábado, 29 de mayo de 2010

Un paso hacia la fusión nuclear

La fusión nuclear - la fusión de núcleos atómicos que sucede dentro de las estrellas - es un objetivo buscado desde hace mucho tiempo en la Tierra. Si los científicos consiguen semejante hazaña, podríamos obtener una poderosa fuente de energía prácticamente inagotable y con muy pocas consecuencias ambientales. Un equipo de físicos logró un paso más hacia este objetivo en enero cuando anunciaron que habían construido un imán de levitación que recrea algunas de las condiciones que se creen necesarias para la fusión. Al suspender un imán gigante en forma de donut en el aire, los investigadores fueron capaces de controlar el movimiento de un gas extremadamente caliente de partículas cargadas dentro de la cámara exterior del imán. La densidad de este gas está cerca de lo que se necesita para la fusión nuclear, según los investigadores de la Universidad de Columbia

viernes, 28 de mayo de 2010

Avance Importante en la Iluminación Blanca Mediante OLEDs

Los diodos emisores de luz, que emplean semiconductores para producirla, podrían reducir el consumo de electricidad y el impacto de las emisiones de gases con efecto invernadero. Sin embargo, llevar esta tecnología más allá de los punteros láser y las luces piloto de aparatos eléctricos, para abarcar también la iluminación en viviendas y oficinas, donde se usa una gran parte de la electricidad, requiere que emitan una luz blanca que sea brillante y que se genere de manera barata y eficiente. La luz blanca es la mezcla de todos los colores o longitudes de onda del espectro visible.

Los diodos emisores de luz orgánicos (OLEDs) son candidatos prometedores para el alumbrado en general, ya que pueden cubrir grandes áreas de pantallas o paneles, usándose técnicas baratas de procesamiento. De hecho, las pantallas OLED de un solo color ya están disponibles comercialmente. Una mezcla de materiales que emitan luz roja, verde y azul, puede usarse para generar la luz blanca, pero estas bandas de color a menudo interactúan entre sí, degradando el funcionamiento del dispositivo y reduciendo la calidad del color de su luz.

Usando nanopartículas de polímero para albergar "tintas" emisoras de luz, un equipo de especialistas del Laboratorio Nacional Lawrence Berkeley, incluyendo a Biwu Ma, y expertos de la Universidad de California en Berkeley, ha hecho un OLED de película delgada capaz de emitir varios colores de luz visible, produciendo de ese modo la luminiscencia blanca sin los problemas de interferencias que sufren otros sistemas.

La luz blanca de los OLEDs puede ajustarse para producir blancos más fríos o más cálidos, haciendo que estos materiales resulten confortables de usar en casa o en el trabajo.

En países como Estados Unidos, los edificios son responsables de más del 40 por ciento de las emisiones de carbono, de modo que si se reemplazara con OLEDs una pequeña fracción de las lámparas convencionales, eso ya podría acarrear una reducción significativa en el consumo de electricidad.

jueves, 27 de mayo de 2010

Un camino recientemente descubierto para la conversión de la luz del Sol en electricidad podría mejorar en el futuro la tecnología fotovoltaica. Se ha descubierto un nuevo mecanismo por el cual puede tener lugar el efecto fotovoltaico en películas delgadas semiconductoras. Este nuevo camino para la producción de energía eléctrica no está afectado por cierta limitación que sí sufren las células solares convencionales de estado sólido.

Trabajando con una cerámica hecha de bismuto, hierro y oxígeno, que además presenta simultáneamente propiedades ferroeléctricas y ferromagnéticas, los investigadores del Laboratorio Nacional Lawrence Berkeley (el Berkeley Lab) descubrieron que el efecto fotovoltaico puede darse espontáneamente en el ámbito nanométrico como resultado de una estructura cristalina distorsionada en ciertas cerámicas. También han demostrado que la aplicación de un campo eléctrico hace posible manipular esta estructura cristalina y por tanto controlar las propiedades fotovoltaicas.

El físico Jan Seidel, que trabaja en la División de Ciencias de los Materiales del Laboratorio de Berkeley, y también en el Departamento de Física de la Universidad de California en Berkeley, es uno de los autores principales de esta investigación, en la que también han participado Seung-Yeul Yang, Steven Byrnes, Padraic Shafer, Chan-Ho Yang, Marta Rossell, Pu Yu, Ying-Hao Chu, James Scott, Joel Ager, Lane Martin y Ramamoorthy Ramesh.

Seidel y sus colaboradores descubrieron que, mediante la aplicación de luz blanca a la cerámica podían generar altos fotovoltajes dentro de áreas submicroscópicas de dimensiones de entre uno y dos nanómetros.

El equipo de Seidel también consiguió usar un pulso eléctrico de 200 voltios para invertir la polaridad del efecto fotovoltaico o bien desactivarlo por completo. La capacidad de controlar con tanta eficacia el efecto fotovoltaico nunca se ha documentado en los sistemas fotovoltaicos convencionales. Esta capacidad sienta las bases para nuevas aplicaciones en la nanoóptica y la nanoelectrónica.

miércoles, 26 de mayo de 2010

Transistor de Alta Eficiencia Hecho de Nitruro de Galio

En la Universidad Cornell han fabricado un transistor sumamente eficiente hecho de un material que pronto podría reemplazar al silicio como el rey de los semiconductores para las aplicaciones que requieren una alta potencia.

Junxia Shi, especialista en el laboratorio de Lester Eastman, ha desarrollado el dispositivo basado en el nitruro de galio que podría formar la base para la circuitería en productos que van desde los ordenadores portátiles hasta los vehículos híbridos, pasando por muchos otros sistemas electrónicos de alta potencia.

La resistencia a la corriente eléctrica del nuevo transistor es de 10 a 20 veces más baja que la de los actuales dispositivos de alta potencia basados en el silicio. También tiene un alto valor en el parámetro de cuánto voltaje puede aplicarse a un material antes de que falle.

La clave del dispositivo es la baja resistencia eléctrica del nitruro de galio, lo que produce menos pérdida de potencia por calentamiento, y su capacidad de manejar hasta 3 millones de voltios por centímetro sin que se produzca un fallo eléctrico. El silicio, el material competidor, soporta sólo unos 250.000 voltios por centímetro.

Los transistores, que fueron hechos con el equipamiento de nanofabricación de la Universidad Cornell, puede que un día energicen de todo, desde vehículos eléctricos híbridos a barcos. De hecho, la Armada Estadounidense ya financió hace más de diez años la investigación de la Universidad Cornell sobre los transistores de nitruro de galio, y actualmente aporta una parte importante de la financiación para la nueva investigación del laboratorio de Lester Eastman.

Shi y Eastman tienen una patente provisional para su dispositivo. Las empresas Velox y Freescale (establecida ésta última por Motorola), también han ayudado a financiar la investigación, con la esperanza de producir los dispositivos a escala industrial.

martes, 25 de mayo de 2010

Nuevas Hiperlentes Para Captar Opticamente Imágenes Nanométricas

Hoy, para capturar detalles por debajo de unos pocos nanómetros, los científicos deben valerse de los microscopios electrónicos de barrido, o de los de fuerza atómica, que crean las imágenes examinando los objetos punto por punto. Los microscopios electrónicos de barrido pueden necesitar varios minutos para obtener una imagen. Como el objeto debe permanecer inmóvil y en el vacío durante este proceso, las imágenes están restringidas a muestras no vivas.

Los microscopios ópticos, por el contrario, pueden captar una imagen entera y de una sola vez. Normalmente se usan en los laboratorios biológicos para estudiar las células vivas, así como en las industrias de alta tecnología para crear circuitos integrados, entre otras aplicaciones. Pero la capacidad de resolución en las imágenes ópticas ha estado limitada por el denominado "límite de la difracción", una frontera óptica fundamental que está relacionada con el tipo de ondas de luz emitidas por un objeto.

Las ondas propagadas pueden viajar muy lejos y ser recogidas por una lente óptica, incluyendo el ojo humano, para formar una imagen. Las ondas evanescentes contienen mayores detalles y resolución de un objeto, pero se deterioran demasiado rápidamente para que las lentes convencionales puedan capturarlas.

"Capturar la información contenida en las ondas evanescentes es el Santo Grial de la microscopía óptica", afirma Xiang Zhang, profesor de ingeniería mecánica en la Universidad de California en Berkeley, e investigador principal del estudio.

Las hiperlentes muestran una nueva forma de vencer el límite de la difracción, lo que permitirá a los biólogos no sólo ver el núcleo de una célula y otros componentes más pequeños, sino estudiar el movimiento y conducta de moléculas individuales en las células vivas y en tiempo real. En aplicaciones para la tecnología electrónica, esto podría conducir en el futuro a una mayor densidad en los circuitos integrados y en los DVDs.

En el reciente experimento, la pérdida de las ondas evanescentes produjo un límite de difracción de 260 nanómetros, en tanto que la hiperlente rompió este límite capturando la imagen de objetos con tamaño inferior a 150 nanómetros.

lunes, 24 de mayo de 2010

Ensamblaje Automático de Nanopartículas en Bolsas Para Atrapar Gotas de Petróleo

En un desarrollo que podría llevar a nuevas tecnologías para limpiar los vertidos de petróleo y las aguas subterráneas contaminadas, unos científicos de la Universidad Rice han demostrado cómo diminutas partículas de metal y carbono en forma de vara, pueden atrapar las gotas de petróleo en el agua ensamblándose espontáneamente para confeccionar bolsas.

Se comprobó que las diminutas partículas se congregaban espontáneamente por decenas de millones formando bolsas esféricas tan grandes como de casi medio centímetro de diámetro, alrededor de las gotas de petróleo, u otros líquidos oleaginosos en el agua. Además, los científicos encontraron que podían utilizar la luz ultravioleta y los campos magnéticos para invertir la posición de las nanopartículas, produciendo que al instante las bolsas se volvieran del revés y liberaran su carga, una característica que podría ser útil también para liberar medicamentos en puntos muy precisos del interior del cuerpo.

Las nanovarillas multisegmentadas se fabricaron conectando dos nanomateriales con propiedades diferentes, de forma semejante a como se pega una goma de borrar al extremo de un lápiz de madera. En el estudio, los investigadores empezaron con nanotubos de carbono (tubos huecos de carbono puro y dimensiones nanométricas). Sobre los nanotubos, agregaron cortos segmentos de oro. Añadiendo varios otros segmentos, como secciones de níquel u otros materiales, los investigadores pueden crear verdaderas nanoestructuras multifuncionales.

La tendencia de estas nanovarillas a ensamblarse en las mezclas de agua-petróleo deriva de la química básica. El extremo de oro de la vara es afín al agua, es decir hidrófilo, mientras el extremo de carbono la repele, o sea que es hidrófobo.

Las delgadas bolsas que rodean todas las células vivientes están formadas por conjuntos de sustancias químicas hidrófilas e hidrófobas, y las estructuras semejantes a bolsas creadas durante este estudio son similares.

Pulickel Ajayan, Fung Suong Ou y Shaijumon Manikoth demostraron que las gotas de petróleo suspendidas en el agua son encapsuladas debido a la tendencia de las estructuras de las bolsas a alinear su extremo de carbono hacia el petróleo. Invirtiendo las condiciones (suspendiendo gotas de agua en petróleo) el equipo pudo hacer que el extremo de oro se orientara hacia adentro y encapsulara al agua.

Para las gotas de petróleo suspendidas en el agua, las esferas adquieren un color ligeramente amarillo debido a los extremos de oro expuestos. Con las gotas de agua, las esferas cobran una tonalidad oscura debido a que destacan más los nanotubos negros.

domingo, 23 de mayo de 2010

Ventanas Que No Necesitan Ser Limpiadas y Supercondensadores Para Automóviles Eléctricos

¿Una cobertura para ventanas o paneles solares que repele la suciedad? ¿Capacidades mayores de almacenamiento en las baterías de los próximos autos eléctricos? Una nueva investigación de la Universidad de Tel Aviv ha culminado con una innovación crucial en el ensamblaje de péptidos a escala nanométrica que en sólo unos pocos años podría hacer realidad estas y otras anheladas metas tecnológicas.

Operando en el rango de los 100 nanómetros e incluso inferior, la investigadora Lihi Adler-Abramovich y un equipo trabajando bajo el mando de Ehud Gazit en el Departamento de Microbiología Molecular y Biotecnología de la Universidad de Tel Aviv han descubierto una manera novedosa de controlar los átomos y las moléculas de péptidos de modo que se les puede hacer "crecer" a imitación de pequeños campos de arbustos. Estos "bosques de péptidos" repelen el polvo y el agua, lo que les convierte en un perfecto recubrimiento autolimpiador para ventanas o paneles solares, los cuales se vuelven mucho menos eficientes cuando están sucios.

Usando una amplia variedad de péptidos, que son tan simples y baratos de producir como el aspartamo (un edulcorante artificial), los investigadores crean sus "nanotúbulos autoensamblados" al vacío y a temperaturas altas. Estos nanotúbulos pueden soportar un calor extremo y son resistentes al agua.

Los investigadores fueron capaces de desarrollar una técnica que permite a ciertos péptidos cortos "autoensamblarse", formando un tipo de recubrimiento completamente nuevo el cual es también un supercondensador.

Como un condensador con una densidad de energía inusualmente alta, el material nanotecnológico podría hacer dar un salto importante de prestaciones a las baterías eléctricas existentes, muy útil en un automóvil eléctrico para facilitarle su arranque, subir una pendiente, o adelantar a otros autos y camiones en la autopista. Una de las limitaciones de los autos eléctricos es el impulso, y el equipo piensa que su investigación podría conducir a una solución satisfactoria para este problema.

Recubiertas con el nuevo material, las ventanas exteriores selladas de rascacielos no necesitarían lavarse nunca más. El material del laboratorio de la Universidad de Tel Aviv puede repeler el agua de lluvia, así como el polvo y la suciedad.

La eficiencia de los paneles solares se podría mejorar también, ya que bastaría con una lluvia ocasional para retirar todo el polvo que pudiera haberse acumulado en los paneles. Esto puede ser especialmente útil en zonas áridas y polvorientas, donde hoy son instaladas muchas de las centrales solares.

sábado, 22 de mayo de 2010

La Estructura del Automóvil Eléctrico

Para hacer que los automóviles eléctricos formen parte de la vida cotidiana se necesita un nuevo diseño del vehículo y sus componentes.

Tomemos por ejemplo el motor que impulsa exclusivamente una rueda, y que va conectado directamente a ésta. Una de las ventajas de estos motores es que los fabricantes pueden usar para otras cosas el espacio ocupado por el motor convencional, ya que esos motores están acoplados directamente a las ruedas del vehículo. Esto abre una rica gama de posibilidades para los diseñadores de automóviles cuando se enfrentan al diseño de un nuevo vehículo.

Como ventaja adicional, al poder prescindir de la transmisión y el diferencial, se reducen las pérdidas de fuerza de empuje y el nivel del desgaste mecánico. Es más, el accionamiento directo e individual de cada rueda puede mejorar la respuesta del vehículo y su seguridad al circular.

Un equipo de investigadores está desarrollando no sólo los componentes individuales sino también el sistema completo. Su automóvil de prueba, conocido como "Frecc0", les sirve como plataforma científica para comprobaciones.

A partir del próximo año, los fabricantes de automóviles y sus proveedores principales también podrán usar el Frecc0 para poner a prueba sus nuevos componentes. La base de este modelo de demostración es un automóvil existente: el nuevo Artega GT, fabricado por la empresa Artega Automobil GmbH.

El establecimiento de esta plataforma y la ingeniería del motor que impulsa exclusivamente una rueda son sólo dos de los proyectos del conjunto a desarrollar por el FSRE (Fraunhofer System Research for Electromobility). La iniciativa está enfocada hacia objetivos que incluyen el diseño del vehículo, la generación de su fuerza de empuje, las técnicas que le permitirán un almacenamiento eficiente de energía, la integración del sistema técnico y hasta los aspectos sociopolíticos.

La meta es desarrollar prototipos de vehículos eléctricos e híbridos, para ayudar a la industria automotora alemana a comenzar la transición definitiva hacia los vehículos eléctricos.

viernes, 21 de mayo de 2010

Desarrollan una Lente Acústica y "Balas Sónicas"

Un equipo de investigadores del Instituto Tecnológico de California (Caltech) ha construido un dispositivo descrito como "lente acústica no lineal" que produce señales acústicas muy enfocadas y de alta amplitud, denominadas coloquialmente como "balas sónicas".

La lente acústica y sus balas sónicas (que pueden existir en los fluidos, como el aire y el agua, y también en los sólidos) tienen un importante potencial para revolucionar aplicaciones que van desde la obtención de imágenes médicas hasta la evaluación no destructiva de materiales.

El dispositivo ha sido desarrollado por Chiara Daraio, profesora de aeronáutica y física aplicada en el Caltech, y Alessandro Spadoni.

Esta singular lente permite generar señales compactas de alta amplitud en un medio lineal, y también permite controlar dinámicamente la ubicación del foco. Esto significa que no es necesario cambiar componente geométrico alguno de la lente para cambiar la ubicación del foco. Todo cuanto se necesita hacer es ajustar la precompresión.

La lente acústica creada por Daraio y Spadoni es, por ahora, tan sólo una prueba del concepto, y es probable que falten aún muchos años para que pueda ser usada en aplicaciones comerciales, ya que algunos de sus subsistemas deben ser perfeccionados para que el aparato sea más práctico de usar.

Pese a todo, el instrumento, en su forma actual, puede potencialmente superar la claridad de imagen y la seguridad de los dispositivos convencionales actuales de obtención de imágenes médicas mediante ultrasonidos.

Los pulsos producidos por la lente acústica, que están unas diez veces más focalizados y tienen amplitudes que son órdenes de magnitud mayores que las que se pueden conseguir usando dispositivos acústicos convencionales, reducen los efectos dañinos del ruido, y producen una imagen más clara del objetivo. También pueden viajar más lejos, alcanzando mayor profundidad dentro del cuerpo que los pulsos de baja amplitud.

Más fascinante resulta la posibilidad de que el dispositivo pueda permitir el desarrollo de un escalpelo no invasivo que podría dirigirse hacia tejidos cancerosos ubicados a gran profundidad en el cuerpo y destruirlos.

Además, las balas sónicas podrían ofrecer un modo no destructivo de comprobar y analizar el interior de objetos no transparentes como puentes, cascos de buques y alas de aviones, en busca de grietas u otros defectos.

jueves, 20 de mayo de 2010

Crean un "Imán" de un Solo Polo

Se ha conseguido crear una estructura que actúa como un imán de un solo polo. Este logro técnico había sido perseguido, sin éxito hasta ahora, desde hace muchas décadas.

Los investigadores que lo han conseguido, del University College de Londres, creen que su nueva investigación les lleva un paso más cerca de aislar un "monopolo magnético".

Los imanes tienen dos polos magnéticos, norte y sur. Dos polos iguales, ya sean dos polos norte o dos polos sur, se repelen entre sí, en tanto que los polos opuestos se atraen; uno norte con otro sur. De cualquier manera que un imán sea cortado, siempre tendrá estos dos polos.

Los científicos han teorizado durante muchos años que debe ser posible aislar un monopolo magnético, sólo norte o sólo sur, pero hasta muy recientemente los investigadores han sido incapaces de demostrar esto por medio de experimentos.

Ahora, los investigadores de la citada universidad han logrado que pequeños imanes de tamaño nanométrico se comporten como monopolos magnéticos, gracias a posicionarlos del modo idóneo en una estructura parecida a un panal.

A finales del 2009, varios equipos de científicos consiguieron inducir un comportamiento como el de un monopolo en un material especial.

Sin embargo, en ese material y los de su clase, los monopolos sólo se forman a temperaturas sumamente bajas, de 270 grados Celsius bajo cero, o sea sólo 3 grados por encima del Cero Absoluto.

En cambio, la estructura creada por los investigadores del University College de Londres contiene monopolos magnéticos a la temperatura ambiente.

miércoles, 19 de mayo de 2010

Descubrimiento del Elemento 117

Un equipo de científicos de Rusia y Estados Unidos ha detectado por vez primera al elemento superpesado conocido como elemento 117.

El equipo que ha hecho posible el hallazgo incluye a científicos del Instituto Conjunto de Investigación Nuclear (Dubna, Rusia), el Instituto de Investigación para Reactores Avanzados (Dimitrovgrado), el Laboratorio Nacional Lawrence Livermore, el Laboratorio Nacional de Oak Ridge, la Universidad Vanderbilt, y la Universidad de Nevada en Las Vegas.

El equipo estableció la existencia del elemento 117 a partir de patrones de desintegración observados después del bombardeo de un objetivo de berkelio (elemento químico que es radiactivo) con iones de calcio en el ciclotrón U400 en Dubna. Parte del éxito del experimento se debió al mucho tiempo que el acelerador le dedicó al experimento. También resultaron decisivas las instalaciones de detección especiales en Dubna, las instalaciones de producción de isótopos en Oak Ridge, y las capacidades de análisis de datos nucleares en Livermore.

La campaña experimental de dos años comenzó en el Reactor de Isótopos de Alto Flujo en Oak Ridge con una irradiación de 250 días para producir 22 miligramos de berkelio. A este periodo le siguió otro de 90 días de procesamiento en Oak Ridge para separar y purificar el berkelio. Luego vino la preparación del objetivo en Dimitrovgrado, la fase de 150 días de bombardeo en uno de los aceleradores de iones pesados más potentes del mundo en Dubna, el análisis de los datos en Livermore y Dubna, y la evaluación y revisión de los resultados por el equipo. El proceso completo fue guiado por el periodo de semidesintegración de 320 días del berkelio.

En el proyecto fueron producidos seis átomos del elemento 117. Para cada átomo, el equipo observó una desintegración alfa desde el elemento 117 hasta el 115, luego hasta el 113, y así sucesivamente hasta que el núcleo acabó dividido en dos elementos más ligeros. En total, se produjeron 11 nuevos isótopos "ricos en neutrones", acercando a los investigadores un paso más hacia la supuesta "isla de estabilidad" de los elementos superpesados.

La isla de estabilidad es un término en la física nuclear que se refiere a la posible existencia de una región más allá de la tabla periódica actual donde nuevos elementos superpesados con números especiales de neutrones y protones exhibirían una mayor estabilidad. Tal isla extendería la tabla periódica hasta elementos aún más pesados y gracias a la mayor duración de los isótopos sería posible realizar experimentos químicos con estos elementos.

martes, 18 de mayo de 2010

¿Está Nuestro Universo Dentro de un Agujero Negro Ubicado en un Universo Mucho Mayor?


¿Se halla nuestro universo en el interior de un agujero de gusano que a su vez forma parte de un agujero negro que se encuentra dentro de un universo mucho más grande? Tras realizar un profundo análisis mediante modelación matemática euclidiana, el físico teórico Nikodem Poplawski, de la Universidad de Indiana en Bloomington, ha llegado a la conclusión de que todos los agujeros negros podrían albergar agujeros de gusano, en cuyo interior existirían universos creados en el mismo momento que sus agujeros negros. Eso sugiere un escenario en el cual el universo nace desde el interior de un agujero de gusano (también conocido como puente de Einstein-Rosen). Sólo es posible ver el exterior de un agujero negro. El interior no puede ser observado a menos que un observador entre o resida en su interior. Poplawski argumenta que esta condición puede ser satisfecha si nuestro universo está en el interior de un agujero negro que a su vez exista en un universo más grande. Dado que la teoría general de la relatividad de Einstein no elige una orientación del tiempo, si un agujero negro puede formarse a partir del colapso gravitacional de la materia a través de un horizonte de sucesos en el futuro, entonces el proceso inverso también es posible. Este proceso podría describir la explosión de un agujero blanco: materia emergiendo de un horizonte de eventos en el pasado, como el universo en expansión. Un agujero blanco está conectado a un agujero negro por un puente de Einstein-Rosen (agujero de gusano) y es hipotéticamente la versión inversa en el tiempo de un agujero negro. Poplawski sugiere que todos los agujeros negros astrofísicos pueden tener puentes de Einstein-Rosen, cada uno con un nuevo universo en su interior que se formó simultáneamente con el agujero negro. De ello se deduce que nuestro universo podría haberse formado en el interior de un agujero negro existente dentro de otro universo.

lunes, 17 de mayo de 2010

Nueva Confirmación de Que la Expansión del Universo Está Acelerada Por una Fuerza Desconocida

Un grupo de astrónomos, dirigido por Tim Schrabback del Observatorio de Leiden, en los Países Bajos, ha realizado un estudio intensivo de más de 446.000 galaxias observadas por el Telescopio Espacial Hubble. Los resultados confirman la aceleración en la expansión del universo, una aceleración atribuida a la misteriosa Energía Oscura.

Además de los datos del Hubble, los investigadores, entre quienes figura Patrick Simon de la Universidad de Edimburgo, utilizaron datos de telescopios terrestres para asignar distancias a 194.000 de las galaxias observadas.

El número de galaxias incluidas en este tipo de análisis no tiene precedentes, pero lo más importante es la cantidad enorme de información que los astrónomos han logrado obtener acerca de las estructuras invisibles en el universo.

En particular, los astrónomos lograron "pesar" la distribución a gran escala de la materia en el espacio a grandes distancias. Para ello, se valieron del hecho de que esta información se puede obtener a partir de cómo aparece distorsionada la forma de las galaxias lejanas por el efecto de lente gravitacional débil.

Usando algoritmos complejos, el equipo dirigido por Schrabback ha mejorado el método estándar y ha obtenido las mediciones de la forma de las galaxias con una precisión sin precedentes.

Este estudio brinda una confirmación independiente de que la expansión del Universo se acelera por un misterioso componente adicional, la Energía Oscura.

Los científicos necesitan saber cómo ha evolucionado la formación de las aglomeraciones de materia en la historia del universo, para determinar cómo tales acumulaciones fueron afectadas por la fuerza gravitacional, que mantiene la materia unida, y por la energía oscura, que tiende a dispersarla al acelerar la expansión del universo.

domingo, 16 de mayo de 2010

Sensor Práctico y Eficaz Para Detección Temprana de Corrosión en Puentes

Los puentes de hormigón tienen que ser lo bastante fuertes como para resistir una gran variedad de agresiones: temperaturas extremas, las inclemencias del tiempo, un tráfico denso de vehículos, y las propias emisiones contaminantes de vehículos y otras fuentes parecidas.

Y además están los daños colaterales causados por varios tipos de sal para carreteras que se usan en el invierno con el fin de combatir el congelamiento de éstas. La más común de estas sales es el cloruro de sodio, que se aplica en grandes cantidades a las carreteras de Alemania. Cuando se derrite el hielo, estas sales se dividen en sus componentes iónicos que penetran dentro del hormigón, destruyendo su capa alcalina protectora de 5 centímetros de espesor. Cualquier sal que se filtre a través de las varillas de acero usadas para reforzar la estructura de hormigón provocará que éstas se corroan, con el resultado final de daños estructurales, inicialmente en forma de grietas. En el peor de los casos, un puente afectado por este fenómeno se desmorona.

Hasta ahora, no ha sido posible realizar pruebas eficaces para determinar con detalle cuán profundamente los iones han penetrado el hormigón y qué daño ya han causado. Las pruebas actuales son lentas, toscas y aparatosas, pues implican que trabajadores de la construcción martilleen sobre el hormigón armado en busca de cavidades, las cuales son una señal segura de daño por corrosión.

Un equipo de expertos en el Instituto Fraunhofer para Circuitos y Sistemas Microelectrónicos (IMS) en Duisburgo, incluyendo a Frederic Meyer, ha ideado ahora un método más fiable y barato para detectar corrosión en etapas tempranas. Con un nuevo sensor-transpondedor, se puede medir y monitorizar continuamente el nivel de profundidad alcanzado por los iones en el hormigón.

El dispositivo trasmite inalámbricamente los datos medidos al dispositivo de lectura diseñado para que lo lleven los obreros de la construcción. El sensor-transpondedor no adquiere de una batería la energía que necesita para realizar las mediciones de corrosión, sino de un campo magnético. Esto implica que no necesita ser reemplazado y que puede permanecer en la estructura de hormigón de modo permanente.

Ya están en marcha las primeras pruebas de campo.

sábado, 15 de mayo de 2010

Verifican a Escala Cósmica la Validez de la Teoría de la Relatividad de Einstein

Un equipo liderado por científicos de la Universidad de Princeton ha puesto a prueba la teoría de la relatividad general de Albert Einstein para ver si se cumple a escala cósmica. Y, después de dos años de análisis de datos astronómicos, los científicos han dictaminado que la teoría de Einstein, que describe la interacción entre la gravedad, el espacio y el tiempo, opera a grandes distancias tal como lo hace en las regiones locales del espacio.

El análisis de estos científicos sobre más de 70.000 galaxias demuestra que el universo, al menos hasta una distancia de 3.500 millones de años-luz de la Tierra, sigue las normas establecidas por Einstein en su famosa teoría.

Desde que el físico Arthur Eddington midió la curvatura de la luz de las estrellas alrededor del Sol durante un eclipse en 1919 y demostró la validez de la teoría de la relatividad general de Einstein, el mundo científico ha aceptado sus principios. Pero hasta ahora, nadie había puesto a prueba la teoría tan a fondo ni tan robustamente, a distancias y escalas que van mucho más allá del sistema solar.

En este trabajo, han intervenido Reinabelle Reyes, Rachel Mandelbaum y James Gunn de la Universidad de Princeton, Tobias Baldauf, Lucas Lombriser y Robert Smith de la Universidad de Zúrich, y Uros Seljak de la Universidad de California en Berkeley.

Los resultados del análisis son importantes porque respaldan las teorías actuales que explican la forma y dirección del universo, incluyendo las ideas más aceptadas sobre la Energía Oscura, y permiten descartar las sospechas que se despertaron a raíz de otros experimentos recientes que sugerían que la relatividad general podía estar equivocada.

Publicada por primera vez en 1915, la teoría de la relatividad general de Einstein sigue siendo un avance fundamental en la física moderna. Redefinió la comprensión humana del tejido de la existencia: La gravedad, el espacio y el tiempo.

La innovadora teoría mostró que la gravedad puede afectar al espacio y al tiempo, una cuestión crucial para comprender las fuerzas fundamentales de la física y los fenómenos naturales, incluyendo los agujeros negros.

viernes, 14 de mayo de 2010

El Universo es una memoria holográfica gigante


El Universo es una memoria gigante compuesta por una ingente cantidad de bits que tiene tendencia natural a aumentar. Esta es la revolucionaria dirección de investigación del físico holandés Erik Verlinde, en un informe que cuestiona los fundamentos básicos de la teoría gravitacional de Newton.

La clave del artículo de Verlinde es la siguiente: “si parece entropía, y se comporta como entropía, probablemente sea entropía”. Partiendo del trabajo de Stepehn Hawking, quien propuso que la temperatura del agujero negro es proporcional a la aceleración gravitatoria en su horizonte, Verlinde argumenta que una aceleración proporcional a una temperatura no puede ser más que un efecto de entropía.

Esa aceleración entrópica se manifiesta en un sistema que evoluciona de forma que cada vez necesita un mayor número de bits de información para describir todas sus características. ¿Es posible que la atracción gravitatoria no sea más que una consecuencia del aumento del número de bits necesarios para describir el sistema? ése es el argumento de Verlinde.


Tratemos de pensar en la creación de un agujero negro siguiendo la filosofía de Verlinde. Un agujero negro es un punto donde la materia está tan concentrada que la fuerza gravitatoria es suficientemente intensa como para atrapar incluso la luz. Es, por tanto, un punto de saturación ¿Cómo encaja esto con los bits y las pantallas holográficas?

Según Newton, una determinada cantidad de materia genera un potencial gravitatorio (al que llamaremos Φ). Verlinde identifica las superficies equipotenciales (aquellas donde Φ es constante) con pantallas holográficas, y llega a la conclusión de que la “saturación de bits” (número de bits necesarios para describir el sistema partido por número de bits disponibles en la pantalla) es -Φ / (2·c2), siendo c la velocidad de la luz. Si tomamos una pantalla holográfica y la vamos reduciendo (siempre sin salir de la superficie equipotencial), llega un momento en que la saturación de bits alcanza el valor de la unidad, y es imposible reducirlo más. Tendríamos un agujero negro.

La clave está en dar la vuelta a este razonamiento: pensemos no en que la pantalla se reduce, sino en que los sistemas físicos tienen una tendencia natural a saturarse, es decir, a ocupar con información todos los bits disponibles en la pantalla holográfica. Como c es constante, esto significa que Φ tendría que aumentar… es decir ¡el potencial gravitatorio surge de la tendencia natural (entrópica) de los sistemas a saturar con información todo el espacio disponible! (por poner un símil doméstico, la tendencia natural a llenar de información todo el espacio disponible en el disco duro, independientemente de lo grande que sea).

Desde luego, la línea de investigación abierta es revolucionaria, y la asociación de la gravedad con la información es desde luego atrevida. Pero lo más relevante es la conclusión de que la gravedad no sea más que una mera consecuencia de una tendencia natural del Universo. Sin duda, es probable que en el futuro oigamos hablar más de Verlinde y sus teorías.

jueves, 13 de mayo de 2010

La frontera del mundo de los átomos


Si algo distingue a la mecánica cuántica de la física que todos aprendemos en la escuela (llamada física clásica) es que no se aplica a los objetos macroscópicos. La mecánica cuántica se construyó a lo largo de las primeras décadas del siglo XX para describir el comportamiento de los átomos, las moléculas y las partículas de luz. Para sorpresa de los físicos de la época, la teoría implicaba, al parecer, que los objetos atómicos podían estar en muchos lugares
al mismo tiempo, y en general, hacer cosas contradictorias simultáneamente, como desintegrarse y no desintegrarse u orientarse al derecho y al revés en un campo magnético. Por suerte, los objetos cotidianos no presentaban este comportamiento, conocido técnicamente como superposición de estados coherentes.

Pero, ¿por qué? Si los objetos cotidianos están hechos de átomos y moléculas, ¿no deberían heredar las propiedades de éstos? La mecánica cuántica, la teoría más fundamental de la física, tendría que ser válida para todas las cosas, sin importar su tamaño. El problema de la transición cuántico- clásica se resolvió teóricamente en los años 60, cuando el físico H. Dieter Zeh señaló que las superposiciones de estados coherentes son tan delicadas, que sólo se pueden observar en átomos completamente aislados, sin el menor contacto con su entorno. El más leve soplo de energía las destruye. Los objetos macroscópicos, hechos de números inimaginables de átomos, están mucho más expuestos a contingencias que los átomos individuales. Es imposible aislarlos de su entorno y por eso nunca los vemos en superposiciones coherentes. Los físicos se interesaron entonces en determinar de qué tamaño tenía que ser un objeto para dejar de ser cuántico.

En los años 30, las peculiaridades de la mecánica cuántica inquietaron a algunos físicos, entre ellos Albert Einstein y Erwin Schrödinger. Éste último ideó un experimento mental para visualizar lo absurdo que le parecía extender el comportamiento cuántico a los objetos macroscópicos: el experimento del gato de Schrödinger. El físico concluyó que, si la mecánica cuántica era correcta, en ciertas circunstancias un gato, por ejemplo, podría estar vivo y muerto al mismo tiempo.

Hasta hace poco, el objeto más grande en el que se había observado comportamiento puramente cuántico era una molécula de 60 átomos, conocida como buckminsterfullereno. Pero en el número del 17 de marzo de la revista Nature unos investigadores de la Universidad de California en Santa Bárbara informan que lograron poner en una superposición coherente un objeto suficientemente grande para verse sin ayuda de instrumentos. El objeto es una especie de varilla vibradora de aluminio que mide unas 40 micras de longitud y está formada por alrededor de un billón de átomos. La varilla puede vibrar 6 000 millones de veces por segundo. Los investigadores, dirigidos por Andrew Cleland, redujeron la frecuencia de las vibraciones de este resonador al valor mínimo permitido por la mecánica cuántica bajándole la temperatura hasta menos de un décimo de grado sobre cero absoluto (-273 º C), lo que ya es una proeza. Manipulando el objeto por medio de un circuito electrónico sujeto a las leyes de la mecánica cuántica, pudieron ponerlo en un estado en que está vibrando y quieto al mismo tiempo. Cleland da a entender que hay buenas razones para probar las leyes de la mecánica cuántica con objetos cada vez más grandes. Al mismo tiempo reconoce que no se le ocurre ninguna aplicación práctica de su resonador cuántico. No tiene importancia. Este experimento ayudará a disipar el misterio que aún envuelve la frontera entre el mundo cuántico y el mundo cotidiano.

miércoles, 12 de mayo de 2010

Sonda Capta Actividad Volcanica en Venus


La sonda Venus Express de la Agencia Espacial Europea (ESA) ha revelado una intensa actividad volcánica en ese planeta, según un estudio de un grupo internacional de científicos divulgado por la revista Science. La actividad de esos volcanes puede revelar las claves sobre la forma en que se ha estructurado la superficie de Venus durante los últimos miles de millones de años. También según el informe, ayudara a comprender la evolución del clima y de la masa del mas cercano vecino de la Tierra. Venus y la Tierra son similares en tamaño y en producción interna de calor, pero ambos han tenido una evolución geológica totalmente diferente, mientras que el primero es un planeta candente, el segundo se ha mantenido relativamente frió.
Suzanne Smrekar, científica del laboratorio de propulsión de la NASA, explico que la investigación se ha centrado en tres puntos en el hemisferio sur de la superficie venusiana de los cuales surgen columnas de rocas derretidas por las altísimas temperaturas del planeta. De acuerdo con los científicos, de esos tres puntos surgen ríos de lava que emiten una cantidad anormalmente enorme de calor en comparación con los lugares que lo rodean. Eso significa que se trata de volcanes recientemente activos cuyos ríos de lava tienen una antigüedad de menos 2.5 millones de años.

martes, 11 de mayo de 2010

El Gran Colisionador de Hadrones detecta el bosón W en menos de un mes

Las noticias sobre los hallazgos que está logrando el Gran Colisionador de Hadrones (LHC) en menos de un mes de trabajo son continuos, y esperanzadores.

El británico Nick Ellis, responsable de la selección de datos de ATLAS (uno de los cuatro experimentos del LHC), reveló que ya se han detectado partículas como el bosón W, una de las responsables de la interacción débil en la naturaleza (una de las cuatro fuerzas fundamentales del universo).

Para descubrir este bosón se necesitaron meses de análisis en experimentos anteriores, y supuso el Nobel de Física a Carlo Rubbia y Simon van der Meer, pero el LHC lo ha detectado en menos de un mes gracias a una energía de colisión de 7 TeV (1 Teraelectronvoltio = un billón de electronvoltios).

Los científicos prevén confirmar asimismo la existencia de partículas supersimétricas, con lo que se “podría dar una explicación a la materia oscura”, que compone gran parte del Universo.

Con todo, para descubrir el anhelado bosón de Higgs se necesitará que el LHC funcione a mucha más energía: 14 TeV (7 TeV por haz de partículas), algo que ocurrirá probablemente en 2013.




"El bosón de Higgs es, según la teoría, el responsable de conferir masa al resto de partículas, aunque su existencia no haya sido todavía comprobada experimentalmente. Pero, además del Higgs, los científicos confían en detectar nuevas partículas o, incluso nuevas dimensiones espaciales, algo “fundamental para unificar la gravedad con el resto de fuerzas”, remarcó Ellis. (…) Por eso, el LHC es el instrumento adecuado para “buscar algo diferente de lo que está escrito en los libros de física actuales”, exigiendo para ello una mentalidad abierta por parte de los científicos.