Thursday, April 30, 2009

Posible contagio de radioactividad a través del agua

Un estudio realizado con truchas ha descubierto que la radioactividad pasa de unos peces irradiados con rayos X a otros por el mero hecho de entrar físicamente en contacto a través de un mismo medio acuoso. El contagio también se produce sólo por compartir el medio acuoso sin contacto directo con los peces irradiados, lo que desvela que la radioactividad se transmite de unos organismos a otros a través del agua. Los resultados de esta investigación los publica la revista Environmental Science & Technology. El estudio, realizado por los científicos de la universidad McMaster en Ontario, Canadá, Colin Seymour y Carmel Mothersill, acerca de los efectos de la radiación, descubrió que truchas expuestas a rayos X podían pasar dichos efectos a peces que no se habían visto sometidos a radiación. Tal como se explica la mencionada Universidad en un comunicado, este es el primer estudio que demuestra el contagio de la radiación entre animales, subrayando la necesidad de investigar si este fenómeno podría darse también entre humanos.
Para comprobar si los peces irradiados contagiaban con sus señales de radiación a sus congéneres, Seymour y Mothersill irradiaron a parejas de truchas arcoiris, pertenecientes a la especie de las llamadas truchas Salvelinus fontinalis, con rayos X durante cinco minutos en un tanque lleno de agua. Estas truchas son de lago y de color marrón. El total de radiación recibida por estos peces fue de 0,5 gray o Gy. Un gray es la absorción de un Julio de energía de radiación por cada kilogramo de materia. La cantidad de radiación recibida por los peces supone un aumento considerable con respecto a los niveles de radiación medioambientales, procedentes de fuentes naturales, como el radón. Sin embargo, es una cantidad significativamente menor a la de las dosis que el ser humano recibe de las terapias radioactivas contra el cáncer, por ejemplo. Posteriormente, los peces fueron puestos en otro tanque de agua con una pareja de truchas sanas, sin irradiar, durante dos horas. Además, otra pareja más de truchas no irradiadas fue colocada en el tanque en el que los peces habían recibido la radiación de los rayos X. Cada experimento se repitió cuatro veces. Después, los investigadores mataron a las truchas de un golpe en la cabeza para diseccionar sus cadáveres.
El examen reveló que todas las truchas arcoiris sufrían efectos de radiación similares: en todas ellas había aumentado el número de células muertas en cinco órganos diferentes y otras células mostraban proteínas asociadas con respuestas a la radiación. Los órganos fueron extraídos de todos los peces para ser analizados y sus tejidos se cultivaron siguiendo técnicas preestablecidas. La conclusión es que los peces irradiados segregaron elementos químicos, aún no identificados, que fueron soltados en el agua, lo que produjo efectos radioactivos, tanto en los peces expuestos a la cercanía con las truchas que habían recibido los rayos X, como a aquellos que no habían estado cerca de ellos pero que habían compartido el medio acuoso.
La importancia del descubrimiento radica en que alerta acerca de los riesgos de la radiación en humanos y otros animales, si entran en contacto con individuos contaminados por este tipo de radiaciones. Esta hipótesis plantea la urgencia de nuevas investigaciones a otros niveles biológicos.
Bibliografía:

Microbalanza de cuarzo



¿Qué instrumento se usa para pesar cantidades ínfimas de materia que una balanza analítica, común de laboratorio, no puede? La microbalanza de cuarzo
Los cristales de la sal de Rochelle fueron las especies precursoras en el desarrollo de la microbalanza de cuarzo, ya que en 1880, cuando los esposos Curie notaron que éstos producían electricidad cuando una presión se aplicaba en ciertas direcciones cristalográficas. Poco tiempo después de esta peculiaridad, demostraron el efecto inverso: la producción de una presión como resultado de la aplicación de electricidad. Ambos fenómenos orillaron a Pierre y Marie Curie a acuñar el término de efecto piezoeléctrico.
A partir de su descubrimiento, el efecto piezoeléctrico no tuvo todo el interés que se esperaría, hasta 1917, cuando se comprueba que el cristal de cuarzo puede ser empleado como transductor o receptor de señales de onda de ultrasonido en el agua. Seguido a este avance, en 1919 se le da el uso en dispositivos de la vida cotidiana como bocinas, micrófonos y altavoces. En 1921, surge el primer oscilador controlado de cristal de cuarzo. Este primer oscilador se basó en cristales cortados en forma de X, cuya desventaja es la alta sensibilidad a la temperatura; sin embargo, actualmente se le usa en transductores de sonares espaciales.
PRINCIPIO DE FUNCIONAMIENTO
Los cristales, como el cuarzo, que cristalizan en grupos espaciales que no tienen un centro de simetría, presentarán el efecto piezoeléctrico. Un cristal de un material acéntrico posee un eje polar debido a los dipolos asociados a la disposición de los átomos en la red cristalina. La tensión aplicada provoca un desplazamiento de los átomos del cristal y por tanto de los dipolos, generándose una carga eléctrica. El efecto es reversible, es decir, al aplicar una diferencia de potencial a un cristal piezoeléctrico se producen en él tensiones mecánicas que dan lugar al desplazamiento de partículas y a la aparición de ondas acústicas. Este efecto es el principio teórico del funcionamiento de la microbalanza electroquímica de cristal de cuarzo (QCM). En algunas ocasiones las balanzas son conocidas como QCM.
La estructura típica de los sensores QCM consta de tres principales piezas: un disco de cuarzo, dos electrodos de oro en superficies opuestas, en la cual se activa una de las superficies con un polímero. Este tipo de sensores son muy fáciles de construir, además de que no son costosos, trabajan a temperatura ambiente por lo que no requieren una estructura de calentamiento y tienen muy buena resolución.
APLICACIONES
Esta potente herramienta es un dispositivo usado principalmente para medir cantidades de masa muy pequeñas, ya que su sensibilidad es 100 veces mayor a la de la balanza electrónica; razón por la cual su uso se extiende a lo largo de diversas áreas como biotecnología, investigación de fármacos, formación de películas de capa fina e investigación de surfactantes.

o Biotecnología: estudios de la interacción de DNA y RNA con hebras complementarias, reconocimiento de ligantes específicos de proteínas por receptores inmovilizadores, detección de cápsides de virus, adhesión de células, liposomas y proteínas, Formación y prevención de la formación de biopelículas.

o Investigación de fármacos: disolución de recubrimientos poliméricos, interacción molecular de medicamentos, respuesta de las células a sustancias farmacológicas, mecanismo de acción de los fármacos.

o Formación de películas de capa fina: películas de Langmuir, monocapas de autoensamblaje, adsorción polielectrolítica, formación de bicapas.

o Investigación de surfactante: interacción de los surfactantes con las superficies y efectividad del surfactante.


BIBLIOGRAFÍA
· Bateman, John. Nutrición animal: manual de métodos analíticos. México.1970.
· Eggins, Brian. Chemical sensors & biosensors. John Wiley & sons. New York: 2007.
· Ewing, Galen. Analytical instrumentation handbook. Marcel Dekker. New York :1990
· James, C.S. Analytical Chemistry of foods. Blackie Academic & Professional. New York :1995.
· Kateman, Gerrit. Quality control in analytical chemistry. John Wiley & Sons Inc., New York :1993
· Kenkel, John. Analytical chemistry for technicians. Ann Arbor & Lewis Pub. Boca Raton:1994.
· Moffat, A.C. et.al. Clarke’s analysis of drugs and poisons. Pharmaceutical Press. London: 2004.
· http://www.pharmaceutical-int.com/categories/qcm-technology/quartz-crystal-microbalance-qcm.asp
· http://sensorautorresonantes.blogspot.com/2007/06/principio-de-funcionamiento.html
· http://www.dii.unisi.it/~electron/lab/Ricerca/QCM%20sensors.htm

Radiación alfa, beta, gamma

La clasificación de los diferentes tipos de radiación se realizó entre los años 1898 y 1902. Ernest Rutherford, por entonces un joven estudiante de investigación en el Cavendish Laboratory, identificó dos tipos de “rayos” radiactivos que designó con las letras griegas alfa y beta.

El esquema obedecía, entre otras propiedades, a la capacidad de penetración de la radiación en la materia, siendo la radiación alfa mucho menos penetrante que la beta. A mediados de 1902 añadió un tercer tipo, todavía más penetrante que los anteriores, que denominó gamma. Hoy en día sabemos que la radiación alfa consiste en la emisión de núcleos de helio (formados por dos protones y dos neutrones) por parte de un núcleo atómico inestable, la radiación beta son electrones emitidos en el proceso de desintegración beta y los rayos gamma son fotones de alta energía.

Las partículas alfa emitidas por los radionucleidos naturales no son capaces de atravesar una hoja de papel o la piel humana y se frenan en unos pocos centímetros de aire. Sin embargo, si un emisor alfa es inhalado (por ejemplo, el 210Po), ingerido o entra en el organismo a través de la sangre (por ejemplo una herida) puede ser muy nocivo.

Las partículas beta son electrones. Los de energías más bajas son detenidoss por la piel, pero la mayoría de los presentes en la radiación natural pueden atravesarla. Al igual que los emisores alfa, si un emisor beta entra en el organismo puede producir graves daños.

Los rayos gamma son los más penetrantes de los tipos de radiación. La radiación gamma suele acompañar a la beta y a veces a la alfa. Los rayos gamma atraviesan fácilmente la piel y otras sustancias orgánicas, por lo que puede causar graves daños en órganos internos. Los rayos X (*) caen en esta categoría –también son fotones– pero con una capacidad de penetración menor que los gamma.






A los tipos de radiación clasificados por Rutherford, debe añadírsele la radiación por neutrones, que aparece en la naturaleza en el proceso de fisión espontánea. Los neutrones tienen mayor capacidad de penetración que los rayos gamma, y sólo puede detenerlos una gruesa barrera de hormigón, agua o parafina (compuestos muy ricos en hidrógeno).
(*) Si bien se trata del mismo tipo de radiación, se mantiene la nomenclatura gamma y X debido a la causa que la produce: mientras que los rayos gamma son de origen nuclear (reestructuración del núcleo atómico), los rayos X tienen su origen en la reestructuración de los electrones en la corteza atómica.
http://weblogs.madrimasd.org/ciencianuclear/archive/2006/12/01/53391.aspx

Espectroscopia de peinado de frecuencia óptica

Al dirigir un rayo láser hacia el aliento de una persona, científicos de la Universidad de Colorado, Estados Unidos, detectaron moléculas que pueden dar indicios de enfermedades como el asma o el cáncer. Aunque este método aun se encuentra en etapa de prueba, en el futuro se espera que los doctores tengan la posibilidad de dar un diagnóstico con solo tomar una muestra del aliento del paciente.

La técnica, conocida como espectroscopia de peinado de frecuencia óptica (optical frequency comb techinique), es lo suficientemente precisa para detectar todas las moléculas en el aliento humano y tan sensible para distinguir entre moléculas extrañas que den indicios enfermedades específicas.

Al exhalar el aire, la respiración contiene poco oxígeno, mucho dióxido de carbono y una rica colección de más de mil tipos de otras moléculas, muchas de las cualas en pequeñas cantidades apenas son rastreables.
Así como el mal aliento indica problemas dentales, el exceso de metilamina en el aliento puede ser señal de enfermedades del hígado o riñón, elevados niveles de amoniaco significar alguna falla renal, alta cantidad de acetona indica diabetes, y volúmenes anormales de oxido nítrico pueden manifestar la posible presencia de asma.

Historia de la espectroscopia...

Los nombres de Robert Wilhem Bunsen(1811-1899) y Gustav Robert Kirchhoff(1824- 1887) solo recuerdan actualmente a mucha gente un mechero y unas reglas referidas a los circuitos eléctricos. Sin embargo, la colaboración de estos dos científicos alemanes en Heilderberg fue fundamental para el desarrollo de la espectroscopia.

La espectroscopia (en términos burdos) se basa en que al calentar ciertas substancias, por ejemplo mediante una llama, emiten luz. Si la luz emitida se hace pasar a través de un prisma, se descompone en un conjunto de radiaciones denominado espectro.

Bunsen y Kirchhoff desarrollaron un aparato denominado espectroscopio que permite observar espectros de diversas substancias.

En cierta ocasión mientras observaban, desde unos 80 km de distancia, un incendio en el puerto de Hamburgo, se les ocurrió hacer pasar por un prima la luz que venía del incendio. Vieron una luz amarilla intensa como la que habían observado al quemar sodio. Pronto encontraron la explicación. Lo que estaba ardiendo era un almacén de salazones.

Si era posible deducir la presencia de sodio a distancia observando la luz de las llamas, también sería posible deducir la composición del Sol y de las estrellas analizando la luz que recibimos de ellas.

Después de varias semanas de intenso trabajo dieron a conocer sus resultados: el Sol está formado por substancias como las que hay en la Tierra.



En la figura se representan el espectro de la luz solar (I) y el de los elementos potasio (II), sodio (III), cesio (IV) y rubidio (V). Estos dos últimos elementos fueron descubiertos por Bunsen y Kirchhoff mediante el análisis de sus espectros.

¿Es una casualidad que la línea amarilla del espectro del sodio corresponda a una de las líneas negras que se ven en el espectro solar?

No, cuando la luz del Sol atraviesa su atmósfera, el sodio presente en ella absorbe precisamente la luz de color amarillo que vemos en su espectro (III).

link: http://www.infsl.com/cyberboletin/frames/ppal_dad.htm
chequen la pàgina, está buena :)

Refuerzan tela de araña con metales

La tela de araña es uno de los materiales naturales más fuertes que existen. Durante muchos años se ha intentado buscar una aplicación para la telaraña que aprovechen sus propiedades elásticas y a la vez resistentes. La telaraña está hecha de fibras proteicas cuya secuencia de aminoácidos varía entre las especies, pero generalmente consiste en una secuencia alternante de glicina y alanina. La proteína adopta la estructura de lámina beta y forma un cristal, lo que proporciona la rigidez. Cada región cristalina también está separada por una región donde las proteínas se unen para dar una estructura amorfa que proporciona la flexibilidad.

Hace poco, científicos del Max Planck Institute of Microstructure Physics reportaron que llevaron a cabo experimentos de deposición de zinc, aluminio y titanio sobre las fibras provenientes de una araña de la especie Araneus. Primero hicieron deposición de zinc mediante exposición a vapor de dietilzinc y agua, observando que las fibras se volvían considerablemente más resistentes. De la misma forma depositaron aluminio y titanio, utilizando alúmina y óxido de titanio (IV) y encontraron resultados similares.

Se cree que la razón por la que la tela de araña se endurece no es tanto por la formación de un recubrimiento metálico en la superficie de los filamentos. Parece que la razón real es que el vapor de agua entra en la estructura proteica y modifica la continuidad de los puentes de hidrógeno, lo que permite que los metales se introduzcan entre las cadenas formando complejos. Los enlaces entre el metal y los aminoácidos ligantes son de carácter más covalente, lo que aumenta la fuerza del enlace entre las cadenas proteicas y hace que el material sea más duro. La presencia de metales en sustancias de origen natural es muy común, hay ciertos insectos que poseen mandíbulas y garras altamente resistentes que surgen por adaptaciones que implican la incorporación de metales a las estructuras proteicas que componen dichas partes.

Este descubrimiento no necesariamente implica que vaya a surgir una aplicación novedosa para la tela de araña, de hecho resultaría muy caro e ineficiente producir fibras para aplicaciones a gran escala a partir de la telaraña. Sin embargo, muchas fibras naturales parecidas a la telaraña, como la seda que proviene de un gusano, sí se ocupan a gran escala. Dado que las fibras producidas por este tipo de insectos tienen una composición proteica similar, este método sí podría ocuparse para producir fibras mucho más resistentes para aplicaciones diversas en la industria textil.

Referencias

http://www.rsc.org/chemistryworld/News/2009/April/23040903.asp
Liquid crystalline spinning of spider silk. Fritz Vollrath & David P. Knight. Nature. 2001.

Aromaticidad esférica

La aromaticidad es un concepto que abarca no sólo los anillos con 4n+2 electrones π, ya que se ha extendido para modelar moléculas policíclicas, heterociclos, [n]anulenos, estados de transición pericíclicos, ciclos de Möbius, metalociclos, metalocenos y clusters metálicos. Sin embargo, las manifestaciones anteriores ilustran únicamente el tipo más usual de aromaticidad, la que ocurre en moléculas bidimensionales. Con el descubrimiento de compuestos esféricos, específicamente los fulerenos y los clusters de boro, ha surgido un nuevo tipo de aromaticidad que ocurre en las tres dimensiones, a la que se le ha llamado aromaticidad esférica. En 1959, Lipscomb utilizó el término superaromático para referirse al cluster closo [B12H12]2-. Con el descubrimiento de los fulerenos y el estudio de sus orbitales, quedó claro que es posible deslocalizar densidad electrónica a lo largo de una estructura en 3D. El problema surgió cuando se quisieron aplicar los criterios de aromaticidad para este tipo de compuestos. La regla de Hückel, por ejemplo, simplemente no aplica para los boranos ni los fulerenos. En el 2000, Hirsch propuso el equivalente de la regla de Hückel para los fulerenos. Según dicha regla, los fulerenos que tengan 2(n+1)2 electrones presentarán aromaticidad. Esta regla es útil para una gran cantidad de fulerenos, pero se han encontrado excepciones. En cuanto a los boranos, se reconoce que la aromaticidad es común entre los closo-boranos y sus carboranos isoelectrónicos.

Para el estudio de la aromaticidad esférica se han desarrollado nuevos métodos basados en modelos armónicos que involucran cálculos de las funciones de onda de los enlaces como si cada vértice estuviera sobre una superficie esférica. En el caso de los fulerenos, la falta de hidrógenos impide que se use un espectro de 1H-RMN como prueba de aromaticidad. La aplicación de NICS tanto a un fulereno como a un borano produce valores inconsistentes en diferentes puntos de la estructura, pero modificaciones como el uso de matrices de puntos a lo largo de la estructura proveen un valor más consistente. Un método desarrollado específicamente para medir la aromaticidad en este tipo de moléculas consiste en la introducción de un átomo de 3He al interior de la estructura, para después obtener un espectro de 3He-RMN. Una contribución paratrópica (desplazamiento químico positivo) indica anti-aromaticidad, mientras que una contribución diatrópica (desplazamiento químico negativo) indica aromaticidad.

Tanto los fulerenos como los boranos son importantes por sus propiedades fisicoquímicas y estructurales, que los hacen materiales interesantes. Una de las aplicaciones más importantes en electroquímica consiste en utilizar a los fulerenos como unidades de almacenamiento de electrones. El C60 tiene un bajo nivel de aromaticidad calculado por desplazamiento químico de He y por NICS, pero su hexaanión es altamente aromático. La reducción de muchos fulerenos de baja aromaticidad aumenta el carácter aromático ya que hay mayor densidad electrónica por unidad hexagonal y la deslocalización ocurre de forma más efectiva. En cambio, los fulerenos más aromáticos en su estado neutro, como el C70, tienden a volverse cada vez más anti-aromáticos cuando son reducidos. Esta capacidad de guardar electrones ha hecho que los fulerenos sean materiales importantes en procesos redox electroquímicos, donde se requiere un agente de transporte de electrones. Además, los fulerenos son materiales de partida importantes en muchas áreas ya que sus superficies pueden funcionalizarse con grupos tanto orgánicos como inorgánicos. La naturaleza de dichos grupos puede afectar el grado de aromaticidad del fulereno, lo que permite modificar las propiedades redox originales para aplicaciones en electrónica y nanotecnología.



Referencias

Spherical Aromaticity: Recent Work on Fullerenes, Polyhedral Boranes, and Related Structures. Zhongfang Chen, and R. Bruce King. Chem. Rev., 2005.
Three-Dimensional Aromaticity in Polyhedral Boranes and Related Molecules. R. Bruce King. Chem. Rev., 2001

Caracterización de pulque mediante espectroscopía RAMAN

Como sabemos la espectroscopía RAMAN esta siendo utilizada en la mayoría de los campos científicos y para el análisis de diferentes sustancias en la industría química.

En este caso me llama la atención que hayan realizado un estudio sobre el pulque (bebida prehispánica ampliamente consumida en nuestro país) usando este tipo de espectroscopía.

El estudio se realizo en diferentes etapas de fermentación denominadas aguamiel, semilla, contrapunta y corrida; se aislaron e identificaron un hongo levaduriforme, un cocobacilo Gram negativo y un bacilo Gram positivo pertenecientes a los géneros Saccharomyces sp, Zymomonas sp, y Lactobacillus sp. El consorcio desarrollado fue el responsable de la fermentación, alcohólica, ácida y viscosa propias de esta bebida tradicional. El contenido alcohólico varió en función del tiempo de fermentación alcanzando porcentajes de 10.35 (v/v) y 9.01 (v/v) determinados por cromatografía de gases y espectroscopia Raman para la etapa denominada «corrida». El producto terminado tiene un elevado contenido de proteínas (1 g/L), azúcares reductores (4.75 g/L) y poblaciones microbianas en ordenes de 45x108 UFC/mL para Saccharomyces sp, 41x107 UFC/mL para Zymomonas sp y 34x106 UFC/mL para Lactobacillus sp, que le dan a la bebida un elevado valor nutricional y los microorganismos aislados podrían tener un efecto benéfico sobre sistema digestivo al ser consumido por vía oral.

Tomado de http://www.imbiomed.com.mx/1/1/articulos.php?method=showDetail&id_articulo=50976&id_seccion=3074&id_ejemplar=5165&id_revista=187

RAMAN en el estudio de fósiles


La espectroscopía Raman, una técnica usada fundamentalmente por los químicos, permite ver la estructura molecular y química de los microorganismos antiguos en tres dimensiones, revelando de qué están hechos los fósiles sin destruir las muestras. La espectroscopía Raman puede ayudar a demostrar si los fósiles son biológicos. Esta técnica involucra un láser y un microscopio enfocado en una muestra: la mayor parte de la luz del láser se dispersa pero una pequeña parte es absorbida por el fósil.
Schopf es el primer científico en usar esta técnica para el análisis microscópico de fósiles antiguos. Y descubrió que la composición de los fósiles había cambiado; el nitrógeno, el oxígeno y el azufre se perdieron, mientras permanecieron el carbono y el hidrógeno.
La microscopía confocal usa un haz láser enfocado para hacer que las paredes orgánicas de los fósiles sean fluorescentes, permitiéndoles ser vistas en tres dimensiones. La técnica, usada inicialmente por los biólogos para estudiar el funcionamiento interno de las células vivientes, es nueva en la geología.
Los microorganismos estudiados con este procedimiento figuran entre las formas de vida más tempranas en la historia natural de nuestro mundo, y resultan demasiado pequeños para ser observados a simple vista.

Bisturí de rayos gamma

El bisturí de rayos gamma y el programa computarizado asociado de planificación de tratamiento les permite a los médicos localizar e irradiar zonas relativamente pequeñas de la cabeza (principalmente dentro del cerebro) con gran precisión. De esta forma se puede administrar dosis intensivas de radiación en la(s) zona(s) a tratar con poco efecto en los tejidos circundantes. El bisturí de rayos gamma se puede usar para muchos tipos de problemas, por ejemplo, para tratar ciertos tumores malignos que aparecen en el cerebro o llegan a este órgano (tumores cerebrales primarios o metastásicos), tumores cerebrales benignos (meningiomas, adenomas de la pituitaria, neuromas acústicas), defectos de los vasos sanguíneos (malformaciones arteriovenosas) y problemas funcionales (neuralgia del trigémino). Se están estudiando posibles usos futuros para la epilepsia y la enfermedad de Parkinson. El bisturí de rayos gamma por lo general no es útil en zonas que miden más de tres o cuatro centímetros.
El bisturí de rayos gamma utiliza una técnica llamada radiocirugía estereotáctica que usa múltiples haces de radiación que convergen en tres dimensiones para enfocarse de forma precisa en un volumen pequeño, como un tumor; esto permite administrar dosis intensivas de radiación a ese volumen sin peligro. Los tratamientos con bisturí de rayos gamma se dan en una sola sesión.

Bajo anestesia local, se acopla a la cabeza del paciente, con cuatro tornillos, un rígido marco de cabeza especial que tiene incorporado un sistema de coordenadas tridimensionales. Luego se obtienen estudios por imágenes tal como examen de resonancia magnética nuclear (RMN), tomografía axial computarizada (TAC), o angiografía y los resultados se envían al sistema computarizado de planificación del bisturí de rayos gamma. Juntos, los médicos (radioncólogos y neurocirujanos) y radiofísicos médicos delinean las zonas a tratar y las estructuras anatómicas normales y usan la computadora de planificación para determinar la relación exacta entre éstas y el marco de cabeza, y calculan los parámetros para el tratamiento con bisturí de rayos gamma. Las zonas objetivo a menudo se tratan mejor durante la sesión de tratamiento con una combinación de varias tomas sucesivas, conocidas comúnmente como "disparos" Los médicos y físicos rutinariamente consideran varios ajustes finos de los parámetros de tratamiento hasta determinar el plan y la dosis óptimos.

Rayos Gamma en el universo. La construcción del telescopio MAGIC

En el Universo, todavía existen fuentes de emisión de radiación de alta energía que son totalmente desconocidas. La astronomía gamma, que explora un rango de altas energías antes inalcanzable, está abriendo nuevas ventanas observacionales en el estudio del Universo que nos rodea.

En esta línea, los astrofísicos del Departamento de Astronomía y Meteorología de la UB Josep Mª Paredes, Pol Bordas, Valentí Bosch-Ramon y Marc Ribó inician ahora su colaboración con MAGIC, un ambicioso proyecto de investigación astronómica internacional que detecta la luz producida por la radiación gamma que penetra en la atmósfera.

El profesor Josep Mª Paredes también ha sido nombrado representante del Instituto de Astrofísica de Canarias (IAC) en el órgano superior de toma de decisiones de MAGIC, según la reunión de dicha entidad celebrada en el mes de febrero en el Max-Planck Institut für Physik en Munich (Alemania).

El proyecto MAGIC (Major Atmospheric Gamma-ray Imaging Cherenkov Telescope) hace referencia al telescopio Cherenkov más grande del mundo en la detección de rayos gamma de origen galáctico o extragaláctico. Tiene un espejo de 17 metros de diámetro y un área de 240 metros cuadrados. Inaugurado el 2003, está instalado en el Observatorio del Roque de los Muchachos en Garafía (La Palma). Es un telescopio de alta tecnología para la observación de rayos gamma de alta energía y radiación cósmica en un rango de energías que antes no estaba al alcance de los equipos técnicos. Está previsto que el próximo año entre en funcionamiento el MAGIC-II, un telescopio gemelo ubicado a un centenar de metros del primero.

La construcción de MAGIC ha sido todo un reto, al límite de la tecnología de telescopios Cherenkov convencionales. El telescopio MAGIC, que aporta información complementaria a los telescopios gamma en satélites, es el resultado de una colaboración internacional de diversas universidades e institutos de investigación de todo el mundo.

En España, MAGIC también contará a partir de ahora con la colaboración de la UB, que se sumará a entidades que ya participaban como son la UAB, la UCM, el Instituto de Física de Altas Energías de Barcelona (IFAE) y el Instituto Astrofísico de Canarias (IAC). Los otros países participantes son Alemania, Italia, Finlandia, Polonia, Suiza, Armenia, Rusia y Estados Unidos. España, Alemania e Italia son los principales responsables de la construcción de este instrumento. Los proyectos científicos en los que trabaja MAGIC están relacionados con explosiones de rayos gamma (GRBs), galaxias de núcleo activo y materia oscura y sistemas binarios como los microquásares.

Josep M. Paredes, profesor del Departamento de Astronomía y Meteorología de la UB, fue distinguido con el Premio Ciudad de Barcelona 2000 a la investigación científica por el descubrimiento del primer microquásar emisor de rayos gamma de alta energía en nuestra galaxia (Science, 2000). El profesor Paredes dirige un equipo centrado en el estudio multi-espectral -desde radio a rayos gamma- de objectos compactos de la galaxia desde el punto de vista teórico y observacional.

Para más información chequen http://www.universia.es/html_estatico/portada/actualidad/noticia_actualidad/param/noticia/igfbe.html

Telescopio Fermi toma una imagen de rayos gamma del cielo

La misión del Fermi, Telescopio de Gran Área (LAT), es explorar el universo de altas energías escudriñando todo el cielo en rayos gamma, fotones con unas 50 millones de veces la energía de la luz visible. Este mapa del cielo completo, elaborado a partir de 3 meses de observaciones de LAT (desde el 4 de agosto hasta el 30 de octubre de 2008), representa la imagen más profunda y con mayor resolución del cielo en rayos gamma que cualquier misión espacial anterior.
Este es un link para la imagen tal como fue adquirida por el telescopio Fermi http://antwrp.gsfc.nasa.gov/apod/image/0903/Fermi3month_labeled_2048.jpg

SEM

SEM, Scanning Electron Microscopy, es microscopio que usa electrones en lugar de luz para formar una imagen. Tiene una gran profundidad de campo, la cual permite que se enfoque a la vez una gran parte de la muestra. También produce imágenes de alta resolución, que significa que características espacialmente cercanas en la muestra pueden ser examinadas a una alta magnificación. La preparación de las muestras es relativamente fácil pues la mayoría de SEMs sólo requieren que estas sean conductoras.
En el microscopio electrónico de barrido la muestra es recubierta con una capa de metal delgado, y es barrida con electrones enviados desde un cañón. Un detector mide la cantidad de electrones enviados que arroja la intensidad de la zona de muestra, siendo capaz de mostrar figuras en tres dimensiones, proyectados en una imagen de TV. Su resolución está entre 3 y 20 nm, dependiendo del microscopio. Inventado en 1931 por Ernst Ruska, permite una aproximación profunda al mundo atómico. Permite obtener imágenes de gran resolución en materiales pétreos, metálicos y orgánicos. La luz se sustituye por un haz de electrones, las lentes por electroimanes y las muestras se hacen conductoras metalizando su superficie. Los electrones secundarios se asocian a una señal de TV.

En el microscopio electrónico de barrido es necesario acelerar los electrones en un campo eléctrico, para aprovechar de esta manera su comportamiento ondulatorio, lo cual se lleva a cabo en el cañón del microscopio, donde se aceleran por una diferencia de potencial de 1,000 a 30,000 volts. Los electrones acelerados por un voltaje pequeño son utilizados para muestras muy sensibles, como podrían ser las muestras biológicas sin preparación adicional, o muestras muy aislantes. Los altos voltajes se utilizan para muestras metálicas, ya que éstas en general no sufren daños como las biológicas, y de esta manera se aprovecha la menor longitud de onda para tener una mejor resolución. Los electrones acelerados salen del cañón, y son enfocados por las lentes condensadora y objetiva, cuya función es reducir la imagen del filamento, de manera que incida en la muestra un haz de electrones lo más pequeño posible (para así tener una mejor resolución). Con las bobinas deflectoras se barre este fino haz electrones sobre la muestra, punto por punto y línea por línea.
Cuando el haz incide sobre la muestra, se producen muchas interacciones entre los electrones del mismo haz, y los átomos de la muestra; puede haber por ejemplo, electrones rebotados como las bolas de billar. Por otra parte, la energía que pierden los electrones al "Chocar" contra la muestra puede hacer que otros electrones salgan despedidos (electrones secundarios), y producir rayos X, electrones Auger, etc. El más común de éstos es el que detecta electrones secundarios, y es con el que se hacen la mayoría de las imágenes de microscopios de barrido.
Podemos también adquirir un detector de Rayos X, y aprovechar la característica de que los rayos X tienen la "firma" del elemento que los produjo, y por lo tanto podemos hacer un análisis químico.

espectroscopia de electrones auger

La espectroscoía de electrones Auger ha recibido mayor atención como una herramienta del análisis de superficies durante los últimos años. Su importancia en este campo se ha hecho tan grande que se ha convertido en un método estándar de análisis en la caracterización elemental de superficies sólidas y capas delgadas.


Las razones de esto son:

Ÿ La facilidad de producción de electrones Auger combinado con instrumentos de gran poder en el análisis de electrones.
Ÿ La buena sensibilidad sin grandes diferencias entre los elementos.
Ÿ La ausencia de efectos químicos de primer orden en la mayoría de los casos.
Ÿ La fácil combinación con “sputtering” de iones de gas noble, lo que permite determinar perfiles de profundidad de concentración bien definidos.


La espectroscopía de electrones Auger lleva el nombre de Pierre V. Auger, quien descubrió este tipo especial de electrón en 1923 mientras estudiaba la emisión inducida por la excitación de rayos X en una cámara de niebla Wilson, en donde observó electrones emitidos con energía constante independientemente de la energía de los rayos X.
El ahora conocido como fenómeno Auger se presenta cuando electrones primarios con la suficiente, pero muy alta energía (1-10 KeV) de la pistola de electrones golpean a los átomos del analito, lo que resulta en una ionización de diferentes capas electrónicas. Los electrones de otras capas pueden llenar los estados ionizados y la energía liberada en este proceso puede ser en forma de un fotón (fluorescencia de rayos X) o puede ser transmitida a otro electrón de una capa más lejana, el cual será emitido fuera del átomo y se le conoce como “electrón Auger”.
Así mismo esta espectroscopía puede mostrar el “ambiente” en el que se encuentra un analito en específico. Como es cuando se encuentra formando un enlace metálico, o estando unidos a otros elementos como el oxígeno.
En cuanto a la instrumentación, es básico tener una cámara de vacío, aunque 10-2 Pa son suficientes para que el electrón Auger tengan un desplazamiento libre, niveles menores a 10-7 Pa deben ser mantenidos. Esto es debido a la influencia de las capas de contaminación en los espectros Auger de la muestra gracias a la gran sensibilidad de la AES. Estas capas de contaminación pueden venir de residuos de gas adheridos a la superficie.
La preparación de la muestra depende del propósito del análisis de electrones Auger.

Ÿ Estudio de la composición de las capas externas de la muestra.
Ÿ Estudio de la composición de capas internas de la muestra.
En la espectroscopía de electrón Auger puede haber factores que afecte la cuantificación del análisis.

Ÿ Ángulo de incidencia de los electrones primarios.
Ÿ Ángulo de salida de los electrones.
Ÿ En ocasiones sólidos cristalinos pueden ser anisotrópicos para energías menores a 300 eV.
Ÿ Morfología de la superficie.
Ÿ Estado químico de la muestra.

Además de esto, una desventaja que tiene este tipo de espectroscopias es la dificultad para la interpretación de espectros, ya que el estado final de las moléculas es un estado doblemente ionizado, es decir, con dos huecos electrónicos.

Aplicaciones de Voltamperometría



MUESTRAS AMBIENTALES
La voltamperometría se suele aplicar al análisis de metales residuales
en muestras ambientales, como partículas aerotransportadas, cenizas
volantes de incineradores, rocas, minerales y sedimentos. La principal
aplicación es, sin embargo, el análisis de aguas naturales (subterráneas,
lagos, ríos, torrentes, mar, lluvia, nieve...). Los metales presentes en
concentraciones del orden de las ppb pueden medirse mediante
polarografía de impulsos diferencial, mientras que aquellos presentes en
niveles de ppt pueden analizarse por redisolución anódica.
Una aplicación interesante de la voltamperometría de redisolución
anódica es la determinación de las formas químicas en las que se
encuentran presentes los metales residuales. Esta forma química
determina si un metal es más o menos tóxico, pero la técnica no permite
distinguir estas formas químicas de manera exacta (por ejemplo, Pb2+ y
PbCl+ dan una misma señal). Por lo tanto, los metales residuales se
dividen en una serie de categorías diferentes, con distinto significado
medioambiental.
El esquema de Batley y Florence se basa en combinar la
voltamperometría de redisolución anódica con un intercambio de iones y
radiación UV para dividir a los metales residuales solubles en 7 clases.
1. La voltamperometría a pH acético de 4.8 permite distinguir los
metales lábiles (iones hidratados, débilmente complejados o
débilmente adsobidos). El intercambio iónico y la radiación UV
permite separar estos metales en tres grupos.
2. Los metales no lábiles (o en complejos) se encuentran
fuertemente unidos a un ligando (orgánico o inorgánico), que a su
vez puede estar o no adsorbido sobre otros complejos. La
combinación de una resina de intercambio iónico y la radiación
UV permite dividir estas especies en cuatro categorías.
3. Así, se ha observado que Cd, Cu y Pb se encuentran, en el agua
de mar, principalmente en forma de complejos orgánicos lábiles,
o adsorbidos débilemente sobre coloides orgánicos (grupo II).


Los sensores amperométricos se emplean también en análisis de
muestras medioambientales. El sensor de O2 disuelto se emplea de forma
sistemática para medir el oxígeno disuelto y la demanda bioquímica de
oxígeno (DBO) en aguas corrientes o residuales (una elevada DBO se
corresponde con una elevada presencia de materia orgánica en la muestra,
que puede reducir gravemente la cantidad de oxígeno disuelta en el agua).
Se han desarrollado también sensores para medir surfactantes aniónicos en
aguas y CO2, H2SO4 y NH3 en gases atmosféricos.

Femtoquímica. Las reacciones ultrarápidas

La impaciencia de los químicos por poder seguir reacciones químicas en un detalle más fino ha estimulado el desarrollo de una tecnología cada vez más avanzada. El ganador del premio Nobel, Ahmed Zewail, ha estudiado los átomos y las moléculas en "cámara lenta" durante una reacción y ha visto qué sucede realmente cuando los enlaces químicos se rompen y se crean otros nuevos.

La técnica de Zewail utiliza lo que se podría describir como la cámara fotográfica más rápida del mundo. Ésta utiliza flashes del láser de tan corta duración que están por debajo de las escalas de tiempo en las cuales ocurren las reacciones “los femtosegundos” (10-15 s).

Esta área de la Físico-Química se ha denominado Femtoquímica. Nos permite entender por qué ocurren ciertas reacciones químicas. Podemos también explicar por qué la velocidad y el rendimiento de las reacciones dependen de la temperatura.

Desarrollo de la Femtoquímica

Durante los años 30 se formuló la suposición teórica de que el estado de transición era atravesado muy rápidamente, por lo que nunca sería posible observarlo. Zewail se propuso realizar experimentos sobre estos períodos de tiempo tan cortos. En el final de los años 80 realizó una serie de experimentos que condujeron al nacimiento del área de investigación que se denominó Femtoquímica.

Implementó una cámara fotográfica de alta velocidad para lograr imágenes de las moléculas durante el curso real de las reacciones químicas. La cámara fotográfica fue basada en una nueva tecnología láser que usa flashes de unos diez femtosegundos.

En la espectroscopia del femtosegundo las sustancias originales son mezcladas en forma de haces moleculares en una cámara de vacío. Luego un láser ultrarápido inyecta dos pulsos: primero un pulso de gran alcance o de bombeo que impacta en las moléculas y las excita a un estado de una energía más alta, y luego un pulso, llamado punta de prueba, más débil y en una longitud de onda elegida, permite detectar la molécula original o una forma alterada de la misma. El pulso de bombeo es la señal de partida para la reacción mientras que el pulso punta de prueba examina qué está sucediendo. Variando el intervalo de tiempo entre los dos pulsos es posible ver cómo la molécula original se transforma rápidamente.

¿Qué vieron los químicos cuando la resolución temporal fue sucesivamente mejorada?

El primer éxito fue el descubrimiento de las sustancias intermediarias. Al comienzo, solo se veían los fragmentos moleculares relativamente estables. Cada mejora en la resolución del tiempo condujo a discernir nuevos eslabones en la cadena de la reacción, en la forma de intermediarios con vida cada vez más breve. Lo que permitió la determinación del mecanismo de la reacción.

Las nuevas formas que toma la molécula cuando absorbe y emite luz; pueden servir como huella digital para identificarlas. Para entender mejor qué sucede, la modificación de la huella digital con el transcurso del tiempo se compara con simulaciones teóricas.

Los primeros experimentos

En los primeros experimentos de femtoquímica; Zewail estudió la desintegración del cianuro de iodo:

ICN I + CN

Su equipo consiguió observar un estado de transición exactamente cuando el enlace del I-C estaba a punto de romperse: la reacción completa ocurría en 200 femtosegundos.

Otro tipo de reacción estudiado con la tecnología del femtosegundo es la foto isomerización. La conversión de la molécula de estilbeno, que incluye dos anillos de benceno, entre -las formas cis- y trans- fue observada por Zewail y sus compañeros de trabajo. Con la espectroscopia del femtosegundo los investigadores encontraron que el proceso toma 200 fs.

La investigación llegó a su auge con el estudio de la reacción de apertura de anillo del ciclobutano. La reacción puede proceder a través de un mecanismo en dos etapas; de modo que primero se rompe un enlace y se forma el tetrametileno como intermediario. Después de cruzar otra barrera de activación el tetrametileno se convierte al producto final. Zewail y sus compañeros de trabajo demostraron, con espectroscopia del femtosegundo, que el estado intermediario efectivamente se forma, y que tiene un lapso de vida de 700 fs.

Aplicaciones

En todo el mundo ya se están realizando estudios intensivos que siguen el trabajo de Zewail del femtosegundo. Por ejemplo:

Ø Estados de Transición
Ø En superficies para entender y mejorar los catalizadores.
Ø En líquidos y solventes para entender los mecanismos de disolución.
Ø En polímeros para desarrollar nuevos materiales para el uso en electrónica molecular.
Ø En variados sistemas biológicos.
Ø Reacciones de Isomerización
Ø Diels-Alder
Ø Reacciones de Norrish I y II
Ø Reacciones de sustitución nucleofílica
Ø Reacciones de Eliminación
Ø Intermedirios de Reacción
Ø Reacciones de Tautomerización
Ø Reacciones ácido-base
Ø Transferencias de Hidrógeno
Ø Reacciones de Isomerización
Ø Reacciones complejas de Van der Waals
Ø Dinámicas de fases


Bibliografía

A.H. Zewail "The Birth of Molecules" Scientific American December 1990 p 40-46. Versión en castellano El nacimiento de las Moléculas Investigación y Ciencia (1991).

Kim, Nam Joon, Zewail. Femtosecond dynamics of solvated oxygen anions II. Nature of dissociation and caging in finite-sized clusters. Journal of chemical physics (2003) volume 118, number 15, 6930-6940.

Nobel Symposium: Femtochemistry & Femtobiology: Ultrafast Reaction Dynamics at Atomic Scale Resolution (Editor: V. Sundström) World Scientific, Singapore 1996.

V.K. Jain "The World's Fastest Camera" The World and I, October 1995 p
156-163.

http://www.lanais.famaf.unc.edu.ar/ZEWAILenCORDOBA/prensaZEWAIL.pdf

http://nobelprize.org/nobel_prizes/chemistry/laureates/1999/chemfig1l99.gif

http://media.iupac.org/publications/pac/2000/pdf/7212x2219.pdf

http://www.zewail.caltech.edu/


Para darse una idea del fundamento de este nuevo método ve el siguiente video que es muy ilustrativo y que se expone en el museo nobel

Espectroscopía Mösbauer

En 1957, Rudolph Mössbauer (Alemania, 1929) descubrió el efecto que hoy lleva su nombre y que lo hizo merecedor al Premio Nobel en Física en 1961. El efecto Mössbauer no es más que la absorción nuclear resonante de la radiación emitida por un núcleo.
En un experimento Mössbauer se obtiene un espectro de energías de los núcleos de un determinado isótopo en un material sólido. Se envían hacia la muestra rayos gamma modulados en energía y se registra la intensidad de radiación gamma transmitida en función de su energía. Sin embargo pocos núcleos se han podido lograr estudiar con esta espectroscopía y en la actualidad la mayoría de equipos se centran en el estudio de los núcleos de 57Fe, que además de ser un elemento fundamental como componente de materiales con aplicaciones magnéticas y estructurales también tiene una gran importancia en muchas moléculas biológicas.

En cuanto a sus aplicaciones en el campo científico podemos mencionar las siguientes:

En química: información sobre los estados de oxidación y espín, de la influencia de la electronegatividad de otros tipos de átomos coordinados con el Fe así como de las geometrías de les moléculas que contienen átomos de Fe.

En magnetismo: conocer las propiedades magnéticas de los diferentes iones Fe de un material: momentos magnéticos de los núcleos de Fe, campos magnéticos efectivos en el núcleo y densidades de espín electrónico. Se obtiene, así, información sobre el magnetismo de la muestra a nivel macroscópico.

En muestras biológicas: estudiar biomoléculas que contengan Fe en su centro activo

En muestras geológicas: identificar los diferentes compuestos de Fe presentes en una muestra desconocida ya que cada uno de ellos presenta un espectro Mössbauer característico.

Otras aplicaciones: estudio de procesos de difusión y de las propiedades dinámicas de la red.

El diseño de un espectrómetro Mösbauer consta por lo general de los siguientes componentes:

1. Fuente Mössbauer de 57Co (radiación gamma) [montada sobre un transductor].
2. Servosistema de movimiento.
3. Absorbedor o muestra.
4. Horno o crióstato.
5. Detector.
6. Sistema de amplificación.
7. Tarjeta de multicanal.
8. Computadora.

La muestra que se quiere estudiar se debe situar entre el emisor y el detector. En muchos casos, para obtener unos buenos resultados hay que hacer las medidas a baja temperatura. Por esta razón es necesario situar la muestra dentro de un criostato especial con ventanas para permitir el paso de la radiación de la fuente al detector.
En cuanto a las ventajas y desventajas que muestra este tipo de espectroscopía podemos mencionar las siguientes:
- Posibilidad de miniaturización.
- Posibilidad de introducir todo el espectrómetro dentro de un criostato convencional, incluso con imanes superconductres.
- Aumento de la tasa de cuentas de rayos g para una misma actividad de la fuente radioactiva.
- Posibilidad de medir cantidades de muestra muy pequeñas (ej. metaloproteínas, monocristales).
- Disminución del efecto geométrico debido a la alta frecuencia de vibración de la fuente.
- La única desventaja es la no linealidad del piezoelectrico a temperatura ambiente (que se está corrigiendo numéricamente), aunque este efecto desaparece a baja temperatura.
Como conclusión podemos decir que la espectroscopia de Mössbauer aunque es limitada en cuanto al tipo y número de núcleos que puede utilizar representa una herramienta de gran utilidad para la determinación y/o caracterización de sistemas portadores del átomo de hierro, principalmente. Sin duda acoplada con algún otro tipo de espectroscopía podrá brindar mayor información al sistema que se encuentra en estudio.
Bibliografía
Molins, E. La espectroscopia Mössbauer. [En línea] Consultado el 24 de Abril de 2009. Disponible en: http://www.icmab.es/dciqes/lcdrx/lcdrx_esp/lineas_d_down.htm#

Marquina, Vivianne y Raúl Gómez. ESPECTROSCOPÍA Mössbauer. [En línea] Consultado el 24 de Abril de 2009. Disponible en: http://sistemas.fciencias.unam.mx/~fam/EsMossb.pdf

NNDB. Rudolf Mössbauer. [En línea] Consultado el 24 de Abril de 2009. Disponible en: http://www.nndb.com/people/824/000099527/
Nota aclaratoria: Este es un trabajo en conjunto con mi compañero Fernando Aguilar, miembro distinguido de este blog, por lo cuál pido que su participación también sea contada. Gracias.

Wednesday, April 29, 2009

Nuevo sensor electroquímico de cloro

Cuando bebemos un vaso de agua del grifo ingerimos también una pequeña cantidad de lejía. La lejía, con su contenido en cloro, es necesario para desinfectar el agua que bebemos, pero en altas dosis podría intoxicarnos. Por ello es importante que las herramientas que detectan la cantidad de cloro en el agua sean fiables. Investigadores del Centro Nacional de Microelectrónica (CNM) de la Universidad Autónoma de Barcelona han creado un chip que permite verificar con exactitud y de manera contínua la cantidad de cloro en el agua. Las ventajas de este novedoso método electroquímico lo anteponen a los métodos tradicionales.

El cloro es el agente desinfectante de uso más extendido
En agua se utiliza el hipoclorito (ClO-, lejía), para evitar el crecimiento bacteriano y garantizar así la potabilidad. Sin embargo, debido a su alta toxicidad, el cloro debe emplearse a muy bajas concentraciones y su control es crítico para evitar intoxicaciones. Actualmente en España el nivel máximo permitido de cloro libre en aguas potables es de 1 mgL-1 (19.4 mmol L-1). Por lo tanto, son necesarias herramientas fiables que permitan su seguimiento continuo.

El método de referencia que se utiliza actualmente para detectar y cuantificar cloro en agua es óptico consiste en medir el cambio de color que tiene lugar, de incoloro a rosado, al añadir un reactivo (N,N-dietil-p-fenilendiamina o DPD) a una muestra con cloro. Este método resulta muy sensible y preciso, pero tiene sus desventajas. Primero, no permite medir de forma contínua. Segundo, genera residuos y tercero supone una serie de costes de mantenimiento, desde los reactivos necesarios hasta el tiempo necesario para reponer estos reactivos o la reparación de averías en algún componente del analizador.

En contraposición a lo anterior, también pueden utilizarse métodos electroquímicos para medir el nivel de cloro en agua. La electroquímica estudia, principalmente, reacciones de oxidación y reducción sobre la superficie de un electrodo, que normalmente es una pieza de metal. La electroquímica presenta ventajas como: no necesitar reactivos adicionales, permitir trabajar en continuo y ser poco contaminante. El cloro, que es un fuerte agente oxidante, se reduce en la superficie del sensor cediendo dos electrones.
Así, fijando el potencial eléctrico del sensor adecuadamente, se puede medir una corriente directamente proporcional a la concentración de cloro presente en el medio. Hemos desarrollado un sensor (ver figura 1) capaz de detectar cloro a partir de 0.08 mgL-1. Se han llevado a cabo pruebas en instalaciones industriales donde se ha podido seguir con éxito el nivel de cloro durante 24 horas al día a lo largo de más de un mes. Aplicando una novedosa función de potencial sobre un electrodo de oro se ha conseguido medir cloro de una forma más fiable y durante más tiempo que con un sensor convencional.
Bibliografía:

El mundo de los nucleos atómicos

Decaimiento radiactivo, núcleos que se expresan

En la naturaleza, casi todos los núcleos atómicos son inestables. De las más de dos mil variedades que se conocen, el 90 por ciento decae o se desintegra, y en ese proceso emiten algún tipo de radiación, que conforme ha avanzado el conocimiento se le ha clasificado, por ejemplo, en radiación alfa, beta o gamma, explican los especialistas del Departamento de Física Experimental del IF-UNAM.
El decaimiento radiactivo es la manera en que un núcleo emite radiación de cualquier tipo, principalmente en forma de partículas, y se transforma en otro diferente. Esta radiación es la que los físicos registran y analizan, y gracias a su estudio se conocen detalles finos de los núcleos atómicos y se avanza en el conocimiento acerca de la estructura atómica y nuclear.
Desde el descubrimiento de la radiactividad alcanzada hace poco más de un siglo por Bequerel y los esposos Pierre y Marie Curie, se conoce la desintegración del núcleo de ciertos elementos con emisión de radiación, que forman otro elemento. Sin embargo, el reto para los científicos universitarios era conocer y experimentar con un nuevo tipo de decaimiento radioactivo, que aporte nuevo conocimiento básico sobre el tema.
En la actualidad son múltiples las aplicaciones que tienen las ciencias nucleares: se irradian alimentos y medicinas, se esterilizan lo mismo materiales de laboratorio que obras de arte, y se realizan diversos estudios médicos utilizando materiales radiactivos. Sin embargo, persisten dudas fundamentales sobre cómo son los núcleos atómicos. Así, mediante el desarrollo de un método llamado "de blanco grueso", María Esther Ortíz Salazar y Efraín Chávez Lomelí han despejado una parte del camino dirigido a generar nuevo conocimiento básico en ese terreno de la física experimental.

Venus se muestra viva en longitudes de onda no visibles


Imágenes procedentes de los instrumentos a bordo de la sonda ‘Venus Express" de la ESA nos ofrecen una visión de la turbulenta atmósfera de nuestro planeta vecino.


‘Venus Express" nos da la posibilidad de comparar la apariencia del planeta en diferentes longitudes de onda, ofreciendo a los científicos una herramienta poderosa para el estudio de las condiciones físicas y dinámicas de la atmósfera del planeta.
En el ultravioleta, Venus muestra numerosas características con fuerte contraste, cuyo origen está en la no homogénea distribución de un compuesto químico misterioso en la atmósfera que absorbe la luz ultravioleta, creando las zonas brillantes y oscuras.


En el ultravioleta se resalta la estructura de las nubes y las condiciones dinámicas de la atmósfera, mientras que el infrarrojo da información sobre la temperatura y altitud de la parte superior de las nubes.
Con los datos de ‘Venus Express" los científicos han aprendido que las zonas ecuatoriales de Venus que aparecen oscuras en el ultravioleta son regiones con temperatura relativa alta, donde la intensa convección asciende material oscuro de abajo. En contraste, las regiones brillantes en latitudes medias son zonas donde la temperatura de la atmósfera desciende con la profundidad.


La temperatura alcanza un mínimo en la parte superior de las nubes, donde deja de existir corrientes y mezclas verticales. Este anillo de aire frío, denominado ‘anillo frío", aparece como una banda brillante en las imágenes en el ultravioleta.
Las observaciones en el infrarrojo se han utilizado para mapear la altitud de la parte superior de las nubes. Sorprendentemente, tanto las nubes de los trópicos oscuros como las latitudes medias brillantes se sitúan sobre la misma altura, unos 72 km.


Este estudio, llevado a cabo por D. Titov y colaboradores, ha revelado que la variabilidad de las temperaturas y las condiciones dinámicas de la parte superior de las nubes de Venus son la causa del patrón global observado en el ultravioleta.
Sin embargo, sigue siendo un misterio cuáles son los compuestos químicos que producen este alto contraste entre la zona, aunque prosigue la investigación.


Los resultados del estudio aparecen en el artículo ‘Atmospheric structure and dynamics as the cause of ultraviolet markings in the clouds of Venus" de D. Titov y colaboradores, publicado en la edición del 4 de Diciembre 2008 de la revista ‘Nature".

Rayos X permite leer libros antiguos sin abrirlos...

Los secretos que esconden frágiles textos ancestrales podrán ser revelados con rayos de luz 10.000 millones de veces más brillantes que el Sol.
La técnica se sirve de una nueva herramienta británica, el Sincrotrón de Diamante, y se podrá utilizar en textos como los Pergaminos del Mar Muerto o las partituras de Bach.
Los intensos rayos de luz que genera el instrumento le permitirán a los científicos revelar el contenido de libros sin tener que abrirlos y, eventualmente, dañarlos.
Algunas de las tintas hechas con extractos vegetales y sales de hierro utilizadas en el Siglo 12 deterioran el tipo de pergamino utilizado, imposibilitando la lectura de documentos valiosos.
El pergamino, hecho de delgadas fibras provenientes de la piel de vacas, ovejas o chivos, contienen colágeno, sustancia que reacciona ante la tinta de hierro convirtiéndose en gelatina.
Cuando está seca es muy frágil y cuando se humedece se transforma en una especie de crema que destruye los documentos si se manipulan.
Desenrollando pergaminos
Pero científicos de la Universidad de Cardiff han desarrollado una técnica que utiliza poderosos rayos X y que, a su vez, generan una imagen tridimensional de los textos escritos con tinta de hierro.
A partir de allí se utiliza un algoritmo computarizado para separar lo que se reproducen en varias capas, de esta manera, literalmente, emplean el programa para desenrollar un rollo.
Tim Wess, el especialista que estuvo a cargo de la investigación se refirió al hallazgo así: "Hemos doblado un pedazo de papel y después lo hemos sometido a una tomografía de rayos X. Hemos sido capaces de recuperar la parte del documento en dónde se pueden ver las letras que están en el texto".
El Sincrotrón de Diamante, una instalación del tamaño de cinco campos de fútbol, genera rayos de luz que permiten ver átomos y moléculas.
Wess explicó que "las cartas tienen tinta de hierro, así que si se atraviesan con rayos x se obtiene una imagen similar a la de los huesos cuando son sometidos a esta tecnología".
"Esto es algo -añadió- que podemos hacer con el Diamante, tratar de revelar los secretos de aquellos documentos que tenemos miedo de abrir".
La lista de los deseos
El equipo investigador probó la técnica en varios textos del Siglo 18 donados por los Archivos Nacionales y que nunca se han abierto porque se quemaron.
Pero los especialistas tienen planes para hacer más pruebas.
"Hay partes del los manuscritos del Mar Muerto que todavía no se han estudiado", indicó Wess.
El experto comentó que el objetivo del proyecto era poder leer obras literarias sin tener que tocarlas. También que el sistema es más efectivo en pergaminos enrollados, los libros gruesos y los papeles planos son un reto.
"Hay libros que se han dañado por la corrosión de la tinta de hierro y, por esta razón, los conservadores temen abrirlos".

Fuente: http://news.bbc.co.uk/hi/spanish/science/newsid_6993000/6993663.stm

Microscopio Mi Alegría



El microscopio de electrones más avanzado del mundo, capaz de ver el espacio entre átomos, fue presentado en Canadá.


El instrumento acaba de ser instalado en el nuevo Centro Canadiense para Microscopía Electrónica de la Universidad de McMaster.
Según sus creadores, el Titán 80-300 Cubed tiene una resolución equivalente a la del telescopio espacial Hubble.
Pero en lugar de ver a las estrellas y los astros, escrutará átomos en la Tierra.
"Somos la primera universidad del mundo que cuenta con un microscopio de este alto calibre" afirmó Gianluigi Botton, director del Centro Canadiense.
"Con este microscopio podremos ahora identificar fácilmente átomos, medir su estado químico e incluso analizar los electrones que los unen", señaló.


Alta sensibilidad


El Titán 80-300 Cubed fue instalado en un cuarto estable especialmente diseñado, capaz de soportar vibraciones ultrabajas, los sonidos más débiles, y fluctuaciones mínimas de temperatura.

Debido a que este microscopio es el último límite de lo que la física nos permite ver -expresó Botton- incluso la respiración cerca del aparato puede afectar los resultados".
El instrumento será operado desde un cuarto separado para asegurar que los resultados son de la mejor calidad.
Los científicos creen que la capacidad del Titán para analizar la estructura de materiales sólidos a nivel atómico tendrá un impacto en el desarrollo de nuevas tecnologías, desde biomedicina hasta energía.
En principio, afirmaron los investigadores, el instrumento podrá examinar a nivel "nano" cientos de productos que usamos en la vida diaria.
El objetivo será entender, manipular y mejorar su eficiencia. Por ejemplo se le podrá usar para producir luz más eficiente y mejores celdas solares.


Investigación de materiales


Se espera que el Titán sirva también para estudiar proteínas y materiales para suministro de fármacos para combatir tumores cancerosos de manera más precisa.
Y también para crear materiales más ligeros y resistentes e instrumentos de almacenamiento de memoria con mayor densidad.
Tal como señalan los expertos, el campo de la microscopía está avanzando a un ritmo acelerado.
Así que quizás no será de extrañar que en los próximos meses veamos la presentación de un aparato más avanzado que éste.
El Titán fue construido en Holanda por la Compañía FEI con un costo de US$15 millones.
Y el proyecto fue financiado por la Fundación Canadiense para la Innovación, el Ministerio de Investigación e Innovación de Ontario, la compañía FEI y la Universidad McMaster.



Raman vs las caries...

BBC / Reino Unido.- El fin del temido taladro del dentista podría llegar en cinco años, ya que hay una nueva tecnología británica que, de manera preventiva, detecta las caries el momento en que se inician.
Se trata de la espectroscopía de Raman, que es una técnica de alta resolución que —en pocos segundos— puede proporcionar información química y estructural de casi cualquier material o compuesto orgánico o inorgánico, entre ellos los dientes.
El hecho de descubrir las caries en su etapa inicial evitaría al dentista tener que taladrar y empastar la pieza, y al paciente dejar de temer a ese instrumento cuando se le hallen caries.
La caries dental es causada por una infección bacteriana que destruye los tejidos duros del diente. Esta destrucción ocurre debido a la desmineralización en la pieza, que genera la placa bacteriana que se adhieren a los dientes. Crear la cavidad en el diente dañado con el taladro debilita para siempre la pieza, aunque luego se la remineralice.

Cómo se detecta caries
Los investigadores encontraron que los cambios químicos que produce una caries pueden manifestarse en la forma cómo la luz se distribuye cuando un rayo láser es dirigido al diente.
Así se puede identificar los dientes sanos de los que tienen caries, porque la bacteria hace que la luz se distribuya de forma diferente en un diente dañado. Actualmente las caries se descubren ya sea por medio de la revisión visual o con el uso de rayos X.
Pero a menudo, cuando una caries está localizada en una pieza, ya es tarde porque el área dañada debe perforarse. Con la nueva técnica sería posible reparar el diente con un lavado dental especial o una capa de flúor.
La nueva tecnología, que según afirman los científicos en la revista Chemistry & Industry (C&I), podría estar disponible en unos cinco años y está basada en la espectroscopía de Raman.
Este método se utiliza comúnmente para distinguir entre diferentes tipos de sustancias químicas identificando las “huellas digitales” únicas de cada molécula.

El temor al taladro
Uno de los beneficios que este descubrimiento traerá es, según los especialistas, que se elevará el número de población que demande los conocimientos del dentista.
Aunque no se manejan cifras exactas, los científicos están seguros que muchos problemas dentales y bucales se desarrollan porque la gente le teme al taladro dental y prefiere no hacerse una revisión anual de su estado bucal.
El problema mayor no es la perforación dental, que en la mayoría de los casos suele efectuarse con anestesia local, sino el sonido que el taladro emite, mientras el paciente está inmovilizado. A ello se suma una saga de la película de terror “El Dentista”, donde el consultorio del especialista era escenario de múltiples torturas físicas.
Los científicos planean ahora llevar a cabo un estudio más amplio al utilizar más muestras dentales y esperan continuar posteriormente con los ensayos clínicos humanos.

Fuente: news.bbc.co.uk

Rastreo de la transferencia de energía molecular de la fotosíntesis usando espectroscopia electrónica

La investigación la ha llevado a cabo un grupo de expertos del Lawrence Berkeley National Laboratory (Berkeley Lab) y de la Universidad de California en Berkeley.
Graham Fleming, Subdirector del Berkeley Lab, y reputado especialista en estudios espectroscópicos del proceso fotosintético, está convencido de que este nuevo método resultará ser una herramienta revolucionaria para estudiar el flujo de energía en sistemas complejos donde múltiples moléculas interactúan fuertemente. Usando espectroscopia electrónica de dos dimensiones, es posible trazar un mapa del flujo de energía de excitación a través del espacio con resolución espacial del orden de nanómetros, y resolución temporal del orden de femtosegundos.
La espectroscopia electrónica de dos dimensiones implica irradiar secuencialmente una muestra con luz de tres rayos láseres, de 50 femtosegundos de duración, mientras que un cuarto rayo es usado como oscilador local para amplificar las señales espectroscópicas resultantes.
Esta técnica también sería útil en los estudios dirigidos a mejorar la eficiencia de células solares moleculares.
Fleming y sus colegas usaron la espectroscopia electrónica 2-D para registrar la primera medida directa de acoplamientos electrónicos en la proteína fotosintética FMO (Fenna Matthews Olson), un complejo molecular en bacterias verdes del azufre, que absorbe fotones y dirige la energía de excitación hacia un centro de reacción donde puede ser convertida en energía química
La FMO es un sistema modelo para estudiar la transferencia de energía en el proceso fotosintético porque es relativamente simple (consistente en sólo siete moléculas de pigmento) y su química ha sido adecuadamente caracterizada.
A través del proceso fotosintético, las plantas verdes y cianobacterias pueden transferir energía lumínica del Sol y convertirla en energía química con una eficiencia de casi el 100 por ciento. Aprender a emular la técnica de la naturaleza para crear versiones artificiales de la fotosíntesis, permitiría obtener energía solar limpia, eficiente y sostenible.
La naturaleza ha diseñado uno de los sistemas más efectivos para aprovechar la luz, en pasos que se suceden tan deprisa que la energía no se desaprovecha como calor. Sin embargo, los sistemas actuales de energía solar creados por el Hombre, no siguen el modelo de la naturaleza.
Emular la fotosíntesis natural requerirá una mejor comprensión de cómo la energía es transferida desde moléculas de pigmentos que absorben luz, hacia moléculas que forman los centros de reacción que convierten la energía.

Tuesday, April 28, 2009

Nucleus Independent Chemical Shifts

Los ciclos que presentan ya sea aromaticidad o anti-aromaticidad de cualquier tipo, poseen una propiedad magnética llamada corriente anular. En un sistema cíclico deslocalizado, los electrones no están fijos en un enlace químico y circulan alrededor del anillo, y cuando se aplica un campo magnético externo (B0) perpendicular al plano molecular, se genera un campo magnético inducido (Bind) en la molécula al que se le conoce como corriente anular. Este hecho juega un papel importante en la espectroscopía de resonancia magnética nuclear de moléculas orgánicas, ya que se observa que los hidrógenos o carbonos que forman parte de un anillo aromático resuenan a campo bajo. La razón detrás de este hecho es que la dirección del Bind es paralela al B0 en la periferia y el exterior del anillo, lo que refuerza el campo aplicado y hace que los núcleos resuenen a frecuencias más bajas. Por el contrario, en el centro del anillo, la dirección de la corriente es antiparalela al B0. Los efectos de esto último se observan en anulenos aromáticos más grandes como el [18]-anuleno que tiene hidrógenos orientados hacia el interior del anillo. El [18]-anuleno es aromático, y su espectro de 1H-RMN consiste de una señal a campo bajo, aproximadamente en δ 9 y otra a campo más alto que el TMS en aproximadamente δ -3. La señal con desplazamiento químico negativo corresponde a los hidrógenos del interior del anillo, y resuenan a frecuencias superiores debido a la protección de la corriente anular que se opone a B0. Los anillos anti-aromáticos también presentan una corriente anular pero en dirección opuesta a la aromática, es decir los protones externos están más protegidos y los internos desprotegidos. Por esto a las corrientes aromáticas se les llama diatrópicas y a las anti-aromáticas se les llama paratrópicas.



Las propiedades magnéticas han sido una parte importante en el estudio de anillos aromáticos, tanto orgánicos como inorgánicos, mientras exista un sistema deslocalizado, la naturaleza de los átomos es secundaria, pero no por ello irrelevante. La RMN se ha convertido en un criterio importante para determinar la aromaticidad de una molécula, pero han surgido otras variantes que han permitido estudiar sistemas inorgánicos. La RMN de 7Li fue un criterio importante para probar la aromaticidad. Se preparaban complejos con Li+ y el anillo como un ligante en coordinación η y se obtenía el espectro de RMN de Li. Como el litio se coordina en el centro del anillo, su desplazamiento químico es negativo si el ligante es aromático y positivo si es anti-aromático. Sin embargo, este método no es una prueba definitiva de aromaticidad ya que la coordinación al átomo de litio inevitablemente altera la función de onda del anillo, lo que implica un cierto grado de error.

En 1996, Paul von Ragué Schleyer y su equipo introdujeron un método para determinar la aromaticidad de una molécula al que nombraron Nucleus Independent Chemical Shifts (NICS). Este método toma la idea planteada en la RMN de Li, pero en lugar de utilizar un átomo real se ocupa un átomo prueba colocado en un punto preestablecido y se mide el grado de protección absoluto que ejerce la corriente anular en dicho punto, en lugar del desplazamiento químico. Evidentemente se trata de un método computacional y por convención con la espectroscopía de RMN se reporta el negativo del valor calculado, y la posición generalmente es el centro del anillo. De esta forma, los anillos aromáticos presentan valores de NICS negativos, los anti-aromáticos tienen valores positivos y los no aromáticos tienen valores cercanos a cero. Al ser un método teórico, se tomó con mucho escepticismo al principio, pero al relacionarlo con otros índices de aromaticidad como HOMA y ARCS y evidencia experimental, NICS se ha convertido en uno de los criterios más importantes para la determinación de la aromaticidad. Poco a poco, se han hecho mejoras al método de NICS original. Por ejemplo, se ha encontrado que si se calcula el valor de NICS justamente al centro del anillo, la aromaticidad σ influye en el resultado, por eso se empezó a utilizar más el cálculo a 1 Å arriba del plano molecular, al que se le llama NICS (1). También se han combinado otros métodos con NICS para calcular la aromaticidad σ y π exclusivamente, lo que ha sido de gran ayuda en la determinación de la aromaticidad neta en anillos con aromaticidad múltiple. Una de las desventajas de este método es que no se puede calcular la aromaticidad completa de una molécula policíclica, pero se puede calcular un valor de NICS para cada anillo. Modificaciones más recientes han permitido calcular valores más precisos mediante cálculos de las contribuciones dentro y fuera del plano molecular formando una matriz de puntos que dan una idea más general de la aromaticidad o anti-aromaticidad. A pesar de esto, NICS está limitado a anillos planos o un poco torcidos, y cuando se ocupa para calcular la aromaticidad en sistemas esféricos, como fulerenos o boranos superiores, los valores no son consistentes. Para estos últimos casos se han desarrollado nuevos índices y modificaciones al método original de NICS.




Referencias

Nucleus-Independent Chemical Shifts (NICS): Distance Dependence and Revised Criteria for Aromaticity and Antiaromaticity. Amnon Stanger. J. Org. Chem., 2006.

Nucleus-Independent Chemical Shifts: A Simple and Efficient Aromaticity Probe. Paul von Rague´ Schleyer, Christoph Maerker, Alk Dransfeld, Haijun Jiao, and Nicolaas J. R. van Eikema Hommes. J. Am. Chem. Soc. 1996.

Nucleus-Independent Chemical Shifts (NICS) as an Aromaticity Criterion. Zhongfang Chen, Chaitanya S. Wannere, Clmence Corminboeuf, Ralph Puchta, and Paul von Ragu Schleyer. Chem. Rev., 2005.

Avisos cursos QC440 y QC203

Estén pendientes de avisos en el blog y en el portafolios referentes a estos cursos de Primavera 2009. Envíen a mi correo institucional (con copia a mmendezrojas@gmail.com) sus trabajos finales (reportes y presentaciones en Power Point) que teníamos pendientes de presentar esta semana. Los evaluaré de manera personal. También por favor súbanlos al Portafolios (en la medida de lo posible) para que el resto del grupo pueda leerlos y consultarlos. Suban una versión abreviada de sus reportes al blog para que sus compañeros los comenten (cada quien debe hacer un comentario al menos, que forma parte de la evaluación personal de este último trabajo).
Cualquier pendiente, estoy en contacto a través del correo electrónico.
El jueves recibirán por correo electrónico el tercer examen parcial (para casa) de ambos cursos, para ser entregado a mas tardar el viernes antes de las 10:00 de la mañana.
Suerte!

Fuel-Cell Tanks Buck Convention

Mark Anderson 05/16/05

On the road to petroleum independence and greenhouse-gas reduction, the old internal combustion engine will someday need to be scrapped. That will only occur when the alternative -- most likely the hydrogen-powered fuel cell -- is as cheap and convenient to use as the conventional automobile is today.

It's perhaps the toughest challenge in fuel-cell research: designing a safe, lightweight and compact hydrogen fuel tank. Two recent papers, published in the April 22 and May 6 issues of the journal Physical Review Letters, find the most promising hydrogen storage medium is in something called carbon nanostructures.
Just as the semiconductor revolution became possible when wafers of silicon were doped with other elements, the hydrogen revolution could be realized with the help of tiny balls or tubes of carbon decorated with periodic defects in their structure. Those defects are metallic elements that attract hydrogen to the nanostructures like Velcro. In the May 6 paper, the hypothesized fuel tank would be filled with carbon nanotubes coated with the metal titanium. The April 22 paper proposes a structure involving carbon buckyballs and another metal such as scandium.
In both cases, the experience of gassing up the car would be similar to today, although the microscale goings-on would be markedly different. The driver would pump hydrogen gas into a tank of comparable size to automobile gas tanks today. The grid of coated nanotubes or buckyballs inside the tank would then soak up the hydrogen, incorporating the fuel into the structure of the tank itself. When the car was turned on, the engine would suck on the hose connecting to the tank, causing the hydrogen to dislodge from its temporary storage and float into the fuel cell to be converted into electricity and water vapor. (The nanotube tank would also require some extra heating to coax the hydrogen into the engine.)
The upside is that the tank would theoretically hold enough hydrogen to power the car for as much as 300 miles of driving. And the gaseous hydrogen would never be at high enough pressures or concentrations to cause any safety concerns. No Hindenburg issues here.
The downside is that both ideas are only in the most preliminary of phases. Depending on how the actual chemistry, physics and engineering play out, that 300 miles between refueling stops could in reality turn out to be only 150 or 100 miles. And the price of such a car is anybody's guess.
"I'm not absolutely sure that hydrogen will ever be exactly the same as gasoline," said Anne Dillon of the National Renewable Energy Laboratory, one of the co-authors of the buckyball paper. "People might have to relax a little bit and refuel a little more often to save the planet."
Both papers, funded by grants from the Department of Energy, are theoretical and computational simulations. Neither team has made the nanostructures envisioned, although both have now taken their quest to the lab to try fabricating the materials proposed.
"This system is so clean -- it's carbon, hydrogen and a very simple metal," said Taner Yildirim of the National Institute of Standards and Technology, co-author of the nanotubes paper. "So the theory is very powerful."
Dillon, an experimental chemist in a team of theoretical physicists, relishes the challenge ahead. "This is the first time in my career where I've finally thought that this could work," she said.
"It makes physical sense. The physicists believe it, and the chemists believe it. Physicists can predict something, and a chemist can look at it and say, 'No way in hell can I make this.' But this time, I feel like it might be possible."
Regardless of how feasible these latest two proposed nanostructures ultimately prove to be, Mildred Dresselhaus of MIT noted that both teams are pioneering a promising new field that could ultimately enable a hydrogen-fueled future.
"What we have said in the past is that some kind of defect in a nanostructure would be the right way to go," she said, "because both (the defect and the carbon nanostructures) are needed for changing the equation."

Las ondas de gravedad generan tornados

Un investigador de la NASA, veterano de los pronósticos del tiempo, ha desarrollado un modelo para investigar la interacción de las ondas de gravedad con las tormentas severas.
Marzo 19, 2008: ¿Sabía que existe un nuevo tipo de alimento para el desayuno que ayuda a los meteorólogos a predecir tormentas severas? En el sur de Estados Unidos lo llaman "GrITs". (N. del T.: En este juego de palabras, la autora se refiere a los "grits": alimento hecho con harina de maíz, un plato típico de esa región.)
GrITs es la sigla en inglés de Gravity wave Interactions with Tornadoes o Interacción de Ondas de Gravedad con Tornados. "Es un modelo por computadora que desarrollé para estudiar cómo interactúan las ondas de gravedad atmosféricas con las tormentas de gran intensidad", dice el investigador en meteorología Tim Coleman, del Centro Nacional de Ciencias Espaciales y Tecnología (National Space Science and Technology Center, en idioma inglés), en Huntsville, Alabama.
Según Coleman, las interacciones entre las ondas y las tormentas son muy importantes. Si una onda de gravedad golpea a una tormenta en rotación, puede ocasionalmente hacerla girar más rápido, convirtiéndola de este modo en un tornado.
¿Qué es una onda de gravedad atmosférica? Coleman lo explica: "Son similares a las olas que vemos en la superficie de los océanos, pero en vez de surcar las aguas, lo hacen en el aire. La gravedad es lo que las impulsa. Si empujamos agua hacia arriba y ésta cae, se generan olas. Lo mismo sucede en el aire".
Coleman dejó su trabajo de anunciador del pronóstico del tiempo en un canal de televisión en Birmingham para dedicarse a su doctorado en ciencias de la atmósfera, en la Universidad de Alabama, en Huntsville. "Me estoy divirtiendo", dice, y su sonrisa y su entusiasmo hacen ver que así es realmente.
"Se pueden ver ondas de gravedad por todos lados", continúa diciendo. "Cuando conducía mi automóvil hacia el trabajo esta mañana, vi algunas ondas en las nubes. A veces incluso pienso en la dinámica de ondas en el agua cuando voy a pescar".
Las ondas de gravedad se originan cuando un impulso perturba la atmósfera. Un impulso puede ser, por ejemplo, un viento cortante, una corriente de aire ascendente o un cambio repentino en la corriente en chorro. Las ondas de gravedad generan olas de aire a partir de estas alteraciones, como las ondas que se propagan al arrojar una piedra en una laguna.
Cuando una onda de gravedad empuja con fuerza sobre una tormenta en rotación, la comprime. Esto, a su vez, hace que la tormenta gire más rápido. Para entender por qué esto es así, Coleman da el ejemplo de una patinadora de hielo que gira con sus brazos extendidos. "Cuando junta los brazos hacia el pecho, comienza a girar más rápido". Lo mismo sucede con las tormentas: cuando las ondas de gravedad las comprimen, giran más rápidamente para conservar el momento angular.
"También hay vientos cortantes en una onda de gravedad y la tormentas pueden tomar ese viento cortante, inclinarlo y usarlo para incrementar su velocidad de giro. Todos estos factores pueden incrementar la rotación de la tormenta, haciéndola más poderosa y más susceptible de generar un tornado".
"Ya hemos visto al menos un caso de un tornado en tierra (en Birmingham, Alabama, el 8 de abril de 1998) que pudo haberse vuelto más intenso al interactuar con una onda de gravedad".
Coleman también indica que las ondas de gravedad en algunas ocasiones se desplazan en grupos y que, con cada onda que pasa, algunas veces el tornado o la tormenta en rotación crecerá e incrementará su intensidad.
Tim y su jefe, el Dr. Kevin Knupp, están comenzando a enseñar a los meteorólogos del Servicio Meteorológico Nacional (National Weather Service, en idioma inglés) y de los canales de televisión a buscar ondas de gravedad en tiempo real y a usar las teorías relacionadas con el modelo GrITs con el propósito de modificar los pronósticos del tiempo en consecuencia.
¿Quién hubiese pensado que los "grits" podrían predecir el mal tiempo? "Solamente nosotros, los meteorólogos de Alabama", ríe Coleman. Aunque hablando seriamente, las Interacciones de las Ondas de Gravedad con los Tornados podrían llegar a ser el próximo gran paso en la predicción de tormentas severas.
Disponible en: http://ciencia.nasa.gov/headlines/y2008/19mar_grits.htm

 NEODIMIO  ¡no te lo pierdas!