Anabel González Guillen
Mil disculpas! tuve problemas con mi cuenta y tania me hizo favor de prestarme la suya. Aqui coloco mis 5 contribuciones.
Blue Ray
El nuevo sistema de láser azul es el empleado en los discos Blu-Ray para conseguir almacenar más información en mucho menor espacio. Se diferencia del láser rojo, empleado por las actuales unidades de DVD, en que su longitud de onda es de tan sólo 405 nanómetros frente a los 650 nm empleados hasta ahora.
Esta menor longitud de onda permite aumentar la densidad de grabación de datos en un soporte óptico, consiguiendo así almacenar hasta 25 GB en un disco compacto de 12 cm. Esto es empleando solamente una capa, podemos hacer discos Blu-Ray con más de una capa multiplicando esta capacidad obtenida.
La velocidad de lectura de datos de estas unidades también se ha visto aumentada exponencialmente, situándose en unos 36 Mb/s para la primera revisión de lectores. Actualmente se está trabajando en prototipos que prometen doblar esta tasa hasta situarla en unos 72 Mbit por segundo. Por cierto, si alguien quería concer el precio se un laser apuntador azul es de 612.12 Euros
http://tecnologia.teoriza.es/laser-azul-teoria-y-aplicaciones-desde-grabar-un-disco-blu-ray-hasta-calentar-un-cafe.php
Por qué la luna es naranja?, es tonto, pero siempre lo preguntan,
La Luna se ve de color naranja dependiendo de la cantidad de partículas que hay en la atmósfera. También es cierto que la luz que llega a nosotros de la Luna atraviesa una capa más delgada cuando está arriba de nosotros (zenit) y por eso justamente se ve más blanca o clara, aunque no siempre, pues cuando aumenta la cantidad de polvo y humedad se ve más amarilla. Y el fenómeno óptico que se observa al verla más naranja es por el fenómeno óptico llamado refracción, que es la desviación de los rayos que llegan a la atmósfera de ese color. Es incorrecto decir reflexión.
http://www.google.com.mx/imgres?imgurl=https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEiEFUyRwtXPVOrxchPHfZALeB0YDsQp9ulChVurTNQnDj0Y6Z1aXBwJ6DCotEL2KfaJMvXM9VnvIrYDXEMZeBQBhH0tkY7fKciSmNbrbtNRSJYAH4CqEWouY9vhhwc69hfz87Iavg/s400/luna_naranja.jpg&imgrefurl=http://miastroblog.blogspot.com/2007/03/luna-naranja.html&h=300&w=400&sz=4&tbnid=nNGF-_pHvrFc3M::&tbnh=93&tbnw=124&prev=/images%3Fq%3Dluna%2Bnaranja&hl=es&usg=__MiIK2QW3zDQMaD8wLCFKipdeSY8=&ei=s17NSdedDNjJtgeU5rnKCQ&sa=X&oi=image_result&resnum=1&ct=image&cd=1
AMOR????
Aunque muchos no seamos consientes, el amor son reacciones químicas en nuestro cerebro, que hacen producir ciertas sustancias, la mayoría son drogas que nos hacer ver el mundo multicolor, y también hace acelerar mecanismos como el corazón o producir más glóbulos rojos, cuando encontramos a ese amor ausente se nos puede ver. A continuación hagamos una comparación, a través de ese amor psicológico y filosófico que todos conocemos, y el amor… químico:
Enamoramiento psicológico: estado emocional surcado por la alegría y la satisfacción de encontrar a otra persona que es capaz de comprender y compartir tantas cosas como trae consigo la vida.
Enamoramiento QUÍMICO: se dispara la señal de alarma, el hipotálamo envía corrientes eléctricas a las glándulas, ordenando a las suprarrenales que aumenten la producción de adrenalina y noradrenalina. Al mismo tiempo aumenta el ritmo cardiaco, mayor presión arterial, liberación de grasas y azúcares y producción mayor de glóbulos rojos. Total esto es básicamente una enfermedad.
Verdadero enamoramiento QUÍMICO: la corteza cerebral se inunda de feniletilamina, que segrega dopamina que hace que queramos algo y volver a repetirlo, además de norepinefrina y oxiticina y mejora de los neurotransmisores que adquieren capacidad de arrebato sentimental, eso SÍ que es estar enamorado. Además estas sustancias permiten hacer el amor a largo tiempo y hablar toda la noche sin dormirse, una droga “muy humana”.
Tomar chocolate psicológicamente: porque es bueno, y es dulce.
Tomar chocolate QUÍMICAMENTE: debido al romper ese amor, pues se pierde esa feniletilamina que tenían, y el chocolate por desgracia es rico en este químico. Vamos, es una forma de automedicarse para esa abstinencia de ese amor roto u olvidado, o como sea.
Amor serio psicológico: tener un cierto afecto a esa persona, menos fuerte que estar enamorado, pero te mantienes (y lo soportas) con el/la.
Amor serio QUÍMICO: con el tiempo el propio organismo se adapta a los efectos de las sustancias antes dicha, y se da menos atracción y se da lo que se llama amor “pasivo” (risas), donde hay seguridad, comodidad.
http://diegothegenerprox.wordpress.com/2009/02/07/el-amor-es-pura-qumica/
Aplicación: Esterilización por Ionización
En el medio ambiente (aire, agua, suelo, etc.) existen microorganismos que contaminan, aprovechando los nutrientes a su alcance para desarrollarse o permanecer en ellos.
La esterilización es la práctica que tiene por fin destruir o eliminar todos los microorganismos. El efecto bactericida de las radiaciones es conocido desde tiempos antiguos, así por ejemplo se sabe que la radiación solar, o más precisamente las radiaciones ultravioletas, son agentes naturales de esterilización, sin embargo de las radiaciones electromagnéticas, las de ultravioletas son las menos eficaces debido a su gran longitud de onda. La esterilización mediante rayos gamma es una tecnología que ha sido identificada como una alternativa segura para reducir la carga microbiana en alimentos y en insumos que entran en contacto directo con ellos, reduciendo el riesgo de contagio de enfermedades transmitidas por alimentos, en la producción, procesamiento, manipulación y preparación de éstos, todo lo cuál aumenta la calidad y competitividad de los productos otorgándoles un mayor valor agregado.
La energía ionizante se puede originar a partir de tres fuentes distintas: rayos Gamma, una máquina generadora de electrones y rayos X. La fuente más común de los rayos gamma es el cobalto-60.
Los rayos gamma se componen de ondas electromagnéticas de frecuencia corta que penetran en los envases y productos expuestos a dicha fuente, ocasionando pequeños cambios estructurales en la cadena de ADN de las bacterias o microorganismos, causándoles la muerte o dejándolas inviables o estériles, sin capacidad de replicarse. La tecnología permite el tratamiento de los productos en su envase final.
La energía ionizante es factible de ser aplicada a una gran variedad de productos, con el fin de esterilización o reducción de carga microbiana, eliminando patógenos que pueden ser dañinos para la salud. Entre los productos tratados se encuentran: Alimentos, cosméticos, productos médicos, yerbas medicinales, productos de laboratorio y farmacéutico, alimento animal y embalajes.
La tecnología existe en forma comercial desde los años 50s y está autorizada su uso en más de 30 países, para más de 50 productos alimentarios. Cuenta con la aprobación de importantes organismos internacionales como: la WHO, FAO y la IAEA. También cuenta con la aprobación de la FDA, que plasma su normativa en el código 21 CFR 179.26. Estas entidades pueden recomendar, regular o legislar sobre la correcta aplicación de la tecnología, estableciendo los parámetros adecuados de operación y las dosis máximas aplicables a cada tipo de producto.
www.alcion.es/Download/ArticulosPDF/i/09articulos.pdf
Cuchillo Gamma mejorado para tratar los tumores cerebrales
Un cuchillo Gamma nuevo, completamente corregido y totalmente robotizado expande el alcance del tratamiento de radiocirugía, ofreciendo un rango más amplio de estructura anatómica tratable.
El Leksell Gamma Knife Perfexion, diseñado para optimizar el tratamiento de la zona de cabeza y cuello, posee un diseño dosimétrico y geométrico único que administra roboticamente cientos de rayos de radiación de baja intensidad que convergen para aplicar una dosis terapéutica simple de radiación con precisión puntual a los blancos más difíciles. El diseño optimizado garantiza compatibilidad completa con los protocolos y métodos de cirugía existentes del Gamma Knife. Un diseño de colimador patentado suministra una capacidad virtualmente ilimitada para esculpir la distribución de dosis, permitiendo configuración dinámica con precisión absoluta. Los niveles de protección han sido aumentados diez veces, y el escape de radiación ha sido reducido a un nivel que permite ventanas entre las salas de tratamiento y de control.
El nuevo y sofisticado software GammaPlan PFX controla el sistema, ofreciendo planificación integrada de tratamiento y aplicación que dinamiza el proceso de radiocirugía, permitiendo el tratamiento de lesiones cerebrales múltiples en un solo procedimiento automatizado y un diálogo de disparo nuevo que suministra acceso a disparos compuestos y configuración dinámica. El sistema de planificación de tratamiento basado en el cliente puede ser accedido a distancia, suministrando acceso al instante a todos los datos del paciente en la base de datos en-línea. Para aumentar el acceso sin problemas, el software ahora está alojado en una plataforma de computador personal (PC) con un sistema operativo Linux. El Leksell Gamma Knife Perfexion es un producto de Elekta (Estocolmo, Suecia).
“Leksell Gamma Knife Perfexion ha tenido un interés muy fuerte de los neurocirujanos y radio-oncólogos de todo el mundo por no hablar de los Estados Unidos”, dijo Tomas Puusepp, presidente y director ejecutivo de Elekta. “Estos usuarios actuales y futuros del Gamma Knife están impresionados con las aplicaciones clínicas expandidas, flexibilidad, facilidad de uso y mejoramiento del flujo de trabajo de este nuevo y revolucionario sistema para radiocirugía estereotáctica”.
La cirugía Gamma knife es útil para tratar tumores cerebrales con una dosis alta de radioterapia en un día. El dispositivo Gamma Knife contiene 201 fuentes de cobalto-60 de aproximadamente 30 curios cada una, colocadas en una serie circular en un ensamble fuertemente protegido. El dispositivo enfoca radiación gamma a través de un punto en el cerebro del paciente. El paciente usa un casco especializado fijado quirúrgicamente a su cráneo de manera que el tumor cerebral se mantiene estacionario en el punto blanco de los rayos gamma. Una dosis de radiación de ablación es enviada a través del tumor en una sesión de tratamiento, sin afectar los tejidos cerebrales circundantes. El dispositivo fue inventado por el Dr. Lars Leksell, un neurocirujano sueco, en 1967 en el Instituto Karolinska (Estocolmo, Suecia).
http://medimaging.es/?option=com_article&Itemid=293650000&cat=Imagenolog%C3%ADa%20General
Blog de cursos y estudiantes de Químicas del Departamento de Ciencias Quimico-Biológicas en la Universidad de las Américas Puebla.
Friday, March 27, 2009
Presencia de percloratos en el suelo de Marte
Con la llegada de la sonda espacial Phoenix a la superficie marciana, se ha intensificado el debate sobre la vida en este planeta. La química de un planeta es el factor determinante para la existencia de la vida, ya que define la geología y la ecología. El agua es, indiscutiblemente, el compuesto más importante para la vida. Con esta misión espacial se ha logrado determinar que efectivamente hay grandes depósitos de agua congelada en los polos de Marte. Las condiciones atmosféricas actuales de este planeta no permiten que haya agua líquida, estado en el que se puede desarrollar mejor la vida. Sin embargo descubrimientos recientes sobre la química
La sonda espacial Phoenix está equipada con aparatos para llevar a cabo pruebas del suelo marciano. Se ha encontrado que existen iones de magnesio, calcio, sodio y cloruro en la superficie, lo que podría sugerir una fuente de nutrientes minerales importantes para la vida. También se ha registrado un pH ligeramente básico del suelo, pero aún tolerable para el desarrollo de la vida. En un artículo reciente publicado por la BBC se confirma que también hay una presencia importante de percloratos. Los percloratos son sales derivadas del ácido perclórico, y en química se ocupan como agentes oxidantes. Esta propiedad es desalentadora en cuanto a la posibilidad de vida, ya que el ion perclorato tiende a oxidar la materia orgánica hasta dióxido de carbono.
Por otro lado, la presencia de percloratos puede ser un indicio importante para entender la geoquímica y química ambiental del planeta rojo. Los percloratos son bastante solubles en agua y pueden formar salmueras en ella. La evidencia encontrada en Marte sugiere que hay piscinas de salmuera esparcidas en el suelo. Los percloratos presentan propiedades higroscópicas, y en las condiciones de dicho planeta pueden conservar agua congelada a alrededor de -70°C. Las variaciones en la inclinación de Marte pueden hacer que se derritan los bloques de hielo que contienen los percloratos, que entonces se vuelven móviles al disolverse. También se han encontrado depósitos de carbonato de calcio, una sal encontrada en las rocas terrestres. Esto último aunado al descubrimiento de depósitos de tierra, minerales acuosos y ciertas partes en las que el hielo se encuentra segregado, parecen indicar que sí cierta hay actividad de agua líquida. La comunidad científica aún no está completamente de acuerdo en cuanto a estos descubrimientos. Algunos toman una postura más moderada y dicen que esto no implica que haya depósitos de agua líquida como si fueran pequeñas albercas, sino que hay que pensar que lo que está ocurriendo es que hay ciertas partes donde el suelo se humedece.
Sólo queda esperar para tener más información sobre este planeta que ha fascinado a la humanidad desde la antigüedad. El conocimiento de su química seguramente nos dará un panorama más amplio para poder responder a la pregunta eterna sobre la existencia de vida en ese planeta.
Referencias
http://news.bbc.co.uk/2/hi/science/nature/7958471.stm
http://www.jpl.nasa.gov/news/phoenix/release.php?ArticleID=1766
Thursday, March 26, 2009
Complejos de Co de Alfred Werner
La genialidad de Werner consistió fundamentalmente en considerar que había más de una valencia, o atomicidad, que podía exhibir simultáneamente un átomo. La primera parte de su teoría de la coordinación, publicada en 1893, puede resumirse en los siguientes tres postulados:
1. La mayoría de los elementos químicos presentan dos tipos de valencia, la valencia primaria o unión ionizable (número de oxidación) y la valencia secundaria o unión no ionizable (número de coordinación). La valencia secundaria, es decir, el número de coordinación, se representa por una línea continua indicando el enlace de cordinación.
2. Los elementos tienden a satisfacer tanto su valencia primaria como su valencia secundaria.
3. La valencia secundaria o número de coordinación está dirigido hacia posiciones definidas en el espacio.
Estos tres postulados daban una explicación satisfactoria a las preguntas que se venían haciendo los químicos respecto a los "complejos". Tomando como ejemplo para la aplicación de los postulados la bien conocida y estudiada serie de las aminas CoCl3.6NH3, CoCl3.5NH3, CoCl3.4NH3, CoCl3.3NH3, se tiene que la valencia primaria o estado de oxidación del Co en todos los casos es 3+, y la valencia secundaria o número de coordinación de este ion es 6. El estado de oxidación 3+ del Co está compensado, como se ve claramente en todos los casos, por 3 iones cloruro. En el primer ejemplo todos los cloruros son iónicos y no hacen parte del catión complejo [Co(NH3)6]3+; el número de coordinación 6 está satisfecho por 6 grupos NH3. En el segundo ejemplo, el número de coordinación está satisfecho por 5 NH3 y 1 Cl-, [CoCl(NH3)5]2+ y únicamente dos cloruros son iónicos. En el tercer caso, 4 NH3 y 2 Cl- satisfacen el número de coordinación [CoCl2(NH3)4]+ y en el último caso lo satisfacen 3 NH3 y 3 Cl-, [CoCl3(NH3)3].
El número de coordinación puede considerarse como el número de sitios del alrededor inmediato del Co3+ que debe estar siempre ocupado; así, cuando sale una molécula de amoníaco de uno de estos puestos inmediatos, el mismo es ocupado por algún elemento del medio cercano, bien sea un ion, en este caso Cl-, o una molécula de solvente. Los grupos que satisfacen el número de coordinación del ion metálico están directamente unidos a éste y constituyen la entidad de coordinación del metal.
El tercer postulado es la base de la estereoquímica, planteada inicialmente por J.H. Van´t Hoff en 1874 para el caso de los compuestos orgánicos. Al respecto, Werner dedujo que la estructura de las entidades de coordinación con NC (Número de Coordinación) 6 deberían ser octaédrica. Para llegar a esta conclusión siguió un método similar al empleado por W. Körner en 1874 para algunos isómeros derivados de la estructura del benceno, el cual consistió en suponer que los compuestos con este número de coordinación simétricos regulares y por lo tanto deberían tener una estructura hexagonal planar o de prisma trigonal u octaédrica. El análisis del número de isómeros teóricos posibles y la comparación con el número de isómeros sintetizados para composiciones del tipo [MA2B4] y [MA3B3] lo llevó a concluir que la estructura debía ser octaédrica.
Esta propuesta fue contundentemente ratificada por el mismo Werner, al determinar que complejos con ligantes didentados (AA) eran ópticamente activos. Werner afirmaba que la presencia de isomería óptica para complejos del tipo [M(AA)3] era evidencia de la estructura octaédrica debida a la disimetría de la molécula; algunos químicos orgánicos le rebatieron su hipótesis aduciendo que la actividad óptica se debía a la presencia de átomos de carbono en la estructura y que esta propiedad era exclusivamente debida al carbono. Esta controversia llevó a Werner y su grupo en 1914 a sintetizar el más extraordinario complejo de la época [Co(Co(NH3)4)3(OH)6], el cual no contenía carbono en su estructura éste presentó isomería óptica, consolidando la teoría de la coordinación, y además mostrando que esta isomería es una función de la simetría de las moléculas en general y no específica sólo de un átomo.
Esta conclusión constituye un argumento más para considerar la química como una sola, con normas generales, y derrumbar murallas impuestas artificialmente entre la química orgánica y la inorgánica.
Werner obtuvo el Premio Nobel en 1913 por el desarrollo de su teoría de la coordinación. En sus conceptos fundamentales, ésta continúa vigente ya que permite explicar correctamente muchos de los aspectos estructurales de los compuestos de coordinación. Fue el primer y único químico inorgánico en ganar el Premio Nobel antes de 1973.
Información obtenida de:
http://www.virtual.unal.edu.co/cursos/ciencias/2000189/docs_curso/lecciones/Sublecciones/sub1.1.html
Encuentran rocas que podrían almacenar gases invernadero
Los geólogos han cartografiado formaciones rocosas de 15 500 km de extensión en los Estados Unidos que podrían usarse para almacenar parte del exceso de dióxido de carbono que se acumula en la atmósfera.
El dióxido de carbono liberado por la quema de combustibles fósiles ha estado acumulándose de forma continua en la atmósfera desde el inicio de la Revolución Industrial. Aunque parte del gas invernadero es captado por las plantas y absorbido por los océanos, aún queda una cantidad significativa en el aire, atrapando parte del calor superficial de la Tierra que de otra forma sería irradiado al espacio y, de esta forma, calentando el globo.
El dióxido de carbono liberado por la quema de combustibles fósiles ha estado acumulándose de forma continua en la atmósfera desde el inicio de la Revolución Industrial. Aunque parte del gas invernadero es captado por las plantas y absorbido por los océanos, aún queda una cantidad significativa en el aire, atrapando parte del calor superficial de la Tierra que de otra forma sería irradiado al espacio y, de esta forma, calentando el globo.
Los científicos e ingenieros han propuesto diversas formas de atrapar y almacenar artificialmente parte de este exceso de dióxido de carbono en acuíferos subterráneos y otras grandes formaciones rocosas.
Ahora los científicos del Instituto de la Tierra en la Universidad de Columbia y la Investigación Geológica de Estados Unidos (USGS) han estudiado los Estados Unidos y encontraron 15 500 de rocas ultramáficas en o cerca de la superficie que podrían ser ideales para almacenar el exceso de gas. Las localizaciones de las rocas se detallan en el informe de la USGS.
Originadas en las profundidades de la Tierra, estas rocas contienen minerales que reaccionan de forma natural con el dióxido de carbono para formar minerales sólidos, un proceso conocido como carbonatación mineral que podría ser un mecanismos de almacenamiento perfecto.
Ahora los científicos del Instituto de la Tierra en la Universidad de Columbia y la Investigación Geológica de Estados Unidos (USGS) han estudiado los Estados Unidos y encontraron 15 500 de rocas ultramáficas en o cerca de la superficie que podrían ser ideales para almacenar el exceso de gas. Las localizaciones de las rocas se detallan en el informe de la USGS.
Originadas en las profundidades de la Tierra, estas rocas contienen minerales que reaccionan de forma natural con el dióxido de carbono para formar minerales sólidos, un proceso conocido como carbonatación mineral que podría ser un mecanismos de almacenamiento perfecto.
Otros esquemas del conocido como secuestro de carbono se han centrado en almacenar el dióxido de carbono en forma líquida o gaseosa, pero estas propuestas se han encontrado con preocupaciones sobre las filtraciones.
El mayor inconveniente de la carbonatación mineral natural es su ritmo lento: normalmente se necesitan miles de años para que las rocas reaccionen con cantidades medibles de dióxido de carbono. Pero los científicos están experimentando formas de acelerar la reacción disolviendo dióxido de carbono en agua e inyectándolo en la roca, así como capturando el calor generado por la reacción para acelerar el proceso.
“Esto ofrece una forma de librarse de forma permanente de las emisiones de dióxido de carbono”, dice Juerg Matter, científico en el Observatorio Terrestre Lamont-Doherty de Columbia, donde se llevan a cabo un amplio rango de proyectos para abordar este problema.
Las rocas ultramáficas de los Estados Unidos podrían ser suficientes para alojar más de 500 años de la producción de dióxido de carbono de Estados Unidos, dijo el autor principal del informe, Sam Krevor, estudiante graduado que trabaja en el Centro Lenfest para Energís Sostenible del Instituto de la Tierra.
La mayor parte de las localizaciones están convenientemente encajadas en bandas a lo largo de las costas este y oeste — cerca de algunas de las grandes ciudades incluyendo a Nueva York, Baltimore y San Francisco.
“Estamos trando de demostrar que cualquiera que esté a una distancia razonable de estas formaciones rocosas podría usar este proceso para secuestrar tanto dióxido de carbono como sea posible”, dijo Krevor.
Klaus Lackner, que ayudó a originar la idea de secuestro mineral en la década de 1990, espera que pueda llevarse a cabo un esfuerzo de cartografiado global para encontrar más áreas de almacenamiento.
“Es realmente un gran paso adelante”, comentó.
Otra roca, el basalto volcánico común, también reacciona con el dióxido de carbono, y hay esfuerzos en marcha para cartografiar en detalle también este tipo de roca.
El mayor inconveniente de la carbonatación mineral natural es su ritmo lento: normalmente se necesitan miles de años para que las rocas reaccionen con cantidades medibles de dióxido de carbono. Pero los científicos están experimentando formas de acelerar la reacción disolviendo dióxido de carbono en agua e inyectándolo en la roca, así como capturando el calor generado por la reacción para acelerar el proceso.
“Esto ofrece una forma de librarse de forma permanente de las emisiones de dióxido de carbono”, dice Juerg Matter, científico en el Observatorio Terrestre Lamont-Doherty de Columbia, donde se llevan a cabo un amplio rango de proyectos para abordar este problema.
Las rocas ultramáficas de los Estados Unidos podrían ser suficientes para alojar más de 500 años de la producción de dióxido de carbono de Estados Unidos, dijo el autor principal del informe, Sam Krevor, estudiante graduado que trabaja en el Centro Lenfest para Energís Sostenible del Instituto de la Tierra.
La mayor parte de las localizaciones están convenientemente encajadas en bandas a lo largo de las costas este y oeste — cerca de algunas de las grandes ciudades incluyendo a Nueva York, Baltimore y San Francisco.
“Estamos trando de demostrar que cualquiera que esté a una distancia razonable de estas formaciones rocosas podría usar este proceso para secuestrar tanto dióxido de carbono como sea posible”, dijo Krevor.
Klaus Lackner, que ayudó a originar la idea de secuestro mineral en la década de 1990, espera que pueda llevarse a cabo un esfuerzo de cartografiado global para encontrar más áreas de almacenamiento.
“Es realmente un gran paso adelante”, comentó.
Otra roca, el basalto volcánico común, también reacciona con el dióxido de carbono, y hay esfuerzos en marcha para cartografiar en detalle también este tipo de roca.
Puntos cuánticos para administrar fármacos
Científicos suizos han informado sobre un avance que podría ayudar a explotar el anunciado potencial de los “puntos cuánticos” (nanocristales que brillan al exponerlos a luz ultravioleta) en el tratamiento del cáncer y otras enfermedades.
Estos científicos han publicado el primer estudio que indica que añadir a los puntos cuánticos una capa glaseada de ciertos azúcares hace que estas nanopartículas se acumulen en el hígado, pero no en otras partes del cuerpo.
Este direccionamiento selectivo se podría utilizar para llevar fármacos anticáncer a un órgano concreto, sin que el cuerpo sufra los efectos secundarios que se suelen producir con los fármacos existentes.
El estudio ha sido publicado en el número del 18 de febrero de la revista Journal of the American Chemical Society.En el nuevo informe, Peter H. Seeberger y sus colegas, señalan que los puntos cuánticos se utilizan en las células solares, en la formación de imágenes de diagnóstico y en dispositivos electrónicos.
Los científicos creen que estas partículas parecen prometedoras también para la administración de fármacos en el tratamiento del cáncer y otras enfermedades. Sin embargo, los investigadores todavía no han encontrado el modo ideal de dirigir estos puntos hacia tejidos u órganos específicos, con el fin de maximizar su eficacia y limitar su toxicidad.
Los investigadores describen el desarrollo de un nuevo tipo de punto cuántico recubierto con ciertas moléculas de azúcar que son atraídas por los receptores de tejidos y órganos específicos. En un estudio con ratones de laboratorio, los científicos recubrieron los puntos cuánticos con manosa o con galactosamina, dos azúcares que se acumulan de forma selectiva en el hígado.
La concentración de los puntos recubiertos de azúcar en el hígado de los ratones fue tres veces mayor que la de los puntos normales, lo que según los investigadores demuestra su mayor especificidad.
Fuente: http://www.euroresidentes.com/Blogs/avances_tecnologicos/avances.htm
Pila recargable en segundos
Un nuevo método de fabricación para las baterías de ión-litio podría conducir a baterías más pequeñas y ligeras que se puedan cargar en segundos.
Unas baterías que se cargan tan rápido serían útiles para los coches híbridos y los eléctricos, en los que es necesaria una rápida sacudida de carga para acelerar.
El enfoque solo requiere unos cambios simples en el proceso de producción de un material bien conocido.
La nueva investigación ha sido publicada en la revista científica Nature. Debido al cóctel electrónico que portan, gramo por gramo, las baterías de ión-litio suelen ser baterías recargables que forman parte de la electrónica de consumo, como las de los portátiles. No obstante, tardan mucho en cargar; hasta ahora, los investigadores han asumido la existencia de un límite de velocidad en los electrones e iones de litio que pasaban por las baterías para formar un circuito electroquímico.
Gerbrand Ceder, del Instituto Tecnológico de Massachussets (MIT), en los EEUU, y sus colegas, utilizaron una simulación por ordenador para modelar los movimientos de los iones y los electrones en una variante del material de litio estándar conocido como fosfato de hierro-litio.
La simulación indicó que los iones se movían a gran velocidad. "Si el transporte de los iones de litio era tan rápido, el problema tenía que estar en alguna otra cosa", señaló el Profesor Ceder. El problema resultó ser el modo en que los iones pasaban a través del material; lo hacen a través de túnele minúsculos, cuyas entradas están presentes en la superficie del material.
Sin embargo, el equipo descubrió que para introducirse en estos canales, los iones debían estar posicionados directamente en frente de las entradas de los túneles; de lo contrario, no podían pasar.
Ceder descubrió que la solución estaba en modificar con ingeniería el material de modo que incluya una especie de "correa" que guíe a los iones hacia las entradas de los túneles.
Un prototipo de batería fabricado con la nueva técnica se podría cargar en menos de 20 segundos, en comparación con los seis minutos que se tardan con una muestra no modificada del material.
Inventan caucho autoreparable
Según la revista científica Nature, esta sustancia tiene la habilidad de producir superficies, que al ser cortadas, conservan una fuerte atracción química entre ambas partes.
Las piezas vuelven a juntarse sin necesidad de pegamento o de un tratamiento especial, como si nunca hubieran sido separadas.
Esta extraordinaria característica se logró gracias a una cuidadosa ingeniería de las moléculas en el material.
Los investigadores aseguran que el proceso es prácticamente "verde", y podría serlo completamente con unos pocos ajustes.
"Pequeñas manos"
El secreto de la sustancia radica en la manera en cómo se sostienen las moléculas entre sí.
Según el doctor Ludwik Leibler, quien encabezó la investigación, un pedazo de caucho común es en realidad una molécula con millones de millones de pequeñas unidades que están soldadas químicamente para formar una enmarañada red.
La elasticidad se produce gracias a que los ramales de la red están sujetos como en un acordeón: al estirarlos se alargan, y al soltarlos vuelven a su forma original. Sin embargo al romper el caucho (y la mayoría de cuerpos sólidos), se quiebran también las sueldas químicas, conocidas como enlaces covalentes. Este rompimiento no se puede reparar, así como un pedazo de hule no puede ser remodelado o reformado.
"Queríamos ver si podíamos crear un material parecido al caucho usando pequeñas moléculas", comentó Leibler.
El truco fue reemplazar los enlaces covalentes con conexiones más débiles conocidas como enlaces de hidrógeno. Estos enlaces son como pequeñas manos pertenecientes a moléculas vecinas, que se toman una de la otra, pero que se sueltan al ser cortadas.
Es así que el doctor Leibler se dio cuenta que el nuevo caucho no sólo podría ser reciclado y reformado cuantas veces se necesite, sino que al romperse, separarse o cortarse, las manos estarían estiradas, listas para volver a juntarse.
Fuente: http://news.bbc.co.uk/hi/spanish/science/newsid_7256000/7256809.stm#
Catenanos y rotaxanos
Un campo de investigación reciente y muy interesante es el de las máquinas moleculares. Inspirándose en la mecánica biológica, muchos han buscado formar sistemas moleculares en movimiento para generar trabajo que promete tener muchas aplicaciones. De interés especial para estos propósitos son un tipo de moléculas llamadas catenanos y rotaxanos. Los catenanos son estructuras formadas por la interconexión de dos o más macrociclos para formar una especie de cadena, con cada macrociclo tomando el papel de un eslabón. Los rotaxanos son estructuras con una molécula en forma de mancuerna rodeada en el centro por un macrociclo.
Los primeros catenanos y rotaxanos fueron sintetizados en la década de 1960, pero no fue sino hasta hace unos años que se empezaron a considerar estas estructuras como posibles fuentes de una aplicación importante. Al principio, la síntesis de este tipo de estructuras era muy difícil ya que se utilizaban únicamente fuerzas intermoleculares e interacciones ácido-base para dirigir la reacción. Sin embargo, en la actualidad ya no existen ese tipo de impedimentos ya que se han diseñado métodos de síntesis que incorporan metales de transición para dirigir la reacción. Uno de los metales más empleados para esto es el cobre en estado de oxidación (I). Las estrategias más comunes consisten en formar un complejo con fragmentos coordinantes acíclicos para luego cerrar los fragmentos mediante una reacción de sustitución u otro tipo de reacción. El centro metálico puede ser removido posteriormente formando una sal insoluble con otro ligante para obtener el catenano libre.
La idea de producir motores moleculares con este tipo de estructuras proviene del estudio del mecanismo de la contracción muscular. En las células musculares existen arreglos en forma de fibras, con un filamento de miosina rodeado de filamentos de actina. El movimiento ocurre por deslizamiento de los filamentos impulsado por la hidrólisis del ATP. Haciendo una analogía con esta función biológica, se han preparado estructuras moleculares que presenten este tipo de movimiento. Uno de los sistemas más prometedores son los polipirroles que permiten doblar un polímero sólido en una dirección u otra dependiendo de la corriente eléctrica aplicada. Los rotoxanos se basan en el mecanismo de los sarcómeros del músculo, y el ciclo central no permite que la cadena en forma de mancuerna se deslice completamente fuera del sistema. Sin embargo un método químico interesante consiste en el intercambio de centros metálicos en un catenano. Para esto es importante que los ciclos tengan varios átomos donadores. Es posible intercambiar un ion metálico con un número de coordinación por otro con mayor número de coordinación (por ejemplo Cu(I) y Zn(II)). Esto produce un movimiento de estiramiento y contracción.
La promesa de esta tecnología se ha manifestado en la industria de la computación. La naturaleza móvil tanto de los rotaxanos como de los catenanos hace que se comporten como interruptores moleculares, lo cual implica una amplia gama de aplicaciones tecnológicas. Se ha pensado en ocupar estas moléculas para producir chips muy pequeños, donde los rotaxanos actúen como transistores. También se están desarrollando aplicaciones en las que funcionen como sistemas de almacenamiento de información para producir computadoras moleculares. De igual forma pueden ocuparse como sensores moleculares. Este tipo de aplicaciones se han trabajado ampliamente en los últimos años y se ha hecho un gran avance, pero aún es muy temprano para asegurar su efectividad y si serán capaces de cumplir las expectativas que han generado.
Referencias
Christiane Dietrich-Buchecker, Maria Consuelo Jimenez-Molero, Valerie Sartor, y Jean-Pierre Sauvage. Rotaxanes and catenanes as prototypes of molecular machines and motors. Pure Appl. Chem., Vol. 75, No. 10, pp. 1383–1393, 2003.
Carlos Peinador, Víctor Blanco, and José M. Quintela. A New Doubly Interlocked [2]Catenane. J. Am. Chem. Soc., 2009.
http://www.orene.org/reich/terra/elpais/rotaxano.html
Los primeros catenanos y rotaxanos fueron sintetizados en la década de 1960, pero no fue sino hasta hace unos años que se empezaron a considerar estas estructuras como posibles fuentes de una aplicación importante. Al principio, la síntesis de este tipo de estructuras era muy difícil ya que se utilizaban únicamente fuerzas intermoleculares e interacciones ácido-base para dirigir la reacción. Sin embargo, en la actualidad ya no existen ese tipo de impedimentos ya que se han diseñado métodos de síntesis que incorporan metales de transición para dirigir la reacción. Uno de los metales más empleados para esto es el cobre en estado de oxidación (I). Las estrategias más comunes consisten en formar un complejo con fragmentos coordinantes acíclicos para luego cerrar los fragmentos mediante una reacción de sustitución u otro tipo de reacción. El centro metálico puede ser removido posteriormente formando una sal insoluble con otro ligante para obtener el catenano libre.
La idea de producir motores moleculares con este tipo de estructuras proviene del estudio del mecanismo de la contracción muscular. En las células musculares existen arreglos en forma de fibras, con un filamento de miosina rodeado de filamentos de actina. El movimiento ocurre por deslizamiento de los filamentos impulsado por la hidrólisis del ATP. Haciendo una analogía con esta función biológica, se han preparado estructuras moleculares que presenten este tipo de movimiento. Uno de los sistemas más prometedores son los polipirroles que permiten doblar un polímero sólido en una dirección u otra dependiendo de la corriente eléctrica aplicada. Los rotoxanos se basan en el mecanismo de los sarcómeros del músculo, y el ciclo central no permite que la cadena en forma de mancuerna se deslice completamente fuera del sistema. Sin embargo un método químico interesante consiste en el intercambio de centros metálicos en un catenano. Para esto es importante que los ciclos tengan varios átomos donadores. Es posible intercambiar un ion metálico con un número de coordinación por otro con mayor número de coordinación (por ejemplo Cu(I) y Zn(II)). Esto produce un movimiento de estiramiento y contracción.
La promesa de esta tecnología se ha manifestado en la industria de la computación. La naturaleza móvil tanto de los rotaxanos como de los catenanos hace que se comporten como interruptores moleculares, lo cual implica una amplia gama de aplicaciones tecnológicas. Se ha pensado en ocupar estas moléculas para producir chips muy pequeños, donde los rotaxanos actúen como transistores. También se están desarrollando aplicaciones en las que funcionen como sistemas de almacenamiento de información para producir computadoras moleculares. De igual forma pueden ocuparse como sensores moleculares. Este tipo de aplicaciones se han trabajado ampliamente en los últimos años y se ha hecho un gran avance, pero aún es muy temprano para asegurar su efectividad y si serán capaces de cumplir las expectativas que han generado.
Referencias
Christiane Dietrich-Buchecker, Maria Consuelo Jimenez-Molero, Valerie Sartor, y Jean-Pierre Sauvage. Rotaxanes and catenanes as prototypes of molecular machines and motors. Pure Appl. Chem., Vol. 75, No. 10, pp. 1383–1393, 2003.
Carlos Peinador, Víctor Blanco, and José M. Quintela. A New Doubly Interlocked [2]Catenane. J. Am. Chem. Soc., 2009.
http://www.orene.org/reich/terra/elpais/rotaxano.html
Tuesday, March 24, 2009
La NASA mexicana (tal vez la llamaremos MASA)
Esta noticia apareció el día de hoy en las noticias del MSN:
Rusia ofrece a México colaboración en investigación espacial
México, 24 mar (EFE).- Rusia está dispuesto a ofrecer a México cooperación para desarrollar la investigación espacial y tecnologías satelitales para el estudio de la atmósfera y la prevención de fenómenos meteorológicos y terremotos, dijo hoy el vicedirector de la Agencia Espacial de la Federación Rusa, Sergey Saveliev.
En un encuentro con una comisión de senadores mexicanos, el funcionario ruso explicó que esta colaboración permitiría a México impulsar la creación de la Agencia Espacial Mexicana así como las investigaciones científicas y tecnológicas asociadas al espacio.
"Rusia puede colaborar y compartir su experiencia ya que ha participado en 40 por ciento de los lanzamientos a nivel mundial y para este año se tiene previsto enviar 39 cohetes al espacio", indicó el directivo de la Agencia Espacial de la Federación Rusa (Roscosmos).
Saveliev encabeza una delegación de Roscosmos en una visita de trabajo a México de tres días.
Por su parte, el presidente de la Comisión de Ciencia y Tecnología de la Cámara Alta de México, Francisco Castellón, dijo que es urgente comenzar este año la creación de Agencia Espacial Mexicana para entrar "lo antes posible" en los proyectos internacionales de investigación sobre el espacio exterior.
"La cooperación internacional que pueda obtener México en la materia contribuirá al desarrollo de proyectos que tienen el Gobierno mexicano o la iniciativa privada mexicana en diferentes áreas", afirmó el senador en el encuentro con la representación rusa.
En noviembre pasado el Senado de México aprobó la creación de la Agencia Espacial Mexicana, proyecto que debe ser discutido en una segunda vuelta por los diputados para su aprobación definitiva y para fijar un presupuesto que permita comenzar las operaciones de la Agencia.
La delegación rusa tiene previsto reunirse también con diputados, empresarios, académicos y otras autoridades del Gobierno federal.
También está programada una visita a las instalaciones de la estación de telecomunicaciones en Tulancingo, del central estado de Hidalgo, uno de los centros sugeridos para el trabajo de la agencia. EFE
Rusia ofrece a México colaboración en investigación espacial
México, 24 mar (EFE).- Rusia está dispuesto a ofrecer a México cooperación para desarrollar la investigación espacial y tecnologías satelitales para el estudio de la atmósfera y la prevención de fenómenos meteorológicos y terremotos, dijo hoy el vicedirector de la Agencia Espacial de la Federación Rusa, Sergey Saveliev.
En un encuentro con una comisión de senadores mexicanos, el funcionario ruso explicó que esta colaboración permitiría a México impulsar la creación de la Agencia Espacial Mexicana así como las investigaciones científicas y tecnológicas asociadas al espacio.
"Rusia puede colaborar y compartir su experiencia ya que ha participado en 40 por ciento de los lanzamientos a nivel mundial y para este año se tiene previsto enviar 39 cohetes al espacio", indicó el directivo de la Agencia Espacial de la Federación Rusa (Roscosmos).
Saveliev encabeza una delegación de Roscosmos en una visita de trabajo a México de tres días.
Por su parte, el presidente de la Comisión de Ciencia y Tecnología de la Cámara Alta de México, Francisco Castellón, dijo que es urgente comenzar este año la creación de Agencia Espacial Mexicana para entrar "lo antes posible" en los proyectos internacionales de investigación sobre el espacio exterior.
"La cooperación internacional que pueda obtener México en la materia contribuirá al desarrollo de proyectos que tienen el Gobierno mexicano o la iniciativa privada mexicana en diferentes áreas", afirmó el senador en el encuentro con la representación rusa.
En noviembre pasado el Senado de México aprobó la creación de la Agencia Espacial Mexicana, proyecto que debe ser discutido en una segunda vuelta por los diputados para su aprobación definitiva y para fijar un presupuesto que permita comenzar las operaciones de la Agencia.
La delegación rusa tiene previsto reunirse también con diputados, empresarios, académicos y otras autoridades del Gobierno federal.
También está programada una visita a las instalaciones de la estación de telecomunicaciones en Tulancingo, del central estado de Hidalgo, uno de los centros sugeridos para el trabajo de la agencia. EFE
Por qué se llaman Metales preciosos?(nada que ver con el gober)
Hoy platicando con mis asesores de tesis , me sugió la duda sobre el origen de la expresión "metal precioso" y ellos me contestaron que se les da ese nombre debido a que son muy escasos en la corteza terrestre y no por que sean bonitos. Además me comentaron que el Iridio, Renio, Platino y Oro tienen orígenes extraterrestres; por ese motivo me dí a la tarea de investigar en la web y me topé con esto:
El iridio no es común en la corteza terrestre, pero sí lo es en los objetos extraterrestres como los cometas. Se han encontrado rastros de iridio en más de veinticinco sitios paleontológicos alrededor del mundo. Está presente en el registro de fines del Cretáceo y principios de la era Terciaria, que marca la época de la extinción de los dinosaurios. En la zona de piedra caliza fosilífera llamada "divisoria K/T" se puede encontrar una capa de arcilla roja que es 600 veces más rica en iridio que las todas rocas adyacentes. Esta capa fue encontrada en veinticinco sitios y se ha demostrado que proviene de un mismo origen, midiendo la concentración de otros elementos que acompañan al iridio, tales como renio, oro y platino. La concentración en todos los sitios de estos elementos es tan uniforme que sólo puede explicarse como proveniente del impacto un único asteroide o cometa. Del estudio de estas concentraciones de elementos, se ha deducido que la cantidad de iridio presente provendría de un asteroide de unos 10 kilómetros de diámetro que se estrelló en la Tierra. Un impacto de esta magnitud produciría una enorme cantidad de polvo muy fino que se extenderían por la estratósfera, produciendo oscurecimiento y, además y como consecuencia, un fuerte enfriamiento del planeta, condición que crearía un entorno inhabitable para la mayoría de las criaturas de la época.
Fuente: http://axxon.com.ar/zap/c-zapping0061.htm
El iridio no es común en la corteza terrestre, pero sí lo es en los objetos extraterrestres como los cometas. Se han encontrado rastros de iridio en más de veinticinco sitios paleontológicos alrededor del mundo. Está presente en el registro de fines del Cretáceo y principios de la era Terciaria, que marca la época de la extinción de los dinosaurios. En la zona de piedra caliza fosilífera llamada "divisoria K/T" se puede encontrar una capa de arcilla roja que es 600 veces más rica en iridio que las todas rocas adyacentes. Esta capa fue encontrada en veinticinco sitios y se ha demostrado que proviene de un mismo origen, midiendo la concentración de otros elementos que acompañan al iridio, tales como renio, oro y platino. La concentración en todos los sitios de estos elementos es tan uniforme que sólo puede explicarse como proveniente del impacto un único asteroide o cometa. Del estudio de estas concentraciones de elementos, se ha deducido que la cantidad de iridio presente provendría de un asteroide de unos 10 kilómetros de diámetro que se estrelló en la Tierra. Un impacto de esta magnitud produciría una enorme cantidad de polvo muy fino que se extenderían por la estratósfera, produciendo oscurecimiento y, además y como consecuencia, un fuerte enfriamiento del planeta, condición que crearía un entorno inhabitable para la mayoría de las criaturas de la época.
Fuente: http://axxon.com.ar/zap/c-zapping0061.htm
Nuestro Némesis
Existe una teoría llamada "Némesis" publicada por primera vez en nature en 1984, que expone la idea de que nuestro sol tiene una estrella compañera llamada Némesis. A continuación una breve descripción:
El período orbital de Némesis sería de alrededor de los 30 millones de años (las mediciones no son exactas: dan entre 26 y 34 millones de años), y a este ritmo pasaría por las afueras del Sistema Solar, produciendo una perturbación en los cometas de la Nube de Oort. Al agitar miles —incluso millones— de objetos hasta desplazarlos de sus órbitas con su fuerza gravitatoria, causaría que muchos se dirijan hacia el interior del Sistema Solar. Algunos de estos objetos podrían caer a la Tierra, impactando como bombas nucleares, y produciendo daños y terribles cambios en el clima, tales como lluvias de polvo, oscurecimiento masivo, enfriamientos extremos y pérdida de ozono.
Muchos científicos aseguran que la muerte de los dinosaurios pudo haberse causado por un acercamiento de Némesis a nuestro sistema, ya que la era en que se calcula pasó cerca de nuestro sistema solar, coincide con el bombardeo de asteroides y cometas que destruyeron a las especies jurásicas.
En este link se muestra la información completa:
http://axxon.com.ar/zap/c-zapping0061.htm
El período orbital de Némesis sería de alrededor de los 30 millones de años (las mediciones no son exactas: dan entre 26 y 34 millones de años), y a este ritmo pasaría por las afueras del Sistema Solar, produciendo una perturbación en los cometas de la Nube de Oort. Al agitar miles —incluso millones— de objetos hasta desplazarlos de sus órbitas con su fuerza gravitatoria, causaría que muchos se dirijan hacia el interior del Sistema Solar. Algunos de estos objetos podrían caer a la Tierra, impactando como bombas nucleares, y produciendo daños y terribles cambios en el clima, tales como lluvias de polvo, oscurecimiento masivo, enfriamientos extremos y pérdida de ozono.
Muchos científicos aseguran que la muerte de los dinosaurios pudo haberse causado por un acercamiento de Némesis a nuestro sistema, ya que la era en que se calcula pasó cerca de nuestro sistema solar, coincide con el bombardeo de asteroides y cometas que destruyeron a las especies jurásicas.
En este link se muestra la información completa:
http://axxon.com.ar/zap/c-zapping0061.htm
Blog de química. (Libros de química)
En lugar de perder el tiempo en facebook y andar de ociosos cuando tienen tiempo libre, les recomiendo que chequen este blog light de química, se encontrarán con varias sorpresas.
http://cosasdequimicos.blogspot.com/2008_09_01_archive.html
http://cosasdequimicos.blogspot.com/2008_09_01_archive.html
Olor a tierra mojada
El día de hoy llovió en la UDLA(P, para que no nos demanden) y me vino a la mente la pregunta : ¿Qué genera el olor a tierra mojada?, Antes de resolver esta curiosa duda, ¿qué se imaginan que sea?
Vean los comentarios para resolver la duda
Vean los comentarios para resolver la duda
trivia
Normalmente cuando encimamos dos cristales nos es difícil separalos si lo queremos hacer en un vector vertical, ¿Por qué se aumenta esta fuerza cuando agregas una gota de agua entre los cristales? El que responda se podrá ganar un curso de adhesivos en argentina. En la siguiente página se publica la pregunta:
http://resinasepoxi.com.ar/page/2/
Yo ya mandé mi respuesta
http://resinasepoxi.com.ar/page/2/
Yo ya mandé mi respuesta
¿Por qué un pegamento pega?
Desde que estaba en química general he tenido varias preguntas y una de ellas es saber las interacciones de un pegamento, así que me dí a la tarea de buscarlo para compartirlo la respuesta con ustedes.
La polaridad de las moléculas que conforman la superficie a ensamblar, es la primera clave para explicar porque los adhesivos se adhieren. A este fenómeno se lo llama interacción dipolo-dipolo que consiste en la atracción entre el extremo positivo de una molécula polar y el negativo de otra. A mayor polaridad se produce una interacción de fuerzas de atracción o repulsión más intensa que condicionan la adhesividad de un adhesivo.Las fuerzas de van der Waal, más débiles que la interacción antes mencionada, también contribuyen a las propiedades adhesivas, especialmente en adhesivos no polares como el poliestireno y a la capacidad de un simpático animalito parecido a una lagartija llamada Gecko, de pasearse alegremente de cabeza sobre superficies lisas y escalar paredes de vidrio (aparentemente lisas). Ahora bien, si el agua es polar, podemos asumir que también se adhiere sobre un sinfín de sustratos.
La segunda clave que explica la capacidad de adhesión, son las interacciones química y físicas a nivel molecular. Se produce una reacción química entre moléculas del adhesivo y el sustrato. Estas interacciones son sustancialmente más fuertes que las físicas y ocurren notoriamente en ciertas combinaciones sustrato – adhesivo.Ejemplo: silicona – vidrio; poliuretano – vidrio y epoxi – aluminio. En estos casos se ha comprobado que las interacciones químicas representan prácticamente un 50% en la efectividad de la unión.Más adelante analizaremos las propiedades de algunos sustratos que explican esta capacidad de unirse químicamente a los adhesivos.Por último la tercera clave es la que generalmente se acepta como la más efectiva y que se supone porqué pegan los adhesivos, pero que es la que menos aporta a la efectividad y/o durabilidad de una unión pegada.El anclaje micro mecánico.Al dicho “a mayor rugosidad de las superficies a ensamblar, mayor es el anclaje mecánico del adhesivo”, podemos refutarlo con las siguientes explicaciones:
-Únicamente favorable en determinadas condiciones espaciales
-Es aleatoria, es decir no puede ser generado en forma controlada ni es fehacientemente reproducible.Solamente se logra efectividad en el anclaje mecánico si en la superficie a pegar se insertan patrones de anclaje con ángulos negativos que permiten que el adhesivo fluya en los intersticios y se agarre.
Hemos visto que en el nanomundo de las moléculas se producen interacciones físicas y químicas que explican porqué pega un adhesivo. Pero, hay además tres claves adicionales que contribuyen a la efectividad del pegado:
-Adhesión
-Cohesión
-Capacidad de mojado
Adhesión: Es el conjunto de las fuerzas generadas por interacción física y química en la interfase del adhesivo y el sustrato. Cuanto más intensas las interacciones, mayor es la fuerza que mantiene unido el adhesivo a la superficie a pegar.Un buen ejemplo de adhesión es por ejemplo tratar de despegar dos vidrios planos superpuestos. Esto es prácticamente imposible ya que ambas caras del vidrio están tan cerca una de la otra que comienza a actuar el conjunto de débiles fuerzas que mantiene unidos los vidrios. La única forma de poder separarlos es deslizando un vidrio sobre otro, produciendo un esfuerzo de corte que supera a las fuerzas que mantienen unidas ambas caras.
Tomemos otro ejemplo, ¿por qué es más fácil separar dos chapas de hormigón o madera superpuestas? La razón es que las caras de estos materiales son demasiado rugosas para que se acerquen lo suficiente unas a otras y para dar paso a las fuerzas de adhesión.
Cohesión: Nuevamente el conjunto de fuerzas generadas por la interacción física y química es la explicación de este fenómeno, pero esta vez a nivel molecular en el interior del adhesivo. Es decir, la cohesión es el conjunto de fuerzas que mantiene unidas entre sí las moléculas que conforman al adhesivo impidiendo que se rompa. Cuanto más fuertes estas uniones, más fuerte es el adhesivado.En este punto tenemos que resaltar cómo influyen en la cohesión del adhesivo ambos tipos de interacciones.A mayor interacción física (atracción-repulsión), más débil es la cohesión del adhesivo. Si buscamos un ejemplo, lo que más se asemeja es la acción de dos imanes.Si por el contrario las interacciones químicas son las más intensas, especialmente como lo encontramos en adhesivos reactivos, la cohesión del adhesivo es más fuerte.
Capacidad de mojado: Si queremos definir la capacidad de mojado de un líquido decimos que es el poder de los líquidos de formar con los sólidos, superficies de contacto.Como medida de mojado, se determina el ángulo de contacto entre líquido y sólido. Si el ángulo es menor o igual a 90º, el líquido tiene una baja tensión superficial. Si el ángulo es mayor a 90º, la tensión superficial aumenta.
Obtenido de:
http://resinasepoxi.com.ar/page/2/
La polaridad de las moléculas que conforman la superficie a ensamblar, es la primera clave para explicar porque los adhesivos se adhieren. A este fenómeno se lo llama interacción dipolo-dipolo que consiste en la atracción entre el extremo positivo de una molécula polar y el negativo de otra. A mayor polaridad se produce una interacción de fuerzas de atracción o repulsión más intensa que condicionan la adhesividad de un adhesivo.Las fuerzas de van der Waal, más débiles que la interacción antes mencionada, también contribuyen a las propiedades adhesivas, especialmente en adhesivos no polares como el poliestireno y a la capacidad de un simpático animalito parecido a una lagartija llamada Gecko, de pasearse alegremente de cabeza sobre superficies lisas y escalar paredes de vidrio (aparentemente lisas). Ahora bien, si el agua es polar, podemos asumir que también se adhiere sobre un sinfín de sustratos.
La segunda clave que explica la capacidad de adhesión, son las interacciones química y físicas a nivel molecular. Se produce una reacción química entre moléculas del adhesivo y el sustrato. Estas interacciones son sustancialmente más fuertes que las físicas y ocurren notoriamente en ciertas combinaciones sustrato – adhesivo.Ejemplo: silicona – vidrio; poliuretano – vidrio y epoxi – aluminio. En estos casos se ha comprobado que las interacciones químicas representan prácticamente un 50% en la efectividad de la unión.Más adelante analizaremos las propiedades de algunos sustratos que explican esta capacidad de unirse químicamente a los adhesivos.Por último la tercera clave es la que generalmente se acepta como la más efectiva y que se supone porqué pegan los adhesivos, pero que es la que menos aporta a la efectividad y/o durabilidad de una unión pegada.El anclaje micro mecánico.Al dicho “a mayor rugosidad de las superficies a ensamblar, mayor es el anclaje mecánico del adhesivo”, podemos refutarlo con las siguientes explicaciones:
-Únicamente favorable en determinadas condiciones espaciales
-Es aleatoria, es decir no puede ser generado en forma controlada ni es fehacientemente reproducible.Solamente se logra efectividad en el anclaje mecánico si en la superficie a pegar se insertan patrones de anclaje con ángulos negativos que permiten que el adhesivo fluya en los intersticios y se agarre.
Hemos visto que en el nanomundo de las moléculas se producen interacciones físicas y químicas que explican porqué pega un adhesivo. Pero, hay además tres claves adicionales que contribuyen a la efectividad del pegado:
-Adhesión
-Cohesión
-Capacidad de mojado
Adhesión: Es el conjunto de las fuerzas generadas por interacción física y química en la interfase del adhesivo y el sustrato. Cuanto más intensas las interacciones, mayor es la fuerza que mantiene unido el adhesivo a la superficie a pegar.Un buen ejemplo de adhesión es por ejemplo tratar de despegar dos vidrios planos superpuestos. Esto es prácticamente imposible ya que ambas caras del vidrio están tan cerca una de la otra que comienza a actuar el conjunto de débiles fuerzas que mantiene unidos los vidrios. La única forma de poder separarlos es deslizando un vidrio sobre otro, produciendo un esfuerzo de corte que supera a las fuerzas que mantienen unidas ambas caras.
Tomemos otro ejemplo, ¿por qué es más fácil separar dos chapas de hormigón o madera superpuestas? La razón es que las caras de estos materiales son demasiado rugosas para que se acerquen lo suficiente unas a otras y para dar paso a las fuerzas de adhesión.
Cohesión: Nuevamente el conjunto de fuerzas generadas por la interacción física y química es la explicación de este fenómeno, pero esta vez a nivel molecular en el interior del adhesivo. Es decir, la cohesión es el conjunto de fuerzas que mantiene unidas entre sí las moléculas que conforman al adhesivo impidiendo que se rompa. Cuanto más fuertes estas uniones, más fuerte es el adhesivado.En este punto tenemos que resaltar cómo influyen en la cohesión del adhesivo ambos tipos de interacciones.A mayor interacción física (atracción-repulsión), más débil es la cohesión del adhesivo. Si buscamos un ejemplo, lo que más se asemeja es la acción de dos imanes.Si por el contrario las interacciones químicas son las más intensas, especialmente como lo encontramos en adhesivos reactivos, la cohesión del adhesivo es más fuerte.
Capacidad de mojado: Si queremos definir la capacidad de mojado de un líquido decimos que es el poder de los líquidos de formar con los sólidos, superficies de contacto.Como medida de mojado, se determina el ángulo de contacto entre líquido y sólido. Si el ángulo es menor o igual a 90º, el líquido tiene una baja tensión superficial. Si el ángulo es mayor a 90º, la tensión superficial aumenta.
Obtenido de:
http://resinasepoxi.com.ar/page/2/
Inquietud
Si alguien llega y les pregunta.. cual es la razón química por la que el agua apaga el fuego, qué responden???
por cierto...
se me olvidó mencionar que la fotografía es de El Púlsar PSR B1929+10 visto por el XMM-Newton
Los viejos pulsares todávía nos enseñan nuevos trucos
La súper-sensibilidad del observatorio de Rayos X de la ESA XMM-Newton ha mostrado que la teoría predominante de cómo los cadáveres estelares, conocidos como púlsares, generan sus rayos X necesita ser revisada. En particular, la energía necesaria para generar los puntos calientes polares de un millón de grados vistos en estrellas de neutrones que se enfrían puede venir predominantemente del interior del púlsar, no del exterior. Hace treinta y nueve años, los astrónomos de Cambridge Jocelyn Bell-Burnell y Anthony Hewish descubrieron los púlsares. Estos objetos celestiales son los núcleos giratorios fuertemente magnetizados de estrellas muertas, cada uno de sólo 20 Km. de diámetro pero conteniendo aproximadamente 1,4 veces la masa del Sol. Incluso hoy, desconciertan a astrónomos de todo el mundo. 'La teoría de cómo los púlsares emiten su radiación está todavía en su infancia, incluso tras casi cuarenta años de trabajo', dice Werner Becker, del Instituto Max-Planck de Física Extraterrestre en Garching, Alemania. Hay muchos modelos pero no una teoría aceptada. Ahora, gracias a nuevas observaciones del XMM-Newton, Becker y sus colegas pueden haber encontrado una pieza crucial del puzzle que ayudará a los teóricos a explicar por qué las estrellas de neutrones que se enfrían tienen puntos calientes en sus regiones polares. Las estrellas de neutrones se forman con temperaturas de más de un billón (1012 K) de grados durante el colapso de estrellas masivas. Tan pronto como nacen comienzan a enfriarse. El cómo se enfrían puede depender de las propiedades físicas de la materia en su interior. Observaciones con satélites anteriores de rayos X han mostrado que los rayos X de las estrellas de neutrones en enfriamiento vienen de tres regiones del púlsar. En primer lugar, toda la superficie es tan caliente que emite rayos X. En segundo lugar, hay partículas cargadas en los alrededores magnéticos del púlsar que también emiten rayos X mientras se mueven hacia afuera, a lo largo de las líneas del campo magnético. En tercer lugar, y crucial para esta última investigación, los púlsares más jóvenes muestran puntos calientes de rayos X en sus polos. Hasta ahora, los astrónomos creían que las zonas calientes se producen cuando las partículas cargadas colisionan con la superficie del púlsar en los polos. Sin embargo, los últimos resultados del XMM-Newton han puesto en duda esta creencia.
El XMM-Newton capturó detalladas vistas de la emisión de rayos X de 5 púlsares, cada uno de los cuales tenía varios millones de años de antigüedad. 'Ningún otro satélite de rayos X puede hacer este trabajo. Sólo el XMM-Newton es capaz de observar detalles de su emisión de rayos X', dice Becker. Él y sus colaboradores no hallaron evidencia de emisión de superficie, ni puntos calientes polares, aunque vieron emisión de las partículas que se movían en el exterior. La carencia de emisión de superficie no es una sorpresa. En los varios millones de años desde su nacimiento, estos púlsares se han enfriado desde los billones de grados a mucho menos de 500 000 grados Celsius, lo que significa que su emisión superficial de rayos X se ha desvanecido de la vista. Sin embargo, la carencia de los puntos calientes polares en viejos púlsares es una gran sorpresa y muestra que el calentamiento de las regiones polares de la superficie por el bombardeo de partículas no es lo bastante eficiente para producir un componente termal de rayos X significativo. 'En el caso del púlsar de tres millones de años PSR B1929+10 la contribución de cualquier región polar calentada es menos del siete por ciento del flujo total de rayos X detectado', dice Becker. Parece que la creencia convencional no es la única forma de afrontar el problema. Una teoría alternativa es que el calor atrapado en el púlsar desde su nacimiento será guiado a los polos por el intenso campo magnético del interior del púlsar. Esto es por que el calor es transportado sobre electrones, que están cargados eléctricamente y por tanto serán orientados por los campos magnéticos. Esto significa que los puntos calientes polares en los púlsares más jóvenes son producidos predominantemente a partir del calor del interior del púlsar, más que a partir de la colisión de partículas desde el exterior del púlsar. Ellas por tanto desaparecerán de la vista de la misma forma que la emisión de la superficie. 'Esta teoría está todavía bajo discusión pero está mucho más apoyada por las nuevas observaciones del XMM-Newton', dice Becker. Casi cuarenta años después del descubrimiento de los púlsares, parece que los viejos púlsares todavía tienen nuevos trucos que enseñar a los astrónomos.
Catalizadores Eficientes Para Reproducir Una Fase de la Fotosíntesis
Científicos del Laboratorio Nacional de Brookhaven en EE.UU. y del Instituto para la Ciencia Molecular en Japón están tratando de imitar parte del complejo proceso natural de la fotosíntesis con el fin de obtener combustibles no contaminantes como el hidrógeno, por ejemplo, para su uso en células de combustible.
Por ahora, ya han logrado imitar la catálisis de oxidación del agua, que se produce en la fotosíntesis natural.
La oxidación hídrica, un paso de la fotosíntesis, es una parte del complejo proceso de descomponer la molécula del agua en hidrógeno y oxígeno.
La descomposición del agua requiere una gran cantidad de energía de la luz del Sol, y catalizadores metálicos para activar las moléculas de agua, muy estables. Esto se produce como dos "medias reacciones" separadas: La oxidación del agua produce el oxígeno, junto a protones y electrones; estos protones y electrones se combinan entonces para dar lugar a hidrógeno molecular.
Por lo general, se considera que la reacción de oxidación del agua es el proceso "limitador", lo que significa que si no se cataliza eficazmente, se limita la producción de hidrógeno. No se puede mantener la producción de hidrógeno sin los protones y electrones generados por la oxidación del agua. Así que para obtener hidrógeno a partir del agua en las celdas o células de combustible, los científicos deben vencer el desafío de encontrar vías eficientes y baratas de lograr la oxidación del agua.
El equipo de Brookhaven ha estado colaborando con dos científicos japoneses, Koji Tanaka y Tohru Wada, que en el 2001 descubrieron un nuevo catalizador que parece muy prometedor para la reacción de oxidación del agua.
Para lograr esta reacción, Tanaka y Wada inmovilizaron un catalizador especial de rutenio en un electrodo, lo agregaron a una solución acuosa, y aplicaron un voltaje, resultando una rápida actividad de oxidación de agua en oxígeno.
Los científicos han descubierto que cuando los protones de dos moléculas de agua son retirados debido a reacciones ácido-base en la solución, se transfieren cuatro electrones a sitios receptores de electrones en el catalizador. Una vez que todos los protones han sido retirados, los cálculos teóricos predicen que se forma un enlace oxígeno-oxígeno.
Lo que hace innovador a este catalizador es que en la mayoría de los catalizadores de compuestos basados en metales estos sitios receptores se localizan en los átomos de metal, mientras que en este complejo de rutenio se hallan en las moléculas de quinona.
Tomado de:
http://www.amazings.com/ciencia/noticias/210408e.html
Por ahora, ya han logrado imitar la catálisis de oxidación del agua, que se produce en la fotosíntesis natural.
La oxidación hídrica, un paso de la fotosíntesis, es una parte del complejo proceso de descomponer la molécula del agua en hidrógeno y oxígeno.
La descomposición del agua requiere una gran cantidad de energía de la luz del Sol, y catalizadores metálicos para activar las moléculas de agua, muy estables. Esto se produce como dos "medias reacciones" separadas: La oxidación del agua produce el oxígeno, junto a protones y electrones; estos protones y electrones se combinan entonces para dar lugar a hidrógeno molecular.
Por lo general, se considera que la reacción de oxidación del agua es el proceso "limitador", lo que significa que si no se cataliza eficazmente, se limita la producción de hidrógeno. No se puede mantener la producción de hidrógeno sin los protones y electrones generados por la oxidación del agua. Así que para obtener hidrógeno a partir del agua en las celdas o células de combustible, los científicos deben vencer el desafío de encontrar vías eficientes y baratas de lograr la oxidación del agua.
El equipo de Brookhaven ha estado colaborando con dos científicos japoneses, Koji Tanaka y Tohru Wada, que en el 2001 descubrieron un nuevo catalizador que parece muy prometedor para la reacción de oxidación del agua.
Para lograr esta reacción, Tanaka y Wada inmovilizaron un catalizador especial de rutenio en un electrodo, lo agregaron a una solución acuosa, y aplicaron un voltaje, resultando una rápida actividad de oxidación de agua en oxígeno.
Los científicos han descubierto que cuando los protones de dos moléculas de agua son retirados debido a reacciones ácido-base en la solución, se transfieren cuatro electrones a sitios receptores de electrones en el catalizador. Una vez que todos los protones han sido retirados, los cálculos teóricos predicen que se forma un enlace oxígeno-oxígeno.
Lo que hace innovador a este catalizador es que en la mayoría de los catalizadores de compuestos basados en metales estos sitios receptores se localizan en los átomos de metal, mientras que en este complejo de rutenio se hallan en las moléculas de quinona.
Tomado de:
http://www.amazings.com/ciencia/noticias/210408e.html
Oxido Nitroso para incrementar la potencia
Durante el proceso de la combustión en un motor, a unos 300 grados Celsius el Óxido Nitroso simplemente se descompone en Nitrógeno y Oxígeno.
Es el Oxígeno extra asi obtenido el que crea poder adicional al permitir que más combustible sea quemado. El poder (HP) siempre viene del combustible, téngalo en cuenta.
Entonces, si Usted agrega solamente Óxido Nitroso y no agrega combustible no conseguirá potencia extra. Puede aumentar el rango de velocidad de su vehículo quemando combustible, eso conduce a detonaciones destructivas del motor.
El Óxido Nitroso simplemente le permite quemar una mayor cantidad de combustible en el mismo período de tiempo.
Si vamos a revisar ciertos detalles, encontramos que el Óxido Nitroso es normalmente un gas como habíamos dicho. Para usarlo en nuestro coche se lo comprime a alta presión y se lo almacena en un tubo en la forma líquida. Desde el tubo de depósito y con una manguera de alta presión corre hacia el sistema del motor.
Con una válvula controlada eléctricamente llamada solenoide, se libera el Nitroso en el motor cuando se lo requiera.
En "Sistemas húmedos" de Óxido Nitroso, una línea de combustible, aparte de la línea del nitroso, es controlada por otro solenoide y libera combustible en el motor al mismo tiempo.
Tomado de:
http://tuning.deautomoviles.com.ar/articulos/oxido_nitroso.html
Es el Oxígeno extra asi obtenido el que crea poder adicional al permitir que más combustible sea quemado. El poder (HP) siempre viene del combustible, téngalo en cuenta.
Entonces, si Usted agrega solamente Óxido Nitroso y no agrega combustible no conseguirá potencia extra. Puede aumentar el rango de velocidad de su vehículo quemando combustible, eso conduce a detonaciones destructivas del motor.
El Óxido Nitroso simplemente le permite quemar una mayor cantidad de combustible en el mismo período de tiempo.
Si vamos a revisar ciertos detalles, encontramos que el Óxido Nitroso es normalmente un gas como habíamos dicho. Para usarlo en nuestro coche se lo comprime a alta presión y se lo almacena en un tubo en la forma líquida. Desde el tubo de depósito y con una manguera de alta presión corre hacia el sistema del motor.
Con una válvula controlada eléctricamente llamada solenoide, se libera el Nitroso en el motor cuando se lo requiera.
En "Sistemas húmedos" de Óxido Nitroso, una línea de combustible, aparte de la línea del nitroso, es controlada por otro solenoide y libera combustible en el motor al mismo tiempo.
Tomado de:
http://tuning.deautomoviles.com.ar/articulos/oxido_nitroso.html
Fechado con carbono 14
El método de Carbono 14 es usado comúnmente para fechar material orgánico o material que en algún tiempo fue parte de un organismo vivo.
Este método está basado en la medida del elemento radiactivo carbono 14, que se encuentra en todos los tejidos vivos. Como resultado de la radiación que pasa a través de la atmósfera superior de la tierra, los átomos ordinarios de nitrógeno se transforman en carbono 14 radiactivo. Algunos de estos átomos radiactivos son entonces incorporados en las moléculas de dióxido de carbono las cuales son a su vez absorbidas por las plantas en el proceso de fotosíntesis. Los animales consumen material vegetal o carne cuyo origen también está vinculado en alguna forma con las plantas. Cada organismo en sí, ya sea planta o animal, contiene una cierta cantidad de carbono 14 radiactivo.
Cuando un organismo muere, la absorción de carbono 14 cesa y el elemento radiactivo comienza el proceso de decadencia de regreso a nitrógeno. Al medir la cantidad de carbono radiactivo en una muestra se puede determinar la fecha de su muerte. Cuanto más carbono 14 esté presente, menor será la edad y cuanto menos tenga, más antiguo será el espécimen.
Al igual que los otros métodos de fechado radiométrico, el método Carbono 14 depende de varias hipótesis. Primero, para que este método de fechado funcione, la cantidad de carbono radiactivo en la atmósfera de la tierra debe haber sido constante. Esto significaría que la tasa de formación de carbono radiactivo habría tenido que ser igual a la tasa de decadencia en la época en que vivió el espécimen. Segundo, hay que suponer que la medida de decadencia era en el pasado la misma de hoy. Tercero, ninguna contaminación de carbono radiactivo podía ocurrir desde la muerte del espécimen.
A fin de evaluar completamente la exactitud del método de fechado carbono 14, procedamos a examinar la evidencia observable. Hay un número de factores en el medio que podemos considerar, los cuales indicarían que la tasa de formación de carbono radiactivo no ha sido constante en el pasado.
1.La disminución de la fuerza del campo magnético de la tierra, lo que provoca que la radiación cósmica penetre más fácilmente en la atmósfera de la tierra.
2.La actividad volcánica, que libera dióxido de carbono. Los períodos de violentas erupciones volcánicas transtornarían el balance del C-14 requerido para que este método fuera válido.
3.Las pruebas nucleares llevadas a cabo hace varias décadas han sido responsables de un aumento en la tasa de formación de carbono radiactivo.
4.Las llamaradas solares también son responsables de un aumento en la tasa de formación de carbono radiactivo.
5.Las colisiones de asteroides o meteoritos que tienen lugar en la tierra. Por ejemplo, en 1908 cayó un meteorito en Tunguska, Siberia. Los anillos concéntricos de todos los árboles alrededor del mundo indicaron que la cantidad de radiactividad fue mayor que la normal el año que siguió a la explosión de Siberia.
Por lo tanto, es inexacto suponer que la tasa de formación de carbono 14 y la de decadencia han sido constantes en el pasado. No hay forma posible de hace ajustes para compensar todas las variaciones que han ocurrido en el pasado. Una evaluación justa de la evidencia observable indica claramente que el fechado por el método de carbono 14 es altamente dudoso.
Confiabilidad de fechado por el método carbono 14
¿Es confiable el método de fechado por el carbono 14 radiactivo? Cuando se publican fechas en varios artículos científicos, ¿debemos aceptarlas como exactas e indiscutibles? Muchos científicos han asegurado que el fechado de material orgánico es tan digno de confianza y preciso como un reloj suizo. Procedamos a examinar unos pocos ejemplos señalando una buena razón para cuestionar la confiabilidad de este método.
1.Moluscos vivos han sido fechados por el proceso de carbono 14 y se les ha asignado una edad de 2300 años. Estos resultados fueron publicados en la revista SCIENCE, volumen 130, del 11 de diciembre de 1959.
2.La publicación Nature, volumen 225, del 7 de marzo de 1970, informó que se había llevado a cabo una prueba de carbono 14 en material orgánico contenido en el mortero de un castillo inglés. Aunque se sabía que el castillo tenía 787 años, el carbono 14 dio una edad de 7.370 años.
3. Focas recién muertas fueron fechadas por el método carbono 14 asignándoles 1.300 años de edad; focas momificadas que habían estado muertas por 30 años se les fijó 4.600 años. Estos resultados fueron publicados en el volumen 6, de 1971, del American Journal of the United States.
Y así, la lista continúa...
Tomado de :
http://www.geocities.com/cienciayfe/cf_c14.html
Este método está basado en la medida del elemento radiactivo carbono 14, que se encuentra en todos los tejidos vivos. Como resultado de la radiación que pasa a través de la atmósfera superior de la tierra, los átomos ordinarios de nitrógeno se transforman en carbono 14 radiactivo. Algunos de estos átomos radiactivos son entonces incorporados en las moléculas de dióxido de carbono las cuales son a su vez absorbidas por las plantas en el proceso de fotosíntesis. Los animales consumen material vegetal o carne cuyo origen también está vinculado en alguna forma con las plantas. Cada organismo en sí, ya sea planta o animal, contiene una cierta cantidad de carbono 14 radiactivo.
Cuando un organismo muere, la absorción de carbono 14 cesa y el elemento radiactivo comienza el proceso de decadencia de regreso a nitrógeno. Al medir la cantidad de carbono radiactivo en una muestra se puede determinar la fecha de su muerte. Cuanto más carbono 14 esté presente, menor será la edad y cuanto menos tenga, más antiguo será el espécimen.
Al igual que los otros métodos de fechado radiométrico, el método Carbono 14 depende de varias hipótesis. Primero, para que este método de fechado funcione, la cantidad de carbono radiactivo en la atmósfera de la tierra debe haber sido constante. Esto significaría que la tasa de formación de carbono radiactivo habría tenido que ser igual a la tasa de decadencia en la época en que vivió el espécimen. Segundo, hay que suponer que la medida de decadencia era en el pasado la misma de hoy. Tercero, ninguna contaminación de carbono radiactivo podía ocurrir desde la muerte del espécimen.
A fin de evaluar completamente la exactitud del método de fechado carbono 14, procedamos a examinar la evidencia observable. Hay un número de factores en el medio que podemos considerar, los cuales indicarían que la tasa de formación de carbono radiactivo no ha sido constante en el pasado.
1.La disminución de la fuerza del campo magnético de la tierra, lo que provoca que la radiación cósmica penetre más fácilmente en la atmósfera de la tierra.
2.La actividad volcánica, que libera dióxido de carbono. Los períodos de violentas erupciones volcánicas transtornarían el balance del C-14 requerido para que este método fuera válido.
3.Las pruebas nucleares llevadas a cabo hace varias décadas han sido responsables de un aumento en la tasa de formación de carbono radiactivo.
4.Las llamaradas solares también son responsables de un aumento en la tasa de formación de carbono radiactivo.
5.Las colisiones de asteroides o meteoritos que tienen lugar en la tierra. Por ejemplo, en 1908 cayó un meteorito en Tunguska, Siberia. Los anillos concéntricos de todos los árboles alrededor del mundo indicaron que la cantidad de radiactividad fue mayor que la normal el año que siguió a la explosión de Siberia.
Por lo tanto, es inexacto suponer que la tasa de formación de carbono 14 y la de decadencia han sido constantes en el pasado. No hay forma posible de hace ajustes para compensar todas las variaciones que han ocurrido en el pasado. Una evaluación justa de la evidencia observable indica claramente que el fechado por el método de carbono 14 es altamente dudoso.
Confiabilidad de fechado por el método carbono 14
¿Es confiable el método de fechado por el carbono 14 radiactivo? Cuando se publican fechas en varios artículos científicos, ¿debemos aceptarlas como exactas e indiscutibles? Muchos científicos han asegurado que el fechado de material orgánico es tan digno de confianza y preciso como un reloj suizo. Procedamos a examinar unos pocos ejemplos señalando una buena razón para cuestionar la confiabilidad de este método.
1.Moluscos vivos han sido fechados por el proceso de carbono 14 y se les ha asignado una edad de 2300 años. Estos resultados fueron publicados en la revista SCIENCE, volumen 130, del 11 de diciembre de 1959.
2.La publicación Nature, volumen 225, del 7 de marzo de 1970, informó que se había llevado a cabo una prueba de carbono 14 en material orgánico contenido en el mortero de un castillo inglés. Aunque se sabía que el castillo tenía 787 años, el carbono 14 dio una edad de 7.370 años.
3. Focas recién muertas fueron fechadas por el método carbono 14 asignándoles 1.300 años de edad; focas momificadas que habían estado muertas por 30 años se les fijó 4.600 años. Estos resultados fueron publicados en el volumen 6, de 1971, del American Journal of the United States.
Y así, la lista continúa...
Tomado de :
http://www.geocities.com/cienciayfe/cf_c14.html
¿Por que explota el maiz?
Como todos los granos de cereales, cada grano de maíz para palomitas contiene una cierta cantidad de humedad en su endospermo (núcleo almidonado con hasta 90% de almidón) [1]. A diferencia de la mayoría de los otros granos, la corteza externa o pericarpio, es muy gruesa e impermeable a la humedad.
A medida que el grano es calentado más allá de su punto de ebullición (100 °C), hasta los 175 °C, el agua dentro del grano empieza a convertirse en vapor, generando presiones internas de hasta unas 9 atmósferas. En la mayoría de los granos (incluyendo los granos defectuosos del maíz para palomitas), este vapor escapa tan rápido como se forma, pero en los granos del maíz para palomitas, el vapor no escapa debido a lo grueso e impermeable del pericarpio (corteza) que lo mantiene sellado, pero la presión interna llega a tal punto que la corteza no puede contenerla y ocurre una pequeña explosión. La fuerza de la explosión voltea al grano de adentro hacia fuera, es decir el contenido del núcleo es expuesto. Pero aun más importante, debido a que la humedad se encontraba uniformemente distribuida dentro del núcleo almidonado, la expansión repentina de la explosión convierte el endosperma en una especie de espuma, la cual le da a las palomitas su textura única.
Existen dos explicaciones para aquellos granos que no revientan después de haber sido expuestos a altas temperaturas. La primera es que los granos que no reventaron no tenían la suficiente humedad para crear el vapor necesario para explotar. La segunda explicación, de acuerdo a la investigación realizada en el 2005 por el Dr. Bruce Hamaker de la Universidad de Purdue, los granos que no explotan pueden tener la corteza agujereada, que también impide que se genere la presión suficiente para que revienten.
Y un dato aún más curioso:
Desde hace algún tiempo se emplean palomitas de maíz sin grasa, en lugar de espuma de poliestireno, como material de relleno en paquetes, para proteger las mercancías durante el transporte. Las palomitas de maíz después de servir como material de empaque, se pueden emplear como alimento para aves o ganado o pueden hacerse cómpost (abono orgánico). Teóricamente también pueden consumirlas los humanos, pero son totalmente insípidas.
Tomado de:
Tecnociencia.BlogSpot.com/2005/04
A medida que el grano es calentado más allá de su punto de ebullición (100 °C), hasta los 175 °C, el agua dentro del grano empieza a convertirse en vapor, generando presiones internas de hasta unas 9 atmósferas. En la mayoría de los granos (incluyendo los granos defectuosos del maíz para palomitas), este vapor escapa tan rápido como se forma, pero en los granos del maíz para palomitas, el vapor no escapa debido a lo grueso e impermeable del pericarpio (corteza) que lo mantiene sellado, pero la presión interna llega a tal punto que la corteza no puede contenerla y ocurre una pequeña explosión. La fuerza de la explosión voltea al grano de adentro hacia fuera, es decir el contenido del núcleo es expuesto. Pero aun más importante, debido a que la humedad se encontraba uniformemente distribuida dentro del núcleo almidonado, la expansión repentina de la explosión convierte el endosperma en una especie de espuma, la cual le da a las palomitas su textura única.
Existen dos explicaciones para aquellos granos que no revientan después de haber sido expuestos a altas temperaturas. La primera es que los granos que no reventaron no tenían la suficiente humedad para crear el vapor necesario para explotar. La segunda explicación, de acuerdo a la investigación realizada en el 2005 por el Dr. Bruce Hamaker de la Universidad de Purdue, los granos que no explotan pueden tener la corteza agujereada, que también impide que se genere la presión suficiente para que revienten.
Y un dato aún más curioso:
Desde hace algún tiempo se emplean palomitas de maíz sin grasa, en lugar de espuma de poliestireno, como material de relleno en paquetes, para proteger las mercancías durante el transporte. Las palomitas de maíz después de servir como material de empaque, se pueden emplear como alimento para aves o ganado o pueden hacerse cómpost (abono orgánico). Teóricamente también pueden consumirlas los humanos, pero son totalmente insípidas.
Tomado de:
Tecnociencia.BlogSpot.com/2005/04
La estructura del ADN
Pues bien, siguiendo con la línea de la doble hélice aquí les dejo la biografía de la verdadera descubridora de la esctructura del ADN, Rosalind Franklin.
Rosalind Elsie Franklin nació en Londres el 5 de julio de 1920. A los 15 años decidió ser científica, en contra de la opinión paterna que se oponía a que una mujer tuviese una educación superior.
Pero su voluntad decidida lograba conseguir la graduación en química a los 21 años, en la prestigiosa universidad de Cambridge. Sus excelentes estudios sobre la micro estructuras del carbón y del grafito fueron la base de su doctorado en química y física, obtenido en esa Universidad, en 1945.Después de Cambridge, pasó tres años productivos (1947-1950) en París, en el laboratoire de Services Chimiques de L´Etat, donde aprendió las técnicas de la difracción de la radiografía. En 1951 volvió a Inglaterra como investigadora asociada en el laboratorio de Randall en el King´s Collage de Londres. En dicho laboratorio otro investigador, Maurice Wilkins, llevaba largo tiempo trabajando en ADN, había tomado la primera fotografía relativamente clara de su difracción cristalográfica y no estaba dispuesto a la competencia interna. Por ello, a pesar de que Rosalind estaba realizando unos excelentes análisis de difracción de rayos X de preparaciónes de ADN, Wilkins se empeñaba en tratarla como asistente y no como colega. Las discusiones entre ellosse hicieron famosas. Las condiciones de trabajo que como mujer tuvo que soportar en Cambridge y ciertas palabras despectivas de James Watson, hacen aparecer como un agravio la concesión del Premio Nóbel de Fisiología y Medicina a Watson, Crack y Wilkins en 1962, cuando Rosalind ya había fallecido. Sus compañeros, incluso Watson, famoso por la mordacidad con que se refiere a sus colegas, expresaron repetidas veces su respeto personal e intelectual por ella.Franklin murió prematuramente, de cáncer de ovario, en Londres el 16 de abril de 1958, con toda probabilidad por efecto de las repetidas exposiciones a las radiaciones en el curso de sus investigaciones. Dado su carácter realista y poco especulativo no pudo llegar a imaginar que algún día se le consideraría la heroína ignorada del ADN ni que el King´s Collage le daría su nombre a uno de sus edificios donde se cultiva la mejor ciencia.
Tomado de:
http://www.juntadeandalucia.es/averroes/~29701416/Plastica/Cientificosdef/VidaObras/Rosalind_Franklin.pdf
Rosalind Elsie Franklin nació en Londres el 5 de julio de 1920. A los 15 años decidió ser científica, en contra de la opinión paterna que se oponía a que una mujer tuviese una educación superior.
Pero su voluntad decidida lograba conseguir la graduación en química a los 21 años, en la prestigiosa universidad de Cambridge. Sus excelentes estudios sobre la micro estructuras del carbón y del grafito fueron la base de su doctorado en química y física, obtenido en esa Universidad, en 1945.Después de Cambridge, pasó tres años productivos (1947-1950) en París, en el laboratoire de Services Chimiques de L´Etat, donde aprendió las técnicas de la difracción de la radiografía. En 1951 volvió a Inglaterra como investigadora asociada en el laboratorio de Randall en el King´s Collage de Londres. En dicho laboratorio otro investigador, Maurice Wilkins, llevaba largo tiempo trabajando en ADN, había tomado la primera fotografía relativamente clara de su difracción cristalográfica y no estaba dispuesto a la competencia interna. Por ello, a pesar de que Rosalind estaba realizando unos excelentes análisis de difracción de rayos X de preparaciónes de ADN, Wilkins se empeñaba en tratarla como asistente y no como colega. Las discusiones entre ellosse hicieron famosas. Las condiciones de trabajo que como mujer tuvo que soportar en Cambridge y ciertas palabras despectivas de James Watson, hacen aparecer como un agravio la concesión del Premio Nóbel de Fisiología y Medicina a Watson, Crack y Wilkins en 1962, cuando Rosalind ya había fallecido. Sus compañeros, incluso Watson, famoso por la mordacidad con que se refiere a sus colegas, expresaron repetidas veces su respeto personal e intelectual por ella.Franklin murió prematuramente, de cáncer de ovario, en Londres el 16 de abril de 1958, con toda probabilidad por efecto de las repetidas exposiciones a las radiaciones en el curso de sus investigaciones. Dado su carácter realista y poco especulativo no pudo llegar a imaginar que algún día se le consideraría la heroína ignorada del ADN ni que el King´s Collage le daría su nombre a uno de sus edificios donde se cultiva la mejor ciencia.
Tomado de:
http://www.juntadeandalucia.es/averroes/~29701416/Plastica/Cientificosdef/VidaObras/Rosalind_Franklin.pdf
Monday, March 23, 2009
El código genético hace el twist
Revelar cómo las cadenas de DNA se trenzan es el primer paso para entender cómo dicha estructura afecta el comportamiento bíológico de estas grandes moléculas, razón por la cual el grupo de Caltech en Pasadena, ha desarrollado un modelo computacional para descubrir cómo las cadenas de DNA y RNA se doblan en horquillas-bucles que se forman cuando se enlaza entre sus propios átomos. Ahmed Zewail y sus colegas dicen que su modelo puede ayudar a entender cómo se comportarían moléculas de DNA más grandes.
Las horquillas son una forma estructural muy importante del DNA y son de tamaño manejable para poner a prueba la idea de que tan largo es el doblez de las cadenas de DNA macromolecular. Es pensado que la cadena está lineal y doblada, pero Zewail ha demostrado en estudios usando absorbancia UV para seguir una horquilla formada después de estar sujeta a un brinco de temperatura inducido por láser, y sugiere que dicho proceso se da en una serie de pasos. Por lo cual, ha desarrollado un modelo cinético de la estructura intermediaria para examinar la ruta energética del doblez del DNA, mostrando estados intermediarios y barreras energéticas.
Su modelo predice que dicho proceso depende de la estrucutra de la horquilla, si el doblez comienza del bucle o de los extremos libres de la horquilla.
Philip Bevilacqua, que estudia RNA folding en Penn State University, considera este un modelo muy fácil de usar.
Por James Mitchell Crow
Referencia. MM Lin et al, Phys. Chem. Chem. Phys., 2008.
Las horquillas son una forma estructural muy importante del DNA y son de tamaño manejable para poner a prueba la idea de que tan largo es el doblez de las cadenas de DNA macromolecular. Es pensado que la cadena está lineal y doblada, pero Zewail ha demostrado en estudios usando absorbancia UV para seguir una horquilla formada después de estar sujeta a un brinco de temperatura inducido por láser, y sugiere que dicho proceso se da en una serie de pasos. Por lo cual, ha desarrollado un modelo cinético de la estructura intermediaria para examinar la ruta energética del doblez del DNA, mostrando estados intermediarios y barreras energéticas.
Su modelo predice que dicho proceso depende de la estrucutra de la horquilla, si el doblez comienza del bucle o de los extremos libres de la horquilla.
Philip Bevilacqua, que estudia RNA folding en Penn State University, considera este un modelo muy fácil de usar.
Por James Mitchell Crow
Referencia. MM Lin et al, Phys. Chem. Chem. Phys., 2008.
Pesando células
Cuánto pesa una célula?
La masa celular es directamente relacionada con el crecimiento y la división celular, dice Rashid Bashir en la Universidad de Illinois en Urbana-Champaign. En un esfuerzo por entender esta relación, Bashir y sus colegas han diseñado un instrumento para medir la masa celular al mismo tiempo que crece en un fluido.
El instrumento contiene un arreglo de láminas "voladizas" deteniendo canales de microfluidos. Tal como las suspensiones de células fluyen a través de los canales, las células pueden ser capturadas en las láminas usando campos eléctricos alternativos. El cambio en la masa es calculado por el cambio en la frecuencia de resonancia en las láminas, tan pronto como va creciendo la célula.
El equipo planea refinar el método, capturando células en pedestales suspendidos, esto ayudará a controlar la posición de la célula en las láminas y mejorará la sensibilidad de la técnica.
Bashir quiere medir la masa celular ocmo una función del tiempo. Considera que midiendo directamente la masa de una sola célula es mejor que un promedio, porque ayudaría a los científicos a seguir el progreso de ella durante el ciclo celular. Su sueño es monitorear cómo una célula se divide en dos"
Por Russell Johnson
Referencia. K Park et al, Lab Chip, 2008, DOI: 10.1039/b803601b
La masa celular es directamente relacionada con el crecimiento y la división celular, dice Rashid Bashir en la Universidad de Illinois en Urbana-Champaign. En un esfuerzo por entender esta relación, Bashir y sus colegas han diseñado un instrumento para medir la masa celular al mismo tiempo que crece en un fluido.
El instrumento contiene un arreglo de láminas "voladizas" deteniendo canales de microfluidos. Tal como las suspensiones de células fluyen a través de los canales, las células pueden ser capturadas en las láminas usando campos eléctricos alternativos. El cambio en la masa es calculado por el cambio en la frecuencia de resonancia en las láminas, tan pronto como va creciendo la célula.
El equipo planea refinar el método, capturando células en pedestales suspendidos, esto ayudará a controlar la posición de la célula en las láminas y mejorará la sensibilidad de la técnica.
Bashir quiere medir la masa celular ocmo una función del tiempo. Considera que midiendo directamente la masa de una sola célula es mejor que un promedio, porque ayudaría a los científicos a seguir el progreso de ella durante el ciclo celular. Su sueño es monitorear cómo una célula se divide en dos"
Por Russell Johnson
Referencia. K Park et al, Lab Chip, 2008, DOI: 10.1039/b803601b
Plantas de calabaza atrapan partículas
Científicos estadounidenses han mostrado que las plantas pueden absorber nanopartículas de su medio ambiente- esto significa que las nano partículas pueden encontrar la forma de entrar a la cadena alimentaria humana. Yan Jin y sus colegas en la Universidad de Delaware en Newark, encontraron que la calabaza puede tomar nanopartículas a través de sus raíces y que son transportadas alrededor de la planta. El estudio es parte de un esfuerzo por evaluar el destino biológico y medio ambiental de las nanopartículas si son liberadas en el suelo o aguas de riego.
Jin y su equipo sembró las calabazas en un suelo con nanopartículas de magnetita (óxido de hierro magnético). Después usaron un magnetómetro (que detecta señales magnéticas) para medir el contenido magnético en muestras de diferentes partes de la planta. Los estudios mostraron que las plantas tomaron una cantidad significante de particulas que se acumularon principalmente en las raíces y hojas.
A pesar de que las investigaciones en los impactos medio ambientales y de salud de los nanomateriales están iniciando, las nanopartículas pueden ser muy tóxicas, por lo tanto es necesario que se estudie más para evaluar el riesgo de su acumulación en la cadena alimenticia, ya que después de estar en las plantas puede llegar a los seres humanos y causar mayores daños.
Normalmente se estudia el tejido animal o humano, pero estudiar la ruta de dichas sustancias en el proveedor de nutrientes (plantas) da un nuevo punto de vista y de estudio en esta área.
Por Sarah Dixon
Referencia: H Zhu et al. J. Environ. Monit.,2008, 10, 713
Jin y su equipo sembró las calabazas en un suelo con nanopartículas de magnetita (óxido de hierro magnético). Después usaron un magnetómetro (que detecta señales magnéticas) para medir el contenido magnético en muestras de diferentes partes de la planta. Los estudios mostraron que las plantas tomaron una cantidad significante de particulas que se acumularon principalmente en las raíces y hojas.
A pesar de que las investigaciones en los impactos medio ambientales y de salud de los nanomateriales están iniciando, las nanopartículas pueden ser muy tóxicas, por lo tanto es necesario que se estudie más para evaluar el riesgo de su acumulación en la cadena alimenticia, ya que después de estar en las plantas puede llegar a los seres humanos y causar mayores daños.
Normalmente se estudia el tejido animal o humano, pero estudiar la ruta de dichas sustancias en el proveedor de nutrientes (plantas) da un nuevo punto de vista y de estudio en esta área.
Por Sarah Dixon
Referencia: H Zhu et al. J. Environ. Monit.,2008, 10, 713
Detectión 3D de metales biológicos
Las pulgas de agua son la materia de estudio para imagenología 3D no destructiva que señala metales en vivo.
Laszlo Vincze de la Ghent University, Bélgica, y sus colegas en Bélgica, Hungría y Alemania han combinado técnicas de rayos X para detectar iones metálicos y su localización en muestras biológicas (incluyendo sistemas vivos).El estudio de metales traza dentro de los organismos ("metallomics") es un área de investigación de rápida expansión tal como los metales juegan roles vitales en los sistemas biológicos; sin embargo, las técnicas hasta ahroita son destructivas y no dan pistas sobre la distribución del metal.Vincze ha usado la espectroscopía de masas para estudiar la recepción del metal en pulgas de agua y sus contribuciones relativas de diferentes rutas de exposición, como agua o dieta. Pero la descomposición total de la pulga requería preparación de las muestras y no se pudo distinguir la acumulación local del metal en los diferentes tejidos. En vez de esto, combinando radiación sincrotónica de fluorescencia de rayos X y microtomografía de absorción de rayos X, el equipo de Vincze elucidó la distribución del metal en las pulgas sin técnicas invasivas de preparación de la mezcla.
La muestra puede ser investigada en tres dimensiones en una manera no destructiva, dejando muchas otras técnicas de análisis atrás. Debido a los avances recientes en la ciencia de los rayos X, la imagen de la distribución de los metales de transición con resolución de 1micrómetro a 1 nm y con sensibilidad (orden de ppm) puede ser posible.
Vincze advierte que con la imagenología biológica, el daño de la radiación es un problema de los más desafiantes en las futuras mediciones de escaneo por fluorescencia de rayos X; de cualquier manera, cree que juntando esta técnica con la suya, y espera ver una rápida evolución hacia imagenología in situ de escala nano en áreas de la Tierra, medio ambiente, de materiales, arqueología, entre otras.
Por Edward Morgan
Referencia: B De Samber et al. J.Anal. At. Spectrom., 2008, 23, 829.
Laszlo Vincze de la Ghent University, Bélgica, y sus colegas en Bélgica, Hungría y Alemania han combinado técnicas de rayos X para detectar iones metálicos y su localización en muestras biológicas (incluyendo sistemas vivos).El estudio de metales traza dentro de los organismos ("metallomics") es un área de investigación de rápida expansión tal como los metales juegan roles vitales en los sistemas biológicos; sin embargo, las técnicas hasta ahroita son destructivas y no dan pistas sobre la distribución del metal.Vincze ha usado la espectroscopía de masas para estudiar la recepción del metal en pulgas de agua y sus contribuciones relativas de diferentes rutas de exposición, como agua o dieta. Pero la descomposición total de la pulga requería preparación de las muestras y no se pudo distinguir la acumulación local del metal en los diferentes tejidos. En vez de esto, combinando radiación sincrotónica de fluorescencia de rayos X y microtomografía de absorción de rayos X, el equipo de Vincze elucidó la distribución del metal en las pulgas sin técnicas invasivas de preparación de la mezcla.
La muestra puede ser investigada en tres dimensiones en una manera no destructiva, dejando muchas otras técnicas de análisis atrás. Debido a los avances recientes en la ciencia de los rayos X, la imagen de la distribución de los metales de transición con resolución de 1micrómetro a 1 nm y con sensibilidad (orden de ppm) puede ser posible.
Vincze advierte que con la imagenología biológica, el daño de la radiación es un problema de los más desafiantes en las futuras mediciones de escaneo por fluorescencia de rayos X; de cualquier manera, cree que juntando esta técnica con la suya, y espera ver una rápida evolución hacia imagenología in situ de escala nano en áreas de la Tierra, medio ambiente, de materiales, arqueología, entre otras.
Por Edward Morgan
Referencia: B De Samber et al. J.Anal. At. Spectrom., 2008, 23, 829.
Aplicaciones del Microscopio Electrónico
El microscopio electrónico de barrido (SEM) es un instrumento que permite la observación y caracterización superficial de materiales inorgánicos y orgánicos, entregando información morfológica del material analizado. A partir de él se producen distintos tipos de señal que se generan desde la muestra y se utilizan para examinar muchas de sus características. Con él se pueden realizar estudios de los aspectos morfológicos de zonas microscópicas de los distintos materiales con los que trabajan los investigadores de la comunidad científica y las empresas privadas, además del procesamiento y análisis de las imágenes obtenidas. Las principales utilidades del SEM son la alta resolución (~100 Å), la gran profundidad de campo que le da apariencia tridimensional a las imágenes y la sencilla preparación de las muestras. Entre las áreas de aplicación de esta técnica, se pueden mencionar:
1. Geología: Investigaciones geomineras, cristalográficas, mineralógicas y petrológicas. Estudio morfológico y estructural de las muestras.
2. Estudio de materiales: Caracterización microestructural de materiales. Identificación, análisis de fases cristalinas y transiciones de fases en diversos materiales tales como metales, cerámicos, materiales compuestos, semiconductores, polímeros y minerales. Composición de superficies y tamaño de grano. Valoración del deterioro de materiales, determinación del grado de cristalinidad y presencia de defectos. Identificación del tipo de degradación: fatiga, corrosión, fragilización, etc.
3. Metalurgia: Control de calidad y estudio de fatiga de materiales, características texturales. Análisis de fractura (fractomecánica) en materiales (Ver Figura 1), un ejemplo concreto de este tipo de aplicación se expone en la parte de trabajo práctico.
4. Odontología: En este campo son muchas las aplicaciones de las caracterizaciones morfológicas que se pueden realizar con el microscopio electrónico de barrido.
5. Paleontología y Arqueología: Caracterización de aspectos morfológicos.
6. Control de Calidad: En este campo, el microscopio electrónico de barrido es de gran utilidad para el seguimiento morfológico de procesos y su aplicación en el control de calidad de productos de uso y consumo.
7. Peritajes: Estudios de muestras de cualquiera de las áreas antes mencionadas.
8. Medicina Forense: Análisis morfológico de pruebas.
9. Botánica, Biomedicina y Medicina: Estudio morfológico.
10. Estudio químico y estructural de obras de arte, alteración de monumentos, control de calidad, identificación de pigmentos.
11. Peritaciones Caligráficas: Estudio de trazos.
12. Electrónica: Control y calidad de partes electrónicas.
Por estas razones; la microscopia electrónica es indispensable en nuestros días.
Mayor información:
cabierta.uchile.cl/revista/28/articulos/pdf/edu3.pdf
cabierta.uchile.cl/revista/28/articulos/pdf/edu3.pdf
Metamateriales, principio hacía la invisibilidad
Un equipo de investigadores (Londres/ Washington) creó un material que no refleja la luz visible, lo que podría en un futuro hacer “desaparecer” objetos de cualquier tamaño. El grupo de científicos creó dos nuevos tipos de materiales. Uno de los proyectos utiliza una especia de red de capas de metal que invierte la dirección de la luz, mientras otra emplea diminutos cables de plata, ambas a escala de nanotecnología. Los dos son ejemplos de los llamados metamateriales.
Los metamateriales son materiales artificiales electromagnéticos con propiedades superiores a las que se pueden encontrar en la naturaleza. En general, se trata de compuestos ordenados cuyas propiedades físicas son distintas a la de sus constituyentes. Por ejemplo, el índice de refracción de un metamaterial puede ser negativo mientras el índice de refracción de las partes constituyentes es siempre positivo.
Algunos de ellos se fabrican con técnicas de nanotecnología similares a las que se usan para fabricar micromáquinas y circuitos integrados. Su desarrollo está desempeñando un papel fundamental en la provisión de nuevas funcionalidades y mejoras para los aparatos y componentes electrónicos del futuro, como circuitos de alta velocidad, sistemas de imagen de alta resolución o sistemas de comunicación integrados en la ropa. Además se pueden utilizar en la fabricación de lentes planos que permitan enfocar luz en áreas muy pequeñas.
Hidrógeno: Energía del futuro
El hidrógeno es el más simple de los elementos químicos y el más abundante del universo, en la tierra existe combinado con otros elementos, como en el agua. Es más, muchos de los combustibles que actualmente utilizamos con fines energéticos, tienen en su composición al hidrógeno como por ejemplo la bencina, el gas natural, el propano, el etanol, entre otros.
Son todas estas últimas sustancias, especialmente el gas natural, las que se emplean mayoritariamente para obtener el gas hidrógeno, H2, a través de un proceso, en presencia de calor y vapor de agua, llamado reformado de hidrógeno. También puede emplearse la corriente eléctrica para separar el hidrógeno del oxígeno en un proceso conocido como electrólisis. Algunas algas y bacterias eliminan hidrógeno como subproducto de sus procesos metabólicos.
El dispositivo empleado para combinar el hidrógeno con el oxígeno y generar electricidad, calor y agua, se conoce como celda de combustible. La celda de combustible produce corriente directa como una batería, pero al contrario de una batería, nunca se descarga; la celda sigue produciendo energía mientras se disponga de combustible, es decir, se le inyecte más hidrógeno. Existen varias clases de celdas de combustible, generalmente clasificadas según el tipo de electrolito que emplean, así: la de Membrana de Intercambio Protónico (PEM), la de carbonato derretido, las de ácido fosfórico y las de las de electrolito alcalino.
Este tipo de energía será completamente aplicable a los autos cuando se logre almacenar el gas hidrógeno en tanques presurizados en forma líquida sin que se pierda su potencial energético y se superen por tanto a los combustibles fósiles no solo en aspectos ambientales sino también en su capacidad de almacenamiento.
La tecnología, la ciencia y políticas energéticas de los países más desarrollados, están cada vez más definidas por el uso de las celdas de combustibles como medios de producción de energía, basta con mirar a los Estados Unidos, en donde la administración del Presidente George Bush ha comprometido inversiones de más de 1.7 billones de dólares en investigación y uso del hidrógeno como combustible.
Mayor información:
www.atinabiotec.cl/content/view/35175/EL_HIDROGENO_COMO_ENERGIA_DEL_FUTURO.html
Materiales del futuro
Ingenieros de la universidad norteamericana de Illinois, en Urbana-Champaign, han conseguido desarrollar un material polimérico auto reparable sin ninguna intervención externa y en un plazo de tiempo de 10 horas. Este logro tecnológico abre un nuevo camino hacia la fabricación de implantes médicos auto reparables, materiales con la misma capacidad para aviones y naves espaciales e incluso recubrimientos plásticos que se regeneren solos.
Según afirma la UIUC en un comunicado, el novedoso material imita la regeneración de la piel humana, y va incorporado a una serie de redes tridimensionales que emulan los sistemas circulatorios biológicos. Cuando la piel se corta, aumenta el flujo de sangre hacia la herida, lo que provoca la curación de ésta. El nuevo material funciona de manera parecida, puesto que tiene una naturaleza vascular, que le permite reducir los daños producidos en cualquiera de sus partes siempre que se desee.
El material contiene un agente diminuto de “curación” encapsulado y un catalizador distribuido por todo el sistema. Cuando se rompe, las microcápsulas con dicho agente se abren, liberándolo para que reaccione con el catalizador para reparar los daños. Para evitar que este agente se acabe cuando se rompe la misma parte del sistema varias veces, se creó un modelo similar al del sistema circulatorio orgánico, que ha permitido que haya un suministro continuo de agente reparador de manera indefinida.
Para crear el material auto reparable, los investigadores comenzaron construyendo una plataforma siguiendo un proceso robótico de ensamblaje molecular denominado “direct-write assembly” en el que se utiliza una tinta polimérica concentrada y distribuida como un filamento continuo, para fabricar estructuras tridimensionales, capa a capa. Una vez fabricada la plataforma, se rodea con un pegamento de resina. Tras el tratamiento, la resina se calienta y la tinta –que se ha licuado- se extrae, dejando un sustrato con una red de microcanales entrelazados.
En un último paso, los investigadores depositaron un frágil recubrimiento polimérico de resina sobre dicho sustrato, y rellenaron la red con un agente reparador líquido. En las pruebas realizadas, el recubrimiento y el sustrato se doblaron hasta que se rompió el recubrimiento. Esta rotura se propagó hasta llegar a uno de los “capilares” rellenados con el fluido reparador, situado en la interconexión entre el sustrato y dicho recubrimiento. Entonces, el agente reparador viajó desde el capilar hacia la rotura, donde interactuó con las partículas catalíticas. Siempre que haya una rotura, el agente reparador actuará de la misma forma, garantizando la reparación del material en cualquiera de sus partes.
Esta es la primera vez que se consigue un material auto reparable que no necesita intervención externa. Las pruebas demostraron que las roturas se arreglaban solas en un intervalo de tiempo máximo de 10 horas.
Mayor información:
www.tecnologosunam.com/index.php?option=com_content&task=view&id=66
Aplicaciones de los Rayos X
El estudio de los rayos X ha desempeñado un papel primordial en la física teórica, sobre todo en el desarrollo de la mecánica cuántica. Como herramienta de investigación, los rayos X han permitido confirmar experimentalmente las teorías cristalográficas. Utilizando métodos de difracción de rayos X es posible identificar las sustancias cristalinas y determinar su estructura. Casi todos los conocimientos actuales en este campo se han obtenido o verificado mediante análisis con rayos X. Mediante estos métodos es posible identificar sustancias químicas y determinar el tamaño de partículas ultramicroscópicas. Los elementos químicos y sus isótopos pueden identificarse mediante espectroscopia de rayos X, que determina las longitudes de onda de sus espectros de líneas característicos. Varios elementos fueron descubiertos mediante el análisis de espectros de rayos X.
Algunas aplicaciones recientes de los rayos X en la investigación van adquiriendo cada vez más importancia. La microrradiografía, por ejemplo, produce imágenes de alta resolución que pueden ampliarse considerablemente. Dos radiografías pueden combinarse en un proyector para producir una imagen tridimensional llamada estereorradiograma. La radiografía en color también se emplea para mejorar el detalle; en este proceso, las diferencias en la absorción de rayos X por una muestra se representan como colores distintos. La microsonda de electrones, que utiliza un haz de electrones muy preciso para generar rayos X sobre una muestra en una superficie de sólo una micra cuadrada, proporciona también una información muy detallada.
Además de las aplicaciones de los rayos X para la investigación en física, química, mineralogía, metalurgia y biología, los rayos X también se emplean en la industria como herramienta de investigación y para realizar numerosos procesos de prueba.
Son muy útiles para examinar objetos, por ejemplo piezas metálicas, sin destruirlos. Las imágenes de rayos X en placas fotográficas muestran la existencia de fallos, pero la desventaja de este sistema es que el equipo de rayos X de alta potencia que se necesita es voluminoso y caro. Por ello, en algunos casos se emplean radioisótopos que emiten rayos gamma de alta penetración en vez de equipos de rayos X. Estas fuentes de isótopos pueden albergarse en contenedores relativamente ligeros, compactos y blindados. Para la radiografía industrial se suelen utilizar el cobalto 60 y el cesio 137. En algunas aplicaciones médicas e industriales se ha empleado tulio 70 en proyectores isotópicos pequeños y cómodos de usar.
Muchos productos industriales se inspeccionan de forma rutinaria mediante rayos X, para que las unidades defectuosas puedan eliminarse en el lugar de producción. Existen además otras aplicaciones de los rayos X, entre las que figuran la identificación de gemas falsas o la detección de mercancías de contrabando en las aduanas; también se utilizan en los aeropuertos para detectar objetos peligrosos en los equipajes. Los rayos X ultrablandos se emplean para determinar la autenticidad de obras de arte y para restaurar cuadros.
Las fotografías de rayos X o radiografías y la fluoroscopia se emplean mucho en medicina como herramientas de diagnóstico. En la radioterapia se emplean rayos X para tratar determinadas enfermedades, en particular el cáncer, exponiendo los tumores a la radiación.
La utilidad de las radiografías para el diagnóstico se debe a la capacidad de penetración de los rayos X. A los pocos años de su descubrimiento ya se empleaban para localizar cuerpos extraños, por ejemplo balas, en el interior del cuerpo humano. Con la mejora de las técnicas de rayos X, las radiografías revelaron minúsculas diferencias en los tejidos, y muchas enfermedades pudieron diagnosticarse con este método.
Los rayos X eran el método más importante para diagnosticar la tuberculosis cuando esta enfermedad estaba muy extendida. Las imágenes de los pulmones eran fáciles de interpretar porque los espacios con aire son más transparentes a los rayos X que los tejidos pulmonares. Otras cavidades del cuerpo pueden llenarse artificialmente con materiales de contraste, de forma que un órgano determinado se vea con mayor claridad. El sulfato de bario, muy opaco a los rayos X, se utiliza para la radiografía del aparato digestivo. Para examinar los riñones o la vesícula biliar se administran determinados compuestos opacos por vía oral o intravenosa. Estos compuestos pueden tener efectos secundarios graves, por lo que sólo deben ser empleados después de una consulta cuidadosa.
Mayor información:
mx.encarta.msn.com/encyclopedia_761579196_3/Rayos_X.html
Historia de los Rayos X
La historia de los rayos x comienza con los experimentos del científico William Crookes, en el siglo XIX, quien investigó los efectos de ciertos gases, en conjunto con descargas de energía. Estos experimentos, se desarrollaban en un tubo que contenía al vacío, y electrodos para que se generaran corrientes de alto voltaje. El lo llamó tubo de Crookes. Pues bien, este tubo al estar cerca de placas fotográficas, generaba en las mismas algunas imágenes ciertamente borrosas. Pero este físico inglés, no continuó investigando mayormente este efecto.
Es así, como Nikola Telsa en 1887, comenzó a estudiar este efecto creado por medio de los tubos de Crookes. Claro que tras su investigación, se dio cuenta de los peligros para los organismos biológicos de estas radiaciones y alerto a la comunidad científica.
Pero no fue hasta 1895, que Wilhelm Conrado Röntgen, que es considerado quien inventó los rayos x, documentando estos experimentos con tubos al vacío fue el primero en llamar rayos x a la radiación emitida, por ser de tipo desconocida. Por ello, este científico fue galardonado con el primer Premio Nobel de Física.
Más adelante en sus experimentos notó casualmente que esta radiación podía atravesar objetos materiales y dejar impresiones de su paso a través de estos y por supuesto, al pasar a través del cuerpo humano con sus huesos; se dió cuenta de esto al sujetar con su mano objetos para la experimentación. En 1896 publicó su descubrimiento y dio la primera demostración. De ahí en adelante, el desarrollo de las aplicaciones fue bastante rápido.
Espectroscopía Raman contra el crimen
Médicos, odontólogos forenses y científicos empiezan a usar la tecnología que ofrece la espectroscopía Raman para identificación molecular.
En su forma más simple, un espectrofotómetro Raman emite una sola longitud de onda láser sobre una muestra. La muestra absorbe las moléculas, o dispersa la emisión de los fotones. Un filtro captura fotones dispersos con la misma longitud de onda que el láser y discrimina fotones con longitudes de onda diferentes. Estos fotones chocan y como un prisma, se les separa por longitud de onda. El modelo resultante o huella digital espectral, se pasa a un ordenador donde se determina composición química de la muestra.
Las diversas técnicas espectroscópicas revelan en una molécula química, su huella digital única de longitud de onda por las radiaciones que la molécula absorbe o emite, o se puede verificar cómo la radiación dispersa que puede interactuar con una molécula. Durante 30 años, los científicos han estado ansiosos por aprovechar el poder de la espectroscopia Raman. El método mantiene la promesa de identificación de los inicios de caries dentales y tumores y podría incluso ayudar a investigadores forenses a identificar asesinos antes de levantar huellas dactilares latentes de cadáveres.
Una variedad de investigadores, dentistas, médicos y químicos, ahora informan sobre los primeros éxitos utilizando la espectroscopia Raman para la identificación de productos químicos y minerales dentro de séres vivos y muertos - "La Espectroscopia Raman es una herramienta muy poderosa", dice Cristina Zavaleta, un radiólogo de imágenes moleculares de la Stanford University. Pero, añade, la técnica todavía necesita un tiempo para desarrollarse.
Tomado de http://www.criminalistica.net/forense/hemeroteca/odontologia-forense/espectroscopia-raman-puede-ayudar-a-medicos-odontologos-forenses-y-cientificos-como-herramienta-para-identificacion-molecular.html
En su forma más simple, un espectrofotómetro Raman emite una sola longitud de onda láser sobre una muestra. La muestra absorbe las moléculas, o dispersa la emisión de los fotones. Un filtro captura fotones dispersos con la misma longitud de onda que el láser y discrimina fotones con longitudes de onda diferentes. Estos fotones chocan y como un prisma, se les separa por longitud de onda. El modelo resultante o huella digital espectral, se pasa a un ordenador donde se determina composición química de la muestra.
Las diversas técnicas espectroscópicas revelan en una molécula química, su huella digital única de longitud de onda por las radiaciones que la molécula absorbe o emite, o se puede verificar cómo la radiación dispersa que puede interactuar con una molécula. Durante 30 años, los científicos han estado ansiosos por aprovechar el poder de la espectroscopia Raman. El método mantiene la promesa de identificación de los inicios de caries dentales y tumores y podría incluso ayudar a investigadores forenses a identificar asesinos antes de levantar huellas dactilares latentes de cadáveres.
Una variedad de investigadores, dentistas, médicos y químicos, ahora informan sobre los primeros éxitos utilizando la espectroscopia Raman para la identificación de productos químicos y minerales dentro de séres vivos y muertos - "La Espectroscopia Raman es una herramienta muy poderosa", dice Cristina Zavaleta, un radiólogo de imágenes moleculares de la Stanford University. Pero, añade, la técnica todavía necesita un tiempo para desarrollarse.
Tomado de http://www.criminalistica.net/forense/hemeroteca/odontologia-forense/espectroscopia-raman-puede-ayudar-a-medicos-odontologos-forenses-y-cientificos-como-herramienta-para-identificacion-molecular.html
Subscribe to:
Posts (Atom)
NEODIMIO ¡no te lo pierdas!
-
De entre todos los compuestos químicos que existen, quizá sean los llamados compuestos de coordinación los que mayores dificultades ofrecen ...
-
Básicamente el video habla por sí sólo. Se tiene una cerveza fría líquida recién sacada del refrigerador o congelador, se le da un golpe y e...