Saturday, April 25, 2015

Computadoras que imitan el funcionamiento del cerebro

Se sabe que desde hace mucho tiempo, desde que los científicos empezaron a desarrollar las computadoras, se ha buscado mejorar y mejorar las capacidades de éstas, hacerlas cada vez más poderosas. Pero siempre hay un tope...¿Cuál es éste? La computadora más poderosa es la mente humana. Por eso lo que ahora se quiere lograr es que haya computadoras que puedan imitar las funciones del cerebro.

Un problema que tienen las computadoras ahora es que usan el RAM (random access memory) la cual puede grabar información de manera muy rápida, pero ésta se pierde si la computadora se apaga o si por alguna motivo se queda sin energía. En la mente, no pasa eso, si nos quedamos con energía al siguiente día despertamos con el mismo conocimiento que teníamos la noche anterior.

El nuevo descubrimiento/invento que puede que revolucione esto son unas cositas llamadas memristors, que son básicamente revisteros de memoria avanzados que recuerdan cuánto corriente ha pasado por ellos. Y estos se pueden utilizar como elementos de memoria en sistemas computarizados para poder retener información aún cuando no hay energía.

Los memristors están hechos de disulfito de molibdeno en una capa, el orden en el que se acomodan los átomos dentro de la estructura deja huecos, o mejor dicho, están arreglados de una manera llamada "granos", cuyas fronteras están muy bien definidas y esos lugares son los que influyen en cómo el material "recuerda" cuánta corriente ha pasado por ellos.


Pero, para mi gusto, opinión o cómo sea. Creo que crear una computadora que imite las capacidades casi infinitas del cerebro sería condenar a la humanidad, pues una máquina inteligente podría llegar a tener las capacidades de destruir a la humanidad entera. Como relata Isaac Asimov: 

Un grupo de científicos creó a la computadora más poderosa del planeta y la primera pregunta que le hicieron fue: ¿Hay un Dios? 
La computadora dijo: Ahora lo hay. 
Y causó un corto que evitara que la pudieran desconectar...

Lo dejo para pensar...

http://www.sciencedaily.com/releases/2015/04/150406153036.htm

Friday, April 24, 2015


Los teléfonos móviles fabricados con grafeno son una realidad.

Las compañías chinas Moxi y Galapad anuncian en el MWC que lanzarán al mercado ciertos modelos que incorporarán el grafeno como material principal

Hace ya mucho tiempo que sabemos de las increíbles propiedades del grafeno y desde que muchos afirmasen que acabaría por convertirse en el material con el que se fabricarían los teléfonos móviles y las tabletas del futuro. Todos pronosticaban que, más pronto que tarde, este mineral acabaría por imponerse al silicio y al plástico en la fabricación de dispositivos electrónicos. Pues bien, parece que ese futuro podría haber llegado.
Eso, al menos, es lo que piensan las firmas asiáticas Moxi y Galapad que ya han anunciado que lanzarán próximamente al mercado 30.000 dispositivos en los que este material estaría presente en sus pantallas, sus baterías y sus sistemas de alimentación. Este mineral que puede llegar a ser 200 veces más resistente que el acero y que, si bien tiene una dureza similar a la del diamante, es tan flexible como el plástico.
Gracias a estas cualidades, tal y como han desvelado los responsables de estas compañías chinas, el grafeno contribuirá a hacer pantallas más sensibles al tacto y, al mismo tiempo, hará posible que se prolongue un 50% la vida de las baterías.
Los nuevos dispositivos fabricados por Moxi y Galapad tendrán un precio de salida de 2.499 yuanes chinos (algo más de 356 euros) y vendrán equipados con el sistema operativo Android. En su fabricación, también han participado distintos investigadores de la Academia de Ciencias de China, que ya había realizado ensayos con el grafeno.
No obstante, aún queda mucho camino por recorrer. Los expertos aseguran que cuando se descubre un nuevo material deben pasar del orden de 20 años hasta que comience a incorporarse a los dispositivos electrónicos. Además, en este caso, conseguir grafeno puro resulta todavía demasiado costoso por lo que deberá abaratarse su coste para que destierre al plástico y al silicio de nuestros teléfonos móviles.

Nuevo catalizador para producir combustible de hidrógeno.


Los científicos han diseñado una alternativa barata y abundante para el costoso catalizador de platino y la han combinado con un electrodo que absorbe la luz para producir combustible de hidrógeno a partir de luz solar.

El descubrimiento es un avance importante en la iniciativa mundial por imitar la forma en que las plantas fabrican combustible a partir de la luz solar, un paso clave en la creación de una economía de energía ecológica. El descubrimiento ha sido publicado en la revista Nature Materials ("Bioinspired molecular co-catalysts bonded to a silicon photocathode for solar hydrogen evolution") por el teórico Jens Nørskov del SLAC National Accelerator Laboratory del Ministerio de Energía y la Universidad de Stanford y un equipo de colaboradores encabezado por Chorkendorff y Søren Dahl de la Universidad Técnica de Dinamarca (DTU).

Los investigadores de la DTU crearon un dispositivo para aprovechar la energía de parte del espectro solar y lo utilizaron para impulsar la conversión de iones de hidrógeno individuales en hidrógeno gas. Sin embargo, el proceso requiere un catalizador para facilitar la reacción. Se sabe que el platino es un catalizador eficaz, pero es muy escaso y muy caro para un uso generalizado. Por lo que los colaboradores miraron a la naturaleza en busca de inspiración.

Investigaron las enzimas que producen hidrógeno --catalizadores naturales-- de ciertos organismos. Estos estudios los llevaron hacia compuestos relacionados que, a su vez, los llevaron al sulfuro de molibdeno. El equipo también optimizó partes del dispositivo, introduciendo una "célula solar química" diseñada para captar toda la energía solar posible.


Montes Duarte Grecia Guadalupe  ID 151403

Utilizan nanotubos de oro para combatir el cáncer


La ciencia ha demostrado que los nanotubos de oro tienen numerosas aplicaciones en la lucha contra el cáncer: entre otras cosas, se podrían utilizar en nanosondas internas para la obtención de imágenes de alta resolución, como vehículos para la administración de fármacos y como agentes para la destrucción de células cancerosas.
Ahora, un estudio publicado en la revista científica Advanced Functional Materials describe, por primera vez, el éxito de un tratamiento con nanotubos de oro en un modelo ratón con un cáncer humano.  Según la directora del estudio, la Dra. Sunjie Ye, de la Facultad de Física y Astronomía y del Instituto Leeds de ciencias bioquímicas y ciencias clínicas de la Universidad de Leeds: “Las elevadas tasas de recurrencia de los tumores tras su extirpación quirúrgica siguen siendo un enorme desafío en las terapias contra el cáncer. Para prevenir esto, a menudo se administran quimioterapia o radioterapia después de la cirugía, pero estos tratamientos tienen graves efectos secundarios”.
El éxito de la nueva investigación dirigida por la Dra. Sunjie Ye, consiste en el desarrollo de una nueva técnica de síntesis de nanotubos que permite controlar la longitud de los nanototubos fabricados.
Los investigadores observaron que la longitud de los nanotubos influía en su capacidad para absorber la luz. Utilizando esta nueva técnica de fabricación, los investigadores fueron capaces de producir nanotubos de oro con las dimensiones adecuadas para absorber un tipo de luz llamado "infrarrojo cercano". 
Si se aplica una luz de la frecuencia adecuada a los nanotubos mientras circulan por el cuerpo, éstos absorben la luz y se calientan. Utilizando un haz de luz láser pulsado, los investigadores lograron incrementar rápidamente la temperatura de los nanotubos hasta conseguir una temperatura lo suficientemente elevada como para destruir las células cancerosas.
Además, en estudios realizados con células, los investigadores afirmaron ser capaces de modular la función de los nanotubos ajustando el brillo del láser, para hacer que actúen como agentes para la destrucción de células cancerosas o bien como agentes para la obtención de imágenes de contraste.  
Para ver los nanotubos de oro inyectados en el cuerpo de los ratones por vía intravenosa, los investigadores utilizaron una nueva técnica de imagen llamada "tomografía optoacústica multiespectral" (MSOT).
Con esta técnica, demostraron también que los nanotubos de oro abandonan el cuerpo mediante excreción y, por lo tanto, es improbable que puedan causar problemas en términos de toxicidad, algo fundamental para su uso clínico. 
En el futuro, se podrían desarrollar nanotubos con un núcleo central hueco que se podría llenar con una carga útil terapéutica y dirigirlos hacia los tumores. Esta combinación de direccionamiento y liberación localizada de un agente terapéutico podría utilizarse, en esta era de la medicina personalizada, para identificar y tratar el cáncer con una toxicidad mínima para los pacientes.


Montes Duarte Grecia Guadalupe    151403

Nueva nanopartícula detecta las células cancerosas más letales en sangre

En un artículo publicado en la revista Proceedings of the National Academy of Sciences, un grupo de investigadores del Instituto Internacional de Nanotecnología de la Universidad Northwestern, encontraron un nuevo tipo de nanopartículas las llamaron nanoflares, estos nuevas nano particulas tiene con objetivo detectar y recoger diferentes tipos de células cancerosas -algunas más letales que otras- y cultivarlas en un plato, por lo que también permitirá probar posibles tratamientos antes de administrárselos a los pacientes.

Estos nanoflares se adhieren a las células cancerosas individuales de una muestra de sangre y, a continuación, brillan, permitiendo a los médicos detectar y clasificar dichas células cancerosas con la ayuda de un láser, de igual manera los investigadores demostraron que estas nanopartículas son capaces de:
  1. Detectar diferentes tipos de células de cáncer de mama en ratones.
  2. Identificar las células de cáncer de mama añadidas a sangre humana en un laboratorio.
El siguiente paso será comprobar si también logran encontrar células cancerosas en las muestras de sangre de los pacientes.

Cada nanoflare contiene fragmentos de ADN específicos, cuidadosamente seleccionados para que se correspondan con el ARN presente en determinadas células cancerosas. Cuando se introducen en una muestra de sangre, las nanopartículas se introducen en las células cancerosas y el ADN se enlaza al ARN objetivo, liberando unas moléculas fluorescentes que hacen que la célula brille. De este modo, es posible detectar diferentes tipos de células cancerosas, incorporando diferentes fragmentos de ADN y moléculas fluorescentes de diferentes colores.

Otros investigadores están desarrollando enfoques similares para la detección de células tumorales circulantes, a menudo, utilizando nanopartículas que se unen a la superficie de las células cancerosas. Sin embargo, según Shad Thaxton, profesor de urología de la Universidad Northwestern y uno de los investigadores que participaron en el trabajo, el nuevo enfoque ofrece dos ventajas potenciales con respecto a otros enfoques:

Permite diferenciar mejor entre varias células cancerosas.

Mantiene las células vivas para su posterior cultivo.Hasta que se aprueben las pruebas con nanoflares para el tratamiento del cáncer de mama o de otras formas de la enfermedad podrían pasar años, pero dado que la técnica permite cultivar y probar en el laboratorio tipos específicos de cáncer, mientras tanto, se podrían utilizar estas nanopartículas para entender mejor el cáncer y ayudar a descubrir nuevos fármacos

Omar Betanzos Sánchez.



Recogido de: http://www.technologyreview.com/news/532416/nanoparticle-detects-the-deadliest-cancer-cells-in-blood/

El Graféno, cada vez más prometedor para el desarrollo de la espintrónica.

               Se ha descubierto que el grafeno es capaz de preservar el espín de un electrón durante un período inesperadamente largo, y comunicarlo desde distancias más grandes que las máximas conocidas con anterioridad. Esto abre la puerta al desarrollo de futuros dispositivos espintrónicos que permitirían, entre otras cosas, la fabricación de memorias y procesadores más rápidos y más eficientes energéticamente para ordenadores.

A la espintrónica se la puede definir como una electrónica basada en el espín. Este es una manifestación de la mecánica cuántica que podría describirse como apuntando hacia "arriba" o hacia "abajo", constituye una propiedad fundamental del electrón y es responsable de la mayoría de los fenómenos magnéticos. La espintrónica ofrece la gran promesa de enriquecer o incluso reemplazar a la electrónica tradicional. Mientras que los circuitos electrónicos hacen circular a los electrones gracias a su carga, los circuitos de la espintrónica funcionarían basándose en el espín.

La investigación llevada a cabo por el equipo de Saroj Dash y Venkata Kamalakar, de la Universidad Chalmers de Tecnología en Suecia, muestra que la señal del espín se preserva en canales de grafeno que tienen hasta 16 micrómetros de largo. El tiempo durante el cual los espines se mantienen alineados y que ha sido medido ha resultado ser de poco más de un nanosegundo. La duración y el alcance pueden parecer exiguos, pero en realidad ofrecen perspectivas muy prometedoras, al denotar que es factible introducir mejoras de diseño que aumenten aún más las prestaciones de estos componentes.



Fernando Edsel Guerra Vega     ID: 150537

Nanoinyectores: una nueva forma de insertar ADN en las células


La universidad Brigham Young University (Utah, EE.UU) desarrolló una nueva tecnología llamada "Nanoinyección" que permite insertar ADN en las células sin provocarle un daño o ruptura, como se muestra en el siguiente vídeo. 




La profesora Sara Burnet, directora de este proyecyo y catedrática en Micrbiología de la Universidad Brigham Young University. explica como ha sido la unión de la ingeniería y la biología haciendo posible la creación de un "nanoinyección" capaz de introducir a una célula ADN sin causar un daño, de manera que expones las diferencias entre la nano y micro inyección:

En la microinyección la aguja que se utiliza para inyectar el ADN es bastante grande y puede dañar la célula.


 Por otro lado la nanoinyección utiliza agujas denominadas “lanzas”  que son hasta 10 veces más pequeñas que las utilizadas en la microinyección. La incisión que causan en la célula es tan diminuta que apenas la dañan. 

El nanoinyector no funciona como un jeringa que inyecta líquido con ADN, lo que el 40% de las veces causa la muerte de la célula. Lo realmente sorprendente de esta tecnología es la forma en que se inserta el ADN en la célula.

El ADN es una molécula que posee carga negativa. Lo que se hace en la nanoinyección es cargar positivamente la lanza de modo que, gracias a la atracción magnética, el ADN se adhiere a la misma fuera de la célula. Una vez que la lanza penetra la célula, se invierte la carga para que el ADN repela la lanza y quede dentro de la célula.


Omar Betanzos Sánchez 150729

Científicos Mexicanos logran obtener partículas de Diamante.

          En México, los investigadores Javier Morales, de la Universidad Autónoma de Nuevo León, Miguel Apátiga y Víctor Castaño, ambos de la Universidad Nacional Autónoma de México (UNAM) lograron hacer en laboratorio microscópicas partículas de diamante a partir de una mezcla de 40 por ciento de etanol y 60 de agua.

Los científicos experimentaron con tequila, pues en su composición química se incluyen carbono y etanol, elementos esenciales para la obtención de diamantes.


El doctor Víctor Castaño Meneses, investigador del Centro de Física Aplicada y Tecnología Avanzada (CFATA) de la UNAM, explica que se inicia su utilización en medicina, pues se trata de un material inerte, que no genera rechazo y tiene propiedades electrónicas que le permiten ser transportador de medicamentos, y que ya se trabaja en la utilización como receptores de glucosa en el organismo.

[Img #26293]

Thursday, April 23, 2015

The study of a new class of materials

A new paper by a team of researchers led by Karel Matous, College of Engineering Associate Professor of Computational Mechanics in the Department go Aerospace and Mechanical Engineering at the University of Notre Dame, describes how an accurate statistical description of heterogeneous particulate materials, which is used within statistical micromechanics theories, governs the overall thermo-mechanical properties. This detailed statistical description was computed using a novel adaptive interpolation/integration scheme on the nation’s largest parallel supercomputers. Quantifying the morphology of many-body systems has applications in many scientific fields at a variety of length scales from molecular configurations up to structural composites and celestial bodies.
“For centuries, great minds like Kepler, Maxwell and Einstein have investigated the statistical characterization of many-body systems and the implications of small-scale structures on the macroscopic transport and mechanical properties,” Matous said. “For the first time, we predicted the properties of granular Platonic solids (crystalline) packs and discovered a significant shape effect in their overall thermo-mechanical behavior. Based on our work, a large class of materials with arbitrary inclusions can now be easily studied.”
The research is part of the Matous group’s data-driven (image-based) multi-scale modeling strategy, where computations are guided by micro-structural experimental data.
“In my research, I study heterogeneous and multifunctional materials in extreme environments by computational and experimental means,” Matous said. “These materials are essential in our daily lives and are utilized in bioengineering, the automotive and aerospace industries, micro-electro-mechanical systems (MEMS) and other applications. Heterogeneous multifunctional materials fill several pivotal roles, including structural support, self-healing capability, power generation and storage, stress mitigation and bio-filtration, just to name a few.
“These seemingly simple and elegant material functions are governed by a plethora of physics, mechanics and chemistry that test our understanding of microstructure-statistics-property relations and our capacity to tune properties at will. Many of these materials can be better understood if higher-order statistical information is retained in their well-resolved multi-scale analysis. My goal is to advance detailed understanding of mechanics and materials science through developing microstructure-statistics-property relations that can aid the development of new materials.”
Matous notes that the next step in this line of work is to understand the effect of material interfaces and anisotropy (directionally dependent material behavior).
“Extending these models and accounting for interface properties and their behavior is the challenge,” he said. “Also many materials are anisotropic and quantifying a higher-order anisotropic description is still an open question. Moreover, linking this work with image-based characterization techniques, such as microcomputer tomography that has become a popular method for obtaining a description of real microstructures, to analyze real material systems is a natural next step.”

First nanoscopic mapping of energy transfer between single plasmonic particles and semiconductor substrates

A group of researchers, led by Prof. Jon Camden, has reported the first nanoscale mapping of the flow of energy between light-harvesting plasmonic nanoparticles and semiconductor substrates. Plasmonic nanoparticles are important in a variety of applications, including solar energy-harvesting devices, photocatalyic devices, single-molecule spectroscopy, and molecular sensing. They are of particular interest in solar energy-harvesting due to their potential to significantly increase the efficiency of such devices by expanding the solar spectrum available for energy conversion. The work is presented in a paper entitled “Spatially Mapping Energy Transfer from Single Plasmonic Particles to Semiconductor Substrates via STEM/EELS” in Nano Letters.
The research team includes Profs. Jon Camden (ND), David Masiello (Univ. of Washington), Jill Millstone (Univ. of Pittsburg), and Gerd Duscher (Univ. of Tennessee), post-docs Guoliang Li (ND), Charles Cherqui (Univ. of Washington), and Nicholas Bigelow (Univ. of Washington), and graduate student Patrick Straney (Univ. of Pittsburg). While previously reported experiments have shown that the addition of plasmonic nanoparticles to semiconductor substrates improves solar light-harvesting, characterization of the pathways for this improvement have not been possible, presenting a critical roadblock in the effort to understand and maximize efficiency improvement in device designs. Previous attempts to study these pathways have relied on optical spectroscopy, which is limited by the diffraction limit.
The team addressed this short-coming by using electron energy-loss spectroscopy (EELS) conducted in a scanning transmission electron microscope (STEM). Using Ag nanocubes on substrates, the optical and electronic properties of the substrate were varied (insulator to semiconductor) to isolate the possible modes of energy transfer. Samples were scanned using EELS to map energy distribution at very high resolution. Theoretical models were subsequently developed to deconvolute the electron-transfer and resonant energy transfer mechanisms with nanoscale precision. The results of the study suggest that direct electron transfer (DET) is the dominant mechanism in these systems, even when plasmon-induced resonant energy transfer (PIRET) is also occurring, opening up new possibilities for the design of photo-voltaic devices reliant on DET alone rather than electron-hole pair generation found in traditional devices.
This work demonstrates an exciting new method for researchers to use in probing competing energy transfer mechanisms in nanoparticle on semiconductor systems, regardless of ultimate material application. The next steps for the research team will be investigating the effects of other nanoparticle and interface geometries as well as tracking energy transfer in other applications such as nanoscale switching and photocatalysis.

 http://research.nd.edu/news/57181-notre-dame-researchers-report-first-nanoscopic-mapping-of-energy-transfer-between-single-plasmonic-particles-and-semiconductor-substrates/

Wednesday, April 22, 2015

Gas hidratado como fuente de energía

Según Dañobeitia, J. J. (2002) "los gases hidratados son una fase sólida de agia y gases naturales, generalemente metano, aunque pueden incluir otros gases de bajo peso molecular en menor proporción".

En el artículo "Metano hidratado como fuente de energía", publicado en la Revista Creces, nos hacen saber que:
La existencia de estos "hielos que se queman" se conoce desde la década de 1970 y constituyen la forma más exótica de depósitos de energía. Ellos se formaron cuando el metano proveniente de descomposiciones orgánicas se juntó con agua, a temperaturas tan bajas y presiones tal altas, que ésta terminó atrapando las moléculas del gas, enjaulándolo en hielos en escala cristalina. El metano hidratado ha sido encontrado en distintos mares del mundo, depositado en el fondo de aguas profundas, ya sea formando capas, nódulos o llenando poros de permafrost.

La Universidad de Tromso, nos dice que
Japan, USA in the race for exploitation
Gas hydrate accumulations in continental shelf sediments are considered a promising resource for future gas supply by several non-European countries, such as USA, Japan, China, India, South Korea, and Taiwan. In 2013, the Research Consortium for Methane Hydrate Resources in Japan produced gas during a successful offshore field test.
Recently a European Concerted Research Action (COST) was established designated to marine gas hydrates. Marine gas hydrate -- an indigenous resource of natural gas for Europe (MIGRATE) will examine the potential of gas hydrates as an economically feasible and environmentally sound energy resource.
Stefan Bünz, associate professor at Centre for Arctic Gas Hydrate, Environment and Climate (CAGE) at UiT The Arctic University of Norway, was elected the Vice Chair of the action.
European inventory
MIGRATE aims in perticular to to determine the European potential inventory of exploitable gas hydrates, to assess current technologies for their production, and to evaluate the associated risks.
"With the wide spectrum of gas hydrate research undertaken in CAGE, we will significantly contribute to three of the working groups in MIGRATE: resource assessment; exploration, production and monitoring technologies; and environmental and geohazard challenges. " says Bünz.
CAGE will particularly contribute with a large seismic database from the Norwegian and Arctic margins and development of seismic-based technologies.
The European Concerted Research Action (COST) is networking instrument for cooperation between researchers, engineers and scholars to coordinate nationally funded research activities.


Será interesante ver qué se podrá hacer con éste gas hidratado (hielo que se quema), sin embargo, se tiene que tomar en cuenta la cantidad que existe para no sobre explotarla, pensando en que deberá tener alguna utilidad el que se encuentre al fondo de océanos, y así no alterar ese proceso.


Fuentes: http://www.sciencedaily.com/releases/2015/04/150422104130.htm
http://www.tdx.cat/bitstream/handle/10803/1927/04.RBP_CAPITULO_4.pdf?sequence=5
http://www.creces.cl/new/index.asp?imat=%20%20%3E%20%2078&tc=3&nc=5&art=1684

Por: Luis Mauricio Ortiz Gálvez.


Difracción de rayos X

Las técnicas cristalográficas son de gran ayuda, ya que nos permiten encontrar la estructura exacta de las moléculas. Tal vez la más famosa fue la vitamina B12, la cual se obtuvo a través de la cristalización y posteriormente el proceso de difracción de rayos X. 

Para mi gusto esta es una de las técnicas más complejas, matemáticamente hablando. Porque no es sólo la forma en la que las ondas interactúan con la materia, es el entendimiento de porque actúan de esa manera. 

Todo puede empezar con que el fenómeno de difracción empieza con otro fenómeno.

Los rayos X fueron descubiertos por el Alemán Wilhem Röntgen y estos se les designa como una radiación electromagnética invisible para el ojo humano, ésta es capaz de atravesar cuerpos opacos y revelar películas. Su longitud de onda va de los 10 a los 0.1nm. (Figura 1) Los rayos X se clasifican como radiación ionizante porque al interactuar con la materia produce la ionización de los átomos de ésta. (Drenth, 1999)

La energía de los rayos X oscila entre los 0.1 y 100 keV, para la difracción de rayos X se utilizan rayos de relativamente alta energía ( 10 keV) que corresponden a longitudes de onda de 0.1nm. Para entender mejor los rayos X se puede utilizar su descripción matemática. Los rayos X se comportan como una onda sinusoidal que se propaga por el espacio. El valor del campo eléctrico que se utiliza para los rayos X se puede expresar como una función del tiempo tomando un punto de origen arbitrario. La función se puede expresar de la siguiente manera: (Giacovazzo,1999)


Donde A es la amplitud de la oscilación, λ es la longitud de onda y c la velocidad de la luz en el vacío.  

Y al interactuar con la materia la onda del rayo sufre un desfase que se expresa como alfa en una nueva ecuación:



Fenómeno de dispersión:


El fenómeno de difracción cristalina de los rayos X tiene su base en el fenómeno de dispersión elástica de estos por los átomos de un cristal. En esta interacción los electrones desvían el rayo X que toma la misma trayectoria que toma la luz al ser reflejada en un espejo, esto es un ángulo de 2θ con respecto al incidente. La dispersión se puede expresar por medio de la ecuación:


La difracción depende del factor atómico (f), el factor atómico depende del número atómico Z, ya que este determina como interactúan estos átomos con los rayos X y por ende cómo los va a dispersar para así crear el fenómeno de difracción. (Drenth, 1999)

Difracción de Rayos X


Dentro del campo de la difracción de Rayos X hay muchos aspectos a considerar, aspectos que se han ido determinando experimentalmente a través del tiempo. Uno de estos aspectos es el mismo fenómeno de la difracción, pero no per se sino sus consecuencias. Los físicos Bragg (padre e hijo) descubrieron cómo se difractaban los rayos X al incidir sobre la superficie de un cristal, sus estudios permitieron encontrar las expresiones matemáticas que explican los ángulos que toman los rayos al interactuar con la superficie cristalina de una muestra. Ya se había mencionado el fenómeno de dispersión que es cuando los rayos interactúan con los electrones exteriores y se remiten en diferentes direcciones pero con la misma frecuencia. Ahora, con esto en mente se puede explicar el fenómeno de difracción. Éste es la manera, constructiva o destructiva, en la que actúan los rayos dispersados entre sí. (Figura 2) (Cullity, 1967)


 


Figura 2. Aquí se observa (en azul) los rayos X al ser incididos a una muestra. Estos son dispersados (los círculos) y la forma en la que interactúan las dispersiones es el fenómeno de difracción.

Se mencionó que esto podía ser destructivo o constructivo. Ésta será constructiva cuando el delta de fase entre la radiación emitida por diferentes átomos es proporcional a 2π. Esto se puede expresar matemáticamente de la siguiente manera:


Entonces, de acuerdo al ángulo se puede deducir se la interacción es constructiva o destructiva. (Figura 3)

Ya teniendo identificada la ley de Bragg hay que comprender lo que se le llama el índice de Miller. Estos son números que se asignar a una red cristalina que representan (matemáticamente) un vector perpendicular al plano de reflexión en el sistema coordenado de la red cristalina y (prácticamente) es el número de veces que se debe de cruzar la celda unitaria y los números representan el número de intersecciones de estos. Los índices de Miller se representan por las letras h,k y l. (ODC, 2012)

Ahora que se conocen estos dos parámetros se puede empezar a llegar a una interpretación de una difracción. La situación que surgió al conocer lo ya explicado fue que no se podía ver (con facilidad) las posiciones y direcciones de las difracciones de los rayos X tras haber interactuado con una muestra cristalina. Eran demasiadas direcciones que se superponían y se confundían, haciendo que la interpretación fue extremadamente complicada. Se decidió usar un método que también es utilizado en otras técnicas espectroscópicas, el método de la transformada de Fourier, que permite agrupar señales para hacer más fuertes y/o visibles para su fácil interpretación. En este caso la transformada de Fourier se le denomina la red recíproca, que es la transformada de Fourier de la red cristalina. Las coordenadas de la red recíproca coinciden con los índices de Miller, en otras palabras cada punto de la red recíproca tiene su familia de índices de Miller en el espacio real de la red cristalina. (Sout, 1989)

Los puntos de la red cristalina se pueden expresar de la misma manera que los puntos de la recíproca, se expresar como una combinación lineal de vectores x*, y* y z*.


La relación entre las coordenadas de la celda unitaria con la red recíproca son las siguientes:

Dadas las coordenadas y las coordenadas primas con un volumen determinado V:


Entonces:





Ya conociendo como se comportan las redes cristalinas usando el método de la transformada de Fourier se tienen que acomodar todas las posibles difracciones dadas por los planos de Miller para así poder determinar las relaciones del cristal con el patrón de difracción para ya poder pasar a la siguiente fase. Para hacer esto se construye un modelo matemático llamado: La esfera de Ewald.
La esfera de Ewald ilustra todas las posibles direcciones en las que los rayos pueden ser reflejados por el cristal. El radio de ésta se define como  y el extremo de ésta en dirección al haz de rayos X coincide con el origen de la red recíproca. Si un punto de la red recíproca yace sobre la superficie de la esfera de Ewald entonces los planos que tengan esos índices del punto de la red recíproca dan lugar a un punto de difracción definida por el centro de la esfera y el punto de la red recíproca. Esta condición es equivalente a la ley de Bragg.

Todas las interpretaciones matemáticas del fenómenos van llevando a la parte práctica, ahora ¿Cómo podemos saber qué es lo que tenemos al hacer la difracción? Para esto existe algo que se le llama el factor de estructura cristalino, que es determinante para cualquier tipo de sistema cristalino, ya conociendo el factor se puede saber qué tipo de cristal es y ya así utilizar los mapas de densidad electrónica para saber las estructuras de la muestra. Para esto se tuvo que hacer una deducción en base a la red recíproca. Un punto (h,k,l) en la red es perpendicular al plano de reflexión y tiene una magnitud S, que se le conoce como el vector de dispersión, este es clave en la ley de Bragg. Ahora el vector formado por estos puntos se puede definir como:
 

Esto representa la suma de todos los átomos j que habría en la muestra, determinado por el centro de coordenadas (x,y,z)  contenido en la celda unitaria del cristal. También, para mayor facilidad, se puede integrar sobre la función de la densidad electrónica para obtener un resultado más simple que tenga un valor práctico más fácil de interpretar, definido por la siguiente operación:


Sin embargo lo que se requiere es el valor exacto de la función de densidad, para lo cual se realiza una operación llamada: Suma de Fourier. Para así ya pasar a la parte de interpretación de los resultados. La operación se realiza así:


Éstas son las explicaciones matemáticas del fenómeno de difracción de rayos X, como pueden observar es extremadamente interesante cómo esto nos puede llevar a la elucidación estructural...


Saturday, April 18, 2015

How to maximize the superconducting critical temperature in a molecular superconductor.

Metals are used for electricity transmission, but energy is lost as heat because of electrical resistance. Superconductors have no electrical resistance and can carry electricity without losing energy, so it is important to find superconductors which can work at the highest possible temperature.
Most superconductors have simple structures built from atoms. But recently, superconductors made from molecules arranged in regular solid structures have been found.
Work by members of the team on molecular fulleride-based systems has previously led to the discovery of the highest working temperature (at 38 K) for a molecular superconductor.
The electronic ground state, which is in competition with superconductivity, was found to be magnetically ordered. And the zero-resistance superconducting state could be switched on by tuning the exact arrangement of the C60 molecules in the solid by external pressure.
The controlling role of the molecular electronic structure was then identified by demonstrating that the parent insulating state involves Jahn-Teller distortion of the molecular anions that produces the magnetism from which the superconductivity emerges.


The research team has addressed for the first time the relationship between the parent insulator, the normal metallic state above Tc and the superconducting pairing mechanism in a new family of chemically-pressurized fullerene materials. This is a key question in understanding all unconventional superconductors including the high-Tc cuprates, the iron pnictides and the heavy fermion systems.
Their work unveiled a new state of matter -- the Jahn-Teller metal -- and showed that when the balance between molecular and extended lattice characteristics of the electrons at the Fermi level is optimized, the highest achievable temperature for the onset of superconductivity is attained.
As synthetic chemistry allows the creation of new molecular electronic structures distinct from those in the atoms and ions that dominate most known superconductors, there is now strong motivation to search for new molecular superconducting materials.

Source: Tohoku University.

Engineer improves rechargeable batteries with nano 'sandwich'




Gurpreet Singh, assistant professor of mechanical and nuclear engineering, and his research team are improving rechargeable lithium-ion batteries. The team has focused on the lithium cycling of molybdenum disulfide, or MoS2, sheets, which Singh describes as a "sandwich" of one molybdenum atom between two sulfur atoms.
In the latest research, the team has found that silicon carbonitride-wrapped molybdenum disulfide sheets show improved stability as a battery electrode with little capacity fading.
The findings appear in Nature's Scientific Reports in the article "Polymer-Derived Ceramic Functionalized MoS2 Composite Paper as a Stable Lithium-Ion Battery Electrode." Other Kansas State University researchers involved include Lamuel David, doctoral student in mechanical engineering, India; Uriel Barrera, senior in mechanical engineering, Olathe; and Romil Bhandavat, 2013 doctoral graduate in mechanical engineering.
In this latest publication, Singh's team observed that molybdenum disulfide sheets store more than twice as much lithium -- or charge -- than bulk molybdenum disulfide reported in previous studies. The researchers also found that the high lithium capacity of these sheets does not last long and drops after five charging cycles.
"This kind of behavior is similar to a lithium-sulfur type of battery, which uses sulfur as one of its electrodes," Singh said. "Sulfur is notoriously famous for forming intermediate polysulfides that dissolve in the organic electrolyte of the battery, which leads to capacity fading. We believe that the capacity drop observed in molybdenum disulfide sheets is also due to loss of sulfur into the electrolyte."
To reduce the dissolution of sulfur-based products into the electrolyte, the researchers wrapped the molybdenum disulfide sheets with a few layers of a ceramic called silicon carbonitride, or SiCN. The ceramic is a high-temperature, glassy material prepared by heating liquid silicon-based polymers and has much higher chemical resistance toward the liquid electrolyte, Singh said.
"The silicon carbonitride-wrapped molybdenum disulfide sheets show stable cycling of lithium-ions irrespective of whether the battery electrode is on copper foil-traditional method or as a self-supporting flexible paper as in bendable batteries," Singh said.
After the reactions, the research team also dissembled and observed the cells under the electron microscope, which provided evidence that the silicon carbonitride protected against mechanical and chemical degradation with liquid organic electrolyte.
Singh and his team now want to better understand how the molybdenum disulfide cells might behave in an everyday electronic device -- such as a cellphone -- that is recharged hundreds of times. The researchers will continue to test the molybdenum disulfide cells during recharging cycles to have more data to analyze and to better understand how to improve rechargeable batteries.
Other research by Singh's team may help improve high temperature coatings for aerospace and defense. The engineers are developing a coating material to protect electrode materials against harsh conditions, such as turbine blades and metals subjected to intense heat.
The research appears in the Journal of Physical Chemistry. The researchers showed that when silicon carbonitride and boron nitride nanosheets are combined, they have high temperature stability and improved electrical conductivity. Additionally, these silicon carbonitride/boron nitride nanosheets are better battery electrodes, Singh said.
"This was quite surprising because both silicon carbonitride and boron nitride are insulators and have little reversible capacity for lithium-ions," Singh said. "Further analysis showed that the electrical conductivity improved because of the formation of a percolation network of carbon atoms known as 'free carbon' that is present in the silicon carbonitride ceramic phase. This occurs only when boron nitride sheets are added to silicon carbonitride precursor in its liquid polymeric phase before curing is achieved."

La industria se ha interesado bastante en la creación de nuevas baterías. Es importante resaltar que dependerá del uso que se le quiera dar a la batería, para saber que material se puede utilizar y, así poder trabajar en ella. 
Además, en este artículo nos hablan de cómo una investigación anterior puede ayudar a nuevas investigaciones, por lo que, es relevante estar informado sobre las investigaciones que la comunidad científica realiza o ha realizado.

Fuentes: http://www.nature.com/srep/2015/150403/srep09792/full/srep09792.html
http://www.sciencedaily.com/releases/2015/04/150417085033.htm

Luis Mauricio Ortiz Gálvez.

Thursday, April 16, 2015

Toxicidad de las Nanopartículas

La creciente cantidad de proyectos, investigaciones y productos desarrollados con nanotecnología indudablemente resulta en la producción de nanomateriales, mismos que presentan diferentes características (y, por lo tanto, mayor toxicidad) que el mismo material a escala macroscópica. Un ejemplo de esto puede observarse con el oro, el cual, a nivel macroscópico (o, como otros preferirían denominarlo, en estado normal) es un material inerte que cuenta con una elevada estabilidad; sin embargo, su reducción a la nanoescala mediante distintos procesos nanotecnológicos convierte a las nanopartículas de oro en materiales de alta reactividad con características muy distintas, tales como propiedades fototérmicas, facilidad de síntesis y de funcionalización, potencial para la liberación controlada de fármacos y, en general, una amplia multifuncionalidad que sería imposible de conseguir de no encontrarse a un tamaño tan reducido. 
Lo anterior es sólo un ejemplo que evidencia lo poco que podemos conocer sobre la toxicidad de las nanopartículas si nos basamos en los conocimientos convencionales que tenemos sobre la materia, ya que, a la nanoescala, esta presenta características muy distintas que exigen un estudio minucioso para poder comprenderlas. Si bien en la actualidad existen entidades como la Universidad Rey Juan Carlos y el Instituto de Química Orgánica General, ambos localizados en Madrid, que se están dedicando al estudio de tales propiedades, los resultados recabados no son suficientes y aún no se ha logrado descubrir algún patrón o alguna regla para la toxicidad que sea aplicable a toda la reducción de materia a la nanoescala.
Ahora bien, para comenzar a comprender la toxicidad de estas partículas es necesario entender algunas de sus características. Toda nanopartícula se caracteriza por tener una elevada área superficial; es decir, gran cantidad de la partícula está expuesta al entorno y, por tanto, interacciona con él de una forma mucho más intensa de lo que lo haría a escala macroscópica. Esta elevada área superficial es una de las principales razones por las cuales las nanopartículas son preocupantes, ya que, no obstante la toxicidad de la partícula misma, esta podría funcionar como acarreadora de otros agentes tóxicos que se adhirieran a ella. Es evidente que esto tendría una repercusión terrible tanto para los seres humanos como para el medio ambiente, pues las nanopartículas podrían contaminar los cuerpos de agua, así como la flora y la fauna de los ecosistemas. De esta manera, incluso aunque existan nanopartículas biocompatibles, estas siguen mostrando un peligro latente al poder convertirse en portadoras de una gran cantidad de agentes tóxicos en su superficie.
En cuanto a los seres humanos, la exposición a nanopartículas es preocupante debido a que el reducido tamaño de las mismas ocasiona que puedan entrar a nuestro organismo por más de una vía; ya sea por inhalación, absorción cutánea o digestión, estas nanopartículas encuentran muy sencillo el atravesar nuestros tejidos y pueden llegar a lugares tan inimaginables como nuestro cerebro o el núcleo de nuestras mismas células. Pese a que esta propiedad de las nanopartículas es la que las hace muy prometedoras en medicina (ya que la liberación de fármacos directamente a las células enfermas resultaría muy beneficiosa), también es motivo de alarma en los casos en los que las nanopartículas no son biocompatibles y están formadas por agentes muy tóxicos, o cuando, sin importar su compatibilidad con nuestro organismo, su superficie se encuentra contaminada con algún agente tóxico.
Sin embargo, pese a que es alarmante saber que en la actualidad no se conoce con exactitud qué determina la toxicidad, quizá es más preocupante aún que el problema no se detenga allí: la nanotoxicología no sólo es una rama de la nanotecnología, sino de la toxicología misma, y esta última tiene aún muchos misterios por resolver. La toxicología es una ciencia que está muy atrasada a comparación de las demás, con resultados poco consistentes y muchas variaciones en sus resultados que son consecuencia de la gran cantidad de información que se asume pero que no se ha podido demostrar. Esto vuelve al asunto más inquietante aún, pues si no podemos comprender las razones por las que los materiales que encontramos en la naturaleza son tóxicos, ¿cómo podremos comprender la toxicidad de los nanomateriales que diseñamos, si los hacemos utilizando como materia prima a esos materiales que encontramos en la naturaleza? Cierto es que el hecho de que las nanopartículas tengan propiedades distintas que los materiales macroscópicos podría volver insensato tal cuestionamiento, pero es necesario enfatizar que sería beneficioso contar con alguna base de conocimiento toxicológico sobre la cual partir en la búsqueda de, si no las causas determinantes de la nanotoxicidad, al menos de la implementación de medidas de seguridad más adecuadas en el sector productivo. Esta base de conocimiento, sin embargo, es casi inexistente.

Eduardo Camarillo Abad
150536
Fuentes:
http://www.mapfre.com/fundacion/html/revistas/seguridad/n127/docs/Articulo5.pdf
http://www.hse.gov.uk/nanotechnology/understanding-hazards-nanomaterials.htm
http://www.hazards.org/nanotech/safety.htm
http://www.analesranf.com/index.php/mono/article/viewFile/994/1028

Tuesday, April 14, 2015

Batería de Ión-aluminio que se recarga en un minuto




Una nueva batería de alto rendimiento basada en el aluminio ofrece una alternativa segura a diversas baterías convencionales. La nueva batería de ión-aluminio podría reemplazar a muchas de las baterías de ión-litio y alcalinas de amplio uso actualmente.

El equipo de Hongjie Dai, de la Universidad de Stanford en California, Estados Unidos, ha inventado la primera batería de aluminio de alto rendimiento que se carga rápido (tarda alrededor de 1 minuto en recargarse), dura mucho y es barata. Esta nueva tecnología ofrece una alternativa atractiva a numerosas baterías comerciales que se utilizan mucho en la actualidad.

Estos científicos han desarrollado una batería de aluminio recargable que podría reemplazar a los actuales dispositivos de almacenamiento energético, como las baterías alcalinas, que son perjudiciales para el medio ambiente, y las baterías de ión-litio, que ocasionalmente pueden calentarse de manera peligrosa y provocar fuego. La nueva batería no se enciende, incluso si la perforamos.

El aluminio ha sido un material atractivo para baterías desde hace tiempo, sobre todo debido a su bajo coste, baja inflamabilidad y alta capacidad de almacenamiento de carga eléctrica. Durante décadas, diversos grupos de investigadores han intentado sin éxito desarrollar una batería de ión-aluminio viable comercialmente. Un reto clave ha sido encontrar materiales capaces de producir suficiente voltaje después de repetidos ciclos de carga y descarga.

Una batería de ión-aluminio consta de dos electrodos: un ánodo cargado negativamente hecho de aluminio, y un cátodo cargado positivamente.

La comunidad científica ha intentado usar diferentes tipos de materiales para el cátodo, sin mucho éxito. Dai y sus colaboradores descubrieron que una solución simple sería utilizar grafito, que es básicamente carbono. En su reciente estudio, identificaron unos cuantos tipos de material de grafito que han demostrado un rendimiento excelente en las pruebas. Esto, junto con otros rasgos adecuados de diseño, abre un prometedor camino hacia el desarrollo comercial de baterías de ión-aluminio.




http://www.iflscience.com/technology/new-aluminum-battery-charges-minute