Así que según la siguiente nota, estas son las grandes tendencias que darán forma al futuro del trabajo dentro de unos años en México
* Biotecnología
* Telemática y la Cibernética
* Ciencias Ambientales y Geomática
* Farmacogenómica
* Genómica
* Logística internacional
* Mecatrónica
* Nanotecnología e Ingeniería Molecular
* Robótica
* Terapistas y radiólogos
La nota completa en:
http://noticias.prodigy.msn.com/negocios/galeria.aspx?cp-documentid=23659159
Así que bueno, quiza después de todo.. La ciencia en México tenga un buen futuro =)
Blog de cursos y estudiantes de Químicas del Departamento de Ciencias Quimico-Biológicas en la Universidad de las Américas Puebla.
Friday, April 30, 2010
Las carreras mejor pagadas en México
hOla mundo!
Hace un tiempo, leí esta nota y me llamó demasiado la atención puesto que hey! somos los futuros profesionistas de este país..!! la nota dice asi:
¿Qué profesiones son las que más dejan dinero a los egresados?
El estudiar una carrera siempre es fundamental para el desarrollo de una persona y más si es que dicha profesión tiene un buen respaldo económico. Es por ello que aquí se presenta el top 20 de las carreras mejor pagadas en México, para que puedas darte una idea de cuánto podrías ganar si estudiaras alguna de ellas. La información es de la secretaría del Trabajo, del portal de empleo del gobierno federal.
1 * Ingeniería del Transporte, Aeronáutica, Naval, Pilotos aviadores y navales.
Tienen un ingreso promedio de $15, 944 al mes.
2 *Física y Astronomía
En promedio ganan al mes $15, 609 en promedio
3 *Ecología, Ingeniería ambiental y Ciencias atmosféricas
Gaana mensualmente $13,670 en promedio
4 *Arquitectura y Urbanismo
Tienen un salario mensual promedio de $13, 485
5 *Ingeniería extractiva, Metalúrgica y energética
Ganan en promedio $13,010
6 *Mediciana, Terapia y Optometría
Un salario de $12,505 mensuales en promedio
7 *Ingenieria Civil y de la construcción
Un sueldo mesual en promedio de $12, 488
8 *Geografía
Tienen un sueldo de $12,431 en promedio
9 *Ciencias Biomédicas
Sueldo promedio mensual de $12,288
10 * Economía
Tiene un promedio de $12,196 de salario mensual
11 *Química
Con un sueldo promedio de $11,863
12 *Mercadotecnia
Saldo promedio mensual de $11,833
13 *Matemáticas
Sueldo promedio mensual de $11,743
14 *Ingeniería eléctrica y electrónica
Sueldo promedio mensual de $11,619
15 *Antropologia y arqueología, Etnología
Sueldo promedio mensual de $11,603
16 *Ingeniería Mecánica e Industrial, Textil y tecnología de la Madera
Sueldo promedio mensual de $11,554
17 *Ciencias Políticas, Administración pública y Relaciones Internacionales
Sueldo promedio mensual de $11,371
18 *Ciencias del mar
Sueldo promedio mensual de $11,190
19 *Administración
Sueldo promedio mensual de $10,629
20 *Artes plásticas
Sueldo promedio mensual de $10,621
¿Habrá algo que reconsiderar?
La nota completa esta en
http://noticias.prodigy.msn.com/negocios/galeria.aspx?cp-documentid=23609204&page3
Hace un tiempo, leí esta nota y me llamó demasiado la atención puesto que hey! somos los futuros profesionistas de este país..!! la nota dice asi:
¿Qué profesiones son las que más dejan dinero a los egresados?
El estudiar una carrera siempre es fundamental para el desarrollo de una persona y más si es que dicha profesión tiene un buen respaldo económico. Es por ello que aquí se presenta el top 20 de las carreras mejor pagadas en México, para que puedas darte una idea de cuánto podrías ganar si estudiaras alguna de ellas. La información es de la secretaría del Trabajo, del portal de empleo del gobierno federal.
1 * Ingeniería del Transporte, Aeronáutica, Naval, Pilotos aviadores y navales.
Tienen un ingreso promedio de $15, 944 al mes.
2 *Física y Astronomía
En promedio ganan al mes $15, 609 en promedio
3 *Ecología, Ingeniería ambiental y Ciencias atmosféricas
Gaana mensualmente $13,670 en promedio
4 *Arquitectura y Urbanismo
Tienen un salario mensual promedio de $13, 485
5 *Ingeniería extractiva, Metalúrgica y energética
Ganan en promedio $13,010
6 *Mediciana, Terapia y Optometría
Un salario de $12,505 mensuales en promedio
7 *Ingenieria Civil y de la construcción
Un sueldo mesual en promedio de $12, 488
8 *Geografía
Tienen un sueldo de $12,431 en promedio
9 *Ciencias Biomédicas
Sueldo promedio mensual de $12,288
10 * Economía
Tiene un promedio de $12,196 de salario mensual
11 *Química
Con un sueldo promedio de $11,863
12 *Mercadotecnia
Saldo promedio mensual de $11,833
13 *Matemáticas
Sueldo promedio mensual de $11,743
14 *Ingeniería eléctrica y electrónica
Sueldo promedio mensual de $11,619
15 *Antropologia y arqueología, Etnología
Sueldo promedio mensual de $11,603
16 *Ingeniería Mecánica e Industrial, Textil y tecnología de la Madera
Sueldo promedio mensual de $11,554
17 *Ciencias Políticas, Administración pública y Relaciones Internacionales
Sueldo promedio mensual de $11,371
18 *Ciencias del mar
Sueldo promedio mensual de $11,190
19 *Administración
Sueldo promedio mensual de $10,629
20 *Artes plásticas
Sueldo promedio mensual de $10,621
¿Habrá algo que reconsiderar?
La nota completa esta en
http://noticias.prodigy.msn.com/negocios/galeria.aspx?cp-documentid=23609204&page3
Una cúpula para salvar a Houston
8 Marzo 2010
Houston, Texas, está en peligro: la cuarta ciudad más poblada de los Estados Unidos está amenazada por los huracanes, el calor extremo y las cada vez mayores consecuencias del calentamiento global. Solamente una solución radical podrá salvar a la gran urbe: un domo colosal de 460 metros de altura y una milla de diámetro, que se alza sobre millones de habitantes. Tal estructura requiere de innovadoras ideas de construcción e ingeniería, así como la ayuda de experiencias, materiales y técnicas provenientes de todo el planeta. Sin embargo, a partir del Proyecto Edén -creadores de los domos geodésicos más grandes del mundo- y de una pequeña fábrica en Bremen, Alemania, donde se elabora un tipo de plástico revolucionario, la idea de una cubierta semiesférica del tamaño de una ciudad entera puede volverse finalmente realidad.
Esta cubierta será ligera, duradera, y podrá proteger a la ciudad de vientos de hasta 300 km/h, ráfagas más fuertes que las de un huracán de categoría 5.
El “Proyecto Eden”, de Grimshaw Architects, 2001
ETFE es la sigla que denomina al copolímero de etileno-tetraflúoretileno, un material plástico emparentado con el Teflón, muy durable, adaptable y que puede ser transparente. El ETFE está siendo utilizado en muchas mega estructuras en la actualidad, como en la Villa Olímpica de Beijing, donde se construyen un enorme centro acuático cubierto, 'hecho de burbujas', aunque a cierta distancia se asemeje a un gigantesco colchón, y el nuevo Estadio Olímpico, 'tejido' con una estructura metálica a semejanza de un nido de tejedores cuyos intersticios serán cubiertos con almohadones de ETFE; o como la gigantesca 'carpa' de más de 100.000m2 que Foster+partners construye en Astana, la capital de Kazakhstan, para albergar el Centro Khan Shatyry.
Originalmente fue diseñado (alrededor de los años '70 cuando DuPont inventó un polímero de fluoro-carbono para ser utilizado como material aislante en la industria aeronáutica) para cubrir las necesidades de un material altamente resistente a la corrosión y de gran fortaleza bajo condiciones de variaciones térmicas muy amplias. DuPont no trató, inicialmente, de introducirlo en la industria de la construcción y fue el ingeniero mecánico alemán Stefan Lehnert quien, mientras investigaba sobre nuevas tecnologías para su uso en la navegación a vela, visualizó su potencialidad como material para la arquitectura, especialmente por su transparencia, auto limpieza y propiedades estructurales. En 1982, Stefan Lehnert, fundó Vector Foiltec en Bremen y su primera obra utilizando ETFE fue el pabellón de un zoológico en Arnheim, Holanda. Desde entonces, el ETFE se ha convertido en un material con popularidad creciente, no exento de la influencia de la moda, especialmente entre los arquitectos europeos y se lo ha visto utilizado en atrios de edificios de oficinas, en algunos edificios educacionales, clínicas, salas de exposiciones y zoológicos de Gran Bretaña y Alemania. ElProyecto Edén (año 2000) en Cornwall, Inglaterra de Grimshaw Architects, que consta de dos gigantescos invernaderos geodésicos cubiertos con ETFE, fue 'aclamado' como una maravilla de la ingeniería y generó una ola de interés por el producto en todo el mundo.
una propiedad muy interesante para los arquitectos es que puede producirse como un film muy delgado y durable empacado en rollos por sus fabricantes: DuPont (Tefzel), Asahi Glass Company (Fluon) y Vector Foiltec (Texlon). Se puede utilizar en forma de hojas, como un vidrio, o inflado en paneles neumáticos (tal el caso de la mayoría de los proyectos más conocidos) como el Allianz Arena en Alemania o el Centro Acuático Nacional de Beijing (la estructura más grande del mundo realizada en film laminado de ETFE). Los paneles del Proyecto Edén, en Cornwall, también fueron realizados con este copolímero. Otras propiedades muy importantes son: su peso es de sólo el 1%, transmite más luz y su costo es entre 24% y 70% menor, comparado con el vidrio. Además es muy resistente, pudiendo soportar hasta 400 veces su propio peso con una vida útil estimada de unos cincuenta años; repele la suciedad; puede estirarse hasta tres veces su largo sin perder su elasticidad y es totalmente reciclable.
Houston, Texas, está en peligro: la cuarta ciudad más poblada de los Estados Unidos está amenazada por los huracanes, el calor extremo y las cada vez mayores consecuencias del calentamiento global. Solamente una solución radical podrá salvar a la gran urbe: un domo colosal de 460 metros de altura y una milla de diámetro, que se alza sobre millones de habitantes. Tal estructura requiere de innovadoras ideas de construcción e ingeniería, así como la ayuda de experiencias, materiales y técnicas provenientes de todo el planeta. Sin embargo, a partir del Proyecto Edén -creadores de los domos geodésicos más grandes del mundo- y de una pequeña fábrica en Bremen, Alemania, donde se elabora un tipo de plástico revolucionario, la idea de una cubierta semiesférica del tamaño de una ciudad entera puede volverse finalmente realidad.
Esta cubierta será ligera, duradera, y podrá proteger a la ciudad de vientos de hasta 300 km/h, ráfagas más fuertes que las de un huracán de categoría 5.
El “Proyecto Eden”, de Grimshaw Architects, 2001
ETFE es la sigla que denomina al copolímero de etileno-tetraflúoretileno, un material plástico emparentado con el Teflón, muy durable, adaptable y que puede ser transparente. El ETFE está siendo utilizado en muchas mega estructuras en la actualidad, como en la Villa Olímpica de Beijing, donde se construyen un enorme centro acuático cubierto, 'hecho de burbujas', aunque a cierta distancia se asemeje a un gigantesco colchón, y el nuevo Estadio Olímpico, 'tejido' con una estructura metálica a semejanza de un nido de tejedores cuyos intersticios serán cubiertos con almohadones de ETFE; o como la gigantesca 'carpa' de más de 100.000m2 que Foster+partners construye en Astana, la capital de Kazakhstan, para albergar el Centro Khan Shatyry.
Originalmente fue diseñado (alrededor de los años '70 cuando DuPont inventó un polímero de fluoro-carbono para ser utilizado como material aislante en la industria aeronáutica) para cubrir las necesidades de un material altamente resistente a la corrosión y de gran fortaleza bajo condiciones de variaciones térmicas muy amplias. DuPont no trató, inicialmente, de introducirlo en la industria de la construcción y fue el ingeniero mecánico alemán Stefan Lehnert quien, mientras investigaba sobre nuevas tecnologías para su uso en la navegación a vela, visualizó su potencialidad como material para la arquitectura, especialmente por su transparencia, auto limpieza y propiedades estructurales. En 1982, Stefan Lehnert, fundó Vector Foiltec en Bremen y su primera obra utilizando ETFE fue el pabellón de un zoológico en Arnheim, Holanda. Desde entonces, el ETFE se ha convertido en un material con popularidad creciente, no exento de la influencia de la moda, especialmente entre los arquitectos europeos y se lo ha visto utilizado en atrios de edificios de oficinas, en algunos edificios educacionales, clínicas, salas de exposiciones y zoológicos de Gran Bretaña y Alemania. ElProyecto Edén (año 2000) en Cornwall, Inglaterra de Grimshaw Architects, que consta de dos gigantescos invernaderos geodésicos cubiertos con ETFE, fue 'aclamado' como una maravilla de la ingeniería y generó una ola de interés por el producto en todo el mundo.
una propiedad muy interesante para los arquitectos es que puede producirse como un film muy delgado y durable empacado en rollos por sus fabricantes: DuPont (Tefzel), Asahi Glass Company (Fluon) y Vector Foiltec (Texlon). Se puede utilizar en forma de hojas, como un vidrio, o inflado en paneles neumáticos (tal el caso de la mayoría de los proyectos más conocidos) como el Allianz Arena en Alemania o el Centro Acuático Nacional de Beijing (la estructura más grande del mundo realizada en film laminado de ETFE). Los paneles del Proyecto Edén, en Cornwall, también fueron realizados con este copolímero. Otras propiedades muy importantes son: su peso es de sólo el 1%, transmite más luz y su costo es entre 24% y 70% menor, comparado con el vidrio. Además es muy resistente, pudiendo soportar hasta 400 veces su propio peso con una vida útil estimada de unos cincuenta años; repele la suciedad; puede estirarse hasta tres veces su largo sin perder su elasticidad y es totalmente reciclable.
Amatistas
Forma:
Hexagonal. Su estructura es cristalina.Debido a su estructura, son más parecidos a un líquido que a un sólido. Se conocen como líquidos súper enfriados. Los cuarzos que se hallan en estado natural, tienen todos estas bases que presentan un aspecto más tosco, como si hubieran sido arrancados. También pueden aparecer imperfecciones o trozosde otros cristales o minerales, sobre la superficie de sus caras. En fin, cuando cristal no ha recibido la acción de la mano del hombre, presenta una energía diferente, poderosa, plena. Si tiene la oportunidad de tomar en sus manos un cristal en bruto, y uno tallado y pulido, y captan por un rato su energía, van a percibir la diferencia. Algunos más sensibles lo captarán a simple vista.
Propiedades:
Los cristales morados pálidos al recalentarlos (300 a 400° C), se tornan amarillos o rojos.Algunos cristales, cuando se comprimen, producen cargas eléctricas en sus extremos; otros producen cargas similares cuando se calientan. Estas propiedades, llamadas piezoelectricidad y piroelectricidad respectivamente, son mostradas de modo notable por el cuarzo.
Uno de los minerales más bellos e interesantes...http://redescolar.ilce.edu.mx/redescolar/publicaciones/publi_rocas/amatista.htm
Dos nuevos elementos superpesados descubiertos
Un grupo de investigadores suizos han participado en el descubrimiento de dos nuevos elementos químicos. Estos elementos tienen los números 113 y 115 y han sido descubiertos en el Centro de Investigación Nuclear en Dubna (Rusia) empleando una combinación de técnicas físicas y químicas. El Instituto Paul Scherrer (PSI), con su experiencia radioquímica, ha sido crucial para el éxito del experimento.
La química, en la actualidad, está traspasando los límites de los conocimientos de la ciencia. Hasta 1940 el uranio era el elemento más pesado que se conocía. Este metal, que se da de forma natural, tiene de número atómico 92 ya que su núcleo posee 92 protones cargados positivamente. Desde entonces, se han descubierto más de veinte elementos con un número atómico mayor.
El nacimiento del elemento 115
Los elementos pesados se descomponen (o decaen) al emitir átomos de helio con carga, llamados partículas alfa. Las secuencias de esta descomposición fueron empleadas por los científicos americanos, rusos y suizos para probar físicamente la existencia del elemento 115 y el producto de su descomposición después de la emisión de la primera partícula alfa, el elemento 113. Para sintetizar los átomos del elemento 115, se bombardeó un disco giratorio de americio (el objetivo) con haces de calcio. Tras una reacción de fusión entre el objetivo y el haz de partículas, nació el elemento 115. Sin embargo su formación no bastaba para probar la existencia del elemento ya que sus átomos solo viven durante una mera centésima de segundo y son difíciles de detectar. El experimento radioquímico demostró ser un éxito mayor ya que produjo cinco veces el número de átomos requerido.
Prueba radioquímica
Como se esperaba, el elemento 115 decayó emitiendo partículas alpha hasta convertirse en el elemento 113 y después, en emisiones posteriores de cuatro partículas alpha, se transformó en dubnio , el elemento 105. Fue en este momento cuando el elegante enfoque experimental del PSI entró en juego. Detrás del disco giratorio de americio se colocó un disco de cobre que recogía todos los átomos emitidos por el elemento 115 desde el objetivo. El disco de cobre era procesado químicamente mediante técnicas de cromatografía líquida, y se observaron 15 átomos de dubnio (que tienen una vida media de 32 horas). El patrón de descomposición de estos átomos aportó las evidencias del experimento físico. Por ello, se probó el descubrimiento del elemento 115 y su progenie, el elemento 113. Todos los elementos que tienen un nº atómico inferior a 113 ya son conocidos.
“Suiza puede celebrar un acto científico de primera magnitud, aún cuando el experimento se haya realizado en el extranjero”, comentó Heinz Gäggeler, líder del grupo de investigación helvético y jefe del Departamento de Partículas y Materia en el PSI, además de profesor de química en la Universidad de Berna. Es la primera vez que Suiza ha estado en primera línea en la carrera por expandir la tabla periódica.
http://www.astroseti.org/noticia_1896_dos_nuevos_elementos_superpesados_descubiertos.htm
Se Extiende la Tabla Periódica
Los físicos nucleares han sospechado por largo tiempo la existencia de átomos mucho más pesados que cualquiera de los descubiertos hasta ahora, pero carecían de la tecnología necesaria para sintetizarlos. Ahora, un equipo conjunto ruso-americano ha encontrado dos nuevos elementos, los números 113 y 115 de la tabla periódica, apuntando a un cercano salto en la creación de nuevas formas de materia que servirán para examinar nuestro conocimiento acerca del comportamiento atómico.
Los elementos ultra-pesados tienden a desintegrarse casi tan pronto como son creados. Estos dos nuevos, sin embargo, parecen ser los primeros de una largamente buscada familia de átomos con una relativamente larga vida. “Estamos entrando en una región donde parecería que hubiera una estabilidad aumentada”, dice Joshua Patin de los Laboratorios Nacionales Lawrence Livermore en California, analista jefe de datos en el proyecto cooperativo. Para encontrar estos elementos, él y sus colegas en Livermore y en el Instituto Conjunto para Investigación Nuclear de Rusia hicieron colisionar iones (átomos cargados) con otros átomos blanco en un ciclotrón, una máquina que acelera los núcleos hasta altísimas velocidades por medio de un campo magnético.
Los investigadores bombardearon americio-243 radiactivo con calcio-48, disparando un billón de átomos de calcio por segundo hacia el blanco de americio, con la esperanza de que ocasionalmente los
átomos se unieran para formar algo nuevo. Luego de hacer funcionar el ciclotrón día y noche por un mes, Patin y compañía produjeron cuatro átomos de cada uno de los elementos, suficientes como para estudiar como se desintegran.
El elemento 115 vive por una cienmilésima de segundo antes de desintegrarse formando el elemento 113, el cual a su turno se desintegra luego de un poco más de un segundo. En el mundo de los elementos pesados estas aparentemente brevísimas vidas son una eternidad.
El descubrimiento confirma una teoría largamente sostenida en física nuclear de que hay una región de estabilidad aumentada en el margen de la tabla periódica. Y por cada uno de los nuevos elementos descubiertos, existen potencialmente numerosos isótopos (versiones diferentes del mismo elemento) no descubiertos, algunos de los cuales podrían ser muy estables.
Próximamente, el equipo trabajará para conseguir los elementos 117 y 118. “Se puede considerar a esta región de la tabla como un rompecabezas”, dice Patin. “Conseguimos algunas piezas del rompecabezas, pero hay muchísimos isótopos de elementos recientemente descubiertos que todavía no han sido vistos”.
La química, en la actualidad, está traspasando los límites de los conocimientos de la ciencia. Hasta 1940 el uranio era el elemento más pesado que se conocía. Este metal, que se da de forma natural, tiene de número atómico 92 ya que su núcleo posee 92 protones cargados positivamente. Desde entonces, se han descubierto más de veinte elementos con un número atómico mayor.
El nacimiento del elemento 115
Los elementos pesados se descomponen (o decaen) al emitir átomos de helio con carga, llamados partículas alfa. Las secuencias de esta descomposición fueron empleadas por los científicos americanos, rusos y suizos para probar físicamente la existencia del elemento 115 y el producto de su descomposición después de la emisión de la primera partícula alfa, el elemento 113. Para sintetizar los átomos del elemento 115, se bombardeó un disco giratorio de americio (el objetivo) con haces de calcio. Tras una reacción de fusión entre el objetivo y el haz de partículas, nació el elemento 115. Sin embargo su formación no bastaba para probar la existencia del elemento ya que sus átomos solo viven durante una mera centésima de segundo y son difíciles de detectar. El experimento radioquímico demostró ser un éxito mayor ya que produjo cinco veces el número de átomos requerido.
Prueba radioquímica
Como se esperaba, el elemento 115 decayó emitiendo partículas alpha hasta convertirse en el elemento 113 y después, en emisiones posteriores de cuatro partículas alpha, se transformó en dubnio , el elemento 105. Fue en este momento cuando el elegante enfoque experimental del PSI entró en juego. Detrás del disco giratorio de americio se colocó un disco de cobre que recogía todos los átomos emitidos por el elemento 115 desde el objetivo. El disco de cobre era procesado químicamente mediante técnicas de cromatografía líquida, y se observaron 15 átomos de dubnio (que tienen una vida media de 32 horas). El patrón de descomposición de estos átomos aportó las evidencias del experimento físico. Por ello, se probó el descubrimiento del elemento 115 y su progenie, el elemento 113. Todos los elementos que tienen un nº atómico inferior a 113 ya son conocidos.
“Suiza puede celebrar un acto científico de primera magnitud, aún cuando el experimento se haya realizado en el extranjero”, comentó Heinz Gäggeler, líder del grupo de investigación helvético y jefe del Departamento de Partículas y Materia en el PSI, además de profesor de química en la Universidad de Berna. Es la primera vez que Suiza ha estado en primera línea en la carrera por expandir la tabla periódica.
http://www.astroseti.org/noticia_1896_dos_nuevos_elementos_superpesados_descubiertos.htm
Se Extiende la Tabla Periódica
Los físicos nucleares han sospechado por largo tiempo la existencia de átomos mucho más pesados que cualquiera de los descubiertos hasta ahora, pero carecían de la tecnología necesaria para sintetizarlos. Ahora, un equipo conjunto ruso-americano ha encontrado dos nuevos elementos, los números 113 y 115 de la tabla periódica, apuntando a un cercano salto en la creación de nuevas formas de materia que servirán para examinar nuestro conocimiento acerca del comportamiento atómico.
Los elementos ultra-pesados tienden a desintegrarse casi tan pronto como son creados. Estos dos nuevos, sin embargo, parecen ser los primeros de una largamente buscada familia de átomos con una relativamente larga vida. “Estamos entrando en una región donde parecería que hubiera una estabilidad aumentada”, dice Joshua Patin de los Laboratorios Nacionales Lawrence Livermore en California, analista jefe de datos en el proyecto cooperativo. Para encontrar estos elementos, él y sus colegas en Livermore y en el Instituto Conjunto para Investigación Nuclear de Rusia hicieron colisionar iones (átomos cargados) con otros átomos blanco en un ciclotrón, una máquina que acelera los núcleos hasta altísimas velocidades por medio de un campo magnético.
Los investigadores bombardearon americio-243 radiactivo con calcio-48, disparando un billón de átomos de calcio por segundo hacia el blanco de americio, con la esperanza de que ocasionalmente los
átomos se unieran para formar algo nuevo. Luego de hacer funcionar el ciclotrón día y noche por un mes, Patin y compañía produjeron cuatro átomos de cada uno de los elementos, suficientes como para estudiar como se desintegran.
El elemento 115 vive por una cienmilésima de segundo antes de desintegrarse formando el elemento 113, el cual a su turno se desintegra luego de un poco más de un segundo. En el mundo de los elementos pesados estas aparentemente brevísimas vidas son una eternidad.
El descubrimiento confirma una teoría largamente sostenida en física nuclear de que hay una región de estabilidad aumentada en el margen de la tabla periódica. Y por cada uno de los nuevos elementos descubiertos, existen potencialmente numerosos isótopos (versiones diferentes del mismo elemento) no descubiertos, algunos de los cuales podrían ser muy estables.
Próximamente, el equipo trabajará para conseguir los elementos 117 y 118. “Se puede considerar a esta región de la tabla como un rompecabezas”, dice Patin. “Conseguimos algunas piezas del rompecabezas, pero hay muchísimos isótopos de elementos recientemente descubiertos que todavía no han sido vistos”.
OPTIMIZAN TERMOELÉCTRICAS CON REDES NEURONALES
Querétaro, Qro; 11 de marzo de 2009.- A partir de redes neuronales, especialistas del Centro de Ingeniería y Desarrollo Industrial (CIDESI) crearon un sistema inteligente que en tiempo real permite optimizar el proceso de combustión en los generadores de vapor de las centrales termoeléctricas, esta herramienta posibilita maximizar el uso de combustóleo para producir electricidad y reducir la emisión de contaminantes.
El software denominado Boiler OP fue instalado en mayo de 2008 en la Unidad número uno del Complejo Termoeléctrico “Presidente Adolfo López Mateos” de Tuxpan, Veracruz, de la Comisión Federal de Electricidad (CFE), cuya capacidad instalada para generar energía eléctrica es de 2100 megawatts y en donde se procesan alrededor de 450 metros cúbicos de combustible por hora, los 365 días del año y las 24 horas del día.
“El primer beneficio de instalar el sistema es que ahora se genera la misma cantidad de energía eléctrica que antes pero con el .15% menos de combustible, lo que implica un ahorro de 1.8 millones de pesos. Un segundo beneficio es que se redujeron las emisiones contaminantes, estamos dejando de emitir, aproximadamente, 800 toneladas anuales, afirma Fernando Hernández Rosales, integrante de la Gerencia de Investigación Aplicada del CIDESI.
De acuerdo con el especialista, el software emite una serie de recomendaciones en tiempo real que el operador de la caldera debe seguir para optimizar el proceso de combustión.
Gracias al software, afirma el especialista, es posible tener un mejor control de las variables que influyen en el proceso de combustión: la temperatura a la que se quema el combustóleo y la temperatura del vapor que se manda a las turbinas para generar electricidad, entre otras.
Las recomendaciones emitidas por el programa están basadas en una serie de pruebas paramétricas que toman en cuenta el estado de la caldera y su funcionamiento. Las pruebas paramétricas están diseñadas con base en una metodología desarrollada por el Centro de Investigación en Energía de la Universidad de Lehigh, institución estadounidense que colaboró con el CIDESI en la construcción del sistema experto.
De lazo abierto a lazo cerrado
Actualmente, Boiler OP funciona en el esquema de “lazo abierto”, es decir, el software no tiene el control de la caldera, por lo que “dependemos de que el operador implemente las recomendaciones del software. Esto quizá afecte el rendimiento del programa, pues si el operador está atendiendo otra tarea, entonces es posible que no atienda las recomendaciones y el proceso de optimización de combustión no sea el esperado.”
“Por ello, estamos haciendo un análisis para que en una siguiente etapa el software funcione en modo de lazo cerrado. Estos significa que el software controlaría la caldera para mantener de forma automática un estado optimizado de la combustión”.
De acuerdo con Fernando Hernández Rosales, implementar el Boiler OP en todas las termoeléctricas del país tendría un impacto significativo en su rendimiento, pues actualmente el Laboratorio de Pruebas de Equipos y Materiales (LAPEM) de CFE comisiona a un grupo de especialistas para optimizar la combustión en cada una de las termoeléctricas mexicanas.
“Si consideramos que hay, aproximadamente, más de 80 centrales termoeléctricas en México, pues no se dan abasto, ya que se necesita una semana para optimizar cada una de las unidades.”
Por el momento, Boiler OP sólo ha sido instalado en la Unidad uno de la termoeléctrica de Tuxpan, Veracruz, como parte del proyecto de investigación desarrollado por CIDESI y financiado con recursos del Fondo Sectorial para la Investigación y Desarrollo Tecnológico en Energía CFE-Conacyt.
Sin embargo, “esperamos instalarlo pronto en otras termoeléctricas, como la de Salamanca , Guanajuato, que al estar rodeada de núcleos poblacionales debe mantener controladas sus emisiones contaminantes. Pensamos también que esta herramienta podría ser de gran beneficio para las refinerías de Pemex, pues es muy útil en cualquier sistema de producción basado en la combustión; ya hemos contactado a la paraestatal para presentar el proyecto.”
El software denominado Boiler OP fue instalado en mayo de 2008 en la Unidad número uno del Complejo Termoeléctrico “Presidente Adolfo López Mateos” de Tuxpan, Veracruz, de la Comisión Federal de Electricidad (CFE), cuya capacidad instalada para generar energía eléctrica es de 2100 megawatts y en donde se procesan alrededor de 450 metros cúbicos de combustible por hora, los 365 días del año y las 24 horas del día.
“El primer beneficio de instalar el sistema es que ahora se genera la misma cantidad de energía eléctrica que antes pero con el .15% menos de combustible, lo que implica un ahorro de 1.8 millones de pesos. Un segundo beneficio es que se redujeron las emisiones contaminantes, estamos dejando de emitir, aproximadamente, 800 toneladas anuales, afirma Fernando Hernández Rosales, integrante de la Gerencia de Investigación Aplicada del CIDESI.
De acuerdo con el especialista, el software emite una serie de recomendaciones en tiempo real que el operador de la caldera debe seguir para optimizar el proceso de combustión.
Gracias al software, afirma el especialista, es posible tener un mejor control de las variables que influyen en el proceso de combustión: la temperatura a la que se quema el combustóleo y la temperatura del vapor que se manda a las turbinas para generar electricidad, entre otras.
Las recomendaciones emitidas por el programa están basadas en una serie de pruebas paramétricas que toman en cuenta el estado de la caldera y su funcionamiento. Las pruebas paramétricas están diseñadas con base en una metodología desarrollada por el Centro de Investigación en Energía de la Universidad de Lehigh, institución estadounidense que colaboró con el CIDESI en la construcción del sistema experto.
De lazo abierto a lazo cerrado
Actualmente, Boiler OP funciona en el esquema de “lazo abierto”, es decir, el software no tiene el control de la caldera, por lo que “dependemos de que el operador implemente las recomendaciones del software. Esto quizá afecte el rendimiento del programa, pues si el operador está atendiendo otra tarea, entonces es posible que no atienda las recomendaciones y el proceso de optimización de combustión no sea el esperado.”
“Por ello, estamos haciendo un análisis para que en una siguiente etapa el software funcione en modo de lazo cerrado. Estos significa que el software controlaría la caldera para mantener de forma automática un estado optimizado de la combustión”.
De acuerdo con Fernando Hernández Rosales, implementar el Boiler OP en todas las termoeléctricas del país tendría un impacto significativo en su rendimiento, pues actualmente el Laboratorio de Pruebas de Equipos y Materiales (LAPEM) de CFE comisiona a un grupo de especialistas para optimizar la combustión en cada una de las termoeléctricas mexicanas.
“Si consideramos que hay, aproximadamente, más de 80 centrales termoeléctricas en México, pues no se dan abasto, ya que se necesita una semana para optimizar cada una de las unidades.”
Por el momento, Boiler OP sólo ha sido instalado en la Unidad uno de la termoeléctrica de Tuxpan, Veracruz, como parte del proyecto de investigación desarrollado por CIDESI y financiado con recursos del Fondo Sectorial para la Investigación y Desarrollo Tecnológico en Energía CFE-Conacyt.
Sin embargo, “esperamos instalarlo pronto en otras termoeléctricas, como la de Salamanca , Guanajuato, que al estar rodeada de núcleos poblacionales debe mantener controladas sus emisiones contaminantes. Pensamos también que esta herramienta podría ser de gran beneficio para las refinerías de Pemex, pues es muy útil en cualquier sistema de producción basado en la combustión; ya hemos contactado a la paraestatal para presentar el proyecto.”
OBTIENE CIATEJ APROBACIÓN DE FDA PARA DETECTAR PLOMO EN DULCES
El laboratorio del Centro de Investigación y Asistencia en Tecnología y Diseño del Estado de Jalisco (CIATEJ) fue certificado por la Administración de Drogas y Alimentos (FDA, por sus siglas en inglés) de los Estados Unidos, para analizar los niveles de plomo en dulces enchilados y en tamarindos de exportación.
La dependencia estadounidense, responsable de la regulación de alimentos, suplementos alimenticios, medicamentos, cosméticos y aparatos médicos, sólo ha otorgado este reconocimiento a cuatro laboratorios en el mundo: tres de ellos se localizan en el vecino país del norte; CIATEJ es la única institución extranjera con esta distinción.
En entrevista, la directora de Servicios Analíticos y Metrológicos del CIATEJ, Ana Luz Núñez, dijo que la aprobación se obtuvo en julio de este año gracias a la preparación técnica del los especialistas mexicanos que realiza las pruebas y a la adquisición del ICP-MS (Inductiviely Coupled Plasma Atomic Emision Coupled Masas), dispositivo de alta sensibilidad capaz de detectar 0,01 partes por millón de plomo.
La norma oficial aprobada por FDA señala que el nivel de plomo en dulces debe ser de 0,1; el ICP-MS detecta cantidades hasta diez veces menores, por lo que garantiza un análisis confiable.
El laboratorio del CIATEJ también fue aprobado por la FDA gracias al desarrollo de su metodología para el análisis de plomo en dulces con chile, la primera en su tipo; anteriormente había técnicas para detectar plomo en alimentos o agua, pero no en golosinas enchiladas y de tamarindo.
Dicha metodología fue elaborada con el objetivo de ofrecer a empresas mexicanas productoras de dulces el análisis de sus productos, a fin de que puedan exportarlos a Estados Unidos.
Antes del 2002 la norma estadounidense señalaba como aceptable 0,5 partes por millón de plomo en dulces, pero después de un estudio realizado por la FDA se determinó que el nivel era muy alto y el nuevo estándar se fijó en 0,1 partes por millón.
Llegada del ICP-MS al CIATEJ: caso de éxito
La bióloga Ana Luz Núñez explicó que hasta el año 2005 en México no existía ningún equipo capaz de detectar niveles tan bajos de plomo en alimentos, pero gracias a una negociación exitosa con la empresa Hershey’s, ésta entregó al CIATEJ el ICP-MS.
“Concursamos con dos laboratorios de la ciudad de México y, luego de varias pruebas, el equipo se nos otorgó por el desarrollo y la confiabilidad de los métodos de análisis que presentamos”.
Para pagar el equipo a la empresa estadounidense, CIATEJ realizó pruebas sin costo para Hershey’s durante cuatro meses.
El laboratorio donde está instalado el dispositivo entregado pro Hershey’s se encuentra bajo supervisión constante de FAPAS (Food Analysis Performance Scheme), institución de carácter internacional que cada tres meses envía al CIATEJ muestras contaminadas con plomo para comprobar que la institución mexicana realiza el análisis de manera adecuada.
“FAPAS conoce la cantidad de plomo en las muestras, así que para mantener la certificación de nuestro laboratorio los resultados de nuestras pruebas deben coincidir con los que ellos tienen”, manifestó Núñez.
Para realizar el análisis de plomo, a cada muestra que llega al laboratorio se le asigna un código para rastrearla durante el proceso. Posteriormente se prepara mediante una “digestión ácida” (se desbarata en ácido) para destruir la materia orgánica y obtener el plomo, que es inorgánico.
Una vez separado el plomo de la materia orgánica se hace una filtración y se determina el nivel de plomo con el ICP-MS, el cual está conectado a una computadora que registra en Excel la lectura dada por el equipo y el peso de la muestra. Con esos datos se hacen cálculos específicos y el resultado de ellos es el nivel de plomo en la muestra.
Cadena de exigencias
La especialista agregó que la estricta normatividad de Estados Unidos respecto a la cantidad de plomo en los alimentos ha propiciado que análisis como los realizados por CIATEJ sean una obligación para los proveedores involucrados en la industria alimenticia.
“Quien elabora dulces exige a sus proveedores de sal, azúcar o chile un informe de resultados que asegure cantidades mínimas de plomo en los insumos; y los proveedores, a su vez, al ingenio y éste a quien le vende los productos para limpiar sus instalaciones”.
Por ello, para cubrir a todos los involucrados en la producción de dulces, el CIATEJ ha ampliado sus servicios y actualmente, además de trabajar con más de 200 marcas de dulces comerciales, a las que garantiza total confidencialidad, realiza análisis para la detección de plomo en agua, sal, aditivos, pintura para etiquetas y plásticos.
La directora de Servicios Analíticos y Metrológicos del CIATEJ explicó que para las empresas mexicanas exportadoras de dulces es una ventaja contar en México con una institución avalada para realizar la detección de plomo en dulces, pues esto les permitirá ahorra dinero y tiempo, ya que no será necesario enviar sus productos a Estados Unidos.
La dependencia estadounidense, responsable de la regulación de alimentos, suplementos alimenticios, medicamentos, cosméticos y aparatos médicos, sólo ha otorgado este reconocimiento a cuatro laboratorios en el mundo: tres de ellos se localizan en el vecino país del norte; CIATEJ es la única institución extranjera con esta distinción.
En entrevista, la directora de Servicios Analíticos y Metrológicos del CIATEJ, Ana Luz Núñez, dijo que la aprobación se obtuvo en julio de este año gracias a la preparación técnica del los especialistas mexicanos que realiza las pruebas y a la adquisición del ICP-MS (Inductiviely Coupled Plasma Atomic Emision Coupled Masas), dispositivo de alta sensibilidad capaz de detectar 0,01 partes por millón de plomo.
La norma oficial aprobada por FDA señala que el nivel de plomo en dulces debe ser de 0,1; el ICP-MS detecta cantidades hasta diez veces menores, por lo que garantiza un análisis confiable.
El laboratorio del CIATEJ también fue aprobado por la FDA gracias al desarrollo de su metodología para el análisis de plomo en dulces con chile, la primera en su tipo; anteriormente había técnicas para detectar plomo en alimentos o agua, pero no en golosinas enchiladas y de tamarindo.
Dicha metodología fue elaborada con el objetivo de ofrecer a empresas mexicanas productoras de dulces el análisis de sus productos, a fin de que puedan exportarlos a Estados Unidos.
Antes del 2002 la norma estadounidense señalaba como aceptable 0,5 partes por millón de plomo en dulces, pero después de un estudio realizado por la FDA se determinó que el nivel era muy alto y el nuevo estándar se fijó en 0,1 partes por millón.
Llegada del ICP-MS al CIATEJ: caso de éxito
La bióloga Ana Luz Núñez explicó que hasta el año 2005 en México no existía ningún equipo capaz de detectar niveles tan bajos de plomo en alimentos, pero gracias a una negociación exitosa con la empresa Hershey’s, ésta entregó al CIATEJ el ICP-MS.
“Concursamos con dos laboratorios de la ciudad de México y, luego de varias pruebas, el equipo se nos otorgó por el desarrollo y la confiabilidad de los métodos de análisis que presentamos”.
Para pagar el equipo a la empresa estadounidense, CIATEJ realizó pruebas sin costo para Hershey’s durante cuatro meses.
El laboratorio donde está instalado el dispositivo entregado pro Hershey’s se encuentra bajo supervisión constante de FAPAS (Food Analysis Performance Scheme), institución de carácter internacional que cada tres meses envía al CIATEJ muestras contaminadas con plomo para comprobar que la institución mexicana realiza el análisis de manera adecuada.
“FAPAS conoce la cantidad de plomo en las muestras, así que para mantener la certificación de nuestro laboratorio los resultados de nuestras pruebas deben coincidir con los que ellos tienen”, manifestó Núñez.
Para realizar el análisis de plomo, a cada muestra que llega al laboratorio se le asigna un código para rastrearla durante el proceso. Posteriormente se prepara mediante una “digestión ácida” (se desbarata en ácido) para destruir la materia orgánica y obtener el plomo, que es inorgánico.
Una vez separado el plomo de la materia orgánica se hace una filtración y se determina el nivel de plomo con el ICP-MS, el cual está conectado a una computadora que registra en Excel la lectura dada por el equipo y el peso de la muestra. Con esos datos se hacen cálculos específicos y el resultado de ellos es el nivel de plomo en la muestra.
Cadena de exigencias
La especialista agregó que la estricta normatividad de Estados Unidos respecto a la cantidad de plomo en los alimentos ha propiciado que análisis como los realizados por CIATEJ sean una obligación para los proveedores involucrados en la industria alimenticia.
“Quien elabora dulces exige a sus proveedores de sal, azúcar o chile un informe de resultados que asegure cantidades mínimas de plomo en los insumos; y los proveedores, a su vez, al ingenio y éste a quien le vende los productos para limpiar sus instalaciones”.
Por ello, para cubrir a todos los involucrados en la producción de dulces, el CIATEJ ha ampliado sus servicios y actualmente, además de trabajar con más de 200 marcas de dulces comerciales, a las que garantiza total confidencialidad, realiza análisis para la detección de plomo en agua, sal, aditivos, pintura para etiquetas y plásticos.
La directora de Servicios Analíticos y Metrológicos del CIATEJ explicó que para las empresas mexicanas exportadoras de dulces es una ventaja contar en México con una institución avalada para realizar la detección de plomo en dulces, pues esto les permitirá ahorra dinero y tiempo, ya que no será necesario enviar sus productos a Estados Unidos.
RELANZARÁN AL MERCADO PINTURA ANTIGRAFFITI
La empresa Futura 2000 S. A., con apoyo del Programa Emprendedores Nafin-Conacyt, trabaja en la producción masiva de una pintura antigraffiti que se comercializará en todo el país en los próximos meses, tal y como lo hace desde hace ya cuatro años en algunos estados de la república.
Esta empresa mexicana se constituyó formalmente en 1991, teniendo como su actividad principal la industria de la construcción, pero en el año 2000 incursionó en el terreno de la fabricación de pinturas.
El Proyecto Antigraffiti comenzó en 2002, cuando esta compañía realizó las primeras pruebas para la elaboración del producto, el cual quedó terminado un año más tarde gracias al apoyo del Programa Avance de Conacyt.
Hasta ahora Futura 2000 sólo había comercializado su producto en algunas ciudades de Baja California y Nuevo León, en México, y en California, Estados Unidos, pues su capital para producir la pintura era limitado, situación que esperaban mejorara en cuanto atendieran los pedidos de sus clientes en dichas ciudades.
“Pero lamentablemente algunos de nuestros clientes se retrasaron en sus pagos y entonces se nos terminó el poco capital de trabajo que teníamos”, señala el ingeniero José Armando Blancq-Casaux Morales, director general de Futura 2000.
La falta de liquidez de sus clientes les impidió atender pedidos mayores de empresas tales como Cemex, Coca-Cola, Bimbo o Bachoco, así como del Sistema de Transporte Colectivo Metro de la ciudad de México.
Esta situación llevó nuevamente a la empresa a solicitar el apoyo del gobierno federal, el cual a través del Programa Emprendedores Nafin-Conacyt otorgó un financiamiento de cinco millones de pesos a esta empresa para que pueda iniciar la producción de la pintura en grandes cantidades y crear también una red de distribuidores en toda la república.
Pintura plástica antigraffiti
Se obtiene de la mezcla de diversos polímeros: poliuretano, polietileno, polipropileno, entre otros, los cuales dan como resultado la formación de una película plástica a la cual no se adhiere otra pintura.
De acuerdo con José Armando Blancq-Casaux Morales, si alguna superficie pintada con su producto es grafiteada, la mancha puede ser fácilmente removida con agua y jabón, o bien, con algún solvente ligero, como tiner o aguarrás.
“Los graffitis sobre una pared pintada con nuestro producto no pegan, sólo se adhieren momentáneamente, pero al secarse puede quitarse inclusive con las uñas o con una espátula en cinco días, cuando la pintura haya secado; pero si se desea quitar la mancha inmediatamente puedes hacerlo con agua y jabón, si se trata de pintura de agua, o bien con un solvente ligero si es pintura de esmalte”, afirma.
La pintura antigraffiti puede aplicarse a cualquier superficie: metal, madera, cemento, granito, mármol, yeso, tabla-roca, etc.
De acuerdo con el director general de Futura 2000, entre las ventajas competitivas de su producto se encuentran: el tiempo de secado, la variedad de colores y el precio.
“La pintura de la competencia tarda en secar 72 horas y la nuestra entre 8 y 10, máximo. Además ellos sólo venden el producto en color blanco y una presentación transparente; y si requieres algún color debes hacerlo sobre pedido, el cual tarda 20 días en ser atendido, mientras que con nosotros puedes tener cualquier color en cinco días.”
“En cuanto al precio, nuestra pintura se vende en 149 pesos cada litro, y la de la competencia en 340.”
Otra de las ventajas de la pintura antigraffiti de Futura 2000 es que tiene una porosidad cero, lo que la convierte en un producto totalmente higiénico, pues ningún microbio puede adherirse a la pintura.
Esta cualidad del producto ha despertado el interés de diversos hospitales de Monterrey, los cuales desean adquirir la pintura para aplicarla a los quirófanos, “de hecho nos van a prestar un quirófano para realizar pruebas y demostrar que ningún microorganismo -como el Staphylococcus aureus, cuya presencia es muy peligrosa en los quirófanos- se incrusta en una superficie pintada con nuestro producto.”
Buscarán también la internacionalización
Además del apoyo Nafin-Conacyt para lanzar su producto en el territorio nacional, la empresa Futura 2000 cuenta con el respaldo de la incubadora de negocios del Instituto Tecnológico de Estudios Superiores Monterrey (ITESM), mediante la cual se desarrollará el plan de negocios de la pintura, así como “la búsqueda de un socio de capital de riesgo que nos pueda lanzar internacionalmente”.
Con el mismo propósito, Futura 2000 participará, también en los próximos meses, en la aceleradora de negocios Technology Business Accelerator (TechBA), en Austin, Texas, la cual es operada por la Fundación México – Estados Unidos para la Ciencia (FUMEC), y que cuenta con el apoyo de la Secretaría de Economía (SE).
TechBA es una de las dos aceleradoras de negocios instaladas en los Estados Unidos para apoyar a empresas mexicanas de base tecnológica que deseen introducir sus productos o servicios innovadores en aquel país.
Esta empresa mexicana se constituyó formalmente en 1991, teniendo como su actividad principal la industria de la construcción, pero en el año 2000 incursionó en el terreno de la fabricación de pinturas.
El Proyecto Antigraffiti comenzó en 2002, cuando esta compañía realizó las primeras pruebas para la elaboración del producto, el cual quedó terminado un año más tarde gracias al apoyo del Programa Avance de Conacyt.
Hasta ahora Futura 2000 sólo había comercializado su producto en algunas ciudades de Baja California y Nuevo León, en México, y en California, Estados Unidos, pues su capital para producir la pintura era limitado, situación que esperaban mejorara en cuanto atendieran los pedidos de sus clientes en dichas ciudades.
“Pero lamentablemente algunos de nuestros clientes se retrasaron en sus pagos y entonces se nos terminó el poco capital de trabajo que teníamos”, señala el ingeniero José Armando Blancq-Casaux Morales, director general de Futura 2000.
La falta de liquidez de sus clientes les impidió atender pedidos mayores de empresas tales como Cemex, Coca-Cola, Bimbo o Bachoco, así como del Sistema de Transporte Colectivo Metro de la ciudad de México.
Esta situación llevó nuevamente a la empresa a solicitar el apoyo del gobierno federal, el cual a través del Programa Emprendedores Nafin-Conacyt otorgó un financiamiento de cinco millones de pesos a esta empresa para que pueda iniciar la producción de la pintura en grandes cantidades y crear también una red de distribuidores en toda la república.
Pintura plástica antigraffiti
Se obtiene de la mezcla de diversos polímeros: poliuretano, polietileno, polipropileno, entre otros, los cuales dan como resultado la formación de una película plástica a la cual no se adhiere otra pintura.
De acuerdo con José Armando Blancq-Casaux Morales, si alguna superficie pintada con su producto es grafiteada, la mancha puede ser fácilmente removida con agua y jabón, o bien, con algún solvente ligero, como tiner o aguarrás.
“Los graffitis sobre una pared pintada con nuestro producto no pegan, sólo se adhieren momentáneamente, pero al secarse puede quitarse inclusive con las uñas o con una espátula en cinco días, cuando la pintura haya secado; pero si se desea quitar la mancha inmediatamente puedes hacerlo con agua y jabón, si se trata de pintura de agua, o bien con un solvente ligero si es pintura de esmalte”, afirma.
La pintura antigraffiti puede aplicarse a cualquier superficie: metal, madera, cemento, granito, mármol, yeso, tabla-roca, etc.
De acuerdo con el director general de Futura 2000, entre las ventajas competitivas de su producto se encuentran: el tiempo de secado, la variedad de colores y el precio.
“La pintura de la competencia tarda en secar 72 horas y la nuestra entre 8 y 10, máximo. Además ellos sólo venden el producto en color blanco y una presentación transparente; y si requieres algún color debes hacerlo sobre pedido, el cual tarda 20 días en ser atendido, mientras que con nosotros puedes tener cualquier color en cinco días.”
“En cuanto al precio, nuestra pintura se vende en 149 pesos cada litro, y la de la competencia en 340.”
Otra de las ventajas de la pintura antigraffiti de Futura 2000 es que tiene una porosidad cero, lo que la convierte en un producto totalmente higiénico, pues ningún microbio puede adherirse a la pintura.
Esta cualidad del producto ha despertado el interés de diversos hospitales de Monterrey, los cuales desean adquirir la pintura para aplicarla a los quirófanos, “de hecho nos van a prestar un quirófano para realizar pruebas y demostrar que ningún microorganismo -como el Staphylococcus aureus, cuya presencia es muy peligrosa en los quirófanos- se incrusta en una superficie pintada con nuestro producto.”
Buscarán también la internacionalización
Además del apoyo Nafin-Conacyt para lanzar su producto en el territorio nacional, la empresa Futura 2000 cuenta con el respaldo de la incubadora de negocios del Instituto Tecnológico de Estudios Superiores Monterrey (ITESM), mediante la cual se desarrollará el plan de negocios de la pintura, así como “la búsqueda de un socio de capital de riesgo que nos pueda lanzar internacionalmente”.
Con el mismo propósito, Futura 2000 participará, también en los próximos meses, en la aceleradora de negocios Technology Business Accelerator (TechBA), en Austin, Texas, la cual es operada por la Fundación México – Estados Unidos para la Ciencia (FUMEC), y que cuenta con el apoyo de la Secretaría de Economía (SE).
TechBA es una de las dos aceleradoras de negocios instaladas en los Estados Unidos para apoyar a empresas mexicanas de base tecnológica que deseen introducir sus productos o servicios innovadores en aquel país.
DESARROLLAN NUEVOS CONCRETOS PARA INDUSTRIA DE LA CONSTRUCCIÓN
Estudiantes de Ingeniería Civil de la UAM Azcapotzalco han desarrollado una nueva generación de concretos para la industria de la construcción, los cuales permiten el paso de luz, conducen la electricidad, y son más ligeros y resistentes que los concretos disponibles en el mercado.
Uno de los productos creados por Joel Sosa y Sergio Omar Galván, responsables del proyecto, es el concreto translúcido, el cual permitirá, en el futuro, la construcción de edificios con muros y pisos por los cuales pueda atravesar la luz.
Actualmente, no existe en el mercado algún material con esta propiedad; lo más cercano es un concreto conductor de luz (ligth transmitting concrete) cuyo nombre comercial es Litracon.
“Litracon es un concreto tradicional con un arreglo tridimensional de fibras ópticas”, afirma Joel Sosa; para formarlo se utilizan miles de fibras ópticas -con diámetros que van de dos micrones a dos milímetros-, las cuales se ordenan en capas o celdas; en cambio el concreto desarrollado por los mexicanos es, desde su origen, una pasta translúcida.
Además el Litracon tiene una desventaja, la pieza más grande lograda mide 30 por 60 metros, mientras el concreto de Sosa y Galván puede aplicarse en grandes volúmenes.
Concretos de alta resistencia y ligeros
El proyecto financiado por el Consejo Nacional de Ciencia y Tecnología (Conacyt), con recursos del Programa AVANCE, ha permitido a los estudiantes de la UAM Azcapotzalco desarrollar también concretos más resistentes que los convencionales.
Además del translúcido, los universitarios han creado un concreto igual en apariencia al tradicional, en color gris. Ambos son mucho más resistentes que cualquiera de los concretos que actualmente se comercializan.
Los concretos tradicionales tienen una resistencia que va de los 250 a los 900 kg/cm2; en cambio el concreto traslucido, por ejemplo, puede alcanzar una resistencia de hasta 4500 kg/cm2 y el gris de 2500 kg/cm2.
Por esta característica podría pensarse que los nuevos productos son sumamente pesados, pero no es así. El concreto translúcido tiene un peso volumétrico máximo de 2100 kg/m3 y el gris de 1950 kg/m3, cifras menores a los 2500 kg/m3, que es el peso de los concretos comerciales.
Además, los productos desarrollados por Sosa y Galván presentan una ventaja más, pues tanto el concreto gris como el translúcido adquieren 90 por ciento de su resistencia final en menos de siete días, lo cual permitiría un ahorro significativo en la industria de la construcción, pues el tiempo para levantar una edificación disminuiría casi 60 por ciento.
Otro de los resultados de la investigación realizada por los estudiantes ha permitido la creación de concretos (ya sean grises o translúcidos) capaces de conducir la energía eléctrica sin necesidad de cableado interno. Con ello, en un futuro se tendrán estructuras poli-cromáticas que generen diferentes efectos visuales, resistan a condiciones climáticas y físicas extremas, además de producir ahorros en la iluminación y en la calefacción de las construcciones.
La preparación
El concreto convencional es resultado de la mezcla de cuatro elementos: agua, cemento, arena y grava; composición que los estudiantes modificaron para obtener las características de bajo peso y mayor resistencia.
La preparación de los concretos no requiere equipo especial, se realiza con la maquinaria tradicional, posteriormente el concreto se vierte en moldes o cimbras, donde se compacta para lograr una buena colocación del material.
Estos bloques de concreto son sometidos al proceso de curado también tradicional, igual al que se usa en obra, sin requerir de tratamientos térmicos o de laboratorio especiales.
Con la finalidad de caracterizar su material y certificarlo tanto científica como tecnológicamente, los jóvenes universitarios realizaron varias pruebas de compresión, flexión, torsión, durabilidad y tiempos de fraguado, en el laboratorio de la UAM.
Además, los estudiantes están trabajando con el Instituto Mexicano del Cemento y del Concreto (IMCYC) y con el Centro Nacional de Metrología (CENAM) para desarrollar las pruebas específicas de certificación para el concreto translúcido y para el concreto conductor de electricidad, pues al no existir materiales parecidos, tampoco existen pruebas para ellos.
Al respecto, Nadia Ortiz, jefa de la Unidad de Gestión y Servicios Tecnológicos de la UAM Azcapotzalco, comentó que se encuentran en pláticas con el CENAM para que en el desarrollo de las pruebas participen, además de Joel Sosa y Sergio Omar Galván, investigadores de la institución.
Valor agregado
Joel Sosa asegura que sus productos tienen un costo igual o muy similar al de los concretos tradicionales. En concreto traslucido es apenas 15 o 20 por ciento más costoso que los concretos comerciales de alta resistencia.
Otros factores que hacen atractivos los nuevos concretos es que para su elaboración no se requieren cambios en las fábricas de cemento actuales o en los procesos de fabricación, diseño o transporte del concreto premezclado, además de que puede ser fabricado a pie de obra.
Uno de los productos creados por Joel Sosa y Sergio Omar Galván, responsables del proyecto, es el concreto translúcido, el cual permitirá, en el futuro, la construcción de edificios con muros y pisos por los cuales pueda atravesar la luz.
Actualmente, no existe en el mercado algún material con esta propiedad; lo más cercano es un concreto conductor de luz (ligth transmitting concrete) cuyo nombre comercial es Litracon.
“Litracon es un concreto tradicional con un arreglo tridimensional de fibras ópticas”, afirma Joel Sosa; para formarlo se utilizan miles de fibras ópticas -con diámetros que van de dos micrones a dos milímetros-, las cuales se ordenan en capas o celdas; en cambio el concreto desarrollado por los mexicanos es, desde su origen, una pasta translúcida.
Además el Litracon tiene una desventaja, la pieza más grande lograda mide 30 por 60 metros, mientras el concreto de Sosa y Galván puede aplicarse en grandes volúmenes.
Concretos de alta resistencia y ligeros
El proyecto financiado por el Consejo Nacional de Ciencia y Tecnología (Conacyt), con recursos del Programa AVANCE, ha permitido a los estudiantes de la UAM Azcapotzalco desarrollar también concretos más resistentes que los convencionales.
Además del translúcido, los universitarios han creado un concreto igual en apariencia al tradicional, en color gris. Ambos son mucho más resistentes que cualquiera de los concretos que actualmente se comercializan.
Los concretos tradicionales tienen una resistencia que va de los 250 a los 900 kg/cm2; en cambio el concreto traslucido, por ejemplo, puede alcanzar una resistencia de hasta 4500 kg/cm2 y el gris de 2500 kg/cm2.
Por esta característica podría pensarse que los nuevos productos son sumamente pesados, pero no es así. El concreto translúcido tiene un peso volumétrico máximo de 2100 kg/m3 y el gris de 1950 kg/m3, cifras menores a los 2500 kg/m3, que es el peso de los concretos comerciales.
Además, los productos desarrollados por Sosa y Galván presentan una ventaja más, pues tanto el concreto gris como el translúcido adquieren 90 por ciento de su resistencia final en menos de siete días, lo cual permitiría un ahorro significativo en la industria de la construcción, pues el tiempo para levantar una edificación disminuiría casi 60 por ciento.
Otro de los resultados de la investigación realizada por los estudiantes ha permitido la creación de concretos (ya sean grises o translúcidos) capaces de conducir la energía eléctrica sin necesidad de cableado interno. Con ello, en un futuro se tendrán estructuras poli-cromáticas que generen diferentes efectos visuales, resistan a condiciones climáticas y físicas extremas, además de producir ahorros en la iluminación y en la calefacción de las construcciones.
La preparación
El concreto convencional es resultado de la mezcla de cuatro elementos: agua, cemento, arena y grava; composición que los estudiantes modificaron para obtener las características de bajo peso y mayor resistencia.
La preparación de los concretos no requiere equipo especial, se realiza con la maquinaria tradicional, posteriormente el concreto se vierte en moldes o cimbras, donde se compacta para lograr una buena colocación del material.
Estos bloques de concreto son sometidos al proceso de curado también tradicional, igual al que se usa en obra, sin requerir de tratamientos térmicos o de laboratorio especiales.
Con la finalidad de caracterizar su material y certificarlo tanto científica como tecnológicamente, los jóvenes universitarios realizaron varias pruebas de compresión, flexión, torsión, durabilidad y tiempos de fraguado, en el laboratorio de la UAM.
Además, los estudiantes están trabajando con el Instituto Mexicano del Cemento y del Concreto (IMCYC) y con el Centro Nacional de Metrología (CENAM) para desarrollar las pruebas específicas de certificación para el concreto translúcido y para el concreto conductor de electricidad, pues al no existir materiales parecidos, tampoco existen pruebas para ellos.
Al respecto, Nadia Ortiz, jefa de la Unidad de Gestión y Servicios Tecnológicos de la UAM Azcapotzalco, comentó que se encuentran en pláticas con el CENAM para que en el desarrollo de las pruebas participen, además de Joel Sosa y Sergio Omar Galván, investigadores de la institución.
Valor agregado
Joel Sosa asegura que sus productos tienen un costo igual o muy similar al de los concretos tradicionales. En concreto traslucido es apenas 15 o 20 por ciento más costoso que los concretos comerciales de alta resistencia.
Otros factores que hacen atractivos los nuevos concretos es que para su elaboración no se requieren cambios en las fábricas de cemento actuales o en los procesos de fabricación, diseño o transporte del concreto premezclado, además de que puede ser fabricado a pie de obra.
SE INSTALARÁ EN MÉXICO OBSERVATORIO DE RAYOS GAMMA
Especialistas del Instituto Nacional de Astrofísica, Óptica y Electrónica (INAOE) y de otras instituciones académicas nacionales consiguieron que el Volcán Sierra Negra de Puebla se convierta en la sede del observatorio de rayos gamma HAWC (High Altitude Water Cerenkov), con el cual se pretende construir un mapa profundo del cielo.
HAWC será un observatorio capaz de monitorear las 24 horas del día las fuentes celestes emisoras de rayos gamma ubicadas a menos de 45 grados del cenit. Gracias a la rotación terrestre, el observatorio podrá registrar diariamente un mapa superficial de más del sesenta por ciento del cielo, lo cual permitirá, en un año, acumular información suficiente para obtener un mapa más profundo.
Las ondas de radio, la luz visible y los rayos X y gamma son manifestaciones distintas de un mismo fenómeno: las ondas electromagnéticas o fotones. Los rayos gamma son los fotones de mayor energía, y en particular HAWC estudiará el cielo detectando fotones con energías de billones (millones de millones) de electronvoltios (eV).
Un método para detectar estos fotones es la técnica Cerenkov de agua, que consiste en instalar una gran cantidad de este líquido a la mayor altura posible. Los rayos gamma de muy alta energía generan en la atmósfera una cascada de partículas, la cual crece hasta alcanzar un máximo a unos 6000 metros de altura y empieza a decaer al seguir avanzando dentro de la atmósfera. Las partículas de la cascada al entrar al agua emiten un tipo de luz conocida como luz Cerenkov, por el nombre de su descubridor.
El funcionamiento de los detectores Cerenkov de agua ha sido corroborado con el experimento MILAGRO, un estanque de 50 por 80 metros de lado y 8 metros de profundidad situado a 2630 metros de altura en Nuevo México, el cual ha estado estudiando el cielo desde 1999.
El HAWC contará con un detector Cerenkov de agua de 150 metros de lado ubicado a más de 4000 metros de altura, por lo que se convertirá en el observatorio más importante de su tipo en el mundo, capaz de realizar un mapa profundo de más de la mitad del cielo y de monitorear diariamente cuásares, destellos de rayos gamma e incluso el Sol.
Las características del observatorio, la necesidad de una infraestructura cercana y de un grupo científico local de importancia condujeron a contemplar dos sitios como posibles sedes: el Volcán Sierra Negra en México y el Tibet en China.
En México se logró reunir a un grupo de más de 40 científicos de diversas instituciones, incluyendo al INAOE, la UNAM, la BUAP, el CINVESTAV y a las universidades de Guanajuato y Michoacán, formando así un equipo científico mayor que el de los estadounidenses, quienes iniciaron el proyecto.
La colaboración mexicana que logró la sede del experimento está encabezada por Alberto Carramiñana, investigador del INAOE, e incluye reconocidos astrofísicos, físicos de altas energías, geofísicos e incluso expertos en geología e hidrogeología.
El HAWC, cuyo costo aproximado será de seis millones de dólares, podría comenzar a construirse a finales de este año e iniciar operaciones en el 2010. La aprobación final para instalar en HAWC en México depende únicamente de la Secretaría de Medio Ambiente y Recursos Naturales (SEMARNAT).
HAWC será un observatorio capaz de monitorear las 24 horas del día las fuentes celestes emisoras de rayos gamma ubicadas a menos de 45 grados del cenit. Gracias a la rotación terrestre, el observatorio podrá registrar diariamente un mapa superficial de más del sesenta por ciento del cielo, lo cual permitirá, en un año, acumular información suficiente para obtener un mapa más profundo.
Las ondas de radio, la luz visible y los rayos X y gamma son manifestaciones distintas de un mismo fenómeno: las ondas electromagnéticas o fotones. Los rayos gamma son los fotones de mayor energía, y en particular HAWC estudiará el cielo detectando fotones con energías de billones (millones de millones) de electronvoltios (eV).
Un método para detectar estos fotones es la técnica Cerenkov de agua, que consiste en instalar una gran cantidad de este líquido a la mayor altura posible. Los rayos gamma de muy alta energía generan en la atmósfera una cascada de partículas, la cual crece hasta alcanzar un máximo a unos 6000 metros de altura y empieza a decaer al seguir avanzando dentro de la atmósfera. Las partículas de la cascada al entrar al agua emiten un tipo de luz conocida como luz Cerenkov, por el nombre de su descubridor.
El funcionamiento de los detectores Cerenkov de agua ha sido corroborado con el experimento MILAGRO, un estanque de 50 por 80 metros de lado y 8 metros de profundidad situado a 2630 metros de altura en Nuevo México, el cual ha estado estudiando el cielo desde 1999.
El HAWC contará con un detector Cerenkov de agua de 150 metros de lado ubicado a más de 4000 metros de altura, por lo que se convertirá en el observatorio más importante de su tipo en el mundo, capaz de realizar un mapa profundo de más de la mitad del cielo y de monitorear diariamente cuásares, destellos de rayos gamma e incluso el Sol.
Las características del observatorio, la necesidad de una infraestructura cercana y de un grupo científico local de importancia condujeron a contemplar dos sitios como posibles sedes: el Volcán Sierra Negra en México y el Tibet en China.
En México se logró reunir a un grupo de más de 40 científicos de diversas instituciones, incluyendo al INAOE, la UNAM, la BUAP, el CINVESTAV y a las universidades de Guanajuato y Michoacán, formando así un equipo científico mayor que el de los estadounidenses, quienes iniciaron el proyecto.
La colaboración mexicana que logró la sede del experimento está encabezada por Alberto Carramiñana, investigador del INAOE, e incluye reconocidos astrofísicos, físicos de altas energías, geofísicos e incluso expertos en geología e hidrogeología.
El HAWC, cuyo costo aproximado será de seis millones de dólares, podría comenzar a construirse a finales de este año e iniciar operaciones en el 2010. La aprobación final para instalar en HAWC en México depende únicamente de la Secretaría de Medio Ambiente y Recursos Naturales (SEMARNAT).
Plantas nucleares en Venezuela
La energía nuclear es otra forma de generar corriente eléctrica, así como lo hacen las termoeléctricas y las hidroeléctricas; dicha energía se libera como resultado de una reacción nuclear que se obtiene por fisión nuclear (división de núcleos atómicos pesados) o por fusión nuclear (unión de núcleos atómicos muy livianos); las plantas nucleares funcionan con uranio o plutonio; cabe anotar que el plutonio es un elemento sintético que se genera en los reactores nucleares porque no existe en la naturaleza. Científicamente se ha encontrado que las plantas nucleares también se pueden mover con otro elemento mineral existente en el globo terráqueo entre el grupo de tierras raras denominado thorio y que sustituye al plutonio y al uranio. En el estado de Bolívar (Venezuela), más exactamente en el cerro Impacto, se encuentra un yacimiento de este material; hasta hoy, en ninguna parte del mundo existen reactores nucleares que funcionen con él, pero como el avance de la ciencia camina a pasos agigantados ya se encuentran proyectos para su construcción.
Con la tecnología debidamente aplicada se dice que las plantas nucleares no emiten dióxido de carbono (CO2), porque su producción es limpia y que aunque también es no renovable es menos contaminante que los combustibles fósiles; beneficia enormemente a la industria debido a que se pueden detectar fluidos de agua, de petróleo, etc., ayudando fehacientemente a su desarrollo; la medicina se beneficia por el bajo costo del material radiactivo, que es utilizado para radiofármacos, estudios de tiroides, hígado, riñón, metabolismo, para combatir el cáncer, etc. En la agricultura, entre otros, se aplica la "Técnica de los Insectos Estériles" (T.I.E.), a los que les suministran emisiones altas de radiación en un laboratorio, posteriormente los dejan en libertad para que se efectúe el apareamiento donde no va haber descendencia; así repiten esta técnica varias veces y se controla la población de insectos que destruye los cultivos; a las semillas se les aplica irradiación, haciendo que se cambie la información genética, siendo resistentes a enfermedades para que su producción sea mayor y los alimentos puedan permanecer más tiempo y en buen estado.
Ahora bien, hasta aquí lo poco que se ha dicho es maravilla, pero una central de este talante, cuando no se desarrolla con las técnicas y la responsabilidad establecidas por la Organización Internacional de Energía Atómica (OIEA), se constituye en una viva amenaza para los habitantes de todo un continente y el planeta; por qué no recordar la catástrofe de There Mile Island, en Estados Unidos, donde aparentemente no hubo víctimas por la seguridad que presentaba la planta, y la de Chernobyl, en la antigua Unión Soviética (abril de 1986). Ahí, los reactores nucleares arrojaron altas dosis de material radiactivo a la atmósfera, extendiéndose por el hemisferio norte y afectando a países de Europa y de la misma Unión Soviética (URSS). Después de tantos años, hoy día se encuentran seres humanos que no habían nacido, sometidos a fuertes tratamientos porque resultaron contaminados debido a las radiaciones emitidas por la catástrofe nuclear, aunado a que en el lugar donde ocurrió hoy lo siguen descontaminando; finalmente, encontramos el problema de los residuos radiactivos, ya sea por el funcionamiento de las plantas o por el desmantelamiento cuando han culminado su ciclo para ser cerradas.
La intención de algunos países guerreristas es la instalación de este tipo de plantas para la obtención de plutonio, porque con él se fabrican las armas nucleares y aunque en el acuerdo firmado por el señor presidente Chávez, de Venezuela, y el señor Vladimir Putin, de Rusia, se prohíba su uso para la elaboración de estas armas y aunque estén sometidos a la autoridad del Organismo Internacional de Energía Atómica y tengan claro que deben limitar el enriquecimiento de uranio, no debemos creer que su utilización es con fines pacíficos, porque desde hace varios años este gobierno nos viene amenazando. Igual ocurrió con el señor presidente de Irán, Mahmoud Ahmadinejad, al comenzar la construcción de la central nuclear. Hoy se le acusa de estar confabulado en la creación de este tipo de armas y con las que indirectamente amenaza a Israel, señalando que "debería ser borrado del mapa". Son los altos dirigentes no solo de Colombia, sino de América, los que ahora sí tienen que contarle al mundo de la posible y seria amenaza que nos acecha.
Con la tecnología debidamente aplicada se dice que las plantas nucleares no emiten dióxido de carbono (CO2), porque su producción es limpia y que aunque también es no renovable es menos contaminante que los combustibles fósiles; beneficia enormemente a la industria debido a que se pueden detectar fluidos de agua, de petróleo, etc., ayudando fehacientemente a su desarrollo; la medicina se beneficia por el bajo costo del material radiactivo, que es utilizado para radiofármacos, estudios de tiroides, hígado, riñón, metabolismo, para combatir el cáncer, etc. En la agricultura, entre otros, se aplica la "Técnica de los Insectos Estériles" (T.I.E.), a los que les suministran emisiones altas de radiación en un laboratorio, posteriormente los dejan en libertad para que se efectúe el apareamiento donde no va haber descendencia; así repiten esta técnica varias veces y se controla la población de insectos que destruye los cultivos; a las semillas se les aplica irradiación, haciendo que se cambie la información genética, siendo resistentes a enfermedades para que su producción sea mayor y los alimentos puedan permanecer más tiempo y en buen estado.
Ahora bien, hasta aquí lo poco que se ha dicho es maravilla, pero una central de este talante, cuando no se desarrolla con las técnicas y la responsabilidad establecidas por la Organización Internacional de Energía Atómica (OIEA), se constituye en una viva amenaza para los habitantes de todo un continente y el planeta; por qué no recordar la catástrofe de There Mile Island, en Estados Unidos, donde aparentemente no hubo víctimas por la seguridad que presentaba la planta, y la de Chernobyl, en la antigua Unión Soviética (abril de 1986). Ahí, los reactores nucleares arrojaron altas dosis de material radiactivo a la atmósfera, extendiéndose por el hemisferio norte y afectando a países de Europa y de la misma Unión Soviética (URSS). Después de tantos años, hoy día se encuentran seres humanos que no habían nacido, sometidos a fuertes tratamientos porque resultaron contaminados debido a las radiaciones emitidas por la catástrofe nuclear, aunado a que en el lugar donde ocurrió hoy lo siguen descontaminando; finalmente, encontramos el problema de los residuos radiactivos, ya sea por el funcionamiento de las plantas o por el desmantelamiento cuando han culminado su ciclo para ser cerradas.
La intención de algunos países guerreristas es la instalación de este tipo de plantas para la obtención de plutonio, porque con él se fabrican las armas nucleares y aunque en el acuerdo firmado por el señor presidente Chávez, de Venezuela, y el señor Vladimir Putin, de Rusia, se prohíba su uso para la elaboración de estas armas y aunque estén sometidos a la autoridad del Organismo Internacional de Energía Atómica y tengan claro que deben limitar el enriquecimiento de uranio, no debemos creer que su utilización es con fines pacíficos, porque desde hace varios años este gobierno nos viene amenazando. Igual ocurrió con el señor presidente de Irán, Mahmoud Ahmadinejad, al comenzar la construcción de la central nuclear. Hoy se le acusa de estar confabulado en la creación de este tipo de armas y con las que indirectamente amenaza a Israel, señalando que "debería ser borrado del mapa". Son los altos dirigentes no solo de Colombia, sino de América, los que ahora sí tienen que contarle al mundo de la posible y seria amenaza que nos acecha.
ELABORA EMPRESA MEXICANA FIBRA ABSORBENTE CON LIRIO ACUÁTICO
La empresa Tecnología Especializada en el Medio Ambiente (TEMA) elabora con lirio acuático una fibra que puede emplearse en la atención de derrames y en el reciclaje de sustancias orgánicas o industriales, esta alternativa productiva permite controlar el exceso de lirio en los cuerpos de agua mexicanos.
José Lorenzo Vargas Soto, Director de Innovación y Desarrollo Tecnológico de TEMA, comenta que hasta ahora los esfuerzos para controlar el lirio se han orientado a la eliminación de la planta; no a su aprovechamiento.
Como resultado de esta tendencia, se recurre a la trituración y hundimiento del lirio como método de control por ser una solución rápida y económica; aunque no es la mejor alternativa para el ambiente, pues tiene consecuencias nocivas para los cuerpos de agua: ríos, lagos, lagunas y presas, además genera gases de efecto invernadero.
“El lirio está presente en prácticamente todos nuestros cuerpos de agua, en muchos de los cuales la pesca es la actividad primaria, como en Pátzcuaro (Michoacán), Yuriria (Guanajuato), Valsequillo (Puebla) o Chapala (Jalisco), en donde el hundimiento de la planta provoca la muerte de los peces, pues el proceso natural de descomposición del lirio agota el oxigeno del embalse”.
Otra de las desventajas de este método radica en que al triturar el lirio, éste se acumula en forma de sedimento en el fondo del cuerpo de agua, lo que mina paulatinamente su capacidad para almacenar líquido. Además, la descomposición del lirio propicia el surgimiento de plantas emergentes y de microalgas, las cuales “afectan el olor y pureza del agua y favorecen el surgimiento de bacterias que pueden causan irritaciones en la piel si se tiene contacto con el líquido.”
Ante este panorama, los especialistas de TEMA optaron por afrontar el problema desde otra perspectiva, la de aprovechar el lirio, no destruirlo. Por ello desarrollaron la tecnología para producir con esta planta una fibra capaz de absorber sustancias orgánicas o industriales que posteriormente pueden ser reutilizadas.
Para producir la fibra, primero se cosecha el lirio acuático, es decir, se retirar en su totalidad y se somete a un proceso de drenado estático, que consiste en poner a secar o escurrir el lirio en un punto próximo al cuerpo de agua de donde se extrajo, para que de manera natural el líquido se reintegre a la presa, lago o río. Se recomienda que este proceso no sea menor a 48 horas.
Cuando el lirio está seco se limpia, pues normalmente la planta está acompañada de maderas, plásticos, vidrio u otras plantas. Después pasa a un proceso de secado controlado, y finalmente el producto se muele y clasifica según el uso que se le vaya a dar: agrícola o industrial.
De acuerdo con el directivo de TEMA, la fibra es capaz de absorber de 2.5 a 4 veces su peso, es decir, un kilo de fibra de lirio puede capturar entre 2.5 y 4 litros de un líquido, dependiendo de la densidad de la sustancia.
Respecto a los costos de producción de la fibra, para obtener cada kilogramo se invierten entre 4 y 6 pesos, dependiendo del volumen de lirio cosechado. En cuanto al valor comercial del producto, el kilo cuesta entre 20 y 60 pesos, según la granulometría de la misma, es decir, del tamaño de la fibra.
Usos y aplicaciones de la fibra
José Lorenzo Vargas Soto explica que la fibra de lirio tiene múltiples aplicaciones, una de ellas es mitigar los efectos ambientales por el derrame accidental de sustancias industriales como hidrocarburos, ácidos débiles, cloro o ácido sulfúrico en cuerpos de agua o suelos.
Si el derrame ocurren en tierra firme, se coloca fibra sobre la sustancia derramada y se agregan conglomerados de bacterias que aceleren el proceso de degradación del líquido, y al cabo de algunos meses obtenemos una composta refinada.”
Pero si el derrame ocurre en agua (río, presa, lago) se recomienda delimitar el área afectada utilizando contenedores de tela en forma de “salchicha, calcetín o almohadas”, los cuales se rellenan con la fibra absorbente para retirar la sustancia nociva, misma que puede ser recuperada si se desea, para ello basta con exprimir los contenedores.
Otro de los usos de la fibra es el reciclaje de sustancias orgánicas, como el azúcar utilizado por las empresas productoras de jugos, con la cual pueden generarse croquetas alimenticias para el sector apícola.
“La idea es que los azúcares sobrantes en el agua utilizada en la producción de jugos sean absorbidos por la fibra, para posteriormente deshidratarla y elaborar pequeñas croquetas que puedan ser empleadas como alimento para las abejas. Estas croquetas se colocarían en los panales y se rociarían con agua para que el azúcar se disuelva y las abejas puedan alimentarse con ella.”
Patentes de la fibra de lirio TEMA
Hasta ahora la empresa TEMA es titular de una patente con cobertura nacional y tiene en proceso cinco solicitudes más para el país, además de dos solicitudes internacionales de patente bajo el Tratado de Cooperación en materia de Patentes (PTC).
La cobertura de estos registros contempla metodologías, procesos y productos derivados del procesamiento del lirio, entre ellos la producción de un cereal para consumo humano, alimento para ganado, fertilizante de suelo, agente para fijar plaguicidas y como alternativa para generar energía.
Además de las patentes en progreso, TEMA tiene negociaciones avanzadas con la Secretaría de Medio Ambiente del Estado de México, entidad a la cual podría ofrecer el servicio de limpieza de lirio acuático, lo que permitiría controlar el crecimiento de la planta en los cuerpos de agua de la entidad y de crear cadenas productivas a partir de aprovechamiento del lirio.
Asimismo, José Lorenzo Vargas Soto señaló que la empresa ha comenzado a tender puentes de comunicación con los gobiernos de los estados de Jalisco y Michoacán, con los cuales espera signar un acuerdo similar al que impulsa en el Estado de México.
José Lorenzo Vargas Soto, Director de Innovación y Desarrollo Tecnológico de TEMA, comenta que hasta ahora los esfuerzos para controlar el lirio se han orientado a la eliminación de la planta; no a su aprovechamiento.
Como resultado de esta tendencia, se recurre a la trituración y hundimiento del lirio como método de control por ser una solución rápida y económica; aunque no es la mejor alternativa para el ambiente, pues tiene consecuencias nocivas para los cuerpos de agua: ríos, lagos, lagunas y presas, además genera gases de efecto invernadero.
“El lirio está presente en prácticamente todos nuestros cuerpos de agua, en muchos de los cuales la pesca es la actividad primaria, como en Pátzcuaro (Michoacán), Yuriria (Guanajuato), Valsequillo (Puebla) o Chapala (Jalisco), en donde el hundimiento de la planta provoca la muerte de los peces, pues el proceso natural de descomposición del lirio agota el oxigeno del embalse”.
Otra de las desventajas de este método radica en que al triturar el lirio, éste se acumula en forma de sedimento en el fondo del cuerpo de agua, lo que mina paulatinamente su capacidad para almacenar líquido. Además, la descomposición del lirio propicia el surgimiento de plantas emergentes y de microalgas, las cuales “afectan el olor y pureza del agua y favorecen el surgimiento de bacterias que pueden causan irritaciones en la piel si se tiene contacto con el líquido.”
Ante este panorama, los especialistas de TEMA optaron por afrontar el problema desde otra perspectiva, la de aprovechar el lirio, no destruirlo. Por ello desarrollaron la tecnología para producir con esta planta una fibra capaz de absorber sustancias orgánicas o industriales que posteriormente pueden ser reutilizadas.
Para producir la fibra, primero se cosecha el lirio acuático, es decir, se retirar en su totalidad y se somete a un proceso de drenado estático, que consiste en poner a secar o escurrir el lirio en un punto próximo al cuerpo de agua de donde se extrajo, para que de manera natural el líquido se reintegre a la presa, lago o río. Se recomienda que este proceso no sea menor a 48 horas.
Cuando el lirio está seco se limpia, pues normalmente la planta está acompañada de maderas, plásticos, vidrio u otras plantas. Después pasa a un proceso de secado controlado, y finalmente el producto se muele y clasifica según el uso que se le vaya a dar: agrícola o industrial.
De acuerdo con el directivo de TEMA, la fibra es capaz de absorber de 2.5 a 4 veces su peso, es decir, un kilo de fibra de lirio puede capturar entre 2.5 y 4 litros de un líquido, dependiendo de la densidad de la sustancia.
Respecto a los costos de producción de la fibra, para obtener cada kilogramo se invierten entre 4 y 6 pesos, dependiendo del volumen de lirio cosechado. En cuanto al valor comercial del producto, el kilo cuesta entre 20 y 60 pesos, según la granulometría de la misma, es decir, del tamaño de la fibra.
Usos y aplicaciones de la fibra
José Lorenzo Vargas Soto explica que la fibra de lirio tiene múltiples aplicaciones, una de ellas es mitigar los efectos ambientales por el derrame accidental de sustancias industriales como hidrocarburos, ácidos débiles, cloro o ácido sulfúrico en cuerpos de agua o suelos.
Si el derrame ocurren en tierra firme, se coloca fibra sobre la sustancia derramada y se agregan conglomerados de bacterias que aceleren el proceso de degradación del líquido, y al cabo de algunos meses obtenemos una composta refinada.”
Pero si el derrame ocurre en agua (río, presa, lago) se recomienda delimitar el área afectada utilizando contenedores de tela en forma de “salchicha, calcetín o almohadas”, los cuales se rellenan con la fibra absorbente para retirar la sustancia nociva, misma que puede ser recuperada si se desea, para ello basta con exprimir los contenedores.
Otro de los usos de la fibra es el reciclaje de sustancias orgánicas, como el azúcar utilizado por las empresas productoras de jugos, con la cual pueden generarse croquetas alimenticias para el sector apícola.
“La idea es que los azúcares sobrantes en el agua utilizada en la producción de jugos sean absorbidos por la fibra, para posteriormente deshidratarla y elaborar pequeñas croquetas que puedan ser empleadas como alimento para las abejas. Estas croquetas se colocarían en los panales y se rociarían con agua para que el azúcar se disuelva y las abejas puedan alimentarse con ella.”
Patentes de la fibra de lirio TEMA
Hasta ahora la empresa TEMA es titular de una patente con cobertura nacional y tiene en proceso cinco solicitudes más para el país, además de dos solicitudes internacionales de patente bajo el Tratado de Cooperación en materia de Patentes (PTC).
La cobertura de estos registros contempla metodologías, procesos y productos derivados del procesamiento del lirio, entre ellos la producción de un cereal para consumo humano, alimento para ganado, fertilizante de suelo, agente para fijar plaguicidas y como alternativa para generar energía.
Además de las patentes en progreso, TEMA tiene negociaciones avanzadas con la Secretaría de Medio Ambiente del Estado de México, entidad a la cual podría ofrecer el servicio de limpieza de lirio acuático, lo que permitiría controlar el crecimiento de la planta en los cuerpos de agua de la entidad y de crear cadenas productivas a partir de aprovechamiento del lirio.
Asimismo, José Lorenzo Vargas Soto señaló que la empresa ha comenzado a tender puentes de comunicación con los gobiernos de los estados de Jalisco y Michoacán, con los cuales espera signar un acuerdo similar al que impulsa en el Estado de México.
PLANTEAN TRATAR AGUAS RESIDUALES PORCINAS UTILIZANDO EL SUELO
Debido a sus características, algunos de los diferentes tipos de suelo de la península de Yucatán podrían ser utilizados como plantas para el tratamiento de aguas residuales porcinas (ARP), afirma el doctor Francisco Bautista Zúñiga, investigador del departamento de Ecología de la Universidad Autónoma de Yucatán (UADY).
“En el estado el 37% de las ARP, generadas principalmente por bañar a los cerdos y lavar los patios de las granjas, no reciben ningún tratamiento y son depositadas en el suelo por lo que se filtran al manto acuífero y contaminan el agua potable”, comentó en entrevista el investigador.
Las ARP representan un problema de salud para las zonas rurales, pues al mezclarse con el agua para consumo humano pueden provocar un padecimiento llamado metahemoglobulenia, causado por la presencia de nitratos (forma del nitrógeno en el agua contaminada) que al combinarse con la hemoglobina en la sangre evitan que el oxígeno llegue a todas las partes del cuerpo, causando la muerte de bebés y personas de la tercera edad, principalmente.
Suelos para el tratamiento del agua
Como una alternativa para resolver este problema, el doctor Bautista, quien ha estudiado desde el año 2000 los suelos yucatecos, propone utilizar a estos como plantas de tratamiento naturales para filtrar el agua contaminada.
Los especialistas hicieron una clasificación de los suelos de Yucatán con base tres criterios: su capacidad de retención de materia orgánica, de descomposición de materia orgánica y de transformación del contaminante en fertilizante.
“Conociendo los diversos tipos de suelos, hicimos experimentos con ellos y con las ARP para ver cuál era el que mejor retenía la materia orgánica, qué suelo era el que mejor la descomponía y cual la utilizaba mejor como fertilizante”.
Los suelos más efectivos para la retención de sustancias contaminantes son los Vertisoles, de color gris y arcillosos; “son maravillosos pues filtra el agua sucia en ellos y al pasar, queda cristalina”, aseguró el investigador.
Los suelos que mejor descomponen la materia orgánica son los Leptosoles, los cuales se encuentran a escasa profundidad y contiene mucha materia orgánica; y los que mejor la transforman son los Nitisoles y los Luvisoles, suelos profundos, rojos, arcillosos y con gran capacidad de absorción.
El investigador, también adscrito a la Unidad Académica del Instituto de Geografía de la Universidad Autónoma de México (UNAM), explicó que a menudo se consideran sólo dos funciones de los suelos, la de retención y la de transformación, pero que se debe pensar también en la descomposición.
“Si pensamos en ella podemos ver el suelo como una planta de tratamiento barata, porque no necesita energía; y natural, porque no necesita infraestructura costosa, sólo el riego y el conocimiento técnico para el monitoreo de la calidad del suelo y su capacidad depuradora”.
De acuerdo con datos proporcionados por el doctor, en la entidad se generan anualmente casi siete millones de metros cúbicos (m3) de ARP, lo que equivale a siete mil millones de litros al año de agua contaminada con materia fecal y orgánica (diez mil miligramos por litro, cuando la norma oficial mexicana es de 75 miligramos por litro), desperdicios de alimento no consumido por los cerdos y altas concentraciones de nitrógeno.
Suelos y ARP como herramienta agrícola
Los suelos de Yucatán y las ARP también son vistas por los especialistas como una herramienta agrícola, pues, de acuerdo con el doctor Francisco Bautista, las sustancias presentes en esta agua pueden ser utilizadas en la agricultura para proveer de nutrientes a las cosechas.
Para ese propósito pueden utilizarse los suelos Nitisoles y los Luvisoles para filtrar las ARP y de este modo transformar en fertilizantes la materia orgánica presente en el agua.
En el estado de Yucatán existen alrededor de 300 granjas porcinas y para disminuir el problema por la generación de ARP, el especialista sugirió que cada una trate las aguas residuales que genere a través de la filtración y fertilización de los suelos para “matar dos pájaros de un tiro”.
También enfatizó la importancia de que las granjas que surjan más adelante se establezcan estratégicamente al sur del estado, donde es posible aprovechar los suelos aptos para la agricultura fertilizándolos con ARP.
“Casi un tercio del estado cumple con las características adecuadas para el establecimiento de granjas porcinas, esto es al sur del estado, en la zona más alta y con los mejores suelos para degradación, retención y transformación de las aguas residuales porcinas”.
Finalmente, el investigador aseguró que entre los beneficios que traería el tratar las ARP por medio de los suelos se encuentran reducir las enfermedades gastrointestinales y la muerte de bebés y personas de la tercera edad por consumo de agua contaminada, así como conservar la biodiversidad del acuífero al evitar que la contaminación llegue a las aguas subterráneas.
“En el estado el 37% de las ARP, generadas principalmente por bañar a los cerdos y lavar los patios de las granjas, no reciben ningún tratamiento y son depositadas en el suelo por lo que se filtran al manto acuífero y contaminan el agua potable”, comentó en entrevista el investigador.
Las ARP representan un problema de salud para las zonas rurales, pues al mezclarse con el agua para consumo humano pueden provocar un padecimiento llamado metahemoglobulenia, causado por la presencia de nitratos (forma del nitrógeno en el agua contaminada) que al combinarse con la hemoglobina en la sangre evitan que el oxígeno llegue a todas las partes del cuerpo, causando la muerte de bebés y personas de la tercera edad, principalmente.
Suelos para el tratamiento del agua
Como una alternativa para resolver este problema, el doctor Bautista, quien ha estudiado desde el año 2000 los suelos yucatecos, propone utilizar a estos como plantas de tratamiento naturales para filtrar el agua contaminada.
Los especialistas hicieron una clasificación de los suelos de Yucatán con base tres criterios: su capacidad de retención de materia orgánica, de descomposición de materia orgánica y de transformación del contaminante en fertilizante.
“Conociendo los diversos tipos de suelos, hicimos experimentos con ellos y con las ARP para ver cuál era el que mejor retenía la materia orgánica, qué suelo era el que mejor la descomponía y cual la utilizaba mejor como fertilizante”.
Los suelos más efectivos para la retención de sustancias contaminantes son los Vertisoles, de color gris y arcillosos; “son maravillosos pues filtra el agua sucia en ellos y al pasar, queda cristalina”, aseguró el investigador.
Los suelos que mejor descomponen la materia orgánica son los Leptosoles, los cuales se encuentran a escasa profundidad y contiene mucha materia orgánica; y los que mejor la transforman son los Nitisoles y los Luvisoles, suelos profundos, rojos, arcillosos y con gran capacidad de absorción.
El investigador, también adscrito a la Unidad Académica del Instituto de Geografía de la Universidad Autónoma de México (UNAM), explicó que a menudo se consideran sólo dos funciones de los suelos, la de retención y la de transformación, pero que se debe pensar también en la descomposición.
“Si pensamos en ella podemos ver el suelo como una planta de tratamiento barata, porque no necesita energía; y natural, porque no necesita infraestructura costosa, sólo el riego y el conocimiento técnico para el monitoreo de la calidad del suelo y su capacidad depuradora”.
De acuerdo con datos proporcionados por el doctor, en la entidad se generan anualmente casi siete millones de metros cúbicos (m3) de ARP, lo que equivale a siete mil millones de litros al año de agua contaminada con materia fecal y orgánica (diez mil miligramos por litro, cuando la norma oficial mexicana es de 75 miligramos por litro), desperdicios de alimento no consumido por los cerdos y altas concentraciones de nitrógeno.
Suelos y ARP como herramienta agrícola
Los suelos de Yucatán y las ARP también son vistas por los especialistas como una herramienta agrícola, pues, de acuerdo con el doctor Francisco Bautista, las sustancias presentes en esta agua pueden ser utilizadas en la agricultura para proveer de nutrientes a las cosechas.
Para ese propósito pueden utilizarse los suelos Nitisoles y los Luvisoles para filtrar las ARP y de este modo transformar en fertilizantes la materia orgánica presente en el agua.
En el estado de Yucatán existen alrededor de 300 granjas porcinas y para disminuir el problema por la generación de ARP, el especialista sugirió que cada una trate las aguas residuales que genere a través de la filtración y fertilización de los suelos para “matar dos pájaros de un tiro”.
También enfatizó la importancia de que las granjas que surjan más adelante se establezcan estratégicamente al sur del estado, donde es posible aprovechar los suelos aptos para la agricultura fertilizándolos con ARP.
“Casi un tercio del estado cumple con las características adecuadas para el establecimiento de granjas porcinas, esto es al sur del estado, en la zona más alta y con los mejores suelos para degradación, retención y transformación de las aguas residuales porcinas”.
Finalmente, el investigador aseguró que entre los beneficios que traería el tratar las ARP por medio de los suelos se encuentran reducir las enfermedades gastrointestinales y la muerte de bebés y personas de la tercera edad por consumo de agua contaminada, así como conservar la biodiversidad del acuífero al evitar que la contaminación llegue a las aguas subterráneas.
PROPONEN JARDINES PARA TRATAR AGUAS RESIDUALES DOMÉSTICAS
Investigadores mexicanos desarrollaron un nuevo método para crear humedales artificiales que permiten el tratamiento de aguas residuales domésticas, las cuales pueden ser utilizadas para crear jardines acuáticos donde se cultiven plantas ornamentales de interés comercial.
De acuerdo con el doctor José de Anda Sánchez, investigador del Centro de Investigación y Asistencia en Tecnología y Diseño del Estado de Jalisco (CIATEJ), los humedales tradicionales son de tipo “superficial” y presentan varios inconvenientes como el estancamiento del agua y la consecuente generación de malos olores, favoreciendo así la proliferación de mosquitos; además son costosos pues requieren de inversión en mano de obra para extraer el exceso de plantas emergentes.
Para resolver estos problemas, el doctor José de Anda -en conjunto con otros dos científicos mexicanos- desarrolló una tecnología, actualmente en proceso de patente, para tratar las aguas residuales domésticas, es decir, el líquido utilizado en los sanitarios, las regaderas y el servicio de lavado.
Se trata de un humedal artificial que permite la creación de un jardín y cuya característica principal es que el agua no está en contacto con el medio ambiente pues se mantiene debajo de un lecho poroso; por otra parte, combina el tratamiento del agua residual con la producción de plantas ornamentales.
Sistema fácil de instalar
Aunque el humedal cuenta con varios elementos de construcción, el sistema es fácil de instalar y puede adaptarse a cualquier terreno en pequeñas comunidades o fraccionamientos.
En entrevista, el doctor explicó que el primer paso para limpiar el agua es almacenarla en un tanque séptico, cuya función es sedimentar los sólidos contenidos en el agua residual.
“Por un proceso físico denominado sedimentación, los sólidos se asientan en el fondo del tanque séptico; estos sedimentos se caracterizan por un alto contenido de materia orgánica y bacterias mismas que se encargan de iniciar el proceso de degradación de la materia orgánica”.
Sin embargo, en esta etapa las bacterias no son suficientes ni tienen la calidad necesaria para degradar toda la materia orgánica (se logra menos del 20 por ciento de eficiencia de remoción) por lo que es necesario utilizar un filtro anaerobio.
En la superficie del filtro anaerobio se crea una película en donde crecen bacterias que degradan con mayor eficiencia la materia orgánica (entre un 80 y 85 por ciento de remoción).
“Cada partícula dentro del filtro forma una biopelícula (capa) que es la que interactúa con la materia orgánica degradándola y permitiendo apartar los contaminantes que se encuentran en ella”, explicó el académico.
Luego de esta etapa, el agua es filtrada a través del humedal artificial, en el cual habitan bacterias aerobias que se fijan en un lecho poroso y que pueden existir porque a través de las raíces de las plantas se inyecta suficiente oxígeno gracias al proceso de fotosíntesis.
Una vez que el agua pasa por este “filtro aerobio”, el líquido se recibe en un tanque comercial -instalado debajo del nivel del piso con la finalidad de que no sea visible- desde donde el agua es bombeada para el riego del jardín.
A pesar de que no es una planta de tratamiento formal, este humedal que utiliza plantas ornamentales en lugar de plantas de pantano, permite alcanzar una eficiencia de tratamiento por arriba del 95%, señaló el especialista.
Una opción estética y amigable con el entorno
El doctor José de Anda señaló que a diferencia de los humedales tradicionales, en donde se utilizan plantas de pantano, en el CIATEJ optaron por utilizar plantas ornamentales pues la gente prefiere cuidar y mantener en buenas condiciones un humedal con plantas decorativas, las cuales incluso pueden ser de interés comercial.
De acuerdo con el especialista, en el humedal artificial pueden utilizarse diversos tipos de plantas que requieran un alto grado de humedad para su desarrollo, tales como el alcatraz, ave de paraíso, lirio amarillo, cuna de moisés y platanillo, entre otras.
El objetivo es que, finalizado, el humedal no tenga apariencia de estanque sino de jardín y, al permanecer el agua debajo de él, evitar la generación de malos olores; de esta manera se obtiene un espacio decorativo que se adapta cien por ciento al entorno.
Además de estas ventajas, el humedal artificial utiliza un mínimo de energía y tiene bajos costos de instalación y mantenimiento.
Los costos de instalación están 80% por debajo de los requeridos para colocar una planta convencional de tratamiento de agua, y una vez instalado sólo requiere los cuidados convencionales de un jardín.
El doctor José de Anda señaló que esta alternativa para el tratamiento de aguas residuales domésticas está a disposición de quien desee implementarla y para ello sólo es necesario comunicarse al CIATEJ.
De acuerdo con el doctor José de Anda Sánchez, investigador del Centro de Investigación y Asistencia en Tecnología y Diseño del Estado de Jalisco (CIATEJ), los humedales tradicionales son de tipo “superficial” y presentan varios inconvenientes como el estancamiento del agua y la consecuente generación de malos olores, favoreciendo así la proliferación de mosquitos; además son costosos pues requieren de inversión en mano de obra para extraer el exceso de plantas emergentes.
Para resolver estos problemas, el doctor José de Anda -en conjunto con otros dos científicos mexicanos- desarrolló una tecnología, actualmente en proceso de patente, para tratar las aguas residuales domésticas, es decir, el líquido utilizado en los sanitarios, las regaderas y el servicio de lavado.
Se trata de un humedal artificial que permite la creación de un jardín y cuya característica principal es que el agua no está en contacto con el medio ambiente pues se mantiene debajo de un lecho poroso; por otra parte, combina el tratamiento del agua residual con la producción de plantas ornamentales.
Sistema fácil de instalar
Aunque el humedal cuenta con varios elementos de construcción, el sistema es fácil de instalar y puede adaptarse a cualquier terreno en pequeñas comunidades o fraccionamientos.
En entrevista, el doctor explicó que el primer paso para limpiar el agua es almacenarla en un tanque séptico, cuya función es sedimentar los sólidos contenidos en el agua residual.
“Por un proceso físico denominado sedimentación, los sólidos se asientan en el fondo del tanque séptico; estos sedimentos se caracterizan por un alto contenido de materia orgánica y bacterias mismas que se encargan de iniciar el proceso de degradación de la materia orgánica”.
Sin embargo, en esta etapa las bacterias no son suficientes ni tienen la calidad necesaria para degradar toda la materia orgánica (se logra menos del 20 por ciento de eficiencia de remoción) por lo que es necesario utilizar un filtro anaerobio.
En la superficie del filtro anaerobio se crea una película en donde crecen bacterias que degradan con mayor eficiencia la materia orgánica (entre un 80 y 85 por ciento de remoción).
“Cada partícula dentro del filtro forma una biopelícula (capa) que es la que interactúa con la materia orgánica degradándola y permitiendo apartar los contaminantes que se encuentran en ella”, explicó el académico.
Luego de esta etapa, el agua es filtrada a través del humedal artificial, en el cual habitan bacterias aerobias que se fijan en un lecho poroso y que pueden existir porque a través de las raíces de las plantas se inyecta suficiente oxígeno gracias al proceso de fotosíntesis.
Una vez que el agua pasa por este “filtro aerobio”, el líquido se recibe en un tanque comercial -instalado debajo del nivel del piso con la finalidad de que no sea visible- desde donde el agua es bombeada para el riego del jardín.
A pesar de que no es una planta de tratamiento formal, este humedal que utiliza plantas ornamentales en lugar de plantas de pantano, permite alcanzar una eficiencia de tratamiento por arriba del 95%, señaló el especialista.
Una opción estética y amigable con el entorno
El doctor José de Anda señaló que a diferencia de los humedales tradicionales, en donde se utilizan plantas de pantano, en el CIATEJ optaron por utilizar plantas ornamentales pues la gente prefiere cuidar y mantener en buenas condiciones un humedal con plantas decorativas, las cuales incluso pueden ser de interés comercial.
De acuerdo con el especialista, en el humedal artificial pueden utilizarse diversos tipos de plantas que requieran un alto grado de humedad para su desarrollo, tales como el alcatraz, ave de paraíso, lirio amarillo, cuna de moisés y platanillo, entre otras.
El objetivo es que, finalizado, el humedal no tenga apariencia de estanque sino de jardín y, al permanecer el agua debajo de él, evitar la generación de malos olores; de esta manera se obtiene un espacio decorativo que se adapta cien por ciento al entorno.
Además de estas ventajas, el humedal artificial utiliza un mínimo de energía y tiene bajos costos de instalación y mantenimiento.
Los costos de instalación están 80% por debajo de los requeridos para colocar una planta convencional de tratamiento de agua, y una vez instalado sólo requiere los cuidados convencionales de un jardín.
El doctor José de Anda señaló que esta alternativa para el tratamiento de aguas residuales domésticas está a disposición de quien desee implementarla y para ello sólo es necesario comunicarse al CIATEJ.
Radiación solar
La cantidad de radiación que emite el Sol durante los momentos de baja actividad se incrementó desde los años 70 en casi un 0,05 por ciento por década, según un estudio realizado por científicos de la NASA, que auguraron que la Tierra podría afrontar un sustancial cambio climático de continuar esta tendencia.
"Estos resultados no son sorpresivos, ya que los registros históricos indican que la radiación solar se ha incrementado desde finales del siglo XIX", explicó Richard Willson, del Goddard Institute for Space Studies y de la Columbia University, en un artículo presentado en la página de Internet del Goddard Space Flight Center (GSFC) de la NASA.
"Si una tendencia comparable a la mencionada en el estudio hubiera estado presente durante todo el siglo XX, sería un componente significativo en el calentamiento global, ya sugerido en otros informes que se produjeron durante los últimos 100 años", puntualizó el científico.
El sol observa ciclos de aproximadamente 11 años. Cuando atraviesa su "máximo solar", la actividad magnética y las manchas solares alcanzan su punto álgido. En estos períodos aumentan las manchas sobre su superficie y esto genera un flujo intenso de radiación y partículas que, lanzadas hacia el espacio, terminan lloviendo también sobre la Tierra. En la fase de tranquilidad, el río de energía es más reducido. Las mediciones muestran un incremento preocupante.
La diferencia encontrada en la radiación solar durante los últimos 24 años "fue del 0,1 por ciento. Ello no es suficiente para causar un notable cambio climático, pero sí lo sería si la tendencia se prolongara durante un siglo o más. Fue necesario un período de un cuarto de siglo de observaciones satelitales para poder detectar con precisión este efecto", afirma Willson.
La Irradiación Solar Total (TSI) es la energía que recibe la Tierra procedente del Sol, en todas las longitudes de onda, fuera de la atmósfera. La interacción de la TSI con la atmósfera, los océanos y las tierras que emergen es el principal factor en la determinación del clima de la Tierra.
Los científicos explicaron que "se puede producir un descenso de un 0,2 por ciento en la TSI durante el paso de un gran grupo de manchas solares a través del hemisferio visible del Sol, algo que precisa de una semana".
"La cantidad de energía introducida en el ambiente de este modo por el sol sería, de hecho, cerca del doble de aquella que ahora descarga en forma artificial la actividad humana", explica Guillermo Visconti, físico de la Universidad de L´Aquila.
La historia del comportamiento del Sol se inicia con Galileo Galilei, que descubre las manchas sobre su superficie. "Luego de la célebre observación, durante cerca de setenta años -precisa Claudio Chiuderi, especialista en sol y director del departamento de astronomía y ciencia espacial de la Universidad de Firenze-, la actividad del astro se redujo significativamente. En ese período hubo sobre la Tierra una pequeña glaciación, justamente porque disminuyendo la radiación la temperatura media del planeta descendió."
Pero según el experto es necesario mirar al Sol y sus manifestaciones con ojos más tolerantes. "Los ritmos vitales de nuestra estrella son complejos. Es evidente que se pueden verificar variaciones, y luego ver tornar todo a la normalidad. Antes de aceptar la investigación americana son necesarios períodos de observación todavía más largos. Son pocos decenios para intentar descifrar los misterios del Sol. Y muchos de ellos aún se mantienen."
Pues es interesante saber que lo que sucede con el sol a cada momento. El clima solar si afecta a la Tierra sin importar la distancia a la que se encuentra.
http://www.prodiversitas.bioetica.org/des44.htm
"Estos resultados no son sorpresivos, ya que los registros históricos indican que la radiación solar se ha incrementado desde finales del siglo XIX", explicó Richard Willson, del Goddard Institute for Space Studies y de la Columbia University, en un artículo presentado en la página de Internet del Goddard Space Flight Center (GSFC) de la NASA.
"Si una tendencia comparable a la mencionada en el estudio hubiera estado presente durante todo el siglo XX, sería un componente significativo en el calentamiento global, ya sugerido en otros informes que se produjeron durante los últimos 100 años", puntualizó el científico.
El sol observa ciclos de aproximadamente 11 años. Cuando atraviesa su "máximo solar", la actividad magnética y las manchas solares alcanzan su punto álgido. En estos períodos aumentan las manchas sobre su superficie y esto genera un flujo intenso de radiación y partículas que, lanzadas hacia el espacio, terminan lloviendo también sobre la Tierra. En la fase de tranquilidad, el río de energía es más reducido. Las mediciones muestran un incremento preocupante.
La diferencia encontrada en la radiación solar durante los últimos 24 años "fue del 0,1 por ciento. Ello no es suficiente para causar un notable cambio climático, pero sí lo sería si la tendencia se prolongara durante un siglo o más. Fue necesario un período de un cuarto de siglo de observaciones satelitales para poder detectar con precisión este efecto", afirma Willson.
La Irradiación Solar Total (TSI) es la energía que recibe la Tierra procedente del Sol, en todas las longitudes de onda, fuera de la atmósfera. La interacción de la TSI con la atmósfera, los océanos y las tierras que emergen es el principal factor en la determinación del clima de la Tierra.
Los científicos explicaron que "se puede producir un descenso de un 0,2 por ciento en la TSI durante el paso de un gran grupo de manchas solares a través del hemisferio visible del Sol, algo que precisa de una semana".
"La cantidad de energía introducida en el ambiente de este modo por el sol sería, de hecho, cerca del doble de aquella que ahora descarga en forma artificial la actividad humana", explica Guillermo Visconti, físico de la Universidad de L´Aquila.
La historia del comportamiento del Sol se inicia con Galileo Galilei, que descubre las manchas sobre su superficie. "Luego de la célebre observación, durante cerca de setenta años -precisa Claudio Chiuderi, especialista en sol y director del departamento de astronomía y ciencia espacial de la Universidad de Firenze-, la actividad del astro se redujo significativamente. En ese período hubo sobre la Tierra una pequeña glaciación, justamente porque disminuyendo la radiación la temperatura media del planeta descendió."
Pero según el experto es necesario mirar al Sol y sus manifestaciones con ojos más tolerantes. "Los ritmos vitales de nuestra estrella son complejos. Es evidente que se pueden verificar variaciones, y luego ver tornar todo a la normalidad. Antes de aceptar la investigación americana son necesarios períodos de observación todavía más largos. Son pocos decenios para intentar descifrar los misterios del Sol. Y muchos de ellos aún se mantienen."
Pues es interesante saber que lo que sucede con el sol a cada momento. El clima solar si afecta a la Tierra sin importar la distancia a la que se encuentra.
http://www.prodiversitas.bioetica.org/des44.htm
ANALIZAN DESALAR AGUA DE MAR PARA CONSUMO HUMANO
Ing. Gerardo Hiriart Le Bert, especialista del Instituto de Ingeniería de la UNAM y Jefe del proyecto de Desalación de Agua de Mar.
Para afrontar el problema de la escasez de agua en el país, especialistas de la Universidad Nacional Autónoma de México (UNAM) analizan cuatro diferentes tipos de plantas con el fin de desalar agua de mar y hacerla útil para el consumo humano.
La iniciativa forma parte del programa de Investigación Multidisciplinaria de Proyectos Universitarios de Liderazgo y Superación Académica (IMPULSA), que lanzó la Coordinación de Investigación Científica de la máxima casa de estudios del país a mediados de 2005.
En entrevista, el jefe del proyecto, Gerardo Hiriart Le Bert, adscrito al Instituto de Ingeniería, comentó que por el momento trabajan en el estudio de cuatro prototipos de máquinas desaladoras, las cuales se tiene previsto funcionen con fuentes de energía alternativas.
Los prototipos analizados por los universitarios se conocen como de múltiple evaporación, de múltiple efecto, de compresión de vapor y de ósmosis inversa. En el caso de los dos primeros, el principio general para explicar su funcionamiento radica en calentar el agua salada para después bajarle la presión y obtener así vapor de agua dulce.
La desaladora de compresión de vapor funciona a partir de un calentamiento inicial del agua de mar hasta obtener vapor, para después comprimirlo y reutilizarlo nuevamente en el calentamiento de agua salobre y así producir más vapor, el cual se condensa y se retira como agua dulce.
Por último, está la desaladora de ósmosis inversa que funciona a partir de elevar la presión de agua de mar para después hacerla pasar por unos filtros, llamados membranas osmóticas, los cuales impiden el paso de la sal.
“Es una membrana semipermeable que sólo deja pasar agua y no las moléculas de sal, entonces, a esto se le inyecta agua a una presión altísima –más de mil libras– de modo que por esta membrana pasa el agua dulce y adentro fluye la salmuera concentrada.”
Las máquinas que pretenden construir estos investigadores universitarios podrían ser empleadas no sólo para desalar el agua del mar, sino también para limpiar los acuíferos de agua dulce a los que se ha filtrado agua salada, situación común en lugares cercanos a la costa.
“Lo que ocurre en lugares como Guaymas, que está junto al mar, es que la población construye pozos para sacar agua de los acuíferos, los cuales –debido a su explotación– empiezan a contaminarse con agua de mar, a eso se la llama salobre, agua un poquito salada que es mucho más fácil limpiar que al agua de mar”.
Desaladoras ecológicas
Para abastecer de electricidad a las desaladoras se ha considerado la utilización de energías alternativas o renovables: como la eólica y la solar; además se explorará la posibilidad de aprovechar la energía generada en el mar por medio de las mareas, las corrientes marinas y las ventilas hidrotermales.
Para esto, los investigadores del Instituto de Ingeniería han analizado, incluso, la posibilidad de construir una planta generadora de energía eléctrica que se colocaría en el mar a bajas profundidades.
En el Golfo de California o Mar de Cortés, precisó el doctor Gerardo Hiriart, la corteza terrestre continúa abriéndose, lo que genera chorros de agua caliente submarina (también conocidas como ventilas hidrotermales) que producen una importante cantidad de energía.
“Lo que estamos desarrollando, es un tubo que contenga una pequeña turbina, un evaporador y un condensador; es decir, una planta generadora de electricidad encapsulada, para bajarla al fondo del mar a profundidades pequeñas –menores de 200 metros–, si instalamos 10 megawats de esta potencia eléctrica, con eso podríamos darle agua a 300 000 habitantes, por ejemplo”.
“Parte importante del estudio es desalar el agua caliente que hay en las ventilas cercanas a la costa para así no tener que utilizar fuentes externas para calentarla”, agregó.
Cuantificar el potencial de las ventilas hidrotermales implica realizar mediciones y mapeos, así como una caracterización física y química de las ventilas, para ello será necesario realizar cruceros hidrográficos en los barcos propiedad de la Universidad.
El doctor Gerardo Hiriart espera que el grupo de trabajo que encabeza concluya este año los diseños de las plantas desaladoras y los estudios sobre sus beneficios y costos, a fin de poder determinar cuál o cuáles ofrecen una mayor rentabilidad y entonces dar el siguiente paso: buscar a una empresa paraestatal o privada interesada en financiar la construcción de las máquinas.
Hasta el momento, la UNAM, a través de su Instituto de Ingeniería, ha invertido un millón de pesos en el proyecto, los cuales se han destinado a un programa de becas y al pago de cursos de capacitación dirigidos al equipo de trabajo en torno a los diversos procesos de desalación de agua, así como para iniciar el equipamiento de un laboratorio de desalación.
En el proyecto de desalación, cuya coordinación general recae en el doctor Sergio Alcocer, Director del Instituto de Ingeniería, participarán además de especialistas de dicha instancia, académicos de los institutos de Investigaciones en Materiales, Geofísica, Ciencias del Mar y Limnología, Investigaciones Jurídicas, del Centro Ciencias de la Atmósfera y de las facultades de Ingeniería y de Química de la UNAM
Para afrontar el problema de la escasez de agua en el país, especialistas de la Universidad Nacional Autónoma de México (UNAM) analizan cuatro diferentes tipos de plantas con el fin de desalar agua de mar y hacerla útil para el consumo humano.
La iniciativa forma parte del programa de Investigación Multidisciplinaria de Proyectos Universitarios de Liderazgo y Superación Académica (IMPULSA), que lanzó la Coordinación de Investigación Científica de la máxima casa de estudios del país a mediados de 2005.
En entrevista, el jefe del proyecto, Gerardo Hiriart Le Bert, adscrito al Instituto de Ingeniería, comentó que por el momento trabajan en el estudio de cuatro prototipos de máquinas desaladoras, las cuales se tiene previsto funcionen con fuentes de energía alternativas.
Los prototipos analizados por los universitarios se conocen como de múltiple evaporación, de múltiple efecto, de compresión de vapor y de ósmosis inversa. En el caso de los dos primeros, el principio general para explicar su funcionamiento radica en calentar el agua salada para después bajarle la presión y obtener así vapor de agua dulce.
La desaladora de compresión de vapor funciona a partir de un calentamiento inicial del agua de mar hasta obtener vapor, para después comprimirlo y reutilizarlo nuevamente en el calentamiento de agua salobre y así producir más vapor, el cual se condensa y se retira como agua dulce.
Por último, está la desaladora de ósmosis inversa que funciona a partir de elevar la presión de agua de mar para después hacerla pasar por unos filtros, llamados membranas osmóticas, los cuales impiden el paso de la sal.
“Es una membrana semipermeable que sólo deja pasar agua y no las moléculas de sal, entonces, a esto se le inyecta agua a una presión altísima –más de mil libras– de modo que por esta membrana pasa el agua dulce y adentro fluye la salmuera concentrada.”
Las máquinas que pretenden construir estos investigadores universitarios podrían ser empleadas no sólo para desalar el agua del mar, sino también para limpiar los acuíferos de agua dulce a los que se ha filtrado agua salada, situación común en lugares cercanos a la costa.
“Lo que ocurre en lugares como Guaymas, que está junto al mar, es que la población construye pozos para sacar agua de los acuíferos, los cuales –debido a su explotación– empiezan a contaminarse con agua de mar, a eso se la llama salobre, agua un poquito salada que es mucho más fácil limpiar que al agua de mar”.
Desaladoras ecológicas
Para abastecer de electricidad a las desaladoras se ha considerado la utilización de energías alternativas o renovables: como la eólica y la solar; además se explorará la posibilidad de aprovechar la energía generada en el mar por medio de las mareas, las corrientes marinas y las ventilas hidrotermales.
Para esto, los investigadores del Instituto de Ingeniería han analizado, incluso, la posibilidad de construir una planta generadora de energía eléctrica que se colocaría en el mar a bajas profundidades.
En el Golfo de California o Mar de Cortés, precisó el doctor Gerardo Hiriart, la corteza terrestre continúa abriéndose, lo que genera chorros de agua caliente submarina (también conocidas como ventilas hidrotermales) que producen una importante cantidad de energía.
“Lo que estamos desarrollando, es un tubo que contenga una pequeña turbina, un evaporador y un condensador; es decir, una planta generadora de electricidad encapsulada, para bajarla al fondo del mar a profundidades pequeñas –menores de 200 metros–, si instalamos 10 megawats de esta potencia eléctrica, con eso podríamos darle agua a 300 000 habitantes, por ejemplo”.
“Parte importante del estudio es desalar el agua caliente que hay en las ventilas cercanas a la costa para así no tener que utilizar fuentes externas para calentarla”, agregó.
Cuantificar el potencial de las ventilas hidrotermales implica realizar mediciones y mapeos, así como una caracterización física y química de las ventilas, para ello será necesario realizar cruceros hidrográficos en los barcos propiedad de la Universidad.
El doctor Gerardo Hiriart espera que el grupo de trabajo que encabeza concluya este año los diseños de las plantas desaladoras y los estudios sobre sus beneficios y costos, a fin de poder determinar cuál o cuáles ofrecen una mayor rentabilidad y entonces dar el siguiente paso: buscar a una empresa paraestatal o privada interesada en financiar la construcción de las máquinas.
Hasta el momento, la UNAM, a través de su Instituto de Ingeniería, ha invertido un millón de pesos en el proyecto, los cuales se han destinado a un programa de becas y al pago de cursos de capacitación dirigidos al equipo de trabajo en torno a los diversos procesos de desalación de agua, así como para iniciar el equipamiento de un laboratorio de desalación.
En el proyecto de desalación, cuya coordinación general recae en el doctor Sergio Alcocer, Director del Instituto de Ingeniería, participarán además de especialistas de dicha instancia, académicos de los institutos de Investigaciones en Materiales, Geofísica, Ciencias del Mar y Limnología, Investigaciones Jurídicas, del Centro Ciencias de la Atmósfera y de las facultades de Ingeniería y de Química de la UNAM
DISEÑAN TRATAMIENTO PARA AGUA CONTAMINADA CON GASOLINA
La doctora Marcia Guadalupe Morales Ibarría, investigadora adscrita al Instituto Mexicano del Petróleo (IMP), trabaja en el estudio de sistemas biológicos para combatir la contaminación de los acuíferos causada por los principales compuestos de la gasolina, particularmente por el metil ter-butil éter (MTBE).
El MTBE es un oxigenante que se agrega a las gasolinas para mejorar su combustión y elevar el octanaje. Este compuesto tiene una estructura estable que dificulta su degradación y hace que persista por largos periodos en el medio ambiente afectando principalmente acuíferos subterráneos. Este compuesto está clasificado por la Agencia de Protección Ambiental de Estados Unidos (EPA, por sus siglas en inglés) como probable carcinógeno pero gracias a su bajo umbral de detección al olor y sabor es fácil de percibirse en aguas contaminadas.
El metil ter-butil éter comenzó a utilizarse en las gasolinas a finales de los años setenta en Estados Unidos como substituto del tetraetilo de plomo, el cual “estaba causando graves salud pública en las grandes ciudades ya que grandes cantidades de plomo se liberaban a la atmósfera a través de procesos de combustión de la gasolina y se acumulaba en la sangre”, comenta la especialista.
El uso del MTBE tuvo efectos benéficos sobre la calidad del aire pues redujo las emisiones de monóxido de carbono, hidrocarburos y óxidos de nitrógeno a la atmósfera pero se convirtió en un problema cuando se le asoció a algunos malestares en la salud de los trabajadores petroleros estadounidenses y usuarios de gasolina.
La problemática se acentuó cuando se dio a conocer que el MTBE había contaminado una gran cantidad de pozos de agua para consumo humano en Estados Unidos. La preocupación por el MTBE aumentó cuando, de acuerdo con algunos estudios realizados en animales, se determinó que dicha sustancia era capaz de generar cáncer.
“En México existen pocos estudios sobre la contaminación por gasolina y en específico por MTBE", apunta la doctora Morales Ibarría, "uno de ellos fue realizado por el gobierno del Distrito Federal en el año 2001 donde se analizaron muestras de suelo y agua en los alrededores de las gasolineras. Los resultados mostraron que había contaminación por MTBE, de 225 muestreos que se hicieron en 75% de ellos se detectó su presencia en niveles superiores a los límites establecidos en Estados Unidos por la EPA”.
Afortunadamente, el análisis de 33 pozos de agua profundos, cercanos todos las gasolineras; resultó negativo en cuanto a rastros del contaminante, “pero el problema está latente”, advierte la especialista.
Pseudomona aeruginosa, la respuesta a la contaminación por MTBE
Ante esta problemática, la investigadora del IMP trabaja en una alternativa de tratamiento basado en agentes biológicos, los cuales garantizan la eliminación de los contaminantes a un bajo costo y en condiciones de operación seguras.
Dicho sistema consiste en el uso de un microorganismo llamado Pseudomona aeruginosa, el cual se encarga de degradar el metil ter-butil éter y algunos otros componentes de la gasolina, como el pentano, hexano, isoctano y el tolueno.
“La Pseudomona puede degradar una amplia variedad de compuestos, al MTBE lo elimina por cometabolismo, es decir, que no puede degradarlo si se encuentra solo, pero si se agrega una fuente de carbono adicional el MTBE es mineralizado completamente”, afirma la doctora Marcia Morales Ibarría.
En los sistemas biológicos, “el principio activo son los microorganismos, todo gira alrededor de ellos. Así que para implementar un reactor que elimine este contaminante necesitamos proporcionarle al microorganismo las condiciones adecuadas para que pueda llevar a cabo la degradación”, explica la doctora.
Primero se requiere inmovilizar a la Pseudomona en un material de empaque para que no haya pérdidas en la biomasa y que el flujo de agua no la arrastre, posteriormente se le deben proporcionar nutrientes, pues “para que los microorganismos hagan su trabajo necesitan comer y en este caso su alimento son los contaminantes, que usa como fuente de carbono y energía pero además necesitan otros compuestos, como sales minerales y oxígeno”, precisa la especialista.
En una primera fase de la investigación se diseñó un sistema de tres reactores de lecho empacado con perlita y un volumen de 1 litro. En esta etapa se trató de eliminar al MTBE dentro de la mezcla de gasolina y se observó que, bajo estas condiciones, este compuesto fue degradado pero cuando la corriente a tratar contenía únicamente MTBE, éste no era consumido por el microorganismo “entonces lo que se hizo fue agregar pentano al sistema y se obtuvo una eliminación en el reactor superior al 60 por ciento.”
Con este mismo arreglo de reactores se evaluó la importancia de los niveles de aireación, es decir, del oxígeno para la eliminación de los contaminantes, al primer reactor se alimentó con una fuente alterna de aceptores de electrones, usando nitratos en lugar de oxígeno, y en los otros dos se probaron diferentes flujos de aire. Se pudo observar que el MTBE fue degradado únicamente en condiciones aerobias y que el nivel de oxigenación fue determinante en la degradación de este compuesto.
Posteriormente se construyó un segundo prototipo del sistema, éste con una capacidad de 20.8 litros, el material de empaque fue tezontle y el organismo inoculado el mismo: Pseudomona aeruginosa.
En este segundo sistema se hicieron variaciones en las condiciones de operación del sistema, se vio cual fue la máxima capacidad de eliminación del sistema, se agregó un contaminante de más fácil degradación como el tolueno. Ante la presencia de este nuevo agente, la Pseudomona no dejó de consumir el MTBE, pero la velocidad de eliminación disminuyó.
Asimismo se hicieron cortes en la alimentación de pentano al sistema para saber cómo afectaba la eficiencia de remoción del MTBE y “lo que se demostró fue que la alimentación con pentano, como sustrato alterno para degradar al MTBE, no tiene que ser continua, sino que puede hacerse por pulsos y la degradación del MTBE no se ve afectada”, explica la doctora Morales Ibarría.
Para concluir la Dra. Morales mencionó "Hay que ser muy cuidadosos en las acciones adoptadas para remediar un problema de contaminación ya que en este caso al tratar de reducir la contaminación atmosférica se ha afectado a los acuíferos subterráneos que son una fuente importante de agua para consumo humano".
Con esta investigación se espera sentar las bases para una solución definitiva, eficiente y de bajo costo al problema de un compuesto que ha demostrado ser muy recalcitrante, además de contribuir a la generación de conocimientos para nuevas investigaciones relacionadas con la contaminación en acuíferos.
http://www.conacyt.mx/comunicacion/agencia/notas/MedioAmbiente/gasolina-imp.htm
El MTBE es un oxigenante que se agrega a las gasolinas para mejorar su combustión y elevar el octanaje. Este compuesto tiene una estructura estable que dificulta su degradación y hace que persista por largos periodos en el medio ambiente afectando principalmente acuíferos subterráneos. Este compuesto está clasificado por la Agencia de Protección Ambiental de Estados Unidos (EPA, por sus siglas en inglés) como probable carcinógeno pero gracias a su bajo umbral de detección al olor y sabor es fácil de percibirse en aguas contaminadas.
El metil ter-butil éter comenzó a utilizarse en las gasolinas a finales de los años setenta en Estados Unidos como substituto del tetraetilo de plomo, el cual “estaba causando graves salud pública en las grandes ciudades ya que grandes cantidades de plomo se liberaban a la atmósfera a través de procesos de combustión de la gasolina y se acumulaba en la sangre”, comenta la especialista.
El uso del MTBE tuvo efectos benéficos sobre la calidad del aire pues redujo las emisiones de monóxido de carbono, hidrocarburos y óxidos de nitrógeno a la atmósfera pero se convirtió en un problema cuando se le asoció a algunos malestares en la salud de los trabajadores petroleros estadounidenses y usuarios de gasolina.
La problemática se acentuó cuando se dio a conocer que el MTBE había contaminado una gran cantidad de pozos de agua para consumo humano en Estados Unidos. La preocupación por el MTBE aumentó cuando, de acuerdo con algunos estudios realizados en animales, se determinó que dicha sustancia era capaz de generar cáncer.
“En México existen pocos estudios sobre la contaminación por gasolina y en específico por MTBE", apunta la doctora Morales Ibarría, "uno de ellos fue realizado por el gobierno del Distrito Federal en el año 2001 donde se analizaron muestras de suelo y agua en los alrededores de las gasolineras. Los resultados mostraron que había contaminación por MTBE, de 225 muestreos que se hicieron en 75% de ellos se detectó su presencia en niveles superiores a los límites establecidos en Estados Unidos por la EPA”.
Afortunadamente, el análisis de 33 pozos de agua profundos, cercanos todos las gasolineras; resultó negativo en cuanto a rastros del contaminante, “pero el problema está latente”, advierte la especialista.
Pseudomona aeruginosa, la respuesta a la contaminación por MTBE
Ante esta problemática, la investigadora del IMP trabaja en una alternativa de tratamiento basado en agentes biológicos, los cuales garantizan la eliminación de los contaminantes a un bajo costo y en condiciones de operación seguras.
Dicho sistema consiste en el uso de un microorganismo llamado Pseudomona aeruginosa, el cual se encarga de degradar el metil ter-butil éter y algunos otros componentes de la gasolina, como el pentano, hexano, isoctano y el tolueno.
“La Pseudomona puede degradar una amplia variedad de compuestos, al MTBE lo elimina por cometabolismo, es decir, que no puede degradarlo si se encuentra solo, pero si se agrega una fuente de carbono adicional el MTBE es mineralizado completamente”, afirma la doctora Marcia Morales Ibarría.
En los sistemas biológicos, “el principio activo son los microorganismos, todo gira alrededor de ellos. Así que para implementar un reactor que elimine este contaminante necesitamos proporcionarle al microorganismo las condiciones adecuadas para que pueda llevar a cabo la degradación”, explica la doctora.
Primero se requiere inmovilizar a la Pseudomona en un material de empaque para que no haya pérdidas en la biomasa y que el flujo de agua no la arrastre, posteriormente se le deben proporcionar nutrientes, pues “para que los microorganismos hagan su trabajo necesitan comer y en este caso su alimento son los contaminantes, que usa como fuente de carbono y energía pero además necesitan otros compuestos, como sales minerales y oxígeno”, precisa la especialista.
En una primera fase de la investigación se diseñó un sistema de tres reactores de lecho empacado con perlita y un volumen de 1 litro. En esta etapa se trató de eliminar al MTBE dentro de la mezcla de gasolina y se observó que, bajo estas condiciones, este compuesto fue degradado pero cuando la corriente a tratar contenía únicamente MTBE, éste no era consumido por el microorganismo “entonces lo que se hizo fue agregar pentano al sistema y se obtuvo una eliminación en el reactor superior al 60 por ciento.”
Con este mismo arreglo de reactores se evaluó la importancia de los niveles de aireación, es decir, del oxígeno para la eliminación de los contaminantes, al primer reactor se alimentó con una fuente alterna de aceptores de electrones, usando nitratos en lugar de oxígeno, y en los otros dos se probaron diferentes flujos de aire. Se pudo observar que el MTBE fue degradado únicamente en condiciones aerobias y que el nivel de oxigenación fue determinante en la degradación de este compuesto.
Posteriormente se construyó un segundo prototipo del sistema, éste con una capacidad de 20.8 litros, el material de empaque fue tezontle y el organismo inoculado el mismo: Pseudomona aeruginosa.
En este segundo sistema se hicieron variaciones en las condiciones de operación del sistema, se vio cual fue la máxima capacidad de eliminación del sistema, se agregó un contaminante de más fácil degradación como el tolueno. Ante la presencia de este nuevo agente, la Pseudomona no dejó de consumir el MTBE, pero la velocidad de eliminación disminuyó.
Asimismo se hicieron cortes en la alimentación de pentano al sistema para saber cómo afectaba la eficiencia de remoción del MTBE y “lo que se demostró fue que la alimentación con pentano, como sustrato alterno para degradar al MTBE, no tiene que ser continua, sino que puede hacerse por pulsos y la degradación del MTBE no se ve afectada”, explica la doctora Morales Ibarría.
Para concluir la Dra. Morales mencionó "Hay que ser muy cuidadosos en las acciones adoptadas para remediar un problema de contaminación ya que en este caso al tratar de reducir la contaminación atmosférica se ha afectado a los acuíferos subterráneos que son una fuente importante de agua para consumo humano".
Con esta investigación se espera sentar las bases para una solución definitiva, eficiente y de bajo costo al problema de un compuesto que ha demostrado ser muy recalcitrante, además de contribuir a la generación de conocimientos para nuevas investigaciones relacionadas con la contaminación en acuíferos.
http://www.conacyt.mx/comunicacion/agencia/notas/MedioAmbiente/gasolina-imp.htm
Nueva oportunidad a la fusión fria
BBC Ciencia: Científicos en Estados Unidos afirman que tienen nueva evidencia de que la llamada fusión nuclear fría -hasta ahora una teoría- podría ser una fuente barata y abundante de energía.
La fusión fría es una reacción nuclear a temperatura ambiente.La evidencia surgió en un experimento en el que átomos de deuterio, o agua pesada, fueron fusionados produciendo calor, según anunciaron los investigadores del Space and Naval Warfare Systems Command (SPAWAR) -Comando de Sistemas de Combate Espaciales y Navales de la Fuerza Naval estadounidense-en la conferencia de la Sociedad Química Estadounidense en Utah.
La fusión fría es un proceso en el que -se cree- se puede llevar a cabo una reacción nuclear a temperaturas muy inferiores a las que se utilizan para la producción de reacciones termonucleares, de millones de grados centígrados.
Hasta ahora, sin embargo, todo había quedado en teoría y experimentos presentados en el pasado habían sido desacreditados.
Si quieren saber más, aqui está´el resto del artículo: http://news.bbc.co.uk/hi/spanish/science/newsid_7959000/7959820.stm
La fusión fría es una reacción nuclear a temperatura ambiente.La evidencia surgió en un experimento en el que átomos de deuterio, o agua pesada, fueron fusionados produciendo calor, según anunciaron los investigadores del Space and Naval Warfare Systems Command (SPAWAR) -Comando de Sistemas de Combate Espaciales y Navales de la Fuerza Naval estadounidense-en la conferencia de la Sociedad Química Estadounidense en Utah.
La fusión fría es un proceso en el que -se cree- se puede llevar a cabo una reacción nuclear a temperaturas muy inferiores a las que se utilizan para la producción de reacciones termonucleares, de millones de grados centígrados.
Hasta ahora, sin embargo, todo había quedado en teoría y experimentos presentados en el pasado habían sido desacreditados.
Si quieren saber más, aqui está´el resto del artículo: http://news.bbc.co.uk/hi/spanish/science/newsid_7959000/7959820.stm
ESTUFA ECOLÓGICA MEXICANA GANA RECONOCIMIENTO INTERNACIONAL
El Grupo Interdisciplinario de Tecnología Rural Apropiada (GIRA), y su diseño de una estufa más eficiente para el aprovechamiento de leña, obtuvo uno de los cinco galardones internacionales de los Premios Ashden de Energía Sustentable.
El premio fue entregado al doctor Omar Masera, académico del Centro de Investigaciones en Ecosistemas (CIECO) de la UNAM, institución que ha trabajado con GIRA desde hace cuatro años en el proyecto.
La estufa mexicana, bautizada como Patsari, es producto del rediseño de un modelo guatemalteco denominado Lorena, el cual apareció hace 20 años. El rediseño de la estufa consiste en la optimización de la cámara de combustión y de los túneles interiores por los cuales viaja el calor a las parrillas, esto para un mayor aprovechamiento del calor generado por la combustión de la leña.
Los ajustes en el diseño de la cámara de combustión permiten reducir hasta en 60 por ciento el uso de madera, afirma en entrevista telefónica el maestro Víctor Berrueta Soriano, quien colabora en el proyecto. Este ahorro favorece al medio ambiente, pues se produce menos dióxido de carbono y se emplean menos recursos forestales para cocinar, tan sólo en México, 95 por ciento de las familias rurales, equivalente a 25 millones de personas, utilizan leña para preparar sus alimentos.
De Lorena a Patsari
Víctor Berrueta comenta que la cámara de combustión de la estufa guatemalteca Lorena se construía colocando un bote o cubeta, el cual era rodeado con lodo, para que al retirar el bote se formara un hueco que era la cámara de combustión, ahí se colocaba el comal; el problema con este diseño era el diámetro de la cámara, pues por su tamaño se necesitaba una gran cantidad de leña para calentar los alimentos.
“La cámara de combustión de Patsari -en cambio- es 50 por ciento más pequeña y eso permite optimizar el calor generado al consumirse la leña. Además, los túneles por donde viajaba el humo caliente -en la estufa Lorena-, eran también muy grandes y ello generaba pérdida de calor en la transferencia de éste a las hornillas secundarias”, detalle que también se corrigió para optimizar el aprovechamiento de energía en la estufa.
Otra diferencia entre Patsari y su antecesora son los materiales y la forma en que se construye. La estufa guatemalteca era elaborada con barro y arena; la Patsari añade a los materiales ya citados el cemento, haciendo más resistente la estufa, pues el viejo modelo incluso se desmoronaba.
Además, al agregar cemento a la construcción de la estufa se acelera el tiempo de secado de la misma. “La -estufa- Lorena tardaba en secar de una semana a quince días y hasta entonces se podía usar, la Patsari seca en tres o cuatro, dependiendo del clima”, afirma.
Una ventaja más de la estufa mexicana radica en su técnica de construcción, para lo cual se utilizan moldes metálicos, cuya función es garantizar que las dimensiones interiores de una estufa a otra sean constantes y, con ello, que la eficiencia en el aprovechamiento del calor no varíe.
El grupo Gira y los investigadores del CIECO han diseñado hasta ahora cuatro diferentes modelos de la estufa Patsari: tres para uso doméstico y uno específicamente para quienes se dedican a la elaboración de tortillas a mano para vender.
Dependiendo del modelo, cada estufa cuenta con, por lo menos, una entrada para la leña, cámara de combustión –donde se coloca el comal– y dos parrillas secundarias. Existe también un modelo con dos entradas para la leña y, por tanto, dos cámaras de combustión.
Del año 2000 a la fecha, se han instalado cerca de 3 mil 500 estufas en hogares rurales mexicanos, además de otras 40 estufas para micro-empresas de producción de tortillas hechas a mano. Actualmente existen aproximadamente 10 mil solicitudes para la construcción de nuevas estufas de este tipo.
Las estufas mejoradas y sus beneficios
En el medio rural la mayoría de las familias recurren a fogones abiertos para cocinar y en consecuencia el humo se queda en el interior de las casas, lo cual propicia daños en la salud de sus moradores, quienes desarrollan enfermedades respiratorias, principalmente.
Con el uso de estufas como Patsari, equipadas con chimenea para evitar la acumulación del humo, se reducen los riesgos en la salud de los habitantes del campo.
Para confirmar esto, el grupo GIRA, en coordinación con el Instituto Nacional de Salud Pública, han comenzado un estudio para determinar los impactos benéficos en la salud por el uso de estas estufas.
De acuerdo con resultados preeliminares de la investigación, quienes ya utilizan estufas como Patsari tienen 20 por ciento menos posibilidades de desarrollar enfermedades respiratorias, pues la contaminación por partículas suspendidas se reduce, por lo menos, en 70 por ciento.
Además de estos estudios sobre el impacto en la salud, ya se realizan también otros análisis relacionados al uso de las estufas, entre ellos un estudio de gases de efecto invernadero y una evaluación del funcionamiento y eficiencia de las estufas, ambos en coordinación con especialistas de ingeniería de la UNAM.
Grupo GIRA de México obtuvo el primer premio en la categoría Health and Welfare Award de los Premios Ashden de Energía Sustentable, por encima Shaanxi Mothers, proyecto chino que consiste en la producción de gas mediante una mezcla de excrementos porcinos y humanos, y que tuvo que conformarse con el segundo lugar.
http://www.conacyt.mx/comunicacion/agencia/notas/MedioAmbiente/estufa-ciecounam.htm
El premio fue entregado al doctor Omar Masera, académico del Centro de Investigaciones en Ecosistemas (CIECO) de la UNAM, institución que ha trabajado con GIRA desde hace cuatro años en el proyecto.
La estufa mexicana, bautizada como Patsari, es producto del rediseño de un modelo guatemalteco denominado Lorena, el cual apareció hace 20 años. El rediseño de la estufa consiste en la optimización de la cámara de combustión y de los túneles interiores por los cuales viaja el calor a las parrillas, esto para un mayor aprovechamiento del calor generado por la combustión de la leña.
Los ajustes en el diseño de la cámara de combustión permiten reducir hasta en 60 por ciento el uso de madera, afirma en entrevista telefónica el maestro Víctor Berrueta Soriano, quien colabora en el proyecto. Este ahorro favorece al medio ambiente, pues se produce menos dióxido de carbono y se emplean menos recursos forestales para cocinar, tan sólo en México, 95 por ciento de las familias rurales, equivalente a 25 millones de personas, utilizan leña para preparar sus alimentos.
De Lorena a Patsari
Víctor Berrueta comenta que la cámara de combustión de la estufa guatemalteca Lorena se construía colocando un bote o cubeta, el cual era rodeado con lodo, para que al retirar el bote se formara un hueco que era la cámara de combustión, ahí se colocaba el comal; el problema con este diseño era el diámetro de la cámara, pues por su tamaño se necesitaba una gran cantidad de leña para calentar los alimentos.
“La cámara de combustión de Patsari -en cambio- es 50 por ciento más pequeña y eso permite optimizar el calor generado al consumirse la leña. Además, los túneles por donde viajaba el humo caliente -en la estufa Lorena-, eran también muy grandes y ello generaba pérdida de calor en la transferencia de éste a las hornillas secundarias”, detalle que también se corrigió para optimizar el aprovechamiento de energía en la estufa.
Otra diferencia entre Patsari y su antecesora son los materiales y la forma en que se construye. La estufa guatemalteca era elaborada con barro y arena; la Patsari añade a los materiales ya citados el cemento, haciendo más resistente la estufa, pues el viejo modelo incluso se desmoronaba.
Además, al agregar cemento a la construcción de la estufa se acelera el tiempo de secado de la misma. “La -estufa- Lorena tardaba en secar de una semana a quince días y hasta entonces se podía usar, la Patsari seca en tres o cuatro, dependiendo del clima”, afirma.
Una ventaja más de la estufa mexicana radica en su técnica de construcción, para lo cual se utilizan moldes metálicos, cuya función es garantizar que las dimensiones interiores de una estufa a otra sean constantes y, con ello, que la eficiencia en el aprovechamiento del calor no varíe.
El grupo Gira y los investigadores del CIECO han diseñado hasta ahora cuatro diferentes modelos de la estufa Patsari: tres para uso doméstico y uno específicamente para quienes se dedican a la elaboración de tortillas a mano para vender.
Dependiendo del modelo, cada estufa cuenta con, por lo menos, una entrada para la leña, cámara de combustión –donde se coloca el comal– y dos parrillas secundarias. Existe también un modelo con dos entradas para la leña y, por tanto, dos cámaras de combustión.
Del año 2000 a la fecha, se han instalado cerca de 3 mil 500 estufas en hogares rurales mexicanos, además de otras 40 estufas para micro-empresas de producción de tortillas hechas a mano. Actualmente existen aproximadamente 10 mil solicitudes para la construcción de nuevas estufas de este tipo.
Las estufas mejoradas y sus beneficios
En el medio rural la mayoría de las familias recurren a fogones abiertos para cocinar y en consecuencia el humo se queda en el interior de las casas, lo cual propicia daños en la salud de sus moradores, quienes desarrollan enfermedades respiratorias, principalmente.
Con el uso de estufas como Patsari, equipadas con chimenea para evitar la acumulación del humo, se reducen los riesgos en la salud de los habitantes del campo.
Para confirmar esto, el grupo GIRA, en coordinación con el Instituto Nacional de Salud Pública, han comenzado un estudio para determinar los impactos benéficos en la salud por el uso de estas estufas.
De acuerdo con resultados preeliminares de la investigación, quienes ya utilizan estufas como Patsari tienen 20 por ciento menos posibilidades de desarrollar enfermedades respiratorias, pues la contaminación por partículas suspendidas se reduce, por lo menos, en 70 por ciento.
Además de estos estudios sobre el impacto en la salud, ya se realizan también otros análisis relacionados al uso de las estufas, entre ellos un estudio de gases de efecto invernadero y una evaluación del funcionamiento y eficiencia de las estufas, ambos en coordinación con especialistas de ingeniería de la UNAM.
Grupo GIRA de México obtuvo el primer premio en la categoría Health and Welfare Award de los Premios Ashden de Energía Sustentable, por encima Shaanxi Mothers, proyecto chino que consiste en la producción de gas mediante una mezcla de excrementos porcinos y humanos, y que tuvo que conformarse con el segundo lugar.
http://www.conacyt.mx/comunicacion/agencia/notas/MedioAmbiente/estufa-ciecounam.htm
Nanotubos de carbono, una mirada geométrica
(Las formulas se encuentran en la página original de esta noticia: http://latekhne.itm.edu.co/index.php?option=com_content&view=article&id=1354:nanotubos-de-carbono-una-mirada-geometrica&catid=54&Itemid=91 )
Actualmente la nanotecnología es una rama de la tecnología que está introduciendo un sin número de elementos que son ampliamente usados en todas las áreas que van desde la medicina hasta la tecnología de alimentos, la electrónica, la computación o los materiales. Aunque son tan utilizados poco se sabe de sus comportamientos físicos o químicos, además de un modelo que permita estudiarlos más afondo.
Uno de estos elementos son los nanotubos de carbono de pared única; su estructura fue propuesta desde hacía mucho tiempo pero solo hasta 1991 dejó de ser un ejemplo académico para convertirse en una estructura real con bastantes propiedades físicas. Sus características interesantes como lo son la resistencia mecánica a la torsión y tracción, la conductividad eléctrica, la interacción con la luz, propiedades térmicas; proporcionan un sin fin de posibilidades a la imaginación y todas estas modificables con sólo cambiar, agregar o quitar átomos; retorcerlos o estirarlos.
Para estudiarlos se han usado muchos modelos geométricos, pero el inicial fue el de malla enrollada. El carbono cuando se enlaza con otros átomos puede hacerlo de tres formas: lineal; trigonal como en el grafito o el grafeno; o tetraédrica, como en el diamante.
Justo en la forma trigonal el carbono puede formar una malla plana de grafeno, esta estructura se describe a partir de dos vectores etiquetados como a1 y a2que limitan la celda unitaria para la malla de grafeno. Estos son vectores que unen los centros de los hexágonos vecinos (figura 2), con la particularidad de que a1=a2=ac , la magnitud de los vectores y con ac la longitud característica de los hexágonos de carbono; además de la geometría se ve que . La descripción del nanotubo se hace a partir del vector , llamado vector quiral y del vector a, llamado vector de traslación. La magnitud del vector mide igual que el perímetro del nanotubo y que se escribe como combinación lineal de los vectores primitivos:
Figura 3: Distintos tipos de nanotubos. En (a) la malla de grafeno que al enrollarla forma el nanotubo zigzag (3,0) de (b), se puede ver en la malla que los átomos a lo largo del vector quiral se disponen en forma de zigzag. En (c) malla de grafeno que al enrollarla forma el nanotubo brazo de sillón (3,3) de (d), se puede ver en la malla que los átomos a lo largo del vector quiral se disponen en forma de brazo de sillón. En (e) malla de grafeno que al enrollarla forma el nanotubo quiral (4,2) de (f), este no posee forma particular de los átomos de carbono a lo largo del vector quiral.
Es así que los nanotubos se etiquetan normalmente en la forma (n1,n2), siendo n1 y n2 dos números enteros no necesariamente múltiplos uno del otro pero que cumplen la condición que n1>n2 , pues la condición n2>n1 reproduce el mismo nanotubo. Si n2=0, se dice que es un nanotubo zigzag; si N1=n2=n0 , se dice que es un nanotubo brazo de sillón; si , se dice que es un nanotubo quiral. De la forma de se puede decir que el radio del nanotubo es
Note que no es posible que cualquier trozo de malla se pueda enrollar para hacer el nanotubo, es decir, se debe cumplir que al enrollar el trozo de malla de grafeno no sobren ni falten átomos de los hexágonos en la superficie del nanotubo. Teniendo la base del nanotubo falta conocer la altura, que se logra con el vector de traslación A ; el cual tiene la forma en términos del vector quiral como
Otra cantidad importante es el número de átomos de carbono por celda unitaria del nanotubo de carbono. En otras palabras al tener la malla de grafeno tendremos una cantidad de átomos de carbono enlazados formando el nanotubo, si quisiéramos saber cuántos átomos forman este nanotubo unitario pues obtenemos fácilmente del concepto de área como la magnitud del producto vectorial entre dos vectores. Lo primero que se nota es que hay dos átomos de carbono en el área definida por y , llamada celda unitaria del grafeno. Entonces deben de haber tantos pares de átomos como celdas unitarias de grafeno; entonces el número de pares de átomos de carbono en el nanotubo unitario es
En términos de Q , el radio del nanotubo y la altura del tubo unitario adquieren una forma más simple,
Con esto nos damos cuenta que un nanotubo de carbono no es muy complicado de modelar en una primera aproximación y que nos brinda información que nos permitiría controlar que tipo de nanotubo es el que queremos crear, ya que ni el radio ni la altura pueden ser arbitrarios y estos dependen del número de átomos en la malla y de la forma del vector quiral. Aunque aquí sólo abordamos el tema de la configuración geométrica, de estos resultados se derivan propiedades importantes de los nanotubos, como lo es el hecho de que un nanotubo se puede comportar como semiconductor o metal; permitiendo el paso o no de la corriente eléctrica y esto sólo modificando el vector quiral o el vector de traslación.
Actualmente la nanotecnología es una rama de la tecnología que está introduciendo un sin número de elementos que son ampliamente usados en todas las áreas que van desde la medicina hasta la tecnología de alimentos, la electrónica, la computación o los materiales. Aunque son tan utilizados poco se sabe de sus comportamientos físicos o químicos, además de un modelo que permita estudiarlos más afondo.
Uno de estos elementos son los nanotubos de carbono de pared única; su estructura fue propuesta desde hacía mucho tiempo pero solo hasta 1991 dejó de ser un ejemplo académico para convertirse en una estructura real con bastantes propiedades físicas. Sus características interesantes como lo son la resistencia mecánica a la torsión y tracción, la conductividad eléctrica, la interacción con la luz, propiedades térmicas; proporcionan un sin fin de posibilidades a la imaginación y todas estas modificables con sólo cambiar, agregar o quitar átomos; retorcerlos o estirarlos.
Para estudiarlos se han usado muchos modelos geométricos, pero el inicial fue el de malla enrollada. El carbono cuando se enlaza con otros átomos puede hacerlo de tres formas: lineal; trigonal como en el grafito o el grafeno; o tetraédrica, como en el diamante.
Justo en la forma trigonal el carbono puede formar una malla plana de grafeno, esta estructura se describe a partir de dos vectores etiquetados como a1 y a2que limitan la celda unitaria para la malla de grafeno. Estos son vectores que unen los centros de los hexágonos vecinos (figura 2), con la particularidad de que a1=a2=ac , la magnitud de los vectores y con ac la longitud característica de los hexágonos de carbono; además de la geometría se ve que . La descripción del nanotubo se hace a partir del vector , llamado vector quiral y del vector a, llamado vector de traslación. La magnitud del vector mide igual que el perímetro del nanotubo y que se escribe como combinación lineal de los vectores primitivos:
Figura 3: Distintos tipos de nanotubos. En (a) la malla de grafeno que al enrollarla forma el nanotubo zigzag (3,0) de (b), se puede ver en la malla que los átomos a lo largo del vector quiral se disponen en forma de zigzag. En (c) malla de grafeno que al enrollarla forma el nanotubo brazo de sillón (3,3) de (d), se puede ver en la malla que los átomos a lo largo del vector quiral se disponen en forma de brazo de sillón. En (e) malla de grafeno que al enrollarla forma el nanotubo quiral (4,2) de (f), este no posee forma particular de los átomos de carbono a lo largo del vector quiral.
Es así que los nanotubos se etiquetan normalmente en la forma (n1,n2), siendo n1 y n2 dos números enteros no necesariamente múltiplos uno del otro pero que cumplen la condición que n1>n2 , pues la condición n2>n1 reproduce el mismo nanotubo. Si n2=0, se dice que es un nanotubo zigzag; si N1=n2=n0 , se dice que es un nanotubo brazo de sillón; si , se dice que es un nanotubo quiral. De la forma de se puede decir que el radio del nanotubo es
Note que no es posible que cualquier trozo de malla se pueda enrollar para hacer el nanotubo, es decir, se debe cumplir que al enrollar el trozo de malla de grafeno no sobren ni falten átomos de los hexágonos en la superficie del nanotubo. Teniendo la base del nanotubo falta conocer la altura, que se logra con el vector de traslación A ; el cual tiene la forma en términos del vector quiral como
Otra cantidad importante es el número de átomos de carbono por celda unitaria del nanotubo de carbono. En otras palabras al tener la malla de grafeno tendremos una cantidad de átomos de carbono enlazados formando el nanotubo, si quisiéramos saber cuántos átomos forman este nanotubo unitario pues obtenemos fácilmente del concepto de área como la magnitud del producto vectorial entre dos vectores. Lo primero que se nota es que hay dos átomos de carbono en el área definida por y , llamada celda unitaria del grafeno. Entonces deben de haber tantos pares de átomos como celdas unitarias de grafeno; entonces el número de pares de átomos de carbono en el nanotubo unitario es
En términos de Q , el radio del nanotubo y la altura del tubo unitario adquieren una forma más simple,
Con esto nos damos cuenta que un nanotubo de carbono no es muy complicado de modelar en una primera aproximación y que nos brinda información que nos permitiría controlar que tipo de nanotubo es el que queremos crear, ya que ni el radio ni la altura pueden ser arbitrarios y estos dependen del número de átomos en la malla y de la forma del vector quiral. Aunque aquí sólo abordamos el tema de la configuración geométrica, de estos resultados se derivan propiedades importantes de los nanotubos, como lo es el hecho de que un nanotubo se puede comportar como semiconductor o metal; permitiendo el paso o no de la corriente eléctrica y esto sólo modificando el vector quiral o el vector de traslación.
Oro
Si buscan in formación sobre algún elemento, este sitio es una buena opción.
Oro
Elemento químico, símbolo Au, número atómico 79 y peso atómico 196.967; es un metal muy denso, blando y de color amarillo intenso. El oro se clasifica como metal pesado y noble; en el comercio es el más común de los metales preciosos. El cobre, la plata y el oro están en el mismo grupo en la tabla periódica. La fuente del símbolo químico, Au, es su nombre en latín aurum (amanecer radiante). Hay sólo un isótopo estable del oro, con número de masa 197.
Usos: Cerca de tres cuartas partes de la producción mundial del oro se consume en joyería. Sus aplicaciones industriales, especialmente en electrónica, consumen 10-15%. El remanente está dividido entre los empleos médicos y dentales, acuñación y reservas para el gobierno y particulares. Las monedas y demás objetos decorativos de oro son en realidad aleaciones porque el metal es muy blando (2.5-3 en la escala de Mohs) para ser útil con un manejo frecuente.
El 198Au radiactivo se utiliza en radiaciones medicinales, en diagnóstico y en algunas aplicaciones industriales como trazador. También se usa como trazador en el estudio del movimiento de sedimentos sobre el fondo oceánico y en los alrededores de los puertos. Las propiedades del oro hacia la energía radiante han permitido el desarrollo de reflectores eficientes para calentadores infrarrojos y hornos, así como para retención y enfoque de calor en procesos industriales.
Localización: El oro se encuentra distribuido por todo el mundo, pero es muy escaso, de tal suerte que es un elemento raro. El agua de mar contiene concentraciones bajas de oro del orden de 10 partes de oro por billón de partes de agua. En el plancton o en el fondo marino se acumulan concentraciones superiores. En la actualidad, no existen procesos económicos adecuados para la extracción del oro marino. El oro metálico, o natural, y varios minerales telúricos son las únicas formas de oro presentes en la Tierra. El oro natural existe en las rocas y minerales de otros metales, especialmente en el cuarzo y la pirita, o puede estar disperso en arenas y gravas (oro de aluvión).
Propiedades: La densidad del oro es 19,3 veces la del agua a 20ºC (68ºF), tal que 1 m3 de oro pesa cerca de 19 000 kg (1 pie3, unas 1200 libras). Las masas del oro, al igual que otros metales preciosos, se miden en la escala Troy, la cual contiene 12 onzas por libra. Se funde a 1063ºC (1947.97ºF) y ebulle a 2970ºC (5180ºF). Es algo volátil por debajo de su punto de ebullición. Es un buen conductor de calor y electricidad. Es el metal más dúctil y maleable. Pueden hacerse láminas transparentes, con espesor de 0.00001 mm con facilidad o estirarlo en alambres con pesos de 0.5 mg/m. Su calidad se expresa en la escala de finura como partes de oro puro por mil partes de metal total, o en la escala de quilate como partes de oro puro por 24 partes de metal total. El oro se disuelve con facilidad en mercurio para formar amalgamas. Es uno de los metales menos reactivos químicamente. No pierde lustre, ni se quema al aire. Es inerte en soluciones fuertemente alcalinas y en todos los ácidos puros, menos el ácido selénico.
Compuestos: El oro puede tener valencia 1+ o 3+ en sus compuestos. La tendencia a formar complejos es tan fuerte que todos los compuestos de oxidación 3+ son complejos. Los compuestos del estado de oxidación 1+ no son muy estables y tienden a oxidarse al estado 3+ o reducirse a oro metálico. Todos los compuestos de cualquier estado de oxidación se reducen con facilidad.
En sus complejos el oro forma enlaces más fácilmente y más estables con los halógenos y el azufre, menos estables con oxígeno y fósforo y muy débiles con nitrógeno. Los enlaces entre oro y carbono son normalmente estables, como en los complejos de cianuro y varios compuestos orgánicos.
Efectos del Oro sobre la salud
Efectos de la sobre-exposición: Inhalación: Puede provocar irritación si la exposición es prolongada o excesiva. Ingestión: No se esperan efectos adversos. Piel: Puede provocar irritación y reacción alérgica. Ojos: Puede provocar irritación
Efectos ambientales del Oro
La ecotoxicidad del oro no ha sido evaluada. Sin embargo, se espera que la degradación del oro bajo condiciones aerobias sea muy pobre y no hay evidencia que sugiera que pueda crear problemas ecológicos al ser vertido en el medio. Ya que el oro es insoluble, se cree que tiene características mínimas de bioacumulación y biodisponibilidad.
Usos: Cerca de tres cuartas partes de la producción mundial del oro se consume en joyería. Sus aplicaciones industriales, especialmente en electrónica, consumen 10-15%. El remanente está dividido entre los empleos médicos y dentales, acuñación y reservas para el gobierno y particulares. Las monedas y demás objetos decorativos de oro son en realidad aleaciones porque el metal es muy blando (2.5-3 en la escala de Mohs) para ser útil con un manejo frecuente.
El 198Au radiactivo se utiliza en radiaciones medicinales, en diagnóstico y en algunas aplicaciones industriales como trazador. También se usa como trazador en el estudio del movimiento de sedimentos sobre el fondo oceánico y en los alrededores de los puertos. Las propiedades del oro hacia la energía radiante han permitido el desarrollo de reflectores eficientes para calentadores infrarrojos y hornos, así como para retención y enfoque de calor en procesos industriales.
Localización: El oro se encuentra distribuido por todo el mundo, pero es muy escaso, de tal suerte que es un elemento raro. El agua de mar contiene concentraciones bajas de oro del orden de 10 partes de oro por billón de partes de agua. En el plancton o en el fondo marino se acumulan concentraciones superiores. En la actualidad, no existen procesos económicos adecuados para la extracción del oro marino. El oro metálico, o natural, y varios minerales telúricos son las únicas formas de oro presentes en la Tierra. El oro natural existe en las rocas y minerales de otros metales, especialmente en el cuarzo y la pirita, o puede estar disperso en arenas y gravas (oro de aluvión).
Propiedades: La densidad del oro es 19,3 veces la del agua a 20ºC (68ºF), tal que 1 m3 de oro pesa cerca de 19 000 kg (1 pie3, unas 1200 libras). Las masas del oro, al igual que otros metales preciosos, se miden en la escala Troy, la cual contiene 12 onzas por libra. Se funde a 1063ºC (1947.97ºF) y ebulle a 2970ºC (5180ºF). Es algo volátil por debajo de su punto de ebullición. Es un buen conductor de calor y electricidad. Es el metal más dúctil y maleable. Pueden hacerse láminas transparentes, con espesor de 0.00001 mm con facilidad o estirarlo en alambres con pesos de 0.5 mg/m. Su calidad se expresa en la escala de finura como partes de oro puro por mil partes de metal total, o en la escala de quilate como partes de oro puro por 24 partes de metal total. El oro se disuelve con facilidad en mercurio para formar amalgamas. Es uno de los metales menos reactivos químicamente. No pierde lustre, ni se quema al aire. Es inerte en soluciones fuertemente alcalinas y en todos los ácidos puros, menos el ácido selénico.
Compuestos: El oro puede tener valencia 1+ o 3+ en sus compuestos. La tendencia a formar complejos es tan fuerte que todos los compuestos de oxidación 3+ son complejos. Los compuestos del estado de oxidación 1+ no son muy estables y tienden a oxidarse al estado 3+ o reducirse a oro metálico. Todos los compuestos de cualquier estado de oxidación se reducen con facilidad.
En sus complejos el oro forma enlaces más fácilmente y más estables con los halógenos y el azufre, menos estables con oxígeno y fósforo y muy débiles con nitrógeno. Los enlaces entre oro y carbono son normalmente estables, como en los complejos de cianuro y varios compuestos orgánicos.
Efectos del Oro sobre la salud
Efectos de la sobre-exposición: Inhalación: Puede provocar irritación si la exposición es prolongada o excesiva. Ingestión: No se esperan efectos adversos. Piel: Puede provocar irritación y reacción alérgica. Ojos: Puede provocar irritación
Efectos ambientales del Oro
La ecotoxicidad del oro no ha sido evaluada. Sin embargo, se espera que la degradación del oro bajo condiciones aerobias sea muy pobre y no hay evidencia que sugiera que pueda crear problemas ecológicos al ser vertido en el medio. Ya que el oro es insoluble, se cree que tiene características mínimas de bioacumulación y biodisponibilidad.
EMPRESA MEXICANA RECICLA AGUA UTILIZADA POR LA INDUSTRIA
El Consorcio Ecológico Industrial (CEI) desarrolló un sistema que purifica y recicla el cien por ciento del agua utilizada por las torres de enfriamiento de la industria, lo cual permitirá a este sector disminuir el consumo del líquido y ahorrar dinero en la compra de productos químicos para el tratamiento de agua.
El nombre de este desarrollo tecnológico es Sistema Integral de Tratamiento de Agua, el cual elimina totalmente la sílice (sales) del “agua de purga” de las torres de enfriamiento de la industria en general, además de otros contaminantes
Una torre de enfriamiento extrae el calor del agua empleada en los procesos industriales de una planta mediante su evaporación. El problema con el agua de las torres es que cada vez que cada vez que se utiliza se calienta y las sales presentes se concentran y dañan las tuberías.
“Aunque el agua es cristalina tiene sales, las cuales son buenas para el cuerpo humano pero dañinas para una planta industrial, pues forman capas de sarro que obstruyen las tuberías, además con el aumento de temperatura estas sales incrementan el desarrollo de microorganismos, lo cual afecta los sistemas de enfriamiento, señala el ingeniero Juan Jorge Díaz González Alcocer, Presidente del Consejo de Administración de Consorcio Ecológico Industrial.
Actualmente se utilizan plantas de tratamiento que utilizan productos químicos para remover la sílice, sin embargo, estos sistemas no son rentables pues eliminan las sales parcialmente y por ello las empresas sólo pueden reutilizar el agua de dos a tres veces y después deben desecharla.
“En cambio, con nuestra tecnología es posible eliminar el 100 por ciento de la sílice, el 100 por ciento de los sólidos suspendidos, el 80 por ciento de la dureza (calcio y magnesio) y el 99% de microorganismos, por lo cual es posible reutilizar el agua de purga en forma indefinida, todo a un costo promedio de 2 pesos por metro cúbico de agua.
Además, con este sistema también es posible limpiar hasta el 80 por ciento de las aguas residuales de una planta industrial, pues al líquido también podemos quitarle contaminantes como: grasas, aceites, detergentes, productos químicos, materia orgánica, solventes, etc.”.
Purifican agua con ozono
Para eliminar la sílice y otros contaminantes, los ingenieros de CEI dirigen el agua de las torres de enfriamiento “a un reactor electrolítico ozonizado, en donde se separan todos los residuos sólidos del agua para después purificarla con ozono.”
El ozono se obtiene del oxígeno presente en el medio ambiente, “el cual es separado del nitrógeno y sometido a alto voltaje”, relata el ingeniero Juan Jorge Díaz González Alcocer.
“El ozono es el oxidante más poderoso que existe para eliminar microorganismos, materia orgánica y otros contaminantes, ya que es tres mil veces más efectivo que el cloro y es utilizado en el mundo entero para purificar el agua”, afirma.
Una vez que al agua es purificada, se reenvía a las torres de enfriamiento, de donde se redistribuye a toda la planta para que ésta continúe operando.
Respecto a los costos de inversión para montar y operar el sistema, su creador asegura que son los más bajos en comparación con otros métodos de tratamiento de agua.
“El costo de inversión de nuestro sistema oscila entre los 12 y los 50 mil dólares, cifra muy por debajo de otras tecnologías, las cuales van de los 98 mil a los 160 mil dólares. También nuestros costos de operación son bajos, pues con nuestra planta es posible purificar un metro cúbico de agua por dos pesos, contra 6, 12 o 18 pesos que cuesta con otros sistemas”.
El ingeniero Juan Jorge Díaz González asegura que si una empresa instala este nuevo sistema para el tratamiento de agua, reducirá considerablemente la compra de productos químicos, además, contribuirá a no dañar el medio ambiente al reciclar el agua.
Listo para comercializarse
El Sistema Integral de Tratamiento de Agua ha sido probado por empresas del sector privado y por la Comisión Federal de Electricidad (CFE), las cuales han implementado la tecnología o bien firmado cartas de intención para hacerlo.
“Nuestra planta para tratamiento de agua ya está instalada en Roche Syntex, y próximamente en Colgate Palmolive, el Hotel Fairmont Acapulco Princess y en la central termoeléctrica de Salamanca de la Comisión Federal de Electricidad (CFE).
”Con la CFE tenemos cartas de intención firmadas, de hecho hemos probado nuestra tecnología en sus instalaciones y los resultados han sido excelentes. En lo económico puedo decirte que si CFE adopta nuestra planta, ahorrará 317 millones de pesos cada año”.
En el caso del sector público, además de la CFE, el consorcio dirigido por el ingeniero Díaz González se ha puesto en contacto con la Comisión Nacional del Agua (CONAGUA), con el propósito de que ésta instale plantas tratadoras de agua en pozos de agua potable contaminados.
“Podemos eliminar también arsénico y cianuro de pozos de agua potable, también hemos hecho pruebas con aguas negras las cuales han sido validadas por el Instituto Mexicano de Tecnología del Agua (IMTA).
Asimismo estamos negociando con el Secretario de Medio Ambiente y el Regidor de protección ambiental de Cuernavaca para limpiar el agua de las barrancas que atraviesan la ciudad y que son contaminadas con aguas negras”.
El ingeniero Jorge Díaz González comentó que con apoyo de la Fundación México-Estados Unidos para la Ciencia (FUMEC) en los próximos meses buscarán colocar esta tecnología en el extranjero, pues existe interés de varios países por adquirir el sistema.
“Nuestra tecnología, cuya patente nacional e internacional está en trámite, ha sido solicitada en República Dominicana, Brasil, Argentina, Venezuela, Costa Rica y Honduras.”
Para realizar el proyecto, el CEI ha recibido financiamiento del Consejo Nacional de Ciencia y Tecnología (CONACYT) a través de los programas Avance Última Milla y Emprendedores y actualmente del Fondo de Garantías.
http://www.conacyt.mx/comunicacion/agencia/notas/MedioAmbiente/aguareciclada-cei.htm
NECESARIA MAYOR INVERSIÓN EN CIENCIA PARA COMBATIR CAMBIO CLIMÁTICO
“La humanidad debe invertir más recursos económicos en investigación científica y desarrollos tecnológicos para encontrar soluciones al problema del cambio climático”, doctor Mario Molina, ganador del premio Nóbel, mostro su opinión durante su participación en la ceremonia del XV aniversario del Sistema de Centros Conacyt.
Insistió en la importancia de utilizar los avances de la ciencia y la tecnología actuales para afrontar el calentamiento del planeta hoy, pero también comento que es de vital importancia buscar nuevas alternativas basadas en el conocimiento para hacerlo en el futuro.
En México se deberían utilizar cada vez más las energías renovables, explorar el uso responsable de plantas nucleares, analizar la posibilidad de capturar e inyectar el bióxido de carbono (CO2) a los pozos petroleros y producir biocombustibles como el etanol, para reducir las emisiones de CO2 a la atmósfera y frenar el calentamiento del planeta.
“Si queremos seguir utilizando los combustibles fósiles, necesitamos inyectar el CO2 derivado de su uso a los pozos petroleros (para que no se acumule en la atmósfera), lo cual es posible, aunque incrementaría el precio de estos combustibles. En México ya estamos desarrollando, con PEMEX, programas pilotos para trabajar en esta alternativa; aunque existen otras, como el uso de la energía eólica y solar.”
Para los biocombustibles, el especialista marcó que si México decide explorar esta opción, debemos basarnos en la experiencia brasileña, no en la estadounidense.
“En Estados Unidos genera etanol a partir del maíz, pero si hacemos un balance detallado de este proceso resulta que no hay un beneficio para el medio ambiente desde el punto de vista de la reducción de CO2, pues se utiliza demasiado combustible fósil para generar etanol; a diferencia de Brasil, donde utilizan caña de azúcar.”
Pensando en el futuro, el doctor Mario Molina mostro firmeza en invertir más recursos en ciencia y tecnología para frenar el cambio climático, pues a largo plazo será más costoso que haber no actuado.
“Se necesita triplicar la inversión en ciencia y tecnología para detener cambio climático. De acuerdo con análisis económicos hechos en Reino Unido y Estados Unidos debería invertirse alrededor del uno por ciento del Producto Interno Bruto (PIB) mundial, lo cual es costoso, aunque el costo de no actuar podría ser mucho mayor, cercano al 15 o al 20% del PIB mundial, debido al incremento de sequías o inundaciones en el planeta”.
Para nuestro país propuso la creación un fondo para apoyar la investigación científica encaminada a desarrollar nuevos conocimientos y soluciones tecnológicas para atender el problema del cambio climático.
http://www.conacyt.mx/comunicacion/agencia/notas/MedioAmbiente/mario-molina-conacyt.htm
Insistió en la importancia de utilizar los avances de la ciencia y la tecnología actuales para afrontar el calentamiento del planeta hoy, pero también comento que es de vital importancia buscar nuevas alternativas basadas en el conocimiento para hacerlo en el futuro.
En México se deberían utilizar cada vez más las energías renovables, explorar el uso responsable de plantas nucleares, analizar la posibilidad de capturar e inyectar el bióxido de carbono (CO2) a los pozos petroleros y producir biocombustibles como el etanol, para reducir las emisiones de CO2 a la atmósfera y frenar el calentamiento del planeta.
“Si queremos seguir utilizando los combustibles fósiles, necesitamos inyectar el CO2 derivado de su uso a los pozos petroleros (para que no se acumule en la atmósfera), lo cual es posible, aunque incrementaría el precio de estos combustibles. En México ya estamos desarrollando, con PEMEX, programas pilotos para trabajar en esta alternativa; aunque existen otras, como el uso de la energía eólica y solar.”
Para los biocombustibles, el especialista marcó que si México decide explorar esta opción, debemos basarnos en la experiencia brasileña, no en la estadounidense.
“En Estados Unidos genera etanol a partir del maíz, pero si hacemos un balance detallado de este proceso resulta que no hay un beneficio para el medio ambiente desde el punto de vista de la reducción de CO2, pues se utiliza demasiado combustible fósil para generar etanol; a diferencia de Brasil, donde utilizan caña de azúcar.”
Pensando en el futuro, el doctor Mario Molina mostro firmeza en invertir más recursos en ciencia y tecnología para frenar el cambio climático, pues a largo plazo será más costoso que haber no actuado.
“Se necesita triplicar la inversión en ciencia y tecnología para detener cambio climático. De acuerdo con análisis económicos hechos en Reino Unido y Estados Unidos debería invertirse alrededor del uno por ciento del Producto Interno Bruto (PIB) mundial, lo cual es costoso, aunque el costo de no actuar podría ser mucho mayor, cercano al 15 o al 20% del PIB mundial, debido al incremento de sequías o inundaciones en el planeta”.
Para nuestro país propuso la creación un fondo para apoyar la investigación científica encaminada a desarrollar nuevos conocimientos y soluciones tecnológicas para atender el problema del cambio climático.
http://www.conacyt.mx/comunicacion/agencia/notas/MedioAmbiente/mario-molina-conacyt.htm
Subscribe to:
Posts (Atom)
NEODIMIO ¡no te lo pierdas!
-
De entre todos los compuestos químicos que existen, quizá sean los llamados compuestos de coordinación los que mayores dificultades ofrecen ...
-
Básicamente el video habla por sí sólo. Se tiene una cerveza fría líquida recién sacada del refrigerador o congelador, se le da un golpe y e...