miércoles, 4 de enero de 2017

Lenguaje: Programador primario del pensamiento.

La neurología y el lenguaje son áreas que hasta 1970 no habían tenido un sustento que los estudiara de manera científica en conjunto, pero ¿Cuál es la relevancia del estudio de la neurolingüística? Desde la perspectiva médica, es un gran apoyo al estudio de las afasias mentales, trastornos que afectan el lenguaje posterior a una lesión cerebral, pero más allá de ello, el lenguaje es una de las formas en las que el cerebro directamente expresa su configuración y por tanto su forma de procesamiento de información de manera más primordial y básica.
Se estima que alrededor de 7.000 idiomas diferentes se hablan en todo el mundo. El 90% de las cuales son hablados por menos de 100.000 personas. Solo en la India hay al menos 30 idiomas diferentes y alrededor de 2000 dialectos.

El conocimiento de nuestra realidad está sesgado al idioma que hablemos desde el momento en que comenzamos a hablarlo, pero ¿Por qué? El Dr. Alexander Luria, científico soviético (1902 – 1977), en su obra “Conciencia y lenguaje” explica que el lenguaje es un análisis de cómo se forma el reflejo inmediato de la realidad, de cómo el hombre refleja el mundo real en el cual vive, de cómo elaborar una imagen del mundo objetivo constituye una parte importante de la neuropsicología. También explica que el hombre está en condiciones de abstraer características aisladas de las cosas, captar los profundos enlances y relaciones en los que estas se encuentran. De esta forma esto se hace posible y constituye el capítulo más impórtate para las ciencias del estudio de la mente.
Pero ¿En verdad el lenguaje constituye alguna parte importante de la forma consciente de pensamiento? Para responder eso, habría que examinar culturalmente como surgió el lenguaje, cómo divergió y sentar conclusiones de si en verdad ello conlleva algo significante en la conciencia y conducta del individuo.
Tablillas sumerias grabadas , según estudios de Carbono 14 se pueden estimar en 5,500 de antigüedad aproximadamente.
Historia del lenguaje
Desde el 3,500 a.C. años se atribuye la escritura. Son las tabletas de piedra sumerias, encontradas en la Baja Mesopotamia las cuales tienen el registro más antiguo de ello, y aproximadamente para la misma época, en Asía, también había ya escritos en placas de piedra o huesos, pero es evidente el pensar que anteriormente ya se llevaba hablando mucho tiempo tal lenguaje escrito.
Si se quisiera hacer una indagatoria directa de cuál es el lenguaje más antiguo de la humanidad es inevitable caer en la idea Biblica del origen primero de la lengua. Según la Biblia, todos los hombres hablaban una misma lengua y empleaban las mismas palabras esto conllevo a que se pusieron de acuerdo para construir una torre que llegara al cielo, pero al ver su obra, Dios se ofendió por el orgullo y la insolencia de sus hijos y decidió confundirlos, cambiando sus lenguas. Ellos ya no pudieron entenderse y acabaron dispersándose por toda la Tierra. Este es el origen bíblico de los diferentes idiomas, pero ¿Qué tan real puede ser el que todas las culturas en algún punto de la historia hayan hablado el mismo idioma?
Representación artística de la Torre de Babel por Lucas Van Valckenborch.


Sir William Jones (1746 – 1794), lingüista e investigador de la antigua India del siglo XVI, considero esta una posibilidad tras estudiar más de 30 lenguas las cuales hablaba a la perfección y encontrar conexiones entre sanscrito, griego antiguo y latín. Además, encontró ligaduras entre el gótico, los lenguajes celtas (Breton, cornico, gales, entre otros) y el persa. Estos descubrimientos lo llevaron a la conclusión de que estas lenguas habían tenido un origen común, y aun cuando el descubrimiento de las familias Indoeuropeas les dejaría de ser atribuido tras investigaciones que muestran que Gaston-Laurent Cœurdoux (1691-1779), misionero Jesuita, fue el primero en encontrar estas conexiones, el trabajo de Sir William Jones fue uno de los más bastos en cuanto a la traducción de trabajos en lenguas Indioeuropeas.
Este “lenguaje madre” del cual Sir William Jones hablaba era muy parecido a lo que la Biblia menciona, aunque bastas investigaciones científicas realizadas, muestran que este proto-lenguaje no habría empezado en su totalidad con un grupo de personas en todo el planeta, sino que, tras la separación de las poblaciones que migraron, tanto al continente asiáticos, americano, y quienes permanecieron en África desarrollaron su lenguaje después de asentarse. Investigaciones concluyeron que existen 20 familias lingüísticas, a saber, indoeuropea, urálica, caucásicas, camito-semíticas, del Sudán, bantú, hotentotes, altáica, japonés, paleo siberiana, chino-tibetana, andamanésica, dravídicas, austro-asiática, malayo-polinésica, austrálica, vasco, coreano, esquimales y lenguas amerindias. De todas las anteriores, la familia más estudiada ha sido la Indoeuropea, de cuyo seno nace nuestro idioma español, desprendiéndose de la rama itálica al latín y posteriormente a ser una de las 8 lenguas llamadas Romances.

Papel de la lengua en la forma de pensamiento.

Ya conocemos de donde proviene el lenguaje y sabemos que las 20 familias lingüísticas que se consideran precursoras de las demás lenguas conocidos son distintas tanto en la forma fonética, lingüística, sintáctica y conceptual. Esto quiere decir, que entre estas 20 lenguas hay concepciones conceptuales que son entendidas de manera diversa entre ellas, lo cual, complica aún más su estudio, aunque genera en quienes entienden lenguajes ajenos al natal, nuevas formas de concepción de ideas.
Esta concepción de ideas genera modificaciones en las formas de pensamiento de las personas, ya que como explica A. Luria, el lenguaje es una forma de configuración en la que damos prioridad a un conepto sobre de otro de manera ordenada y sistemática.
Para poder entender mejor esta situación se hará una cita de varios ejemplos de interpretación lingüística que entre idiomas genera conceptos diferentes, esto en antropología es conocido como Etnociencia.
Representación artística del pensamiento y la interconexión de ideas por Rafael Castillo.
Un ejemplo es que los Hanunoo, una tribu nativa de Filipinas tiene nombre independiente para noventa y dos variedades de arroz, mientras que en el anglohablante los llamaríamos arroz a todos. Los hanunoo tienen un concepto de noventa y dos cosas distintas cuando nosotros como anglohablantes solo vemos una. El Ruso, por ejemplo, identifica más sombras que cualquier otro idioma, ya que para ellos no es lo mismo “azul claro” y “azul oscuro”, sino que son entidades independientes. El esquimal, tiene seis nombres para decir nieve, todas las cuales nosotros llamaríamos solo nieve. Por otro lado, en contraposición a estas ideas se tiene también que nosotros distinguimos entre Ford, Chevrolet, un Toyota y muchas marcas y modelos, mientras que los Hanunoos y los esquimales solo los llamarían autos.

Los Hanunoo, una tribu nativa de Filipinas, imagen por National Geographic.
Citando al etnólogo Roger Brown: “Los hallazgos de la etnociencia y la semántica comparativa sugiere que es algo raro encontrar una palabra en un idioma que sea equivalente exacto respecto a otra palabra, en un idioma no relacionado. Si cada léxico es considerado como una plantilla impuesta en una realidad común, estas plantillas no coinciden. Al nivel gramatical, las diferencias de significado entre idiomas son más importantes y probablemente de mayor significancia”.
Por ende se puede asumir que el comportamiento con respecto al entorno será diferente según el lenguaje del habla del individuo, es decir, alguien hablante del español o japonés, cuyo lenguaje no genera culpa directa sobre las acciones generadas (ejemplo: El vaso se rompió), asumirá inconscientemente que la acción no fue deliberada absteniéndose de la culpa. Contrario a los países nórdicos en los cuales el lenguaje señala específicamente el sujeto de la acción y genera un vínculo.
La educación publica en Finlandia tiene el título de la mejor del mundo según el examen PISA realizado en el año 2015.


En castellano es bastante difícil imaginarse tener una conversación sin definir el género. El idioma está fundado en “hombres” y “mujeres”, sustantivos “masculinos” y “femeninos”, mientras que, en países como Finlandia, país conocido por su seguridad, excelente calidad educativa y políticas progresistas, el finés es el idioma natal, un idioma neutral en términos de género, por ejemplo, no existen pronombres que se refieren a esto. Es por esta razón que la palabra “él” o “ella” no existe en finés, simplemente se usa “hän” para referirse tanto a mujeres como hombres los que psicológicamente da pie a una equidad sobreentendida, posteriormente en la escuela les es explicada a sus alumnos las diferencias entre hombre y mujer hasta la edad de 4 años.


En conclusión

Es definitivo que nuestro lenguaje ejerce un punto de referencia de nuestros pensamientos, el enfoque de la vida que tenemos y es la estructura primordial de respuesta a nuestro entorno.
Es inevitable que esta situación sea pasada por alto, ya que al final es nuestra lengua lo que nos forma como personas en primera instancia, y la pérdida de ella nos desidentificaría, pero no por ello hay que permitir que nuestro idioma tome posesión de lo que conscientemente se puede hacer con él. Hay que darle el lugar que merece a cada uno y evitar que los “huecos de la lengua” se vuelvan ideas erróneas de entender la realidad. No demos nuestro idioma por sentado, ni mucho menos sintamos que al estudiar otro idioma se toma una decisión de solo aprender a entender a otros, sino como una forma diferente de ver el mundo, a través de los ojos de otra cultura.
Por: @SaulDLP


También puede interesarte | Energías renovables, un futuro fotovoltaico.

__
Fuentes bibliográficas:
– A.R. Luria., Conciencia y Lenguaje, Visor Libros, Pp (10-46), año 1984.
– Mœurs et coutumes des Indiens. Ed. N.-J. Desvaulx. 1777
– Hooper E. H., Hugh Chisholm., Encyclopædia britannica (edición de 1911).
– Moreno Cabrera, Juan Carlos. Lenguas del Mundo. Visor. Madrid. 1990
– Stephen A. Grunlan, Marvin K. Mayers. Antropología Cultural: Una perspectiva cristiana. Editorial Vida (1997)

viernes, 16 de diciembre de 2016

Esperanza de vida; mermada por la contaminación urbana


La contaminación del aire es uno de los principales problemas medio ambientales a tratar y solucionar en la época actual, aqueja a muchas partes del mundo y es la responsable de que anualmente cerca de 5.5 millones de personas pierdan la vida, convirtiéndola no sólo en una problemática ambiental, sino en una problemática de salud pública. Actualmente cerca del 50 % de las personas en el mundo viven en zonas urbanas, donde la contaminación del aire es diaria, constante, y cada día mayor, y se espera que para el 2030 el 70% de la población mundial se concentre en las zonas urbanas del mundo.


Investigadores del ISGlobal en colaboración con el MED-HISS, realizaron un experimento en España, donde aproximadamente en 2138 pequeñas áreas de 16 km2 se tomaron los datos de mortalidad de los años 2010 al 2013; también se  tomaron los niveles de concentración de óxido de nitrógeno, y de ozono (este último a nivel de suelo) por su directa relación que tienen en los daños a la salud por su exposición a concentraciones altas, o por su exposición constante en zonas urbanas. Para poder determinar el lugar idóneo para vivir sin el riesgo de sufrir los desgastes que provoca la contaminación urbana, los investigadores utilizaron las regresiones lineales para de esta manera poder ligar diferentes factores que intervienen en la esperanza de vida como: enfermedades respiratorias, el nivel socioeconómico y la exposición a contaminantes que sufrían los individuos en cada una de las áreas respectivamente.

Los resultados que se arrogaron fueron los esperados, ya que la relación entre el nivel de concentración del óxido de nitrógeno y el ozono, en todos los casos, estaba ligado a una baja en la esperanza de vida de los individuos estudiados. Esto alertó seriamente a los científicos, ya que al analizarse los datos se llevaron la sorpresa de una posible baja de hasta 3.8 años en la esperanza de vida de una persona adulta sólo por la exposición a niveles  poco más altos de los normales de estos dos gases (NO2 y O3). Y aunque aún no se tienen los niveles máximos recomendados,  esto  llegó a provocar una reacción de advertencia por parte de los científicos, los cuales aseguran que la contaminación urbana debería de ponerse en primer plano y ser una preocupación de higiene pública mayor.


Respecto a las áreas verdes que se ubicaban en las zonas estudiadas, y dado que se consideraban un posible factor de mejoramiento en la vida de los individuos estudiados, se planteó la hipótesis de que podrían reducir en cierta manera el daño de los contaminantes a la salud de las personas y por lo tanto disminuir el efecto que éstos tienen en la baja de la esperanza de vida, sin embargo los resultados no fueron alentadores: sólo en zonas con muy bajo estatus socio económicos se vieron mejorías  y una menor reducción a la esperanza de vida cuando se encontraban áreas verdes en ellas.Sin embargo los investigadores encontraron que hay un tiop de zonas donde este tipo de contaminantes no afectan de igual manera debido a la cantidad de zonas verdes: Las zonas rurales; así que ya sabes, si quieres librarte de los contaminantes urbanos y prefieres un poco más de vida, una cabaña en el bosque no te vendría mal.


Es importante el tomar cartas en el asunto, darnos cuenta que el uso masivo de automóviles,  camiones, o cualquier otro artefacto que utilice combustibles fósiles, no sólo contribuye al calentamiento global, sino que contribuye a una baja en nuestra esperanza de vida.

Escrito por: Alex


Más material: Materia Gris

Fuentes bibliográficas:

de Keijzer C, Agis D, Ambrós A, Arévalo G, Baldasano JM, Bande S, Barrera-Gómez J, Benach J, Cirach M, Dadvand P, Ghigo S, Martinez-Solanas È, Nieuwenhuijsen M, Cadum E, Basagaña X; MED-HISS Study group. The association of air pollution and greenness with mortality and life expectancy in Spain: A small-area study. Environ Int. 2016 Nov 18. pii: S0160-4120(16)30755-3. doi: 10.1016/j.envint.2016.11.009.

jueves, 15 de diciembre de 2016

Nanotubos de Carbono. Nuevas Investigaciones y Tecnologías.

Se le atribuye oficialmente a Sumio Iijima, en 1968  los nanotubos de carbono, que son una forma alotrópica del carbono, como el diamante, el grafito o los fullerenos. Su estructura puede considerarse procedente de una lámina de grafito enrollada sobre sí misma. Aunque según algunos antecedentes históricos, los nanotubos de carbono habrían sido descritos desde 1889 por Hugues y Chambers quienes patentaron en Estados Unidos la fabricación de filamentos de carbono utilizando como gases precursores hidrógeno y metano en un crisol de hierro. 

Se le atribuye, por otro lado una fibra de carbono que fue preparada por Thomas Alba Edison en su búsqueda para encontrar un filamento incandescente para lo que después se conocería como foco. También 1892 Edison patentó su proceso para la producción de fibras de carbono en forma de bobina a partir de la pirolisis, que es un proceso causado por el calentamiento a altas temperaturas en ausencia de oxígeno de tallos de algodón y bambú, los cuales se convertían en filamentos muy resistentes de carbón que podían ser calentados por corriente encontrada (ohmnicamente). Por su parte, Schützenberger y Pelabon en 1890 y 1905 respectivamente, estudiaron filamentos de carbono mediante crecimiento de vapor producidos por la descomposición térmica de hidrocarburos. Y como esas las historias siguen y siguen, pero gracias a toda esa contribución del estudio de este alotropo de carbono enrrollado se fueron encontrando cualidades físicas que desarrollarían posteriormente la tecnología a pasos agigantados. 

Fig. 1- Imagen de nanotubo de carbono obtenida por Oberlin y col. 
                                                  En 1976
El desarrollo de los nanotubos de carbono de una sola capa o Single Wall Carbon Nanotubes (SWCNT) se vería oficialmente hasta los años 70’s que fue la década en la que el estudio de este comenzó a partir de distinto precursores (hidrocarburos o bióxido de carbono) y catalizadores de síntesis metálicos (Fe, Ni, Co, etc.).  Los SWCNT fueron presentados en un documento por Oberlin,  Koyama y Endo quienes presentaron lo que ahora se conoce como CVD (Deposición química de vapor por sus siglas en inglés) un proceso que hasta el día de hoy es uno de los más eficientes (para uso de laboratorio) que existe.



Sintensís de CNT’s (Carbon Nanotubes)

Hay múltiples métodos de síntesis, cada uno generando un producto muy diferente en cuanto a cualidades físicas como en composición, algunos métodos como el método de Descarga de Arco, creada en 1991, funcionan mediante la aplicación de altas corrientes eléctricas y pueden generar nanotubos de forma masiva, aunque con un rango de producción de alrededor del 30% no llega a satisfacer la necesidad del mercado actual. Y aun cuando en 1992 Ebbesen, desarrollo un método de purificación, no  se ha logrado un gran avance mediante esta técnica.

Otros métodos llevan el uso de láser para atacar un medio de grafito (si, como el de tu lápiz), en un medio con hidrocarburos, lo cual genera el asentamiento de los nanotubos en placas de metales aledaños, pero ya sea mediante laser, por deposición o descargas eléctricas, los nanotubos en sí mismo, guardan propiedades que no dependen solo de su síntesis sino de su forma estructural resultante.  


Fig. 2- Comparativa de métodos de síntesis de: arco descarga, abrasión láser y deposición de vapor, con observaciones y rendimiento de cada  proceso.

Tecnologías con CNT’s y propiedades.

Las aplicaciones de los nanotubos de carbono por sus propiedades son muy diversas, desde la nanoelectrónica hasta la biomedicina. Algunas de sus propiedades más importantes podrían considerarse: resistencia mayores a las los aceros de alta resistencia; su densidad, menor que la del aluminio; transmisión de calor mayor a la del diamante; estabilidad térmica mayor a los 2800°C que equivale casi al triple de la alcanzada por los materiales utilizados en los microchips actuales (resistencia aproximada: 600°C a 1000°C). Todas estas capacidades que parecieran de un supermaterial, son las que se han intentado explotar en la tecnología desde hace aproximadamente 10 años.

Fig. 3 -  Representación de pantalla flexible a base de CNT’s en una base de polímero regular.

Con la creación de transistores y pantallas a base de nanotubos de carbono solo hacía falta la generación de capacitores (centros de almacenamiento de energía) flexibles para la aplicación.

Actualmente un equipo del Instituto Tecnológico de Nueva Jersey (NJIT) ha desarrollado una batería flexible para dispositivos móviles que utilizan nanotubos de carbono. En lugar de utilizar una técnica de impresión electrónica costosa para las baterías flexibles, como algunas pruebas de concepto anteriores, los investigadores NJIT han adaptado arquitecturas estándars de baterías electroquímicas a los materiales flexibles. La base de la batería es simplemente un plástico flexible, pero los nanotubos de carbono y otras nanopartículas sirven como componentes activos en la batería. El cátodo, ánodo, e incluso el electrolito se componen de nanopartículas en una pasta semi-sólida. 

Como esta, hay muchas aplicaciones de miniaturización de componentes en la electrónica que prometen modificar la forma en la que nos relacionamos con la tecnología y con nuestro exterior en general. 

Fig. 4 – Mucha de la base en la tecnología con nanotubos de carbono es el plástico flexible que ha llevado a la fabricación de pantallas de televisores, teléfonos, tabletas, etc. 
Si te interesa saber más sobre estos increíbles nanomateriales que prometen cambiar por completo nuestro panorama, te dejamos algunas notas relacionadas que se han compartido anteriormente en Materia Gris, página de divulgación relacionada estrechamente con la nanotecnología y sus ramas de investigación.

Nanotubos de carbono con agua como posible sistema de enfriamiento, (el agua permanece congelada dentro de ellos aún a mas de 100°C) "


Fuentes bibliográficas: 



T.V. Hughes and C. R. Chambers, U.S. Patent 405480, June 18, 1889.

T.A. Edison, U.S. Patent 470925, March 15, 1892.

P. Schützenberger and L. Schützenberger, C. R. Séances Acad. Paris 111, 774 (1890).

T. Koyama and M. Endo, “Structure and Growth Process of Vapor-Grown Carbon Fibers”, Japanese Journal of Applied Physics 42, 690-696 (1973).


T. Koyama, M. Endo and Y. Onuma; “Carbon Fibers Obtained by Thermal Decomposition of Vaporized Hydrocarbon”, Japanese Journal of Applied Physics 11, 445-449 (1972).


T. W. Ebbesen E. And P. M. Ajayan, “Large-scale synthesis of carbon nanotubes”, Nature 358, 220- 22 (1992)


 T. Noda, “Chemistry and Physics of Carbon”, Carbon 10, 2, 239-241 (1972).

 M. Endo, T. Koyama, Y. Hishiyama, “Structural Improvement of Carbon Fibers Prepared from Benzene” Jap. J. Appl. Phys. 15, 2073–2076 (1976).

miércoles, 14 de diciembre de 2016

Energías renovables, un futuro fotovoltaico

Controlada por una industria que anualmente genera unos 1,600 millones de dólares, la energía eléctrica se ha convertido en un recurso del cual dependemos actualmente para nuestra industria y para nuestro hogar, y aunque fue a finales del siglo XIX cuando la electricidad empezó a colocarse en este lugar que hoy ocupa en nuestras vidas, su manera de producción no ha variado mucho en el último siglo; turbinas movidas por vapor de agua, el cuál es generado por grandes calderas impulsadas por combustibles fósiles, ha sido la manera en que las compañías eléctricas ahorran presupuesto y generan la electricidad a “bajos costos”.

Pero como todos sabemos, este tipo de producción genera grandes contaminantes a la atmósfera, lo cual a la larga perjudica nuestro planeta, y se crea o no, nos genera mayores costos. Sin embargo, en las últimas décadas los científicos a través de sus investigaciones han desarrollado diferentes métodos para la producción de energía eléctrica que se podrían considerar “limpios”. Sin embargo estos métodos, no han logrado tener el impacto que se desearía, porque si bien se tiene una producción “limpia”, esta producción es muy poco eficiente, o en algunos casos en que la eficiencia ha dejado de ser un problema (celdas fotovoltaicas a base de silicio), su producción es demasiado cara lo cual deja este tipo de productos fuera de alcance para la mayoría de las personas.


Pero esta suerte está por cambiar, ya que en años recientes una nueva celda solar ha llegado al marco de investigaciones internacionales mostrando un futuro muy prometedor. Las celdas solares Perovskita, son celdas fotovoltaicas que imitan la forma cristalina que la perovskita toma en su estado natural, y que, con otros componentes necesarios para la conducción de corriente, se obtiene una celda con una eficiencia muy alta y con un precio de producción demasiado bajo, el cual la podría posicionar como una nueva fuente de producción de energía barata.

Esta nueva celda fotovoltaica fue creada en el año de 2009 en la Universidad de Toin Yokohama, teniendo como eficacia inicial apenas un 3.8% y teniendo avances en años posteriores, que hicieron que tuviera una eficiencia del 20.1%, este último récord alcanzado por el Instituto de Investigación en Tecnología Química. Pero en este último semestre de año, recientes investigaciones realizadas por el Laboratorio Nacional de Energía Lawrence Berkeley (Energy’s  Lawrence Berkeley National Lab), han descubierto una manera de incrementar de manera radical la eficiencia que las celdas.

Con ayuda de microscopios electrónicos, este grupo de investigación logró darse cuenta que la perovskita en la celda solar, contiene ciertos “granos” de 200 nanómetros de largo, y que éstos tienen ciertas fases (propiedades físicas) las cuales muestran una posible mejoría en la eficiencia de conversión de la luz solar a energía eléctrica. Se cree que con esta nueva investigación, al aplicarse en el momento de la síntesis (obtención de la celda solar) se pueda obtener hasta un 31% de eficiencia, superando incluso a las celdas solares hechas de cristales de silicio.


Esto combinado con sus bajos precios de producción (casi de medio dólar por celda) y su fácil producción, posiciona a esta nueva celda fotovoltaica como una de las favoritas a sustituir a las celdas comunes hechas de silicio, las cuales necesitan controles muy específicos a la hora de producción, lo cual sube los precios, y genera que sean poco accesibles, y más cuando se tienen ingresos económicos muy bajos.

Sólo falta esperar a que este tipo de tecnolgía se vuelva comercial, para poder tener una forma económica de ayudar a nuestro planta, y ¿por qué no? a nuestro bolsillo.


Escrito por: Alex

Referencias bibliográficas:
https://newscenter.lbl.gov/2016/07/04/perovskite-solar-cells/
http://www.investigacionyciencia.es/revistas/investigacion-y-ciencia/numero/468/placas-solares-de-perovskita-13450


miércoles, 7 de diciembre de 2016

El origen del Párkinson puede estar en el intestino.

Una enfermedad de la cual casi no se habla, pero que es terrible, tanto para los que la sufren, como para los familiares de los enfermos, es el mal de Párkinson. Una enfermedad neurodegenerativa que causa, temblores, problemas motrices, problemas de coordinación, lentitud, y otros problemas que llevan a que el enfermo pierda calidad de vida, ya que no sólo son los problemas musculares visibles, puesto que esta enfermedad arrastra problemas más profundos, que pueden incluso llegar a la muerte.


Hasta hace poco, nadie conocía la o las  causas de esta enfermedad,  y aunque se conocía que la edad era un factor que intervenía, así como el estilo de vida de las personas y lesiones nerviosas, no se conocía  en sí la causa principal que desencadenara en el Párkinson. No fue hasta hace poco que en la revista Cell, se dio a conocer los resultados de ciertas investigaciones llevadas a cabo por un grupo de científicos estadounidenses, en las cuales se analizaron un grupo de ratones con el mal de Párkinson, o con cierta predisposición genética a sufrirlo. En sus resultados se encontró cierta relación entre la población de ratones que estaban enfermos de Párkinson, o que estaban genéticamente dispuestos a sufrir esta enfermedad, y cierto tipo de bacterias hospedadas en el tracto digestivo de los ratones.

Este grupo de investigadores del Instituto de Tecnología de California, mostró que al tratarse a estos animales con antibióticos, éstos mejoraban considerablemente respecto a sus problemas motrices, además de que en ratones donde todavía no se desarrollaban los síntomas, evitaron que se generara la enfermedad pese a la disposición genética. Por otro lado, se mostró que el trasplante de bacterias de los intestinos de ratones enfermos con Párkinson, a otros ratones enfermos, provocaba una intensificación en sus síntomas.


Gracias a esto se ha podido dar una relación de la flora intestinal con esta enfermedad, y de alguna manera ayudar al tratamiento de la misma, la cual actualmente afecta aproximadamente a 6.5 millones de personas en el mundo, la mayoría personas de tercera edad, provocando una decadencia en su estilo de vida, y una temprana dependencia sólo por este problema de salud

Es importante señalar, que aunque se pudo probar que con el uso de antibióticos los ratones mejoraban, aún en humanos no es posible llevarse a cabo ese tipo de tratamientos, pues son muy riesgosos para la salud. Sólo queda esperar a que se pueda encontrar una manera mucho más viable de poder tratar este mal, que de primera instancia, ya se conoce la causa principal.


Fuentes:
http://www.cell.com/cell/fulltext/S0092-8674(16)31590-2

Escrito por: Alex

viernes, 11 de noviembre de 2016

Políticas medioambientales en peligro de extinción.

Tras el triunfo del candidato republicano Donald Trump, muchas cosas se han puesto en discusión en cuanto a las políticas exteriores que tendrá ahora Estados Unidos. Este artículo se enfocará en una parte que ha generado polémica desde el 26 de Septiembre, día en que el ahora presidente electo, escogió a Myron Ebell entre su equipo de transición para dirigir la EPA, Agencia de Protección Ambiental por sus siglas en inglés. (Scientific American, 26 de septiembre)


Estados Unidos ha reducido la contaminación por CO2 más que cualquier otro país aún sin un compromiso fuerte en este aspecto. En 2009 el gobierno de Obama prometió reducir estas emisiones en 17% de los niveles de 2005 para 2020. Emisiones de CO2 en 2015: 5,8 mil millones de toneladas anuales.

Myron Ebell, actual director del Centro de Energía y Medio Ambiente en la Competitive Enterprise Institute, conocida por su conservadurismo y políticas ambientales polarizadas, está encabezando los planes de transición de la EPA. Pero ¿Quién es Myron Ebell?

Ebell es una figura pública conocida y polarizante en materia energética y medioambiental, el cual se ha manejado de manera  escéptica y ha llamado “alarmistas” a aquellos que han asumido el compromiso de hacer reversible el cambio climático y llevar a cabo disminuciones en las emisiones de carbono por lo que supone un cambio radical en la política de protección ambiental implementada por Obama en el pasado. 
Myron Ebell y Donald Trump, ambos creen que el calentamiento global no es real, y no solo eso, sino que creen que es un mito creado por los chinos (Puede corroborase en el timeline de su twitter), por lo que consideran que no es algo con lo que Estados Unidos deba abordar de alguna forma. El mismo Ebell preside la Cooler Heads Coalition, un grupo que lucha contra aquellos que denominan con alarmistas del calentamiento global.

Este grupo en su sitio web: http://www.globalwarming.org/ explica que se centran en “disparar los mitos del calentamiento global mediante exposiciones y análisis científico del riesgo económico fallido que genera”. Ebell concede que el planeta se ha vuelto más cálido en los últimos años pero, él piensa que esto es normal y que los científicos están reaccionando de manera alarmista
Tablas de concentración de CO2 en PPM en la atmósfera y flujo de carbono por consumo de combustible fósil. Las principales causas del desequilibrio climático en el planeta.

Cuando se le entrevisto en la revista Vanity Fair, y se le comentó sobre su punto de opinión sobre las medidas a tomar ante el calentamiento global a lo que textualmente contesto: “Ha habido un poco de calentamiento, pero ha sido muy modesto y bien dentro del rango de variabilidad natural, y si es causado por los seres humanos o no, no es nada de qué preocuparse”.

Estas palabras eran pronunciadas mientras que en el 2016 se registraba la temperatura más alta durante los 6 meses iniciales del año, del cual se llegó a su climax en julio, mes en el cual se registró una media mundial de 1,98° por encima del promedio del siglo XX. Este valor, empata con 1998 como la temperatura global de la tierra más alta de julio desde que se tienen registros. Por su parte, la media mundial en la superficie del mar fue de 1,42° C por encima de la media mensual del siglo XX, pasando por encima del record establecido el año anterior. Además, con Julio, ya son 15 meses consecutivos con temperaturas al alza que están pulverizando los registros.

Por otro lado, los puntos de vista de Ebell parecen cuadrar con Trump cuando se trata de la agenda de la EPA. Trump ha llamado al calentamiento global “patrañas” y ha dicho que “cancelará” el acuerdo global de París, que hasta hace pocos meses pasó a ser ratificado ante más del 55% de los gobiernos emisores de la mitad del carbono a la atmosfera. Así como menciono que haría retroceder las acciones ejecutivas del presidente Obama sobre el cambio climático.

Y así como Ebell, otros funcionarios del nuevo gabinete han sido investigados exhaustivamente tras la victoria del candidato republicano, dejando ver que sus equipos de trabajo son muy congruentes con sus puntos expuestos en campaña. Ebell, así como otros funcionarios de su gabinete, evitaron dar explicaciones o hacer comentarios.
Esperemos que se tomen las medidas necesarias para el favorecimiento de la salud del planeta y esperemos que, ya sea en senado, congreso, o algún lugar de la Casa Blanca, haya una voz que pronuncie palabras con razonamientos necesarios o pertinentes a la situación climática actual, por el bien de nuestro planeta.


En Materia Gris Un Ártico cada vez más verde

Por: @SaulDLP

__



jueves, 6 de octubre de 2016

Premio Nobel 2016.

En esta última semana se han presentado los ganadores del premio Nobel de Medicina, Química y Física, todos mostrando los avances en campos novedosos de la ciencia y la tecnología que nos han llevado desde la autofagia celular hasta nanocarreras. A continuación te presentamos las novedades en la entrega de este premio.


Premio Nobel de Medicina: Yoshinori Ohsumi, dilucidación de mecanismos de autofagia celular.   

Las células del cuerpo humano eliminan y reciclan sus residuos como suele hacerse en los hogares y en las ciudades: los empaquetan en pequeñas bolsas y los llevan a una planta de reciclaje. Por haber descubierto cómo funciona este mecanismo de limpieza celular, técnicamente llamado autofagia, al biólogo japonés Yoshinori Ohsumi sido reconocido con el premio Nobel de Medicina 2016.
Comenzando en 1960 el campo de la autofagia era dilucidado entre la comunidad cientidica, pero fue hasta 1990, utilizando levadura que lograron identificar los genes esenciales que definían el proceso, fue entonces que se comenzaron a examinar los mecanismos.
Se demostró tras sus investigaciones, que el mal funcionamiento en los genes que marcan el mecanismo de autofagia se relacionaba con padecimientos como el mal de Parkinson, la diabetes tipo 2 y el cáncer.

Te dejamos un link a un clip informativo: https://www.facebook.com/GreyMatterLab/?ref=aymt_homepage_panel

Premio Nobel de Física: David Thoukess, Duncan Haldane y Michael Kosterlitz, estados topológicos de la materia.

Según el veredicto del jurado, han obtenido el galardón “por descubrimientos teóricos de transiciones de fase topológicas y estados topológicos de la materia”. Sus descubrimientos se han basado en materiales de dos dimensiones que, a bajas temperaturas, exhiben propiedades contraintuitiva, como lo son la superfluidez o superconductividad.


Thomas Hans Hansson, miembro de la Academia de Ciencia Sueca, explica que es la topología con un pretzal al anunciar el Nobel de Física (Tt News Agency / Reuters).



Premio Nobel de Química: Jean-Pierre Sauvage, Fraser Stoddart y Bernard Feringa, producción de máquinas moleculares.

Los investigadores han desarrollado moléculas con movimientos que pueden ser controlados, que pueden llevar a cabo tareas con solo proporcionarles energía. El trabajos de los tres “demuestra cómo la miniatuzación de la tecnología puede conducir a una revolución”, según ha indicado la Academia en un comunicado. “Los galardonados con el Nobel de Química de 2016 han miniaturizado máquinas y han llevado la química a una nueva dimensión”.

Las aplicaciones son inumerables e inimaginables, según se ha señalado por Feringa en la ceremonia. “Me siento como los hermanos Wright cuando volaron por primera vez hace un siglo y la gente les preguntaba que para que se necesitaba una maquina voladora”, ha declarado el investigador de la universidad de Groninga. “Piensa en robots diminutos que los médicos, en el futuro, inyecten en tus venas ara que vayan a buscar células cancerosas” ha puesto como ejemplo.
Sauvage fue pionero en 1983, cuando enlazo dos moléculas con forma de nillo formando una cadena, denominada catenano. Normalmente las moléculas se unen con enlaces covalentes, pero en el cateno de Sauvage estaban entrelazadas mecánicamente. El segundo paso, continúa el comunicado oficial, lo dio Fraser Stoddart, profesor de la Universidad Northwestern (EE UU), en 1991, al desarrollar un rotaxano, una arquitectura molecular similar a un anillo atrapado en el interior de una mancuerna de gimnasio. Demostró que el anillo se podía mover por ese minúsculo eje molecular con topes. A partir del rotaxano, Soddart desarrolló "músculos moleculares" y "chips informáticos basados en moléculas", según destaca la Academia.
Por último, holandés Bernard Feringa, fue el primero que construyó un motor molecular. En 1999, logró una pala de rotor molecular que giraba continuamente en la misma dirección, cuando los científicos le proporcionaban luz ultravioleta.
"Utilizando motores moleculares, ha rotado cilindros de vidrio que son 10.000 veces más grandes que el motor y también ha diseñado un nanocoche", detalló la Academia. Este nanocoche, fabricado en 2011 por el equipo de Feringa, consiste en cuatro ruedas formadas por moléculas que giran, unidas a una especie de chasis molecular.
El campo de investigación reconocido con el Nobel está en plena expansión. El próximo 14 de octubre iba a comenzar la NanoCar Race, la primera carrera internacional en la que participan nanocoches diseñados por diferentes equipos científicos del mundo. La competición, que se iba a celebrar bajo un potente microscopio de Toulouse perteneciente al Consejo Nacional de Investigación Científica francés, se ha pospuesto por consenso para optimizar el aparato y las máquinas moleculares. El ímpetu en los competidores por el estimular el avance en esta rama de estudio con el apoyo de esta competencia luce muy bien para su desarrollo.

Nobel de Química. Anuncio del premio en la Real
Academia de las Ciencias de Suecia.

Aún faltan por presentarse premios, posponiéndose hasta la esta semana el premio Nobel de Literatura y Paz. ¿Qué tal te parecieron las investigaciones aclamadas? ¿Te sorprendieron? Bueno, pues como extra y último, te presentamos los NanoCar Race, por si todo lo anterior no te sorprendió:


Mas información sobre la NanoCar Race aquí: http://nanocar-race.cnrs.fr/indexEnglish.php



Por: @SaulDLP


__
Fuentes bibliograficas:



-http://elpais.com/elpais/2016/10/05/ciencia/1475660117_464770.html