jueves, 27 de diciembre de 2007

EL CUARTETO DE LA MUERTE


La energía solar que llega a la Tierra se invierte, durante el día, en calentar al planeta; sólo un escaso 0.3% se utiliza en el proceso de fotosíntesis vegetal. La Tierra se enfría durante la noche emitiendo radiación térmica al espacio que la envuelve. A lo largo de millones de años, este proceso sufrió escasas perturbaciones y el planeta mantuvo una temperatura media aproximadamente constante, con ligeras oscilaciones debidas a variaciones en la inclinación del eje solar.

A partir de la Revolución Industrial, el aumento en la concentración en la atmósfera de dióxido de carbono (CO2) y de otros gases contaminantes provenientes, fundamentalmente, de procesos industriales comenzaron a crear una pantalla para la radiación térmica, dando como resultado un lento pero inexorable aumento de la temperatura media terrestre. El Efecto Invernadero rompe el delicado equilibrio entre la energía que recibimos del sol y la que devolvemos al espacio que nos rodea. Numerosos científicos concuerdan que tal efecto es el principal responsable del aumento en el número de catástrofes naturales que están asolando nuestro habitat.

El dióxido de carbono es indudablemente el “malo de la película”. Para alertar sobre el efecto invernadero basta con mostrar las nubes oscuras que emergen de las chimeneas de las fábricas o de los gases de escape de autos embotellados en las megaciudades que siguen creciendo en el siglo XXI. Pero el CO2 no es el único malvado y en algunos aspectos no es el peor de todos.

La Agencia de Protección Ambiental (EPA, Environmental Protection Agency) de los Estados Unidos utiliza un parámetro denominado Potencial de Calentamiento Global (GWP, Global Warming Potencial) para cuantificar el daño que producen los gases de efecto invernadero. El GWP mide la cantidad de calor que es atrapado por una molécula de un determinado gas dividido por la cantidad de calor que atrapa una molécula de CO2.

El gas metano tiene un GWP de 21, lo que significa que es 21 veces más eficiente que el CO2 en retener calor e impedir que el mismo vuelva al espacio. Por lo tanto, si bien el CO2 representa el 85% del total de los gases contaminantes y el metano sólo el 8%, la mayor efectividad de éste último en prevenir el escape de la radiación infrarroja lo convierte en un problema a resolver con la misma celeridad que la relacionada con el CO2. Otro importante aspecto a tener en cuenta es la “vida útil” en la atmósfera de cada uno de los gases de efecto invernadero: aquí la ventaja es para el metano con 12 años de permanencia en la atmósfera, mientras que el dióxido de carbono puede permanecer entre 50 y 200 años.

¿Cuáles son las principales fuentes generadoras de metano?. Sólo un 60% se debe a la acción del hombre: descomposición de basura en rellenos sanitarios, producción de gas natural, minas de carbón; los excrementos del ganado son la mayor fuente no antropogénica de producción de metano. Todo parece indicar que parte del problema podría resolverse utilizando la descomposición de la basura para generar electricidad y modificando las “pautas alimenticias” del ganado para que sus excrementos sean más tolerados por nuestra atmósfera.

El tercero en la lista de “gases malvados” es el óxido nitroso; se trata del gas hilarante que usaron los dentistas como primeros analgésicos (ver en este blog el post titulado “Soñando con los angelitos”). Si bien representa sólo el 5.5% del volumen de gases de efecto invernadero generados en los Estados Unidos y sólo el 40% del mismo se debe a actitudes antropogénicas (su principal fuente la constituyen ciertos fertilizantes agrícolas), su GWP es de 310 y su vida en la atmósfera redondea los 120 años.

El “cuarteto de la muerte” se completa con el hexafluoruro de azufre (SF6); su GWP asusta: una molécula de SF6 tiene una capacidad de retener calor 23900 veces más que una molécula de CO2 y los 3200 años que dura en la atmósfera lo convierten, sin lugar a dudas, en el enemigo público № 1. Para detenerlo habrá que “convencer” a los fabricantes de obleas semiconductores o a quienes trabajan con magnesio fundido que ya es hora de buscar un sustituto que no perjudique a nuestro hermoso planeta azul.

viernes, 21 de diciembre de 2007

UN PROFETA DEL APOCALIPSIS


El Dr. Richard Duncan, ingeniero electricista y autonombrado Director del Instituto sobre Energía y el Hombre postula, nada más y nada menos, que la civilización industrial está por colapsar. Tal colapso tiene un nombre: Teoría Olduvai; también tiene una fecha: es el año 2030.

La Teoría Olduvai establece que la esperanza de vida de la sociedad industrial es de aproximadamente 100 años y corresponde al período 1930 – 2030. El parámetro crucial en la teoría es la producción de energía per capita (e), lógicamente definida como el cociente entre la producción mundial de energía y la cantidad de habitantes que hay en el planeta.

Duncan utiliza como datos a series de tiempo que muestran la evolución de la población y de la producción mundial de energía en los últimos doscientos años. Para las cinco principales fuentes de energía (petróleo, gas natural, carbón, nuclear e hidroelectricidad) encuentra las siguientes tendencias:

1.- la producción mundial de petróleo creció exponencialmente desde 1833 hasta 1970; a continuación se sucedieron períodos de crecimiento lineal o de decrecimiento entre los años 1970 al 2003.

2.- la producción de gas natural se inicia en el año 1880 y crece exponencialmente hasta 1970; es seguida de un crecimiento lineal hasta el año 2003.

3.- tomando como punto de partida la invención de una máquina de vapor por Savery alrededor del año 1700, la producción mundial de carbón indica un crecimiento exponencial hasta 1909; a continuación se suceden intervalos de crecimiento lineal o de decrecimiento hasta el año 2003.

4.- la generación de energía eléctrica mediante centrales nucleares comienza en 1955 y crece exponencialmente hasta 1975; a continuación se observan tres intervalos de crecimiento lineal y decrecimiento entre 1975 y 2003.

5.- la energía hidroeléctrica comienza en las Cataratas del Niagará (EE.UU.) en el año 1890; crece exponencialmente hasta 1972, linealmente hasta el año 2000, cuando comienza a decrecer.

Resumiendo para las cinco fuentes de energía, Duncan muestra que la producción mundial de energía creció exponencialmente entre 1700 y 1909 y entre 1945 y 1970. Creció linealmente al 2.2% anual entre 1909 y 1945 y al 3.5% anual desde 1970 a 1979. A partir de 1979, el crecimiento es también lineal pero sólo al 1.5% anual.

Cuando tales valores de producción energética se dividen por la población mundial de cada período, se obtienen pautas de crecimiento de la energía total per capita (e) similares a los números anteriores, excepto que en el período 1979 – 2003 el valor del parámetro es igual a 0.0%. En síntesis, el valor de e venía creciendo, tuvo su máximo entre 1945 y 1970 y ahora, por primera vez en la historia de la civilización industrial, no crece el consumo energético mundial per cápita. Los últimos cálculos de Duncan establecen que el decrecimiento del valor de e comenzará en el año 2008; es el preanuncio del final de la civilización industrial.

Tal vez por deformación profesional, o tal vez porque conoce perfectamente el tema electricidad, el Apocalipsis según Duncan se manifestará en forma de Grandes y Permanentes Apagones Eléctricos. Tales apagones serán inevitables debido a la combinación de las siguientes causas: falta de inversiones, elevados costos operativos de las centrales eléctricas, aumento permanente en el precio del barril de petróleo, calentamiento global, agotamiento de los recursos no renovables, polución, deforestación y otros males de la civilización actual.

La vida moderna está sustentada en la fácil disponibilidad de energía eléctrica relativamente barata; cuando ocurran los apagones permanentes, la civilización iniciará su inexorable descenso hacia una nueva forma de vida, no sólo preindustrial sino también preagraria. El término Olduvai proviene de un sitio en Tanzania (África) donde en 1955 los antropólogos Louis y Mary Leakey encontraron restos de homínidos que habitaron esa región hace miles de años atrás, en la denominada Era de Piedra. Duncan pronostica que sólo 2 mil millones de seres humanos poblarán el planeta en el año 2050, subsistiendo en condiciones absolutamente precarias.


Es habitual que, en las cercanías del final de un año, hagamos un balance de nuestros actos y una serie de promesas a cumplir durante el nuevo año. Incluyo este post con la intención de que él mismo sirva para que en el 2008, la conservación de la vida en nuestro hermoso planeta azul esté en el primer puesto de nuestras prioridades

miércoles, 12 de diciembre de 2007

GEOMETRÍA DE LO IMPENSADO



Historia de la Pelota de Fútbol, 5º parte.


Los ingleses inventaron el football y la Asociación Inglesa de Fútbol estableció la mayoría de las reglas con las que actualmente se juega. Respecto a la pelota, la Asociación estipuló en 1872 que la misma debía ser “esférica con una circunferencia de 27 a 28 pulgadas” (68.6 a 71.1 cm). Posteriormente estableció que debía tener una cobertura exterior de cuero u otro material aprobado y que el peso podía oscilar entre 14 y 16 onzas (397 a 453 gramos).

Los balones utilizados entre finales del siglo XIX y las primeras décadas del siglo XX eran de cuero marrón curtido con 18 paños cosidos en 6 paneles de tres tiras cada uno. Las pelotas más caras se fabricaban a partir del cuero de las ancas de las vacas mientras que las más económicas se hacían con los cuartos delanteros de las mismas. Las cámaras eran de caucho y tenían una “manguerita” para inflarlas. No existían controles de calidad, motivo por el cual diferían apreciablemente en cuanto al espesor del cuero, la calidad del mismo y el tipo de caucho. Esas diferencias eran tan marcadas que durante la final de la primera copa mundial jugada en Uruguay en 1930, entre los locales y Argentina, se resolvió que durante el primer tiempo se jugara con una pelota “made in Argentina” y el segundo tiempo con una uruguaya. El resultado de los primeros 45 minutos fue: Argentina 2 – Uruguay 1; lamentablemente, y confirmando la importancia de la pelota, el resultado final fue Uruguay 4 – Argentina 2.

La Segunda Guerra Mundial inevitablemente estableció un paréntesis en el desarrollo de los campeonatos mundiales de fútbol. El primer mundial de posguerra se realizó en Brasil en 1950 y en el mismo se continuó utilizando una pelota marrón de 18 paños. Era una pelota pesada, producía golpes muy dolorosos con sus impactos y su principal inconveniente era el agua que absorbía en los días de lluvia; debido a este último problema, el reglamento permitía que el peso de la pelota continuara fluctuando entre 397 y 453 gramos.

La revolución en el diseño de los balones se dio en el Mundial de México 1970 y fue impulsado por la televisación de los partidos en vivo y en directo. El modelo “Telstar” desarrollado por la empresa Adidas fue la primera de las “Bucky balls”.

El ingeniero norteamericano Richard Buckminster Fuller confiaba poderosamente en las habilidades creativas del ser humano y en la perspectiva de un futuro mejor a partir de los nuevos desarrollos tecnológicos y de una “ciencia del diseño” que fuera solucionando uno tras otro los diferentes problemas que afectaban a la humanidad.

La muerte de su pequeña hija de 4 años, debido a problemas en la vivienda que habitaban, lo impulsó a dedicarse al diseño y construcción de edificios. Investigó arduamente sobre estructuras, nuevos materiales y diferentes técnicas de construcción buscando soluciones que involucraran el mínimo consumo de materiales y energía. Se interesó particularmente en el diseño de objetos que se armaban a partir de varias partes pequeñas e idénticas.

En 1949, Buckminster Fuller construye el domo geodésico: un novedoso edificio de diseño futurístico constituido por una red altamente compleja de triángulos idénticos que forman una superficie prácticamente esférica. La similitud entre los triángulos simplifica enormemente la construcción del domo y le otorga a la estructura una resistencia superior comparado con edificios construidos con la misma cantidad de materiales. Consideremos la cáscara de un huevo: es un material débil y quebradizo, pero cuando adopta la forma ovoide su resistencia a la tensión crece enormemente.

Los diseñadores de Adidas se inspiraron en el domo geodésico de Buckminster Fuller para crear la pelota utilizada en el Mundial de México de 1970, denominada “Telstar” por el satélite que permitió la transmisión de los partidos. La pelota, rebautizada “Buckminster Ball” o “Bucky ball”, consistía en 20 superficies hexagonales (objetos con 6 lados) y 12 superficies pentagonales (objetos con 5 lados) cosidos juntos para conformar una superficie casi esférica. Desde el punto de vista geométrico, es un icosahedro truncado –un polígono con 60 vértices y 32 caras–, 12 de esas caras eran pentágonos negros y 20 eran hexágonos blancos que permitían su visualización en los televisores blanco y negro que eran mayoría para la época.

El modelo “Telstar” volvió a ser utilizado en Alemania 1974 y la única variante fue una versión denominada “Chile Durlast” que no tenía paneles negros. Adidas introdujo el modelo “Tango” en el Mundial de Argentina 1978; continuaban los 32 paños pero con un nuevo diseño de 20 paneles negros que daban la sensación de que la pelota constaba de 12 círculos negros idénticos. La “Tango España” de 1982 incluía una capa de caucho sobre las costuras para disminuir el ingreso de agua al interior de la misma. Sin embargo, los sucesivos impactos desgastaban a la capa de caucho y podían obligar al reemplazo de la pelota durante el juego. Fue la última pelota de cuero utilizada en un mundial organizado por la FIFA.

jueves, 6 de diciembre de 2007

HUMO SOBRE EL PREJUICIO


El Dr. Richard Doll publicó en 1952 un paper cuyas conclusiones originaron una gran controversia: hay una alta correlación entre el hábito de fumar y el cáncer de pulmón. El resultado del estudio no sólo fue rechazado por varios profesionales del área salud, sino también por tres grandes estadísticos de la época: Jerzy Neyman, Joseph Berkson y por R. A. Fisher, uno de los Padres Fundadores de la Estadística.


Ronald Aylmer Fisher nació en Londres en el año 1890. Estudió en Cambridge donde obtuvo un grado en Matemáticas, aunque luego se especializó en genética y estadística. Contemporáneo de Karl Pearson, desarrolló la técnica estadística denominada análisis de la variancia, numerosas técnicas de análisis multivariable e introdujo el concepto de máxima verosimilitud para la estimación de parámetros. Entre sus múltiples publicaciones, sobresale el libro Statistical Methods for Research Workers, tal vez el texto más utilizado por los estudiantes de estadística en la primera mitad del siglo XX.

La exitosa integración que realizó entre la genética Mendeliana con la teoría de la selección natural de Darwin le valió el título de Fundador de la Teoría de la Evolución Moderna. Por supuesto que también en este campo escribe un libro clave: The Genetical Theory of Natural Selection, publicado en 1930 donde “inagura” la disciplina científica denominada genética de poblaciones.

A pesar de su brillante carrera, Fisher dedica la última década de su vida (fallece en 1962) a invalidar los resultados de Doll y otros científicos referidos a la correlación entre fumar y el cáncer de pulmón. Para ello recurre a dos alternativas: en la primera invierte la relación causa-efecto; en la segunda busca datos que “empujen” las conclusiones hacia sus preconceptos.

Invertir la relación causa-efecto implica que es el cáncer de pulmón quien genera el deseo de fumar. Dado que los pacientes aquejados de la terrible enfermedad desarrollan durante muchos años un estado precanceroso, postula que durante esa etapa los pulmones están químicamente irritados y que para poder sobrellevar esa irritación, las personas recurren al cigarrillo como forma de aliviar la situación. En 1958 escribe que quitarle el cigarrillo a una persona en estado precanceroso “equivale a quitarle el bastón a un ciego".

Como el argumento es muy endeble, recurre a una segunda alternativa que tiene mayor fundamento teórico. Ahora el fumar y el cáncer de pulmón están correlacionados con un tercer factor que es la verdadera causa. Como experto en genética, es natural que postule que “la obvia causa común son los genes”. Publica dos artículos en la revista Nature titulados “Lung cancer and cigarettes” y “Cancer and smoking” donde utiliza pocos datos, experimentos mal organizados y un lenguaje más afín a un lobista que a un científico.

¿Por qué un científico de la talla de Fisher se arriesga al descrédito y la burla de sus pares por una cuestión aparentemente no fundamental en su trayectoria profesional?. Stephen Jay Gould plantea dos posibilidades: una de orden inmediato y práctico; la segunda teórica y de más largo alcance.

La razón práctica radica en que Fisher es contratado como científico consultor por un Comité de Empresas Tabacaleras, quienes estaban siendo sometidas a juicio debido al daño personal causado por sus productos. La intervención de Fisher en varios juicios en EE.UU. ayuda a que las compañias ganen los pleitos y disminuye durante varios años la presión legal sobre las tabacaleras.

La posibilidad teórica se basa en que Fisher apoyó intensamente durante su vida profesional a las teorías eugenésicas. La teoría eugenésica postula que la herencia es significativamente más importante que el medio ambiente en el desarrollo de las cualidades mentales y emocionales. La vida humana y la cultura podían mejorarse mediante estrategias de mejora genética estimulando el nacimiento de niños de “mejor calidad genética” (eugenesia positiva) y previniendo el nacimiento de aquellos que tendrían peor calidad genética (eugenesia negativa). Francis Galton, estadístico del siglo XIX, propuso un sistema de matrimonios arreglados entre hombres distinguidos y mujeres ricas con clase para producir una raza privilegiada y mejorada a través de las sucesivas generaciones.

Las convicciones eugenésicas de Fisher lo conducen a defender las explicaciones genéticas para justificar las conductas humanas. El deseo de fumar y el cáncer de pulmón están en los genes y sólo hay que buscar datos que validen estas hipótesis.

Ambas posibilidades son factibles; lo concreto es que la prédica de Fisher fue uno de los varios motivos que demoraron la implementación de medidas antitabaco con el lógico resultado de la muerte de muchas personas. Al final, sólo se trató de “Mala Ciencia” que el tiempo inexorablemente se encargó de demoler.

Mucho más grave fue su defensa y promoción de la ideas eugenésicas. Hitler y sus secuaces las utilizaron como argumento teórico para justificar la existencia una raza superior y de razas inferiores a las que se debía eliminar mediante cualquier método. El asesinato más cruel de la historia humana tuvo como "soportes" a Fisher, Galton y otros “reformadores sociales”.

Estamos observando un resurgimiento del racismo, la xenofobia y la intolerancia religiosa. Quienes hacemos divulgación científica debemos comprometernos a mostrar aquellos ejemplos de Mala Ciencia que causaron daños a nuestros semejantes, para evitar que los "nuevos prejuiciosos" la utilicen contra aquellos a quienes consideran diferentes.

viernes, 30 de noviembre de 2007

MOLÉCULAS GIGANTES


HISTORIA DE LA PELOTA DE FÚTBOL, 4º Parte

A comienzos del siglo XX se había comprobado que ciertas sustancias que tenían proporciones similares de carbono e hidrógeno diferían apreciablemente en sus propiedades, siendo la temperatura de fusión una de las más variables. Se comenzó a especular que las relaciones entre los átomos de esas moléculas eran más complejas que las postuladas a la fecha. En 1920, el químico alemán H. Staudinger postuló la existencia de moléculas de cadena larga (macromoléculas) conformadas por una secuencia repetida de átomos. La reacción de polimerización implicaba la creación de una cadena muy larga a través de la unión de monómeros para obtener el polímero.

La mayoría de los polímeros están constituidos por hidrocarburos, donde el carbono es la “columna vertebral” de la molécula y los átomos de hidrógeno están ligados a la misma; la estructura polimérica más sencilla es el polietileno.

Otros polímeros que sólo contienen carbono e hidrógeno son el polipropileno, polibutileno, poliestireno y polimetilpenteno. Hay otros elementos químicos que pueden estar presentes en la estructura molecular de los polímeros: oxígeno, nitrógeno, silicio, azufre, fósforo, cloro y flúor. El caucho vulcanizado contiene azufre; el nylon tiene oxígeno y nitrógeno; los poliéster y policarbonatos poseen oxígeno; el teflón contiene flúor y el policloruro de vinilo (PVC) contiene cloro. Existe un conjunto de sustancias denominadas polímeros inorgánicos cuya columna vertebral está constituida por silicio o silicio-oxígeno; el polímero inorgánico más “popular” tiene el nombre comercial de Silly Putty.

El caucho natural es un polímero de un dieno, el isopreno (2–metil–1,3–butadieno) y se presenta en forma de cadenas de polímeros enrollados y enredados en una estructura de red. Estas cadenas de macromoléculas se “acomodan” en forma aleatoria y desordenada como los tallarines en un plato (polímeros amorfos). Es una estructura flexible, de forma tal que cuando se tensiona al material (se infla un globo o se estira una banda de caucho) la cadena de polímeros que está orientada en forma aleatoria experimenta la rotación de sus enlaces y se alarga y extiende en la dirección de la tensión. Como las cadenas entrecruzadas no pueden deslizarse irreversiblemente una sobre las otras, el material vuelve a su estado original cuando desaparece la tensión.

Existe una importante variedad de cauchos sintéticos basados en la polimerización del 1,3-butadieno (H2C=CHCH=CH2), o de homólogos (isopreno ~ 2–metil–1,3–butadieno) o de derivados (cloropreno ~ 2–cloro–1,3–butadieno). El más importante es el caucho sintético SBR, un copolímero del butadieno (75%) y estireno (25%) utilizado en la fabricación de neumáticos, adhesivos, calzados, recubrimientos de pisos y otros bienes de consumo. El caucho BR se obtiene a partir de la polimerización del butadieno y el Neopreno, utilizado en los trajes de buceo, a partir de la polimerización del cloropreno. También disponemos del caucho etileno/propileno, los poliuretanos AU y EU y los poliacrílicos ACM, entre otros cauchos sintéticos.

Se habían obtenido sintéticamente polímeros del isopreno con la misma cadena no saturada (menor cantidad de hidrógenos debido a los dobles enlaces) y el mismo sustituyente (el grupo metilo CH3). Sin embargo, su estereoquímica, la orientación espacial de los átomos en las moléculas, era diferente: mientras que el caucho natural tenía una configuración cis en casi todos sus dobles enlaces, el material de síntesis era una mezcla de cis y trans. Es necesario tener en cuenta que los compuestos cuyos átomos están conectados en el mismo orden pero que difieren en su orientación tridimensional se denominan estereoisómeros y para diferenciarlos se utilizan los prefijos cis (proviene del latín y significa “del mismo lado”) y trans (también del latín y significa “a través”).


Recién en 1955 con la incorporación del catalizador de Ziegler-Natta se pudo lograr la polimerización estéreoselectiva del isopreno y obtener un producto sintético virtualmente idéntico al caucho natural. Recordemos que los catalizadores son sustancias que intervienen en una reacción química sin ser reactivos ni productos, y cuya finalidad es habitualmente la de acelerar la velocidad de la reacción.

sábado, 24 de noviembre de 2007

CIENCIA, MENTIRAS y PREMIOS



Hasta no hace mucho tiempo atrás, los disertantes en las cenas de despedida de reuniones y congresos científicos usualmente elogiaban la pureza ética de la investigación científica. Aseguraban que el mundo sería un mejor lugar para vivir si los políticos fueran tan objetivos, honestos y autocríticos como los integrantes de la comunidad científica. La enorme cantidad de casos de fraude, engaño y plagio que han salido a la luz en las últimas décadas muestran que en el mundo científico estas transgresiones son tan frecuentes como las que ocurren en los Parlamentos.

Dos divulgadores de temas científicos, William Broad y Nicholas Wade, describieron notablemente esta situación en el libro “Betrayers of the Truth”, Simon and Schuster, 1982) en el cual examinan un amplio número de casos bien documentados de fraude, plagio y engaño. Muestran que el fraude científico se remonta tan atrás como el siglo II antes de Cristo, cuando el astrónomo griego Hipparchus intentó pasar como suyo a un gráfico astral babilónico.

Varios científicos famosos integran la lista de sospechosos, o directamente acusados, de recurrir al robo, plagio o “selección de datos”: el astrónomo Ptolomeo robó gran parte de los datos que utilizó para validar sus observaciones, Isaac Newton falsificaba los números, el Premio Nobel de Física (1923) Robert Millikan “seleccionó” datos para validar las hipótesis que a la larga lo condujeron al premio. Galileo, Bernoulli, Dalton y Mendel integran también la lista de “Padres Fundadores de la Ciencia” sospechados de mala praxis.

Entre los fraudes más famosos de los últimos tiempos sobresale el de Jacques Benveniste quien publicó en la revista científica Nature un artículo que demostraba por primera vez la validez de la controvertida teoría homeopática. La polémica generada tras la publicación del artículo obligó a la revista a formar una comisión de expertos para intentar replicar el experimento. Se demostró el fraude y Benveniste quedó desacreditado para el mundo científico, pero no para los defensores de la homeopatía, para quienes se convirtió en el gurú de la medicina alternativa.

Broad y Wade demuestran en forma convincente que inventar datos y plagiar “papers” son prácticas continuas y ampliamente difundidas, y no una actitud ilegal de sólo unos pocos y atípicos integrantes de la comunidad científica. Consideran que los incentivos para estafar provienen de la necesidad de ascender en la carrera profesional, de trabajar en institutos científicos de alta competitividad y de la permanente “lucha” por premios, subsidios para investigar y, a veces, por patentes. La ciencia se ha revelado como una tarea “muy humana”, orientada hacia la búsqueda de puestos jerárquicos y plena de tentaciones en las cuales sucumbir.

Sin lugar a dudas, ha llegado el momento de establecer salvaguardas razonables contra las malversaciones, que lejos de ser aberraciones esporádicas son prácticas endémicas en la investigación moderna. La ciencia no es la interrogación idealizada de la naturaleza realizada por dedicados servidores de la “Verdad”. Es un proceso humano gobernado por las pasiones humanas de ambición, orgullo y codicia, como así también por todas las virtudes que se le atribuyen a los mejores científicos. El paso que va de la codicia al fraude es tan pequeño en la ciencia como en los otros caminos de la vida.

Evitar las malversaciones no es sencillo porque el “Protector Final de la Ciencia” no es la revisión por pares, o el referato, o la réplica de los experimentos; inclusive tampoco lo es el universalismo implícito en los tres mecanismos anteriores. Es el Tiempo. Al final, las malas teorías no funcionan y las ideas fraudulentas no explican el mundo tan bien como lo hacen las buenas ideas. El tiempo y la “bota invisible” que patea a la basura a toda la ciencia inútil son los verdaderos Protectores de la Ciencia. Pero estos mecanismos inexorables demoran años, a veces más de un milenio en actuar. El fraude puede florecer durante ese intervalo, particularmente si encuentra refugio bajo el manto de inmunidad que confiere el elitismo científico.

¡Ah!, casi me olvido: he plagiado prácticamente todos los párrafos de este artículo.



martes, 20 de noviembre de 2007

NADA NUEVO BAJO EL SOL



Los cálculos muestran que la energía entregada por la radiación solar que llega a nuestro planeta durante una hora equivale al consumo de toda la humanidad a lo largo de un año. El sol es una fuente de energía inagotable, no contaminante y teóricamente compartida por todos los seres humanos.

Cuando en Estados Unidos se realizó la siguiente encuesta: “Cuál considera Ud. que será la principal fuente de energía para producir electricidad dentro de 15 años?”, no sorprendió a los encuestadores que cerca del 30% de los entrevistados “pusieran sus fichas” en la energía solar.

En contrapartida, el Departamento de Energía del país del norte publicó la siguiente tabla mostrando la contribución de las diferentes fuentes energéticas en la generación de electricidad durante el año 2005 y su pronóstico para el 2030 (los números corresponden a miles de millones de kilowatt – hora).

Fuente -------------------->2005 / 2030

Solar ----------------------> 0.9 / 7
Eólica --------------------->15 / 52
Geotérmica -------------->15 / 23
Residuos Municipales-->23 / 28
Biomasa ----------------> 38 / 102
Hidroelectricidad ------>265 / 308
Petróleo ---------------->122 / 107
Gas Natural ------------>752 / 937
Nuclear ------------------>780 / 896
Carbón ----------------->2015 / 3330

Los 0.9 miles de millones de kilowatt – hora generados por la energía solar en el año 2005 representan menos del 0.1% del consumo total. Podrían incrementarse a 7 mil millones, pero sólo representarían un poco más del 0.1% del consumo en el año 2030.

En valores absolutos, el principal incremento corresponde a usinas alimentadas con carbón, lo cual va en consonancia con China y otros países, de forma tal que en el planeta se construye semanalmente más de una central eléctrica cuyos gases de chimenea son los principales responsables del efecto invernadero y el correspondiente calentamiento global.

Hay avances en el campo de la energía solar: las celdas fotovoltaicas que convierten directamente la energía solar en electricidad han reducido sus costos e incrementado levemente su eficiencia; las grandes centrales termosolares vuelven a ser competitivas con el barril de petróleo cercano a los 100 dólares; numerosos países subvencionan la compra de equipamiento solar; varios institutos de investigación y desarrollo buscan la manera de expandir el rango de la longitud de onda de la radiación solar que pueda ser eficientemente absorbida; también estudian como reducir las pérdidas en calor que sufren las celdas fotovoltaicas durante la conversión.

Pero no alcanza: mientras no se obtenga una manera realmente barata de capturar la energía, convertirla en electricidad en forma eficiente y, fundamentalmente, poder conservarla cuando el sol no brille sobre nuestras cabezas, la energía solar sólo será una promesa, incapaz de competir con los combustibles fósiles, los promisorios biocombustibles o la temida energía nuclear.

Lamentablemente, lo único nuevo bajo el sol es la cantidad creciente de gases de efecto invernadero que pronostican nuevos desastres naturales.


miércoles, 14 de noviembre de 2007

ORO SUCIO



El 6 de octubre de 1973, día de “Iom Kipur” (Día del Perdón para la comunidad judía), los ejércitos de Egipto y Siria, sin un comando unificado, atacan Israel. Es el inicio del cuarto conflicto entre árabes e israelíes que se mantiene hasta el 22 de octubre del mismo año, cuando el Consejo de Seguridad de las Naciones Unidas vota la resolución 338, propuesta por Estados Unidos y la Unión Soviética, de alto al fuego. La victoria militar es de los israelíes; varios líderes árabes (inducidos por las grandes empresas productoras de petróleo) deciden, en represalia, cuadruplicar el precio del petróleo produciendo un “shock” en las economías de los países desarrollados.

La economía mundial enfrentó una nueva gran crisis y los índices de crecimiento se redujeron a la mitad respecto de los que se registraban durante los primeros veinte años después de la Segunda Guerra Mundial. Se puso énfasis en el ahorro energético y en el desarrollo de fuentes alternativas de energía: licuefacción del carbón, energía solar, eólica, mareomotriz, conversión de residuos orgánicos, etc. Más de treinta años después, el petróleo continúa siendo el combustible más utilizado y cualquier aumento en el precio del barril provoca zozobras en los mercados internacionales y son muchos los que opinan que fue el motivo principal de la invasión que derrocó a Saddam Hussein.

Los países desarrollados tienen tres serios problemas técnicos a resolver: la eliminación no contaminante de los residuos, la obtención de recursos energéticos renovables y el “fantasma” del calentamiento global que se traduce en un número creciente de desastres naturales. Una nueva tecnología prometió combatir a los tres: el proceso de despolimerización térmica utiliza como materia prima prácticamente cualquier residuo agropecuario, industrial y/o urbano obteniendo valiosos productos finales, incluyendo algunos barriles de petróleo.

Paul Baskis, microbiólogo e inventor, comenzó a finales de la década del 80 a analizar los motivos por los cuales no era económicamente factible la conversión de residuos orgánicos en algún tipo de combustible apto para la generación de electricidad. Encontró que las tecnologías propuestas requerían una mayor cantidad de energía para eliminar el agua, presente en el residuo orgánico, que el contenido energético del producto final. A mediados de la década del 90 consideró que el problema estaba resuelto y comenzó la búsqueda de “sponsors” para transformar sus ideas en proyectos concretos.

Liderados por Brian Appel, un conjunto de científicos, inversores y ex– funcionarios crearon Changing World Technologies, una empresa cuyo objetivo fue ensayar, primero en laboratorio y luego en una planta piloto, las ideas de Baskis. Tras confirmar la factibilidad del proyecto, decidieron construir la primera planta a escala comercial para convertir los residuos de una industria procesadora de pavos en fertilizantes (a base de calcio y magnesio, obtenidos principalmente de los huesos del animal), gas combustible, petróleo liviano, petróleo pesado, agua y carbón en polvo. La materia prima consiste, únicamente, en todo aquello que la fábrica no puede procesar y que debía ser enterrado en condiciones muy rigurosas, sin la posibilidad de usarlo como alimento de otros animales debido al riesgo de que los mismos contraigan el mal de la “vaca loca”.

El optimismo reinaba en el planeta de la World Changing Technologies: durante los primeros ensayos ingresaron un amplio conjunto de residuos contaminantes del medio ambiente —incluyendo desechos de la industria frigorífica, neumáticos, botellas de plástico, efluentes de la industria papelera, residuos de las refinerías de petróleo, basura recolectada por los municipios, residuos orgánicos de los hospitales y sanatorios y varios sólidos orgánicos (incluyendo excrementos humanos)— y al final del proceso se obtenía petróleo de alta calidad, gas combustible limpio y minerales purificados. Appel se entusiasmaba y exclamaba: “este proceso cambia completamente la ecuación industrial; los residuos pasan de ser un costo y se transforman en una ganancia adicional”. Las revistas Fortune y Discover publicaron amplias notas saludando el advenimiento del nuevo recurso energético.

El proceso de despolimerización térmica consta de dos etapas. Primero se muele la materia prima y se la “super-hidrata” para conducirla a un tanque donde se la “cocina” durante 15 minutos a 260 ºC y 40 atmósferas de presión. En este tanque se produce una despolimerización parcial (ruptura de cadenas carbonadas largas en moléculas de menor longitud). La segunda etapa consiste en una rápida despresurización que contribuye a eliminar el 90% del agua contenida en la sopa orgánica y permite además la precipitación de los minerales que serán vendidos como fertilizantes. El remanente es conducido a un segundo reactor donde se lo somete a temperaturas cercanas a los 500 ºC para continuar la ruptura de las cadenas moleculares largas.

Por último se pasa a una serie de columnas de destilación donde, según procedimientos ampliamente utilizados en la industria química, se obtienen gases combustibles, petróleo liviano, petróleo pesado, agua y carbón en polvo. Las condiciones del proceso varían según las diferentes materias primas; así también lo hacen los diferentes productos finales: se han obtenido ácidos grasos, ácido clorhídrico y diferentes proporciones en la relación entre los minerales y los combustibles. Como el proceso trabaja a nivel molecular, se destruyen los agentes patógenos y el agua puede reciclarse hacia las napas freáticas sin que se corra el riesgo de contaminarlas.

El gobierno de los Estados Unidos, consciente de su dependencia del petróleo del Medio Oriente, comenzó a colaborar activamente en el desarrollo de la tecnología. Los inversores de la World Changing Technologies pronosticaron que la instalación de cientos de plantas de despolimerización térmica a lo largo y ancho del país daría como resultado no sólo la eliminación de los residuos tóxicos que contaminan el medio ambiente, sino que en el largo plazo permitirían reemplazar los 4.000 millones de barriles de petróleo que los Estados Unidos importan anualmente para sostener su “american way of life”. El costo estimado del barril, obtenido a partir de la nueva tecnología, oscilaría entre los 10 y 15 dólares.

Se sabe que el gas y el petróleo se originaron a partir de plantas y animales muertos depositados en lechos oceánicos y sometidos a condiciones de alta presión y temperatura. Los científicos involucrados en la nueva tecnología consideraban que el fundamento del proceso de despolimerización térmica es el mismo, con la “sutil” diferencia de que a la Tierra le demoró millones de años producir lo que en la planta piloto se conseguía en un par de horas. Pronosticaron que el planeta sería más limpio, el petróleo dejaría de ser utilizado como herramienta de chantaje político y millones de seres humanos podrían incrementar sus recursos energéticos para satisfacer sus necesidades básicas.

Todo parecía “ir sobre rieles” hasta que aparecieron severas objeciones técnicas. El Dr. Paul Palmer, químico egresado de la Universidad de Yale y fundador de la empresa Zero Waste Systems –especializada en reciclar productos químicos- criticó con extrema severidad a los editores de la revista Discover por no cuestionar ciertas premisas básicas:

1.- Se toma una montaña de tripas de pavo, compuesta de proteínas, agua, grasa, sacáridos, huesos y demás y se la vaporiza y despresuriza; el 90% de la masa involucrada atraviesa el proceso con mínimas modificaciones y cualquier ruptura química sólo generará un mínimo de sustancias combustibles.

2.- El valor energético de los productos finales será menor a la energía requerida para obtenerlos.

3.- Ningún especialista serio en el tema petróleo considera que él mismo se origina mediante un proceso de despolimerización térmica, menos aún que un proceso tan complejo pueda reproducirse tan rápidamente en una planta piloto.

Las objeciones continúan y la prueba más evidente del fracaso es que a la fecha sólo hay una planta funcionando (a partir de desechos de pavos, en el estado de Missouri) con una producción de 15 mil barriles de combustible al mes.

Sería una anécdota más en la historia de la tecnología, excepto que en la misma subyace algo más profundo: la mayoría de los seres humanos cree que una sociedad tecnológicamente tan compleja puede continuar “destripando” al planeta de sus recursos naturales, porque luego “algo” usará los residuos para regenerar las condiciones que permitan la vida normal de las futuras generaciones. El planeta Tierra sería como esas lámparas, en cuyo interior moraba un genio y simplemente frotándolas podemos disfrutar de una vida placentera sin tener que dar nada a cambio.

martes, 6 de noviembre de 2007

NATURALES Y SINTÉTICOS


HISTORIA DE LA PELOTA DE FÚTBOL, 3ºParte


El caucho es un polímero natural. La definición más sencilla establece que un polímero es una sustancia compuesta por muchas partes o unidades; lo indica su nombre de origen griego: poly significa muchos y meros significa partes. Se puede visualizar a un polímero como una gran cadena, donde cada eslabón de la cadena es el “mero” o unidad básica que está constituida principalmente por carbono, hidrógeno, oxígeno y/o silicio. Un gran número de eslabones o meros se “enganchan” durante las reacciones de polimerización para formar la cadena. Los polímeros se pueden elaborar a partir de unidades de repetición idénticas (monómeros) para dar homopolímeros o a partir de dos o más monómeros para formar copolímeros.

La vida en nuestro planeta se sustenta en tres tipos de polímeros: ADN, ARN y proteínas. Los ácidos nucleicos –ácido desoxirribonucleico (ADN) y ácido ribonucleico (ARN)– son los mensajeros químicos de la información genética de una célula y están formados por unidades de nucleótidos; los aminoácidos son las unidades básicas que conforman a las proteínas. En el Antiguo Testamento ya hay referencias a materiales utilizados como adhesivos, recubrimientos, embudos y similares que indudablemente eran polímeros naturales. También los encontramos en los cuernos de los animales, en el caparazón de las tortugas, en las resinas exudadas de ciertos pinos y en el asfalto y alquitrán obtenidos tras la destilación de materiales orgánicos. La primer actividad humana que modificó a un polímero natural fue el curtido de cueros, donde se reticula a las proteínas que se encuentran en las pieles de los animales.

Algunos polímeros naturales comenzaron a ser modificados químicamente en la segunda mitad del siglo XIX. La celulosa, un polímero natural que se encuentra en la madera, el algodón, los pastos y las hojas, se hizo reaccionar con ácido nítrico para obtener nitrato de celulosa. Posteriormente, en 1870, el inventor norteamericano J. W. Hyatt comenzó a comercializar celuloide, nitrato de celulosa con alcanfor, al cual se le podía dar diversas formas y durezas mediante la apropiada aplicación de calor y presión El celuloide, diseñado originalmente para reemplazar al marfil en las bolas de billar y evitar así las matanzas de elefantes, terminó siendo una película fotográfica flexible que impulsó a la industria del cine; años más tarde cuando Hollywood estableció el star system, aparecieron las “divas del celuloide”. El nitrato de celulosa tiene el inconveniente de ser explosivo (según el grado de nitración) y así fue que varias bolas de billar estallaron cuando se las impactó con el taco y numerosos cines se incendiaron cuando el calor del proyector producía la ignición de la película. Este problema fue parcialmente solucionado cuando se reemplazó al ácido nítrico por ácido acético y se obtuvo acetato de celulosa. Chardonnet desarrolló en 1887 una técnica para transformar hebras de nitrato de celulosa en la primer fibra textil artificial; el público comenzó a denominarla “seda de la suegra” porque eran altamente inflamables debido a su contenido en nitrógeno y debían ser tratadas con soluciones de azufre para evitarle a sus usuarios los riesgos de una grave quemadura.

El primer polímero absolutamente sintético fue desarrollado por Leo Baekeland en 1909 bajo el nombre de bakelita. Era una resina formada por la combinación de fenol con formaldehído bajo condiciones apropiadas de temperatura y presión. Dos años después aparece en el mercado una fibra sintética –rayón–, y se transforma en un sustituto exitoso de la seda en la industria textil.

Durante los años siguientes se crearon nuevos polímeros, pero la tecnología para su producción masiva no fue competitiva hasta que llegó la Segunda Guerra Mundial. Tres meses después del ataque a Pearl Harbor, los japoneses conquistan Malasia, Ceilán y otras colonias inglesas donde se producía caucho y toman el control del 95% de la producción mundial del insumo. Suenan las alarmas en el ejército norteamericano: cada tanque Sherman contiene media tonelada de caucho; cada barco de guerra tiene aproximadamente 20.000 partes con caucho; cada cable conductor de la electricidad está recubierto con caucho. La evaluación de las reservas muestra que, bajo condiciones de consumo normales, hay caucho para un año. Se establecen severas restricciones al consumo incluyendo la reducción de la velocidad máxima en la rutas a 35 millas por hora (aproximadamente 50 km por hora) para disminuir el desgaste de los neumáticos. Comienza la campaña de reciclado más grande de la humanidad y cada pedazo de caucho de uso no imprescindible va a parar a los depósitos del ejército. Para impulsar la campaña, el presidente Roosevelt ordenar fundir los juguetes de caucho de su perro mascota. No obstante es una solución sólo para el corto plazo porque no hay producción intensiva de caucho sintético. La industria química responde aceleradamente y en menos de dos años se están manufacturando 800.000 toneladas de nuevos productos químicos. Había nacido la industria del plástico.

jueves, 1 de noviembre de 2007

EL SISTEMA OPERATIVO DE LA MADRE NATURALEZA


La humanidad, en los años previos a la Revolución Industrial, existía en un número relativamente pequeño y con un nivel tecnológico limitado. Cualquier perturbación ambiental causada por los seres humanos era local y generalmente absorbida por la misma naturaleza.

En los últimos dos siglos se han producido cuatro hechos que han originado problemas ambientales que están superando la capacidad de la naturaleza para absorberlos:

1.- Un crecimiento extraordinario de la población que ha generado enormes presiones sobre los recursos ambientales. La población humana se ha duplicado desde 1960 a la fecha y actualmente viven más de 6.400 millones de personas.
2.- Este crecimiento, en particular en los países desarrollados, ha estado acompañado de procesos industriales que con sus residuos alteran el medio ambiente.
3.- El crecimiento poblacional y la industrialización han dado origen a la urbanización, el movimiento de personas que emigran de pequeños asentamientos a ciudades y pueblos. La mitad de la población humana vive en ciudades y cada día migran 160.000 personas desde el campo a la ciudad, lo cual contribuye a intensificar los problemas ambientales en función de la densidad de personas e industrias.
4.- El crecimiento explosivo del uso de la energía. La humanidad, en su conjunto, utiliza hoy aproximadamente 20 veces más energía que en el año 1850; este aumento resulta del producto entre la quintuplicación de la población y la cuadruplicación del uso promedio de energía per cápita.

El éxito económico y los elevados niveles de vida en los centros urbanos de las naciones desarrolladas se lograron a través de un elevado consumo de recursos naturales tales como agua, madera, depósitos minerales, suministro de energía y suelos. En la década de 1960, las expectativas sin límites que siguieron a la guerra mundial causaron alarma en relación a la explosión demográfica, el deterioro del medio ambiente y el agotamiento rápido de los recursos naturales no renovables. La humanidad, que había adquirido poderes para dominar y explotar la Tierra, no se mostraba capaz de controlar el tamaño de su propia población, ni de administrar los recursos limitados del planeta de manera sensata y sostenible.

Numerosos científicos, economistas e intelectuales presentaron panoramas desoladores, aunque verosímiles, de desastres ambientales basados en la proyección de las tendencias dominantes en el crecimiento de la población, en el consumo y en la contaminación. Los remedios propuestos destacaban la necesidad de controlar la población, limitar el crecimiento económico y depender más de recursos renovables para la obtención de energía y materias primas.

Estas ideas se presentaron en libros comprensibles para amplios segmentos de la sociedad y tuvieron efectos notables en las actitudes sociales y en la acción legislativa. El más destacado por su impacto en la población general fue Primavera Silenciosa (Silent Spring, 1962) de Rachel Carson. Los cambios en las actitudes sociales llevaron a distintas formas de legislación para combatir la contaminación, al auge del conservacionismo y al activismo ambiental de los consumidores de los países desarrollados.

En los últimos años la atención se ha concentrado en un fenómeno relacionado con el aumento en el consumo de energía: el calentamiento global debido al efecto invernadero. Este efecto ha acompañado la evolución de nuestro planeta desde sus primeros días: parte de la radiación solar que alcanza la superficie de la Tierra no retorna al espacio debido al dióxido de carbono y al metano presentes en la atmósfera. Lo anterior se tradujo en un calentamiento paulatino del planeta, lo que permitió el surgimiento de la vida tal como la conocemos.

Para verificar si las actividades humanas estaban interfiriendo en este “delicado equilibrio planetario”, las Naciones Unidas convocaron a numerosos científicos del clima para constituir el Panel Intergubernamental sobre el Cambio Climático. Es muy revelador analizar como las conclusiones del citado panel han ido modificándose a lo largo del tiempo:

* En su primer reporte de 1990, el panel encontró evidencias relacionadas con el calentamiento global pero consideró que sus causas podrían ser tanto humanas como naturales.
* En el segundo reporte de 1995, el panel afirmó que “el balance de evidencias sugiere una influencia humana discernible en el clima global”.
* En el año 2001 se estableció que había una probabilidad entre el 66 y el 90% de que las actividades humanas fueran las responsables del calentamiento observado en los últimos 50 años.
* En su último y reciente informe (febrero de 2007), el panel declaró que las evidencias del calentamiento global eran “inequívocas” y que las actividades humanas eran responsables de ser la fuerza impulsora del citado proceso, ahora con una probabilidad entre el 90 y el 99%.

Este tipo de afirmaciones pueden resultar demasiado “light”, demasiado suaves, en los oídos de los activistas de los movimientos ecologistas o de algún ciudadano simplemente preocupado por los fenómenos climáticos que a diario se informan en los medios de comunicación masivos.

Sin embargo, los científicos reconocen sus limitaciones en lo que respecta a la posibilidad de realizar predicciones relacionadas con un proceso tan complejo como el cambio climático de un planeta. Reconocen que a menudo se equivocan, que las hipótesis se modifican y evolucionan, y que tal vez, “milagrosamente”, el proceso de calentamiento global desaparezca en el corto plazo. Cabe también la posibilidad de que se agrave con mayor rapidez. Sin lugar a dudas, este tipo de lenguaje probabilístico es el aconsejable ante un fenómeno que puede influir sobre toda la biosfera imperante en el planeta.

Continuando con el lenguaje probabilístico, podemos afirmar que lo más probable es que hemos introducido un exceso de actividades económicas humanas, con su correspondientes emisiones de dióxido de carbono, en el Sistema Operativo de la Madre Naturaleza (Thomas Friedman dixit) tal que ya no podemos determinar cuando ella paró y nosotros empezamos. ¿En qué momento, las altas temperaturas, las sequías, las tormentas intensas y demás fenómenos meteorológicos dejaron de ser autoría de la Naturaleza para comenzar a ser objeto de nuestras actividades económicas?.

Nunca lo sabremos y seguiremos estando expuestos a tales fenómenos climáticos por un largo tiempo aunque mañana mismo decidamos comenzar a cuidar seriamente al planeta. Lamentablemente, tendremos muchas pérdidas en vidas humanas y en elementos materiales porque la infraestructura que hemos diseñado no está preparada para este cambio climático.

Tenemos por delante dos tareas “titánicas”: (i) reducir significativamente nuestro elevado consumo de combustibles fósiles o reemplazarlos por energías renovables y (ii) modificar toda aquella infraestructura que no fue diseñada para tolerar la intensidad de los fenómenos climáticos actuales.

¡Ah!, también escuchar todos los días el pronóstico del tiempo.

La foto que ilustra el post es cortesía de:
http://www.flickr.com/photos/sorby/258577150

viernes, 26 de octubre de 2007

TRES HIPÓTESIS SOBRE EL ORIGEN DEL SIDA


Algo muy extraño estaba ocurriendo en 1981: el Centro para el Control de Enfermedades de los EE.UU. estaba recibiendo un número inusualmente alto de reportes referidos al Sarcoma de Kaposi (una forma rara de un cáncer relativamente benigno que afecta principalmente a personas mayores), como así también numerosos casos de la neumonía Pneumocystis carini. Los pacientes eran hombres jóvenes, sin antecedentes de terapia inmunosupresora y homosexuales. Pocos meses después la conclusión fue inevitable: el mundo estaba enfrentando una nueva epidemia cuya causa no estaba claramente identificada y que fue denominada “Síndrome de Inmunodeficiencia Adquirida” (SIDA o AIDS en el idioma inglés).

El SIDA es una enfermedad producida por el Virus de la Inmunodeficiencia Humana (VIH). Existe el VIH-1, virus responsable de la epidemia, cuya mayor frecuencia se verifica en las personas que habitan las regiones central y oriental de África. La comunidad científica concuerda en que proviene de un agente viral que infecta a varios primates africanos, particularmente a monos verdes y mandriles. Este agente viral se denomina SIV (Simian Immunodeficiency Virus, virus de la inmunodeficiencia de los simios) y afecta pero no mata a los primates.

También existe el VIH-2, confinado a las zonas costeras del oeste de África, menos virulento que el anterior y que proviene del SIVsm, otro virus de inmunodeficiencia de los simios que está ampliamente difundido entre los monos mangabey.

Para poder rastrear el origen de la epidemia, se analizaron numerosas muestras de sangre que estaban almacenadas en diferentes lugares del planeta. La más antigua correspondió a un hombre que murió en 1959 en la República Democrática del Congo (ex Congo Belga). Lamentablemente se han conservado muy pocas muestras anteriores a esa fecha, por lo cual no puede establecerse con precisión la fecha de los primeros fallecidos debido al SIDA. Puesto que el intervalo típico entre la infección y la muerte es de 10 años, el denominado “paciente cero”, aquel que inició la epidemia, debía ser un africano contagiado alrededor de 1949.

Surgieron las inevitables “teorías conspirativas”: la CIA había creado el virus para eliminar a los negros y homosexuales; el Pentágono lo había creado como un arma biológica para ganar la Guerra Fría; era el “castigo divino” para aquellos que exhibían una conducta sexual promiscua o “desviada”. No existen pruebas o evidencias que sustenten tales hipótesis, a pesar de lo cual hay numerosos páginas en Internet que las muestran como verdaderas.

Se plantearon otras tres hipótesis relativas al origen de la enfermedad, aunque todas ellas están sujetas a importantes objeciones.

1.- El surgimiento del SIDA fue por azar. Tal vez la transmisión del mono al ser humano es un proceso relativamente ineficiente y de baja probabilidad. Tal vez la mutación de los SIV a los VIH también son sucesos inusuales, de muy baja probabilidad. A pesar de ello y simplemente por azar, la transmisión entre las especies (o la mutación) ocurrió por primera vez en el siglo XX. Hay antecedentes de enfermedades virales que aparecen súbitamente, infectan a miles de personas y luego desaparecen tan súbitamente como habían aparecido. ¿Acaso el SIDA no podría ser una de ellas?. Sin embargo, resulta muy poco factible que por azar dos virus del tipo SIV muten en forma independiente a los del tipo VIH en tan corto lapso de tiempo, cuando desde hace miles de años los africanos han estado expuestos al contagio con sangre de primates.

2.- Siempre existió la transmisión del mono al hombre, pero no estaban dadas las condiciones para que la epidemia se extienda. En el África rural, la mayoría de sus habitantes vivían en pequeñas aldeas desarrollando una vida sedentaria. Por lo tanto, aquellos contagiados por el mono sólo transmitían la enfermedad a unos pocos familiares o vecinos y las sucesivas muertes no llamaban la atención en un “microcosmos” donde las expectativas de una larga vida eran muy bajas. Cuando comenzó el proceso de urbanización y la gente migró a las ciudades, aparecen la prostitución en gran escala, las enfermedades venéreas y el uso repetido de jeringas hipodérmicas. En resumen, se dan las condiciones apropiadas para la transmisión de la enfermedad.

Es una hipótesis plausible pero tiene sus defectos porque la historia del continente africano está colmada de acontecimientos que pudieron dispersar la enfermedad durante los últimos 10 siglos: el movimiento de miles de soldados durante la Primera Guerra Mundial en las regiones más afectadas; el surgimiento del imperio Zulú (Siglo XIX) que se tradujo en la migración de millones de personas desde Tanzania hasta Sudáfrica; el transporte de millones de esclavos. con destino final las plantaciones del sur norteamericano, por parte de los traficantes árabes durante los siglos XVIII y XIX; más atrás en el tiempo, los bantú y otras tribus libraron tremendas batallas con sangre en abundancia e inevitables violaciones a las mujeres de los derrotados. Por lo tanto, si el VIH existe desde hace mucho tiempo atrás, ¿por qué no se extendió la epidemia?.

3.- Si no fue por azar y tampoco por la mejora en las “condiciones logísticas”, sólo resta suponer que se debió a una mejora en las condiciones de transmisión desde el mono al ser humano. Se sabe que las vías más eficientes de transmisión del SIDA son la transfusión de sangre y la inoculación de tejido infectado. Ambas técnicas sólo se utilizaron en forma masiva a partir del siglo XX y sólo había que rastrear programas científicos que incluyeran estas técnicas y la presencia de monos y humanos. Las principales sospechas recayeron sobre los siguientes tres programas:

En 1922 se realizó un experimento con transfusión de sangre de chimpancés, monos mangabey y otros primates en seres humanos con el objetivo de obtener una cura para la malaria. Pudo ser el origen del SIDA pero se lo desestimó al comprobar que la mayoría de los receptores vivía en Europa o Estados Unidos.

Alrededor de los años 30, un científico propuso una exótica teoría: se podía detener el envejecimiento mediante el injerto de los testículos de un hombre joven en un congénere de mayor edad. Era lógico que no se encontraran voluntarios para tal experimento, motivo por el cual se recurrió a testículos de monos o chimpancés. Pocos años después se detuvo el experimento ante el absoluto fracaso del mismo; se lo intentó ligar al origen del SIDA pero nuevamente se comprobó que la mayoría de los receptores no vivían en el continente africano.

El tercer programa científico masivo sospechado de ser el origen de la epidemia se desarrolló entre 1957 y 1958, con el objetivo de encontrar una nueva vacuna contra la poliomielitis, alternativa a la desarrollada por Jonas Salk. Parecía factible porque se usaron riñones de mono durante el experimento; sin embargo, como la primera muerte está claramente fechada en 1959 y hay aproximadamente 10 años entre la infección y la muerte, no resulta probable que este programa tampoco haya sido el responsable.

El origen del SIDA continúa siendo un misterio sin resolver. La solución del mismo excede ampliamente al campo académico por al menos tres importantes razones: (i) el conocimiento preciso del origen podría ser fundamental para el desarrollo de una vacuna o de mejores tratamientos para los pacientes infectados; (ii) podría ayudarnos a establecer pautas para una “alerta temprana” relativo a un nuevo virus o mutación; (iii) permitiría eliminar definitivamente a todas las teorías conspirativas que sólo ayudan a consolidar el poder de dictadores, fundamentalistas o teócratas, en perjuicio del mejor espíritu democrático.

lunes, 22 de octubre de 2007

ESTALLÓ EL VERANO


El calentamiento global y el adelgazamiento de la capa de ozono son dos serios problemas que la humanidad debe resolver para garantizar su continuidad en el planeta. Sin lugar a dudas, es un buen momento para conocer algunos conceptos relativos al sol y a la radiación solar que llega a nuestro planeta.

La tierra gira alrededor del sol en una órbita elíptica con el sol en uno de sus focos. La cantidad de radiación solar que llega al planeta es inversamente proporcional al cuadrado de la distancia entre ambos. La distancia promedio sol-tierra es 149.597.890 ± 500 km; los técnicos y científicos tienden a utilizar notaciones más cómodas y es por ello que tal distancia se denomina 1 Unidad Astronómica (AU, Astronomic Unit), equivalente a 149.600.000 km. Debido a la órbita elíptica, la distancia sol-tierra varía a lo largo del año desde un valor mínimo de 0.983 AU (147.056.800 km) hasta un valor máximo de 1.017 AU (152.143.200 km).

La tierra, además de girar alrededor del sol, rota alrededor de un eje denominado eje polar, el cual está inclinado aproximadamente 23.5º respecto a la perpendicular al plano de revolución de la tierra respecto al sol. La rotación de la tierra alrededor del eje polar produce los cambios diurnos en la radiación que llega a un punto del planeta, mientras que la posición del eje polar respecto al sol es la causa de los cambios estacionales de la misma radiación.

Si trazamos una línea imaginaria que una el centro del sol con el centro de la tierra y medimos el ángulo que forma tal línea con un plano (imaginario) que corta al ecuador terrestre, veremos que ese ángulo, denominado declinación solar, varía permanentemente. Este ángulo vale cero en los equinoccios (significa noches iguales) y corresponde al comienzo de la primavera y del otoño. Tiene un valor de +23.5º en el solsticio de verano y un valor de -23.5º en el solsticio de invierno. Es conocido que las fechas de los solsticios (época en la que el Sol se halla en uno de los dos trópicos) son opuestas entre los hemisferios norte y sur.

Un día solar es el intervalo de tiempo (no necesariamente 24 horas) en que el sol “aparenta” completar un ciclo alrededor de un observador estacionario en la tierra. El día solar varía en longitud a lo largo del año. Una sencilla prueba confirma esta afirmación: si una persona orientada hacia el ecuador, cuando el sol está directamente sobre el meridiano local ajusta un reloj a las 12 AM y regresa 30 días después cuando el mismo reloj vuelve a marcar las 12 AM, encontrará que el sol no está exactamente sobre el meridiano local; es posible una discrepancia de hasta 16 minutos. Los motivos de esta variación se deben a ciertas características combinadas entre la rotación alrededor del sol y alrededor del eje polar.

La extensión del día (en oposición a la noche) depende no solamente de la declinación solar, sino también de la latitud geográfica. En la región polar, el sol no “asciende” durante el invierno y no hay una puesta de sol durante el verano. En el polo norte, la duración del día polar es de 186 días y la noche polar se extiende durante 179 días (o noches, si usted prefiere). En el ecuador, la latitud geográfica tiene un valor cero y la duración del día es independiente de la declinación solar (independiente de la estación) y es siempre igual a 12 horas. Por último, la longitud del día en los equinoccios es independiente de la latitud e igual a 12 horas.

Johannes Kepler contribuyó significativamente al avance de la Astronomía al postular tres leyes relativas al movimiento de los planetas. La primera se refiere a las órbitas elípticas de los mismos alrededor del sol, mientras que la segunda y la tercera están relacionadas con la velocidad de giro.

Kepler nació en Alemania en 1571 y tuvo una vida colmada de dificultades: durante su infancia contrajo viruela, enfermedad que le afectó sus manos y su visión; su padre era alcohólico, su madre fue acusada de brujería y vio morir a su primera esposa y a varios de sus hijos. Tuvo que soportar varias persecuciones durante los habituales conflictos religiosos de su época.

Estudió Matemáticas y Astronomía en Tübingen y fue asistente de Tycho Brahe en Praga, a quien sucedió en el puesto de astrónomo imperial. Observador metódico, combinó sus datos astronómicos con una profunda convicción religiosa respecto a que Dios había diseñado el mundo de una forma estéticamente placentera y matemáticamente simple, combinación que jugó un rol fundamental en el desarrollo de sus leyes planetarias.

Tal vez tantas desgracias en su vida pudieron ser mitigadas al tener el privilegio de ser el último observador de una supernova en nuestra galaxia. Una supernova es una estrella en explosión que libera una enorme cantidad de energía de forma tal que puede observarse nítidamente una “llamarada” de luz donde antes no se observaba prácticamente nada. Su brillo aumenta en forma espectacular durante un tiempo variable y los primeros astrónomos suponían que había nacido una estrella nueva. La magnitud de la explosión estelar motivó la elección del prefijo súper, mientras que nova proviene del latín y significa nueva.

Durante el año 1604, Kepler realiza una sistemática observación de una nova localizada en la constelación Ophiuchus (Ofiuco o el Portador de la Serpiente), a una distancia entre 20.000 y 40.000 años luz de nuestro planeta. Era el tercer cuerpo más brillante en el cielo nocturno (sólo lo superaban la luna y Venus) y permanece visible un año antes de desaparecer. Kepler publica en 1606 los resultados de sus observaciones en su libro De Stella Nova (La Nueva Estrella); muchos años después, el cuerpo celeste recibe el nombre de Estrella de Kepler o Supernova de Kepler.

Ninguna otra supernova volvió a aparecer en nuestra galaxia, la Vía Láctea, a pesar que miles de astrónomos no dudarían en hacer un pacto con el diablo para que ello ocurriera.

miércoles, 17 de octubre de 2007

LA JUNGLA DE LÁTEX


HISTORIA DE LA PELOTA DE FUTBOL, 2º parte.



Los barones del caucho

La vulcanización del caucho marcó el comienzo de una poderosa actividad comercial e industrial: vestimentas, calzados, juguetes, cañerías, neumáticos para la naciente industria automotriz y pelotas de golf y tenis para las clases acomodadas inglesas. La demanda mundial de caucho crecía vertiginosamente y los principales proveedores estaban en América del Sur.

El caucho aparece en forma de suspensión coloidal en el látex producido por varias moráceas y euforbiáceas intertropicales. Si bien hay un gran número de especies que exudan secreciones similares al látex cuando se hace una incisión en el tronco, sólo unas pocas producen una cantidad suficiente que justifica su explotación económica. Entre ellas sobresale la Hevea Brasiliensis –árbol de la shiringa– cuya abundancia en la cuenca amazónica creó un núcleo de lujo y poder en el corazón de la selva brasileña.

Entre 1865 y 1915, decenas de miles de personas se trasladaron hacia las zonas caucheras bajo una impronta similar a la denominada “fiebre del oro” ocurrida en los Estados Unidos. La región más pobre y deshabitada de Brasil se transformó en un centro económico pujante, donde las mansiones de los patrones caucheros estaban equipadas con electricidad, agua corriente y teléfonos. Los “nuevos ricos”, denominados barones del caucho, convirtieron al puerto fluvial de Manaos en una metrópoli deslumbrante donde se consumía más champaña que en Francia y donde los trajes y camisas se enviaban a lavar y planchar a Londres o París.

El edificio más impactante de Manaos fue el Teatro de la Ópera construido con los materiales más lujosos de la época: mármoles italianos, lámparas de cristal de Murano y barras de hierro forjado escocés. Las maderas utilizadas eran brasileñas, pero eran enviadas a tallar a Europa. Era lógico que el camino de acceso al teatro estuviera pavimentado con caucho para amortiguar el ruido de los lujosos carruajes. Para la inauguración en 1896, quisieron traer al “astro pop” más famoso de la época –el tenor italiano Enrico Caruso–, pero el mismo se negó debido al intenso calor y humedad reinante en la zona.

Cuando la perspectiva es enriquecerse rápida y fácilmente, los aventureros llegan en tropel; el más renombrado fue Carlos Fernando Fitzcarraldo. Nació en Perú en 1862, hijo de William Fitzgerald, un irlandés radicado en ese país. Acusado de espiar para Chile durante la guerra del Pacífico, tuvo que ocultarse en las selvas orientales del Perú, región que pronto se sumó al boom del caucho. Fitzcarraldo edificó su fortuna secuestrando indígenas y condenándolos a extraer caucho bajo un régimen de semiesclavitud. Los peones peruanos, bolivianos y brasileños que trabajan en sus cauchales terminaban en un círculo de endeudamiento creciente, puesto que imperaba un sistema denominado “habilito” mediante el cual terminaban cambiando sus salarios por alimentos, visitas al burdel y deudas de juego, todos las cuales eran propiedad de Fitzcarraldo.

En 1893, con 2000 peones a su cargo era el patrón cauchero más rico de la región y había obtenido del gobierno de Bolivia el derecho exclusivo de navegación por los ríos de la zona. Su ambición no tenía límites y se propuso transportar por vía fluvial su producción de caucho hasta Manaos; el inconveniente radicaba en un istmo (que lleva su nombre) que comunica la cuenca del río Ucayalí con los ríos Madre de Dios y Beni. Para poder cruzar el istmo hizo arrastrar a su principal navío, la “Costamana”, a lo largo de 10 kilómetros de tierra y elevándolo más de 450 metros. El barco, colocado sobre troncos aceitosos, era impulsado por una máquina de vapor y empujado por decenas de indígenas, varios de los cuales murieron cuando el barco súbitamente retrocedía.

La expedición de Fitzcarraldo y el cruce del istmo fue llevado al cine por el director alemán Werner Herzog en 1982. Herzog, un director obsesivo, fanático y tiránico contrató a Jasón Robards y a Mick Jagger, vocalista de los Rolling Stones, para los roles principales de su película “Fitzcarraldo”; al igual que Caruso, ambos se desalentaron por el calor, la humedad y los insectos. Volvió a recurrir a su “actor fetiche” –Klaus Kinski–, tal vez el actor ideal para interpretar al aventurero iluminado hasta la ceguera y la locura por la prosecución de un sueño: la construcción de un teatro de ópera en plena selva amazónica. La filmación estuvo plagada de contratiempos: la guerra entre Perú y Ecuador destruyó el campamento montado para los actores y técnicos, una intensa sequía retrasó considerablemente la realización de las escenas fluviales y una picadura de serpiente terminó con la amputación de la pierna de un camarógrafo. Los indígenas, contratados para las escenas de la subida del barco sobre el istmo, estuvieron a punto de asesinar a Klaus Kinski debido a sus diarios ataques de furia. El intenso realismo de las escenas le valió a Herzog el premio al mejor director en el Festival de Cannes de 1982.

Fitzcarraldo y uno de sus socios mueren en 1897 durante un viaje por río en circunstancias aún no aclaradas. Las peleas entre su viuda y hermanos con el resto de los socios termina produciendo la sublevación de peones, colonos e indígenas y el fin de su imperio ubicado en la selva peruano-boliviana.

Se acabó la fiesta

A finales del siglo XIX, el caucho se había transformado en una materia prima imprescindible para las economías industrializadas. La emergente industria del automóvil pronosticaba un incremento significativo de la demanda y su correspondiente aumento de precio. Como la producción extractiva en la selva amazónica era irregular en términos cuantitativos y cualitativos, Inglaterra, la potencia imperial de la época, planificó una estrategia para poder controlar la producción y el precio de un insumo tan valioso.

Los barones del caucho eran conscientes de la envidia que despertaban sus vastas fortunas, por lo cual castigaban con la pena de muerte cualquier intento de exportación de semillas de Hevea Brasiliensis. No obstante, la recompensa era muy elevada para quien se atreviera a hacerlo y fue así que Henry Wickam en 1876 consiguió disimular el embarque de 70.000 semillas de Hevea y transportarlas hacia Inglaterra.

Un pequeño ejército de científicos se instaló en los Jardines Botánicos de Londres con el objetivo de obtener variedades más resistentes y de mayor productividad. Con el apoyo sistemático y financiero del gobierno británico y de capitales privados trasladaron las nuevas variedades hacia las colonias asiáticas donde establecieron plantaciones masivas y comercialmente organizadas, particularmente en Malasia, Ceilán (hoy Sri Lanka) y Singapur. Fue inevitable que para 1915 las colonias produjeran el doble de caucho que el Amazonas; en 1920, producían ocho veces más y para 1939 el 98% de la producción mundial de caucho era originaria del continente asiático. Los barones del caucho se fundieron, los establecimientos caucheros prácticamente desaparecieron en la cuenca amazónica y Manaos se convirtió en la sombra de un pasado de lujo y esplendor.

Los Estados Unidos y Brasil intentaron contrarrestar la influencia del nuevo monopolio británico. Tras numerosos estudios de factibilidad técnico – económica desarrollados a lo largo del Amazonas, la Ford Motor Company compró en 1922 un millón de hectáreas donde se plantaron 70 millones de semillas de Hevea Brasiliensis. A pesar de que el proyecto estaba conducido por la empresa más exitosa de la época, el mismo fracasó debido a las condiciones precarias de los medios de transporte, a la falta de mano de obra experimentada, a las dificultades topográficas de la región (denominada Fordlandia por los residentes) y, fundamentalmente, a la infección de los árboles por una plaga fúngica que los diezmó. La empresa decidió abandonar el territorio brasileño en 1945 para proveerse con caucho sintético que la industria química norteamericana había desarrollado durante la Segunda Guerra Mundial.