lunes, 4 de febrero de 2008

CON SU BLANCA PALIDEZ


La agrupación ambientalista Greenpeace comenzó una campaña de reemplazo “forzado” de lámparas incandescentes por sus equivalentes fluorescentes compactas en diversos edificios públicos de la Argentina. Sin previo aviso, toman por asalto algún edificio gubernamental y reemplazan todas las lámparas que están al alcance de sus herramientas. El objetivo es bien claro: concientizar a la población y al gobierno respecto al despilfarro de energía que implica el uso de las clásicas lamparitas incandescentes con el inevitable incremento en los gases de efecto invernadero. Las consideraciones ambientales y el balance energético están fuera de discusión; lo que no es tan evidente es la predisposición de la gente para tales reemplazos.

La lámpara incandescente ha cambiado muy poco desde sus orígenes, cuando Tomas Alva Edison comenzó su comercialización masiva. Consisten fundamentalmente en un bulbo de vidrio, al vacío o con un gas inerte en su interior, y un filamento de tungsteno, a través del cual circula la corriente eléctrica produciendo la incandescencia del material.

Por su parte, las lámparas de descarga o fluorescentes basan su funcionamiento en la luminiscencia. En el interior de la lámpara se coloca gas argón (neón, nitrógeno, etc) y una perla de mercurio. Con el pasaje de la corriente eléctrica, el mercurio se volatiliza y comienza a emitir radiaciones en longitudes de onda muy cortas en la franja de los ultravioletas. Estas radiaciones son las que excitan las sustancias fotoluminiscentes de la lámpara (recubrimiento interior a base de fósforo) produciendo radiación en longitudes de ondas más largas que si son visibles. En los últimos años han aparecido en el mercado numerosos modelos de lámparas fluorescentes compactas (FC).

Las lámparas incandescentes operan en el extremo rojo del espectro de color, es el extremo cálido; las fluorescentes trabajan en el extremo opuesto, con un tono azul frío. El grado de calidez o frialdad se cuantifica con un parámetro denominado Temperatura de Color Correlacionada, el cual se mide en grados Kelvin. Las incandescentes miden 2700 grados Kelvin, mientras que las fluorescentes compactas miden entre 2700 y 3000 grados y las fluorescentes no compactas (las de oficinas y negocios) suben hasta 4100 grados Kelvin.

La industria utiliza otro parámetro para cuantificar como la luz muestra el color real de los objetos; se lo denomina Índice de Color Resultante (ICR): para un valor base de 100 en las incandescentes, las FC miden entre 80 y 85 ICR.

Las incandescentes tienen un punto focal de irradiación, semejante a una antorcha o al sol; en las CF, tanto en su versión de tubos rectos o de tubos retorcidos (semejan las pistolas de una mala película de ciencia ficción de los años 40), el fulgor se distribuye parejo sin un núcleo de irradiación.

Otros inconvenientes de las CF, solucionados en algunos modelos, son un zumbido constante, un molesto titilar y un progresivo oscurecimiento del fulgor. Por su parte, numerosos decoradores de interiores plantean que es imposible ambientar habitaciones con CF, sin que las mismas parezcan salas de espera de hospitales, oficinas públicas o institutos educativos.

El debate es cada día más intenso: la industria se queja que el gobierno pretende declarar ilegal a toda una área tecnológica de uso habitual; los “liberales” plantean la inconstitucionalidad respecto a la libre elección del tipo de luz a usar en los hogares; aún los ambientalistas reconocen que el mercurio contenido en las CF puede causar un daño de enormes proporciones si no se encuentra la forma de garantizar su recuperación en forma inocua.

No obstante, los gobiernos presionados por el problema energético-ambiental comienzan a legislar respecto a la eficiencia en el consumo de las lámparas que se pueden vender en el mercado. Según la tecnología disponible, las únicas que cumplen con los valores exigidos a precios competitivos son las lámparas CF. De modo tal que el mundo desarrollado deberá acostumbrarse a vivir bajo una intensidad de luz inferior a la habitual; sin lugar a dudas, implicará un descenso en su calidad de vida.

Tal vez dentro de unos pocos años nos reuniremos alrededor de una fogata y recordaremos con nostalgia esa sensación, primitiva y placentera, de luz irradiando a partir de un punto focal.

lunes, 28 de enero de 2008

EL INSOMNIO TAN TEMIDO


Durante el año 2007, la sociedad norteamericana gastó la impresionante cifra de 20 mil millones de dólares en temas relacionados con el sueño. La National Sleep Foundation, ONG financiada por la industria farmacéutica, publicó un estudio donde se afirma que menos de la mitad de los norteamericanos reconocen haber dormido bien la mayoría de las noches en los últimos años.

Primero fue la industria alimenticia quien pudo establecer que una buena alimentación significa no sólo una mejor calidad de vida, sino también una vida más prolongada. A continuación, la industria del ejercicio físico logró fundamentar las ventajas terapéuticas del aerobismo y otras actividades físicas. Ahora es el turno de la industria del sueño: duerme más y vivirás más y mejor.

En nuestra cultura, calidad de sueño implica ir a un cuarto oscuro, acostarse, dormir 8 horas para luego levantarse y desayunar. Por el contrario, una mala noche puede implicar dificultad en conciliar el sueño, dar vueltas y vueltas en la cama, levantarse varias veces durante la noche y/o esperar desesperadamente la salida del sol. En resumen, una guerra unipersonal que pretendemos infructuosamente olvidar durante el día.

Nuestros estándares de calidad de sueño son relativamente modernos; hay registros que van desde la época helénica hasta el siglo XVIII que muestran que la sociedad occidental acostumbraba a dormir en dos turnos: se acostaban a una cierta hora y en el medio de la noche se despertaban por aproximadamente una hora, para luego iniciar una segunda etapa de sueño. En el intermedio, realizaban tareas del hogar, cuidaban a los animales, fumaban una pipa o simplemente conversaban con sus compañeros de habitación.

No se trataba de una cuestión cultural: en las noches había que alimentar el fuego para reducir el frío ambiental; había que alimentar a los animales y alejar sus excrementos; también los residuos humanos enturbiaban el ambiente. La mayoría de las personas dormía en una habitación común, a veces sobre un único colchón y compartiendo unas pocas mantas. Sólo algunas sociedades africanas mantienen la idea de pasar la noche “en sociedad” alternando etapas de sueño y de vigilia.

Las sociedades industrializadas requieren, muy a menudo, el estar lo suficientemente descansado para una larga jornada laboral. Paradójicamente, ello genera una ansiedad que es una de las principales causas del insomnio. Para combatirlo, la industria del sueño ataca en cuatro frentes: píldoras, colchones, terapias y clínicas de sueño.

Los médicos norteamericanos prescribieron, durante el año 2006, aproximadamente 49 millones de recetas que incluían algún tipo de fármaco para combatir el insomnio. La industria farmacéutica sacó al mercado una nueva generación de píldoras denominadas “Drogas Z”, cuya relativa baja eficacia en eliminar el insomnio se contrarresta con una ligera amnesia que se produce durante su efecto. Los profesionales involucrados afirman que el éxito de la droga radica en la eliminación de los malos recuerdos que se producen durante una noche de insomnio. La píldora no sólo induce químicamente el sueño, sino que además borra todos los registros de una “noche en vela”, de modo tal que la persona tiene la sensación de haber transcurrido la noche sin molestias, porque no mantiene recuerdos de las interrupciones que tuvo su sueño.

Lejos quedaron aquellos tiempos cuando comprar un colchón era una tarea sencilla. Si se dispone del dinero suficiente, ahora hay que evaluar las ventajas y desventajas de las decenas de modelos que los diversos fabricantes exhiben en los comercios especializados en el tema. Hay modelos con resortes o sin resortes, con capas de aire o espuma entre capas de resortes; modelos con espumas visco-elásticas que “recuerdan” la posición más utilizada durante el sueño; modelos que eliminan el calor que el cuerpo humano desprende cuando baja la temperatura corporal durante el sueño; modelos que pueden inflarse por mitades en distintos niveles para tener en cuenta los diferentes pesos y preferencias de cada ocupante del colchón. La industria contrata ingenieros y científicos, algunos con experiencia en la industria aeroespacial, para innovar constantemente y así sacar al mercado productos cada vez más caros y sofisticados. Si el dinero no es su problema, a la fecha el colchón más costoso se ofrece en 60 mil dólares.

La terapia más exitosa, en el sentido de reducir o eliminar el uso de píldoras somníferas, se denomina C.B.T. (Cognitive Behavioral Therapy, terapia cognitiva - conductual). Trata de eliminar el sentido de urgencia relacionado con el dormir 8 horas seguidas, busca reducir la presión asociada a un mal desempeño diario si no se cumple con la pauta estandarizada de sueño. La terapia crea una satisfacción subjetiva independiente de la cantidad real de horas dormidas. En este sentido, es muy similar al efecto amnésico de la droga Z.

Si todo lo anterior falla, aún restan las clínicas de sueño; las más sofisticadas incluyen hierbas somníferas, terapias de luz, auriculares que anulan el ruido, relojes alarma Zen, talismanes mágicos y otros adminículos según el bolsillo o la ingenuidad del paciente.

Dormir es una función humana vital y debemos recurrir a una estricta “higiene del sueño” para que nuestro organismo responda a nuestras necesidades laborales y vivenciales. Mientras nuestro estilo de vida no permita que podamos estar dormidos o despiertos en cualquier momento y en cualquier lugar, deberemos continuar con nuestro modelo de acostarnos en un lugar oscuro y “morir” durante unas horas. Si ello no es factible, utilicemos algunos de los recursos tecnológicos o terapéuticos que tenemos a mano.

lunes, 21 de enero de 2008

PETROALCOHÓLICOS ANÓNIMOS



Una clasificación simple, pero sin lugar a dudas muy útil, establece que existen países desarrollados y países en vías de desarrollo. En promedio, los países desarrollados (América del Norte, Europa Occidental, Japón y Australia) consumen 32 veces más petróleo y metales y generan (también en promedio) 32 veces más residuos y gases de efecto invernadero que sus pares en vías de desarrollo.

Sobre una población mundial de aproximadamente 6500 millones de personas, los 1000 millones que habitan en los países desarrollados utilizan 32 veces más recursos que los restantes 5000 millones. Pero en la última década se está verificando un lento pero indudable avance en el nivel de consumo de los “postergados”, de modo tal que el consumo mundial crece a tasas superiores respecto al incremento en la población mundial.

Todos queremos mejorar nuestra calidad de vida, como así también la de nuestra familia, nuestros amigos y la de algunos vecinos. Como los recursos del planeta son finitos, sólo podrá garantizarse la continuidad de la vida en el planeta si quienes más consumen comienzan a reducir significativamente su porcentaje, para darle lugar a quienes están ascendiendo en las pautas de consumo.

Los norteamericanos no sólo son los principales consumidores mundiales, sino que también son los principales “derrochadores” de energía y residuos. En particular, su adicción por los autos grandes propulsados mediante el motor de combustión interna, un invento del siglo XIX, los convierte indudablemente en los “malos de la película”. Sin embargo, cada día se nota con mayor intensidad el conflicto entre quienes promueven el cambio y los defensores del “Ancien Régime”.

Entre los primeros sobresale la organización Freedom From Oil; a continuación se detalla un listado con las principales propuestas para que los norteamericanos dejen de asistir a las reuniones de “Petroalcohólicos Anónimos”.

1.- Desarrollar motores de combustión interna más eficientes: pasar de los actuales 19.1 millas por galón (1 milla = 1.609 kilómetros ; 1 galón = 3.785 litros) a 40 mpg simplemente utilizando tecnología actualmente disponible.

2.- Desarrollar vehículos eléctricos híbridos: los mismos son propulsados mediante un motor eléctrico y requieren de una batería muy grande para capturar y almacenar la energía. El primer paso significativo lo dieron los japoneses mediante el Toyota Prius y algunas versiones del Honda Civic.

3.- Híbridos con “enchufe”: como los autos híbridos que están en el mercado aún requieren combustibles líquidos, una mejor solución consiste en recargar las baterías en la red eléctrica pública o mediante la conversión de energía solar. Si la mayoría de los estadounidenses dispusieran de un auto eléctrico con una autonomía entre 45 y 90 kilómetros, distancias que recorren diariamente en promedio, podrían reducir en un 85% su consumo de combustibles fósiles.

4.- Caminar, andar en bicicleta o aumentar el uso del transporte público

Los técnicos y científicos que asesoran a los integrantes de la organización no están a favor del biodiesel o del bioetanol debido a los problemas de deforestación, uso intensivo de productos químicos en los cultivos y también por el uso intensivo de energía en las refinerías, en los tractores y en los transportes. La excepción la constituye el etanol celulósico que se puede obtener a partir de pastos o residuos agrícolas. Es una alternativa promisoria porque son combustibles limpios y neutros en lo que respecta al balance de carbono, pero la tecnología aún no está disponible para emprendimientos en gran escala.

Tampoco son viables las celdas de hidrógeno porque la cantidad de energía eléctrica que debe utilizarse para obtener hidrógeno a partir del agua implica una enorme contaminación ambiental.

En resumen, la organización recomienda:

a.- Utilizar vehículos eléctricos híbridos recargables con una batería que permita al menos una autonomía de 60 kilómetros.

b.- Que la recarga de electricidad se realice mediante conversores de energía solar.

c.- Para viajes largos, utilizar combustible a base de etanol celulósico o biodiesel a partir de residuos orgánicos.

Freedom From Oil afirma que se acabó el tiempo del motor de combustión interna; el Auto Verde es la herramienta apropiada para reducir la crisis ambiental y para terminar las guerras motivadas por la posesión de los recursos energéticos. Hay soluciones tecnológicas para esta adicción.

miércoles, 9 de enero de 2008

SOPLANDO EN EL VIENTO


La seguridad energética se define como la disponibilidad de energía en forma confiable, a precio razonable y obtenible de manera sustentable de forma tal que se minimice el impacto sobre el medio ambiente. Planteado en estos términos y con una demanda creciente por parte de numerosos países en vía de desarrollo, puede afirmarse que la seguridad energética mundial no está garantizada en el mediano plazo.

No queda otra alternativa que incrementar significativamente el uso de energías alternativas. En valores relativos, el mayor crecimiento lo aporta la energía eólica.

Eolo es el dios griego guardián de los vientos, a quienes maneja y libera a su antojo. El hombre ha aprovechado la energía contenida en el viento desde al menos 3700 años atrás; hay registros que datan de esa época respecto a la utilización de molinos de eje vertical en la antigua Persia (hoy Irán) y en China. La tecnología fue introducida en Europa recién en la Edad Media y fue inmortalizada por Miguel de Cervantes Saavedra cuando su Quijote arremete contra los molinos de viento, a pesar de las sabias advertencias de su escudero Sancho.

En la actualidad, la generación de energía a partir del viento se realiza en las denominadas granjas eólicas. Se trata de zonas despobladas donde se instalan enormes turbinas que habitualmente tienen tres palas y rotan a velocidades que oscilan entre 10 y 30 revoluciones por minuto. Las palas se orientan en la dirección perpendicular a la de los vientos predominantes en la región y el giro de las mismas mueve un rotor que está conectado a un generador de electricidad.

La energía eólica tiene sus seguidores y sus detractores, sus ventajas y sus desventajas. Comencemos enumerando sus ventajas:

· Se trata de una energía renovable.
· No hay daños al medio ambiente desde el momento en que las turbinas no producen emisiones químicas o radioactivas.
· El terreno donde se instalan las turbinas puede ser utilizado para diversas actividades agropecuarias.
· Si las turbinas deben ser retiradas de su emplazamiento y esa tarea se realiza apropiadamente, no quedan residuos ni daño ambiental alguno.

La principal desventaja radica en que el viento no sopla en forma constante. Cuando lo hace, no necesariamente coincide con el período de mayor demanda de electricidad. Además, las regiones de vientos fuertes no suelen ser las más habitadas, motivo por el cual es necesario gastar en el tendido de una importante línea eléctrica hasta donde están los consumidores de energía.

El costo de mantenimiento de una granja eólica es superior al de una planta alimentada con carbón o gas natural y la superficie necesaria para generar una unidad de energía es mayor que la utilizada por cualquier otra alternativa. En resumen, es más cara cuando se la compara con los combustibles fósiles.

Hay objeciones de índole ambiental, tales como el ruido de las palas que molestan a los pocos habitantes de las regiones aledañas o las perturbaciones en las rutas de vuelo de diversas aves. Los “aristócratas” de la Costa Este de los Estados Unidos (incluida la familia Kennedy) reclamaron por el brusco cambio en el paisaje de su habitual lugar de veraneo (Cape Cod, donde se está por instalar una granja eólica); es indudable que hay una gran alteración del paisaje cuando se instalan en las partes más elevadas de una región decenas de turbinas que pueden medir más de 100 metros de altura.

A la fecha, es bastante más costoso generar electricidad mediante energía eólica que a través de una usina alimentada con carbón, gas natural o algún derivado del petróleo. Pero la seguridad energética y las consideraciones medioambientales han inclinado la balanza a favor del dios Eolo. Alemania, España y Estados Unidos lideran el ranking de países generadores de electricidad por vía eólica. En Alemania hay 20 mil turbinas que producen el 5% de la demanda eléctrica del país. Estados Unidos genera 11.575 megavatios y la producción está creciendo a tasas superiores al 20% anual. Gran Bretaña planifica obtener el 10% de su energía renovable (representa el 3% de la electricidad) a partir del año 2010 y pasar al 15% para el 2015.

Los pioneros en el uso de la energía eólica fueron los países nórdicos (Suecia, Dinamarca y Noruega). Todos ellos utilizan parte de la electricidad generada para bombear agua subterránea hacia depósitos elevados con el objetivo de alimentar pequeñas centrales hidroeléctricas, evitando de esta manera la desventaja de tener una demanda insatisfecha por falta de tiempo e intensidad de viento. Canadá, Italia, Japón y Holanda están utilizando las experiencias nórdicas para definir sus políticas de energías alternativas. Gran parte de los países en vía de desarrollo aún no ha incorporado seriamente el tema de los combustibles alternativos como parte de su estrategia para el mediano plazo.

Discrepo con aquellos “ambientalistas” que opinan que las gigantescas turbinas afean el paisaje. Considero que las granjas eólicas no sólo son una muestra cabal de la creatividad y el ingenio humano, sino que además le agregan al paisaje natural un efecto enriquecedor.

Respecto a la seguridad energética, la respuesta, mi amigo, está soplando en el viento.

jueves, 27 de diciembre de 2007

EL CUARTETO DE LA MUERTE


La energía solar que llega a la Tierra se invierte, durante el día, en calentar al planeta; sólo un escaso 0.3% se utiliza en el proceso de fotosíntesis vegetal. La Tierra se enfría durante la noche emitiendo radiación térmica al espacio que la envuelve. A lo largo de millones de años, este proceso sufrió escasas perturbaciones y el planeta mantuvo una temperatura media aproximadamente constante, con ligeras oscilaciones debidas a variaciones en la inclinación del eje solar.

A partir de la Revolución Industrial, el aumento en la concentración en la atmósfera de dióxido de carbono (CO2) y de otros gases contaminantes provenientes, fundamentalmente, de procesos industriales comenzaron a crear una pantalla para la radiación térmica, dando como resultado un lento pero inexorable aumento de la temperatura media terrestre. El Efecto Invernadero rompe el delicado equilibrio entre la energía que recibimos del sol y la que devolvemos al espacio que nos rodea. Numerosos científicos concuerdan que tal efecto es el principal responsable del aumento en el número de catástrofes naturales que están asolando nuestro habitat.

El dióxido de carbono es indudablemente el “malo de la película”. Para alertar sobre el efecto invernadero basta con mostrar las nubes oscuras que emergen de las chimeneas de las fábricas o de los gases de escape de autos embotellados en las megaciudades que siguen creciendo en el siglo XXI. Pero el CO2 no es el único malvado y en algunos aspectos no es el peor de todos.

La Agencia de Protección Ambiental (EPA, Environmental Protection Agency) de los Estados Unidos utiliza un parámetro denominado Potencial de Calentamiento Global (GWP, Global Warming Potencial) para cuantificar el daño que producen los gases de efecto invernadero. El GWP mide la cantidad de calor que es atrapado por una molécula de un determinado gas dividido por la cantidad de calor que atrapa una molécula de CO2.

El gas metano tiene un GWP de 21, lo que significa que es 21 veces más eficiente que el CO2 en retener calor e impedir que el mismo vuelva al espacio. Por lo tanto, si bien el CO2 representa el 85% del total de los gases contaminantes y el metano sólo el 8%, la mayor efectividad de éste último en prevenir el escape de la radiación infrarroja lo convierte en un problema a resolver con la misma celeridad que la relacionada con el CO2. Otro importante aspecto a tener en cuenta es la “vida útil” en la atmósfera de cada uno de los gases de efecto invernadero: aquí la ventaja es para el metano con 12 años de permanencia en la atmósfera, mientras que el dióxido de carbono puede permanecer entre 50 y 200 años.

¿Cuáles son las principales fuentes generadoras de metano?. Sólo un 60% se debe a la acción del hombre: descomposición de basura en rellenos sanitarios, producción de gas natural, minas de carbón; los excrementos del ganado son la mayor fuente no antropogénica de producción de metano. Todo parece indicar que parte del problema podría resolverse utilizando la descomposición de la basura para generar electricidad y modificando las “pautas alimenticias” del ganado para que sus excrementos sean más tolerados por nuestra atmósfera.

El tercero en la lista de “gases malvados” es el óxido nitroso; se trata del gas hilarante que usaron los dentistas como primeros analgésicos (ver en este blog el post titulado “Soñando con los angelitos”). Si bien representa sólo el 5.5% del volumen de gases de efecto invernadero generados en los Estados Unidos y sólo el 40% del mismo se debe a actitudes antropogénicas (su principal fuente la constituyen ciertos fertilizantes agrícolas), su GWP es de 310 y su vida en la atmósfera redondea los 120 años.

El “cuarteto de la muerte” se completa con el hexafluoruro de azufre (SF6); su GWP asusta: una molécula de SF6 tiene una capacidad de retener calor 23900 veces más que una molécula de CO2 y los 3200 años que dura en la atmósfera lo convierten, sin lugar a dudas, en el enemigo público № 1. Para detenerlo habrá que “convencer” a los fabricantes de obleas semiconductores o a quienes trabajan con magnesio fundido que ya es hora de buscar un sustituto que no perjudique a nuestro hermoso planeta azul.

viernes, 21 de diciembre de 2007

UN PROFETA DEL APOCALIPSIS


El Dr. Richard Duncan, ingeniero electricista y autonombrado Director del Instituto sobre Energía y el Hombre postula, nada más y nada menos, que la civilización industrial está por colapsar. Tal colapso tiene un nombre: Teoría Olduvai; también tiene una fecha: es el año 2030.

La Teoría Olduvai establece que la esperanza de vida de la sociedad industrial es de aproximadamente 100 años y corresponde al período 1930 – 2030. El parámetro crucial en la teoría es la producción de energía per capita (e), lógicamente definida como el cociente entre la producción mundial de energía y la cantidad de habitantes que hay en el planeta.

Duncan utiliza como datos a series de tiempo que muestran la evolución de la población y de la producción mundial de energía en los últimos doscientos años. Para las cinco principales fuentes de energía (petróleo, gas natural, carbón, nuclear e hidroelectricidad) encuentra las siguientes tendencias:

1.- la producción mundial de petróleo creció exponencialmente desde 1833 hasta 1970; a continuación se sucedieron períodos de crecimiento lineal o de decrecimiento entre los años 1970 al 2003.

2.- la producción de gas natural se inicia en el año 1880 y crece exponencialmente hasta 1970; es seguida de un crecimiento lineal hasta el año 2003.

3.- tomando como punto de partida la invención de una máquina de vapor por Savery alrededor del año 1700, la producción mundial de carbón indica un crecimiento exponencial hasta 1909; a continuación se suceden intervalos de crecimiento lineal o de decrecimiento hasta el año 2003.

4.- la generación de energía eléctrica mediante centrales nucleares comienza en 1955 y crece exponencialmente hasta 1975; a continuación se observan tres intervalos de crecimiento lineal y decrecimiento entre 1975 y 2003.

5.- la energía hidroeléctrica comienza en las Cataratas del Niagará (EE.UU.) en el año 1890; crece exponencialmente hasta 1972, linealmente hasta el año 2000, cuando comienza a decrecer.

Resumiendo para las cinco fuentes de energía, Duncan muestra que la producción mundial de energía creció exponencialmente entre 1700 y 1909 y entre 1945 y 1970. Creció linealmente al 2.2% anual entre 1909 y 1945 y al 3.5% anual desde 1970 a 1979. A partir de 1979, el crecimiento es también lineal pero sólo al 1.5% anual.

Cuando tales valores de producción energética se dividen por la población mundial de cada período, se obtienen pautas de crecimiento de la energía total per capita (e) similares a los números anteriores, excepto que en el período 1979 – 2003 el valor del parámetro es igual a 0.0%. En síntesis, el valor de e venía creciendo, tuvo su máximo entre 1945 y 1970 y ahora, por primera vez en la historia de la civilización industrial, no crece el consumo energético mundial per cápita. Los últimos cálculos de Duncan establecen que el decrecimiento del valor de e comenzará en el año 2008; es el preanuncio del final de la civilización industrial.

Tal vez por deformación profesional, o tal vez porque conoce perfectamente el tema electricidad, el Apocalipsis según Duncan se manifestará en forma de Grandes y Permanentes Apagones Eléctricos. Tales apagones serán inevitables debido a la combinación de las siguientes causas: falta de inversiones, elevados costos operativos de las centrales eléctricas, aumento permanente en el precio del barril de petróleo, calentamiento global, agotamiento de los recursos no renovables, polución, deforestación y otros males de la civilización actual.

La vida moderna está sustentada en la fácil disponibilidad de energía eléctrica relativamente barata; cuando ocurran los apagones permanentes, la civilización iniciará su inexorable descenso hacia una nueva forma de vida, no sólo preindustrial sino también preagraria. El término Olduvai proviene de un sitio en Tanzania (África) donde en 1955 los antropólogos Louis y Mary Leakey encontraron restos de homínidos que habitaron esa región hace miles de años atrás, en la denominada Era de Piedra. Duncan pronostica que sólo 2 mil millones de seres humanos poblarán el planeta en el año 2050, subsistiendo en condiciones absolutamente precarias.


Es habitual que, en las cercanías del final de un año, hagamos un balance de nuestros actos y una serie de promesas a cumplir durante el nuevo año. Incluyo este post con la intención de que él mismo sirva para que en el 2008, la conservación de la vida en nuestro hermoso planeta azul esté en el primer puesto de nuestras prioridades

miércoles, 12 de diciembre de 2007

GEOMETRÍA DE LO IMPENSADO



Historia de la Pelota de Fútbol, 5º parte.


Los ingleses inventaron el football y la Asociación Inglesa de Fútbol estableció la mayoría de las reglas con las que actualmente se juega. Respecto a la pelota, la Asociación estipuló en 1872 que la misma debía ser “esférica con una circunferencia de 27 a 28 pulgadas” (68.6 a 71.1 cm). Posteriormente estableció que debía tener una cobertura exterior de cuero u otro material aprobado y que el peso podía oscilar entre 14 y 16 onzas (397 a 453 gramos).

Los balones utilizados entre finales del siglo XIX y las primeras décadas del siglo XX eran de cuero marrón curtido con 18 paños cosidos en 6 paneles de tres tiras cada uno. Las pelotas más caras se fabricaban a partir del cuero de las ancas de las vacas mientras que las más económicas se hacían con los cuartos delanteros de las mismas. Las cámaras eran de caucho y tenían una “manguerita” para inflarlas. No existían controles de calidad, motivo por el cual diferían apreciablemente en cuanto al espesor del cuero, la calidad del mismo y el tipo de caucho. Esas diferencias eran tan marcadas que durante la final de la primera copa mundial jugada en Uruguay en 1930, entre los locales y Argentina, se resolvió que durante el primer tiempo se jugara con una pelota “made in Argentina” y el segundo tiempo con una uruguaya. El resultado de los primeros 45 minutos fue: Argentina 2 – Uruguay 1; lamentablemente, y confirmando la importancia de la pelota, el resultado final fue Uruguay 4 – Argentina 2.

La Segunda Guerra Mundial inevitablemente estableció un paréntesis en el desarrollo de los campeonatos mundiales de fútbol. El primer mundial de posguerra se realizó en Brasil en 1950 y en el mismo se continuó utilizando una pelota marrón de 18 paños. Era una pelota pesada, producía golpes muy dolorosos con sus impactos y su principal inconveniente era el agua que absorbía en los días de lluvia; debido a este último problema, el reglamento permitía que el peso de la pelota continuara fluctuando entre 397 y 453 gramos.

La revolución en el diseño de los balones se dio en el Mundial de México 1970 y fue impulsado por la televisación de los partidos en vivo y en directo. El modelo “Telstar” desarrollado por la empresa Adidas fue la primera de las “Bucky balls”.

El ingeniero norteamericano Richard Buckminster Fuller confiaba poderosamente en las habilidades creativas del ser humano y en la perspectiva de un futuro mejor a partir de los nuevos desarrollos tecnológicos y de una “ciencia del diseño” que fuera solucionando uno tras otro los diferentes problemas que afectaban a la humanidad.

La muerte de su pequeña hija de 4 años, debido a problemas en la vivienda que habitaban, lo impulsó a dedicarse al diseño y construcción de edificios. Investigó arduamente sobre estructuras, nuevos materiales y diferentes técnicas de construcción buscando soluciones que involucraran el mínimo consumo de materiales y energía. Se interesó particularmente en el diseño de objetos que se armaban a partir de varias partes pequeñas e idénticas.

En 1949, Buckminster Fuller construye el domo geodésico: un novedoso edificio de diseño futurístico constituido por una red altamente compleja de triángulos idénticos que forman una superficie prácticamente esférica. La similitud entre los triángulos simplifica enormemente la construcción del domo y le otorga a la estructura una resistencia superior comparado con edificios construidos con la misma cantidad de materiales. Consideremos la cáscara de un huevo: es un material débil y quebradizo, pero cuando adopta la forma ovoide su resistencia a la tensión crece enormemente.

Los diseñadores de Adidas se inspiraron en el domo geodésico de Buckminster Fuller para crear la pelota utilizada en el Mundial de México de 1970, denominada “Telstar” por el satélite que permitió la transmisión de los partidos. La pelota, rebautizada “Buckminster Ball” o “Bucky ball”, consistía en 20 superficies hexagonales (objetos con 6 lados) y 12 superficies pentagonales (objetos con 5 lados) cosidos juntos para conformar una superficie casi esférica. Desde el punto de vista geométrico, es un icosahedro truncado –un polígono con 60 vértices y 32 caras–, 12 de esas caras eran pentágonos negros y 20 eran hexágonos blancos que permitían su visualización en los televisores blanco y negro que eran mayoría para la época.

El modelo “Telstar” volvió a ser utilizado en Alemania 1974 y la única variante fue una versión denominada “Chile Durlast” que no tenía paneles negros. Adidas introdujo el modelo “Tango” en el Mundial de Argentina 1978; continuaban los 32 paños pero con un nuevo diseño de 20 paneles negros que daban la sensación de que la pelota constaba de 12 círculos negros idénticos. La “Tango España” de 1982 incluía una capa de caucho sobre las costuras para disminuir el ingreso de agua al interior de la misma. Sin embargo, los sucesivos impactos desgastaban a la capa de caucho y podían obligar al reemplazo de la pelota durante el juego. Fue la última pelota de cuero utilizada en un mundial organizado por la FIFA.

jueves, 6 de diciembre de 2007

HUMO SOBRE EL PREJUICIO


El Dr. Richard Doll publicó en 1952 un paper cuyas conclusiones originaron una gran controversia: hay una alta correlación entre el hábito de fumar y el cáncer de pulmón. El resultado del estudio no sólo fue rechazado por varios profesionales del área salud, sino también por tres grandes estadísticos de la época: Jerzy Neyman, Joseph Berkson y por R. A. Fisher, uno de los Padres Fundadores de la Estadística.


Ronald Aylmer Fisher nació en Londres en el año 1890. Estudió en Cambridge donde obtuvo un grado en Matemáticas, aunque luego se especializó en genética y estadística. Contemporáneo de Karl Pearson, desarrolló la técnica estadística denominada análisis de la variancia, numerosas técnicas de análisis multivariable e introdujo el concepto de máxima verosimilitud para la estimación de parámetros. Entre sus múltiples publicaciones, sobresale el libro Statistical Methods for Research Workers, tal vez el texto más utilizado por los estudiantes de estadística en la primera mitad del siglo XX.

La exitosa integración que realizó entre la genética Mendeliana con la teoría de la selección natural de Darwin le valió el título de Fundador de la Teoría de la Evolución Moderna. Por supuesto que también en este campo escribe un libro clave: The Genetical Theory of Natural Selection, publicado en 1930 donde “inagura” la disciplina científica denominada genética de poblaciones.

A pesar de su brillante carrera, Fisher dedica la última década de su vida (fallece en 1962) a invalidar los resultados de Doll y otros científicos referidos a la correlación entre fumar y el cáncer de pulmón. Para ello recurre a dos alternativas: en la primera invierte la relación causa-efecto; en la segunda busca datos que “empujen” las conclusiones hacia sus preconceptos.

Invertir la relación causa-efecto implica que es el cáncer de pulmón quien genera el deseo de fumar. Dado que los pacientes aquejados de la terrible enfermedad desarrollan durante muchos años un estado precanceroso, postula que durante esa etapa los pulmones están químicamente irritados y que para poder sobrellevar esa irritación, las personas recurren al cigarrillo como forma de aliviar la situación. En 1958 escribe que quitarle el cigarrillo a una persona en estado precanceroso “equivale a quitarle el bastón a un ciego".

Como el argumento es muy endeble, recurre a una segunda alternativa que tiene mayor fundamento teórico. Ahora el fumar y el cáncer de pulmón están correlacionados con un tercer factor que es la verdadera causa. Como experto en genética, es natural que postule que “la obvia causa común son los genes”. Publica dos artículos en la revista Nature titulados “Lung cancer and cigarettes” y “Cancer and smoking” donde utiliza pocos datos, experimentos mal organizados y un lenguaje más afín a un lobista que a un científico.

¿Por qué un científico de la talla de Fisher se arriesga al descrédito y la burla de sus pares por una cuestión aparentemente no fundamental en su trayectoria profesional?. Stephen Jay Gould plantea dos posibilidades: una de orden inmediato y práctico; la segunda teórica y de más largo alcance.

La razón práctica radica en que Fisher es contratado como científico consultor por un Comité de Empresas Tabacaleras, quienes estaban siendo sometidas a juicio debido al daño personal causado por sus productos. La intervención de Fisher en varios juicios en EE.UU. ayuda a que las compañias ganen los pleitos y disminuye durante varios años la presión legal sobre las tabacaleras.

La posibilidad teórica se basa en que Fisher apoyó intensamente durante su vida profesional a las teorías eugenésicas. La teoría eugenésica postula que la herencia es significativamente más importante que el medio ambiente en el desarrollo de las cualidades mentales y emocionales. La vida humana y la cultura podían mejorarse mediante estrategias de mejora genética estimulando el nacimiento de niños de “mejor calidad genética” (eugenesia positiva) y previniendo el nacimiento de aquellos que tendrían peor calidad genética (eugenesia negativa). Francis Galton, estadístico del siglo XIX, propuso un sistema de matrimonios arreglados entre hombres distinguidos y mujeres ricas con clase para producir una raza privilegiada y mejorada a través de las sucesivas generaciones.

Las convicciones eugenésicas de Fisher lo conducen a defender las explicaciones genéticas para justificar las conductas humanas. El deseo de fumar y el cáncer de pulmón están en los genes y sólo hay que buscar datos que validen estas hipótesis.

Ambas posibilidades son factibles; lo concreto es que la prédica de Fisher fue uno de los varios motivos que demoraron la implementación de medidas antitabaco con el lógico resultado de la muerte de muchas personas. Al final, sólo se trató de “Mala Ciencia” que el tiempo inexorablemente se encargó de demoler.

Mucho más grave fue su defensa y promoción de la ideas eugenésicas. Hitler y sus secuaces las utilizaron como argumento teórico para justificar la existencia una raza superior y de razas inferiores a las que se debía eliminar mediante cualquier método. El asesinato más cruel de la historia humana tuvo como "soportes" a Fisher, Galton y otros “reformadores sociales”.

Estamos observando un resurgimiento del racismo, la xenofobia y la intolerancia religiosa. Quienes hacemos divulgación científica debemos comprometernos a mostrar aquellos ejemplos de Mala Ciencia que causaron daños a nuestros semejantes, para evitar que los "nuevos prejuiciosos" la utilicen contra aquellos a quienes consideran diferentes.