miércoles, 29 de agosto de 2007

EVOLUCIONANDO A LOS SALTOS


Pregunta: ¿qué tienen en común Rudyard Kipling, Charles Dickens, Mark Twain, Sigmund Freud, la oveja Dolly, la ley de Boyle-Mariotte, Juan Pablo II, las leyes impositivas de Zimbabwe, el idish, la Defenestración de Praga y las escrituras de los mayas?. Respuesta: conforman el núcleo a partir del cual el más brillante divulgador de temas científicos nos asombra con su erudición y su capacidad para exponer teorías y conocimientos científicos. Su nombre: Stephen Jay Gould.

Gould (1941-2002) fue un brillante científico, tal vez uno de los últimos “renacentistas”, cuya obra abarcó diferentes áreas del conocimiento: Teoría de la Evolución, Historia y Filosofía de la Ciencia, Historia Natural, Geología, Paleontología y algunas incursiones en Ciencias Sociales.

Su producción científico-literaria incluye 22 libros, 101 revisiones de libros, 479 “papers” científicos y 300 ensayos publicados en su columna “This view of life” en la revista Natural History.

No hay dudas que su principal aporte científico está en el campo de la Teoría de la Evolución. La citada teoría intenta explicar los cambios operados en las especies en el transcurso del tiempo y la aparición de nuevos organismos. Hasta mediados del siglo XIX predominaba un concepto fijista, que pregonaba que los organismos eran inmutables y permanecían tal cual eran desde su creación.

La obra de Charles Darwin fue el primer intento, exitoso aunque incompleto, de explicar el origen de las especies con su hipótesis de la evolución por selección natural. En la misma explicaba que la naturaleza no es estática sino cambiante y que continuamente aparecen especies, que en el caso de presentar características adecuadas para las condiciones ambientales de ese momento tendrán mayores chances de sobrevivir y dejar descendencia

Las ideas de Darwin se enriquecieron notablemente con los aportes de la genética, la paleontología y la biología de poblaciones, lo cual llevó a que a mediados del siglo XX la teoría se conformara como Teoría Sintética de la Evolución o Neodarwinismo. Esta última postula que los cambios evolutivos son muy lentos y se verifican por la acumulación gradual de pequeñas variaciones, por lo cual se la conoce como gradualismo. Uno de los flancos débiles de esta teoría lo constituye el registro fósil: ¿por qué no aparecen todas las formas intermedias entre las distintas especies, los mal llamados eslabones perdidos?.

Stephen Jay Gould y el paleontólogo Niles Eldregde respondieron que las formas intermedias no aparecen porque, simplemente, muchas de ellas no existen. En 1972 postularon la Teoría del Equilibrio Puntuado o Saltacionismo: en el tiempo evolutivo, que se mide en millones de años, existen períodos de relativa calma y otros en los cuales, bruscamente y por azar, se producen grandes cambios y aparecen nuevas especies. Esta nueva hipótesis sirvió de base para numerosas discusiones académicas, enriqueciendo nuestra comprensión acerca del origen y evolución de los organismos en nuestro planeta.

Las declaraciones científicas de Gould: “los cambios en los organismos se deben exclusivamente al azar y a las presiones de selección ejercidas a lo largo del tiempo evolutivo y sin fines o metas pre-establecidas”, iban acompañadas de una profunda convicción igualitaria y una sensación de asombro ante la maravilla de la vida en el planeta.

En un ensayo titulado “Unidad Inusual” explicaba que las evidencias fósiles indican que durante cientos de miles de años convivieron distintas especies antropoides, de las cuales sólo una, el Homo sapiens, nosotros, vive en la actualidad. Y que a pesar de las diferencias aparentes, todos los hombres compartimos esa unicidad. Concluía el ensayo preguntándose si durante la mayor parte de nuestra historia evolutiva compartimos la Tierra con otras especies de antropoides y ahora somos únicos con una diversidad cultural fascinante: “… por qué no aprovechar esta ventaja?. Por qué nuestra unicidad biológica se ha traducido más en fracasos que en éxitos?. Podemos hacerlo, realmente podemos. Por qué no tratamos de probar la hermandad de la especie humana?”.

Stephen Jay Gould enseñaba biología, geología e historia de la ciencia en la Universidad de Harvard. Había ganado numerosos premios y distinciones y era miembro de la Academia de Ciencias de los Estados Unidos; también había aparecido en un capítulo de Los Simpsons. Recordaba con una mezcla de orgullo y nostalgia que su carrera había comenzado cuando, de la mano de su padre, había ido a ver un fósil del dinosaurio Tyranosuarus rex en el Museo Americano de Historia Natural de Nueva York. En ese momento, tenía cinco años de edad.

jueves, 23 de agosto de 2007

EJERCITANDO LAS NEURONAS


Un informe de las Naciones Unidas confirma la tendencia creciente en el envejecimiento de la población mundial. Los pronósticos indican que en el año 2050, la población mayor a 60 años representará el 32% de los seres humanos que habitarán el planeta. El número de adultos mayores crecerá desde el valor actual de 700 millones hasta aproximadamente 2000 millones a mediados del siglo XXI.

Las “nieves del tiempo” no sólo pintan de color plata a nuestros cabellos, sino que también producen un importante declive en las funciones cognitivas, en la memoria y en otras funciones de la mente. La industria farmacéutica invierte importantes cantidades de dinero en investigación y desarrollo de nuevos fármacos que permitan disminuir la velocidad de ese declive. Por suerte, ya disponemos de un remedio sencillo, económico y placentero: hacer ejercicio físico.

Todo comenzó cuando un equipo de investigadores científicos dirigidos por el Dr. Gage, del Salk Institute for Biological Studies en San Diego (California), encontró que un conjunto de ratones que se “ejercitaban” haciendo girar una rueda en el interior de sus jaulas superaban a sus congéneres “fiacas” en un experimento relacionado con la memoria espacial.

El experimento continuó con la inyección, a ambos grupos de ratones, de una sustancia colorante que se autoincorpora en aquellas células que se están dividiendo activamente. La sorpresa de los científicos fue muy grande cuando encontraron el colorante en el cerebro de los ratones, lo cual les indicó que los animales estaban creando neuronas en forma permanente. Además, encontraron que los ratones “activos” tenían el doble, y en algunos casos el triple, de neuronas "frescas" cuando se los comparaba con aquellos que no tenían la rueda en sus jaulas.

Para verificar si los seres humanos también tenían la capacidad de producir nuevas neuronas, reiteraron el experimento de la inyección de la sustancia colorante en un grupo de pacientes aquejados de cáncer terminal, quienes dieron su consentimiento para participar en el experimento científico. Las conclusiones fueron las mismas: en los seres humanos se verificó el proceso de neurogénesis: la creación de nuevas neuronas.

Los científicos arribaron a dos conclusiones extraordinarias: i) se generaban neuronas frescas en los ratones y en los seres humanos. Antes del citado estudio se consideraba que tal proceso no era factible; nacíamos con una cierta (aunque muy grande) cantidad de neuronas y no estábamos en condiciones de regenerarlas cuando las mismas morían en el proceso natural de envejecimiento; ii) la actividad física, particularmente la del tipo aeróbico, aumenta significativamente la generación de neuronas.

Un segundo experimento no sólo confirmó la validez del primero, sino que permitió inferir ciertas hipótesis relativas al mismo. Un grupo de personas, entre 21 y 45 años, comenzó a realizar ejercicios aeróbicos en forma sistemática, una hora por día durante cuatro veces a la semana. Se realizaron pruebas de memoria antes de comenzar el entrenamiento y al final de la 12º semana. Las pruebas indicaron una notable mejoría en las funciones de memoria de todos los participantes en el experimento.

La conclusión más interesante se obtuvo al analizar los resultados de las resonancias magnéticas funcionales realizadas a los sujetos del estudio. Se observó que el hipocampo de cada persona analizada recibía ahora el doble del volumen de sangre comparada con la que recibía antes de comenzar el ejercicio físico.

El hipocampo es una región del cerebro cuya principal función es la consolidación de la memoria y el aprendizaje. Una lesión en esta zona produce amnesia anterógrada, el olvido de los acontecimientos que ocurren después de la lesión. Quedan afectados los recuerdos de la mayoría de los sucesos posteriores, pero no se afecta al aprendizaje de nuevas capacidades o habilidades. Una persona con amnesia anterógrada podría aprender a conducir una bicicleta, pero no recordaría haberla visto nunca en su vida.

Un grupo de científicos del London University College encontró que el tamaño del hipocampo de los taxistas londinenses era, en promedio, más grande que el resto de los habitantes de la ciudad. También encontraron que los taxistas más veteranos poseían un mayor hipocampo que sus pares más jóvenes. Concluyeron que en esa región del cerebro debe residir la coordinación de la memoria y que crece según aumenta la capacidad del individuo de navegar por su entorno.

Numerosos neurólogos consideran que la pérdida de neuronas en el hipocampo es la causa principal del declive en las funciones cerebrales asociadas al envejecimiento. Por lo tanto, si se producen nuevas neuronas en la zona del hipocampo a través del desarrollo de una actividad física sistemática, principalmente de tipo aeróbico, estaríamos en presencia de un remedio simple, económico y placentero (el ejercicio físico produce endorfinas) que mejoraría notablemente la calidad de vida de numerosos adultos mayores.

El principal inconveniente podría ser que, en el año 2050, 2000 millones de personas decidan hacer ejercicios aeróbicos en el mismo horario. Pienso que las Naciones Unidas ya deberían formar una comisión para comenzar a organizar esta cuestión.

viernes, 17 de agosto de 2007

EL SER Y LA NADA


Las sociedades humanas, aproximadamente hace 5000 años, llegaron a un nivel de complejidad tal que fue inevitable la invención de los números. Diferentes sociedades desarrollaron distintas variantes: en algunas tribus que habitaban regiones del actual Estados Unidos, cada vez que una suma llegaba al valor 5 se doblaba un puño; así el número 7 se representaba mediante un puño doblado y dos dedos. No lo sabían, pero utilizaban lo que los matemáticos actualmente denominan un sistema de base 5 o de módulo 5. Los antiguos mayas, basándose en los dedos de las manos y de los pies, emplearon un sistema de módulo 20; la palabra que utilizaban para nombrar al número 20 es la misma que usaban para indicar al “hombre completo”.

Hubo civilizaciones más exageradas que llegaron a utilizar sistemas de base 60, aunque se ignora el motivo de tal decisión. En el siglo XIX se descubrió una tribu de aborígenes australianos cuya numeración era la siguiente: enea (1); petchaval (2); enea petchaval (3); petchaval petchaval (4); etc. Suena primitivo, pero es el mismo sistema binario o de base 2 que utilizan las computadoras. Se han encontrado evidencias que indican que los antiguos chinos intentaron aplicar un sistema de base 2 alrededor de 3000 años antes de Cristo.

Nuestro sistema de numeración actual es el decimal o de base 10; significa que utilizamos 10 dígitos diferentes. Cada dígito representa un número entre el 0 y el 9, o a un múltiplo de 10 de ese número; la posición que ocupa el dígito dentro de la cantidad determina que múltiplo de 10 representa el dígito. El motivo de elegir la base 10 estuvo relacionada con nuestra primera máquina de sumar: nuestros dedos. Fue inevitable, pero tal vez no la mejor decisión; cualquier matemático hubiera preferido el 12 (divisible por 1, 2, 3, 4 y 6) en reemplazo del 10 (divisible por 1, 2 y 5). Estrictamente, un matemático hubiera seleccionado el número 2.71828, base del sistema de los logaritmos naturales, por ser aquel que permitiría representar a los números mediante la menor cantidad de elementos.

El funcionamiento interno de una computadora está basado en dispositivos que sólo tienen dos elementos estables y por tal motivo se los denomina biestables. Lógicamente, es mucho más sencillo fabricar circuitos electrónicos que tengan dos estados estables que desarrollar circuitos que sean conductores en 10 niveles diferentes de corriente. Los estados deben ser perfectamente distinguibles y se debe poder cambiar sin ambigüedad alguna de un estado al otro; al aumentar el número de estados estables los problemas técnicos se incrementan varios órdenes de magnitud. Por tal motivo, la lógica interna de una computadora está basada en el sistema binario.

El bit (acrónimo de binary digit), porción mínima de información, sólo puede tomar dos valores: 0 y 1. En el interior de una computadora, estos valores se representan mediante el flujo o no de corriente, un voltaje bajo o alto o una polarización magnética en uno u otro sentido.

A comienzos del siglo XVIII, el filósofo y matemático alemán W. Leibniz redescubrió al sistema binario relacionándolo con significados cosmológicos. No tenía siquiera 20 años cuando estableció la idea de la lógica bivaluada y la noción cosmológica del 1 y el 0: la sustancia y la nada fueron los argumentos que utilizó Leibniz para combatir teológicamente al budismo. Posteriormente, los matemáticos estudiaron distintos sistemas con diferentes bases pero no se encontraron aplicaciones técnicas o de interés comercial hasta que llegaron las computadoras.

Cuando observamos el rol fundamental que tienen las computadoras en la vida moderna (incluyendo la lectura de este texto cuyo origen está en un servidor remoto) puede resultarnos increíble que la base de esta prodigiosa tecnología subyace en interruptores que se abren y cierran y que están basados en unas reglas simples establecidas por un matemático hace aproximadamente 200 años. Si Leibniz volviera a la vida, indudablemente pensaría que hay un profundo significado cosmológico en el 1 y en el 0.

sábado, 11 de agosto de 2007

LARA CROFT vs. LA SEÑO


Numerosos padres de chicos en edad escolar, o en la adolescencia, están sumamente preocupados porque los mismos pasan horas frente a sus computadoras o consolas de video (Playstation, Xbox, Nintendo, etc.) concentrados en juegos que no les reportan beneficio educativo alguno. ¡Que no cunda el pánico!. Ya son varios los académicos cuya opinión es que un buen videojuego puede ser una excelente herramienta educativa.

Al frente de la cruzada se encuentra James Gee, profesor de educación en la Universidad de Wisconsin, quien se planteó el siguiente interrogante: ¿cómo hacen los buenos diseñadores de videojuegos para que tantos jóvenes pasen horas aprendiendo sus largos, difíciles y complejos juegos, y no sólo los aprendan sino que también estén dispuestos a pagar por ellos?.

Gee se introdujo en el mundo de los juegos de video cuando su hijo de 6 años le pidió que le comprara un juego denominado Pajama Sam; como todo buen padre, Gee decidió compartir el aprendizaje del juego pero se encontró preguntándole al chico como podía avanzar a lo largo de los diferentes niveles del mismo.

Decidió comprar un juego para adultos, The new adventures of the time machine, inspirado en la novela de H.G. Wells. Se sorprendió al ver cuan largo, difícil y complejo era el juego, y no obstante algo provocativo y adictivo estaba ocurriendo en su mente en la medida en que avanzaba en el aprendizaje del juego.

Como científico del conocimiento, el Dr. Gee sabe que las personas aprenden mejor cuando están entretenidas, cuando pueden utilizar su creatividad para resolver tareas que involucren objetivos complejos, cuando pueden observar las consecuencias de las acciones realizadas y cuando la enseñanza incluye tanto el pensamiento como la emoción.

No es habitual que un docente pueda incluir las tareas previamente citadas en su lugar de trabajo. Celia Pearce, directora asociada del Game Culture and Technology Lab en la Universidad de California, afirma que: "Las escuelas están utilizando en la enseñanza un modelo de sociedad de la era previa a las computadoras... los chicos juegan en sus computadoras o consolas de juego cuando no están en la escuela. Luego se trasladan de este ambiente digital hacia el aula, y de repente están en la época de Dickens". Sube la apuesta indicando que: "los maestros y profesores desconocen que son los juegos o como utilizarlos para sus tareas educativas. En el peor de los casos tienen miedo de los juegos, en el mejor de los casos tiene una absoluta ignorancia sobre los mismos".

Gee afirma que los mejores videojuegos incorporan un conjunto de principios básicos de aprendizaje que los convierten en excelentes máquinas educativas. Uno de tales principios se denomina régimen de competencia: los estudiantes avanzan en sus conocimientos cuando el objeto de estudio los desafía al límite de sus habilidades; si el tema es muy complejo se frustran y si es muy simple se aburren.

Los videojuegos ejercitan sus "músculos de aprendizaje", a menudo sin saberlo y sin prestarle atención al proceso de aprendizaje. Los jugadores exitosos se concentran profundamente, tienen paciencia, desarrollan una predisposición a demorar la gratificación y evalúan la utilización de recursos escasos. En resumen, piensan intensamente.

El estereotipo del jugador de video muestra a un joven holgazán, con déficit de atención, sólo atraído por pantallas impactantes y ruidosas y predispuesto a matar a todo aquel que se cruce en su camino. Sin embargo, los diseñadores de juegos han creado mundos virtuales que deben ser explorados de forma tal que el cerebro procesa múltiples e interconectadas fuentes de información. Los jugadores se encuentran con problemas bien ordenados, reciben información del tipo "just in time" o sólo cuando la solicitan, deben ser muy pacientes y los nuevos desafíos no deben frustrarlos. Hay reconocimiento de patrones, pensamiento sistémico y una serie de recompensas bien establecidas. En resumen, los diseñadores de los mejores viedojuegos han desarrollados excelentes métodos para que la gente aprenda y disfrute aprendiendo.

Las propuestas de Gee son fuertemente criticadas por el establishment educativo norteamericano. El científico se defiende indicando que el aprendizaje, tanto en la escuela como en el lugar de trabajo, podría mejorarse si se le presta la debida atención a los mejores juegos para PC y para consolas. Lo anterior no necesariamente significa utilizar la tecnología de juegos en la escuela o en el trabajo, sino aplicar en tales lugares los principios de aprendizaje que los buenos diseñadores de videojuegos han incorporado en sus productos más exitosos. Quien desee obtener un listado de tales principios podrá encontrarlos en el libro de Gee titulado "What Video Games Have to Teach Us About Learning and Literacy" ("Que tienen los videojuegos para enseñarnos respecto a Aprendizaje y Erudición").

Últimos consejos: averigüe que videojuegos está utilizando su hijo, trate de compartir sus actividades lúdicas, trate de que incluya juegos que incorporen los principios de aprendizaje que propone Gee. Si su hijo lo desafía a una competencia, acepte pero no se haga ilusiones: la generación digital siempre vencerá a la generación analógica.

sábado, 4 de agosto de 2007

LA CARTA ROBADA




El famoso escritor norteamericano Edgar Allan Poe no sólo se consideraba un experto criptógrafo, sino que estaba absolutamente convencido que cualquier clave de encriptamiento podía ser descifrada en algún momento. Estaba absolutamente equivocado, tal como puede comprobarse leyendo el artículo que publiqué en este blog bajo el título “Contra el Gran Hermano”. En el mismo se detalla el proceso de encriptamiento y desencriptamiento, como así también la criptografía de clave pública. En este artículo, se amplían las ideas expuestas, incorporando los temas de firmas y certificados digitales.

La autentificación es una de las aplicaciones de la criptografía. Realizamos tareas de autentificación, a todo lo largo de nuestra vida, cuando firmamos o colocamos nuestro nombre en algún documento. Como el mundo está dirigiéndose a una etapa donde las decisiones y los acuerdos se comunicarán electrónicamente, necesitamos técnicas electrónicas que provean mecanismos de autentificación y la criptografía suministra herramientas para tales procedimientos: una firma digital relaciona un documento con el poseedor de una clave particular; una señal horaria digital relaciona un documento con su tiempo particular de creación. Estos mecanismos criptográficos podrían utilizarse para acceder a la información contenida en un disco rígido, a una instalación de seguridad o a las señales codificadas de un canal de televisión.

La identificación es un proceso a través del cual se puede averiguar la identidad de otra persona o entidad. Identificamos, en nuestra vida diaria, a nuestros familiares, amigos, colegas, etc a través de propiedades físicas tales como sus caras, voces u otras características. Las mismas se denominan biométricas y sólo pueden utilizarse en una computadora mediante un hardware sofisticado. Los métodos criptográficos permiten identificar a usuarios de una red: los esquemas más utilizados se basan en las denominadas pruebas de conocimiento cero, las cuales permiten a una persona (o a un servidor de red o sitio web) demostrar que poseen cierta información sin tener que explicitársela a la persona o entidad que están intentando convencer de su identidad. Es factible, con unas pocas herramientas criptográficas, elaborar esquemas y protocolos que permitan pagar utilizando moneda electrónica, probar que poseemos cierta información sin tener que revelar la misma o compartir una parte de una información secreta.

Firmas Digitales

Una de las principales ventajas de la criptografía de clave pública es que provee un método para utilizar las firmas digitales. Las mismas permiten que el receptor de una información verifique la autenticidad del origen de la información y también que la información está intacta ―sin agregados, reducciones o manipulaciones―. De esta forma, las firmas digitales no sólo proveen autenticación e integridad de los datos, sino que también pueden ser empleadas para tareas de no negación (no repudiación), que significa impedir al emisor negar en el futuro que haya enviado determinada información. En ciertas transacciones complejas se obligará a los emisores a enviar su firma digital junto al documento en cuestión. La gran dificultad que implica falsificar una firma digital evitará que alguien pueda negar su participación en la transacción.

La lógica de operación de una firma digital es la siguiente: un emisor (A) desea enviar un mensaje al receptor (B). En primer lugar, le aplica al mensaje una función de transformación (función hash) para generar lo que se denomina el resumen (digest) del mensaje. Este resumen es un conjunto ininteligible de caracteres de longitud fija creado por la función hash a partir del texto original. A continuación, el emisor encripta con su clave privada el resumen del mensaje (equivale a su firma digital) y se lo envía a B junto al mensaje original, el cual puede estar o no encriptado según la necesidad de confidencialidad del mismo. Cuando B recibe el mensaje le aplica la misma función hash al mensaje original y luego desencripta el resumen con la clave pública de A; si ambos coinciden el receptor puede confiar que el mensaje fue enviado por A y no por otra persona en su lugar.

La integridad de la información se verifica porque las funciones hash toman una entrada de cualquier tamaño (hasta millones de bits) y retornan una salida de longitud fija (200 bits) con un determinado valor que sólo depende del texto original. Un solo bit (una coma, un punto, una letra, etc) que se modifique en el mensaje original generará un resultado diferente, advirtiendo sobre un posible ataque a la información original. Tampoco es posible tomar la firma digital de un documento y adjuntárselo a otro. Si se utilizan funciones hash seguras, el proceso de verificación realizado por el receptor mostrará rápidamente el fraude.

Certificados digitales

En un esquema de criptografía asimétrica, tiene una importancia crucial el estar seguros que la clave pública mediante la cual estamos encriptando información pertenece al destinatario correcto y no es una falsificación introducida por alguien que quiere conocer nuestros documentos. La alternativa lógica es recibir personalmente la citada clave pública; esto no es factible cuando uno desea intercambiar información con personas que no conoce. La respuesta a este problema consiste en la utilización de certificados digitales.

Un certificado es una forma de credencial; posee cierta información que permite identificar a su portador y cierta autorización estableciendo que alguien ha confirmado la identidad. Un certificado digital es semejante a un certificado físico. El certificado digital es información adjuntada a la clave pública de una persona o entidad que le permite a otros verificar que la citada clave es genuina o válida.

Un certificado digital consiste de tres elementos:

· Una clave pública
· Información de certificación (datos del usuario)
· Una o más firmas digitales

El objetivo de las firmas digitales es establecer que la información de certificación ha sido comprobada por otra persona o entidad. Surgen, para esta función, las Autoridades de Certificación (Certificadores Licenciados ó Terceras Partes de Confianza) cuya tarea es analizar todos los certificados y firmar digitalmente aquellos que corresponden al dueño legítimo y no son una falsificación. Así, todos aquellos que confíen en la Autoridad de Certificación deberán considerar válidos a los certificados firmados por la misma. Las Autoridades de Certificación son, mayoritariamente, empresas o instituciones privadas y no ejercen ninguna función pública o, al menos, no se ha delegado la administración de función alguna en ellos.

Edgar Allan Poe está considerado el creador de la novela de detectives; su personaje, Dupin, resuelve el misterio de la carta robada en el cuento homónimo. Dupin explica que uno de los problemas para acceder a la solución de los enigmas es el exacerbado abuso de la lógica matemática. Sólo se logra la solución del misterio cuando se da la unión entre la ciencia (las matemáticas) y la poesía (el instinto y la intuición). Sin embargo, la criptografía de clave pública sólo utiliza recursos matemáticos y es impermeable a cualquier acción de las musas.

jueves, 2 de agosto de 2007

EN EL FONDO HAY LUGAR


Era un típico día de sol y buen clima en California. El orador subió al estrado y comenzó su discurso; sólo unos pocos integrantes del auditorio vislumbraron la audacia de la propuesta. Tal vez porque era 1959, tal vez porque Richard Feynman aún no había recibido el Premio Nobel.

La Academia sueca le otorgó el Nobel de Física a Feynman en 1965, tal vez por la metáfora utilizada en el título: “Hay mucho lugar en el fondo” (“there is plenty of room at the bottom”). Feynman intentó aclararlo con las siguientes palabras: "Los principios de la física, tal y como yo los entiendo, no niegan la posibilidad de manipular las cosas átomo por átomo... Los problemas de la química y la biología podrían evitarse si desarrollamos nuestra habilidad para ver lo que estamos haciendo, y para hacer cosas al nivel atómico". Hoy las ideas de Feynman tienen varios nombres: nanotecnología, ingeniería molecular o manufactura molecular. Se trata —elemental mi querido Watson— de fabricar objetos átomo por átomo y/o de manipular la materia a escala atómica. Se sabe que cualquier objeto está formado por átomos y que las propiedades de ese objeto depende de como están ordenados esos átomos. Si “reacomodamos” apropiadamente los átomos de un trozo de carbón obtendremos un diamante. Si reacomodamos los átomos de un puñado de arena y le agregamos unos pocos elementos, al final del proceso tendremos un “chip” de computadora.

El guante arrojado por Feynman fue recogido por Eric Drexler, un estudiante de pregrado en el Instituto Tecnológico de Massachusetts, a principios de la década del 80. Drexler condensa sus ideas en el libro “Los motores de la creación” (publicado en 1986) y conmociona al mundo científico y tecnológico: “la variación en el orden de los átomos diferencia al tejido sano del enfermo”; entonces, se ingresa un nanodispositivo en el interior del cuerpo de un paciente con cáncer para que “ordene” a una célula T que secrete una enzima antitumoral o a una macrófaga para que destruya a la célula cancerosa, todas estas tareas a nivel molecular y se elimina el tumor. La idea básica es imitar a la naturaleza -creando estructuras químicas estables que no estén prohibidas por las leyes de la física- y reproducir a escala submicroscópica los procesos de fabricación que actualmente realizamos a escala macroscópica.

Cualquier industrial sabe que para fabricar una pieza se requiere tener los materiales apropiados en el lugar y tiempo apropiados para ser maquinado mediante la herramienta apropiada. A escala atómica el tema se complica: se requiere un lugar para almacenar el “stock” de átomos, un procedimiento para transportarlos al área de trabajo, máquinas para ensamblar las distintas partes y sofisticadas técnicas de control computarizadas para garantizar que el proceso siga las especificaciones de diseño. Drexler propuso el desarrollo de un “ensamblador”: un brazo robótico, a escala submicrónica, capaz de tomar y ensamblar partes de tamaño molecular en forma similar a sus equivalentes macro. Lógicamente, un solo ensamblador demoraría una eternidad en producir una pieza que podamos tener en nuestras manos; la solución radica en diseñar ensambladores que se autoreplican, a la mayor velocidad posible, interconectados mediante redes de nanocomputadoras.

Integrados y Apocalípticos

La tecnología actual puede manejar objetos en el rango del micrón (la millonésima parte de un metro); los profetas de la nanotecnología imaginan dispositivos mil veces más pequeños. En sus sueños ven nanorobots, controlados por nanocomputadoras, que se autoreplican y van construyendo edificio tras edificio, hasta que en el transcurso de pocos días una nueva ciudad está lista para ser habitada. La nanotecnología promete un control absoluto del proceso de manufactura, sin generar los desperdicios que hoy en día contaminan el ambiente; pronostica la modificación química de todos los polucionantes y terminar así con la lluvia ácida, la contaminación de las aguas potables, el efecto invernadero y demás desastres ecológicos hasta mandar a la quiebra a todas las organizaciones defensoras del medio ambiente. ¿Recuerdan la película “El viaje alucinante”?: algunos científicos imaginan máquinas que viajarían por el torrente sanguíneo limpiando las arterias (¿qué es el colesterol?), reparando tejidos dañados, eliminando cánceres y demás tumores e inclusive reemplazando órganos completos.

Los más fervientes defensores de la nanotecnología molecular son los transhumanistas. En sus palabras: "El Transhumanismo representa un enfoque radicalmente nuevo en el pensamiento orientado hacia el futuro que se basa en la premisa de que la especie humana no representa el final de nuestra evolución, sino el principio”. Ellos han sugerido la aplicación de la nanotecnología médica para “rediseñar” al cuerpo humano de modo tal que pueda sobrevivir en el espacio o en otros planetas.

Por otro lado están quienes imaginan el Apocalipsis según Terminator I: un enjambre de robots autoreplicantes destruyendo toda la vida humana a su paso. Al frente de esta cruzada esta Bill Joy, cofundador y científico principal de Sun Microsystems (una de las más importantes empresas fabricantes de computadoras), quien solicitó que se renuncie (“to relinquish”) a la investigación y desarrollo en nanotecnología para evitar cualquier consecuencia adversa posible. Quien les responde es Ralph Merkle —junto a Drexler son los principales defensores de la nanotecnología molecular y codirigen el Foresight Institute, “think tank” de la nueva ciencia—. Merkle se pregunta: ¿cómo impedir que científicos y empresas no se involucren en un tema que les puede deparar fama y fortuna a la Bill Gates?; ¿cómo impedir que los gobernantes de un país renuncien a disponer de la tecnología más sofisticada y estratégica?; ¿porqué los seres humanos no pueden acceder a una tecnología que mejoraría enormemente su calidad de vida y la prolongaría más allá de los cien años?. Como la prohibición no es factible, hay que preveer dos posibilidades: el abuso deliberado y el accidente.

Por abuso deliberado se entiende el mal uso de la tecnología por un grupo terrorista o por algún “dictadorzuelo” con delirios de grandeza. La alternativa consiste en establecer un sistema de supervisión y vigilancia global que permita conocer en todo momento el estado de la tecnología. En la medida que más científicos comprendan los fundamentos y desarrollos, más posibilidades habrá de construir aparatos que contrarresten las posibles amenazas. Otros críticos de la nanotecnología plantean la posibilidad de una máquina molecular autoreplicante que convierta a toda la biósfera en copia de si misma. Merkle replica que esta versión del “aprendiz de brujo siglo XXI” no es factible porque las máquinas moleculares a construir sólo serán versiones submicroscópicas de las máquinas que actualmente existen en las fábricas. Los sistemas que se están desarrollando requieren partes producidas litográficamente, alguna fuente de energía externa y señales de control emitidas por una computadora; se corta la corriente y el proceso se detiene. Para el futuro próximo se establecen una serie de lineamientos básicos: los replicadores artificiales no deben poder reproducirse en ambientes naturales o no controlados; deben depender en forma absoluta de una fuente de energía externa, poseer códigos de detección de error y todo software de diseño debe estar encriptado para prevenir su alteración.

En su conferencia, Feynman dijo que las leyes de la física deberían permitirnos ajustar objetos molécula a molécula, e inclusive átomo a átomo. La metáfora del título se refería al fondo de la materia, al nivel de las moléculas y de los átomos. Las consecuencias de los desarrollos tecnológicos relacionados con esas ideas son impredecibles, pero la ciencia y la tecnología no se detienen. Indudablemente, hoy más que nunca, los que están directamente involucrados en esos estudios deben escuchar las palabras del filósofo Hans Jonas: “Obra de tal modo que los efectos de tu acción sean compatibles con la permanencia de la vida humana auténtica sobre la Tierra”.