Las décadas del 50 y 60 fueron el escenario de una "trascendente batalla" entre fabricantes de computadoras digitales y de computadoras analógicas con el rotundo triunfo de los primeros. El motivo que definió la contienda fue que las computadoras digitales y la lógica compartían los mismos conceptos básicos.
Si bien Aristóteles fue uno de los primeros en definir rigurosamente al silogismo, no quedan dudas respecto a que Leibniz fue el padre de la lógica simbólica moderna. Él estableció la idea de la lógica bivaluada y la noción cosmológica de 1 y 0 (la sustancia y la nada). Leibniz no tenía siquiera 20 años cuando formuló su sistema lógico y si bien intentó darle alguna utilidad, como tantos otros precursores, solamente sentó las bases para que otros continuaran su trabajo.
Doscientos años después, Sir William Hamilton (lógicamente, un inglés) comenzó a refinar los viejos silogismos y su trabajo fue denominado "la cuantificación de los predicados". El siguiente paso lo dio otro inglés, Augustus de Morgan, quien pasó de cuantificar los predicados a la formación de 32 reglas o proposiciones resultantes. Todo estaba listo para el "gran salto", el cual fue realizado por George Boole, creador del álgebra denominada, lógicamente, booleana.
Boole publicó en 1854 un trabajo denominado "Una investigación de las leyes del pensamiento en la cual se basan las teorías matemáticas de la Lógica y la Probabilidad". Las conclusiones del trabajo no inquietaron al mundillo científico de la época, quien las consideró sólo de interés académico, y debieron transcurrir más de cincuenta años para que la obra de Boole comenzara a rendir frutos.
El reconocimiento le llegó a Boole a través de la obra cumbre del gran filósofo Bertrand Russell: Principia Mathematica, escrito en colaboración con Alfred North Whitehead en 1910. En el mismo, los autores reconocen la trascendencia del trabajo de Boole, a partir de lo cual se suceden las investigaciones en el campo de la lógica simbólica y es así que dos renombrados matemáticos de la época, Hilbert y Ackerman, publican en 1928 el primer libro del nuevo álgebra bajo el título original de "Mathematical Logic".
El álgebra de Boole puede analizarse a través de las "Tablas de Verdad", tal como se muestra a continuación para los operadores booleanos de conjunción y de disjunción:
Conjunción-------- A---- B---- C
A y B igual C-------0---- 0---- 0
A AND B = C -------1---- 0---- 0
---------------------0---- 1---- 0
---------------------1---- 1---- 1
Disjunción ---------A---- B----C
A ó B igual C ------0---- 0---- 0
A OR B = C --------1---- 0---- 1
---------------------0---- 1---- 1
---------------------1---- 1---- 1
En las Tablas de Verdad, el 1 simboliza verdadero mientras que el 0 simboliza falso. En la operación de conjunción (AND), sólo si A y B son verdaderos resulta C verdadero; en la operación de disjunción (OR), C es verdadero si A ó B lo son. A partir de estas simples premisas se desarrolla el álgebra de Boole y cuando los científicos y técnicos lo aplican en las computadoras se obtienen aparatos digitales que no sólo realizan complejos y extensos cálculos matemáticos sino también operaciones lógicas, incluyendo la toma de decisiones sobre una base exclusivamente lógica.
Una analogía simple nos permitirá entender los principios de funcionamiento de los citados operadores booleanos: supongamos que tenemos que cruzar dos ríos y tenemos dos puentes en serie (uno a continuación del otro), sólo podremos llegar a destino (1, verdad) si ambos puentes están operativos; es el caso del operador AND. Si por el contrario tenemos sólo un río por cruzar y dos puentes en paralelo para hacerlo, podemos utilizar cualquiera de ellos y sólo bastará que al menos uno de ellos esté operativo para poder llegar a nuestros destino; es el equivalente del operador OR.
El álgebra booleana fue ampliada mediante la incorporación de los operadores NOT, NOR y OR exclusivo. En este último, la respuesta es 1 si una y sólo una de las entradas tiene el valor 1. El circuito NOR sólo pudo aplicarse a partir de la invención del transistor, ya que los tubos de vacío que se utilizaban previamente en la fabricación de computadoras, no permitían esa configuración. El principio de negación o complemento (NOT) tiene su aplicación técnica en los denominados inversores, cuya tarea es invertir la polaridad en un circuito; su equivalente booleano es transformar el 1 en 0 y viceversa. La primera gran aplicación en las computadoras del operador de negación consistió en transformar la operación de restar en una suma de complementos.
Claude Shannon, un estudiante del Massachusets Institute of Technology (MIT), publicó en 1938 un paper cuyo título original era "A Simbolic Analysis of Relay and Switching Circuits". En este trabajo, Shannon mostraba que los circuitos eléctricos y electrónicos podían ser descritos mediante el álgebra de Boole. Prácticamente, todos los circuitos se forman a partir de tres tipos básicos - AND, OR y NOT-, y las operaciones que realizan los circuitos se describen mediante expresiones sencillas del álgebra booleana. Resultados que podrían haber intrigado a un ingeniero eléctrico en las décadas del 50 o 60 resultaban obvios para un matemático que conociera el álgebra de Boole, aunque careciera de conocimientos de electrónica. Shannon posteriormente manifestó que fue muy afortunado por haber sido el primero en relacionar dos campos aparentemente tan disímiles entre sí.
Recordemos que las propiedades de los componentes electrónicos establecen que la información puede ser almacenada eficientemente en forma binaria. El bit, porción mínima de información sólo puede tener dos valores, 0 y 1. En el interior de una computadora, estos valores se representan mediante el flujo o no de corriente, un voltaje alto o bajo o una polarización en uno u otro sentido. Para poder comprender el funcionamiento de una computadora necesitamos conocer lógica simbólica, por lo tanto necesitamos conocer álgebra de Boole. Si dado un problema a resolver podemos simplificar las expresiones booleanas que lo representa, entonces podemos simplificar la lógica de la computadora necesaria para resolver el problema.
George Boole (1815 – 1864) tenía pocas chances de llegar a ser un genio de las Matemáticas. Hijo de un obrero inglés en plena Revolución Industrial, tuvo la suerte de que su padre le transmitió el amor por los números. Sus escasos recursos económicos no fueron un impedimento para detener su pasión por el conocimiento: a los 12 años traducía poesía del latín, a los 16 hablaba alemán, italiano y francés con fluidez; a los 20 ya tenía su propia escuela y se las “rebuscaba” para conseguir revistas científicas que le permitieran seguir capacitándose.
Publicó su primer “paper” a los 24 años; fue el inició de una extensa producción científica que se tradujo en un puesto rentado en el Queen´s Collage de Irlanda donde desarrolló las ideas del álgebra booleana. Tales ideas fueron criticadas o ignoradas por sus pares a pesar de la alta estima que Boole contaba en la comunidad científica de la época. Se dedica, entonces, al estudio de las ecuaciones diferenciales y de las ecuaciones en diferencias finitas. Muere a los 49 años debido a una pulmonía conseguida tras caminar 3 km baja una intensa lluvia y sin secarse o cambiarse de ropa dicta una clase de 3 horas de duración, absolutamente empapado. Paradójico, un genio de la lógica que carecía de sentido común.
Si bien Aristóteles fue uno de los primeros en definir rigurosamente al silogismo, no quedan dudas respecto a que Leibniz fue el padre de la lógica simbólica moderna. Él estableció la idea de la lógica bivaluada y la noción cosmológica de 1 y 0 (la sustancia y la nada). Leibniz no tenía siquiera 20 años cuando formuló su sistema lógico y si bien intentó darle alguna utilidad, como tantos otros precursores, solamente sentó las bases para que otros continuaran su trabajo.
Doscientos años después, Sir William Hamilton (lógicamente, un inglés) comenzó a refinar los viejos silogismos y su trabajo fue denominado "la cuantificación de los predicados". El siguiente paso lo dio otro inglés, Augustus de Morgan, quien pasó de cuantificar los predicados a la formación de 32 reglas o proposiciones resultantes. Todo estaba listo para el "gran salto", el cual fue realizado por George Boole, creador del álgebra denominada, lógicamente, booleana.
Boole publicó en 1854 un trabajo denominado "Una investigación de las leyes del pensamiento en la cual se basan las teorías matemáticas de la Lógica y la Probabilidad". Las conclusiones del trabajo no inquietaron al mundillo científico de la época, quien las consideró sólo de interés académico, y debieron transcurrir más de cincuenta años para que la obra de Boole comenzara a rendir frutos.
El reconocimiento le llegó a Boole a través de la obra cumbre del gran filósofo Bertrand Russell: Principia Mathematica, escrito en colaboración con Alfred North Whitehead en 1910. En el mismo, los autores reconocen la trascendencia del trabajo de Boole, a partir de lo cual se suceden las investigaciones en el campo de la lógica simbólica y es así que dos renombrados matemáticos de la época, Hilbert y Ackerman, publican en 1928 el primer libro del nuevo álgebra bajo el título original de "Mathematical Logic".
El álgebra de Boole puede analizarse a través de las "Tablas de Verdad", tal como se muestra a continuación para los operadores booleanos de conjunción y de disjunción:
Conjunción-------- A---- B---- C
A y B igual C-------0---- 0---- 0
A AND B = C -------1---- 0---- 0
---------------------0---- 1---- 0
---------------------1---- 1---- 1
Disjunción ---------A---- B----C
A ó B igual C ------0---- 0---- 0
A OR B = C --------1---- 0---- 1
---------------------0---- 1---- 1
---------------------1---- 1---- 1
En las Tablas de Verdad, el 1 simboliza verdadero mientras que el 0 simboliza falso. En la operación de conjunción (AND), sólo si A y B son verdaderos resulta C verdadero; en la operación de disjunción (OR), C es verdadero si A ó B lo son. A partir de estas simples premisas se desarrolla el álgebra de Boole y cuando los científicos y técnicos lo aplican en las computadoras se obtienen aparatos digitales que no sólo realizan complejos y extensos cálculos matemáticos sino también operaciones lógicas, incluyendo la toma de decisiones sobre una base exclusivamente lógica.
Una analogía simple nos permitirá entender los principios de funcionamiento de los citados operadores booleanos: supongamos que tenemos que cruzar dos ríos y tenemos dos puentes en serie (uno a continuación del otro), sólo podremos llegar a destino (1, verdad) si ambos puentes están operativos; es el caso del operador AND. Si por el contrario tenemos sólo un río por cruzar y dos puentes en paralelo para hacerlo, podemos utilizar cualquiera de ellos y sólo bastará que al menos uno de ellos esté operativo para poder llegar a nuestros destino; es el equivalente del operador OR.
El álgebra booleana fue ampliada mediante la incorporación de los operadores NOT, NOR y OR exclusivo. En este último, la respuesta es 1 si una y sólo una de las entradas tiene el valor 1. El circuito NOR sólo pudo aplicarse a partir de la invención del transistor, ya que los tubos de vacío que se utilizaban previamente en la fabricación de computadoras, no permitían esa configuración. El principio de negación o complemento (NOT) tiene su aplicación técnica en los denominados inversores, cuya tarea es invertir la polaridad en un circuito; su equivalente booleano es transformar el 1 en 0 y viceversa. La primera gran aplicación en las computadoras del operador de negación consistió en transformar la operación de restar en una suma de complementos.
Claude Shannon, un estudiante del Massachusets Institute of Technology (MIT), publicó en 1938 un paper cuyo título original era "A Simbolic Analysis of Relay and Switching Circuits". En este trabajo, Shannon mostraba que los circuitos eléctricos y electrónicos podían ser descritos mediante el álgebra de Boole. Prácticamente, todos los circuitos se forman a partir de tres tipos básicos - AND, OR y NOT-, y las operaciones que realizan los circuitos se describen mediante expresiones sencillas del álgebra booleana. Resultados que podrían haber intrigado a un ingeniero eléctrico en las décadas del 50 o 60 resultaban obvios para un matemático que conociera el álgebra de Boole, aunque careciera de conocimientos de electrónica. Shannon posteriormente manifestó que fue muy afortunado por haber sido el primero en relacionar dos campos aparentemente tan disímiles entre sí.
Recordemos que las propiedades de los componentes electrónicos establecen que la información puede ser almacenada eficientemente en forma binaria. El bit, porción mínima de información sólo puede tener dos valores, 0 y 1. En el interior de una computadora, estos valores se representan mediante el flujo o no de corriente, un voltaje alto o bajo o una polarización en uno u otro sentido. Para poder comprender el funcionamiento de una computadora necesitamos conocer lógica simbólica, por lo tanto necesitamos conocer álgebra de Boole. Si dado un problema a resolver podemos simplificar las expresiones booleanas que lo representa, entonces podemos simplificar la lógica de la computadora necesaria para resolver el problema.
George Boole (1815 – 1864) tenía pocas chances de llegar a ser un genio de las Matemáticas. Hijo de un obrero inglés en plena Revolución Industrial, tuvo la suerte de que su padre le transmitió el amor por los números. Sus escasos recursos económicos no fueron un impedimento para detener su pasión por el conocimiento: a los 12 años traducía poesía del latín, a los 16 hablaba alemán, italiano y francés con fluidez; a los 20 ya tenía su propia escuela y se las “rebuscaba” para conseguir revistas científicas que le permitieran seguir capacitándose.
Publicó su primer “paper” a los 24 años; fue el inició de una extensa producción científica que se tradujo en un puesto rentado en el Queen´s Collage de Irlanda donde desarrolló las ideas del álgebra booleana. Tales ideas fueron criticadas o ignoradas por sus pares a pesar de la alta estima que Boole contaba en la comunidad científica de la época. Se dedica, entonces, al estudio de las ecuaciones diferenciales y de las ecuaciones en diferencias finitas. Muere a los 49 años debido a una pulmonía conseguida tras caminar 3 km baja una intensa lluvia y sin secarse o cambiarse de ropa dicta una clase de 3 horas de duración, absolutamente empapado. Paradójico, un genio de la lógica que carecía de sentido común.
No hay comentarios.:
Publicar un comentario