cubierta.jpg

Siglo XXI de España / En 90 minutos

Paul Strathern

Turing y el ordenador

en 90 minutos

Traducción: Flavia Bello

Revisión: José A. Padilla

siglo-ESPANA.jpg

Diseño de portada

RAG

Motivo de cubierta:

Gary Brown / Science Photo Library

Reservados todos los derechos. De acuerdo a lo dispuesto en el art. 270 del Código Penal, podrán ser castigados con penas de multa y privación de libertad quienes sin la preceptiva autorización reproduzcan, plagien, distribuyan o comuniquen públicamente, en todo o en parte, una obra literaria, artística o científica, fijada en cualquier tipo de soporte.

Nota a la edición digital:

Es posible que, por la propia naturaleza de la red, algunos de los vínculos a páginas web contenidos en el libro ya no sean accesibles en el momento de su consulta. No obstante, se mantienen las referencias por fidelidad a la edición original.

Título original

The Big Idea: Turing and the Computer

© Paul Strathern, 1997

© Siglo XXI de España Editores, S. A., 1999, 2014

para lengua española

Sector Foresta, 1

28760 Tres Cantos

Madrid - España

Tel.: 918 061 996

Fax: 918 044 028

www.sigloxxieditores.com

ISBN: 978-84-323-1704-0

 

 

Introducción

El descubrimiento del ordenador podría ser uno de los grandes logros tecnológicos de la humanidad. Podríamos considerar incluso que el ordenador está a la altura del uso del fuego, el descubrimiento de la rueda y el dominio de la electricidad. Estos avances sirvieron para domeñar las fuerzas primarias: el ordenador domestica la propia inteligencia.

Más del 90 por 100 de los científicos que han existido están vivos actualmente, y los ordenadores multiplican la rapidez de su trabajo a diario. (La secuenciación del genoma humano se concluirá probablemente medio siglo antes de lo que se predijo al descubrir su estructura, y todo gracias a los ordenadores.)

Pero no habría que dejar volar nuestras esperanzas demasiado alto. Se esperaba algo similar del desarrollo del motor de vapor, hace menos de 150 años. Y la regla de cálculo duró menos de un siglo. El avance que podría hacer que el ordenador se convirtiera en un objeto inútil nos resulta inconcebible solo porque todavía no se ha concebido.

Incluso antes de que el primer ordenador se hubiera inventado, conocíamos sus límites teóricos. Sabíamos qué podría calcular. E incluso, durante el montaje de los primeros ordenadores, se entendía la cualidad potencial de su capacidad: podrían desarrollar su propia inteligencia artificial. El nombre del responsable de ambas ideas es Alan Turing.

Hombre muy peculiar, que llegó a verse a sí mismo como algo parecido a un ordenador, Alan Turing trabajó también en la calculadora Colossus, que descifró los códigos del Enigma alemán durante la Segunda Guerra Mundial. Al igual que Arquímedes, Turing tuvo que dejar de lado una brillante carrera para intentar salvar a su país. Arquímedes fracasó, y fue asesinado a golpe de espada por un soldado romano. Turing lo logró, y su agradecido país lo llevó a juicio por su homosexualidad.

Tras su prematura muerte, Turing fue condenado al olvido, pero actualmente cada vez más personas creen que tal vez fuera la figura más importante en la historia de la informática.

La era a.C.: los computadores antes de su tiempo

El primer ordenador fue, por supuesto, el ábaco. Este método de cálculo fue inventado incluso antes que la rueda (evidentemente, nuestro deseo de no ser engañados es más profundo que el de viajar con comodidad). Algunos restos arqueológicos demuestran que, en torno al 4000 a.C., ya se utilizaba en China y Oriente Próximo una forma de ábaco, que parece haber evolucionado de forma independiente en las dos regiones. Algunos sugieren que esto muestra la primacía de las matemáticas: la necesidad de calcular como una función aparentemente inevitable de la condición humana.

Ábaco deriva de la palabra babilónica «abaq», que significaba «polvo». Los estudiosos han dado explicaciones particularmente ingeniosas de esta manifiesta incongruencia. Según una de las versiones, todos los cálculos se realizaban originalmente sobre el polvo, por lo que «polvo» acabó definiendo toda forma de cálculo. Otra opción es que el método de cálculo utilizado por el ábaco se dibujara en un principio con líneas y rayas en el polvo.

En realidad, el ábaco no es en absoluto, estrictamente hablando, un ordenador. El cálculo real lo hace la persona que utiliza el ábaco, que debe tener en su cabeza el programa (los pasos matemáticos necesarios).

Sea un ordenador o no, lo cierto es que el ábaco y su programa humano se utilizaron en toda Europa y Asia para realizar cálculos hasta bien avanzada la Edad Media. Después se introdujo el cero en las matemáticas, lo que supuso un obstáculo para los trabajos en los que se utilizaba el ábaco. Como consecuencia de esto, los matemáticos serios desecharon rápidamente esta aportación infantil. Sin embargo, durante varios siglos el ábaco siguió utilizándose como calculadora, caja registradora, ordenador y para fines similares (y no tan similares). Es más: hasta hoy, el ábaco sigue desempeñando un papel fundamental en las economías locales de algunas zonas de Asia central y Rusia.

La primera calculadora conocida sigue siendo un auténtico misterio. En 1900, submarinistas cazadores de esponjas en Grecia descubrieron cerca de la diminuta isla de Antikythera restos de un antiguo naufragio del primer siglo antes de Cristo. Entre las estatuas y vasijas rotas se encontraron algunas piezas de bronce corroído, que parecían ser parte de una máquina. Los estudiosos tardaron 50 años en descubrir cómo encajaban estas piezas y lograr que el aparato funcionara. El resultado fue una especie de calculadora astronómica, que funcionaba igual que un ordenador analógico moderno, con piezas mecánicas para hacer los cálculos. Al girar una manivela se accionaban unas palancas; estas, a su vez, accionaban unos cuadrantes con los que se podía leer la posición del Sol y los planetas del zodiaco.

Lo que hace a este descubrimiento tan asombroso es su singularidad. Nunca se ha encontrado nada de ese periodo ni remotamente semejante a esto. En la literatura griega clásica no se menciona una máquina como esta, ni similar. Ningún filósofo, poeta, matemático, científico o astrónomo hace referencia a un objeto así. Además, según los conocimientos actuales sobre la ciencia de la antigua Grecia, no había tradición ni conocimiento capaz de producir tal máquina. Aparentemente, el primer ordenador fue una construcción estrafalaria, tal vez un juguete, de algún desconocido genio mecánico, que simplemente desapareció de la historia. Al tratarse de un objeto estrafalario sin influencias, desapareció como un cometa. Después, durante más de 1.500 años, nada.

En general, se considera la primera calculadora «real» la que fabricó en 1623 William Schickard, catedrático de hebreo en la Universidad de Tubinga. Schickard era amigo del astrónomo Johannes Kepler, que descubrió las leyes de los movimientos planetarios. Kepler despertó el interés latente por las matemáticas del catedrático de hebreo, cuya habilidad para realizar cálculos se había apolillado un poco con el paso de los años. Así que decidió fabricar una máquina que lo ayudara con sus sumas. La máquina de Schickard se ha descrito como un «reloj de cálculo». Se pretendía que sirviera de ayuda a los astrónomos, al permitirles calcular las efemérides (las futuras posiciones del Sol, la Luna y los planetas).

Desgraciadamente, nunca sabremos si esta máquina funcionaba, o cómo se pretendía que funcionara exactamente. El primer y único prototipo aún no se había terminado cuando tanto este como los proyectos de Schickard fueron destruidos por el fuego, durante la Guerra de los Treinta Años. Schickard quedó así reducido a un mero pie de página histórico, en lugar de convertirse en el inventor del mayor avance tecnológico desde la invención del arnés.

Lo que sabemos es que la máquina de Schickard fue una precursora del ordenador digital, en el que los datos se introducen en forma de números. En el otro tipo de ordenador, el analógico, los números de entrada (y salida) se sustituyen por una cantidad susceptible de ser medida, como la tensión, el peso o la longitud. Esta última se utilizó en el primer ordenador analógico: la regla de cálculo, inventada en la década de 1630. La regla de cálculo más simple consta de dos reglas, ambas marcadas con escalas logarítmicas. Al deslizar las dos reglas, de forma que quede un número frente a otro, se pueden multiplicar y dividir con facilidad.

La regla de cálculo fue inventada por William Oughtred, cuyo padre había trabajado como escribiente en Eton, y enseñaba a escribir a los alumnos analfabetos. Su hijo recibió las órdenes sagradas como sacerdote, pero siguió los pasos de su padre al dar algunas clases particulares aparte. En la década de 1630 creó la primera regla de cálculo rectilínea (es decir, con dos reglas rectas). Pocos años más tarde, se le ocurrió la idea de la regla de cálculo circular (que tiene un círculo móvil dentro de un anillo, en lugar de reglas deslizantes). Desgraciadamente, uno de sus alumnos se apropió la idea y la publicó primero, afirmando que el descubrimiento había sido suyo. Aunque el gesto no gustó a Oughtred, se puede decir que acabó sus días feliz. Devoto monárquico, se dice que falleció en «estado de éxtasis», al oír que Carlos II había recuperado su trono.

La regla de cálculo primitiva fue evolucionando con el tiempo, hasta convertirse en un dispositivo capaz de realizar cálculos complejos. Entre los que contribuyeron a su desarrollo se encuentra James Watt, que la utilizó para calcular el diseño de sus máquinas de vapor originales, en la década de 1780. Amédée Mann­heim, un oficial de artillería francés, fue el artífice de un nuevo avance. Diseñó una forma más sofisticada de regla de cálculo, cuando aún era estudiante, lo que le permitió obtener unos resultados sobresalientes en los exámenes, que a su vez lo lanzaron a una brillante carrera dentro de la educación militar. Fue precisamente la versión de la regla de cálculo de Mannheim la que alcanzó gran popularidad durante la primera mitad del siglo XX: era el accesorio característico de rigeur en el bolsillo de la pechera de cualquier científico de bata blanca.

Pero volvamos al ordenador digital. El siguiente avance en este campo vino de la mano del matemático francés del siglo XVII, Blaise Pascal, que casualmente nació en 1623, el mismo año en que Schickard había inventado el «reloj de cálculo» original. El padre de Blaise Pascal era un recaudador de impuestos reales, que tenía ya bastantes dificultades para recaudar dinero como para, además, poder presentar las cuentas que necesitaba el tesorero real. Para ayudarlo, su joven y precoz hijo intentó diseñar una máquina de contabilidad. Con diecinueve años ya había construido un modelo que funcionara. Los números se introducían en la máquina mediante discos graduados con números, y conectados a ejes con ruedas dentadas y engranajes. La máquina de Pascal podía sumar y restar cifras de hasta ocho dígitos. Esta máquina era extremadamente complicada, y llevaba las técnicas mecánicas del momento a sus límites, e incluso los superaba. La máquina, sin embargo, tenía muchos problemas con los engranajes. Pero Pascal era un perfeccionista, y afirmaba haber hecho «más de 50 modelos, y todos diferentes». Pascal no era solo un gran matemático, sino que también fue el mejor filósofo religioso de su tiempo. Atormentado por una salud muy frágil, su celo religioso se incrementaba de forma inversamente proporcional a su salud. Pero siguió siendo un matemático hasta el fin de sus días, y llegó a reducir la fe a una probabilidad matemática. En su opinión, aunque se podían calcular las posibilidades de la inexistencia de Dios, era mejor apostar por Su existencia, ya que no había nada que perder en caso de que no fuera cierto.

Siete de las máquinas de Pascal han llegado a nuestros días: son obras maestras del ingenio que incorporan varios principios aún utilizados en los ordenadores mecánicos. Algunas de las máquinas de Pascal que han perdurado aún funcionan, aunque nadie ha descubierto todavía cómo utilizarlas para calcular las posibilidades de la existencia de Dios.

El siguiente avance significativo para el ordenador digital lo logró el filósofo alemán Gottfried Leibniz, el Leonardo da Vinci de su época. Entre otras muchas cosas, Leibniz creó nada menos que dos filosofías (una optimista y otra pesimista), un plan detallado para la invasión de Egipto, una historia en 15 volúmenes de la Casa de Hannover y una calculadora muy superior a la de Pascal.

El interés de Leibniz por las calculadoras no era únicamente práctico. Cuando aún estaba en la universidad, escribió un artículo en el que explicaba la base teórica de una calculadora y sus posibilidades (un trabajo que señalaba ya el camino para las ideas básicas que Turing habría de tener sobre este tema, casi 300 años más tarde). En torno a la misma época, inventó también una matemática binaria, similar a la que sería el lenguaje de los ordenadores digitales, aunque no llegó a combinar ambos elementos.

Leibniz creó su calculadora en 1673, después de haber visto una de las máquinas de Pascal en París. Desgraciadamente, Leibniz estaba arruinado en ese momento, y sus esfuerzos se vieron paralizados por la necesidad de hacer que su máquina fuera viable desde un punto de vista comercial (la máquina de Pascal era demasiado compleja para que pudiera fabricarla nadie más que él). En cuanto Leibniz hubo terminado su máquina, cruzó el canal de la Mancha para mostrarla a la Royal Society de Londres. Sus miembros no parecieron impresionados, y abandonó el proyecto cuan­do aún no tenía más que un prototipo.

A pesar de estas limitaciones, la máquina de Leibniz era extraordinaria. Al igual que la de Pascal, se accionaba mediante una sucesión de ruedas dentadas, pero era capaz de hacer muchas más cosas que la de Pascal. Desde el primer momento podía multiplicar (mediante sumas repetidas), pero además Leibniz pronto añadió unos dispositivos que permitían efectuar divisiones y calcular también raíces cuadradas.

Leibniz veía un gran futuro para las calculadoras, aunque no volvió a encontrar tiempo para hacer nuevos intentos prácticos en este campo. Esto, sin embargo, no impidió que su mente, siempre activa, pensara en las calculadoras y el papel que podrían desempeñar en el futuro. Para él, algún día, las calculadoras resolverían todas las disputas éticas. Bastaría con insertar los diferentes argumentos y la máquina «calcularía» cuál era superior (aunque las bases precisas para semejante cálculo quedaron en la misma categoría que el cálculo de las posibilidades de la inexistencia de Dios: es decir, siguen siendo un misterio para todos, salvo para el genio que las concibió).

Del mismo modo, Leibniz predijo también que las calculadoras quitarían trabajo a los jueces: los tribunales del futuro estarían presididos por calculadoras que emitirían tanto el fallo como la sentencia adecuada. Una presciencia tan sorprendente podría hacernos pensar en una historia de terror informático, pero Leibniz lo veía de forma muy diferente. Esencialmente, era un hombre optimista, y pensaba que «todo es para bien en el mejor de los mundos posibles». No cabe imaginar cómo habría sido el mundo si Leibniz hubiera dedicado algo más de sus excepcionales energías a la producción de calculadoras.

El siguiente avance importante en este campo se debió a un hombre que era totalmente ajeno a él: Joseph Marie Jacquard, un técnico francés dedicado al negocio de los telares. A principios del siglo XIX, creó un telar innovador, en que el patrón del tejido estaba controlado por tarjetas perforadas. Así surgió la idea de programar una máquina, aunque Jacquard no tenía ni idea de lo importante que era su invento. Afinó más su idea; sin embargo, funcionó demasiado bien: sus máquinas originaron protestas en Lyon, en la década de 1820, cuando los trabajadores de los telares que habían sido despedidos tomaron por asalto las fábricas y destruyeron muchas de las máquinas. Aún hoy se emplea el método de Jacquard para el tejido de patrones complejos.

Calculadoras de mecánica compleja, la idea de la programación, una teoría de los números racionales: los elementos básicos del ordenador moderno estaban empezando a aparecer. Pero hizo falta un genio para descubrir cómo combinar todos estos elementos dispares. En general, se reconoce a Charles Babbage como el padre de los ordenadores. Al igual que muchos genios prácticos, era increíblemente poco práctico en cualquier sentido de la palabra, pero sus descubrimientos y logros estaban un siglo por delante de su tiempo.

Babbage nació en 1791, y heredó una considerable fortuna personal. Era un joven de buen carácter, que pronto demostró ser una promesa de excepción en el campo de las matemáticas. Logró que se introdujeran las notaciones matemáticas de Leibniz en Gran Bretaña (los matemáticos británicos habían insistido, patrióticamente, en utilizar la notación original –pero inferior– de Newton, con ello se aislaron a sí mismos de un siglo de avances del resto de Europa).

Después, Babbage desvió su atención hacia otro de los problemas que atenazaban a los científicos británicos: los errores que aparecían por doquier en las impresiones de las tablas astronómicas y matemáticas. Por ejemplo, se descubrió que la primera edición de Nautical Ephemeris for Finding Latitude and Longitude at Sea (Efemérides náuticas para hallar latitudes y longitudes en el mar) tenía más de… ¡mil errores!

Babbage decidió que había una única solución para el problema de las tablas erróneas. Había que construir una calculadora grande, infalible y multiusos. Después de solicitar y lograr ayuda gubernamental, Babbage emprendió la construcción de su aclamada «máquina diferencial n.o 1». Este proyecto era enormemente ambicioso: la máquina de Babbage tenía que ser capaz de calcular cifras de hasta 20 dígitos; también tenía que almacenar una serie de números y efectuar sumas con estos. Los cálculos de la máquina podían reducirse a sumas porque utilizaría el método de las múltiples diferencias. Este método se basa en los polinomios (fórmulas algebraicas formadas por varios términos) y en el hecho de que estos mantienen una diferencia constante. En su forma más simple sería como sigue:

Donde f (x) = 2x + 1

             si x = 1    2    3    4 …

           f (x) = 3    5    7    9 …

diferencias = 2    2    2    2 …

Huelga decir que la operación no resulta tan sencilla con funciones más complejas. Pero es posible hallar una diferencia constante en las diferencias entre las diferencias (o las diferencias entre las diferencias entre las diferencias). En la mayoría de los casos, si un polinomio tiene un término Xn, hay que calcular n diferencias para encontrar una diferencia constante. Para calcular el polinomio de una sucesión de valores de X, como cuando se calculan tablas, a una máquina le re­sulta más sencillo sumar la diferencia constante y volver atrás, sumando diferencias, en lugar de iniciar una serie de complejas multiplicaciones. Además, las funciones como los logaritmos y funciones trigonométricas, que no operan de la misma forma, se pueden reducir a polinomios muy aproximados.

Como sus antecesores, la «máquina diferencial n.o 1» utilizaba ruedas dentadas y funcionaba con el sistema decimal, pero su fabricación superaba con mucho la complejidad de las máquinas anteriores, lo que hizo necesarios diversos avances dentro de la ingeniería mecánica.

Sin embargo, Babbage era muy capaz de realizar esta tarea gracias a su magistral capacidad de improvisación. A medida que su máquina crecía, se le ocurrían ideas brillantes para añadirle nuevas características que iba incorporando sobre la marcha. La «máquina diferencial n.o 1» se empezó a fabricar en 1823, pero nunca llegó a terminarse. Después de 10 años de trabajo, Babbage había convertido su proyecto original en una máquina de 25.000 piezas (y solo se habían fabricado 12.000), y el coste se elevaba a 17.470 libras (en aquellos días, esa suma era suficiente para fabricar un par de buques de guerra). Babbage había puesto grandes sumas de su propio bolsillo, pero el gobierno decidió frenar el proyecto. Era mejor invertir en una flota que en una máquina que podría acabar contribuyendo a la deuda nacional en una cifra que solo esa misma máquina podría calcular. A pesar de todas esas dificultades, en 1827 Babbage había utilizado la única parte operativa de su máquina (formada por apenas 2.000 piezas) para calcular tablas de logaritmos de 1 a 108.000. Esta parte de la «máquina diferencial n.o 1» se considera la primera calculadora automática. Había que introducir las cifras y los resultados salían en forma impresa (con lo que se reducía el margen de error humano).

Sin embargo, esto era solo el principio para Babbage. Para la década de 1830 ya tenía el proyecto de una «máquina diferencial n.o 2». Este concepto supuso un avance significativo en las técnicas de cálculo. La «máquina diferencial n.o 2» se convirtió en la primera máquina analítica: una máquina cuyo funcionamiento estaba controlado por un programa externo. Babbage había oído hablar de la idea de Jacquard sobre las tarjetas perforadas para controlar el mecanismo de una máquina y decidió incorporarla a su propia máquina. Esto le permitiría realizar cualquier cálculo aritmético en función de unas instrucciones insertadas en tarjetas perforadas. Al igual que la primera máquina diferencial, también necesitaba una memoria para almacenar números, pero la nueva máquina debería poder realizar una secuencia de operaciones con esos números almacenados. Babbage había dado con las características esenciales del ordenador moderno.

El núcleo mecánico al que se asociarían estas características era el plato fuerte. Iba a contener 1.000 ejes, con al menos 50.000 engranajes y se pretendía que calculara números de 50 dígitos en el sistema decimal.

Desgraciadamente, el gobierno no se dejó intimidar por estas increíbles posibilidades, y prefirió no hacer nuevos intentos para arruinar al erario. A estas alturas, la fatiga producida tras largos años de trabajo duro sin resultados había hecho estragos en el carácter de Babbage. El atractivo joven de Cambridge se había convertido en un vejestorio irascible que merodeaba por las calles de Londres. Le cogió manía al ruido que hacían los músicos callejeros que «no sin frecuencia hacen que los pilluelos andrajosos se pongan a bailar y que, hasta hombres casi ebrios sigan los bailes, y acompañen el ruido con sus propias voces discordes… Otro grupo que apoya con vehemencia la música callejera es el de las señoras de elástica virtud y tendencias cosmopolitas, que encuentran en ella una excusa decente para exponer sus encantos desde las ventanas abiertas». Babbage inició una campaña para que prohibieran a los músicos callejeros, afirmando que le impedían trabajar en paz. Los músicos callejeros se vengaron reuniéndose justo debajo de su ventana. Babbage dejó escrito que «en una ocasión, una banda de música estuvo tocando durante cinco horas, sin apenas pausa».

Para entonces, Babbage había invertido buena parte de su fortuna en la persecución de su sue­ño de las máquinas diferenciales. Durante varios años, lady Ada Lovelace, hija del poeta Byron y una de las mujeres matemáticas más brillantes de su tiempo, le ayudó en sus esfuerzos. (El papel de esta mujer en la historia de los ordenadores fue reconocido con honores cuando el Departamento de Defensa de Estados Unidos le puso su nombre, ADA, a su lenguaje de programación.) Lady Lovelace también ayudó a Babbage en un intento optimista de recuperar su fortuna. Juntos dedicaron mucho tiempo y energía a intentar crear un sistema de apuestas infalible para las carreras de caballos. Sin embargo, las demostraciones prácticas de este sistema resultaron casi tan costosas como la máquina diferencial.

A pesar de tales reveses, Babbage tuvo tiempo de inventar el quitapiedras de la locomotora y de descubrir que los anillos de los árboles podían leerse como registros meteorológicos. Después de su muerte, en 1871, los diseños operativos para su «máquina diferencial n.o 2» permanecieron en el olvido durante muchos años. Más tarde, se construyó el núcleo de la primera máquina ana­lítica del mundo según unos planos modificados de la «máquina diferencial n.o 2». Esta enorme con­s­trucción de tres toneladas puede verse hoy en día, en todo su esplendor, en el Museo de Ciencias de Londres. Y funciona (en las pruebas se configuró para que calculara 25 múltiplos del número π, de 29 dígitos decimales, tarea que sus 50.000 ruedas dentadas digirieron con insultante facilidad).

Babbage había definido las características básicas del ordenador moderno, pero sus máquinas presentaban una desventaja fundamental: funcionaban sólo dentro de las matemáticas decimales. Este problema se solucionó gracias al trabajo de George Boole, uno de sus contemporáneos. Boole nació en 1813, hijo de un zapatero de Lincoln. Aunque casi totalmente autodidacta, demostró tal agudeza intelectual que fue nombrado catedrático de matemáticas en el Queen’s College, en Cork, donde acabó casándose con Mary Everest, sobrina del hombre que dio nombre a la montaña.

En 1854, Boole publicó su Investigation of the Laws of Thought (Investigación sobre las leyes del pensamiento), que introdujo lo que actualmente se conoce como álgebra booleana. En esta obra, Boole sugería que la lógica pertenece al ámbito de las matemáticas, más que al de la filosofía. Al igual que la geometría, se basa en una serie de axiomas sencillos. Además, al igual que la aritmética tiene unas funciones primarias, como la suma, la multiplicación y la división, la lógica puede reducirse a operadores como «y», «o» o «ni». Estos operadores pueden utilizarse en un sistema binario (el sistema digital tiene 10 dígitos; el sistema binario funciona igual, pero sólo con dos). El «verdadero» y «falso» de la lógica se reducen al 0 y 1 de la matemática binaria. Así, el álgebra binaria reduce cualquier proposición lógica, independientemente del número de términos que contenga, a una simple secuencia de símbolos binarios. Eso cabría en una simple tira de papel, en la que el álgebra bi­naria se reduce a una secuencia de orificios (y ausencia de orificios). De este modo, se podría introducir todo un «argumento» lógico o programa en una máquina.

Con dígitos binarios, las máquinas podrían seguir instrucciones lógicas y su matemática se adaptaba perfectamente al circuito eléctrico de encendido/apagado. Así, el dígito binario (o bit) llegó a ser la unidad fundamental de información de los sistemas informáticos.

Sin embargo, los avances individuales de Bab­bage y Boole siguen sin recibir reconocimiento. En lo que al mundo respecta, el siguiente paso importante lo dio Herman Hollerith, un estadístico estadounidense. Hollerith desarrolló una «máquina de censo», que podía leer tarjetas de hasta 288 orificios, y almacenar la información. Su máquina electromecánica podía leer hasta 80 tarjetas por minuto. Cuando se utilizó para el censo de estadounidenses de 1890, la máquina de Hollerith procesó todos los datos en seis semanas (la elaboración del anterior censo, de 1880, había llevado tres años). En 1896 Hollerith se metió en el mundo de los negocios, y creó la Tabulating Machine Company, que más adelante se convertiría en la International Business Machine Corporation (IBM).

Se habían descubierto los elementos necesarios para el ordenador moderno (incluyendo la explotación comercial). Lo único que faltaba era que alguien descubriera qué podía hacer: las posibilidades y limitaciones teóricas. Esto fue lo que hizo Alan Turing.