Volver a Indice

 

Capítulo 1

¿De dónde sale el ordenador actual?

The march of invention has clothed mankind with powers of which a century ago the boldest imagination could not have dreamt.

El avance de la innovación ha vestido a la humanidad de poderes con los que hace un siglo ni la imaginación más audaz hubiera soñado

Para comprender la envergadura del cambio que se ha producido en los últimos veinte años y, principalmente, en esta última década, nada mejor que recordar brevemente de donde venimos para poder valorar donde estamos.

 

Del Ábaco a las tarjetas perforadas

 

Los ordenadores, tal y como los conocemos ahora, tienen sus primeros precursores en las calculadoras. De hecho, el primer ordenador del mundo puede considerarse que fue el Ábaco, el rudimentario tablero con cuerdas y bolas que se hacían pasar de un lado a otro y que resolvían operaciones aritméticas simples si se conseguían memorizar una serie de reglas de "programación". ¡El ábaco se utilizó durante más de 2000 años! Fuentes diversas consideran también que fue en 1642 cuando Blaise Pascal construyó la primera calculadora "digital", sólo era capaz de sumar pero en 1791 Wilhelm Gottfried Leibniz inventó un modelo que además de sumar ya era capaz de multiplicar. Los prototipos de estos dos autores no se utilizaron prácticamente en su momento pero inspirarían, más de un siglo después, la creación de la primera calculadora mecánica que fuera un éxito comercial. La construyó Tomas of Colmar en 1820 y podía sumar, restar, multiplicar y dividir.

 

Charles Babbage y las primeras calculadoras mecánicas

 

Pero todos los avances en este campo culminaron en las máquinas diferencial y analítica de Charles Babbage. Charles Babbage es considerado por muchos como el "padre de la informática", un precursor de las ciencias informáticas no sólo por haber diseñado estas máquinas pioneras sino también por establecer los conceptos teóricos en que se basa actualmente la arquitectura informática. Babbage partió de la idea de construir una máquina capaz de recopilar las tablas de logaritmos, que en esos momentos no superaban el siglo de antigüedad. Así, en 1823, Babbage, gracias a una subvención del gobierno británico, pudo construir un primer artefacto completamente automático. Este matemático e ingeniero se dio cuenta que la mayoría de operaciones matemáticas que se requerían eran repetitivas y que podían realizarse automáticamente. Su primer modelo funcionaba a vapor, imprimía las tablas resultantes y estaba controlado por un programa de instrucciones fijo. Esta máquina, que Babbage denominaría "diferencial", sería abandonada sin terminar en 1833 por su siguiente proyecto, la máquina analítica, lo que algunos han catalogado de primer ordenador digital mecánicamente automatizado y completamente controlado mediante programas. El diseño previsto para este mecanismo analítico poseía cinco características cruciales de los ordenadores modernos: un dispositivo de entrada de datos, un dispositivo de almacenamiento para almacenar los números que iban a ser procesados, un procesador o calculadora, una unidad de control para guiar los procesos y un dispositivo de salida. La máquina analítica de Babbage estaba diseñada para recibir datos de hasta cincuenta dígitos y dar resultados de hasta 100 dígitos en formatos impreso y gráfico (todo ello cuando aún faltaban cincuenta años para que se inventaran las máquinas de escribir) además de en tarjeta perforada , tarjetas perforadas que supondrían un paso adelante hacia la informática automatizada especialmente a partir de 1890 con Herman Hollerith y James Powers. Un artilugio como este desgraciadamente era imposible de conseguir con los medios de la época y sin la ayuda de la electricidad ni de la electrónica, pero sus principios básicos han sido considerados como precursores de las calculadoras digitales que precederían a los ordenadores.

 

De las calculadoras mecánicas a los aparatos electrónicos

 

A finales de 1930, las calculadoras (u ordenadores) con tarjetas perforadas alcanzaron cierto grado de consolidación. IBM por ejemplo dedicó grandes esfuerzos y capital a esta tecnología que en esos momentos ya no era precisamente incipiente sino más bien un legado del siglo anterior. También por esa época, Vannevar Bush (al que posteriormente reencontraremos en este libro) construyó un integrador diferencial en el MIT (Massachusetts Institute of Technology), pero se trataba de un paso intermedio, electromecánico, insuficiente para las necesidades que tendría la sociedad en esos años.

La segunda guerra mundial sería el detonante que impulsaría muchos descubrimientos y la informática no sería una excepción. Todas las calculadores ­llamémosles ya a partir de ahora ordenadores­ que existían hasta el momento eran completamente insuficientes para conseguir el nivel de cálculos que la industria militar necesitaba para sus sistemas armamentísticos (cálculos balísticos, de trayectoria, etc.). Así, en 1942, J. Presper Eckert y John W. Mauchly de la escuela Moore de Ingeniería eléctrica de la Universidad de Pensilvania se pusieron en contacto con el ejército para desarrollar su propio integrador diferencial que acabaría dando lugar a la primera máquina electrónica de la historia de la informática: el ENIAC (Electronic Numerical Integrator And Computer). Este primer ordenador electrónico marcaría un punto y a parte en la historia de los ordenadores. A partir del ENIAC y hasta ahora, hemos avanzado en cincuenta años tecnológicamente mil veces más que lo hiciéramos en los dos siglos anteriores.

 

El ENIAC o la primera generación de ordenadores

 

La fabricación de un ordenador electrónico no fue posible hasta que se dispuso de tubos de vacío, inventados en 1904. También denominados válvulas al vacío, se trata de unas lámparas de vidrio con filamentos en su interior que, al calentarse, producen electrones. Al principio, los tubos de vacío se utilizaron como amplificadores en los primeros ordenadores o, por ejemplo, en las radios. Pero a principios de los años cuarenta se aprovechó su capacidad de transmitir o bloquear la corriente eléctrica para representar el código binario de los ordenadores funcionando así como meros interruptores de encendido donde 0 no deja pasar la corriente y 1 sí (apagado/encendido). Su primera implementación efectiva con esta función sería en el ENIAC en 1946.

La finalidad del ENIAC, el objetivo para el cual nació, era automatizar los cálculos de la artillería durante la guerra, por ello, la precisión y fiabilidad en los mismos debía ser muy elevada. Se trataba en realidad de una calculadora gigante (no almacenaba ni programas ni datos) cuya construcción no terminó hasta después de la guerra pero que el ejercito norteamericano utilizaría durante muchos años. El proyecto puede considerarse que fue todo un éxito. A pesar de la dificultad de su manejo, esta máquina electrónica era mucho más rápida que las anteriores disponibles (básicamente los artilugios electromecánicos que funcionaban con tarjetas perforadas y que se habían estado utilizando durante cuarenta años antes de que apareciera el ENIAC). Aunque también era una máquina de treinta toneladas con más de 18.000 válvulas electrónicas y kilómetros de cables que había que desenchufar y volver a enchufar para cada tipo de operación, algo terriblemente engorroso y que, por increíble que parezca, funcionaba. De hecho, el ENIAC funcionó a la perfección para lo que se había creado (aunque el mantenimiento del ordenador era muy costoso por lo mucho que se calentaba y las constantes explosiones de los tubos al vacío). El ENIAC fue operativo de 1946 a 1955, utilizaba tarjetas perforadas y convenció al mundo de la viabilidad de los ordenadores electrónicos. Y de todo esto hace sólo cincuenta años.

 

Aparece el transistor y los circuitos integrados

 

Desde la aparición del ENIAC, la industria informática ha sufrido grandes avances cuya importancia ha ido incrementándose con el paso de los años. Porque, si bien es cierto que en estos últimos cincuenta años el desarrollo ha sido inmensamente superior que en los doscientos anteriores, igual progresión puede aplicarse a estos últimos diez años. Desde el primer ordenador automático electrónico hasta los actuales sistemas informáticos, hemos vivido una evolución que no siempre parecía estar a favor del individuo usuario. La reducción del tamaño de los ordenadores y el aumento de su velocidad de cálculo son dos de las principales características del desarrollo informático a partir del ENIAC.

Cuando en 1947 William Shockley de los Laboratorios Telefónicos Bell desarrolló el transistor, se estaba abriendo la puerta a la microinformática. Los transistores son pequeños bloques de material semiconductor, como el silicio, que pasaron a sustituir a los tubos de vacío de la primera generación de ordenadores. Ello permitió reducir el tamaño y evitar el sobrecalentamiento de las máquinas consiguiendo fabricar ordenadores más pequeños y más baratos. Cuando se consiguieron imprimir varios transistores en un mismo trozo de silicio nació el circuito integrado, los coinventores del circuito integrado serían Robert Noyce y Jack Kilby, curiosamente trabajando en empresas separadas.

Pero la primera gran revolución dentro de esta joven informática se produciría al inventarse un circuito integrado llamado microprocesador a principios de los años setenta y que haría efectivo el concepto ya avanzado por algunos del "ordenador en un chip". Hasta esas fechas no puede hablarse aún de la existencia de ordenadores personales, lo dominante eran los miniordenadores (que recibían este nombre por su menor tamaño con respecto a los anteriores mastodontes con tubos al vacío). De hecho, toda la informática realizada durante esos años sería completamente inaplicable a las necesidades de las personas individuales en tanto en cuanto estaba enfocada completamente hacia el mercado corporativo, militar o académico. El microprocesador, nacido en Intel en 1971, permitiría dar el gran salto. A principios de los 70, los ordenadores seguían aún utilizándose exclusivamente como calculadoras y las máquinas de escribir de IBM y las fotocopiadoras de Xerox llenaban el hueco restante, pero cuando en 1972 apareció el primer chip capaz de procesar 8 bits, suficiente para representar los números y letras del alfabeto, se abrieron de par en par las puertas del futuro para el ordenador personal.

 

La cuarta generación de ordenadores

 

Con la posibilidad de colocar todos los circuitos en un sólo chip y la aparición de los microprocesadores capaces de manejar números y letras se produjo la primera gran revolución: el nacimiento de la informática personal. En esta cuarta generación de ordenadores se inscriben el Altair, el EMC II, el Tandy TRS-80, el Atari, el PET de Commodore, el Apple II, el PC de IBM y el Macintosh como principales artífices de los posteriores avances tecnológicos. En esta cuarta generación tendría explosión la era de la informática personal, la era del PC (Personal Computer), por más que estas siglas en un principio sólo se identificaran con una plataforma concreta. La era de la informática personal revolucionaría a un mundo que, sólo unos años atrás, veía inconcebible la posibilidad de tener en cualquier hogar una de esas máquinas antaño voluminosas, caras y cada vez más potentes. Pero dentro de esta revolución se produjo una revolución aún mayor, presente desde muy pronto pero sólo consolidada hasta más recientemente.

En la era de la informática personal, el usuario no ha sido siempre el principal punto de referencia. Cuando aparecieron los primeros ordenadores personales estos no estaban pensados para el gran público sino para los locos de la electrónica, los amantes de las nuevas tecnologías y del "bricolage informático". Sólo los fanáticos de los ordenadores ­aquellos que estaban dispuestos a montarse físicamente su propio ordenador y a aprender los lenguajes que fueran necesarios para comunicarse con él­ se volcaron a comprar los primeros ordenadores. Los usuarios de aquellos tiempos nada tenían que ver con los usuarios actuales, cómodamente pertrechados tras sus máquinas repletas de programas y de instrucciones para utilizarlos, aquellos primeros usuarios tenían más curiosidad y avidez por la tecnología que miedo a los imponderables, eran una especie de "aventureros" tecnológicos. No podía ser de otro modo porque los primeros productos que se comercializaron no eran aptos para otro tipo de público. Por otro lado, en la informática personal, ha habido diversas tendencias y en un principio llegaron a imponerse entornos nada intuitivos. El sistema operativo DOS, heredero directo en muchos aspectos del primitivo CP/M, dominante en los años setenta hasta que llegó el sistema de Microsoft, se extendió como la pólvora gracias a la inteligente política de esta empresa al regalar una copia de este sistema con todos los PCs y aun hoy en día conserva una gran porción del mercado, especialmente en los países subdesarrollados donde sigue vendiéndose profusamente. Algunos otros fabricantes se atrevieron también con sus propios sistemas operativos pero con muy poco éxito en general o con un éxito, en el mejor de los casos, efímero. En resumidas cuentas, dentro de esta revolución de la informática personal no todo fue tan revolucionario. Pero las ideas de algunos y la pericia de otros combinada con muchas dosis de talento, e infinitas horas de trabajo, acabaron por ganarle la batalla a la parte más oscura de la informática, la que algunos han querido representar como el orwelliano "Gran Hermano" que en su momento se asoció incluso con empresas concretas (IBM, durante mucho tiempo). Los artífices de la verdadera revolución de la informática personal son a los que nos dedicamos en las siguientes páginas.

 

Y TAMBIÉN...

Un precursor con un cráter en la luna

Charles Babbage es considerado actualmente como el padre de la informática sin embargo, cuando murió en 1871 a la edad de 79 años en Londres, poca gente conocía su nombre o su trabajo. Sus diseños nunca serían completamente implementados debido a las limitaciones tecnológicas de la época y sus ideas no serían valoradas hasta mucho después. La máquina analítica, por ejemplo, nunca se fabricaría. Pero en 1991, en el bicentenario de su nacimiento, científicos británicos construyeron, siguiendo su segundo diseño y a modo de demostración de lo acertado de sus ideas, una máquina diferencial que funciona y está expuesta en el Museo de la Ciencia de Londres. Hoy en día, incluso un cráter del polo norte de la luna recibe el nombre de Charles Babbage en su honor.

Made in USA

Charles Babbage era británico pero a nadie sorprenderá descubrir que el 99% de los protagonistas de los que hablaremos a continuación son norteamericanos, algo lógico teniendo en cuenta que fue allí donde se gestó la primera generación de ordenadores fruto del empuje de la industria militar de la segunda guerra mundial. Fue en Estados Unidos donde nació, creció y maduró la cultura del chip cuyo máximo exponente podemos encontrar físicamente en un valle californiano popularmente conocido como el "valle del silicio" o Silicon Valley.

 

 

 

Ir a Introducción - 1 - 2 - 3 - 4 - 5 - 6 - 7 - 8 - 9 - 10 - 11 - 12 - 13 - 14 - 15 - 16 - 17 - 18