Volver a Indice

 

Introducción

La necesaria humanización de la informática

Los ordenadores no sirven para nada, sólo pueden darnos respuestas. Pablo Picasso

Cuando nacieron los primeros ordenadores, que más bien debiéramos llamar simplemente "calculadoras", estos no disponían de pantallas ni monitores a través de los cuales controlar sus acciones (que en los albores de la informática eran más bien pocas). Estas máquinas iniciales eran programadas y utilizadas mediante resortes y palancas externas, en un principio, y mediante tarjetas perforadas, después ­la interacción mediante teclados y pantallas a partir de códigos y comandos no llegaría hasta un estadio posterior. Fue durante esa primera generación de ordenadores que a los operadores informáticos se les adscribió ese áurea de misticismo y admiración característica de los expertos en profesiones cuya comprensión desborda al ciudadano común, áurea que aún arrastran actualmente en ciertos ámbitos. Y no era para menos, programar y utilizar esos primeros aparatos no estaba al alcance de cualquiera y durante muchos años seguiría sin estarlo.

Cuando nació la informática personal, hace escasamente dos décadas, los ordenadores aun arrastraban una complejidad y dificultad heredada de las anteriores etapas y no se erigían como las herramientas precisamente más adecuadas para las necesidades de la mayoría de personas. No sería hasta la aparición de las primeras interfaces gráficas que la cosa daría un gran vuelco. La interfaz es el programa mediante el cual el usuario se relaciona con la máquina, es algo así como la cara visible del sistema operativo, del software básico que hace funcionar al ordenador. Una interfaz es de hecho una forma de comunicación. Las primeras interfaces no tenían nada de gráficas y sólo funcionaban introduciendo la correcta cadena de caracteres a cada momento necesaria para realizar una acción. Pero de esos complejos comandos de las primeras pantallas de fósforo verde poco a poco se pasaría a sistemas gráficos, con iconos y menús con todas las opciones a vista, y mucho más intuitivos.

Sin embargo, la interfaz gráfica del usuario (IGU o GUI si utilizamos las siglas inglesas) arrancó con lentitud en un mercado dominado por los sistemas no gráficos. Cuando apareció el primer ordenador con algo parecido a un IGU, la informática no intuitiva estaba demasiado asentada y este fue uno de los motivos por los cuales, a pesar del potencial demostrado por el primer sistema gráfico que se comercializó, muchos no le dieron ninguna credibilidad. De hecho, la primera reacción fue considerarlo una mera banalización y simplificación de lo que se consideraba eran sistemas potentes y con muchas posibilidades. Los más reacios le auguraron pocas probabilidades de supervivencia y la comunidad mundial de usuarios de informática hizo suya la opinión de la mayoría de la industria. Ésta se limitaba a defender un estadio de evolución consolidado, y a conservar una cultura informática que la respetaba precisamente por los méritos que defendía: el poseer unos conocimientos fundamentados en la complejidad de los sistemas informáticos. La perspectiva de unas máquinas sencillas pero potentes desmontaba buena parte de los mismos cimientos de esa cultura informática nacida para y por la industria, y los que en ella trabajaban o de algún modo estaban relacionados con ella tuvieron sus lógicas reticencias desde un principio, reticencias que sorprendentemente no han desaparecido del todo de ciertos reductos profesionales. Algo que, por otro lado, es comprensible, pues lo que estaba proponiendo ese nuevo concepto de informática barría de un manotazo los miles de horas dedicadas al tortuoso aprendizaje y control de esos sistemas informáticos, y lo que es peor, los desproveía de su principal valor, la exclusividad y omnipotencia sobre el manejo de esas máquinas, descentralizando su poder sobre ellas.

Mientras tanto, la mayoría de ciudadanos contemplábamos perplejos estos cambios. Pero no se tardaría mucho en reconocer de forma generalizada la bondad de todas esas novedades, especialmente en nuestro beneficio, porque el mayor logro de la "humanización" de los ordenadores ha sido precisamente el poner al alcance de cualquier persona un sinfín de potencialidades que hasta ese momento sólo estaban disponibles para unos pocos. La aparición de estos sistemas gráficos más intuitivos democratizó, en síntesis, la informática en general y abrió el camino hacia un mayor aprovechamiento de las nuevas tecnologías de la información.

 

Una revolución dentro de otra revolución

 

Si el nacimiento de la microinformática ya fue de por sí toda una revolución que desembocaría en el ordenador personal, es decir, en la normalización de la idea de que los ordenadores también podían ser una herramienta de uso individual, fue, sin embargo, la aparición de la interfaz gráfica lo que realmente la hizo avanzar. De esta idea surge este libro, porque la humanización de la informática que los entornos gráficos han permitido ha sido lo que ha llevado a dar este gran salto de lo inaccesible y alejado a algo de uso cotidiano por parte de millones de personas. Podríamos decir que es la verdadera revolución de esta nueva era de la información.

Esto no quiere decir, sin embargo, que actualmente no sigan coexistiendo sistemas operativos diversos, algunos de los cuales no tienen nada de intuitivo y más bien parecen pruebas de resistencia cada vez que nos enfrentamos a ellos. Sistemas que siguen siendo utilizados por cientos de miles de personas, en algunos casos reticentes al cambio, en otros reticentes a tirar a la papelera tantos años de aprendizaje y experiencia acumulada o a perder esa parcela de poder que nos otorga el saber utilizar algo difícil, oscuro, complicado. No por nada, hasta hace bien poco, el "saber informático" era algo muy valorado en nuestra sociedad, algo que confería prestigio y reconocimiento social y es lógico que los poseedores de tal exclusiva no siempre vieran con buenos ojos la pérdida de esta categoría. Sin embargo, la fuerza de esta nueva visión de la informática moderna debía ser notable pues logró ir enraizando poco a poco en el sector, y a pesar de enfrentarse a la mayoría de valores de una industria más que consolidada, consiguió decantar ésta a su favor elevando ese "saber utilizar las tecnologías de la información", como bien podríamos definir al "saber informático", a un ámbito de uso y consumo masivo.

Con todo, ello no significa ni mucho menos que se haya alcanzado el estadio ideal en lo que a sistemas operativos concierne. Aun queda un larguísimo camino por recorrer, posiblemente mucho mayor que el transcurrido hasta ahora. El mecanismo de interacción con las máquinas aún dista mucho de ser perfecto. Los programas, la configuración de las máquinas, la compatibilidad entre sistemas, el lenguaje con el que nos dirijamos a ellos, todo tiene que simplificarse muchísimo más. Estamos sólo en los albores de los sistemas informáticos intuitivos o, como dicen los americanos, de los sistemas "human-centered", centrados en el ser humano, en las personas. Pero el gran salto que se dio a mitad de la década de los ochenta bien merece un análisis porque a él le debemos la forma en cómo trabajamos hoy en día y el haber pasado de tener simples máquinas "ordenadoras" encima de la mesa a tener herramientas que estimulan nuestra imaginación.

 

El ordenador como medio, no como fin

 

En el actual escenario informático de euforia de Internet e idolatría universalizada a Bill Gates, nadie recuerda mucho más allá de Windows y el Macintosh o de la denostada IBM. Pero ni Bill Gates ha inventado la interfaz gráfica ni Apple fue la artífice de todos los cambios que se produjeron en el emocionante paso de una informática anticuada a otra de moderna (y como todo el mundo sabe, ni IBM ni ninguna gran corporación de los años sesenta y setenta tuvo nada que ver con la revolución de la informática personal. En 1977, el presidente de Digital, Ken Olson, aún se permitía afirmar, por ejemplo, que no veía "ningún motivo por el que nadie quisiera tener un ordenador en casa") . Sin embargo, instituciones como el SRI (Standfor Research Institute) o el PARC de Xerox fueron a unirse al trabajo de muchos pioneros en este campo y es a todos ellos que va dedicado este libro. A todos los que individualmente o en grupo han transformado la informática desde que nació hasta nuestros días para convertirla en algo mucho más intuitivo e imaginativo de lo que nunca se creyó posible. Desde que hace cincuenta años naciera el primer ordenador, o lo que se ha considerado mayoritariamente como primer ordenador, el ENIAC (siglas en inglés para "Integrador Numérico Electrónico y Ordenador"), hasta nuestros días, la industria informática ha pasado por muchas fases y etapas, algunas para llevarla por derroteros complejos y alejados de los intereses de los usuarios, otras para hacerla cada vez más accesible al común de los mortales. El gran éxito de ello ha sido el triunfo de estas últimas tendencias. Por ello, estas páginas no son ninguna historia de la informática, ni siquiera de la informática personal, porque obvian todos los pasos encaminados a complicar la informática, sino que se trata de un intento de hacer justicia con el trabajo de todos los investigadores, científicos, genios, o simplemente aficionados que, con sus ideas, y en muchos casos, con su empeño, ayudaron a crear una informática personal, primero, y una herramienta intuitiva después.

Gracias a todos ellos, la informática es cada vez más un medio y no un fin, una herramienta de la que no es necesario ser experto en su funcionamiento como tampoco lo somos en el funcionamiento del automóvil que conducimos, de la licuadora que nos hace los zumos por la mañana o del teléfono que utilizamos a diario. Como toda herramienta, lo importante es lo que vamos a hacer con ella, no cómo funciona sino para qué la vamos a utilizar; en el caso del ordenador bien sea para desarrollar una tesis científica, para planificar una campaña de márqueting, para dibujar los planos de un edificio, para crear obras de arte, para imprimir facturas o para crear un complejo sistema de dosificación de medicamentos. Nuestro tiempo y conocimientos los podemos dedicar al objetivo no a la herramienta. Ello no significa que no deban coexistir con nosotros profesionales dedicados a crear este "medio" ­los diseñadores de hardware, de circuitos, de periféricos y de programas­, siempre tiene que haber alguien que entienda de coches, licuadoras y teléfonos para poderlos fabricar y reparar­ sin embargo, la mayoría de personas los utilizamos sólo como un medio y nuestra profesión es otra, de ahí la importancia de poseer ordenadores que sean simples herramientas.

Todo esto, que puede parecer una obviedad, ha necesitado recorrer un largo trecho para admitirse como tal y llegar hasta donde nos encontramos actualmente. Y aunque aún queda mucho por hacer, podemos felicitarnos porque la dirección hacia sistemas centrados en las personas y no en las máquinas parece irreversible, y esto es algo que no estaba nada claro hace tan sólo una docena de años.

De los primeros mecanismos de cálculo manual utilizados desde hacía siglos, a los posteriores sistemas con tarjetas perforadas que permitían manejar grandes volúmenes de datos, pasando por los primeros grandes ordenadores funcionando con tubos de vacío, hasta a mediados de este siglo con el invento del transistor que permitiría el nacimiento de la microinformática, se ha producido una revolución en la tecnología informática que ha permitido el despegue de la actual era de la información. Pero dentro de ella se produciría otra revolución, muy posiblemente la verdadera revolución digital, la que será recordada como causante del mayor cambio acontecido en este siglo que estamos abandonando.

 

Ir a capítulo 1 - 2 - 3 - 4 - 5 - 6 - 7 - 8 - 9 - 10 - 11 - 12 - 13 - 14 - 15 - 16 - 17 - 18