Otros textos
|
|
Las sociedades, desde muy antiguo, han debido recurrir a métodos
que les permitieran comunicarse y, también, calcular. Hoy,
estos procesos se denominan Informática, palabra creada por
los franceses en el decenio de los sesenta del siglo XX,
como contracción de INFORmación autoMÁTICA, constituida
como ayuda en las tareas relativas al manejo de información.
En cuanto a los métodos de ayuda a la realización de
cálculos, hay que remontarse a más de 4.000 años,
cuando ya se utilizaban muescas en trozos de madera o de piedras para
contabilizar el intercambio de productos. La máquina calculadora
más antigua que se conoce es el ábaco, que los romanos
ya utilizaban en el siglo IV a.C., pero que los chinos, eso sí,
empleando bolas, manejaban en el siglo IX a.C. En siglos más
próximos, como el XVII, los matemáticos diseñaron
y lograron construir máquinas que realizaban las operaciones
aritméticas más elementales, siguiendo los mecanismos
de relojería de Schkard, que construyó, en 1624, la
primera máquina capaz de efectuar sumas y restas en forma automática.
Ya en 1645, el matemático francés Blaise Pascal, desarrolló
una máquina que, de modo más complejo, realizaba las
mismas operaciones, pero la primera máquina preparada para
uso práctico, la construyó otro francés, Joseph-
Marie Jacquard, en 1801, quien diseñó un telar automático
que funcionaba empleando unas largas tiras de cartón con perforaciones
que indicaban el patrón de trabajo.
Y en el año1833, aparece el británico Babbage, considerado
el padre de la informática moderna, que construyó su
máquina que llamó analítica, que permitía
efectuar las cuatro operaciones fundamentales sobre 1.000 números
de 50 cifras que estaban contenidas en una memoria, según un
programa de cálculos, registrados en una tira de papel perforado,
a imitación de la técnica de Jacquard. Babbage estableció
cuáles debían ser los elementos fundamentales para el
funcionamiento de un sistema automático. Entonces, se sustituyeron
las ruedas dentadas y las tarjetas perforadas por interruptores eléctricos,
construyendo un dispositivo en el que la circulación de la
corriente representaba el 1 y la interrupción del
flujo el 0. Y el húngaro von Neumann definió
las normas básicas de una máquina programable que es
la que hoy conocemos como ordenadores: almacenar información
en una memoria física, lo que dio paso a la construcción
de primeros ordenadores digitales modernos y las distintas etapas
de generaciones de estas máquinas.
La primera generación va de los años 1940 a 1952, distinguidas
por el uso de válvulas de vacío y relais electromagnéticos
para el almacenamiento de datos; la primera máquina con tal
capacidad se conoció como Mark I. En 1951 aparece el primer
ordenador de uso comercial. En la segunda generación
que va de 1952 a 1964 los transistores pasan a sustituir a
las válvulas de vacío y se utilizan memorias de ferrita;
ya cada ordenador contiene, por centímetro cúbico, casi
un centenar de componentes y, entonces, aparecen los ordenadores comerciales
con un sistema operativo. La tercera generación de 1964
a 1971 introduce el uso de circuito integrado, como soporte
de información, que permite disponer de varios miles de elementos
por decímetro cúbico, lo que reduce de manera considerable
el tamaño y el precio del ordenador, pese a que se aumenta
su velocidad y número de prestaciones. En la cuarta generación
de 1971 a 1981 los ordenadores avanzan en la escala
de circuitos integrados, dando lugar al circuito microprocesador,
consiguiéndose que todos los circuitos básicos del ordenador
estén en un solo circuito integrado. La quinta generación
trae la posibilidad de instalar millones de transistores que ocupan
menos espacios que la palma de una mano.
Por último, la miniaturización y abaratamiento de costes,
hizo posible la aparición del ordenador personal que, todavía,
no ha terminado de dar por finalizadas sus etapas de perfeccionarse,
ni tampoco, pese a que hay millones y millones en funcionamiento,
ha terminado su expansión por el mundo.
|