Primero que nada, habría que definir lo que es una
computadora para poder investigar más a fondo sobre su historia: se entiende
como tal a una máquina capaz de manipular información de acuerdo a una lista
predeterminada de instrucciones; la capacidad para ejecutar esta lista de
instrucciones o "programas" es lo que las distingue de las calculadoras.
Es difícil establecer cuáles fueron los inicios de la
historia de la computadora, dado que la definición misma de lo que es una
computadora ha ido evolucionando, y dispositivos que alguna vez fueron llamados
"computadoras" hoy en día no serían catalogados como tales. En la opinión de
muchos, la primera computadora según los estándares actuales, es decir la
primera electrónica y digital, fue creada por John Atanassoff entre 1933 y 1942.
Para conocer todos los detalles de esta invención, puedes leer nuestro artículo "¿Quién
inventó la computadora?".
Los primeros modelos, como recién mencionamos, vienen de la
década de los cuarenta, aunque el concepto mismo de la computadora vienen de
hace muchos años antes. De hecho el término antes de la era digital se refería a
la realización de cálculos, con la ayuda de dispositivos mecánicos como el
ábaco, el astrolabio y la regla de cálculo; y el concepto del cálculo asistido
mecánicamente lo podemos encontrar en la historia desde el 150 AC, por lo que de
ninguna manera es una novedad de le época que vivimos. Ahora si acotamos nuestra
búsqueda histórica a aquellos dispositivos capaz de ser "programados", nos
encontramos que uno de los primeros mecanismos precursores en nuestra historia
datan del 1800. En 1801, Joseph Marie Jacquard, un inventór y fabricante de
sombreros, fue responsable de un gran avance al crear el "telar de Jacquard", al
usar tarjetas perforadas para crear diversos y creativos patrones en su telar;
las tarjetas perforadas son una forma primitiva de programabilidad.
Charles Babbage en 1837, ideó una computadora programable
mecánica que llamo "máquina analítica", pero debido a problemas financieros y de
diseño, nunca llegó a construirla. Aunque lo hubiera hecho, para muchos no
habría sido según los estándares actuales la primera computadora, dado que no
era electrónica.
Durante el censo de 1890 en los Estados Unidos, se realizó
por primera vez el procesamiento a gran escala de información usando tarjetas
perforadas en conjunto con máquinas tabuladoras, manufacturadas por la
corporación "Computing Tabulating Recording Corporation", que más tarde llegó a
ser la conocidísima IBM.
Recién entre los años 1930 y 1950, la historia de la
computadora como tal realmente comenzó y se crearon los verdaderas precursores
de los modelos actuales, con las características que los hacen reconocibles
según los estándares actuales: En 1941 Konrad Zuse crea máquinas
electromecánicas llamadas "Z3", que fueron las primeras maquinas capaces de
procesar aritmética binaria, y para algunos fue la primera computadora por
cumplir con los parámetros de un sistema "Turing completo", estándar estudiado
en las ciencias de la computación. Como ya mencionamos, en 1941 surge la
computadora Atanassoff-Berry, que usó tubos de vacío. En 1944 los británicos
crearon la computadora "Colossus", para poder descifrar los mensajes alemanes.
En 1946 el laboratorio estadounidense de investigación
balística creo la ENIAC (Electronic Numerical Integrator And Computer),
que fue la primera computadora digital programable de la historia a gran escala,
capaz de resolver toda una gama de problemas computacionales. Se construyó con
el fin de realizar cálculos para la artillería. Si bien esta ya tenía
características comunes con las computadoras modernas, era inflexible y requería
de reestructuraciones permanentes para cambiar su programación. Algunos
desarrolladores de la misma, crearon un diseño más flexible, llamado
"arquitectura de von Neumann" en honor al gran matemático que lo propuso por
primera vez en 1945. La capacidad de almacenar programas, esta arquitectura que
mencionamos, es la característica común de estos primeros prototipos con las
máquinas modernas.
Durante los años 50 se construyeron computadoras usando estos
principios, basadas en tubos de vacío, y por lo mismo usaban grandes espacios
físicos para poder funcionar (del tamaño de varias habitaciones). Siguiendo la
línea de la historia, el reemplazo de estos tubos por el transistor, en la
década de 1960, permitió hacer computadoras más pequeñas, rápidas, y costeables,
lo que llevó la computación al ámbito comercial.
Para la década de los 70s, la llegada de los circuitos
integrados y luego de los microprocesadores (el primer microprocesador comercial
fue el Intel 4004) causó una nueva revolución en cuanto a tamaño, velocidad y
costo. Al llegar la década de 1980, las computadoras ya se encontraban
integradas en electrodomésticos y otros dispositivos de uso común, y al mismo
tiempo se masificó el concepto de la "computadora personal" o para el hogar. Con
la ayuda de la masificación de la Internet en los 90, las computadoras de uso
personal se han transformado en bienes tan comunes como la televisión y el
teléfono.
La historia y las generaciones de computadoras
Otra forma de tabular y comprender la historia de la
computadora es dividiéndola en "generaciones" de las mismas, agrupándolas según
sus características técnicas destacables para cada época. La primera generación,
entre 1951 y 1958, se caracterizó por el uso de válvulas de vacío, lo que le
daban un gran tamaño a estos modelos, que además generaban mucho calor al
funcionar.
La segunda generación (1959 - 1964), se caracterizó por el
uso del transistor, lo que les dio a las computadoras más rapidez, y las hizo
más pequeñas. En vez de usar tarjetas perforadas y tambores giratorios, las
computadoras de esta generación usaron núcleos magnéticos para almacenar
información. También se introdujeron leguajes de programación como el COBOL.
La tercera generación de computadoras (1964 - 1971) nace con
la invención de los circuitos integrados en placas de silicio, los cuales
permitieron agrupar miles de componentes electrónicos en miniatura. Las máquinas
de esta época se hicieron todavía más pequeñas, rápidas y de menor costo. Se
comenzaron también a usar cintas magnéticas para almacenar información.
Para la historia de la computadora, la cuarta generación
(1971 - 1981) está marcada por dos avances tecnológicos: el uso de chips para
almacenar información, y la posibilidad de integrar una cantidad aún mayor de
componentes electrónicos en estos mismos chips. Aparecen las primeras
microcomputadoras, las IBM, y los conocidos procesadores partiendo del 8088, e
incluyendo a los populares Pentium (I,II,II,..) y Celeron.
La quinta generación (1982 - 1989) se destaca de la anterior
por la creación en 1982 por Seymouy Cray de la primera computadora con la
capacidad de procesos en paralelo. Durante este período también se oficializaron
los esfuerzos por el desarrollo de la Inteligencia Artificial, principalmente
impulsada por el gobierno japonés con su proyecto "Quinta Generación".
La sexta generación (1990 a la fecha) se caracteriza por la
creciente capacidad de las computadoras para permitir el funcionamiento
simultáneo de cientos de microprocesadores, por el desarrollo y aplicación
masivo de las redes, y la integración de la Internet.
Como podemos apreciar, dividir la historia de la computadora
en generaciones es bastante arbitrario, sobretodo para la quinta y sexta
generación, en donde las delimitaciones entre ambas no son claras y parecen
fundirse, pero sigue siendo un recurso útil para comprender el contexto
histórico en el apasionante mundo de la computación.