Cuál es la historia de la computadora ?

> Inicio > Computadoras e Internet

Primero que nada, habría que definir lo que es una computadora para poder investigar más a fondo sobre su historia: se entiende como tal a una máquina capaz de manipular información de acuerdo a una lista predeterminada de instrucciones; la capacidad para ejecutar esta lista de instrucciones o "programas" es lo que las distingue de las calculadoras.

Es difícil establecer cuáles fueron los inicios de la historia de la computadora, dado que la definición misma de lo que es una computadora ha ido evolucionando, y dispositivos que alguna vez fueron llamados "computadoras" hoy en día no serían catalogados como tales. En la opinión de muchos, la primera computadora según los estándares actuales, es decir  la primera electrónica y digital, fue creada por John Atanassoff entre 1933 y 1942. Para conocer todos los detalles de esta invención, puedes leer nuestro artículo "¿Quién inventó la computadora?".

Los primeros modelos, como recién mencionamos, vienen de la década de los cuarenta, aunque el concepto mismo de la computadora vienen de hace muchos años antes. De hecho el término antes de la era digital se refería a la realización de cálculos, con la ayuda de dispositivos mecánicos como el ábaco, el astrolabio y la regla de cálculo; y el concepto del cálculo asistido mecánicamente lo podemos encontrar en la historia desde el 150 AC, por lo que de ninguna manera es una novedad de le época que vivimos. Ahora si acotamos nuestra búsqueda histórica a aquellos dispositivos capaz de ser "programados", nos encontramos que uno de los primeros mecanismos precursores en nuestra historia datan del 1800. En 1801, Joseph Marie Jacquard, un inventór y fabricante de sombreros, fue responsable de un gran avance al crear el "telar de Jacquard", al usar tarjetas perforadas para crear diversos y creativos patrones en su telar; las tarjetas perforadas son una forma primitiva de programabilidad.

Charles Babbage en 1837, ideó una computadora programable mecánica que llamo "máquina analítica", pero debido a problemas financieros y de diseño, nunca llegó a construirla. Aunque lo hubiera hecho, para muchos no habría sido según los estándares actuales la primera computadora, dado que no era electrónica.

Durante el censo de 1890 en los Estados Unidos, se realizó por primera vez el procesamiento a gran escala de información usando tarjetas perforadas en conjunto con máquinas tabuladoras, manufacturadas por la corporación "Computing Tabulating Recording Corporation", que más tarde llegó a ser la conocidísima IBM.

Recién entre los años 1930 y 1950, la historia de la computadora como tal realmente comenzó y se crearon los verdaderas precursores de los modelos actuales, con las características que los hacen reconocibles según los estándares actuales: En 1941 Konrad Zuse crea máquinas electromecánicas llamadas "Z3", que fueron las primeras maquinas capaces de procesar aritmética binaria, y para algunos fue la primera computadora por cumplir con los parámetros de un sistema "Turing completo", estándar estudiado en las ciencias de la computación. Como ya mencionamos, en 1941 surge la computadora Atanassoff-Berry, que usó tubos de vacío. En 1944 los británicos crearon la computadora "Colossus", para poder descifrar los mensajes alemanes.

En 1946 el laboratorio estadounidense de investigación balística creo la ENIAC (Electronic Numerical Integrator And Computer),  que fue la primera computadora digital programable de la historia a gran escala, capaz de resolver toda una gama de problemas computacionales. Se construyó con el fin de realizar cálculos para la artillería. Si bien esta ya tenía características comunes con las computadoras modernas, era inflexible y requería de reestructuraciones permanentes para cambiar su programación. Algunos desarrolladores de la misma, crearon un diseño más flexible, llamado "arquitectura de von Neumann" en honor al gran matemático que lo propuso por primera vez en 1945. La capacidad de almacenar programas, esta arquitectura que mencionamos, es la característica común de estos primeros prototipos con las máquinas modernas.

Durante los años 50 se construyeron computadoras usando estos principios, basadas en tubos de vacío, y por lo mismo usaban grandes espacios físicos para poder funcionar (del tamaño de varias habitaciones). Siguiendo la línea de la historia, el reemplazo de estos tubos por el transistor, en la década de 1960, permitió hacer computadoras más pequeñas, rápidas, y costeables, lo que llevó la computación al ámbito comercial.

Para la década de los 70s, la llegada de los circuitos integrados y luego de los microprocesadores (el primer microprocesador comercial fue el Intel 4004) causó una nueva revolución en cuanto a tamaño, velocidad y costo. Al llegar la década de 1980, las computadoras ya se encontraban integradas en electrodomésticos y otros dispositivos de uso común, y al mismo tiempo se masificó el concepto de la "computadora personal" o para el hogar. Con la ayuda de la masificación de la Internet en los 90, las computadoras de uso personal se han transformado en bienes tan comunes como la televisión y el teléfono.

La historia y las generaciones de computadoras

Otra forma de tabular y comprender la historia de la computadora es dividiéndola en "generaciones" de las mismas, agrupándolas según sus características técnicas destacables para cada época. La primera generación, entre 1951 y 1958, se caracterizó por el uso de válvulas de vacío, lo que le daban un gran tamaño a estos modelos, que además generaban mucho calor al funcionar.

La segunda generación (1959 - 1964), se caracterizó por el uso del transistor, lo que les dio a las computadoras más rapidez, y las hizo más pequeñas. En vez de usar tarjetas perforadas y tambores giratorios, las computadoras de esta generación usaron núcleos magnéticos para almacenar información. También se introdujeron leguajes de programación como el COBOL.

La tercera generación de computadoras (1964 - 1971) nace con la invención de los circuitos integrados en placas de silicio, los cuales permitieron agrupar miles de componentes electrónicos en miniatura. Las máquinas de esta época se hicieron todavía más pequeñas, rápidas y de menor costo. Se comenzaron también a usar cintas magnéticas para almacenar información.

Para la historia de la computadora, la cuarta generación (1971 - 1981) está marcada por dos avances tecnológicos: el uso de chips para almacenar información, y la posibilidad de integrar una cantidad aún mayor de componentes electrónicos en estos mismos chips. Aparecen las primeras microcomputadoras, las IBM, y los conocidos procesadores partiendo del 8088, e incluyendo a los populares Pentium (I,II,II,..) y Celeron.

La quinta generación (1982 - 1989) se destaca de la anterior por la creación en 1982 por Seymouy Cray de la primera computadora con la capacidad de procesos en paralelo. Durante este período también se oficializaron los esfuerzos por el desarrollo de la Inteligencia Artificial, principalmente impulsada por el gobierno japonés con su proyecto "Quinta Generación".

La sexta generación (1990 a la fecha) se caracteriza por la creciente capacidad de las computadoras para permitir el funcionamiento simultáneo de cientos de microprocesadores, por el desarrollo y aplicación masivo de las redes, y la integración de la Internet.

Como podemos apreciar, dividir la historia de la computadora en generaciones es bastante arbitrario, sobretodo para la quinta y sexta generación, en donde las delimitaciones entre ambas no son claras y parecen fundirse, pero sigue siendo un recurso útil para comprender el contexto histórico en el apasionante mundo de la computación.

Tus preguntas





Búsqueda personalizada



Contacto     Links     Aviso legal
Copyright ©2005-2014, Todos los derechos reservados