HISTORIA DE LA COMPUTADORA
Definicion de computadora: Maquina electronica, analogica o digital, dotada de una memoria de gran capacidad y de metodos de tratamiento de la información, capaz de resolver problemas matematicos y logicos mediante la utilizacion automática de programas informaticos.
La computadora es un invento reciente, que no ha cumplido ni los cien años de existencia desde su primera generacion. Es el resultado evolutivo de ideas de muchas personas relacionadas con areas tales como la electronica, la mecanica, los materiales semiconductores, la logica, el algebra y la programacion; es un invento que ha venido a revolucionar la forma en la que trabajamos, nos entretenemos y se ha convertido en un aparato esencial en nuestra vida diaria.
CRONOLOGÍA
Antes de hablar especificamente de la historia de la computadora, debemos dar atributo a todos los inventos, herramientas y estudios que moldearon las primeras ideas de una computadora para finalmente otorgarnos una herramienta de la cual podemos gozar en nuestra vida actual.
A continuación, se presentan resumidamente los principales hitos en la historia de los ordenadores, desde las primeras herramientas manuales para hacer cálculos hasta las modernas computadoras de bolsillo.
- 2700 a. C.: se utiliza el ábaco en antiguas civilizaciones como la china o la sumeria, la primera herramienta para realizar sumas y restas.
- Hacia 830: el matemático e ingeniero persa Musa al-Juarismi inventó el algoritmo, es decir, la resolución metódica de problemas de álgebra y cálculo numérico mediante una lista bien definida, ordenada y finita de operaciones.
- XVII: italiano Tito Livio Burattini creado una máquina calculadora, que donó al Gran Duque Fernando II de Médici; la calculadora está formada por una máquina de Blaise Pascal y un ábaco neperiano
1600-1671
- 1614: el escocés John Napier inventa el logaritmo neperiano, que consiguió simplificar el cálculo de multiplicaciones y divisiones reduciéndolo a un cálculo con sumas y restas.
- 1620: el inglés Edmund Gunter inventa la regla de cálculo, instrumento manual utilizado desde entonces hasta la aparición de la calculadora electrónica para hacer operaciones aritméticas.
- 1623: el alemán Wilhelm Schickard inventa la primera máquina de calcular, cuyo prototipo desapareció poco después.
- 1642: el científico y filósofo francés Blaise Pascal inventa una máquina de sumar (la pascalina), que utilizaba ruedas dentadas, y de la que todavía se conservan algunos ejemplares originales.
- 1671: el filósofo y matemático alemán Gottfried Wilhelm Leibniz inventa una máquina capaz de multiplicar y dividir.
1800-1900
- 1801: el francés Joseph Jacquard inventa para su máquina de tejer brocados una tarjeta perforada que controla el patrón de funcionamiento de la máquina, una idea que sería empleada más adelante por los primeros ordenadores.
- 1833: el matemático e inventor británico Charles Babbage diseña e intenta construir la primera computadora, de funcionamiento mecánico, a la que llamó la "máquina analítica". Sin embargo, la tecnología de su época no estaba lo suficientemente avanzada para hacer realidad su idea.
- 1841 : la matemática Ada Lovelace comienza a trabajar junto a Babbage en lo que sería el primer algoritmo destinado a ser procesado por una máquina, por lo que se la considera como la primera programadora de computadores.
- 1890: el norteamericano Herman Hollerith inventa una máquina tabuladora aprovechando algunas de las ideas de Babbage, que se utilizó para elaborar el censo de Estados Unidos. Hollerith fundó posteriormente la compañía que después se convertiría en IBM.
- 1893: el científico suizo Otto Steiger desarrolla la primera calculadora automática que se fabricó y empleó a escala industrial, conocida como la Millonaria.
1900- antes de la primera generación
- 1936: el matemático y computólogo inglés Alan Turing formaliza los conceptos de algoritmo y de máquina de Turing, que serían claves en el desarrollo de la computación moderna.
- 1938: El ingeniero alemán Konrad Zuse completa la Z1, la primera computadora que se puede considerar como tal. De funcionamiento electromecánico y utilizando relés, era programable (mediante cinta perforada) y usaba sistema binario y lógica boleana. A ella le seguirían los modelos mejorados Z2, Z3 y Z4.
- 1944: En Estados Unidos la empresa IBM construye la computadora electromecánica Harvard Mark I, diseñada por un equipo encabezado por Howard H. Aiken. Fue la primera computadora creada en Estados Unidos.
- 1944: En Inglaterra se construyen los ordenadores Colossus (Colossus Mark I y Colossus Mark 2), con el objetivo de descifrar las comunicaciones de los alemanes durante la Segunda Guerra Mundial.
- 1947: En la Universidad de Pensilvania se construye la ENIAC (Electronic Numerical Integrator And Calculator), que funcionaba a válvulas y fue la primera computadora electrónica de propósito general.
- 1947: en los Laboratorios Bell, John Bardeen, Walter H. Brattain y William Shockley inventan el transistor.
- 1951: comienza a operar la EDVAC, concebida por John von Neumann, que a diferencia de la ENIAC no era decimal, sino binaria, y tuvo el primer programa diseñado para ser almacenado.
PRIMERA GENERACIÓN (1951-1958)
Las computadoras de la primera Generación emplearon bulbos para procesar información. Los operadores ingresaban los datos y programas en código especial por medio de tarjetas perforadas. El almacenamiento interno se lograba con un tambor que giraba rápidamente, sobre el cual un dispositivo de lectura/escritura colocaba marcas magnéticas. Esas computadoras de bulbos eran mucho más grandes y generaban más calor que los modelos contemporáneos.
SEGUNDA GENERACIÓN (1959-1964)
El invento del transistor hizo posible una nueva Generación de computadoras, más rápidas, más pequeñas y con menores necesidades de ventilación. Sin embargo el costo seguía siendo una porción significativa del presupuesto de una Compañía. Las computadoras de la segunda generación también utilizaban redes de núcleos magnéticos en lugar de tambores giratorios para el almacenamiento primario. Estos núcleos contenían pequeños anillos de material magnético, enlazados entre sí, en los cuales podían almacenarse datos e instrucciones.
Los programas de computadoras también mejoraron. El COBOL desarrollado durante la 1era generación estaba ya disponible comercialmente. Los programas escritos para una computadora podían transferirse a otra con un mínimo esfuerzo. El escribir un programa ya no requería entender plenamente el hardware de la computación.
Las computadoras de la 2da Generación eran sustancialmente más pequeñas y rápidas que las de bulbos, y se usaban para nuevas aplicaciones, como en los sistemas para reservación en líneas aéreas, control de tráfico aéreo y simulaciones para uso general. Las empresas comenzaron a aplicar las computadoras a tareas de almacenamiento de registros, como manejo de inventarios, nómina y contabilidad.
TERCERA GENERACIÓN (1964-1971)
Las computadoras de la tercera generación emergieron con el desarrollo de los circuitos integrados (pastillas de silicio) en las cuales se colocan miles de componentes electrónicos, en una integración en miniatura. Las computadoras nuevamente se hicieron más pequeñas, más rápidas, desprendían menos calor y eran energéticamente más eficientes.
Antes del advenimiento de los circuitos integrados, las computadoras estaban diseñadas para aplicaciones matemáticas o de negocios, pero no para las dos cosas. Los circuitos integrados permitieron a los fabricantes de computadoras incrementar la flexibilidad de los programas, y estandarizar sus modelos.
CUARTA GENERACIÓN (1971-presente)
Dos mejoras en la tecnología de las computadoras marcan el inicio de la cuarta generación: el reemplazo de las memorias con núcleos magnéticos, por las de chips de silicio y la colocación de muchos mas componentes en un Chip: producto de la microminiaturización de los circuitos electrónicos. El tamaño reducido del microprocesador y de chips hizo posible la creación de las computadoras personales (PC Personal Computer).
Hoy en día las tecnologías LSI (integración a gran escala) y VLSI (integración a muy gran escala) permiten que cientos de miles de componentes electrónicos se almacenen en un chip. Usando VLSI, un fabricante puede hacer que una computadora pequeña rivalice una computadora de la primera generación.
Comentarios
Publicar un comentario