II. HISTORIA DE LA COMPUTACIÓN




Objetivo: Explica la evolución del hardware y software de la computadora.


PREHISTORIA


Sin duda desde tiempos antiguos la humanidad se ha auxiliado de ciertos instrumentos para poder contar y hacer cálculos, el primer el primer dispositivo utilizado para contar fueron los dedos de las manos, aunque este instrumento resulta insuficiente en muchos de los casos. Debido a esto el hombre se da a la tarea de idear instrumentos que le ayuden a estos fines.
Los babilonios que habitaron en la antigua Mesopotamia, empleaban unas pequeñas bolas hechas de semillas o pequeñas piedras, a manera de “cuentas”, las cuales eran agrupadas en carriles de caña. Fueron los egipcios quienes 500 años a.C. inventaron el primer dispositivo para calcular que posterior mente los chinos perfeccionaron y se conoce como Ábaco que suma, resta, multiplica y divide. En la actualidad se sigue utilizando.

El mecanismo de Anticítera es un artilugio que se cree era una computadora astronómica capaz de predecir las posiciones del sol y de la luna en el zodíaco. Fueron en los restos de un naufragio cerca de la isla griega de Anticítera, entre Citera y Creta, se cree que data del 87 a.C.
Anticítera original
  
Pudo ser así: 


Seguido de esto transcurrieron alrededor de 1300 años antes de que se inventara algún dispositivo vinculado al cálculo y es entre los siglos XVI al XIX que se presenta una serie de eventos importantes y aportes.


ERA MECÁNICA


John Napier

En 1610, John Napier (1550-1617), inventor de los logaritmos, desarrolló las varillas de Napier, las cuales proporcionaron un método para multiplicar y dividir usando varillas y placas metálicas que puesto en la práctica se convirtió en la precursora de las modernas calculadoras de bolsillo de hoy en día.



En 1641, el matemático y filósofo francés Blaise Pascal, con tan solo 19 años, construyó la máquina automática de calcular completa a base de ruedas dentadas que se simulaban el funcionamiento del Ábaco. Esta máquina realizaba operaciones de suma y resta mostrando el resultado por una serie de ventanillas. En un principio se denominó pascalina,  recibiendo posteriormente el nombre de maquina analítica de Pascal.


Pascalina
Blaise Pascal
https://commons.wikimedia.
org/w/index.php?curid=12193020



En 1672, el filósofo y matemático alemán Gottfried Wilhelm von Leibnitz, mejoró la máquina de pascal construyendo su calculadora universal, capaz de sumar, restar, multiplicar, dividir y extraer raíz cuadrada.
Gottfried Leibnitz en 1679 crea el presente modo aritmético binario, basado en “ceros” y “unos”, lo cual serviría unos siglos más tarde para estandarizar la simbología utilizada aplicada en el proceso de la información en las computadoras modernas.

Esta imagen NO es real, las computadoras nunca fueron así, se muestra para representar de manera cómica que los programadores debían conocer perfectamente los códigos para poder programar, y éstos estaban basados en "ceros y unos".




En el año de 1805 el francés Joseph Marie Jacquard después de algunos intentos anteriores, construyó un telar automático que realizaba un control perfecto sobre las agujas tejedoras, utilizando tarjetas perforadas que contenían los datos para el control de las figuras y dibujos que había que tejer. Podemos considerar el telar de Jacquard como la primera máquina mecánica programada.

Charles Babbage
Imagen obtenida de Pinterest
Charles Babbage, matemático inglés y profesor de la universidad de Cambridge, diseñó dos máquinas de calcular que rompían la línea general de las máquinas de aquella época por su grado de complejidad. La primera de ellas, diseñada en 1822, fue la máquina de diferencias, que se basaba en fundamentos mecánicos con ruedas dentadas; sus aplicaciones más importantes fueron la resolución de funciones y la obtención de tablas de dichas funciones (por ejemplo, tablas de función x2). Debido a las diferencias tecnológicas de la época y también por el motivo de que a la mitad de la construcción Babbage ya estaba pensando en su segunda máquina, esta primera no llegó a fabricarse. En 1833, Babbage diseñó su segunda máquina, denominada máquina analítica, capaz de realizar todas las operaciones matemáticas y con posibilidades de ser programadas con tarjetas de cartón perforadas (similares a las tarjetas de Jacquard), siendo además capaz de almacenar en su interior una cantidad de cifras considerables. Con esta máquina Babbage consiguió por primera vez en la historia definir los fundamentos teóricos de las computadoras actuales. Se ideó para la realización automática de tablas de logaritmos y funciones trigonométricas. Esta máquina por los mismos motivos de su predecesora, no llego a construirse, sin embargo, los planos y modelos de ambas maquinas sirvieron como puntos referenciales de muchos de los conceptos  de computación aplicados hoy en día y para muchos Charles Babbage es considerado el padre de las computadoras.


Augusta Ada Byron, es considerada la primera programadora de la era de la computación, ya que fue ella quien se hizo cargo del análisis y desarrolló el trabajo de Charles Babbage y la programación de los cálculos a procesar en sus máquinas.

George Boole
Imagen obtenida de Pinterest

    En el 1854, George Boole desarrolló la teoría de álgebra de Boole, que permitió a sus sucesores el desarrollo matemático de álgebra binaria y con ella la representación de circuitos de computación y la llamada Teoría de los Circuitos Lógicos. Su propuesta consiste en un método para resolver problemas de lógica que recurre solamente a los valores binarios 1 y 0 y a tres operadores: and (y), or (o) y not (no).


En 1880 se celebró un censo de población nacional en los Estados Unidos y tuvieron que transcurrir 7 largos años antes de que toda la información quedase procesada por el Buró de Censos, debido a que los datos levantados eran tabulados en papel. Por consiguiente se estimó que el próximo censo a celebrarse en 1890 tardaría unos 10 o 12 años en procesarse para obtener los resultados finales. Es por ello que el norteamericano convocó una licitación para un sistema de procesamientos de datos que proporcionase resultados más rápidos. Herman Hollerith observó que la mayoría de las peguntas del censo tenían como respuesta un sí o un no, lo que le hizo idear en 1886 una tarjeta perforada para contener la información de las personas censadas y una máquina capaz de leer y tabular dicha información. Construyó su máquina censadora o tabuladora o capaz de reducir el trabajo manual a la tercera parte, con lo que se tardó en realizar el censo de 1890 tan sólo tres años. En la actualidad sigue siendo muy útil este invento, aunque usando ya tecnologías más modernas, por ejemplo, cuando realizaste el examen de ingreso al bachillerato, llenaste unos óvalos con lápiz, tus resultados fueron procesados y evaluados a través de una máquina la cual tiene la capacidad de leer esto. Así que esto es la versión moderna del invento de Hollerith.


En 1895, Hollerith incluyó en su máquina la operación de sumar con el fin de utilizarla para la contabilidad de los ferrocarriles centrales de Nueva York. Esto construyó el primer intento de realización automática de una aplicación comercial, lo que hizo que el funcionario se introdujera en el mundo de los negocios de tal manera que en 1896, fundó la empresa tabulating machines company, la cual se fusionó con otras empresas en el año 1924 configurando la actual International Business machines (IBM), que años más tarde se convertiría en el gigante de la computación.

Alan Turing
Imagen obtenida de Pinterest
El matemático inglés Alan M. Turing, desarrolló en 1936 la teoría de una máquina capaz de resolver todo tipo de problema con soluciones algorítmicas, llegando a la construcción teórica de las máquinas de Turing. Una máquina de Turing es una forma de representar un proceso a partir de su descripción. Con los estudios de Alan M. Turing, se inició la teoría matemática de la computación, en ella se define un algoritmo como la representación forma y sistemática de un proceso; en ella se verifica que todos los procesos son representables. De estos estudios surgió la teoría de la computabilidad que engloba el análisis encaminado a encontrar formas de descripción y representación de procesos o algoritmos.




PRIMERA GENERACIÓN DE COMPUTADORAS (1940 - 1952)


Konrad Zuse, ingeniero alemán y un pionero de la computación. Durante 1936 y1939 Zuse, construyó la Z1 y estuvo concluida en 1938. Se trataba de un dispositivo totalmente electromecánico, con una unidad aritmética compuesta de interruptores mecánicos  y una memoria que consistía en capas de barras de metal, dispuestas entre láminas de vidrio. Una de sus características era que podía ser programada por medio de tarjetas perforadas, sin embargo, la Z1 no funcionaba del todo bien  debido a las dificultades que presentaba la transmisión de los comandos por medio de las conexiones mecánicas. Pero, por otro lado, la memoria si funcionaba muy bien. Una vez que Zuse pudo analizar los bondades y defectos de la Z1, decidió embarcarse en un segundo proyecto que llamo Z2, el cual daría como resultado una más poderosa máquina que emplearía la misma memoria, pero con una unidad aritmética utilizando relevadores electromagnéticos, pero el proyecto se vio interrumpido por el estallido de la 2ª guerra mundial. Su logro más destacado fue terminada la 1ª computadora controlada por programas que funcionaba, la Z3 en 1941. Este puede ser que haya sido la “primera computadora”, aunque hay discrepancia en este sentido pues, si se consideran algunas sutilezas, como por ejemplo que la máquina de Zuse no era de propósito general, tal vez no lo sea.



En 1939, Howard Aiken, de la universidad de Harvard, desarrolló la idea de Babbage junto con un equipo de científicos de sus departamentos e ingenieros de IBM. El resultado de sus estudios culmino en la construcción de una calculadora numérica basada en el uso de relés electromagnéticos, ruedas dentadas y embragues electromecánicos, configurando la primera computadora electromecánica, denominada Calculadora Automática de Secuencias Controlada (ASCC), aunque su nombre más popular fue la Harvard Mark-l. Esta computadora se terminó de construir en 1944 y tenía elementos de entrada, memoria central unidad aritmética, unidad de control y elementos de salida. Como soportes de entrada de datos de tarjeta y cintas perforadas, se demoraban un segundo en realizar diez operaciones. Medía 18 metros de longitud, 2.5 metros de alto y pesaba unas 70 toneladas. Fue la primera computadora electromecánica que se construyó y que funcionó, aunque se utilizó poco tiempo, pues la aparición de las computadoras electrónicas hizo que las de este tipo callera rápidamente en desuso.

La primer computadora electrónica denominada ENIAC, que contaba con 17,468 bulbos, fue terminada en 1945 en la universidad de Pensylvania, el proyecto estuvo a cargo de John Mockley y J. Presper Eckert. Esta computadora era programable y universal, es decir, podía ser implicada cualquier tipo de cálculo. Fue muy utilizado por el ejército de estados unidos para el cálculo de la trayectoria de proyectiles por medio de tablas. Era más rápida que la Mark-l y realizaba la suma de dos números en dos diezmilésimas de segundo, multiplicándolo en tresmilésima de segundo. Ocupaba una superficie de 160 metros cuadrados y pesaba aproximadamente 30 toneladas.





John Von Neuman, ingeniero y matemático de origen húngaro y naturalizado norteamericano, desarrolló la idea de programa interno y describe  el fundamento teórico de construcción de una computadora electrónica denominada modelo de Von Neumann. La idea de Von Neumann  era la coexistencia en el tiempo de datos e instrucciones  en la computadora y la posibilidad de ser  programada, no estando las ordenes cableadas  en los circuitos de la máquina. Publicó el artículo teoría y técnicas de las computadoras electrónicas que fue un intento de diseño de una computadora desde  el punto  de vista lógico. En 1952 se realizó esta máquina que  se denominó EDVAC y fue  una modificación en la ENIAC. En 1951 John  W.Mauchly construyó la primera computadora de serie puesta a la venta; esta fue la UNIVAC-1. A partir de 1952 se construyen computadoras en serie, como las MANIAC-1, MANIAC-2  y la UNIVAC-2 y con ellas se acaba esta etapa  de la computación.



SEGUNDA GENERACIÓN DE COMPUTADORAS (1952- 1964)


El invento del transistor hizo posible una nueva generación de computadoras, más rápidas, más pequeñas y con menores necesidades de ventilación. Sin embargo el costo seguía siendo muy elevado.

Fueron John Barden, Walter Brattain y William Shockley quienes  conociendo las propiedades del silicón hallado en las piedras  de cuarzo, en 1948 inventaron el primer transistor, recibiendo el premio novel de física en 1956.
Los programas de computadoras también mejoraron. Los programas escritos para una computadora podían transferirse a otra  con un mínimo de esfuerzo. El escribir un programa ya no requería entender plenamente el hardware de la computadora.
Las computadoras de la segunda generación se usaban para nuevas aplicaciones como en los sistemas para reservación en líneas aéreas, control de tráfico aéreo etc.
Las empresas comenzaron a aplicar  las computadoras a tareas de almacenamiento de registros, como manejo de inventarios, nómina y contabilidad.

Guia del Lenguaje Fortran
Imagen obtenida de Pinterest
En 1957 un equipo de IBM, dirigido por John Backus, creo el primer lenguaje de programación, llamado Fortran, formulado para IBM 704. Casi de forma paralela, Alan Perlis, John Backus y Peter Naur desarrollaron el lenguaje de programación Algol.


Guía de Algol
Imagen obtenida de Pinterest

Asimismo, comenzaron a utilizarse como memoria interna los núcleos de ferrita y el tambor magnético, y como memoria externa la cinta magnética y los tambores magnéticos.





TERCERA GENERACIÓN DE COMPUTADORAS (1964-1971)


Las computadoras de esta  etapa incorporan los circuitos integrados o chips, que  son microcircuitos capaces de realizar  las mismas funciones que cientos de transistores. Eran computadoras de menor tamaño más veloces y de menor costo, debido  a que  la cantidad de transistores  colocados en un solo chip fue aumentando en forma  exponencial. El software evolucionó de forma considerable con un gran desarrollo de los sistemas operativos, en los que se incluyó la multiprogramación, el tiempo  real y el modo interactivo. Comenzaron a utilizarse  las memorias  de semiconductores y los discos magnéticos.

La IBM 360 una de las primeras computadoras comerciales que usó circuitos integrados, podía realizar tanto análisis  numéricos como administración o procesamiento de archivos, esta computadora podía ejecutar 100 billones de operaciones por día.
En 1964 el lenguaje de programación BASIC, es creado  por Tom Kurtz y John Kemeny de Dartmounth, que fue por muchos años uno de los lenguajes más utilizados a nivel mundial.
En 1969 Kenneth Thompson y Dennis Ritchie, desarrollaron el sistema operativo UNIX, en ese te mismo año el compilador PASCAL es escrito por Nicklaus Wirth, el lenguaje de programación que hasta  la fecha se estudia en la materia de cibernética y computación II del CCH.




CUARTA GENERACIÓN DE COMPUTADORAS (1971-1981)


EN 1971, INTEL introduce el primer microprocesador. El 4004 este conjunto de 2.300 transistores que ejecutaban 60.000 operaciones por segundo se puso  a la venta  por 200 dólares. Muy pronto Intel comercializó  el 8008, capaz de  procesar el doble de datos que su antecesor y que inundó los aparatos de aeropuertos, restaurantes, salones recreativos, hospitales, gasolineras, etc.


Dos mejoras en la tecnología  de las computadoras marcan  el inicio de la cuarta generación: el remplazo de las memorias con núcleos magnéticos. Por los chips de silicio y la colocación de muchos más componentes en un chip, producto de la micro miniaturización de los circuitos electrónicos. El tamaño reducido del microprocesador  hizo posible la creación de las computadoras personales (PC).

Se utilizó el disquete (floppy disk) como unidad de almacenamiento externo.

En 1973 los discos duros Winchester son introducidos por IBM en los modelos 3340. Estos dispositivos de almacenamiento se convierten en el estándar de la  industria. Está  provisto de un pequeño cabezal de lectura / escritura con un sistema  de aire que le permite  movilizarse muy cerca  de la superficie  del disco. Hasta la fecha discos duros similares a estos se siguen utilizando en la mayoría  de las computadoras.

En 1974 cuando Intel corporación presentó su PC compuesto por un microchip de circuito integrado denominado 8080. El 8080 fue  el cerebro de la primera computadora personal  comercial Mits Altaír, la cual promovió un gran interés  en hogares  y pequeños negocios a partir de 1975.


1977 fue el año del despegue de la computadora personal, con la aparición  en el mercado de varios modelos de computadora. Estuvieron  a la venta  equipos tales como: Commodore, modelos de Radio Shack, Atari y la de mayor éxito Apple II. El Apple II siguió fabricándose por otros quince años, todo un récord para una industria que continuamente  presenta novedades.

Apareció uno de los primeros sistemas  operativos para computadoras  personales, el CP/M, y posteriormente  aparecen otros, como por ejemplo, el MS-DOS. En 1979 el software  encontró su verdadero camino hacia la popularización, con el programa de hoja  de cálculo denominado VisicCalc, creado para la Apple II.

En esta generación, aparecen las redes de transmisión de datos para la interconexión  de computadoras, lo que hoy se conoce  como internet.



QUINTA GENERACIÓN DE COMPUTADORAS (1981- A LA FECHA)


Hoy en día las tecnologías LSI (Integración a gran escala)Y VLSI (Integración a muy gran escala) permiten  que cientos  de miles  de componentes electrónicos se almacenen en un microchip.
La quinta generación de computadoras  fue un proyecto ambicioso lanzado por Japón a finales de los 70. Su objetivo era el desarrollo de una clase de computadoras  que  utilizarían técnicas de inteligencia  artificial al nivel de lenguaje de la máquina y serían  capaces de resolver  problemas complejos, como la traducción automática de una lengua natural a otra, es decir:


  •          Computadoras con inteligencia artificial.
  •          Utilización de lenguaje natural.
  •          Interconexión entre todo tipo de computadoras, dispositivos y redes.
  •          Integración de datos, imágenes de voz.

En 1984, la compañía Apple presentó una nueva computadora, la Macintosh, sucesora de un modelo denominado Lisa. Entre sus novedades estaba la incorporación de una herramienta nueva para controlar la computadora, el mouse o ratón.




CDs
Imagen obtenida de Pinterest

La compañía  Microsoft, fundada  por Bill Gates y Paul Allen en 1975, presentó en 1985, el software Windows 1.1, en este mismo año aparecen los primeros CD-ROM para computadoras.



En 1997 el 8 de enero de este año Intel anuncia el lanzamiento del microprocesador Pentium con tecnología MMX.








Bibliografía: 
Andrade Díaz N. , Gómez Rico G., Lugo Rocha M. (2008). Guía para el examen extraordinario de Taller de Cómputo, Universidad Nacional Autónoma de México, Colegio de Ciencias y Humanidades Plantel Vallejo.




La Historia de la Computadora y Computación - Documental Completo. Gonzalo Martin Ceballos Baqueiro. Publicado el 17 jun. 2012. YouTube

Comentarios

Entradas populares