Historia de La Computadora - 2023

Descargar como docx, pdf o txt
Descargar como docx, pdf o txt
Está en la página 1de 5

Historia de la computadora

La historia de la computadora es el recuento de los eventos, innovaciones y


desarrollos tecnoló gicos del campo de la informá tica y la automatizació n, que dieron
origen a las má quinas que conocemos como computadoras, computadores u
ordenadores. Registra ademá s su mejoramiento y actualizació n hasta alcanzar las
versiones miniaturizadas y veloces del siglo XXI.
Las computadoras, como todos sabemos, son las má quinas de cá lculo má s avanzadas y
eficientes inventadas por el ser humano. Está n dotadas del suficiente poder de
operaciones, la suficiente autonomía y velocidad como para reemplazarlo en muchas
tareas, o permitirle diná micas de trabajo virtuales y digitales que nunca antes en la
historia habían sido posibles.

La invenció n de este tipo de aparatos en el siglo XX revolucionó para siempre la


manera en que entendemos los procesos industriales, el trabajo, la sociedad y un
sinfín de otras á reas de nuestra vida. Afecta desde el modo mismo de relacionarnos,
hasta el tipo de operaciones de intercambio de informació n a escala mundial que
somos capaces de realizar.

Antecedentes de la computadora
La historia de la computadora tiene largos antecedentes, que se remontan a las
primeras reglas de cá lculo y a las primeras má quinas diseñ adas para facilitarle al ser
humano la tarea de la aritmética. El á baco, por ejemplo, fue un importante adelanto en
la materia, creado alrededor de 4.000 a. C.
También hubo inventos muy posteriores, como la má quina de Blaise Pascal, conocida
como Má quina de Pascal o Pascalina, creada en 1642. Consistía en una serie de
engranajes que permitían realizar operaciones aritméticas. Esta má quina fue
mejorada por Gottfried Leibinitz en 1671 y se dio inicio a la historia de las
calculadoras.
Los intentos del ser humano por automatizar continuaron desde entonces: Joseph
Marie Jacquard inventó en 1802 un sistema de tarjetas perforadas para intentar
automatizar sus telares, y en 1822 el inglés Charles Babbage empleó dichas tarjetas
para crear una má quina de cá lculo diferencial.
Solamente doce añ os después (1834), logró innovar su má quina y obtener una
má quina analítica capaz de las cuatro operaciones aritméticas y de almacenar
nú meros en una memoria (hasta 1.000 nú meros de 50 dígitos). Por este motivo, a
Babbage se le considera el padre de la computació n, ya que esta má quina representa
un salto hacia el mundo de la informá tica como lo conocemos.
Invención de la computadora
La invenció n de la computadora no puede atribuirse a una sola persona. Se considera
a Babbage como el padre de la rama de saberes que luego será la computació n, pero
no será sino hasta mucho má s adelante que se hará la primera computadora como tal.
Otro importante fundador en este proceso fue Alan Turing, creador de una má quina
capaz de calcular cualquier cosa, y que llamó “má quina universal” o “má quina de
Turing”. Las ideas que sirvieron para construirla fueron las mismas que luego dieron
nacimiento al primer computador.
Otro importante caso fue el de ENIAC (Electronic Numeral Integrator and Calculator, o
sea, Integrador y Calculador Electró nico Numeral), creado por dos profesores de la
universidad de Pensilvania en 1943, considerado el abuelo de los computadores
propiamente dicho. Consistía en 18.000 tubos al vacío que llenaban un cuarto entero.

Invención de los transistores


La historia de los computadores no habría tenido el curso que tuvo sin la invenció n en
1947 de los transistores, fruto de los esfuerzos de los laboratorios Bell en Estados
Unidos. Estos aparatos son interruptores eléctricos fabricados con materiales só lidos
y sin necesidad del vacío.
Este descubrimiento fue fundamental para la fabricació n de los primeros microchips,
y permitieron el paso de los aparatos eléctricos a los electró nicos. Los primeros
circuitos integrados (o sea, chips) aparecieron en 1958, fruto de los esfuerzos de Jack
Kilby y Robert Noyce. El primero recibió el Premio Nobel de Física en 2000 por el
hallazgo.

El primer computador
Los primeros computadores surgieron como má quinas de cá lculo ló gico, debido a las
necesidades de los aliados durante la Segunda Guerra Mundial. Para decodificar las
transmisiones de los bandos en guerra debían hacerse cá lculos rá pido y
constantemente.
Por eso, la Universidad de Harvard diseñ ó en 1944 la primera computadora
electromecá nica, con ayuda de IBM, bautizada Mark I. Ocupaba unos 15 metros de
largo y 2,5 de alto, envuelta en una caja de vidrio y acero inoxidable. Contaba con
760.000 piezas, 800 kiló metros de cables y 420 interruptores de control. Prestó
servicios durante 16 añ os.
Al mismo tiempo, en Alemania, se había desarrollado la Z1 y Z2, modelos de prueba de
computadores similares construidos por Konrad Zuse, quien completó su modelo Z3
totalmente operacional, basado en el sistema binario. Era má s pequeñ o y de má s
barata construcció n que su competidor estadounidense.

La primera computadora de uso comercial


En febrero de 1951 apareció la Ferranti Mark 1, una versió n moderna de la
computadora norteamericana del mismo nombre que estaba disponible
comercialmente. Fue sumamente importante en la historia del computador, pues
contaba con un índice de registros, que permitía la lectura má s fá cil de un conjunto de
palabras en la memoria.
Por esa razó n surgieron hasta treinta y cuatro patentes distintas de su desarrollo. En
los añ os posteriores sirvió de base para la construcció n de las computadoras IBM,
muy exitosas industrial y comercialmente.

El primer lenguaje de programación


En 1953 apareció FORTRAN, acró nimo de The IBM Mathematical Formula Translation
(“Traducció n de fó rmulas matemá ticas de IBM”), desarrollado como el primer
lenguaje formal de programació n, o sea, el primer programa diseñ ado para fabricar
programas computacionales, por los programadores de IBM, liderados por John
Backus.
Inicialmente se desarrolló para el computador IBM 704, y para una variada gama de
aplicaciones científicas y de ingeniería, razó n por la cual tuvo una amplia serie de
versiones a lo largo de medio siglo de implementació n. Es todavía uno de los dos
lenguajes de programació n má s populares, especialmente para los
supercomputadores del mundo.

La primera computadora moderna


La primera computadora moderna apareció en otoñ o de 1968, como un prototipo
presentado por Douglas Engelbart. Tenía por primera vez un rató n o puntero, y una
interfaz grá fica de usuario (GUI), cambiando para siempre el modo en que los usuarios
y los sistemas computarizados interactuarían en adelante.
La presentació n del prototipo de Engelbart duró 90 minutos e incluyó una conexió n
en pantalla con su centro de investigació n, constituyendo así la primera
videoconferencia de la historia. Los modelos de Apple y luego de Windows fueron
versiones posteriores de este primer prototipo.

Dispositivos de almacenamiento secundario


El primer dispositivo de intercambio de informació n entre un computador y otro
fueron los disquetes Floppy, creados en 1971 por IBM. Se trataba de cuadrados negros
de plá stico flexible, en el medio de los cuales había un material magnetizable que
permitía grabar y recuperar informació n. Hubo varios tipos de disquetes:
8 pulgadas. Los primeros en aparecer, voluminosos y con capacidad entre 79 y 512
kbytes.
5 ¼ pulgadas. Semejantes a los de 8 pulgadas pero má s pequeñ os, almacenaban entre
89 y 360 kbytes.
3 ½ pulgadas. Introducidos en la década de los 80, eran rígidos, de colores y mucho
má s pequeñ os, con una capacidad de entre 720 y 1440 kbytes.

Computadoras del siglo XXI


Las computadoras hoy son parte de la vida cotidiana, a punto tal que para muchos es
inconcebible ya un mundo sin ellas. Se las encuentra en nuestras oficinas, en nuestros
teléfonos celulares, en diversos electrodomésticos, a cargo de instalaciones
automatizadas, y desempeñ ando un sinfín de operaciones de manera automá tica e
independiente.

Esto tiene muchos aspectos positivos, pero también entrañ a muchos temores. Por
ejemplo, el surgimiento de la robó tica, paso siguiente natural de la computació n,
promete dejar sin empleo a muchos trabajadores humanos, superados por la
capacidad de automatizació n que cada día es mayor y má s rá pida.

También podría gustarte