Breve Historia de La Informática
Breve Historia de La Informática
Breve Historia de La Informática
1/ Antigüedad
Aunque aún no se puede hablar de informática como tal, los primeros antecedentes los encontramos en
los cálculos que se realizaban en la antigüedad con elementos como piedras.
Estos sistemas evolucionaron hasta llegar a los ábacos y los tableros de cálculo.
También en la Antigua Grecia se utilizaron métodos para realizar cálculos matemáticos, como el
algoritmo de Euclides.
Encontramos otros ejemplos de estos antecedentes en multitud de culturas, como pueden ser Egipto,
Mesopotamia, la India…
Durante estos siglos se produjeron una serie de hechos relevantes para el posterior nacimiento de la
informática.
En 1642, el matemático Blaise Pascal inventó la primera calculadora mecánica, que funcionaba mediante
una serie de ruedas y engranajes.
Posteriormente fue mejorada por Gottfried Leibniz en 1671, dando lugar a las calculadoras, que suponen
un antecedente de los ordenadores.
A principios del siglo XIX, Jacquard patentó un telar controlado por un sistema de tarjetas perforadas. Es
considerada la forma más antigua de programación.
Utilizando esta idea, Charles Babbage inventó la máquina analítica en 1834, que ya permitía hacer
operaciones complejas.
Ada Lovelace contribuyó ampliamente a su creación, y creó el lenguaje de programación con el que
funcionaba dicha máquina.
3/ Siglo XX
En 1936, Alan Turing definió la conocida como máquina de Turing, poniendo las bases para desarrollar la
programación automática, y para la posterior creación de las calculadoras universales programables.
Demostró que dicha máquina era capaz de resolver cualquier problema matemático que pudiera
representarse mediante un algoritmo.
Fue construida en IBM, y tenía un uso militar, para descifrar las comunicaciones alemanas durante la
Segunda Guerra Mundial.
Se considera que el primer ordenador de la historia fue el ENIAC (1946), y supuso un gran avance en
cuanto a velocidad de cálculo y fiabilidad.
En 1968, Douglas Engelbart (inventor del ratón), realizó una presentación conocida como “la madre de
todas las demos”, ya que en ella apareció por primera vez el ratón, el escritorio, la videoconferencia, el
correo electrónico y el procesamiento de texto.
Una fecha relevante es 1969, cuando se crea ARPANET, que fue una pequeña red de computadoras
creada por encargo del Departamento de Defensa de los EEUU.
Tiene una gran importancia, ya que es el germen de lo que hoy conocemos como Internet.
El primer correo electrónico lo envió Ray Tomlinson en 1971, a través de la red ARPANET.
Desde finales de los años 70 empezaron a aparecer ordenadores para uso personal, que la gente podría
adquirir para utilizar en sus casas.
Pero es en 1981 cuando IBM lanza el primer PC, suponiendo el paso definitivo para la progresiva
generalización en su uso.
Por sólo citar los dos sistemas operativos para ordenador más utilizados en la actualidad, macOS y
Windows se lanzaron en 1984 y 1985, respectivamente.
La primera página web la escribió Tim Berners-Lee en el año 1990. Todavía puedes encontrar el enlace:
http://info.cern.ch/hypertext/WWW/TheProject.html
Desde finales del siglo XX, la informática ha seguido evolucionando a pasos agigantados.
Aunque, realmente, la base sigue siendo muy parecida, se han producido avances muy importantes en
múltiples campos.
Los sistemas operativos, además de los lógicos cambios de diseño, han ido introduciendo cada vez más
funciones, permitiéndonos hacer cosas impensables hasta hace pocos años.
El diseño de los propios ordenadores también ha sufrido una gran evolución, siendo cada vez más
portátiles y ligeros, haciendo muy cómodo trabajar con ellos fuera de nuestros hogares.
Además, el nacimiento y uso masivo de los teléfonos móviles, que actualmente tienen prácticamente la
misma potencia que un ordenador, supuso que casi todo el mundo pueda realizar las tareas informáticas
necesarias desde estos dispositivos.
Se podría decir que la informática ha alcanzado un gran estado de madurez, y en los últimos años no se
han producido grandes avances, aparte de las novedades de diseño o la cada vez mayor potencia de los
procesadores.
En los próximos años, los avances en materias como la inteligencia artificial, y los algoritmos de
aprendizaje marcarán el futuro de la informática.