Historia Del Computador
Historia Del Computador
Historia Del Computador
Estos aparatos se inventaron en el siglo XX, revolucionando para siempre la manera en que
entendemos los procesos industriales, las comunicaciones, la sociedad y muchas otras áreas de
la vida.
Su historia comienza con el primer computador propiamente dicho, cuya autoría no puede
adjudicársele estrictamente a ninguna persona en solitario. Desde entonces han cambiado
enormemente y nos han cambiado enormemente, por lo que muchos estudiosos consideran su
aparición una Segunda Revolución Industrial o incluso una Revolución Digital.
Muy posteriormente se crearon inventos más sofisticados, como la máquina de Blaise Pascal
(conocida como Máquina de Pascal o Pascalina), creada en 1642. Consistía en una serie de
engranajes que permitían realizar operaciones aritméticas mecánicamente. Al mejorarla, en 1671
Gottfried Leibniz dio inicio a las primeras calculadoras, primas cercanas del computador.
En 1802 Joseph Marie Jacquard inventó un sistema de tarjetas perforadas que le permitiría
automatizar sus telares y reducir así la necesidad de mano de obra. En 1822 fueron la inspiración
del inglés Charles Babbage en la creación de una máquina de cálculo diferencial. Babbage es «el
padre de la computadora» porque en 1834 inventó una suerte de máquina analítica.
Tipos de computadoras
Existen diferentes tipos de computadoras según su tamaño: supercomputadoras,
macrocomputadoras, minicomputadoras y microcomputadoras. Y según el tipo de tecnología que
utilicen pueden ser analógicas, digitales, híbridas o cuánticas.
Según su tamaño
Supercomputadoras
Macrocomputadoras o mainframes
Microcomputadoras
Las microcomputadoras están conformadas por una unidad central (CPU) en la cual se ubican tanto
la memoria como los circuitos de entrada y salida del equipo, integrados al microprocesador. Esto
las hace mucho más pequeñas y económicas que las estaciones de trabajo, las macrocomputadoras y
las supercomputadoras, que requieren más de un CPU. Las microcomputadoras, a su vez, tienen
varias categorías:
Son equipos de uso doméstico o profesional que requieren una ubicación fija. Hasta hace poco, se
caracterizaban por tener el CPU en una especie de caja o torre que se instalaba cerca del monitor.
Computadoras portátiles
Son equipos que integran el microprocesador, la pantalla, los puertos de entrada y salida, el teclado
y el trackball o mouse en un mismo dispositivo que funciona con una batería portátil.
Computadoras usables (wearables)
Llamadas también computadoras corporales, se trata de dispositivos diseñados para ser utilizado por
encima de la ropa. El objetivo es que el usuario pueda interactuar con el microcomputador y obtener
conectividad a internet sin depender de una computadora portátil o de escritorio.
Según su tecnología
Computadoras analógicas
Son aquellas que están basadas en circuitos de tipo electrónico o mecánico y miden una magnitud
física expresada en números, como peso, temperatura, presión, velocidad o voltaje.
Computadoras digitales
Son un tipo de computadora compuesta por varias unidades con tareas diferenciadas para recibir,
procesar y entregar los datos que han sido introducidos previamente por el usuario. Estos datos se
almacenan en unidades fundamentales de información, llamadas bits, compuestas por un dígito
binario (cero o uno).
Computadoras híbridas
Como indica su nombre, se trata de computadoras que combinan tecnología analógica y digital. Este
tipo de dispositivos toma los valores analógicos y los “traduce” en valores digitalizados.
Computadoras cuánticas
Al igual que las computadoras digitales, utilizan código binario para el procesamiento de datos. En
este caso, la unidad fundamental de información no es un bit (que solo permite ceros o unos), sino
un cúbit, una unidad que puede tener los dos estados binarios al mismo tiempo.
Entrada: Se denomina así a la captura o recolecta de datos en bruto, tanto del interior de la
organización como de su entorno externo. La entrada puede ser manual o automática, pero de la
validez que contengan dichos datos dependerá en gran medida la veracidad y exactitud de la
información de salida.
Procesamiento: Supone la conversión de los datos en salidas útiles para los interesados,
este proceso se lleva a cabo mediante cálculos, análisis y operaciones que pueden variar su
complejidad. Como en la entrada, el procesamiento también puede llevarse a cabo de
manera manual o automática.
Salida: Se entiende como salida en este caso la transferencia o distribución de la
información procesada previamente, a los gerentes de la organización mediante reportes
gerenciales, para la toma de decisiones.
Microprocesador
Se llama microprocesador o simplemente procesador al circuito integrado central de un sistema
informático, en donde se llevan a cabo las operaciones lógicas y aritméticas (cálculos) para
permitir la ejecución de los programas, desde el Sistema Operativo hasta el Software de aplicación.
Un microprocesador puede operar con una o más CPU (Unidades Centrales de Procesamiento),
constituidas cada una por registros, una unidad de control, una unidad aritmético-lógica y una
unidad de cálculo en coma flotante (o coprocesador matemático).
Hay muchos tipos de procesadores. Aunque la división más habitual es aquella que discierne entre
procesadores de núcleo simple y aquellos de múltiples núcleos.
Los procesadores de un solo núcleo hacen labores sencillas. Ese único núcleo cumple con todas
las funciones del computador. No obstante, este único núcleo puede colapsar en caso de ser muy
exigido. Sobre todo cuando la máquina debe hacer multitasking.
Línea de tiempo
¿Qué es una línea de tiempo?
Una línea de tiempo es una representación gráfica que permite ver y comprender secuencias
de tiempo entre eventos.
Las líneas del tiempo son una herramienta visual para ordenar y explicar cronológicamente
procesos o acontecimientos que han ocurrido a lo largo de un período, por lo cual son muy útiles
como recurso pedagógico.
Concepto de algoritmo y programa
En informática, un algoritmo es una secuencia de instrucciones secuenciales, gracias al cual
pueden llevarse a cabo ciertos procesos y darse respuesta a determinadas necesidades o decisiones.
Se trata de conjuntos ordenados y finitos de pasos, que nos permiten resolver un problema o tomar
una decisión.
Los algoritmos no tienen que ver con los lenguajes de programación, dado que un mismo algoritmo
o diagrama de flujo puede representarse en diversos lenguajes de programación, es decir, se
trata de un ordenamiento previo a la programación.
Visto así, un programa no es otra cosa que una serie compleja de algoritmos ordenados y
codificados mediante un lenguaje de programación para su posterior ejecución en un computador.
Los algoritmos también son frecuentes en la matemática y la lógica, y son la base de la fabricación
de manuales de usuario, folletos de instrucciones, etc. Su nombre proviene del latín algoritmus y
éste apellido del matemático persa Al-Juarismi. Uno de los algoritmos más conocidos de la
matemática es el atribuido a Euclides, para obtener el máximo común divisor de dos enteros
positivos, o el llamado “método de Gauss” para resolver sistemas de ecuaciones lineales.
No Gráficos: Representa en forma descriptiva las operaciones que debe realizar un algoritmo
(pseudocódigo).
LENGUAJE DE PROGRAMACIÓN
Es el responsable de que la computadora siga paso a paso las órdenes que el programador ha
diseñado en el algoritmo. Con esto se entiende que el lenguaje de programación es una especie
de intermediario entre el ordenador y el usuario, para que este último pueda darle respuesta a
los problemas mediante la computadora y haciendo uso de palabras (funciones), que le
interpretan dicho programa al computador para la realización de ese trabajo
¿CUALES SON SUS PARTES?
1 Partes del Algoritmo
o 1.1 Entrada
o 1.2 Proceso
o 1.3 Salida
2 Características del algoritmo
3 Diseño del algoritmo
o 3.1 Pseudocódigo
o 3.2 Diagrama de flujo
o 3.3 Codificación
o 3.4 Ejecución
o 3.5 Validación
4 clases de algoritmos
o 4.1 Algoritmo cualitativo
o 4.2 Algoritmo cuantitativo
o 4.3 Algoritmo computacional
o 4.4 Algoritmo no computacional
Entrada
Es la información que se da al algoritmo, es decir, los valores con los que se trabajará.
Proceso
Son cálculos que se necesitan para que, partiendo de un dato que se da en la entrada, se logre llegar
al resultado esperado.
Salida
Precisión: Un algoritmo debe ser preciso y debe proporcionar resultados correctos cada vez
que se ejecuta.
Definición clara: Un algoritmo debe estar bien definido y debe ser comprensible para
cualquier persona que lo lea.
Orden: Los pasos de un algoritmo deben seguir una secuencia lógica y deben ser fáciles de
seguir.
Finitud: Un algoritmo debe tener un número finito de pasos y debe poder ser terminado en
un tiempo razonable.
Eficiencia: Un algoritmo debe ser eficiente y utilizar un uso razonable de los recursos
computacionales, como la memoria y el tiempo de procesamiento.
Generalidad: Un algoritmo debe ser general y poder ser aplicado a una amplia gama de
problemas y situaciones.
Reutilizabilidad: Un algoritmo debe ser reutilizable y poder ser utilizado varias veces para
resolver diferentes problemas o realizar diferentes tareas.
Los algoritmos pueden ser expresados de muchas maneras, incluyendo al lenguaje natural,
pseudocódigo, diagramas de flujo y lenguajes de programación entre otros. Las descripciones en
lenguaje natural tienden a ser ambiguas y extensas. El usar pseudocódigo y diagramas de flujo evita
muchas ambigüedades del lenguaje natural.
Lenguaje natural
Son aquellas lenguas que han sido generadas espontáneamente en un grupo de hablantes con
propósito de comunicarse, a diferencia de otras lenguas, como puedan ser una lengua construida, los
lenguajes de programación o los lenguajes formales usados en el estudio de la lógica formal,
especialmente la lógica matemática.
Pseudocódigo
Es una descripción de alto nivel de un algoritmo que emplea una mezcla de lenguaje natural con
algunas convenciones sintácticas propias de lenguajes de programación, como asignaciones, ciclos
y condicionales, aunque no está regido por ningún estándar.
Diagramas de Flujo
Son descripciones gráficas de algoritmos; usan símbolos conectados con flechas para indicar la
secuencia de instrucciones y están regidos por ISO.
Los diagramas de flujo son usados para representar algoritmos pequeños, ya que abarcan mucho
espacio y su construcción es laboriosa.