Computación
Te explicamos qué es la computación y cuáles son sus áreas de estudio más
importantes. Además, historia de la computación, y evolución.
Escuchar
2 min. de lectura
Cada vez se crean computadoras más veloces y con mejores capacidades.
¿Qué es computación?
El concepto computación proviene del latín computatĭo, esta hace referencia al
cómputo, como cuenta. La computación es la ciencia encargada de estudiar los
sistemas, más precisamente computadoras, que automáticamente
gestionan información.
Dentro de las ciencias de la computación pueden ser distinguidas distintas áreas de
estudio:
Estructura de datos y Algoritmos. Un de estudio importante en la
computación es el de la estructura de los datos y los algoritmos. Para ello
estos dos últimos son analizados para poder solucionar los problemas
precisos. En esta área el análisis matemático resulta elemental.
Sistemas operativos. Los sistemas operativos también son consideradas
una de las áreas más importantes. Son creados y actualizados
continuamente para perfeccionar el funcionamiento, mejorando fallas y
adaptándolos a las nuevas necesidades del mercado.
Arquitectura de computadoras. En lo que respecta al área de
arquitectura de la computadora se crean nuevas computadoras, más
veloces y con mejores capacidades. La atención suele centrarse en ciertos
componentes, como las memorias, CPU y periféricos (de entrada y
salida).
Lenguajes de programación. Otra área elemental en el estudio de la
computación es el de los lenguajes de programación. El objetivo es crear
nuevos lenguajes de programación, que sean más eficaces y veloces, con
funcionalidades y capacidades superadoras.
Ver además: Electrónica
Historia de la computación
En la Universidad de Harvard se creo la computadora llamada Mark I.
Si bien la utilización de las computadoras y su estudio ha sido masificada en las
últimas décadas, la ciencias de la computación tienen una larga historia. Ya desde
las antiguas civilizaciones, como los romanos y griegos utilizaban instrumentos
mecánicos para contabilizar.
Sin embargo la primera computadora fue creada durante el siglo XIX, esta,
recibió el nombre de máquina analítica. Dicha máquina surgió con el objetivo de
elaborar tablas matemáticas. Algunos años después el gobierno Inglés las utilizaría
para realizar cuentas. A fines de la década de los cuarenta del siglo XX se creó en la
Universidad de Harvard la computadora llamada Mark I. Los intentos seguirían a lo
largo de Estados Unidos con el apoyo del gobierno.
Cuando la cantidad de diseños comenzó a aumentar comenzaron a ser clasificadas
por sus características en generaciones:
Primera generación. A lo largo de los años cincuenta, se caracterizaban
por que sus programaciones eran mediante un lenguaje de máquinas y
eran diseñadas con tubos de vacío. Además ocupaban habitaciones enteras
por su gran tamaño y resultaban demasiado caras. Al igual que en la
segunda generación la información que ingresaba a la maquina era
mediante tarjetas perforadas.
Segunda generación. Esta generación abarcó la década de los sesenta.
Durante esta generación, las computadoras podían procesar más datos y
eran un poco más pequeñas. Fue durante estos años que comenzaron a
surgir las comunicaciones entre máquinas. A su vez surgieron las
primeras computadoras personales, de todos modos eran muy complejas
de utilizarlas que era necesario conocer la programación.
Tercera generación. Fue durante la tercera generación cuando la
producción comenzó a ser en serie. Las computadoras podían ser
manejadas por medio de los sistemas operativos. Muchas de las técnicas
utilizadas en esos años se convirtieron en estándares que hasta el día de
hoy son utilizados.
Cuarta generación. La cuarta generación es reconocida por la aparición
de los microchips. Esto significó un hito en las ciencias de la
computación. Los circuitos no solo comenzaron a ser mucho más
pequeños y veloces, si no que a su vez resultaban mucho más económicos.
Es por ello que la producción aumentó de manera notable y muchas más
personas tuvieron acceso a las mismas. Esta generación es también
conocida como la Revolución de la Computación.
El impacto en la vida cotidiana
La impresión de libros se transformó en la publicación y edición digital.
Actualmente las tecnologías computacionales han permitido la reelaboración de los
conceptos tradicionales de las actividades, de este modo las tecnologías empezaron a
transformar la vida de las personas profundamente y en todas sus actividades:
El correo tradicional fue reemplazado por el envío y la recepción
de correo electrónico.
El arte del dibujante sufrió la modificación y devino en la producción de
dibujos digitales.
La edición de audio está totalmente digitalizada.
La impresión de libros se transformó en la publicación y edición digital en
soportes informáticos que son a la vez comercializados vía Internet, entre
muchos otros procesos.
Es decir, el alcance de la computación es incalculable, la modificación en los
procesos de las actividades ya se ha producido y continúa su avance de forma
inusitada, transformando constantemente nuestras vidas y originando nuevos
requerimientos personales que exigen que estemos al tanto de estos nuevos recursos,
tanto para conocer y saber sobre su utilización, cuanto para saber aprovecharlos en
pos de un mejor bienestar personal y social.
Fuente: https://concepto.de/computacion/#ixzz8PY7ub6ys
Informática
Te explicamos qué es la informática, su historia, para qué sirve y otras
características. Además, sus conceptos básicos en detalle.
Escuchar
3 min. de lectura
La informática se dedica al ingreso, procesamiento y transmisión de datos.
¿Qué es la informática?
La informática o computación es la ciencia que estudia
los métodos y técnicas para almacenar, procesar y transmitir información de
manera automatizada, y más específicamente, en formato digital empleando
sistemas computarizados.
No existe realmente una definición única y universal de lo que la informática es,
quizá porque se trata de una de las ciencias de más reciente origen, aunque de
desarrollo más vertiginoso y desenfrenado.
Por eso en muchos espacios académicos suelen diferenciar entre esta disciplina y las
ciencias de la computación (o la ingeniería informática), considerando que estas
últimas posen un abordaje más teórico de la materia, mientras que la informática
tiene siempre un costado práctico y aplicado, vinculado con los dispositivos
electrónicos.
Otros, en cambio, consideran como subdisciplinas de la informática a las Ciencias
de la computación, la Ingeniería informática, los Sistemas de información,
la Tecnología de la información y la Ingeniería del software.
En todo caso, la informática como disciplina tiene que ver con el procesamiento
automático de la información a través de dispositivos electrónicos y sistemas
computacionales, dotados estos últimos de tres funciones básicas: el ingreso
de datos (entrada), el procesamiento de datos y la transmisión de resultados (salida).
Ver también: Programación
Características de la informática
La informática, a grandes rasgos, puede caracterizarse de la siguiente manera:
Su objeto de estudio puede resumirse en el tratamiento automatizado de
la información mediante sistemas digitales computarizados.
Se propone tanto el abordaje teórico como el práctico de los sistemas
informáticos, aunque no se trata de una ciencia experimental.
Toma en préstamo el lenguaje formal de la lógica y la matemática para
expresar las relaciones entre los sistemas de datos y las operaciones que
estos ejecutan.
Es una de las disciplinas científicas más jóvenes, surgida formalmente
en la segunda mitad del siglo XX.
Historia de la informática
Konrad Zuse inventó la primera computadora llamada z3.
Al contrario de lo que se cree, la informática es anterior a la invención de
las computadoras. Posee muy antiguos antecedentes en las máquinas de cálculo
mentales de los filósofos de la Antigüedad Griega, como Euclides (c. 325-265 a.
C.) y su famoso algoritmo, o bien en las calculadoras mecánicas del siglo XVII y las
máquinas programables del siglo XIX.
Sin embargo, en la primera mitad del siglo XX se creó la tecnología necesaria
para desarrollar las primeras computadoras. Entre esos avances se encuentra el
tubo al vacío, las puertas lógicas y los primeros circuitos, lo cual inauguró un campo
del saber que muy pronto revolucionó a todos los demás y cambió la forma en que
pensamos el trabajo.
También fue central el trabajo en algoritmos durante las primeras tres décadas
del siglo, bajo el genio de figuras como el matemático británico Alan Turing (1912-
1954). Por otro lado, el contexto de la Segunda Guerra Mundial impulsó a los
primeros calculadores automáticos que se dispusieron para descifrar los códigos de
guerra del enemigo.
La primera máquina de cálculo totalmente programable y automática fue
inventada en 1941, llamada Z3, y en 1944 la primera máquina electromecánica, en
la Universidad de Harvard en Estados Unidos: la Mark I.
Desde entonces, los sistemas informáticos no cesaron de cambiar. Se incorporaron
nuevas tecnologías como los transistores, los semiconductores y diversos
mecanismos de almacenamiento de información, desde las tarjetas perforadas hasta
las primeras cintas magnéticas.
El primer computador de la historia fue el ENIAC (1946), de la Universidad de
Pensilvania, que ocupaba un cuarto completo. Fue el primero de varias generaciones
de sistemas informáticos por venir, cada vez más pequeños y potentes.
Las primeras escuelas de computación, en el marco de las universidades, surgieron
entre las décadas de 1950 y 1960. Paralelamente la industria informática, naciente
pero poderosa, que permeó todas las demás áreas del saber humano en apenas 60
años de desarrollo.
¿Para qué sirve la informática?
Casi ningún aspecto de la vida cotidiana se mantiene al margen del mundo digital.
La informática tiene como propósito clave el almacenamiento y la recuperación
de información, lo cual ha sido una de las preocupaciones clave de
la humanidad desde el inicio de los tiempos. En ese sentido, el primer sistema de
almacenamiento fue la escritura misma, que permitía codificar mensajes y
recuperarlos luego a través de marcas sobre una superficie.
Vista así, la informática ha llevado ese mismo principio al máximo, creando
sistemas y aparatos que almacenen, produzcan, transmitan y reproduzcan
información de manera masiva, eficiente y veloz. No en balde la
informática interviene hoy en día en prácticamente todos los demás campos del
saber de un modo o de otro.
Importancia de la informática
La importancia de la informática hoy en día no podría ser más evidente. En un
mundo hipertecnologizado e hiperconectado, la información se ha convertido en
uno de los activos más preciados del mundo, y los complejos sistemas
informáticos que hemos construido nos permiten administrarlo de manera más veloz
y eficiente que nunca antes en la historia.
La computación es una de las disciplinas de mayor demanda en el mercado
universitario del mundo. Tiene la mayor y más rápida salida laboral, dado que casi
ningún aspecto de la vida cotidiana se mantiene al margen todavía del mundo digital
y de los grandes sistemas de procesamiento de información.
La big data (o “gran información”) que nuestros dispositivos reúnen de nosotros es
evidencia de ello: vivimos realmente en la era de la información, y la informática
entonces no podría ser más importante.
Conceptos básicos de informática
El software de aplicación ofrece funciones que van desde el trabajo hasta el ocio.
Los conceptos más básicos de la informática son el hardware y el software.
El hardware es el aspecto físico, rígido, concreto y tangible de los sistemas
informáticos. Son, así, las piezas y componentes que podemos tocar, intercambiar,
romper, etc., algo así como el “cuerpo” de la computadora.
En dicha categoría se incluyen los componentes vitales de procesamiento (como el
procesador de cálculo) o los dispositivos de almacenamiento (la memoria y los
discos rígidos), pero también los dispositivos periféricos, que son aditamentos
independientes del sistema, que se conectan con él para permitirle desempeñar
diversas funciones.
Dependiendo de cuáles sean dichas funciones, podremos hablar de:
Dispositivos de entrada. Aquellos que permiten introducir información
al sistema, como puede ser un teclado, un ratón, una cámara web o un
escáner.
Dispositivos de salida. Aquellos que permiten extraer o recuperar
información del sistema, como pueden ser el monitor, una impresora o
unos parlantes.
Dispositivos de entrada/salida. Aquellos que son capaces de desempeñar
ambas funciones a la vez o de manera sucesiva, como puede ser una
impresora multifuncional, o un monitor táctil.
El software vendría a ser la mente del sistema informático, intangible, abstracto y
sólo accesible a través del sistema. Existen muchísimos tipos de software, algunos
de los cuales vienen ya preinstalados en sectores críticos de la computadora,
mientras que otros sirven de interfaz entre el sistema y los usuarios, gobernando los
dispositivos, controlando los recursos y permitiendo la instalación
de programas secundarios que el usuario desee.
Así, podemos hablar de:
Software operativo o sistemas operativos. Aquellos programas que se
necesitan para el funcionamiento mínimo del sistema y para que el
usuario pueda disponer de sus recursos. Se trata de los programas
fundamentales que proveen al usuario de un entorno de operaciones y que
regulan el acceso a los recursos físicos del sistema, como la memoria, el
procesador, etc.
Software de aplicación. Aquellos programas que el usuario instala en el
sistema posteriormente y que le ofrecen determinadas funciones, que van
desde el trabajo hasta el ocio: videojuegos, procesadores de texto,
programas de diseño gráfico, programas antivirus, exploradores de la red,
etc.
Tecnología informática
Se entiende por tecnología informática al estudio, desarrollo, gerencia y puesta en
práctica de sistemas informáticos automatizados, especialmente desde la
perspectiva del software.
Así, los especialistas en tecnología informática se dedican a distintas áreas de la
actividad computarizada, como son el diseño de software, el establecimiento
de redes informáticas, la gerencia de sistemas computarizados, el diseño de bases de
datos, etc. Su propósito es el de facilitar la implementación de estas tecnologías en
los ámbitos empresariales, productivos u organizacionales.
Fuente: https://concepto.de/informatica/#ixzz8PY8Xe0xq