Historia de La Computacion

Descargar como docx, pdf o txt
Descargar como docx, pdf o txt
Está en la página 1de 30

Republica Bolivariana de Venezuela

Ministerio del Poder Popular para la Educacion


UNEY

Integrante:
Jose Ignacio C.I: 26.461.299
Historia de la computación
La computadora, computador u ordenador no es un invento de alguien en
particular, sino el resultado evolutivo de ideas y realizaciones de muchas
personas relacionadas con áreas tales como la electrónica, la mecánica,
los materiales semiconductores, la lógica, el álgebra y la programación.

Siglo XVII
1617: El matemático escocés John Napier (1550-1617), famoso por su
invención de los logaritmos, desarrolló un sistema para realizar operaciones
aritméticas manipulando barras, a las que llamó "huesos" ya que estaban
construidas con material de hueso o marfil, y en los que estaban plasmados
los dígitos. Dada su naturaleza, se llamó al sistema "huesos de Napier"
(ábaco neperiano). Los huesos de Napier tuvieron una fuerte influencia en el
desarrollo de la regla deslizante (cinco años más tarde) y las máquinas
calculadoras subsecuentes, que contaron con logaritmos.
1623: La primera calculadora mecánica fue diseñada por Wilhelm
Schickard en Alemania. Llamada "reloj calculador", la máquina incorporó los
logaritmos de Napier, haciendo rodar cilindros en un albergue grande. Se
comisionó un reloj calculador para Johannes Kepler, famoso matemático y
astrónomo, pero fue destruido por el fuego antes de que se terminara su
construcción.
1624: La primera regla deslizante fue inventada por el matemático
inglés William Oughtred. La regla deslizante (llamada "Círculos de
Proporción") era un juego de discos rotatorios que se calibraron con los
logaritmos de Napier. Se usó como uno de los primeros aparatos de
la informática analógica. Su época de esplendor duró más o menos un siglo,
el comprendido entre la segunda mitad del siglo XIX y el último cuarto
del XX, hasta que a comienzos de 1970, calculadoras portátiles comenzaron
a ser populares.

Pascalina del año 1652


1645: Blaise Pascal inventa la pascalina. Con esta máquina, los datos se
representaban mediante las posiciones de los engranajes. La pascalina es
una de las primeras calculadoras mecánicas, que funcionaba a base de
ruedas de diez dientes en las que cada uno de los dientes representaba un
dígito del 0 al 9. Las ruedas estaban conectadas de tal manera que podían
sumarse números haciéndolas avanzar el número de dientes correcto.
1666: Samuel Morland inventa la primera máquina de multiplicar en la corte
del rey Carlos II de Inglaterra. El aparato constó de una serie de ruedas, cada
una de las cuales representaba decenas, centenas, etc. Un alfiler de acero
movía los diales para ejecutar los cálculos. A diferencia de la pascalina, este
aparato no tenía avance automático de columnas.
1673: el matemático alemán Gottfried Leibniz inventa la primera calculadora
de propósito general. El aparato era una partida de la pascalina; mientras
opera usa un cilindro de dientes (la rueda de Leibniz) en lugar de la serie de
engranajes. Aunque el aparato podía ejecutar multiplicaciones y divisiones,
padeció de problemas de fiabilidad que disminuyó su utilidad.
Siglo XVIII[editar]
1769: Wolfgang von Kempelen, un noble húngaro, inventa un jugador de
ajedrez supuestamente Autómata, El Turco. Pretendió ser una máquina pura,
incluía un jugador de ajedrez "robótico", sin embargo fue una farsa, la cabina
era una ilusión óptica bien planteada que permitía a un maestro del ajedrez
esconderse en su interior y operar el maniquí. Era una sensación
dondequiera que iba pero se destruyó en un incendio en 1856.
1777: Charles Mahon, tercer conde de Stanhope inventa la primera máquina
lógica, el demostrador lógico. Era un aparato de bolsillo que
resolvía silogismos tradicionales y preguntas elementales de probabilidad.
Mahon es el precursor de los componentes lógicos en computadoras
modernas.
Siglo XIX[editar]
1801:francés Joseph Marie Jacquard, utilizó mecanismo de tarjetas
perforadas para controlar el dibujo formado por los hilos de las telas
confeccionadas por una máquina de tejer. Estas plantillas o moldes metálicos
perforados permitían programar las puntadas del tejido, logrando obtener una
diversidad de tramas y figuras. Inspirado por instrumentos musicales que se
programaban usando papel agujereado, la máquina se parecía a una atadura
del telar que podría controlar automáticamente los dibujos usando una línea
de tarjetas agujereadas. La idea de Jacquard, que revolucionó el hilar de
seda, estaba por formar la base de muchos aparatos de la informática e
idiomas de la programación.
1820: La primera calculadora de producción masiva se distribuyó por Charles
Thomas de Colmar. Originalmente se les vendió a casas del
seguro parisienses, el aritmómetro de Colmar operaba usando una variación
de la rueda de Leibniz. Más de mil aritmómetros se vendieron y
eventualmente recibió una medalla a la Exhibición Internacional en Londres
en 1862.
1822: Charles Babbage completa su máquina diferencial, una máquina de
propósito específico que se podía usar para calcular valores de funciones
polinómicas mediante el método de las diferencias. El artefacto de la
diferencia era un ensamble complejo de ruedas, engranajes, y remaches.
Babbage diseñó su "artefacto analítico", un aparato de propósito general que
era capaz de ejecutar cualquier tipo de cálculo matemático. Los diseños del
artefacto analítico eran la primera conceptualización clara de una máquina
que podría ejecutar el tipo de cálculos computacionales que ahora se
consideran el corazón de la informática. Babbage nunca construyó su
artefacto analítico, pero su plan influyó en toda computadora
digital subsiguiente, incluidas las modernas. El artefacto analítico fue
finalmente construido por un equipo moderno de ingenieros, en 1989, cien
años después de la muerte de Babbage en 1871. Por su discernimiento,
Babbage es conocido hoy en día como el Padre de las Computadoras
Modernas.
1837: Charles Babbage describe la máquina analítica. Es el diseño de un
computador moderno de propósito general. La idea que tuvo Charles
Babbage sobre un computador nació debido a que la elaboración de las
tablas matemáticas era un proceso tedioso y muy propenso a errores.
1843: Ada Augusta Lovelace sugirió la idea de que las tarjetas perforadas se
adaptaran de manera que causaran que el motor de Babbage repitiera ciertas
operaciones. Debido a esta sugerencia algunos consideran a Lady Lovelace
la primera programadora.
1854: el lógico inglés George Boole publica su Álgebra de Boole. El sistema
de Boole redujo a argumentos lógicos las permutaciones de tres operadores
básicos algebraicos: y, o, y no. A causa del desarrollo del álgebra de Boole,
Boole es considerado por muchos como el padre de la teoría de la
informática.
1869: La primera máquina lógica en usar el álgebra de Boole para resolver
problemas más rápido que humanos, fue inventada por William Stanley
Jevons. La máquina, llamada el piano lógico, usó un alfabeto de cuatro
términos lógicos para resolver silogismos complicados.
1878: Un comité de la Asociación Británica para el avance de la ciencia
recomienda no construir la máquina analítica de Babbage, por lo que este
inventor no tuvo acceso a fondos del gobierno.
1878: Ramón Verea, quien vivía en la ciudad de Nueva York, inventó una
calculadora con una tabla interna de multiplicación; esto fue mucho más
rápido que usar acarreos u otro método digital de aquel tiempo. Él no se
interesó en poner su obra en producción, solo quiso mostrar que
un español podía inventar tanto como un estadounidense.
1879: A los 19 años de edad, Herman Hollerith es contratado como asistente
en las oficinas del censo estadounidense y desarrolló un sistema de cómputo
mediante tarjetas perforadas en las que los agujeros representaban
información sobre el sexo o la edad, entre otros. Gracias a la máquina
tabuladora de Hollerith el censo de 1890 se realizó en dos años y medio,
cinco menos que el censo de 1880. Se tardaba tanto en hacer el censo
debido a la llegada masiva de inmigrantes.
1884: Dorr Felt desarrolló su comptómetro, el cual fue la primera calculadora
que se operaba con solo presionar teclas en vez de, por ejemplo, deslizar
ruedas.
1893: La primera máquina exitosa de multiplicación automática se desarrolló
por Otto Steiger. El Millonario, como se le conocía, automatizó la invención
de Leibniz de 1673, y fue fabricado por Hans W. Egli de Zúrich. Originalmente
hecha para negocios, la ciencia halló inmediatamente un uso para el aparato,
y varios miles de ellos se vendieron en los cuarenta años que siguieron. El
cántabro Leonardo Torres Quevedo presenta en la Academia de Ciencias
Exactas, Físicas y Naturales de la Memoria sobre las máquinas algébricas, y
posteriormente en 1895 la memoria Sur les machines algébraiques en un
Congreso en Burdeos.
1900: Leonardo Torres Quevedo presenta la memoria Machines à calculer en
la Academia de Ciencias de París...
Siglo XX[editar]
Años 1900[editar]
1906: el estadounidense Lee De Forest inventa el tubo de vacío. El Audion,
como se llamaba, tenía tres elementos dentro de una bombilla del vidrio
evacuada. Los elementos eran capaces de hallar y amplificar señales de
radio recibidas de una antena. El tubo al vacío encontraría uso en varias
generaciones tempranas de 5 computadoras, a comienzos de 1930.
Años 1910[editar]
1912: Leonardo Torres Quevedo construye un Autómata capaz de jugar al
ajedrez que llamó El Ajedrecista y fue dado a conocer al público en 1914.
1914: El español Leonardo Torres Quevedo establece las bases de la
automática, plantea la problemática de la inteligencia artificial (sin introducir
esta denominación) y la aritmética en coma flotante en sus Ensayos sobre
automática. Su definición. Extensión teórica de sus aplicaciones.
1919: los inventores estadounidenses W. H. Eccles y F. W. Jordan
desarrollan el primer circuito multivibrador o biestable (en léxico
electrónico flip-flop). El flip-flop permitió diseñar Circuitos electrónicos que
podían tener dos estados estables, alternativamente, pudiendo representar
así el 0 como un estado y el otro con un 1. Esto formó la base del
almacenamiento y proceso del bit binario, estructura que utilizan las actuales
computadoras.
1920: Leonardo Torres Quevedo construye su aritmómetro electromecánico,
primera calculadora automática.
Años 1920[editar]
1924: Walther Bothe construye una puerta lógica AND para usarla en
experimentos físicos, por lo cual recibió el premio Nobel de física en 1954.
1925: en Estados Unidos se fundan los laboratorios Bell.
1930: Vannevar Bush construyó una máquina diferencial parcialmente
electrónica, capaz de resolver ecuaciones diferenciales.
Años 1930[editar]
1931: Kurt Gödel publicó un documento sobre los lenguajes
formales basados en operaciones aritméticas. Lo usó para codificar
arbitrariamente sentencias y pruebas formales, y mostró que los sistemas
formales, como las matemáticas tradicionales, son inconsistentes en un cierto
sentido, o que contienen sentencias improbables pero ciertas. Sus resultados
son fundamentales en las ciencias teóricas de la computación.
1936: Alan Turing describe la máquina de Turing, la cual formaliza el
concepto de algoritmo.
1938: Konrad Zuse completa la primera computadora electromecánica,
aunque no 100% operativa, la Z1. Esto da comienzo a la primera generación
de computadoras que rápidamente empezaron a usar ya los tubos de vacío,
esta generación abarca desde 1938 hasta 1958 donde inicia la segunda
generación.
1939: los ingenieros William Hewlett y David Packard fundan en Palo
Alto, California la compañía Hewlett-Packard.
1940: Samuel Williams y George Stibitz completaron en los laboratorios Bell
una calculadora electro-mecánica que podía manejar números complejos.
Años 1940[editar]
1941: La computadora Z3 fue creada por Konrad Zuse. Fue la primera
máquina programable y completamente automática.
1942: John Vincent Atanasoff y Clifford Edward Berry completaron una
calculadora de propósito especial para resolver sistemas de ecuaciones
lineales simultáneas, la cual fue llamada la "ABC" ("Atanasoff Berry
Computer").
1944: En Estados Unidos se construyó, en la Universidad de Harvard,
la Harvard Mark I (primera máquina electromecánica), diseñada por un
equipo encabezado por Howard H. Aiken.
1944: En Inglaterra se construyeron los ordenadores Colossus (Colossus
Mark I y Colossus Mark 2), con el objetivo de descifrar las comunicaciones de
los alemanes durante la Segunda guerra mundial.
1945: El primer caso de mal funcionamiento en la computadora causado por
la intrusión de una polilla al sistema fue documentado por los diseñadores
del Mark II. Erróneamente se cree que de allí proviene el uso del término
"bug", que significa insecto o polilla en inglés. Sin embargo este término ya se
usaba mucho antes para referirse a fallas de aparatos mecánicos, eléctricos y
electrónicos. El "Oxford English Dictionary " documenta este uso de la
palabra desde 1889.
1945: John von Neumann escribe el "First Draf of a report on the EDVAC"
una página del primer documento donde se describe el diseño lógico de una
computadora utilizando el concepto de programa almacenado (stored-
program), en él se señala una architectura distinta a la Arquitectura
Harvard hoy día conocida como Arquitectura de von Neumann. Aunque no se
menciona, las ideas de Neumann están basadas en trabajos de Alan Turing
con las máquinas que descifraron el código enigma, pero al estar bajo
secreto militar no pudo nunca publicar sus descubrimientos.
1945: Vannevar Bush desarrolló la teoría de Memex, un dispositivo
de hipertexto ligado a una librería de libros y películas de terror

ENIAC.
1946: en la Universidad de Pensilvania se construye la ENIAC (Electronic
Numerical Integrator And Calculator), que fue la primera computadora
electrónica de propósito general. Esta máquina ocupaba todo un sótano de la
Universidad, tenía más de 17.000 tubos de vacío, consumía 200 kW de
energía eléctrica y requería todo un sistema de aire acondicionado; tenía la
capacidad para realizar cinco mil operaciones aritméticas por segundo.
1946: Se pone en funcionamiento la computadora
británica EDSAC (Electronic Dilay Storage) construida por Maurice Wilkes y
un equipo perteneciente al laboratorio de matemáticas de la universidad
de Cambridge, fue inspirada en las ideas que Neumann expone en su
borrador.
1947: en Laboratorios Bell, John Bardeen, Walter H. Brattain y William
Shockley inventan el transistor.
1949: Jay Forrester desarrolla la primera memoria, la cual reemplazó los no
confiables tubos al vacío como la forma predominante de memoria por los
próximos diez años.
1949: La computadora EDSAC corre su primer programa.
1950: Alan Turing expone un artículo que describe lo que ahora conocemos
como la prueba de Turing. Su publicación explora el desarrollo natural y
potencial de la inteligencia y comunicación humana y de computadoras.
1950 - Se forman los primeros grupos de usuarios como SHARE (IBM) y
DECUS (DEC), y más tarde CSRG de Berkeley, donde el software se
distribuye con su código fuente y sin restricciones.
Años 1950[editar]
1951: comienza a operar la EDVAC, a diferencia de la ENIAC, no
era decimal, sino binaria y tuvo el primer programa diseñado para ser
almacenado.
1951: Eckert y Mauchly entregan a la Oficina del Censo su primer
computador: el UNIVAC I.
1951: el Sistema A-0 fue inventado por Grace Murray Hopper. Fue el
compilador desarrollado para una computadora electrónica.
1952: Claude Elwood Shannon desarrolla el primer ratón eléctrico capaz de
salir de un laberinto, considerada la primera red neural.
1953: IBM fabrica su primera computadora a escala industrial, la IBM 650. Se
amplía el uso del lenguaje ensamblador para la programación de las
computadoras.
1953: se crean memorias a base de magnetismo (conocidas como memorias
de núcleos magnéticos).
1954: se desarrolla el lenguaje de programación de alto nivel Fortran.
1956: Darthmouth da una conferencia en a partir de la que nace el concepto
de inteligencia artificial.
1956: Edsger Dijkstra inventa un algoritmo eficiente para descubrir las rutas
más cortas en grafos como una demostración de las habilidades de la
computadora ARMAC.
1957: IBM pone a la venta la primera impresora de matriz de puntos.
1957: se funda la compañía Fairchild Semiconductor.
1957: Jack S. Kilby construye el primer circuito integrado.
1957: la organización ARPA es creada como consecuencia tecnológica de la
llamada Guerra Fría.
1957: puesta en marcha de SAPO, el primer ordenador con tolerancia a
fallos.
1958: comienza la segunda generación de computadoras, caracterizados por
usar circuitos transistorizados en vez de válvulas al vacío.
1960: se desarrolla COBOL, el primer lenguaje de programación de alto nivel
transportable entre modelos diferentes de computadoras.
1960: aparece ALGOL, el primer lenguaje de programación estructurado y
orientado a los procedimientos.
1960: se crea el primer compilador de computador.
1960: C. Antony R. Hoare desarrolla el algoritmo de ordenamiento o
clasificación llamado quicksort.
Años 1960[editar]
1961: en IBM, Kenneth Iverson inventa el lenguaje de programación APL.
1961: T. Kilburn y D. J. Howart describen por primera vez el concepto
de paginación de memoria.
1962: en el MIT, Ivan Sutherland desarrolla los primeros programas gráficos
que dejan que el usuario dibuje interactivamente en una pantalla.
1962: en el MIT, Hart y Levin inventan para Lisp el primer compilador
autocontenido, es decir, capaz de compilar su propio código fuente.
1962: un equipo de la Universidad de Mánchester completa la computadora
ATLAS. Esta máquina introdujo muchos conceptos modernos como
interrupciones, pipes (tuberías), memoria entrelazada, memoria virtual y
memoria paginada. Fue la máquina más poderosa del mundo en ese año.
1962: el estudiante del MIT Steve Russell escribe el primer juego de
computadora, llamado Spacewar!.

Caracteres ASCII imprimibles, del 32 al 126.


1962: un comité industrial-gubernamental define el código estándar de
caracteres ASCII.
1963: DEC (Digital Equipment Corporation) lanza el
primer minicomputador comercialmente exitoso.
1964: la aparición del IBM 360 marca el comienzo de la tercera generación
de computadoras. Las placas de circuito impreso con múltiples componentes
elementales pasan a ser reemplazadas con placas de circuitos integrados.
1964: aparece el CDC 6600, la primera supercomputadora comercialmente
disponible.
1964: en el Dartmouth College, John George Kemeny y Thomas Eugene
Kurtz desarrollan el lenguaje BASIC (el Dartmouth BASIC).
1965: Gordon Moore publica la famosa Ley de Moore.
1965 - Ted Nelson teoriza sobre la red de documentos hiperenlazados o
documentos web.
1965: La lógica difusa, diseñada por Lofti Zadeh, se usa para procesar datos
aproximados.
1965: J. B. Dennis introduce por primera vez el concepto de segmentación de
memoria.
1965: en los clásicos documentos de Dijkstra se tratan por primera vez
los algoritmos de exclusión mutua (sistemas operativos).
1966: la mayoría de ideas y conceptos que existían sobre redes se aplican a
la red militar ARPANET.
1966: aparecen los primeros ensayos que más tarde definirían lo que hoy es
la programación estructurada.
1967: en el MIT, Richard Greenblatt inventa los primeros programas exitosos
de ajedrez.
1967: en IBM, David Noble ―bajo la dirección de Alan Shugart― inventa
el disquete (disco flexible).
1968: Robert Noyce y Gordon Moore fundan la corporación Intel.
1968: Douglas Engelbart lleva a cabo "The Mother of All Demos".
1969: el protocolo de comunicaciones NCP se crea para controlar la red
militar ARPANET.
1969: Data General Corporation distribuye la primera minicomputadora de 16-
bit.
1969: en los laboratorios Bell, Ken Thompson y Dennis Ritchie desarrollan
el lenguaje de programación B.
1969: en los laboratorios Bell de AT&T, un grupo de empleados de dicho
laboratorio entre los que se encuentran Ken Thompson, Dennis Ritchie
y Douglas Mcllroy― crean el sistema operativo UNICS.
1969: Jerry Sanders y Edwin Turney fundan AMD
En abril de 1969 se publica el RFC 1, que describe la
primera Internet (entonces ARPANET). La libre disposición de las RFC, y en
particular de las especificaciones de los protocolos usados en Internet fue un
factor clave de su desarrollo.
Años 1970[editar]
1970: el sistema UNICS es renombrado como Unix.
1970: E. F. Codd se publica el primer modelo de base de datos relacional.
1970: el profesor suizo Niklaus Wirth desarrolla el lenguaje de programación
Pascal.
1970: Brinch Hansen utiliza por primera vez la comunicación interprocesos en
el sistema RC 400.
1970: Intel crea la primera memoria dinámica RAM. Se le llamó i1103 y tenía
una capacidad de 1024 bits (1 kbits).
1970: Se funda La división de investigación Xerox PARC
1971: Intel presenta el primer procesador comercial y a la vez el primer
chip microprocesador, el Intel 4004.
1971: Ray Tomlinson crea el primer programa para enviar correo electrónico.
Como consecuencia, la arroba se usa por primera vez con fines informáticos.
1971: en el MIT, un grupo de investigadores presentan la propuesta del
primer "Protocolo para la transmisión de archivos en Internet" (FTP).
1971: Texas Instruments vende la primera calculadora electrónica portátil.
1971: John Blankenbaker presenta el Kenbak-1, considerado como el primer
ordenador personal de la historia, sin un procesador, solo con puertas
lógicas. Solo vende 40 unidades en centros de enseñanza.
1972: aparecen los disquetes de 5 1/4 pulgadas.
1972: Intel desarrolla y pone a la venta el procesador Intel 8008.
1972: sale al mercado la primera [[consola de vicambia su nombre
por DARPA.
1973: La división de investigación Xerox PARC desarrollo el primer ordenador
que utilizó el concepto de Computadora de Escritorio llamado Xerox Alto,
además de ser el primer ordenador en utilizar una GUI y un mouse.
1974: Vint Cerf y Robert Kahn crean el TCP (protocolo de control de
transmisión).
1974: se crea el sistema Ethernet para enlazar a través de un cable único a
las computadoras de una LAN (red de área local).
1974: Gary Kildall crea el sistema operativo CP/M (Control Program for
Microcomputer).
1974: Federico Faggin funda la compañía ZiLOG inc. la cual crea un
procesador el Zilog Z80 que está basado en el Intel 8080 (que Faggin mismo
diseñó cuando era empleado de esa compañía), fue lanzado en 1976; este
alcanzó gran popularidad durante los próximos años.
1975: en enero la revista Popular Electronics hace el lanzamiento del Altair
8800, el primer microcomputador personal reconocible como tal.
1975: se funda la empresa Microsoft.
1975: Raphael Finkell publica una colección de términos técnicos usados por
las comunidades de hackers desde principios de los años 60, llamada jargon-
1.1
1975: Gordon Moore, rectifica su predicción en cuanto a la densidad de
transistores, duplicándose cada 2 años en vez de cada año.2
1976: se funda la empresa Apple.
1977: Apple presenta el primer computador personal que se vende a gran
escala, el Apple II, desarrollado por Steve Jobs y Steve Wozniak en un
garaje.
1977: sale al mercado el ordenador TRS-80 el primero que utiliza un
procesador Zilog Z80.
1978: se desarrolla el famoso procesador de textos WordStar, originalmente
para plataforma CP/M (Control Program for Microcomputer).
1978: Donald Knuth comienza a trabajar en el proyecto TeX, un sistema de
tipografía en código libre.
1979: Dan Bricklin crea la primera hoja de cálculo, que más tarde sería
denominada VisiCalc.
1979: Toru Iwatani, de la empresa Namco, crea el juego Pacman.
1980: en IBM, un grupo de investigación desarrolla el primer prototipo
de RISC (Computadora de Instrucción Reducida).
1980: la empresa Mycron lanza la primera microcomputadora de 16 bits,
llamada Mycron 2000.
1980: Laboratorios Bell desarrolla el primer microprocesador de 32-bit en un
solo chip, llamado Bellmac-32.
Años 1980[editar]
1981: se lanza al mercado el IBM PC, que se convertiría en un éxito
comercial, marcaría una revolución en el campo de la computación personal y
definiría nuevos estándares.
1981: se termina de definir el protocolo TCP/IP.
1981 (3 de abril): Adam Osborne lanza el Osborne 1, primer ordenador
portable (no portátil ya que no usaba baterías).
1981: pokajiontas.inc crea los disquetes de 3 1/2 pulgadas.
1982: Microsoft saca al mercado el sistema operativo MS-DOS, que sería el
más utilizado en los IBM PC compatibles hasta mediados de los años 90.
1982: la Asociación Internacional MIDI publica el MIDI (protocolo para
comunicar computadoras con instrumentos musicales).
1982: Rod Canion, Jim Harris y Bill Murto fundan Compaq (Computer
Corporation), una compañía de computadoras personales.
1982: aparece el Sinclair ZX Spectrum.
1982: creación del protocolo SMTP, que permitía por primera vez el
intercambio de correos electrónicos en ARPANET.
1983: Microsoft ofrece la versión 1.0 del procesador de textos Word para
DOS.
1983: Compaq fabrica el primer compatible IBM PC, el Compaq portable.
1983: ARPANET se separa de la red militar que la originó, de modo que, ya
sin fines militares, se puede considerar esta fecha como el nacimiento
de Internet.
1983: el 27 de septiembre, Richard Stallman anuncia públicamente el
proyecto GNU. Este texto inicial fue desarrollado en el Manifiesto GNU,
publicado en 19853. Poco tiempo después Richard Stallman libera el Emacs
con licencia GPL.

Logo de GNU.
1983: Bjarne Stroustrup publica el lenguaje de programación C++.
1983: Sun lanza su primer sistema operativo, llamado SunOS.
1983: la compañía Lotus Software lanza el famoso programa de hoja de
cálculo Lotus 1-2-3.
1983: el sistema DNS (de Internet) ya posee 1000 hosts.
1983: se funda Borland.
1984: IBM presenta el IBM Personal Computer/AT, con procesador Intel
80286, bus de expansión de 16 bits y 6 MHz de velocidad. Tenía hasta
512 kB de memoria RAM, un disco duro de 20 MB y
un monitor monocromático. Su precio en ese momento era de 5795 dólares.
1984: Apple Computer presenta su Macintosh 128K con el sistema
operativo Mac OS, el cual introduce la interfaz gráfica ideada en Xerox.
1984: las compañías Philips y Sony crean los CD-Roms para computadores.
1984: se desarrolla el sistema de ventanas X bajo el nombre X1 para dotar de
una interfaz gráfica a los sistemas Unix.
1984: aparece el lenguaje LaTeX para procesamiento de documentos.
1984: Hewlett-Packard lanza su popular impresora láser llamada LaserJet.
1984: Leonard Bosack y Sandra Lerner fundan Cisco Systems que es líder
mundial en soluciones de red e infraestructuras para Internet.
1985: Microsoft presenta el sistema operativo Windows 1.0.
1985: Compaq saca a la venta la Compaq Deskpro 286, una PC IBM
Compatible de 16-bits con microprocesador Intel 80286 corriendo a 6 MHz y
con 7 MB de RAM, fue considerablemente más rápida que una PC IBM. Fue
la primera de la línea de computadoras Compaq Deskpro.
1985: en octubre se crea la organización Free Software Foundation (FSF),
receptor de fondos para proyecto GNU.
1985: Bertrand Meyer crea el lenguaje de programación Eiffel.
1985: Adobe crea el PostScript.
1985: el ruso Alekséi Pázhitnov crea el juego Tetris.
1986: ISO estandariza SGML, lenguaje en que posteriormente se
basaría XML.
1986: Compaq lanza el primer computador basado en el procesador de
32 bits Intel 80386, adelantándose a IBM.
1986: HP lanza al mercado el HP PA RISC con un sistema basado en BSD
llamado HP-UX. También AT&T incorpora Vi y librerías curses propiedad
de BSD en su Unix System V Release 1
1986: IBM lanza al mercado AIX v1 basada en un System V Release 3, que
corría en la IBM RT/PC (AIX/RT).
1986: el lenguaje SQL es estandarizado por ANSI.
1986: aparece el programa de cálculo algebraico de computadora MathCad.
1986: se registra la primera patente base de codificación de lo que hoy
conocemos como MP3 (un método de compresión de audio).
1986: Compaq pone en venta la PC compatible Compaq Portable II, mucho
más ligera y pequeña que su predecesora, que utilizaba microprocesador de
8 MHz y 10 MB de disco duro, y fue 30% más barata que la IBM PC/AT
con disco rígido.
1986: Mark Crispin crea el protocolo IMAP.
1987: se desarrolla la primera versión del actual protocolo X11.
1987: Larry Wall crea el lenguaje de programación Perl.
1987: el proyecto GNU crea el conjunto de compiladores llamado "GNU
Compiler Collection".
1987: Compaq introduce la primera PC basada en el nuevo microprocesador
de Intel; el 80386 de 32 bits, con la Compaq Portable 386 y la Compaq
Portable III. Aún IBM no estaba usando este procesador. Compaq marcaba lo
que se conocería como la era de los clones de PC.
1988: Soft Warehouse desarrolla el programa de álgebra
computacional llamado Derive.
1988: Stephen Wolfram y su equipo sacan al mercado la primera versión del
programa Mathematica.
1988: aparece el primer documento que describe lo que hoy se conoce
como firewalls (cortafuegos).
1988: aparece el estándar XMS.
1989: Creative Labs presenta la reconocida tarjeta de sonido Sound Blaster.
1989: T. E. Anderson estudia las cuestiones sobre el rendimiento de las
hebras o hilos en sistemas operativos (threads).
1989: en enero UNIX Software Operation se organiza como división separada
de AT&T; en noviembre UNIX Software Operation lanza al mercado UNIX
System V Release 4.0.
1989: Se funda Cygnus Solutions más tarde Cygnus Software, la primera
empresa dedicada fundamentalmente a proporcionar servicios comerciales
para el software libre (entre ellos, soporte, desarrollo y adaptación de
programas libres).
1990: Tim Berners-Lee idea el hipertexto para crear el World Wide
Web (www) una nueva manera de interactuar con Internet. También creó las
bases del protocolo de transmisión HTTP, el lenguaje de
documentos HTML y el concepto de los URL.
1990: en AT&T (Laboratorios Bell) se construye el primer prototipo
de procesador óptico.4
1990: La FSF anuncia su intento de construir un kernel que se llamará GNU
Hurd. La meta de este proyecto es completar el mayor hueco que queda en la
estrategia del proyecto GNU de construir un sistema operativo completo.
1990: Guido van Rossum crea el lenguaje de programación Python.

Tux (Logo de Linux).


Años 1990
1991: Linus Torvalds comenzó a desarrollar Linux, un sistema
operativo compatible con Unix.
1991: Comienza a popularizarse la programación orientada a objetos.
1991: Surge la primera versión del estándar Unicode.
1991: Adobe Systems Incorporated lanza al mercado la primera versión
de Adobe Premiere, una aplicación orientada a la Edición de vídeos.
1991: Compaq pone a la venta al por menor con la Compaq Presario, y fue
uno de los primeros fabricantes en los mediados de los años noventa en
vender una PC de menos de 1000 dólares estadounidenses. Compaq se
convirtió en una de los primeros fabricantes en usar micros de AMD y Cyrix.
1991: El protocolo Gopher es creado en la Universidad de Minnesota.5
1992: Es introducida la arquitectura de procesadores Alpha diseñada
por DEC bajo el nombre AXP, como reemplazo para la serie de
microcomputadores VAX que comúnmente utilizaban el sistema operativo
VMS y que luego originaría el openVMS. El procesador Alpha 21064 de
64 bits y 200 MHz es declarado como el más rápido del mundo.
1992: Un grupo de estudiantes de la Universidad de Helsinki crean el OTH-
Erwise, el primer navegador gráfico.
1992: Pei-Yuan Wei crea el ViolaWWW, un navegador gráfico anterior
al Mosaic, pero con funcionalidades e integración como los actuales
navegadores.
1992: Microsoft lanza Windows 3.1.
1992: Aparece la primera versión del sistema operativo Solaris.
1992: GNU comienza a utilizar el núcleo Linux.
1993: un grupo de investigadores descubren que un rasgo de la mecánica
cuántica, llamado entrelazamiento, podía utilizarse para superar las
limitaciones de la teoría del cuanto aplicada a la construcción de
computadoras cuánticas y a la teleportación.
1993: Microsoft lanza al mercado la primera versión del sistema operativo
multiusuario de 32 bits (cliente-servidor) Windows NT.
1993: Marc Andreessen y Eric Bina crean en el NCSA el navegador web
gráfico Mosaic para Unix, base de las primeras versiones
de Mozilla y Spyglass (más tarde adquirido por Microsoft y
renombrado Internet Explorer).
1993: se funda SuSE, en Alemania, que comienza sus negocios
distribuyendo Slackware Linux, traducida al alemán.
1993: se crea la lista TOP500 que recopila los 500 ordenadores más potentes
de la tierra.
1993: Jen-Hsun Huang, Chris Malachowsky y Curtis Priem fundan Nvidia
1994: Marc Andreessen crea el famoso navegador web Netscape Navigator.
1994: es diseñado el PHP, originalmente en lenguaje Perl, seguidos por la
escritura de un grupo de CGI binarios escritos en el lenguaje C por el
programador danés-canadiense Rasmus Lerdorf.
1994: Jerry Yang Chih-Yuan y David Filo fundan Yahoo! Incorporated,
referente en portales de servicios y directorios web.
1995: Microsoft lanza al mercado el sistema operativo Windows 95, junto con
su navegador web predeterminado, Windows Internet Explorer; fue (al menos
en su época) el sistema operativo más ""incluyente"" al traer consigo hasta 12
paquetes de idiomas distintos .6
1995: aparece la primera versión de MySQL.
1995: se inicia el desarrollo del servidor Apache.
1995: la implementación original y de referencia del compilador, la máquina
virtual y las librerías de clases de Java fueron desarrollados por Sun
Microsystems.
1995: se presenta públicamente el lenguaje de programación Ruby.
1995: se especifica la versión 1.5 del DVD, base actual del DVD.
1995: Sony Computer Entertaiment, lanza al mercado la PlayStation, el
primer controlador de videojuego en utilizar un CD-ROM como dispositivo de
entrada para acceder a los datos que constituyen el videojuego.
1996: se crea Internet2, más veloz que la Internet original.
1996: se publica la primera versión del navegador web Opera.
1996: se inicia el proyecto KDE.
1996: la tecnología de DjVu fue originalmente desarrollada en los laboratorios
de AT&T.
1996: aparece la primera versión de SuperCollider.
1996: Sabeer Bhatia y Jack Smith fundan Hotmail.
1997: la empresa estadounidense Nullsoft distribuye gratuitamente
el reproductor multimedia Winamp.
1997: aparece la primera versión pública de FlightGear.
1997: Spencer Kimball y Peter Mattis crean la inicial librería GTK+.
1997: EL IEEE crea la primera estándar WLAN y la llamaron 802.11.
1998: la W3C publica la primera versión de XML.
1998: Microsoft lanza al mercado el sistema Windows 98.
1998: Compaq adquiere Digital Equipment Corporation, la compañía líder en
la anterior generación de las computadoras durante los años setenta y
principios de los ochenta. Esta adquisición convertiría a Compaq en el
segundo más grande fabricante de computadoras, en términos de ingresos.
1998: Larry Page y Serguéi Brin fundan Google Inc.
1998: Netscape Communications libera el código fuente de su
navegador Nestcape Navigator e inicia el proyecto Mozilla.7

GNOME.
1999: aparece el entorno de escritorio GNOME.
1999: Sean Parker y Shawn Fanning fundan Napster un
servicio p2p orientado a compartir archivos mp3 de un usuario a otro.
1999: Microsoft publica la primera versión de MSN Messenger.
1999: Macintosh lanza Mac OS 9.
1999: IEEE crea el 802.11b expandiendo así las limitaciones de su
predecesor 802.11, como por ejemplo soportar un ancho de banda de hasta
11 Mbps.
2000: Sony Computer Entertaiment, lanza al mercado la PlayStation 2
2000: Un equipo de investigadores de IBM construye el prototipo
de computador cuántico.
2000: Microsoft lanza el sistema operativo Windows 2000.
2000: Microsoft lanza el sistema operativo Windows Me.
2000: Macintosh lanza el sistema operativo Mac OS X.
Siglo XXI[editar]
Años 2000[editar]
2001: Microsoft desarrolla, como parte de su plataforma .NET, el lenguaje de
programación C#, que después fue aprobado como un estándar por
la ECMA e ISO.
2001: Se lanza el sistema operativo Windows XP por parte de Microsoft.
2001: Se crea Wikipedia.
2001: Microsoft lanza al mercado la versión de su primera consola la Xbox, el
primer Controlador de videojuego en utilizar un disco duro para almacenar los
datos de los Videojuegos en vez utilizar Memory cards como se venía
haciendo desde 1994 con el Sony Playstation.
2002: Lanzamiento del navegador web Mozilla Firefox, llamado en un primer
momento Phoenix.
2002: Puesta en marcha del supercomputador Earth Simulator que sería el
ordenador más potente según el TOP500.
2005: Los usuarios de Internet con conexión de banda ancha superan a los
usuarios de internet con conexión vía línea conmutada (por módem dial-up)
en la mayoría de países desarrollados.
2005: Se lanza el programa Google Earth.
2005: Lanzamiento de Windows XP Media Center Edition.
2005: Puesta en funcionamiento del supercomputador MareNostrum en
el Centro Nacional de Supercomputación.
2005: Creación de YouTube.
2005: Microsoft lanza al mercado la versión de su segunda consola la Xbox
360
2006: Lanzamiento del sistema operativo de Microsoft Windows Vista: Entra
en servicio el supercomputador Magerit perteneciente al CeSViMa.
2006: Sony Computer Entertaiment, lanza al mercado la PlayStation 3.
2006: Nintendo lanza al mercado la versión de su consola la Wii
2007: La empresa Dell lanza al mercado la primera computadora portátil
(laptop) con la distribución Linux Ubuntu preinstalada.
2007: Apple lanza el iPhone 2G.
2007: La empresa de Steve Jobs, Apple, lanza al mercado la nueva versión
el Mac OS X Leopard 10.5
2008: Apple lanza al mercado el MacBook Air , el cual, al parecer, es el
ordenador portátil más delgado del mundo en ese momento.
2008: Apple lanza en toda Europa y América, el iPhone 3G.
2008: Google, contrarresta a Apple lanzando el G1 con su nuevo
sistema Android para móviles.
2008: Lanzamiento del navegador Google Chrome.
2008: Lanzamiento de KDE 4.0.
2008: El supercomputador IBM Roadrunner es el primero en superar
el PetaFLOP alcanzando el número 1 en la lista de los más veloces, TOP500.
2009: Debian GNU/Linux 5.0
2009: KDE 4.2 RC
2009: Apple, lanza al mercado la nueva versión el Mac OS X Snow Leopard
10.6
2009: El 22 de octubre se lanza el sucesor de Windows Vista, Windows 7.
2009: Apple, lanza al mercado la nueva versión del iPhone 3GS.
2010: Se espera el lanzamiento de Google Chrome OS, un sistema operativo
creado por la empresa Google y basado en Linux.
2010: IBM crea un procesador de grafeno con una frecuencia efectiva de
100 GHz.
2010: Apple, lanza al mercado la nueva versión del iPhone 4 Con un nuevo
diseño, pero problemas en las antenas.
2010: Se espera el lanzamiento de USB versión 3.0, que representaría un
avance en la velocidad de transmisión de datos entre el dispositivo conectado
y la computadora.
2010: Microsoft lanza Windows Phone 7
2010: Qualcomm lanza el primer procesador móvil doble núcleo a 1,5 GHz
Años 2010[editar]
2011: Nintendo lanza al mercado la versión de su consola portátil Nintendo
3DS Primera consola portátil 3D del mundo.
2011: Sony Computer Entertaiment, lanza al mercado la PlayStation Vita
2011: Apple lanza al mercado el iPad 3, el iOS 6 y el iPhone 4S con el
asistente de voz Siri.
2011: Samsung lanza al mercado la Samsung Galaxy S2
2012: Microsoft anuncia Windows 8.
2012: Nintendo lanza al mercado la Wii U, con nuevos motores gráficos y un
control tipo tableta.
2012: Apple Inc., lanza al mercado la nueva versión el Mac OS X Mountain
Lion 10.8
2012: Apple Inc., lanza al mercado la nueva MacBook Pro Retina Display,
con la mayor resolución en pantalla del mundo.
2012: Apple Inc., lanza al mercado el iPhone 5.
2012: Samsung, lanza al mercado el Samsung Galaxy S3.
2012: Apple Inc., lanza al mercado la iPad con Retina Display.
2012 Apple Inc., lanza al mercado la iPad mini.
2013: Microsoft lanza al mercado la Surface Tablet.
2013: Samsung lanza al mercado el Samsung Galaxy S4.
2013: Microsoft lanza al mercado la versión Windows 8.1.
2013: Apple Inc., lanza al mercado la nueva versión Mac OS X Mavericks
10.9.
2013: Sony Computer Entertaiment, lanza al mercado la PlayStation 4 de las
primeras consolas de octava generación, con un procesador AMD x86-64
Jaguar Octa-Core (8 núcleos).
2013 Microsoft lanza al mercado la versión de su tercera consola la Xbox
360.
2013: Microsoft, en competencia a Sony Computer Entertaiment, lanza su
consola Xbox One.
2013: Apple Inc., lanza al mercado la nueva versión del iOS 7.
2013: Apple Inc., lanza al mercado la nueva versión del iPhone 5S (con un
nuevo Home botton de huellas dactilares), y el iPhone 5C, destinado a que
sea más barato que los demás iPhone, con su cuerpo de policarbonato y una
variedad de colores como blanco, rosa, amarillo, azul y verde.
2013: Apple Inc., lanza al mercado la nueva versión del iPad Air.
2013: La International Technology Roadmap for Semiconductors predice que
la Ley de Moore se ralentizaría.2
2014: Google lanza al mercado las Google Glass.
2014: Apple Inc., lanza al mercado las nuevas versiones del iPhone, el
iPhone 6 y el iPhone 6 plus, con unas pantallas mucho mayores a sus
predecesores.
2014: Apple Inc., presenta su versión de "Smartwatch" cuyo nombre es Apple
Watch.
2015: Microsoft lanza al mercado la versión Windows 10.
2015: Apple Inc., lanza al mercado el iPad pro, y el Stylus llamado "Apple
Pencil" y un nuevo teclado para esta nueva versión de la tableta.
2015: Microsoft presenta la Surface Pro 4 junto con Surface Book, primera
notebook hecha por Microsoft.
2015: Gordon Moore predice que la Ley de Moore alcanzará la saturación en
la próxima década.2
2016 Apple Inc., lanza al mercado el iPhone 7 y el iPhone 7 Plus.
2017: Samsung lanza al mercado el Samsung Galaxy S8 y el Samsung
Galaxy S8+, los primeros teléfonos inteligentes Samsung Galaxy de gama
alta sin el clásico botón Home de los Galaxy S. Apple lanza al mercado dos
nuevos modelos: iPhone 8 y iPhone X.
2017: Nintendo lanza al mercado la Nintendo Switch, la primera consola
híbrida de la compañía y con 2 controles separables llamados Joy-Con.
2018: En enero se hace público el conjunto de vulnerabilidades críticas de
seguridad Meltdown y Spectre que afecta a la mayoría de procesadores del
mercado. En octubre Apple lanza los modelos iPhone Xs, iPhone Xs
Max y iPhone Xr. 8
2019: Samsung lanza sus primeros modelos del Samsung Galaxy Flex a
personas conocidas.
2019: Apple lanza el modelo iPhone 11
2019: Nintendo lanza al mercado la Nintendo Switch Lite, una consola
diseñada exclusivamente para su uso portátil, siendo más compacta que
la Nintendo Switch original.
2020: sale televisor de vidrio transparente.
Años 2020[editar]
2020: Apple lanza el modelo iPhone 12
2020: Apple lanza la Mac con el Chip M1 integrado.
2020: Sony lanza la PlayStation 5
2020: Microsoft lanza la Xbox Series X

Conceptos Basicos

Definición de Imagen Digital

La imagen digital es la representación bidimensional de una imagen


empleando bits, unidad mínima de información compuesta por dígitos
binarios (1 y 0), que se emplea a instancias de la informática y cualquier
dispositivo de tipo digital.
De acuerdo a la resolución que presenta la imagen, estática o dinámica, se
podrá hablar de gráfico rasterizado (o mapa de bits; representa una rejilla
rectangular de píxeles o punto de color, la cual se puede visualizar en
un monitor, en un papel o en cualquier otro dispositivo de representación que
se emplee) o de gráfico vectorial (imagen producto de objetos de geométricos
independientes; la principal diferencia que presenta respecto de la anterior es
la posibilidad de ampliar el tamaño de la imagen sin que la misma pierda
su escala tal como sucede en el caso de los gráficos rasterizados),
respectivamente.
Mientras tanto, la imagen digital podrá ser obtenida a partir de dispositivos de
conversión analógica digital, tal es el caso de los escáneres y las cámaras
fotográficas digitales , o en su defecto a través de programas informáticos
pertinentes como ser realizando dibujos con el mouse o por medio de un
programa de renderización 2D.
Cabe destacar que es absolutamente posible la modificación de las imágenes
digitales , mediante filtros se pueden añadir o suprimir determinados
elementos que no se tienen o por el contrario quitar aquellos que no se
quieren, asimismo, se puede modificar el tamaño de una imagen y en caso
de ser necesario hasta grabar la misma en un dispositivo de almacenaje, tal
es el caso de un CD o del propio disco duro de la computadora.
Respecto de su conformación, la mayoría de los formatos digitales respetan
una misma estructura: cabecera con atributos: dimensión de la imagen y el
tipo de codificación, entre otros; datos de la imagen en sí. Tanto los atributos
como los datos de la imagen serán diferentes en cada formato.
Por otra parte, muchos de los formatos de las cámaras digitales y video
cámaras que se emplean hoy día, han sumado una zona denominada
metadatos (datos que describen otros datos).

¿Qué es la resolución del monitor?


La resolución del monitor es la medida de la cantidad de píxeles que puede
mostrar una pantalla de computadora o un monitor al mismo tiempo. Los
monitores que muestran más píxeles ofrecen una imagen más nítida y
brillante. El término «píxeles» es la abreviatura de elementos de imagen y un
píxel es el elemento más pequeño de una imagen.
El término resolución puede ser un poco engañoso, en parte porque las
pantallas de las computadoras actuales a veces sirven como televisores y
viceversa. Sin embargo, debido a que todos los tipos de pantallas utilizan
píxeles, es común medir la resolución con recuentos de píxeles. Los términos
resolución de pantalla y dimensiones de píxeles también tienen un significado
similar, y los compradores a veces verán resoluciones medidas en píxeles
por pulgada que puede mostrar un monitor, tanto horizontal como
verticalmente.
El monitor de la computadora combina todos los píxeles para crear la imagen
y, en última instancia, la medición de la resolución de la pantalla. Cada píxel
es tan pequeño que el ojo humano no puede distinguir entre los individuales.
En cambio, el ojo los mezcla de forma natural para crear la imagen.
Los monitores tienen una resolución nativa, que es la resolución en la que se
ven mejor sus imágenes. Cuando se muestran imágenes con resoluciones
distintas a la resolución nativa, es posible que la imagen no se vea tan nítida
debido al cambio de tamaño que debe producirse. Las pantallas de cristal
líquido son las más afectadas por la resolución nativa.
Varias medidas de píxeles estándar componen cantidades de resolución de
monitor comunes para pantallas de computadora. Por ejemplo, QSXGA mide
2,560 píxeles por 2,048 píxeles, que generalmente se acorta a 2560 × 2048.
La medida significa que una pantalla QSXGA mide 2,560 píxeles
horizontalmente por 2,048 píxeles verticalmente, que es una proporción de 5
a 4. Existen muchas otras medidas estándar, incluyendo WUXGA, que es
1920 × 1200; UGA, que es 1600 × 1200; SXGA, que es 1280 × 1024; y XGA,
que es 1024 × 768.
Para determinar el número total de píxeles en una resolución de monitor
estándar, las personas pueden multiplicar las dos medidas de píxeles.
Usando QSXGA como ejemplo nuevamente, una persona puede multiplicar
2,560 por 2,048 para producir un número total de píxeles de 5,242,880,
generalmente reducido a 5.24 millones de píxeles, o 5.24 megapíxeles. Una
resolución XGA (1024 por 768) produciría un total de 786,432 píxeles, o 0.79
megapíxeles. Los consumidores deben tener en cuenta que un monitor de 15
pulgadas (38.1 cm) con 3 megapíxeles de resolución crearía una imagen más
nítida que un monitor de computadora de 20 pulgadas (50.8 cm) con 3
megapíxeles, porque el monitor más pequeño ofrecería más píxeles por
pulgadas que el monitor más grande.
En promedio, los monitores de computadora tienen resoluciones más altas
que las pantallas de televisión. La resolución de un televisor de alta definición
puede variar de 1920 × 1080 a 1280 × 720, pero las resoluciones máximas
para pantallas de computadora tienen una cantidad significativamente mayor
de píxeles. Ambos tipos han experimentado aumentos constantes en la
cantidad total de píxeles que pueden mostrar durante los últimos años, y la
resolución del monitor debería seguir aumentando en el futuro.

Imágenes de mapas de bits


Las imágenes de mapa de bits o bitmaps se codifican en una matriz de
puntos sobre la que se ordenan los bits de información que representan el
color de cada píxel.
La cantidad de información empleada para definir a cada píxel determina
la calidad del color que una imagen bitmap puede tener.
Las pantallas digitales usan tres colores básicos, y los combinan mediante un
proceso de mezcla en cada píxel, entre los colores rojo, verde y azul (RGB).
Cada modo de color requiere una cantidad distinta de bits por píxel para
definir las características cromáticas de una imagen.
Formatos de archivos de mapa de bits
JPEG
Cantidad
Calidad del color
de bits
Imágenes en blanco y negro: se representan únicamente en estos
1 bit
dos colores.
Imágenes de color indexado: pueden contener hasta 256
colores o tonos de grises. Con esta cantidad de información
cromática se pueden crear gráficos, ilustraciones, incluso 8 bits
fotografías en blanco y negro, pero no se pueden representar
fotografías realistas en color.
Imágenes de color verdadero 24: Cada uno de los canales de luz:
rojo, verde y azul (RGB) dispone de 8 bits. Entre ellos componen 24 bits
más colores de los que el ojo humano puede percibir.
Imágenes de color verdadero 32: Idéntico sistema que el anterior,
solo que agrega otros 8 bits para funciones avanzadas de 32 bits
edición, como por ejemplo, el porcentaje de la transparencia.
Formato que puede representar millones de colores (mediante 24 bits) y se
utiliza en páginas web. Acrónimo de Joint Photographers Expert
Group (Grupo de Fotógrafos Expertos Unidos). Es un formato de compresión
con pérdida, muy popular por su notable reducción de tamaño de archivos.
GIF
Formato que puede representar 256 colores (mediante 8 bits) y se utiliza en
páginas web para ilustraciones y gráficos. Acrónimo de Graphics Interchange
Format. Es el formato de compresión sin pérdida, ideal para representar
gráficos que muestran texto ya que define muy bien los contornos
tipográficos. Dispone de una versión para reproducir secuencias en
movimiento (GIF animado).
PNG
Formato que dispone de versiones de 256 colores (8 bits) o de millones de
colores (24 y 32 bits) por lo que abarca al espectro de funciones del formato
JPG y GIF. Acrónimo de Portable Network Graphics, es un formato
de compresión sin pérdida cada vez más utilizado en páginas web.
TIFF
Formato utilizado en técnicas de impresión para representar imágenes de alta
resolución. Acrónimo de Tagged Image File Format o Formato de Fichero de
Imagen con Etiquetas (archiva la información visual y metadatos de sus
características). Para visualizarlo en páginas web requiere un programa
de software intérprete o plugin.
BMP
Acrónimo de bitmap, es el formato por definición para este tipo de imágenes
en el entorno Windows. Utiliza un sistema de compresión sin pérdida para 8 y
24 bits, pero genera archivos muy pesados.
PSD
Es la extensión de los archivos creados con Adobe Photoshop. Tiene la
particularidad de componer las imágenes por capas apiladas. Cada capa
puede contener una parte o toda una imagen.
Sistemas de compresión de archivos
Para reducir la cantidad de información que compone a los archivos de
imagen de mapa de bits se apela a sistemas de compresión que pueden ser
de dos tipos: compresión con y sin pérdida de calidad. Es importante
destacar que los gráficos vectoriales no utilizan sistemas de compresión.
Compresión con pérdida: Es el sistema de compresión utilizado por el
formato JPG. Los algoritmos de compresión con pérdida eliminan datos para
aligerar el tamaño de archivo, lo que reduce la calidad de la definición de la
imagen. Este sistema de compresión promedia la información entre bits y
quita datos allí donde hay colores muy similares entre sí, guardando solo el
dato del color predominante. Una vez comprimida una imagen mediante un
sistema con pérdida, es imposible recuperar la calidad original.
Compresión sin pérdida: Es el sistema de compresión utilizado por los
formatos TIFF, GIF y PNG. La calidad y definición de la imagen es idéntica
antes y después de la compresión: la reducción de peso de archivo se logra
optimizando la organización de los datos binarios mediante complejos
algoritmos.
Resolución y tamaño de las imágenes de mapas de bits
La resolución es un parámetro que mide la cantidad de píxeles que alberga
una unidad determinada de superficie: se expresa en píxeles por
pulgada (pixels per inch, ppi) o puntos por pulgada (dots per inch, dpi).

Píxel
Ir a la navegaciónIr a la búsqueda
«Pixels» redirige aquí. Para el cortometraje, véase Pixels (cortometraje).
Para la película, véase Pixels (película de 2015).

Ampliación de una zona de una imagen donde se pueden apreciar los


pixeles.
Un píxel o pixel,1 plural píxeles o pixeles (acrónimo del inglés picture
element, ‘elemento de imagen’), es la menor unidad homogénea en color que
forma parte de una imagen digital.

Píxeles observados a través de un microscopio.


Ampliando lo suficiente una imagen (zoom) en la pantalla de
una computadora, pueden observarse los píxeles que la componen, basta
con ver esta pantalla a través de una gota de agua. Los píxeles son los
puntos de color (siendo la escala de grises una gama de color
monocromática). Las imágenes se forman como una sucesión de píxeles. La
sucesión marca la coherencia de la información presentada, siendo su
conjunto una matriz coherente de información para el uso digital. El área
donde se proyectan estas matrices suele ser rectangular. La representación
del píxel en pantalla, al punto de ser accesible a la vista por unidad, forma un
área homogénea en cuanto a la variación del color y densidad por pulgada,
siendo esta variación nula, y definiendo cada punto sobre la base de la
densidad, en lo referente al área.
En las imágenes de mapa de bits, o en los dispositivos gráficos, cada píxel se
codifica mediante un conjunto de bits de longitud determinada (la profundidad
de color); por ejemplo, puede codificarse un píxel con un byte (8 bits), de
manera que cada píxel admite hasta 256 variaciones de color
(28 posibilidades binarias), de 0 a 255. En las imágenes llamadas de color
verdadero, normalmente se usan tres bytes (24 bits) para definir el color de
un píxel; es decir, en total se pueden representar unos 224 colores, esto es
16.777.216 variaciones de color. Una imagen en la que se utilicen 32 bits
para representar un píxel tiene la misma cantidad de colores que la de 24
bits, ya que los otros 8 bits son usados para efectos de transparencia.
Para poder visualizar, almacenar y procesar la información numérica
representada en cada píxel, se debe conocer, además de la profundidad y
brillo del color, el modelo de color que se utiliza. Por ejemplo, el modelo de
color RGB (Red-Green-Blue) permite crear un color compuesto por los tres
colores primarios según el sistema de mezcla aditiva. De esta forma, según la
cantidad de cada uno de ellos que se use en cada píxel será el resultado del
color final del mismo. Por ejemplo, el color magenta se logra mezclando el
rojo y el azul, sin componente verde (este byte se pone en 0). Las distintas
tonalidades del mismo color se logran variando la proporción en que
intervienen ambas componentes (se altera el valor de esos dos bytes de color
del píxel). En el modelo RGB lo más frecuente es usar 8 bits al representar la
proporción de cada una de las tres componentes de color primarias. Así,
cuando una de las componentes vale 0, significa que ella no interviene en la
mezcla y cuando vale 255 (28 – 1) significa que interviene dando el máximo
de ese tono, valores intermedios proveen la intensidad correspondiente.
La mayor parte de los dispositivos que se usan con una computadora
(monitor, escáner, etc.) usan el modelo RGB (modelo de reflexión o aditivo),
excepto los que aportan tintes, como las impresoras, que suelen usar
el modelo CMYK (modelo sustractivo).
Profundidad de color[editar]
Véase también: Profundidad de color
Un píxel, comúnmente, se representa con: 8 bits (28 colores), con 24 bits
(224 colores, 8 bits por canal de color) o con 48 bits (248 colores);
en fotografía avanzada y digitalización de imágenes profesional se utilizan
profundidades aún mayores, expresadas siempre en valores de bits/canal de
color en lugar de la suma de los tres canales. Los primeros son los más
utilizados, reservando el de 8 bits para imágenes de alta calidad pero en
tonos de grises, o bien con 256 colores en paleta seleccionada para baja
calidad colorimétrica; el de 24 bits es el más común y de alta calidad, se lo
utiliza en la mayoría de las imágenes fotográficas.
Múltiplos habituales

Megapíxel
Prefijos del SI
Un megapíxel o megapixel (Mpx) equivale a 1 millón de píxeles, a diferencia
de otras medidas usadas en la computación en donde se suele utilizar la
base de 1024 para los prefijos, en lugar de 1000, debido a su conveniencia
respecto del uso del sistema binario. Usualmente se utiliza esta unidad para
expresar la resolución de imagen de cámaras digitales; por ejemplo, una
cámara que puede tomar fotografías con una resolución de 2048 × 1536
píxeles se dice que tiene 3,1 megapíxeles (2048 × 1536 = 3.145.728).
La cantidad de megapíxeles que tenga una cámara digital define el tamaño
de las fotografías que puede tomar y el tamaño de las impresiones que se
pueden realizar; sin embargo, hay que tener en cuenta que la matriz de
puntos está siendo distribuida en un área bidimensional y, por tanto, la
diferencia de la calidad de la imagen no crece proporcionalmente con la
cantidad de megapíxeles que tenga una cámara, al igual que las x de una
grabadora de discos compactos.
Las cámaras digitales usan componentes de electrónica fotosensible, como
los CCD (del inglés Charge-Coupled Device) o sensores CMOS, que graban
niveles de brillo en una base por-píxel. En la mayoría de las cámaras
digitales, el CCD está cubierto con un mosaico de filtros de color, teniendo
regiones color rojo, verde y azul (RGB) organizadas comúnmente según
el filtro de Bayer, así que cada píxel-sensor puede grabar el brillo de un solo
color primario. La cámara interpola la información de color de los píxeles
vecinos, mediante un proceso llamado interpolación cromática, para crear la
imagen final.
Dimensiones de imagen según proporción y cantidad de pixeles
Para saber el número total de píxeles de una cámara, basta multiplicar el
ancho de la imagen máxima que puede generar por el alto de la misma —
desactivando previamente el zoom digital—; también es posible dividir el
número de píxeles de ancho entre el número correspondiente al alto, y
conocer la proporción de la imagen obtenida.
Resolución de Relación de
Formato Megapíxeles
pantalla aspecto
480i 720 × 480 1.333:1 (4:3) 0.3456
576i 720 × 576 1.333:1 (4:3) 0.41472
SVGA 800 × 600 1.333:1 (4:3) 0.48
XGA 1024 × 768 1.333:1 (4:3) 0.786432
720p (HD) 1280 × 720 1.777:1 (16:9) 0.9216
768p (HD+) 1366 × 768 1.777:1 (16:9) 1.049088
1024p 1280 × 1024 1.25:1 (5:4) 1.310720
900p (HD+) 1600 × 900 1.777:1 (16:9) 1.44
1080p (Full HD) 1920 × 1080 1.777:1 (16:9) 2.0736
R1080p (2K) 2048 × 1080 1.85:1 (17:9) 2.21184
WQHD (+2K HD) 2560 × 1440 1.777:1 (16:9) 3.6864
Resolución de Relación de
Formato Megapíxeles
pantalla aspecto
2160p (4K UHD) 3840 × 2160 1.777:1 (16:9) 8.2944
4320p (8K UHD) 7680 × 4320 1.777:1 (16:9) 33.1776
8640p (16K
15360 × 8640 1.777:1 (16:9) 132.7104
UHD)
Gigapíxel
Véase también: Prefijos del SI
Un gigapíxel (Gpx) equivale a un millardo o mil millones de píxeles, utilizando
la base 1000 de los prefijos del sistema internacional, en vez de la base
1024 ISO/IEC 80000 o prefijo binario utilizados normalmente en el entorno de
la informática. Usualmente se utiliza esta unidad para expresar la resolución
de imagen de cámaras digitales.
Existen cámaras digitales capaces de realizar fotografías en gigapíxeles,
como por ejemplo la ARGUS-IS de la Agencia de Proyectos de Investigación
Avanzados de Defensa (DARPA)2 y la "super cámara" desarrollada por David
Brady y su equipo de ingenieros de la Universidad de Duke.

Qué es una imagen vectorial: características y diferencias con los mapas de


bits

A diario puedes encontrarte en la red con infinidad de imágenes y


seguramente muchas de ellas sean imágenes vectoriales. Pero para hablar
sobre qué es una imagen vectorial, primero debemos diferenciarla de
las imágenes de mapa de bits. Éstas son las formadas por un conjunto de
píxeles, cada uno de los cuales tiene uno o varios valores que describen su
color.
Las imágenes vectoriales, en cambio, están representadas por entidades
geométricas (círculos, segmentos… ) y fórmulas matemáticas. Pero veamos
con detalle sus principales características.
Qué es una imagen vectorial: Principales características
La imagen vectorial se basa en fórmulas matemáticas, y no se dividen en
unidades mínimas de información como los píxeles, sino en manchas de
color y líneas. Se construyen a partir de vectores, que son objetos definidos
por una serie de puntos que pueden modificarse para dar una u otra forma a
la imagen final.
Al no depender de una retícula de píxeles, las imágenes vectoriales son
independientes de la resolución y por tanto mantienen la nitidez y la definición
aunque se amplíen totalmente: no pierden calidad. Precisamente por ello,
también son capaces de adaptarse a cualquier forma, por lo que son
especialmente utilizadas para la creación de logotipos o iconos. 
Otras características que nos ayudan a perfilar mejor lo que es una imagen
vectorial son las siguientes:
Los distintos objetos que componen una imagen vectorial pueden escalarse,
cambiar de forma, color o posición independientemente del resto. Cada
objeto o vector tiene sus propias fórmulas matemáticas.
Los objetos de un gráfico vectorial pueden fusionarse entre sí y crear formas
intermedias. Del mismo modo, cada parte puede relacionarse de distintas
formas con el resto de vectores: agruparse, separarse, formar intersecciones,
etc.
Cada parte de una imagen vectorial puede reutilizarse en otras imágenes.
Bastará con copiar y pegar en el otro archivo.
El dibujo vectorial es siempre editable. A diferencia de las imágenes de mapa
de bits, las vectoriales pueden rectificar su color u otras propiedades en
cualquier momento de su edición.
Permiten hacer juegos con la tipografía, de una forma más avanzada que las
imágenes pixeladas.
Trabajando con imágenes vectoriales

Los principales programas informáticos con los que trabajar y crear una
imagen vectorial son Corel Draw y Adobe Illustrator. Este último, más
profesional, permite guardar y editar las imágenes también en pdf. 
No obstante, ambas, imágenes vectoriales y de mapa de bits, pueden
combinarse. Es decir, una imagen vectorial puede exportarse a una imagen
de mapa de bits (como puede ser un jpg o un gif). Asimismo, una imagen
pixelada puede incluirse en formatos vectoriales, ya sea como textura o para
formar parte de la composición.
Actualmente, las posibilidades creativas de ambos tipos de imágenes son
infinitas.

Diferencias entre imágenes vectoriales y


mapa de bits
Vemos imágenes diferentes en todos los medios, digitales y físicos, pero no
sabemos realmente cómo se han creado. La imagen digital se puede
clasificar en dos técnicas, mapa de bits (bitmap) o imagen vectorizada, se
crean de diferentes maneras. Desde PCG te ayudamos a entender las
diferencias y escoger el más adecuado para tus diseños.
La imagen digital se compone de bits, que en términos informáticos son la
unidad mínima de información compuesta por dígitos binarios (0 y 1).
Cuando empezamos un diseño, que llevará imágenes, debemos elegir bien
qué tipo de éstas necesitamos. Estos dos tipos se crean y editan desde
diferentes aplicaciones, por lo tanto, hay que entender bien las diferencias y
las ventajas e inconvenientes de cada una.
Mapa de bits
Es el tipo de imagen más usado. Los formatos más utilizados son jpg y png.
Se compone de muchos píxeles. Un píxel es un cuadro con información de
color y la unión de muchos píxeles forma una imagen completa. Cada píxel
es un bitmap que pueden ser de diferente color y brillo pero todos son del
mismo tamaño. La cantidad de píxeles de una imagen viene dada desde la
creación de ésta. Tanto si se crea desde una cámara digital (posiblemente un
móvil) como programas de edición (Photoshop por ejemplo), puedes escoger
resolución (píxeles por centímetro) y la cantidad de píxeles que tendrá la
imagen, tanto de alto como de ancho. A mayor número de píxeles mayor
resolución y más detalle se apreciará. Si ves la imagen completa, esos
píxeles deben ser imperceptibles, en cambio si la amplias, verás estos
cuadrados y el color de cada uno. Uno de los inconvenientes del mapa de
bits es la sensibilidad a los cambios de tamaño, sobretodo a la ampliación.

Imagen vectorial
Como el mapa de bits, una imagen vectorial también está formada por la
unión de unidades básicas de información, pero no en forma de píxel sino en
forma de vectores matemáticos. Los vectores matemáticos son un conjunto
de puntos e información sobre cómo se unen éstos. Las imágenes vectoriales
requieren de bastante menos información para definir una imagen y por lo
tanto son mucho más pequeños en cuanto a peso. La mayor desventaja es
que se definen por líneas, rectas o curvas y no se pueden utilizar para
representar fotografías o imágenes realistas porque es imposible definir los
detalles de éstas. La principal ventaja es la capacidad de redimensionar el
tamaño, es el mejor sistema para el diseño de logotipos, carteles, imagen
corporativa, etc. Los formatos más habituales son eps, ai (Adobe Illustrator) o
pdf.

En resumen, para crear una imagen fotográfica será más conveniente utilizar
mapa de bits, pero sabiendo las limitaciones que tiene y si se quieren hacer
productos de gran formato es mejor usar imágenes vectorizadas que se
puedan ampliar o mapa de bits con buena resolución.
Diferencia entre RGB y CMYK:

Si estás a punto de realizar un archivo por la impresión o lo estás pensando,


es buena regla que conozcas la diferencia entre RGB y CMYK: una entre las
características que pueden influir (no siempre de manera positiva) en la
reproducción de los colores en el producto que quieres realizar. Por esta
razón, hoy queremos explicar cual es la diferencia entre los dos modelos.
La selección de un código más que el otro influye en el resultado del trabajo.
La falta más común es enviar el archivo en RGB a una imprenta online que
trabaja en CMYK, o sea en cuadricromía.
¿Cuál es la diferencia entre CMYK y RGB? y aún más ¿Por qué es mejor
trabajar con CMYK cuando se habla de impresión? En seguida te lo
explicamos. ¡Después de la lectura,la selección entre los dos modelos no
será más un problema.
¿Qué es el RGB?
El codigo RGB es un modelo de colores reconocido a nivel internacional. Este
modelo tiene su base en los tres colores primarios rojo (Red), verde (Green),
y azul (Blue).
Cuando hablamos de RGB estamos hablando de un modelo basado en la
“síntesis aditiva” o sea: es posible representar cualquier color por medio de la
suma de los tres básicos. Sobreponendolos todos se obtiene el color blanco.
¿Qué es el CMYK?
El acrónimo CMYK indica un modelo de colores conocido también como
cuadricromía. Los colores a los que se refiere son cian (Cyan), magenta
(Magenta), amarillo (Yellow) y negro (Key black). Este sistema es aquello
utilizado por las tipografías tradicionales u online y funciona por medio del
utilizo de una plancha negra a la que se alinean las planchas cian, magenta y
amarillo. Si os interesa una pequeña curiosidad histórica, la Key negra
(plancha negra) en origen contenía la mayoría de información gráfica, desde
aquí la K en el nombre del modelo CMYK.
Cuando hablamos de CMYK nos referimos a un modelo sustractivo, que
trabaja de manera contraria al modelo RGB: el color se obtiene por medio de
la deferente luminosidad de cada tono.
Por medio de la mezcla de los cuatro colores podemos obtener cualquier
color del espectro visible.

Diferencias entre el archivo y la impresión


Este es un tema bastante complejo y para esplicarlo de manera clara vamos
a semplificarlo un poco.
Los colores que vemos en la pantalla del ordenador son RGB mientras los
colores a la hora de la impresión son CMYK.
¿Cuál es la razón? La respuesta es bastante simple: pantalla permite la
visualización con millones de colores mientras la impresión es mucho más
estricta. Esta es la razón básica por la que un archivo que se visualiza de una
manera al ordenador no siempre corresponde al producto impreso.
Para resumir, si un archivo es pensado por una visualización de pantalla (por
ejemplo un elemento gráfico por un sitio web) el sistema RGB es lo mejor
porque cubre un espectro de colores más grande.
Si, por otro lado, planeas la realización de un proyecto gráfico para imprimir
es mejor pasarlo de RGB a CMYK para que no tengas sorpresas después de
la impresión. Los programas profesionales ofrecen la posibilidad de elegir
según que modelo trabajar y es bastante cliquear la selección. Estos software
(como por ejemplo Adobe Photoshop o Adobe Illustrator) permiten de
convertir un archivo de RGB a CMYK. Gracias A este sistema de conversión
automatica te puedes dar cuenta de la variación cromática entre los dos
perfiles.
Mirando la imagen puedes figurarte lo que estamos diciendo.
Está claro como en la conversión entre RGB y CMYK se encuentre una reducción de los tonos del
color, sobre todo en los colores más vivos.
Ahora dominas sin problemas las diferencias entre RGB y CMYK: ¡No te puedes equivocar!

También podría gustarte