08 Apunte Compresion

Descargar como pdf o txt
Descargar como pdf o txt
Está en la página 1de 12

CONCEPTOS BASICOS DE COMPRESION

Dimensiones.
Es el tamaño del video (ancho x alto) expresado en píxeles cuando se
visualiza al 100%, sin agrandar ni reducir. Los reproductores pueden
mostrar un video a pantalla completa o con una ampliación del 200%,
300%, etc. En estos casos el video pierde calidad de imagen y esta
pérdida depende del formato de archivo. Un video AVI puede tener
cualquier ancho y alto mientras que los estándares de VideoCD son
352 x 288 y de DVD 720 x 576.

Codec.
Acrónimo de "codificación/decodificación". Un códec es un algoritmo
especial que reduce el número de bytes que ocupa un archivo de
video. Los archivos codificados con un códec específico requieren el
mismo códec para ser decodificados y reproducidos.

Velocidad de transmisión (bitrate).


El bitrate define la cantidad de espacio físico (en bits) que ocupa un
segundo de duración de ese video. El video tendrá más calidad
cuanto mayor sea su bitrate y el archivo que lo contiene tendrá
mayor peso. El bitrate puede ser fijo o variable. El bitrate variable
consigue mayor calidad de imagen porque recoge más calidad en
escenas muy cargadas o con mucho movimiento y ahorra en aquellas
más estáticas.

Frecuencia de bits variable y constante


Con el MPEG-4 y el H.264, los usuarios pueden determinar que una
transmisión de vídeo codificado tenga una frecuencia de bits variable
o constante. La selección óptima dependerá de la aplicación y de la
infraestructura de red.

Frecuencia de bits variable

Con la VBR (frecuencia de bits variable), se puede mantener un


nivel predefinido de calidad de imagen independientemente del
movimiento o falta de movimiento en una escena. Esto significa
que el uso de ancho de banda aumentará cuando haya mucha
actividad en una escena, y disminuirá cuando no haya
movimiento. A menudo esta opción es ideal para las aplicaciones
de videovigilancia que requieren una alta calidad, especialmente
si hay movimiento en una escena. Debido a que la frecuencia de
bits puede variar, incluso aunque se haya definido una frecuencia
de bits media de destino, la infraestructura de red (ancho de
banda disponible) debe poder adaptarse a grandes caudales de
datos.

Frecuencia de bits constante

Con un ancho de banda limitado se recomienda utilizar el modo


CBR (frecuencia de bits constante), ya que este modo genera una
frecuencia de bits que el usuario puede predefinir. La desventaja
que tiene la CBR es que si, por ejemplo, hay mucha actividad en
una escena que da como resultado una frecuencia de bits mayor
que la velocidad de destino, la restricción para mantener una
frecuencia de bits constante conlleva una calidad y frecuencia de
imagen inferiores.

Fotogramas por segundo.


Un video resulta de la exposición imágenes o fotogramas uno detrás
de otro. Un parámetro de la calidad del video es el número de
fotogramas por segundo que muestra durante su reproducción. Este
valor oscila entre 15 y 30. Por ejemplo los vídeos en DVD en Europa
exhiben 25 fotogramas por segundo (25 fps).

Fotogramas Clave.
Cuando se aplica un códec de compresión a un video, se suele
producir cierta pérdida de la información de sus fotogramas. Algunos
fotogramas (los fotogramas clave) se almacenan completamente en
el archivo comprimido, mientras que el resto sólo se guardan
parcialmente. En la descompresión, estos fotogramas intermedios se
reconstruyen a partir de los fotogramas clave.

Sistemas de televisión.

● NTSC (National Television Standards Comité = Comité Nacional


de Estándares de Televisión). Cada fotograma está formado por
525 líneas y reproduce 30 fotogramas por segundo. Se utiliza
en América del Norte, Centroamérica, Japón, etc.
● PAL (Phase Alternation Line = Línea Alternada en Fase): El
vídeo PAL tiene 625 líneas por fotograma y 25 fotogramas por
segundo. Es el sistema más extendido actualmente en Europa.
● SECAM (Séquentiel Couleur à Mémoire = Color secuencial con
memoria). Muestra 625 líneas y 25 fotogramas por segundo. De
origen francés, ha perdido mercado en Europa a favor del
sistema PAL.
Proporción o ratio de aspecto.
Es la proporción entre la anchura y altura de un video. Cuando se
reproduce un video se suele mantener por defecto esta proporción
para evitar deformación de las imágenes. Por este motivo cuando se
elige la visualización a pantalla completa, aparecen franjas negras
arriba y abajo. Es habitual una relación 4:3 para los videos
domésticos (352x288 píxeles, por ejemplo) mientras que en DVD se
suele trabajar con ratios de 16:9.

Compresión de vídeo

Las técnicas de compresión de vídeo consisten en reducir y eliminar


datos redundantes del vídeo para que el archivo de vídeo digital se
pueda enviar a través de la red y almacenar en discos informáticos.
Con técnicas de compresión eficaces se puede reducir
considerablemente el tamaño del fichero sin que ello afecte muy
poco, o en absoluto, la calidad de la imagen. Sin embargo, la calidad
del vídeo puede verse afectada si se reduce en exceso el tamaño del
fichero aumentando el nivel de compresión de la técnica que se
utilice.

Existen diferentes técnicas de compresión, tanto patentadas como


estándar. Hoy en día, la mayoría de proveedores de vídeo en red
utilizan técnicas de compresión estándar. Los estándares son
importantes para asegurar la compatibilidad y la interoperabilidad.
Tienen un papel especialmente relevante en la compresión de
vídeo, puesto que éste se puede utilizar para varias.

Compresión de imagen vs. compresión de vídeo

Los diferentes estándares de compresión utilizan métodos distintos


para reducir los datos y, en consecuencia, los resultados en cuanto
a frecuencia de bits y latencia son diferentes. Existen dos tipos de
algoritmos de compresión: compresión de imágenes y compresión
de vídeo.
La compresión de imagen utiliza la tecnología de codificación
intrafotograma. Los datos se reducen a un fotograma de imagen
con el fin de eliminar la información innecesaria que puede ser
imperceptible para el ojo humano. Motion JPEG es un ejemplo de
este tipo de estándar de compresión. En una secuencia Motion
JPEG, las imágenes se codifican o comprimen como imágenes JPEG
individuales.
Con el formato Motion JPEG, las tres imágenes de la secuencia se
codifican y se envían como imágenes únicas y separadas
(fotogramas I), sin que dependan unas de otras.

Los algoritmos de compresión de vídeo-4 como el MPEG-4 y el


H.264 utilizan la predicción interfotograma para reducir los datos
de vídeo entre las series de fotogramas. Ésta consiste en técnicas
como la codificación diferencial, en la que un fotograma se
compara con un fotograma de referencia y sólo se codifican los
píxeles que han cambiado con respecto al fotograma de
referencia. De esta forma, se reduce el número de valores de
píxeles codificados y enviados. Cuando se visualiza una secuencia
codificada de este modo, las imágenes aparecen como en la
secuencia de vídeo original.

Con la codificación diferencial sólo la primera imagen (fotograma I)


se codifica en su totalidad. En las dos imágenes siguientes
(fotogramas P) existen referencias a la primera imagen en lo que se
refiere a elementos estáticos, como la casa. Sólo se codifican las
partes en movimiento (el hombre que corre) mediante vectores de
movimiento, reduciendo así la cantidad de información que se envía
y almacena.
Para reducir aún más los datos, se pueden aplicar otras técnicas
como la compensación de movimiento basada en bloques. La
compensación de movimiento basada en bloques tiene en cuenta
que gran parte de un fotograma nuevo está ya incluido en el
fotograma anterior, aunque quizás en un lugar diferente del
mismo. Esta técnica divide un fotograma en una serie de
macrobloques (bloques de píxeles). Se puede componer o
“predecir” un nuevo fotograma bloque a bloque, buscando un
bloque que coincida en un fotograma de referencia. Si se
encuentra una coincidencia, el codificador codifica la posición en
la que se debe encontrar el bloque coincidente en el fotograma de
referencia. La codificación del vector de movimiento, como se
denomina, precisa de menos bits que si hubiera de codificarse el
contenido real de un bloque.

Ilustración que muestra la compensación de movimiento basada en


bloques.

Con la predicción interfotograma, cada fotograma de una


secuencia de imágenes se clasifica como un tipo de fotograma
concreto, como un fotograma I, P o B.
Un fotograma I, o intrafotograma, es una imagen autónoma que
se puede codificar de forma independiente sin hacer referencia a
otras imágenes. La primera imagen de una secuencia de vídeo es
siempre un fotograma I. Los fotogramas I sirven como puntos de
inicio en nuevas visualizaciones o como puntos de
resincronización si la transmisión de bits resulta dañada. Los
fotogramas I se pueden utilizar para implementar funciones de
avance o retroceso rápido o de acceso aleatorio. Un codificador
insertará automáticamente fotogramas I a intervalos regulares o
a petición de nuevos clientes que puedan incorporarse a la
visualización de una transmisión. La desventaja de este tipo de
fotogramas es que consumen muchos más bits, pero por otro lado
no generan demasiados defectos provocados por los datos que
faltan.
Un fotograma P (de interfotograma Predictivo), hace referencia a
partes de fotogramas I o P anteriores para codificar el fotograma.
Los fotogramas P suelen requerir menos bits que los fotogramas
I, pero con la desventaja de ser muy sensibles a la transmisión de
errores, debido a la compleja dependencia con fotogramas P o I
anteriores.
Un fotograma B, o interfotograma Bipredictivo, es un fotograma
que hace referencia tanto a fotogramas anteriores como
posteriores. El uso de fotogramas B aumenta la latencia.

Secuencia típica con fotogramas I, B y P. Un fotograma P sólo puede


hacer referencia a fotogramas I o P anteriores, mientras que un
fotograma B puede hacerlo a fotogramas I o P tanto anteriores
como posteriores.

Cuando un decodificador de vídeo restaura un vídeo


descodificando la transmisión de bits fotograma a fotograma, la
descodificación debe comenzar siempre por un fotograma I. Los
fotogramas P y B, en caso de usarse, deben descodificarse junto a
los fotogramas de referencia.
Además de la codificación diferencial y la compensación de
movimiento, se pueden emplear otros métodos avanzados para
reducir aún más los datos y mejorar la calidad de vídeo. El H.264,
por ejemplo, admite técnicas avanzadas como los esquemas de
predicción para codificar fotogramas I, la compensación de
movimiento mejorada con una precisión inferior a un píxel y el
filtro de eliminación de bloques en bucle para suavizar los bordes
de los bloques (defectos).
OPTIMIZACIÓN DE ARCHIVOS DE VIDEO

Optimización de archivos de vídeo

Para optimizar el peso del archivo de video será necesario editarlo


para establecer alguno o algunos de los siguientes parámetros:

En el Audio:

1. El códec de compresión de audio utilizado: MPEG Layer 1,


MPEG Layer 2, MP3, etc.
2. Resolución. Establecer resoluciones más pequeñas: 32-bits,
16-bits, 8-bits, 4-bits, etc.
3. Tasa de muestreo. Definir valores inferiores: 44100 Hz.,
22050 Hz., 11025 Hz, etc.
4. Velocidad de transmisión (bitrate). Configurar bitrates más
bajos: 128 Kbps, 96 Kbps, 64 Kbps, etc.
5. Calidad estéreo/mono. Reducir la calidad de “stereo” a
“mono”

En el Video:

1. El códec de compresión de video utilizado: MPEG-1, MPEG-2,


MPEG-4, Intel Indeo, Cinepak, DivX, etc.
2. Método de BitRate. Utilizar un bitrate variable VBR puede
optimizar la calidad del video y repercutir en el peso final del
archivo frente a un bitrate constante CBR.
3. Velocidad de transmisión (bitrate). Configurar bitrates más
bajos: 1000 Kbps, 768 kbps, 360 Kbps, etc.
4. Dimensiones. Cuanto más pequeña sea la altura y anchura en
píxeles de los fotogramas de un video, menos tamaño ocupará
su archivo.
5. Velocidad de fotogramas. Se puede reducir el número de
fotogramas por segundo que mostrará el video: 30, 24, 20, 16,
etc.
6. Fotogramas Clave. Durante la compresión también se puede
indicar cada cuánto se guardará un fotograma completo
(fotograma clave): 24, 48, 96, 128, etc. Cuanto mayor sea esta
cadencia más bajo será el peso del archivo resultante.
Otros elementos que inciden en la optimización:

1. Duración. Cuanto más corto es un video, menos peso ocupa su


archivo. En ocasiones puede resultar interesante fraccionar un
archivo de video en sus escenas para facilitar su descarga.
2. Formato de archivo. Los archivos *.WMV, *.MOV, *.RM y
*.FLV son los más adecuados para publicar un video en Internet
por su adecuada relación calidad/peso y porque admiten
streaming. Los archivos *.AVI con códecs de compresión baja
son ideales para guardar los videos originales. Los archivos
*.AVI con códecs DiVX-XviD son apropiados para videos de
películas de cierta duración. Los archivos *.MPG con códec
MPEG-1 se utilizan para crear Video-CDs. Los archivos *.MPG
con códec MPEG-2 se utilizan como fuente para montar un DVD.

Formatos de archivos de vídeo

Los videos digitales se pueden guardar en archivos de distintos


formatos. Cada uno se corresponde con una extensión específica del
archivo que lo contiene. Existen muchos tipos de formatos de video.
Aquí se citan algunos de los más utilizados. Asimismo cada tipo de
archivo admite en cada momento un códec de compresión distinto.

AVI (Audio Video Interleaved = Audio y Video Intercalado)

● Es el formato estándar para almacenar video digital.


● Cuando se captura video desde una cámara digital al ordenador,
se suele almacenar en este formato con el códec DV (Digital
Video).
● El archivo AVI puede contener video con una calidad excelente.
Sin embargo el peso del archivo resulta siempre muy elevado.
● Admite distintos códecs de compresión como CinePak, Intel
Indeo 5, DV, etc. Los códecs con más capacidad de compresión
y una calidad aceptable son DivX y XviD.
● El formato AVI puede ser visualizado con la mayoría de
reproductores: Windows Media, QuickTime, etc. siempre y
cuando se encuentren instalados en el equipo los adecuados
códecs para cada tipo de reproductor.
● Es ideal para guardar videos originales que han sido capturados
de la cámara digital (codificados con DV).
● No es recomendable publicarlos en Internet en este formato por
su enorme peso.
● Los códecs CinePak, Intel Indeo, DV, etc. no ofrecen una gran
compresión. Los códecs DivX y XviD por el contrario consiguen
una óptima compresión aunque se suelen destinar sobre todo a
la codificación de películas de larga duración.

MPEG (Moving Pictures Expert Group = Grupo de Expertos de


Películas)

● Es un formato estándar para la compresión de video digital.


● Son archivos de extensión *.MPG ó *.MPEG.
● Admite distintos tipos de códecs de compresión: MPEG-1
(calidad CD), MPEG-2 (calidad DVD), MPEG-3 (orientado al
audio MP3) y MPEG-4 (más orientado a la web).
● Se reproducen con Windows Media Player y QuickTime.

MOV (http://www.apple.com/es/quicktime/)

● Es el formato de video y audio desarrollado por Apple.


● Utiliza un códec propio que evoluciona en versiones con
bastante rapidez.
● Este tipo de archivos también pueden tener extensión *.QT
● Se recomienda utilizar el reproductor de QuickTime. Existe una
versión gratuita del mismo que se puede descargar de Internet.
● Es ideal para publicar videos en Internet por su razonable
calidad/peso.
● Admite streaming.

WMV (http://www.microsoft.com/windows/windowsmedia/es/)

● Ha sido desarrollado recientemente por Microsoft.


● Utiliza el códec MPEG-4 para la compresión de video.
● También puede tener extensión *.ASF
● Sólo se puede visualizar con una versión actualizada de
Windows Media 7 o superior. Esta aplicación viene integrada
dentro de Windows.
● Es ideal para publicar videos en Internet por razonable
calidad/peso.
● Admite streaming.

RM (http://spain.real.com/)

● Es la propuesta de Real Networks para archivos de video.


● Utiliza un códec propio para comprimir el audio.
● Este tipo de archivos tiene extensión *.RM y *.RAM.
● Se visualiza con un reproductor específico: Real Player. Existe
una versión gratuita del mismo que se puede descargar de
Internet.
● Se puede utilizar para publicar videos en Internet por su
aceptable calidad/peso.
● Admite streaming.

FLV (http://www.adobe.com)

● Es un formato que utiliza el reproductor Adobe Flash para


visualizar vídeo en Internet.
● Utiliza el códec Sorenson Spark y el códec On2 VP6. Ambos
permiten una alta calidad visual con bitrates reducidos.
● Son archivos de extensión *.FLV.
● Se pueden reproducir desde distintos reproductores locales:
MPlayer, VLC media player, Riva, Xine, etc.
● Opción recomendada para la web por su accesibilidad. Al
visualizarse a través del reproductor de Flash es accesible
desde la mayoría de los sistemas operativos y navegadores
web.
● Los repositorios de vídeo más conocidos en Internet utilizan
este formato para la difusión de vídeos: YouTube, Google Video,
iFilm, etc.
● Permite configurar distintos parámetros del vídeo para
conseguir una aceptable calidad/peso.
● Admite streaming.

Color Sampling

Como definición rápida podemos decir que el muestreo de color es


una reducción de datos de la crominancia de una imagen mientras
que los datos de luminancia se mantienen intactos.
En una imagen RGB cada pixel tiene una coordenada R (rojo), G
(verde) y B (azul), a partir de de estas tres coordenadas podemos
reconstruir cualquier color, ya que todos los colores son una mezcla
de estos tres. Esta forma de descomponer las imágenes en sus tres
componentes de color es muy adecuada y muy válida en el sector
gráfico y la fotografía en los que tratamos con imágenes únicas, pero
no tanto para el video, en el que tenemos que procesar ingentes
cantidades de imágenes: 24, 25 o 30 imágenes en cada segundo.
Cuando trabajamos con vídeo se nos plantea la imperiosa
necesidad de reducir el número de datos de nuestras imágenes.
Por tanto, mientras que el mundo gráfico y la fotografía se aproximan
a la reproducción del color de una forma física, todos los colores se
pueden descomponer en rojo verde y azul; la imagen videográfica se
ve obligada a tomar una nueva aproximación, una aproximación
fisiológica: el ojo humano es mucho sensible a los cambios de luz que
a los cambios de color, por tanto en cada pixel
reproduciremos todos los datos de luminancia de la imagen y
haremos un muestreo (reducción de datos) de crominancia. Es la
manera de reproducir el color de los espacios de color YCbCr, frente
a los RGB de los que habíamos hablado anteriormente. “Y” es
la luminancia y, “Cb” y “Cr” son los vectores de color.
Por tanto, cuando veamos cifras del tipo 4:4:2 o 4:1.1, estamos
viendo muestreos de color de imágenes que son YCbCr, no RGB. ¿Y,
que significado tienen estas cifras? Pues describen una región
geográfica del vídeo y el número de muestras de color que se toman
en esa región geográfica. Veámoslo con ejemplos:
4:1:1. De cada 4 muestras horizontales que tenemos en nuestra
región de vídeo, en la primera línea horizontal solo
tomamos una de cada una de las componentes de color, y en
la segunda línea horizontal volveremos a tomar otra muestra de
cada una de las componentes de color. Este es el tipo de muestreo
que se utiliza en DV NTSC.

4:2:0. Por cada 4 muestras horizontales que tenemos en nuestra


región de vídeo, en la primera línea horizontal tomamos dos de
cada una de los componentes de color, y en la segunda línea
horizontal no tomamos ninguna. Este tipo de muestreo es muy
frecuente actualmente y se utiliza en el h264 de
las DSLR de Nikon y Canon, y en el AVCHD de Sony yPanasonic.
También se utiliza en DV PAL. El número de muestras de color es
el mismo que en el 4:1:1, pero con otra distribución geográfica.

4:2:2. Por cada 4 muestras horizontales, en la primera


línea tomamos dos de cada una de los componentes de color y en
la segunda línea volvemos a hacer lo mismo. Tenemos
el doble de muestras de color que en el 4:1:1 y el 4:2:0. Este tipo
de muestreo se hizo frecuente con el Betacam Digital y DVC Pro
50. Hoy es frecuente en códecs de buena calidad como
el XF de Canon o algunos Apple ProRes y DnxHD, muy conocidos
en el mundo de la edición.

4:4:4. Por cada 4 muestras horizontales tomamos otras cuatro de


cada una de las componentes de color en las dos líneas sucesivas.
Este tipo de muestreo tendría la misma cantidad de información y por
tanto la misma calidad que un RGB, por eso de algunos espacios de
color RGB se dice que son 4:4:4, aunque el muestreo de color sea
diferente.

Es muy importante que desterremos la falsa idea de que el primer


número son las muestras de luminancia y los siguientes se
corresponden con el Cb y el Cr (los vectores de crominancia). Fijaros
si es falsa la idea que en el caso de un muestreo 4:2:0 nos vendría a
decir que no tiene información de Cr, o sea, que
le falta la información de rojo, auténtica barbaridad.

CAMARAS RAW

http://www.norender.com/wp-content/uploads/Tabla-c%C3%A1mara
s-que-graban-raw.pdf

También podría gustarte