Conceptos de Televisión Avanzada Atsc
Conceptos de Televisión Avanzada Atsc
Conceptos de Televisión Avanzada Atsc
Una comparación entre el presente estándar NTSC y el futuro digital ATSC se muestran en la tabla.
Línea activa, píxeles por línea 525 linea De 1920x1080 a 640pixeles x480
líneas
(720x483)
En ausencia de un estándar común, se han hecho esfuerzos para lograr parámetros comunes como
se menciona:
Una frecuencia común de muestreo de luminancia a 13.5 Mhz y un número idéntico de 720
muestras por línea activa. Este enfoque fue extendido para cubrir las señales HDTV al duplicar la
resolución espacial y adaptarla al la relación de aspecto 16:9. Esto resulta en 1920 muestras por
línea activa. Ejemplos de los parámetros de escaneo CDR. Una desventaja del CDR trata sobre la
necesidad de interpolación en sistemas de conversión de dos y tres dimensiones.
Un Formato de imagen común (CIF) que especifica las características espaciales de sistemas de
imagen actual. Los elementos comunes incluyen la relación de aspecto de imagen, el número de
muestras activas por línea, y el número de líneas activas. Sin embargo, el número total de líneas
y la relación de muestreo pueden variar. El concepto de la CIF. Los formatos de mosaico de TV
desde diferentes dimensiones de escaneo de imagen se hacen de un común CIF y de diferentes
intervalos inactivos horizontales y blanking vertical. Como un ejemplo, este CIF puede repetirse
a una relación de 30 campos por segundo en el estándar de 525 y 25 campos por segundo en el
estándar de 625. Este enfoque se usa comúnmente en compresión de imágenes y procesamiento
de computadores. Una desventaja de CIF es la conversión temporal entre dos sistemas de
formato progresivo. Sin embargo, el almacenamiento de de imágenes de CIF videograbadoras
digitales implica diferentes relaciones de data y formatos de grabación.
Todos los posibles formatos de imagen fueron estudiados con el propósito de lograr
interoperabilidad. Varios formatos fueron adoptados para resolver las diferencias entre los formatos
numerosos de píxel y escaneo , como los utilizados en la filmación, televisión y estándares de
computación.
Flexibilidad
El asunto importante en designar el sistema futuro ATSC es a través de la implementación de
flexibilidad y expandibilidad , no es necesario desarrollar todos los formatos ATSC
simultáneamente. Una conversión gradual a DTV puede lograrse a costos razonables.
El sistema DTV es lo suficiente flexible para operar sobre cables, fibra óptica, transmisores, y
satélites cpn varios programas (deportes, noticias, películas, materiales de post producción).
Usando header/descriptor en cada paquete de datos en vez de un formato específico de data para
cada transmisión de programa
Usando el formato MPEG-2 de transporte que permite la entrega de una variedad de sonido y
servicios de data.
Definir el código y el formato de transmisión independientemente de la fuente del programa y el
formato del receptor.
Compresión
La contención a 6mhz del ancho de banda de la transmisión terrestre de TV no ofrece más que la
alternativa de compresión de data para transmitir todos los formatos ATSC. Como un ejemplo, el
formato 1920x108@30I requiere un rango de compresión de 50 para que quepa en un transporte de
canal.
Los requerimientos del esquema de compresión dependen de la naturaleza de las figuras producidas
por la TV. Los programas típicos como de deportes pueden usar formatos progresivos de scan para
una fidelidad de movimiento superior, en comparación con la versión entrelazada.
Mejoras en los algoritmos de compresión pueden brindar una calidad en las imágenes y al mismo
tiempo ser compatible con los decodificadores instalados ATSC.
Relación de aspecto de imagen y relación de aspecto de píxel
El relación de aspecto de imagen (IAR) se define como la razón de la dimensión de la imagen
horizontal (expresado en milímetros o pulgadas) a la dimensión de la imagen vertical (expresado en
milímetros o pulgadas). Esta razón toma el valor de 4:3 o 16:9 para televisión y 2:4:1 para
aplicaciones de filmación. La razón de aspecto 16:9 fue establecida por el grupo de trabajo en
producción de alta definición SMPTE en 1985. Cualquier material de programa o película puede ser
adecuado al formato 16:9 tanto para producción y post-producción, distribución o despliegue.
La relación de aspecto del píxel (PAR) se define como la relación de aspecto del espaciado del píxel
horizontal al espaciado del píxel vertical. No se refiere a la forma actual del píxel. Esta relación de
píxel la determina el IAR y el número horizontal de pixeles (Hp) y las líneas verticales (VL) en la
imagen reproducida. La relación entre el PAR y el IAR está dada por:
PAR=IAR x VL/Hp
Si la relación IAR y Hp/VL son idénticas, (o si el PAR = 1), la imagen tienen pixeles cuadrados.
Como un ejemplo, el formato estándar de imagen VGA/SVGA tiene 640 x 480 pixeles para una
dimensión 4:3. Entonces, PAR = 4/3 x 480/640 = 1. Esto confirma
Que los pixeles cuadrados se usan para generar y desplegar imágenes en computadoras.
En aplicaciones de video, el número de pixeles horizontales se determina por muestreo de
frecuencia , que se deriva de un múltiplo del escaneo horizontal o frecuencia de la subportadora.
Esto produce un píxel no cuadrado de señales digitadas NTSC y CCIR-601. Una buena práctica
operacional sería crear un material original en IAR y PAR en que se puede desplegar. Algunas
imágenes y PAR se muestran en la figura 11.3.
Conversión de formato de video
La conversión de formato de campos entrelazados a campos progresivos se logra calculando las
líneas perdidas en el campo entrelazado. Cuando no hay movimiento entre dos campos, el mosaico
progresivo puede obtenerse combinando líneas de ambos campos. Sin embargo, cuando hay
movimiento, esta combinación resulta en en un movimiento vertical de los ejes en los detalles de la
imagen. Debido a la sobre imposición de los dos campos. Entonces es preferible calcular las líneas
faltantes del campo entrelazado. Algunas técnicas de procesamiento entre campos se pueden usar y
se pueden optimizar para imágenes estacionarias y en movimiento. Algunas técnicas requieren
memorias de campo, mientras que otras memorias de líneas.
Un simple progresivo (30P) a escaneo entrelazado (30I) conversión se realiza separando lineas
pares e impares del mosaico progresivo. Las líneas impares constituyen el campo 1 y las líneas pares
constituyen el campo 2. En el caso de un escaneo progresivo, a 60 Hz, las líneas impares de
mosaicos impares constituyen el campo 1 y las líneas pares de mosaicos pares constituyen el campo
2.
Formato de conversión de imagen
Las conversiones de formato de imagen pueden darse en la planta de producción y en el receptor
ATSC. El material del programa que se origina en formato 4:3 se convierte a 16:9 para la
distribución de programas. Igualmente, los programas que se originen en el formato 16:9 serán
convertidos a 4:3 para la transmisión simulcast NTSC durante el período de desfase. El receptor
ATSC debe convertir varias imágenes y formatos de escaneo a formatos de origen.
Los dos formatos de escaneo HDTV, 1920 x 1080 y 1280 x 720 se relacionan a una razón de 3:2 y un
simple factor de interpolación se usa para convertir uno en otro. Una relación de 2:1 existe entre
píxel y las especificaciones de línea de 1280 x 720 y el formato de escaneo VGA 640 x 480, siendo el
primero de 16:9 y el segundo de 4:3.
El formato de escaneo 1920 x 1080 puede realizarse duplicando la resolución espacial de CCIR-601
y adaptándola a la relación 16:9, lo que lleva a 1920 muestras por linea horizontal. Debido a que el
formato CCIR-601 no tiene pixeles cuadrados (4/3 x480/720 =0.88), el número de líneas se calcula
como sigue: 480 x 2/0.88 = 1080 líneas.
Otro formato de video posible que se utiliza en la generación de imágenes en las computadoras es el
formato 1440 x 1080 (4:3). Ambos tienen pixeles cuadrados, pero la diferencia está en la relación de
barrido. El formato 1440 x 1080 es parte del estándar MPEG-2 y puede se UPCONVERT a 1920 x
1080. La DOWNCONVERSION a 720 x 480 se efectúa dividiendo los pixeles horizontales por 2 y
haciendo lo mismo con líneas verticales como sigue: (1080/2) x 4/3 x 480/720 = 480.
Los programas digitales HDTV basados en el estandar SMPTE 260M tienen un formato activo de
imagen de 1920 x 1035 pixeles. Un interpolador puede usarse para convertir este formato al formato
ATSC 1920 x 1080.
Conversión de relación de imágen
La conversión de relación de aspecto de 4:3 a 16:9 se realiza con dos métodos que resultan en dos
diferentes imágenes desplegadas. El primer método vertical crop de la imagen original. La imagen
original en 4:3 se ensancha por un factor de 1.33 (16:9/4:3) en las direcciones horizontal y vertical.
El mosaico de 16:9 se logra extrayendo 362 líneas (483 x ¾) de la imagen original 4:3 y
desplegándolas en el barrido de 16:9 como 483 líneas. Una conversión electrónica realiza la
expansión de 362 líneas a 483 líneas usando el proceso de interpolación vertical. Esto resulta en una
pérdida de resolución vertical de imagen de aproximadamente 25%.
La interpolación vertical se puede efectuar procesando cada campo de la señal entrelazada, pero
degradaciones en los contornos diagonales reducen la calidad de la señal interpolada. Esta
interpolación vertical entre campos es fácil de implementar. Una más precisa y más compleja
interpolación vertical comprende varios pasos, como la conversión de escaneo entrelazado a
progresivo, una interpolación vertical en cada mosaico y un sub muestreo de la señal interpolada
progresivamente para guardar la estructura entrelazada.
El segundo método de conversión es insertar la imagen original 4:3 dentro del barrido de 16:9. Esto
resulta en dos laterales negros. Los 720 pixeles horizontales de una imagen 4:3 se deciman para que
quepan en los 540 pixeles del barrido de 16:9. Este método no requiere una memoria de mosaico y
es fácil de implementar, aunque investigaciones sobre preferencias de opinión indican poco interés
en este método.
Dos soluciones se pueden usar para resolver el aspecto de conversión.En la primera solución, la
imagen original 16:9 se corta en ambos lados para extraer la ventana principal que cabe en el
barrido 4:3. Una interpolación de píxel horizontal se efectúa para expandir de 540 a 720 pixeles.
Dos memorias de línea se necesitan para ejecutar esta conversión. Sin embargo, esta solución de la
ventana principal puede no ser lo suficiente ancha para reproducir dos áreas interesantes
localizadas a ambos lados de la imagen original en 16:9. Una mejora se puede implementar que
permite posicionar la ventana en la imagen ancha. Esta información puede ser brindada campo por
campo, en la transmisión de data de video codificada para ser usada por el receptor de televisión.
La segunda solución es la "caja de letras", porque la imagen original de 16:9 se comprime
verticalmente a 362 líneas y resulta en dos barras negras en la parte superior e inferior del barrido
4:3, como se muestra en la figura 11.5b. Un proceso de decimación vertical combinado con memoria
de mosaico se usa para realizar la conversión.
Apertura de producción y apertura limpia
El área activa de la imagen se define por el número de píxeles activos en la dirección horizontal (o
en una línea) y el número de líneas activas en la dirección vertical. Esta área activa se llama apertura
de producción porque es el formato actual considerado para uso en el origen de señal y la post-
producción.
El estándar SMPTE 274M, un escaneo e interface 1920 x 1080 para rangos múltiples de imagen,
menciona que
El procesamiento digital impropio de los lados, ambos horizontales y verticales puede introducir
transitorios cerca de los mismos. Estos efectos se pueden minimizar y evitar al usar técnicas
apropiadas, como repetición y mirroring de los píxeles en los lados de apertura antes del filtrado
digital. Los siguientes factores contribuyen a los transitorios análogos:
Limitación de ancho de banda de señales análogas
Implementación de filtros análogos
Clipping de la amplitud de señales análogas debido al rango dinámico finito impuesto en el
proceso de cuantización.
Uso del blanking digital en conversión análoga-digital-análoga; y
Tolerancia en especificaciones de blanking análogo.
La Gran Alianza
Historia
En Estados Unidos, la modalidad digital se utiliza desde finales de 1998. El cambio del sistema
NTSC al digital ha seguido un proceso lento y a menudo muy controvertido.
Funcionarios de la Comisión Federal de Comunicaciones (FCC), cadenas emisoras de televisión,
fabricantes y académicos trataban de crear un estándar digital que no dejara inmediatamente
anticuados los televisores existentes.
El nuevo sistema opera sobre todo en la banda de 470 a 890 MHz (canales 14 a 83) y en frecuencias
UHF. El sistema nuevo y el antiguo deberán coexistir hasta el 2006, en que deben cesar las
emisiones de señales NTSC, tanto en la banda de 54 a 216 MHz (canales 2 a 13), como en
frecuencias UHF y VHF. La FCC reasignará entonces dichos canales a la televisión digital.
La FCC creó en 1987 una comisión asesora sobre servicios de televisión avanzada, la ACATS, que
debía asesorar a la FCC sobre el servicio de televisión avanzada en Estados Unidos, incluida la
preparación de un estándar técnico.
En 1988 la ACATS pidió a las industrias, universidades y laboratorios que propusieran normas para
la televisión avanzada.
En marzo de 1990 la FCC dio un paso fundamental. Decidió que el servicio de televisión avanzada se
daría en régimen de difusión simultánea (simulcast) con el servicio convencional, y no en régimen
de compatibilidad de receptores (este último fue el enfoque que se siguió al introducir la televisión
en color, en que la señal debería poderse ver tanto en televisores en color como en blanco y negro).
En el régimen de compatibilidad de receptores, la señal de televisión de alta definición (HDTV)
podría captarse y visualizarse en los receptores actuales convencionales. Pero la señal de HDTV
requiere mucha más información que una señal de color, por lo que el receptor exigiría un canal
suplementario para introducir la información adicional (otro canal de 6 MHz). Esto plantea varios
problemas:
Al transmitirse la señal HDTV por un canal NTSC tendremos un sistema poco eficaz, poco
moderno y poco rentable.
Hay que asignar un canal nuevo por cada canal NTSC existente.
Por estos motivos, es por lo que se optó por el enfoque simulcast. La señal HDTV se transmite por
un canal propio de 6 MHz independientemente de la señal NTSC (en lugar de emplear
compatibilidad de receptores, en el que la señal HDTV se obtiene de la señal NTSC y de la
información que va en el canal suplementario). Así podría equiparse un sistema de transmisión
moderno para la señal HDTV completa.
No obstante persiste el inconveniente de que los televisores actuales no pueden recibir una señal
HDTV. Para evitar que estos televisores se quedaran de repente inservibles, la FCC asignó un nuevo
canal por servicio a cada una de las 1500 estaciones de Estados Unidos que lo solicitasen. Durante
un periodo de transición, la FCC exigiría que el mismo programa fuera transmitido
simultáneamente (o con muy poco retraso) tanto por HDTV, como por NTSC (más tarde se
suprimiría este requisito). Cuando una gran parte del país ya utilizase la nueva televisión, se
suprimiría el servicio NTSC, y la porción de espectro que ocupaba se utilizaría para nuevos canales
HDTV u otros servicios.
Esta decisión tuvo una repercusión decisiva en el desarrollo de una norma para la HDTV.
Poco después comenzaron a recibirse propuestas para sistemas HDTV, y la ACATS y la FCC
decidieron someter a evaluación cinco propuestas técnicas: una analógica y cuatro digitales. Estas
propuestas técnicas se analizaron en el Centro de Pruebas de Televisión Avanzada de Alexandria,
mientras que la calidad de la imagen se evaluaba en el Laboratorio de Evaluación de Televisión
Avanzada de Ottawa.
En febrero de 1993, tras revisar los resultados la ACATS llegó a la conclusión de que los cuatro
sistemas digitales superaban en prestaciones al analógico. A su vez, cada uno de los cuatro
sobresalía en distintos aspectos. Así que la ACATS animó a los promotores a que organizaran en un
solo sistema los elementos mejores de los cuatro y lo sometieran a evaluación.
En mayo de 1993 se constituyó la Gran Alianza, un consorcio integrado por AT&T, Zenith, el centro
de investigación de David Sarnoff, General Instrument Corporation, el Instituto Tecnológico de
Massachussets (MIT), Philips Electronics North America y la francesa Thomson Consumer
Electronics.
Entre 1993 y 1994 la Gran Alianza introdujo mejoras en los mejores elementos técnicos de los
cuatro sistemas y creó un prototipo. En base a ese prototipo de HDTV, la comisión de Sistemas de
Televisión Avanzada (ATSC - consorcio de industrias) creó un estándar técnico.
Para poder transportar en un canal de 6 MHz (aproximadamente 20 Mbps) toda la información de
una imagen de alta definición es necesario comprimir los datos (si no se comprimiera necesitaría del
orden de Gbps). La propuesta de la Gran Alianza se basó en el sistema MPEG2.
La clave de la compresión según el sistema MPEG consiste en no enviar las imágenes completas
(como en NTSC), sino sólo los cambios entre dichas imágenes. El resultado es que se necesitan
muchos menos datos para actualizar una imagen. Los datos comprimidos de video, audio y otros se
multiplexan formando una sola sucesión de bits. Esta sucesión de bits modula una señal que se
transmite por radiodifusión terrestre.
En recepción la señal se capta por una antena y se envía a un receptor, que demodulará la señal para
obtener la sucesión de bits original. Estos bits se demultiplexan y se recuperan los datos
comprimidos para pasar a descomprimirlos a continuación.
En noviembre de 1995 la ACATS recomendó a la FCC el estándar elaborado por la Comisión de
Sistemas de Televisión Avanzada, y ésta lo aceptó en 1996 salvo por un detalle. Suavizó la restricción
de la norma en la que se limita a 18 los formatos de resolución de video autorizados.
A principios de 1997 la FCC añadió otras disposiciones en apoyo del nuevo estándar técnico, como
por ejemplo la asignación de canales.
El sistema de televisión digital basado en dicho estándar es muy flexible, y permite por ejemplo que
un canal de 6MHz pueda ofrecer imágenes de alta resolución y sonido perimétrico multicanal, o
bien transmitir varios programas de televisión de calidad comparable a la de los programas
actuales. Esta flexibilidad ha hecho sustituir el acrónimo de Televisión de Alta Definición (HDTV)
por el de Televisión Digital (DTV).
Además el estándar está abierto para que se le puedan incorporar futuras mejoras técnicas.
El Estándar ATSC
El estándar ATSC es un estándar de transmisión terrestre que define el contenido de la secuencia de
bits, su transporte y transmisión digital en un ancho de banda RF de 6 MHz. El sistema ATSC usa
múltiples formatos de transmisión, compresión de audio y video digital, empaquetamiento de datos
y nuevas técnicas de modulación de señales RF. El empaquetamiento permite al Video, audio y data
auxiliar separarse en unidades de tamaño determinado para correcciones de errores lineales,
multiplexación del programa, sincronización de tiempo, flexibilidad y compatibilidad con el formato
ATM.
Parámetros Características
Programas Múltiples
No hay estándard
En la figura 2 vemos que los 6 canales ya digitalizados entran al codificador AC-3. Luego, se
multiplexan las secuencias de audio (AC-3), video y auxiliar para obtener una secuencia de
programa.
Fig. 4: Comparación de sistemas de audio NTSC y ATSC
Associated service: visually impaired (VI) - Provee una descripción narrativa del contenido
visual del programa .
Associated service: hearing impaired (HI) - Solo diálogos para enfatizar la calidad cuando se
mezcla con el canal principal
Associated service: dialogue (D) - Diálogo Original
Associated service: commentary (C) - Comentarios adicionales
Associated service: emergency (E) - Servicio de Emergencias (Llamado a la solidaridad,
Meteorología, etc. )
Associated service: voice-over (VO) - Permite la posibilidad de adicionar voz al programa
original.
3. Los datos comprimidos de video, audio y los datos complementarios se multiplexan formando
una sola sucesión de bits. Esta sucesión de bits modula una señal que se transmite por
radiodifusión terrestre.
Fig. 5: Multiplexación de cadenas elementales a una cadena de programa y luego a una cadena
de transporte.
En la figura 5, se ve cómo 4 cadenas elementales (video, 2 de audio, auxiliar) forman una
cadena de programa para que luego, varios programas formen una cadena de transporte. Esta
cadena de 19.39Mbps pasa entonces al sistema de transmisión.
4. Multiplexación y Transporte:
En la figura 6, tenemos un diagrama de bloques de un transmisor VSB.
Recibe este nombre ya que el sistema de modulación es el denominado 8-VSB (8 level -
Vestigial Side Band ) que sería banda lateral vestigial modulada a 8 niveles.
No se debe confundir codificación MPEG-2, con modulación 8-VSB. Este será un punto
fundamental en el estudio de la DTV ya que una correcta comprensión del funcionamiento de
este bloque permitirá realizar análisis correctos y trabajos efectivos en los TV's del mañana.
A continuación daremos una breve explicación de cada bloque.
La señal HDTV entra al sincronizador de cuadros el cual alinea la secuencia de datos en bytes.
Esta cadena alimentada la cual consta de 19.39Mbps está compuesta por 188 bytes que
incluyen 1 byte de sincronía y 187 bytes de data que representan la parte útil de la carga.
Esta cadena pasa a un aleatorizador de datos el cual asegura que los valores constantes de data
no existan en la cadena. Esto se hace para que no haya uniformidad en el espectro causando
interferencia por parte de la transmisión en los demás canales.
El Reed-Solomon encoder revisa los bytes de cada paquete para añadir bytes para corrección
de errores de transmisión.
El data interleaver corrige futuros errores al originar ráfagas. El proceso de codificación de
trellis, incrementa la señal de entrada doblando los valores de data. Cada bloque de 208 bytes
es convertida en 832 palabras de 2 bits. Esto se conoce como 8VSB.
Luego entran al multiplexador, la señal proveniente del trellis encoder y datos de sincronismo.
5. Transmisión RF
6. Receptor
El ATSC no especifica requerimientos para los receptores. Sin embargo, el FCC ha dado una
recomendación especificando que todos los receptores deben ser capaces de decodificar el audio,
video y señales auxiliares especificadas en los documentos estándares del ATSC. La funcionalidad
de recibir múltiples servicios puede ser implementada con receptores o adaptadores set-top para
convertir señales digitales ATSC a señales análogas NTSC o señales S-Video.
El receptor ATSC invierte las funciones de la transmisión RF y luego de decomprimir y decodificar,
genera video y audio conforme al formato del la pantalla y las condiciones de audio escogidas.
Características del receptor de video.
Para simplificar diseños, los receptores de TV no despliegan formatos diferentes. Pueden
construirse de acuerdo a su formato nativo que puedes ser 1920X1080, 1280X720 O 720X480.
Estudios revelan que para poder presentar una imagen HDTV es necesario tener una pantalla de
más de 28 pulgadas.
Resumiendo:
Se toma la banda base del video digital y se la comprime en formato MPEG-2 junto con el audio
Dolby AC-3 más los datos complementarios del canal. Todo este conjunto forma un bloque de
información serie con una frecuencia de 19,39 Mbits/segundo. Desde la salida del encoder MPEG-
2, los datos pasan a través de codificadores de error (Reed-Solomon & Trellis encoder), se le
insertan los sincronismos y la señal piloto que se encargará de sincronizar el sistema, para ingresar
finalmente en el modulador 8-VSB.
Preparado por:
Lizbeth González
Claudio Herrera
Eric Iglesias
Carlos Arturo Dreyfus
http://www.monografias.com/trabajos16/ingenieria-de-tv/ingenieria-de-tv.shtml#F