E
E
E
El término «edición» solía confundirse con la palabra «montaje» por ser actividades
parecidas, pero la edición se refería únicamente al vídeo y empleaba diferentes
medios técnicos a los del montaje cinematográfico. En el siglo XXI la
informatización ha unido los dos procesos.
En la era digital los tipos de edición se han restringido a cuatro: por corte o A/B
roll, on-line y off-line. Cuando se utilizaba la edición lineal existían otras,
pero la edición no lineal con acceso aleatorio las hizo desaparecer.
Índice
1 Definición
2 Tipos de edición
3 Diferencias entre montaje y edición
4 Problemas iniciales
5 Evolución de la edición de vídeo
5.1 Primera edición no lineal
5.2 Edición lineal
5.2.1 Problemas e inconvenientes
5.2.2 Equipamiento necesario
5.3 Edición no lineal
5.3.1 Primera generación (por vídeocinta)
5.3.2 Segunda generación (por videodisco)
5.3.3 Tercera generación (por disco magnético)
5.3.4 Cuarta generación (los formatos de compresión para vídeo)
5.3.5 Quinta generación (gestor de medios digitales)
6 Futuro
7 Véase también
8 Notas
9 Referencias
10 Bibliografía
11 Enlaces externos
Definición
Editar un vídeo consiste simplemente en manipularlo, es decir, ir uniendo unas
imágenes a otras, eliminando algunas, añadiendo efectos digitales o títulos,
incorporando música y cualquier otro material que permitiese un producto listo para
ser duplicado o emitido.1
Todo el proceso se realizaba inicialmente sobre una cinta llamada máster de vídeo.
Luego esta cinta se utilizaría para emitir el programa u obtener de ella copias
para su alquiler, venta o distribución. Pero, con el nacimiento de la edición
digital en la década de 1980, se fue prescindiendo paulatinamente del soporte
físico y todo el proceso comenzó a realizarse sobre un archivo informático, el
llamado máster digital de vídeo (MDV).2
Tipos de edición
Susana Espinosa y Eduardo Abbate recopilan cuatro tipos diferentes, dependiendo del
criterio elegido.3
edición de vídeo es un proceso por el cual un editor coloca fragmentos de vídeo,
fotografías, gráficos, audio, efectos digitales y cualquier otro material
audiovisual en una cinta o un archivo informático. El objetivo de la edición es
presentar un programa terminado para emitirlo por televisión, generar copias para
su venta o servir como base para otros más acabados.
El término «edición» solía confundirse con la palabra «montaje» por ser actividades
parecidas, pero la edición se refería únicamente al vídeo y empleaba diferentes
medios técnicos a los del montaje cinematográfico. En el siglo XXI la
informatización ha unido los dos procesos.
En la era digital los tipos de edición se han restringido a cuatro: por corte o A/B
roll, on-line y off-line. Cuando se utilizaba la edición lineal existían otras,
pero la edición no lineal con acceso aleatorio las hizo desaparecer.
Índice
1 Definición
2 Tipos de edición
3 Diferencias entre montaje y edición
4 Problemas iniciales
5 Evolución de la edición de vídeo
5.1 Primera edición no lineal
5.2 Edición lineal
5.2.1 Problemas e inconvenientes
5.2.2 Equipamiento necesario
5.3 Edición no lineal
5.3.1 Primera generación (por vídeocinta)
5.3.2 Segunda generación (por videodisco)
5.3.3 Tercera generación (por disco magnético)
5.3.4 Cuarta generación (los formatos de compresión para vídeo)
5.3.5 Quinta generación (gestor de medios digitales)
6 Futuro
7 Véase también
8 Notas
9 Referencias
10 Bibliografía
11 Enlaces externos
Definición
Editar un vídeo consiste simplemente en manipularlo, es decir, ir uniendo unas
imágenes a otras, eliminando algunas, añadiendo efectos digitales o títulos,
incorporando música y cualquier otro material que permitiese un producto listo para
ser duplicado o emitido.1
Todo el proceso se realizaba inicialmente sobre una cinta llamada máster de vídeo.
Luego esta cinta se utilizaría para emitir el programa u obtener de ella copias
para su alquiler, venta o distribución. Pero, con el nacimiento de la edición
digital en la década de 1980, se fue prescindiendo paulatinamente del soporte
físico y todo el proceso comenzó a realizarse sobre un archivo informático, el
llamado máster digital de vídeo (MDV).2
Tipos de edición
Susana Espinosa y Eduardo Abbate recopilan cuatro tipos diferentes, dependiendo del
criterio elegido.3
La diferencia de resultados que podían lograrse con uno y otro sistema se aprecia
mejor al pasar las imágenes a papel. Si se imprimiese un fotograma de 35 mm a 200
puntos por pulgada, calidad de impresión habitual para las publicaciones de color,
sus más de 2000 líneas de definición permitiría una ilustración de aproximadamente
medio A4. Si se hiciese más grande el ojo humano notaría el pixelado. Mientras, un
cuadro de PAL impreso a la misma calidad sería del tamaño de un sello postal, sus
576 líneas visibles no darían para más.7
En el siglo XXI se fue produciendo una convergencia de los dos sistemas, que sólo
se diferenciaban por su formato y calidad, no necesariamente por su soporte. Los
dos podían ser digitales y manejados en ocasiones con equipos idénticos.4 Pero por
razones de amortización, coste o preferencias a veces se continúa recurriendo a
medios distintos para el cine y el vídeo.8
Problemas iniciales
La televisión por su parte solo podía emitir imágenes en directo cuando apareció en
la década de 1920. Según Pérez Vega y Zamanillo Sainz de la Maza (2003, p. 72) la
televisión siempre trató de grabar su señal siguiendo un sistema parecido al del
sonido, pero el ancho de banda que requería y requiere la imagen lo hacía difícil,
aun siendo en blanco y negro. Así pues, hasta encontrar una solución, los programas
se podían realizar de tres formas: en vivo, desde un disco de cristal utilizando un
proceso parecido al empleado para grabar discos de vinilo o bien proyectando una
película de cine en una pantalla mientras una cámara de televisión recogía las
imágenes y transmitía la señal hasta el emisor. Las dos últimas soluciones podían
resultar lentas, complicadas e imposibles de modificar.9 Fue con el nacimiento del
vídeo en 1956 cuando se pudo hacer algo parecido al montaje cinematográfico.10
Era una edición no lineal porque permitía reducir o ampliar cualquier secuencia sin
afectar a las anteriores o posteriores.13 Sin embargo, utilizar empalmadoras como
la de Ampex se confesó poco eficiente por lo impreciso del sistema y el tiempo que
llevaba sacar la bobina del magnetoscopio, manipularla y volver a colocarla. No es
que la técnica cinematográfica fuera más rápida, pero se comprobó que había una
forma más eficiente cuando mejoró la calidad de los aparatos y de las copias.13
Ohanian (1996, p. 31) afirma:
¡Qué ironía, mirando al pasado, que se empleara tanto tiempo y esfuerzo intentando
emular la no linealidad del cine mediante sistemas electrónicos de edición no
lineal!
Ohanian
Edición lineal
Artículo principal: Edición lineal
Este sistema de trabajo permitía tres nuevas formas de edición lineal, según Browne
(2003): la Playrec, donde el magnetoscopio añadía el código de tiempos a la cinta
virgen, lo que se denomina pistar una cinta; el Assemble, y el Inserto. Los tres
desaparecerían con la llegada de los equipos digitales.
Problemas e inconvenientes
Browne (2003) destaca:
Era posible cambiar la duración de la última secuencia, pero no más atrás sin
afectar a las siguientes. Si se modificaba la duración de una parte intermedia, el
máster debía ser editado de nuevo por assemble desde ese punto, introduciendo todos
los valores de entrada y salida uno por uno.
No se guardaba un histórico, por tanto, si se repetía la edición por el motivo que
fuera, la duración de los encadenados, los niveles de sonido, los tipos de
cortinillas, etc., debían ser vueltos a elegir.
En ausencia del máster, las sucesivas copias se debían realizar desde otra copia,
perdiendo calidad de imagen y sonido.n. 6
Según Carrasco (2010, p. 133), la política y la técnica crearon nuevas normas para
emitir la señal de televisión, pero las diferentes oportunidades ofrecidas por la
técnica para unificarlas fueron desaprovechadas. Al contrario del cine, que con el
tiempo terminó en dos anchos de películas compatibles con cualquier reproductor del
mundo, en el vídeo muchos de los trabajos profesionales debían terminarse pensando
en obtener copias para el NTSC estadounidense; pero también para el PAL europeo e
incluso para el SECAM francés.n. 7 Esta variedad de sistemas exigía salas de
edición con magnetoscopios de varios formatos. Además existían inconveniente
añadidos a la hora de pasar el cine al formato vídeo.n. 8
Equipamiento necesario
Artículos principales: Sala on-line y Sala off-line.
La división del trabajo en dos salas debía funcionar en teoría, pero en la práctica
los equipos de la sala off-line eran demasiado pobres como para poder hacerse una
idea del resultado, las EDL no se podían exportar a los equipos de la sala on-line
debido a problemas de compatibilidad, tampoco contenía absolutamente todos los
detalles como la velocidad de los fundidos o las variaciones en la pista de sonido.
Por tanto, muchas decisiones debían volverse a meditar en la cara sala on-line.15
Edición no lineal
Teclado del CMX 600 la primera máquina para la edición con acceso aleatorio.
Artículo principal: Sistema de edición no lineal
La diferencia entre esta edición y la que utilizaba empalmadoras estriba en tres
aspectos:
Cintas de vídeo Betamax y VHS, sobre las que se basaba la primera generación de
edición no lineal con acceso aleatorio.
Estos equipos constaban de un magnetoscopio grabador y varios reproductores, hasta
27 en algunos casos. El editor seleccionaba una secuencia, después una segunda,
luego una tercera y así sucesivamente. Por su parte, el sistema colocaba uno de los
magnetoscopios al principio de la primera secuencia, otro al principio de la
segunda, un tercero al principio de la tercera, etc, los ponía en marcha cuando
correspondiera obteniendo un visionado y una grabación continuos. Cuando el número
de fragmentos era superior al de magnetoscopios, el primero libre que tuviera la
secuencia deseada se desplazaba hasta el primer cuadro de la misma y la reproducía
cuando llegara el momento.21
Los equipos basados en cinta de vídeo aparecieron a principios de los ochenta, poco
después de nacer los aparatos reproductores y grabadores domésticos.18 Según
Ohanian (1996, p. 88) el primero en nacer se denominó Montage Picture Processor y
salió al mercado en 1984. Para Jacobson (2010, p. 423) tal honor le corresponde al
Ediflex, comercializado en 1983. Touch Visión lanzó por su parte el BHP Touch
Vision de 1986. Todos empleaban cintas VHS o Betamax y ofrecían como mínimo una
EDL, una lista de corte de negativo y una copia de visionado. Otra novedad fue un
nuevo tipo de máster, el máster digital de vídeo (MDV), un archivo informático que,
como cualquier otro archivo, puede duplicarse infinidad de veces sin pérdida de
calidad. Sin embargo, no podía visionarse separado de las fuentes, como si lo
hacían los masters basados en cinta de vídeo.22
El Editdroid empleaba lectores de discos láser del tipo velocidad angular constante
(CAV en inglés), otros posteriores utilizaron los de velocidad lineal constante
(CLV).n. 9 Cuando la tecnología mejoró y aparecieron los discos láser de doble cara
y reproductores con doble cabezal el número mínimo de máquinas se redujo a dos.26
Al Editdroid le siguieron el CMX 6000 en 1988, el Epix en 1989 y el Laser Edit, que
ya introdujo los reproductores de doble cabezal.27 Todos ellos reducían bastante
los problemas de colapso, especialmente cuando surgieron los lectores de discos con
dos cabezales; pero no llegaban a eliminarlos. El tiempo de acceso a las imágenes
también mejoró notablemente al ser de dos segundos como máximo.26
Diferencias entre los distintos formatos de vídeo. Las dos normas de alta
definición, por sus grandes tamaños, escapaban en la práctica de las posibilidades
técnicas de la tercera generación.
En 1988 apareció el primer editor no lineal con todo el material almacenado en un
ordenador, desde las fuentes hasta el resultado final. Se llamó EMC2 y lo fabricó
Editing Machines Corporation usando como plataforma un IBM PC que comprimía las
imágenes usando el algoritmo intracuadro JPEG.n. 10 En un principio el sistema
utilizaba la resolución visible del NTSC (720 columnas por 480 líneas), pero se
amplió en versiones posteriores. Respecto al audio sus resoluciones podían variar
entre 16 y 48 kHz. En total poseía una capacidad máxima de 24 horas de material. A
este sistema le siguieron otros como el Avid Media Composer o el Lightworks.28
Según Rosenberg (2011), estos sistemas constituían una inversión considerable. Cada
uno incluía una tarjeta gráfica potente para mostrar las imágenes en pantalla, un
procesador también potente, una tarjeta compresora y descompresora para tratar el
algoritmo JPEG, mucha memoria RAM para la época y varios discos duros de gran
capacidad. Tanto es así que una hora de material en sistema PAL ocupaba 8.2
gigabytes (GB en adelante), cuando un gigabyte podía llegar a costar 1000 dólares
de la época.n. 11 Por lo tanto, un equipo capaz de editar una hora de programa
superaría el medio millón de dólares, solo en soportes de almacenamiento.n. 12
El Avid Media Composer, uno de los editores digitales con acceso aleatorio más
populares.
Ante las ventajas aportadas por la informática, expertos como Ohanian (1996)
presagiaban un momento donde la sala off-line y la on-line se unirían en un mismo
equipo, es decir, con un solo sistema se podría concatenar planos, incluir la
titulación, crear efectos digitales, añadir las capturas, los cromas o trabajar
varias pista de audio. Todo con calidad suficiente como para ser emitido. Desde
1992 fueron surgiendo productos capaces de manejar los brutos de cámara
directamente, pero fallaban a la hora de generar grandes efectos visuales.
El Avid Media Composer 8000 apareció en 1999. Podía producir anuncios y programas
de televisión con calidad suficiente como para sustituir a las dos salas.30 Esto se
debió a varios factores entre los que destacan el nacimiento de la familia de
algoritmos intercuadro.n. 13 Con algoritmos son diversos, uno de ellos es el MPEG
pero no es el único,31 el abaratamiento en los sistemas de almacenamiento, tanto de
memoria RAM como de disco, y las mejores en los programas para tratar imagen y
sonido.
El volcado del material continuaba siendo necesario en muchos casos, porque muchos
sistemas de registro grababan en formatos o soportes propios.32
La capacidad de realizar cualquier efecto estaba lejos de conseguirse por la falta
de potencia. Un Pentium II podía realizar como máximo 16 operaciones audiovisuales
por segundo, y no siempre, cuando manipular imágenes en movimiento, añadir
personajes o borrar cualquier detalle requería entre 64 y 128 operaciones, algo
solo al alcance de máquinas dedicadas como el Quantel Painbox.33
La posibilidad de generar cine digital también se veía lejana debido a la
resolución necesaria. La norma de televisión con más líneas era la PAL, pero el
formato de cine digital equivalente al 16 mm, el 2K, duplica esta cantidad y el
equivalente al 35 mm, el 4K, la cuadruplica;34 por lo que una hora de película a
estas resoluciones ocuparía 24 y 48 GB respectivamente, cantidades que sería
necesario multiplicar por 65 para digitalizar todo el material filmado. Cuantías
así escapaban con mucho de cualquier lógica económica.
Quinta generación (gestor de medios digitales)
La quinta generación de sistemas no lineales ya es capaz de crear cualquier imagen
en pantalla para vídeo y también para cine 2K o 4K.
La quinta generación de edición digital se diferenciaba de las demás por poder
trabajar con brutos de cámara digitales en su formato nativo, el Raw, y por poder
crear personajes totalmente virtuales partiendo de capturas de movimiento.35 Estas
capacidades hacían realidad el concepto de gestor de medios digitales, es decir, un
sistema o equipo capaz de generar y manejar todos o casi todos los efectos que se
quisieran, por complicados que llegasen a ser.36 Así, el Avid Film Composer podía
trabajar en resolución 4K y muestreo 4:4:4.n. 14 Se llegó al punto de que tres
estaciones de la familia Media Composer trabajando en red fueron capaces de crear
un personaje totalmente digital, Gollum, y gestionar los 128 000 GB de imágenes,
pertenecientes a 2200 horas de filmación obtenidas en la trilogía de El hobbit
(Peter Jackson, 2012).35 Esto se debió a la confluencia de varios factores:
Por una parte, la mejora en la tecnología de las memorias flash contribuyó a poder
almacenar 100 GB en una sola tarjeta de memoria.37 Gracias a esto surgieron cámaras
como la Red One, capaces de grabar digitalmente, a 30 cuadros por segundo y con
calidad cinematográfica.38
Futuro
Sin embargo, el mismo autor advierte que numerosos intereses no facilitarán esta
tendencia. El cine ha visto a la televisión como un medio competidor desde su
nacimiento, con razón o sin ella. Por tanto, siempre ha tratado de distinguirse
lanzando películas en tres dimensiones o ampliando la pantalla, inicialmente muy
parecida a la televisión. Según esto, concluye Carrasco (2010), posiblemente los
estudios de cine desarrollen nuevas normas para diferenciarse. Una opinión
diferente mantienen expertos como Nicholas Negroponte (1995), quien afirma que no
es el cine, sino la televisión quien tiene los días contados. Si bien el directivo
del MIT reconoce que la entrada de las TDT han aplazado su final, la potencia y
versatilidad de los dispositivos móviles condenarán a este electrodoméstico al
olvido, por lo que carecerá de sentido la existencia de otra norma que no sea la
del cine. Bien es verdad que con la entrada de los teléfonos con cámara incorporada
la cantidad de formatos existentes se ha multiplicado, como indica Carrasco (2010).
Véase también
Servidor de Video
Montaje
HDV
Efecto Ken Burns
Animación
Notas
De no hacerse así aparecerían las llamadas roturas en la pista en el vídeo y en el
sonido. Carrasco (2010, p. 43) y otros autores indican que la edición lineal
desapareció con la llegada de los medios digitales que no utilizan cintas con
pistas.
Esta edición también desapareció con la entrada de los equipos digitales que
graban en archivos independientes, reproducibles por orden alfabético, por peso del
archivo o por cualquier otro criterio.
Este paso era necesario porque la copia de trabajo sacada en el revelado solía
estar deteriorada por los sucesivos manipulados.
El no ver los cuadros solo fue uno de los problemas. Pese a ser Ampex la primera
empresa en lanzar la grabación en cinta, este soporte no llegó a convertirse en
algo homologado que se pudiera reproducir en cualquier magnetoscopio del mundo,
según Ohanian (1996). El autor utiliza el ejemplo de los sistemas de registro:
Hasta la década de 1970 las ediciones profesionales se realizaban en cintas de dos
pulgadas o 2'' (5.08 cm de anchura). En 1971 la empresa Sony comercializó el
formato U-Matic en cinta de 3/4 de pulgada (1.905 cm). En 1978 salió la cinta de
vídeo C1 de bobina abierta y una pulgada (2,54 cm), que se convirtió en el estándar
profesional durante la década de 1980 Ohanian (1996). Por su parte Sony desarrolló
en 1982 el Betacam, con 625 líneas de definición en cinta cerrada y pistas
helicoidales, inclinadas Konigsberg (2004, p. 116). Por si todos estos sistemas
eran pocos, Konigsberg (2004, p. 116 y 117) señala también la existencia de otros
semidomésticos, como el S-VHS o Hi-8, y domésticos, como el VHS del consorcio
liderado por JVC, el Betamax de Sony, el 2000 alemán o 8mm también de Sony. Sergio
Alcón Marcos (2014, p. 40) recoge la definición aproximada de dichos sistemas: los
semidomésticos contaban con una resolución horizontal (la cantidad de filas que
forman la imagen) de unas 420 líneas y los domésticos de una 250 como máximo. Según
Konigsberg (2004), toda esta variedad de tamaños, formatos y resoluciones
conllevaba varios procesos de conversión que a veces podían ser largos y caros,
necesitando incluso máquinas especiales.
Ampliar una secuencia requería volver a cortar, empalmar más metraje previamente
cortado y unir la parte ampliada con la siguiente.
Konigsberg (2004, p. 116 y 117) destaca la existencia de cintas de vídeo digitales
como D-1 de una pulgada (2,54 cm) o la D-2 de 3/4 de pulgada (1,9 cm), capaces de
generar sucesivas generaciones sin pérdida de calidad, pero aparecieron casi al
mismo tiempo que la tercera generación de sistemas de la edición no lineal, los
cuales trabajaban ya con discos de ordenador.
Este sistema francés lo adoptaron las colonias de París y la URSS por motivos
políticos, pero con la entrada de la televisión digital y la alta definición no se
intentó un SECAM digital, pasándose sus usuarios al sistema PAL digital, ver
Carrasco (2010) para más detalles.
Las películas de 16 mm o de 35 mm reproducían a 24 fotogramas por segundo, cuando
el NTSC lo hacía a 30 cuadros por segundo y el PAL a 25, ver Carrasco (2010, p.
133).
El tipo CAV permite movimiento lento, imagen congelada y el avance cuadro a
cuadro, a cambio de tener solo 30 minutos de imágenes por cara. Los de Velocidad
lineal constante (CLV) ofrecían 60 minutos de material pero sin las posibilidades
de los anteriores, según Ohanian (1996, p. 106 y siguientes)
El disminuir la cantidad de información tratando de no alterar la percepción
humana constituye una constante del mundo audiovisual desde sus comienzos. El que
las películas de cine se filmen y reproduzcan a 24 fotogramas por segundo perseguía
este mismo fin. Resultaría más agradable visualmente filmar a 40 o más, como se
hizo después con la entrada del cine digital; pero eso hubiera supuesto pasar de 20
kilogramos por película, incluida su lata de transporte, a casi el doble, lo que
imposibilitaría una distribución mundial o nacional (Carrasco, 2010, p. 41). De la
misma forma, para obtener una hora de material terminado se necesitan unas 65 horas
de negativos guardados en latas herméticas para evitar la luz. Cada lata solía ser
asegurada por si quedase inservible la película debido a un accidente y fuese
necesario repetir el rodaje. En caso de duplicarse el número de fotogramas por
segundo, y con él el de latas, sería necesario duplicar el importe de los seguros.
A la televisión, prosigue Cuenca, Garrido y Quiles (1999, p. 68), le sucede algo
parecido. El ancho de banda por el que se transmite no deja de ser un espacio
limitado y no puede ampliarse, crearía interferencias con radares, señales de
teléfono, satélites, etc. Por este motivo no se emite toda la información, sino que
se intenta adaptar al ojo humano, mucho más sensible a la luz que al color. Así
aparecen los muestreos 4:2:2, 4:2:0 o 4:1:1, donde la luminancia se muestrea
totalmente, pero los dos formatos de crominancia sufren una reducción.
El cómputo realizado por Rosenberg (2011) es el siguiente:
Una trama de 680 x 420 pixeles = 307 200 bits.
Cada pixel necesita 24 bit de color (ocho para el rojo, ocho para el verde y ocho
para el azul): 307 200 x 24 = 7 372 800 bits = 7.37 Mbits.
Cada trama coloreada es mostrada a un ritmo de 25 por segundo: 7.37 Mb x 25 =
184.25 Mb/s.
Cada hora se compone de 3600 segundos: 184.25 Mb/s x 3600 segundos = 662 400
Mbits/h.
Puesto que cada byte lo forman 8 bits: 662 400 / 8 = 82 200 MBytes, aproximadamente
82.2 GB.
Tras aplicarle una compresión por hardware del algoritmo JPEG sin demasiada
pérdida, un ratio de 10:1, la cantidad de memoria total sería: 82.2 GB / 10 = 8.2
GB.
Rosenberg (2004) calcula esta cifra partiendo del ratio 65/1, es decir, hacen
falta 65 horas de material bruto para obtener una ya editada, por tanto, si cada
hora ocupaba 8.2 GB y hacían falta unas 65 horas de material serían necesarios 533
GB de espacio en disco. Como cada GB costaba unos 1000 dólares, el monto total de
un equipo con esa capacidad podía superar los 533 000 dólares.
La diferencia entre la compresión intracuadro y la intercuadro es que la primera
comprime cada fotograma o cuadro por separado, la segunda comprime en su totalidad
el primer fotograma o cuadro y de los siguientes solo comprime la parte de la
pantalla que cambia, tomando el resto de la información del primero. Para imágenes
con mucho movimiento la diferencia entre una familia de algoritmos y la otra es
pequeña, pero cuando parte de la imagen permanece quieta la ventaja del intercuadro
es considerable.
La más alta calidad porque no tiene compresión con pérdida ni en la luminancia ni
en los dos canales de crominancia, ver Cuenca, Garrido y Quiles (1999, p. 68).
Referencias
Aguilera, Morante y Arroyo, 2011, p. 303.
Konigsberg, 2004, p. 183 y siguientes.
Espinosa y Abbate, 2005, p. 161.
Carrasco, 2010, p. 43.
Konigsberg, 2004, p. 327 y siguientes.
Konigsberg, 2004, p. 183.
Carrasco, 2010, p. 67.
Konigsberg, 2004, p. 183 y 184.
Ohanian, 1996, p. 30.
Pérez Vega y Zamanillo Sainz de la Maza, 2003, p. 21 y siguientes.
Pérez Vega y Zamanillo Sainz de la Maza, 2003, p. 72.
Carrasco, 2010, p. 33.
Ohanian, 1996, p. 31.
Ohanian, 1996, p. 31 y siguientes.
Ohanian, 1996, p. 69 y 70.
Ohanian, 1996, p. 128.
«CMX 600 Promo» (Vídeo) (en inglés). Sunnyvale: CMX. 1971. Consultado el 14 de
junio de 2014.
Konigsberg, 2004.
«CMX 600» (HTML) (en inglés). Sierra Madre: Archive.org. 2007. Archivado desde el
original el 10 de febrero de 2008. Consultado el 14 de junio de 2014.
Ohanian, 1996, p. 87.
Ohanian, 1996, p. 89 y siguientes.
Ohanian, 1966, p. 88 y siguientes.
Ohanian, 1996, p. 90 y siguientes.
Rosenberg, 2011.
Purcell, 2007, p. 2007.
Ohanian, 1996, p. 106 y siguientes.
Ohanian, 1996, p. 110 y 111.
Ohanian, 1996, p. 367.
Ohanian, 1996, p. 367 y siguientes.
Konigsberg, 2004, p. 184.
Cuenca, Garrido y Quiles, 1999, p. 105 y siguientes.
Alcón Marcos, 2014, p. 39.
«Quantel Paintbox Demo». Berkshire: Quantel. 1990. Consultado el 16 de junio de
2014.
Carrasco, 2010, p. 70.
«La trilogía de El hobbit cobra vida con la magia de Media Composer». Los Ángeles:
Avid Technology. 2014. Consultado el 19 de junio de 2014.
Ohanian, 1996, p. 299 y siguientes.
«RED ONE: the first 4K digital cinema camera from RED Digital Cinema» (en inglés).
Los Ángeles: Red.com. 2014. Archivado desde el original el 29 de septiembre de
2015. Consultado el 19 de junio de 2014.
«The History of RED Digital Cinema» (en inglés). Lo Ángeles: Red.com. 2014.
Archivado desde el original el 7 de septiembre de 2016. Consultado el 19 de junio
de 2014.
Reams, Patrick (1995). «Non-linear Editing» (en inglés). Londres: BBC.
Bibliografía
Aguilera, Purificación; Morante, María; Arroyo, Eva (2011). Vídeo digital
(Aplicaciones ofimáticas). Madrid: Editex. ISBN 9788490030806.
Alcón Marcos, Sergio (2014). Elaboración y edición de presentaciones con
aplicaciones informáticas - UF0329. Madrid: Paraninfo. ISBN 9788428337106.
Browne, Steven E. (2003). Edición de vídeo. Madrid: Instituto Oficial de Radio
Televisión Española. ISBN 9788488788535.
Carrasco, Jorge (2010). Cine y televisión digital. Manual técnico. Barcelona:
Ediciones de la Universidad de Barcelona. ISBN 978-84-475-3457-9.
Cuenca, Pedro Ángel; Garrido, Antonio José; Quiles, Francisco José (1999).
Codificación y transmisión robusta de señales de vídeo MEPG-2 de caudal variable
sobre redes de transmisión asíncrona ATM. Toledo: Universidad de Castilla La
Mancha. ISBN 9788484270133.
Espinosa, Susana; Abbate, Eduardo (2005). La producción de vídeo en el aula. Buenos
Aires: Ediciones Colihue. ISBN 9505817592. (requiere registro).
Evans, Russell (2006). Practical DV Filmmaking (en inglés) (segunda edición).
Oxford: Focal Press. ISBN 978-0-240-80738-6.
Jacobson, Mitch (2010). Mastering Multicamera Techniques: From Pre-production to
Editing and Deliverables (en inglés). Oxford: Focal Press. ISBN 978-0-240-81176-5.
Konigsberg, Ira (2004). Diccionario técnico Akal de cine. Madrid: Akal. ISBN
9788446019022.
Negroponte, Nicholas (1995). Ser digital. Buenos Aires: Atlántida. ISBN
9789500814737.
Ohanian, Thomas A. (1996). Edición digital no lineal. Madrid: Instituto Oficial de
Radio Televisión Española. ISBN 9788488788177.
Pérez Vega, Constantino; Zamanillo Sainz de la Maza, José María (2003). Fundamentos
de televisión analógica y digital. Santander: Universidad de Cantabria. ISBN 84-
8102-355-8.
Purcell, John (2007). Dialogue Editing for Motion Pictures: A Guide to the
Invisible Art (en inglés). Burlington: Focal Press. ISBN 9780415828178.
Rosenberg, John (2011). The Healthy Edit: Creative Techniques for Perfecting Your
Movie (en inglés). Oxford: Focal Press. ISBN 978-0-240-81446-9.
Enlaces externos
Avid Technology
Lightworks
Quantel
Videos Baratos
Clipchamp
Control de autoridades
Proyectos WikimediaWd Datos: Q1154312Commonscat Multimedia: Video editingWikibooks
Libros y manuales: Edición de vídeo
Categorías: Tecnología de vídeo y cineMultimediaEdiciónPosproducción
Menú de navegación
No has accedido
Discusión
Contribuciones
Crear una cuenta
Acceder
ArtículoDiscusión
LeerEditarVer historial
Buscar
Buscar en Wikipedia
Portada
Portal de la comunidad
Actualidad
Cambios recientes
Páginas nuevas
Página aleatoria
Ayuda
Donaciones
Notificar un error
Herramientas
Lo que enlaza aquí
Cambios en enlazadas
Subir archivo
Páginas especiales
Enlace permanente
Información de la página
Citar esta página
Elemento de Wikidata
Imprimir/exportar
Crear un libro
Descargar como PDF
Versión para imprimir
En otros proyectos
Wikimedia Commons
Wikilibros
En otros idiomas
العربية
Deutsch
English
Français
Italiano
한국어
Português
Türkçe
中文
11 más
Editar enlaces
Esta página se editó por última vez el 26 ene 2022 a las 15:16.
El texto está disponible bajo la Licencia Creative Commons Atribución Compartir
Igual 3.0; pueden aplicarse cláusulas adicionales. Al usar este sitio, usted acepta
nuestros términos de uso y nuestra política de privacidad.
Wikipedia® es una marca registrada de la Fundación Wikimedia, Inc., una
organización sin ánimo de lucro.