0% encontró este documento útil (0 votos)
44 vistas65 páginas

Tecnología - Final

Descargar como pdf o txt
Descargar como pdf o txt
Descargar como pdf o txt
Está en la página 1/ 65

Tecnología audiovisual - Parcial 1

¿De qué se trata la producción audiovisual?

El productor está a cargo de este proceso de idea a presentar y de completar las diversas
tareas a tiempo y dentro del presupuesto.

Es responsable del concepto, el financiamiento, la contratación y la coordinación general de


las actividades de producción.

La producción audiovisual

Planificación de Preproducción: De la Idea al Escrito


➢ Ideas de programa, modelos de producción, propuesta de programa, presupuesto y
guión

[¿Cómo hacemos que nuestro producto responda a las expectativas de la audiencia?]

Planificación Preproducción: Coordinación


➢ Personas, solicitud de instalaciones, horarios, permisos y autorizaciones, y publicidad
y promoción.

[¿Cuál es el personal más idóneo?]

Productor de Línea: Anfitrión y Supervisión


➢ Ser el anfitrión, observar el flujo de producción y evaluar la producción.

[Ser el anfitrión de las personas con las que vamos a trabajar. (los que llegan a grabar y
desconocen)]

Actividades Postproducción
➢ Edición de postproducción, evaluación y retroalimentación, y mantenimiento de
registros

Planeando la Preproducción:

Como productor, la preocupación principal es la planificación y coordinación de


preproducción. Debe cuidar todos los detalles necesarios para pasar con precisión y
eficiencia desde la idea inicial a las actividades de producción reales.
Para ser lo más eficiente y efectivo en las actividades de preproducción, nos enfocamos en:

1. Ideas de programas
2. Modelos de producción
3. La propuesta de programa
4. El presupuesto
5. El guión.

Generando ideas (1)

Todo lo que se ve y escucha en TV comenzó con una idea. Desarrollar ideas de


espectáculos buenas y especialmente viables de manera regular no es fácil. Como
productor de televisión, no puede esperar la inspiración divina ocasional, sino que debe
generar ideas valiosas a pedido.

Se puede superar esto al involucrar a varias personas para hacer una lluvia de ideas
(Brainstorming):

➢ Deberán sentarse en círculo y colocar una grabadora de audio en el medio.


Comenzar la sesión con algo neutral y abierto. A fin de que inicie un círculo de
aportes creativos.

➢ No critique nada de lo que alguien diga, aunque parezca totalmente ajeno a los
comentarios anteriores. El objetivo de la lluvia de ideas es romper los bloques
conceptuales y no ceder ni reforzarlos.

➢ Se puede encontrar que los comentarios que parecían menos evidentes disparan
ideas más fácilmente que los que parecían más apropiados.

Agrupamiento parcial:

➢ El agrupamiento es una forma de lluvia de ideas escrita. Se empieza con una idea
central y se ramifica a cualquier asociación se ocurra.

➢ Es una forma más estructurada de generar ideas, una especie de lluvia de ideas
mediante la cual se escriben las ideas en lugar de decirlas en voz alta. Para empezar se
escribe una palabra clave, y se encierra en un círculo.

➢ Entonces se pueden agrupar de ideas que se relacionan con la palabra clave. Es


más organizado que la lluvia de ideas, pero también es más restrictiva porque
muestra los patrones mejor que la lluvia de ideas, sirve bien como técnica de
estructuración.
Organización de las ideas

Una vez que haya decidido la idea general y el ángulo, el contexto general o enfoque se
puede preguntar a otras personas de la producción para desarrollar los detalles. No existe
una fórmula única o correcta para organizar ideas y traducirlas en forma efectiva en un
producto audiovisual porque la producción implica gran cantidad de actividades diversas pero
conectadas.

En el proceso de producción, varios elementos y tareas interactúan unas con otras para
lograr el deseado producto/programa que afecta al espectador de cierta manera. El proceso
ayuda a determinar qué personas se requieren, qué deben hacer y qué equipo es necesario
para producir un producto audiovisual específico.

Usando modelos de producción (2)

Los modelos de producción describen el flujo de actividades necesarias para pasar de la


idea al mensaje audiovisual. Ayudan a organizar el proceso de producción y facilitan la
coordinación.

Modelo de Producción Causa / Efecto:

➢ El modelo de producción Causa / Efecto salta desde la idea directamente al efecto


deseado: el proceso del mensaje. Luego respalda los requisitos de los medios que
sugieren los elementos y procesos de producción necesarios para producir el proceso
del mensaje definido.

➢ Define las líneas de flujo en preproducción y hace las actividades de producción


más eficientes y dirigidas a objetivos.

➢ Comienza con la idea básica, pero en lugar de pasar de la idea básica directamente al
proceso de producción, atraviesa el efecto de la comunicación deseado en la
audiencia objetivo. Este efecto es el proceso del mensaje, es el efecto combinado de
lo deseado lo que debe impulsar el proceso de producción, más que la idea inicial. Se
debe saber exactamente lo que desea lograr, lo que desea que la audiencia objetivo
aprenda, haga y sienta, antes de decidir los requisitos específicos del medio que
llevarían a tal efecto. Cuanto más coincida el Proceso del Mensaje Real (efecto del
espectador) con el definido, más exitosa será la comunicación.

[Qué efecto quiero producir y qué lo puede causar. Qué es lo que pretendo transmitir, y a
Quién.]

➢ La ventaja de este modelo es que la definición precisa del mensaje del proceso
ayudará a que las personas de contenido y producción trabajen en equipo y facilitar la
selección del personal y el equipo de producción necesarios.
➢ Al definir primero el efecto deseado en la audiencia, se puede decidir sobre las
personas específicas que necesita para hacer el trabajo (experto en contenido, escritor,
director y equipo), sobre dónde hacer la producción de manera más efectiva (estudio o
campo) y en el equipo necesario (cámaras de estudio o de campo, tipos de
micrófonos, etc.)

La Propuesta del programa (3)

Una vez que tenga una idea del proceso del mensaje y cómo desea comunicarlo, se puede
escribir la propuesta del programa, un documento escrito que estipula lo que pretende
hacer. Explica brevemente el proceso del mensaje y los aspectos principales de la
presentación, debe incluir como mínimo la siguiente información:

1. Título del programa o serie


a. Que el título sea breve pero memorable.

2. Objetivo (u Proceso del Mensaje)


a. Breve explicación de lo que debe lograr la producción. Se puede revisar el
Proceso del Mensaje para que sea menos formal.
b. Ej: "El Proceso del Mensaje es que los estudiantes de secundaria estén
expuestos a al menos cinco consecuencias de no respetar una señal de alto ",
puede escribir que El objetivo del programa es "advertir a los conductores
adolescentes que no pasen las señales de alto ".
3. Público objetivo
a. El público seleccionado o que desea recibir un mensaje específico.
b. Es el que principalmente le gustaría que viera el programa

4. Formato del programa


a. A diferencia de los géneros, que constituyen modos de narrar que atraviesan
diferentes producciones televisivas, el formato es aquello que confiere a cada
programa su particularidad.
b. Podemos entenderlo como una composición de rasgos artísticos, formales y de
contenido que hacen al producto audiovisual único y diferente de los demás.
Los formatos se distinguen por las características técnicas, narrativas y
artísticas que van a condicionar la producción de materiales de los distintos
géneros.
c. Un formato, entonces, específica:
i. El recorte temático del programa.
ii. Su estructura formal. Esto incluye, entre otras cosas, su duración, la
cantidad de capítulos o episodios, el número de bloques que tendrá y la
manera en que los contenidos se distribuirán en cada uno de ellos.
iii. Sus características artísticas y audiovisuales, tales como la
escenografía, la música, los efectos sonoros y el perfil que deben tener
los personajes o conductores.

5. Tratamiento del programa (generalmente incluye el punto de vista)


a. Breve descripción narrativa del programa

6. Método de producción
a. Dónde debe llevarse a cabo la producción y cómo puede hacerlo de la manera
más eficiente.

7. Presupuesto tentativo

La producción audiovisual

Definir la producción ¿Cómo llevar adelante la idea?

Presupuesto:

Debe incluir costos de preproducción, producción y postproducción, no solo de los


elementos obvios (guión, talento, alquiler de estudio, personal de producción y equipo y
edición de posproducción), sino también los que no son evidentes, como tarjetas de video,
accesorios, seguros, autorizaciones, comida, alojamiento, transporte y estacionamiento.
Hay distintas formas de presentarlo: separar los gastos de preproducción (guión, locaciones
y reuniones, búsqueda de locaciones y guiones gráficos), producción (talento, personal de
producción y alquiler de equipo o estudio) y postproducción (edición y diseño de sonido).

O dividiéndolo en gastos por encima de la línea y por debajo de la línea.

[Sobre la línea: lo que contrato] [Bajo la línea: técnica que ya tengo]

Los presupuestos por encima de la línea incluyen gastos para el personal como escritores,
directores, directores de arte y talento, llamado “personal creativo”. Se refiere a los que están
ocupados en la conceptualización de ideas y proceso de producción que transformarán las
ideas en producto.

Los presupuestos por debajo de la línea incluyen los gastos del equipo de producción, así
como el equipo y el espacio de estudio.

Dividir un presupuesto en categorías de Preproducción, Producción y Postproducción le


dará un desglose de gastos más viable que la división Por encima y Por debajo de la línea,
especialmente cuando tiene que ofertar en un trabajo de producción específico.
Signos

“Un signo, o representamen, es algo que está para alguien, por algo, en algún aspecto o
disposición” (Peirce)

1. Icono
2. Índice
3. Símbolo

Icono: Es un signo que representa a su objeto en función de una apariencia, de una


proporción. Hay algo en común entre el signo y aquello que representa. Sus rasgos visuales
se asemejan a los de la realidad. Pero no comparte otras características de aquello que
representa. Ej: Una fotografía o dibujo.

Índice: Signo que representan en función de la existencia. Ej El humo de un fuego, la huella


en el cemento fresco de que alguien pisó. [Hay algo que ocurrió que dejó su marca]

Símbolo: Cuando el signo y la relación con lo que representa se basa en una norma o
convención. Las palabras funcionan como símbolos. Ej perro.

Los tres niveles de signos coexisten.

Al ver una imagen:


1. Son signos, representaciones, no aquello que es en realidad, sino una manera de
representarlo.

2. Estamos viendo aquello que simula ser pero no lo es, vemos signos en las imágenes.

En el género periodístico y documental aceptamos que la imagen no sea la más nítida, la


mejor, el movimiento no sea prolijo ya que lo que vale es que registraron aquello cuando
ocurrió. El valor de la imagen es lo que ocurrió en el momento. Perdonamos que los
planos no sean los mejores, la luz, etc. (Indicial)

En películas de ficción. El carácter indicial no es tan importante, el carácter icónico es el que


prima.

Siempre hay una relación entre icono e índice.

Niveles de iconicidad

1. Fotográfico (es el que más se asemeja a lo que registra. Fotografía, Video)


Podemos leer distancias.

2. Animación (Imágenes generadas digitalmente)


3. Dibujos animados (Pueden ser creados con las mismas herramientas que la
animación, pero con un menor nivel buscado de iconicidad)

4. Texto (Representación simbólica. Nivel más alejado de iconicidad).

Podemos narrar con imágenes, con un mayor o menor nivel de iconicidad de acuerdo a la
idea, público, propósito. También podemos usar texto para subrayar alguna información.

____
Denotación y Connotación. Primer y segundo nivel de significación en el mensaje.
____

Signos

Cuando generamos Discursos Audiovisuales, la mayor parte del tiempo estamos generando
signos. En la escritura por lo general usamos signos que nos preceden, pero en la escritura
audiovisual se invierte, por lo general creamos signos (aunque no siempre es así, podemos
trabajar con signos visuales que no son propios Ej. Programas de Tv de archivos.)

Poner algo o alguien, frente a un determinado ambiente, grabo un determinado tiempo y dejo
de grabar. Esto es un plano, un registro en continuidad.

De cada plano podemos tener varias tomas.

O podemos generar digitalmente imágenes, una animación, con un mayor o menor nivel de
iconicidad (que se parezca a la realidad).

CGI: Imágenes Generadas por Computadora

También tenemos otras imágenes generadas digitalmente, los dibujos animados, que no
buscan asemejarse a la realidad.

Grado 0 de iconicidad: El texto.


Lo primero que tenemos que pensar
- El tamaño del plano. Una decisión en la que pongo en juego: cuanto muestreo del
entorno (ambiente) y cuanto muestro del Personaje (objeto). Cuánto muestro y cuánto
quiero ocultar, puedo mostrar u omitir información.

Escala de planos:
1. Plano General Largo
2. Plano General Corto
3. Plano Entero
4. Plano Americano (o Plano ¾ )
5. Plano Medio Largo
6. Plano Medio Corto
7. Primer Plano
8. Primerísimo Primer Plano (PPP)
9. Plano detalle
[La referencia es el sujeto]

1. Plano General Largo: Muestra un gran escenario o una multitud.

2. Plano General Corto: Se centra en los individuos restando importancia al entorno. Aún se
puede intuir la situación en la que están los sujetos, pero este aspecto es ya mucho más
secundario. ⅓ del plano lo ocupa el sujeto.
3. Plano Entero: Toma en conjunto la figura que estoy registrando.

4. Plano Americano o ¾ : Toma desde la cabeza hasta las rodillas aproximadamente.


5. Plano Medio Largo: Toma desde la cintura hasta la cabeza.

6. Plano Medio Corto: Toma desde la cabeza hasta mitad del pecho, mitad de torso.

7. Primer Plano: Toma desde la cabeza a la línea de los hombros.


7. Primerísimo Primer Plano (PPP): Enmarca el rostro. Planos de intimidad (zona íntima,
proxemia)

8. Plano Detalle: Recorte de la figura humana u objeto, un detalle.

Cuando hablamos de objetos.


1. Plano general largo
2. Plano general corto
3. Plano entero
4. Plano detalle

Es tan importante narrar como ocultar.

Cuando pensamos los signos audiovisuales tenemos que pensar:


1. Niveles de iconicidad
2. Escala de planos
3. Movimientos de cámara
4. Altura de la cámara
5. Angulación
6. Posición de la cámara
7. Color.
8. Profundidad de campo

Hay que pensar cada movimiento de plano y para qué sirve.

Movimientos de Cámara:
1. Cámara fija
2. Panorámica/Paneo (a izquierda o derecha); Tilt up/down
3. Zoom in/ Zoom out
4. Travelling (hacia adelante/atrás, lateral, progresivo, regresivo, circular); Steadycam;
Cámara en mano
5. Dolly (Grúa)
6. Dron

1. Cámara fija: La cámara no se mueve, queda en un soporte como puede ser el trípode.

2. Panorámica (Paneo/Pan): La panorámica puede ser una pasada acelerada con paneo.
Es el equivalente a girar rápidamente para ver algo. Movimiento de rotación de la
cámara sobre su propio eje, hacia la izquierda o hacia la derecha (Horizontal).
Movimiento que no desplaza la cámara, sino que la hace pivotar sobre uno de sus
ejes, horizontal (pan) o vertical (tilt). No varió la posición desde la que veo el mundo,
sino el ángulo. El paneo puede ser a la derecha o a la izquierda. Puedo usarlo con
fines descriptivos, contar sobre un ambiente por ejemplo. Podemos usarlo de manera
veloz (un barrido).

3. Tilt up / tilt down: Movimiento de rotación de la cámara sobre su propio eje, hacia
arriba o abajo (Vertical). El Tilt a menudo nos revela algo redireccionando
repentinamente nuestra atención. Ascendente o descendente. La cámara no se
desplaza en el espacio, no abandona el punto en el que está.

4. Zoom in / zoom Out (Travelling óptico): No es un movimiento, tenemos el Zoom in


(cuando nos acercamos) y el Zoom out (cuando nos alejamos). Nos acercamos o
alejamos visualmente, pero no cambia el punto de vista. Al modificar la posición hay
elementos que empezamos a ver y otros que dejamos de ver. Proyecta una idea de
falta de profesionalismo, propio del uso hogareño.

5. Travelling: Cuando ponemos la cámara en un riel. Se monta la cámara sobre un riel.


La cámara se mueve: hacia adelante, atrás, circular.
a. Traveling progresivo: Se acerca al sujeto, se cierra el plano.
b. Traveling regresivo: Se aleja del sujeto. se abre el plano.
i. Puede ser de acompañamiento
c. The pedestal Shot: Es el travelling ascendente o descendente. Mueve la
cámara hacia arriba y hacia abajo
6. The crane or boom shot: Inclina la cámara y usa un rango de movimiento más
amplio. (que el pedestal shot)

7. Steady cam or gimble: Puede tener el mismo efecto que el dolly porque la cámara es
estabilizada en el camarógrafo (operador de cámara) y se desliza con gracia dentro del
espacio. Un sistema de peso, equilibro para que el movimiento sea fluido

8. Handheld (Cámara en mano): Mueve la cámara a través del espacio como la steady
cam, pero tiene un estruendo, sensación de temblor que crea más ansiedad en el
espectador. Nos calzamos la cámara en la mano y registramos (logró una imagen
inestable.) Ej noticiero.

9. Dolly (Grua): Un movimiento suave a menudo en una pista (riel, vía) que mueve la
cámara a través de un espacio, creando un tipo diferente de experiencia visual que el
zoom o la panorámica. La cámara se monta en un dispositivo complejo que permite
transportarla en el espacio.

a. Reverse dolly: Combina Zoom y el dolly, utilizado para mostrar un personaje


que tiene una intensa experiencia interna (ej vertigo).

10. Dron: Nos permite tomar planos a determinadas alturas.

11. The rack focus: No mueve físicamente la cámara, pero mueve el lente. Al utilizarlo
atraes algo a la atención de los espectadores.

Todos esos movimientos de cámara son un conocimiento bastante común. Lo que


realmente hace a un gran cineasta es cómo se pueden combinar de maneras únicas.
Altura de cámara:
1. Cámara alta: sobre la altura de los ojos
a. 3 metros aprox
b. Levemente alta: un poco más arriba de la nuca
2. Cámara normal: a la altura de los ojos
3. Cámara baja: por debajo de la altura de los ojos (piernas)
4. Cámara al ras del suelo.

Podemos contar el mundo desde puntos de vista de los que no estamos acostumbrados. Es
un paso para escapar de la literariedad.

Angulación:
1. Cenital
2. Picado
3. Normal
4. Contrapicado
5. Supina

- Si el ángulo es paralelo es normal.


- Si miramos un poco hacia arriba es picado.
- Si miramos un poco hacia abajo es contrapicado.
- Si me recuesto sobre el cielo es supina.
- Si miro desde arriba hacia abajo, en línea recta, es cenital.
Posición de Cámara:
1. Frontal
2. Espalda
3. ¾ Espalda Izquierda
4. ¾ Espalda Derecha
5. Perfil Izquierdo
6. ¾ Perfil Izquierdo
7. Perfil Derecho
8. ¾ Perfil Derecho

Color:
1. RGB (Red Green Blue)
2. B/N (Blanco y Negro)
3. Sepia
4. Filtros
5. Saturado/Desaturado

Filtros: Para que se vaya el azul, rojo, verde, amarillo, etc.

Saturado/Desaturado: Saturar para que sean colores más vivos o desaturar para que sean
colores más apagados

Profundidad de campo:
1. Nítido
2. Desenfocado
3. Borroso

Nitido: parte o totalidad de la imagen. Lo nítido convoca mi atención, podemos destacar un


personaje. Con un gran angular podemos conseguir una mayor profundidad de campo.
Claridad de la imagen.
Desenfocado: parte o toda la imagen. Vemos algo no tan claramente, pero podemos
distinguir qué es lo que vemos.
Borroso: Leve o muy borroso. Vemos una mancha.
La producción de lo audiovisual

Elementos Técnicos:
1. Luz
2. Color
3. Transmisión
4. Reflexión
5. Absorción
6. Percepción
7. La Señal de Video
8. Análisis del color
9. Normas
10. Funcionamiento de la cámara
11. Objetivos
12. Características
13. Zoom

Longitud de onda de la luz

La longitud de onda de la luz


generalmente se expresa en nanómetros
(nm) que es una milmillonésima de
metro. La luz visible tiene longitudes de
onda comprendidas entre unos 400 nm
y 700 nm. Esta variedad de longitudes de
onda se denomina el espectro visible.

[Cuando trabajamos con imagen,


trabajamos con luz.]

[Mientras menos longitud de onda tiene,


más ondas entran.]

La luz blanca

La Luz blanca (natural) está compuesta por la suma de la luz de todas las frecuencias
visibles (colores), desde el punto de vista perceptivo es posible representar todos estos
colores a partir de luces de 3 colores primarios de la Síntesis Aditiva de color: Rojo, Azul y
Verde.
[ 1. Síntesis Aditiva: Sumo rayos de luz, y no luz reflejada. Ejemplo. Pantallas de celulares,
computadoras, etc.

2. Síntesis Sustractiva: Los pigmentos devuelven parte de la luz que reciben.

Rojo, Verde y Azul son los colores primarios, que forman los colores secundarios: Amarillo,
Cian y Magenta.

Al mezclar los colores Rojo, Verde y Azul se forma el Blanco.]

Reflexión

Es cuando total o parcialmente la superficie del cuerpo devuelve la luz incidente. Cuando el
pigmento de la superficie del cuerpo es blanco la reflexión la superficie devuelve toda la luz,
cuando es gris sólo un porcentaje del total en todas las frecuencias pero puede además ser
selectiva en relación a la frecuencia que devuelve (color) de ahí surgen las superficies de
color.

[Ej una ventana refleja la luz.


Cuando refleja toda la luz que le llega, lo que vemos es de color blanco. Y cuando no refleja
toda la luz que lo vemos es de color negro (Ausencia de color).]

[Puede ocurrir que no refleje toda la luz, ahí es cuando vemos su color.]

[Tambien puede ocurrir que tengamos gris: situación intermedia donde no se devuelve todo,
pero lo que devuelve mantiene la misma proporción del original. Lo que cambia es la
cantidad que devuelve, cuanto más claro es el gris devuelve más de la luz que le llegó.]
Absorción y Transmisión

Absorción: La luz incidente no es devuelta y se integra al cuerpo aumentando su


temperatura. Si la absorción es total la superficie del cuerpo es negra.

Transmisión: En la transmisión la luz incide por una superficie, atraviesa el cuerpo y sale
por el lado opuesto. Si el rayo de luz es coherente desde el otro lado se puede observar la
imagen original (vidrio de una ventana). Si no es coherente al emerger no recrea la imagen
(vidrio esmerilado) Si la transmisión es selectiva (sólo pasan algunas frecuencias) desde el
otro lado del cuerpo veremos solo esta (vidrio rojo, verde, etc)

[En la transmisión la luz atraviesa el cuerpo.]

[Filtros de densidad neutra, para que entre menos luz (en cámaras digitales).]

La transmisión ocurre cuando la luz atraviesa una superficie u objeto. Hay 3 tipos de
transmisión: directa, difusa o selectiva.

1. Transmisión directa: Es cuando la luz atraviesa un objeto y no se producen cambios


de dirección o calidad de esa luz. Por ejemplo, un vidrio o el aire.

2. Transmisión Difusa: Se produce cuando la luz pasa a través de un objeto transparente


sem-transparente con textura. Por ejemplo, un vidrio esmerilado o un papel manteca.
La luz es transmitida de manera difusa va a ser más suave, va a tener menos contraste,
va a ser menos intensa, va a generar sombras más claras y una transmisión más suave
entre luz y sombra que la luz directa.
[Llega la imagen incoherente.]

3. Transmisión Selectiva: Se produce cuando la luz atraviesa un objeto de color. Parte


de la luz va a ser absorbida y parte va a ser transmitida por ese objeto.

El ojo

El ojo humano ajusta la curvatura de cristalino para que la imagen se forme en la retina. La
luz a través del humor vítreo, llega al tejido retinal y la detectan los conos y bastones. Los
bastones detectan luz más débil, los conos trabajan a diferentes longitudes de onda (color).

Cuando los conos sensibles a las longitudes de onda largas son estimulados de forma
predominante, vemos el rojo.

Cuando los conoces sensibles a las longitudes de onda medias son estimulados de forma
predominante, vemos el verde.
Y cuando los conoces sensibles a las longitudes de onda cortas son estimulados de forma
predominante, vemos el azul.

[Primero vemos el azul.] [La luz nocturna por lo general se representa azulada.]

Fenómeno PHI

El fenómeno phi es una ilusión óptica de nuestros cerebro que hace percibir movimiento
continuo en donde hay una sucesión de imágenes. Es decir, a partir de la reproducción de una
serie de imágenes congeladas con una frecuencia determinada (velocidad de imágenes por
segundo) se percibe un movimiento continuo.

[Cuando registramos imágenes de un video, y superan cierto valor, van a generar una
sensación de movimiento (24 imágenes por segundo) si registramos menos no vamos a
percibir el movimiento como continuo.]

[Standard: 24 imágenes por segundo. El estándar de proyección es el doble 48 por


segundo.]

La persistencia retiniana hace posible, entonces, el fenómeno PHI a partir de 12 imágenes x


segundo. Asimismo, aunque percibamos movimiento, a partir de esa frecuencia de imágenes
por segundo observaremos otros fenómenos, llamado parpadeo. Para vencer ese fenómeno,
hay que reproducir la secuencia a partir de 40 imágenes x segundo, donde se producirá la
percepción de movimiento (debido al fenómeno phi) y no se observará parpadeo (debido a
que se ha superado la frecuencia crítica de parpadeo).

La Señal de Video

El objetivo de la cámara enfoca una imagen sobre el mosaico (target) dentro del dispositivo
sensor de estado sólido (CCD o CMOS). La luz crea un patrón de cargas eléctricas que
dependen de la cantidad de luz que incide sobre cada punto, que corresponden a las luces
y sombras del plano, el voltaje variable resultante - el video - nos proporciona una réplica
eléctrica de las luces y sombras.
[Cada corriente eléctrica replica la idea de lo que es la imagen en un color y eso se manda a la
cámara.]

La Señal de Video: La cámara televisión no responde a las diferencias de color. Detecta las
variaciones de brillo. Si colocamos un filtro de color frente al CMOS de la cámara, la señal
de vídeo corresponde a la cantidad de ese determinado color. Si tomamos tres filtros de color
rojo, verde y azul sus señales de video representarán los tres colores primarios esenciales que
se precisan para producir una imagen a color.

[Filtro = (bayer).]

Transmisión intermedio NTSC, PAL o SECAM. En la mayoría de los sistemas de televisión


SD (Definición Standard de calidad- 4/3) se utiliza, o bien 525 ó 625 líneas de barrido para
producir la imagen.

[Cómo codifican la señal:


- NTSC ( National Television Standards Committee)
- Normas del mercosur: PAL (Phase Alternating Line = alternancia de línea de fases)
- SECAM (Sequential Color and Memory)]

[Las computadoras hacen la transmisión instantánea.] [Los canales (cable) hacen el esfuerzo
de convertirlo en el momento.]
Normas: NTSC - PAL - SECAM

Pal* = Tambien Mercosur (Argentina, Brasil, Uruguay, Paraguay)

Efectos de distorsión (Gran Angular)

La lente gran angular parece exagerar la perspectiva. La profundidad y el espacio son


acentuados en exceso. Las cosas parecen estar más lejos de lo que están en realidad. Si se
desplaza una cámara o un objeto o sujeto axialmente con respecto al eje óptico de una
cámara gran angular su movimiento parece más rápido de lo que es en realidad. Una
persona que se acerca o aleja de ella parece que se desplaza con mayor rapidez de la normal.

[Tele - Normal - Gran angular (lentes)]

Profundidad de campo

La invención del objetivo Zoom ha cambiado todo esto. Este diseño tienen una distancia
focal que puede variarse continuamente y que el operador de cámara puede ajustar para
conseguir planos de cualquier tamaño dentro de su área de visión. Ya no es necesario
desplazarse o sustituir la lente para variar la toma.

[Cuando hacemos tele, el enfoque tiene que ser preciso, sino podemos encontrarnos con
cierto nivel de desenfoque.]
La digitalización de una imagen se basa en una división del espacio a modo de cuadrícula,
donde la unidad más pequeña se denomina píxel.

Para cada uno de los píxeles hay que guardar la información referente a la luminancia (brillo
o niveles de gris) y nivel de cada una de los componentes, V (verde) A (azul) y R (Rojo).

[Cuantos más píxeles más pesada la imagen pero mayor calidad tiene.]

La resolución espacial indica las dimensiones en píxeles de una imagen, es decir, el número
de píxeles que constituyen la altura y la anchura de una imagen.

En la figura se puede ver una representación a escala de la evolución de la resolución


espacial, desde la resolución estándar (SD, 720 x 576) hasta la ultra alta definición (UHD, 4K
y 8K)
Fotogramas por segundo

La frecuencia de fotogramas por segundo (Frame rate) de una secuencia se denomina


resolución temporal (temporal resolution). En cine se ha rodado a 24 fps, en la televisión
europea a 25 fps, y en Estados Unidos a 30 fps o a 29,97 fps. Las cámaras digitales pueden
grabar con estos valores de frecuencia y los sistemas de postproducción ofrecen herramientas
para hacer las conversaciones necesarias.

[Resolución espacial: cantidad de pixeles] [Resolución temporal: cantidad de imágenes]

El ajuste de la resolución temporal en la cámara afectará a la definición de los bordes de


los objetivos en movimiento y al efecto de desenfoque de movimiento (motion blur). Un
aumento en la frecuencia de captación implica un aumento de la velocidad de obturación
en la cámara generando imágenes más nítidas con un efecto de desenfoque de movimiento
reducido.

Frecuencias de fotogramas por segundo más habituales

➢ 25 fps - Es la frecuencia que se usa en la televisión PAL, en Europa y en las regiones


del mundo donde la electricidad es de 50 hz (Argentina, Brasil, Uruguay, Paraguay,
Australia)

➢ 29,97 fps - Es la frecuencia que se utiliza en la televisión en color NTSC, en Estados


Unidos y regiones del mundo donde la frecuencia eléctrica es de 60 hz (Resto de
América y Japón)

➢ 24 fps - Es la frecuencia que se utiliza tradicionalmente en cine.


➢ 23,98 fps - Es la frecuencia que se utiliza en el cine digital para facilitar las
conversiones a la frecuencia 29,97 de la televisión en color NTSC.

➢ 48 fps - Es un estándar de resolución temporal opcional en la exhibición de cine


digital - High Frame Rate (HFR)

Códec

El término códec, abreviatura de “codificador” y “descodificador”, es una especificación


que se ocupa de la conversión de una señal de video o audio en datos digitales.

La información resultante se guarda en un “formato” y se utilizará para la difusión o


almacenamiento de esa señal.

Códec de vídeo Códec de audio Metadata

El formato contenedor encapsula en un solo archivo el vídeo, el audio y los metadatos.

Un archivo audiovisual puede tener varios audios, varios vídeos y una cantidad variable de
metadatos. Todo este conjunto de componentes se compila en formatos contenedores
(container formats). Cada una de estas componentes está comprimida mediante un códec.
O sea, un archivo de vídeo tiene un formato contenedor y un códec, y dentro de un formato
contenedor puede haber distintos códecs.

Menú de exportación en DaVinci Resolve con desplegables para seleccionar el formato


contenedor (MXF) y el códec (DNxHR).

Como ejemplos de formatos contenedores conocidos se pueden citar:


➢ AVI, que es el contenedor estándar de los equipos de Microsoft,
➢ MOV, el de los ordenadores de Apple,
➢ y MP4 que es el contenedor genérico que se utiliza para los archivos codificados en
MPEG-4.
➢ En entornos profesionales de producción se utiliza frecuentemente el formato
contenedor MXF(Material Exchange Format); también se utiliza mucho MOV.
[El Codec es un programa instalado en la computadora, que permite codificar y decodificar.

Contenedores AVI (Audio y Video Interleave) límite de 4 Gigas. Esto nos obliga a
segmentar. Recomendación, usar un H264 (porque 4 gigas es muy poco, graba un minuto)

Los contenedores son cómo se arman los índices (para ir a buscar la información que se
guarda al grabar).]

Se diferencian dos tipos de comprensión (Codec):

La comprensión espacial trabaja únicamente con un fotograma (frame) basándose en la


redundancia o la similitud de los píxeles vecinos en la imagen, por ello se denomina tambien

Compresión Intracuadro (intraframe):

Se utiliza en los entornos de producción. Un ejemplo de comprensión espacial es JPG, que


se utiliza en fotografía y vídeo. Los códecs de vídeo DV, JPEG 2000 o los ProRes, usan la
comprensión intracuadro.

El submuestro de color (Chroma Subsampling) es un tratamiento consistente en reducir


las componentes de color, dado que la visión humana es más sensible al brillo que al color.
Para esto en lugar de la señal RGB se utilizan funciones derivadas de ellas:

Y (Luminancia) - Cb (Diferencia al azul) - Cr (Diferencia al rojo)

La Luminancia (Y) representa los niveles de brillo de la señal, es decir la imagen en blanco
y negro y Crominancia a las otras dos (Cr, Cb) representa las componentes del color.

Se conserva toda la resolución de la imagen en blanco y negro (brillo) y se elimina


información de color, manteniendo la sensación de calidad.
En una señal 4:4:4 (Y, Cb, Cr) no hay submuestreo de color, se trata de una señal por
componentes equivalente en calidad a RGB.

El submuestreo 4:2:2 reduce a la mitad la resolución espacial de las componentes de color


(Cb y Cr), preservando la señal de luminancia (Y).

El submuestreo 4:2:0 (equivalente a 4:1:1) reduce la resolución del color a una cuarta
parte, conservando la señal de luminancia (Y).

[Luma: Cantidad de luminancia en cada cuadrado]


[Croma: cantidad de color en cada cuadrado]

[Pierdo información pero el espectador no se da cuenta. (Información de color)]

La producción de lo audiovisual

[Formato JPG. En un cuadro de nueve pixeles, toma el del medio. Baja el peso.]

El submuestreo de color (Chroma Subsampling) es un tratamiento consistente en reducir el


número de píxeles que se códifican en las componentes de color reduciento la
información del mismo. Esta estrategía aprovecha que la visión humana es la más sensible
al brillo que al color. Así, se conserva toda la resolución de la imagen en blanco y negro
(brillo) y se elimina información de color, manteniendo la sensación de calidad.

En una señal 4:4:4: “Y, Cb, Cr” no hay submuestreo de color y, por lo tanto, se trata de
una señal por componentes equivalente en calidad a RGB. El submuestreo 4:2:2 reduce a la
mitad la resolución espacial de las componentes de color (Cb y Cr), preservando la señal de
luminancia (Y). El 4:2:0 reduce la resolución del color a una cuarta parte.

[Nos damos cuenta más fácil de las diferencias de nitidez, que las diferenciass de color
(porque la cantidad de bastones es mayor a la de conos, en los ojos. Ya que los conos, al
construir el color, se dividen en 3).]

Submuestreo de color 4:4:4, 4:2:2 y 4:2:0.

En flujos de trabajo de alta calidad y para la postproducción, lo mejor es trabajar en


4:4:4, es decir, sin submuestreo de color.

En algunos contextos profesionales se utiliza el submuestreo 4:2:2, también conocido como


“calidad de estudio” o “calidad broadcast”.

Para el vídeo doméstico, semi-profesional (prosumer) y para la difusión, lo habitual es


utilizar submuestreo 4:2:0.

La compresión temporal compara la información de cuatros sucesivos para encontrar


similitudes que se puedan expresar de forma más eficiente. Se denomina Compresión
Intercuadro (interframe) precisamente porque opera en una secuencia de imágenes en
movimiento, funciona con paquetes de frames LGOP (Long Group of Pictures) que se
codifican conjuntamente. Solo se guarda la información no redundante con respecto al
primer fotograma del grupo que se establece como referencia.

Se utiliza en difusión y es eficiente para la transmisión de vídeo, pero problemática para la


edición puesto que no existe una descripción completa de cada uno de los cuadros que
componen la secuencia. Son ejemplos conocidos de comprensión temporal MPEG, MPEG4
(H264) y HECV (H265).

Clasificación de los códecs (4 grupos):

1. Códecs nativos de cámara


2. Códecs de intermediación o de postproducción
3. Códecs de masterización y archivo
4. Códecs de difusión

Hay cámaras que ofrecen la posibilidad de grabar con códecs que pertenecerían tanto al
apartado de postproducción (por ejemplo, Apple ProRes) como al de difusión (por
ejemplo, H.264). Lo mismo ocurre con los sistemas de edición y postproducción que pueden
trabajar con cualquier códec.

2. Codecs de intermediación o de postproducción

➢ Se emplean en postproducción de alta calidad para el montaje online y para la


corrección de color.

➢ Mantienen la calidad de las imágenes originales con una comprensión mínima y


peso final de los archivos no muy alto.

➢ También se emplean códecs de intermediación para el montaje offline, creación de


dailies de visionado, etc. Tienen niveles mayores de comprensión y peso de
archivo. Existen muchos códecs de intermediación aunque los más utilizados para 4k
son los ProRes de Apple y los DNxHR de Avid.
➢ El flujo de transferencia binaria o tasa de transferencia (bit rate) índica el número
de bits que se transmiten por segundo. Se puede expresar en bits por segundo (bits
per second; bit/s) o en Bytes por segundo (B/s). Una de las mayores complicaciones
del 4k está en el tamaño de los archivos y el flujo de transferencia que genera su
reproducción.

3. Códecs de masterización y archivo:

➢ Terminada la postproducción se utilizará un códec de máxima calidad para archivar el


material. En este momento el espacio que ocupe el fichero ya no es tan relevante, se
utilizarán códecs sin compresión o con compresión sin pérdidas. Es habitual
utilizar secuencias de imágenes fijas, una imágen fija independiente para cada
fotograma. La ventaja es que si, por algún motivo, se corrompe un fichero, el resto de
los fotogramas quedan intactos.

➢ Hay cierta garantía de que el formato no quedará anticuado con el paso del tiempo.
Ocupan mucho espacio de almacenamiento. Los formatos más utilizados son DPX,
Quick Time (QT) sin comprensión y MXF. El formato DPX es más recomendable
porque MXF o QT demandan más capacidad de proceso a la máquina.

4. Códecs de difusión:
➢ El estándar de difusión del cine digital es el DPC (Digital Cinema Package) que
utiliza el códec JPEG 2000, secuencia de fotogramas con compresión JPG que se
encapsula en MXF. Tiene un sistema de encriptación para evitar usos ilegítimos de las
copias.

➢ Para la difusión en televisión se utilizan códecs orientados a optimizar el ancho de


banda de transmisión. Se utilizan los códecs MPEG2 p MPEG4 (H.264) para la
televisión digital de resolución estándar y de alta definición.
➢ El nuevo salto de esta familia de códecs es el MPEG-H Video, más conocido como
HEVC (H.265), el códec que se está utilizando para la ultra alta definición.
HEVC (H.265) es muy eficiente en la reducción de la tasa de transferencia, pero es
costoso a nivel de computación. Necesita mucho más computo que H.264 (hasta 10
veces más)

➢ Para la difusión de contenidos audiovisuales de alta calidad por internet existe la


norma MPEG DASH (Dynamic Adaptive Streaming over HTTP) que recomienda
para el streaming un encapsulado MPEG y determinados códecs, entre ellos HEVC
(H.265).

➢ Se empezó a hacer streaming 4k en MPEG4 (H.264) pero se necesitan por lo menos


20 Mbit/s para que funcione bien. Con HEVC (H.265) se puede hacer con 12-15
Mbit/s y probablemente en los próximos años se pueda bajar hasta a los 10 Mbit/s.

[Formatos intraframe: buena calidad, pero peso enorme.]

Formatos / Requerimiento de VIMEO

Códecs
➢ H.264: El H2.64 es un códec que balance una alta calidad visual con un tamaño de
archivo eficiente. Hay que elegir el H.264 de “perfil alto”, llega a resoluciones de
hasta 4k.

➢ Apple ProRes 422 (HQ): Este códec de calidad profesional asegura una alta calidad
para un vídeo codificado, pero resulta en un archivo mucho más grande que el H.264.

➢ H.265 (HEVC): Este códec de vídeo es compatible con resoluciones de vídeo de


hasta 8k y con vídeos de alto rango dinámico (HDR).

Tasa de transferencia de bits


La tasa de bits controla la calidad visual del vídeo y el tamaño del archivo. Si el software de
edición de video lo permite, elegir una tasa de bits “variable”.

Resolución: Video con relación aspecto de píxeles de 1:1 píxeles cuadrados


Reproductores de vídeo digital y formatos que leen:
➢ Pc - Laptops
○ MP4 - AVI - MOV - FLV - MKV - WMV

➢ Celulares - Tablets
○ MP4

➢ Tv digital con USB


○ MP4 - AVI - MKV

➢ Reproductores Portables
○ 3GP

➢ Consolas
○ MP4 - MOV - WMV

➢ Reproductores DVD
○ MPG - DVD

Formatos de compresión interframe


Formatos de compresión intraframe
1. Códecs nativos de cámara:

➢ Red: Tienen en su oferta cinco cámaras: Weapon, Scarlet-W, Raven, Epic y Scarlet
que pueden grabar a 8k, 6k, 5k o 4,5k. Todas ellas graban raw, con el códec
RedCodeRaw que admite distintos niveles de compresión en Apple ProRes o en
AVID DnxHR/HD.

➢ Blackmagic tiene varias cámaras que graban en 4k. La Ursa, Ursa mini y la
Production Camera 4k, pueden grabar en Raw (con compresión o sin ella) o en
ProRes / DNx, con curvas de gamma logarítmicas y con 12 f-stops de rango
dinámico.

➢ Aja Cion es una cámara de cine digital que puede grabar 4k en Apple ProRes 4:4:4
a 30 fps o a través de una salida AJA Raw hasta 120 fps.

➢ La Panavisión DXL es una cámara que puede grabar en 8k raw y, simultáneamente,


proxys en 4k (ProRes y Dnx). La Panasonic Varicam 35 permite la grabación en
códecs internos procesados (familia AVC Intra 4k, 4:4:4) y en raw sin compresión
en grabador externo del fabricante inglés Codex.

Algunas cámaras homologadas por Netflix

Las cámaras Arri Amira solo graba con códecs de imágen procesada (ProRes / DNxHD)
mientras que la Alexa puede grabar en procesado o en Raw sin compresión (ArriRaw).

Canon EOS C700 es capaz de grabar archivos 4,5 Raw a través de un grabador Codex e
internamente 4k en XFAVC. La C500 que graba 4k en una grabador externo en raw con el
códec CanonRaw y la EOS C200 con un códec llamado Cinema Raw Light.
Algunas de las cámaras homologadas por netflix

La Sony F65 graba 8k, aunque el procesado final está pensado para 4K; ofrece la posibilidad
de grabar en Raw comprimido con el códec SonyRaw. Los modelos F55 y F5 son cámaras
para el cine digital y la televisión. Tienen una variedad de códecs muy amplia y permiten
grabar en Raw mediante un grabador externo o internamente en 4k en códecs procesados.
En una zona intermedia encontramos la Sony FS7, para la grabación 4k utiliza un códec XAV
que está basado en MPEG.4 AVC (H.264)
Rango Dinámico y Profundidad de color
➢ Gamma Logarítmica
➢ Gamma Corregida
➢ Gamma Lineal

La ratio de contraste es el valor que expresa la capacidad de una pantalla para la


reproducción del contraste, la división entre el nivel máximo y mínimo de brillo que puede
reproducir.

Un tv cuyo máximo brillo es de 100 nits (cd/m2) y el mínimo es de 01 nits tiene una ratio de
contraste de 100/1 es decir de 1000:1. Este es el estándar actual para los televisores HD.

[En el gráfico se compara la diferencia de capacidad de la visión humana con las pantallas
convencionales y las nuevas de alto rango dinámico.]

Para registrar 14 o 15 f-stop de rango dinámico, las cámaras de cine digital aplican una
curva de gamma logarítmica que genera una señal de bajo contraste con una aspecto
plano y lavado. En postproducción se ajusta el contraste de una imagen adaptada a los 6-9
f-stops de los monitores actuales de 100 nits. Este procedimiento consigue más detalle en
las altas luces y las sombras.

[Reduce los niveles de luminosidad.]


Formas típicas de las curvas de gamma: Lineal, Corregida y Logarítmica.

Las normas técnicas de radiodifusión televisiva establecen el nivel máximo y mínimo de


brillo, niveles para el blanco puro y el negro puro, pero en cine digital o en las pantallas de
pc se utiliza una norma distitna por lo que se modifican los niveles de brillo y contraste del
máster en función del uso que se le vaya a dar: cine, televisión o internet.

Software para la postproducción

1. Edición de vídeo
2. Composición y efectos visuales (VFX)
3. Programas de generación de gráficos (CGI)
4. Corrección de color y procesos finales

Casi todos los programas profesionales de edición pueden trabajar en 4K. Es necesario
comprobar que los códecs están soportados por cada uno de los sistemas pero, con un
hardware adecuado, se puede editar un proyecto en 4K.

La interfaz de edición de Adobe Premiere Pro básicamente está dividida en 4 ventanas, la


ventana Proyecto, la ventana Línea de Tiempo, la ventana Monitor, y la Ventana Control
de Efectos.
[Referencias

➢ Ventana de Origen → 2
➢ Ventana Programa → 3
➢ Ventana Proyecto → 4 (no hay que borrar los clips. Solo fija las rutas, si se eliminan
los archivos antes de exportar)
➢ Herramientas → 5
➢ Línea de tiempo → 6 ]

Algunas de ellas tienen pestañas que habilitan otras: Mezclador de Audio, Historial,
Efectos y Transiciones de audio y video, etc.

[Separación de audios entre canales, podemos poner dos sonidos que se reproduzcan a la vez.

Hay que tener cuidado que el sonido de fondo no tape la voz, se recomienda usar
instrumental (si vamos a poner música), a un 30% de sonido (para que no tape)]

La ventana Proyecto es donde se importan los archivos de video, música, títulos, etc. que
van a formar parte del proyecto audiovisual final. El programa toma las “direcciones” (la
ruta donde están ubicados en la pc) Es importante no cambiarlos, ni eliminarlos mientras
se produzca la edición para que el programa los pueda ubicar para trabajar con ellos.

La ventana Línea de tiempo (Timeline) es donde se “bajan” los archivos y se editan,


fijando los cortes, dándoles una duración, poniéndole transiciones y efectos. Se puede
aumentar o disminuir el tiempo total que muestra según sea la necesidad.

La ventana Monitor tiene 2 sectores: 1) Origen (Source): es la que permite la


previsualización de cada clip de video individualmente y tiene elementos para determinar
su duración antes de incorporarlos a la línea de tiempo 2) Programa (Program): es la que
muestra la imagen del vídeo en donde está el cursor en la línea de tiempo.
En el Monitor de Origen (Source) se establecen los puntos de entrada y de salida, así
como las pistas de origen del clip (audio o vídeo). También se pueden insertar marcadores de
clip y agregar clips a una secuencia en un panel Línea de Tiempo.

En el Monitor de Programa (Program): Se pueden especificar los puntos de entrada y de


salida de la secuencia. Los puntos de entrada y de salida de la secuencia definen el lugar
donde los fotogramas se añaden o se eliminan de la secuencia.
La ventana Efectos permite visualizar los distintos tipos de Efectos y transiciones de audio
y vídeo. Una vez seleccionada la elegida, se “arrastra” a la Línea de Tiempo, sobre el clip
donde se aplica el efecto o entre los dos clips en que va a funcionar la transición y se suelta.
En la ventana Control de efectos; seleccionado el efecto o la transición se pueden fijar su
duración y características.

[Zona dentro de la ventana proyecto]

La ventana Control de Efectos permite fijar los valores de los efectos que se le aplican a los
clips. Hay efectos ya incluidos en los clips de la línea de tiempo. Movimiento (motion) es el
principal, permite hacer zoom in o out (Escala), rotarlos (Rotación) y cambiar de lugar el
centro de la imagen (Posición) lo que permite el reencuadre.

[Zoom digital. Cuando los valores son más de 100 estoy haciendo zoom in, cuando son
menores a 100 estoy haciendo zoom out.]

La ventana Título es el que muestra las características del formato de título seleccionado
para “bajar” a la línea de tiempo, este puede ser presentado (debajo), o fijado en el momento
(al costado), se puede, por ejemplo, modificar el tipo de fuente, darle distintos colores,
movimiento, bordes, sombras, etc.
[Al costado se puede elegir el tipo de fuente, dotarla de color, sombra, transparencia o no,
borde. Definir el tamaño y separación. Podemos ubicarla dónde queramos, incluso se puede
estirar.]

Ha llegado el momento de realizar el video. En términos del programa esta acción se llama
Exportar. Para hacerlo el programa “llama” a otro programa especializado en la tarea:
Adobe Encoder.

[Ventana de Exportación

Adobe encoder pasa de formato los archivos. Permite codificar y decodificar.


Trabajamos con Norma PAL

Toda latinoamérica tiene NTSC, salvo el mercosur original (Argentina - uruguay - paraguay -
brasil) usan PAL]

Al exportar uno puede elegir el formato en un menú desplegable y calidad de la


exportación (del video final).

[H264 Es la que piden los canales]


[Corrigiendo el color podemos mejorar la imagen. Al trabajar con luz podemos mejorar los
colores.]

[Expandir los canales de sonido: para que empiece y finalice con una música, no que se
corte]

El monitor Source no sólo muestra la imagen de los archivos de vídeo sino también cuando
se trata de archivos de audio la forma de la onda del mismo que muestra los distintos niveles
y características del sonido de acuerdo al momento en que fué registrado.
[Los fundidos están en la ventana de efectos dentro de la ventana proyecto]

[Match source empareja con el formato original]


Dirección

Nuestra experiencia hace que veamos el mundo desde un punto de vista, nuestros ojos.
Para verlo desde otro punto de vista, necesitamos trasladarnos. Necesitamos caminar, esto
demora un tiempo y también la observación de un espacio.

Lo maravilloso del lenguaje audiovisual es que saltamos de un punto de vista a otro.


Tenemos que usar este recurso como realizadores, y elegir cómo queremos contarlo (desde
que punto de vista).

Estamos expuestos a cambios de puntos de vista instantáneos.

Quienes disponen donde se ubican las cámaras tienen en cuenta la dirección (de miradas y en
la que los personajes se mueven).

Es la cámara la que define el punto de vista; y donde sitúa la cámara en relación a lo


grabado, define si eso avanza hacia la izquierda o a la derecha.

La dirección está dada por el punto de vista, es decir, por la ubicación de la cámara.

[Puede recorrer el mismo espacio, pero cambia el punto de vista (al cambiar la cámara) y así
el registro es a la inversa] [Mirar hacia la izquierda o hacia la derecha, depende de dónde se
ubique la cámara.]

Construir en más de un plano.

[Ej. A partir de direcciones de miradas opuestas, podemos construir una conversación]


Regla de eje de acción /Ley de eje de acción / Ley de 180°:

➢ Nos lleva a elegir ciertos puntos de vista para contar una acción y para omitir otros.

Plano de planta:

➢ Se registran en posición cenital. Al hacer un plano de planta tenemos que tener en


cuenta el eje de acción. El plano de planta nos ubica donde están los personajes y
donde situar las cámaras.

Eje de acción o Eje de miradas:

➢ El eje de acción (miradas) lo constituyen las miradas de los personajes, que son
opuestas y supuestas. Líneas imaginarias que trazarian sus miradas, una arriba de la
otra.

➢ Regla del eje de acción: Una vez que establezco el eje, y pongo la cámara de ese
lado del eje, el resto de cámaras deben de situarse del mismo lado del eje de
acción.

➢ Todas las siguientes cámaras tienen que estar en el mismo lado del eje de
miradas.

Tengo el eje estático de miradas: la cámara uno está de un lado del eje de acción y la cámara
dos debe estar del mismo lado, debemos respetar el lugar donde puse la primera cámara, para
no confundir al espectador. [Si las hubiera rotado, estaría mirando para el mismo lado el
personaje en el plano.]
En caso de NO seguir la ley de 180° (mal hecho) las cámaras se dispondrian de la siguiente
forma:

Podemos construir una historia:

Yo puedo contar que dos personas están cara a cara, cuando en realidad están mirando al
mismo lado. O podemos generar lo contrario.
Al cruzar el eje de acción se intercambian de lugar las miradas, porque vemos de otro
lugar.

Podemos usar un travelling circular, para mostrar a la audiencia que pasamos a ver la
situación desde el otro lado del eje. No es instantáneo por lo tanto no sorprende, pasa en
continuidad.
____

La línea que marca el eje de acción divide la escena en dos zonas situadas a cada uno de sus
lados.

1. Eje de acción dinámico: Eje de acción cuando las personas se mueven


2. Eje de acción estático: Eje de acción cuando no hay movimiento

Todas las tomas efectuadas desde un mismo lado del eje mantendrán la dirección de la acción
del sujeto en el mismo sentido pero si la cámara pasa al otro lado de la línea, la dirección de
la acción se invierte (Ej. campo de fútbol) Será preciso situar las cámaras siempre en un
solo lado de la línea imaginaria.

El denominado salto de eje que se manifiesta cuando pasamos de realizar tomas de los
sujetos desde un lado de la acción al otro lado, produce un efecto desorientador para el
espectador ya que el efecto que se produce es el de una inversión injustificada de la posición
y el sentido de la marcha de los sujetos.

Para ir del otro lado del eje de miradas (saltar el eje), sin que confunda al espectador
tenemos dos opciones:
1. Registrar un traveling circular
2. Dividir en tres planos:
a. Uno del que venía narrando
b. Uno segundo coaxial sobre el eje y neutro: Plano coaxial (sobre el eje de
miradas) y Neutro porque no hay una dirección, mira a cámara.
c. Y luego del otro lado del eje.

[Es posible cambiar o saltar el eje de acción pero sin confundir al espectador. Existe, formas
de paso estandarizadas para el salto de eje:

El eje puede pasarse gradualmente mediante una toma sobre el mismo eje (personaje de
frente o de espaldas) con lo que se sugiere el efecto de salto a la vista en el que el espectador
es consciente del paso al otro lado y, en todo caso, la toma frontal intercalada antes de la
realización del salto, al ser de carácter neutro distrae la atención del sentido de marcha
anterior evitando la brusquedad del salto perceptivo que se produciría si pasásemos por corte
de un sentido direccional opuesto.

Es posible efectuar, también, un cambio de eje de forma natural si el personaje da la vuelta


o girar a derecha o izquierda. En este caso es preceptivo registrar el momento del giro de
forma que el espectador vea claramente cómo varía el eje de acción y cuál es, a partir de ese
momento el nuevo sentido de la marcha.]

Regla de los 30°:

➢ Cuando voy a registrar de manera consecutiva a un mismo personaje, debe variar en


mi encuadre al menos 30 grados.

➢ Implica que o condensamos el plano o lo ampliamos (acercamos o alejamos)

➢ El nuevo plano debe ser lo suficientemente diferente del anterior para no percibir
discontinuidades.
Dirección

Planos coaxiales: Por lo general los planos axiales son frontales o de espalda. Coincide con
el eje de miradas. Es un plano neutro. En un plano neutro la Mirada o trayectoria no van ni a
izquierda ni a derecha, solo va hacia cámara.

[Frontal no necesariamente es neutro (si tenemos una dirección definida)] [El plano neutro no
necesariamente lo usamos para cambiar de eje]

[La dirección depende de donde ubico la cámara, está dada por el punto de vista.]

¿Cómo registrar una trayectoria rectilínea?

Trayectoria que hace el personaje en 2 espacios diferentes, la trayectoria verdadera es en línea


recta, el personaje no cambió nunca su camino.

[Es necesario respetar el eje de acción al representar la trayectoria rectilínea mediante varias
tomas realizadas desde diferentes emplazamientos de la cámara.

Las cámaras deben de tener sus ejes ópticos (línea imaginaria perpendicular al objetivo de la
cámara) formando el mismo ángulo con el eje de acción, lo que hace que el personaje, que
camina recto, entre en pantalla con el mismo ángulo en que sale, dando así una perfecta
sensación de continuidad lineal en el sentido de marcha.

Por otro lado, la distancia de las cámaras al eje de acción también tiene que ser igual en
una y otra toma, con lo que el tamaño del sujeto al salir de la toma es idéntico al tamaño que
tiene al entrar en ella.

Cuando el personaje se desplaza en diagonal hacia un lado de la cámara, si se aplican estas


reglas se obtiene igualmente una sensación de continuidad lineal, consiguiendo un efecto
equivalente al que obtendriamos si al pasar el sujeto por nuestro lado volviesemos
inmediatamente la cabeza para seguirle con la vista.]
[En ocasiones puede interesar que parezca que un individuo camina siempre en la misma
dirección cuando en realidad no lo hace. Para conseguir este efecto se registra desde un lado
del eje la dirección correcta. Luego se pasa la cámara del otro lado del eje y se registra al
personaje haciéndole caminar en sentido contrario al de la toma anterior. De esta forma, al
haber saltado el jee con la cámara, seguirá dándonos el mismo sentido de la marcha que en la
primera toma (se puede recurrir a este truco cuando se desea representar un trayecto en el
espacio reducido con un solo fondo)]

Tener en cuenta:
1. Distancia entre la cámara y el eje de acción (debe mantenerse igual)
2. Ángulo que crea el eje de acción y eje óptico (el ángulo debe replicarse, mismo
orden)

Como debe hacerse correctamente:

[La flecha negra de abajo es la representación de la trayectoria del personaje dentro del
plano]

Como no debe hacerse (manera incorrecta):


[No es una trayectoria rectilínea en este caso, ya que el ángulo es distinto]

[Se mantiene la dirección, se mantiene el ángulo que conforma el eje óptico y el eje de
acción. Es una trayectoria rectilínea que no se percibe así en el plano.]

Manera correcta de registrar una curva

A las curvas hay que registrarlas desde afuera.

[Cuando el personaje realiza un trayecto curvilíneo y se desea que el espectador conozca no


sólo el sentido de la marcha, sino que además se consciente del recorrido efectivamente
realizado por el sujeto, deben observarse dos reglas:

1. No hay que realizar tomas desde el interior de la curva (desde dentro)


2. No hay que realizar tomas a través de la curva
Registrar desde el interior de la curva, no recoge el movimiento curvilíneo sino que dará la
sensación de un desplazamiento en línea recta.

Registrar a través de la curva presenta al sujeto desplazándose en cuadro en sentido inverso a


la toma anterior.]

[Mantiene la dirección en tanto al eje de acción.]

Registrar a través de una curva: No se debe hacer (Modo Incorrecto). Cambia el eje de
acción. El personaje varía la dirección en que se mueve en el plano.

Registrar desde adentro de la curva: No se recomienda registrar desde adentro del plano
1. Puede interpretarse como que el personaje gira sobre su eje, y vuelve sobre sus pasos
(a su lugar de origen).

2. o en panorámica: se mantiene el tamaño de plano, no podemos leer si se acerca o


aleja. Pierdo la sensación de la curva. (No correr riesgo de que esa instancia de
recorrido no se perciba.
Plano - Escena - Secuencia

Plano: Durante el rodaje, se utiliza como equivalente aproximativo de “cuadro”, “campo”,


“toma”: designa a la vez un cierto punto de vista sobre el acontecimiento (encuadre y una
cierta duración). Durante el montaje, la definición de plano es más precisa: se convierte en la
verdadera unidad del montaje, el fragmento de película mínima que, ensamblada con otros
fragmentos, producirá el filme.

Generalmente, este segundo sentido domina sobre el primero. Lo más normal es definir el
plano implícitamente (y de forma casi tautológica) como “todo fragmento del filme
comprendido entre dos cambios de plano”; y, por extensión, en el rodaje el “plano”
designa el fragmento de película que corre de forma ininterrumpida en la cámara, entre
la puesta en marcha de la camara y su detención.

[Un plano es lo que transcurre entre un plano y otro. El plano se define por el intervalo
entre el inicio de la cámara, y el corte. (plano de edición).]

Escena: En una película narrativa, se trata del conjunto de planos unidos por un criterio de
unidad de espacio o de tiempo en el relato. La trama de un film está compuesta por una serie
de escenas (claramente separadas de acuerdo con el guión) que se definen por cómo se va ir
armando la narración en cuanto a su efecto diegético, no por la locación en el rodaje. (...). Y
en el cine primitivo, la equiparación entre plano y escena sostuvo una forma de narrar
estabilizada durante casi un par de décadas y fundada en el modo de articular la acción en el
teatro.

[Es un fragmento de un discurso audiovisual que da cuenta de una unidad espacio temporal.
Es una unidad espacio-temporal (de espacio - tiempo).]

Instancia mayor que las otras dos → Secuencia

Secuencia: Se trata de una unidad narrativa mayor que la escena y organizada de acuerdo a
un criterio dramático, que relata desde el comienzo al fin un acontecimiento, atravesando por
la común varios lugares y momentos diferenciados. Una secuencia posee un inicio, un
transcurso y una conclusión narrativa luego de un momento de tensión máxima. A diferencia
de la escena, que encontró su modelo fundante en el acto teatral y así atravesó una década
larga del cine primitivo, la secuencia (a veces comparada algo vagamente – y con los riesgos
consabidos – con un capítulo de novela) obedece a patrones específicos ligados a la estructura
del relato.

[Unidad de sentido. (Es como el cap de una novela. Una secuencia puede no resolverse en un
mismo espacio.)]

- Una secuencia puede resolverse en una escena


- Una escena puede resolverse en un plano
Banda sonora: ¿Cómo se compone?
1. Palabra:
a. Voz In → Habla el personaje en cámara

b. Voz out → El personaje habla pero está fuera del plano

c. Voz through (Voz A través) → No se ve que el personaje está hablando, pero


está en cámara.

d. Voz off → Desprendimiento entre el tiempo y el espacio de la palabra, y


aquello que estamos viendo. Descalce entre tiempo y espacio de la imagen, y
tiempo y espacio de la palabra. Aquello que dice no se dice en el momento de
la historia que vemos en las imágenes.

e. Voz over → Voz que no es del personaje, es la voz del narrador o locutor. No
forma parte de la historia, se clasifica como extradiegético.

[Diegético: forma parte de la historia narrada Extradiegético: no forma parte de la historia


narrada]

2. Efectos de sonido
3. Música

[Podemos utilizar distintas musicas, para dar la idea de que es otra época. Paisajes
sensitivos (ritmo alegre, ritmo lento) Ubicar geográficamente la historia (tango: cerca del
río de la plata, etc)]

4. Silencio
Ethos - Pathos - Logos

Los modos de persuasión están en la raíz de toda publicidad. Esos modos se llaman ethos,
pathos y logos. El corazón de toda publicidad es la persuasión. Y los modos de persuasión no
solo ayudan a las personas a anunciarse. Ayudan a las personas a vender ideas. Ayudan a las
personas a vender programas de televisión, películas ... incluso a sí mismos.

Aristoteles: “De los modos de persuasión proporcionados por la palabra hablada hay tres
tipos. El primer tipo depende del carácter personal del hablante; el segundo en poner a la
audiencia en un cierto estado de ánimo; el tercero en la prueba, o prueba aparente,
proporcionada por las palabras de discurso mismo”

Los tres modos de persuasión (tres ejes del guión)


1. Ethos (disposición o carácter)
2. Pathos (emoción o pasión)
3. Logos (argumento o discurso)

Estos modos se denominan estrategias éticas o recursos retóricos.

1. Ethos: Lo ético.

[La persona (de la publicidad) impregna al producto. Lo traslada al producto. Ej la pericia de


messi, si uso la misma ropa que él, voy a hacer deporte como él.]

Ethos es el uso de "ética" para hacer un argumento moral. Se refiere a la credibilidad


declarada o una postura autorizada sobre un tema. Puede usar las palabras de un
instructor, médico, experto o filósofo. El punto es que el ethos se logra citando a alguien
conocedor y produciendo hechos. Los números y las citas fundamentan y hacen parecer
confiable al discurso.

Ethos en la publicidad. La publicidad con ethos se trata de convencer a un consumidor de


que su empresa es más creíble y confiable que cualquier otra. Ethos a menudo utiliza el
respaldo de celebridades, declaraciones de hechos y ejemplos de la vida real para certificar su
prominencia.

Cualquier respaldo de celebridades es obra del ethos. Ej publicidad de Messi con Adidas.

¿Hay algo ético que valide esta cuestión?


2. Pathos: Refiere a la emoción. También ligado a un componente racional.

Pathos es el uso del "atractivo patético". Esto es atractivo para las emociones o el
sentido de identidad de las personas: la "empatía". Cuando se puede hacer que los
consumidores sientan una emoción o apelar a su sentido de identidad, está utilizando pathos.
¿Puedes hacerlos enojar por una causa? ¿Puedes hacer que se sientan culpables por no hacer
algo? Estás usando pathos

Pathos en la publicidad. Pathos tiene que ver con asegurar obtener respuestas emocionales
de los espectadores. Puede ser positivo o negativo. Por ejemplo en anuncios de reflujo ácido
vemos personas con dolor, pero la medicina las mejora. O los anuncios donde vemos
personas divirtiéndose o haciendo buenos trabajos. En estos casos la pregunta implícita sería
¿Cómo puede su producto ayudar a mejorar sus vidas?

¿Cómo me ligo desde la emoción con esto?

3. Logos: La lógica, lo racional.

Logos es el uso de argumentos lógicos y evidencia empírica para apoyar su punto de


vista. Aquí es donde entran en juego los hechos, la investigación e incluso la lógica inherente
del consumidor. Si se arroja una manzana, se cae, eso prueba la gravedad. Pero si se cuenta la
historia de Isaac Newton y se habla sobre su proceso para encontrar la gravedad, incluida la
manzana que cae del árbol, y se describe la matemática de la fuerza gravitacional, se está
usando el logos.

Logos en publicidad. Un anuncio que use logos le proporcionará la evidencia y las


estadísticas que necesita para comprender lo que hace el producto y cómo puede
mejorar su vida aún más de lo que era antes de usarlo. Los hechos utilizados aquí deberían
ser los "hechos directos". cosas como "obtienes el 100% de tu vitamina D de un vaso de
leche" o "una hora de juego ayuda a prevenir la obesidad infantil". Ej lemas en la botella
como "10% más que otras marcas"

¿Cómo me ligo desde lo lógico con esto?

Podemos usar las tres vehículizaciones. Ethos - Pathos - Logos

Cómo funcionan en conjunto. Si bien se puede crear un anuncio que solo use una de las
palabras, estas ideas funcionan mejor cuando están unificadas. Las empresas intentan
orientar sus campañas para utilizar las tres.
Estructura de tres actos

La mayoría de las películas hechas hoy se basan en guiones de tres actos. Y la estructura de
tres actos tiene sus raíces en las antiguas representaciones. ¿Por qué todos lo usan? Porque
funciona. Está probado en el tiempo.

La definición de estructura de tres actos es un modelo narrativo que divide una trama en tres
secciones. Tiene sentido total. Estas secciones representan acción ascendente y descendente.
Se les conoce comúnmente como la configuración, la confrontación y la resolución

La estructura de tres actos establece una base sólida en el acto uno, le permite explorar el
mundo y las apuestas en el acto dos, y luego le da tiempo para envolver los arcos
emocionales en el acto tres. Una forma de verlo es: Acto Uno es "inspiración", Acto Dos es
"crear" y Acto Tres es "filosofía"

Estructura:
1. Planteó: Conocimiento del mundo que se propone, del personaje
2. Desarrollo: vicisitud que voy a plantear en ese mundo
3. Desenlace/Resolución: cierre del planteo

Acto uno - Planteo

Tener un primer acto sólido le permite a la persona que lee su guión saber que está en buenas
manos. No podemos exagerar el valor de esto. Los mantendrá leyendo. Hay muchas cosas
que buscar desde el principio, como introducciones de personajes y descripciones de escenas
fuertes. Principalmente, el 1er acto debe configurar nuestro mundo y hacer que nuestra
historia avance. El acto uno tiene que ser estricto, hay que tomar al espectador desde las
primeras páginas y mantener la historia avanzando. Hay excepciones a cada regla pero en
general el acto uno debería ser económico.

Lista de verificación del segundo acto


1. ¿Dónde estamos en el mundo?
2. ¿Qué año es? (Presente, pasado, futuro)
3. ¿Con quién nos encontramos? ¿Qué personajes pueblan este mundo?
4. ¿Cuáles son los riesgos? ¿De qué se trata esta película? (Tema y cuento)
5. ¿Qué podemos esperar que suceda en el transcurso de la película?

Acto dos - Desarrollo

El segundo acto es la porción de "confrontación" de la estructura de tres actos. El segundo


acto es realmente el mapa de cómo llegar.

¿Qué esperan los lectores y espectadores del acto dos del guión? El segundo acto es cuando
la carne de la historia sucede. Estamos empujados hacia el movimiento de avance de la
historia, y nuestros personajes tienen que empezar a intentarlo y fracasar, para lograr lo que
quieren.

El otro objetivo del segundo acto es que también es donde se explorará la historia B. El
segundo acto es importante y hace el trabajo pesado del guión. Es donde se obtienen las
respuestas que plantea en el primer acto, y puede hacer más preguntas que pueden ser útiles
en el tercer acto.

Lista de verificación del segundo acto:


1. ¿Tienen tus personajes un objetivo claro? ¿Están tus personajes tomando medidas
para lograrlo?
2. ¿Se puede introducir un bloqueo de tiempo? ¿Qué está empujando a estas personas
hacia adelante?
3. ¿Tienen una fecha límite?
4. ¿Cuál es tu historia B ?¿Cómo apoyará la historia B la historia A?
5. ¿Qué más podemos aprender acerca de sus clientes potenciales?
6. ¿Podemos llevar a los espectadores a lugares más profundos emocionalmente?
7. ¿Cuáles son los obstáculos que enfrentarán para completar su objetivo?

Acto tres - Resolución

El tercer acto es donde todo llega a un punto crítico. Los personajes tienen que confrontar
sus sentimientos, deseos y metas. En el acto tres es que es donde se comienzan a ver todos los
beneficios del arduo trabajo. Los ritmos emocionales están a punto para llegar a destino. El
tercer acto consiste en atar cabos sueltos. Al comienzo del tercer acto, los personajes
deben enfrentar su mayor desafío, o al menos encontrarse con un gran problema que
posiblemente no puedan superar. Esto tiene que vincularse naturalmente con el segundo
acto, y debe reflejar que el conjunto de temas es el primer acto.

En el tercer acto, todo se trata de consecuencias. Hemos visto a estos personajes tomar
decisiones e intentar y fracasar, ahora se trata de lidiar con ellos, llegar a un acuerdo con esas
consecuencias y luego dejar a la audiencia con su mundo cambiado.

Lista de verificación del tercer acto:


1. ¿Han alcanzado sus personajes su punto más bajo?
2. ¿Cómo están haciendo frente a esa pérdida?
3. ¿Cómo están tratando de alcanzar plenamente su próximo objetivo?
4. ¿Son una persona que ha cambiado? ¿Para bien o para mal?
5. ¿Qué hacen para tratar de recuperar todo?
6. ¿Es una última parada? ¿O están abandonando todo y alejándose?
7. ¿Cuál es nuestra escena final? ¿Cómo le decimos a la audiencia que esta historia está
completa?
8. ¿Lo dejamos sin resolver, o hay esperanza confirmada?
Construcción del tiempo narrativo

[Hacer un guión: Que trabaje lo narrativo, pero no solo lo narrativo.]

Tiempo de orden narrativo

➢ Lineal Continuo: las escenas se suceden cronológicamente en sucesión única; no hay


saltos temporales ni espaciales de modo que los cortes sólo establecen una selección
de momentos significativos.

➢ Lineal Condensado: la narración es continuada y lineal, pero comprende distintas


etapas de una anécdota o proceso que se suceden en diferentes épocas y lugares.
(MICRO ELIPSIS)

➢ Alterno (Montaje Alterno): se intercalan dos o más líneas narrativas, manteniendo


entre ellas una correspondencia temporal estricta (simultaneidad) y suelen unirse en
un mismo hecho al final del film o de la secuencia.

➢ Alternativo: lo que se intercala son planos (una persecución), no escenas.

➢ Paralelo (Montaje paralelo): dos o más líneas narrativas se suceden en forma


intercalada produciéndose una asociación de ideas. Las diferentes acciones
intercaladas sucedan en tiempos diferentes y/o en espacios diferentes. La finalidad es
hacer surgir un significado a raíz de su comparación.

➢ Invertido: se altera la sucesión cronológica para mostrar el pasado (flash back) o el


futuro (flash forward)

Sintaxis espacio-temporal

1. Tiempo lineal: El más esencial de todos. Una acción sucede a la anterior.

2. La Elipsis: que acorta parte de la narración, produciendo un aceleramiento del


tiempo. El espectador comprende de inmediato y sin ayuda la transición.

3. La Elipsis Indefinida: que a diferencia de la primera, requiere de la ayuda de algún


elemento para ser comprendida: un cambio de maquillaje, un modelo de auto; o un
personaje con otra edad.

4. La Repetición: de uno o varios sucesos, significando paso de tiempo.

5. La Distensión: que es la prolongación de los tiempos, haciendo que un suceso dure


más que en la realidad.
6. El «Flashback»: que es un retroceso en el tiempo [Contar lo que ya pasó.]

7. El «Flash-Forward»: que es lo mismo pero hacia el futuro. [Contar lo que podría


pasar.]

Al trabajar en una línea narrativa utilizamos las elipsis. Consiste en omitir ciertos tiempos en
mi relato. No contamos todo. Omitimos lo que no es importante.

[En la construcción narrativa se realizan elipsis de tiempo, se seleccionan sólo las vistas más
significativas de forma tal que permitan la reconstrucción de acciones y de situaciones sin
necesidad de respetar el tiempo real ni mostrar las partes del proceso que no son interesantes
a efectos de la comprensión del relato. (no se presenta todo el trayecto)]

Podemos contar más de dos líneas narrativas al mismo tiempo. Alternando entre
personajes. Si se da al mismo tiempo narrativo, se llama montaje Alterno (relato alterno.
Voy de un lado al otro). (mismo tiempo, distinto espacio)

Cuando ocurre en dos tiempos diferentes, es un relato paralelo, implica que no estén al
mismo tiempo. (distinto tiempo, mismo espacio)

Estructuras narrativas:
1. Elipsis:
a. Mismo personaje
i. Elusión del tiempo. Cambia el tiempo
ii. puede ser el mismo espacio o no

2. Escena:
a. Mismo personaje
i. Mismo tiempo
ii. distinto espacio

Lineal condensado: Micro Elipsis

3. Montaje paralelo
a. 2 personajes diferentes
b. Mismo lugar/Dif lugar, 2 momentos distintos

4. Montaje alterno
a. 2 personajes diferentes. Tiempo 1 espacio 1, tiempo 1 espacio 2
b. Mismo momento 2 lugares distintos

[En el montaje alterno o paralelo necesariamente deben haber 2 personajes dif. o un personaje
y otro objeto]
Importante:

1. Regla de 30 grados es vital porque enmascara errores que podemos cometer, o que
necesitamos cometer.

2. Cómo podemos evitar las instancias narrativas cuando demandan un tiempo


importante, sin modificar la linealidad narrativa.

3. Proyección de un futuro posible si uno continúa con esa acción.

Institucional

Al hablar de comunicación institucional nos referimos a dos procesos paralelos y


co-implicados: por un lado, la comunicación interna de la institución y, por otro, la externa.

Este tipo de comunicación responde a la necesidad y tiene como fin construir una
identidad, una imagen sólida que reconozcan las demás instituciones, usuarios y clientes
reales o potenciales.

La identidad es la percepción que de sí mismo tiene algo. Esta percepción está influida por
las experiencias que la organización tiene de sí misma.

Definida y reconocida la propia identidad, sus expresiones configurarán la imagen


intencional, es decir, aquello que la organización pretende que se constituya como referencia
de ella en la sociedad. Esta imagen intencional, será captada por las personas y convertida en
imagen real, que es como la sociedad ve a la organización.

A través de los atributos de identidad busca influir en la imágen.

Video institucional: “Tiende a presentar visiones de la empresa o institución; suelen ser


videos generalistas. Ofrecen un panorama amplio de la entidad y pueden tener un destino
para públicos generales y especializados. Es una difusión de imagen apoyada en datos y
muestra de la gestión y actividades. Describe cómo es la institución o empresa, sus objetivos,
organización y funciones. Suele efectuarse un recorrido por las secciones o departamentos
con descripción de las actividades de cada uno, a veces mediante la presencia de sus
correspondientes directivos.”
Publicidad de producto Publicidad corporativa (institucional)

El objeto de la comunicación: Se trata de un El objeto de la comunicación: Se trata de


producto o servicio. empresas, corporaciones o instituciones.

La publicidad de productos erige


temáticamente el centro del discurso al
propio producto o servicio.

Utiliza espacios publicitarios para anunciar Utiliza espacios publicitarios para


productos o servicios comunicar institucionalmente los programas
y programaciones del día o semana.

Estructuralmente, se destaca por ser de corta En la publicidad institucional el tiempo del


duración. discurso se extiende dada la amplitud
conceptual del objeto de comunicación
En la publicidad de productos, las “empresa/institución”.
secuencias y el tiempo del discurso suelen
ser breves y están relacionados con el
impacto, la recordación y los altos costos de
emisión televisiva.

Institucional:
➢ Temáticamente convierte en eje del discurso a la propia empresa o institución. Para
ello recurre a los temas propios de la empresa o institución desglosados según un
criterio publicitario que se asienta sobre los aspecto que se desean comunicar.

[No tanto del servicio o producto que genere, no es una publicidad de esos productos o
servicios.]

➢ Mayor duración que la publicidad de productos. En la publicidad institucional, las


secuencias y el tiempo del discurso suelen ser más largos ya que están relacionados
con la necesidad de ofrecer una serie de datos o informaciones exigidos por la
campaña de comunicación empresarial.

➢ Estilísticamente, se destaca por presentar la amplia variedad de recursos de registro


creativos, retóricos y argumentativos que se evidencian en la publicidad de productos.
La publicidad institucional suele focalizar mucho más los componentes
referenciales del mensaje que los no referenciales. De este modo, observamos que
es más común la tendencia a la denotación de los referentes institucionales en la
publicidad corporativa, por oposición a un estilo más connotativo en la publicidad de
productos.
Si bien puede haber elementos referenciales, predominan las características y valores (las
características ligadas a valores).

Destinatarios:
1. Internos (Directivos, empleados, socios...)
2. Externos (Consumidores, usuarios, ciudadanos)

Instrumentos para presentar información:


1. Exposición (Ej voz over expone)
2. Testimonio (Interno - empleados - o Externos - clientes -)
3. Registro sumario (se registra lo que sucede. Me adapto a lo que la realidad me
impone) / Autorrepresentación (la persona que lleva adelante la realidad en el
trabajo, pero haciéndolo para la cámara.) / Ficción (recreando aquello que ocurre.
contrato intérpretes)

Tipos de institucionales:
1. Argumentativo: Se centran en la explicación. (Trabaja caracteristicas de la org)

2. Emotivo: No apunta a explicar o a narrar, sino a conmover. (Trabajamos los valores)

3. Narrativo: Se centran en contar una historia y que esa historia presente la


información a quien lo vea. (Trabaja caracteristicas de la org)

Se pueden combinar.

También podría gustarte