Manovich-Imagen Futura

Descargar como pdf o txt
Descargar como pdf o txt
Está en la página 1de 18

Cátedra Santos

Imagen futura
Lev Manovich
[Animation 2006; 1; 25. Versión on line: http://anm.sagepub.com/cgi/content/abstract/1/1/25]

Abstract: Hoy las técnicas de la animación tradicional, la cinematografía y la computación gráfica


son a menudo usadas en combinación para crear nuevos formas híbridas de imágenes en
movimiento. Este articulo tematiza este proceso usando el ejemplo de un hibrido particularmente
intrincado –el método de la Universal Capture usado en el segundo y el tercero de los filmes de la
trilogía Matrix. Más que esperar que alguna de las formas “puras” actuales dominará a cultura
visual y la cultura de la imagen en movimiento, se sugiere que el futuro pertenece a tales híbridos.

Palabras clave: animación, cine, animación por computadora, gráficas de computadora, captura de
movimiento, gráficas de movimiento, cinematografía virtual.

Para la mayor parte del siglo XX, las diferentes áreas de la cultura de la imagen en
movimiento comercial mantuvieron sus distintos métodos de producción y sus distintas estéticas.
Las películas y los dibujos animados se produjeron de manera completamente diferente y era fácil
distinguir sus lenguajes visuales. Hoy la situación es diferente, La computarización de las distintas
áreas de la producción de la imagen en movimiento creó un conjunto común de técnicas, que
pueden ser usadas independientemente de si uno está creando gráficos en movimiento para la
televisión, un largometraje de ficción, una película de dibujos animados o un video musical. La
capacidad de componer varias capas de imágenes con transparencia variada , de color elementos
fijos y en movimiento en un espacio virtual compartido de 3 D y después mover una cámara virtual
a través de ese espacio, para aplicar desenfoque de movimiento (motionblur) simulado y efecto de
profundidad de campo, para cambiar a lo largo del tiempo cualquier parámetro de un cuadro –todos
estos pueden ahora ser aplicados por igual a cualquier imagen, sin tener en cuenta si han sido
capturadas vía una grabación basada en una lente, dibujada a mano , creada con software 3D, etc.
La existencia de este vocabulario común de técnicas basadas en la computación no significa
que todas las películas tengan ahora el mismo aspecto. Significa, sin embargo, que si la mayoría de
las películas de acción y las animadas tienen un aspecto bastante distinto es porque es el resultado
de elecciones deliberadas antes de que una consecuencia inevitable de las diferencias en los
métodos de producción y la tecnología. Al mismo tiempo, fuera del reino de las películas de acción
y las de animación, la estética de la cultura de la imagen en movimiento cambió radicalmente
durante los años 90.
Lo que sucedió puede resumirse de la siguiente manera. A mediados de la década de 1990 ,
los medios para simular movimiento y la post producción de la imagen (cine, animación, diseño
gráfico, tipografía),los nuevos medios computacionales (la animación 3D), y las nuevas técnicas de
Cátedra Santos

computación (composición, múltiples niveles de transparencia) empezaron a interactuar dentro de


un mismo entorno computacional – ya sea una computadora personal o un relativamente barato
dispositivo de gráficos accesible para pequeñas compañías e incluso para particulares. El resultado
fue la emergencia de una nueva estética híbrida que rápidamente se convirtió en la norma. Hoy esta
estética opera en prácticamente todas las formas cortas de imagen en movimiento: la publicidad
televisiva, las gráficas de televisión, los videos musicales, las animaciones cortas, los títulos de
películas, las páginas de inicio en la web. También define un nuevo campo de los medios de
producción – los motion graphics- pero es importante resaltar que la estética híbrida no está
confinada a este campo sino que puede ser encontrada operando en todas partes.
Esta estética existe con infinitas variaciones pero su lógica es la misma: yuxtaposición de
lenguajes visuales anteriormente diferenciados o de distintos medios en la misma secuencia y,
bastante a menudo, dentro del mismo marco. Elementos dibujados a mano, tomas fotográficas,
video, tipografía, elementos 3D, no están simplemente colocados uno al lado de otro sino
entrelazados. El lenguaje visual resultante es un híbrido, También puede ser llamado metalenguaje
en tanto combina el lenguaje del diseño, la tipografía, la animación tradicional, la animación en 3D
por computadora, la pintura y el cine.
Además de las características de los efectos especiales, la estética híbrida (o meta) de la gran
mayoría de las secuencias cortas de imágenes en movimiento que hoy nos rodean es el efecto más
visible de la computarización de la producción de imágenes en movimiento. En este caso, la
animación aparece con frecuencia como un elemento de una secuencia o incluso de un único
cuadro. Pero esta es solo uno, el más obvio, de los papeles de la animación en el paisaje visual post-
digital contemporáneo. En este artículo voy a hablar de su otra función: en tanto técnica
generalizada que puede ser aplica a cualquier imagen, incluyendo películas y videos. Aquí, la
animación no funciona como un medio sino como un conjunto de técnicas de uso general – utilizada
junto a otra técnicas del fondo común de opciones disponibles para un cineasta o un diseñador.
He elegido un ejemplo particular para mi exposición que pienso que ilustra bien el nuevo
papel de la animación. Es un método relativamente nuevo de combinar acción en vivo y gráfica
computarizada. Llamada “Universal Capture” (U-cap) por sus creadores, fue en principio usada
sistemáticamente a gran escala por ESC Entertainment en Matrix 2 (2003) y Matrix 3 (2003),
películas de la trilogía Matrix. Tematizaré cómo este método es diferente de las técnicas que son
ahora comunes y de las técnicas más antiguas de integración de la acción en vivo y los elementos
gráficos computarizados. La Universal Capture también crea híbridos visuales – pero son bastante
diferentes de los híbridos que se encuentran en los gráficos de movimiento y en las otras formas
cortas de imágenes en movimientos de hoy. En el caso de la U-cap los diferentes tipos de imágenes
no se mezclan sino que más bien se fusionan para crear una nueva clase de imagen. Esta imagen
combina “lo mejor” de las cualidades de los dos tipos de imágenes que nosotros normalmente
entendemos como opuestas ontológicamente: las tomas de acción en vivo y la animación
computarizada en 3D. Voy a sugerir que tales híbridos de imágenes es probable que desempeñen un
gran papel en la cultura visual del futuro mientras el lugar de las imágenes “puras” que no se
fusionan o mezclan con algo probablemente disminuirá.

Desarrollo desigual
¿Qué clases de imágenes es probable que dominen la cultura visual unas décadas a partir de
ahora? ¿Seguirán siendo similares a la imagen típica que nos rodea hoy – fotografías que son

Imagen futura Página 2


Cátedra Santos

manipuladas digitalmente y a menudo combinadas con varios elementos gráficos y tipografías? ¿O


las imágenes futuras serán completamente diferentes? ¿El código fotográfico desaparecerá en favor
de algo distinto?
Hay buenas razones para presumir que las imágenes futuras probablemente sean similares a
las fotografías. Como un virus, la fotografía resultó ser un código figurativo increíblemente
resistente: sobrevivió oleadas de cambios tecnológicos, que incluyeron la computarización de todas
las etapas de la producción y distribución de la cultura. La razón de la persistencia del código
fotográfico reside en su flexibilidad: las fotografías pueden ser mezcladas fácilmente con otras
formas visuales –dibujos, diseño en 2D y en 3D, diagramas lineales y tipografías. Como resultado,
si bien las fotografías realmente dominan la cultura visual contemporánea, la mayoría de ellas no
son fotografías puras sino mutaciones e híbridos: fotografías que pasaron por diversos filtros y
ajuste manuales para lograr una apariencia más estilizada, una apariencia más plenamente gráfica,
un color más saturado, etc.; fotografías mezcladas con elementos de diseño y tipografías;
fotografías que o se limitan a la parte del espectro visible a un ojo humano (visión nocturna, rayos
X); fotografías simuladas hechas con gráficos computarizados en 3D; etc. Por lo tanto, si bien
podemos decir que hoy vivimos en una “cultura fotográfica”, también necesitamos empezar a leer la
palabra “fotografía” de una nueva manera. “Fotografía” hoy es realmente foto-GRÁFICA, la foto
que provee solo un estrato inicial para la mezcla gráfica en general. (En el ámbito de las imágenes
en movimiento, el término “gráficos en movimiento” captura perfectamente el mismo desarrollo: la
subordinación de la acción en vivo cinematográfica al código gráfico.)
Una manera en la que el cambio se produce en la naturaleza, la sociedad y la cultura es desde
adentro hacia afuera. La estructura interna cambia primero, y este cambio sólo después afecta la piel
visible. Por ejemplo, de acuerdo a la teoría marxista del desarrollo histórico, la infraestructura (es
decir, el modo de producción de una sociedad dada – también llamada “base”) cambia mucho antes
que la superestructura (la ideología y la cultura de esa sociedad). En un ejemplo diferente, piénsese
en el diseño tecnológico del siglo XX: por lo general un nuevo tipo de máquina fue encajada en un
principio dentro de una piel vieja, familiar: por ejemplo, los coches de principios del siglo XX
emulaban la forma de los carruajes de caballos. La familiar idea de McLuhan de que los nuevos
medios en principio emularon a los viejos medios es otro ejemplo de este tipo de cambio. En este
caso, un nuevo modo de producción de medios, por decirlo así, es en principio usado para soportar
la vieja estructura de la organización de los medios, antes de que la nueva estructura emerja. Por
ejemplo, los primeros libros impresos con tipos fueron diseñados para emular los libros escritos a
mano; el cine en principio emuló al teatro; etc.
Este concepto de desarrollo desigual puede ser útil para pensar los cambios en la cultura
visual contemporánea. Desde que este proceso comenzó hace cincuenta años, la computarización de
la fotografía (y el cine) ha cambiado ya completamente la estructura interna de la imagen
fotográfica, Todavía su “piel”, es decir, la manera en que una fotografía típica se ve, en gran parte
sigue siendo la misma. Es sin embargo posible que en algún punto del futuro la “piel” de una
imagen sea completamente diferente, pero esto no sucede todavía. Así, podemos decir en la
actualidad que nuestra cultura visual se caracteriza por una nueva “base” computarizada y una vieja
“superestructura” fotográfica.
La trilogía de Matrix nos proporciona una amplia gama de ejemplos que son perfectos para
pensar más a fondo estas cuestiones; es una alegoría acerca de cómo se construye su universo
visual. Es decir, la película nos dice cómo la Matrix, el universo virtual que se mantiene gracias a

Lev Manovich Página 3


Cátedra Santos

las computadoras – y, por supuesto, visualmente las imágenes de la Matrix que nosotros los
espectadores vemos en las películas, fueron todas ensambladas en efecto con la ayuda del software
(los animadores a veces usaron Maya pero sobre todo se basaron en programas escritos
especialmente). Así hay una perfecta simetría entre nosotros, los espectadores del film, y la gente
que vive dentro de la Matrix –salvo que mientras que las computadoras que dirigen la Matrix son
capaces de hacerlo en tiempo real, la mayoría de las escenas en cada una de las películas de Matrix
llevó meses e incluso años para ser ensambladas. (Así la Matrix puede ser también interpretada
como una visión futurista de los juegos de computadora en el momento del futuro en que se vuelva
posible realizar los efectos visuales al estilo de Matrix entiempo real.)
La clave del universo visual de Matrix es la nueva batería de técnicas gráficas
computacionales que en estos años fueron desarrolladas por gente tanto de la academia como de la
industria de efectos especiales, que incluye a Georgi Borshukov y John Gaeta1. Los inventores
acuñaron un conjunto de nombres para estas técnicas: “virtual cinema”, “virtual humain”, “virtual
cinematography”, “universal capture”. Juntas, estas técnicas representan un verdadero hito en la
historia de los efectos especiales originados por computadora. Llevan a su lógica conclusión los
desarrollos de la década de 1990, tales como la captura del movimiento y, simultáneamente, abren
una nueva etapa. Podemos decir que con Matrix (199), la vieja “base” de la fotografía ha sido
finalmente reemplazada por completo por una nueva dirigida por computadora, Lo que queda por
ver es cómo la “superestructura” de la imagen fotográfica –qué representa y cómo- cambiará para
acomodarse a esta “base”.

Simulación de la realidad versus muestreo de la realidad


Antes de continuar, tengo que señalar que no todos los efectos especiales de Matrix dependen
de la U.cap. y , por supuesto otras películas de Hollywood ya usan algunas de las mismas
estrategias. Sin embargo, en este artículo me concentro en el uso de este proceso en Matrix porque
la U.cap. fue desarrollada realmente para el segundo y el tercero de los filmes de la trilogía. Y si
bien los créditos completos de los involucrados en el desarrollo del proceso llevarían varias líneas,
en este texto los voy a identificar con Gaeta. La razón no es porque, en tanto supervisor de efectos
especiales de The Matrix reloaded (2003) y The Matrix Revolutions (2003), obtuviese más
publicidad. Más importante aún, en contraste con muchos otros de la industria de los efectos
especiales, es que Gaeta ha reflexionado ampliamente en las técnicas que él y sus colegas han
desarrollado, presentándola como un nuevo paradigma para el cine y el entretenimiento, y acuñado
términos y conceptos útiles para entenderla.
A fin de entender mejor la importancia del método de Gaeta, vamos a pasar brevemente por
la historia de la síntesis de la foto realista en 3D y su uso en la industria fílmica. En 1963, Lawrence
G. Roberts (un estudiante de posgrado en el MIT) se convirtió en una de las personas clave del
desarrollo de Arpanet y publicó una descripción de in algoritmo computacional para construir
imágenes en perspectiva lineal. Estas imagines representaban los bordes de los objetos como líneas;
en el lenguaje contemporáneo de la computación gráfica, pueden ser llamados “wire frames”.
Aproximadamente diez años después, los científicos del ares de computación diseñaron algoritmos
que permitieron la creación de imágenes sombreadas (llamados sombreado Gouraud y sombreado

1
.- Para detalles técnicos del método, ver las publicaciones de Georgi Borshukov.
[www.virtualcinematography.org/publications.html].

Imagen futura Página 4


Cátedra Santos

Phong, con el nombre de los científicos que crearon los algoritmos correspondientes). Desde
mediados de la década de 1970 hasta el final de la de 1980, el campo de la computación gráfica
logró un rápido desarrollo. Cada año se crearon nuevas técnicas fundamentales: transparencia,
sombras, mapeo de imágenes, texturado topológico, sistema de partículas, composición, trazado de
rayos, radiosidad, etc.2 Hacia finales de este creativo y fructífero período de la historia del campo,
era posible usar una combinación de estas técnicas para sintetizar imágenes de casi cualquier tema
que no eran fácilmente distinguibles de las del cine tradicional.
Toda esta investigación se basaba en un presupuesto fundamental: con el fin de recrear una
imagen de la realidad idéntica a la capturada por una cámara cinematográfica, necesitamos simular
sistemáticamente la física real involucrada en la construcción de esta imagen. Esto significa simular
las complejas interacciones entre las fuentes de luz, las propiedades de los diferentes materiales
(tela, metal, vidrio, etc.), y las propiedades físicas de las cámaras cinematográficas, incluyendo
todas sus limitaciones tales como la profundidad del campo y el motionblur. Ya que era obvio para
los científicos que si ellos simulaban exactamente todos estos aspectos físicos, una computadora
tardaría una eternidad para calcular tan solo una imagen, pusieron su energía en inventar varios
atajos que crearían imágenes lo bastante realistas si bien involucraran menos etapas de cálculo. Así,
en efecto, cada una de las técnicas para sintetizar imágenes que he mencionado en el parágrafo
previo es un hack [reconfiguración / reprogramación] tal –una particular aproximación a un
particular subconjunto de todas las posibles interacciones entre fuentes de luz, materiales y cámaras.
Este presupuesto también significa que ustedes están recreando la realidad paso a paso a partir de
cero. Cada vez que ustedes quieran hacer una imagen fija o una animación de algún objeto o escena,
la historia de la creación de la Biblia vuelve a desarrollarse.
(Me imagino a Dios al crear el mundo pasando por los numerosos menús de un programa
profesional de modelización en 3 D, animación y renderización como el Maya. Primero tiene que
hacer toda la geometría: manipular splines, extraer contornos, añadir biseles… después, para cada
objeto y creatura tiene que elegir las propiedades materiales: color especular, nivel de transparencia,
imagen, mapas topológicos y de reflexión, etc. Termina una serie de parámetros, se limpia la frente
y empieza a trabajar en la nueva serie. Ahora prosigue definiendo las luces: otra vez, docenas de
opciones del menú tienen que ser seleccionadas. Genera la escena, mira el resultado y admira su
creación. Pero está lejos de haberlo hecho: el universo que tiene en mente no es una imagen fija
sino una animación, lo que significa que el agua tiene que fluir, el pasto y las hojas tienen que
moverse bajo el soplo del viento, y todas las creaturas también tienen que moverse. Suspira y abre
otra serie de menús donde tiene que definir los parámetros de algoritmos que simulen la física del
movimiento. Y sigue, y sigue y sigue. Finalmente el mundo mismo es terminado y se ve bien; pero
ahora Dios quiere crear al Hombre para que pueda admirar su creación. Dios suspira de nuevo, y
saca un manual particular de Maya del estante donde toda la colección ocupa toda la estantería…)
Por supuesto que estamos en cierto modo en una mejor posición que aquella en la que estaba
Dios. Él estaba creando todo por primera vez, por lo tanto no podía tomar prestadas cosas de
2
.-Aunque pueda no todo el mundo esté de acuerdo con este análisis, creo que después de finales de la
década de 1980, el campo redujo la velocidad significativamente: por otro lado, todas las técnicas claves que
pueden ser usadas para crear imágenes en 3 D foto-realísticas ya han sido descubiertas. El rápido desarrollo
del hardware de las computadoras en los `90 significó que los científicos informáticos ya no tenían que
desarrollar nuevas técnicas para hacer más rápida la generación de imágenes, ya que los algoritmos
anteriormente desarrollados eran ahora lo suficientemente rápidos.

Lev Manovich Página 5


Cátedra Santos

cualquier lugar. Por lo tanto, todo tuvo que ser construido y definido desde cero. Pero nosotros no
estamos creando un universo nuevo sino simulando visualmente un universo que ya existe, es decir,
la realidad física. Por lo tanto los científicos que trabajan en técnicas de computación gráfica en 3D
obtenidas anteriormente, además de la aproximación física involucrada, pueden también a veces
tomar otro atajo. En vez de definir algo desde cero por medio de algoritmos, pueden simplemente
dar una muestra de ella desde la realidad existente e incorporar estas muestras en el proceso de
construcción.
Los ejemplos de la aplicación de esta idea son las técnicas de mapeo de textura y bump
mapping que fueron introducidas en la segunda mitad de la década de 1970. Con el mapeo de
textura, cualquier imagen digital en 2 D –que puede ser un primer plano de alguna textura como el
grano de la madera o ladrillos, pero que también puede ser cualquier otra cosa, por ejemplo un logo,
una fotografía de una cara o de nubes- está matemáticamente abarcada por un modelo en 3D. Es una
manera muy efectiva de añadir la riqueza visual del mundo real a la escena virtual. El mapeado
topológico actúa de manera similar, pero en este caso la imagen en 2D se usa como una manera de
añadir complejidad rápidamente a la geometría misma. Por ejemplo, en vez de tener que modelar
manualmente todas las pequeñas grietas y hendijas que forman la textura 2 D de un muro de
hormigón, un artista puede simplemente sacar una fotografía de una pared existente, convertirla en
una imagen en una escala de grises y después proveer esta imagen al algoritmo de renderización. El
algoritmo trata la imagen de la escala de grises como un mapa de profundidad, es decir, el valor de
cada pixel es interpretado como la altura relativa de la superficie. Así, en el ejemplo, los pixeles de
luz se vuelven puntos que están un poco detrás. El resultado es un ahorro enorme en la cantidad de
tiempo necesario para recrear un particular pero muy importante aspecto de nuestra realidad física:
una textura ligera y usualmente regular en 3D que se encuentra en la mayoría de las superficies
naturales y algunas hechas por el hombre, desde la corteza de un árbol a una tela tejida.
Otras técnicas de computación gráfica basadas en la idea de la muestra de la realidad
existente incluyen el reflection mapping y la digitalización en 3D. Pese al hecho de que todas estas
técnicas fueron ampliamente usadas tan pronto como fueron inventadas, alguna gente en el campo
de la computación gráfica (hasta donde puedo ver) sintió siempre que estaban haciendo trampa.
¿Por qué? Pienso que es porque el paradigma conceptual global para crear gráficos de computadora
foto-realísticos era simular todo desde cero a través de algoritmos. Así pues, si tenían que usar las
técnicas basadas en el muestreo directo de la realidad, de alguna manera sintieron que esto era nada
más que temporario, porque los algoritmos apropiados no estaban todavía desarrollados o porque
las máquinas eran demasiado lentas. También tenían ese sentimiento porque una vez que se empezó
con el muestreo manual de la realidad y después se trató de incluir esas muestras en sus imágenes
perfectamente definidas algorítmicamente, las cosas rara vez encajaban exactamente, y se
necesitaban ajustes manuales meticulosos. Por ejemplo, el texture mapping funcionaba
perfectamente si se aplicaba a una superficie recta pero si la superficie era curva, se produciría una
inevitable distorsión.
A lo largo de los años 1970 y 1980, el paradigma de “simulación de realidad” y los de
“muestreo de la realidad” coexistieron uno al lado del otro. Más precisamente, como sugerí
anteriormente, un paradigma de muestreo fue “incrustado” en un paradigma de simulación de
realidad. Era de sentido común que la manera correcta de crear imágenes foto-realistas de la
realidad era simulando sus características físicas tan precisamente como se pudiera. Las muestras de

Imagen futura Página 6


Cátedra Santos

realidad que existían entonces y después y posteriormente la adición de esas muestras a una escena
virtual era un truco, un atajo en un juego de simulación por lo demás honesto.

Construyendo la Matrix
Hasta ahora hemos analizado los paradigmas de campo de la computación gráfica en 2D sin
considerar los usos de las imágenes simuladas. ¿Qué pasa, entonces, si se quieren incorporar
imágenes foto-realistas a una película? Esto introduce una nueva restricción. No solo cada una de
las imágenes simuladas tiene que ser consistente internamente, con las sombras proyectadas que
corresponden a las fuentes de luz, etc., sino que ahora también tenía que ser consistente con la
cinematografía de una película. El universo simulado y el universo de la acción en vivo tenían que
coincidir exactamente. (Estoy hablando aquí del uso “normal” de la computación en los filmes y no
de la estética híbrida de las gráficas de televisión, los videos musicales, etc., que deliberadamente
yuxtaponen los diversos códigos.) Como se puede ver en retrospectiva, esta nueva restricción
cambió a la larga la relación éntrelos dos paradigmas a favor de un paradigma de muestreo. Pero
esto solo es visible ahora, después de que las películas de Matrix hicieran del paradigma de
muestreo la base se su universo virtual3.
Al principio, cuando los cineastas empezaron a incorporar imágenes sintéticas en 3D en los
filmes, esto no tuvo ningún efecto en cómo los científicos del área pensaron las gráficas por
computadora. Las gráficas por computadora en 3D aparecieron por primera vez brevemente en una
película de largometraje en 1980-Looker. A lo largo de la década de 1980, se hicieron varios filmes
que usaron imagen generadas por computadora pero siempre solo como un elemento menor en la
narrativa general de la película. (Lanzada en 1982, Tron, puede ser comparada a Matrix en tanto su
universo narrativo se sitúa dentro de una computadora y es creado mediante gráficas de
computadora- pero esta fue una excepción.) Por ejemplo, una de las películas de Star Trek contenía
una escena de un planeta cobrando vida; fue creada usando el primer sistema de partículas. Pero era
una única escena y no tenía interacción con ninguna otra escena del film.
A comienzos de la década de 1990 la situación empezó a cambiar. Con películas pioneras
como TheAbyss (James Cameron, 1989), Terminator 2 (James Cameron, 1991), y Jurassic Park
(Steven Spìelberg, 1993), los personajes generados por computadora se volvieron los protagonistas
clave de los largometrajes. Esto significaba que iban a aparecer en docenas o incluso cientos de
tomas a lo largo del film y que en la mayoría de esas tomas los personajes generados por
computadora tendrían que ser integrados con entornos reales y actores humanos capturados vía
fotografía de acción en vivo (llamada en el ámbito de la industria “live plate”). Son ejemplos de
esto el cyborg T-100 de Terminator 2: Judgment Day, o los dinosaurios de Jurassic Park. Estos
personajes generados por computadora se situaban dentro del universo de la acción en vivo que es
el resultado de muestras de la realidad física vía una cámara fílmica de 35 mm. El mundo simulado
se localiza dentro del mundo capturado, y los dos tienen que coincidir perfectamente.

3
.- Los términos “simulación de la realidad” y “maestro de la realidad” fueron inventados para este artículo;
los términos “virtual cinema”, “virtual human” “universal capture” y “virtual cinematography” viene de John
Gaeta. El término “renderización basada en imagen” apareció por primera vez en 1990.

Lev Manovich Página 7


Cátedra Santos

Como se señaló en The Language of New Media (Manovich, 2001), al discutir la


composición, alinear perfectamente los elementos que provienen de distintas fuentes es uno de los
desafíos fundamentales del realismo basado en las computadoras. A lo largo de la década de 1990,
los cineastas y artistas de efectos especiales han lidiado con este desafío usando una variedad de
técnicas y métodos. De lo que Gaeta se dio cuenta antes que los otros es que la mejor manera de
alinear los dos universos de la acción en vivo y las gráficas de computadora en 3D es construir un
único nuevo universo4.
En lugar de tratar la muestra de realidad como solo una técnica para ser usada con muchas
otras técnicas algorítmicas “apropiadas” de la síntesis de imágenes, Gaeta y sus colegas la
convirtieron en el fundamento clave del proceso de Universal Capture. El proceso tomaba por
separado sistemáticamente la realidad física y después sistemáticamente re-ensamblaba los
elementos en una representación virtual generada por computadora. El resultado es una nueva clase
de imagen que tiene una apariencia fotográfica/cinematográfica y el nivel de detalle está
estructurado internamente todavía de una manera completamente diferente.
La “Universal capture” fue desarrollada y refinada durante un período de tres años desde el
2000 al 2003 (Borshukov, 2004). ¿Cómo funciona el proceso? Realmente hay más etapas y detalles
involucrados pero el procedimiento básico es el siguiente (para más detalles, ver Borshukov et al.,
2003): se registra la actuación de un actor con iluminación ambiental usando cinco cámaras de
video de alta resolución sincronizadas. “Actuación” en este caso incluye todo lo que un actor dice
en una película y todas las posibles expresiones faciales5. (Durante la producción capturaba más de
cinco terabytes de datos por día.)A continuación, los algoritmos especiales se usaban para rastrear el
movimiento de cada pixel conforme pasaba el tiempo en cada cuadro. Esta información se combina
con un modelo en 3D de una expresión neutral del actor creada usando un escáner Cyberscan. El
resultado es una forma animada en 3D que representa con precisión la geometría de la cabeza del
actor a medida que cambia durante la actuación particular. La forma es mapeada con información
en color extraída de las secuencias capturadas en video. Un escaneado de alta resolución tomado
por separado de la cara del actor se usa para crear el mapa de los detalles de superficie de pequeña
escala como poros y las arrugas, y este mapa se añade también al modelo.
Después de que todos los datos han sido extraídos, alineados y combinados, el resultado es
lo que Gaeta llama un “virtual human” –una reconstrucción muy exacta de la actuación captada,
ahora disponible como datos de computación gráfica en 3D- con todas las ventajas que provienen
de una representación tal. Por ejemplo, porque la actuación del actor ahora existe como un objeto de
3D en un espacio virtual, el cineasta puede animar una cámara virtual y hacer “funcionar” la
actuación reconstruida desde un ángulo arbitrario. De la misma manera, la cabeza virtual también
puede ser iluminada de la manera que se desee y unida a un cuerpo construido por computadora
(Borshukov et al., 2004). Por ejemplo, todos los personajes que aparecen en la escena de lucha entre
Neo y los agentes (the Bury Brawl scene) en Matrix 2 fueron creadas al combinar las cabezas
construidas por medio de la Universal Capture hecha en los actores principales con cuerpos CG que

4
.-Por consiguiente, aunque el artículo de Wired que posicionó a Gaeta como un a pionero de las
innovaciones y como un rebelde que trabajaba fuera de Hollywood contenía las típicas exageraciones
periodísticas, no estaba lejos de la verdad (Silberman, 2003).
5
.- El método captura solo la geometría e imágenes de la cabeza de un actor; los movimientos del cuerpo
son registrados por separado usando captura de movimiento.

Imagen futura Página 8


Cátedra Santos

usaban datos de captura de movimiento de un grupo distinto de ejecutantes. Porque todos los
personajes tanto como el set fueron generados por computadora, esto permitió que los directores de
escena coreografiaran la cámara virtual, haciéndola volar alrededor de la escena de una manera que
no es posible con una cámara real en un set real.
El proceso recibió el apropiado nombre de Captura Total porque captura toda la información
posible de un objeto o escena usando una serie de métodos de grabación -o, por lo menos, todo lo
que es pasible de ser captado usando las tecnologías actuales. Diferentes dimensiones -color,
geometría 3D, reflectividad y textura- son capturadas por separado y después se vuelven a unir para
crear una representación más detallada y realista.
La Captura Total es significativamente diferente de los métodos comúnmente aceptados que
se usan para crear efectos especiales basados en la computación tales como la animación mediante
keyframes [cuadros claves] y el modelado basado en la física. En el primero de los métodos, un
animador especifica las posiciones claves de un modelo en 3D y la computadora calcula lo que hay
entre ellas. Con el segundo método, toda la animación se crea automáticamente gracias a un
software que simula la física que subyace al movimiento. (Este método, por lo tanto, representa un
particular ejemplo del paradigma de “simulación de realidad” del que se habló anteriormente.) Por
ejemplo, para crear una animación realista de una criatura que se mueve, los programadores
modelan su esqueleto, músculos y piel, y especifican los algoritmos que simulan la física real
involucrada. A menudo los dos modelos se combinan: por ejemplo, el modela basado en la física
puede ser usado para animar un dinosauro que corre mientras la animación manual puede usarse
para algunas tomas donde el dinosauro interactúa con personajes humanos.
En los años recientes el logro más impresionante del modelado basado en la física fue la
batalla de El señor de los anillos: el retorno del rey (Peter Jackson, 2003), que involucra decenas de
miles de soldados virtuales, todos resueltos por el software Massive (ver
www.massivesoftware.com). De manera similar a los jugadores no humanos (o bots) en los juegos
de computadora, a cada soldado virtual le fue dada la capacidad de “ver” el terreno y a los otros
soldados, un conjunto de prioridades y un “cerebro” independiente, es decir, un programa de
inteligencia artificial que dirige las acciones del personaje basado en inputs y prioridades
perceptuales. Sin embargo, en contraste con los juegos de IA, el software Massive no tiene que
funcionar en tiempo real. Por lo tanto puede crear escenas con decenas e incluso cientos de miles de
agentes que se comportan realistamente (un aviso publicitario creado con la ayuda de Massive
contaba con 146.000 personajes virtuales).
El método de Universal Capture no usa ni la animación manual ni la simulación de la física
subyacente. En su lugar, directamente toma muestras de la realidad física, incluyendo el color, la
textura y el movimiento de los actores. Secuencias cortas de las actuaciones del actor son
codificadas como animaciones de computadora en 3D; estas animaciones forman una biblioteca a
partir de la cual los cineastas después pueden servirse para componer una escena. La analogía con el
sampling musical es evidente aquí. Como Gaeta señaló, su equipo nunca uso animación manual
para tratar de ajustar el movimiento de la cara de un personaje; sin embargo, de igual manera que en
la música, a menudo “atrapaban” una expresión particular antes de pasar a la siguiente (Gaeta,
32003). Esto sugiere otra analogía –la edición de video. Pero esta es edición de segunda instancia,
para decirlo así: en vez de capturar simplemente segmentos de realidad de u video y después
reunirlos, el método de Gaeta produce recreaciones completamete virtual de un fenómeno particular

Lev Manovich Página 9


Cátedra Santos

–que contiene en sí mismo micro-mundos- que pueden después ser editados e integrados en un
espacio simulado en 3D más amplio.

La animación como idea


Este breve resumen de los métodos de la computación grafica que aquí se presenta para
explicar la Captura Universal ofrece buenos ejemplos de la multiplicidad de modos en los que la
animación se usa en la cultura de la imagen en movimiento contemporánea. Si consideramos esta
multiplicidad es posible llegar a la conclusión de que la “animación” en tanto medio separado casi
ya no existe de hecho. Al mismo tiempo, los principios generales y técnicas de poner en
movimiento objetos e imágenes desarrollados en la animación de los siglos XIX y XX son usados
mucho más frecuentemente ahora que antes de las computadoras. Pero casi nunca se usan de
manera aislada –se suelen combinar con otras técnicas sacadas de la acción en vivo cinematográfica
y las gráficas de computadora.
Entonces, ¿dónde empieza y dónde termina hoy la animación? Cuando ustedes ven una
película animada de Disney o un corto de gráficos en movimiento es obvio que están viendo
“animación”. Independientemente de si el proceso involucra imágenes dibujadas a mano o usando
un software de 3D, el principio es el mismo: alguien crea los dibujos u objetos 3D, configura los
keyframes y después las posiciones entre cada uno de ellos. (Por supuesto, en el caso de los filmes
comerciales no se trata de una sola persona sino de grandes equipos.) Los objetos pueden ser
creados de múltiples maneras y en las etapas intermedias pueden ser hechos manual o
automáticamente, vía el software, pero esto no cambia la lógica básica. El movimiento, o cualquier
otro cambio en el tiempo, se define manualmente – se suele hacer mediante keyframes, pero no
siempre. En retrospectiva, la definición del movimiento vía keys fue probablemente la esencia de la
animación del siglo XX. Fue usado en la tradicional animación en celuloide por Disney y otros, en
las animaciones en stop motion [cuadro a cuadro] de Starevich y Trnka , en los cortos animados en
3D de Pixar y sigue siendo usado hoy en películas animadas que combinan el método tradicional
con la animación por computadora en 3D. Y aunque los animadores experimentales como Norman
McLaren rechazaron los sistemas claves / cuadros intermedios en favor de dibujar cada cuadro del
film a mano sin definir explícitamente las claves, esto no cambia la lógica global: el movimiento se
creó a mano. No es sorprendente que la mayoría de los artistas de la animación explotaran esta
característica clave de la animación de diferentes maneras, convirtiéndola en una estética: por
ejemplo, aplastamientos y estiramientos exagerados en Disney, o los saltos discontinuos entre
cuadros de McLaren.
¿Qué se puede decir acerca de las otras maneras en que las imágenes y los objetos pueden
ser puestos en movimiento? Considérese, por ejemplo, los métodos desarrollados en las gráficas de
computadora: el modelado basado en la física, el sistema de partículas, las gramáticas formales, la
vida artificial y la animación comportamental [behavioral animation]. En todos estos métodos el
animador no crea directamente el movimiento. En vez de eso, éste es creado por el software que usa
algún tipo de modelo matemático. Por ejemplo, en el caso de del modelado basado en la física el
animador puede establecer los parámetros de un modelo en computadora que simule una fuerza
física como un viento que va a deformar una pieza de tela en varios cuadros. O bien el animador
puede dar las instrucciones para que la pelota caiga al piso, y dejar que el modelo físico controle

Imagen futura Página 10


Cátedra Santos

cómo rebota la pelota después de que golpea en el suelo. En el caso de los sistemas de partículas
que se usan para modelar cualquier cosa desde fuegos artificiales, explosiones, agua y gas hasta
bandadas y enjambres de animales, el animador solo tiene que definir las condiciones iniciales: el
número de partículas, su velocidad, su vida útil, etc.
A diferencia del cine de acción en vivo, estos métodos de computación grafica no capturan el
movimiento físico real. ¿Significa entonces que pertenecen a la animación? Si aceptamos que la
característica definitoria de la animación tradicional era la creación manual de movimiento, la
respuesta sería no. Pero las cosas no son tan simples. Con todos estos métodos, los animadores
definen los parámetros iniciales, aplican el modelo, ajustan los parámetros y repiten este ciclo de
producción hasta que están satisfechos con el resultado. Así mientras el movimiento real no se
produce a mano sino mediante un modelo matemático, los animadores mantienen un significativo
control. De alguna manera, los animadores actúan como directores de películas- solo que en este
caso no están dirigiendo actores sino a un modelo computacional hasta que produce una actuación
satisfactoria. O podemos también comparar a los animadores con los editores de películas cuando
están seleccionando las mejores actuaciones del modelo computacional.
James Blinn, un científico del área responsable de crear muchas técnicas fundamentales de la
computación gráfica, hizo alguna vez una interesante analogía para explicar la diferencia entre el
método manual de los cuadros claves y el modelado de base física6. Le dijo a la audiencia de un
panel de SIGGRAPH que la diferencia entre los dos métodos era análoga a la diferencia entre la
pintura y la fotografía. En palabras de Blinn, un animador que crea movimiento mediante keyframes
definidos manualmente y dibuja en los cuadros intermedios es como un pintor que observa el
mundo y después hace una pintura de él. La semejanza entre una pintura y el mundo depende de las
habilidades del pintor, su imaginación y sus intenciones, mientras un animador que usa el modelado
de base física es como un fotógrafo que captura el mundo real tal como realmente es. Blinn quería
enfatizar que las técnicas matemáticas pueden crear una simulación realista del movimiento en el
mundo físico y un animador solo tiene que capturar lo que es creado por simulación. Aunque la
analogía se útil, pienso que no es completamente exacta. Obviamente, el fotógrafo tradicional que
Blinn tenía en mente (es decir, el de antes del Photoshop) elige la composición, el contraste, la
profundidad de campo y muchos otros parámetros. De manera similar, los animadores que están
usando el modelado de base física también tienen el control de un gran número de parámetros y
depende de sus habilidades y perseverancia que el modelo produzca una animación satisfactoria.
Considérese el siguiente ejemplo de un área relacionada, la del arte del software, que usa algunos de
los mismos métodos matemáticos. Casey Reas, un artista que es bien conocido tanto por su entorno
de programación Processing como por sus propias imágenes fijas y animaciones, me dijo
recientemente que él sólo puede pasar un par de horas escribiendo un programa de software para
crear un nuevo mundo- y después otros dos años trabajando con los diferentes parámetros del
mismo programa y produciendo infinitas imágenes de prueba hasta que esté satisfecho con los
resultados (comunicación personal, abril de 2005). Así, mientras en primera instancia, el modelado
de base física parece ser lo opuesto a la animación tradicional en tanto el movimiento es creado por
la computadora, de hecho tendría que ser entendido como un híbrido entre animación y simulación

6
.- No estoy seguro del año exacto de la conferencia de SIGGRAPH en la que Blinn hizo su presentación, pero
pienso que fue a finales de la década de 1980 cuando el modelado de base física era todavía un concepto
nuevo.

Lev Manovich Página 11


Cátedra Santos

por computadora. Aunque los animadores ya no dibujan directamente cada fase del movimiento,
están trabajando dentro de los parámetros del modelo matemático que “dibuja” el movimiento real.
¿Y qué pasa con el método de Captura Universal tal como es usado en Matrix? Gaeta y sus
colegas también han desterrado la animación de cuadros claves –pero tampoco usaron ningún
modelo matemático para generar automáticamente el movimiento. Como vimos, su solución fue
capturar las actuaciones reales de un actor (es decir, los movimientos de la cara del actor) y después
reconstruirlas como una secuencia en 3D. Juntas, estas secuencias reconstruidas conforman una
biblioteca de expresiones faciales. El cineasta puede entonces sacar de esta biblioteca, editar en
conjunto una secuencia de expresiones) pero no interferir con ningún parámetro de secuencias
separadas). Es importante destacar que un modelo en 3D no tiene músculos ni otros controles
tradicionalmente usados en las gráficas computadas de animación de caras- se usa “como es”.
Como en el caso de los animadores que emplean modelos matemáticos, este método evita
dibujar movimientos individuales a mano. Y, sin embargo, s lógica es la de la animación más que la
del cine. El cineasta elige secuencias individuales de las actuaciones de los actores, las edita, las
combina si es necesario, y las coloca en un orden particular para crear una escena. En resumen, la
escena es realmente construida a mano incluso aunque sus componentes no lo sean. Así mientras en
la animación tradicional el animador dibuja cada cuadro para crear una secuencia corta (por
ejemplo, un personaje que da vuelta la cabeza), aquí el cineasta “dibuja” en un nivel más alto, al
manipular secuencias enteras en vez de sus cuadros individuales.
Para crear las escenas definitivas de las películas, la Universal Capture se combina con
Cinematografía virtual, organizando la iluminación, las posiciones y movimientos de una cámara
virtual que está “filmando” las actuaciones virtuales. ¿Qué hace que esta cinematografía virtual se
oponga a la simple computación grafica? La razón es que el mundo tal como es visto por una
cámara virtual es diferente del mundo normal de las gráficas de computadora. Consiste en
reconstrucciones del set real y las reales actuaciones de los actores creados por Captura Universal.
El objetivo es evitar los procesos más manuales que se solían usar para crear modelos y juegos en
3D. En vez de eso, los datos relativos al mundo físico son capturados y después usados para crear
una réplica virtual precisa.
En última instancia, el método de producción de ESC como es usado en Matrix no es ni
animación “pura” ni cinematografía, ni los efectos especiales tradicionales, ni la tradicional
animación por computadora. Y esto es típico de la cultura de la imagen en movimiento de hoy.
Cuando las técnicas extraídas de estas tradiciones diferentes se fusionan en un entorno
computacional, el resultado no es la suma de los componentes sino una variedad de métodos
híbridos tales como la Captura Universal. Creo que así es cómo funcionan ahora en general las
diferentes técnicas de las imágenes en movimiento. Después de que la computación las virtualice –
“extrayéndolas de su particular medio físico para convertirlas en algoritmos- empiezan a interactuar
y crear híbridos. Lo que significa que, en la mayoría de los casos, no encontraremos ya ninguna de
esas técnicas en su estado original puro.
Por ejemplo, ¿qué significa cuando vemos efectos de profundidad de campo en las gráficas
en movimiento, los filmes y los programas de televisión que no usan ni el rodaje de acciones en
vivo ni gráficas foto-realistas en 3D pero tienen un aspecto más estilizado? Originalmente un
artefacto de grabación basado en lentes, la profundidad de campo era simulada en una computadora
cuando la principal meta del campo de las gráficas de computadora en 3D era crear el máximo
“foto-realismo”, es decir, las escenas sintetizadas eran indistinguibles de la acción en vivo

Imagen futura Página 12


Cátedra Santos

cinematográfica7. Pero una vez que esta técnica estuvo disponible, los artistas de imágenes en
movimiento se dieron cuenta gradualmente de que podía ser usada independientemente de cuan
realista o abstracto fuera el estilo visual –siempre y cuando haya una sugestión de espacio en 3D.
Tipografías que se mueven en perspectiva a través de un espacio vacío, caracteres dibujados en 2D
posicionados en diferentes estratos en un espacio de 3D, un campo de partículas animadas –
cualquier composición puede someterse a la profundidad de campo simulada.
El hecho de que este efecto sea simulada y sacada de su medio original físico significa que
un diseñador puede manipularlo de varias maneras. Los parámetros que definen qué parte del
espacio está en foco puede ser animada independientemente, es decir, está lista para cambiar con el
tiempo, porque son simplemente los números que controlan el algoritmo y no algo construido
dentro de la óptica de las lentes físicas. Así mientras la profundidad de campo simulada se puede
decir que mantiene la memoria de los medios físicos particulares (la foto basada en lentes y el
rodaje de películas) de los que proviene, se volvió una técnica esencialmente nueva que funciona
como un “personaje” por derecho propio. Tiene la fluidez y la versatilidad que previamente no
estaban disponible. Su conexión con el mundo físico es en el mejor de los casos ambigua.Por un
lado, sólo tiene sentido usar profundidad de campo si se está construyendo un espacio en 3D –
incluso si está definido de una manera mínima al usar sólo unos pocos o incluso sólo un único
indicio de profundidad, tales como líneas que convergen hacia el punto de fuga o en escorzo. Por
otro lado, puede decirse que el diseñador “dibuja” este efecto de cualquier manera que desee. El eje
que controla la profundidad de campo no necesita ser perpendicular a la imagen plana, el área
enfocada puede ser cualquiera en el espacio, puede también moverse rápidamente alrededor del
espacio, etc.
Volviendo a la Captura Universal, vale la pena citar a Gaeta quien tiene muy claro que lo
que él y sus colegas han creado es un nuevo híbrido. En una entrevista de 2004, dijo: “Si tuviera
que definir el cine virtual, tendría que decir que está en algún lugar entre una película de acción en
vivo y una de animación generada por computadora. Se genera por computadora, pero se deriva de
la gente, los lugares y las cosas del mundo real (Feeny 2004). Aunque la Captura Universal ofrece
un ejemplo particularmente sorprendente del “algún lugar entre” de Gaeta, la mayoría de las formas
de las imágenes en movimiento creadas hoy están del mismo modo en “algún lugar entre”, siendo la
animación uno de los ejes de las coordenadas este nuevo espacio de hibridez.

‘Universal Capture’: realidad re-ensamblada


El método que se dio en llamar “Universal Capture” combina lo mejor de los dos mundos:
realidad física tal como es capturada por cámaras basadas en lentes y graficas en 3D sintetizadas por
computadora. Si bien es posible recrear la riqueza del mundo visible mediante la pintura y la
animación manuales, tanto como mediante varias técnicas de computación gráfica (mapeado de
texturas, mapeo topológico, modelado físico, etc.), es caro en términos del trabajo que implica.
Incluso con las técnicas del modelado de base física, los infinitos parámetros tienen que ser
ajustados antes de que la animación se vea bien. En cambio, capturar la realdad visible mediante las
lentes en película, cinta, DVD-R, disco duro, u otros medios, es barato: sólo hay que dirigir la
cámara y apretar el botón “grabar”.

7
.-Para ampliar acerca de este proceso, ver el capítulo “Synthetic Realism and its Discontents”, en Manovich
(2001).

Lev Manovich Página 13


Cátedra Santos

La desventaja de tales grabaciones es que carecen de la flexibilidad exigida por la cultura


contemporánea del remix. Esta cultura no exige objetos estéticos auto-contenidos ni registros auto-
contenidos de la realidad sino unidades más pequeñas- partes que puedan ser fácilmente cambiadas
y combinadas con otras partes en un sinfín de combinaciones. Sin embargo, un proceso de
grabación basado en lentes aplana la estructura semántica de la realidad –es decir, los diferentes
objetos que ocupan distintas áreas de un espacio físico en 3D. Convierte un espacio ocupado con
objetos discretos en un campo plano de granos de imágenes o pixeles que no conllevan ninguna
información acerca de dónde vienen (es decir, a qué objetos corresponden). Por lo tanto cualquier
clase de operación de edición – borrar objetos, añadir nuevos, componer, etc.- se vuelve bastante
difícil. Antes de que se pueda hacer algo con un objeto en imagen, tiene que ser aislado
manualmente mediante la creación de una máscara. Y, a menos que una imagen muestre un objeto
que esté apropiadamente iluminado y sea filmado contra un fondo especial azul o verde, es
imposible enmascarar el objeto con precisión.
Los objetos se definen por puntos descriptos como coordenadas XYZ; otras propiedades de
los objetos, como el color, la transparencia y la reflectividad se describen de manera similar en
términos de números discretos. Esto significa que la estructura semántica de la escena se preserva
por completo y es fácilmente accesible en cualquier momento. Para duplicar un objeto cien veces
solo se necesita de unos pocos clics del mouse o de teclear un corto comando, de manera similar,
todas las otras propiedades de un mundo pueden ser fácilmente cambiadas. Y en tanto cada objeto
en sí mismo está formado de componentes discretos (polígonos planos o parches de superficie
[surface patches] definidos por splines), es de la misma manera bastante fácil cambiar su forma 3D
al seleccionar y manipular sus componentes. Además, de la misma manera que unas secuencia de
genes contiene el código que se expande en un organismo complejo, una descripción compacta de
un mundo en 3D que contenga sólo las coordenadas de los objetos puede ser rápidamente
transmitido a través de la red, con la computadora del cliente reconstruyendo el mundo por
completo (así es como funcionan los juegos de computación on line con múltiples participantes y
los simuladores).
A partir de finales de la década de 1970, cuando James Blin (1978) introdujo el mapeo de
texturas, los científicos del área de la computación, los diseñadores y los animadores expandieron
gradualmente la gama de información que podía ser registrado en el mundo real y después lo
incorporaron en un modelo de computadora. Hasta principios de la década de 1990, esta
información implicaba mayormente la apariencia de los objetos: color, textura, efectos de luz. El
siguiente paso significativo fue el desarrollo de la captura de movimiento. Durante la primera mitad
de la década de 1990, fue rápidamente adoptada en la industria del cine y en la de los juegos. Ahora,
los mundos sintetizados por computadora no dependían solamente del muestre de la apariencia
visual del mundo real sino también de un muestreo de los movimientos de los animales y los
hombres en este mundo. Basándose en todas estas técnicas, el método de Gaeta las llevó a una
nueva etapa: la captura de casi todo lo que en la actualidad puede ser capturado, y, después el re-
ensamblaje de las muestras para crear una recreación digital ( y en tanto tal completamente
maleable). Puesto en un contexto más amplio, el resultado de la representación híbrida 2D/3D
encaja perfectamente con las tendencias más progresistas de la cultura contemporánea que están
basadas en la idea de híbrido.

Imagen futura Página 14


Cátedra Santos

El nuevo híbrido
Tengo una fuerte confianza en que la “estética informacional” emergente (es decir, las
características específicas de la nueva cultura de la sociedad de la información) tiene o tendrá una
lógica muy diferente a la modernidad*. Esta última fue impulsado por un fuerte deseo de borrar lo
viejo -visible tanto en las declaraciones de los artistas de vanguardia (especialmente en los
futuristas) que decían que había que incendiar los museos , como en la dramática destrucción de las
realidades sociales y espirituales de mucha gente, en Rusia después de la revolución de 1917, y en
otros países cuando se volvieron satélites de la URSS después de 1945. Cultural e ideológicamente ,
quienes pertenecían a este movimiento querían empezar con una tabula rasa, distanciándose
radicalmente del pasado. Fue solamente en la década de 1960 que este movimiento comenzó a
experimentarse como inapropiado, tal como se manifiesta en el debilitamiento de la ideología en los
países comunistas y los comienzos de una nueva sensibilidad postmoderna en Occidente. Para citar
el título de un famoso libro escrito por Robert Venturi et al. (19977 [1972]), Learning from Las
Vegas [Aprendiendo de Las Vegas] (la primera manifestación sistemática de la nueva sensibilidad),
significaba admitir que las culturas vernáculas que se desarrollaban orgánicamente implicaban el
bricolaje y la hibridez antes que la pureza – que se veía, por ejemplo en el estilo internacional que
todavía era practicado en esos tiempos por los arquitectos de todo el mundo. Impulsado menos por
el deseo de imitar las culturas vernáculas y más por la nueva disponibilidad de artefactos culturales
previos almacenados en medios magnéticos y después digitales, la cultura comercial de Occidente
en la década de 1980 sustituyó sistemáticamente la pureza por la heterogeneidad estilística.
Finalmente, cuando colapsó el Imperio soviético, la postmodernidad había ganado en todo el
mundo.
Hoy corremos un muy real peligro de ser prisioneros de un nuevo “estilo internacional” –
algo que puede ser llamado “global internacional”. La globalización cultural, de la cual los vuelos
en aerolíneas baratas e internet son los dos representantes más visibles, borra una cierta
especificidad cultural con la energía y la rapidez que la modernidad no podía emular. Además
somos testigos hoy del funcionamiento de una lógica diferente: el deseo de reunir creativamente lo
viejo y lo nuevo-lo local y lo transnacional- en combinaciones variadas. Es esta lógica, por ejemplo,
la que ha hecho de una ciudad como Barcelona (donde he hablado con John Gaeta en el contexto
del festival Art Futura de 2003 que condujo a este artículo) un lugar tan “hip” e “in” hoy. En toda
Barcelona, los estilos arquitectónicos de hace muchos siglos coexisten con los nuevos espacios
“cool” de bares, hoteles, museos, etc. Lo medieval se encuentra con lo multinacional, Gaudí se
encuentra con Dolce y Gabanna. Los tiempos del Mediterráneo con los de internet. El resultado es
el increíble sentimiento de energía que uno siente físicamente con solo caminar por la calle. Es esta
energía híbrida la que caracteriza, desde mi punto de vista, los fenómenos culturales más
interesantes de hoy8. La imagen híbrida 2D/3D de Matrix es un ejemplo de esa índole.

*
.- Dice Modernism, apunta a los movimiento artísticos y políticos de las vanguardias de fines del siglo XIX y
principios del siglo XX. El modernismo en español corresponde a otra cosa. Modernidad también remite en
español a la Ilustración, que no es el caso aquí, pero sí tiene en común con las vanguardias del siglo XX que
hay un intento fuerte de desechar lo viejo.
8
.-Visto desde esta perspectiva, mi libro anterior, TheLanguage of New Media (2001) [El lenguaje de los
nuevos medios] puede ser visto como una investigación sistemática de una parte de la cultura
contemporánea impulsada por esta estética híbrida: la parte en que la lógica de la computadora digital en
red se intersecta con las numerosas lógicas de las formas culturales ya establecidas.

Lev Manovich Página 15


Cátedra Santos

Los historiadores del cine a menudo proponen un contraste entre los hermanos Lumière y
Marey. Junto a varios inventores de otros países, que trabajaban todos independientemente unos de
otros, los hermanos Lumière crearon lo que hoy conocemos como cine con su efecto visual de
movimiento continuo basado en la síntesis perceptiva de imágenes discretas. Anteriormente,
Muybridge había desarrollado ya un modo de tomar fotografías sucesivas de un objeto en
movimiento, tal como un caballo; finalmente los hermanos Lumière y otros encontraron la manera
de tomar bastantes muestras, de modo que, cuando eran proyectadas, se fusionaban perceptualmente
en movimiento continuo. Al ser un científico, Marey era impulsado por un deseo opuesto: no crear
una ilusión perfecta del mundo visible sino más bien ser capaz de entender su estructura al mantener
discretas las muestras subsecuentes. Dado que él quería ser capaz de comparar fácilmente estas
muestras, perfeccionó un método en el que las imágenes subsecuentes de los objetos en movimiento
se superponían en una sola imagen, y así hacía claramente visibles los cambios.
La imagen híbrida de Matrix de alguna manera puede ser entendida como la síntesis de estos
dos enfoques que durante una centena de años permanecieron como opuestos. Como los hermanos
Lumière, el objetivo de Gaeta es crear una ilusión perfecta de movimiento continuo. Al mismo
tiempo, como Marey, también quiere ser capaz de editar y hacer secuencias de los registros
individuales.
Al comienzo de este artículo evoqué la noción de desarrollo desigual, señalando que a
menudo la estructura interna (“infraestructura”) cambia completamente antes que la superficie (“la
superestructura”) se ponga al día. ¿Qué implica esta idea para el futuro de las imágenes y, en
particular, de las híbridas 2D/3D tal como fueron desarrolladas por Gaeta y otros? Como señaló
Gaeta (2003), aunque su método pueda ser usado para hacer toda clase de imágenes, hasta ahora ha
sido usado al servicio del realismo tal como es definido en el cine, es decir, cualquier cosa que el
espectador ve tiene que obedecer las leyes de la física (Gaeta, 2003). Así, en el caso de Matrix, sus
imagines todavía tienen una apariencia “realista” tradicional mientras están estructuradas
internamente de una manera completamente nueva. En resumen, vemos la vieja “superestructura”
que todavía se encuentra encima de la “nueva” infraestructura. ¿Qué clase de imágenes veremos
cuando la superestructura se empareje con la infraestructura?
Por supuesto que aunque todas las imágenes corrientes de las películas con efectos
especiales de Hollywood han seguido hasta ahora bajo la coacción del realismo, es decir,
obedeciendo las leyes de la física, también se da que no son exactamente las mismas que antes. Para
vender entradas de cine, DVDs y todas las demás mercancías, toda nueva película con efectos
especiales trata de superar a la anterior, al mostrar algo que nadie haya visto antes, En Matrix era el
“tiempo de la bala”; en Matrix 2, era la escena de la lucha (Burly Brawl) donde docenas de clones
idénticos luchan contra Neo; en Matrix 3 era el Superpunch (Borshukov, 2004). El hecho de que la
construcción interna de las imágenes sea diferente permite toda clase de nuevos efectos; escuchando
a Gaeta, es claro que para él la ventaja clave de tales imágenes son las posibilidades que ellas
ofrecen para la cinematografía virtual. Esto es, si previamente el movimiento de la cámara se
limitaba a un pequeño y bien definido conjunto de movimientos – paneo, desplazamiento,
inclinación- ahora puede moverse e cualquier trayectoria imaginable todo el tiempo que el director
quiera. Gaeta habla de la escena de la Burly Brawl en términos de coreografía virtual: esto implica
coreografiar los intrincados y largos movimientos de la cámara, cosa que sería imposible en el
mundo real tanto como hacerlo con los cuerpos que participan en la lucha (todos ellos recreaciones
digitales ensambladas siguiendo el método de Gaeta que se describió anteriormente).

Imagen futura Página 16


Cátedra Santos

Según Gaeta, crear solamente esta escena llevó cerca de tres años. Así mientras, en principio,
el método de Gaeta representa la manera más flexible de recrear la realidad visible en una
computadora hasta el momento, pasarán años antes de que este método sea lo suficientemente ágil y
estandarizado para que estas ventajas sean evidentes. Pero cuando esto pase, los artistas tendrán a su
disposición un medio híbrido extremadamente flexible: el cine completamente computarizado. Más
que esperar que cualquiera de las formas actuales dominará el futuro de la cultura visual, pienso que
este futuro pertenece a tales híbridos. Dicho de otra manera, las imágenes futuras probablemente
sigan siendo todavía fotográficas –aunque solo superficialmente.
¿Y qué pasara con la animación? ¿Cuál será su futuro? Como trate de explicar , además de
las películas de animación puras y las secuencias animadas usadas como partes de otros proyectos
con imágenes en movimiento, la animación se ha vuelto un conjunto de principios y técnicas que
animadores y cineastas emplean hoy para crear nuevos métodos y nuevos estilos visuales. Por lo
tanto, pienso que no vale la pena preguntarse si este o aquel estilo visual o método para crear
imágenes en movimiento que emergió después de la computarización es “animación” o no. Es más
constructivo decir que la mayoría de estos métodos nacieron de la animación y tienen ADN de
animación –mezclado con ADN de otros media. Pienso que una perspectiva tal, que considera a “la
animación como campo ampliado” es un modo más productivo de pensar acerca de la animación
hoy, especialmente si queremos que nuestras reflexiones sean relevantes para todo aquel que esté
interesado en la cultura visual y la cultura mediática contemporáneas.

Referencias

Blinn, J.F. (1978) ‘Simulation of Wrinkled Surfaces’, Computer Graphics, agosto,


pp. 286–92.

Borshukov, Georgi (2004) ‘Making of the Superpunch’, presentaciónen Imagina


2004, disponible en [ww.virtualcinematography.org/publications/acrobat/
Superpunch.pdf].

Borshukov, Georgi, Piponi, Dan, Larsen, Oystein, Lewis, J.P. y Tempelaar-Lietz,


Christina (2003) ‘Universal Capture – Image-Based Facial Animation for “The
Matrix Reloaded”’, SIGGRAPH 2003 Sketches and Applications Program,
Disponible en [http://www.virtualcinematography.org/publications/acrobat/
UCap-s2003.pdf].

Feeny, Catherine (2004) ‘“The Matrix” Revealed: An Interview with John Gaeta’,
VFXPro, 9 de mayo [www.uemedia.net/CPC/vfxpro/article_7062.shtml]

Gaeta, John (2003) Presentación durante un workshopsobre la realización de TheMatrix,


Festival Art Futura 2003, Barcelona, 12 de octubre.

Manovich, Lev (2001) The Language of New Media, Cambridge (Ma.) MIT Press.
Silberman, Steve (2003) ‘Matrix 2’, Wired, 11 de mayo
[http://www.wired.com/wired/archive/11.05/matrix2.html]

Lev Manovich Página 17


Cátedra Santos

Venturi, Robert, Izenour, Steven and Scott Brown, Denise (1977[1972]) Learningfrom Las
Vegas: The Forgotten Symbol of Architectural Form, ed.Revisada, Cambridge (Ma.), MIT
Press.

Lev Manovich es profesor del Departamento de New Media, Visual Arts, y director del
Laboratorio de Análisis Cultural, CAL-IT2, de la Universidad de California, San Diego.

Dirección: University of California, San Diego, Visual Arts Department, 9500 Gilman Drive
MC 0084, La Jolla, CA 92093–0084, USA. [email: [email protected]]

Imagen futura Página 18

También podría gustarte