Tesis Lino Final

Descargar como pdf o txt
Descargar como pdf o txt
Está en la página 1de 411

See discussions, stats, and author profiles for this publication at: https://www.researchgate.

net/publication/275769039

Conservación y Restauración de Arte Digital

Thesis · February 2011


DOI: 10.13140/RG.2.1.1592.9768

CITATIONS READS

5 6,429

1 author:

Lino García
Universidad Politécnica de Madrid
40 PUBLICATIONS 84 CITATIONS

SEE PROFILE

All content following this page was uploaded by Lino García on 03 May 2015.

The user has requested enhancement of the downloaded file.


INFORME Y AUTORIZACIÓN DEL DIRECTOR PARA PRESENTAR LA
TESIS DOCTORAL

El creciente desarrollo de lo digital en el universo artístico contemporáneo


nos ha colocado en un contexto de cara a su preservación y conservación
totalmente diferente al que se enfrentaba la restauración clásica. La tesis
Conservación y Restauración del arte digital desarrollada por el Dr. Lino
García Morales da respuesta a una situación que, cuando menos, podríamos
tildar de alarmante. Frente a unas prácticas de conservación y restauración
que fundamentan su “hacer” en la materia de la obra de arte, el digital es un
arte inestable por naturaleza. Para afrontar su conservación y restauración
el Dr. Lino García elabora un corpus complejo que desde una perspectiva
transdisciplinar dará una respuesta global al problema que pretende
abordar. Si en los primeros capítulos de la tesis hace una revisión exhaustiva
de las teorías tradicionales y contemporáneas que avalan las intervenciones
prácticas, y que le suscitan interrogantes en relación con la aplicación de
esos conceptos en el caso del arte digital, en los capítulos siguientes
propone una metodología de actuación, la recreación, que le servirá, y ahí es
donde radica una de las mayores novedades y la más original de sus
aportaciones, para proponer una solución metodológica y a la vez
documental susceptible de ser aplicada en situaciones muy distintas. Frente
a la solución de problemas únicos, el Dr. García propone metodologías que
incluyen en su conservación o restauración, aunque esto pueda resultar
paradójico, su propia obsolescencia.

Dra. Dª PILAR MONTERO VILAR. Directora de la Tesis CONSERVACIÓN Y


RESTAURACIÓN DE ARTE DIGITAL de la que es autor Dr. D. LINO PEDRO
GARCÍA MORALES AUTORIZA la presentación de la referida Tesis para su
defensa y mantenimiento, en cumplimiento del artículo 21 del Real Decreto
1393/2007, de 29 de Octubre, por el que se establece la ordenación de las
enseñanzas universitarias oficiales y de acuerdo a las normas reguladoras de
estudios de postgrado de la Universidad Europea de Madrid.

20 de octubre de 2010
AGRADECIMIENTOS

Esta tesis simplemente no hubiera sido posible sin la ayuda y colaboración


que he recibido. La conservación y restauración del arte contemporáneo, en
general, y del arte digital, en particular, es, en la actualidad, un mar de
interrogantes donde nadan y buscan respuesta una comunidad reducida y
enérgica de profesionales. Toda la complejidad del mundo actual arremete
con fuerza en cada obra haciendo de la conservación una actividad forense.

Agradezco en primer lugar a mi directora y amiga Pilar Montero. Sin su


paciencia, orientación, consejos, su afán por aumentar mi legibilidad, su
minuciosidad y su sentido del humor, este viaje no hubiera sido ni fructífero,
ni divertido. Nadie mejor que Pilar sabe lo distinto de los mundos que
habitamos en principio, la pesada dicotomía de las artes y las ciencias, y que
conseguimos conciliar. Te seguiré queriendo.

A la Universidad Europea de Madrid. A pesar de que la conservación del


arte digital no figura, por ahora, en su currículum siempre apoyó todas mis
iniciativas: desde el primer concurso ARTCUBE para desarrollar proyectos
interdisciplinares entre la Facultad de Artes y Comunicación (entonces
Escuela Superior de Arte y Arquitectura) y la Escuela Superior de Politécnica,
que inicié con Kepa Landa y José Carlos Cortizo, hasta la propuesta de Grado
en Arte Electrónico y Digital, primer grado híbrido oficial en la confluencia
arte, ciencia, tecnología en territorio español y una de las pocas iniciativas
de este tipo a nivel europeo, desarrollada conjuntamente con Joaquín Ivars,
Kepa Landa e Isidoro Pérez. Desde el Vicerrector de Política Científica y
Profesorado Óscar García y el Rector Antonio Bañares hasta la Vicerrectora
de Profesorado e Investigación Mª Adelaida Portela y la Rectora Águeda
Benito. De todos ellos, solo he recibido apoyo en todos los sentidos. Gracias
a todos ellos por acompañarme en este camino heterodoxo, transdisciplinar
y creativo. Gracias especialmente a Joaquín Ivars, Director del Área de Bellas
Artes y Diseño, por su colaboración, y compromiso; a Grego Matos,
directora del Departamento de Arte; y a los profesores Enrique Corrales y
Fernando Espuelas. Sin ellos tampoco hubiera sido posible esta tesis. Gracias
también a Rafael Mompó, Jefe del Departamento de Electrónica y
Comunicaciones y a Enrique Fernández del Río, Director de la Escuela
Superior Politécnica, por animarme a seguir adelante. Gracias a Roberto
Gómez y Guadalupe Serradilla, de la OTRI y, a todos los compañeros que, de
una forma u otra me han apoyado.
Quiero también agradecer al Museo Nacional Centro de Arte Reina Sofía
y, muy en especial a Jorge García Gómez-Tejedor, Director del
Departamento de Conservación y Restauración, su espléndida participación
y apoyo en este trabajo que, debo decir, superó con creces todas mis
expectativas. Gracias también a Mikel Rotaeche y a Mayte Ortega. Sin todos
ellos esta tesis hubiera sido imposible.

Gracias también a: Carol Stringari, Chief Conservator of the Solomon R.


Guggenheim Museum; Glenn Wharton, Conservador de proyectos
especiales del Museum of Modern Art (MoMA) en New York, Profesor de
estudios museológicos de la New York University (NYU) y Director ejecutivo
del INCCA para Norteamérica; Tom Learner, Director de investigación de
arte contemporáneo del Getty Conservation Institute; Pino Monkes,
Conservador del Museo de Arte Moderno de Buenos Aires; Gabriela
Baldomá, Directora del IICRAM-Instituto de Investigación, Conservación y
Restauración del Arte Moderno y Contemporáneo; Humberto Farias,
Conservador del Centro de Conservación de Bienes Culturales-Universidad
Pontificia Católica de Sao Paulo; Laura Barreca, Conservadora del PAN -
Palazzo delle Arti Napoli y Università degli Studi della Tuscia. Muchas gracias
a todos ellos por compartir muchas de las dudas y experiencias que
desarrolla esta tesis.

Gracias especialmente a Salvador Muñoz Viñas, Director del


Departamento de Conservación y Restauración de Bienes Culturales de la
Universidad Politécnica de Valencia. Sin su libro, Teoría Contemporánea de
la Restauración, citado tantas veces en este escrito, no habría tierra firme
entre los mares de dudas de la conservación del arte contemporáneo pero
sin sus reflexiones, aportaciones, emails, ánimos, etc. este trabajo no
hubiera llegado tan lejos.

Sí son todos los que están pero no están todos los que son. Son muchas
las personas que de una forma y otra me han ayudado de las que estoy
sinceramente agradecido. A la memoria de mi padre Fernando y mi tío
Cucho. A mi madre Pilar, mis hermanos Momi y Fernan y mi cuñada Toñi. A
mis amigos Anita, Garci y Sebas, Jose, Manuel, Cipri, Juanjo, Juan Pablo, Gigi.
A todos los que aún creen en este proyecto: muchas gracias.
A Hugo, Héctor y Viki
INTRODUCCIÓN ............................................................................... 1
Paradojas de la Restauración ....................................................................3
Transdisciplinariedad .................................................................................8
Restauración digital .................................................................................10
Esquema de la Tesis .................................................................................12
I Arte Digital ................................................................................................. 12
II Teoría de la Restauración del Arte Digital ................................................. 13
III Conservación Evolutiva ........................................................................... 14
IV Caso de Estudio ........................................................................................ 16
A Metodologías ............................................................................................ 17
B Tecnologías ............................................................................................... 18

I ARTE DIGITAL ............................................................................. 21


Definir lo inestable. Un problema de categorización ...............................21
Datar lo inestable. Un problema histórico ...............................................50
Restaurar lo inestable. Un problema por resolver ...................................61
Conclusiones ............................................................................................78

II TEORÍA DE LA RESTAURACIÓN DEL ARTE DIGITAL ...................... 81


Arte Digital. Un activo emergente .......................................................... 81
Objeto de Restauración ...........................................................................86
Análisis multidimensional de la Restauración ..........................................96
Autenticidad ............................................................................................. 103
Universalidad............................................................................................. 106
Reversibilidad ............................................................................................ 106
Objetividad ................................................................................................ 107
Historicidad ................................................................................................ 107
Integridad................................................................................................... 108
Durabilidad................................................................................................. 108
Estrategias de Restauración ................................................................. 117
Casos de Estudio .................................................................................... 124
Conclusiones ......................................................................................... 130

III CONSERVACIÓN EVOLUTIVA ................................................... 133


Obsolescencia tecnológica .................................................................... 134
Debilidad metodológica ......................................................................... 136
Identidad Simbólica ............................................................................... 147
Recreación ............................................................................................. 153
A3 ............................................................................................................... 156
Conclusiones .......................................................................................... 170

IV CASO DE ESTUDIO .................................................................. 173


Videotecnología ..................................................................................... 174
Medio......................................................................................................... 180
Equipamiento ............................................................................................. 180
Entorno ...................................................................................................... 183
Percepción ................................................................................................. 184
6 TV Dé-coll/age .................................................................................... 186
Planteamiento de Restauración ............................................................ 190
Documentación.......................................................................................... 193
Modelo ....................................................................................................... 195
Diseño ........................................................................................................ 197
Implementación ......................................................................................... 199
Ecualización................................................................................................ 200
Conclusiones .......................................................................................... 205
CONCLUSIONES ........................................................................... 207

A METODOLOGÍAS ..................................................................... 213


MPT.........................................................................................................214
Objetivos ................................................................................................... 218
Fases .......................................................................................................... 222
Modelo ...................................................................................................223
Datos, procesos y dominios ...................................................................... 223
Diseño .....................................................................................................232
Definición de entidades a3.cubes, a3.nexus ............................................ 232
Valoración presupuestaria ........................................................................ 241
Implementación .....................................................................................243
Planificación .............................................................................................. 243
Conclusiones ...........................................................................................269

B TECNOLOGÍAS ......................................................................... 273


Sistemas Complejos ................................................................................275
Sistemas tecnológicos complejos .............................................................. 276
Componentes ............................................................................................ 277
Interacciones ............................................................................................. 280
Interconexión de Sistemas Abiertos .......................................................283
Capas, protocolos e interfaces .................................................................. 284
OSI ............................................................................................................. 286
Arquitecturas ..........................................................................................291
Procesadores ............................................................................................. 293
Sistemas Operativos .................................................................................. 297
Sistemas Integrados .................................................................................. 298
Procesos, hebras y estados ....................................................................... 301
Comunicación entre procesos ................................................................... 304
Sincronización entre procesos ................................................................... 306
Paralelización ............................................................................................. 307
Paradigma Cliente-Servidor ....................................................................... 315
Servicios ..................................................................................................... 321
Computación en Nube ............................................................................... 325
Virtualidad ............................................................................................. 332
Virtualización/Paravirtualización ............................................................... 333
Estrategias de virtualización ...................................................................... 336
Opcodes y Bytecodes ................................................................................. 339
Jerarquías ................................................................................................... 339
Maquinaria virtual ..................................................................................... 343
Lenguajes, Lenguas y Dialectos ............................................................. 346
Computación Híbrida ............................................................................. 352
Partición ..................................................................................................... 361
LINOOS ................................................................................................... 365

BIBLIOGRAFÍA ............................................................................... 375


Obras citadas ......................................................................................... 375
Leyes, Cartas y Documentos .................................................................. 385
Proyectos e Instituciones ....................................................................... 386
Referencias Tecnológicas....................................................................... 388
RESUMEN

Esta tesis trata la conservación y restauración del Arte Digital. Son muchas
las interrogantes que plantea este reto y menos las respuestas. ¿Qué es el
arte digita? ¿Qué es el patrimonio digital? ¿Cuál es la Teoría más adecuada a
este tipo de prácticas? ¿Cuáles son los retos de la Restauración? ¿Cuáles son
los problemas éticos que plantean? ¿Cuál es el papel de los agentes
implicados: artista, conservador, comisario, coleccionista, documentalista,
etc.? ¿Cómo influye en la Restauración la nueva reordenación en la
intersección arte, ciencia, tecnología, comunicación, sociedad? En esta
investigación se reflexiona acerca de aspectos tan multidisciplinares como la
Teoría de la Restauración, el arte digital, metodologías y tecnologías
relacionadas tanto con la producción como con las estrategias de
Restauración lo que exige una lectura abierta y transdisciplinar y, de hecho,
un símil en si mismo, del reto que supone esta confluencia.

El Capítulo I es una revisión completa del objeto de Restauración: el arte


digital, desde diferentes puntos de vistas. ¿Por qué es importante
cartografiar el arte digital? ¿Cuál es su naturaleza? ¿Cuáles consecuencias
tiene la inmaterialidad? ¿Es posible definir, datar y conservar lo inestable?

El Capítulo II propone una Teoría de la Restauración del arte digital y


establece sus relaciones con las Teorías Tradicionales y Contemporáneas de
la Restauración. ¿Cuál es el problema conceptual? ¿Es Restaurable la
inmaterialidad? ¿Hasta donde son aplicables las teorías tradicionales de la
Restauración? ¿Por qué la Restauración digital?

El Capítulo III revisa la Restauración desde un punto de vista


multidimensional y propone una nueva estrategia para la Restauración del
arte digital: la recreación. ¿Por qué conservación evolutiva? ¿Representa la
obsolescencia el fin del objeto? ¿Qué determina «lo digital»? ¿Es posible
una Restauración alógrafa? ¿Por qué una tecnología es más apropiada que
otra? ¿Qué valor aporta una metodología? ¿Por qué el paradigma de los
sistemas complejos?

El Capítulo IV explora la recreación en la conservación del videoarte y la


videoinstalación y desarrolla como caso de estudio la obra de Wolf Vostell: 6
TV Dé-coll/age. ¿Cómo recrear la imagen? ¿Es posible conservar lo
inmaterial?
El Anexo A propone una metodología para el diseño y desarrollo de
proyectos transdisciplinares. ¿Por qué transdisciplinar? ¿Qué ofrece el
paradigma de la complejidad? ¿Por qué debe ser incorporado en la
Restauración del arte digital? ¿Por qué es importante para el nuevo
conservador? ¿Es posible documentar el objeto de Restauración a partir de
la información que contiene?

El Anexo B diserta acerca de las tecnologías relacionadas con el arte


digital y, en definitiva, responsables directas de su obsolescencia: lenguajes,
sistemas, arquitecturas, software/hardware. ¿Qué hacer con lo que existe?
¿Es posible un panorama diferente evolutivo? ¿Cómo puede ser la
tecnología inmune a su propia obsolescencia?
ABSTRACT

This thesis deals with the conservation and restoration of Digital Art. There
are many questions raised by this challenge and fewer answers. What is
digital art? What is digital heritage? What is the most appropriate theory to
such practices? What are the challenges of Restoration? What ethical issues
arise? What is the role of the stakeholders: artist, conservator, curator,
collector, archivist, etc.? How does Restoration act in the new order of the
intersection of art, science, technology, communication, society? This
research reflects on multidisciplinary aspects such as the Theory of
Restoration, digital art, methodologies and technologies related to both
production and the proposed Restoration strategies what requires an open
and interdisciplinary reading and, in fact, it is a simile itself of the challenge
of this confluence.

Chapter I is a complete revision of the object of Restoration - digital art,


from different points of views. Why is it important to chart digital art? What
is its nature? What implications does the immateriallity have? Is it possible
to define, date and preserve the unstable?

Chapter II proposes a theory of digital art Restoration and establishes


relationships with Traditional and Contemporary Theories of Restoration.
What is the conceptual problem? Is immateriality able to be Restored? To
which extent can traditional Restoration theories be used? Why digital
Restoration?

Chapter III revises Restoration from a multidimensional point of view and


proposes a new strategy for Restoration of digital art - recreation. Why
evolutive conservation? Does obsolescence represent the end of the object?
What determines «the digital»? Is an allograph Restoration possible? Why
some technologies are more appropriate than others? What value does a
methodology add? Why the paradigm of complex systems?

Chapter IV explores the recreation in the conservation of videoart and


videoinstallation art and develops the work of Wolf Vostell: 6 TV Dé-coll/age
as a case study. How to recreate the image? Is it possible to preserve the
immaterial?
Annex A proposes a methodology for the design and development of
transdisciplinary projects. Why Transdisciplinary? What does the paradigm
of complexity offer? Why should it be incorporated in Restoration of digital
art? Why is it important for the new conservator? Is it possible to document
the Restoration object from the information it contains?

Annex B discourses on the technologies related to digital art and,


ultimately, directly responsible for its obsolescence - languages, systems,
architectures, software/hardware. What can be done? Is it possible a
different evolutionary outlook? How can technology be immune to its own
obsolescence?
INTRODUCCIÓN

Yo trato, con dificultad, de convertir lo que ambos vimos en palabras

Luis Rogelio Nogueras

El título de esta tesis contiene dos conceptos básicos difíciles de explicar uno
sin el otro por su particular interrelación. El arte digital es objeto de
determinados procesos como son la conservación y la restauración y que
constituyen el Leitmotiv de esta investigación; muy relacionados además
con la preservación, documentación, e incluso, con la presentación o
exposición y la propia producción. Para facilitar la comprensión y evitar la
redundancia de términos se todas las actividades comunes de estos
procesos, tan antiguos como la propia preocupación de transmitir la
herencia cultural del pasado al futuro, se resumen en un único término:
Restauración1.

La conservación y la restauración son, desde el punto de vista


patrimonial, el conjunto de procesos dedicados a la preservación de los
bienes culturales para el futuro, que mantienen o devuelven la eficiencia y
originalidad a un producto de la actividad humana o natural; sus actividades,
como la examinación, documentación, tratamiento, prevención y cuidado,
etc. están sistematizadas, legisladas y regladas. Sin embargo, cuando el
objeto de estos procesos es el arte digital, el panorama es bien diferente:
inexplorado, inestable, ambiguo, anárquico, etc. El arte digital es inestable
por naturaleza. La obsolescencia tecnológica y la carencia de una

1
Muñoz Viñas, Salvador. Teoría Contemporánea de la Restauración. Madrid: Editorial
Síntesis, 2003. Muñoz Viñas utiliza el término Restauración como sinónimo de «conservación
y restauración», en sentido amplio (p. 18). Aunque el objetivo es evitar ambigüedades, en
cuanto a la descripción de las actividades del conservador parece razonable incluir a tal
definición, en mayúscula, los procesos de producción, preservación, documentación y
presentación. Este último cada vez más reclamado en la complejidad expositiva del museo
contemporáneo. Los límites de los roles relacionados con estos procesos, en el arte digital,
son cada vez más permeables y borrosos. De igual manera, la utilización de cualquier vocablo
relacionado con la Restauración, como Restaurar, Restaurador, etc. hace referencia a
actividades “comunes” en el ámbito de la preservación, conservación, restauración,
documentación y presentación o exhibición.

1
INTRODUCCIÓN

metodología de producción y Restauración son su mayor debilidad2. El arte


digital es quizá la última de las prácticas artísticas del arte contemporáneo
que ha conseguido el interés patrimonial, histórico y cultural del que
carecía; no aún, sin embargo, un corpus sistémico teórico respecto a su
Restauración.

Las teorías de Restauración, excepto las funcionales, centran sus bases


en la materia de la obra de arte. Sin embargo, el arte digital es procesual;
solo una parte es materia activa, normalmente un ordenador o determinada
tecnología digital que contiene y procesa información3. “Los bits componen
el ADN de la información”4. El bit representa un estado: «1» activo, «0»
inactivo; no físico, sino lógico. «Lo digital» es un sistema binario que
representa la información con solo estos dos estados. Los datos y procesos
son inestables, intangibles, inmateriales, virtuales. Incluso la imagen, como
epifanía de la obra, puede ser inmaterial. El objeto de Restauración es
intangible5.

El arte digital pertenece a un nuevo territorio del patrimonio cultural: el


patrimonio digital, que exige una mayor atención hacia la conservación de
los procesos (como un tipo especial de datos), además de los datos6.

2
García, Lino y Montero, Pilar. The Challenges of Digital Art Preservation. e-Conservation,

3
La «información», es un conjunto convenientemente estructurado y organizado de datos
procesados. El «dato», es una expresión mínima de contenido con determinada
representación simbólica: numérica, alfanumérica, algorítmica, etc. mientras que un
«proceso», del latín processus, es un conjunto de actividades o eventos (coordinados u
organizados) que se realizan o suceden (alternativa o simultáneamente) con un fin
determinado.

4
Cilleruelo, Lourdes. Lo digital en el arte. Editorial MNCARS, 2008.

5
Muñoz, Teoría Contemporánea de la Restauración, op. cit., p. 36. “el salto desde los bienes
físicos hacia los metafísicos”.

6
Webb, Colin, et al., Directrices para la Preservación del Patrimonio Digital, preparado por la
Biblioteca Nacional de Australia, División de la Sociedad de la Información, Organización de
las Naciones Unidas para la Educación, la Ciencia y la Cultura, 2003, en:
http://unesdoc.unesco.org/images/0013/001300/130071s.pdf, [Consulta: 15-11-2009]. Este
documento contiene directrices generales y técnicas para la preservación del creciente

2
Paradojas de la Restauración

Es necesario, por lo tanto, establecer una base conceptual que permita el


enfoque correcto de los procesos de Restauración, particulares a las
diferentes prácticas en el ámbito del arte digital. Sin embargo, la búsqueda
del proceso «óptimo», a un objeto singular es una tarea forense7 y compleja
(dada la contaminación de disciplinas, lenguajes, narrativas, y la naturaleza
«intermedial», del arte contemporáneo). Es el propio objeto metafísico el
que determina sus procesos de Restauración. Cada obra presenta un
problema diferente para el Restaurador. Parece razonable entonces definir
lo inestable antes de tratar cómo Restaurarlo.

Es inevitable una estrategia de conservación evolutiva con una


metodología de lectura-producción y Restauración que permita analizar-
producir objetos, resistentes a la obsolescencia tecnológica. El objeto está
obligado a evolucionar, adaptarse, cambiar, necesita mutar para sobrevivir
al tiempo. Las intervenciones sobre el objeto están encaminadas a
garantizar su estado futuro y prevenir alteraciones de su comportamiento,
ya sea debido a su factura (en relación a las carencias de metodologías de
producción), al deterioro de algunas de sus partes o del todo o a su propia
obsolescencia. Todas estas acciones son, por lo tanto, naturales a la
Restauración.

Paradojas de la Restauración

La responsabilidad de los museos de arte contemporáneo de estudiar,


divulgar y conservar su colección genera una serie de paradojas en el ámbito
de la Restauración del arte digital cuyas consecuencias son aún difíciles de
cuantificar. De hecho los procesos involucrados en la Restauración, como
condicionantes de la evolución del objeto, han devenido en una importante
e insospechada fuente para el estudio del arte contemporáneo.

patrimonio digital mundial y el acceso permanente al mismo y tiene por finalidad servir de
manual de referencia sobre el Proyecto de Carta para la Preservación del Patrimonio Digital.
Sin embargo es una iniciativa parcial orientada a la preservación de datos, no de procesos;
textos, bases de datos, imágenes fijas o en movimiento, grabaciones sonoras, material
gráfico, programas informáticos o páginas Web, entre otros. Aunque se hable de patrimonio
digital está claro que: lo digital es el soporte y la creación lo patrimonial.

7
En cuanto a la aplicación de prácticas científicas transdisciplinares en los procesos no
necesariamente para uso legal.

3
INTRODUCCIÓN

Restaurar lo nuevo. El arte digital no ha resistido el paso del tiempo. Se


colecciona lo que Philip Fisher denominó “pasado del futuro”8 mientras que
“la concepción de un museo de arte del futuro es, en sí, una contradicción”9.
Los trabajos contemporáneos valorizados al entrar a la colección del museo
son en un sentido proyectados al futuro, juegan un papel en una historia
anticipatoria10.

Restaurar lo inconcluso. El arte digital es tecnología. Cualquier obra de


arte digital es, técnicamente, un objeto-sistema que consume, procesa,
almacena y produce información fundamentalmente, que no
exclusivamente, perceptual, que rompe su ciclo evolutivo al entrar a la
colección del museo11. Es este último el responsable de cualquier mutación
imprescindible que garantice su supervivencia.

Restaurar lo reproducible. El arte digital es post-aurático12. El concepto


de originalidad y unicidad es débil: cita, apropiación, réplica, incluso plagio,

8
Fisher, Phillip. Making and Effacing Art Modern American Art in the Culture of Museums.
New York: Oxford University Press, 1991 cit. en Altshuler, Bruce (Ed). Collecting the New: A
Historial Introduction. Collecting the New: Museums and Contemporary Art. New Jersey:
Princeton University Press, 2004, p. 2.

9
Ippolito, Jon. El museo del futuro: ¿una contradicción en los términos? Disponible en:
http://aleph-arts.org/pens/museo_futuro.html, 1998, [Consulta: 6-5- 2010]. Este artículo
apareció originalmente en Artbyte_, Junio-Julio 1998. Ya desde las vanguardias se
cuestionaba “lo museable”. Según Gertrude Stein “Algo puede ser moderno o museable pero
no ambos a la vez” en Rusell, Lynes. Good Old Modern: An intimate Portrait of the Museum of
Modern Art. New York: Atheneum, 1973 cit. en Altshuler, Bruce (Ed). Collecting the New: A
Historial Introduction. Collecting the New: Museums and Contemporary Art. New Jersey:
Princeton University Press, 2004, p. 1.

10
Altshuler, Bruce (Ed). Collecting the New: A Historical Introduction, en Collecting the New:
Museums and Contemporary Art, New Jersey: Princeton University Press, 2004, pp. 1-13.

11
Cualquier sistema tecnológico tiene un complejo ciclo de vida que se inicia con su diseño y
no termina precisamente con su producción (lo que en el ámbito de la tecnología se
denomina puesta a punto) sino con un largo ciclo de mantenimiento casi siempre en espiral
hasta conseguir la estabilidad y robustez deseada y que, debido a la obsolescencia, tiende a
infinito en el tiempo.

12
Benjamin, Walter. La obra de arte en la época de su reproductibilidad técnica en Discursos
Interrumpidos I. Madrid: Taurus Ediciones, 1973. Benjamin trabaja sobre la idea de que

4
Paradojas de la Restauración

son mecanismos habituales de sus prácticas artísticas. La unidad potencial


de la obra de arte se rompe.

Restaurar lo decrépito. La evolución tecnológica tiene la capacidad de


producir tecnologías perdurables. Se dispone de la técnica para producir
productos duraderos a la vez que se genera la necesidad de adaptación al
cambio permanente de las tecnologías. Pero la compleja relación desarrollo
tecnológico-crecimiento económico hace imposible esta tautología. El
desarrollo tecnológico es la fuente de progreso económico y de
productividad13 a la vez que conocimiento y constituye los ejes centrales del
progreso social. La tecnología ha pasado a ser el principal factor de
productividad y el instrumento imprescindible para la competitividad y
rentabilidad de los agentes económicos. La innovación impone
obsolescencia14.

Restaurar lo inmaterial. El objeto de Restauración, las partes o el todo,


tiene un componente metafísico que funciona como aspecto. Los procesos
objetivos de Restauración del aspecto inmaterial son indirectos, a través de

existen condiciones materiales de producción a nivel de superestructura; se propone pensar


el arte desde la innovación tecnológica, desde el criterio de la creación de un nuevo concepto
de arte y las mismas condiciones de recepción. Afirma que el arte no es solo reflejo y
reproducción, sino que también es producción material. La reproductibilidad técnica genera
la pérdida del aura, como pérdida del valor cultual, del objeto único y original, ya que al
permitir la reproducción existen innúmeras copias exactamente iguales. En la reproducción
técnica mejor lograda falta el “aquí y ahora” de la obra original, eso constituye, según
Benjamin, el aura: “*es la] manifestación irrepetible de una lejanía (por cercana que pueda
estar)”. Esta pérdida del aura es, para Benjamin algo positivo, un signo de desarticulación de
la tradición (como algo fijo y regresivo), como capacidad de acercar el objeto a su
destinatario, en el sentido de cercanía física y en el sentido democrático, e impide que
adquiera un valor cultual, extático, ritual e inaccesible.

13
Los modos de incrementar la producción definen, en cada momento, la estructura y
dinámica del sistema económico.

14
El crecimiento económico es una medida: la variación positiva del Producto Interior Bruto
(PIB) Real durante varios años (del incremento de la producción en forma continua). Este
incremento de la producción es sostenible siempre y cuando haya innovación tecnológica en
los procesos productivos. Mejor tecnología supone mejor productividad y con ello la
elevación de los niveles de competencia en el mercado.

5
INTRODUCCIÓN

la estructura, y dirigidos por la percepción subjetiva de una imagen: inicial,


correcta, actual15.

Restaurar lo inestable. La carencia metodológica agudiza la fragilidad de


un arte que depende de la energía y que habita en un entorno agresivo,
interactivo, vulnerable y decadente. Artefactos únicos, procesuales, con
montajes y secuencias de operación complejas funcionando en regímenes y
espacios dispares y diversos16.

Restaurar lo voluble. La obsolescencia tecnológica impone una serie de


decisiones futuras que involucran, inevitablemente, al artista. La cooperación
transdisciplinar debe aportar nuevos criterios que sirvan de fundamento a
ese arbitraje. Sin embargo, las tensiones entre la Ley de la Propiedad
Intelectual y la Ley de Patrimonio pueden inclinar la balanza positiva o
negativamente al proceso de Restauración. Las preocupaciones del artista y
el Restaurador pueden ir, según el caso, en sentido contrario17.

15
Muñoz, Teoría Contemporánea de la Restauración, op. cit., pp. 84-91. En relación a los
“estados auténticos del objeto” o “estados de verdad” y que se pueden resumir en: “estado
auténtico como estado original” o inicial, “estado auténtico como estado prístino” o correcto:
“estado que debería tener, aunque de hecho, no lo haya tenido nunca”, “estado auténtico
como estado pretendido por el autor” (variante del estado anterior) o “estado auténtico
como estado actual” o actual.

16
Villaescuerna, Pureza. Videoarte: La evolución tecnológica. Nuevos retos para la
conservación. Registro de videoarte: Aprehendiendo lo intangible. MNCARS, 2007, p. 121.
“Gary Hill *llegó a decir en la entrevista realizada por el Departamento de Restauración del
MNCARS] que su estado ideal [la forma en que se presenta su obra] sería «un solo ordenador,
donde solo fuera necesario un botón, eso es todo»”. La alusión a “un botón” es un reclamo,
sin duda, a la simplicidad del montaje en el proceso de exposición.

17
La Ley de la Propiedad Intelectual potencia el papel del artista mientras que la Ley de
Patrimonio la de la institución responsable de la conservación del bien. Se produce a corto
plazo mientras que se Restaura a largo plazo. Al artista le preocupa cuestionar, experimentar
los materiales, llevarlos al límite; al Restaurador estabilizarlos. Al artista le interesa el
presente, al Restaurador el futuro. Ambos, artista y Restaurador, tienen voz y voto en todas
las determinaciones futuras de la obra desde posiciones y formaciones que pueden entrar en
contradicción y que, de hecho, son motivo de debate ético. El artista es el «maestro armero»
de su obra pero no es Restaurador.

6
Paradojas de la Restauración

Cada obra de arte digital es un «caso de estudio». La producción, la


tecnología empleada, las condiciones de funcionamiento, las exigencias, etc.
son únicas. No existe una línea de producción estandarizada y las opciones
de producción son prácticamente infinitas. La calidad de documentación de
las obras no es uniforme ni homogénea. Adquirir obras digitales es sinónimo
de absorber un número elevado de problemas complejos irresolubles a
simple vista.

1. Golan Levin. Eyecode, 2007. Instalación interactiva cuya imagen se


autoconstruye de lo que «ve». Por medio de una cámara oculta, el sistema
registra y reproduce vídeo clips breves de los ojos de sus espectadores. Cada clip
se articula por la duración de entre dos parpadeos del espectador. El
desconcertante resultado es un tapiz tipográfico de observación recursiva. Está
implementada con openFrameworks y utiliza la biblioteca de visión por
ordenador OpenCV.

El arte digital es antagónico a lo conservable; es activo (necesita energía),


efímero, intangible, inmaterial e intrínsecamente obsolescente a pesar de
contar con todos los recursos para perdurar en el tiempo. Estas paradojas
ponen en crisis los pilares básicos que soportan la Restauración tradicional:

7
INTRODUCCIÓN

historicidad, integridad, autenticidad, reversibilidad, objetividad,


universalidad, durabilidad e invitan a una revisión profunda de las teorías
tradicionales de la Restauración. La naturaleza del arte digital condiciona las
actividades relacionadas con la transmisión al futuro del bien ya sea a corto
(empezando, incluso, desde la producción; la exposición) o largo plazo
(preservación, conservación y restauración) y en la documentación.
Progresividad, inmaterialidad y reactividad son consecuencias, que no
causas, de esta naturaleza temporal; así como todos los problemas éticos
que derivan de ello.

Transdisciplinariedad

La Restauración del arte digital es una práctica transdisciplinar18 que se


produce en la intersección del arte, la ciencia, la tecnología, la
comunicación, etc. Las actividades relacionadas con los procesos de
producción, documentación, preservación, conservación, restauración y
presentación, de una obra de arte digital, no aparecen aisladas e inconexas
sino completamente imbricadas y enlazadas. La participación de cada uno
de los agentes: artistas, técnicos, especialistas, comisarios, documentalistas,
gestores, etc., en cualquiera de los procesos es fundamental y esto es
significativamente diferente en relación a los objetos tradicionales en
muchos aspectos19.

Esta necesidad de encuentro entre disciplinas plantea un reto en la


comunicación. El uso de un lenguaje común, preciso y accesible a todos los
agentes, es imprescindible para abordar la Restauración del arte digital. Sin
embargo el arte es ambiguo y la tecnología racional lo que introduce otra
paradoja: el objeto de Restauración puede significar ambigüedad desde una
producción conclusiva; pero un objeto inconcluso no puede ser robusto ni
estable. No es susceptible de Restaurar.

18
Gibson, Steve. Introduction: Why Transdisciplinary Digital Art? en Adams, Randy; Gibson,
Steve; Arisona, Stefan Müller (Eds). Transdisciplinary Digital Art, Sound, Vision and the New
Screen. Springer, 2008. Communications in Computer and Information Science, Volume 7,
Part 1, 1-2.

19
Inside Installations, en: http://www.inside-installations.org/ , [Consulta: 7-10-2010].

8
Transdisciplinariedad

2. Hiroshi Kawano. Kawano\_2 Series of Artificial Mondrian, 1966.


Representación «explícita», del carácter procesual del arte digital.

La Restauración del arte digital parece imposible. Efímero y permanente,


perecedero e inmortal (la voluntad del artista versus la obligación de la
institución), objetual y conceptual, transitoriedad y posteridad, son solo
algunas antinomias que, ante el papel de memoria colectiva que representa
el patrimonio cultural de la humanidad, merecen un profundo análisis.
Como apunta Olenshläger “la transdisciplinariedad es un sistema operativo
de código abierto”20.

20
Olenshläger, Karin. Mesa 4. ARTE, CIENCIA, TECNOLOGÍA Y SOCIEDAD. I Foro de Creatividad
e Innovación Transversal. Madrid: UEM, 2010. Karin es crítica y comisaría de exposiciones
especializada en arte contemporáneo y nuevas tecnologías, cofundadora y codirectora de
MedialabMadrid (2002-2006).

9
INTRODUCCIÓN

Restauración digital

El mundo «real» es analógico y seguirá siendo analógico, al menos visto


desde una observación mucho más allá de las micropartículas, pero su
análisis y control es, desde aproximadamente la segunda mitad del siglo XX,
y muy probablemente será, durante mucho tiempo del futuro, digital. En
este modelo discreto del mundo solo intervienen tres elementos: la
información, representada por datos binarios; los procesos que consumen,
almacenan, transforman y generan datos; y el soporte físico que permite la
activación de tales procesos; normalmente un procesador digital y un
complejo de dispositivos periféricos; «cerebro» y «cuerpo»,
respectivamente, de las tecnologías digitales21.

En el mundo «real», analógico, las variables (datos) que se utilizan para


cuantificarlo son continuas. Por muy pequeña que sea una magnitud
siempre es posible hallar un valor capaz de representarla. Sin embargo
desde que Nyquist y Shanon demostraron que era posible «discretizar» la
información, sin pérdidas, nada volvió a ser como antes22. La posibilidad de
representar la información en una secuencia de números binarios; copiable
infinita e idénticamente, transmisible libre de error y almacenable de forma
barata y segura aceleró la tercera revolución industrial durante la cual se
desarrolló el corpus teórico y tecnológico del proceso de discretización o
digitalización.

21
Los procesos y datos conforman las partes “blandas” del sistema: el software; mientras que
el soporte la parte “dura”: el hardware. El software es intangible, inmaterial, mientras que el
hardware es tangible, material. A pesar de ser términos de uso frecuente importados del
inglés, para evitar ambigüedad se utilizan los términos hardware/software (HW/SW).

22
Harry Nyquist conjeturó en 1928, en “Certain topics in telegraph transmission theory”, las
condiciones de reconstrucción de una variable o señal continua a partir de sus muestras.
Dicho de otro modo, la información completa de la señal analógica que cumple el criterio
anterior está descrita por la serie total de muestras resultantes del proceso de muestreo.
Calude E. Shanon demostró en 1948, en “A Mathematical Theory of Communication”, en lo
que se conoce como Teoría de la Información, cómo se debe realizar esta cuantificación. La
entropía determina el número promedio de bits necesarios para representar la información.

10
Restauración digital

3. Lillian Schwartz. Mona/Leo, 1986.

El mundo analógico desaparece con fecha de caducidad programada23


arrastrando con él obras y colecciones emblemáticas relacionadas con las
tecnologías analógicas24. La «era digital» ha llegado para instalarse en la
«sociedad de la información». Este hecho, sin embargo, conecta
directamente con la Restauración. La realización de copias digitales
(denominada comúnmente digitalización) puede perfectamente producir
materiales de patrimonio digital que necesiten ser preservados25. La
digitalización se puede considerar como una migración imprescindible que
reordena los procesos de Restauración. Fascinaciones aparte, no existe una
Carta del Restauro que soporte al arte digital y el tiempo apremia; es
imprescindible pasar a la acción. La relación entre el riesgo de pérdida y el

23
Desde el 1 de Enero de 2010, por ejemplo, no existe en España televisión analógica.

24
Electrónicas, por ejemplo. Las ya permeables fronteras entre las prácticas artísticas
electrónicas y digitales se desdibujan en lo que se podría llamar un desbordamiento de lo
digital.

25
Webb, op. cit., p. 18. Los materiales patrimoniales digitalizados pasan a ser conservados en
formato digital; como consecuencia de ello, se convierten en patrimonio digital y, por lo
tanto, exigen una Restauración digital.

11
INTRODUCCIÓN

tiempo se torna exponencial y la obsolescencia, ya sea planificada, percibida


o especulativa, su principal catalizador. La Restauración debe ser digital.

Esquema de la Tesis

Esta tesis consta de cuatro capítulos y dos apéndices que funcionan como
partes autocontenidas del libro. Todas las partes están construidas desde
diversas publicaciones, informes de resultados de investigación,
manuscritos, etc. El hilo conductor del libro es el objeto de Restauración: el
arte digital y, los diferentes procesos de Restauración.

Este capítulo provee las bases del objeto de Restauración. El patrimonio


digital tiene serios problemas para su transmisión al futuro con fecha de
caducidad “planificada”; urge actuar ahora, antes de una muerte, súbita o
no, pero definitivamente irreversible. El arte digital es parte de ese
patrimonio. Los retos de su Restauración, los más desafiantes sin duda, son
la obsolescencia tecnológica y la ausencia de una metodología de
producción-lectura, Restauración. Las obras además de inmateriales,
intangibles, son inestables; inestabilidad que, la mayoría de las veces, se
debe a un insuficiente proceso de producción.

La definición del arte digital requiere la exploración de sus territorios e


intersecciones en una cartografía determinada por la tecnología y de un
examen minucioso en su contexto histórico. Este mapa es importante para
situar las acciones de Restauración. El arte digital, como objeto de
Restauración, es de naturaleza inmaterial mientras que la Teoría tradicional
de la Restauración presupone un bien material. Pero no es esta
inmaterialidad, sino su carácter activo, lo que obliga a una revisión incluso
de la Teoría contemporánea de la Restauración26. Esta propiedad es su talón
de Aquiles. El arte digital se basa en procesadores digitales (el ordenador

26
Muñoz, Teoría Contemporánea de la Restauración, op. cit., p. 13. “la teoría contemporánea
*de la Restauración+ existe, pero en un estado difuso”. El libro Teoría Contemporánea de la
Restauración, de Salvador Muñoz Viñas, es un esfuerzo de valor incalculable en la articulación
coherente, sistemática y nítida de un conjunto de teorías fragmentadas, laterales y en
expansión que conforman, de hecho, la teoría contemporánea de la Restauración.

12
Esquema de la Tesis

por excelencia) que consumen energía eléctrica y poseen un breve período


de eficiencia determinado por la obsolescencia tecnológica.

Por último se recopilan las iniciativas, acciones, programas y esfuerzos


más relevantes para resolver la Restauración del arte digital. Todas las
acciones de Restauración están orientadas a un “caso de estudio”; es como
una suerte de ciencia forense que, aunque puede compartir enfoques,
procedimientos y herramientas generales, requiere inevitablemente llegar a
lo particular: cada obra es un mundo.

Este capítulo desarrolla un acercamiento a la Restauración desde un punto


vista dimensional; mediante la introducción de la variable tiempo; ya sea
voluntaria o involuntariamente. Progresividad, inmaterialidad y reactividad
son consecuencias, que no causas, del efecto temporal; así como todos los
problemas éticos que derivan de ello. A modo de resumen, que no
conclusiones, este texto pone de manifiesto la necesidad de una nueva
teoría de la Restauración para el arte digital, que poco tiene de tradicional,
extensible a otras regiones del arte contemporáneo.

Las teorías tradicionales de la Restauración se basan en la materia. Un


enfoque funcional divide el objeto de restauración en imagen y soporte que
proveen aspecto y estructura, respectivamente. Para la teoría tradicional
ambos, imagen y soporte, son materia mientras que, para la teoría
contemporánea de la Restauración, la imagen puede ser inmaterial o híbrida
y la estructura además del soporte puede contener procesos y datos; ambos
inmateriales e intangibles. Esta estructura procesual y la dualidad símbolo-
sistema del bien caracteriza el objeto de Restauración. Se Restaura el
objeto- símbolo interviniendo el objeto-sistema. Es imposible pasar por alto
la expansión de la tecnología digital, se habla de hecho de una «era digital»,
en la medida en que influye tanto en la producción como en la Restauración
de los objetos-sistemas. Lo digital se establece no solo como herramienta,
sino como medio.

La naturaleza holística, inmaterial, ubicua, clonable, del arte digital


contradice todos los fundamentos de la Restauración tradicional:
autenticidad, objetividad, universalidad y reversibilidad; así como
historicidad, integridad y durabilidad. Los procesos de producción,

13
INTRODUCCIÓN

documentación, exposición, preservación, conservación y restauración son


complejos; con una orientación fáctica a «casos de estudio», costosa y
necesariamente transdisciplinar. El papel de los agentes implicados en la
Restauración: artista, conservador, comisario, documentalista, galerista, etc.
se desdibuja en un intrincado y complejo sistema de toma de decisiones.

La documentación y exposición del bien no son ajenas a esta revolución.


Existe una gran tendencia a basar la Restauración en la documentación; sin
embargo, aún cuando facilite determinada decisión respecto al futuro de un
bien, no es suficiente. Todos estos procesos deben cooperar entre sí para
conseguir una transmisión a la posteridad desafiando nuevos y complicados
retos entre los que se encuentra la obsolescencia tecnológica y la ausencia
de metodologías y procedimientos de actuación en prácticas donde
confluyen arte, ciencia, tecnología, comunicación, sociedad, etc. y los raros y
complejos dilemas éticos que suponen. La vida real es enrevesada, los
“sistemas” se comportan de manera caótica y la Restauración debe ser
capaz de absorber esta diversidad.

En este capítulo se definen y analizan en profundidad las principales


estrategias: sustitución, migración, emulación y reinterpretación aplicadas
en la actualidad. Ninguna de ellas garantiza el aspecto lo que abra el debate
ético acerca de la autenticidad/falsedad de la Restauración en el arte digital.
La recreación es una estrategia de conservación evolutiva en esta dirección.
La conservación exige la evolución de la obra. Esta requiere determinado
estado conservable que involucra el proceso de producción. La recreación
lleva la obra a ese estado.

El concepto de conservación evolutiva, aunque no es original (el proyecto


Variable Media ya planteó la necesidad de la Permanencia a través del
cambio), es imprescindible en la Restauración del arte digital. Solo con una
estrategia de conservación evolutiva es posible enfocar correctamente y
resolver los problemas que generan la obsolescencia tecnológica y la
debilidad metodológica en los procesos de producción y Restauración. Sin
embargo, el objetivo del proyecto Variable Media fue establecer protocolos
que permitiésen un acercamiento flexible a la preservación de prácticas
artísticas basadas en el tiempo independiente del medio. Esta estrategia,
para provocar y encauzar su reflexión, confeccionó un “cuestionario” como

14
Esquema de la Tesis

instrumento para esclarecer la forma en la cual un creador desea que su


obra sea re-creada. El nuevo rol del artista (al menos su alto grado de
inclusión) genera, según se pondere, no más de un dilema ético a la vez que
el “cuestionario”, exclusivamente, no soluciona los problemas de
Restauración del bien.

La Restauración del arte digital se basa en algunas estrategias básicas:


sustitución, que consiste en almacenar los elementos o partes susceptible
de reposición que permitan Restaurar una obra; emulación, que permite
mantener la apariencia del medio original en un medio completamente
diferente; migración, que re-implementa procesos y datos en un soporte
nuevo, implica la actualización del equipamiento y material original;
reinterpretación, que permite redefinir una obra en un medio
contemporáneo con el valor metafórico de un medio obsoleto. Excepto la
sustitución (con las limitaciones que supone simplemente acumular)
ninguna de ellas Restaura la imagen perceptualmente resultando,
inevitablemente, el versionado. La Teoría contemporánea de la Restauración
defiende la Restauración del valor simbólico lo que conlleva a la cuestión de
si existe una identidad simbólica y en que grado es posible Restaurarla.

El arte digital, por su naturaleza procesual, se puede considerar


alográfico. La prueba de autenticidad, para este tipo de artes, está en la
corrección de la transcripción en determinada notación lo que conduce al
desarrollo de una estretagia basada en un sistema de notación para la
Restauración: la recreación.

La recreación es un enfoque original, como estrategia de conservación


evolutiva, porque permite producir o adaptar una obra en/a un «estado
conservable»; interviene en la estructura para mantener el aspecto
perceptualmente «idéntico». La recreación se basa en A3: una herramienta
metodológica que provee una infraestructura tecnológica y una
superestructura metodología diseñada expresamente para resistir a la
obsolescencia tecnológica y adecuar el bien no solo a su Restauración, sino
también a los procesos de documentación y exposición. Esta estrategia exige
recrear la obra (caso que fuera desarrollada con otras metodologías; lo que
puede suponer una “versión” del bien) pero no de cualquier manera, al
estilo de la migración y la reinterpretación, sino a través de una
metodología: A3, que garantiza el alcance de un «estado conservable». El
esfuerzo y coste de la recreación (tampoco ajeno a las otras estrategias) se

15
INTRODUCCIÓN

compensa con la adaptación a un formato inmune a la obsolescencia


tecnológica, preparado para evolucionar. La recreación permite una
conservación evolutiva, en completa armonía con la naturaleza del arte
digital.

El videoarte es posiblemente, la práctica artística del arte digital, que mayor


atención ha recibido desde el punto de vista de su Restauración: es el medio
por defecto del arte contemporáneo. La videoinstalación, sin embargo, pese
a compartir el mismo medio, posee el añadido de que su estructura
escultórica forma parte de la imagen. Ambas prácticas dependen de los
desarrollos técnicos audiovisuales como ninguna otra a causa del formato
(correspondientemente el medio) y la máquina (y todos los procesos
asociados capaces de “leer” el formato) que albergan los datos y procesos,
respectivamente y que funcionan como estructura. Ambos, formato y
máquina, son obsolescentes por naturaleza. En el videoarte solo la imagen:
el elemento virtual, intangible, inmaterial, es importante; mientras que, en
la videoinstalación, la estructura lo es en cuanto forma parte de la imagen y,
por lo tanto, tenga un componente material.

La percepción de la parte inmaterial de la imagen es subjetiva por


naturaleza; sin embargo, su conservación tiene un componente objetivo
ineludible y poco explorado. En este capítulo se describe el enfoque
conceptual particular de ambos: videoarte y videoinstalación y se aplica la
estrategia de conservación evolutiva: recreación al «caso de estudio» de 6
TV Dé-coll/age, de Wolf Vostell; una obra emblemática en la historia de la
videoinstalación que pertenece a los fondos del Museo Nacional Centro de
Arte Reina Sofía.

El planteamiento de conservación de la obra de Vostell es el objetivo


principal de un proyecto conjunto de investigación entre el Departamento
de Conservación y Restauración del Museo Nacional Centro de Arte Reina
Sofía y la Universidad Europea de Madrid. La selección de esta obra, en
grave peligro de pérdida, ofrece una oportunidad singular porque permite
un acercamiento a la obsolescencia tecnológica de uno de los medios más
extendidos (televisión y vídeo analógico) desde una obra emblemática y
operativa; lo que permite un constraste objetivo y profundo de la recreación
versus otras estrategias de Restauración.

16
Esquema de la Tesis

El objeto de Restauración del arte digital, como objeto-sistema, es un


sistema de ingeniería complejo muy sensible a la obsolescencia tecnológica
y cuya estabilidad y ciclo de vida depende, en gran medida, de su
concepción y producción y mantenimiento. Este vínculo influye
directamente en todas las decisiones respecto a su conservación y
restauración. Disponer de una metodología de Restauración, útil incluso
para la producción, que genere o adapte objetos a un estado resistente a la
obsolescencia tecnológica y estable no es solo una necesidad, sino un
reclamo.

En este capítulo se detalla la Metodología para la Evaluación y Desarrollo


de Proyectos Transdisciplinares (MPT), desarrollada por el autor en el
contexto del proyecto ARTCUBE: un concurso para promover la actividad
transdisciplinar entre estudiantes de artes e ingeniería. La MPT permite
producir obras de arte digital según el paradigma de los sistemas complejos
con mecanismos adecuados a una conservación evolutiva que las hacen
“resistente” a la obsolescencia tecnológica. A3, metodología en la que se
basa la estrategia de recreación es una adaptación de MPT. Sus dos primeras
fases: modelo y diseño, son idénticamente iguales mientras que la fase de
implementación, que en MPT está diseñada en el contexto de un proyecto
educativo anual (para la consecución de la asignatura proyecto de fin de
carrera mediante técnicas de aprendizaje cooperativo basado en proyectos),
en A3 queda libre de una organización temporal y curricular tan precisa. La
MPT se ilustra mediante un ejemplo de producción (proceso para la cual fue
diseñada inicialmente); sin embargo no existe ninguna contradicción en
cuanto facilita igualmente los procesos de documentación, exposición,
preservación, conservación y restauración.

A3 se basa en una arquitectura de dos niveles: una superestructura


metodológica y una infraestructura tecnológica y, en ello difiere de otras
metodologías: propone una forma determinada de diseño condicionada,
adecuada, a la Restauración. En A3 un objeto-sistema es un sistema
distribuido, concebido según el paradigma de los sistemas complejos,
formado por componentes, a3.cubes, interconectados entre sí a través de
interfaces, a3.nexus. Cada componente se comporta como una «caja negra»
que aisla su implementación de su comportamiento. El uso de interfaces
«universales» permite la sustitución de los componentes sin alterar el

17
INTRODUCCIÓN

comportamiento global del sistema ya sea por necesidad de migración o de


sustitución. Esta independencia de la tecnología es precisamente lo que le
libera de la obsolescencia tecnológica; la posibilidad de evolucionar
consistentemente en el tiempo; hacer realidad la metáfora de la
«permanencia a través del cambio».

Esta metodología, transdisciplinar y compleja (en cuanto satisface el


paradigma de los sistemas complejos) genera, como un subproducto, una
documentación independiente de la implementación, no perecedera, a
modo de sistema de notación que permite una Restauración planificada y
satisfactoria. Por último se establece una comparación con otras
metodologías y se destaca la importancia de insertar este tipo de formación
en el ámbito académico; no solo para artistas, sino para conservadores,
comisarios, etc. responsables, en definitiva, de la Restauración del arte
digital.

El arte digital es activo, necesita energía para manifestarse. En su soporte,


normalmente un procesador digital, confluyen innumerables disciplinas
tecnológicas entre las que destacan: software y hardware (SW/HW). De
hecho otras disciplinas: robótica, redes, prototipado, sensores y actuadores,
inteligencia artificial, etcétera; dependen de alguna u otra manera del
SW/HW. Esta subordinación se debe, fundamentalmente, a la irrupción de la
«era digital». Aunque el mundo es continuo, su representación, control y
observación se realiza, desde la tercera revolución industrial, de manera
discreta. El arte digital utiliza todas estas tecnologías no solo como
herramienta sino como medio de expresión.

No es posible en este contexto hacer un tratado de incluso solo los


aspectos más relevantes de estas tecnologías. La ausencia de conclusiones
en este anexo es una cita a lo infructuoso de este esfuerzo. Lo que hoy es
tecnología punta mañana no será más que chatarra. Pero sí es interesante
reflexionar acerca de aquellos aspectos generales como sistemas abiertos y
complejos, procesos, comunicación y paralelización de procesos,
arquitecturas de procesado, lenguajes, diseños híbridos, virtualidad, etc.
desde el punto de vista de su repercusión en la labor de Restauración; en
una estructura ordenada por estrategias y mecanismos que han sobrevivido
al paso del tiempo. Lo nuevos equipos de Restauración, cuya misión es la

18
Esquema de la Tesis

transmisión del arte digital al futuro, no pueden eludir estas complejas,


cambiantes y variadas áreas de conocimiento. Solo con su dominio se podrá
alcanzar una Restauración científica.

Por último, en este Anexo se reflexiona acerca de cómo debería ser una
tecnología sintonizada con la Restauración del arte digital. Vivimos en una
«era de la información» con poderes fácticos incuestionables desde la
intersección de los nuevos medios y la tecnología (las redes sociales y los
blogs son un buen ejemplo de ello). La «industria» controla nuestros hábitos
de consumo con productos de caducidad programada, la moda, y la
fascinación tecnológica. ¿Es posible un mundo paralelo? Probablemente no,
pero resulta interesante, al menos, saber que es posible y que, podría ser
sostenible. Es necesario reducir, reutilizar, reciclar: la regla de las tRes R’s; y,
aún así, se dispondría de tecnologías adecuadas para la transmisión del
patrimonio digital a la posteridad.

19
INTRODUCCIÓN

20
ARTE DIGITAL

Tú me acostumbraste a todas esas cosas,


y tú me enseñaste que son maravillosas
Frank Domínguez

La conservación del arte contemporáneo, en general, y del digital, en


particular, es una especie de ciencia forense27. La instauración del concepto
en el arte impone el uso de estrategias de conservación específicas en lugar
de generalistas. La Restauración de cada obra, normalmente con un fuerte
carácter temporal, inestable y efímero, requiere de un análisis y enfoque
particular tan plural como la propia diversidad del arte contemporáneo.

Definir lo inestable. Un problema de categorización

En el arte digital existe una cuantiosa variedad de prácticas cuya


denominación está asociada al uso de la tecnología como medio, que no
como herramienta. En inglés simplemente aparece, a continuación, la
palabra art: digital imaging, cinema, video, digital animation, interactive,
digital installations, digital sculpture, virtual reality, augmented reality,
robotic, net, software, computer, game, locative, artificial intelligence,
artificial life (A-life), telepresence, digital music & sound, cell phone, etc. El
español ha ido adoptando el neologismo correspondiente; sin embargo,
tanto en un idioma como en otro, los significados no son precisamente
unívocos. Estas prácticas comparten rasgos y medios, se transforman,
desaparecen, se absorben unas a otras, generan nuevas o se subdividen en
diversos subgéneros lo que produce una amalgama de interconexiones
permeable y compleja que dificulta, aún más si cabe, «cartografiar» el arte
digital.

27
En cuanto a la aplicación de prácticas científicas dentro del proceso de conservación; a
diferencia del legal.

21
ARTE DIGITAL

Higgins28 propone el concepto de «Intermedia» para definir un territorio


natural de fronteras borrosas, ambiguas e imprecisas a las nuevas formas
generadas en la intersección de las diferentes artes por la determinación de
sus medios expresivos: la transposición de límites mediáticos. La naturaleza
transdisciplinar del arte digital corresponde al espíritu transmedial de la
carta de Higgins en cuanto la tecnología actúa, ya no como herramienta,
sino como medio. Los círculos concéntricos del arte digital, en la metáfora
de Higgins, engloban al círculo Intermedia.

Barreca29 sugiere una aproximación en base a la combinación de los tres


principales ingredientes de la revolución electrónica del último siglo (por
ejemplo: World Wide Web e Internet): Computación, Comunicación
(Comunicazione) y Contenido (Contenuto): Las posibles combinaciones que
ejemplifica Barreca generan tecnologías que el arte digital utiliza como
medio: Comunicación + Contenido = Telefonía móvil; Comunicación +
Contenido =TV vía cable, TV interactiva; Contenido + Computación = CD-
ROM, DVD.

Ambos acercamientos sugieren formas de vida protozoarias compuestas


por elementos metabólicos y vitales en plena expansión-contracción,
absorción-repulsión, definición-indeterminación, emergencia-desaparición.
La dinámica de estas interacción reconfigura continuamente las fronteras,
territorios y relaciones complicando cualquier iniciativa de categorización.

Los resultados de estas intersecciones y la transición de lo analógico a lo


digital colocan una obra de arte digital bajo el paraguas de arte de los
nuevos medios y en una búsqueda descendente en las distintas prácticas
intermediales con el ordenador como mínimo común denominador. Un
análisis funcional de estos elementos en términos de información produce
las relaciones computación-procesado, comunicación-transmisión,
contenido-almacenamiento.

28
Higgins, Dick. Intermedia. Leonardo. 2001, Vol. 34, No. 1, pp. 49-54.

29
Barreca, Laura. Il dibattito internazionale intorno al la conservazione e alla documentazione
della New Media Art. 1995-2007. Tesis presentada en el Dipartimento di Studi per la
Conoscenza e la Valorizzazione dei Beni Storici e Artistici, Università Degli Studi Della Tuscia
Di Viterbo, 2008, p. 43.

22
Definir lo inestable. Un problema de categorización

4. Carta Intermedia de Dick Higgins, 1995.

5. Combinación de las tres C


de Barreca, 2008 [El diagrama
es una interpretación mía].

23
ARTE DIGITAL

La generación, almacenamiento, movimiento y consumo de la


información determina esta era: la «sociedad de la información». Desde
este punto de vista el esquema de Higgins corresponde a prácticas que
pertenecen al ámbito de los contenidos. Sin embargo, si se tiene en cuenta
que la representación de esta información tiende hacia «lo digital», es
inevitable asociar a los contenidos procesos tecnológicos de computación y
comunicación aunque no aparezcan explícitamente en la propuesta de
Barreca. Obsérvese que todos los ejemplos que cita Barreca utilizan
tecnología digital.

”Los artistas se resisten a la categorización” expresa Wilson30. Para él:

Las obras normalmente son multicapas que abordan muchos temas


simultáneamente. Muchos artistas intentan deliberadamente confundir acerca
de las categorías preexistentes. Puede que el elemento más importante sea la
tecnología utilizada.

Aún así el medio ha funcionado como un elemento categorizador natural


que aparece sistemáticamente en todas las denominaciones: videoart, sound
art, interactive art, etc. e incluso al más alto nivel: unstable media art, new
media art, etc. independientemente de su procedencia: publicación,
catálogo, crítica, etc.

El lado izquierdo del siguiente esquema ilustra un diagrama de Venn31 de


una posible constelación, desde donde ubicar el arte digital32; mientras que
el lado derecho muestra la leyenda correspondiente en forma de catálogo
ordenado jerárquicamente. No existe una «lista» capaz de inventariar todas
y cada una de estas prácticas y, de hecho, cada autor lo hace de manera

30
Wilson, Stephen. Informations Arts: Intersections of Art, Science, and Technology. Boston:
The MIT Press, 2002. Leonardo Books, p. 8.

31
Los diagramas de Venn son representaciones de teoría de conjuntos que muestran
gráficamente la relación matemática o lógica entre diferentes grupos de cosas (conjuntos).
Aunque cada conjunto se representa mediante un óvalo o círculo nos hemos permitido la
licencia de representarlos como rectángulos.

32
Los volúmenes de los conjuntos no portan información ni las intersecciones son demasiado
precisas.

24
Definir lo inestable. Un problema de categorización

diferente. Los elementos listados en la leyenda son simplemente los que con
mayor frecuencia aparecen, los más reconocidos, en la literatura
especializada; aunque muy probablemente sin una correspondencia exacta
y unívoca. Algunas prácticas como phoneart, etc. no han sido incluidas por
ser demasiado específicas y muy relacionadas tecnológicamente con otras
como el netart.

La categoría más general, universo, en esta representación de conjuntos,


unstable media, agrupa a todas las manifestaciones artísticas de carácter
efímero, o de naturaleza inestable, y constituye un subconjunto de un
universo mayor: el arte contemporáneo, por ejemplo. Esta dependencia
origina los mayores problemas de Restauración del arte digital. La
naturaleza perecedera se debe fundamentalmente a la necesidad de energía
para que la obra progrese en el tiempo, e indirectamente de la
obsolescencia tecnológica, y es el reto más importante de la Restauración.

El arte de los nuevos medios, new media art, es un término utilizado


frecuentemente, que no apropiadamente33, para hacer referencia a
prácticas artísticas contemporáneas en la intersección arte y tecnología y
arte de los medios. La disciplina arte y tecnología absorbe aquellas
actividades que aprovechan las nuevas tecnologías, no necesariamente
aplicadas a la comunicación, mientras que el arte de los medios comprende
aquellas expresiones artísticas basadas en tecnologías de los medios de
comunicación34.

33
Paul, Cristiane (Ed). New Media in the White Cube and Beyond: Curatorial Models for
Digital Art. Berkeley: University of California Press. 2007, p. 2. “No ayuda a describir las
características o estética del medio digital y el término de novedad no describe qué es lo
realmente nuevo; de hecho algunos de los conceptos explorados en el arte digital han sido
tratados previamente en diversas artes tradicionales. Lo novedoso, desde el punto de vista
del desarrollo acelerado de la tecnología digital, fuerza a una redefinición continua del área
de los nuevos medios”. Sin embargo “El arte de los nuevos medios es caracterizado a menudo
como orientado a procesos, basado en el tiempo, dinámico y en tiempo real; participativo,
colaborativo, y performativo; modular, variable, generativo y personalizable” p. 4. Estas
características generalmente no aparecen puras sino combinadas en una obra de arte
híbrida, mixta, de múltiple comportamiento.

34
Tribe, Mark y Reena, Jana. Arte y Nuevas Tecnologías. Taschen, 2006, p. 7.

25
ARTE DIGITAL

26
Definir lo inestable. Un problema de categorización

6. Posible cartografía del arte digital. A primera vista se puede observar el


solapamiento entre las diferentes prácticas y la confluencia en “lo digital”.

27
ARTE DIGITAL

Esta cartografía orienta, identifica, acerca, hacia una representación


gráfica y ordenada de los múltiples términos utilizados en este ámbito y sus
interrelaciones (superposiciones); tan inexactos, difusos y permeables,
dinámicos y vivos, como su propia definición y uso.

El arte digital tiene múltiples acepciones. En este contexto se considera


arte digital a aquellas prácticas artísticas que consumen y/o procesan y/o
generan información35 de naturaleza digital, representada por ceros y unos,
lo que exige el uso, por excelencia, del ordenador o computer36. Desde este
punto de vista el videoarte «tradicional», por ejemplo, no debería ser
considerado arte digital; aún cuando la estrategia más razonable (sino la
única) de su conservación es la digitalización sin pérdidas del medio, con la
máxima calidad posible y no esté restringida exclusivamente al uso de cintas
de vídeo analógicas. En la cartografía propuesta se considera una pequeña
intersección entre ambos que contempla estos casos37. Muy diferente es la
intersección entre videoarte y arte interactivo donde coexisten aquellas
obras interactivas que utilizan, de alguna manera, vídeo digital38 para
generar nuevas realidades. La inestabilidad de este universo está
condicionada por un insuficiente proceso de producción y la propia
decadencia del entorno; más grave cuando la materia prima es tecnología
en expansión. Todo está condenado a la extinción. “Todo desaparece”39.
Solo la intervención incesante del hombre posibilita la prolongación de la

35
Típicamente audiovisual aunque no necesariamente.

36
O al menos a aquellas tecnologías con capacidad de procesado digital. Por ejemplo
microcontroladores, microprocesadores, procesadores digitales de señal, etc.; (cfr., Anexo B
Tecnologías).

37
Manovich, Lev. El lenguaje de los nuevos medios de comunicación. La imagen en la era
digital. Barcelona: Ediciones Paidós Ibérica, 2005. Paidós Comunicación 163, p. 96. Según
Manovich “los nuevos medios son medios analógicos convertidos a una representación
digital” mediante un proceso que denomina: transcodificación.

38
El videoarte es estático por naturaleza en la medida que documenta un proceso y/o
resultado artístico mientras que el videoarte interactivo es dinámico, efímero y dependiente
del tiempo.

39
Ruhrberg, Karl et al., Arte del siglo XX. Taschen, 2001, p. 577. “«Hay que se rápido si uno
quiere ver algo. Todo desaparece.» Si Paul Cézanne viviera hoy en día vería confirmado todos
sus temores de manera alarmante”.

28
Definir lo inestable. Un problema de categorización

existencia de los objetos inanimados y aplaza su mortalidad. Cualquier


medio, por robusto que sea, está sometido a un proceso de erosión en su
interacción energética con el entorno; ya sea biológico, químico, físico, etc.
o incluso cualquier posible combinación de estos. Todo material, por recio
que parezca, tiene fecha de caducidad. Solo una acción continuada de
aislamiento e intervención puede prolongar su «vida»40.

La potencia del medio digital está relacionada con la forma en la cual


éste apela a nuestros sentidos41. Sin embargo puede contener un catalizador
que acelere su caducidad: la inestabilidad de su propia producción. Este
continuo proceso de versionado tecnológico hace que la herramienta de
moda hoy mañana pierda soporte. Cuando falla cualquier elemento del
complejo esqueleto digital de una obra, sin soporte, muere inevitablemente.

Arte digital. El arte digital está íntimamente ligado a la ciencia y la


tecnología y es precisamente esta relación la de mayor influencia en su
categorización o cartografía. A menudo categorizaciones como arte digital,
arte electrónico, arte multimedia y arte interactivo se utilizan
indistintamente como sinónimos del arte de los nuevos medios42. El por qué
de esta ambigüedad en la descripción y uso de los términos se refleja en la
cartografía propuesta y se debe a las múltiples y complejas interrelaciones
entre ellos. El arte digital es un subconjunto de los nuevos medios. Los
nuevos medios consideran fundamentalmente otras prácticas artísticas
como el videoarte, las videoinstalaciones “no necesariamente” relacionadas
con el arte digital. También este último tiene marcadas semejanzas con el
videoarte. Sin embargo la categorización del arte digital según las
perspectivas establecidas podría ayudar lo suficiente para comprender sus

40
cfr., Capítulo III – Conservación Evolutiva.

41
Wands, Bruce. Art of the Digital Age. Thames & Hudson, 2006, p. 10. El autor llama la
atención acerca de la participación del espectador en el arte interactivo. “La etiqueta de
MIRA PERO NO TOQUES” dice Wands “del museo y galería tradicional, no es posible aplicar al
arte interactivo”. La etiqueta más apropiada para esta práctica sería “MIRA PERO, POR
FAVOR, TOCA”.

42
Tribe y Reena, op. cit., pp. 6-7.

29
ARTE DIGITAL

técnicas y propósitos43 y normalmente se relaciona con el medio final que


adopta la obra, independientemente de su proceso.

Arte por ordenador. El arte de la programación y el arte por ordenador


normalmente son dos categorías utilizadas indistintamente para definir,
imprecisamente, lo mismo. El arte por ordenador es cualquier práctica en la
cual los ordenadores juegan el rol de producción o visualización de la obra
(ya sea 2D ó 3D). Los gráficos por ordenador en 2D reflejan construcciones al
estilo de un lápiz en un papel, solo que la imagen es inmaterial, está en la
pantalla del ordenador y las herramientas para generarla son periféricos de
ordenador (como el ratón o una tableta) o fragmentos de código
(programados en algún lenguaje).

7. Thomas Porett. Koi Time-Space, 1999.

43
Wands, op. cit., p. 14. Existe cierto consenso en la consideración de que el arte digital
toma, a menudo, forma de datos. Como apunta Wands, “la forma en que estos datos se
transforman en algo concreto depende del artista. Según aumenta la potencia de proceso de
los ordenadores y la sofisticación de los programas la variedad de formas de los datos
incrementa; conocidas como poliformas o metaformas. Un objeto virtual creado con un
programa de animación y modelado tri-dimensional puede acabar como una sola imagen,
como una animación o como una escultura”.

30
Definir lo inestable. Un problema de categorización

8. Manfred Mohr. P 197-T, 1977. El trabajo de Mohr se basa en la fracturación de la


simetría de un cubo en coordenadas cartesianas con una marcada actitud hacia el
ritmo y la repetición.

31
ARTE DIGITAL

9. Todd Vanderlin. Graffiti Taxonomy, 2009. Estudio basado en el graffiti en el


cual se aíslan los caracteres de una colección de etiquetas de graffiti
fotografiados en la misma región geográfica.

En los gráficos 3D la imagen (proyectada en el monitor de un ordenador)


actúa como una ventana a un entorno virtual. Normalmente los gráficos en
2D son generados como mapas de bits (raster) al estilo de una fotografía
mientras que los gráficos 3D para crear instalaciones de realidad virtual y
escenarios de juegos se construyen en formato vectorial o constructivo.

Arte de la programación. El arte de la programación, sin embargo, está


relacionado con la creación mediante algoritmos44, se centra en el código
en sí mismo y se utiliza para denominar obras no interactivas45.

44
Alsina, Pau. Arte, Ciencia y Tecnología. Barcelona: Editorial UOC, 2007. Colección: Tic.cero,
7, p. 66.

45
Ibíd., pp. 67-68. “Hoy el software art se basa en la consideración de que el software no es
tan solo un instrumento funcional, sino que también se puede considerar una creación
artística en sí misma: el material estético resultante es el código generado y la forma
expresiva es la programación”.

32
Definir lo inestable. Un problema de categorización

10. Mark Napier. The Waiting Room, 2002. The Waiting Room es un espacio
virtual que comparten 50 usuarios a través de Internet. En este espacio el
visitante se convierte en partícipe de una pintura en movimiento. Sus acciones
activan y conforman la obra de arte.

Un algoritmo46 es una lista bien definida, ordenada y finita de


operaciones que permite hallar la solución a un problema. Dado un estado
inicial y una entrada, a través de pasos sucesivos y bien definidos se llega a
un estado final. La programación se basa en algoritmos, es de hecho la
implementación o codificación de un algoritmo. Sin embargo, un algoritmo
es simplemente la definición de un proceso «genérico», que puede o no,
convertirse en un código, por medio de un lenguaje informático,
comprensible por el ordenador o computador. Roman Verotsko dice “todo
el arte usa algoritmos de forma implícita, lo que pasa es que nosotros lo
hacemos explícitamente focalizando nuestro arte en el algoritmo” 47. El arte
de base de datos (database art) utiliza el dato como sustancia de la obra
mientras que la visualización de datos (data visualization art) se concentra
más en la exploración visual de los datos.

46
Del latín, dixit algorithmus y éste a su vez del matemático persa conocido como Al-Juarismi.

47
Alsina, op. cit., p. 66.

33
ARTE DIGITAL

11. Michael Rees. Artificial Sculpture, 2000. Los trabajos esculturales de Rees se
basan en imágenes virtuales de su Sculpture User Interface. Rees crea sus formas
con una herramienta de diseño asistido por ordenador (CAD, computer-aided
design) y las imprime en tres dimensiones utilizando plástico líquido, solidificado
en capas finas mediante láser a través de un servicio de prototipado rápido. Las
obras de Rees se generan desde instrucciones de código a un objeto 3D sin la
intervención de una mano humana.

Arte de la imagen digital. El arte de la imagen digital (digital imaging),


fotografía e impresión, incluye trabajos que han sido creados o
manipulados digitalmente para luego imprimirlos de forma tradicional48. La
imagen también puede ser combinada con medios tradicionales, como
dibujo y pintura, o incorporada en instalaciones, esculturas o proyecciones
de vídeo49.

Arte de la escultura digital. El arte de la escultura digital (digital


sculpture) agrupa a aquellos proyectos de creación de objetos tri-
dimensionales que utilizan tecnología digital. La escultura virtual surgió
como una evolución de la escultura digital50. En el mundo virtual las reglas

48
Paul, Christiane. Digital Art. Thames & Hudson (world of art), 2008, p. 28.

49
Wands, op. cit., p. 15.

50
Ibíd., p. 16. “El trabajo escultural no asume nunca la forma de un objeto físico real; reside
en un archivo en el ciberespacio o dentro del mundo virtual del ordenador”.

34
Definir lo inestable. Un problema de categorización

de la escultura no tienen límites: no existe gravedad, la naturaleza,


localización y tamaño de los materiales es infinita. En ella el artista no solo
tiene libertad absoluta en la creación de su pieza sino que también puede
examinarla desde cualquier punto de vista y puede crear un mundo virtual,
interactivo, donde colocarla.

Arte sonoro. El arte sonoro, la música por ordenador (computer music) y


de la música digital, comúnmente, se relacionan con la acción plástica o arte
en directo, el sonido, la escucha y la audición. El arte sonoro, en la práctica
absorbe todo lo indefinible dentro del concepto música y tiene que ver, en
general, con prácticas artísticas que utilizan el sonido como medio principal
de expresión. La mayor parte de estas obras son de carácter intermedial y
otorgan una dimensión temporal a la experiencia plástica. Como muchos de
los géneros de arte contemporáneo, el arte sonoro es interdisciplinar por
naturaleza o adopta formas híbridas y está relacionado con la acústica, la
psicoacústica, la electrónica, el ruido, el audio como medio y tecnología
(incluso analógica), el sonido medioambiental, la exploración del cuerpo
humano, la escultura, película o vídeo y todo un conjunto de aspectos en
expansión que son parte del discurso actual del arte contemporáneo51.

Arte de animación y vídeo digital. El arte de animación y vídeo digital es


la contraparte digital de la animación tradicional, la cinematografía y el
vídeo. La animación por ordenador 3D es exclusiva al dominio digital. La
producción de audio, vídeo, e incluso cine digital de alta definición, gracias
al desarrollo espectacular de las técnicas, instrumentos y dispositivos de
audio y vídeo digital, han masificado su uso poniendo en entredicho, incluso,
la propia esencia del mercado audiovisual52.

51
Kahn, Douglas. Noise, Water, Meat: A History of Sound in the Arts. Cambridge: MIT Press,
2001.

52
La crisis del mercado audiovisual requiere de una redefinición de los mecanismos de
distribución, protección de la propiedad intelectual, etc. y ha abierto un debate con amplia
repercusión mediática y social.

35
ARTE DIGITAL

12. Marius Watz. RishaugWaltz 0230 Blocker A4, 2004. Imagen en alta
resolución que transforma informaciones sonoras en imágenes.

36
Definir lo inestable. Un problema de categorización

13. Charles Csuri. Cosmic Matter, 1990. Csuri fragmenta los modelos digitales de
esculturas clásicas extrayendo elementos poligonales que flotan en un ordenado
sistema solar. Los fragmentos gravitan en un espacio 3D de color que Csuri crea
con su herramienta colormix.

Arte interactivo. El arte interactivo agrupa a todas aquellas prácticas que


requieren de la interacción o participación del espectador normalmente sin
control del artista53. La posibilidad que ofrece la interactividad de
involucrarse al espectador-participante ha sido utilizada, de hecho con
frecuencia, en obras de carácter marcadamente social.

53
Rush, op. cit., p. 198; Paul, Digital Art, op. cit., pp. 71-96.

37
ARTE DIGITAL

14. Gerhard Mantz. Arriba. Narzistische Selbsttäuschung, 2006. Abajo. Das


Kompliment, 2008.

El biólogo y teórico mediático Arjen Mulder describe la interacción


“como un proceso complejo de auto-organización en lo que se refiere a la

38
Definir lo inestable. Un problema de categorización

regulación de los cambios fundamentales y la configuración del


comportamiento explorativo en un sistema o red” 54.

Instalaciones digitales. Las instalaciones digitales constituyen entornos


interactivos realizados con tecnología digital como procesadores,
microcontroladores u ordenadores, sensores, actuadores, dispositivos de
comunicación, etc. que pueden llegar a ser tan complejos como cualquier
sistema robótico, de control industrial, etc. En la interactividad la obra es un
proceso continuo que evoluciona según su relación con el entorno. La
activación de determinados comportamientos depende de acciones desde el
espectador, datos adquiridos de procesos reales, información generada
algorítmicamente, etc. Esta es una de las áreas más complejas y fascinantes
del arte digital con mayor expansión en el arte contemporáneo y la que
mayores retos, en cuanto a Restauración, plantea.

Realidad virtual. La realidad virtual permite la creación de experiencias


de inmersión que trasladan la experiencia perceptual desde lo visual a lo
táctil. Esta inmersión hace que el espectador se sienta como si estuviera en
un espacio y en un tiempo recién creado55. La «realidad» con la que puede
relacionarse el observador, o su «avatar», una suerte de «alter ego» virtual,
(como ocurre en el mundo imaginario situado en Internet Second Life), se
construye con tecnología informática (normalmente animaciones 3D). En
general se considera un interfaz informático que genera entornos artificiales
en tiempo real o representaciones de una realidad perceptiva, sin soporte
objetivo56.

A-Life. El arte de la vida e inteligencia artificial (a-life) nace de las viejas


aspiraciones de reproducir las propiedades de la vida en la intersección de la

54
Lieser, Wolf. Arte Digital. Tandem Verlag: H. F. Ullmann, 2009.

55
Rush, op. cit., p. 212.

56
Wiki: Realidad Virtual, en: http://es.wikipedia.org/wiki/Realidad_virtual, [Consulta: 4-5-
2009+. “La virtualidad establece una nueva forma de relación entre el uso de las coordenadas
de espacio y de tiempo, supera las barreras espaciotemporales y configura un entorno en el
que la información y la comunicación se nos muestran accesibles desde perspectivas hasta
ahora desconocidas al menos en cuanto a su volumen y posibilidades”.

39
ARTE DIGITAL

ingeniería robótica, la informática y la biología57. El término fue utilizado por


primera vez en 1987 en la primera “Conferencia Internacional sobre la
Síntesis y Simulación de los Sistemas Vivos”, en el Laboratorio Nacional de
Los Álamos, Nuevo México. Algunos de los temas recurrentes son la
evolución artificial, simulación de ecosistemas, autómatas celulares,
comportamiento en robótica, etc.

15. Julius Popp. bit.flow MK2, 2007.

57
Alsina, op. cit., p. 75. Christopher G. Langton, biólogo americano fundador del área de
conocimiento de la vida artificial, define la vida artificial como “el estudio de los sistemas de
creación humana que exhiben conductas características de los sistemas vivientes naturales”.

40
Definir lo inestable. Un problema de categorización

16. Erwin Redl. Matrix IV, 2001. Redl investiga el proceso de ingeniería inversa
para trasladar, mediante instalaciones de luz a gran escala, el lenguaje estético
abstracto de la realidad virtual y el modelado tridimensional por ordenador al
entorno arquitectónico.

41
ARTE DIGITAL

17. Jeffrey Shaw. The Legible City, Manhattan version (1989), Amsterdam
version (1990), Karlsruhe version (1991). El visitante es capaz de montar en una
bicicleta estática a través de una representación simulada de una ciudad
construida por letras tridimensionales generadas por ordenador que forman
palabras y frases a lo largo de los lados de las calles.

42
Definir lo inestable. Un problema de categorización

18. John F. Simon Jr. ComplexCity, 2000. Macintosh Powerbook G3 y acrílico. 19


x 16 x 3 ½ pulgadas.

43
ARTE DIGITAL

Arte en la red. El arte en la red (net art58) define la actividad artística


basada en Internet59. El uso de Internet como medio de expresión60
condiciona las tecnologías y servicios particulares que utiliza; entre las que
se encuentran: navegación, correo, transferencia de archivos, etc. y, a su
vez, la especificidad de su Restauración e interacción61. Las prácticas
artísticas basadas en Internet tienen la peculiaridad de poder manifestarse
en cualquier lugar y en cualquier momento sin ningún control de la imagen y
con cierta capacidad de interacción, no necesitan la «caja blanca» para su
exposición y requieren (con gran dependencia), probablemente como
ninguna otra, de un gran y complejo despliegue técnico especializado.

Arte de juego. El arte de juego (game art) es un tipo especial de arte de


la programación, trabajos de código ejecutable escrito por el artista, en el
cual el juego es considerado una pieza de arte62. “¿Qué les hace arte y no
solo juegos? Para algunos, el hecho que son realizados como arte, para
otros el hecho que se exhiben como arte” reflexiona Ploug. Una forma
habitual de esta manifestación es la manipulación de juegos clásicos. Ya sea
como la reinterpretación del juego en su propio soporte, a menudo
productos tecnológicos obsoletos, o en una plataforma virtual u otro medio,
como puede ser Internet.

58
Greene, Rachel. Internet Art. Thames & Hudson (World of Art), 2004.

59
Tribe y Jana, op. cit., p. 11. En 1995, Vuk Cosic, un artista esloveno, identificó la expresión
net.art en un mensaje de correo electrónico ininteligible.

60
Ibíd., p. 13. “La apropiación es algo tan habitual que casi se da por supuesta.” Aunque es
una propiedad que se asocia, en general, al arte de los nuevos medios, es prácticamente
natural al arte basado en Internet. “Internet y las redes de intercambio de archivos, permiten
a los artistas un fácil acceso a imágenes, sonidos, textos y otros recursos. Esta
hiperabundancia de materiales, combinada con la ubicua función cortar/pegar de los
programas informáticos, ha contribuido a despejar la idea de que crear algo de la nada es
mejor que tomarlo prestado”.

61
La mayor parte de las veces mediante un navegador (programa de acceso a Internet),
teclado y ratón (que facilita la interactividad, como mínimo, con un simple clic).

62
Ploug, Kristine. Art Games: An Introduction,
http://www.artificial.dk/articles/artgamesintro.htm, [Consulta: 4-5-2009].

44
Definir lo inestable. Un problema de categorización

19. wwwwwwwww.jodi.org, Jodi (Joan Heemskerk y Dirk Paesmans), 1995. Jodi


invierte el orden del medio. En el código fuente Jodi revela el mensaje del
trabajo en una simple ilustración, lanzando una bomba hacia el diseño limpio.
Las páginas web se escriben Hypertext Markup Language (HTML, Lenguaje de
Marcas de Hipertexto en español), el cual ignora caracteres "espacios en
blanco" que estén de más, característica que Jodi aprovechó para hacer un
genial argumento visual y conceptual y romper las reglas del diseño de páginas
web.

45
ARTE DIGITAL

20. Cory Arcangel. Super Mario Clouds, 2002. Juego, basado en el famoso Super
Mario (desarrollado para la consola de Nintendo), modificado de forma tal que
todo lo que queda del juego son las nubes blancas en el cielo azul. El personaje,
los obstáculos y los demás elementos han sido suprimidos. Este trabajo es
resultado de la modificación no solo del software, sino también del hardware –
el artista ha abierto el cartucho del juego y cambiado el chip original de gráficos
por otro, programado por él mismo.

46
Definir lo inestable. Un problema de categorización

21. Ken Golberg, Joseph Santarromana. Telegarden, 1995, en:


http://queue.ieor.berkeley.edu/~goldberg/garden/telegarden, [Consulta: 4-10-
2010]. La obra Telegarden de Ken Golberg y Joseph Santarromana es buen
ejemplo de obra multicapa y multimedia difícil de catalogar. Según el propio
Golberg63 “Telegarden es una instalación artística que permite a los usuarios a
través de la web ver e interactuar con un jardín remoto lleno con plantas vivas.
Los miembros pueden plantar, regar y monitorizar el progreso de los arbolillos a
través de los suaves movimientos de un brazo robótico industrial”. Esta obra,
desarrollada en la University of Southern California y disponible (online) desde
Junio de 1995, cuyas palabras claves podrían ser instalación, telepresencia y
participación, es considerada, sin embargo, arte interactivo por unos, arte en la
red, por otros.

63
Golberg, Ken. The Telegarden, http://atynm.blogspot.com/2007/02/telegarden-el-
telejardn-ken-goldberg.html, [Consulta: 15-12-2010].

47
ARTE DIGITAL

La frontera de todas estas prácticas artísticas suele ser muy borrosa,


independientemente de categorizaciones y usos. Un código informático
puede generar datos (información) de múltiples dimensiones64, en un
sistema local o distribuido, con herramientas genéricas o especializadas,
libres de uso o propietarias, estándares o especiales. Son las diferentes
combinaciones las que posicionarán la obra en determinada categoría que,
en caso de intersecciones, probablemente se etiquetará a la categoría más
pequeña que incluya todos los subconjuntos pero no necesariamente.

Hay obras interactivas como Telegarden, de Ken Golberg y Joseph


Santarromana consideradas netart en muchas publicaciones y libros porque
es precisamente Internet la tecnología que provee la capacidad de
interacción con la obra. Super Mario Clouds, de Cory Arcangel, es otro
ejemplo. Se considera game art porque es una intervención a un vídeo
juego; sin embargo, es un trabajo hardware-software complejo. La
implementación de la mayoría de las obras no es pura. No se desarrolla en el
centro de una disciplina en concreto sino que más bien en su periferia.

Un vídeo, e incluso un canal de vídeo65, probablemente sería considerado


videoarte o video instalación, si forma parte de un complejo escultural, o
arte interactivo si requiere algún tipo de acción externa. Será una
animación, si es generado por un ordenador y virtual si no corresponde a
realidad alguna o arte de la red si esa interacción se basa en los mecanismos
de Internet.

Independientemente de su categorización, cada obra objeto de


Restauración debe ser considerado como un caso único. Cada categoría,
aislada, se caracteriza por particularidades tecnológicas bien definidas. Sin
embargo, al considerar un caso de estudio, la complejidad del todo no
puede ser reducida a sus partes; es necesaria una visión holística que tenga

64
Como mínimo el sonido es una señal unidimensional, la imagen bidimensional, el vídeo, el
cine y la escultura tridimensional y la instalación interactiva tetradimensional.

65
La diferencia es completamente funcional. El vídeo es un trabajo cerrado y almacenado en
formato digital. Mientras que un canal de vídeo supone una fuente de vídeo en tiempo real
que captura determinada realidad como es el caso de la vigilancia; que utiliza cámaras de
seguridad.

48
Definir lo inestable. Un problema de categorización

en cuenta sus interrelaciones y la integración de las tecnologías. Este


acercamiento supone una valoración cuidadosa de la desagregación, la
interconectividad, la comunicación y las interfaces de conexión entre las
partes.

Cartografiar el arte digital es una tarea pretensiosa y estéril sino fuera


por su importancia en la exploración de las vías de Restauración de un bien,
en la búsqueda de la idoneidad del enfoque o estrategia. Estos procesos
requieren el conocimiento de la naturaleza del bien, la observación desde su
esencia: el dato, en una rutina de arriba hacia abajo, desde lo general a lo
particular; las prácticas deben ser metódicas, meticulosas y exhaustivas,
bien documentadas y contrastadas y constituyen, de hecho, el arte de la
Restauración del arte digital.

No se pretende «categorizar» los centros sino, más bien, «cartografiar»


sus periferias: las intersecciones de las diversas prácticas artísticas que
confluyen en el complejo arte, ciencia, tecnología, comunicación, sociedad,
etc. y que utilizan la tecnología digital como medio, no como herramienta.
La cartografía propuesta, pese a su débil exactitud, muestra dos aspectos
muy interesantes para desarrollar la base conceptual de la Restauración del
arte digital:

Intersecciones. Solapamiento de las artes con la tecnología:


programación, computación, Internet, realidad virtual, inteligencia o vida
artificial, robótica, electrónica, cibernética, redes y sistemas, etc.;
tecnologías y áreas de conocimiento que han generado interesantes
hibridaciones en el ámbito de las artes. No se categoriza el arte digital en
base a las tecnologías; sin embargo, esta relación, al menos
cronológicamente y estratégicamente (desde el punto de vista de la
Restauración), es inevitable.

Confluencia. El arte digital es un sumidero donde convergen todas las


tecnologías y medios. El campo de fuerza de la nueva «era digital» promete
desdibujar toda la cartografía del arte contemporáneo y,
consecuentemente, la Restauración; lo que exige una revisión de las teorías
tradicionales. Esta confluencia impone, con cierta fuerza, una Restauración
digital.

49
ARTE DIGITAL

Datar lo inestable. Un problema histórico

El nacimiento del arte digital se suele asociar con la fecha de creación de los
primeros grandes ordenadores: 194666, año en que se construye, en la
Universidad de Pennsylvania, uno de los primeros ordenadores
completamente digital: la Calculadora Electrónica Numérica e Integral
(ENIAC, Electronic Numerical Integrator and Calculator) puesta en
funcionamiento en la Escuela de Ingeniería Electrónica Moore de Filadelfia;
195067, en el que la Engineering Research Associates en Minneapolis
construye el ERA 1101, el primer ordenador de producción comercial. Ira
Greenberg68 considera, sin embargo, 1951, el año en que se desarrolla el
primer ordenador de propósito general: UNIVAC; “con un lenguaje de
programación relativamente fácil de utilizar y la inclusión de algunos
estándares de la programación”.

22. Ben F. Laposki. Oscillons,


1952-56. Creó las primeras
imágenes abstractas electrónicas
en 1950 utilizando un dispositivo
electrónico analógico (el tubo de
rayos catódicos de un
osciloscopio).

66
Wands, op. cit., p. 210. No fue la primera computadora de propósito general. Ese honor se
le debe al Z3 construido en el 1941.

67
Tribe y Jana, op. cit., p. 6.

68
Greenberg, Ira. Processing: Creative Code and Computational Art. Appress, 2007, p. 12.

50
Datar lo inestable. Un problema histórico

23. Rama Hoetzlein. What is New Media? Media Arts & Technology Program,
University of California Santa Barbara, 2009;
http://www.rchoetzlein.com/theory/?p=11, [Consulta: 9-10-2010].
El diagrama anterior permite ubicar el arte de los nuevos medios en todo
el ámbito histórico del arte mientras el siguiente (ambos de Hoetzlein), que
abarca solo el siglo XX, permite una inspección cronológica del arte, el arte
de los nuevos medios, la ciencia, la tecnología, la guerra y la teoría de los
medios.

51
ARTE DIGITAL

52
Datar lo inestable. Un problema histórico

24. Rama Hoetzlein. Timeline of 20th c. Art and New Media, Media Arts &
Technology Program, University of California Santa Barbara, 2009;
http://www.rchoetzlein.com/theory/?p=42, [Consulta: 9-10-2010].

53
ARTE DIGITAL

Ambos diagramas pueden ser de gran utilidad porque ubican el arte de


los nuevos medios en una línea histórica lo suficientemente amplia como
para observar cuáles han sido sus principales influencias. En un esquema de
este tipo es muy difícil alcanzar una gran precisión y detalle, pero si ofrece
una visión de conjunto en relación con el contexto histórico-artístico. En la
cartografía realizada por mí se muestran otra serie de prácticas entrelazadas
con una serie de hitos tecnológicos que, aunque no aparecen en la línea
temporal del arte y los nuevos medios en el siglo XX, se pueden ubicar
fácilmente. ¿Es posible un árbol del arte del siglo XX al estilo del realizado
por Alfred H. Barr, Jr., historiador de arte y primer director del MoMA
(Museum of Modern Art) de New York? Probablemente no69. Las influencias
de las prácticas artísticas del arte digital están más relacionadas con la
propia tecnología y con prácticas artísticas “modernas” (como el futurismo,
el arte conceptual o el arte cinético, por ejemplo) que con otras prácticas del
arte digital. Las obras absorben diferentes tecnologías y son más o menos
complejas pero no existe una influencia clara y universal de unas prácticas
sobre otras. Incluso diseñar este tipo de contexto es delicado debido a la
propia confusión en la clasificación o categorización de este tipo de
prácticas. Obsérvese que en ambos diagramas se hace referencia a los
nuevos medios y no al arte digital para referenciar lo mismo.

A pesar de la inaccesibilidad de estos primeros ordenadores, ya en 1956


los artistas comienzan a experimentar con la computación como un medio
expresivo70. Casi una década después, en 1964, Stan Vanderbeek y Ken
Knowlton producen la primera película animada por ordenador, Poem Field.
Al año siguiente Michael Noll71 y Bela Julesz generan animaciones por
ordenador estéreos en los Laboratorios Bell en New Jersey72 y en 1966, dos
años más tarde, John Whitney, con ayuda de IBM, crea Permutations y

69
El “Mapa del arte moderno” de Barr se publicó originalmente en la sobrecubierta del
catálogo realizado con motivo de la exposición Cubismo y Arte Abstracto realizada en el
MOMA en 1936. Este mapa fue revisado por el propio Barr en innumerables ocasiones y él
nunca llegó a considerarlo definitivo.

70
Greenberg, op. cit., p 13.

71
Rush, op. cit., p. 170. Considerado uno de los primeros artistas digitales.

72
Ibíd., p. 172.

54
Datar lo inestable. Un problema histórico

Charles A. Csuri produce Hummingbird73. Excepto esta última, todas las


fechas están relacionadas o cercanas a la llamada tercera revolución
industrial, tercera revolución científico-técnica o revolución de la
inteligencia (RCT) originada al acabar la II Guerra Mundial en 1945.

Sin embargo, el objetivo de estos primeros ordenadores no fue,


precisamente, artístico, sino militar, por lo que, probablemente tendría
mayor sentido asociar el nacimiento del arte digital con la creación de las
primeras obras o, a principios de los ochenta74, si se tiene en cuenta la
valoración de Frank Popper75 que, en su minuciosa investigación, considera
que “hay muy pocos ejemplos de arte por ordenador anteriores a los años
ochenta dignos de mencionar”76. Los inicios del arte digital tuvieron una
importante peculiaridad: sus precursores no eran artistas sino ingenieros o
investigadores de instituciones tecnológicas vanguardistas77. No es casual
entonces que sea justo en 1981, cuando IBM lanzó el primer ordenador
personal78, que se produzca la verdadera revolución del arte digital.

A partir de entonces, la historia del arte digital se puede narrar por hitos
tecnológicos, obras y/o exposiciones representativas, creación de centros de
desarrollo e investigación, incorporación a las colecciones de los museos,
etc. En el libro El Arte de la Era Digital, Bruce Wands expone una exhaustiva
línea temporal que empieza incluso en los precedentes pre-digital. En esta
investigación solo se ha considerado una muy fragmentada y oportunista

73
Comprado por el MoMA en 1968.

74
De hecho en 1985 se crea el Media Laboratory en el Instituto Tecnológico de
Massachusetts (MIT, Massachusetts Institute of Technology), institución referencia en la
investigación, desarrollo y docencia del arte digital.

75
Popper, Frank. Art of Electronic Age. Thames & Hudson, 1993.

76
Rush, op. cit., p. 172.

77
A la dificultad y exclusividad de los primeros ordenadores hay que añadir el sentimiento
antitecnológico entre los artistas y la contracultura de los sesenta y setenta.

78
Verdadero protagonista del arte digital. El Personal Computer (PC) de IBM significó la
democratización de la cultura digital.

55
ARTE DIGITAL

línea temporal que relaciona cronológicamente los acontecimientos


tecnológicos más relevantes con las categorías del arte digital expuestas.

25. Stanley VanDerBeek and Kenneth C. Knowlton. Poem Field, 1967-69.


Fotograma de la película.

La década de los 60s fue testigo del nacimiento del arte digital y sus
primeros pasos. En 1963, el ANSI79 crea el Código Estadounidense Estándar
para el Intercambio de Información (ASCII, American Standard Code for
Information Interchange). ASCII es un código de caracteres80 basado en el

79
Comité Estadounidense de Estándares (ASA, conocido desde 1969 como el Instituto
Estadounidense de Estándares Nacionales, o ANSI).

80
Refundición o evolución de los conjuntos de códigos utilizados entonces en telegrafía. En
1967 se incluyeron las minúsculas y se redefinieron algunos códigos de control para formar el
código conocido como US-ASCII.

56
Datar lo inestable. Un problema histórico

alfabeto latino tal como se usa en inglés moderno y en otras lenguas


occidentales. Esto tuvo gran repercusión para el desarrollo de metatextos y
la compatibilidad de la representación textual, cuando una década después,
apareciera Internet. En 1967, Sony presenta la PortaPak: primera cámara de
vídeo portátil. Nam June Paik, músico y electrónico coreano obtuvo en 1965
la primera cámara portátil de SONY antes de su comercialización. El 4 de
noviembre grabó desde un taxi las calles de New York durante la visita del
Papa Pablo VI con una finalidad estética; para captar una realidad subjetiva,
al margen de las funciones de grabación de la televisión. Se considera que
este acto marcó el inicio del videoart. Ya a finales de esta década prodigiosa,
en 1968, Douglas Englebart, pionero de la interacción humana con los
ordenadores, incluyendo el hipertexto y los ordenadores en red, inventa el
ratón (mouse) a la vez que se le atribuye la primera videoconferencia de la
historia. En 1969, Myron Kreuger, considerado miembro de la primera
generación de investigadores de realidad virtual y realidad aumentada,
desarrolla uno de los primeros prototipos de realidad virtual: un entorno
controlado por ordenador denominado glowflow. El Departamento de
Defensa de los Estados Unidos de América crea la primera red de
conmutación de paquetes funcional del mundo: ARPANET (Advanced
Research Projects Agency Network), predecesor de la Internet global81.

La década de los 70 consolida las tecnologías relacionadas con el


ordenador. En 1970, General Electric crea Genigraphics, la primera estación
de trabajo gráfica de color en alta definición, a partir de su simulador de
vuelo para la NASA. Un año después IBM inventa el disquete y en 1972, la
compañía Atari, fundadora de la industria del videojuego, creada en los
Estados Unidos en 1972 por Nolan Bushnell y Ted Dabney, debuta con
PONG82. En 1975, Steve Sasson inventa para Kodak la primera cámara
digital. Al año siguiente, Steve Wozniak y Steve Jobs fundan Apple

81
El 29 de octubre de 1969 arrancó en la UCLA (Universidad de California, Los Ángeles) el
primer nodo de esta red llamada ARPANET aunque el concepto de una red capaz de
comunicar usuarios en diferentes ordenadores fue formulada por J.C.R. Licklider de Bolt,
Beranek and Newman (BBN) en agosto de 1962, en una serie de notas que debatían la idea
de una "Red Galáctica".

82
La versión casera de PONG, que se conectaba a una televisión, fue una de las primeras
consolas de videojuegos.

57
ARTE DIGITAL

Computer Company83. Las tecnologías relacionadas con el sonido digital


tuvieron que esperar hasta 1979 para su despliegue, cuando Peter Vogel y
Kim Ryrie inventan el primer sintetizador digital de sonido polifónico: el
Fairlight CMI (Computer Musical Instrument) basado en un
microprocesador dual diseñado por Tony Furse.

26. Izquierda. A. Michael Noll. Guassian Quadratic, 1965. Fotografía 11 x 8 1/2.


La serie Guassian Quadratics fue uno de los primeros ejemplos de imágenes
generadas por ordenador y la primera en tener su propio derecho de autor.
Derecha. Charles Csuri. The First Hummingbird, 1966. El espacio de parámetros
para el dibujo de la línea original fue manipulado de manera tal que primero
aparece como un garabato. Luego, progresivamente, los parámetros se alteran
de tal manera que los dibujos después de varias fases alcanzan su
representación final. Como animación tiene muchas de las características de lo
que llamado "transformación" (morphing, en inglés) en la actualidad.

En 1982, la revista Time elige al PC como hombre del año. El ordenador


se convierte en una necesidad. En 1983, surge el formato de disco compacto
(CD, Compact Disk) para la distribución de audio digital y se define el primer

83
Un año después Apple lanza Apple II: primer microordenador personal producido en masa
altamente satisfactorio con gráfico a color.

58
Datar lo inestable. Un problema histórico

protocolo estándar industrial MIDI (Musical Instrument Digital Interface)


que permite la comunicación, control y sincronización entre instrumentos
electrónicos musicales, como teclados controladores, ordenadores, y otros
equipos electrónicos. Un año después, William Gibson incluye el término
ciberespacio en su primera novela de ciencia ficción Neuromante. En 1986,
Sony/Phillips lanza el DAT, Digital Audio Tape. En 1989, Jeffrey Shaw crea su
obra interactiva The Legible City.

27. John Whitney. Permutations, 1966. Fotograma.

La World Wide Web (abreviada como Web) entra en funcionamiento en


1990 y se consolida durante la década. La WWW es un sistema de
hipertextos entrelazados con acceso mediante Internet. Las páginas Web
pueden contener texto, imágenes, vídeos y otros contenidos multimedia; se
puede navegar entre ellas usando hiperenlaces. Tim Berners-Lee desarrolla
el Lenguaje de Marcas de Hipertexto (HTML, HyperText Markup Language):
lenguaje de etiquetas predominante para la construcción de páginas web.
Kenneth Snelson crea una de las primeras esculturas virtuales con un

59
ARTE DIGITAL

programa 3D. En 1991, Karlheinz Brandenberg, director de tecnologías de


medios electrónicos del Instituto Fraunhofer IIS, desarrolla el formato de
compresión de audio digital MP3 (MPEG-1 Audio Layer 3) y Linus Torvalds
presenta Linux 0.01, un reemplazo no comercial para MINIX84. En 1993,
Marc Andreessen crea el primer navegador web gráfico, Mosaic. Un año
después fue renombrado como Netscape. A mitad de la década, en 1996,
Polaroid85 presenta una cámara digital de 1 Megapixel y nace el Disco
Versátil Digital (DVD, Digital Versatile Disc).

28. Vuc Cosik. Psycho, 1998.

84
Clon del sistema operativo Unix, desarrollado por el profesor Andrew S. Tanenbaum en
1987, distribuido junto con su código fuente. MINIX fue creado para rodear las limitaciones
antipedagógicas de Unix (restricciones de licencia de AT&T, complejidad y elevados
requerimientos computacionales) y enseñar a sus alumnos acerca del diseño de sistemas
operativos en la Vrije Universiteit de Ámsterdam.

85
En 1947 Polaroid asombró al mundo con la primera fotografía instantánea: una cámara que
revelaba y positivaba la imagen en tan solo 60 segundos. Este invento se convirtió en el
buque insignia de la empresa hasta la aparición de la fotografía digital.

60
Restaurar lo inestable. Un problema por resolver

El desarrollo tecnológico, hasta la fecha, ha seguido la predicción de


Moore con un comportamiento aproximadamente exponencial. La década
de 2000 se caracteriza por la miniaturización, la conexión inalámbrica, el
enorme incremento de la capacidad de proceso y almacenamiento y la
introducción de memorias electrónicas con suficiente capacidad para
sustituir los medios de almacenamiento convencionales como el disco duro.
En Internet proliferan tiendas, redes sociales, blogs, contenidos. La
computación en nube y ubicua demuestra el cambio de paradigma hacia la
aplicación de sistemas complejos mejor relacionados con el
comportamiento caótico de los procesos naturales y del hombre. La
información tarda menos de un segundo en darle la vuelta al mundo y un
diminuto teléfono inteligente (Smartphone, en inglés) se convierte en un
centro donde se combinan las tres C del esquema propuesto por Barreca:
comunicación, computación y contenido. La tecnología facilita nuevos
hábitos de consumo, movilización y relaciones. La vida del «homo
information» no es posible sin la tecnología.

Restaurar lo inestable. Un problema por resolver

La multiplicidad de perspectivas que se interrelacionan en la conservación


del arte digital hace necesaria una reflexión teórica profunda en la que se
indague sobre los aspectos, muchos de ellos muy comprometidos, que
participan en la Restauración del arte digital.

En el Artículo 10, de la Carta de la Preservación del Patrimonio Digital86,


la UNESCO señala la conveniencia de adoptar medidas para:

Instar a los fabricantes de equipos y programas informáticos, creadores,


editores y productores y distribuidores de objetos digitales, así como otros
interlocutores del sector privado, a colaborar con bibliotecas nacionales,
archivos y museos, y otras instituciones que se ocupen del patrimonio público,
en la labor de preservación del patrimonio digital;

86
Carta de la UNESCO para la preservación del patrimonio digital, UNESCO, 15/10/ 2003, en:
http://arpa.ucv.cl/texto/Preservaci%F3nPatrimonioDigitalUNESCO.pdf, Anexo I, p. 4.
[Consulta: 4-10-2010].

61
ARTE DIGITAL

Fomentar la formación y la investigación, e impulsar el intercambio de


experiencia y conocimientos entre las instituciones y las asociaciones
profesionales relacionadas con el tema;

Alentar a las universidades y otras instituciones de investigación públicas y


privadas, a velar por la preservación de los datos relativos a las investigaciones.

Se puede decir que los centros de investigación sobre la conservación de


los nuevos medios surgen casi a la par de la exhibición de las primeras
muestras de estas nuevas propuestas artísticas. Sin embargo, después de
cuarenta años se hace imprescindible una colaboración estrecha entre todos
los agentes implicados, desde los artistas y curadores a los restauradores,
conservadores y coleccionistas y esto se pone de manifiesto en los
proyectos avalados por estos centros en los que de una manera
multidisciplinar trabajan todos en equipo. En los últimos años han
proliferado las organizaciones, museos y organismos dedicados a plantear y
establecer proyectos de investigación interinstitucionales. Uno de los
aspectos destacable es, precisamente, el alto grado de colaboración y de
intercambio de información que existe a nivel internacional entre los
distintos centros de investigación, instituciones y museos87. Aunque la
problemática de la Restauración del arte digital es universal la mayoría de
las instituciones dedicadas a la investigación se encuentran situadas en dos
grandes grupos geográficos: Europa: fundamentalmente en Holanda,
Alemania y Gran Bretaña y América: Estados Unidos y Canadá.

Otro aspecto importante que muchos de los profesionales implicados en


la Restauración de estas obras entienden como esencial para el desarrollo y
mejora de las estrategias de acción es la relevancia de la opinión del artista
en cuanto a la Restauración de su obra: cómo piensa que ésta puede ser
percibida con el paso de los años e incluso cómo se debe afrontar su
Restauración; cuestión que ha devenido en dilema ético. Desde la
perspectiva de los Restauradores e investigadores se es consciente que
muchas de las obras están privadas de significado si no van acompañadas de
una documentación adecuada y accesible a la comunidad científica. La

87
A través del intercambio de conocimientos, de información, muchas veces difícilmente
accesible o incluso no publicada, la creación de herramientas de catalogación y
documentación, etc.

62
Restaurar lo inestable. Un problema por resolver

información conseguida a través de entrevistas, instrucciones de instalación


o reportajes se convierte en documentos de vital importancia a la hora de
Restaurar estas obras. Todas estas razones son las que han contribuido a la
creación de centros dedicados a la preservación y conservación del arte
realizado con nuevos medios.

Es muy difícil hacer un censo de todos los organismos implicados y los


esfuerzos realizados en estas tareas pero sí conveniente destacar, al menos,
algunas de las iniciativas más interesantes.

Electronic Art Intermix (EAI) es una institución pionera estadounidense


que data de 1971. En 1969 se exhibió en la Howard Wise Gallery, en New
York, la que hoy se considera una de la primera muestras de las, desde
entonces, arte realizado con “nuevas tecnologías”: TV as a creative
médium88. En 1979 Howard Wise cerró su galería para fundar, al año
siguiente, EAI: una institución sin ánimo de lucro, dedicada a la exploración
del potencial de los medios electrónicos, sus significados y a la promoción
de la investigación teórica y práctica sobre los nuevos medios, el desarrollo
de soportes emergentes y el acceso a los artistas de las nuevas
tecnologías89. En 1985 EAI inició el EAI´s Preservation Program; una de las
primeras iniciativas para conservar y catalogar una colección de videoarte.
Gracias al soporte económico de entidades como el New York State Council
on the Arts o la National Endowment for the Arts y la colaboración con
instituciones como la Daniel Langlois Foundation, se restauraron,

88
TV as a creative medium fue una exposición realizada en la Howard Wise Gallery de New
York (17-05/14-06- 1969) en ella participaron Nam June Paik, Charlotte Moorman, Eric
Siegel, Paul Ryan, Frank Gillette, Ira Schneider y Aldo Tambelini entre otros. En junio de 1994,
la exposición The Howard Wise Gallery: Tv as a Creative Medium, 1969, comisariada por John
Hanhardt, en el Whitney Museum of American Art rindió un homenaje a la contribución
realizada por Howard Wise en este campo. En esta ocasión se pudieron ver seis de las obras
de la exposición original.

89
Electronic Art Intermix, www.eai.org, [Consulta: 8-10-2010]. Una de sus funciones
principales consiste en la distribución y preservación de su colección de obras “new media”;
una de las más importantes del mundo que cuenta con más de 3500 títulos desde los años
sesenta hasta hoy.

63
ARTE DIGITAL

resmasterizaron90 y, en algunos casos, migraron desde sus formatos


originales a formatos de archivo como puede ser el Digital Betacam 91,
cientos de obras de su colección. Toda la conservación se lleva a cabo en
estrecho contacto con los artistas y bajo la supervisión de servicios
especializados. En general operan con metodologías “estudio de caso”92
para reconstruir la imagen y el sonido o migrarlos a formatos más estables.

En 2007 con motivo de la celebración del Congreso IMAP Electronic


Media Preservation Symposium, EAI en colaboración con el Independent
Media Arts Preservation93 (IMAP) presentaron el proyecto “EAI Online
Resource Guide for Exhibiting, Collecting & Preserving Media Art”: una
plataforma on-line estructurada en tres secciones: Exposición, Colección,
Conservación, cada una de ellas divididas, a su vez, en tres categorías, en las
que se propone la tipología de las obras: vídeo monocanal, obras realizadas
con el ordenador e instalaciones. Para cada categoría se establece una serie
de directrices (con una buena cantidad de recursos desarrollados por
profesionales del sector) en dependencia de lo que se pretenda hacer con la
obra: exponerla, coleccionarla o conservarla según el siguiente guión:

Introducción

Buenas prácticas

Cuestiones básicas

90
Remasterizar es un anglicismo que proviene de "remaster", o sea, "reedición". Es un
proceso que consiste en mejorar la calidad de objeto audiovisual (sonido, imagen o ambos)
desde una grabación previamente existente.

91
El Betacam Digital fue una tecnología muy popular en la edición y digitalización de vídeo en
los años ochenta y noventa, aunque existen alternativas más apropiadas como la grabación
en disco duro.

92
Reforzando el enfoque “forense” hacia la conservación.

93
IMAP, www.imappreserve.org, [Consulta: 9-10-2010]. Independent Media Arts
Preservation es una organización sin ánimo de lucro dedicada a la preservación de los nuevos
medios.

64
Restaurar lo inestable. Un problema por resolver

Proceso de planificación

Contrato o Condition Report (según el caso)

Costes

Equipos y Tecnología

Entrevistas

Casos de estudio

Artículos

Con el título de “Archiving the AvantGarde”94, la Universidad de


California, Berkeley Art Museum and Pacific Film Archive, junto con el
Solomon R. Guggenheim Museum, Rhizome Organisation, el Franklin
Furnace Archive y el Cleveland Performance Art Festival and Archive, inició
un proyecto con el objetivo de archivar, conservar y documentar esta
“nueva vanguardia” digital. Para profundizar en la teorética y práctica de los
nuevos medios y estimular diversas líneas de investigación crearon una red
de colaboración entre los museos y las distintas instituciones
internacionales. Richard Rinehart, uno de los responsables de este programa
y Director de Medios Digitales del Berkeley Art Museum and Pacific Film
Archive, desarrolló, en este contexto, la idea de una Restauración alógrafa
estándar: algo similar a lo que la notación es para la música95.

The Variable Media Network96 es otro de los proyectos que aúna los
esfuerzos realizados por dos prestigiosas instituciones como son el
Guggenheim y la Daniel Langlois Foundation. El objetivo de este programa,

94
Archiving the Avant-Garde, http://www.bampfa.berkeley.edu/about/avantgarde,
[Consulta: 9-6-2009].

95
Rinehart, Richard. A System of Formal Notation for Scoring Works of Digital and Variable
Media Art, http://www.bampfa.berkeley.edu/about/formalnotation.pdf, [Consulta: 9-6-
2009].

96
Variable Media Network, en: http://variablemedia.net, [Consulta: 15-10-2010].

65
ARTE DIGITAL

coordinado por Jon Ippolito, comisario de Media Arts del Solomon R.


Guggenheim Museum, y por Alain Depocas, director del Centre for Research
and Documentation (CR+D) de la Daniel Langlois Foundation, es establecer
protocolos que permitan la Restauración de obras artísticas realizadas en
formatos cuya obsolescencia es más que previsible; independientemente
del medio en el que el artista haya realizado su trabajo.

Uno de los aspectos más sobresalientes de este proyecto es el alto grado


de colaboración e implicación de los artistas en la definición de los
parámetros en los que sus obras deben ser conservadas97. Uno de sus logros
más visibles de esta iniciativa fue el diseño de una herramienta informática,
en el otoño de 2003, al estilo de un cuestionario interactivo, ligado a una
base de datos, para ayudar al artista y a los conservadores sobre los posibles
problemas a tener en cuenta a la hora de exhibir una obra de new media. El
formulario plantea a los artistas interrogantes sobre posibles
consideraciones de las obras una vez que el medio original para el que han
sido concebidas quede obsoleto. El propio Ippolito señala que “el
cuestionario no es tanto una investigación sociológica como un instrumento
para determinar cómo a los artistas les gustaría que su trabajo fuera
recreado en el futuro si llegara el caso”98. Este proyecto enfatiza, alrededor
del artista, la colaboración interdisciplinar en los procesos de Restauración.
Cada obra es un caso de estudio independiente del medio99. Los resultados

97
Durante el desarrollo del proyecto se entrevistaron a muchos y prestigiosos artistas como
Meg Webster, Ken Jacobs o Robert Morris, entre otros.

98
Ippolito, Jon. Accommodating the Unpredictable: The Variable Media Questionnaire en
Depocas, Alain; Ippolito, Jon y Jones, Caitlin (Eds). Permanence through change: The Variable
Media Approach. New York: The Solomon R. Guggenheim Foundation y Montreal: The Daniel
Langlois Foundation for Art, Science, and Technology, 2003. Disponible en:
http://www.variablemedia.net/e/preserving/html/var_pub_index.html, [Consulta: 16-12-
2010], p. 47.

99
Ippolito, Jon. Death by Wall Label en Christiane, Paul (Ed). New Media in the White Cube
and Beyond: Curatorial Models for Digital Art. Berkeley: University of California Press, 2008,
pp. 106-132. Tal independencia se consigue mediante la implementación de determinados
«comportamientos»: reproducido, duplicado, interactivo, codificado, intercomunicado o
contenido. El término reproducido se aplica a cualquier medio que pierde calidad cuando es
copiado. En contraste duplicable es cualquier medio que admite clonación o versiones
indistinguibles. El comportamiento interactivo se utiliza para medios reactivos; que requieren
la intervención del receptor. Un trabajo codificado es aquel que utiliza de alguna manera un
programa de ordenador o partitura anotada para su construcción; que tiene un

66
Restaurar lo inestable. Un problema por resolver

se vuelcan a una base de datos compartida, accesible vía Internet (pero de


acceso restringido), que constituye una referencia de valor incalculable para
la investigación, difusión, colaboración, etc.

Otra de las actividades destacables realizadas por esta plataforma fue la


exposición Seeing Double. Emulation in Theory and Practice100 en la que se
expusieron una serie de obras originales de nuevos medios junto a sus
versiones emuladas101. “Esto supuso, tanto para el público como para los
expertos en conservación, una oportunidad única para comparar las
versiones y explorar las ramificaciones potenciales de la obsolescencia
tecnológica en el arte electrónico”102. El propio John F. Simon Jr. (uno de los
artistas invitados a exponer) expone en una entrevista:

Las emulaciones, creo, simplemente se mantienen añadiendo capas y capas


de programación en el tiempo. Pienso que es demasiada sobrecarga, y por lo

comportamiento procesual. Una obra intercomunicada se distribuyen a través de una red de


comunicación electrónica (como Internet) y, por último, el comportamiento contenido
pregunta, por ejemplo, “si una superficie oxidada se debe limpiar o se debe reemplazar la
parte dañada”, pp. 118-119.

100
Seeing Double: Emulation in Theory and Practice, 2004;
http://www.variablemedia.net/e/seeingdouble/, [Consulta: 10-10-2010]. Entre 19 marzo-16
mayo de 2004 el Guggenheim Museum de New York, comisariada por Caitlin Jones, Carol
Stringari y Alain Depocas, expuso el proyecto Seeing Double: Emulation in Theory and Practice
donde se estudiaron obras en distintos medios de Cory Arcangel, Mary Flanagan, Jodi, Robert
Morris, Nam June Paik, John F. Simon Jr. y de Roberta Friedman y Grahame Weinbren. Con
motivo de esta exposición tuvo lugar el simposio Echoes of Art: Emulation As a Preservation
Strategy (08/05/2004) en el que artistas, programadores, conservadores e intelectuales
debatieron sobre los problemas que plantean la obsolescencia de las tecnologías en el
contexto de la cultura.

101
Jones, Caitlin y Stringari, Carol. Seeing Double: Emulation in Theory and Practice en
Christiane, Paul (Ed). New Media in the White Cube and Beyond: Curatorial Models for Digital
Art. Berkeley: University of California Press, 2008, pp. 220-232. La emulación, aunque “(…)
tiene un significado específico en el contexto de los medios digitales, donde (…) ofrece una
técnica poderosa para correr software caduco sobre una plataforma contemporánea” no está
limitada al software. “Emular un trabajo es diseñar una imitación de la apariencia *loock and
feel+, pero en un medio completamente diferente del original”.

102
Ibíd., p. 220. En este contexto la emulación produce versiones. El problema es si captura el
espíritu de la obra original, si mantiene su valor simbólico.

67
ARTE DIGITAL

tanto no es eficiente. Si vas al código fuente y lo recompilas, estás más cerca de


la máquina. Puedes controlar más cosas a más niveles. No me molesta si ocurren
variaciones entre las ediciones numeradas de esta pieza debido a
actualizaciones diferentes en momentos diferentes.

29. John F. Simon Jr. Color panel. A la izquierda: Color Panel v1.0.1, 2004. Código
C, portátil Apple PowerBook G3 alterado, y acrílico. A la derecha la version
original emulada: Color Panel v1.0, 1999. Código C, portátil Apple PowerBook
280c alterado, y acrílico. Exposición Seeing Double: Emulation in Theory and
Practice. Aunque en la imagen solo se ve una en realidad se expusieron dos
versions emuladas. La circuitería en la parte inferior, que sí es operativa en la
obra original, no es funcional, ni guarda ninguna relación con el G3 sino que
tiene exclusivamente un propósito puramente estético103. Las diferencias
perceptuales son considerables.

103
Jones y Stringari, op. cit., p.227. “Un punto importante a destacar es que el propio artista
determinó y ejecutó la «metodología de preservación». Tal recompilación podría ser difícil de
conseguir o justificar en el futuro sin el código fuente del artista y sin su autorización para

68
Restaurar lo inestable. Un problema por resolver

Otro formato es el creado por Rhizome.org, una plataforma on-line104 sin


ánimo de lucro, fundada en 1996 en New York por algunos de los primeros
artistas que trabajaban en la web: Mark Tribe y Alex Galloway. En 2003 se
asocia con el New Museum of Contemporary Art105 y en la actualidad
constituye un sitio de referencia que contribuye a definir los roles que
juegan las prácticas artísticas ligadas al empleo de las tecnologías digitales.
Entre sus objetivos se encuentran la creación, presentación, conservación y
estudio de las obras que emplean y experimentan con la tecnología y la
promoción al acceso de los nuevos medios en un contexto crítico. Además
presta especial atención tanto a los artistas como a las obras desde la
perspectiva de las complejas interrelaciones que se establecen entre la
tecnología el arte y la cultura.

Rhizome.org creó, en 1999, Rhizome ArtBase: un archivo online, en


expansión, de new media art que tiene registradas más de 2400 obras.
Cualquier artista, mediante la aplicación de una serie de criterios de
selección106, puede presentar obras de net art, software art, computer
games y documentación de performances e instalaciones. Una vez

utilizarlo.” Este caso es un ejemplo de las contradicciones éticas que se producen por la
influencia del artista en el proceso de Restauración. Para el museo incluso las nuevas
versiones emuladas se encuentran en el mismo estado de riesgo de obsolescencia; no
dispone de la información funcional que requiere para una futura intervención; ni siquiera de
la autorización del artista para intervenir su obra después de muerto cuando la
responsabilidad de su Restauración sea completamente suya.

104
Rhizome: At the new museum, www.rhizome.org. [Consulta: 6-10-2010].

105
Fundado en 1977 en New York por Marcia Tucker, se convirtió en una propuesta única en
su género al ser concebido como un centro de exposiciones, información y documentación de
obras realizadas por artistas emergentes. Hoy en día tiene como objetivo el lema: “new art,
new ideas”.

106
Entre esos criterios se encuentran entre otros: la innovación estética, conceptual o su
impacto político, que la obra sea relevante dentro de los nuevos medios o que haya sido
estudiada o discutida dentro de Rhizome.org o en otras publicaciones reconocidas.

69
ARTE DIGITAL

aceptadas las piezas se clasifican según una serie de términos107 para


facilitar un acceso indexado por etiquetas.

La Daniel Langlois Foundation for Art, Science, and Technology es una


organización de carácter privado radicada en Montreal, Cánada108. Desde su
creación en 1997 ha desarrollado programas de investigación en los ámbitos
científico, artístico y tecnológico con un fuerte impacto internacional. En
2005 puso en marcha un ambicioso proyecto con formato de programa
quinquenal denominado DOCAM, Documentation and Conservation of the
Media Arts Heritage109, en el que participan cerca de veinte instituciones y
museos internacionales de ambos lados del Atlántico y que nace con cinco
objetivos perfectamente definidos:

Promover la investigación multidisciplinar entre la ciencia y la técnica para


resolver los problemas que plantea la conservación del patrimonio en el que
interviene la tecnología.

Provocar la transferencia de conocimiento y el debate entre todos los


colectivos implicados en la conservación de las obras tecnológicas, electrónicas y
digitales.

Desarrollar nuevas herramientas para documentar y conservar las obras con


componentes tecnológicos como pueden ser un catálogo que se adapte a este
tipo de obras, o una guía de “buenas prácticas” para conservadores.

Contribuir a la formación de la próxima generación de profesionales:


historiadores, comisarios, conservadores, ingenieros, etc., responsables de
conservar las obras.

107
Elegibles del vocabulario propuesto por Rhizome o añadidos por el artista. Cuando un
término nuevo alcanza un cierto nivel de popularidad pasa a formar parte del vocabulario de
Rhizome.

108
La fondation Daniel Langlois, www.fondation-langlois.org, [Consulta: 8-10-2010].

109
DOCAM, www.docam.ca, [Consulta: 8-10-2010].

70
Restaurar lo inestable. Un problema por resolver

Desarrollar durante los cinco años que dura el proyecto resultados tangibles
como pueden ser la implementación de nuevos programas universitarios, la
adopción de políticas culturales adaptadas a las nuevas realidades de las obras o
la adopción de herramientas desarrolladas por el proyecto.

30. Janet Cardiff. Eyes of Laura, 2004. Caso de estudio del proyecto DOCAM. Esta
es una de las cuatro obras encargadas por la Vancouver Art Gallery para el
proyecto de exposición a largo plazo: On Location: Public Art for the New
Millennium. Como esta fue la primera pieza basada en web para entrar en su
colección permanente, la Galería tuvo que adaptar su proceso habitual de
adquisición.

ZKM Zentrum für Kunst und Medientechnologie110 es uno de los centros de


referencia en Europa radicado en Karlsruhe, fundado por Peter Weibel, en

110
ZKM, www.zkm.de, [Consulta: 7-10-2010]. Cuya idea original procede de mediados de los
años ochenta del pasado siglo surgió gracias a una serie de intelectuales, ligados a la
universidad de esa ciudad y al State Academy for Design, que en esas fechas deciden poner

71
ARTE DIGITAL

1999 que tiene entre sus objetivos ser una plataforma de discusión entre la
teoría y la práctica, en el contexto del arte y las nuevas tecnologías, y
participar activamente en el debate sobre el conocimiento y el uso de la
tecnología. Entre sus proyectos más relevantes se encuentran el denominado
OASIS (Open Archiving System with Internet Sharing)111 un proyecto
multiinstitucional112 que tiene como objetivo la investigación, documentación
y preservación del arte electrónico.

Basado en la metodología del “estudio de caso” se han estudiado una


serie de obras y elaborado informes que incluyen una serie de
recomendaciones técnicas para la posible reinstalación de las obras y
conservación. En la actualidad se encuentra en marcha Mediaartbase113, un
proyecto trienal iniciado en 2008, que tiene como finalidad generar una
plataforma transinstitucional con estructura de banco de datos que sirva
para archivar y presentar música y media art.

En 2003, de la colaboración de un grupo de comisarios, conservadores,


documentalistas e ingenieros de cuatro prestigiosas instituciones (Tate
London, MOMA, SFMoMA y New Trust of Art), surgió un ambicioso proyecto
denominado Media Matters. Collaborating towards the care of time-based
media114 cuyo objetivo fue establecer modelos para el cuidado y la
conservación de las obras de arte digital; en particular: desarrollar

en marcha un instituto de investigación origen de este gran centro dedicado a la cultura de la


imagen, a la música y a los nuevos medios.

111
OASIS, www.oasis-archive.eu, [Consulta: 7-10-2010]. Proyecto trienal 2004-2007,
financiado por el programa Culture 2000 de la Unión Europea.

112
Karlsruhe University of Arts and Design, AGH University of Science and Technology
(Cracowia), CIANT International Center for Art and New Technologies (Praga), Les Instants
Vidéo Numériques et Poétiques (Marsella), Montevideo- Netherlands Media Art Institute
(Amsterdam).

113
mediartbase.de, http://www.mediaartbase.de/index.html?L=1, [Consulta: 7-10-2010].

114
Matters in Media Art,
http://www.tate.org.uk/research/tateresearch/majorprojects/mediamatters/, [Consulta: 7-
10-2010].

72
Restaurar lo inestable. Un problema por resolver

estrategias de conservación en correspondencia a la complejidad de este tipo


de obras; y dotar a las instituciones implicadas de los instrumentos
necesarios para el registro y la documentación de obras de arte complejas.

31. Brion Gysin. Dream Machine, 2010. Primera presentación completa del
pintor, artista, poeta y escritor Brion Gysin. Esta aplicación está inspirada en
Dreamachine Gysin (1961), una escultura de luz cinética que utiliza el efecto
"parpadeo" para inducir visiones cuando se experimenta con los ojos cerrados.
No recomendable a personas con trastornos convulsivos.

73
ARTE DIGITAL

Este proyecto consiguió, a lo largo de sus dos fases, iniciadas en 2004 y


2007 respectivamente, la actualización y adaptación de los formularios
museográficos tradicionales de Condition Report y Facilities Report115 para
este tipo de obras tan complejas y específicas.

International Network for the Conservation of Contemporary Art


(INCCA116) es una organización internacional formada por conservadores,
investigadores, historiadores del arte, comisarios o científicos, dedicada a la
investigación de la conservación del arte contemporáneo y coordinada por
el Netherlands Institute for Cultural Heritage/ICN. Fundada en 1999117, su
página web www.incca.org constituye una plataforma única de información
y de intercambio de conocimiento. Dispone de la Incca Database for Artists’
Archives, una herramienta única para los profesionales a través de la cual
pueden acceder a información inédita proporcionada directamente por los
artistas en relación con sus obras118. Los miembros de INCCA trabajan en
proyectos de investigación conjuntos que abarcan diversos líneas de
investigación como Inside Installations: Presentation and Presentation of
Installation Art (2004-2007)119.

115
Ambos son informes sobre las condiciones de conservación de las obras y de los
servicios/condiciones de los museos respectivamente.

116
INNCA, www.incca.org, [Consulta: 7-10-2010].

117
En el seno del Programa Raphael de la Comisión Europea, 23 expertos de 11
organizaciones internacionales fundaron INCCA con sede en Amsterdam. En la actualidad
forman parte de ella más de 150 instituciones de 30 países.

118
En colaboración con la Tate desarrolló una guía de empleo para entrevistar a los artistas.
La propia Tate realizó un informe interno denominado “Guided to Good Practice: Artists’
Interviews’” escrito por Jo Crook en junio de 2001.

119
Vid., nota 19. En este proyecto financiado por el Programa Cultura 2000 de la Union
Europea, participaron instituciones como la Tate de Londres, Restaurierungszentrum de
Düsseldorf, Stedelijk Museum voor Actuele Kunst (SMAK) de Gante, Museo Nacional Centro
de Arte Reina Sofía (MNCARS) de Madrid, Stichting Behoud Moderne Kunst (SBMK), de
Hertogenbosch (Holanda) y el Instituut Collectie Nederland de Amsterdam. Cada una de estas
instituciones tiene sus propios socios nacionales. El “grupo” español cuenta con la
colaboración del Museu d`Art Contemporani de Barcelona, Centro Andaluz de Arte
Contemporáneo, Guggenheim de Bilbao, Artium de Vitoria, la Fundación La Caixa y el IVAM
de Valencia. Se estudiaron unas treinta instalaciones complejas. Algunas multi-media fueron

74
Restaurar lo inestable. Un problema por resolver

32. Gary Hill. Between Cinema and a Hard Place, 1991. Obsérvese que en esta
instalación se ha desprovisto a los monitores de sus carcazas para que el propio
tubo de rayos catódicos forme parte de la imagen.

En mayo de 2009 comenzó un proyecto bianual, financiado por el


Programa Cultura (2007-2013) de la Comisión Europea y la Fundación
Mondrian, denominado PRACTICs of Contemporary Art: The Future120
dirigido por el Netherlands Institute for Cultura Heritage (ICN) y
coorganizado por cinco instituciones, entre ellas se encuentra el Museo
Nacional Centro de Arte Reina Sofía (MNCARS), a las que a su vez se
encuentran asociadas otras instituciones de sus países correspondientes.
Entre los objetivos de este proyecto ahora en curso se encuentran:

Incrementar el nivel de excelencia e investigación interdisciplinar entre


conservadores, comisarios, artistas, tecnólogos y profesores.

Aumentar el interés público por el arte contemporáneo y su conservación.

reinstaladas, investigadas y documentadas. Entre los artistas españoles cuyas obras fueron
tratadas se encuentran Ignasi Aballí, Ángel de la Cruz, Javier Pérez y Eulàlia Valldosera.

120
PRACTICs of Contemporary Art: The Future, http://www.incca.org/projects/64-current-
projects/475-practics, [Consulta: 22-12-2010]. PRACTICs es el acrónimo de las palabras
inglesas practics, research, access, collaboration, teaching in conservation of contemporary
art.

75
ARTE DIGITAL

Fomentar la colaboración entre programas educativos en conservación.

Facilitar la continua colaboración entre redes de grupos de trabajo afiliados a


INCCA.

Precisamente es en Holanda donde se encuentra otra de las


instituciones que se ha preocupado, a lo largo de las últimas décadas, por
preservar el Patrimonio Digital: el Netherlands Media Art Institute:
Montevideo/Time Based Arts121, creado en 1978 por René Coelho, después
de fusionarse en 1993 con Time Based Arts; una asociación de videoartistas
fundada una década antes. Hoy en día y gracias a capital público trabaja
fundamentalmente en tres áreas principales: la presentación, la
investigación y la conservación. Asimismo presta servicio a artistas e
instituciones a la vez que realiza programas educativos. Desde 1992, ha
investigado y desarrollado modelos de conservación del media art hasta
convertirse en un centro especializado en este terreno en las áreas de
videoarte, instalaciones y performances.

En España, uno de los grupos de trabajo del Grupo Español del


International Institute of Conservation122 está dedicado precisamente al Arte
Contemporáneo. Este grupo celebra anualmente unas jornadas, en
colaboración con el Museo Nacional Centro de Arte Reina Sofía (MNCARS),
dedicadas precisamente a la puesta en común de las reflexiones e
investigaciones en relación con esta área123.

121
Nederlands Instituut voor Mediakunst, www.montevideo.nl, [Consulta: 8-10-2010].

122
Grupo Español de Conservación, http://ge-iic.com, [Consulta: 8-10-2010].

123
En los últimos años se observa en la publicación que recoge las jornadas un interés
incipiente por la conservación del arte de los nuevos medios. El propio Museo Nacional
Centro de Arte Reina Sofía es socio del proyecto PRACTICs of Contemporary Art: The Future y
ha participado, en el proyecto Inside Installations: Presentation and Presentation of
Installation Art (2004-2007).

76
Restaurar lo inestable. Un problema por resolver

33. Bill Spinhoven. Albert's Ark, 1990. Caso de estudio de Inside Installations.
Esta obra es representativa del "estado del arte" y el avance tecnológico de los
años 1980 y principios de la década de 1990 que, en el momento del estudio,
2007, devenía rápidamente en obsoleta.

Otra iniciativa es el programa Digi- Arts124 de la UNESCO, cuya sección de


Historia del Media Art coordina Claudia Gianetti, directora del Media Centre

124
digi-arts,
http://portal.unesco.org/culture/es/ev.php-
URL_ID=1391&URL_DO=DO_TOPIC&URL_SECTION=201.html, [Consulta: 17-5-2009].
Proyecto de investigación histórica, teórica, técnica, científica y artística en el campo de las
artes electrónicas y digitales.

77
ARTE DIGITAL

d´Art i Disseny, (MECAD). MECAD es un centro asociado a la Universidad


Ramon LLull de Barcelona que tiene entre sus objetivos promover la
investigación en torno al arte electrónico y el diseño digital, además de
potenciar la producción teórica y la reflexión sobre la cultura y el patrimonio
digital. Entre sus publicaciones conviene destacar Net@spaña la primera
plataforma sobre net art realizada en España125.

Conclusiones

Cartografiar el arte digital y enmarcarlo en un contexto histórico es un


primer paso para sistematizar el conocimiento y orientar la Restauración. En
esta investigación no se realiza un análisis genealógico del arte digital126 sino
un recorrido histórico marcado por la introducción de elementos
tecnológicos relevantes para el desarrollo de las prácticas artísticas que
confluyen en el arte digital. Tales experiencias, en la intersección del arte, la
ciencia, la tecnología, etc. son complejas, multidisciplinares y en continua
expansión y es precisamente esta singularidad la que determina su
naturaleza y configura su Restauración. Si se observa con detenimiento las
obras ejemplos ilustradas en las figuras es simple comprobar lo difícil de
clasificarlas en una u otra categoría. En la mayoría de los casos se mueven
lejos de los centros, en la periferia, aunque siempre con al menos uno de los

125
NET@SPAÑA, www.mecad.org/net_es.htm, [Consulta: 8-10-2010]. Net@spaña se creó en
1999 a partir de un grupo de trabajo del MECAD que emprendió la labor de recopilación de
los principales artistas de media art y de arte electrónico en España. Como resultado de esa
investigación en el año 2000 se publicó un CD-ROM titulado ArteVisión-Una historia del arte
electrónico en España. Pasados seis años esa información se ha volcado en una sitio web de
acceso libre gracias al Ministerio de Cultura y al Museo Extremeño e Iberoamericano de Arte
Contemporáneo (MEIAC) de Badajoz. Net@spaña constituye la primera plataforma y base de
datos online que incluye una amplia antología de los principales artistas y sus obras.

126
Obras como Il di battito internazionale intorno al la conservazione e alla documentazione
della New Me dia Art, de Laura Barreca; Nuevas Expresiones Artísticas a Finales del Siglo XX,
de Michael Rush; Digital Art, de Christiane Paul; Art of Electronic Age, de Frank Popper o Art
of the Digital Age, de Bruce Wands documentan especial y cronológicamente bien los
antecedentes del arte digital. Su carácter efímero e inmaterial permite “considerar que [el]
antecedente fundamental del arte digital es el arte desmaterializado, conocido también
como «arte como idea»” cit. en Regil Vargas, Laura. Hipermadia: Medio, lenguaje
herramienta del arte digital. Revista Digital Universitaria [en línea]. 10/10/2005, Vol. 6, No.
10. En: http://www.revista.unam.mx/vol.6/num10/art97/int97.htm, [Consulta: 15-10-2010].

78
Conclusiones

tres ingredientes de Barreca: computación, comunicación, contenidos. Esta


característica podría ayudar a orientar la Restauración. La iniciativa Media
Art Resource, de Electronic Arts Intermix, separa claramente las estrategias
de exposición, colección y preservación en tres grupos: vídeo, arte basado
en ordenador e instalaciones127. Las paradojas de este nuevo orden son
extremadamente difíciles de desliar pero constituyen igualmente un
poderoso vehículo hacia nuevos y heterodoxos acercamientos.

La Restauración del patrimonio digital es una actividad forense


tecnológica transdisciplinar orientada a casos que requiere de una
formación adecuada; no solo a los nuevos conservadores, sino a todos los
agentes implicados y, en especial, al artista. Tan importante como el
dominio de la tecnología es el empleo de metodologías, que no métodos,
para alcanzar una Restauración científica. El patrimonio digital no ha
sobrevivido al tiempo. Es un problema y una realidad. Ahí están los retos,
urge la acción.

127
Obsérvese la clara distinción entre las estrategias aplicables a videoarte y
videoinstalaciones (a lo que en EAI denominan simplemente instalaciones).

79
ARTE DIGITAL

80
TEORÍA DE LA RESTAURACIÓN DEL ARTE DIGITAL

Cómo fue,
No sé decirte cómo fue,
No sé explicar lo que pasó

Ernesto Duarte

La necesidad de Restaurar el patrimonio digital es ya una urgencia.


Instituciones internacionales como la UNESCO lo advierten. Sin embargo,
excepto con el patrimonio editorial, bibliográfico y documental las iniciativas
y esfuerzos son insuficientes. Esta complejidad, multidisciplinariedad y
urgencia plantea a museos, galerías e instituciones coleccionistas un gran
reto.

El arte digital es parte del patrimonio digital. Museos, fundaciones,


coleccionistas, etc. incrementan sus fondos a la vez que los problemas
relacionados con la Restauración de medios inestables: la rápida
obsolescencia tecnológica y la carencia de metodologías de producción,
documentación, exposición, preservación, conservación y restauración. El
proceso de Restauración se convierte, prácticamente, en una experiencia
forense de ensayo y error.

Arte Digital. Un activo emergente

El 15 de Octubre de 2003 la Conferencia General de la UNESCO se manifestó


de manera consciente y rotunda sobre la urgencia de velar por la
conservación y protección del patrimonio digital (en muchos casos en
peligro de desaparición) al aprobar la Carta de la UNESCO para la
Preservación del Patrimonio Digital128. En principio puede parecer

128
Carta de la UNESCO para la Preservación del Patrimonio Digital, 28/03/2003, en:
http://arpa.ucv.cl/texto/Preservaci%F3nPatrimonioDigitalUNESCO.pdf, [Consulta: 4-10-
2010].

81
TEORÍA DE LA RESTAURACIÓN DEL ARTE DIGITAL

contradictorio, exagerado y alarmista que algo tan novedoso, de creación


relativamente reciente y por lo que no ha pasado el peso de los años, como
es el patrimonio digital, en la intersección del arte, la ciencia y la tecnología,
esté a punto de perderse para la posteridad pero la propia Carta advierte el
peligro de pérdida:

El patrimonio digital del mundo corre el peligro de perderse para la


posteridad. Contribuyen a ello, entre otros factores, la rápida obsolescencia
de los equipos y programas informáticos que le dan vida, las incertidumbres
existentes en torno a los recursos, la responsabilidad y los métodos para su
mantenimiento y conservación y la falta de legislación que ampare estos
procesos.

Situación que parece allanar el camino para que ese escenario tan
agorero y realista a la vez se cumpla si los agentes responsables no se
encargan de actuar de forma rotunda en sentido contrario. La UNESCO
define en el Artículo 1 de la mencionada carta el patrimonio digital como
aquellos

(…) recursos únicos que son fruto del saber o la expresión de los seres
humanos. Comprende recursos de carácter cultural, educativo, científico o
administrativo e información técnica, jurídica, médica y de otras clases, que se
generan directamente en formato digital o se convierten a este a partir de
material analógico ya existente. Los productos de «origen digital» no existen en
otro formato que el electrónico.

Con esta definición queda clara la distinción que existe entre patrimonio
digital y digitalización del patrimonio; que puede adquirir la categoría de
patrimonio digital aunque proviene de la conversión de un patrimonio
analógico ya existente. Aunque la UNESCO propone digitalizar patrimonio
analógico para conservarlo, lógicamente da prioridad a la conservación de
los productos de «origen digital» en tanto que son «únicos» y “no existen en
[ningún] otro formato que el electrónico”.

Algunos autores129, dentro de la clasificación propuesta por la UNESCO,


coinciden en tratar al documento electrónico y al patrimonio digital dentro

129
Macarrón, Ana. Conservación del Patrimonio Cultural. Criterios y Normativas. Madrid:
Editorial Síntesis, 2008, p. 214.

82
Arte Digital. Un activo emergente

del patrimonio documental y bibliográfico a pesar de la heterogeneidad de


los materiales en los que pueden coincidir, o no, el valor documental o
artístico y la obra única o seriada.

El patrimonio «nativo» digital, concretamente en el ámbito del arte


digital, presenta dos problemas fundamentales: obsolescencia tecnológica y
debilidad metodológica sumados a la ausencia de un corpus teórico de la
Restauración que atienda su naturaleza nueva, inconclusa, reproducible,
decrépita, inmaterial, intangible, inestable y voluble. Un compromiso serio y
profundo en la Restauración de este patrimonio requiere un esfuerzo
transdisciplinar en nuevas direcciones.

El arte digital surge como consecuencia de la extensión natural de las


técnicas y herramientas de producción digitales al ámbito de producción
artística. La posibilidad de representar la información en una secuencia de
números binarios (que se puede copiar infinita e idénticamente,
transmisible sin error y almacenable de forma barata y segura) aceleró la
tercera revolución industrial a niveles insospechados y colocó a los
procesadores digitales (el ordenador por excelencia) en el centro neurálgico
de la actividad y producción humana, incluido el arte. Solo dos décadas
después de su comienzo, a principios de los sesenta, los científicos
empezaron a crear gráficos por computadora; lo que, aunque en principio
fue un ejercicio experimental para explorar los límites del ordenador, no
tardó en convertirse en una práctica artística, una vez que Max Bense, junto
a Abraham Moles, llevaron el corpus teórico hacia una nueva modelización
de la visión130.

El desarrollo tecnológico, hasta la fecha, ha seguido la Ley de Moore131


con un comportamiento aproximadamente exponencial. El mundo
interconectado, global, informatizado, paradójicamente, con todos los

130
Bense, Max. Estética de la información. Madrid: A. Corazón, Comunicación, Serie B, 1972.

131
En 1965, el cofundador de Intel, Gordon Moore, tuvo una visión de futuro. Su predicción,
conocida popularmente como “Ley de Moore”, plantea que el número de transistores de un
chip (materia imprescindible de cualquier procesador digital) se duplica cada dos años. La
consecuencia directa de la “Ley de Moore” es que los precios bajan al mismo tiempo que las
prestaciones suben.

83
TEORÍA DE LA RESTAURACIÓN DEL ARTE DIGITAL

recursos para crear tecnologías perdurables en el tiempo, genera know-how


intrínsecamente obsolescente. Lo que hoy es tecnología punta, en poco
tiempo no será más que chatarra. Asistimos atónitos a la conversión de
muchos objetos de la vida cotidiana, que en su momento fueron tecnología
de última generación, en auténticas antiguayas, con la absoluta certeza de
que la información y sus procesos de transformación pueden ser
preservados de este proceso de decrepitud.

El mundo «real» es analógico y seguirá siendo analógico, pero su


observación y control, desde aproximadamente la mitad del siglo XX, es y
será digital, al menos, por mucho tiempo. En este modelo discreto del
mundo solo intervienen tres elementos: la información, representada por
datos binarios; los procesos que consumen, almacenan, transforman y
generan datos; y el soporte físico que permite la activación de tales procesos
(normalmente un procesador digital y un complejo de dispositivos
periféricos). Solo este último, el soporte, es materia activa, necesita energía,
normalmente corriente eléctrica, para funcionar: el resto de los elementos:
procesos y datos; son inmateriales, intangibles e inestables. En el mundo
«real» analógico, las variables (datos) que se utilizan para cuantificarlo son
continuas. Por muy pequeña que sea una magnitud, siempre es posible
encontrar un valor capaz de representarla. Sin embargo, desde que Nyquist
y Shannon demostraron que era factible «discretizar» la información sin
pérdidas nada volvió a ser como antes132. Ese proceso de «discretización»
pasa por muestrear o capturar la información y cuantificarla en una
secuencia numérica equivalente, de cierta manera. La consecuencia
inmediata de estos hallazgos es, nada más y nada menos que: la «era
digital».

La conversión analógica-digital/digital-analógica (en inglés Analog-to-


Digital Conversion, ADC; Digital-to-Analog Conversion, DAC) no es una
traducción del inglés al castellano (de un idioma a otro), sino un cambio de
representación controlado. El lenguaje, de hecho, no es analógico sino
discreto en la mayoría de las escalas133. Los grafemas o fonemas (signos

132
Nyquist, Harry. Certain Topics in Telegraph Transmission Theory. Trans. AIEE. 1928, Vol.
47, p. 617-644 y Shannon, Claude E. A Mathematical Theory of Communication. Bell System
Technical Journal, 1948, Vol. 27, pp. 379-423 y 623-656.

133
Manovich, op. cit., p. 74.

84
Arte Digital. Un activo emergente

escritos o hablados respectivamente) constituyen unidades indivisibles


agrupables en sub-unidades (morfología) y éstas, a su vez, en unidades de
mayor nivel (sintaxis) para formar sintagmas, oraciones y frases. Para Roland
Barthes: “El lenguaje es, como si dijéramos, lo que divide la realidad. Por
ejemplo, el espectro continuo de los colores queda reducido verbalmente a
una serie de términos discontinuos”134. Se trata de una transcodificación
(supresión/suplemento) a diferencia de un cambio de dominio de
representación. Las pérdidas introducidas como consecuencia del cambio de
dominio, cuantificadas en el error de cuantificación, son muy inferiores a los
límites perceptuales aceptables135; son, técnicamente, imperceptibles. Sin
embargo, este proceso: de lo analógico a lo digital, tiene sendas
implicaciones estéticas. Lev Manovich considera incluso que se puede crear
un objeto de nuevo medio mediante una conversión de su fuente analógica
(viejo medio)136:

Todos los objetos de los nuevos medios, ya se creen partiendo de cero o


sufran una conversión a partir de fuentes analógicas, se componen de código
digital.

Este cambio de paradigma no ha sido del todo asimilado en la


Restauración contemporánea. Una excepción es lo que Salvador Muñoz
Viñas denomina “conservación informacional”137 para referirse al duplicado

134
Barthes, Roland. Elementos of Semiología. Comunicación, Serie B: Elementos de
Semiología. Madrid: Alberto Corazón, 19 edition, 1971. Título original: Elements of Semiology.
Publicado en inglés, en 1968, por New York: Hill and Wang. Traducción de Alberto Méndez.

135
El número de bits, N que forman una muestra determina la resolución o el número de
niveles de cuantificación. Si n=8, por ejemplo, el número de niveles de cuantificación es
N=2n=256. El error de cuantificación: diferencia entre el valor real analógico y el valor de
intervalo de cuantificación asignado Q, es como máximo de 1/2 bit. Si el rango dinámico
analógico, diferencia entre valor máximo y mínimo, es, por ejemplo, de 1 voltios,
Q=1/256=0,00390625. El error corresponde a ±Q/2 = 0,001953125, es decir,
aproximadamente 2 mV. El proceso de digitalización supone normalmente la transducción de
la señal a un rango de voltaje, ya sea luminosa, sonora, o de otra naturaleza: temperatura,
presión, humedad, etc.

136
Manovich, op. cit., p. 72.

137
Muñoz, Teoría contemporánea de la Restauración, op. cit., pp. 75-76.

85
TEORÍA DE LA RESTAURACIÓN DEL ARTE DIGITAL

o la transferencia de datos a otro soporte, prescindiendo de los objetos


sobre los que fueron registrados por carecer éstos de significado simbólico
alguno; de hecho remarca, que “los restauradores restauran objetos” y que
esta conservación informacional se acercará tanto más a la Restauración,
“cuanto más indispensable sea conservar el objeto y no solo su
información.”

Objeto de Restauración

Cesare Brandi, en su Teoría de la Restauración138, establece una jerarquía


funcional entre el aspecto y la estructura del objeto de Restauración donde
presupone una subordinación de esta a aquel. El primer axioma de la Teoría
de Brandi dice: “(…) se restaura solo la materia de la obra de arte. No está la
materia por un lado y la imagen por otro.” Ambos conceptos, aspecto y
estructura, requieren de un medio o soporte físico: “(…) serán dos funciones
de la materia en la obra de arte.”

34. “Objeto” de Restauración. A la izquierda: teoría tradicional. Según la Teoría


del Restauro de Brandi, solo se restaura la materia que funciona como aspecto y
estructura. A la derecha: teoría contemporánea, correspondiente a las teorías
actuales de la Restauración. Se representa en negro la materia, en blanco con
línea continua, lo inmaterial y con líneas discontinuas, lo que puede ser material,
inmaterial o una combinación de ambos.

138
Brandi, op. cit., p. 13.

86
Objeto de Restauración

Los medios físicos asociados con el soporte actúan como estructura


material en la transmisión de la imagen: el aspecto, “*representan+ un
medio y no un fin” 139. La estructura interna puede cambiar, siempre que “la
estructura transformada no repercuta en el aspecto”140.

El esquema anterior muestra el planteamiento conceptual del «objeto»


de Restauración y realiza una comparación funcional de ambas teorías:
tradicional y contemporánea. La teoría contemporánea de la Restauración
cuestiona de manera directa este primer axioma, y pone de manifiesto que
no solo no es un axioma, sino que además es erróneo puesto que “el
significado (…) también es materia de restauración”141.

En el arte digital el objeto se desarticula, la materia no constituye


estructura y aspecto, sino solo una parte de la estructura: el soporte y, solo
ocasionalmente, el aspecto. La estructura, además de soporte, contiene
otros dos elementos opcionales: datos y procesos que son connaturales al
arte digital y, en general, a una parte considerable de las prácticas artísticas
postauráticas. En la estructura del arte digital, solo el soporte es materia
activa; normalmente un ordenador o procesador digital en general, que
contiene información en forma de datos y procesos; ambos intangibles,
inmateriales, virtuales142.

El concepto numérico de “0” y “1” es lógico, no físico; pero, a pesar de su


inmaterialidad, requiere de un soporte. Según Sterling143, “si no lo preservas

139
Ibíd., p. 19. “La materia se presenta como «cuanto sirve a la epifanía de la imagen».”

140
Ibíd., p. 20.

141
Jiménez, Alfonso. Enmiendas parciales a la teoría del restauro (II). Valor y valores en
Loggia Arquitectura y Restauración. 1998, 5, pp. 12-29, cit. en Muñoz, Teoria
Contemporánea de la Restauración, p. 176.

142
Sterling, Bruce. Digital Decay en Permanence through change: The Variable Media
Approach, Alain Depocas, John Ippolito y Caitlin Jones (Eds.) New York: Guggenheim Museum
Publications, 2003, p. 16. Disponible en:
http://www.variablemedia.net/e/preserving/html/var_pub_index.html, [Consulta: 8-10-
2010].

143
Ibíd.

87
TEORÍA DE LA RESTAURACIÓN DEL ARTE DIGITAL

en alguna forma material, no estarás preservando inmaterialidad: no estarás


preservando nada”. Los datos organizan la información según determinado
formato. Un proceso no es más que un tipo especial de datos, que forma
una secuencia de órdenes de ejecución o código para transformar datos en
un soporte digital activo y generar una imagen que funciona como aspecto.
Los procesos, eficazmente representados por algoritmos, se implementan en
determinados lenguajes de programación, sistemas operativos, plataformas,
herramientas y máquinas virtuales multinivel (en definitiva, con
determinadas tecnologías) muy susceptibles a la obsolescencia. De ello
deriva la importancia de orientar las fases de concepción, desarrollo y
documentación de las obras hacia sus datos y procesos, y abstraerlas de lo
perecedero, cambiable, efímero. La decisión de la conservación de soporte,
proceso, dato y/o imagen es, por lo tanto, independiente y no exclusiva.

El uso del término imagen, en el contexto del arte digital, se extiende a


toda comunicación perceptual, no solo visual. Así una imagen puede ser
audiovisual, táctil, sonora, visual, etc.; en definitiva, cualquier estímulo que
apele a los sentidos. La Restauración de la imagen, en el arte digital, está
por lo tanto relacionada con la fidelidad de la representación estética
deseada por el artista, con el valor del objeto-símbolo. La percepción de una
obra en un monitor de determinada tecnología, marca, tiempo de
fabricación, horas de exposición, condiciones del entorno, etc., es única;
algo similar ocurre con el sonido. La Restauración de la imagen, en ambos
casos, tiene que garantizar una idéntica reproductibilidad en términos
perceptuales; lo que exige una documentación apropiada de estos
criterios144. Una de las cuestiones más “comprometidas” es precisamente
adquirir la consciencia de que en muchas obras de arte digital, la imagen no

144
Muy poco común e infrecuente probablemente por su naturaleza eminentemente técnica,
sofisticada, la falta de estandarización; es muy importante sistematizar, objetivar, estos
criterios perceptuales.

88
Objeto de Restauración

es conservable145. Lo conservable, a diferencia de lo que plantea la Teoría


“tradicional”, son los datos y los procesos146 que generan la imagen.

La Carta Italiana del Restauro147 de 1972 y su posterior revisión,


renovación, integración y sustitución sustancial, en 1987 publicada como
Carta de la Conservación y Restauración de los Objetos de Arte y Cultura148
es probablemente la guía de conservación aplicada “a todos los objetos de
toda época y área geográfica que revisten de manera significativa interés
artístico, histórico y en general cultural”149, más aceptada y difundida. En el
Artículo 1, de esta última, se define el ámbito de aplicación de las
consideraciones e instrucciones que se explicitan en la Carta:

Forman parte de tal universo de objetos obras de arquitectura y de


agregación urbana, ambientes naturales de especial interés antropológico,
fáunico y geológico, ambientes construidos, como parques, jardines y paisajes
agrarios, instrumentos técnicos, científicos y de trabajo, libros y documentos,
testimonios de usos y costumbres de interés antropológico, obras de figuración
tridimensional, obras de figuración plana sobre cualquier tipo de soporte (mural,
de papel, textil, lígneo, de piedra, metálico, cerámico, vítreo, etc.).

145
Por ejemplo en aquellos casos donde la representación depende del proceso y/o
interacción como es el caso de obras en las que existe un circuito cerrado de vídeo.

146
Paul, Christiane. New Media in the White Cube and Beyond. Curatorial Models for Digital
Art, University of California Press, 2008. “El arte digital es una forma de arte orientada a
procesos”.

147
El Ministerio de Instrucción Pública italiano difundió el Documento sobre Restauración,
con circular número 117 del 6 de abril de 1972, entre todos los jefes y directores de Institutos
autónomos, con la disposición de atenerse escrupulosa y obligatoriamente, para toda
intervención de restauración en cualquier obra de arte, a las normas contenidas en el propio
Documento y en las instrucciones anejas.

148
Carta de 1987 de la Conservación y Restauración de los Objetos de Arte y Cultura,
http://www.mcu.es/patrimonio/docs/MC/IPHE/Biblioteca/ITALIA.pdf, [Consulta: 8-10-2010].

149
Ibíd., p. 1.

89
TEORÍA DE LA RESTAURACIÓN DEL ARTE DIGITAL

Evidentemente, la Carta de la Conservación y Restauración de los Objetos


de Arte y Cultura de 1987150 no contempla de una manera explícita el arte
digital; a pesar de que por esas fechas un buen número de galerías, museos
e instituciones lo reconocen y difunden. Dieciséis años más tarde, en el
2003, la Carta de Preservación del Patrimonio Digital, aprobada por la
UNESCO, sí recoge la necesidad de pasar a la acción y de “estimular la
adopción de medidas jurídicas, económicas y técnicas para salvaguardar ese
patrimonio”151 que de hecho no identifica como parte del patrimonio
cultural inmaterial152. No obstante aunque de estas Cartas se pueden
extraer y ampliar normas generales para cualquier tipo de Restauración153,
tal adaptación requiere de un estudio cuidadoso, de una redefinición incluso
de la terminología, técnicas y métodos, etc.

Muñoz Viñas introduce la paradoja Mustang154, para cuestionar la


rivoluzione copernicana de Bonsanti155 acerca del elemento característico de
la Restauración: sujeto u objeto. La rivoluzione de Bonsanti asume que “el
elemento característico [de la Restauración] no está en el objeto, sino en el
sujeto” mientras que, para Muñoz Viñas, “*la Teoría Contemporánea de la
Restauración] Admite que la Restauración se define en función de sus
objetos pero defiende que lo que caracteriza a esos objetos son rasgos de

150
El Artículo 39 de la Ley 16/1985 del Patrimonio Histórico Español de 1985 recoge la
obligación de los poderes públicos de “procurar por todos los medios de la técnica la
conservación, consolidación y mejora de los bienes declarados de interés cultural así como de
los bienes muebles incluidos en el Inventario general a que alude el Artículo 26 de esta Ley”.
Queda claro que este tipo de patrimonio no está recogido en la legislación.

151
Carta para la Preservación del Patrimonio Digital, 2003, Artículo 4,
http://portal.unesco.org/ci/en/files/13367/10676067825Charter_es.pdf/Charter_es.pdf,
[Consulta: 21-12-2010].

152
Convención para la Salvaguarda del Patrimonio Cultural Inmaterial,
http://unesdoc.unesco.org/images/0013/001325/132540s.pdf, [Consulta: 21-12-2010].

153
Brandi, op. cit., p. 130.

154
Muñoz, Teoría Contemporánea de la Restauración, op. cit., p. 38.

155
Bonsanti, Giorgio. Riparare l’arte. OPD Restauro. 1997, No. 9, pp. 109-112.

90
Objeto de Restauración

tipo subjetivos, establecidos por las personas y no inherentes a los propios


objetos”.

El Mustang P51 (…) fue originalmente un arma de guerra, un avión


monoplaza fabricado en Estados Unidos que jugó un papel importante en la
Segunda Guerra Mundial. Después del conflicto permaneció en servicio algún
tiempo, hasta que fue definitivamente retirado. Muchos de estos Mustang
fueron vendidos a particularidades, quienes lo emplearon en exhibiciones,
carreras o simplemente para uso personal. Después, como consecuencia de su
lógico deterioro y de los problemas mecánicos, cada vez más frecuentes y de
más difícil reparación, fueron cayendo en el olvido. Sin embargo, en estos
últimos años algunos de estos particulares, y también algún museo, han
restaurado algunos de los viejos Mustang hasta ponerlos de nuevo en
condiciones de vuelo. La restauración de un Mustang consiste en el mismo tipo
de operaciones en que consistían las reparaciones de un Mustang durante la
Segunda Guerra Mundial: sustituir las piecas mecánicas necesarias, rectificar los
cilindros, apretar la tornillería, fijar o sustituir los tirantes debilitados, recablear
lo necesario, eliminar las abolladuras, repintar, etc. Y el Mustang es el mismo
Mustang que durante la Segunda Guerra Mundial sirvió en algún escuadrón. Sin
embargo, ahora su reparación no es ya una reparación, sino una restauración.

“La relación entre todos los objetos es su carácter simbólico”156. Esta


reflexión es la base de la teoría contemporánea de la Restauración. Los
objetos de Restauración son objetos-símbolo. “La Restauración puede [debe]
reforzar la eficacia simbólica de un objeto”157. La paradoja del Mustang
ilustra que solo cuando un objeto adquiere valor simbólico158 los procesos,
trabajos u operaciones técnicas de mantenimiento y reparación se
consideran procesos de conservación y restauración. En este sentido
“restaurar es reconstruir”, reparar159.

156
Muñoz, Teoría Contemporánea de la Restauración, op. cit., p. 40.

157
Ibíd., p. 45.

158
Ibíd., “La museación (…) puede convertir en simbólicos objetos que no lo eran en
absoluto” pero “la Restauración no tiene esa capacidad, o la tiene en menor medida”.

159
González Moreno-Navarro, Antoni. Restaurar es reconstruir. A propósito del nuevo
monasterio de sant llorentç de guardiola de berguedà (barcelona). e-rph, 2007, No. 1;

91
TEORÍA DE LA RESTAURACIÓN DEL ARTE DIGITAL

Un objeto de Restauración, en el ámbito del arte digital, posee un


caracter dual, como el P51: es un objeto-sistema que, por inclusión en un
museo o por los valores que un grupo de personas (incluso una única
persona) hayan volcado sobre él se convierte en objeto-símbolo. Solo la
pretención funcional le distingue del P51: posee una carga simbólica inicial
que le condiciona como objeto-símbolo. Como objeto-sistema el P51 debe
cumplir determinados requisitos funcionales: la «eficiencia del producto» en
la terminología Brandiana160. Como objeto-símbolo debe satisfacer tales
requisitos funcionales solo en cuanto preserven su valor simbólico. Es
precisamente esta dualidad sistema-símbolo en la concepción del objeto lo
que le diferencia del P51. El P51 fue diseñado por un equipo de
especialistas, muy probablemente multidisciplinar, según la axiomática de la
ingeniería de aeronáútica militar, con metodologías muy claras para
detectar los requerimientos funcionales de la aeronave y diseñar el proceso
de fabricación, validación, entrenamiento, mantenimiento, reparación, etc.
El desarrollo y concepción de una obra de arte, sin embargo, no está
obligado a ajustarse a una axiomática específica, o seguir determinados
protocolos y no debe garantizar «nada», en términos de eficiencia como
sistema, sino solo como símbolo.

El objeto-sistema se desarrolla para un cliente, usuario en el argot de la


ingeniería. Los protocolos para detectar los requisitos de un objeto-sistema
están diseñados para recoger información fiable: precisa, completa,
consistente y fácil de verificar y modificar. El desarrollador o equipo de
desarrollo debe identificar las fuentes de información, realizar las preguntas
apropiadas, analizar la información, confirmar con él/los usuarios lo que
parece haberse comprendido de los requisitos y por último sintetizar los
requisitos en un documento que, tras su aprobación, sirve como guión para
todo el trabajo posterior. Sin embargo las especificaciones de un objeto-
símbolo, como objeto-arte que es, suelen ser ambiguas, incompletas,
desestructuradas y difíciles de verificar y modificar. El usuario es el artista y,
a diferencia de lo que ocurre en el caso del objeto-sistema es el quien
orienta y define su objeto-símbolo para convertirse en su propio «maestro

http://www.revistadepatrimonio.es/revistas/numero1/intervencion/estudios/_pdf/intervenc
ion-experiencias.pdf, [Consulta: 21-12-2010].

160
Brandi, op. cit., p. 13.

92
Objeto de Restauración

armero»161. El desarrollo del objeto-símbolo puede estar a cargo de un


equipo, especialista o incluso del propio artista con absoluta libertad; fuera
del marco teórico, conceptual y formal del desarrollo de un objeto-sistema.
A diferencia del P51, no existe ninguna garantía de que un objeto-símbolo
sea bien-comportado, en términos funcionales: estabilidad, rendimiento,
coste, espectativas tecnológicas, etc., como un objeto-sistema.

El proceso, objeto de Restauración por excelencia compuesto de


código162 y datos, tiene una característica muy especial: no es único.
Múltiples códigos, con múltiples datos, pueden generar la misma imagen. El
problema que se plantea es a qué nivel se garantiza esa conservación sin
cometer una «falsificación artística». La definición algorítmica de un
proceso, e incluso, la definición en término de su flujos de datos, es
genérica; define qué hacer pero no cómo. Es la implementación del proceso
quien requiere la elección de un leguaje, soporte, etc. y la asignación de un
formato específico a los datos. Aún a este nivel, los lenguajes no se escriben
directamente en código de máquina163 sino en un conjunto de instrucciones,
símbolos y reglas sintácticas y semánticas que definen su estructura y el
significado de sus elementos y expresiones a menudo denominado código
fuente. La conversión del código fuente a código de máquina se realiza
mediante dos procesos: compilación y enlace164. Durante este proceso se

161
El maestro armero era el responsable del mantenimiento y la reparación del armamento
de su batallón. En ausencia de estandarización el maestro armero era un artesano creativo
que construía (en cualquier taller de armería existía la forja) cualquier pieza rota de un arma.

162
El código, en este contexto, está relacionado con el formato del proceso. Se podría decir
que un código es la “materialización” o implementación de determinado proceso.

163
Código binario que corre en el ordenador al más bajo nivel.

164
La compilación la realiza una herramienta denominada compilador (compiler en inglés). El
compilador es un programa de ordenador (o conjunto de programas) que transforman el
código fuente escrito en un lenguaje de programación (el lenguaje fuente; por ejemplo C) en
otro lenguaje de ordenador (el lenguaje destino, que tiene a menudo forma binaria y se
conoce como código objeto). El enlazador (linker en inglés) es un programa que toma los
archivos de código objeto generado en los primeros pasos del proceso de compilación, la
información de todos los recursos necesarios (biblioteca; library en inglés), quita aquellos
recursos que no necesita, y enlaza el código objeto con su(s) biblioteca(s) para producir,
finalmente, un archivo ejecutable o una biblioteca. En el caso de los programas enlazados

93
TEORÍA DE LA RESTAURACIÓN DEL ARTE DIGITAL

produce la dependencia de lo inmaterial a lo material; el vínculo a una


estructura, o estructuras, específica(s); la fecha de caducidad. La
“materialización” del lenguaje provoca la ligazón a determinado soporte
(HW/SW) e introduce la obsolescencia. Esta transcodificación pasa por la
elección de uno o diversos procesadores digitales, sistemas operativos o
programas de control, redes de comunicación, lenguajes y herramientas de
desarrollo, periféricos, etc. y es, precisamente esto, lo que fallará o
desaparecerá del escaparate tecnológico en el futuro (un ordenador, de
hecho, tiene un ciclo de vida útil “artificial”, “impuesto”, de unos cuatro
años con una fuerte tendencia a disminuir).

¿Qué mantiene realmente la esencia de la obra digital? ¿El código fuente


(compilable para diversas arquitecturas o soportes) o el código de máquina?
Obsérvese que, en ningún caso, existe influencia sobre el aspecto. Sin
embargo, existe la tendencia no a recompilar el código para el nuevo
soporte sino a correr el ejecutable sobre una máquina virtual que simula la
vieja estructura en una nueva cuando el verdadero problema es la
obsolescencia de la estructura; es lo que puede fallar, lo que envejece, lo
que pierde soporte; a diferencia del código165. La estructura, salvo
requerimiento expreso del artista o que forme parte del aspecto, es
invisible; es un medio, no un fin y, por lo tanto, es susceptible de asimilar
una intervención restauradora, incluso una sustitución.

La consideración del soporte como medio y no como fin se encuentra


cercana a las prácticas de restauración arquitectónica, en la que “la
restauración puede exigir la concurrencia de una materia diversa de la

dinámicamente, el enlace entre el programa ejecutable y las bibliotecas se realiza en tiempo


de carga o ejecución del programa. cfr., Anexo B – Metodologías.

165
Hofman, Vanina. Album inestable. Un acercamiento a la conservación del arte electrónico.
Arte Electrónico/Entornos cotidianos, colección Papers per a Debat Nº 5, FUNDIT – Escuela
Superior de Diseño ESDi, Sabadell, 2007; http://www.anaisafranco.com/album_inestable.pdf,
[Consulta: 19-12-2010], p. 3. Que independientemente de su naturaleza permanecerá
invariable. No es el código sino el soporte que lo contiene, donde se almacena, el que, tarde
o temprano, fallará. “Sus partes dejarán de funcionar, se romperán, se atascarán o se
quemarán”.

94
Objeto de Restauración

original pero no menos auténtica en el papel que desempeña”166. O, en


palabras de Antoni González167:

La falsedad de un elemento (recuperado o conservado) no debe juzgarse por


la cronología de su materia, sino por su fidelidad (forma, espacial, mecánica) a le
esencia originaria. Son más auténticas un muro de carga o una bóveda que
trabaja tal y como fue prevista originariamente, aunque todos sus ladrillos,
mampuestos o dovelas sean nuevos.

Este caracter funcional del soporte es incluso menos grave en las


intervenciones realizadas en piezas de arte digital donde no se altera el
aspecto de la materia: la estructura transformada no repercute en el
aspecto.

Las teorías de Restauración, excepto las funcionales, centran sus bases


en la materia de la obra de arte. Sin embargo, el arte digital es procesual;
solo una parte, que funciona como estructura y solo en algunos casos como
aspecto, es materia activa. La materia del arte digital es normalmente un
procesador (el ordenador por excelencia) que adquiere, contiene, procesa y
genera información. Los datos (que representan la información) y los
procesos (que transforman la información) son inestables, intangibles,
inmateriales, virtuales.

El carácter dual simbólico-funcional de un bien le desdobla en objeto-


símbolo y objeto-sistema. Los pilares sobre los que se fundamentan las
teorías de la Restauración tradicional: autenticidad, objetividad,
universalidad y reversibilidad, se tambalean. El arte digital es efímero,
inestable, inmaterial, complejo, diverso. La obsolescencia en la «era digital»
exige una estrategia de conservación evolutiva que prolongue la eficiencia
del bien; que absorba el progreso tecnológico de manera natural.

166
Noguera, Juan F. Restaurar ¿es todavía posible? Loggia Arquitectura y Restauración. 1996.
No. 1, pp. 6-15, cit. en: Munoz Viñas, Teoría contemporánea de la Restauración, op. cit., p. 88.

167
González Moreno-Navarro, Antoni. Falso histórico o falso arquitectónico, cuestión de
identidad. Loggia Arquitectura y Restauración. 1996, No. 1, pp. 16-23, cit. en Muñoz, Teoría
contemporánea de la Restauración, op. cit., p. 88.

95
TEORÍA DE LA RESTAURACIÓN DEL ARTE DIGITAL

Análisis multidimensional de la Restauración

Un acercamiento a la Restauración desde el punto de vista dimensional,


mediante la introducción de la variable tiempo, manifiesta, como
consecuencia que no causa, las cualidades esenciales del arte digital:
progresividad, inmaterialidad y reactividad; así como todos los problemas
éticos que derivan de ello. La obra, el bien u objeto de Restauración
contemporáneo, es multidimensional; sin embargo la influencia de la
dimensión tiempo, voluntaria o involuntaria, es lo que define el ciclo útil del
objeto168 y, por lo tanto, condiciona las estrategias de Restauración a corto
y largo plazo. Las obras basadas en el tiempo son una muestra de
introducción voluntaria de la dimensión temporal en la obra. La fotografía
es, por ejemplo, bidimensional, solo espacial: una emulsión química sobre
determinado material donde el tiempo transcurre involuntariamente con
dimensión cero; sin embargo, el cine, donde se introduce voluntariamente
la dimensión temporal es, como mínimo, tridimensional169. Este hecho tiene
grandes consecuencias sobre el objeto. La primera es la progresividad. La
segunda es la inmaterialidad170. La tercera es la reactividad. La cuarta es la
ética; los problemas deontológicos que de ello derivan.

168
El ciclo útil del objeto es un concepto funcional que corresponde al intervalo de tiempo en
el que el objeto conserva su eficiencia. Otras referencias como ciclo de vida o ciclo del objeto
están relacionadas con intervalos que van desde la creación del objeto hasta su destrucción o
al ciclo de transferencia desde el material bruto inicial hasta el material bruto final tras un
total deterioro, respectivamente.

169
La pantalla donde se proyecta la imagen es bidimensional pero el sonido, normalmente
considerado unidimensional, debería ser considerado tridimensional en cuanto se propaga en
un volumen.

170
Muñoz Viñas, Salvador. The artwork that became a symbol of itself: reflections on the
conservation of modern art en Theory and Practice in the Conservation of Modern and
Contemporary Art (Series of Publications by the Hornemann Institute), Archetype
Publications Ltd; Bilingual edition, 2010, pp. 11-22. Para Muñoz Viñas el aumento de la
complejidad del arte moderno se debe, fundamentalmente, a dos factores: la
performatividad y la intangibilidad. En este documento ambos conceptos se referencian
como progresividad (sucesión de acciones o procesos) e inmaterialidad, respectivamente.

96
Análisis multidimensional de la Restauración

35. La progresividad no está exactamente relacionada con el carácter


estático/dinámico del objeto. El arte cinético es dinámico independientemente
de la energía. Izquierda. Dos obras pasivas de Jesús Rafael Soto cuyo aspecto
depende del punto de observación. Derecha. Una escultura activa de Jean
Tinguely donde la percepción depende de ambas posiciones: la de las partes de
la obra (cuyo movimiento requiere energía mecánica o cinética) y la del
espectador.

97
TEORÍA DE LA RESTAURACIÓN DEL ARTE DIGITAL

36. En muchas obras de arte digital parte de la imagen es inmaterial. Izquierda.


Nam June Paik. Concierto para TV, violoncelo y cinta de vídeo, Première de TV-
chelo, 1971. Videoinstalación donde solo el conjunto escultórico es materia.
Derecha. Jodi. http://404.jodi.org/, 1993. Captura de la imagen que se genera en
la pantalla de un ordenador al conectarse al sitio web.

Toda materia es activa y se transforma según interactúa con el entorno,


por el discurrir involuntario del tiempo, lo que justifica la Restauración
tradicional. Sin embargo, se considera pasiva en cuanto independiente de
un gasto energético para su epifanía (ya sea eléctrico, eólico, físico, químico,
biológico, mecánico, hidráulico, neumático, etc. o cualquier combinación de
ellos) y activa cuando requiere de tecnología y energía171 para realizarse:
manifestarse y alimentar el ciclo útil del objeto. La fotografía, en este
sentido, es pasiva mientras que el cine, es una práctica activa. Es
precisamente esta naturaleza activa del bien la que determina su carácter
dual: simbólico-funcional (símbolo-sistema). Como objeto-símbolo, la obra es
portadora de un mensaje estético, una imagen o representación artística, un
valor simbólico, mientras que, como objeto-sistema, la obra debe cumplir
determinados requisitos funcionales.

171
La energía se relaciona con una capacidad para la realización de algo.

98
Análisis multidimensional de la Restauración

37. La reactividad es un tipo de progresividad. Izquierda. Edward Ihnatowicz.


SAM (Sound-Activated Mobile), 1968; Obra descontinuada creada especialmente
para la exposición Cybernetic Serendipity. La escultura se movía en respuesta al
sonido de los espectadores. Derecha. Una captura de Real Snail Mail (RSM), un
proyecto de boredomresearch; http://www.boredomresearch.net/, [Consulta:
10-10-2010]. RSM utiliza caracoles vivos para transportar emails a través de un
espacio físico.

La eficiencia del producto se desdobla. El bien es, estructuralmente, un


sistema tecnológico que permite la manifestación, aspectualmente, del
sistema simbólico. El cine, y posteriormente, la televisión, el vídeo, la radio,
el post-cine (spots publicitarios, videoclips, etc.) e incluso la fotografía
digital, son inmateriales, intangibles. La parte material del objeto, el soporte,
provee la transducción a una imagen audiovisual inmaterial. El estímulo
perceptual del bien, sin embargo, es intangible: ondas acústicas o luminosas
que se propagan desde la fuente al receptor, señales unidimensionales,
bidimensionales, tridimensionales que varían en el tiempo. El objeto de
Restauración se libera de su materialidad172.

172
Lo que no excluye casos híbridos en que parte del objeto que funciona como aspecto es
materia; tal es el caso de las videoinstalaciones.

99
TEORÍA DE LA RESTAURACIÓN DEL ARTE DIGITAL

La teoría y la ética de la Restauración tradicional se desarrollaron para


bienes materiales pasivos (la propiedad fundamental del bien es la
materia)173; sin embargo el objeto activo puede liberarse de su materialidad,
desplazándola de la imagen al soporte174. El arte digital175 o arte de los
nuevos medios176, agrupa un conjunto de prácticas contemporáneas
procesuales177, que no funcionales, lo que le otorga el carácter intangible,
inmaterial y, en algún caso, virtual.

Sin energía el ciclo del objeto activo termina y con él, el bien. La
progresividad genera una tensión durabilidad-temporalidad. Perdurar el
ciclo del objeto requiere el mantenimiento artificial de la fuente energética
cuyo soporte es material. Sin embargo en muchas prácticas del arte
contemporáneo lo más importante no es el bien en sí, sino el proceso178
para conseguirlo. Ha tenido lugar un desplazamiento de una cultura
audiovisual industrial basada en la noción de producto final a una cultura
hipertextual postindustrial que explora la diversidad de la forma y la
conducta de los objetos y de los sistemas179. La progresividad exige que el
bien haga algo, una acción. La reactividad requiere que el bien reaccione, de
una forma u otra, a la instrucción, a la interacción o al propio entorno. La

173
Brandi, op. cit., p. 13. Se entiende por restauración “cualquier actividad dirigida a devolver
la eficiencia a un producto de la actividad humana”.

174
García, Lino y Montero, Pilar. Conservación y Restauración de Arte Digital. 11ª Jornadas de
Conservación de Arte Contemporáneo. Madrid: MNCARS, 2010.

175
Wands, loc. cit.

176
Rush, Michael. Nuevas Expresiones Artísticas a Finales del Siglo XX. Barcelona: Ediciones
Destino, Thames & Hudson, 2002.

177
Wilson, Stephen. Information Arts: Intersections of Art, Science and Technology (Leonardo
Books). MIT Press, 2003. El núcleo arquitectónico de proceso está constituido, normalmente,
por un ordenador, que transforma, almacena y genera información

178
Paul, Christiane. Feedback: del objeto al proceso y sistema en Feedback: Arte que
responde a instrucciones, a inputs o a su entorno. Gijón: LABoral. Centro de Arte y Creación
Industrial, 2007, pp. 26-48.

179
Jaschko, Sussane; Evers, Lucas & Laboral, Centro de Arte y Creación Industrial. El proceso
como paradigma. Gijón: LABoral Centro de Arte y Creación Industrial, 2010.

100
Análisis multidimensional de la Restauración

dimensión temporal proporciona esa capacidad de reactividad o


realimentación180.

Las obras que ilustra la figura 37 son interactivas; el espectador activa


procesos a través de determinado interfaz. Bruce Wands181 dice: la etiqueta
tradicional del museo y la galería tradicional de “Mira. No toques”, no puede
ser aplicada al arte interactivo que reclama la participación del espectador.
Debería ser sustituida por “Mira. Por favor toca”. Las obras representadas
en la figura 38 no son reactivas sino el resultado de una realización o serie
de procesos. La obra de Mondrian, de hecho, sugiere cierta factura
procesual que Menezes implementa con procesos bacteriológicos vivos.
Progresividad, inmaterialidad y reactividad tienen sendas implicaciones
estéticas. La liberación de la materialidad, del aura182, contradice el
concepto de autenticidad: uno de los pilares de la Restauración tradicional.
“La Restauración se presenta como la actividad encargada de garantizar que
el objeto tratado se halle en su estado auténtico, real –en su estado de
verdad–”183. El bien inmaterial no solo tiene manifestación potencial
“infinita” sino, incluso, ubicua. Versionado debilita la noción de “falso
histórico”184. Los valores auténtico/falso se decretan con mecanismos
independientes del tiempo dejando a la historicidad en entredicho.

180
Rellie, Jemina. Feedback/Feedforward en Feedback: Arte que responde a instrucciones, a
inputs o a su entorno. LABoral. Gijón: Centro de Arte y Creación Industrial, 2007, pp. 50-61.

181
Wands, op. cit., p. 10.

182
Benjamin, op. cit., pp. 17-59. El arte digital es postaurático. La idea tradicional de unicidad
de la obra artística en el arte digital, reproductible y alógrafo por naturaleza, carece de
sentido.

183
Muñoz, Teoría de la Restauración Contemporánea, op. cit., pp. 83-96. Sin embargo el
estado de verdad, el auténtico, puede ser: el original, el que tenía en el momento de ser
producido; el prístino, el que debería tener aunque de hecho no lo haya tenido nunca; el
pretendido por el autor o el actual.

184
El falso histórico se produce cuando una Restauración se convierte en una falsificación de
la obra. El versionado o el reconocimiento de múltiples manifestaciones de la misma obra
debilita la autoridad de la autenticidad como regulador del valor del bien y, con ello, la
asociación estado del bien-momento histórico.

101
TEORÍA DE LA RESTAURACIÓN DEL ARTE DIGITAL

38. Arriba. Obra de Casey Reas generada con Dreamline: una máquina de dibujo
generativa. Abajo. Proyecto Decon de Marta de Menezes: réplicas de pinturas
geométricas de Piet Mondrian a través de métodos y materiales biotecnológicos.

102
Análisis multidimensional de la Restauración

Incluso es una práctica habitual exponer copias de las obras en lugar de


sus respectivos originales185.

El concepto de autenticidad se puede cuestionar a través de La paradoja de


Teseo, también conocida como El barco de Teseo, una paradoja de
reemplazo que se pregunta si cuando a un objeto se le reponen todas sus
partes, este sigue siendo el mismo.

Según una antigua leyenda griega, el barco en el que volvió Teseo desde la
isla de Creta, después de vencer al Minotauro, fue conservado durante muchos
años por los atenienses que sustituían las tablas deterioradas por otras nuevas.
Los filósofos griegos se preguntaban si el barco continuaba siendo el mismo o si
había cambiado.

Mientras el barco sea un objeto-sistema el objetivo de las intervenciones


(reparaciones) es devolver su eficiencia funcional; sin embargo, cuando
adquiere valor y se convierte en objeto-símbolo, el propósito de las
actuaciones sobre el bien es restablecer (Restaurar) su valor simbólico que,
para la Teoría contemporánea, consiste en:

(…) poner a punto el objeto tratado para que pueda ser útil como símbolo o
como documento mejor de lo que hace ahora (…) Así se puede afirmar que la
teoría contemporánea de la restauración es primordialmente funcional186,

185
En los protocolos desarrollados por la TATE de Londres, dentro del proyecto Media
Matters,
http://tate.org.uk/research/tateresearch/majorprojects/mediamatters/acquisitions/,
[Consulta: 15-5-2009], se prevé conservar tres copias distintas: una copia máster para el
archivo (Archival Master for Media Works), que es la copia que el museo adquiere de la copia
máster del artista, en su formato original o en otro formato; la copia de conservación
(Preservation Copies for Media Works), que da al museo el derecho, en caso de necesidad de
reproducir de la copia y de volcar la obra en un nuevo formato para garantizar su
conservación; por último, la copia de exposición (Exhibition Copies for Media Works), con la
que el artista o propietario de la obra transfiere al museo el derecho de hacer una copia para
la exposición, además del derecho de duplicar la obra en caso de préstamo.

186
Muñoz, Teoría de la Restauración Contemporánea, op. cit., p. 159.

103
TEORÍA DE LA RESTAURACIÓN DEL ARTE DIGITAL

justifica cualquier operación en el soporte, incluso en la estructura


(incluido procesos y datos). En consonancia con esto, una obra de arte
digital deberá funcionar sin fallos, ni imprevistos, siempre que se requiera187.
Solo así es posible contemplar su imagen. La identidad, “lo mismo”, está en
la imagen. La imagen inmaterial tiene, técnicamente, un número
incontrolado de réplicas cuantificable solo en la medida en que se gestionen
mediante contratos, series, versiones, etc.

Una obra de arte en la red (como 404 de Jodi), es visible desde cualquier
lugar, en cualquier momento; solo es necesario un ordenador con conexión
a Internet188 y un terminal. El “aquí y ahora” es reemplazado por el
“dondequiera y cuando sea”. El propio concepto de unicidad de la obra de
arte digital, sobre el cual se construye la autenticidad, debe ser visto desde
una perspectiva actual en que la terminología clásica: original, copia y
réplica189; adquiere nuevos significados. Si “original” es una “obra de arte de
la que se han hecho copias” y “copia” es la “repetición de una obra de arte
por otra mano que la del autor original con intención de conseguir un grado
máximo de semejanza” en arte digital se estaría hablando de ediciones,
“réplicas” o “versiones”, entendiendo por estas aquellas otras realizadas por
el mismo autor que el original. El arte digital es o puede ser experimentado
“simultáneamente” en el tiempo y en el espacio. La interacción con las obras
se produce de manera distinta, lo que provoca, en palabras de Michael Rush
que la imagen se vuelva “infinitamente maleable”190.

187
La naturaleza cambiante del arte contemporáneo ha hecho indispensable una reflexión
profunda sobre su conservación: la evidencia de que algunas de sus manifestaciones no se
hacen para perdurar, como es el caso del arte efímero, o de que priman los aspectos
inmateriales, como en el arte conceptual, nos conduce a interrogarnos sobre qué es lo que
debemos conservar.

188
Sin ninguna garantía de mantener el aspecto en términos objetivos: tamaño, color, brillo,
saturación, cualidad espectral, timbre, etc.

189
Fatás, Guillermo y Borrás, Gonzalo M., Diccionario de Términos de Arte y elementos de
Arqueología y Numismática, Madrid: Alianza Editorial, 1980.

190
Rush, op. cit., p. 168. “Los artistas pueden ahora introducir nuevas formas de
«producción», no de «reproducción»”.

104
Análisis multidimensional de la Restauración

39. Sol Le Witt. Wall Drawing #541, 1987. Certificado de autenticidad del VMFA
(Virginia Museum of Fine Arts). La autenticidad en las prácticas alógrafas se
establece cuando “se logra una identificación definitiva de la obra independiente
de la historia de su producción”191.

191
Goodman, Nelson. Los lenguajes del arte: Una aproximación a la teoría de los símbolos.
Barcelona: Paidós, 2010, p. 118.

105
TEORÍA DE LA RESTAURACIÓN DEL ARTE DIGITAL

El valor patrimonial del objeto, la universalidad, no depende de sus


dimensiones sociales, históricas o políticas, originalidad o funcionalidad;
incluso de su eficiencia simbólica, sino de criterios formados “casi
exclusivamente en la tradición altocultural occidental”192. El arte digital es
prácticamente patrimonio exclusivo de sociedades industrializadas o
postindustriales; extender su eficacia simbólica a la “práctica totalidad de la
humanidad” resulta excesivo, mucho más, cuando son bienes, con la
tecnología como denominador común, que además no han resistido el paso
del tiempo.

La reversibilidad, uno de los pilares de las teorías clásicas de Restauración,


se basa en la capacidad de retirar cualquier material (materia; denominada
habitualmente residuo) añadido durante el proceso de Restauración. Esta
capacidad de devolver los objetos a un estado definido, incluso en
determinado «grado» es, como poco, demasiada exigente y utópica193. Los
procesos en el arte digital, además de intangibles, no son reversibles,
algunos incluso impredecibles por lo que la reversibilidad simplemente
carece de sentido. No se actúa sobre el aspecto, generalmente inmaterial,
sino sobre la estructura (donde solo es materia el soporte) normalmente
carente de valor simbólico. No existe además una relación unívoca entre
estructura (compuesta por soporte, procesos y datos) e imagen, sino una
correspondencia de «muchos a uno»194. Como en cualquier herramienta
ofimática es posible deshacer cualquier cambio blando (software; lo que en
inglés se conoce como undo) en un determinado número de niveles pero
esto es irrelevante en cuanto requiere mutar y adaptarse a nuevas
tecnologías.

192
Muñoz, Teoría contemporánea de la Restauración, op. cit., p. 121.

193
Muñoz, Teoría contemporánea de la Restauración, op. cit., pp. 107-115.

194
Es posible conseguir la misma imagen desde una combinación teóricamente infinita de
soporte, procesos y datos.

106
Análisis multidimensional de la Restauración

La objetividad se puede medir y cuantificar en términos de error: la


desviación de determinados parámetros objetivos respecto de una
“referencia”. No existe “falso histórico”. La subjetividad queda en el ámbito
de las decisiones pero, siempre que exista una “referencia” inmaterial habrá
un “estado de verdad” objetivo. Un buen criterio para decidir acerca del
valor de “esa” referencia (estado actual, anterior o prístino según criterio)
podría seguir el principio de “La navaja de Occam”195. Sin embargo la
objetividad no garantiza, de ninguna manera, autenticidad.

La historicidad está relacionada con el concepto de bien de valor histórico o


calidad histórica; es decir, que es relativo o parte de la historia. Algo que,
para la Restauración puede ser entendido como “la perpetuación del objeto-
como-prueba (..) como base para el estudio y la investigación”196. Sin
embargo, apunta Muñoz Viñas, “los objetos que poseen este último valor
podrían denominarse más acertadamente objetos historiográficos”197 y

195
En la videoinstalación 6 TV Dé-coll/age, por ejemplo (cfr., Capítulo IV – Caso de Estudio),
se dispone de un vídeo grabado en VHS, un dispositivo de reproducción y un televisor que
genera la imagen por cada canal (6 canales). La decisión más simple es mantener la imagen
en el estado actual; que depende de la cantidad de horas de exposición del televisor
(probablemente diferente para cada uno). También se podría “calibrar” previamente el
televisor, con una carta de ajuste, y obtener esa imagen como referencia (sería lo más
próximo al estado prístino), o encontrar un televisor “nuevo” (con muy pocas horas de uso y
exactamente igual) o “ajustar” la imagen a unas condiciones subjetivas determinadas (una
especie de “calibración subjetiva”). Es muy difícil, casi imposible, encontrar un televisor
“nuevo” (o de muy pocas horas de desgaste) del mismo modelo, año, etc. que el original y,
además, estéril. No existe ninguna garantía que un televisor se comporte idénticamente igual
a otro. Todas sus partes envejecen de manera particular. La única forma de “garantizar”
determinada calidad perceptual en la imagen es a través de un proceso de calibración
objetivo. En ese caso la carta de ajuste proporciona la referencia. Es necesario tratar el
problema desde una perspectiva holística.

196
Keene, Suzanne. Objects as systems: a new challenge for conservation, en Oddy, A. (Ed),
Restoration Is It Acceptable? Londres. British Museum, 1994 cit. en Muñoz, Teoría
contemporánea de la Restauración, op. cit., p. 30.

197
Muñoz, Teoría contemporánea de la Restauración, op. cit., p. 30.

107
TEORÍA DE LA RESTAURACIÓN DEL ARTE DIGITAL

todos los objetos tienen valor historiográfico de forma intrínseca y escencial.


Ya se trate del concepto de objeto histórico o historiográfico su valor como
descritor del objeto de Restauración es muy impreciso. Lo que hoy se
considera de valor histórico pudo ser en otro momento, simplemente, de
valor utilitario. En un bien intangible solo el soporte puede tener valor
histórico, pese a que su valor en un bien es fundamentalmente utilitario. La
imagen se crea y se destruye un número determinado de veces durante el
ciclo útil del objeto.

El carácter holístico del bien debilita la noción de integridad. Las técnicas de


Restauración tradicionales como limpieza, sustitución, adición,
reintegración, recomposición, etc. pierden su connotación;
fundamentalmente porque están relacionadas solo con la restauración de la
materia. La reintegración no es necesaria porque no se romperá la unidad
potencial de la obra (el aspecto). La estructura es reintegrable, en cuanto al
fallo o mal funcionamiento de sus partes, pero no es visible ni indivisible. No
existen lagunas como interrupción del tejido figurativo ni reintegración sin
lagunas. La integridad se establece en términos de todo o nada. La veracidad
se cualifica en términos de cercanía/lejanía de la imagen respecto a
determinada “referencia”.

No se puede conservar un proceso sin pausarlo. La durabilidad del bien no


está en manos del conservador sino que depende, en primer lugar, del
artista. Solo es posible hablar de durabilidad bajo la premisa de un deseo
expreso del autor o predisposición positiva ante la no destrucción del bien o
por la obligación que exige la Ley de Patrimonio. La tensión entre propiedad
intelectual y patrimonial y la naturaleza transdisciplinar de las actividades
relacionadas con el bien: documentación, exhibición, preservación,
conservación y restauración, así lo exigen. En definitiva, los pilares básicos
sobre los que se construye la Teoría de la Restauración de bienes materiales
poco valor tienen cuando se trata de bienes intangibles.

108
Análisis multidimensional de la Restauración

40. Damien Hirst. The Physical Impossibility of Death in the Mind of Someone Living,
1991. El tiburón, de algo más de cuatro metros de longitud, suspendido en un
tanque transparente de aldehído fórmico, se deteriora rápidamente por culpa de la
conservació que realizó el artista británico en 1991. Sin embargo Larry Gagosian, de
la Galería Gagosian, de Londres, que actuó como intermediario en la venta de la
instalación al empresario estadounidense Steve Cohen por 9.5 millones de euros,
declaró a The Art Newspaper que “el tiburón es una obra conceptual y el hecho de
sustituirlo por otro de igual tamaño y aspecto no altera la pieza”. Oliver Crimmen,
responsable de la conservación de los peces del Museo de Historia Natural de
Londres, considera que el artista debió de haber utilizado una solución con base de
alcohol en lugar de formol.

Las actividades relacionadas con la protección del bien dependen,


igualmente, de la influencia involuntaria del tiempo. La conservación y la
restauración son, desde el punto de vista patrimonial, el conjunto de
intervenciones dedicadas a mantener un bien (producto de actividad
humana) para el futuro, y a devolver su eficiencia y originalidad,
respectivamente; ambas actividades a largo plazo. La exhibición, por otra

109
TEORÍA DE LA RESTAURACIÓN DEL ARTE DIGITAL

parte, comparte muchas de las actividades de conservación a corto plazo.


Toda conservación es preventiva: mantiene el bien en su estado actual (con
cierta tendencia a su estado inicial, histórico, ideal o preferido por el artista)
y evita daños posteriores. Sin embargo se habla de conservación preventiva
en referencia a las actividades de preservación en las que se interviene
sobre el entorno, lo externo, y no directamente sobre el bien. En el apartado
I del Código ECCO198 se explicita que:

(…) la conservación preventiva consiste en la acción indirecta para retardar


el deterioro y prevenir el daño, creando las condiciones óptimas para la
preservación del patrimonio cultural mientras sea compatible con su uso social.

Los objetivos de la preservación son a largo plazo. Para Brandi:

El reconocimiento de la obra de arte (...) constituye la base de cualquier


comportamiento futuro referido a la obra artística como tal. (...) Esta exigencia
que el reconocimiento de la obra de arte impone a quien la acepta así, se
plantea como imperativo categórico y también moral, y es ese mismo
planteamiento como imperativo lo que determina el ámbito de la restauración
preventiva como tutela, defensa frente a cualquier peligro, seguridad de unas
condiciones favorables199.

Pero la conservación preventiva (preservación) en el contexto del arte


digital, está directamente relacionada con la disponibilidad de una obra: el
aquí y ahora. La preservación evitará sorpresas, errores, y garantizará la
exposición de la obra de arte digital cada vez se requiera y durante el tiempo
necesario. Ello puede requerir, incluso, una documentación de puesta en
marcha o arranque específica.

Las actividades relacionadas con la documentación, sin embargo son


mucho más complejas. La documentación se ha liberado del documento al

198
La Confederación Europea de Organizaciones de Conservadores-Restauradores aprobó en
su Asamblea General en Bruselas el 1 de marzo de 2002 un documento en el que se recogen
las definiciones de conservación, restauración y documentación. La misma asamblea aprobó
en marzo de 2003 y en abril de 2004, dos documentos en los que quedan recogidas las
directrices profesionales o código ético de la profesión.

199
Brandi, op. cit., p. 56.

110
Análisis multidimensional de la Restauración

procesamiento de la información: la biblioteconomía, la archivística, la


propia documentación en sí y la museología. El bien contiene información y,
no siempre pero no menos importante, sus procesos asociados. La
conservación informacional 200 y operacional201 orientan sus actividades a la
conservación de la información deliberadamente registrada sobre el objeto
y, por lo tanto, son susceptibles de considerar en el ámbito de la
documentación. Ambas teorías son más apropiadas a objetos basados en el
tiempo donde el soporte carece de valor simbólico: sonido, video, cine, etc.
Se podría hablar de conservación basada en objetos, parafraseando las
técnicas de programación basada en objetos. El objeto es una instancia de
una descripción formal de información o metadatos (documentación),
propiedades (datos) y métodos (procesos), ordenada en conjuntos
modulares: la clase.

La documentación, así como la necesidad de garantizar y facilitar


cualquier intervención de restauración futura, es el denominador común
entre ambos mundos: arte no digital, arte digital. Muy pocos artistas
documentan el proceso generativo de su obra. No lo necesitan o no saben;
al menos en los términos útiles para la Restauración. Sin embargo, la
documentación aporta las claves necesarias, aunque no las suficientes, para
el diseño de un plan de intervención apropiado. La documentación de una
obra de arte digital puede incluso llegar a formar parte de la obra202.

Los cuestionarios que deben cumplimentar los artistas, como parte de la


documentación de la obra, son muy importantes en cuanto aporten todos
los aspectos relativos a la Restauración de sus obras. La Restauración del
arte digital exige formación tecnológica y, no en menor medida, el
conocimiento de procedimientos que provienen de las denominadas
ciencias blandas: documentación, entrevistas, etc.

200
Muñoz, Teoría contemporánea de la Restauración, op. cit., p. 72.

201
Brock-Nannestad, George. The rationale behind operational conservation theory.
Conservation Without Limits, IIC Nordic Group XV Congress, Helsinki, August 2000, pp. 21-33.

202
Metadatos adosados al proceso que definan el propio proceso, transformaciones, etc.

111
TEORÍA DE LA RESTAURACIÓN DEL ARTE DIGITAL

La Red de Medios Variables203 (en inglés Variable Media Network) puesta


en marcha por el Guggenheim propone un paradigma según el cual los
artistas definen su trabajo “independientemente del medio” y ofrece como
herramienta el denominado «cuestionario»204 que:

Consiste en prepararse para la obsolencia de la tecnología efímera animando


a los artistas a prever los posibles formatos aceptables que su trabajo puede
adoptar en el futuro. Recopila información para cada artista sobre el modo de
traducir la obra a nuevos soportes una vez que el software y el hardware queden
obsoletos.

Obsérvese que la preparación para el cambio debido a la obsolescencia


se centra fundamentalmente en la migración. Según Jon Ippolito205, la
institución debe:

Reconocer cuándo una adquisición ha sido creada o realizada sobre un


medio variable. En algunos casos (…) la variabilidad del medio es intrínseca a la
intención del artista. Cosa que otras veces, como en la mayoría de las esculturas

203
Vid., nota 63. Proyecto coordinado por Jon Ippolito, Associate Curator of Media Arts,
Solomon R. Guggenheim Museum; Assistant Professor of New Media, The University of
Maine; Co-director, Still Water for network art and culture; Alain Depocas, Director of the
Centre for Research and Documentation (CR+D), Daniel Langlois Foundation y Caitlin Jones,
Daniel Langlois Variable Media Preservation Fellow at the Solomon R. Guggenheim Museum.
La red de medioa variables es un grupo de trabajo fundado por Berkeley Art Museum/Pacific
Film Archives, Berkeley; Franklin Furnace, New York; Guggenheim Museum, New York; Daniel
Langlois Foundation for Art, Science, and Technology, Montreal; Performance Art Festival +
Archives, Cleveland; Rhizome.org, New York; Walker Art Center, Minneapolis. Probablemente,
su logro más visible, que no el más importante, fue la elaboración de una herramienta
informática, en el otoño de 2003, en la forma de un cuestionario interactivo, ligado a una
base de datos, diseñado para ayudar a artistas, conservadores y especialistas sobre los
posibles problemas para tener en cuenta a la hora de exhibir y conservar una obra de New
Media. El propio Ippolito señala que “el cuestionario no es tanto una investigación
sociológica como un instrumento para determinar cómo a los artistas les gustaría que su
trabajo fuera recreado en el futuro llegado el caso”.

204
El Periódico Heróico: Historia, mitología, y primeras reflexiones sobre la conservación y
venta de net.art. Una propuesta. No conservamos la obra sino su ADN.
http://www.hamacaonline.net/upload/recursos_teoricos/periodoheroico.html, [Consulta:
21-12-2010].

205
Ippolito, El museo del futuro: ¿una contradicción en los términos?, loc. cit.

112
Análisis multidimensional de la Restauración

fluorescentes o páginas web, no es intencional y es consecuencia del hecho de


que las condiciones en que la pieza ha sido originariamente creada, no existirán
algún día.

Contactar con el artista para determinar si la pieza tiene fecha de caducidad.


Robert Rauschenberg, por ejemplo, considera sus performances de 1960 obras
efímeras, con lo cual no pueden ser reproducidas. Robert Morris, por el
contrario ha vuelto a representar sus performances del mismo periodo durante
las décadas posteriores - con, por supuesto, un reparto y atrezzo diferente, (…)

Entrevistar al artista y a cualquier otra persona involucrada en la producción


original de la pieza para recoger la mayor cantidad de información posible
acerca del grado de flexibilidad del proyecto. ¿Puede un trabajo existir al mismo
tiempo en dos lugares distintos? Un Trabajo de Félix González-Torres puede;
uno de Donald Judd no. (…)

Adquirir cualquier tipo de documentación u objeto, incluidas medidas, notas,


fotos, e imágenes en movimiento, que pueda ser de ayuda para la recreación de
la pieza en futuro. El Whitney Museum posee un video de Barry Le Va haciendo
una de sus piezas, de esta forma, podrán recrear la instalación en el caso en que
el artista no pueda hacerlo.

Hacer que esta documentación sea accesible a cualquier interesado en


reproducir la obra. De esta forma, el museo tendría la opción de conservar el
sentido original que el artista había impreso a todas las obras y performances.

Ippolito utiliza reproducción y recreación, en un sentido más próximo al


versionado y no a la estrategia de recreación propuesta por mí. El grado de
flexibilidad del proyecto permitirá valorar la estrategia más adecuada a
seguir en las condiciones actuales de la intervención. El cuestionario,
independientemente del valor documental que aporta a la obra vincula al
artista con los procesos de Restauración de su trabajo, le exige una
definición de su obra ajena al medio que utiliza, hecho inédito en la
Restauración tradicional, a la vez que documenta la voluntad expresa del
artista cuando esto es posible; en una suerte de testamento.

En el proyecto Inside Installation206 (Preservation and Presentation of


Installation Art), una iniciativa europea similar en la búsqueda de técnicas de

206
Vid., nota 19. Proyecto coorganizado por: Netherlands Institute for Curtural Heritage,
Amsterdam (coordinador del proyecto: Instituut Collectie Nederland, ICN); Tate, Londres;

113
TEORÍA DE LA RESTAURACIÓN DEL ARTE DIGITAL

conservación adecuadas al arte contemporáneo, se investigaron, re-


instalaron, exhibieron y documentaron 33 casos de estudio de instalaciones
basado, en la mayoría de los casos, en entrevistas y consultas al artista con
el fin de detectar las necesidades y establecer unas guías para salvaguardar
las instalaciones para futuras generaciones y crear un manual de
recomendaciones o “buenas prácticas” útil en una serie de actividades
como: B1 Preservación, B2 Participación del artista, B3 Documentación, B4
Teoría y semántica y B5 Gestión del conocimiento e intercambio de
información.

El cuestionario es una metodología de documentación a posteriori,


desarticulada de la concepción del objeto, sin posibilidad de interactuar en
su producción pero sí quizá, en dependencia del grado de flexibilidad del
proyecto, en futuros versionados.

Desde el punto de vista dimensional se podría decir que la preservación y


la documentación tienen como objetivo igualar a cero la dimensión
temporal. El aislamiento, es una técnica de preservación que minimiza el
efecto del entorno: el intercambio energético. La plastinación207, por
ejemplo, aísla la materia para impedir su descomposición. La congelación,
sin embargo, es una técnica de documentación que detiene el ciclo de vida
del objeto, anula la dimensión temporal de manera planificada, paraliza el
proceso y traslada parte de su valor simbólico al testimonio208. La

S.M.A.K., Ghent; Restaurierungszentrum der Landeshauptstadt Düsseldorf, Düsseldorf;


Foundation for the Conservation of Contemporary Art (SBMK), The Netherlands y el Museo
Nacional Centro de Arte Reina Sofía (MNCARS), Madrid y financiada por el programa Culture
2000 de la Comisión Europea.

207
Procedimiento técnico de preservación de material biológico, desarrollado por Gunther
von Hagens, que consiste en extraer los líquidos corporales, como el agua y los lípidos, por
medio de solventes, como acetona fría y tibia, para luego sustituirlos por resinas elásticas de
silicona y rígidos de epóxicas.

208
González Mozo, Ana y Macarrón Miguel, Ana María. La Conservación y la Restauración en
el Siglo XX. Madrid: Editorial Tecnos, 2004, pp. 205-206. “La documentación puede
convertirse en el objeto perdurable que represente al original”. “El carácter de la
documentación debe ser exhausto, ya que en muchas ocasiones esta documentación se
convierte en el soporte definitivo de las obras momentáneas”. La obra SAM ha dejado de
estar operativa. En su lugar se exhiben vídeos documentales del bien. La captura de la
imagen de le obra 404 de Jodi es resultado de la congelación.

114
Análisis multidimensional de la Restauración

congelación provoca una sinécdoque: se utiliza una parte del bien para
representar el todo.

41. Antoine Pevsner. Retrato de Marcel Duchamp, 1926. Nitrato de celulosa


sobre cobre y hierro. La obra en el estado actual presenta este nivel de
deterioro. El nitrato de celulosa es altamente inflamable e inestable por encima
de determinada temperatura.

115
TEORÍA DE LA RESTAURACIÓN DEL ARTE DIGITAL

42. Dan Flavin. Untitled (a Jan y Ron Greenberg), 1972-73. Los tubos de
fluorescentes y de neón que utilizó Flavin en sus instalaciones ya no se fabrican.
Los coleccionistas apagan las obras para conservarlas con el máximo cuidado
posible, como si de un fresco renacentista se tratara; y lo que era una mera
forma de conseguir recambios es hoy la única forma de asegurar la autenticidad
de cada obra y conjurar su aura artística, que reside ahora tanto en el diseño y la
luz como en un papel.

Conviene anticipar la conservación evolutiva como un mecanismo de


adaptación artificial al entorno a largo plazo que absorbe la mutación
temporal de la obra. No solo requiere sino que condiciona la evolución del
soporte que funciona como estructura sin alternar la imagen del bien que
funciona como aspecto útil, fundamentalmente, para bienes sensibles a la
obsolescencia tecnológica (concepto que traspasa las fronteras del arte
digital hacia las del arte contemporáneo). La multidimensionalidad del arte
condiciona las actividades relacionadas con la transmisión al futuro del bien
(durabilidad) ya sea a corto o largo plazo. El propio concepto fuerza a

116
Estrategias de Restauración

minimizar la acción involuntaria de la cuarta dimensión a pesar de los efectos


colaterales de su introducción voluntaria (temporalidad). La solución a esta
tensión, hacia el fin-hacia el principio, se traduce en decisiones
transdisciplinares 209: “*La teoría contemporánea de la Restauración] No
alienta más revolución que la que es comúnmente sentida: La revolución del
sentido común”.

Estrategias de Restauración

A pesar de que son muchas las personas implicadas en la conservación del


arte contemporáneo son pocas realmente las estrategias de supervivencia
para el arte digital y, realmente, no son exclusivas a esta categoría210. El
proyecto variable media nertwork211 definió cuatro estrategias básicas para
hacer frente a la obsolescencia de un medio particular según el paradigma
de los medios variables:

Sustitución. Solo si se dispone del elemento de repuesto necesario es


posible sustituirlo. Esta estrategia, también conocida como
almacenamiento212, es la más elemental y consiste en acumular la mayor
cantidad de equipos, correspondiente a determinada tecnología, para
garantizar su disponibilidad en caso de rotura o reposición por desgaste.
Eficaz a corto plazo pero inapropiada según aumenta la velocidad de
obsolescencia de determinada tecnología y notoriamente mala para
capturar aspectos contextuales de las obras lo que la hace inservible para el
arte en la red, por ejemplo.

Esta estrategia tiene algunas variantes como el refrescamiento que


consiste en la transferencia periódica de la información digital de un medio
en peligro de obsolescencia al medio mejor adaptado. La restauración, que

209
Muñoz, Teoría Contemporánea de la Restauración, op. cit., p. 178.

210
Por lo que es frecuente sus referencias al new media art en general.

211
Vid., nota 63.

212
La sustitución exige la acumulación o almacenamiento de las partes o del todo con riesgo
de obsolescencia.

117
TEORÍA DE LA RESTAURACIÓN DEL ARTE DIGITAL

limpia o repara un archivo o dispositivo cuando una nueva versión sustituye


o reemplaza la original. El almacenamiento en red que utiliza ordenadores
enlazados213 por un bucle de datos persistente que mantiene archivos
críticos en circulación o como múltiples copias clonadas sobre varios discos
duros. La sustitución respeta la integridad perceptual del objeto de
Restauración pero tiene fecha de caducidad programada. No representa
ningún avance respecto al efecto de la obsolescencia, más bien lo retrasa. Es
una solución a corto plazo para un problema a largo plazo basada
exclsuivamente en la redundancia.

Migración. La migración consiste en actualizar el formato de una obra de


un medio antiguo a uno actual214. Por ejemplo, la transcodificación de VHS a
DVD215. El DVD utiliza codificación MPEG2216. La degeneración o pérdida de
calidad según aumenta la generación de la migración aumenta
exponencialmente. Una migración de tercera o cuarta generación
probablemente no satisfaga los mínimos de calidad exigidos por el artista o
una percepción “adecuada” de la imagen. Este problema se acentúa cuando
no es posible una evaluación contrastada y presupone la pérdida de calidad
en aras de mantener la integridad del original. La migración asume que
conservar el contenido o información de una obra de arte, a pesar de su
cambio de medio, es más importante respecto a la fidelidad de su aspecto y
percepción.

213
La computación en nube (cloud computing) basada en servicios ofrece una oportunidad
especial para la distribución de copias o clones de información a lo largo del mundo. Este tipo
de arquitectura ofrece servicios de almacenamiento que garantizan la protección de los datos
a catástrofes naturales, incluso sociales.

214
En este sentido el refresching tiene mayor relación con la migración que con el
almacenamiento.

215
Para garantizar mayor calidad normalmente se utilizan formatos de conservación, que no
de distribución, sin pérdidas.

216
Formato de compresión perceptual con pérdida de información.

118
Estrategias de Restauración

Emulación. La emulación es un proceso de simulación de una


plataforma217 obsoleta en una nueva. El interés de esta estrategia es
mantener viva una obra aún cuando su medio original quede obsoleto. Se
suele considerar emulación, a diferencia de migración, solo en aquellos
casos en los cuales se conserva el código original subyacente en la obra de
arte. El “programa” de emulación, desde este punto de vista, es una especie
de máquina virtual que emula el comportamiento de una antigua y es capaz
de ejecutar el mismo código en un soporte nuevo218.

La migración supone repetición según se desarrollen nuevos formatos


mientras que esta continuidad, en la emulación, es solamente
responsabilidad de una máquina virtual. Considerar una maquinaria
virtual219, en lugar de máquina simplemente, amplia el horizonte de la
emulación, incluso con mayor potencia. En ambos casos es imprescindible
que la velocidad de actualización, migración, del soporte virtual sea lo más
lenta posible; esta es una de las propiedades con mayor incidencia en la
resistencia al paso del tiempo; y unas garantías de soporte y mantenimiento
a largo plazo. Otra propiedad no menos importante es la implementación220
de una arquitectura con una capacidad de absorción muy alta de cualquier
tecnología. Por ello la importancia de trabajar en entornos abiertos (en
términos de interconexión de sistemas), estandarizados, y herramientas de

217
Entiéndase por plataforma el soporte tecnológico que constituye el medio de la obra.
Puede ser un sistema operativo, un programa, la apariencia de una consola de videojuego, o
un dispositivo electrónico.

218
Rothenberg, Jeff. Avoiding Technological Quicksand: Finding a Viable Technical Foundation
for Digital Preservation. 1998; http://www.clir.org/pubs/reports/rothenberg/contents.html,
[Consulta: 14-2-2009].

219
García, Lino. La Maquinaria de la Virtualidad. LINUX+. 2009, Vol. 57, pp. 16-20. Disponible
en: http://lpmagazine.org/es/, [Consulta: 22-12-2010]. Una maquinaria implica un sistema de
sistemas donde intervienen dispositivos digitales a la vez que programas y, no
necesariamente, tiene la responsabilidad de correr código de una plataforma obsoleta. En
lugar de la tecnología obsolescente emula su comportamiento.

220
Se habla de implementación, en lugar de selección, porque no existe estándar
arquitectónico, es una exigencia de hecho, que satisfaga estas necesidades de la
conservación del arte digital.

119
TEORÍA DE LA RESTAURACIÓN DEL ARTE DIGITAL

uso libre y la propuesta de un estándar (o conjunto de estándares) para la


documentación, conservación y restauración de arte digital.

Reinterpretación. Es la estrategia de conservación más potente, a la vez


que la de mayor riesgo y consiste en reinterpretar la obra, cada vez que se
re-cree. La reinterpretación puede requerir la escritura de un código para
una plataforma completamente diferente siguiendo un conjunto de
instrucciones específicas in situ con respecto a la instalación, o reformar un
trabajo en un medio contemporáneo con el valor metafórico de un medio
anticuado. Esta técnica es muy peligrosa cuando no se cuenta con la
garantía o aprobación del artista (caso de fallecimiento, por ejemplo), pero
puede ser la única manera de garantizar la re-creación, su instalación, o el
re-diseño de una arquitectura variable con el contexto. La duplicación es una
variante de la reinterpretación aplicable a los medios que pueden
perfectamente clonados. No hay diferencia entre el original y la copia221.

Ninguna de las estrategias para el arte digital carece de inconvenientes.


Gaby Wijers expone la principal desventaja de cada estrategia222. Según
Wijers para la sustitución (almacenamiento) “la mayor desventaja de
almacenar materiales obsolescentes es que la obra morirá una vez que
todos estos materiales se agoten”; la emulación implica un posible riesgo:
“gasto prohibitivo223 e inconsistencia con la intención del artista”; en la
migración “la apariencia original de la obra cambiará probablemente en su
nuevo medio”; la reinterpretación “es una técnica peligrosa cuando no la
garantiza el artista, pero esta puede ser la única manera de recrear la obra”.
La mayoría de los proyectos en curso trabajan en el desarrollo e
implementación de modelos de descripción, estándares de metadatos,
definición terminológica para la interoperabilidad, compatibilidad, etc. Sin
embargo, el concepto de plataforma virtual, subyacente en la técnica de

221
Este es el caso, por ejemplo, de los applets Java y los navegadores necesarios para ver
obras de net art.

222
Wijers, Gaby. Preservation and/or Documentation; The Conservation of Media Art,
http://www.montevideo.nl/en/nieuws/detail.php?archief=&id=72, [Consulta: 16-10-2010].

223
Hablar de “gasto prohibitivo” supone “injustificado” sin embargo la decisión acerca de qué
cantidad de inversión es adecuada para una Restauración no es particular al arte digital.

120
Estrategias de Restauración

emulación, es, probablemente, el aspecto más interesante de todas estas


estrategias. La máquina o maquinaria virtual que recrea el original es,
tecnológicamente, un desarrollo hardware/software (HW/SW) susceptible
de resistir a la obsolescencia224.

Obsérvese que, excepto la sustitución, ninguna de las estrategias de


Restauración respeta la calidad perceptual de la imagen que funciona como
objeto-símbolo225. Lo que, dicho de otro modo, equivale a un planteamiento
de Restauración que “*modifica+ los rasgos perceptibles del objeto”226. La
teoría contemporánea de la Restauración “defiende que lo que caracteriza a
esos objetos [Admite que la Restauración se define en función de sus
objetos] son rasgos de tipo subjetivo, establecidos por las personas, y no
inherentes a los propios objetos.”227 La cuestión es cuánto influye el respeto
a la calidad perceptual de la imagen en la trasmisión de ese poder simbólico
o comunicativo. ¿Cuál es el margen para que un residuo no se convierta en
índice ni la obra en un icono de sí misma sino que permanezca siendo un
símbolo de lo que representa?228 ¿Cómo es posible valorar o cuantificar esta
diferencia?

224
La obsolescencia genera una paradoja cuyas consecuencias son aún difíciles de cuantificar.
Se dispone de la capacidad tecnológica para fabricar productos duraderos; sin embargo, se
genera la necesidad de adaptación al cambio permanente de las tecnologías. El concepto de
maquinaria virtual es desarrollado por el autor en el Anexo B – Tecnologías.

225
Lo que probablemente justifique el versionado pero ¿cómo versionar una obra una vez
desaparecido su autor?

226
Muñoz, Teoría contemporánea de la Restauración, p. 22.

227
Ibíd, p. 40.

228
Charles S. Peirce (1839-1914) distingue entre símbolos (que tienen una relación
puramente convencional con su significado), iconos (que de alguna manera se asemejan a lo
que significan, compartiendo algunas características con el mismo) e índices (que son causas
de lo que representan) cit. en Muñoz, The artwork that became a symbol of itself: reflections
on the conservation of modern art, p. 21.

121
TEORÍA DE LA RESTAURACIÓN DEL ARTE DIGITAL

43. León Ferrari. Civilización


occidental y cristiana, 1965.

122
Estrategias de Restauración

Como parte del proyecto Seeing double: Emulation in Theory and Practice
se organizó justo una exposición experimental para probar las
consecuencias de la emulación en la Restauración229. En general la
experiencia concluye que la emulación puede ser menos apropiada a corto
plazo que la migración (cuando la manipulación de hardware es
fundamental para la obra de arte) y que la intención del artista podría ser
más útil en la Restauración de una obra que la búsqueda de una solución
técnica universal.

Aún así la migración, emulación, e incluso, la reinterpretación pueden ser


la mejor opción cuando la tecnología de adopción está preparada para
resistir a la obsolescencia. En cualquier caso, la estrategia de fondo, debe
ser rehacer la obra en una tecnología robusta, bien documentada, que
facilite a todas las entidades implicadas en la conservación del patrimonio
(donde los museos juegan un rol muy importante) los procesos de
documentación, exposición, preservación, conservación y restauración.

La tesis que defiende esta investigación es que, aunque no exista una


solución universal a todos los “casos”230, sí es posible un planteamiento
metodológico que conserve la calidad perceptual de la imagen (o lo que es
equivalente a una idéntica reproductibilidad en términos perceptuales)
mediante el uso de una metodología que intervenga en la estructura más
allá de los datos y procesos: en el propio soporte. Esta intervención debe
capacitar la obra para facilitar su evolución, mutación y progreso. Esta
estrategia de conservación evolutiva se denomina recreación y se describirá
exhaustivamente en el capítulo III – Conservación Evolutiva y en el Anexo A -
Metodologías.

229
La comparación obra original-versión es engañosa: aún en idénticas condiciones de
observación la apreciación será diferente si se observan los ejemplares por separado en lugar
de juntos. El sistema perceptual tiene mayor capacidad de discriminación cuando dispone de
una referencia total que cuando esa referencia parcial está grabada parcialmente en la
memoria.

230
Como tampoco existen soluciones generales en la Restauración tradicional.

123
TEORÍA DE LA RESTAURACIÓN DEL ARTE DIGITAL

Casos de Estudio

Cada obra debe ser tratada como única; lo que exige la aplicación de una
metodología de investigación de estudio de caso. Todas estas estrategias
son susceptibles de aplicar a prácticamente todas las categorías. Sin
embargo, es necesario, en cada caso, considerar sus particularidades,
valorar la idoneidad de cada herramienta, el coste, etc.

TV-Garden, por ejemplo, creada en 1974 por Nam June Paik, es una obra
considerada por algunos new media art, por otros video installation e
inclusive electronic art231. TV-Garden es una instalación que celebra la
difusión de la televisión como un jardín que va extendiéndose, compuesto
por plantas naturales y monitores con imágenes intermitentes. Aplicar la
estrategia de sustitución a esta obra requiere acumular una gran cantidad
de monitores idénticos a los utilizados por Paik. La migración, sin embargo,
permitiría reemplazar estos monitores por otros de marca diferente. La
emulación, sería aún más permisible, e incluso permitiría digitalizar la
instalación para así utilizar modernos monitores digitales LCD, de Plasma,
OLED, etc. Esta estrategia facilitaría enormemente la labor de conservación
en un mundo completamente digital. Por último la reinterpretación de la
obra no tendría reparos en colocar monitores incluso de diferente tamaño.

En todos y cada uno de los casos es muy importante tener en cuenta la


intención del artista y la satisfacción de determinada calidad perceptual. La
cuestión es dónde fijar los límites de permisibilidad. Gran parte de estas
incógnitas las puede aclarar una buena documentación y la opinión y
supervisión del artista. Una buena documentación, de hecho, debería
cuantificar, con nitidez, una medida objetiva de la calidad perceptual de las
imágenes; proceso para el cual no está preparado el artista y
probablemente tampoco la propia institución que adquiere la obra. ¿Cómo
saber, sino, cuándo la fatiga del monitor degrada la imagen “lo suficiente”?
¿Cómo compensar o corregir el color? ¿Cómo disponer la iluminación para
conseguir el mismo efecto visual? ¿Cómo afectan las condiciones y tiempo

231
La instalación de vídeo es un subconjunto de nuevos medios, con lo cual parece una
categorización más específica; sin embargo la correspondencia con el arte electrónico está
dada más por su naturaleza que por el medio de expresión en sí.

124
Casos de Estudio

de almacenamiento al funcionamiento de la obra? Y así, un largo etcétera


que debe subsistir cada vez que se expone la pieza.

TV Garden, por su importancia histórica, ha sido objeto de estudio en


numerosas investigaciones. Ippolito232 la señala como un caso típico de
versionado y propone el siguiente sistema de etiquetas para referirse a
ella233.

TV Garden v1.1 (Kassel, 1974) por Nam June Paik.


Basada en Global Groove v1.3 (New York, 1973: vídeo mono canal
reproducido por Nam June Paik.
Instalación variable con uno o dos canales de vídeo reproducido y
hardware y materiales duplicables: cinta de vídeo y reproductor U-matic con
color y sonido; treinta monitores y tres pares de altavoces; madera, tierra, y
approximadamente 50 plantas en macetas vivas.
Dimensiones variables; muestra instalada en un rectángulo de
aproximadamente 1.5 metros de alto, 6 metros de longitud, y 10 metros de
ancho.
Colección del artista.

TV Garden v1.12 (New York, 2000) instalada por Nam June Paik, Blair
Thurman, y Jon Huffman.
Basada en TV Garden v1.1 (1974, Kassel) y Global Groove v1.3 (New York,
1973: vídeo mono canal reproducido) por Nam June Paik.
Instalación variable con uno o dos canales de video reproducido y
hardware y materiales duplicables: DVD y reproductor de DVD con color y
sonido; cuarenta y seis monitores y cinco pares de altavoces; tres
amplificadores de distribución de vídeo; madera, tierra, y aproximadamente
180 plantas en macetas vivas.
Dimensiones variables; muestra instalada en un arco de
aproximadamente 1.5 metros de alto, 25 metros de longitud y 6 metros de
ancho.
Solomon R. Guggenheim Museum, New York.

232
Ippolito, Jon. Death by Wall Label en Paul, Christiane (Ed). New Media in the White Cube
and Beyond: Curatorial Models for Digital Art. Berkeley: University of California Press, 2008,
pp. 106-132. Disponible en: http://thoughtmesh.net/publish/11.php, [Consulta: 22-12-2010].

233
Ibíd., p. 128.

125
TEORÍA DE LA RESTAURACIÓN DEL ARTE DIGITAL

Adquirida con fondos aportados por la International Director's Council y


Executive Committee Members: Ann Ames, Edythe Broad, Henry Buhl, Elaine
Terner Cooper, Dimitris Daskalopoulos, Harry David, Gail May Engelberg,
Ronnie Heyman, Dakis Joannou, Cindy Johnson, Barbara Lane, Linda
Macklowe, Peter Norton, Willem Peppler, Denise Rich, Simonetta Seragnoli,
David Teiger, Ginny Williams y Elliot K. Wolk, 2001.

TV Garden v3.4 (New York, 2030) instalada por Cory Archangel, Jr.
Basada en TV Garden v1.1 (1974, Kassel), Global Groove v1.3 (New York,
1973: video mono canal reproducido), y Allan 'n' Allen's Complaint v1.6 (New
York, 1982: video mono canal reproducido) por Nam June Paik.
Instalación variable con uno o dos canales de vídeo reproducido y
hardware y materiales duplicables: computadora SONY ca. 2030, dos canales
de fotogramas de video raster (mapa de bits) con color y sonido, código
TurboJava; Setenta monitores y diez pares de altavoces; madera, tierra, y
aproximadamente 300 plantas en macetas vivas.
Dimensiones variables; muestra instalada en un círculo de
aproximadamente 2 metros de altura y 30 metros de diámetro.
Berkeley Art Museum/Pacific Film Archive, Solomon R. Guggenheim
Museum, New York, y Rhizome.org ArtBASE.

Sin embargo a pesar de este proceso de versionado aprobado por el


propio Paik (artista con una clara predisposición positiva además hacia la
reinterpretación; probablemente por sus orígenes conceptuales fluxus) TV
Garden se encuentra en un limbo (desde el punto de vista de su
Restauración) similar a 6 TV Dé-coll/age, de Wolf Vostell (obra tratada como
caso de estudio en esta investigación). Las plantas no existen, tampoco la
tecnología empleada en la última versión adquirida ni un proceso claro de
producción, exposición, conservación y restauración autorizado por Paik234.

234
Rotaeche, Mikel. Metodología para la Conservación y Restauración de Arte
Contemporáneo: La relación entra artista y restaurador-Entrevistas a tres artistas de
videoinstalaciones. Tesina presentada para la defensa de la suficiencia investigadora.
Programa de Doctorado de: Arte Contemporáneo, criterios para su conservación y
restauración. Nuevos procesos, nuevos materiales. Universidad de Bilbao, 2007. “En una
entrevista realizada por John Handhart, comisario del Guggenheim Museum de New York, en
2001 al asistente de Paik, Jon Huffman, se le preguntó explícitamente por las implicaciones
de este tipo de cambios sobre la obra y si Paik no preferiría mantener el aspecto exterior de
los televisores originales, pero con tecnología moderna. Para responder a la cuestión el
asistente cita al propio Paik que dijo: «Odio tener el control completo, eso sería aburrido. He
aprendido a disfrutar de cada segundo de descontrol. Las sorpresas e inconvenientes se

126
Casos de Estudio

44. Nam June Paik.


TV-Garden, 1974-
1982. Arriba. TV
Garden v1.12, New
York, 2000. Abajo.
Detalle.

construyen dentro de las maquinas». Más adelante señala que a pesar de no existir ningún
testimonio escrito TV Garden debe considerarse como una obra conceptual, según Huffman
es algo implícito a su significado ya que se trata de emitir unas imágenes en unos televisores
rodeados de plantas.”, pp. 28-29.

127
TEORÍA DE LA RESTAURACIÓN DEL ARTE DIGITAL

Hay categorías, como el arte de la red, con particularidades tecnológicas


bien definidas. Las piezas, datos y código, que comparten algún espacio de
disco duro en algún servidor, pueden satisfacer con mayor o menor grado
estándares de jure o de facto o estar más o menos acoplados con
determinadas tecnologías. El uso de estándares y herramientas libres y
abiertas de uso puede ser una buena estrategia porque suelen conservar
cierto nivel de compatibilidad con las versiones tecnológicas anteriores,
mayor resistencia al cambio y suelen tener buen e incondicional soporte.

El paquete de protocolos de comunicación de datos: TCP/IP (Transfer


Control Protocol/Internet Protocol), es un buen ejemplo. En 1969, DARPA
(Defense Advanced Research Projects Agency), creó ARPANET, un proyecto
de I+D para crear una red experimental de intercambio de paquetes. Esta red
evolucionó hasta que, en 1975, pasó de experimental a completamente
operacional. Durante este periodo se desarrollaron los protocolos TCP/IP
que, en 1983, fueron adoptados como estándares militares y todas las
máquinas conectadas a ARPANET se vieron obligadas a migrar a estos nuevos
protocolos235. A finales del 83 la ARPANET original se dividió en dos subredes,
MILNET, la parte no clasificada de la DDN (Defense Data Network) y una
nueva y más reducida ARPANET. Al conjunto de estas redes se le denominó
Internet. Finalmente en 1990 desapareció ARPANET aunque, pese a ello,
Internet permanece como la red de redes.

Los protocolos TCP/IP son estándares de protocolos abiertos y gratuitos.


Tanto sus desarrollos como sus modificaciones se realizan por consenso y no
a voluntad de un determinado fabricante o propietario. Cualquiera puede
desarrollar productos que cumplan sus especificaciones; porque son
independientes a nivel software y hardware. Su amplio uso los hace
especialmente idóneos para interconectar equipos de diferentes fabricantes,
no solo a Internet sino también entre ellos para formar pequeñas redes
locales. Proporcionan un esquema común de direccionamiento que permite
a un dispositivo TCP/IP localizar a cualquier otro en cualquier punto de la red.
Por último son protocolos estandarizados de alto nivel, que soportan
servicios al usuario, ampliamente disponibles y consistentes.

235
Para facilitar esta migración DARPA fundó BBN (Bolt, Beranek & Newman) e implementó
los protocolos TCP/IP en el Unix de Berkeley (BSD Unix). Esto supuso el inicio del largo
matrimonio entre TCP/IP y Unix.

128
Casos de Estudio

45. Jodi. http://wwwwwwwww.jodi.org, 1995. Esta obra asalta con un sinfín de


imágenes y textos que parecen reproducir errores y virus asumiendo una
estética completamente nueva.

Cambiar la programación de todos los dispositivos TCP/IP236 que


constituyen Internet y, lo que es más importante, funcionan, supone un
coste, esfuerzo, colaboración, etc. casi imposible de imaginar. Sin embargo,
el uso de tecnologías menos arraigadas, de determinado fabricante, con
múltiples versiones, incluso anuales, es, desde luego, sinónimo de riesgo e
indeterminación. Las empresas siguen dinámicas de expansión, absorción e
incluso quiebra mucho más relacionadas con el mercado y la bolsa que con
las garantías requeridas por sus clientes. Una tecnología propietaria tiene
mayor probabilidad de desaparecer que un estándar potenciado por una
comunidad de internautas, instituciones científicas y/o académicas, etc.

236
Gran parte de los cuales conserva incluso protocolos que datan de 1975.

129
TEORÍA DE LA RESTAURACIÓN DEL ARTE DIGITAL

La sustitución de una obra de red solo tiene sentido con la tecnología


local (caso de que la hubiera) porque, normalmente, las obras se “instalan”
en servidores administrados por terceras personas y utilizan la
infraestructura de comunicación altamente distribuida de la red. Este tipo
de prácticas está mucho más condicionado por el software, sistema
operativo, herramientas de administración del site, etc. migrado
habitualmente como un proceso de administración rutinario. El problema
surge cuando la tecnología que utiliza la obra (protocolos, etc.) pierde
soporte. Migrar una obra de red supone modificar, una y otra vez, código; lo
que requiere de un esfuerzo continuo y considerable. La emulación implica
la actualización de una máquina virtual237 y la conservación de todas y cada
una de las tecnologías obsoletas involucradas. Conviene recordar que el
disquete, medio de distribución habitual de cualquier tecnología de la
década de los 80s, es ya una antigualla casi imposible de encontrar en la
mayoría de los ordenadores de finales de la primera década del 2000.
Reinterpretar supone la re-creación de la obra con tecnologías
completamente diferentes.

En el capítulo III – Conservación Evolutiva, se desarrolla la recreación: una


nueva estrategia de preservación, conservación y restauración desarrollada
por el autor, cuyo objetivo no es solo mantener la calidad perceptual de la
imagen del objeto Restaurado, sino intervenirlo, de manera tal, que facilite
una labor de conservación evolutiva: un progreso planificado inmune a la
obsolescencia tecnológica. Esta intervención, además, se plantea desde una
metodología en la línea notacional de Rinehart que aporta beneficios
secundarios como una documentación sintonizada con la evolución del
objeto y una adecuada exposición o exhibición.

Conclusiones

La movilización y cooperación de instituciones, museos, coleccionistas,


fundaciones, etc. en favor de la Restauración del arte digital no es suficiente.
La respuesta a la preocupación de la UNESCO con este tipo de patrimonio se
ha concentrado fundamentalmente en la documentación. Mucho queda por
hacer en relación a la tecnología, su estabilidad, metodologías y su

237
Probablemente, tanto en el servidor como en el cliente.

130
Conclusiones

propiedad natural más peligrosa: la obsolescencia. El área que ha recibido el


mayor de número de contribuciones es probablemente el vídeo. Sin
embargo, en otras categorías del arte digital, fundamentalmente
interactivas238, aún queda mucho por hacer.

Una particularidad reseñable es la necesidad de involucrar al artista en el


proceso de Restauración sin que suponga una interferencia. Esta paradoja
plantea un problema ético consecuencia de las tensiones que pueden surgir
debido a la aplicación de la Ley de la Propiedad Intelectual y la Ley de
Patrimonio. En definitiva, Restaurar es tomar decisiones.

La Restauración del arte digital conecta con las Teorías de Restauración


contemporáneas cuando el objeto, o partes del objeto de Restauración,
es/son materia. Pero va más allá, al estado inmaterial del objeto de
Restauración. No las rechaza sino que las absorbe. Si existe una Teoría de
Restauración del arte digital ésta tiene que ser más general.

Todas las estrategias de Restauración, incluso la sustitución (la única,


anterior a la recreación que garantiza una “identidad” perceptual completa),
intervienen sobre la estructura como elemento funcional del objeto. Sin
embargo, como objeto-sistema, aún cuando se sustituyan todas las partes,
el objeto-símbolo, seguirá manteniendo su identidad, seguirá siendo el
mismo. La paradoja de Teseo es irrelevante en cuanto se interviene en la
estructura y no en el aspecto. Es importante definir la importancia estética
de la autenticidad de la imagen y buscar las herramientas para garantizarla.

La Teoría de la Restauración del arte digital propone una intervención en


el soporte, procesos y datos, como parte estructural del objeto-sistema, para
mantener el valor simbólico, la eficacia, del objeto-símbolo. Es el código,
como implementación de un proceso, y el formato, como estructura del
dato, más todo el sistema que lo sostiene la parte perecedera de la
estructura y pueden y deben cambiar. No se preserva la “esencia” u
“originalidad” de un objeto a través de sus códigos, formatos y sistemas; ni
siquiera incluso de los procesos, datos y soportes imperecederos porque no
existe una relación unívoca entre estos y la imagen.

238
Pero no necesariamente. La vídeoinstalación, a pesar de su enorme conexión con el
vídeoarte, está en el mismo caso.

131
TEORÍA DE LA RESTAURACIÓN DEL ARTE DIGITAL

Las prácticas del arte digital son variadas, híbridas y complejas. Además
de las problemáticas comunes, dadas fundamentalmente por el carácter
inmaterial del tiempo y la dependencia temporal del bien, cada una tiene
sus problemáticas particulares y aún, cada bien, algunas exclusivas o
específicas. Los problemas se presentan en un sistema jerárquico y borroso.
Todas las especificidades dependen del uso de determinada tecnología. Si
un bien está “conectado” y requiere del intercambio de información por una
red, será susceptible de padecer determinados problemas asociados a este
tipo de tecnologías que, por otra parte, no son de ninguna manera
genéricas; dependerán del protocolo empleado, dispositivos, herramientas,
etc. y quizá la solución pueda ser exportada a otro caso igualmente
“conectado”; incluso, cuando no comparte los mismos protocolos. Es
imprescidible un proceso de análisis arriba-abajo/abajo-arriba, en espiral
para conformar la episteme del arte digital. Solo un esfuerzo transdisciplinar
construirá de estos procesos un corpus sistémico.

La base conceptual del arte ha cambiado y con ello el «objeto» de


conservación y restauración. El mundo «digital» impone una línea de
migración que condiciona la actividad de conservación incluso en los límites
del arte digital (como es el caso del arte electrónico, las vídeoinstalaciones y
el propio videoarte). Las estrategias de Restauración son particulares al
ámbito de la tecnología y requieren de una formación especializada no solo
para su conservación y restauración, sino también para su desarrollo y
documentación. La factura o producción de la obra es fundamental y
condiciona su nivel o grado de preservación y conservación; de hecho puede
evitar, en la medida en que se comporte alográficamente, la falsificación y
avalar una Restauración genuina. La aplicación de una metodología
adecuada en el proceso de desarrollo de una obra, que tenga en cuenta su
posterior transformación, puede facilitar la labor de Restauración al museo y
alargar su vida en el tiempo indefinidamente.

Hay muchas maneras de conseguir lo mismo, pero no todas son


igualmente favorables al progreso de la obra y a la conservación de su
integridad estética y ésta es una característica propia del arte digital: la obra
es activa, está obligada a evolucionar, a adaptarse, a cambiar y el artista
está comprometido a participar en la definición de estos procesos.

132
CONSERVACIÓN EVOLUTIVA

(…) no te puedo olvidar, siento que te perdí, y eso me hace pensar

Adolfo Guzman

La hipótesis de este trabajo es precisamente que la obsolescencia es


superable. La tecnología tiene madurez suficiente para salvarse a sí misma
pero es preciso encausarla y subordinarla para garantizar, a la vez, la
autenticidad de la obra o, lo que es lo mismo, evitar una falsificación.

El objeto de Restauración, en el arte contemporáneo, posee, en general,


un carácter dual simbólico-funcional relacionado con el esquema aspecto-
estructura de la Teoría del Restauro de Brandi. Como objeto-símbolo, la obra
es portadora de un mensaje estético, una imagen o “representación”
determinada por el artista que significa algo mientras que, como objeto-
sistema, la obra debe cumplir determinados requisitos funcionales: la
eficiencia del producto. La imagen, que funciona como aspecto, debe
permanecer inalterable, al menos en términos perceptuales, mientras que el
soporte, los datos y procesos (donde corresponda en las prácticas artísticas
contemporáneas), que funcionan como estructura, son puramente utilitarios
y pueden, y deben, progresar. El objeto está obligado a evolucionar,
adaptarse, cambiar, necesita mutar para sobrevivir al tiempo. Las
intervenciones sobre él deben estar encaminadas a garantizar su estado
futuro y a prevenir alteraciones de su comportamiento. Todas estas
acciones son, por lo tanto, connaturales a la conservación. Las teorías de
Restauración, excepto las funcionales, centran sus bases en la materia del
bien. Sin embargo en las prácticas contemporáneas abundan obras de
carácter procesual, intangible, inestable, virtual, inmaterial.

La conservación evolutiva es un planteamiento que, como la


conservación informacional239, considera la estructura como un elemento

239
Muñoz, Teoría Contemporánea de la Restauración, op. cit., p. 72.

133
CONSERVACIÓN EVOLUTIVA

funcional reemplazable y se centra en la conservación del aspecto: lo


intangible, procesual o inmaterial240. La estructura es sustituible cuando el
todo o sus partes son sensibles a la obsolescencia tecnológica y carecen de
valor simbólico. Los elementos funcionales sustitutivos deben ser
proyectados para evolucionar y aceptar las nuevas tecnologías de manera
ordinaria en la línea abierta por el Solomon R. Guggenheim Museum, de
New York, y la Daniel Langlois Foundation, de Montreal, en Permanence
Through Change: The Variable media Approach241. El bien se interviene para
llevarlo a un estado desde el cual pueda mutar o adaptarse a nuevas
condiciones futuras.

Obsolescencia tecnológica

La obsolescencia genera una paradoja ineludible cuyas consecuencias son


aún difíciles de cuantificar. Se dispone de la capacidad tecnológica para
fabricar productos duraderos a la vez que se genera la necesidad de
adaptación al cambio permanente de las tecnologías. Pero, en palabras de
Marshall McLuhan: “La obsolescencia jamás supuso el fin de nada. No es
más que el principio”.

Una tecnología obsoleta es cualquier tecnología que ya no se emplea o


ha sido reemplazada por otra (no necesariamente punta). Las razones de
esta obsolescencia son diversas: mal desempeño (en comparación con
nuevas tecnologías), imposibilidad de encontrar los repuestos adecuados,
nuevas tecnologías que reemplazan la antigua (tecnologías sustitutivas),
pérdida competitiva entre diversas tecnologías: una termina superando a las
otras (no necesariamente por su calidad), estrategias comerciales, moda,

240
El aspecto, tal y como se ha considerado, puede ser en parte o en su totalidad material o
una combinación de ambos. Esta investigación se centra solamente en la Restauración de lo
inmaterial. La Restauración de la materia como símbolo cuenta con una serie de
procedimientos y prácticas sistematizadas y cierta orientación “científica” legitimada por su
eficacia.

241
Depocas, Alain; Ippolito, Jon y Jones, Caitlin (Eds). Permanence through change: The
Variable Media Approach. New York: The Solomon R. Guggenheim Foundation y Montreal:
The Daniel Langlois Foundation for Art, Science, and Technology, 2003. Disponible en:
http://www.variablemedia.net/e/preserving/html/var_pub_index.html, [Consulta: 8-10-
2010].

134
Obsolescencia tecnológica

etc. Cualquier objeto tiene una vida útil “planificada” que corresponde a un
ciclo inferior al tiempo de eficiencia funcional válido. La cuestión es que la
naturaleza de esta “planificación” normalmente es ajena a la propia
tecnología y corresponde más bien a estrategias de mercado. Si hay algo
que caracteriza al capitalismo es el consumo constante de productos,
gracias a campañas publicitarias agresivas, que “obligan” a comprar
productos nuevos aunque los viejos todavía funcionen. La “obsolescencia
planificada” viene a ser una especie de “seguro”, que garantiza al fabricante
que, por más que un producto sea suficiente para su uso242, debe cambiase
porque dejó de funcionar. Los productos no solo trabajan por un “breve”
plazo de tiempo, sino que incluso se encargan de recordar cuando su vida
útil se agota.

¿Qué se puede hacer contra esto? La recreación plantea un modelo


funcional evolutivo en el que la estructura del objeto-sistema: soporte, datos
y procesos, es una «caja negra»243 resistente a la obsolescencia y con un
ciclo de vida planificado. Aunque de la estructura solo el soporte es materia,
datos y procesos deben ser considerados también en cuanto a su
dependencia con los formatos y con los mecanismos de resistencia a la
obsolescencia, respectivamente. Ambos, datos y procesos, deben ser
rediseñados con formatos evolutivos (capaz de absorber futuras
tecnologías) y procesos que además incluyan los mecanismos de
interconexión o interfaz. La interfaz es el «lenguaje» de especificación de la
entrada/salida, de la interconexión de la «caja negra» y no debe cambiar. De
esta manera la «caja negra» se convierte en un elemento sustituible por
cualquier objeto-sistema, idénticamente funcional, independientemente de
su tecnología. La «caja negra» es escalable, es decir, desintegrable en un
conjunto de cajas negras (subsistemas) interconectadas entre sí por sus
respectivas interfaces. No importa cómo funciona sino cómo se integra.

242
En el ámbito de la informática y, por lo tanto del arte digital, hay grandes ejemplos de
esto. De hecho, un ordenador moderno puede hacer más o menos las mismas cosas que uno
antiguo. Sin embargo, los sucesivos cambios en los sistemas operativos o requerimientos de
algunos programas obligan a reemplazarlo periódicamente.

243
En teoría de sistemas, caja negra es aquel elemento que se estudia desde el punto de vista
de las entradas que recibe y las salidas o respuestas que produce, sin tener en cuenta su
funcionamiento interno.

135
CONSERVACIÓN EVOLUTIVA

Este concepto de pieza modular, «parte» o «componente»,


intercambiable, actualizable, sustituible, de conservación de la interfaz es
resistente a la obsolescencia pero requiere de un nuevo concepto de ciclo
de vida y de una herramienta metodológica adecuada que requiere una
migración analógico-digital. La Restauración debe ser digital.

Debilidad metodológica

La producción de arte digital se caracteriza, en gran medida, por una


carencia metodológica, al menos en términos de estandarización. Este
hecho provoca que el objeto de Restauración no esté en un estado óptimo
para su conservación evolutiva en el momento de Restauración y exige un
proceso de recreación. Sin embargo antes de exponer una metodología para
la recreación es conveniente estudiar las diferentes conexiones entre
algunas de las metodologías más solventes para el análisis-síntesis de
sistemas en relación con la naturaleza del arte digital.

El estudio realmente científico de la materia y de la naturaleza lo


iniciaron Bacon, Descartes y Galileo, a fines del siglo XVI e inicios del XVII,
con el establecimiento de los principios de una verdadera metodología
científica. Desde entonces, la ciencia siguió un paradigma conceptual
fundamentalmente reduccionista, basado en el análisis: uno de los cuatro
preceptos metodológicos de Descartes, contenidos en su famoso Discurso
del método244, y por eso llamado método cartesiano ó paradigma
cartesiano. Las reglas o preceptos en las que se fundamente el método
cartesiano son:

Evidencia. No admitir jamás como verdadera cosa alguna sin conocer con
evidencia que lo era, es decir, evitar cuidadosamente la precipitación y la
prevención.

Análisis. Dividir cada una de los problemas en tantas partes como sea
posible para obtener una mejor solución.

244
Descartes, René. Discurso del Método, Edit. Tecnos, Madrid, 2005.

136
Debilidad metodológica

Síntesis. Comenzar el razonamiento por los objetos más simples y más


fáciles de conocer, para ir ascendiendo poco a poco hasta el conocimiento de
los más compuestos.

Comprobación. Hacer en todo momento enumeraciones completas y


revisiones generales.

En la primera regla solo se acepta como verdadero lo evidente y para


acceder a ella se necesita de la intuición. Según Descartes:

La evidencia es un acto puramente racional por el que nuestra mente


“ve” de modo simple e inmediato una idea.

El descubrimiento de lo evidente se caracteriza porque se considera


inmediato. No hay pasos intermedios para descubrir el concepto. La
intuición intelectual se caracteriza porque no posee error, algo es verdadero
o falso, no existen valores intermedios. En la segunda regla se aprecia que
cualquier problema que se estudie está formado a su vez por subproblemas
que, al poder tratarse por separado, facilitan el trabajo y ayudan a obtener
soluciones mejores y más fiables. Es necesaria la transformación de ideas
complejas en ideas simples. Una vez descompuesto el problema en ideas
sencillas se aplica la tercera regla: volver a juntar todos los subproblemas
descubiertos en la segunda regla, ya solucionados, para dar solución al
problema origen o problema padre. El método tiene una gran ventaja: se
sabe que las soluciones de los subproblemas son todas ciertas lo cual
reporta seguridad. Sin embargo, tal reduccionismo debe ser lo
suficientemente cuidadoso para no perder la comprensión del sistema en
estudio. Además de las partes es necesario tener en cuenta las interacciones
que existen entre ellas. Por último solo falta relacionar cada uno se los
subproblemas o ideas unos con otros. Es aquí donde entra en acción el
proceso deductivo. Para finalizar y para evitar posibles errores, es necesario
comprobar todo el proceso recorrido. Este recorrido se centra, sobre todo,
en las partes de análisis y síntesis; que es donde se producen la mayoría de
los errores. La garantía de certeza al final del proceso se base en que el
sistema de conocimiento resultante transmite la verdad en todos los pasos.

137
CONSERVACIÓN EVOLUTIVA

46. Dibujos de Ricard Solé245, inspirados en el cuadro de Archimboldo El verano


(1573). A la izquierda las partes aisladas: un conjunto de vegetales que parecen
no tener ninguna relación especial entre sí. A la derecha, una imagen clara de
una cabeza formada por una posible unión de la colección de vegetales de la
izquierda. Lo que le da este significado es el conjunto de interacciones y cómo
éstas forman un mapa adecuado que evoca un rostro.

El método cartesiano ha sido aplicado a todas las ramas de la ciencia, con


mucho éxito; sin embargo, el estudio de entidades emergentes,
transdisciplinares, requiere el uso de una lógica no deductiva ni inductiva,
sino dialéctica; en la lógica dialéctica las partes son comprendidas desde el
punto de vista del todo, y éste, a su vez, se modifica y enriquece con la
comprensión de aquéllas. Este proceso interpretativo (círculo hermenéutico
de Dilthey246) o movimiento que va del todo a las partes y de las partes al
todo tratando de buscarle el sentido, no es un círculo vicioso sino virtuoso.
Sin embargo, aunque la visión cartesiana supone que todo sistema es
reducible a sus partes, el todo es más que el conjunto de las partes, es
distinto a la suma de las partes.

245
Solé, Ricard. Redes Complejas: Del genoma a Internet. Barcelona: Tusquets, 2009.

246
Dilthey, Wilhem. The rise of hermeneutics en Connerton, P. (Ed). Critical sociology. New
York: Penguin, 1900/1976.

138
Debilidad metodológica

Los sistemas complejos contienen un gran número de entidades


autónomas y heterogéneas en interacción247. Cada elemento interactúa con
el resto, directa o indirectamente, y estas interacciones afectan a otros
elementos dando lugar a patrones de comportamiento del sistema global,
difíciles de deducir e inferir, en función de la estructura y comportamiento
de las partes componentes. En general este enfoque es apropiado cuando la
información del estado y comportamiento del sistema e incompleta, existe
incertidumbre y múltiples propósitos, se desconocen las restricciones
impuestas en relación al sistema (controles, comportamiento, resultados
finales), su estructuración es débil, etc. tal y como ocurre en el arte digital
en general.

Estos conceptos están estrechamente ligados a otros como modularidad


entendida como la capacidad que tiene un sistema de ser estudiado, visto
como la unión de varias partes que interactúan entre sí y que trabajan para
alcanzar un objetivo común, realizando cada una de ellas una tarea
necesaria para la consecución de dicho objetivo. Un módulo no es más que
cada una de las partes en que se encuentra dividido el sistema. Idealmente
un módulo debe ser susceptible de ser tratado como caja negra, es decir,
independiente del resto de los módulos, y comunicarse con otras (con todos
o solo con una parte) a través de unas entradas y salidas bien definidas
conocidas como interfaces. Estos conceptos: modularidad, componentes,
entidades, bloques, interfaces, aunque recursivos en diversos ámbitos, son
los recursos o herramientas básicas para implementar variantes
metodológicas cartesianas. El factor común es la constante cartesiana: si se
aprende a afrontar pequeños problemas más tarde será posible resolver
problemas mayores; pero, es necesario agregar, sin perder de vista el
contexto.

El paradigma de la complejidad se constata248, según el premio Nobel de


química Ilya Prigogine249, en que250

247
Las partes constituyen bloques de construcción básicos interconectados.

248
Caro, Antonio. El paradigma de la complejidad como salida de la crisis de la
postmodernidad. Discurso (órgano de la Federación Andaluza de Semiótica). 2002, No. 16-17,
p. 6.

139
CONSERVACIÓN EVOLUTIVA

Asistimos a la emergencia de una ciencia que no se limita a situaciones


simplificadas, idealizadas, mas nos instala frente a la complejidad del mundo
real, una ciencia que permite a la creatividad humana vivenciarse como la
expresión singular de un rasgo fundamental común en todos los niveles de la
naturaleza.

El gran shock para la ciencia del siglo XX, según el físico Fritjof Capra251,
ha sido

(…) la constatación de que los sistemas no pueden ser comprendidos por


medio del análisis. Las propiedades de las partes no son propiedades
intrínsecas, sino que solo pueden ser comprendidas en el contexto de un
conjunto mayor. En consecuencia, la relación entre las partes y el todo ha
quedado invertida. En el planteamiento sistémico las propiedades de las
partes solo se pueden comprender desde la organización del conjunto, por lo
tanto, el pensamiento sistémico no se concentra en los componentes
básicos, sino en los principios esenciales de organización. El pensamiento
sistémico es contextual, en contrapartida al analítico. Análisis significa aislar
algo para estudiarlo y comprenderlo, mientras que el pensamiento sistémico
encuadra ese algo dentro del contexto de un todo superior.

Frente al reduccionismo, que ha caracterizado tradicionalmente a la


ciencia occidental, se asiste en la actualidad al surgimiento de un nuevo
espíteme científico que pone el énfasis en la totalidad y no en los
componentes simples de los fenómenos. No aísla los objetos a investigar
sino que privilegia el contexto donde estos se sitúan252.

249
Prigogine, Ilya. El fin de las certidumbres, Taurus, Madrid, 1997.

250
Malagón, Mario J. Algunas reflexiones sobre los enfoques interdisciplinarios a través de
una disciplina del ejercicio de la profesión (principal integradora). Pedagogía Universitaria.
Universidad de Pinar del Río. 2001, Vol. 6, No. 4.

251
Capra, Fritjof. La trama de la vida. Una nueva perspectiva de los sistemas vivos. Barcelona:
Anagrama, 1998.

252
Ruano Gómez, Juan de Dios. Auto-organización: transdisciplinariedad científica y
emplazamiento sociológico de una noción de segundo orden, tesis doctoral presentada en
Universidad Complutense de Madrid, Madrid, 2002.

140
Debilidad metodológica

La siguiente tabla ilustra algunas metodologías: el método, de Descartes;


el método proyectual basado en la resolución sistemática de problemas de
Bruno Munari253; el método de diseño estructurado aplicado en
programación cuyo objetivo es diseñar algoritmos que cumplan la propiedad
de modularidad; la metodología para la evaluación y desarrollo de proyectos
transdisciplinares (MPT), desarrollada por el autor para abordar proyectos
en la intersección arte, ciencia y tecnología.

Descartes Munari MDE MPT


Evidencia Problema

Definición del Problema


Análisis Elementos del Problema Diseño Modelo

Recopilación de Datos Descomposición Funcional

Análisis de Datos Refinamiento Sucesivo


Síntesis Creatividad Codificación Diseño

Materiales y Tecnología

Experimentación

Modelos
Comprobación Verificación Prueba Implementación

Dibujos constructivos

Solución
47. Tabla comparativa de diferentes metodologías.

Creatividad no quiere decir improvisación sin método. El método


proyectual de Munari consiste simplemente en una serie de operaciones
necesarias, dispuestas en un orden lógico, dictado por la experiencia. Su

253
Munari, Bruno. Cómo nacen los objetos. Apuntes para una metodología proyectual.
Barcelona: Editorial Gustavo Gili, 1983.

141
CONSERVACIÓN EVOLUTIVA

finalidad es la de conseguir un máximo resultado con el mínimo esfuerzo. El


método proyectual cambia únicamente las responsabilidades: en lugar de
resolver el problema uno solo, en el caso de un proyecto mayor es preciso
aumentar el número de especialistas y colaboradores; y adaptar el método a
la nueva situación. El conocimiento del método proyectual, según el propio
Munari, de que es lo que hay que hacer para hacer o conocer las cosas, es
un valor liberatorio: es un «haz de ti, tú mismo». Uno de los ejes del nuevo
modelo de educación superior: el desarrollo de la capacidad de aprender a
aprender.

La definición del problema en su conjunto y la descomposición del


problema en sus elementos del método de Munari, correspondiente a la
regla cartesiana evidencia, es, sin duda, el primer paso para abordar
cualquier proyecto. Las acciones relacionadas con la evidencia permiten no
solo conocer qué se debe resolver o comprender, sino también establecer
los límites, fronteras y relaciones con el entorno; desde luego, son también
el punto de partida del resto de metodologías aunque estas aparecen
embebidas en el propio análisis, diseño o modelo.

El método de diseño estructurado aporta una técnica para realizar la


descomposición: un estudio descendente, arriba-abajo, que lleve desde la
concepción del problema global (programa o algoritmo) hasta la
identificación de sus partes (módulos). Esta técnica se repite aplicando una
estrategia llamada de refinamiento sucesivo propuesta por el experto en
Ciencias de la Computación Niklaus Wirth, que consiste precisamente en
volver a aplicar el estudio descendente arriba-abajo a cada subproblema
una y otra vez hasta obtener subproblemas lo suficientemente pequeños,
resolubles por módulos que cumplan, en la medida de lo posible, las
características deseables en un módulo en el ámbito de la programación. La
calidad del diseño estructurado, básicamente, se evalúa en base a los
conceptos cualitativos de acoplamiento y cohesión. El acoplamiento es el
grado de interdependencia que hay entre los distintos módulos de un
programa; lo deseable es que esta interdependencia sea lo menor posible,
es decir, tenga un acoplamiento débil. La cohesión es una medida de fuerza
o relación funcional entre las sentencias o grupos de sentencias de un
mismo módulo. Un módulo coherente ejecutará una única tarea sencilla
interactuando muy poco o nada con el resto de módulos del programa. Se
persigue que los módulos tengan una alta cohesión. El enfoque
aparentemente reduccionista de los sistemas pretende integrar las partes
hasta alcanzar una totalidad lógica o de una independencia o autonomía

142
Debilidad metodológica

relativa con respecto a la totalidad mayor de la cual también forma parte.


No solo es necesario definir la totalidad sino también sus partes
constituyentes y las interacciones de estas.

La fase modelo de la metodología para la evaluación y desarrollo de


proyectos transdisciplinares254 utiliza prácticamente el mismo método de
análisis que el método de diseño estructurado. Solo se añaden los
elementos necesarios para adaptarlo a sistemas complejos, distribuidos,
concurrentes, en tiempo real, que constan no solo de algoritmos y lenguajes
de programación (software) sino también de hardware. La metodología es
eminentemente orientada a la modularidad y define dos elementos
fundamentales con los que afrontar la etapa de diseño: los componentes y
sus interfaces (que denomina a3.cube y a3.nexus respectivamente). Por
último en la fase implementación se adopta un esquema de
responsabilidades, muy similar al de Munari, que adapta la resolución de
problemas al contexto del nuevo espacio europeo de educación superior, sin
ser exclusivo a este255. En esta fase se planifica el desarrollo de cada entidad
según técnicas de aprendizaje cooperativo basado en proyectos (ABP). Cada
proyecto se puede desarrollar y evaluar independientemente a la vez que
facilita un mecanismo de supervisión de la unión entre los diferentes
proyectos.

Obsérvese que la correspondencia de las fases diseño y modelo, del


Método de Diseño Estructurado y de la Metodología para la evaluación y
desarrollo de Proyectos Transdisciplinares, aún alineadas con la fase análisis
del modelo cartesiano, es relativa. En ambas las propiedades de las partes

254
cfr., Anexo A – Metodologías.

255
Estas técnicas están diseñadas según los cuatro pilares que constituirán la nueva clase de
educación: aprender a conocer, aprender a hacer, aprender a vivir juntos y aprender a ser;
para que los participante puedan desarrollar un proyecto en grupo; aprendiendo según
avanzan; con un conocimiento incompleto del problema; para integrar conocimientos y
habilidades de diferentes áreas y resultan idóneas para el desarrollo de proyectos
transdisciplinares. Pero son perfectamente extensibles al entorno empresarial. En definitiva
el aprendizaje basado en competencias no tiene otro objetivo mayor que adaptarse a las
exigencias reales del mercado. A3, de hecho, es una versión de MPT que sortea las
restricciones impuestas por el propio sistema académico para conseguir una metodología
universal.

143
CONSERVACIÓN EVOLUTIVA

son comprendidas solo desde la organización del conjunto, desde el


contexto y de las complejas interrelaciones entre las partes. Ambos
métodos provienen de una metodología más general, la Teoría General de
Sistemas256 desarrollada por von Bertalanffy en 1930, cuyo objetivo no es
buscar analogías entre las ciencias, sino evitar la superficialidad científica
que las estanca257. Para ello emplea como instrumento, modelos utilizables y
transferibles entre varios continentes científicos, toda vez que dicha
extrapolación sea posible e integrable a las respectivas disciplinas. Las
características258 que los teóricos atribuyen a la teoría general de los
sistemas son:

Interrelación e interdependencia. Toda teoría de los sistemas debe


tener en cuenta los elementos del sistema (objetos, entidades, componentes,
atributos, acontecimientos y otros aspectos similares), la interrelación
existente entre los mismos y la interdependencia de los componentes del
sistema. Los elementos no relacionados e independientes no pueden
constituir nunca un sistema.

Totalidad. El enfoque de los sistemas no es un enfoque analítico, en el


cual el todo se descompone en sus partes constituyentes para luego estudiar
en forma aislada cada uno de los elementos descompuestos; se trata más
bien de un tipo gestáltico de enfoque, que trata de encarar el todo con todas
sus partes interrelacionadas e interdependientes en interacción.

256
Bertalanffy, Ludwing von. General System theory: Foundations, Development, Applications,
George Braziller. Revised edition 1976, New York, 1968. La interpretación de la realidad
desde la metáfora de un todo organizado en funcionamiento compuesto por múltiples
dimensiones y elementos interrelacionados implicó una ruptura epistemológica de gran
relevancia científica: la vocación analítica de la ciencia paradigmática cede paso a la vocación
sistémica de una nueva ciencia: la Sistémica.

257
Romero Pérez, Clara. Paradigma de la complejidad, modelos científicos y conocimiento
educativo. Universidad de Huelva;
http://www.uhu.es/agora/version01/digital/numeros/06/06-
articulos/monografico/html_6/clara_romero.htm, [Consulta: 5-10-2010].

258
Bravo Monroy, Rodolfo. Metodología para el análisis y desarrollo de sistemas complejos:
una aproximación al estudio y selección de sus elementos de información. Tesis doctoral
presentada en la Universidad Complutense de Madrid, Servicio de Publicaciones, Madrid,
2006.

144
Debilidad metodológica

Búsqueda de objetivos. Todos los sistemas incluyen componentes que


interactúan, y la interacción hace que se alcance alguna meta, un estado final
o una posición de equilibrio.

Insumos y productos. Todos los sistemas dependen de algunos insumos


para generar las actividades que finalmente originan el logro de una meta.
Todos los sistemas originan algunos productos que otros sistemas necesitan.

Transformación. Todos los sistemas son transformadores de entradas en


salidas. Entre las entradas se pueden incluir informaciones, actividades, una
fuente de energía, conferencias, lecturas, materias primas, etc. Lo que recibe
el sistema es modificado o procesado por éste de tal modo que la forma de
la salida difiere de la forma de entrada.

Entropía. La entropía está relacionada con la tendencia natural de los


objetos a caer en un estado de desorden. Todos los sistemas no vivos
tienden hacia el desorden; si los deja aislados, perderán con el tiempo todo
movimiento y degenerarán, convirtiéndose en una masa inerte.

Regulación. Si los sistemas son conjuntos de componentes


interrelacionados e interdependientes en interacción, los componentes que
interactúan deben ser regulados (manejados) de alguna manera para
alcanzar los objetivos (las metas) del sistema.

Jerarquía. Generalmente todos los sistemas son complejos, integrados


por subsistemas más pequeños. El término jerarquía implica la introducción
de sistemas en otros sistemas.

Diferenciación. En los sistemas complejos las unidades especializadas


desempeñan funciones especializadas. Esta diferenciación de las funciones
por componentes es una característica de todos los sistemas y permite al
sistema focal adaptarse a su ambiente.

Equifinalidad. Esta característica de los sistemas abiertos afirma que los


resultados finales se pueden lograr con diferentes condiciones iniciales y de
maneras diferentes. Contrasta con la relación de causa y efecto del sistema
cerrado, que indica que solo existe un camino óptimo para lograr un objetivo
dado. Para las organizaciones complejas implica la existencia de una
diversidad de entradas que se pueden utilizar y la posibilidad de transformar
las mismas de diversas maneras.

145
CONSERVACIÓN EVOLUTIVA

Es posible imaginar con facilidad que un sistema puede ser una empresa,
un hospital, una universidad, una obra de arte digital, o entidad susceptible
a la aplicación de los principios enumerados. Las organizaciones, por
ejemplo, tienen muchos componentes que interactúan: producción,
comercialización, contabilidad, investigación y desarrollo, todos los cuales
dependen unos de otros. Al tratar de comprender la organización se le debe
encarar en su complejidad total, en lugar de considerarla simplemente a
través de un componente o un área funcional. El estudio de un sistema de
producción no produciría un análisis satisfactorio si se dejara de lado el
sistema de comercialización.

La teoría general de sistemas es un modo de enfoque interdisciplinario


que permite estudiar y comprender la realidad, con el propósito de
implementar u optimizar sistemas complejos. Puede verse como la
aplicación tecnológica de la teoría de sistemas a los esfuerzos de la
ingeniería, adoptando en todo este trabajo el paradigma sistémico. La
ingeniería de sistemas integra otras disciplinas y grupos de especialidad en
un esfuerzo de equipo, formando un proceso de desarrollo estructurado. Las
funciones principales de la ingeniería de sistemas son: planeación, diseño,
evaluación y construcción científica de sistemas hombre-máquina. La
característica más importante de la ingeniería de sistemas es la interrelación
con otras disciplinas en un trabajo transdisciplinar.

La obsolescencia tecnológica y la debilidad metodológica (no sólo en la


producción de los obras sino también en los procesos de Restauración) son
los grandes retos de la conservación evolutiva. Cualquier estrategia útil para
la Restauración del arte digital debe enfrentarse con ello y abordarlo. Pero
aún queda otra cuestión no menos importante por tratar y es la de
conseguir una Restauración auténtica y genuina que “*armonice+, hasta
donde ello es posible, un mayor número de teorías”259: la conservación de la
identidad simbólica de la obra, de la eficacia del objeto-símbolo. De un
objeto complejo que significa y conforma nuevos valores patrimoniales.

259
Muñoz, Teoría contemporánea de la Restauración, op. cit., p. 177.

146
Identidad simbólica

Identidad simbólica

“Un objeto se asemeja a sí mismo en el grado máximo”260 y esto, desde el


punto de vista estético, implica una identidad simbólica: el objeto debe debe
provocar las mismas respuestas y expectativas, la probabilidad de confusión
debe ser 1. Conseguir una idéntica repoductibilidad perceptual, teniendo en
cuenta que cualquier diferencia ínfima tiene gran peso, significa que el error
entre ambas imágenes: restaurada y objeto261 esté por debajo del umbral de
la percepción humana. Este error, considerado difícil de cuantificar para
unos e imposible para otros, sí es posible de obtener, de manera objetiva,
cuando la imagen es inmaterial. Por lo tanto, cuando el objeto de
Restauración es intangible, es posible hablar de autenticidad de la
Restauración y, por lo tanto, de falsedad en cuanto a la preservación de la
identidad. Sólo así es posible evitar un duplicado falsificado. La falsificación
se produce cuando un objeto “finge poseer la historia de producción
requerida para ser”262 otro. El razonamiento de Goodman es:

En las ocasiones en que existe una prueba teórica decisiva que permite
determinar si un objeto tiene todas las propiedades constitutivas de la obra
en cuestión, sin determinar cómo o por quién fue producido el objeto, no se
requiere ninguna historia de producción específica y, por tanto, no se ha
producido una falsificación. Esa prueba la proporciona un sistema de
notación adecuado, con un conjunto articulado de caracteres y posiciones
relativas para ellos.

(…) solo cuando se establece una notación se logra una identificación


definitiva de la obra independientemente de la historia de su producción. El
arte alográfico no se ha emancipado a fuerza de reivindicación sino de
notación.

260
Goodman, op. cit., p. 20.

261
Entiéndase por imagen-objeto la deseada (sea cual fuera el criterio a aplicar: actual,
original o prístina) y por imagen-restaurada la obtenida después de la intervención del bien.

262
Goodman, op. cit., p. 118. Aunque los objetos a los que se refier Goodman son la obra
auténtica y la falsa es posible hacer una analogía entre el imagen-objeto y el imagen-
restaurada para establecer un criterio de autenticidad en la Restauración.

147
CONSERVACIÓN EVOLUTIVA

La prueba de autenticidad, para las artes alográficas, está en la


corrección de la transcripción en determinada notación. La pintura, por
ejemplo, es autográfica; “ni siquiera la duplicación más exacta puede
considerarse genuina”263 pero muchas de las prácticas en al arte digital son
procesuales y, aunque su producción no dependa de un sistema de notación
formal, su naturaleza es alográfica. Por lo tanto, una Restauración que
permita la recreación de una obra en términos de un lenguaje escrito en una
partitura notacional ofrece garantías de preservar la identidad de la obra y
de la partitura. La estrategia de Restauración para la conservación evolutiva
es una metodología diseñada en términos de un sistema de notación similar,
en concepción, a un plano arquitectónico donde la selección particular de
dibujos y numerales cuenta como diagrama digital264 y como partitura.

La notación es un sistema de signos convencionales que se adopta, en las


ciencias y las artes, para expresar conceptos, entidades, procesos, hechos o
relaciones. En las artes, los mecanismos de replicación de una obra son
exclusivos de aquellas manifestaciones alógrafas como la arquitectura, la
danza, la música y el teatro donde reproductibilidad, unicidad y singularidad
conviven sin contradicción. Sin embargo la dimensión notacional es
connatural a la naturaleza efímera, documental, técnica, multidisciplinar,
compleja y procesual, del arte digital.

El diseño de un sistema de notación es un problema de


minimización/compromiso dimensión/expresividad de sus símbolos que
debe satisfacer cinco requisitos definidos por Goodman: la no-ambigüedad y
la disyunción y diferenciación sintáctica y semántica265. Una menor cantidad
de símbolos facilita la legibilidad en detrimento de la expresividad mientras

263
Ibíd., p. 110.

264
Ibíd., p. 151. “Para ser digital, un sistema no sólo debe ser discontinuo, sino estar
totalmente diferenciado, sintáctica y semánticamente. Si (…) también es no-ambiguo y
disyunto sintáctica y semánticamente, se tratará de un sistema de notación”. Goodman
demuestra que los sistemas digitales cumplen los cinco requisitos que precisa un sistema de
notación. “Las verdaderas virtudes de los instrumentos digitales son las de los sistemas de
notación: definición y posibilidad de repetir las lecturas”, p. 152.

265
Ibíd., p. 147. Para profundizar en el conocimiento de los sistemas o esquemas de notación
es altamente recomedable la lectura del capítulo 4: La teoría de la notación, pp. 123-164.

148
Identidad simbólica

que, en sentido contrario, es posible conseguir cualquier nivel de detalle,


favoreciendo la adaptación a las nuevas realidades, a cambio de mayor
confusión y dificultad de aprendizaje. La situación ideal consigue el balance
adecuado que permite al artista expresar sus ideas con facilidad y sin
restricciones266 dentro de los límites del consenso.

El universo o alcance de un sistema está condicionado por su capacidad


de adaptación (absorción de nuevos símbolos orgánicamente). Un sistema
de notación para el arte digital, deberá, por lo tanto, permitir la
transcripción de las obras (e indirectamente su descripción, documentación
y catalogación), la identificación de una obra en sus ditintas interpretaciones
(la notación desarrollo un papel teórico fundamental) y/o la composición
unificada o sistemática de nuevas obras, con garantías de su preservación
(disponibilidad) y Restauración. La figura 48 muestra diferentes sistemas de
“notación”267 musical no-convencionales reinventados para superar lo que
consideraron vacíos, carencias e insuficiencias del sistema de notación
tradicional en la representación de las posibilidades sonoras que ofrecen las
nuevas tecnologías. Sin embargo, la pérdida del carácter funcional los relega
a poesías visuales. La figura 49 muestra un ejemplo de aplicación del sistema
de notación para la danza propuesto por Laban268.

266
Diego García, Isaac. Notación musical: El grafismo musical en la frontera de los lenguajes
artísticos. Opus Música, 2007; http://www.opusmusica.com/020/grafismo.html, [Consulta:
20-2-2009+. “Edgard Varèse se sirvió de grafías convencionales para expresar sus novedades
tímbricas y rítmicas, aún consciente de sus limitaciones; mientras que Luigi Russolo creó una
simbología nueva para sus intonarumori, aunque sin renunciar a los pentagramas y a las
líneas divisorias de compás”. Ambas grafías son funcionales (como código establecido entre
compositor e intérprete); sin embargo la práctica de Varèse acentúa la sistematización.

267
No existe ninguna garantía de que todos estos sistemas sean notacionales en el sentido
exigido por Goodman; es decir que satisfagan la no-ambigüedad y la disyunción y
diferenciación sintáctica y semántica. De hecho el sistema de Brown no estipula las unidades
significantes mínimas de distancia y posición, carece de diferenciación sintáctica y, por lo
tanto, no es notacional.

268
Newlove, Jean y Dalby, John. LABAN for all. Londres: Nick Hern Books, 2008.

149
CONSERVACIÓN EVOLUTIVA

48. Ejemplos de sistemas de “notación” musical no estandarizados. Superior


Izquierda. György Ligeti. Artikulation, 1958. Superior Derecha. Earle Brown.
December 1952 (Folio). Inferior Izquierda/Centro. Sylvano Bussotti. Sette Fogli
“Mobile-Stabile per Chitarre, Canto e Piano“, 1959. Inferior Derecha. Mestres
Quadreny. L’Estro Aleatorio, 1973-78. “La completa subordinación a la partitura
es el único requisito para obtener un ejemplo genuino de la obra”269 pero
siempre en el contexto de un sistema notacional.

269
Goodman, op. cit., p. 172.

150
Identidad simbólica

49. Ejemplo de labanotación: un sistema de notación para la danza.

El arte digital está íntimamente ligado a la ciencia, la tecnología y la


comunicación. Por ello, la relación con gran parte de la terminología
utilizada: new media art, variable media, unstable media art, interactive art,
computer art, installation art, etc. es confusa. La definición que proporciona
la Wikipedia, en este contexto, es suficiente270:

El arte digital engloba una serie de disciplinas creativas en las que se


utilizan tecnologías digitales en el proceso de producción o en su exhibición.

Un bien, desde este punto de vista, es un objeto-sistema, constituido por


un conjunto HW/SW activo (infraestructura) donde operan procesos que

270
Wiki: Arte Digital. Disponible en: http://es.wikipedia.org/wiki/Arte_digital, [Consulta: 8-
10-2010].

151
CONSERVACIÓN EVOLUTIVA

consumen, transforman, almacenan y generan datos (superestructura)271


que permiten manifestarse al objeto-símbolo. El arte digital pese a ser el
pasado-reciente del arte, en su mayor parte autográfico, es en general
alográfico, debido a su naturaleza procesual; se genera en dos etapas272.

El universo, vasto y plural, del arte digital, convierte el proceso de


transcripción a un sistema de notación en una tarea forense. Sin embargo,
es una vía abierta a museos, fundaciones y entidades coleccionistas, hacia
una catalogación, documentación, exposición, preservación, conservación y
restauración (en definitiva… Restauración) adecuada que, en la medida en
que alcance la universalización (en términos de consenso por la comunidad),
facilitará la creación de redes de cooperación e intercambio, su
sistematización e inserción en el sistema educativo, etc. (en definitiva… la
estandarización).

El proceso de transcripción debe generar un modelo conceptual273 o


funcional que detalle, en el contexto del problema bajo estudio, los
materiales, energía y procesos de información más importantes que tienen
lugar entre los diferentes elementos del sistema y los estados internos que
puedan ser considerados independientes274. Este modelo debe reflejar la
dinámica del sistema en función de los datos como observa Rinehart “(…) el
dato (contenido) puede ser separado de los sistemas (software y hardware

271
García y Montero, The Challenges of Digital Art Preservation, op. cit., pp. 43-53. La
naturaleza activa del arte digital, en oposición a la pasiva del arte tradicional, está
relacionada con el consumo de energía para la epifanía de la imagen.

272
Goodman, op. cit., pp. 110-117. Goodman concluye que “las artes autográficas son
aquellas que en su primera etapa son singulares” y considera que “el arte parece ser
alográfico sólo en la medida en que es compatible con la notación”.

273
Rinehart, op. cit., p. 3. Según Rinehart “El desarrollo de un sistema notacional para media
art requiere del desarrollo de un modelo conceptual. El sistema de notación formal podría se
considerado como una expresión de este modelo y una partitura considerada como una
instancia específica de notación. Es importante observar que el modelo conceptual y el
format de expresión son diferentes entidades”.

274
Bagdasaryan, Armen G. System Theoretic Viewpoint on Modelling of Complex Systems:
Design, Synthesis, Simulation, and Control; http://arxiv.org/abs/0812.4523, [Consulta: 24-12-
2008].

152
Recreación

específico)”275. Esta relación “es una estrategia que parece reflejar el


concepto de partitura para el arte de los medios”276.

Recreación

Las estrategias de Restauración que propuso la iniciativa Variable Media


Network (analizadas en profundidad en el capítulo anterior) ampliamente
aceptadas y difundidas por la comunidad son:

Sustitución (normalmente conocida por Almacenamiento). Consiste en


acumular físicamente aquellas partes del bien susceptibles de reposición; se
basa en la redundancia.

Emulación. Permite la imitación del original en un medio completamente


diferente.

Migración. Implica la actualización de la estructura.

Reinterpretación. Estrategia más radical. Permite la redefinición de una


obra en un medio contemporáneo con el valor metafórico de un medio
obsoleto.

Ninguna de ellas carece de inconvenientes277 y, excepto la sustitución, no


aseguran la integridad perceptual de la imagen lo que puede dar lugar
incluso a la falsificación. La mayoría de los proyectos en curso trabajan en el
desarrollo e implementación de modelos de descripción, estándares de
metadatos278, definición terminológica para la interoperabilidad,
compatibilidad, etc. con una serie de recomendaciones de buenas prácticas.
Ejemplos de estas iniciativas son: The Documentation and Conservation of
the Media Arts Heritage, The Variable Media Network, Media Matters,
Inside Installations, etc.

275
Rinehart, op. cit., p. 5.

276
Ibíd., p. 6.

277
Wijers, loc. cit.

278
Rinehart, op. cit., p. 3.

153
CONSERVACIÓN EVOLUTIVA

Sin embargo, el concepto de virtualidad, subyacente en la prometedora


técnica de la emulación279, sugiere el planteamiento de una táctica que
preserve el aspecto a la vez que resista a la obsolescencia de la estructura: la
recreación. La recreación (vocablo que proviene del latín refectum y que
significa rehacer, reconstituir, restablecer) facilita un versionado evolutivo
que aísla estructura y aspecto, mantiene la eficiencia funcional del objeto a
la vez que preserva su valor simbólico para conseguir una Restauración
practicable donde no era posible. A3 es una adaptación de la Metodología
para Proyectos Transdisciplinares280 (MPT) que permite aplicar esta
estrategia. A3 aporta una superestructura metodológica que documenta,
diseña e implementa el objeto en función de sus elementos permanentes:
datos y procesos, sobre una infraestructura tecnológica resistente a la
obsolescencia funcionalmente versionable. En este capítulo se resume el
funcionamiento básico de A3; que es tratado en detalle en el Anexo A –
Metodologías con un ejemplo de producción que aplica la MPT. En el
capítulo IV – Caso de Estudio se aplica A3, en una práctica de Restauración
mediante la recreación, a la obra 6 TV Dé-coll/age de Wolf Vostell281.

El símbolo-sistema se desarticula en imagen y soporte, datos y procesos,


que funcionan como aspecto y estructura, respectivamente. La imagen que

279
La emulación desde el punto de vista funcional es una máquina virtual que abstrae el
comportamiento del soporte viejo en uno nuevo a nivel software. Generalmente un
programa capaz de correr otros programas simulando el comportamiento del hardware
antiguo. En Emulatronia: Juega con tu pasado, http://www.emulatronia.com, [Consulta: 22-
12-2010], por ejemplo, es posible encontrar emuladores de dispositivos antiguos como el
Commodore 16-Plus/4 o las máquinas de juego Arcade para muchas arquitecturas y sistemas
operativos “modernos”. Sin embargo la recreación es una maquinaria virtual que abstrae el
comportamiento del sistema completo: HW/SW.

280
García, Lino. Metodología para el Diseño y Desarrollo de Proyectos Transdisciplinares. V
Jornadas de Innovación Universitaria, Madrid: UEM, 2008. A3 es una adaptación de MPT. En
MPT la fase de implementación se organiza en proyectos académicos según técnicas de
aprendizaje basado en problemas con duración, roles, mecanismos de evaluación e
integración diseñados específicamente para el entorno universitario. Aunque muchas de
estas especificaciones son susceptibles y recomendables de aplicar en los nuevos equipos de
Restauración, A3 las considera completamente opcionales.

281
Se utilizan dos ejemplos (de producción y recreación) por la conexión de ambos procesos
en la Teoría de la Restauración del arte digital.

154
Recreación

produce el valor simbólico, estético debe permanecer inalterable, al menos


en términos perceptuales, mientras que la estructura, puramente funcional,
puede y debe (está obligada a) evolucionar. La recreación estudia el objeto-
símbolo para diseñar un objeto-sistema con una metodología adecuada, en
término de satisfacción de los requisitos esenciales, en el corpus axiomático
de la ingeniería de sistemas. Desde el punto de vista de la Restauración, sin
embargo, es muy deseable que cualquier objeto-sistema satisfaga dos
requisitos esenciales: la resistencia a la obsolescencia tecnológica y una
política de actualización o versionado funcional eficiente; lo que se puede
trasladar a unas buenas prácticas de producción y recreación.

La máquina virtual que reproduce la estructura original es, en la


emulación, generalmente un desarrollo software con cierta capacidad de
portabilidad dependiente del hardware. La infraestructura tecnológica es,
en la recreación, una maquinaria virtual HW/SW, basada en el paradigma de
los sistemas complejos, reemplazable evolutivamente. La superestructura
metodológica es una suerte de sistema de notación con todas las ventajas
que ello supone.

50. Ciclo de vida de la Recreación. La actualización puede ser programada o


improvisada; en caso de fallo o rotura, por ejemplo.

155
CONSERVACIÓN EVOLUTIVA

Las obras de arte digital, desde un punto de vista muy general, se pueden
considerar sistemas de integración muy complejos, donde intervienen
diversas tecnologías, producto de la intersección de áreas del conocimiento
muy diversas, y metodologías (con frecuencia métodos no estándares,
atípicos e improvisados). En cualquier caso, la obra en sí, independiente de
su proceso de producción, tiene una fuerte dependencia de tecnologías
(electrónica, informática, comunicaciones, robótica, etc.) y esta, a su vez,
una caducidad temporal prematura. El problema principal, y general, que
debe absorber/resolver un sistema de notación, en este contexto, es la
obsolescencia tecnológica282.

El sistema de notación propuesto, A3283, es una estrategia de recreación,


basada en la Metodología para el diseño y desarrollo de proyectos
transdisciplinares (MPT)284, que consta de dos capas: una infraestructura
tecnológica y una superestructura metodológica. La capa inferior
proporciona los componentes (hardware/software) y la forma de
interconexión entre ellos en un modelo basado en el paradigma de los
sistemas complejos (apoyado en estándares, sistemas de interconexión
abiertos y plataformas libres), resistente a la obsolescencia, mientras que la
capa superior proporciona una metodología (basada en tres fases) para la
recreación/desarrollo de un objeto-sistema.

La partitura es una herramienta de descomposición (análisis) y re-


composición (síntesis). En A3 el análisis es la operación que considera las
partes/componentes del todo (bien) y su interrelación mientras que la
síntesis reúne las partes/componentes del todo interconectado y las integra
como unidad. Como herramienta de análisis, A3 permite clasificar y estudiar
los fondos de arte digital sistemáticamente. La generación de partituras

282
Problema inherente a todas las áreas de ingeniería donde se aplican técnicas de solución
digitales por lo cual es, a su vez, un objetivo estratégico de aplicación en muchos ámbitos.

283
García, Lino. A3: Una metodología para el Arte Digital. I Foro de Creatividad e Innovación
Transversal, Madrid, Abril 2010.

284
cfr., Anexo A – Metodologías.

156
Recreación

visuales, desde el punto de vista de los sistemas complejos, se puede


considerar como un proceso de ingeniería inversa que codifica los procesos
de ejecución a partir del objeto. Como herramienta de síntesis, A3 permite
la recreación de una obra con otras tecnologías, o simplemente su
documentación y catalogación técnica para una Restauración adecuada.

Una obra de arte digital suele estar construida por muchas y variadas
tecnologías, efímeras por naturaleza; por lo que, para predisponerla al paso
del tiempo, es necesario adoptar una estrategia tecnológica que le permita
mutar. La siguiente figura ilustra gráficamente un bien como objeto-sistema.
Este enfoque centralizado, en el cual todas las entradas/salidas son
procesadas/generadas por un único sistema, ha sido y es el más frecuente.
Sin embargo no es apropiado para establecer un modelo general, universal,
que responda a la complejidad del arte digital donde la información del
estado y comportamiento del sistema generalmente es incompleta, existe
incertidumbre y múltiples propósitos, se desconocen las restricciones
impuestas en relación al sistema (controles, comportamiento, resultados
finales), la estructuración es débil, la dispersión es considerable, etc. Para
capturar toda esta complejidad es necesario desintegrar, a priori, este
monolito y modelarlo como un sistema complejo, intrínsecamente
distribuido. Un bien de arte digital, como objeto-sistema, es un sistema
complejo.

Un sistema complejo contiene un gran número de entidades autónomas


y heterogéneas (las partes constituyen bloques de construcción básicos:
componentes, agentes, procesos, etc.) en interacción. Cada elemento o
componente interactúa con el resto, directa o indirectamente, y estas
interacciones afectan a otros elementos dando lugar a patrones de
comportamiento del sistema global, difíciles de deducir, e inferir, incluso
emergentes, en función de la estructura y comportamiento de las partes
componentes.

157
CONSERVACIÓN EVOLUTIVA

51. Jim Campbell. Formula for Computer Art, 1996/2003. Disponible en:
http://www.jimcampbell.tv/, [Consulta: 8-10-2010]. Modelo de Jim Campbell
que ilustra gráficamente la relación símbolo-sistema: [obra digital]/[sistema que
consume, procesa y produce información].

A diferencia de, tan solo una década atrás, la mayoría de las aplicaciones
de ingeniería no solo producen sistemas predecibles, estables, controlables,
precisos, transparentes, eficientes y confiables que satisfacen determinadas
restricciones, estándares de prestaciones pre-especificados, en situaciones
pre-especificadas, sino que interactúan con otros muchos sistemas
geográficamente distribuidos, autónomos, independientes, tecnológica y
funcionalmente diferentes, dando lugar a sistemas complejos escalables,
flexibles, evolutivos, adaptables, elásticos, robustos, perdurables, seguros,
auto-monitorizables y auto-reparables; más útiles, cuanto más ricos en
comportamientos. Este es el paradigma fundamental de los sistemas
complejos: en entornos ricos en problemas, un sistema complejo, con un
repertorio rico en comportamientos, tiene mayor capacidad de descubrir
una variedad de soluciones potenciales.

158
Recreación

La desagregación, desde el punto de vista de los sistemas complejos, es


una pieza clave para un buen diseño (re-diseño) porque permite un enfoque
cuidadoso del sistema en término de sus partes o componentes e
interacciones entre sí. Aunque clásicamente este es un proceso arriba-
abajo, que se mueve lógicamente desde la funcionalidad deseada hacia un
diseño que la implemente, en el contexto de los sistemas complejos se
aplican más procesos del tipo abajo-arriba que buscan cómo implementar la
funcionalidad deseada con la base de diseños disponibles o, más apropiado
aún, aprovechando la propiedad de auto-organización de los sistemas
complejos de adaptarse a nuevos comportamientos de forma autónoma.

El sistema de notación A3 se basa en el paradigma de los sistemas


complejos. La infraestructura tecnológica se desarticula solo en dos
elementos: componentes (a3.cube), e interfaces de comunicación entre
componentes (a3.nexus) cuya interacción permite diseñar e implementar
sistemas modulares, escalables, flexibles capaces de reproducir
comportamientos complejos. La siguiente figura muestra un ejemplo de
representación del sistema de notación285.

Este esquema es una descomposición funcional independiente del


HW/SW. Es muy probable que algunos de estos a3.cubes compartan el
mismo hardware; pero es en la superestructura metodológica donde se
distribuyen los recursos. La edificación de esta infraestructura tecnológica
bajo las premisas del HW/SW libre y el uso de estándares/normas es una
estrategia hacia una mejor construcción/resistencia arquitectónica modular
y escalable. La funcionalidad del todo (sistema distribuido complejo), está
determinada por la interacción de los componentes.

285
La reprentación gráfica facilita una evaluación a primera vista de la complejidad del
sistema; sin embargo, es posible una representación idéntica textual en términos de
metadatos.

159
CONSERVACIÓN EVOLUTIVA

52. Infraestructura tecnológica de A3. Los círculos negros corresponden a los


a3.cubes o componentes, los grises a los terminales (fuentes/sumideros-
entrada/salida de datos al sistema, conexión con el exterior), mientras que los
a3.nexus están formados por el conjunto de círculos blancos y las flechas de
datos (correspondientes a la interfaz de comunicación y al canal de
comunicación entre componentes respectivamente). Izquierda. Diseño
distribuido. Derecha. El mismo diseño con la fórmula centralizada de Campbell.
Incluso en este ejemplo se puede ver la modularidad y escalabilidad de la
representación. Obsérvese que un componente, desde el punto de vista de A3,
puede abstraer el comportamiento de otros componentes y así sucesivamente a
diferentes escalas.

Cada componente, a3.cube, y esta es la clave fundamental, se considera


una «caja negra» de la cual se sabe qué hace pero no cómo lo hace,
reemplazable solo en la medida en que mantenga sus interfaces: a3.nexus.
Cada a3.cube es autónomo e independiente. Esto es importante porque
permite un desarrollo escalonado, e indirectamente la valoración
presupuesto/inversión necesaria, el desarrollo en paralelo de diversos
proyectos (que culmine con la integración total de todos los componentes),
la reutilización de los módulos, etc.

La información digital se procesa en los componentes a3.cubes en


término de servicios, en lugar de funciones, pero es la implementación de
sus interfaces, a3.nexus, quien proporciona la capacidad de interacción y
posibilita la construcción de sistemas distribuidos complejos. En una red de
a3.cubes cada componente realiza determinados servicios (adquiere,
procesa y genera información). Los componentes se interconectan/enlazan
con diferentes mecanismos de comunicación internos (tuberías, colas,
memoria compartida, sockets, etc.) y en distintas topologías de
interconexión externas (bus, anillo, árbol, punto a punto, malla, etc.);

160
Recreación

soporte con hilos o inalámbrico; redes puras, híbridas o mixtas (que


combinan diferentes protocolos). En cualquier caso, se recomienda el uso de
protocolos normalizados y la construcción de la interfaz a nivel de aplicación
(según el modelo OSI de la ISO286). Pero la funcionalidad global, el todo, se
consigue sincronizando/compartiendo/distribuyendo armónicamente todo
este entramado de información/servicios.

Cualquier a3.nexus está formado por tres elementos: interfaz, canal y


protocolo de comunicación y sirve para interconectar y transferir
información entre dos a3.cubes. Un a3.cube es una unidad independiente
de proceso formada por un complejo HW/SW.

Por interfaz de comunicación se entiende, generalmente, la abstracción


que una entidad provee al mundo; lo que separa los métodos de
comunicación al exterior con la operatividad interna de la entidad y, a su
vez, permite cambiarla sin afectar en absoluto la manera con la que otras
entidades interactúan con ésta. Las interfaces de usuario, por ejemplo,
permiten al hombre comunicarse con los ordenadores. Para buscar páginas
web mediante Google, basta escribir las palabras claves de lo que se quiere
indagar, pinchar sobre el botón “buscar” para dar la orden y esperar,
prácticamente nada, a que aparezcan las páginas de resultados. Google
cambia la implementación de su motor de búsqueda continuamente, añade
mejoras y refina los resultados, (solo es necesario observar los resultados
devueltos por el buscador para darse cuenta), sin embargo su interfaz sigue
siendo la misma, y abstrae al usuario del funcionamiento interno del
buscador (que además ni siquiera es de su interés).

El canal de comunicación es el medio de transmisión que utilizan dos


a3.cubes para comunicarse; el vínculo entre emisor y receptor. Cada canal
solo es adecuado para determinado tipo de señal. Por ejemplo, la señal
eléctrica se propaga bien por canales conductores como un par de cobre,
pero no ocurre lo mismo con las señales luminosas. Un canal está definido

286
Zimmermann, Hubert. OSI Reference Model–The ISO Model of Architecture for Open
Systems Interconnection. IEEE Transactions on Communications. 1980, Vol. 28, No. 4, pp.
425-432.
http://www.comsoc.org/livepubs/50_journals/pdf/RightsManagement_eid=136833.pdf; cfr.
Anexo B – Tecnologías.

161
CONSERVACIÓN EVOLUTIVA

desde el punto de vista telemático por sus propiedades físicas: naturaleza de


la señal que es capaz de transmitir, velocidad de transmisión, ancho de
banda, nivel de ruido que genera, modo de inserción de emisores y
receptores, etc. Para señales electromagnéticas se puede utilizar multitud
de canales dependiendo de la frecuencia de las señales transmitidas: cables,
el vacío (satélites), la propia atmósfera, etc. El canal puede, por lo tanto, ser
inalámbrico (Wi-Fi, Bluetooth, ZigBee, IrDA, etc.) o no (Ethernet, I2C, coaxial,
fibra, etc.); admitir diferentes topologías: desde la P2P (punto a punto) hasta
bus; de corto o amplio alcance; más o menos sensible al ruido (o a
determinados tipos de ruidos), etc.

Por último el protocolo de comunicación es el conjunto de reglas que


utilizan los ordenadores para comunicarse entre sí a través de una red. Un
protocolo es una convención o estándar que controla o permite la conexión,
comunicación, y transferencia de datos entre dos puntos finales. En su
forma más simple, un protocolo puede ser definido como las reglas que
dominan la sintaxis, semántica y sincronización de la comunicación. Los
protocolos pueden ser implementados por hardware, software, o una
combinación de ambos. El objetivo fundamental de cualquier protocolo es la
transmisión libre de error.

La interfaz a3.nexus provee un mecanismo de descubrimiento y


publicación de servicios (es una tecnología basada en servicios) y comunica a
los a3.cube a través de algún protocolo universal en la capa de aplicación del
modelo OSI. Los datos en a3.nexus se encapsulan en algún metalenguaje
como XML (Extensible Markup Language), desarrollado por el World Wide
Web Consortium (W3C), o LISP (List Processing Language). El sistema de
notación formal propuesto por Rinehart podría ser un ejemplo. Lo más
importante es definir las funciones básicas y universales a diferentes niveles
(generales, por ejemplo a nivel de toda la comunidad de museos,
instituciones patrimoniales, etc. y específicas para cada institución
particular) y dejar la posibilidad abierta de extensión a funciones nuevas o
específicas (exclusivas).

La infraestructura tecnológica no obliga al uso de tecnología alguna; solo


establece el «modo» de utilizarla. Esta filosofía de interconexión es
completamente independiente del objeto-símbolo. El artista es
absolutamente libre de desplegar estéticamente toda su creatividad. Esta
arquitectura en cambio, como objeto-sistema, ofrece un enfoque adecuado

162
Recreación

de Restauración, documentación, producción, etc. Los componentes pueden


incorporar, además, funciones administrativas que faciliten cada montaje e
instalación y su eficacia durante todo el tiempo de exposición (la detección y
recuperación-restauración de errores automáticamente, por ejemplo).

En la infraestructura tecnológica que provee A3 confluyen muchas áreas


distintas de conocimiento dispersas287: cibernética, inteligencia artificial,
realidad virtual, realidad aumentada, computación ubicua, electrónica,
robótica, redes, Internet, programación, hacking, vida artificial, modelado y
animación 2D y 3D, videojuegos, co-diseño HW/SW, prototipado, mecánica,
control automático, etc. incluso aparentemente inconexas, que deben
afrontarse desde un espíritu transdisciplinar. La estructura modular (al estilo
de puzles que conectan entre sí) proporciona un alto nivel de reusabilidad.

La superestructura metodológica se divide en tres fases consecutivas:


modelo, diseño e implementación, cada una de las cuales aporta
información determinante para valorar la viabilidad de
(producción/Restauración) del proyecto.

Modelo. Se puede asumir que un objeto (en el contexto arte, ciencia,


tecnología y comunicación) es un sistema complejo que consume, procesa y
produce información (probablemente de naturaleza audiovisual) cuyo límite
queda establecido por las fuentes y sumideros de la información (intérprete
de entrada y controlador de salida, respectivamente, en la Fórmula de
Campbell) (ver figura 51). El primer paso de esta metodología es la creación
de un modelo funcional/lógico del objeto-sistema en función de la
información (como el ejemplo de la figura 53) en términos única y
exclusivamente de la información y los procesos de transformación
relacionados. Obsérvese que esta información no es perecedera.

287
Los esfuerzos de inserción de estas enseñanzas como un todo coherente son tímidos y
escasos. Un ejemplo de pproyecto fructífero en este sentido es el Grado en Arte Electrónico y
Digital de la Universidad Europea de Madrid, aprobado por la ANECA en 2010. Disponible en:
http://www.uem.es/titulacion/grado-en-arte-electronico-y-digital-comunicacion, [Consulta:
12-10-2010].

163
CONSERVACIÓN EVOLUTIVA

Una técnica de construcción de modelos que resulta apropiada para la


especificación de requisitos (definición de datos, procesos y, con alguna
alteración, dominios), es la técnica de análisis estructurado, de burbujas o
de Tom DeMarco (con ampliaciones para tiempo real de Ward y Mellor,
Hartley y Pirbhai)288. El análisis estructurado permite formular el problema
en términos de flujos de datos y las transiciones de estado del sistema,
representados en diagramas de transición de estados. Es posible considerar
otras metodologías de representación orientadas a objetos como el
Lenguaje Unificado de Modelado (UML). UML es un lenguaje de modelado
gráfico para visualizar, especificar, construir y documentar un sistema en
términos de sus métodos o procesos; ofrece un estándar para describir un
“plano” del sistema (modelo), incluyendo aspectos conceptuales tales como
procesos de negocio y funciones del sistema, y aspectos concretos como
expresiones de lenguajes de programación, esquemas de bases de datos y
componentes reutilizables. Se utiliza para definir y detallar los artefactos en
el sistema y para documentar y construir. En otras palabras, es el lenguaje
en el que está descrito el modelo. Sin embargo en un interés expreso de
liberar la representación de los procesos de cualquier lenguaje en esta
investigación se optó por la especificación gráfica descrita.

Los conceptos que utiliza la notación gráfica son básicos: Un dato es una
entidad abstracta que porta información. Un tipo especial de datos es el de
control, también denominado “suceso”, porque se genera bajo ciertas
condiciones. Cualquier dato puede ser continuo o discreto en relación a la
manera en que cambia su valor o de entrada o salida en relación a un
proceso. Los procesos modifican los datos o sucesos (en el caso de un
proceso de control): consumen una cantidad de datos de entrada y
producen una cantidad de datos a la salida. Las unidades externas
establecen los límites del sistema, son las interfaces del sistema con el
exterior (lo que no se va a modelar) y pueden ser de entrada o salida. Los
almacenes o contenedores guardan datos, que pueden ser también de
control y ser utilizados por uno o más procesos. Los transductores delimitan
los dominios continuo y discreto del sistema a modelar. El dominio está
relacionado con la naturaleza analógica ó digital de los datos. La
especificación de control establece las condiciones en que se activan los

288
Pressman, Roger S. Ingeniería del software. Un enfoque práctico. Madrid: McGraw-Hill,
2002.

164
Recreación

procesos (por ejemplo, una máquina de estados. Un estado es cualquier


modo de comportamiento observable)289.

Cada proceso se representa como una burbuja y cada flujo de datos con
una flecha. El primer paso es la definición de la burbuja principal o de nivel
cero como un único proceso o transformación desde/hacia entidades
externas. La clave está en representar la información que entra y la que
produce la transformación. El segundo paso es un proceso de refinamiento
de cada una de las burbujas en distintos niveles que representen un mayor
flujo de información y un mayor detalle funcional y que concluye cuando no
es posible subdividir más una burbuja. Cada burbuja recibe un nombre y un
identificador único.

53. Diagrama de flujo de datos (DFD) multinivel.

289
Todos los detalles de la representación gráfica y de la metodología, en general, están
disponibles en el Anexo A – Metodologías.

165
CONSERVACIÓN EVOLUTIVA

Cada nivel puede contener las burbujas que se considere necesarias. En


el diagrama de nivel 1 cada uno de los procesos es una subfunción del
sistema general del diagrama de contexto. Los flujos de datos también se
deben etiquetar y mantener su consistencia (no pueden cambiar de nombre
y deben ser únicos). Solo pueden aparecer como flujos de datos de entrada
y salida en un diagrama, los flujos de datos que entran y salen a la burbuja
del diagrama del nivel superior. Obsérvese que el empleo de esta técnica
permite particionar problemas de gran tamaño de manera efectiva
(funcionalmente), simple (gráficos) y consistente (sin lugar a equívocos e
interpretaciones).

Diseño. La primera fase define el qué del sistema (qué hace, qué es), sin
tener en cuenta el cómo. Esta segunda fase se puede entender como el
planteamiento de la implementación distribuida del sistema modelado. Es
aquí realmente donde un objeto-símbolo se convierte en un objeto-sistema
y «conservación y restauración» en «mantenimiento y reparación». En esta
fase se define la implementación del sistema en base a determinados
recursos HW/SW contenedores de entidades a3.cubes, a3.nexus y es aquí
donde resulta apropiado emplear técnicas de computación híbrida o, lo que
es lo mismo, de co-diseño HW/SW.

Servicio

Servicio

Servicio

54. Descripción algorítmica, asignación de a3.cubes, diseño de a3.nexus.

166
Recreación

La figura anterior ilustra un procedimiento de generación de servicios. Un


servicio es una función sin estado, auto-contenida, que acepta una(s)
llamada(s) y devuelve una(s) respuesta(s). Los servicios no dependen del
estado de otras funciones o procesos. La tecnología concreta utilizada para
prestar el servicio no es parte de esta definición. Desde este punto de vista
los procesos están más próximos a un componente mientras que los
servicios pueden ser proveídos por la colaboración de diversos
componentes y dependen de una gran cantidad de procesos. A partir del
modelo (como el de la figura 53) se realiza una descripción algorítmica de
los procesos (no es obligatorio pero sí recomendable hacerlo a nivel de
burbujas indivisibles) y, a continuación, de manera más sencilla, se
reparte/divide en servicios. La descripción algorítmica es independiente del
complejo HW/SW, lenguajes de programación o soportes pero susceptible
de determinada transcodificación, incluso híbrida. De la descripción
algorítmica (ya sea gráfica o descriptiva) se podría generar el HW/SW
específico y óptimo. Diseñar la implementación del sistema modelado es
equivalente a definir el número de entidades a3.cubes necesarias para
satisfacer estos servicios, sus funciones y sus respectivas interfaces de
publicación a3.nexus. Con esta tecnología cualquier objeto original,
probablemente un producto multidisciplinar, es susceptible de
descomposición/formación en un determinado número de componentes
a3.cubes que, como piezas de LEGO, encajan, a través de sus
correspondientes a3.nexus, hasta conseguir determinada funcionalidad. Un
a3.cube debe satisfacer al menos un servicio (de los representados) y se
diseña fundamentalmente en base a dos criterios: funcionalidad y
capacidad. Obsérvese que es posible formar componentes a3.cubes más
complejos a partir de la unión de diversos a3.cubes.

Las ventajas de esta tecnología son múltiples: planteamiento distribuido


del sistema (mayor robustez, optimización de los recursos, aislamiento
funcional, etc.), interfaces universales (cada módulo exporta, en un lenguaje
común, cuáles son los servicios que dispensa y el protocolo para su uso). Es
precisamente el uso de estas tecnologías lo que imprime un carácter
modular y escalable. Modular porque cada componente (entendido como
módulo) oculta el “cómo lo hace” y aporta el “cómo interacciona” lo que
hace posible su fácil reutilización, sustitución y reciclaje y los módulos
comparten relativamente poca información. Escalable porque cada entidad
es un subsistema que interactúa con otras entidades para formar
subsistemas más complejos capaces de realizar metafunciones y de
interactuar con otros.

167
CONSERVACIÓN EVOLUTIVA

55. Ejemplo de distribución del sistema en cuatro plataformas HW/SW; cada una
representada por un color diferente. La roja y verde contienen dos a3.cubes,
mientras que la azul y amarilla uno solo. La comunicación, a3.nexus, entre los
a3.cubes que comparten la misma plataforma (rojo, verde) es virtual y se realiza
vía software, mientras que a3.nexus que enlazan plataformas diferentes
requieren de un enlace de comunicación físico.

La clave de esta economía la aporta el empleo de a3.nexus. El trabajo


coordinado de componentes a3.cubes/a3.nexus, garantiza la distribución:
desde el punto de vista de complejidad, funcionalidad, seguridad, etc. y esto
es precisamente distintivo respecto a otras tecnologías.

Un sistema computacional complejo, compuesto por varios a3.cubes, se


puede considerar como una única entidad que ofrece un mayor número de
servicios. La definición de los a3.cubes, en este caso, depende, tanto del
proyecto en sí, como de la capacidad de reutilización deseada. Por lo
general, la capacidad de reutilización disminuye cuanta más funcionalidad
ofrece un solo a3.cube, pero también es cierto que, a3.cubes que ofrezcan
muy poca funcionalidad y de muy bajo nivel, estarán altamente acoplados a
otros a3.cubes.

La figura anterior ilustra un ejemplo de notación. El sistema de cómputo


centralizado de la Fórmula de Campbell se transforma en un sistema
complejo formado por cuatro subsistemas de cómputo, dos intérpretes de
entrada y uno de salida que interactúan entre sí para conseguir
determinado comportamiento.

168
Recreación

Implementación. En esta fase (mecanismo de síntesis que provee la


metodología) se planifica el desarrollo de cada componente y su interfaz:
co-diseño hardware/software adecuado para satisfacer los servicios de cada
a3.cube, definición/implementación de cada a3.nexus, e integración del
sistema. Es aquí donde se «materializa» el objeto-sistema.

La implementación es una fase transdisciplinar susceptible de paralelizar.


La metodología para el diseño y desarrollo de proyectos transdisciplinares
(MPT) en la que se basa A3, inserta la implementación en procesos
educativos transdisciplinares mediante, por ejemplo, técnicas de
aprendizaje cooperativo basado en proyectos (ABP) 290. Estas técnicas están
diseñadas según cuatro pilares: aprender a conocer, aprender a hacer,
aprender a vivir juntos y aprender a ser; para que los desarrolladores
puedan desarrollar proyectos en grupo; aprendiendo según avanzan; con un
conocimiento incompleto del problema; para integrar conocimientos y
habilidades de diferentes áreas y resultan idóneas para el desarrollo de
proyectos transdisciplinares (naturales en el ámbito del arte digital) pero
aunque MPT se diseñó expresamente para insertarla en el entorno
académico no es particular ni exclusiva a éste. Cada proyecto se puede
desarrollar y evaluar independientemente y sincronizar e integrar con el
resto para conformar el todo.

La elección de las herramientas HW/SW, incluídas las de comunicación,


influyen en la vida útil de cada componente; sin embargo, cualquier
componente, y este es uno de los pilares de la recreación, es susceptible de
sustitución sin afectar el comportamiento global del sistema. Es muy
importante proveer servicios genéricos de administración/mantenimiento
que faciliten la labor de Restauración como validación/verificación del
componente (en término de sus partes), registro/rastreo de errores,
obtención de estadísticas de fiabilidad/[tasa de fallos], sincronización,
medición de la calidad de servicio, vigilancia del funcionamiento en tiempo
real (tiempo máximo/promedio de respuesta, tiempo de ocio, etc.). A un
nivel de abstracción más alto es posible dotar a cada componente de
mecanismos de reorganización y adaptación que permitan evolucionar a la

290
García González, María N. Metodología de aprendizaje activo para la comunicación:
técnicas para el conocimiento a través de la resolución de problemas (PBL). Madrid: Editorial
Fragua, 2007.

169
CONSERVACIÓN EVOLUTIVA

obra (añadir/redefinir funcionalidades, aumentar la complejidad, adquirir


conocimiento, etc.).

Conclusiones

La recreación introduce ruido pero éste es irrelevante si no se convierte en


índice291; si es perceptualmente insignificante y esto es lo que le distingue
fundamentalmente del resto de estrategias en cuanto preserva la identidad
perceptual y, por lo tanto, simbólica; permite una intervención funcional
progresiva; actúa sobre el objeto-sistema para preservar el objeto-símbolo.
Cada componente (a3.cube) es reemplazable, independientemente, siempre
que se respeten sus interfaces (a3.nexus) ya sea por mal funcionamiento,
fallo o necesidad de adaptación a nuevas tecnologías. La conservación de
bienes activos solo puede ser evolutiva. Solo se puede garantizar la
permanencia a través del cambio.

En general, A3 proporciona una metodología transdisciplinar basada en


el paradigma de los sistemas complejos que permite abordar cualquier
objeto, por complejo que sea; descomponerlo funcionalmente según los
datos (sin fecha de caducidad); documentarlo de manera sistemática (con
un sistema de notación gráfico que absorbe las relaciones, procesos y
servicios); prepararlo (en un formato universal) para su conservación; emitir
una valoración cuantitativa (en términos de presupuesto; lo que puede
ofrecer ayudar a decidir, incluso, la viabilidad de su conservación); plantear
su desarrollo (Restauración íntegra o por partes) en un conjunto de
subproyectos en paralelo (facilitando la colaboración institucional);
sincronizar e integrar el desarrollo de los subproyectos en la consecución del
objeto. Tales desarrollos podrían generar una base de datos o colecciones
de entidades a3.cubes a3.nexus que, debido a la reusabilidad, facilite
enormemente vías de abordar nuevos proyectos de Restauración (su propia
naturaleza modular, escalable y universal, puede favorecer su adopción en
un estándar, de facto, de interconexión e integración abierto), etc.

291
Peirce, Charles S. Logic as Semiotic: The Theory of Sign, en Buchler, Justus (Ed).
Philosophical Writings of Peirce. New York: Dover, 1955. Según Peirce “cualquier cosa que
atraiga la atención es un índice”.

170
Conclusiones

El mejor escenario para la Restauración requiere de un modelo


exhaustivo y completo, un diseño distruibuido robusto y flexible y una
herramienta de implementación «automática» capaz de generar el objeto-
sistema abstracto según la(s) combinación(es) elegida(s). Esta
«implementación asistida» permitiría actualizar las «cajas negras»
(componentes) que se requieran, en el momento oportuno, con solo
«configurar» correctamente los elementos tecnológicos que sirven de
materia prima: hardware, software, sistema, información, comunicación.

La conservación evolutiva es un mecanismo de adaptación artificial al


entorno a largo plazo que absorbe la mutación temporal de la obra292. Basa
“la permanencia en el cambio” pero con una estrategia, la recreación293, de
evolución del soporte que funciona como estructura sin alterar la imagen del
bien que funciona como aspecto útil, fundamentalmente, para bienes
sensibles a la obsolescencia tecnológica. Esto concepto traspasa las
fronteras del arte digital al arte contemporáneo.

Una instalación de Flavin, sin la estrategia de sustitución es imposible de


conservar; pero incluso la propia sustitución puede plantear la paradoja de
Teseo. ¿Si se cambian todas las lámparas seguirá siendo la misma
instalación? La reinterpretación, otra altenativa posible, está obligada a
utilizar tubos de distintas dimensiones a las originales y diferentes
propiedades lumínicas. Sin embargo, la recreación podría intervenir un tubo
original con tecnología actual pero emulando su comportamiento original; la
tecnología ha madurado lo suficiente para ello. Téngase en cuenta que la
mínima anomalía de una lámpara exige el cambio de todas para garantizar
un nivel de luminosidad uniforme.

La lectura hermenéutica de las teorías clásicas de Restauración debe


ceder a una exégesis desprejuiciada. La multidimensionalidad del arte
condiciona las actividades relacionadas con la transmisión al futuro del bien

292
Si en el aislamiento y la congelación la dimensión temporal tiende a cero en la recreación
tiende a infinito.

293
García, Lino. Recreación: Una estrategia de conservación evolutiva. ARTE
CONTEMPORÁNEO EN (sala de) GUARDIA, Jornadas sobre investigación y nuevas prácticas en
la conservación de obras de arte contemporáneo. Buenos Aires, Septiembre 2010.

171
CONSERVACIÓN EVOLUTIVA

(durabilidad) ya sea a corto o largo plazo. El propio concepto fuerza a


minimizar la acción involuntaria de la cuarta dimensión a pesar de los
efectos colaterales de su introducción voluntaria (temporalidad). La solución
a esta tensión, hacia el fin-hacia el principio, se traduce en decisiones294
interdisciplinares. La cuestión, como propone Baer es:

no podemos comernos nuestro pastel cultural y guardarlo al mismo


tiempo. Es solo una cuestión de comerlo ahora o después295.

294
Muñoz, Teoría de la Restauración Contemporánea, op. cit., p. 178. “*La teoría
contemporánea de la Restauración] No alienta más revolución que la que es comúnmente
sentida: La revolución del sentido común”.

295
Bar, Norbert S. Does conservation have value? en Burchensen, K. (Ed). 25 Years School of
Conservation: The Jubilee Symposium Preprints, Copenhagen, 1998, pp. 15-19. cit. en Muñoz,
Teoría contemporánea de la Restauración, p. 171.

172
CASO DE ESTUDIO

No ves que espero resucitar


mientras miras esos ojos de videotape

Charly García

El videoarte es el medio por defecto del arte contemporáneo296 y, en


consecuencia, su Restauración es, sin duda, la que mayor atención ha
recibido297. No así la videoinstalación que, pese a que comparten el mismo
medio, la estructura escultórica forma parte de la imagen. Ambas prácticas
dependen de los desarrollos técnicos audiovisuales como ninguna otra a
causa del formato (correspondientemente el medio) y la máquina (y todos
los procesos asociados capaces de «leer» el formato) que alberga los datos
y procesos, respectivamente y que funciona como estructura. Ambos,
formato y máquina, son obsolescentes por naturaleza.

La imagen siempre contiene un elemento virtual, intangible, inmaterial y


la estructura, en gran parte analógica, debe «sobrevivir» en una «era
digital». La percepción de la parte inmaterial de la imagen es subjetiva por

296
Foster, Hal. Round Table. The Projected Image in Contemporary Art. October. The MIT
Press Journal. 2003, No. 104, p. 93.

297
Laurenson, Pip. The Conservation and Documentation of Video Art en Modern Art: Who
Cares? Eds. Ysbrand Hummelen and Dionne Sillé (Amsterdam: Foundation for the
Conservation of Modern Art and the Netherlands Institute for Cultural Heritage, 1999), p.
264. La Tate Gallery de Londres ha desarrollado protocolos de conservación que han
adoptado la mayoría de las instituciones de la red de europea de museos. Otros referencias:
Hocking, Sherry Miller. The Tapes Are Disappearing: Video Preservation, Video Pioneers,
Video History. Squealer 13 (spring/summer 2002) y Real, William. Toward Guidelines for
Practice in the Preservation and Documentation of Technology-based Installation Art. Journal
of the American Institute for Conservation. 2001, 40, p. 214. La Bay Area Video Coalition
(BAVC) publicó el DVD interactivo Playback: Preserving Analog Video (San Francisco, 2003),
una guía práctica para curadores y conservadores.

173
CASO DE ESTUDIO

naturaleza; sin embargo, su conservación tiene un componente objetivo


ineludible y poco explorado. El caso de estudio de la obra 6 TV Dé-coll/age,
de Wolf Vostell, permite investigar y poner en práctica la estrategia de
conservación evolutiva: recreación.

Videotecnología

La conservación y restauración del videoarte es, sin duda, la más prolífera y


difundida respecto a la del resto del arte mediático; hecho que ofrece una
excelente oportunidad para contrastar la estrategia aplicada con otras
prácticas de Restauración. El vídeo depende de los desarrollos técnicos
audiovisuales como ningún otro medio artístico298, por lo tanto, cualquier
estrategia de conservación debe debilitar esta ligazón tecnología-
percepción. El videoarte, como «objeto» patrimonial, tiene una
peculiaridad: solo el soporte es materia. La estructura está compuesta
únicamente por datos (ordenados según determinado formato) y procesos,
imbuidos en la máquina de visualización, y un soporte que actúa como
contenedor o medio (componente físico) de los datos; la imagen es
inmaterial. No así la videoinstalación que, pese a que comparten el mismo
medio, tiene el añadido estructural escultórico. La máquina forma parte de
la imagen299. Las obras de videoarte y videoinstalación a las que se refiere
este capítulo son estáticas (aún cuando están basadas en el tiempo) en
cuanto no sea alteran en respuesta a determinada interacción o a su
entorno.

La fuerte dependencia del vídeo, como medio, con la tecnología, se debe


a dos factores fundamentalmente. El primero es el formato de la
información (datos). Las señales de vídeo normalmente se «almacenan» en

298
Martin, Sylvia. Videoarte, Taschen GmbH, 2006, p. 10.

299
La máquina de visualización está compuesta por un conjunto de televisores, monitores o
proyectores; dispositivos de grabación y reproducción; de captura de imágenes (webscams,
cámaras de videovigilancia, etc.); de difusión, edición, postproducción, etc.; todos ellos
altamente sensibles a la obsolescencia tecnológica. Es necesario apuntar que la imagen,
desde el punto de vista conceptual, no es solo visual y representa igualmente al sonido. La
imagen se puede definir como el vehículo de conexión sensorial de la obra con el espectador.

174
Videotecnología

un medio después de pasar algún proceso de codificación300. Lo segundo es


la máquina diseñada para decodificar ese formato. Ambos, formato y
máquina, son inestables y caprichosos301. Los formatos suelen incluir un
proceso más al de codificación de la señal de vídeo: la compresión, que
reduce la dinámica de la señal (normalmente con pérdidas siguiendo un
modelo perceptual) para abaratar costes de producción y distribución del
material audiovisual302. Por ejemplo el vídeo analógico monocanal se graba
en una cinta magnética mediante un videograbador para ser reproducido en
un reproductor y visualizado en un televisor que responda a la misma
tecnología; como puede ser VHS/PAL.

Desde el punto de vista de formato la migración puede ser la estrategia


“ideal” de conservación: el video o película se almacena en un formato
“universal” que posibilita la exportación al formato “requerido” (según la
disponibilidad). Tal universalidad se justifica por un proceso de codificación-
decodificación óptimo a la migración y la ausencia de cualquier tipo de
compresión-descompresión con pérdidas. Pero en el dominio analógico

300
La codificación es imprescindible para adecuar la señal al soporte de grabación. El vídeo se
compone de una secuencia de tramas que registran un campo magnético proporcional a las
variaciones de la intensidad de la luz (el color es un caso particular en el cual se descompone
la intensidad de la luz según sus colores primarios: rojo, verde y azul y se graban
independientemente). Es necesario conocer dónde empieza cada trama, cuántas líneas
horizontales tiene, dónde acaba, etc. lo que, debe corresponder con determinado sistema de
televisión: NTSC, PAL, SECAM, etc.

301
Hemos sido testigo de un desfile de formatos que no precisamente siguen una línea
técnica ascendente. VHS se impuso como formato de distribución de video frente al Betamax
a pesar de su inferior calidad. La última guerra del formato de reproducción de películas en
alta definición Blu-Ray de Sony contra el HD-DVD de Toshiba dividió a la industria del
entretenimiento y evidenció el papel de estas fuerzas telúricas en el “progreso” tecnológico.
Entre el HD-DVD y el Blu-ray no hay ninguna diferencia de calidad; simplemente se impuso un
criterio entre comercial e industrial por el apoyo al Blu-ray de un mayor número de estudios y
fabricantes.

302
Cualquier proceso de compresión requiere el proceso complementario de descompresión
al igual que la codificación/decodificación. La implementación habitual del proceso de
compresión-descompresión es mediante codecs. Estos pueden ser hardware, software o una
mezcla de ambos, actualizables o no, propietarios o libres, y normalmente forman parte de la
máquina de visualización.

175
CASO DE ESTUDIO

cualquier copia implica intrínsecamente una pérdida de información y, por


lo tanto, de calidad de la imagen303.

El “problema” de las máquinas es mucho más difícil de resolver porque


no es posible conservar equipamiento óptimo suficiente para el momento
en que se requiera. La solución más popular consiste en migrar
periódicamente al formato tecnológico “en curso”. Esto presupone que la
calidad del formato destino debe ser siempre mayor que la del formato
fuente y que no habrá pérdida perceptual en la calidad de la imagen304.

El mundo analógico, sin embargo, desaparece con fecha de caducidad


muy próxima (desde el 1 de enero de 2010 no existe en España televisión
analógica; la extinción programada de las tecnologías de adquisición, edición
y postproducción de vídeo analógico se acelera con el paso del tiempo) y
con ello se extinguen obras, se acelera la obsolescencia de otras e incluso de
las colecciones más emblemáticas.

“En ausencia de una intención constatada del artista, impera errar hacia
la permanencia” escribe Coddington305. Las instituciones están obligadas a
hacer cualquier esfuerzo para preservar las obras efímeras. ¿Qué hacer
entonces cuando no sea posible reemplazar un tubo de rayos catódicos
(CRT, Cathode Ray Tube), cuando no exista ni siquiera en anticuarios
determinado modelo de televisor o monitor, cuando se acerque el tiempo
de vencimiento de una pieza y no haya repuesto? ¿Qué hacer con las obras
que se alimentan de la televisión analógica? En definitiva, ¿qué hacer
respecto a la “obsolescencia planificada”?306

303
Los formatos analógicos más comunes son el VHS, U-MATIC y Beta SP.

304
Solo desde un formato fuente sin codificación con pérdidas es posible preservar la calidad
perceptual de la imagen.

305
Coddington, James. The Case against Amnesia, in Mortality Immortality? en Corzo, Miguel
(Ed). The legacy of 20th-century art. Los Angeles: Getty Conservation Institute, 1999, pp. 19-
26.

306
Marchan, Simón. Del Arte Objetual al Arte de Concepto. Madrid: Akal, 1986, p. 14.

176
Videotecnología

56. Nam June Paik. V-yramid, 1982.

177
CASO DE ESTUDIO

ASPECTO
IMAGEN

ESTRUCTURA DATOS PROCESOS

SOPORTE X

COMPRESIÓN

CODIFICACIÓN

57. “Objeto” de restauración para videoarte y videoinstalación. Solo el soporte,


que constituye el medio (máquina, formato), y el conjunto escultórico de la
imagen (en la videoinstalación) es materia. La conversión del vídeo en datos y
viceversa se realiza por procesos estáticos, sobre los que generalmente, se tiene
poco control como son la compresión y codificación. El proceso dinámico X es
independiente del medio.

La figura anterior representa las particularidades del modelo conceptual


del videoarte y la videoinstalación como “objeto” de Restauración. El
soporte se relaciona comúnmente con el medio y con la máquina (el
equipamiento de visualización); es materia y, por lo tanto, objeto de
conservación tradicional. El bloque procesual, intangible,
compresión/descompresión-codificación/descodificación es funcionalmente
estático y fuertemente dependiente de la máquina de visualización. El
proceso X es opcional y sirve para “ecualizar” los desajustes del sistema:
corrección de la imagen, compensación de la calibración, etc.

Afortunadamente, durante la tercera revolución industrial se desarrolló


el corpus teórico y tecnológico que hace posible representar la información
analógica en digital sin pérdida de información. Este hecho colocó a la
migración como la estrategia ideal de conservación al permitir la
transcodificación de obras y colecciones al nuevo dominio digital
preservando su esencia aspectual: la percepción de la imagen307. La

307
Por esa razón la Tate Gallery realiza una copia digital de cada obra que adquiere a su
colección. Material que es posible replicar o clonar infinitamente. Algunos museos incluso

178
Videotecnología

importancia trasciende la conservación y restauración de las obras de


videoarte y videoinstalaciones a su exposición, documentación y modo de
producción. Ambas manifestaciones, videoarte y videoinstalación, que en el
mundo analógico nacieron y se desarrollaron en el ámbito del arte de los
medios son ahora parte del patrimonio digital, son nuevos medios308.

Para el videoarte solo es importante la imagen que funciona como


aspecto; el soporte, que funciona como estructura, ajeno al medio, es
accesorio. Parece irrelevante la máquina: el monitor, proyector o sistema de
reproducción a utilizar. Para la videoinstalación, sin embargo, el soporte (o
parte de él) es parte de la imagen. Para ambos, existe una serie de factores
externos relacionados entre sí que influyen en el aspecto de la obra y deben
ser tenidos en cuenta como parte del mecanismo de documentación y
Restauración: el equipamiento, el entorno, la percepción de la imagen y el
sonido, etc.

Cada obra presenta un problema diferente para el “conservador”309.


Como bien cultural o patrimonial que es exige una suerte de investigación
forense. Solo la evaluación objetiva, medible, cuantificable, de todos los
factores (siempre que sea posible) evitará ambigüedades e interpretaciones
subjetivas. Sin embargo en el caso concreto de estas dos prácticas: videoarte
y videoinstalaciones, dada la gran cantidad de aspectos tecnológicos que
comparten, es posible reutilizar procesos y conclusiones de unas
intervenciones en otras generando conocimiento que pueda llegar a formar
un corpus sistémico.

compran una copia y dejan en manos del artista la responsabilidad de conservar el original o
copia maestra.

308
Manovich, op. cit, p. 72.

309
Romano, Gustavo. 10 preguntas abiertas sobre conservación de arte electrónico.
Seminario Conservación del Arte Electrónico ¿Qué preservar y cómo preservarlo? Espacio
Fundación Telefónica. Buenos Aires, Abril 2008, p. 2.

179
CASO DE ESTUDIO

La conservación del medio requiere la migración al dominio digital y es una


ya una práctica habitual y consensuada en la red de museos. El soporte
digital como medio tiende cada vez a ser más inmaterial. Es mucho más
barato y seguro guardar datos (como la información codificada de un vídeo)
y procesos en servidores de datos distribuidos por el mundo (al menos en
una red de museos global) que en costosos y enormes almacenes con todas
las variables que afectan la obsolescencia controlada: temperatura,
humedad, etc.

Los datos se deben «conservar» conjuntamente con su formato (en


forma de metadatos) y sin ningún tipo de transformación. La digitalización
es un protocolo bien documentado. Los procesos se deben conservar desde
el nivel más alto de abstracción (para facilitar su actualización a otra
tecnologías) hasta el más básico (el que funciona con la tecnología “actual”).

Aún cuando la imagen esté contenida en el formato “ideal” (en términos de


compresión-codificación) solo una correcta calibración de la máquina de
visualización puede certificar el aspecto que desea el artista310. Sin embargo
este procedimiento solo es útil si la obra ha sido creada en un entorno
correctamente calibrado lo cual es responsabilidad del artista. En cualquier
caso es posible incluir, en la máquina de visualización, un proceso X que
corrija tal desajuste pero es un trabajo que debe ser certificado por el
artista311. El proceso inmaterial que resulta es entonces parte del objeto de
conservación.

310
En más de una ocasión el artista al ver su obra expuesta no la reconoce. La disconformidad
se debe al cambio de apreciación. En Villaescuerna, op. cit., p. 121, se plantea la necesidad de
documentar “los requerimientos de la obra para su montaje o exhibición: dimensiones,
descripción y calidad del espacio, tamaño de la pantalla, distancia de proyección, resolución,
compresión… de la imagen, tipo de sonido, etc.”.

311
Si se dispone de una imagen de referencia con la conformidad del artista la
transformación de corrección de la calibración (proceso X) se puede hacer de manera
adaptativa, en caso contrario se deberá seguir un proceso de prueba y error guiado por la
aceptación perceptual del artista o un procedimiento objetivo de calibración “tradicional”.

180
Videotecnología

El equipamiento es el elemento más sensible a la obsolescencia y salvo


en aquellos casos que no funcionen como elemento escultural, no forme
parte de la imagen que funciona como aspecto o creación audiovisual, no
tenga un peso estético, o sea expresamente indicado por el artista, no
deberá ser objeto de conservación. Es la idea, en la mayoría de las
ocasiones, lo único que se debe preservar312.

Aunque las videoinstalaciones, entendidas como instalaciones de


imágenes en movimiento estables, se desarrollaron desde los 1980s y en
particular durante los 1990s, ya desde 1960s y 1970s tuvo lugar una
redefinición radical del arte que reemplazó los objetos discretos por una
manera de hacer arte efímera, basada en procesos que permitió el
desarrollo del videoarte313. Aquellas primeras obras electrónicas, analógicas,
se exponen desde entonces sin que, probablemente, nadie recuerde cuál
fue su aspecto inicial. Las horas de exposición de los CRTs y el desgaste de
toda la circuitería electrónica, en general, habrán influido de manera
notable. En realidad lo que se está conservando no es, desde este punto de
vista, el “original” y, si no imposible, es muy difícil conseguir, mediante un
proceso de Restauración, las condiciones iniciales de la obra.

312
Côté, Michel. De la obra maestra al objeto: sacralización y desacralización en el Museo.
Museum Internacional 218 UNESCO, París, 2003.

313
Iles, Chrissie y Huldisch, Henriette. Keeing Time: On Collecting Film and Video Art in the
Museum, en Altshuler, Bruce (Ed). Museums and Contemporary Art: Collecting the New. New
Jersey: Princeton Univeersity Press, 2005, pp. 65-83.

181
CASO DE ESTUDIO

58. Televisor comercial “preparado” (TVP). La imagen permanece inmutable, sin


embargo, ahora todo el soporte es digital. Izquierda. Arriba. Imagen original de
prueba. Abajo. Imagen con máscara aplicada. Derecha. Máscara que simula la
manipulación del CRT. En las bandas vertical y horizontal no se aplica la máscara.

182
Videotecnología

La figura anterior muestra la simulación de un televisor analógico


convencional de los años 1980s preparado314 para comportarse
idénticamente de manera perceptual y un ejemplo de posible proceso X de
transformación de la imagen. La imagen no cambia, solo el soporte material,
pero invisible, que subyace en la estructura. Tecnologías como esta
permitirían exponer indefinidamente muchas videoinstalaciones. Incluso
determinadas manipulaciones hechas a la imagen por procedimientos
manuales sobre tubos de rayos catódicos podrían ser reemplazadas por
procesos Xs sobre los datos de vídeo, antes de convertirse en imagen315.

Las afectaciones del entorno se pueden reducir a dos factores


fundamentalmente: la iluminación y el espacio arquitectónico. Ambas
relacionadas inevitablemente por el espacio físico. Una adecuada
iluminación de la estancia donde se visualice la obra debe garantizar, en
términos perceptuales, la satisfacción del artista. Sin embargo, es poco
práctico describir la iluminación en términos de número de focos,
colocación e intensidad teniendo en cuenta que será relativa al espacio
arquitectónico. Un enfoque más objetivo, cuantificable, sería definir la
iluminación (en la documentación de la obra) en términos de intensidad
luminosa (lumens) en determinados puntos del espacio respecto a la obra.
Valores medibles que no dependen del espacio; será responsabilidad del
museo el diseño de la iluminación que satisfaga estos criterios.

Respecto al espacio arquitectónico es necesario definir la relación de la


obra y su entorno en términos “relativos”. Al igual que con la iluminación no
tiene sentido especificar los detalles de instalación para determinado
espacio porque éste es variable.

314
El término “preparado” es introducido por mí como un homenaje a John Cage.

315
Ejemplos de obras susceptibles a estos tratamientos son: Untitled-Display System for Laser
Burned Vidicon Tubes, de Mary Lucier o TV Weave, de Eugènia Balcells.

183
CASO DE ESTUDIO

La percepción adecuada de la imagen está directamente relacionada con un


equipamiento calibrado, y un entorno que garantice una exposición correcta
de la obra, desde el punto de vista de colocación/observación espacial como
de la iluminación. El calibrado es un procedimiento completamente
estandarizado y libre de interpretaciones subjetivas. En caso de que sea
imposible contar con la colaboración del artista en este proceso de
“certificación” es necesario aplicar el criterio de especialistas e
investigadores que conozcan a fondo su obra, posean suficiente
documentación gráfica de calidad, etc.

La percepción correcta del sonido depende fundamentalmente de la


acústica de ambos entornos: el de producción y el de exposición de la obra y
es un problema más complejo. La calibración es una posible línea de trabajo
que consiste en proyectar el espacio acústico de exposición de manera tal
que el sonido creado en el espacio acústico de producción “suene
correctamente”. Sin embargo los artistas rara vez poseen este espacio ideal
y lo más probable es que no produzcan el sonido en estudios especializados.
Póngase por ejemplo una obra que utilice los altavoces del propio aparato
de televisión y se desarrolle en el estudio del artista (por ejemplo una nave o
espacio “grande”). Nadie puede asegurar que esta pieza sonará igual aún
cuando el entorno de exposición esté exquisitamente acondicionado
acústicamente.

Otro enfoque posible es intentar cuantificar estas calidades. Un


parámetro acústico muy importante que influye en la percepción de un
sonido es el tiempo de reverberación316 pero, aunque medible y
reproducible (por el proceso X), es un parámetro grosero que no tiene en
cuenta la sutileza de la inteligibilidad y calidad del sonido. Existen muchos
estudios sobre cómo medir o evaluar objetivamente la calidad del sonido
desde el punto de vista perceptual pero es necesario un estudio más
específico para definir cuál de estas variables o combinaciones de ellas
resulta más útil a este fin. Suponiedo conocidas, medibles y documentadas
estas variables queda otro problema por resolver: el de imponer la acústica

316
El tiempo de reverberación se define como el tiempo en que la energía del sonido cae a
una millonésima parte desde que deja de excitar la sala.

184
Videotecnología

del entorno de producción al de exposición. Esta es una línea de


investigación abierta que sugiere la deconvolución317, mediante un proceso
X, de la respuesta al impulso acústico de la sala de exposición.

59. Barras de color SMPTE para la calibración rápida e inmediata. Una


calibración cuidadosa requiere de equipamiento especializado como el
vectoscopio.

Otro problema relacionado con la percepción del sonido y el entorno


arquitectónico es la interferencia o contaminación sonora entre las obras.
Existen dos técnicas que pueden ser útiles para evitarla: los proyectores
sonoros y los sistemas de cancelación adaptativa de sonido. Ambas
tecnologías no están exentas de determinados artefactos, son costosas y
deben ser proyectadas cuidadosamente por especialistas acústicos.

317
La convolución, en este contexto (tiene un significado mucho más amplio), es una
operación de filtrado en la que la sala impregna al sonido de sus características
reverberantes. La deconvolución es la operación inversa que elimina al sonido las
propiedades acústicas de la sala. Para ello es necesario disponer de la respuesta al impulso de
la sala donde se expondrá la obra. La respuesta al impulso, a su vez, define cómo reacciona la
sala (el recinto) acústicamente entre dos puntos del espacio: fuente y receptor.

185
CASO DE ESTUDIO

Los problemas relacionados con la imagen son similares. El artista


produce en un contexto diferente al de exposición no deteminado en
términos objetivos que puede producir un desequilibrio desde el punto de
vista perceptual. No es extraño que un artista desapruebe la exposición de
una obra porque se “escucha” o “ve” incorrectamente tras el desamparo de
no poder especificar, en términos objetivos, cómo sería correctamente. Lo
que en la actualidad se resuelve con cierto poder de convencimiento o
capacidad de negociación se debería poder hacer en términos científicos,
objetivos.

6 TV Dé-coll/age

6 TV Dé-coll/age es una videoinstalación realizada por el artista fluxus Wolf


Vostell que pertenece a los fondos del Museo Nacional Centro de Arte Reina
Sofía (MNCARS). La siguiente fotografía muestra las dos únicas versiones de
la obra. La primera versión del environment fue realizada por Wolf Vostell
para una exposición en la Smolin Gallery de New York en 1963. El ambiente
estaba compuesto por seis televisores colocados encima de archivadores de
oficina y completado por un teléfono y unos semilleros con brotes de berros
que crecían y morían con el efecto nocivo de la televisión. En aquella
instalación, Vostell alteró las imágenes de la televisión manipulando las
funciones de los televisores para conseguir imágenes distorsionadas y
borrosas con sonidos de ruido y siseos. La pieza se desmontó al finalizar la
muestra pero fue reconstruida por deseo del artista en 1995 para la III
Bienal de Lyon. En esta segunda versión, adquirida por el MNCARS, los
televisores emiten las mismas imágenes distorsionadas de la primera
muestra pero a través de una grabación en vídeo que el artista realizó en
aquel momento. Esta obra es clave dentro de la historia del medio pues
constituye uno de los primeros ejemplos de manipulación de la señal de
televisión. La fotografía de la izquierda corresponde a la primera versión de
1963; sin embargo la de la derecha corresponde a un montaje de la obra en
el MNCARS como parte de la exposición Primera generación. Arte e imagen
en movimiento en 2006.

186
6 TV Dé-coll/age

60. Wolf Vostell. 6 TV Dé-coll/age, 1963/1995.

Refectum#1 es un proyecto de colaboración entre el MNCARS y la


Universidad Europea de Madrid (UEM) para abordar la conservación de la
videoinstalación de Wolf Vostell 6 TV Dé-coll/age. La obra se encuentra
operativa pero corre un grave riesgo de pérdida ante la imposibilidad de
sustituir los televisores originales. El proyecto consiste en el “estudio del
caso” y, posteriormente, el empleo de la estrategia de conservación
evolutiva recreación, basada en la metodología A3 para su documentación y
Restauración. No es posible la aplicación de algunas de las estrategias
analizadas: sustitución, migración, emulación o reinterpretación. No existen
televisores para reponer y no garantizan el aspecto ni se cuenta, ni es
posible contar, con la aprobación del artista.

Desde el punto de vista de conservación 6 TV Dé-coll/age ofrece una


oportunidad singular porque permite un acercamiento a la obsolescente
tecnología de la televisión y el vídeo analógico, aún “funciona” y aunque su
autor, Wolf Vostell, murió poco después de reconstruirla para la III Bienal de
Lyon, existe el Museo Vostell Malpartida y suficiente información acerca de
su obra y vida.

187
CASO DE ESTUDIO

A continuación se presentan la información más relevante de partida tal


cual está archivada:

Wolf Vostell
Leverkusen, Alemania, 1932 - Berlín, 1998.
Videoinstalación: 6 canales de vídeo en formato VHS y DVD.
6 monitores de TV, 6 muebles de oficina, teléfono, antena, brotes de
berros.
Medidas variables
Según Céline Brouwez: Vostell es considerado descubridor de la técnica
del dé-coll/age, padre del happening en Europa e iniciador del movimiento
Fluxus y del videoarte. Artista que “mantuvo siempre en toda su producción
artística una actitud marcada, una originalidad radical y una gran versatilidad
en la utilización de los lenguajes artísticos. Su obra pretende situar al
individuo frente a las contradicciones que invaden su existencia, con la gran
empresa humana de abrir el pensamiento y buscar el acercamiento entre
arte y vida. Emplea todos los elementos visuales y de expresión a su alcance,
ya sean materiales, de comportamiento, o de acción”318.
Vostell acuñó el término dé-coll/age (a raíz de un titular de prensa sobre
un accidente aéreo) para denominar sus obras realizadas con carteles y
fotografías desgarradas y objetos fragmentados. Desde entonces denominó
sus happenings acción–dé-coll/age. Durante su estancia en París, estudió dos
años en la Escuela Nacional Superior de Bellas Artes de París (1955-1956) y
posteriormente, se relacionó con el grupo Nuevos Realistas: Dufrêne,
Villaglé, Hins y Rotella. Con Georges Maciunas organizó en 1962 el primer
Festival de Fluxus en el Museo de Wiesbaden. Un año más tarde en New York
participa en el Yam-Fluxus-Festival donde conoce a Cage, Kaprow, Brecha,
Watts, La Monte Young, Warhol. Desde este momento su presencia a nivel
internacional es constante realizando numerosos happenings y exposiciones
tanto en Europa como en América del Norte y del Sur. Entre ellas: Museo de
Arte Moderno de la Villa de París en 1974, en la Nationalgalerie de Berlín,
1975, en la Documenta 6 de Kassel en 1977. En 1980 realiza la mayor versión
de su ambiente “Depresión endógena” (30 televisores con hormigón y siete
pavos vivos) para el Instituto de Arte Contemporáneo de los Ángeles, su obra
se muestra en la Bienal de São Paulo en 1983.
La obra de Vostell es una de las aportaciones más importantes en el
contexto de la vídeocreación y del Fluxus.

318
Agúndez García, José A. 6-TV-Dé-coll/age. El ojo del elefante en Primera generación. Arte e
imagen en movimiento [1963-1986], Madrid: Museo Nacional Centro de Arte Reina Sofía,
2006, p. 340.

188
6 TV Dé-coll/age

La documentación de la obra especifica en el título dos fechas: 6 TV Dé-


coll/age, 1963/1995. La pieza se desmontó al finalizar la muestra en la
Smolin Gallery de New York en 1963, para la que Vostell realizó la primera
versión de la obra, y no fue “reconstruida” hasta 1995, para la III Bienal de
Lyon. La segunda versión es una reinterpretación de la primera donde
Vostell mantiene el mismo concepto pero utiliza tecnologías diferentes en
su implementación. De hecho no recrea el proceso de alteración de las
imágenes de la televisión, que en 1963 consiguió manipulando las funciones
de los televisores para conseguir imágenes distorsionadas y borrosas con
sonidos de ruido y siseos, sino que emite las mismas imágenes
distorsionadas de la primera muestra pero a través de una grabación en
vídeo que el artista realizó “en aquel momento”. Vostell conserva la idea en
cuanto a la instalación y todos sus elementos pero sustituye el proceso de
distorsión de las imágenes por una versión de la representación perceptual
que tuvo en su día. Se desconoce por qué pero esta decisión deriva en la
conservación de una representación, más o menos fidedigna (teniendo en
cuenta la pérdida de calidad de la imagen del formato VHS) de aquellas
imágenes de 1963.

No se dispone de una interpretación de la obra por su creador. Solo que


es un ambiente compuesto por seis televisores colocados encima de
archivadores de oficina, con un teléfono, una antena, y unos semilleros con
brotes de berros que crecen y mueren con el efecto nocivo de la televisión.
Los seis monitores están descontinuados, son de la marca comercial
alemana: RFT STASSFURT, modelo: SIESTA 70- 143c IRS 520 de dimensiones:
57,1 X 63,4 X 49 cm, con pantalla de 27’’ (68 cm).

61. Material audiovisual. Copia Máster-Copia de Archivo.

189
CASO DE ESTUDIO

La expresión medidas variables, incluida en la documentación, y la


actitud del autor ante el versionado de la obra sugiere que el modelo del
monitor, los muebles, etc. ni su colocación absoluta o relativa, incluso el
material de vídeo en formato VHS no son importantes (teniendo en cuenta
que en 1963 no existía este formato de vídeo por lo que tuvo que grabar las
distorsiones de las televisiones en otro formato, probablemente en cine;
tampoco se conocen las dimensiones originales de los televisores de la
primera versión). Sin embargo, el MNCARS, según las leyes de Patrimonio,
adquiere el compromiso de conservar la pieza en las condiciones señaladas.

De ello se puede suponer que probablemente a Vostell no le importaría


recrear su obra con la tecnología “disponible” en el momento de sus futuras
recreaciones. Sin embargo no se cuenta con la aprobación (el deseo
expreso) del artista y esto es, probablemente, lo que condicione a 6 TV Dé-
coll/age, 1995, como objeto de conservación.

Tampoco hay ninguna referencia a las condiciones de presentación de la


obra (iluminación, espacio, sonido, etc.), la diferencia de las imágenes de las
dos instalaciones lo demuestra, ni a la sincronización de las imágenes que, a
juzgar por los dispositivos de visualización adquiridos, no parece de interés.

Planteamiento de Restauración

El planteamiento de Refectum#1 es la recreación de 6 TV Dé-coll/age, 1995,


en una versión tecnológica digital. Esta estrategia de conservación evolutiva
es la única319 aplicable que respeta la imagen perceptual de la obra, a la vez

319
Versus la sustitución, que consiste en almacenar los elementos o partes que permitan
restaurar una obra; la emulación, que permite la imitación del medio original en un medio
completamente diferente; la migración, que re-implementa procesos y datos en un soporte
nuevo y la reinterpretación, que permite redefinir una obra en un medio contemporáneo con
el valor metafórico de un medio obsoleto. Aunque las estrategias están desarrolladas en el
Capítulo II – Teoría de la Restauración del Arte Digital, se adjunta este breve comentario para
hacer el texto autocontenido. Para 6 TV Dé-coll/age, en concreto, no es posible aplicar la
sustitución. No existen televisores de repuesto idénticos al planteamiento del autor. Cuando
se cede la obra, para exponer en otras instituciones, de hecho, no se prestan los televisores
ante el riesgo de pérdida y la exposición se realiza con televisores “similares” al original. Estos
procedimientos habituales de exposición pueden introducir falsedad histórica en la pieza.

190
Planteamiento de Restauración

que la dota de un corpus metodológico y tecnológico perdurable y


resistente a la obsolescencia tecnológica.

El objetivo de la recreación es justamente reproducir, rehacer, una obra


perceptualmente “idéntica” con una metodología y tecnología320 adecuada
para una labor de conservación evolutiva, perenne, que permita
contemplarla como si, supuestamente, hubiese sido concebida así
originalmente, sin necesidad de inducir a error al espectador ni producir una
falsificación. La recreación es una estrategia eminentemente conservativa a
corto y largo plazo; como requiere justo este “caso de estudio”; téngase en
cuenta que la pérdida de la capacidad de representación simbólica no suele
ser progresiva o gradual sino más bien intempestiva (ocurre en el momento
menos oportuno; un fallo en el sistema o la interrupción de la energía es
suficiente). 6 TV Dé-coll/age, 1995, ofrece una oportunidad única de
experimentación:

Se dispone de las cintas con las secuencias de imágenes “aprobadas” por


Vostell.

Se dispone de la obra en estado operativo; imprescindible para la


localización de los seis televisores con las mismas características que los
conservados en el Museo y para poder realizar el proceso de “ecualización
adaptativa”. Para la Restauración, el proyecto no requiere de televisores en
funcionamiento: solo es necesario disponer de equipos perceptualmente
idénticos independientemente de su estado electrónico o del tubo de
pantalla; equipos susceptibles de manipular y “romper”321.

A3, la herramienta en la que se basa la recreación, se divide en tres fases


consecutivas: modelo, diseño e implementación. Parte de una
documentación inicial (muy recomedable para la toma de decisiones
durante la aplicación de la metodología) y de la propia obra. A3, a su vez,

320
García, A3. Una metodología para el Arte Digital, loc.cit.

321
Incluso, teniendo en cuenta que todas las carcasas (exterior de los televisores y parte
material del bien) están en perfecto estado; sería conveniente explorar si podrían valer tubos
de rayos catódicos de la misma medida (27’’) pero de otro fabricante bajo el supuesto de que
la curvatura exterior del cristal y transparencia es muy similar o idéntica y no introduce
índice.

191
CASO DE ESTUDIO

aportará información de la obra en términos de su información y procesos


que complementará la documentación general. El proceso de
documentación absorbe toda la información que genera cada etapa.

La primera etapa de A3: modelo, define “el qué” de la obra (qué hace,
qué es) vista como un objeto-sistema que consume, procesa y produce
información. El límite del “sistema” queda establecido por las fuentes y
sumideros de la información. El primer paso de esta metodología, por lo
tanto, consiste en crear un modelo lógico-funcional del objeto-sistema. Para
ello es necesario definir las entidades que representen adecuadamente el
“todo” a partir de información que, como se puede apreciar, es incompleta.
En la segunda fase, diseño, se define “el cómo”; se puede entender como la
implementación distribuida del sistema modelado. Es aquí realmente donde
la “obra de arte”, el objeto de Restauración, se convierte en un “sistema de
ingeniería”, un objeto-sistema, y se define su implementación en base a
determinadas entidades: a3.cubes, a3.nexus. Una entidad a3.cube, desde el
punto de vista funcional, ofrece determinados servicios; mientras que la
tecnología a3.nexus permite a un a3.cube la publicación de tales servicios y
su uso por otros a3.cubes. El uso combinado de ambas tecnologías permite
la producción modular, escalable y sistemática de obras audiovisuales
interactivas. En la tercera y última fase, implementación, se planifica el
desarrollo de cada entidad y se ejecuta. Es aquí donde se migrarán todos los
canales de vídeo analógico (VHS) a un formato digital sin comprensión y se
“prepararán”322 los televisores para lo que se requerirá la presencia de seis
televisores con las mismas características que los conservados en el Museo.

322
Una TV “preparada” es un televisor analógico convencional manipulado, para comportarse
idénticamente de manera perceptual. La imagen no cambia, solo el soporte material, pero
invisible, que subyace en la estructura. Tecnologías como esta permitirían exponer
indefinidamente muchas videoinstalaciones. Incluso determinadas manipulaciones hechas a
la imagen por procedimientos manuales sobre tubos de rayos catódicos podrían ser
reemplazadas por procesos Xs sobre los datos de vídeo, antes de convertirse en imagen.
Ejemplos de obras susceptibles a estos tratamientos son Untitled-Display System for Laser
Burned Vidicon Tubes, de Mary Lucier o TV Weave, de Eugènia Balcells, e incluso, si así
hubiera sido la intención de Vostell: 6 TV Dé-Coll/age. Parte del proceso X podría generar las
distorsiones, que en su día, Vostell obtuvo manipulando las funciones de los televisores.

192
Planteamiento de Restauración

Antes de aplicar la primera fase de A3 es conveniente organizar la


información inicial en alguna estructura de metadatos que facilite la
integración en cualquier base de datos o sistema de gestión de información.
Las etiquetas o tags que muestra el listado 1 son provisionales y
configurables y perfectamente generales y útiles para cualquier institución.
Sin embargo, esta estructura, admite la incorporación de etiquetas
específicas e incluso exclusivas lo que puede prolongar su vida
indefinidamente323.

<?xml version="1.0"?>
<artwork>
<name>6 TV Dé-coll/age</name>
<date>1995</date>
<author>
<name>Wolf Vostell</name>
<!--- Información opcional --->
<since>
<place>Alemania</place>
<city>Leverkusen</city>
<year>1932</year>
</since>
<to>
<place>Alemania</place>
<city>Berlín</city>
<year>1998</year>
</to>
</author>
<genre>Videoinstalación</genre>
<description>Ambiente compuesto por seis televisores colocados encima
de archivadores de oficina y completado por un teléfono y unos semilleros
con brotes de berros que crecen y mueren con el efecto nocivo de la
televisión</description>

323
El término exclusivo proviene del estándar MIDI (Musical Instrument Digital Interface). El
mensaje exclusivo es un tipo de mensaje específico que permite agregar o encapsular nuevos
mensajes y, por lo tanto, aplicaciones. Una adaptación, en este contexto podría tener la
sintaxis: <exclusive> <institution id=”MNCARS”>cualquier información </ exclusive >.
Obsérvese que esta información solo es útil a quien sepa decodificarla; es decir, a quien
pertenezca el id.

193
CASO DE ESTUDIO

<versions id=”v01”>
<date>1963</date>
<description>6 monitores de TV manipulados, 6 muebles de
oficina, teléfono, antena, brotes de berros</decription>
<size>variable</size>
<exhibitions id=”exh1”>
<place>Smolin Gallery, New York</place>
<date>22 May 1963</date>
</exhibitions>
</versions>
<versions id=”v02”>
<date>1995</date>
<description>6 canales de vídeo en formato VHS y DVD, 6
monitores de TV, 6 muebles de oficina, teléfono, antena, brotes de
berros</decription>
<size>variable</size>
<exhibitions id=”exh1”>
<name>3ª Biennale de Lyon</name>
<place>France</place>
<date>
<since>20 Dec 1995</since>
<to>18 Feb 1996</to>
</date>
</exhibitions>
</versions>
</artwork>
62. Metadatos para la documentación general de la obra.

Una documentación exhaustiva y adecuada de la obra debe incluir una


descripción objetiva y formal324 que incluya información acerca del estado
de conservación, intervenciones anteriores, versionado, proyecto de
montaje, informes de restauración, incluso datos administrativos acerca de
almacenaje, etc.; información de contexto: estudios históricos, condiciones
ambientales de exposición, etc.; estudios estético-expresivos; y análisis
gráfico: actual-antiguo, dibujos, vídeos, etc. La documentación se puede
organizar modularmente en secciones. Por ejemplo: generalidades, modelo,
diseño, versiones (con detalle de cada desarrollo), etc.

324
Macarrón, op. cit., p. 62.

194
Planteamiento de Restauración

El metalenguaje de etiquetas XML325, utilizado en 62, tiene grandes


convenientes como la importación/exportación directa a bases de datos,
páginas web, legibilidad, una buena cantidad de herramientas de
codificación/decodificación, etc.

El protocolo o interfaces de Restauración son susceptibles de organizar


en secciones: generales (conjunto de acciones y procesos previsibles
aprobados por la comunidad), específicas (conjunto de acciones y procesos
específicos a nivel de institución) y exclusivas (conjunto de acciones y
procesos no previstos; futuras ampliaciones).

El diagrama de contexto o de nivel cero del diagrama de flujo de datos (DFD)


muestra la obra como un sistema y su interrelación con el “mundo real”. 6
TV Dé-coll/age no recibe información de entrada y solo produce información
audiovisual a partir de contenidos en almacenes. Obsérvese que los
televisores no pertenecen al sistema; son unidades externas.

El diagrama de nivel 1 de la figura 64 es una descomposición del


diagrama de contexto de la figura 63. En realidad todos estos procesos
corresponden a los procesos de la figura 57. El proceso decodificar extrae
(“lee”) los vídeos de su soporte (almacén de datos BDVídeo), y produce
vídeos comprimidos, vComp. El proceso descomprimir es inncesario (en caso
de que el vídeo esté almacenado sin compresión; lo cual es el formato ideal
para la máxima conservación de la calidad). Si, por ejemplo, el vídeo
estuviese comprimido en MPEG2, es necesario un proceso de
descompresión que genere un flujo de vídeo crudo o completo: vFull. En el
caso de estudio, aunque el vídeo original está almacenado en VHS
(compresión MPEG1) se expone con una versión en DVD (compresión
MPEG2) por lo cual, sea cual sea el formato, el proceso descomprimir es
ineludible. El cambio de formato MPEG1-MPEG2, de hecho, conlleva una
pérdida perceptual de calidad. El proceso ecualizar corresponde al proceso X
de la figura 57. Este proceso es el encargado de conseguir la “identidad”
perceptual de la imagen a partir de los parámetros de adaptación: param.

325
W3C, Guía Breve de Tecnologías XML;
http://www.w3c.es/divulgacion/guiasbreves/tecnologiasxml, [Consulta: 13-10-2010].

195
CASO DE ESTUDIO

6 TV Dé-
coll/age
vídeos
TVs

63. Diagrama de contexto.

Decodificar Descomprimir Ecualizar


on/off vComp vFull vídeos

1.1 1.2 1.3

Adaptar

BDVídeo
BDVídeo Param

1.4

64. Diagrama de nivel 1.

El proceso adaptar se considera offline. Se representa en la figura 64


para reflejar el proceso que genera los parámetros adaptativos pero
realmente no pertenece al objeto-sistema. Este proceso es una de las
grandes apuestas del proyecto en términos de objetivar una calidad
subjetiva, perceptual.

Los almacenes BDVídeo y Param contienen los vídeos a mostrar en cada


TV y los parámetros de adaptación respectivamente. Todos los flujos de

196
Planteamiento de Restauración

información vComp, vFull y vídeos son múltiples y representan los seis


canales de la obra. Por último la figura 65 muestra el diagrama de estados o
de transiciones de la obra. La información on/off actúa como señal de
control; obsérvese la figura 57.

On Off
Apagado Encendido

65. Diagrama de estados.

Obsérvese que estos esquemas (figuras 63-65) solo contienen flujos de


información: datos, procesos que se aplican a estos datos y almacenes que
contienen estos datos y son independientes de cualquier implementación.
Todos los flujos representan datos digitales (los analógicos terminan en
doble flecha326). Esto significa que la unidad externa TVs de la figura 63 es
digital; está obligada “a serlo”. Lo “curioso” de este modelo es que el
sistema de representación no queda incluido en la obra en sí sino constituye
su terminal o unidad externa múltiple. Esto es importante porque parte del
trabajo queda “fuera” de la obra. En realidad esas TVs son equivalentes
estructuralemente tanto para 6 TV Dé-Coll/age, como para cualquier
videoinstalación, excepto por el aspecto. Por lo que parece oportuno
desarrollar el tratamiento de la TV como unidad externa en un anexo
“ajeno” a la obra.

En esta fase se define el sistema en base a sus partes o entidades a3.cubes,


a3.nexus. Una entidad a3.cube, desde el punto de vista funcional, ofrece
determinados servicios; mientras que la tecnología a3.nexus permite a un
a3.cube la publicación de tales servicios y su uso por otros a3.cubes. El uso
combinado de ambas tecnologías permite la producción modular, escalable
y sistemática de obras audiovisuales interactivas. Las TVs, teniendo en
cuenta los comentarios anteriores son a3.cubes que se comunican con el
sistema mediante sus correspondientes a3.nexus. Cada componente es un

326
cfr., Anexo A – Metodologías.

197
CASO DE ESTUDIO

sistema HW/SW que activa determinados procesos según la información


que intercambia a través de sus interfaces.

Son muchas las posibilidades de diseño que ofrece este modelo según el
grado de centralización-distribución que se quiera. La siguiente figura
muestra un modelo con cierto nivel de centralización en el cual un
componente puede actuar como sincronizador (generador de las señales
on/off) y seis componentes (uno por cada canal de vídeo) generar su imagen
correspondiente o puede incluso actuar como servidor de vídeo y
sincronizador y el resto solo de reproductores.

Obsérvese que los círculos grises corresponden a los terminales que


conectan con el mundo del exterior del diagrama de nivel 1 de la figura 64; y
los círculos blancos son las interfaces que interconectan los componentes
(ya sea para sincronizar los vídeos, para implementar el protocolo de
encendido-apagado o para intercambiar vídeo). Esto no significa en modo
alguno una topología de interconexión estrella. Los a3cubes y los a3.nexus
son, en este nivel, lógicos. Obsérvese que todos los a3.cube alineados arriba
son idénticos. Todos realizan los mismos procesos.

...

66. Diseño. Cada componente debe tener una especificación clara y precisa de
sus servicios y el formato de la información para activarlos, encuestarlos, etc.

198
Planteamiento de Restauración

La implementación del sistema puede también ser más o menos


centralizada. Cuanto mayor distribución, mayor indepedencia y más fácil de
administrar (conservar), pero también mayor coste.

En la opción arquitectónica más distribuida el vídeo debe ser gestionado


individualmente por cada componente y sincronizado, o no, por un máster.
De hecho, esta es la más parecida al montaje actual, en el cual cada televisor
tiene su propio reproductor de DVD y no está sincronizado con el resto (al
menos no está documentado y, en cualquier caso, se realiza de forma
manual). En la recreación la sincronización se puede realizar
automáticamente (aunque si fuera necesario se puede prescindir del
a3.cube de sincronización; la función de sincronización puede ser asumida
por cualquiera de los otros seis e incluso, en un enfoque más sofisticado, de
manera distribuida entre ellos propagando la señal cuidadosamente).

En una variante centralizada, el vídeo puede ser suministrado desde un


máster a cada componente (vía streaming, por ejemplo) o a cada terminal
(en esta configuración, podría ser suficiente un solo a3.cube y prescindir de
los otros seis). En ambos casos un único a3.cube asume toda la
responsabilidad de generar los vídeos.

En la opción distribuida se podrían utilizar mini reproductores


comerciales que almacenan y producen el vídeo directamente, son
relativamente baratos, pequeños, etc. y donde es fácil implementar la
sincronización. De hecho, caso que se requiriese, el a3.cube de
sincronización no necesita un procesador complejo: con un
microcontrolador sería suficiente. En la opción centralizada que un solo
a3.cube debe almacenar y generar (decodificar, descomprimir, ecualizar) las
seis señales de vídeo exige un procesador de mayores prestaciones: un
microprocesador sería suficiente.

La existencia de cada a3.nexus exige diseñar las interfaces como plantea


la metodología A3, y supone cierta “inteligencia” en los a3.cube
interconectados. La implementación de un protocolo de sincronización es
muy simple pero debe ser integrada a los a3.cubes sea cual fuera el sistema
utilizado para almacenar y generar vídeo. La implementación de un
protocolo de transmisión de vídeo supone la encapsulación de algún

199
CASO DE ESTUDIO

protocolo estándar (por ejemplo de streaming) o la gestión de todo el


proceso de generación de vídeo. En cualquier caso, los protocolos deben ser
definidos en un metalenguaje como XML (o LISP) y la gestión mediante
aplicaciones de tipo cliente-servidor327. Una señal de vídeo supone la mezcla
de imágenes y sonido. Ambas señales vídeo y audio son las más complicadas
de gestionar con esta filosofía porque utilizan tecnologías muy particulares,
son ininterrumpidas (lo que implica una implementación delicada basada en
la fragmentación en bloques o paquetes y la gestión de su integridad),
consumen gran ancho de banda, etc. No obstante, una vez desarrollado un
componente a3.cube, con su respectivo a3.nexus para gestionar este tipo de
señales es susceptible de ser reutilizado o reciclado en cualquier aplicación
con las mismas exigencias.

Entre estas dos opciones son posibles muchas combinaciones. La


decisión se debe tomar en términos de relación prestaciones-coste,
mantenibilidad, etc. Obsérvese que, para el caso de estudio (y muy
probablemente para la mayoría de las videoinstalaciones), modelo, diseño e
implementación son extremadamente simples.

Para conseguir la misma cualidad subjetiva de un televisor CRT a partir de


una señal de vídeo digital es necesario “preparar” o intervenir el televisor.
Tal manipulación consiste en vaciar el aparato y sustituir su interior por un
sistema de retroproyección que simule la cualidad perceptual del sistema
original. No es posible utilizar televisores de pantalla plana. El cristal de los
CRT es curvo con lo que, entre otras cosas, se perdería la visión lateral,
además de aparecer aberraciones por la imperfección del montaje de un
sistema en otro. Además en los monitores de pantalla plana
independientemente de su tecnología (LCD, OLED, TFT, plasma, etc.), a
diferencias de los CRT, el píxel no es virtual, sino físico. Es imprescindible
observar el monitor desde cierta distancia para no ver su efecto. Por lo
tanto, la única posibilidad de conseguir una cualidad perceptual similar,
incluso idéntica, es proyectando con luz desde el interior en una superficie
de retroproyección difusa colocada convenientemente por detrás del cristal
del CRT. Las figuras 67 y 68 muestran dos experimentos para demostrar esta

327
cfr., Anexo B – Tecnologías.

200
Planteamiento de Restauración

hipótesis. El nanoproyector tiene menos luminosidad que el convencional


(lo que requiere de ciertas condiciones externas de iluminación). Ambos
demuestran el mismo problema: la distancia focal (en torno a 1.5 metros)
debido a que los proyectores utilizados no están diseñados para este tipo de
aplicación.

Otra opción sería utilizar varios proyectores (en lugar de uno) formando
una especie de red o matriz con cierto nivel de superposición de las
imágenes y, mediante un algoritmo corrector, en el proceso X, conseguir la
sincronización adecuada entre las imágenes y la eliminación de las
superposiciones pero, no corregiría el problema de la distancia focal.

En cualquier caso la “textura” y cualidad perceptual de la imagen que se


obtiene es muy similar a la de un CRT convencional. Obsérvese que las
imágenes, por el efecto de retroproyección aparecen invertidas pero esto es
algo que se puede corregir en el proceso X, durante la generación de la
imagen, de manera muy simple. El problema de la distancia focal se puede
corregir quebrando el camino, mediante espejos, en un recorrido
multicamino con idéntica distancia pero, aún así, es difícil insertar un
proyector convencional en tan poco espacio total.

Evidentemente es posible diseñar un sistema de lentes para conseguir


una distancia focal (aunque sea multicamino) mucho más corta. El problema
es que este tipo de soluciones “a medida” es mucho más caro que aquel que
utiliza lentes convencionales de fabricación en serie. En cualquier caso sería
imprescindible el dispositivo transparente, o semitransparente, que genera
la imagen digital a proyectar. Este problema tiene muchas variables a
explorar y enfoques más o menos industriales o comerciales pero, lo más
importante es que, independientemente de cuál sea la solución óptima, es
posible generar una imagen que, mediante un proceso de ecualización
adaptativo bidimensional (referenciado como ecualizador en el texto),
consiga la identidad (en términos perceptuales).

201
CASO DE ESTUDIO

67. Experimento de Retroproyección. Arriba. Nanoproyector 3M MPro 110.


Abajo. Izquierda. Fotograma de película en blanco y negro. Derecha. Fotograma
de película en color.

La ecualización se basa en el mismo principio que la calibración. La carta


de ajuste es una señal de prueba conocida que contiene diferentes
elementos destinados a correciones concretas. Es la señal objetivo que, a
través de la valoración perceptual del técnico, debe conseguir el proceso de
calibración.

202
Planteamiento de Restauración

68. Experimento de Retroproyección. Arriba. Proyector DELL 2400MP. Abajo.


Izquierda. Fotograma de película en blanco y negro. Derecha. Fotograma de
película en color.

Sin embargo este procedimiento se podría realizar de manera objetiva en


un entorno controlado que disponga de los televisores: original y preparado
emitiendo la misma señal de calibración o carta de ajuste328.

328
Un entorno controlado, por ejemplo, debe estar en ausencia absoluta de iluminación,
cada televisor deberá disponer de una cámara de adaptación (de imagen o vídeo) en la
misma posición relativa frente al televisor, en condiciones técnicas idénticas, etc. La calidad

203
CASO DE ESTUDIO

Frente a cada televisor se coloca una cámara (ya sea de captura de


imagen o vídeo) que recoja únicamente la señal proveniente de su televisor.
La comparación de ambas imágenes a nivel de píxel debe ser idéntica o, en
términos matemáticos, el error objetivo (o la energía del error) debe tender
a cero. Para ello la señal de calibración, antes de ser proyectada en el
televisor preparado, debe pasar por un proceso de filtrado329 cuyos
coeficientes son ajustados en dependencia de la señal de error y guiados por
un proceso de minimización matemática.

El proceso de adaptación concluye cuando el error disminuya por debajo


de determinado umbral que se considere admisible (por ejemplo, el umbral
de discriminación perceptual visual). Los parámetros adaptativos se guardan
en el almacen param (véase figura 64) desde donde pueden ser cargados
por el proceso de ecualización X en tiempo real. La señal de vídeo debe ser
filtrada con esos parámetros (obtenidos mediante el proceso adaptativo)
para generar una señal perceptualmente idéntica a la objetivo330. El proceso
de adaptación se puede realizar cada vez que se quiera y así corregir
cualquier aberración producida por el efecto de envejecimiento de los
elementos electrónico, lámpara, etcétera. Obsérvese que la calibración

del ajuste dependerá, en gran medida, de la precisión con la que se consiga una situación
idéntica para ambos televisores.

329
El comité de ingenieros de procesado de señal define un filtro como: “Un filtro digital es
un proceso o algoritmo computacional por el cual una señal digital o una secuencia de
números (actuando como entrada) es transformado en una segunda secuencia de números
denominada señal digital de salida”. Por lo tanto, cualquier dispositivo digital con una
entrada y una salida es un filtro. El uso más difundido del término describe dispositivos que
realzan o atenúan regiones espectrales (frecuencias) de la señal. Por supuesto, para una
calibración correcta, todos los dispositivos que intervengan tienen que estar perfectamente
calibrados y el proceso se debe realizar en condiciones exactas de iluminación, configuración
espacial, etc.

330
La imagen-objetivo solo puede ser la imagen-actual (la que generan los televisores en el
estado actual) porque no es posible disponer de una TV de la misma tecnología con cero
horas de uso. La decisión estará en si elegir la imagen “tal y como se ve” o antes someter
cada televisor a un proceso de calibración estándar (lo que sería equivalente no a un estado
prístino pero si al mejor estado posible en las condiciones actuales); claro está que en
ninguna de estas decisiones podrá intervenir el artista. Por ello la importancia de objetivar la
caracterización subjetiva de la imagen.

204
Conclusiones

propuesta, aunque objetiva debe ser contrastada en términos perceptuales,


debe garantizar la identidad simbólica.

Conclusiones

Cuando se apague la primera (que no la última) tele de V-yramid, la obra


habrá muerto. Se puede documentar, congelar, “un día de su vida” en vídeo,
al estilo de una intervención (performance) inmaterial que luego se podrá
exponer en la pantalla “de turno” del mercado (con la tecnología disponible
en ese momento) o en algún televisor que tiempo atrás salió de una tienda
de electrodomésticos, quizá con una cita, o incluso la escultura completa,
apagada. ¿Es posible sacralizar el nuevo objeto como rememoración de lo
que fue y reiniciar el ciclo? ¿Es esta acción fetichista una buena práctica de
“conservación”? La elección de ruptura a continuidad ¿es lo más “honesto”
posible de hacer?

Solo la migración del dominio analógico al digital puede evitar esta


ruptura y garantizar la supervivencia de una buena parte de obras y
colecciones de videoarte y videoinstalaciones. La tecnología es lo
suficientemente madura para proveer la evolución del soporte conservando
la imagen. Es imprescindible conservar el aspecto sin olvidar que los
dispositivos electrónicos de cualquier equipo, por antiguo que sea, solo
adquieren valor simbólico cuando se convierten en objeto-símbolo y no
mientras funcionan como soporte, como objeto-sistema. Es importante
aislar las partes del todo; a diferencia de la integridad que presupone la
Restauración tradicional. Un televisor que ha dejado de fabricarse no es
sustituible porque funciona como un todo. Pero si se aíslan las partes que
funcionan como aspecto de las que funcionan como estructura, si se
desarticula el todo, entonces es posible alargar su vida migrando el
soporte331. Las intervenciones conservativas se deben documentar e
informar al espectador. De hecho, 6 TV Dé-coll/age es una “versión” original.
En el arte digital, a diferencia del arte basado en la materia, el versionado es
algo habitual en confrontación con el concepto de autenticidad: uno de los

331
Artistas como Gary Hill registran la creación audiovisual y no el soporte que la sostiene.
Facilitando, de facto, la conservación de la obra “independientemente” de los avances
tecnológicos.

205
CASO DE ESTUDIO

pilares de la Restauración tradicional. Con estas claves un nuevo enfoque de


Restauración es posible.

El caso de estudio 6 TV Dé-coll/age, en este momento, está activo332. A3,


en una primera fase de análisis, ha permitido la documentación de la pieza
en un modelo lógico funcional; en una segunda fase de síntesis, el diseño de
la recreación de la obra sobre una infraestructura tecnológica resistente a la
obsolescencia a implementar; en una última fase, aplicando un modelo de
ecualización adaptativa bidimensional perceptual se espera conseguir la
identidad simbólica objetivada en términos de un error perceptual por
debajo del límite humano. Las conclusiones que se extraigan de este caso de
estudio serán muy importantes para su aplicación en la Restauración de las
videoinstalaciones en general. No solo por la tecnología o estrategia de
Restauración explorada sino también por sus implicaciones éticas.

332
Por ello no se ilustra la notación final del objeto.

206
CONCLUSIONES

Una innovación sólo tiene éxito cuando se ha convertido en un nuevo estándar

John Perry

Más que conclusiones es mucho más fructífero reflexionar acerca de los


retos que plantea la Restauración del arte digital. Mucho queda por
elucubrar y, mucho más, por hacer. ¿Es posible una metodología estándar
para abordar la Restauración? Muchos son los esfuerzos que realizan las
diferentes instituciones y cada vez, más, los interinstitucionales lo que
permite abrigar ciertas esperanzas.

La primera premisa, por supuesto, de cualquier propuesta en este


sentido debe ser la potenciación y respeto absoluto a la creatividad. No es
concebible ninuna acción fuera de este precepto. El arte debe seguir su
curso, sea cual fuere, independientemente de cualquier herramienta de
producción.

La segunda, quizá, un profundo convencimiento de las exigencias


transdisciplinares de estos retos y su inserción en el modelo educativo en
respuesta a esta realidad profundamente compleja. Los futuros
conservadores incorporan materias básicas como biología, física, química,
etc. en sus estudios porque sin ellos es imposible “entender” siquiera la
Restauración de la materia. No es posible la Restauración del arte
inmaterial, efímero, intangible sin la interrelación transdisciplinar de un
número mayor de disciplinas. En el arte digital confluyen arte, ciencia,
tecnología, comunicación, sociedad, y un largo etcétera que convierte cada
acción de Restauración en un estudio del caso. La química es a la materia lo
que los sistemas son a los procesos. Las fronteras entre las disciplinas son
borrosas y porosas y la Restauración del arte digital debe ser un reflejo de
ello.

Lo último, y no por ello menos importante, es la adopción de estrategias


colaborativas de libre distribución. Solo reciclando desarrollos,
compartiendo recursos y aislando las estrategias de Restauración de la
vorágine insaciable que impone la sociedad de la información se podrá
alcanzar una conservación sostenible. Desde luego, estas no son las únicas, y
es imposible conformar un punto de partida estable sin la participación de

207
CONCLUSIONES

todos y cada uno de los agentes implicados ya sea desde una estructura
mallada e interconectada o jerárquica. Por ahora ni siquiera existe un libro
blanco a nivel territorial. Sí, es posible una metodología (o metodologías)
estándar e incluso universal.

Es quizá otra paradoja que la Restauración se plantee en base a “casos de


estudio” mientras se reclama estandarización. El «maestro armero» fue
imprescindible mientras cada arma (y cada una de sus partes) era un
mundo. Como señala Perry333:

(…) la intercambiabilidad de las piezas se remonta a la antigüedad. Lo que


hizo Eli Whitney como «padre de la producción en masa... fue estandarizar
las operaciones de producción y reducir la tolerancia con respecto a las
dimensiones de las piezas».

Pero Perry también apunta que

(…) la auténtica producción en serie implica la estandarización a distancia:


las piezas que fabrica un obrero en una planta deben encajar con las piezas
que otros obreros fabrican en otras plantas. Whitney logró esa
intercambiabilidad principalmente por medio del diseño de máquinas,
herramientas y medidas precisas. Un obrero menos especializado podría
operar estas herramientas con una precisión y velocidad que un maestro
armero nunca habría podido conseguir.

Hasta la fecha el «maestro armero» del arte digital es el propio artista, su


ayudante o el equipo con el que desarrolla su producción. Como dice la
locución cuartelera “Las reclamaciones al maestro armero”… pero esto debe
cambiar. Las instituciones responsables del Patrimonio deben tener la
capacidad, autoridad y autonomía para Restaurar sus fondos de arte digital
y esto solo es posible técnicamente mediante la estandarización.

La mayor inspiración de A3: la metodología de recreación expuesta en


éste libro, ha sido el estándar MIDI (Musical Instrument Digital Interface);

333
Perry, John. The Story of Standards. Nueva York: Funk & Wagnalis Co., 1955 cit. en
Bordwell, David; Staiger, Janet y Thompson, Kristin. El cine clásico de Hollywood: estilo
cinematográfico y modo de producción hasta 1960. Barcelona: Ediciones Paidós Ibérica, 1997,
p. 101.

208
que, como su nombre indica, es un estándar universal para la comunicación
entre dispositivos musicales. Antes del MIDI, los diferentes fabricantes de
instrumentos musicales electrónicos producían sus equipos con tecnologías
y métodos (o metodologías) propietarias. El resultado, para el músico o
usuario final, era un buen número de equipos autónomos e independientes
imposibles de interconectar y, por lo tanto, de sincronizar entre sí lo que
terminaba restándole al conjunto todo el potencial individual que ofrecían.
Los fabricantes, en un hecho más que loable de buena voluntad, se pusieron
de acuerdo y generaron un estándar: la especificación “MIDI 1.0”, que
establecía protocolos y normas para abstraer el comportamiento particular
de cada dispositivo en un lenguaje universal que permitiera la comunicación
entre ellos y, por lo tanto, potenciar la creación musical. Este estándar
contenía todo lo que, en ese momento, los fabricantes consideraron
imprescindible e importante a tener en cuenta; sin embargo, para lo que
pudiera venir después, dejaron una puerta abierta: el “mensaje de sistema
exclusivo”. Este mensaje permitiría encapsular cualquier desarrollo posterior
que no fuese tenido en cuenta. Esta iniciativa funciona como una especie de
metaprotocolo lo que, en términos de sistemas significa: vida eterna.

En una red MIDI cada dispositivo es una «caja negra» que interactúa con
el resto a través de un lenguaje universal independientemente de cómo esté
fabricado, en qué fecha o por quién. Solo necesita “entender” y “producir”
el mismo lenguaje. Este mecanismo es probablemente la metáfora
tecnológica más simple de lo que es el ser humano: un ser social, un
individuo que se comunica e interactúa con el resto; sin embargo de una
eficacia incalculable. La especificación original fue escrita en 1982. Desde
entonces, la tecnología se ha superado con creces, la sociedad de la
información es un hecho, los avances en el audio digital y la creación musical
asistida por ordenador han sido increíbles, sin embargo, el MIDI sigue
vigente. Lo más importante de la especificación no es su vocación universal
siquiera sino su capacidad para mutar. El MIDI ha sido incluso capaz de
cambiar su soporte físico para aumentar su velocidad, ha multiplicado su
potencialidad con nuevas y diversas funciones, ha absorbido nuevas
interfaces de interacción musicales, etc. gracias a su esencia
metaprotocolar.

A3 se basa en esta idea y es solo un minúsculo ejemplo de esfuerzo en


este sentido. Cada componente (cube) es una “caja negra” independiente
que se comunica con el resto a través de interfaces universales (nexus). Los
datos se organizan en metadatos y los protocolos en metaprotocolos que

209
CONCLUSIONES

garantizan la evolución de la red. ¿Qué se considera imprescindible y qué


superfluo? La respuesta a esta interrogante la tienen todos los agentes
implicados. Quizá una voluntad definitiva y un marco adecuado posibiliten el
milagro.

El arte digital es contemporáneo y complejo. Su cartografía, tan paralela


al medio de producción, es un ejercicio de clasificación que implica una
preferencia. Las etiquetas son herramientas organizativas que ayudan a
señalar conexiones, analizar objetos y organizar el mundo. La categorización
es, quizá, el primer paso para afrontar una estrategia adecuada de
Restauración.

La Teoría de la Restauración del arte digital analiza al objeto de


Restauración en el complejo entramado teórico de las teorías tradicionales y
contemporáneas y los procesos asociados a la Restauración: producción,
documentación, exposición, preservación, conservación y restauración,
mediante un análisis multidimensional basado en el tiempo que pone de
manifiesto las cualidades esenciales del arte digital: progresividad,
inmaterialidad y reactividad y sus implicaciones estéticas respecto a los
pilares de la teorías tradicionales de la Restauración: autenticidad,
universalidad, reversibilidad, objetividad, historicidad, integridad y
durabilidad.

Un análisis exhaustivo de las estrategias de Restauración que propuso el


museo Guggenheim de New York a través del proyecto Variable Media
Network: sustitución, migración, emulación y reinterpretación revela sus
limitaciones en cuanto a garantizar la fidelidad perceptual de la imagen lo
que puede llevar a cuestionar la conservación de la indentidad simbólica. Se
propone la recreación como una estrategia de conservación evolutiva
basada en el sistema de notación A3 que proporciona una Restauración
resistente a la obsolescencia tecnológica en la medida en que prepara la
obra para mutar y adaptarse al futuro. En este enfoque el objeto de
Restauración es un sistema complejo formado por componentes (cubes) que
interactúan entre sí a través de interfaces (nexus). Es importante destacar
que la recreación no es exclusiva al arte digital.

El caso de estudio para aplicar la recreación es una videoinstalación


emblemática del arte contemporáneo: 6 TV Dé-coll/age de Wolf Vostell. La
Restauración del arte digital, como se ha demostrado, tiene que ser digital.

210
Esta obra es un caso típico de transcodificación vírgen, a pesar de la
preferencia que ha tenido el videoarte y la videoinstalación en general en la
investigación de la Restauración contemporánea, que exige la solución de
problemas técnicos particulares de la videotecnología y complejo en cuanto
a los problemas éticos que suscita.

A3 se basa en una infraestructura tecnológica y una superestructura


metodológica que, para no romper el discurso teórico de la Restauración, se
tratan con detalle en los Anexos. Es imposible hacer un compendio
tecnológico en prácticas tan híbridas donde confluyen arte, ciencia,
tecnología, sociedad, comunicación. Sin embargo es necesario un esfuerzo
por ordenar de alguna manera las tecnologías digitales en una línea lo más
independiente posible del tiempo y la fascinación. El hilo conductor es el
proceso: la verdadera escencia del arte digital. También parece oportuno
detallar la metodología para la evaluación y desarrollo de proyectos
transdisciplinares (MPT), base de A3, a través de un caso de producción y es
que la recreación implica, en cierta medida, la producción (en cuanto que es
una determinada reinterpretación de la obra). Este ejercicio permite
confrontar las tensiones símbolo-sistema, determinación-indeterminación,
consistencia-inconsistencia, completitud-incompletitud; tratar la logística de
la Restauración y los tiempos, costes y presupuestos, etc.

¿Qué queda por hacer? Como se planteó desde el principio “son muchas
las interrogantes (…) y menos las respuestas”. La Restauración del arte
digital exige una reordenación funcional de todas las figuras implicadas:
artista, documentalista, comisario, conservador, coleccionista, etc. en los
procesos de producción, documentación, exposición, preservación,
conservación y restauración. Las fronteras se muestran permeables y difusas
mientas las actividades exigen una cooperación transdisciplinar y el tiempo
apremia.

El caso de estudio en esta investigación es una videoinstalación que,


comparte con el videoarte, la videotecnología; aun así, no todos los
resultados obtenidos pueden ser exportados a todas las videoinstalaciones.
En 6 TV Dé-coll/age de Wolf Vostell es posible “preparar” los televisores
pero en una obra como Between Cinema and a Hard Place de Gary Hill
(véase imagen 32), donde se ha desprovisto a los monitores de sus carcazas,

211
CONCLUSIONES

el tratamiento tiene que ser diferente. Aunque Atmos Data β, de Kepa


Landa, otro caso de estudio334, es una obra más híbrida donde interviene
Internet, software, imagen y sonido es importante considerar tantos casos
de estudio como sea posible de las más diversas prácticas.

Considero también necesario y prioritario un esfuerzo en la objetivación


de todos aquellos parámetros perceptuales, subjetivos, implicados en la
Restauración; no sólo los intrínsecos a la obra, sino también los extrínsecos
relacionados con el entorno. Sólo así se podrá garantizar una identidad
simbólica.

El escenario de cooperación entre museos, instituciones, redes, etc. es


loable; el intercambio de información es eficaz; crece el número de
proyectos, congresos y encuentros; aumenta la bibliografía y la presencia en
el entorno educativo pero mucho queda por hacer en términos de
estandarización y es que solo así se conseguirá una Restauración científica
del arte digital. Se requieren estrategias que absorban desde lo particular a
lo general, que armonicen “un mayor número de teorías” y satisfaga “más a
más gente”335.

334
cfr., Anexo A – Metodologías. Las fases de análisis y diseño de MPT han sido tratadas con
muchos otros casos de estudio durante los cursos de formación del profesorado en la UEM
en 2008: The Legible City, de Jeffrey Shaw: http://www.jeffrey-shaw.net/, [Consulta: 12-12-
2010]; Interactive Hallucination, de Jim Campbell: http://www.jimcampbell.tv/, [Consulta: 12-
12-2010]; A-Volve, de Christa Sommerer y Laurent Mignonneau:
http://www.interface.ufg.ac.at/christa-laurent/, [Consulta: 12-12-2010]; The Telegarden, de
Ken Goldberg y Joseph Santarromana: http://goldberg.berkeley.edu/art/, [Consulta: 12-12-
2010]; Umbrella.net, de Jonah Brucker-Cohen y Katherine Moriwak:
https://wiki.brown.edu/confluence/display/MarkTribe/Jonah+Brucker-
Cohen+and+Katherine+Moriwaki, [Consulta: 12-12-2010].

335
Muñoz, Teoría contemporánea de la Restauración, op. cit., p. 177.

212
METODOLOGÍAS

Dime como hacer para saber


Si lo que está mal lo que está bien
Si lo que perdí
Jamás lo vuelva a encontrar

Los Nocheros

La metodología para la evaluación y desarrollo de proyectos


transdisciplinares (MPT) se desarrolló con la finalidad de servir de soporte a
un concurso anual de Arte y Tecnología: ARTCUBE336. MPT es una
metodología que permite evaluar y desarrollar proyectos transdisciplinares;
en particular en la intersección arte, ciencia, tecnología, comunicación y
sociedad. ARTCUBE es un proyecto académico cuyo objetivo principal es
propiciar la actividad transdisciplinar entre artistas e ingenieros. Sin
embargo el valor epistemológico de MPT se ajusta perfectamente a las
exigencias de la estrategia de conservación evolutiva: recreación. A3 no es
más que MPT, con el componente de implementación, fundamentado en el
aprendizaje basado en proyectos, adaptado para funcionar fuera del ámbito
académico. A3 propone una infraestructura tecnológica resistente a la
obsolescencia tecnológica y una superestructura metodológica que permite
una conservación evolutiva de la obra producida o recreada con ella.

En este anexo se desarrolla la metodología MPT íntegramente.


Independientemente del componente de evaluación académico los
aspectos de trabajo en equipos transdisciplinares, la integración de los
componentes, la evaluación sistemática del proyecto, etc. son extensivos a

336
ARTCUBE. Proyecto financiado por la Universidad Europea de Madrid (referencia OTRI
2007/UEM25FG). Disponible en: http://www.artcube.es, [Consulta: 11-10-2010]. ARTCUBE es
un esfuerzo de integración en la confluencia del arte, la ciencia y la tecnología. A3, letras y
números, el cubo como dimensión, A de arte, dimensiones fractales, son solo algunas de las
connotaciones del término.

213
METODOLOGÍAS

la nueva reorientación logística que impone la propia naturaleza del arte


digital a todos los factores implicados: artistas, conservadores, comisarios,
investigadores, documentalistas, etc.

MPT

La vida personal, social e institucional, en el mundo actual, se ha vuelto cada


vez más compleja en todas sus dimensiones. Los problemas desafiantes que
se presentan no vienen confeccionados en bloques disciplinarios, sino que
sobrepasan ordinariamente los métodos, las técnicas, las estrategias y las
teorías elaboradas dentro del recinto procustiano de las disciplinas
académicas fundamentadas en un enfoque, en un abordaje, en unos
axiomas, en un método, en una visión unilateral de la poliédrica complejidad
de toda realidad337. Esos problemas obligan a una centralización, más en la
naturaleza del objeto del conocimiento, que en el método de medida. La
universidad es disciplinada pero los problemas reales del mundo son
indisciplinados, caóticos, complejos.

El paradigma de la complejidad es un cambio de paradigma epistémico,


en el sentido que teorizó Kuhn338, que consiste en una forma de conocer la
realidad uniendo gran parte de los saberes fragmentados (producto del
surgimiento de la ciencia moderna en el siglo XVII) con el propósito de tener
una visión transdisciplinaria y multidimensional, a la vez que consciente de
la finitud de dicha realidad.

El núcleo del paradigma de la complejidad lo constituyen las ciencias de


la complejidad339. En definitiva, la transdisciplinariedad no busca el dominio
de muchas disciplinas, sino la apertura de todas las disciplinas a aquellas que
las atraviesan y las trascienden. Los tres términos multidisciplinariedad,
interdisciplinariedad y transdisciplinariedad son neologismos prestados del

337
Martínez Miguélez, Miguel. Transdisciplinariedad. Un enfoque para la complejidad del
mundo actual. ConcienciaActiva. 2003, Vol. 21, No. 1.

338
Kuhns, Thomas S. ¿Qué son las revoluciones científicas? y otros ensayos. Barcelona:
Paidós, 1989.

339
Caro, op. cit., p. 6.

214
MPT

inglés y del francés y se relacionan con una organización nueva de la


investigación científica.

La integración de los diferentes conocimientos científicos es un tema de


especulación filosófica desde el momento mismo en que se evidencia la
multiplicidad de las ciencias modernas. No es posible la unificación de todas
las ciencias. Sin embargo, la epistemología actual ha conseguido, como
numera Martínez340 un conjunto de postulados irrenunciables o ideas
matrices que conforman una plataforma y una base lógica conceptual para
asentar todo proceso racional con pretensión científica, a la vez que coliden
con los parámetros de la racionalidad científica clásica tradicional: toda
observación es relativa al punto de vista del observador (Einstein); toda
observación se hace desde una teoría (Hanson); toda observación afecta al
fenómeno observado (Heisenberg); no existen hechos, solo interpretaciones
(Nietzsche); estamos condenados al significado (Merleau-Ponty); ningún
lenguaje consistente puede contener los medios necesarios para definir su
propia semántica (Tarski); ninguna ciencia está capacitada para demostrar
científicamente su propia base (Descartes); ningún sistema matemático
puede probar los axiomas en que se basa (Gödel); la pregunta ¿qué es la
ciencia? no tiene una respuesta científica341 (Morin). La demanda más
sentida hoy en día en los medios académicos es una sólida unificación de
esa postura epistemológica y sus correspondientes procedimientos
metodológicos.

Las realidades del mundo actual son cada vez más complejas. Las
interrelaciones y las interconexiones de los constituyentes biológicos,
psicológicos, sociales, económicos, políticos, culturales y ecológicos, tanto a
nivel de las naciones como a nivel mundial, se han incrementado de tal
manera, que la investigación científica clásica y tradicional342 –con su
enfoque lógico-positivista– se ha vuelto corta, limitada e insuficiente para

340
Martínez Miguélez, Miguel. La Nueva Ciencia. Su desafío, lógica y método. Editorial Trillas,
1999.

341
Morin, Edgar. El Método. Madrid: Cátedra (Teorema Mayor), 1993.

342
Hernández Sampieri, Roberto et. al. Fundamentos de Metodología de la Investigación.
Madrid: McGraw-Hill, 2007.

215
METODOLOGÍAS

abordar estas nuevas realidades. Las diferentes disciplinas, organizadas en


especialidades, departamentos, facultades, etc. reflejan una política de
separación, tanto espacial como conceptual; la cercanía no necesariamente
implica proximidad en el sentido de cooperaciones concretas, sino en forma
de entidades casi autónomas en la enseñanza y la práctica de la producción
y la transmisión de conocimiento. La diferenciación de las disciplinas impide,
a la vez que reclama, una reorganización basadas en diferentes propuestas.
Las clasificaciones dicotómicas mantienen la lógica formal de la división
disciplinar según la cual sus miembros se excluyen mutua y recíprocamente
porque se niegan todas sus posibles transiciones343.

Los enfoques unidisciplinarios o monodisciplinarios, con una visión


reduccionista, convierten todo lo nuevo, diferente y complejo, en algo más
simple y corriente, quitándole su novedad y diferencia, convirtiendo el
futuro en pasado344. La investigación monodisciplinaria enfatiza la
comprehensión o profundidad a expensas de la extensión. Este enfoque
aísla demasiado los elementos o las partes y su comportamiento, a la vez
que descuida los nexos y relaciones que tienen con el todo y con otros
todos; su exceso se revela en la hiperespecialización. La multi o
pluridisplinariedad es percibida como una cooperación entre diferentes
disciplinas poco o nada afines, la interdisciplinariedad se constituye como
colaboración coordinada desde el intercambio de ideas hasta la mutua
integración de conceptos y métodos básicos (coordinación, comunicación,
diálogo e intercambio son esenciales) y la transdisciplinariedad es la práctica
de una axiomática común de un conjunto de disciplinas. El verdadero
espíritu de la transdisciplinariedad va más allá; su meta o ideal no consiste
solo en la unidad del conocimiento, que es considerada como un medio, sino
que camina hacia la auto-transformación345.

343
Kedrov, Bonifatii Mikhailovich. Clasificación de las ciencias. Moscú: Editorial Progreso,
1976. p. 27. “Así la clasificación *dicotómica] resulta formal, artificial, con fronteras rígidas
entre las ciencias, [lo cual] refuerza la idea extendida entre naturalistas y positivistas de que
toda clasificación es arbitraria”.

344
Martínez Miguélez, Miguel. Hacia una Epistemología de la Complejidad y
Transdisciplinariedad. Utopía y Praxis Latinoamericana, Univ. del Zulia – Venezuela. 2009,
Año 14, N. 46, pp. 11-31.

345
Anés, José et al. Carta de la Transdisciplinariedad, Convento de Arrábida, Portugal, 1994.

216
MPT

Esta complejidad no es ajena a los agentes implicados en la conservación


del patrimonio cultural en general y en la Restauración del arte digital en
particular que, como mínimo, requieren de una colaboración interdisciplinar
para conseguir eficiencia. Las prácticas artísticas relacionadas con el arte
digital comparten un mundo tecnológico expansivo cada vez más complejo
solo practicable con metodologías donde el aprendizaje es un proceso
permanente mientras que los diseños curriculares universitarios no
satisfacen estos requerimentos. En este contexto se diseñó la metodología
para la evaluación y desarrollo de proyectos transdisciplinares (MPT). El
objetivo inicial del proyecto fue tender puentes transdisciplinares entre
diferentes facultades346 que facilitasen la producción de obras digitales. La
materialización de esta idea fue el diseño y lanzamiento del concurso anual
de Arte y Tecnología: ARTCUBE347. MPT consta de un modelo estructural de
dos capas una sobre otra: superestructura metodológica e infraestructura
tecnológica348.

En este anexo se expone la superestructura metodológica propuesta y


sus implicaciones epistemológicas, gnoseológicas y teleológicas. La elección
de una infraestructura tecnológica específica no es tarea fácil. Como objeto-
sistema, en una implementación técnica existe siempre una tensión entre
coste-prestaciones (en términos de capacidad); las decisiones deben ir en
una u otra dirección. En general existen infinitas implementaciones para

346
En concreto las entonces Escuela Superior Politécnica, la Escuela Superior de Arte y
Arquitectura y la Facultad de Comunicación. Es poco probable (de hecho no existían
antecedentes) que se desarrollen propuestas artísticas de arte digital con una colaboración
real entre personas procedentes de distintas disciplinas en un entorno tan compartimentado
como es la universidad tradicional.

347
En el ámbito de un concurso académico era imprescindible establecer una metodología
trandisciplinar que permitiése evaluar y desarrollar las propuestas (no solo desde el punto de
vista artístico sino también desde académico; la implementación debía ajustarse a un
presupuesto y constituir de hecho un proyecto de fin de carrera).

348
Montañés, Manuel. Metodología y técnica participativa: teoría y práctica de una
estrategia de investigación participativa. Barcelona: Editorial UOC, 2009, p. 20. “El saber de
las cosas descansa sobre dos soportes: la dimensión tecnológica –como podemos conocer los
cambios– y la dimensión teórico-metodológica –por qué se producen esos cambios y no
otros–”.

217
METODOLOGÍAS

conseguir las mismas funcionalidades pero no todas son resistentes a la


obsolescencia. Estas exigencias se analizan en profundidad posteriormente.

Los procesos relacionados con el arte digital requieren del conocimiento


multidisciplinar de la naturaleza de la obra, la observación desde su esencia:
el dato349, en una rutina de arriba hacia abajo, desde lo general a lo
particular. Estas prácticas deben ser metódicas, sistemáticas, meticulosas y
exhaustivas, bien documentadas y contrastadas y constituyen, de hecho, el
arte de la Restauración del arte digital. Es imprescindible una formación
adecuada en su concepción, producción y proyección. Sin embargo ésta se
ha producido mayormente como herramienta y no como medio; por lo que
aún queda mucho esfuerzo por realizar. Solo así es posible producir una
cultura acorde a las demandas de la sociedad actual. El territorio natural
para ello es el nuevo sistema de enseñanza universitario amplio y
transversal, dirigido a competencias350.

La superestructura metodológica, documentada aquí, es capaz de


abordar la solución técnica de cualquier proyecto de arte y tecnología. Esta
capa se apoya en la infraestructura tecnológica, basada en el paradigma de

349
Los procesos son un tipo especial de datos.

350
Memoria Para La Solicitud De Verificación De Títulos Universitarios Oficiales. Grado en
Arte Electrónico y Digital. UEM, Mayo 2010. p. 9. La multiplicidad de perspectivas que se
interrelacionan en el arte electrónico y digital hace necesario un enfoque sistemático,
ordenado y lógico que facilite su concepción, producción, conservación y restauración.
Después de cuarenta años se hace imprescindible una colaboración estrecha entre todos los
agentes implicados: artistas, curadores, restauradores, conservadores, coleccionistas,
educadores, y esto se pone de manifiesto en los proyectos avalados por estos centros en los
que de una manera integradora, trabajan todos los agentes implicados. La Universidad es el
espacio ya no adecuado sino idóneo para ello. No es posible concebir el estudio del arte
aislado de la ciencia y la tecnología. Estas áreas del conocimiento han proporcionado las
herramientas contemporáneas para el desarrollo de la producción artística a la vez que se
han convertido en medio de expresión del arte contemporáneo. No existe prácticamente
programa o grado cuyo centro es el Arte que no haya introducido asignaturas relacionadas
con la ciencia y la tecnología: informática, telecomunicaciones, etc. en un proceso de ajuste
natural a la sociedad en que vivimos.

218
MPT

los sistemas complejos, y, con ligeras modificaciones, puede ser empleada


en cualquier proyecto genérico.

En el contexto del concurso ARTCUBE (génesis de MPT), estudiantes de


cualquier titulación proponen obras en la intersección del arte y la
tecnología cuyo premio consiste en la producción de la obra “seleccionada”
(no solo por su valor como propuesta artística sino también en términos de
implementación, producción o ejecutabilidad); pero no de cualquier
manera, sino a través de proyectos de fin de carrera (en adelante PFC)
organizados de manera transdisciplinar con la intervención de participantes
de diferentes áreas (titulaciones). MPT debe evaluar la factibilidad del
premio (por parte de una comisión técnica adjunta al jurado) y ofrecer las
técnicas necesarias para resolver su implementación y seguimiento en un
tiempo determinado y como un conjunto de subproyectos.

Esta metodología, no solo permite la conversión de la definición de un


proyecto artístico en un proyecto de ingeniería351, sino que lo subdivide en
los subproyectos necesarios para afrontarlos como PFCs transdisciplinares y
diseña su implementación mediante técnicas de aprendizaje cooperativo
basado en proyectos352 (en adelante ABP). Esta particularidad impone una
serie de requisitos preliminares:

Se parte de un presupuesto limitado; prescrito en las bases del concurso


anual.

Los subproyectos que se generen deben tener la entidad de un PFC.

351
La naturaleza dual del bien funcional-simbólica le convierte en un objeto-símbolo a la vez
que objeto-sistema. Como objeto-sistema la producción del bien (y posteriormente su
preservación, conservación y restauración) es un proceso ingenieril.

352
Galeana de la O, Lourdes. Aprendizaje Basado en Proyectos. CEUPROMED, Universidad de
Colima, 2006: http://ceupromed.ucol.mx/revista/PdfArt/1/27.pdf, [Consulta: 29-10-2010]. La
técnica de aprendizaje cooperativo basado en proyectos es una herramienta muy útil para la
enseñanza según el nuevo enfoque orientado a competencias de Bolonia (Espacio Europeo
de Educación Superior) pero no exclusivamente. La filosofía de aprender a aprender o de
aprendizaje continuo resulta apropiada para el desarrollo de proyectos complejos en
entornos complejos transdisciplinares.

219
METODOLOGÍAS

El desarrollo de las partes como un todo debe ser consistente.

Atenerse al límite del presupuesto puede condicionar, inclusive, el


premio otorgado por el jurado. El desarrollo de una obra cuya calidad es
muy buena (como para merecer el premio inclusive), pero el coste previsto
excede el presupuesto disponible, no es viable. Esto impone una evaluación
rigurosa, desde el punto de vista técnico, que estime, a priori, el coste o
inversión de la propuesta a cargo de un jurado experto o un grupo de apoyo
creado para ello. Trabajar con ajuste a un presupuesto inicial para la
Restauración353 de un bien es una práctica sensata y habitual incluso fuera
del ámbito del concurso.

Que un subproyecto tenga la entidad de un PFC pasa, necesariamente,


por la revisión del concepto de PFC (sobre todo en el ámbito de la
transdisciplinariedad). Un PFC tiene duración limitada (normalmente un
año), determinada por los plazos de pago y lectura, pero no deja de ser una
asignatura con determinado número de créditos y convocatorias según las
diferentes disciplinas o carreras. Sin embargo, el desarrollo de los PFCs
transdisciplinares tiene que estar perfectamente sincronizado porque
constituyen las partes de un todo. Un PFC tiene un corpus académico
determinado: debe conseguir unos objetivos concretos y evaluar o
desarrollar aspectos o habilidades técnicas con cierta entidad. La partición
del proyecto y dimensionamiento de cada subproyecto es de gran utilidad
para organizar el trabajo de Restauración354. Otro aspecto, no menos
importante, está relacionado con el seguimiento del proyecto: a nivel de
cada subproyecto y a nivel de proyecto global. Es muy importante aislar la
implementación de cada subproyecto como una “entidad” que encapsule
sus funciones y datos y que interrelaciona con otras entidades a través de
interfaces bien definidas (forma de intercambio de datos) y seguir su
desarrollo (estableciendo los hitos y mecanismos necesarios). Pero es

353
En la estrategia de conservación evolutiva: recreación, el proceso de producción en el arte
digital está irremisiblemente conectado con los procesos de Restauración en cuanto se recrea
la obra.

354
Un proyecto de Restauración no es un PFC en cuanto a dimensión ni alcance pero sí en
cuanto a proyecto a secas: tiene unos objetivos, cuenta con un presupuesto, un límite de
tiempo, determinadas recursos humanos y técnicos, procesos organizativos, roles, etc. Por
ello se detallan las condiciones académicas del PFC.

220
MPT

necesario “seguir” esa interrelación y velar por la perfecta sincronización de


todos los subproyectos materializado en un plan de seguimiento. Para
explicar la metodología se utilizará el caso de estudio Atmos Data ß355. Esto
permite ejemplificar cada etapa o actividad a partir de un caso real de
relativa complejidad y amplitud.

La metodología propuesta tiene como “entrada” las especificaciones del


proyecto premiado descritas según formulario de las bases del concurso (es
lo que se exige, como mínimo, a cada propuesta)356. Solo algunos de los
datos que deberá rellenar el concursante servirán de entrada a la
metodología. Por ejemplo: concepto y descripción del proyecto y
documentación complementaria en forma de fotos y/o vídeos. El resto de la
información, útil para la organización del concurso pero no para MPT, se
obvia en esta memoria.

La metodología deberá ser capaz de proponer como “salida”, mediante el


procesado de estos datos, un sistema distribuido complejo compuesto por
elementos HW/SW integrados en la tecnología a3.cube, a3.nexus357 y definir
su ejecución con herramientas de ABP. El problema fundamental es la

355
Cortesía del artista y profesor de la Facultad de Artes y Comunicación Kepa Landa. Atmos
Data ß es un caso de estudio real de producción sin embargo se ajusta perfectamente a un
caso real de Restauración en caso de que el bien estuviese en un estado adverso a la
conservación evolutiva. La única diferencia es que en la recreación habría que respetar el
aspecto del bien mientras que en la producción esto es irrelevante. Hablar de Restauración,
en este contexto, incluye al proceso de producción. Atmos Data ß simula una propuesta al
concurso.

356
Probablemente en un caso de Restauración de un bien se disponga de mayor información
(por ejemplo, una documentación apropiada, bibliografía, etc.) pero en este caso el ejercicio
es, aprovechando que se cuenta con la opinión del artista, extraer o completar la información
“necesaria” para la producción a partir de la información incial aportada. Cómo conseguir
información relevante del bien para su Restauración del propio creador es otra línea de
investigación muy activa.

357
En la MPT se denominan art.cubes/ art.nexus a los componentes e interfaces ente
componentes, respectivamente. En A3 se les denomina a3.cubes/a3.nexus pero
corresponden exactamente a lo mismo. Solo los detalles de implementación diferencian
ambas tecnologías. En este texto se describe la MPT completa por la utilidad de aplicar las
técnicas de aprendizaje cooperativo basado en proyectos incluso fuera del ámbito académico
universitario.

221
METODOLOGÍAS

posible incompletitud e inconsistencia de la información inicial, en cuyo caso


es imprescindible adoptar una serie de supuestos genéricos a definir y
completar durante la ejecución del proyecto mediante la interacción del
grupo de trabajo.

MPT se diseñó para insertarla en el espacio europeo de educación


superior (EEES); sin embargo, para “universalizar” su alcance se utiliza la
palabra participante, en lugar de estudiante o alumno, en referencia a
cualquier recurso humano involucrado en el proyecto; coordinador, en lugar
de profesor y taller por aula. Aunque el enfoque orientado a la adquisición y
evaluación de competencias es propio del nuevo EEES, las estrategias y
técnicas de aprendizaje y de planificación y gestión de proyectos
(subproyectos) siguen siendo válidas en otros equipos multidisciplinares
como los de Restauración.

La metodología propuesta se divide en tres fases consecutivas: modelo,


diseño e implementación. Cada fase aporta información acumulativa a la
viabilidad del proyecto, aunque no es necesaria la conclusión de todas para
la toma de una decisión concluyente.

Modelo. Se puede asumir que una obra (en el contexto arte y tecnología) es
un sistema que consume, procesa y produce información (probablemente
de naturaleza audiovisual). El límite del “sistema” queda establecido por las
fuentes y sumideros de la información. Por lo tanto, el primer paso de esta
metodología, consiste en modelar tal “sistema” de manera lógica, funcional.
Para ello es necesario definir los datos, procesos, unidades externas, y los
dominios que representen adecuadamente el “todo”.

Diseño. La primera fase define el qué del objeto-sistema (qué hace, qué es),
sin tener en cuenta el cómo. Es en esta segunda etapa donde se define la
realización del sistema en base a determinados recursos o entidades
a3.cubes, a3.nexus y en un sistema de notación determinado. Una entidad
a3.cube (también referida como componente o parte), desde el punto de
vista funcional, ofrece determinados servicios mientras que la tecnología
a3.nexus permite a un a3.cube la publicación de tales servicios y su uso por
otros a3.cubes. El uso combinado de ambas tecnologías permite la

222
Modelo

producción modular, escalable y sistemática de obras de arte digital (en la


confluencia arte, ciencia, tecnología, comunicación, sociedad, etc.).

Implementación. En esta fase se planifica el desarrollo de cada entidad


según técnicas de aprendizaje cooperativo basado en proyectos (ABP). Estas
técnicas están diseñadas para que los participantes puedan desarrollar un
proyecto en grupo, aprendiendo según avanzan, con un conocimiento
incompleto del problema, y para integrar conocimientos y habilidades de
diferentes áreas; lo que la hacen muy apropiada para el desarrollo de
proyectos transdisciplinares. Es en esta fase donde se toman decisiones
respecto a una tecnología concreta, donde se “materializa” el objeto.

Modelo

Una técnica de construcción de modelos que resulta apropiada para la


especificación de requisitos (definición de datos, procesos y, con alguna
alteración, dominios), es la técnica de análisis estructurado, de burbujas o
de Tom DeMarco (con ampliaciones para tiempo real de Ward y Mellor,
Hartley y Pirbhai).

El objetivo del modelo es capturar la funcionalidad del sistema en


términos de información, la extracción de sus datos y procesos y el contexto
(los límites del objeto-sistema) así como sus propiedades: información-
control (de datos y procesos), continuo-discreto/analógico-digital (dominio),
entrada-salida (de un proceso), etc. Obsérvese que esta información no es
perecedera. Es parte de la partitura del bien. Define qué hace pero no cómo.
Si se se considera que el bien es un objeto (en términos de programación
orientada a objetos) en esta fase se define la clase; es decir, todos los
métodos (procesos) y propiedades (datos) del objeto modelado. La
implementación sería equivalente a la “instanciación” de la clase para crear
el objeto. Esta fase no es exclusiva al arte digital aunque se puede
aprovechar de la axiomática de la ingeniería de sistemas.

El siguiente diagrama muestra la notación gráfica básica empleada para


reflejar el flujo y contenido de la información (datos y control). A partir de
este diccionario de símbolos se puede describir el objeto de Restauración en
términos de sus datos (información) y procesos (transformaciones).

223
METODOLOGÍAS

Proceso: Transformador de información que reside dentro


Proceso
de los límites del sistema a modelar. Para múltiples
instancias del mismo proceso (en sistemas multitarea) se
proyecta una sombra.
Proceso de Control: Transformador de control o de
Proceso de
Control “sucesos” que reside dentro de los límites del sistema a
modelar. Acepta (entrada) y produce (salida) información de
control.
Flujo de dato discreto (digital): Dato que entra o sale de
forma discreta.
Flujo de dato continuo (analógico): Dato que entra o sale de
forma continua.
Flujo de control discreto (digital): Dato de control o
“suceso”. Toma un valor lógico o discreto. La cabeza de la
flecha indica la dirección del flujo de control.
Flujo de control continuo (analógico). Dato de control o
“suceso”. Toma un valor real.
Almacén o Contenedor: Depósito de datos para el uso de
Almacén de Datos
uno o más procesos. Puede ser un buffer, una cola o una
base de datos relacional.
Almacén de Control
Almacén o Contenedor de Control: Depósito de datos de
control para el uso de uno o más procesos.
Unidad Unidad externa (Entrada/Salida): Productor o consumidor de
Externa
información que reside fuera de los límites del sistema a
modelar.
Transductor Analógico/Digital: Elemento donde se produce
la transformación de datos analógico a discreto.

Transductor Digital/Analógico: Elemento donde se produce


la transformación de datos discreto a analógico.

Especificación de Control: Describe el comportamiento de


un sistema. Define cómo se activan los procesos a
consecuencia de los sucesos.

69. Notación gráfica.

224
Modelo

Los conceptos que utiliza esta técnica son básicos. Los datos representan
información. Un dato es una entidad abstracta que porta información. Un
tipo especial de datos es el de control, también denominado “suceso”
porque se genera bajo ciertas condiciones. Cualquier dato puede ser
continuo o discreto en relación a la manera en que cambia o de entrada o
salida en relación a un proceso. Los procesos modifican los datos o sucesos
(en el caso de un proceso de control): reciben una cantidad de datos de
entrada y producen una cantidad de datos a la salida. Las unidades externas
establecen los límites del sistema, son las interfaces del sistema con el
exterior (lo que no se va a modelar) y pueden ser de entrada o salida. Los
almacenes o contenedores guardan datos, que pueden ser también de
control y ser utilizados por uno o más procesos. Los transductores delimitan
los dominios continuo y discreto del sistema a modelar. El dominio está
relacionado con la naturaleza analógica ó digital de los datos. La
especificación de control establece las condiciones en que se activan los
procesos (por ejemplo, una máquina de estados. Un estado es cualquier
modo de comportamiento observable).

El primer paso en la construcción del modelo es la definición de la


burbuja principal o de nivel cero como un único proceso o transformación
desde y hacia entidades externas. La clave está en representar la
información que entra y la que produce la transformación.

El segundo paso es un proceso de refinamiento de cada una de las


burbujas en distintos niveles que representen un mayor flujo de información
y un mayor detalle funcional y que concluye cuando no sea posible
subdividir más una burbuja. Cada burbuja recibe un nombre y un
identificador numérico único. Excepto en el diagrama de nivel 0 (0
corresponde al número asignado), los nombres para definir los procesos
deben ser verbos infinitivos (por ejemplo leer, modificar, monitorizar, etc.).
Los números se dispensan de la siguiente manera: el diagrama de nivel 1
(refinamiento del nivel 0) contiene los procesos 1, 2, etc. Cada diagrama de
nivel 2 corresponde al refinamiento del nivel anterior con lo que hereda su
numeración. Por ejemplo 1.1, 1.2, etc. El diagrama de nivel 3 (refinamiento,
por ejemplo, de la burbuja 1.1) se numerará 1.1.1, 1.1.2, etc.358 En el

358
Obsérvese que la cantidad de números, separados por un punto, informa a qué nivel
corresponde el diagrama o, lo que es lo mismo, a qué burbuja. Cada nivel puede contener las
burbujas que se consideren necesarias.

225
METODOLOGÍAS

diagrama de nivel 1 cada uno de los procesos es una subfunción del sistema
general del diagrama de contexto. Los flujos de datos también requieren ser
etiquetados y deben mantener su consistencia. Solo pueden aparecer como
flujos de datos de entrada y salida en un diagrama los flujos de datos que
entran y salen a la burbuja del diagrama del nivel superior. Obsérvese que el
empleo de esta técnica permite particionar problemas de gran tamaño de
manera efectiva (funcionalmente), simple (gráficos) y consistente teniendo
en cuenta sus interrelaciones.

A continuación se ilustra la construcción del modelo a partir de la


descripción del proyecto Atmos Data ß según formulario del concurso359:

Caso de Estudio: Atmos Data ß


TÍTULO: Atmos Data – UEM
CONCEPTO DEL PROYECTO (3 LÍNEAS):

Este proyecto de investigación artística pretende desarrollar representaciones audiovisuales, como


paisajes dinámicos, de la atmósfera de Madrid, que inviten a reflexionar sobre el entorno en el que
vivimos. Se basará en los análisis químicos, físicos y sonoros permanentes de las estaciones de
seguimiento.
DESCRIPCIÓN DEL PROYECTO:

Descripción conceptual:

En la actualidad la percepción que se tiene de nuestro entorno se ha ampliado a través de los


sistemas de sensores de todo tipo (químicos, sonoros, lumínicos etc.). Uno de los campos que más
análisis registra es el de la calidad del aire y el análisis de nuestra atmósfera. El proyecto "Atmos
Data ß" tiene por objetivo desarrollar un sistema de visualización de los datos que se obtienen a
través del análisis periódico de gases de la atmósfera, especialmente en grandes ciudades afectadas
por la polución. El sistema traducirá la evolución de los datos numéricos a representaciones
dinámicas visuales, sonoras o físicas, que permitan hacernos conscientes y reflexionar sobre el
entorno en el que vivimos y especialmente el aire que respiramos. Por tanto podríamos decir que se
trata de un "paisaje dinámico". Una de las claves de este proyecto es que busca hacer visible lo
invisible, hacernos conscientes de una parte de la realidad de cuya complejidad apenas somos
conscientes.

359
Se obvian algunos campos irrelevantes para explicar la metodología.

226
Modelo

Descripción de los procesos:

Fase 1 – Recogida de datos de la página web (o almacenaje de los datos enviados automáticamente
desde el servicio de descarga de datos de Datos de las Estaciones de Medición Medioambiental de
la Red de Vigilancia de la Calidad del Aire y de Control Acústico del Ayuntamiento de Madrid):
http://www.mambiente.munimadrid.es/opencms/opencms/calaire/consulta/gases.html,
http://www.mambiente.munimadrid.es/opencms/opencms/calaire/consulta/descarga.html

Fase 2 – Los datos capturados se contrastan con los “datos de referencia” preestablecidos. Estos
datos serán establecidos como “normales” o “saludables”, en coordinación con expertos de calidad
del aire. Las variaciones sobre los “datos de referencia” se aplicarán como parámetro de
transformación de:

-la imagen capturada de los espectadores (a través de filtros de vídeo)

-la imagen capturada de los espectadores (a través de filtros de vídeo como el desenfoque–
aplicados sobre el rostro de los participantes a partir de una marca)

-el sonido que los propios participantes pueden generar (aplicando filtros a la acústica, tono u otros
parámetros de su voz, ejemplo: escuchar la propia voz aplicándole la filtros/ruido de una voz ronca,
en paralelo a un paisaje sonoro saludable sin filtros, pájaros en el campo y un riachuelo)

-el sonido de una música que ellos mismo elijan (la música repetida en tantas pistas como gases se
midan, tendrá variables en cada pista alterando la velocidad en función de la “anormalidad” de las
variables respecto a los datos de referencia)

-el movimiento de resortes que actuarán sobre una superficie flexible (silicona o similar), dicho
movimiento recogerá una secuencia temporal (una semana, mes o año) con el fin de hacer visible la
evolución de la alteraciones. Esta superficie se ubicará como “piel sensible” en una posición que
invite a la reflexión en función del espacio donde se presente. Ejemplos: si se expusiese en la ciudad
donde se está debatiendo y negociando sobre cuestiones climáticas se optaría por una mesa de
negociación. Si se presentase en un festival de cine y ecología podría adoptar la forma de un
asiento/respaldo sobre el que sentarse/apoyarse. Si fuese en un museo podría apropiarse de las
paredes en lugares de tránsito o de un techo intencionadamente bajo, de dos metros máximo.

Otra versión de el montaje con resortes sería la de generar una estructura de resortes que se auto
sostuviera, y que las variaciones de los resortes implicaran variaciones en el equilibrio de la
estructura y en un segundo término pronunciase sonoramente esas alteraciones, para ello se
posaría esta estructura sobre una material de gran sonoridad (cristal, piel de un tambor, etc.). La
forma está por determinar pero podría ser similar a la de un ciempiés o una matriz.

-cabría una vía más educativa, la representación de las partículas mediante realidad aumentada.

227
METODOLOGÍAS

Uno de los principales retos de los proyectos transdisciplinares es el


lenguaje empleado y su significado. En la descripción se pueden leer
palabras como filtros, sonoridad, tono, parámetros de la voz, paisaje sonoro,
realidad aumentada, pero… ¿es posible asegurar que signifiquen lo mismo
para todos los integrantes del proyecto? Probablemente no. Por ejemplo el
término “caja negra” en el ámbito de la ingeniería (teoría de sistemas) es un
sistema, con determinadas entradas y salidas, cuyas funciones se conocen
(se sabe el qué); pero no cómo se realizan (se desconoce el cómo). En las
artes plásticas una “caja negra” es simplemente eso: una caja de color
negro. Mientras que en la aeronáutica la “caja negra” (cuyo color es naranja
claro para facilitar su localización tras un accidente) es un dispositivo
indestructible que registra todas las señales importantes de la nave, como la
actividad de los instrumentos y las conversaciones en la cabina, para
determinar qué ha pasado en caso de accidente y en psicología hace
referencia a un concepto abstracto. Otro término frecuente que puede dar
lugar a equívoco es el de señal. En el ámbito de las artes una señal es un
símbolo, un gesto u otro tipo de signo que informa o avisa de algo. La señal
sustituye por lo tanto a la palabra escrita o al lenguaje. Sin embargo en el
mundo tecnológico una señal representa la variación de una magnitud física
(corriente eléctrica, campo electromagnético, etc.) que se utiliza para
transmitir información. Por lo tanto, aunque nos parezca obvio, es
recomendable contrastar el significado de los términos y “entender”
correctamente la información. La siguiente figura muestra el diagrama de
nivel cero de Atmos Data ß.

Nivel 0

Cámara imagenEntrada T.V.


imagenSalida

Atmos Data ß
Internet datosEntrada sonidoSalida Altavoz

Micrófono controlPiel
sonidoEntrada Piel Sint.

70. Diagrama de contexto o de nivel cero.

228
Modelo

La burbuja principal identifica al sistema como un todo. Las unidades


externas marcan los límites o ámbito del sistema y solo aparecen las señales
o datos de entrada (a la izquierda) y las señales o datos de salida (a la
derecha). Los datos (correspondiente a la fase 1 en el formulario) son
representados por el flujo discreto datosEntrada, la imagen capturada de los
espectadores (en la fase 2) corresponde a imagenEntrada, y el sonido que
los propios participantes pueden generar o de una música que ellos mismo
elijan (también de la fase 2) corresponde a sonidoEntrada. No se conoce
mucho de la naturaleza de estos datos. Obsérvese que no se especifica qué
música, ni las condiciones de adquisición de estos datos. La información se
debe representar casi de forma abstracta, hasta el máximo detalle requerido
y libre de inconsistencia, y ampliar en una fase posterior360 o simplemente
hacer una serie de asunciones más o menos predictivas y realistas que
permitan una aproximación recursiva a la información real.

Respecto a las salidas también la información descrita en el formulario


ofrece ciertas pistas: se habla de pasar la imagen a través de filtros de vídeo
(eso es realmente un proceso, desenfoque por ejemplo, pero que genera
datos a la salida) o de pasar el sonido otra vez a través de filtros, o de alterar
su velocidad y, aunque no se especifica cómo, se asume que deben ser
visualizados por la información contextual. Por último se habla de “actuar”
sobre una superficie, una especie de “piel sensible”, aunque también sin
detalles precisos acerca de sus propiedades (dimensiones, elasticidad,
forma, etc.) y de cómo responde a cuáles o qué parámetros
medioambientales. Con esta información se puede refinar el diagrama de
nivel 0 en el siguiente esquema de nivel 1.

360
En el ámbito del concurso solo si la obra resulta premiada, durante el desarrollo, se
detallará esta información hasta quedar completamente definida y libre de inconsistencia o
interpretación. En el caso de Armos Data ß mediante entrevista al artista. Obsérvese la
importancia de contar con la colaoración del artista. En caso que esto no sea posible habrá
que extraer esa información de la obra y de toda la documentación de la obra, de entrevistas
a especialistas o técnicos cercanos al artista y a la obra y, en última instancia, introducir
información sin constatar.

229
METODOLOGÍAS

1 4
imagenEntrada vídeo vídeoSalida
Capturar Generar
Video Vídeo

controlVídeo

2 5
datosEntrada controlAudio sonidoSalida
Capturar Generar
Datos Audio

controlPiel

B.D. Referencia

3 6
sonidoEntrada sonido controlPiel
Capturar Controlar
Sonido Superficie

B.D. Música

71. Diagrama de nivel 1.

Obsérvese que a este nivel entran/salen los mismos flujos que en el nivel
anterior. Sin embargo se detallan los procesos y utilizan almacenes de datos
(también comentados en la descripción del proyecto) y que no deben
aparecen en el diagrama de nivel 0. A este nivel se puede representar los
flujos de control que se generan en Capturar Datos y afectan (aunque no se
especifica cómo) la Generación de Vídeo y Audio y el Control del Movimiento
de la Superficie. En la descripción no se menciona la naturaleza
digital/analógica de los datos de imagen y sonido por lo que se asumen
discretos. En general cualquier práctica de Restauración de arte digital
requiere una transcodificación al dominio digital; la mayoría de los
proyectos tienen escasa información en el dominio analógico
capturada/generada mediante la transducción apropiada.

230
Modelo

4.1
vídeo
vídeoDesenf
Desenfocar

4.3
vídeoSalida

Mezclar
Vídeo

4.2
vídeoFiltrado
Filtrar X

controlVídeo

72. Diagrama de nivel 2 de la burbuja 4: Generar Vídeo.

5.1
sonido
sonidoFiltrado
Filtrar Y

5.3 sonidoSalida

Mezclar
Audio
5.2
sonidoBDFiltrado
Filtrar Z

controlAudio

B.D. Música

73. Diagrama de nivel 2 de la burbuja 5: Generar Audio.

Los diagramas de nivel 2 se pueden obtener refinando cada una de estas


burbujas. Por ejemplo la figura 72 muestra la descomposición de la burbuja
4, Generar Video. Obsérvese que aparecen tres transformadores o procesos:
Desenfocar, Filtrar X y Mezclar Video. Sin embargo, el proceso desenfocar es
por sí mismo una operación de filtrado paso-bajo; con lo cual el proceso
filtrar se entiende como una transformación (indeterminada a estas alturas)
en dos dimensiones. Por último es evidente que para visualizar los flujos

231
METODOLOGÍAS

resultantes es necesario mezclarlos y el flujo controlVídeo debe establecer


cómo, dónde y cuánto afectarán los datos medioambientales a estos
procesos. Este diagrama no es susceptible de mayor refinamiento. La
consistencia en la información se consigue eliminando cualquier tipo de
ambigüedad. Éste es quizá uno de los aspectos más interesantes e
importantes de la Restauración del arte digital. La definición de una obra
digital: un objeto-símbolo está, a menudo, colmada de ambigüedad,
incosistencia, dudas, tensiones entre ideas; sin embargo el objeto-sistema
no es realizable bajo esas premisas. La toma de decisiones durante el
proceso inevitablemente requiere despejar esas dudas, definir lo indefinido,
precisar lo ambiguo, seleccionar y elegir determinada idea o concepto por
encima de otros, etc. Este es uno de los puntos críticos para conseguir una
verdadera Restauración: recrear un bien restaurable. Todos los flujos y
procesos deben tener un nombre diferente, único, relacionado con su
función o naturaleza.

Diseño

El objetivo de esta fase es el diseño de la implementación del sistema


modelado en el paradigma de los sistemas complejos mediante el uso de
entidades a3.cubes y sus respectivas interfaces a3.nexus. Esta etapa
requiere de un nuevo sistema de notación más simple que encapsula al
modelo.

Un a3.cube es un sistema HW/SW que realiza determinadas funcionalidades


e intercambia información con otros a3.cubes a través de una interfaz
a3.nexus bien definida. Cada a3.cube es autónomo e independiente e
interactúa con otros a3.cube mediante a3.nexus. Con esta tecnología
cualquier objeto-sistema es susceptible de se creado/descompuesto en un
determinado número de entidades a3.cubes que, como una especie de
pieza de LEGO, encajan, a través de sus correspondientes a3.nexus, hasta
conseguir la funcionalidad objetivo. Para que las piezas encajen solo es
importante la interfaz y no las particularidades de cada componente (los
métodos y propiedades).

En general los a3.cubes se pueden clasificar en dos grandes familias:


sintetizador o interfaz, aunque es posible la definición de otros más

232
Diseño

específicos. El objetivo de los sintetizadores es producir o sintetizar imagen


(ya sea sonido o imagen propiamente dicha) y el de las interfaces generar o
capturar información gestual (de control). Capturar información gestual
significa convertir una señal física, como puede ser el movimiento o
expresión de una cara, una señal luminosa, la velocidad de un cuerpo, etc.
en información de control sobre la generación de sonido e imagen. Generar
esta información asume cierta inteligencia o automatismo donde no
interviene el hombre.

Interfaz Sintetizador
Nexus

74. Componentes e interfaces. En general, aunque no necesariamente, los


componentes son de dos tipos: interfaz o sintetizador e intercambian
información entre ellos mediante los interfaces nexus.

75. Componentes e interfaces del caso de estudio Atmos Data β. Obsérvese que
la representación gráfica corresponde a los procesos del diagrama de nivel 1, en
la figura 71.

233
METODOLOGÍAS

Las ventajas de este planteamiento son múltiples:

Planteamiento distribuido del sistema. Mayor robustez, optimización


de los recursos, aislamiento funcional, etc.

Interfaces universales. Cada módulo exporta, en un lenguaje y


protocolo común, cuáles son los servicios que dispensa y el protocolo para
su uso. Esto aísla completamente el cómo lo hace, del qué hace; lo que
permite una sustitución/renovación programada.

Una entidad a3.cube agrupa un conjunto de subprocesos del diagrama


de nivel 1 según uno de los cuatro tipos de funcionalidades que aglutina. Por
ejemplo: interfaz (manual o automática) y sintetizador (visual o sonoro). Es
posible definir nuevas entidades a3.cubes que no se ajusten a esta
propuesta (basada en módulos que generan información de control y
módulos que generan información multimedia –sonido/imagen– a partir de
estas secuencias de control).

El mecanismo de interacción de una entidad a3.cube con otra


corresponde a la interfaz a3.nexus. a3.nexus es una tecnología basada en la
arquitectura distribuida SOA (Arquitectura Orientada a Servicios/ Service
Oriented Architecture) que permite el uso de los servicios de la entidad de
manera distribuida y, en teoría (aunque realmente esto, en este contexto,
puede resultar irrelevante), sin su conocimiento a priori. Cada entidad
realiza una serie de funciones entendidas como “servicios”. Cada servicio
necesita determinado número de datos de entrada y proporciona
determinado número de datos de salida (como un proceso del modelo de
burbujas). Cada entidad es responsable de publicar sus servicios y la forma
de acceso correspondiente.

Por ejemplo: Supóngase que todos los procesos relacionados con la


obtención de medidas medioambientales son asignados a un a3.cube. ¿Qué
servicios ofrece esta entidad?: determinado número de datos
medioambientales. La forma en que colecte, procese y entregue los datos
será modelada según la técnica de burbujas descrita. Sin embargo, esta
entidad actúa como un “sistema” cuyas “unidades externas” corresponden a
la información de entrada y salida. Pero la forma en que otra entidad puede
disponer de los datos de salida será implementada como servicios a través
de la tecnología a3.nexus. a3.nexus será, desde el punto de vista del
modelo, un subsistema que gestiona la información de la entidad; desde la

234
Diseño

exportación de las estructuras de datos de entrada y salida hasta las


funciones públicas.

Cuando se requiera de una tecnología audiovisual “estándar” (por


ejemplo MIDI, flujo de audio o vídeo, etc.) la interfaz a3.nexus
correspondiente deberá ser capaz de encapsular361 ese estándar.

1 4

Capturar Generar
Vídeo Vídeo

2 5

Capturar Generar
Datos Audio

3 6

Capturar Controlar
Sonido Superficie

76. Posible subdivisión en servicios para el caso de estudio. Las líneas


discontínuas representan conjuntos de componentes a3.cubes que asumirán los
procesos de las burbujas correspondientes. Cada proceso corresponde a un
a3.cube pero es la agrupación en conjuntos la que determina si los a3.nexus
serán intra-inter sistema computacional o lo que es equivalente la comunicación
será soft-hard.

361
El concepto de encapsulamiento en informática se refiere a la ocultación por asimilación
de unas funciones en otras. Un protocolo se inserta dentro de otro. cfr. modelo OSI en el
Anexo B - Tecnologías.

235
METODOLOGÍAS

Esta segunda fase de diseño se puede entender como la implementación


distribuida compleja del sistema modelado. Es aquí realmente donde una
“obra de arte” se convierte en un “sistema de ingeniería”, donde se genera
el objeto-sistema. ¿En base a qué criterios se diseña un a3.cube? El diseño
estará determinado por decisiones que resuelvan, entre otras, la tensión
capacidad/nivel de distribución. Cada conjunto de entidades (que conforma
de hecho un a3.cube de más alto nivel) puede ofrecer determinada
funcionalidad en función de la capacidad del sistema (HW/SW) que lo
soporta. En este contexto la capacidad se puede definir en términos de
velocidad de cálculo, cantidad de memoria, recursos computacionales
(entradas, salidas, interfaces, transductores, sistema operativo, lenguaje,
etc.). El propósito de esta fase se podría resumir como el proceso de aplicar
las tecnologías a3.cubes y a3.nexus con el objetivo de definir la realización
física del sistema modelado para funcionar en tiempo real de manera
distribuida (que corresponde al caso más crítico).

77. Representación gráfica de los a3.cubes y a3.nexus. Cada plataforma HW/SW


está representada por un color diferente. Obsérvese que una plataforma puede
acoger más de un componente en otro de más alto nivel. La comunicación entre
componentes depende de si comparten o no la misma plataforma HW/SW. Los
a3.nexus representados en color son virtuales, internos (soft) mientras que los
representados en negro requieren de un enlace físico de interconexión (hard).

236
Diseño

Es precisamente el uso de estas tecnologías lo que imprime un carácter


modular y escalable. Modular porque cada entidad (entendida como
módulo) oculta el “cómo lo hace” y aporta el “cómo interacciona” lo que
facilita su reducción, reutilización y reciclaje. Escalable porque cada entidad
es un subsistema que interactúa con otras entidades para formar
subsistemas más complejos de alto nivel capaces de realizar funciones más
complejas y de interactuar con otros. La clave de esta economía la aporta el
empleo de a3.nexus. Esta modularidad y escalabilidad, soportada sobre la
base de un trabajo coordinado de entidades a3.cubes/ a3.nexus, aporta
distribución: desde el punto de vista de complejidad, funcionalidad,
seguridad, etc. y esto es precisamente distintivo respecto a otras
tecnologías.

Obsérvese que el diagrama de la figura 76 se obtiene del nivel de


burbujas 1 de la figura 71 simplificado (de hecho, para mayor simplicidad y
abstracción, no se nombran los flujos y se suprimen los almacenes; pero
para el desarrollo de la entidad es necesario consultar los diagramas de
burbujas completos). Cada área delimitada con líneas discontinuas
corresponde a una entidad a3.cube. Obsérvese que las burbujas 1 y 4,
correspondientes a capturar y generar vídeo, pertenecen a la misma
entidad. Este criterio de agrupación corresponde a un punto de vista
funcional; es más idóneo un sistema computacional destinado a la gestión
de vídeo (captura y generación incluidas) que subdividirlo en dos sistemas
independientes enlazados a través de alguna interfaz de comunicación de
alta velocidad. Pero este criterio no es óptimo para cualquier descripción. Si
el artista hubiese deseado que la interfaz de captura y la de visualización
estuvieran en puntos geográficos distantes (por ejemplo que la imagen
llegase de diversas capitales y la visualización se representase en una Galería
de arte) la decisión hubiese sido otra. Algo similar ocurre respecto a las
burbujas relacionadas con la captura y generación de sonido (burbujas 3 y
5). ¿Podrían las cuatro burbujas referenciadas compartir el mismo sistema
computacional? Por supuesto. ¿Qué se debe considerar en ese caso? La
centralización o pérdida de distribución en contra de un aumento del coste
(dos sistemas computacionales en lugar de uno).

La entidad correspondiente a la burbuja 2, Capturar Datos, debe


gestionar eficazmente la conexión con el servidor de datos, su procesado y
la generación de información de control para todas las burbujas
sintetizadoras (4, 5 y 6) y, aunque se considere como una entidad distinta
probablemente sea conveniente que comparta el mismo sistema

237
METODOLOGÍAS

computacional que las entidades de vídeo y audio. La entidad Controlar


Superficie debe, quizá, gestionar una cantidad de motores para conseguir el
movimiento de la superficie y, por sus características, probablemente lo más
sensato sea implementarla en un sistema de bajo coste, apropiado para el
control de motores, y debidamente comunicado al resto del sistema.

Por lo tanto, está claro que las entidades pueden o no compartir el


mismo sistema computacional. Cuando lo hacen el nivel de distribución es
débil; se consigue solo a nivel software (soft). Mientras que, cuando existe
una correspondencia unívoca sistema computacional-entidad, la
distribución es fuerte (hard); aunque a un coste mucho más elevado. La
decisión de implementación de cada entidad: HW/SW, queda, por lo tanto,
condicionada a los compromisos capacidad/nivel de distribución,
fiabilidad/coste. Mayor redundancia, mayor fiabilidad e independencia,
mayor coste.

Un sistema computacional complejo, compuesto por varios a3.cubes, se


puede considerar como una única entidad que ofrece un mayor número de
servicios o, en el ejemplo de la figura 77, por cuatro a3.cubes de más alto
nivel o por seis a3.cubes de más bajo nivel. La definición de los a3.cubes, en
este caso, depende tanto del proyecto en si como de la capacidad de
reutilización deseada. Por lo general, esta última disminuye cuanta más
funcionalidad ofrece un solo a3.cube, pero también es cierto que a3.cubes
que ofrezcan muy poca funcionalidad y de muy bajo nivel, estarán
altamente acoplados a otros a3.cubes.

Una vez definido cada a3.cube, al más bajo nivel, es necesario


determinar qué funcionalidades proveerá al “mundo”, a través de su
interfaz a3.nexus. Estas prestaciones dependen de cómo se quieran utilizar
los servicios. Si se sigue el punto de vista utilizado en desarrollos SOA, cada
servicio debe ofrecer “cada una de las cosas que sepa hacer” como una
funcionalidad. A continuación se definen las cuatro interfaces de cada
a3.cube al más alto nivel (hard)362.

362
Lo que corresponde a un color diferente en la figura 77: rojo, azul, amarillo y verde. Un
a3.cube de alto nivel puede abstraer el comportamiento de un conjunto de a3.cubes de bajo
nivel. Esta relación evita ambigüedad e inconsistencia.

238
Diseño

a3.nexus.video

1. capturarImagen(): imagen
Este procedimiento captura una imagen de la cámara y la devuelve.

2. alterarImagen(imagen imagenEntrada, double gradoDesenfoque, double


gradoFiltrado, double Mezcla): imagen
Este procedimiento recibe como entradas una imagen, el grado de desenfoque,
el grado de filtrado y el porcentaje a utilizar para la mezcla (e.g., 0.4 significaría
que en la mezcla el 40% sería de la imagen desenfocada y el 60% de la filtrada) y
devuelve la imagen modificada.

3. mostrarImagen(imagen imagen): null


Este procedimiento muestra una imagen por el sistema de salida de vídeo
conectado al sistema.

4. capturarVídeo(): vídeo
Este procedimiento captura un flujo de vídeo de la cámara y lo devuelve.

5. alterarVídeo(vídeo vídeoEntrada, double gradoDesenfoque, double


gradoFiltrado, double Mezcla): vídeo
Este procedimiento recibe como entradas un flujo de video, el grado de
desenfoque, el grado de filtrado y el porcentaje a utilizar para la mezcla (e.g., 0.4
significaría que en la mezcla el 40% sería de la imagen desenfocada y el 60% de
la filtrada) y devuelve el flujo de vídeo modificado.

6. mostrarVídeo(vídeo vídeo): null


Este procedimiento reproduce vídeo por el sistema de salida de vídeo conectado
al sistema.

7. inicializarVídeo(struct config configVídeo): null


Este procedimiento permite inicializar el sistema de captura y reproducción de
vídeo. config es una estructura que deberá establecer parámetros como:
selección de entrada, selección de salida, tamaño de la imagen, velocidad de
captura, velocidad de refresco, resolución (bits por color), espacio de color, etc.

239
METODOLOGÍAS

a3.nexus.captura

1. generaValoresControl(): controlVideo, controlAudio, controlSuperficie


Este procedimiento calcula los valores de control a partir de los datos de los
gases atmosféricos actuales.

2. InicializarCaptura(struct config configCaptura): null


Este procedimiento inicializa la adquisición. La estructura config contiene todos
los parámetros de inicialización necesario: dirección/puerto para adquirir los
datos, frecuencia de generación de valores de control, funciones de control
(relación entre los valores medioambientales y flujos de control), etc.

a3.nexus.sonido

1. recSonido(): sonido
Este procedimiento activa la captura de sonido.

2. playSonido(): sonido
Este procedimiento activa la reproducción de sonido.

3. pauseSonido(): sonido
Este procedimiento detiene momentáneamente la grabación/reproducción de
sonido.

4. stopSonido(): sonido
Este procedimiento detiene la grabación/reproducción de sonido.

5. alterarSonido(sonido sonidoEntrada, double gradoDesenfoque, double


gradoFiltrado, double Mezcla): sonido
Este procedimiento recibe como entrada un flujo de sonido, el grado de
desenfoque, el grado de filtrado y el porcentaje a utilizar para la mezcla (e.g., 0.4
significaría que en la mezcla el 40% sería de la imagen desenfocada y el 60% de
la filtrada) y devuelve el flujo de sonido modificado.

6. inicializarSonido(struct config configSonido): null


Este procedimiento permite inicializar el sistema de captura y reproducción de
sonido. config es una estructura que deberá establecer parámetros como:
selección de entrada, selección de salida, número de canales, frecuencia de
muestreo, resolución (bits por muestra), etc.

240
Diseño

a3.nexus.control

1. moverMotor(int motor, int grado, int direccion): null


Este procedimiento mueve un motor determinada cantidad de grados en
determinada dirección.

2. inicializarMotor(struct config configMotor): null


Este procedimiento permite inicializar el sistema de control de motores según
los parámetros de la estructura config.

Una vez decidido un posible diseño o modelo de implementación es


necesario estimar su coste para valorar si se ajusta o no al presupuesto
determinado363. ARTCUBE basa su infraestructura tecnológica en HW/SW
libre364 pero ello no significa coste cero. En el ámbito del hardware libre se
comparten diseños y herramientas de desarrollo software (de manera tal
que todo aquel que lo desea pueda implementarlo) pero los dispositivos
electrónicos, sensores, interfaces, actuadores, instrumentos de medida y
entornos computacionales tiene un coste que, aunque en el ámbito de este
proyecto se recomienda utilizar hardware de “bajo coste”, es necesario
estimar y ajustar y puede llegar, en un sistema complejo, a ser significativo.

363
En el ámbito del concurso se parte de un presupuesto limitado. Para que una obra sea
ganadora debe poder materializarse o, lo que es lo mismo, se ajuste al presupuesto. La
valoración presupuestaria, por ello, debe dejar un margen (10% aproximadamente) de
maniobra. Generalmente se trabaja en base a un presupuesto para cualquier proceso
asociado a la Restauración; no solo es particular a la producción.

364
Particularmente el concurso elige este modelo de producción por muchas razones: acceso
gratuito a las herramientas (muy importante para los estudiantes), implementación
multiarquitectura (para múltiples sistemas operativos, lenguajes, etc.), soporte (la comunidad
del software y hardware libre es muy activa y responsable), reciclaje (se puede hablar incluso
de soluciones libres) pero, sobretodo, para disminuir el riesgo de obsolescencia. A3 no exige
el uso de hardware/software libre (en realidad no impone ningún tipo de criterio al respecto)
pero es muy recomendable.

241
METODOLOGÍAS

El subproyecto que se diseña como ejemplo debe manipular vídeo. La


siguiente tabla365 muestra una estimación del coste según la arquitectura de
procesado.

Procesador Capacidad (Mips366) Coste (€)


Supercomputer 1015 1000000
Mainframes 100000 100000
Minicomputer 1 10000
Microcomputer 10000 1000
Mobilecomputer 1000 100
Embedded System 10 10
78. Comparación sistemas/capacidad/coste.

Las restricciones temporales del vídeo como fuente de datos son


cruciales en la elección del procesador; determinan su capacidad. Aún
trabajando con vídeo bruto (sin codificar) la cantidad de píxeles que
conforman cada cuadro (25 por segundo) y el número de bits empleados
para representar el color de cada píxel (3x8 bits equivale a TrueColor) la
cantidad de información a manipular puede ser brutal. Por ejemplo, véase el
cálculo del tamaño que ocupa una imagen de 65.535 colores con una
resolución de 800 x 600.

El espacio que ocupa = no. pixeles x no. bits en cada color.


No. pixeles = resolución = 800 x 600 = 480.000 pixeles.
No. bits en cada color = (para 65.535 colores) 16 bits.
Espacio que ocupa = 480.000 x 16 = 7.680.000 bits = 7.500 kbits = 7,32 Mbits
ó 0,915 MBytes.
La misma imagen TrueColor (No. bits en cada color = 24 bits) ocuparía
11.520.000 bits = 11.520 kbits = 11,52 Mbits ó 1,44 MBytes.

365
Esta tabla solo sirve de referencia. Los márgenes que se manejan son muy amplios y
puede haber una gran cantidad de solapamiento entre infraestructuras pero puede ofrecer
una estimación, a groso modo, del coste.

366
MIPS = (no. Instrucciones/ tiempo de respuesta) 10-6.

242
Implementación

En estos casos, lo más probable es recurrir a entornos microcomputer,


portable computer o quizá mobile computer367. Según el tamaño de la placa
base (mother-board) existen normalizaciones: por ejemplo mini, nano (e.j.,
ITX). Una decisión razonable sería seleccionar una arquitectura de
procesador microcomputer versión mini (con un coste del orden entre 3 y 4
cifras) y compartirla por varias entidades (por ejemplo: a3.cube.sonido y
a3.cube.captura). El coste del interfaz de captura estará en torno a 1 y 2
cifras, 3 como mucho. Para la selección del software se debe valorar el uso
de programas de libre distribución o gratuitos con amplio soporte; por
ejemplo: processing.

Implementación

La última fase afecta a la distribución/realización de todos los subproyectos


correspondientes a las diferentes entidades a3.cubes/ a3.nexus. Esta
partición natural, producto de la fase anterior, permite adaptar los
desarrollos al modelo educativo propuesto por Bolonia en forma de
proyectos transdisciplinares. Cada proyecto se puede desarrollar y evaluar
independientemente a la vez que facilita un mecanismo de supervisión de la
unión entre los diferentes proyectos. Aún incluso fuera del ámbito
universitario este enfoque puede ser muy valioso en un entorno profesional.

En el proceso de aprendizaje convencional primero se expone la información


y posteriormente se busca su aplicación en la resolución de una situación
real o caso de estudio (problema). En el caso del aprendizaje cooperativo
basado en proyectos (ABP) primero se presenta el problema, se identifican
las necesidades de aprendizaje, se busca la información necesaria y
finalmente se regresa al problema lo cual es el camino natural a seguir para
la consecución de la “obra” planteada inicialmente. Desde el planteamiento
original del problema hasta su solución, los participantes o especialistas
pueden trabajar, de manera cooperativa368, en pequeños grupos

367
cfr., Anexo B – Tecnologías.

368
López Noguero, Fernando. Metodología participativa en la enseñanza universitaria.
Madrid: Editorial Narcea, 2005.

243
METODOLOGÍAS

transdisciplinares, compartir en esa experiencia de aprendizaje la posibilidad


de practicar y fomentar habilidades y competencias genéricas de carácter
transversal, de desarrollar determinadas competencias específicas, y de
observar y reflexionar sobre actitudes y valores que en el método
convencional expositivo difícilmente podrían ponerse en acción.

Enero
Febrero
Marzo Preparación de la convocatoria
Abril Convocatoria al concurso
Mayo Fallo
Junio Finalización de los proyectos (año anterior)

Acto académico fin de curso


Julio Lectura de proyectos de fin de carrera
Agosto
Septiembre Asignación de proyectos de fin de carrera

Inicio de ejecución de los proyectos


Octubre
Noviembre
Diciembre
79. Calendario del concurso ARTCUBE. Obsérvese que durante los meses de
marzo a mayo se prepara el próximo concurso a la vez que se cierra el anterior.
Durante los meses de junio a septiembre se debe desarrollar la planificación del
proyecto.

En la fase de diseño se definieron las entidades: a3.cube.video,


a3.cube.captura, a3.cube.sonido y a3.cube.control, según una distribución
en servicios conveniente (con sus correspondientes a3.nexus). En esta fase
el objetivo es planificar el desarrollo de tales entidades en forma de
proyectos de fin de carrera o, de manera más general, en forma de
proyectos tratados con técnicas de aprendizaje cooperativo (en este caso
ABP). La duración de los proyectos, en ARTCUBE, se ajusta al calendario del
concurso definido en la tabla anterior; que en otro contexto puede tener
otra extensión temporal. En cualquier caso es muy importante diseñar un
calendario de trabajo real diseñado conforme el número de entidades e
interfaces y de recursos: especialistas, equipos, coordinadores, etc.

244
Implementación

Diseño del Subproyecto 1

El subproyecto 1 corresponde a la implementación del a3.cube de alto nivel


que gestiona vídeo a3.cube.video. La elección de este diseño como ejemplo
responde a la importancia de la videotecnología en esta investigación.

a3.cube.video

1. Contexto

El proyecto corresponde a la asignatura Proyecto de Fin de Carrera y se


define en el contexto del proyecto transdisciplinar ARTCUBE para el
desarrollo de la propuesta premiada en Concurso. El objetivo general es que
los participantes se enfrenten a un trabajo de investigación que evalúe los
conocimientos adquiridos durante su formación y adquieran los
conocimientos que requiera el proyecto. La duración aproximada es de 9
meses, en el período comprendido entre septiembre y mayo. Los
participantes deben dedicar aproximadamente 144 horas de trabajo
personal, distribuidas a lo largo de 9 meses, a una media de 4 horas por
semana. La asignatura tiene una sesión de 2 horas tutoriales a la semana.

2. Temas y Objetivos

A continuación se enumeran los temas y objetivos que deben ser cubiertos


por el proyecto.

A. Capturar imagen

Tema: Elementos básicos


1. Describir el píxel como unidad básica de información, los diferentes
esquemas de representación del color y las operaciones que actúan sobre él
/ Conocimiento
2. Describir formatos de almacenamiento de la imagen / Comprensión
3. Leer imagen desde archivo, elaborar histograma / Comprensión
4. Describir la máscara / Conocimiento
5. Filtrar imagen mediante máscara / Comprensión
6. Describir Transformadas espaciales / Conocimiento
7. Aplicar Transformadas espaciales / Comprensión

245
METODOLOGÍAS

Tema: Dispositivos de captura de imagen


1. Describir los tipos de tecnologías de captura y evaluación de sus prestaciones
/ Conocimiento
2. Adquirir imagen según la tecnología seleccionada / Comprensión

B. Capturar vídeo

Tema: Elementos básicos


1. Describir el cuadro como unidad básica de información, los diferentes
esquemas de codificación y las operaciones relacionadas / Conocimiento
2. Describir formatos de almacenamiento de vídeo (con o sin pérdidas) /
Conocimiento
3. Leer vídeo desde archivo / Aplicación

Tema: Dispositivos de captura de vídeo


1. Describir los tipos de tecnologías de captura y evaluación de sus prestaciones
/ Conocimiento
2. Describir el códec, y su uso / Conocimiento
3. Adquirir vídeo según la tecnología seleccionada / Aplicación

C. Procesar imágenes

Tema: Técnicas de procesado digital de la imagen


1. Describir técnicas de procesado de la iluminación / Conocimiento
2. Describir técnicas de procesado del color / Conocimiento
3. Describir técnicas de formas / Conocimiento
4. Desarrollar máscara de extracción de bordes / Comprensión
5. Aplicar contraste / Aplicación
6. Aplicar desenfoque / Aplicación

D. Procesar vídeo

Tema: Técnicas de procesado digital del vídeo


1. Aplicar máscara de distorsión a una región espacial variable en espacio y
tiempo / Comprensión

E. Programar servicios

Tema: Computación distribuida


1. Describir mecanismos de comunicación para procesamiento distribuido /
Conocimiento
2. Describir XML / Conocimiento

246
Implementación

3. Describir funcionamiento de SOA / Conocimiento


4. Definir e implementar plantilla de servicios de vídeo / Comprensión
5. Definir e implementar servicios de vídeo / Aplicación

F. Integración

1. Integrar la entidad desarrollada [a3.cube.video] con el resto de entidades /


Aplicación
2. Solucionar los problemas de integración que surjan / Aplicación
3. Establecer criterios de verificación de calidad y tiempos de respuesta /
Conocimiento
4. Verificar tiempos de respuesta y fiabilidad del sistema como un todo /
Aplicación

G. Aprender de forma autónoma

1. Localizar y asimilar información a partir de su referencia / Comprensión


2. Autoevaluarse o evaluar a otros a partir de determinados criterios /
Comprensión
3. Identificar los errores propios / Comprensión
4. Buscar información relevante para una tarea determinada / Aplicación

H. Trabajar en grupo

1. Identificar fuentes de error de comunicación entre los miembros del grupo /


Aplicación
2. Explicar al grupo la tarea realizada y asegurarse de su comprensión por todo
el grupo / Aplicación
3. Identificar adecuadamente las tareas a realizar por el grupo, repartir las
tareas equitativamente, establecer fechas de entrega, e integrar las partes /
Aplicación
4. Identificar y abordar los conflictos en el funcionamiento del grupo /
Aplicación

3. Planteamiento

El proyecto consiste en el diseño, implementación, integración y


documentación de una entidad a3.cube/ a3.nexus para servicios de vídeo.
Este proyecto conecta con contenidos de otras asignaturas específicas de

247
METODOLOGÍAS

ingeniero en sonido e imagen, de ingeniero en informática y licenciado en


bella artes369. Los participantes deben decidir cuál es el método de captura,
procesado y representación de vídeo más adecuado tanto desde el punto de
vista hardware como software; incluso híbrido. Además deben aprender a
vincular la inicialización y control del vídeo con servicios de comunicaciones.
Por último los participantes deben ser capaces de integrar su desarrollo con
otros desarrollos (de otros proyectos) y verificar su correcto funcionamiento
en tiempo real.

4. Entregables

El proyecto deberá generar los siguientes entregables:

Documento anteproyecto de PFC: Los participantes deben redactar un


anteproyecto donde planteen y definan los objetivos del proyecto,
calendario de ejecución previsto, estimación de recursos, etc.

Documento de diseño: Los participantes deben proponer el hardware de


captura de vídeo y los procedimientos de inicialización y control del vídeo y
hacer un listado de todas las estructuras y procedimientos relacionados.
Además deberán realizar una plantilla de servicios que corresponda a las
estructuras y procedimientos propuestos.

Prototipo 1: El primer prototipo deberá ser capaz de implementar la


entidad a3.cube.video: capturar, procesar y reproducir imagen y vídeo. Se
utilizarán diversas técnicas de procesado como máscaras y filtros que actúen
sobre una región espacial y temporalmente definida.

Prototipo 2: El segundo prototipo deberá integrar los servicios, es decir,


se encargará del desarrollo de la interfaz a3.nexus.video.

Documento de PFC: Documento que integre la investigación previa con la


realizada por los participantes: desarrollo de la entidad (cube) e interfaz
(nexus), procesos de integración, validación, etc.

369
Actualmente Grado en Arte.

248
Implementación

5. Criterios de Calidad

La evaluación del trabajo se hará según el siguiente esquema:

20% Entrega de, al menos, el 80% de todos los entregables y, sin excepción,
la entrega del documento de PFC. En caso contrario la calificación será
No Presentado.
20% Conocimientos mínimos. Será necesario demostrar el conocimiento de
al menos 1/3 de los temas y objetivos propuestos.
50% Proyecto. Evaluación de los entregables según los criterios que se
proponen a continuación.
10% Actitud y participación. Se valorará el liderazgo en el grupo, asistencia
regular al taller (aula) de proyectos, participación en el foro de
consultas y la objetividad con que evalúa a sus compañeros.

Esta ponderación, en un contexto académico, estará condicionada por las


competencias: generales y específicas, a desarrollar en la(s) materia(s). Este
ejemplo no corresponde a un plan específico ni a un conjunto determinado
de competencias. Simplemente asigna el mayor peso a la realización del
Proyecto (50%) condicionado por un determinado porcentaje de
cumplimiento (80% de un 20%) de entregables.

La siguiente tabla muestra el peso de cada entregable en la calificación final:

Documento anteproyecto de PFC No tiene calificación


Documento de diseño 5% (calificación de grupo)
Prototipo 1 5% (calificación individual)
Prototipo 2 5% (calificación de grupo)
Integración 5% (calificación de grupo)
Documento de PFC 20% (calificación tribunal)
Verificación individual 10% (Calificación individual)

0 si no se hace bien
5 si se hace bien
10 si TODOS los miembros del grupo lo hacen bien
TOTAL: 50%

El coordinador deberá participar en la calificación del tribunal.

249
METODOLOGÍAS

A continuación se muestran algunas rúbricas útiles para evaluar los


entregables. Por simplicidad solo se establecen 3 niveles de calidad
diferentes: insuficiente, suficiente y notable.

Nivel de Calidad
Criterio 1 Insuficiente 2 Suficiente 3 Notable
Redacción Los objetivos no Los objetivos están claros Los objetivos están claros y
están claros. aunque con alguna bien definidos.
indefinición.
Hay faltas de No hay faltas de ortografía.
ortografía. El documento se entiende
pero puede ser mejorable. El lenguaje es sencillo y se
Los conceptos no entiende perfectamente.
quedan claro. Existen algunos errores de
referencia y ortografía. Diferentes secciones
Las referencias no claramente marcadas.
son correctas. Existe alguna
inconsistencia en el uso de Hojas, figuras, ecuaciones
Existe inconsistencia. las variables y están bien numeradas.
procedimientos.
El esfuerzo es La bibliografía está bien
mínimo. Con un poco más de referenciada.
esfuerzo podría estar
mucho mejor. Denota esfuerzo y dedicación.
Contenido No se entienden los La elección del hardware, Los conceptos y objetivos
conceptos. estructuras de datos y están claramente definidos.
procedimientos no están
La elección del completamente La elección del hardware es
hardware no es justificadas y tienen algún óptima en cuanto a
correcta. punto oscuro en su requerimiento/coste/rendimi
descripción. ento.
Las estructuras y
procedimientos Las estructuras y
propuestos son procedimientos son definidos
inadecuados. y justificados correctamente.

No se justifican los
criterios de decisión.
Planteamiento No se entiende el La propuesta es buena, Las estructuras y
propósito o aunque susceptible de procedimiento están claros,
necesidad de bien descritos con una
estructuras y definición clara de sus

250
Implementación

procedimientos. mejoras. entradas y salidas.

No está clara su Se entiende lo que se Esta información es suficiente


implementación. quiere hacer pero, para su para su implementación.
implementación, harán
falta aclaraciones
adicionales.
80. Rúbrica que establece los criterios para la evaluación del documento de diseño.

Nivel de Calidad
Criterio 1 Insuficiente 2 Suficiente 3 Notable
Conclusiones No se cumplen los No se consigue el Consecución de los objetivos
objetivos. cumplimiento de todos los propuestos.
objetivos propuestos.
Las conclusiones son Se hace un buen análisis de
insuficientes y Las conclusiones son rendimiento/calidad/robustez.
nebulosas. insuficientes.
Hay una pequeña conclusión
No queda clara una No hay una línea clara de por sección que ayuda a
posible solución. qué ha fallado y por qué. clarificar los apartados.

No hay una línea Se sugieren algunas líneas Se sugieren acciones de


clara a seguir. de mejoras y trabajos mejoras.
futuros.
81. Rúbrica que establece los criterios para la evaluación del documento del PFC.

Nivel de Calidad
Criterio 1 Insuficiente 2 Suficiente 3 Notable
Correcto La aplicación falla La aplicación falla en La aplicación funciona bien
con frecuencia. algunas ocasiones. ante todas las pruebas.
Robusto Se queda colgada con Es razonablemente Resiste ante errores previstos
frecuencia ante robusto. y no previstos.
errores típicos.
Se bloquea raramente.
Amigable No se entiende lo Los mensajes que genera La interacción con la
que pide la la aplicación son aplicación es clara.
aplicación. suficientes.
Los datos de entrada y salida
Es difícil interpretar Ante algunas opciones están bien definidos, así como
los mensajes que surgen dudas de qué hacer la interpretación de los
genera. o cómo. resultados y mensajes que
produce.

251
METODOLOGÍAS

Organización El código no tiene La organización y El código es legible y


lógica. estructuración del código organizado.
es razonable.
Es fácil detectar dónde actuar
Detectar dónde y cómo para modificar alguna
cambiar el código para propiedad o funcionalidad.
modificar su
comportamiento no es
siempre igual de claro.
Documentación No hay comentarios Los comentarios son Los comentarios del código
(o los que hay son de suficientes, aunque falta son los justos y muy claros.
dudosa utilidad). alguna aclaración
necesaria. Los puntos complicados del
El código no está código tienen comentarios
bien indentado. El código está suficientemente
correctamente indentado clarificadores.
Los nombres de aunque el nombre de
variables y variables y procedimientos Las variables y
procedimientos son tiene alguna procedimientos tienen
inconsistentes y no inconsistencia. nombres que ayudan a
ayudan a la comprender su uso.
comprensión de su
uso. Las referencias son
consistentes.
Es muy difícil
reutilizar el código. El código está bien indentado.
Integración La entidad no La entidad no siempre El uso de la entidad desde
responde. responde con la misma otros módulos es correcto y
exactitud y prontitud. solo falla en raras ocasiones.
No es capaz de
comunicar sus
servicios.

No reacciona a
solicitudes de
servicios y, cuando lo
hace, su
comportamiento es
errático.
82. Rúbrica que establece los criterios para la evaluación de los prototipos.

252
Implementación

Para la evaluación del prototipo 2 se debe añadir dos ítems adicionales:

Nivel de Calidad
Criterio 1 Insuficiente 2 Suficiente 3 Notable
Integración La entidad no responde. La entidad no siempre El uso de la entidad desde
responde con la misma otros módulos es correcto y
No es capaz de exactitud y prontitud. solo falla en raras ocasiones.
comunicar sus servicios.

No reacciona a
solicitudes de servicios y,
cuando lo hace, su
comportamiento es
errático.
Comparación El código es peor que el Este código es similar. Este código es mejor.
mío.
83. Rúbrica adicional para la evaluación del prototipo 2.

Obsérvese que las rúbricas ofrecen un sistema de evaluación objetivo; lo


que permite un seguimiento adecuado para garantizar el éxito de las
actividades además de una valiosa herramienta de autoevaluación y
seguimiento. Es posible establecer todos los criterios y niveles de calidad
necesarios y ponderar el peso de los criterios.

6. Lista previa de tipos de actividades

Se prevén los siguientes tipos de actividades:

Puzles: Los participantes se reparten el estudio de los temas del proyecto,


se explican mutuamente los temas y se aseguran que todos los participantes
han entendido “lo mismo” y han aprendido todos los temas. Además
participarán en los puzles del resto de los grupos.

Lecturas individuales: Los participantes leen materiales expresamente


elaborados para el proyecto o literatura especializada en los temas que
intervienen. Se realizarán un número limitado de clases expositivas para
aclarar las dudas que surjan a lo largo del proyecto.

Trabajo en grupo: Los participantes de un grupo compartirán un mínimo


de 1 hora a la semana para el desarrollo de los prototipos y al menos 2 horas
al mes para realizar las actividades que correspondan (puzles, desarrollos,

253
METODOLOGÍAS

integración, evaluación, etc.) con el resto de los grupos. El punto de


encuentro de los grupos será el Taller (Aula) para Proyectos
Transdisciplinares.

Autoevaluaciones: Los participantes deberán valorar ejercicios


individuales sobre los temas del proyecto.

Evaluaciones de grupo: Cada grupo evalúa entregables preparados por


otros grupos.

7. Incorporación de ingredientes para aprendizaje cooperativo

Interdependencia positiva

Un participante avanzado puede hacer todo el proyecto solo. Desde ese


punto de vista la interdependencia es débil. No obstante se puede realizar
en pareja y el empleo de la técnica de puzle garantiza, en este caso, la
necesidad de cada participante para completar el trabajo (si no hace su
parte, los conocimientos serán incompletos).

Sin embargo, la completitud de cada proyecto es imprescindible para la


consecución del proyecto global (obra premiada). Desde este punto de vista
la interdependencia es muy fuerte. Las técnicas de puzle serán muy
importantes para la terminación del proyecto como un todo.

Exigibilidad individual

En cada entrevista, en el taller (aula) de proyectos transdisciplinares, el


coordinador deberá valorar el grado de conocimiento del proyecto, según la
etapa, mediante preguntas individuales a cualquier miembro del grupo. Si
las respuestas no son las adecuadas deberá resentir la calificación total del
grupo. Para reforzar la interdependencia positiva y la exigibilidad individual
el coordinador podrá premiar, con 1 punto a la calificación de la prueba
individual, en el caso que todos los miembros hayan obtenido una
calificación igual o superior a 6.

Interacción cara a cara

Muchas actividades como el puzle, determinadas fases de desarrollo de


prototipos e integración requieren la interacción activa de todos los

254
Implementación

miembros de los grupos. Se usarán varias horas de clases previstas para esta
actividad. Además, algunas de las horas de clases previstas no tendrán
asignadas tareas concretas y estarán a disposición de los grupos para que
pueden celebrar sus reuniones, sin problemas de compatibilidad de
horarios.

Habilidades interpersonales y de trabajo en grupo

El coordinador dispondrá de una serie de recursos sobre habilidades


interpersonales y de trabajo en grupo a los que recurrirá en caso de que se
produzcan conflictos o dificultades. Es necesario tener en cuenta la
heterogeneidad de los grupos y habilidades. En este entorno, “el
coordinador” es una herramienta imprescindible para la integración del
conocimiento. En dependencia de los campos de conocimientos requeridos
los coordinadores, a su vez, trabajarán en grupos y compartirán activamente
la planificación y el desarrollo de las tareas y la solución de los problemas.

Reflexión sobre el trabajo hecho

Al mes de iniciado el proyecto el coordinador debe evaluar la percepción de


los participantes acerca del funcionamiento. El mecanismo puede ser
mediante una pequeña encuesta anónima, a contestar con rapidez y
concreta, o mediante la elaboración de un listado de las cosas que, a su
juicio, funcionan bien, las que no y las acciones que se podrían activar para
superarlas.

8. Plan Semanal

Los participantes, en general, deben dedicar una media de 4 horas


semanales de trabajo individual o de grupo. Cada semana hay programadas
2 horas en el horario de clases (en el taller de proyectos transdisciplinares)
pero solo habrá una sesión de 1/2 hora de trabajo (“clase”) con el
coordinador. Esta media hora puede servir para exponer determinados
conocimientos, en forma de clase tutorial, o para aclarar dudas. El resto del
tiempo estará a disposición de los participantes para que puedan hacer las
reuniones de grupos y el trabajo en el taller (aula). El coordinador, durante
esa 1 1/2 hora restante estará disponible para consultas en el taller de
proyectos transdisciplinares o en su despacho.

255
METODOLOGÍAS

Cuando se hace mención a un subproyecto, se refiere, en realidad, al


proyecto que desarrolla la entidad a3.cube.video, a3.nexus.video, mientras
que la referencia a proyecto es reservada al proyecto ganador (formado por
los diversos subproyectos). “Un grupo”, en este contexto, está relacionado
con los participantes que desarrollan un subproyecto. “Todos los grupos”
está relacionado con todos los participantes, organizados en grupos, que
intervienen en el proyecto. Un grupo puede estar formado por un solo
participante, pero, en ningún caso, un participante formará más de un
grupo.

En la siguiente tabla se identifican con claridad los entregables y los


resultados parciales (tanto individuales como de grupo). Los resultados
parciales deben estar siempre disponibles para consulta (organizados en una
carpeta) y pueden servir de base para la elaboración sistemática del
entregable final: documento del proyecto de fin de carrera.

Sem Tareas en el aula (2 horas) Trabajo personal o en grupo (2 horas)


1 Presentación del proyecto y Estudio individual del puzle 1 (1h).
subproyecto.
Búsqueda de información sobre imagen digital.
Instrucciones para el puzle 1.
Resultado parcial individual: Informe acerca de los
resultados de la búsqueda (1h).
2 Reunión para aclaración de dudas y Búsqueda de información sobre formatos de archivo
clase expositiva acerca de la imagen. para el almacenamiento de imagen digital.

Preparación de la reunión con el grupo.

Resultado parcial individual: Informe que explique los


resultados de la búsqueda (1h). Propuesta de ejercicio
con soluciones sobre los temas estudiados para
entregar al resto (1h).
3 Reunión de expertos para aclaración Reunión del grupo para valorar las soluciones y
de dudas y realizar un ejercicio sobre resultados del ejercicio sobre ordenador (30’) y para
ordenador (1:30h). explicarse mutuamente las partes del puzle 1.

Ejercicio individual sobre el tema y Resultado parcial individual: Informe de


verificación. autoevaluación (1h).

Resultado parcial de grupo: Solución

256
Implementación

acordada para ejercicio (30’)


4 Clase expositiva para resolver dudas Búsqueda de información sobre procesado de imagen
(30’). digital.

Práctica guiada sobre lectura y Resultado parcial individual: Informe acerca de los
representación de la imagen digital resultados de la búsqueda (1h).
(1h).
Propuesta de ejercicios con soluciones para aplicación
de máscara y filtrado (1h).
5 Realizar ejercicios propuestos sobre Reunión del grupo para valorar las soluciones y
ordenador. resultados del ejercicio sobre ordenador (1h).

Búsqueda de información sobre transformadas de


imagen digital (1h).
6 Realizar ejercicios propuestos sobre Resultado parcial individual: Informe que explique los
ordenador. resultados de los ejercicios propuestos.

Entregable de grupo: Documento de Diseño.


7 Reunión de expertos para aclaración Búsqueda de información sobre dispositivos de
de dudas. captura de imagen digital.

Práctica guiada acerca de las Resultado parcial individual: Informe sobre los
transformaciones en 2D. resultados de la búsqueda
8 Realizar ejercicios anteriores sobre Reunión del grupo para valorar las soluciones y
ordenador utilizando como entrada resultados del ejercicio sobre ordenador (1h).
la imagen desde el dispositivo de
captura (1:30h). Resultado parcial de grupo: La imagen digital (1h).

Instrucciones para la siguiente


semana (15’)
9 Clase expositiva para resolver dudas. Búsqueda de información sobre vídeo digital.

Ejercicio individual sobre tema Resultado parcial individual: Informe explicativo sobre
estudiado y verificación en grupos. los resultados de la búsqueda.
10 Reunión para aclaración de dudas y Preparación de la reunión con el grupo.
clase expositiva acerca del vídeo.
Búsqueda de información sobre formatos de archivo
para el almacenamiento del vídeo digital.

Resultado parcial individual: Informe sobre los


resultados de la búsqueda (1h). Propuesta de ejercicio
con soluciones sobre los temas estudiados para

257
METODOLOGÍAS

entregar al resto (1h).


11 Reunión de expertos para aclaración Búsqueda de información sobre dispositivos de
de dudas (30’) y realizar ejercicios captura de vídeo digital.
propuestos sobre ordenador (1:30h).
Resultado parcial individual: Informe acerca de los
resultados de la búsqueda
12 Realizar ejercicios anteriores sobre Reunión del grupo para valorar las soluciones y
ordenador utilizando como entrada resultados del ejercicio sobre ordenador (1h).
el vídeo desde el dispositivo de
captura. Resultado parcial de grupo: El vídeo digital (1h).

Instrucciones para la siguiente


semana (15’)
13 Reunión de expertos para aclaración Búsqueda de información sobre procesado digital de
de dudas. la imagen.

Práctica guiada acerca de la Resultado parcial individual: Un informe explicando


decodificación del vídeo en tiempo los resultados de la búsqueda
real.
14 Clase expositiva para resolver dudas. Resultado parcial individual: Informe sobre procesado
de: iluminación, color y forma, para entregar al resto
Ejercicio individual sobre tema (1h).
estudiado y verificación en grupos.
Propuesta de ejercicio con soluciones sobre:
extracción de bordes, contraste y desenfoque, para
entregar al resto (1h).
15 Realizar ejercicios propuestos sobre Reunión del grupo para valorar las soluciones y
ordenador utilizando como entrada resultados del ejercicio sobre ordenador (1h).
la imagen desde el dispositivo de
captura. Propuesta de ejercicio para realizar los ejercicios
anteriores sobre el vídeo en tiempo real (1h).

16 Realizar ejercicios propuestos sobre Estudio individual del puzle 2 (1h).


ordenador utilizando como entrada
el vídeo desde el dispositivo de Resultado parcial de grupo: Procesado digital de
captura. Imagen y Vídeo.

Instrucciones para el puzle 2.


17 Clase expositiva para resolver dudas. Reunión del grupo para diseñar el prototipo 1 de
Práctica guiada acerca del procesado a3.cube.video.
de vídeo en tiempo real (1h).
Resultado parcial individual: Informe con las variables

258
Implementación

Primera prueba de conocimientos y procedimientos propuestos.


mínimos (1h).
18 Inicio de prototipo 1. Reunión del grupo para valorar el primer prototipo de
a3.cube.video. (1h).

Propuesta de cambios a realizar (1h).


19 Continuación del desarrollo del Reunión del grupo para valorar el desarrollo del
prototipo 1. primer prototipo de a3.cube.video (1h).

Reunión de todos los grupos para explicarse


mutuamente las partes del puzle 2 (1h).
20 Reunión de expertos para aclarar Puesta a punto del prototipo 1 (1:30h).
dudas (1h).
Resultado parcial individual: Informe de resultados
Terminación del desarrollo del del primer prototipo (1h).
prototipo 1.
21 Entrega y demostración del primer Búsqueda de información sobre XML.
prototipo.
Resultado parcial individual: Un informe explicando
Entregable de grupo: Primer los resultados de la búsqueda
prototipo (a3.cube.video).
22 Clase expositiva para resolver dudas. Acabar ejercicio individual (1h).

Ejercicio individual sobre tema Propuesta de ejercicio para controlar el vídeo en


estudiado y verificación en grupos. tiempo real mediante tramas XML (1h).
23 Realizar ejercicios propuestos sobre Búsqueda de información sobre modelo de
ordenador. interconexión de sistemas abiertos (OSI).

Resultado parcial individual: Un informe explicando


los resultados de la búsqueda
24 Clase expositiva para resolver dudas. Búsqueda de información sobre comunicación entre
procesos.
Ejercicio individual sobre tema
estudiado y verificación en grupo. Resultado parcial individual: Un informe explicando
los resultados de la búsqueda
25 Propuesta grupal (todos los grupos) Búsqueda de información sobre Arquitectura
de ejercicio de comunicación Orientada a Servicios.
interprocesos (1h).
Resultado parcial individual: Un informe explicando
Realizar ejercicios propuestos sobre los resultados de la búsqueda
ordenador (1h).

259
METODOLOGÍAS

26 Reunión para aclaración de dudas y Preparación de la reunión con grupo (1h).


clase expositiva acerca de la
Arquitectura Orientada a Servicios. Propuesta de ejercicio con soluciones sobre los temas
estudiados para entregar al resto (1h).
27 Reunión de expertos para aclaración Reunión de todos los grupos para valorar las
de dudas y realizar un ejercicio sobre soluciones y resultados del ejercicio sobre ordenador
ordenador (1:30h). (1h).

Ejercicio individual sobre tema y Resultado parcial individual: Informe de


verificación. autoevaluación (1h).

Resultado parcial de grupo: solución


acordada para ejercicio (30’)
28 Clase expositiva para resolver dudas Reunión del grupo para diseñar el prototipo 2 de
(1h). a3.nexus.video.

Inicio del ejercicio de integración Resultado parcial individual: Informe con las variables
(segunda parte del prototipo del y procedimientos propuestos.
proyecto) (1h).
29 Inicio de prototipo 2. Reunión del grupo para valorar el segundo prototipo
a3.nexus.video. (1h).

Propuesta de cambios a realizar (1h).


30 Reunión de expertos para aclarar Puesta a punto del prototipo 2 (1:30h).
dudas (1h).
Resultado parcial individual: Informe de resultados
Continuación y terminación del del segundo prototipo (1h).
desarrollo del prototipo 2.
31 Instrucciones para el puzle 3. Estudio individual del puzle 3 (1h).

Entrega y demostración del segundo Reunión de los grupos para valorar las tareas de
prototipo (1h). integración.

Entregable de grupo: Segundo Resultado parcial individual: Listado de tareas de


prototipo (a3.nexus.video). integración (1h).
32 Evaluación del prototipo 2 (1h). Reunión de todos los grupos para valorar los
problemas de integración y explicar al resto de los
Entregable de grupo: Formulario de grupos las partes del puzle 3 (1h).
evaluación
Propuesta de soluciones sobre los problemas de
Inicio del ejercicio de integración integración para entregar al resto (1h).
(1h).

260
Implementación

33 Segunda prueba de conocimientos Preparación de la reunión con grupo (1h).


mínimos (1h).
Búsqueda de información sobre diseño de pruebas.
Continuación del ejercicio de
integración (1h). Resultado parcial individual: Informe sobre los
resultados de la búsqueda
34 Reunión de expertos370 para Reunión del grupo para revisión del Documento de
aclaración de dudas (1h). PFC.

Finalización del ejercicio de Resultado parcial individual: Informe de


integración (1h). autoevaluación

Entregable de grupo: Documento de


integración
35 Entregable de grupo: Documento de Reunión de todos los grupos para acordar mejoras a
PFC incorporar en el proyecto general.
36 Evaluación final del Proyecto Tercera y última prueba de conocimientos mínimos
(1h)
Entregable individual: Cuestionarios
de evaluación Entregable individual: Resultado de la prueba
individual
84. Listado de entregables y los resultados parciales (tanto individuales como de
grupo).

Obsérvese que, de las 36 semanas, 13 (semanas 16, 21, 22, 23, 24, 25,
26, 27, 31, 32, 35 y 36), correspondiente aproximadamente al 36%, están
dedicadas a trabajos conjuntos de todos los grupos. Estas sesiones son muy
importantes para la integración del proyecto y ofrecen la oportunidad a los
participantes y coordinadores involucrados de “conectar” con el trabajo del
resto de los grupos. Las sesiones se deben planificar cuidadosamente para
que correspondan en la misma semana en todos los planes, de todos los
subproyectos.

370
El experto no es necesariamente el más competente en una disciplina sino un coordinador
que provee un espacio de discusión productivo. Incluso como ejercicio académico el rol de
experto lo puede asumir un alumno.

261
METODOLOGÍAS

9. Preparación de Materiales

El coordinador deberá elaborar y poner a disposición los tres puzles. El


primero dedicado al tratamiento digital del vídeo. El segundo dedicado a la
construcción de prototipos (como parte del ciclo de vida de un proyecto de
ingeniería) y el tercero y último dedicado a la integración: problemas y
soluciones. Obsérvese que, excepto el primero de los puzles, dedicado al
subproyecto; los otros están dedicados al proyecto general y deben
participar todos los participantes y coordinadores involucrados.

Para cada uno de los puzles es necesario preparar un ejercicio individual


sobre cada parte, para los grupos de expertos; dos ejercicios integradores
del proyecto a resolver por cada grupo después de haberse explicado los
temas del puzle y un grupo de ejercicios sobre los temas del puzle, con sus
soluciones, para que los participantes puedan autoevaluarse.

Es necesario preparar los guiones de las 8 clases expositivas, destinadas a


aclarar las “posibles” dudas que puedan surgir de los puzles y preparar
ejercicios ilustrativos371.

Todos los materiales deben estar disponibles 2 semanas antes del


momento previsto para su uso, de acuerdo con el plan semanal. El plan
semanal deberá estar definido en la última semana de julio (teniendo en
cuenta que agosto es un mes de vacaciones en el calendario
universitario)372.

371
Se debe tener en cuenta que la técnica de aprendizaje cooperativo basada en proyecto, en
este contexto, se aplica a una asignatura “nueva”. Es una asignatura porque se evalúa
mediante el PFC, pero su contenido no pertenece a algún plan de estudio en concreto. En
este sentido es “nueva”. Su contenido se ajusta al conocimiento necesario para resolver un
subproyecto genérico; que se define en dependencia de la propuesta artística y en el
momento en que ésta recibe premio. Fuera del ámbito académico no se trata de una
asignatura sino de un caso de estudio con sus particularidades y especificidades. Las clases
expositivas y ejercicios ilustrativos no pueden ser exportados literalmente pero si sustituibles
por reuniones de trabajo adecuadas a la planificación diseñada.

372
El plan semanal lo prepara, en el ámbito universitario, un profesor. Fuera del ámbito
académico el profesional que juegue el rol de planificador o responsable de la Restauración.

262
Implementación

10. Revisión del Temario y Objetivos

Para el desarrollo del proyecto aparecen tres temas: XML, modelo OSI y
comunicación entre procesos que no aparecen en el desarrollo del proyecto
y que, sin embargo, se mantienen como objetivos por su importancia en el
desarrollo de la interfaz (nexus) aunque no son evaluables (en las semanas
24 y 27).

Hay dos temas que se abordan en forma de puzles comunes a todos los
subproyectos: prototipado e integración. La entrega de los resultados
parciales individuales son obligatorios pero no evaluables. Solo los
entregables son evaluados. Las pruebas escritas (tanto individuales como de
grupo) son también evaluables y deben verificar si se han alcanzado los
objetivos de aprendizaje.

11. Plan de Evaluación del Proyecto

Las bases de valoración sobre el funcionamiento del proyecto son:

Tiempo de dedicación semanal a las actividades del proyecto

Valoración de los entregables

Valoración de conocimientos mínimos

Autoevaluación de los ejercicios propuestos

Resultados del cuestionario de incidencias críticas y del cuestionario de


funcionamiento de grupo

Encuesta de valoración final del grupo

Informes sobre el trabajo en grupo

Evaluación de los prototipos

Evaluación del documento de PFC

Evaluación final del proyecto

263
METODOLOGÍAS

12. Guía del Proyecto

En la sesión de presentación del subproyecto se entrega al participante la


siguiente guía:

a3.cube.video

Presentación

El subproyecto consiste en el diseño e implementación de la entidad


a3.cube.video y su integración con el resto de entidades del proyecto. Este
subproyecto forma parte del proyecto "Atmos Data ß": premiado en la X
edición del concurso ARTCUBE.

Aspectos previos

La entidad (cube) de este subproyecto es definida por las burbujas 1 y 4 del


siguiente diagrama de flujo de datos simplificado, correspondiente al
proyecto "Atmos Data ß".

1 4

Capturar Generar
Video Video

2 5

Capturar Generar
Datos Audio

3 6

Capturar Controlar
Sonido Superficie

85. División en servicios para el caso de estudio.

264
Implementación

1 4
imagenEntrada vídeo vídeoSalida
Capturar Generar
Video Vídeo

controlVídeo

2 5
datosEntrada controlAudio sonidoSalida

Capturar Generar
Datos Audio

controlPiel

B.D. Referencia

3 6
sonidoEntrada controlPiel
Capturar Controlar
sonido
Sonido Superficie

86. Diagrama de nivel 1 del proyecto Atmos Data ß.

4.1
vídeo Desenfocar
vídeoDesenf

4.3
vídeoSalida
Mezclar Vídeo

4.2

Filtrar X vídeoFiltrado

controlVídeo

87. Diagrama de nivel 2 de la burbuja 4 del proyecto Atmos Data ß.

265
METODOLOGÍAS

La definición de interfaz de la entidad (nexus) se lista a continuación:

a3.nexus.video

1. capturarImagen(): imagen
Este procedimiento captura y devuelve una imagen de la cámara

2. alterarImagen(imagen imagenEntrada, double gradoDesenfoque, double


gradoFiltrado, double Mezcla): imagen
Este procedimiento recibe como entradas una imagen, el grado de desenfoque,
el grado de filtrado y el porcentaje a utilizar para la mezcla (e.g., 0.4 significaría
que en la mezcla el 40% sería de la imagen desenfocada y el 60% de la filtrada) y
devuelve la imagen modificada.

3. mostrarImagen(imagen imagen): null


Este procedimiento muestra una imagen por el sistema de salida de vídeo
conectado al sistema.

4. capturarVideo(): video
Este procedimiento captura un flujo de vídeo de la cámara y lo devuelve.

5. alterarVideo(video videoEntrada, double gradoDesenfoque, double


gradoFiltrado, double Mezcla): video
Este procedimiento recibe como entradas un flujo de vídeo, el grado de
desenfoque, el grado de filtrado y el porcentaje a utilizar para la mezcla (e.g., 0.4
significaría que en la mezcla el 40% sería de la imagen desenfocada y el 60% de
la filtrada) y devuelve el flujo de vídeo modificado.

6. mostrarVideo(video video): null


Este procedimiento reproduce vídeo por el sistema de salida de vídeo conectado
al sistema.

7. inicializarVideo(struct config configVideo): null


Este procedimiento permite inicializar el sistema de captura y reproducción de
vídeo. config es una estructura que deberá establecer parámetros como:
selección de entrada, selección de salida, tamaño de la imagen, velocidad de
captura, velocidad de refresco, resolución (bits por color), espacio de color, etc.

266
Implementación

Requerimientos

La entidad a construir deberá funcionar integrada en el entorno de


procesado distribuido del cual forma parte con un alto nivel de robustez y
dinamismo. Y deberá funcionar, como si de una pieza LEGO se tratase, en
cualquier otro entorno que utilice la misma infraestructura tecnológica
(a3.cube/ a3.nexus), aún sin conocimiento previo de su funcionamiento
interno.

Plan de trabajo

El subproyecto se descompone en las siguientes fases:

Estudio previo

Cada grupo debe recopilar la información sobre el problema: captura,


procesado y visualización de imagen y vídeo digital y sobre procesado
distribuido373. Mucha de esta información puede proceder de los materiales
y clases de Tratamiento digital de la imagen y Equipamiento de Estudios (de
Ingeniería Técnica de Sonido e Imagen), Ingeniería Software y Programación
Concurrente y Distribuida (de Ingeniería en Informática), etc. En particular,
es importante localizar y estudiar información sobre sistemas operativos
distribuidos, redes, arquitecturas multiprocesador, etc. y poseer un alto
grado de programación (estructurada y orientada a objetos).

Desarrollo y prueba del prototipo 1 correspondiente a la tecnología a3.cube.

Para llegar a la fase final de integración se desarrollan dos prototipos del


subproyecto. El prototipo 1 deberá realizar todas las funcionalidades
audiovisuales previstas (cube). Se iniciará en clase, en la sesión 18, y deberá
estar listo y documentado en la sesión 20. El resultado será evaluado por el
coordinador, que hará las indicaciones oportunas, a tener en cuenta, para el
prototipo final.

373
Este enfoque admite muchas variantes. La idea de aportar poca información es para
enseñar al alumno a encontrarla pero en un entorno de trabajo no es necesario aplicar este
tipo de restricciones; por el contrario, se debe suministrar al equipo toda la información
disponible acerca del objeto de Restauración: la denominada documentación incial.

267
METODOLOGÍAS

Desarrollo y prueba del prototipo 2 correspondiente a la tecnología


a3.nexus.

El prototipo 2 deberá realizar todas las funcionalidades de comunicación


previstas (nexus). Se iniciará en clase, en la sesión 29, y deberá estar listo y
documentado en la sesión 31. El resultado será evaluado por el coordinador,
que hará las indicaciones oportunas, a tener en cuenta, para el prototipo
final.

Integración en el proyecto Atmos Data ß.

La etapa de integración deberá garantizar el correcto funcionamiento del


prototipo de la entidad desarrollada con respecto al resto de entidades que
conforman el proyecto. Se iniciará en clase, en la sesión 32, y deberá estar
listo y documentado en la sesión 34. El resultado será evaluado por el
coordinador y por el resto de los grupos.

Resultados y evaluación del subproyecto

Los resultados del subproyecto corresponden a:

Documento de diseño A entregar antes de la sesión 6


Prototipo 1 (cube) A entregar antes de la sesión 20
Prototipo 2 (nexus) A entregar antes de la sesión 31
Integración A entregar antes de la sesión 34
Documento de PFC A entregar en la sesión 35

En la sesión 36 se realizará una evaluación del proyecto por parte de otros


compañeros (con la colaboración de todos los grupos)374.

374
Esto supone la división del proyecto de Restauración en subgrupos que pueden trabajar
con independencia, en paralelo. La evaluación por pares es otra estrategia eficaz aplicada en
la enseñanza universitaria que, en un entorno de trabajo, puede ser aplicable solo cuando
existe ésta división. Por ejemplo, en un proyecto internacional donde diferentes grupos se
encargan de la Restauración de distintas entidades e interfaces. En este caso los problemas
de sincronización del proyecto e integración de sus partes serán más complejos de resolver a
la vez que se dispongan de otro tipo de mecanismos que puedan facilitar la labor.

268
Conclusiones

La calificación del proyecto se establecerá con el siguiente criterio:

Documento anteproyecto de PFC No tiene calificación


Documento de diseño 5% (calificación de grupo)
5% (calificación individual)
Prototipo 2 5% (calificación de grupo)
Integración 5% (calificación de grupo)
Documento de PFC 20% (calificación tribunal)
Verificación individual 10% (Calificación individual)

0 si no se hace bien
5 si se hace bien
10 si TODOS los miembros del grupo lo hacen bien
TOTAL: 50%

El diseño del subproyecto 1 sirve de ejemplo en la aplicación del método.


Sin embargo, para el proyecto Atmos Data ß, es necesario el diseño del
resto de los subproyectos: a3.cube.captura, a3.cube.sonido y
a3.cube.control y su perfecta integración.

Conclusiones

Es precisamente en los límites o desbordamientos entre las disciplinas


donde se ubican las ciencias interdisciplinares comentadas. No hay ya lugar
para la exclusión y aislamiento de ninguna disciplina. Según Foucault375.

El orden es a la vez lo que se da en las cosas como su ley interior, la red


secreta según la cual se miran unas a otras, y lo que no existe a través de la
reja de una mirada, de un lenguaje, solo en las casillas blancas de ese tablero
se manifiesta en profundidad como ya estando ahí, como esperando en
silencio el momento de ser enunciado.

La naturaleza es un todo polisistémico que se rebela cuando es reducido


a sus elementos. Y se rebela, precisamente, porque, así, reducido, pierde las
cualidades emergentes del todo y la acción de éstas sobre cada una de las
partes. Este todo polisistémico, que constituye la naturaleza global, obliga,

375
Foucault, Michel. La arqueología del saber, Siglo XXI, México, 1978.

269
METODOLOGÍAS

incluso, a dar un paso más en esta dirección: la adopción de una


metodología transdisciplinar que capture la riqueza de la interacción entre
los diferentes subsistemas que estudian las disciplinas particulares. No se
trata simplemente de sumar varias disciplinas, agrupando sus esfuerzos para
la solución de un determinado problema (cierta multidisciplinariedad); ni
tampoco es suficiente, en muchas ocasiones, la interdisciplinariedad. Este
proceso cognitivo exige el respeto a la interacción entre los objetos de
estudio de las diferentes disciplinas y la consecución de la transformación e
integración de sus aportes respectivos en un todo coherente y lógico; lo que
implica, para cada disciplina, la revisión, reformulación y redefinición de sus
propias estructuras lógicas individuales, establecidas aisladas e
independientes del sistema global con el que interactúan.

La investigación transdisciplinar añade el hecho de que está constituida


por una completa integración teorética y práctica. En ella, los participantes
transcienden las propias disciplinas logrando crear un nuevo mapa cognitivo
común sobre el problema en cuestión, es decir, llegan a compartir un marco
epistémico amplio y meta-metodologías que les sirven para integrar
conceptualmente las diferentes orientaciones de sus análisis: postulados o
principios básicos, perspectivas o enfoques, procesos metodológicos,
instrumentos conceptuales, etc.

Las trayectorias curriculares universitarias transversales, en particular la


de los Grados Híbridos, son el elemento principal de la nueva cartografía
Universitaria con fronteras interdisciplinares permeables, difusas, donde
cada vez el concepto de Facultad o Escuela pierda gradualmente sentido.
Son muchas las áreas susceptibles de hibridación y muchas las que han
surgido de este proceso. Las metodologías son necesarias pero no
suficientes. Es imprescindible un transvase de conocimiento interdisciplinar,
la compartición de las diferentes axiomáticas y, entre otros, el
desplazamiento de la Universidad (como eje propulsor del conocimiento)
del paradigma científico del universo mecánico al paradigma científico del
universo complejo.

La eficacia de la metodología A3 o MPT depende de muchos factores.


Para conseguir la integración adecuada es importante mantener la
correspondencia del plan semanal de las actividades de todos los grupos. La
evaluación inicial parte de una serie de asunciones que el grupo puede
rechazar. En ese caso es necesario la identificación de las tecnologías

270
Conclusiones

utilizables y el estudio de viabilidad de soluciones alternativas pero deberá


ajustarse, en cualquier caso, a las premisas de la metodología, ajuste al
presupuesto asignado, uso de tecnologías harware/software libre y de bajo
coste. En este escrito, los grupos están formados por participantes y
coordinadores pero no son exclusivos a este ámbito y pueden aglutinar
profesionales de diversas disciplinas.

Aunque las técnicas de ABP suelen tener un alcance y duración máximo


limitado entre 6 y 12 semanas, esta metodología trata un subproyecto como
una secuencia de 3 proyectos extensos, de 12 semanas, (en el sentido
clásico de ABP). Para ello es necesario definir correctamente una serie de
subobjetivos y su correspondiente forma de evaluación, fundamentalmente
los entregables. En el diseño del subproyecto ejemplo se definen claramente
3 hitos: el primero relacionado con la comprensión de las bases y
herramientas relacionadas con la imagen y el vídeo digital, el segundo
relacionado con el prototipado y el tercero con la integración con cierto
solapamiento con la comprensión de técnicas de sistemas de computación
distribuidos.

Los subproyectos con entidad de PFC son extensos. En el caso de


subproyectos “reducidos” (menores de 36 semanas) se debe plantear la
posibilidad de unión con otros que permitan una planificación para 36
semanas. En caso contrario, si el subproyecto correspondiente a una entidad
fuese de mayor magnitud (> 36 semanas), habría que considerar el
particionamiento adecuado y trabajar los subproyectos relacionados con
mayor número de actividades grupales (subgrupales).

La relevancia técnica de los resultados debe tener la misma o mayor


importancia, inclusive, que la educativa porque el proyecto (como un todo)
tiene que ser realizado en el plazo de 36 semanas. Desde este punto de
vista, el desarrollo del trabajo es un proyecto en toda regla: tiene un cliente,
presupuesto y un plazo de ejecución. Los coordinadores deben sensibilizar al
grupo de la responsabilidad en este sentido y disponer de las técnicas y
recursos necesarios para solucionar los problemas que puedan surgir y
garantizar la culminación de la obra.

Otro aspecto importante es la preparación de los profesionales


relacionados con el proyecto. Para aplicar ambos: la metodología y
tecnología propuestas será necesaria cierta formación y capacitación

271
METODOLOGÍAS

además de una buena predisposición positiva y compromiso. Por definición


puede participar cualquier profesional interesado, independientemente de
la disciplina, o área de conocimiento de donde provenga que además tenga
la motivación, iniciativa y compromiso que requiere este reto. Pero en
ningún caso se debe considerar la obligación.

Este tipo de proyecto ofrece al coordinador la posibilidad, mientras dirige


un determinado número de PFCs, de abrir o continuar líneas de
investigación, aprender de y relacionarse con otras áreas de conocimiento,
publicar y difundir los resultados376, compartir y contribuir con otros grupos
activos de trabajo en el área de HW/SW libre, e instituciones dedicadas al
desarrollo de proyectos transdisciplinares.

Obsérvese que MPT (y A3; que se basa en MPT y, todas las metodologías
en general) no influyen en el objeto-símbolo, no pueden, y, por lo tanto, en
la creatividad del artista. No existe ninguna condición ni restricción; es una
condición sine qua non. MPT es simplemente una metodología para
conseguir un objeto-sistema que permita la manifestación del objeto-
símbolo y garantice una conservación evolutiva del objeto en cualquiera de
los procesos relacionados con la Restauración. Obsérvese que incluso el
desarrollo de la estructura: soporte, procesos y datos, es, en sí mismo, un
arte: el “arte del diseño de sistemas”.

376
Como mínimo vía web; véase por ejemplo http://www.artcube.es.

272
TECNOLOGÍAS

Por eso me pregunto al ver que me olvidaste


por qué no me enseñaste como se vive sin tí

Frank Domínguez

La tecnología digital es la materia prima de cualquier producción de arte


digital y de la nueva Restauración. Todo el corpus teórico correspondiente a
esta macrodisciplina es muy amplio (agrupa muchas disciplinas todas ellas en
expansión) y complejo. Sin embargo, no es posible comprender las
estrategias relacionadas con la Restauración del arte digital, sin revisar, al
menos, los aspectos fundamentales. El diseño computación-comunicación-
contenido377 fundamental en cualquier producción y especial cuando se
parte de una restricción como la resistencia a la obsolescencia tecnológica;
un pilar básico para una conservación evolutiva del bien.

Sistemas, procesos, interfaces, interconexiones, códigos son términos


que aparecen en casi todas las páginas de este libro; es inevitable hablar de
arte y Restauración digital sin aludirlas. Sin embargo todos estos términos
pertenecen a un mundo: el de la tecnología digital, que parece tener un
lugar en las antípodas del arte. Gran parte de los problemas, tanto de
producción como documentación, exhibición, preservación, conservación y
restauración, se deben a ello. Por lo tanto, aunque solo fuera para una
comprensión adecuada del texto es imprescindible dedicar un apartado, al
menos, a la tecnología digital. No es posible un acercamiento científico a la
Restauración digital sin un mínimo de conocimiento de estos temas. No es
fácil, sin embargo, contar en un reducido espacio, al menos la escencia de
“lo digital”. Solo hay que pasearse por las secciones de informática,
tecnológia, electrónica, ciencias de la computación, lenguajes de

377
El papel de las tecnologías en esta tríada es diferenciado. Los desarrollos HW/SW están
más relacionados con la computación.

273
TECNOLOGÍAS

programación, redes, control automático, robótica, arquitectura de


ordenadores, sistemas operativos, inteligencia artificial, etc. de cualquier
librería para darse cuenta. De cada uno de estos temas, y de otros tantos
relacionados, existe abundante bibliografía que cambia más de una vez al
año, congresos a lo largo y ancho de todos los continentes, revistas
especializadas, etc. Se podría decir que la tecnología digital es un campo
emergente en el que cada día se desata una auténtica revolución. El
desarrollo de la tecnología, animado por un mercado de consumo voraz
(telefonía móvil, ordenadores, reproductores de media, cámaras de foto y
vídeo digitales, etc.), da vértigo. Escribir un tratado al respecto se convierte
en una tarea tan titánica como estéril. Sin embargo es imprescindible, al
menos, reordenar los conceptos más importantes de manera taxonómica.

El diagrama de las tres C de Barreca378 ofrece una clave: computación,


comunicación, contenido. En la intersección de esos tres conceptos subyace
toda la estructura del arte digital. La computación procesa datos,
contenidos, que difunde a través de la comunicación. Es una forma tan
simple como eficaz. Computación y comunicación son el soporte de los
contenidos digitales, la base tecnológica. A través de estos dos téminos es
posible conformar, al menos, un panorama claro de lo esencial en la
tecnología digital. Un computador es un dispositivo que procesa datos
digitales, que interactúa con otros (nodos) mediante algún tipo de soporte
de comunicación y forma conjuntos de procesado de información o sistemas
más complejos. La esencia de la computación es el proceso; es el que otorga
la naturalez alográfica al arte digital y es, de hecho, un protagonista ideal
para la conducción de esta reordenación que empezará desde lo más
general: los sistemas y su interconexión; luego se tratará la arquitectura de
esos sistemas: procesadores, procesos, comunicación entre procesos,
algunos paradigmas importantes, servicios, etc.; a continuación el concepto
de virtualidad (tan importante en las estrategias de Restauración) y los
lenguajes como soportes del proceso; por último se introducen elementos
de diseño desde un punto de vista híbrido (que trata hardware y software
sin deferencias) para terminar con un metafórico no sistema operativo:
LINOOS, que corresponde al planteamiento arquitectónico ideal de la
infraestructura tecnológica de la metodología A3 en el paradigma de los
sistemas complejos.

378
cfr., Capítulo I – Arte Digital, figura 5.

274
Sistemas Complejos

Sistemas Complejos

Los sistemas complejos forman un campo de la ciencia multidisciplinar,


relativamente nuevo, que estudia cómo la interacción de las partes de un
sistema dan lugar a comportamientos globales del sistema, el todo. Un
ejemplo de sistema complejo son los sistemas sociales, formados (en parte)
de personas, o el cerebro, formado por neuronas, o las moléculas, formadas
por átomos, o un ordenador379 formado por hardware/software, o una
aplicación TIC (Tecnologías de la Información y Comunicaciones) formadas
por ordenadores, redes, datos, etc.

Los sistemas complejos contienen un gran número de entidades


autónomas y heterogéneas (las partes constituyen bloques de construcción
básicos: componentes, agentes, procesos, etc.) que interaccionan entre si.
Cada elemento interactúa con el resto, directa o indirectamente, y estas
interacciones afectan a otros elementos dando lugar a patrones de
comportamiento del sistema global, difíciles de deducir e inferir, en función
de la estructura y comportamiento de las partes componentes. En general
este enfoque es apropiado cuando la información del estado y del
comportamiento del sistema es incompleta, existe incertidumbre y múltiples
propósitos, se desconocen las restricciones impuestas en relación al sistema
(controles, comportamiento, resultados finales), su estructuración es débil,
etc.

Las capacidades más importantes de los sistemas complejos son:

Auto-organización. Autonomía del sistema para cambiar su


comportamiento y estructura en respuesta a eventos y cambios en el
entorno que le afecten. Se puede producir un orden no-trivial, gran-escala,
con procesos e interacciones simples. La co-evolución está relacionada con
la capacidad de adaptación a la nueva interacción con el entorno que
supone tal cambio (la evolución impone un incremento continuo de su
propia complejidad).

379
En España se utiliza la palabra ordenador para designar un sistema con capacidad genérica
de procesado digital mientras que en América, en general, se utiliza computador. Ambos son
términos correctamente empleados y aceptados por la RAE (Real Academia Española), por lo
que se utilizarán indistintamente.

275
TECNOLOGÍAS

Emergencia. Propiedad que surge de la interacción de los elementos


constitutivos de un sistema complejo. Las propiedades emergentes no
existen en los componentes y, debido a que surgen de las interacciones
imprevisibles de los componentes, no se pueden planear o diseñar. Está
relacionado con la dependencia del todo con las partes, y con la
interdependencia y especialización de las partes. Se puede demostrar la
naturaleza de los sistemas complejos investigando cómo afectan los
cambios de una parte al resto y al comportamiento del todo. La aparición
del orden gran-escala es un proceso general (y opuesto) al incremento de la
entropía mientras que la formación de patrones es una parte integral de la
funcionalidad de la mayoría de los sistemas complejos.

Anticipación. Habilidad del sistema complejo de predecir cambios en el


entorno, hacerle frente y ajustar su comportamiento en consecuencia. La
anticipación prepara al sistema ante cambios antes de que ocurran y le
ayuda a adaptarse en ausencia de perturbaciones.

Robustez. Habilidad del sistema para mantener sus funciones ante


perturbaciones. Esta habilidad está relacionada con la adaptación y
estabilidad del sistema. Los sistemas complejos son, por definición, no-
determinísticos (exhiben un comportamiento impredecible; incluso caótico
bajo ciertas condiciones). La robustez posibilita la adaptación del sistema.

Las aplicaciones basadas en TIC son un conjunto de servicios, redes,


programas y dispositivos tecnológicos que tienen como objetivo la mejora
de la calidad de vida de las personas dentro de un entorno, y que se
integran a un sistema de información interconectado y complementario380.

Estas aplicaciones coexisten en un entorno tecnológico plural, dinámico,


compuesto por un gran número de partes que interactúan entre sí,
impredecible y en constante evolución. Internet, por ejemplo, se consolida
como entorno de convergencia de la mayoría de las aplicaciones TIC. A
diferencia de, tan solo una década atrás, la mayoría de las aplicaciones

380
García, Lino. Desarrollo de Sistemas Complejos. LINUX+. 2009, Vol. 53, pp. 32-35.
Disponible en: http://lpmagazine.org/es/, [Consulta: 22-12-2010].

276
Sistemas Complejos

ingeniería no solo producen sistemas predecibles, estables, controlables,


precisos, transparente, eficientes y confiables que satisfacen determinadas
restricciones, estándares de prestaciones pre-especificados, en situaciones
pre-especificadas, sino que interactúan con otros muchos sistemas
geográficamente distribuidos, autónomos, independientes, tecnológica y
funcionalmente diferentes, dando lugar a sistemas complejos escalables,
flexibles, evolutivos, adaptables, elásticos, robustos, perdurables, seguros,
auto-monitorizables y auto-reparables; más útil, cuanto más rico en
comportamientos. Este es el paradigma fundamental de los sistemas
complejos: en entornos ricos en problemas, un sistema complejo, con un
repertorio rico en comportamientos, tiene mayor capacidad de descubrir
una variedad de soluciones potenciales.

La desagregación, desde el punto de vista de los sistemas complejos, es


una pieza clave para un buen diseño de un sistema y permite enfocarlo
cuidadosamente término de sus partes o componentes e interacciones
entre sí (incluso a diferentes niveles, con diferentes equipos de trabajo en
cada nivel. El nivel de diseño se define en términos de nivel de detalle).
Aunque clásicamente este es un proceso arriba-abajo (top-down), que se
mueve lógicamente desde la funcionalidad deseada hacia un diseño que
implemente tal funcionalidad, en el contexto de los sistemas complejos se
aplican más procesos del tipo abajo-arriba (down-top) que buscan cómo
implementar la funcionalidad deseada con la base de diseños disponibles o,
más apropiado aún, aprovechando la propiedad de auto-organización de los
sistemas complejos de adaptarse a nuevos comportamientos de forma
autónoma.

El componente de un sistema TIC por excelencia es el ordenador o


computadora; es autónomo, tiene un número ilimitado de funciones, es
heterogéneo, y tiene la capacidad de aportar, como parte, las
funcionalidades de un sistema complejo: auto-organización, emergencia,
anticipación y robustez. De hecho un ordenador es en sí mismo un sistema
complejo, formado por partes que son, a su vez, sistemas complejos (los
microprocesadores, por ejemplo, con sus millones de componentes
electrónicos son sistemas extremadamente complicados pero, gracias a que
ha sido cuidadosamente diseñado y probado, es posible, simplemente,

277
TECNOLOGÍAS

asumir que funciona), lo que permite crear sistemas de gran-escala y alto-


orden.

Es posible desagregar la complejidad de un ordenador, en un primer


nivel, en dos componentes funcionales: hardware (la parte “dura”, material)
y software (la parte “blanda”, inmaterial). El hardware constituye el
substrato físico que soporta al software; abarca todas las piezas físicas,
materiales, de un ordenador (placa base, chips, cables, etc.) mientras que el
software, componente inmaterial, no es más que un conjunto de programas
y datos almacenados en un ordenador (los programas dan instrucciones
para realizar tareas al hardware o sirven de conexión con otros softwares
mientras que los datos solamente existen para su uso eventual por los
programas). Estas definiciones podrían llevar a relacionar ambos términos
(teniendo en cuenta que provienen de duro y suave) con mayor/menor
flexibilidad o rigidez. Sin embargo, aunque efectivamente existe cierta
relación, es un poco engañosa.

El hardware es más rígido, o poco flexible, con menor capacidad de auto-


organización que el software. Se diseña para satisfacer determinadas
funciones y requerimientos. Una alteración, para adecuarse a nuevas
situaciones, podría requerir de un cambio de componentes electrónicos y/o
interconexiones entre ellos, placas, etc. o una reprogramación (existen
componentes electrónicos que permiten incluso re-programar sus
funciones). Todo depende de la generalidad o universalidad de su diseño. El
ordenador, por ejemplo, posee el hardware (mínimo) que le permite
adaptarse, mediante software, a un elevadísimo número de posibilidades. La
CPU (Control Process Unit) es un sofisticado sistema complejo hardware con
capacidad de auto-organización vía software mientras que el ratón (mouse)
es un sistema hardware a medida que solo es capaz de realizar
determinadas funciones básicas. El software es más flexible, o poco rígido,
pero, su alcance, está determinado y condicionado por el soporte hardware.
El mecanismo por excelencia para solucionar las limitaciones del hardware
es la expansión. Los ordenadores tienen ranuras (slots) de expansión para
añadir funcionalidad hardware, o puertos de interconexión universal para la
inclusión de periféricos, y, los programas, mecanismos enchufables (plugins)
para comunicarse entre sí (proporcionado normalmente por un nivel de
soporte adicional: el sistema operativo).

278
Sistemas Complejos

Así que, en el desarrollo de sistemas complejos, una decisión muy


importante a tomar es qué implementar por hardware y qué por
software381. O, visto de otra manera, qué conceptos pueden ayudar a tomar
la “mejor” decisión. Empezando por esto último, algunos de los criterios más
relevantes a considerar son:

Velocidad. El límite de proceso de una CPU está determinado por su


reloj. Si se requiere mayor velocidad es necesario recurrir a hardware con
determinado grado de especialización (DSP, Digital Signal Processor; FPGA,
Field Programmable Gate Array; ASIC, Application-Specific Integrate Circuit).

Volumen. El hardware ocupa un lugar en el espacio a diferencia del


software; que utiliza el propio hardware como estrato o soporte. Los
convertidores analógico-digital sigma-delta, por ejemplo, utilizan técnicas de
sobremuestreo para simplificar el hardware al mínimo (filtro analógico malo
de muy bajo orden), mientras que trasladan la mayor complejidad al
software (filtro digital preciso de muy alto orden).

Independencia. Los dispositivos interactúan, ya sea directamente vía


hardware o a través de señales de mayor nivel de abstracción, los datos. La
independencia está relacionada con la capacidad de autonomía de un
sistema: tanto respecto al hardware en sí como al software. El uso de
estándares y la distribución funcional ayudan a conseguir mayor
independencia. Es mucho más versátil un sistema independiente de
sistemas operativos, versiones y tecnologías.

Coste. El desarrollo hardware es, en general, más caro; requiere de


instrumentación, coste adicional de montaje, es menos mantenible (dada su
naturaleza dura; aunque es necesario hacer una distinción entre hardware
estático y reconfigurable. El hardware estático corresponde al conjunto de
elementos materiales de los sistemas electrónicos mientras que el
reconfigurable se describe mediante un lenguaje de descripción (HDL,
Hardware Description Language) que permite especificar con todo detalle su
estructura y funcionalidad), etc. Probablemente un buen criterio de trabajo

381
A muy bajo nivel ambos son muy similares lo que ha dado lugar a técnicas de co-diseño
para desarrollos hardware/software integrados analizadas posteriormente en el apartado
Computación Híbrida.

279
TECNOLOGÍAS

pasa por minimizar el desarrollo de hardware al mínimo y garantizar un


desarrollo y adaptación vía software.

Prestaciones. El ordenador tiene un mínimo de prestaciones por defecto


y algún mecanismo de expansión para su ampliación (SCSI, Small Computers
System Interfaz; PCI, Peripheral Component Interconnect; S-ATA, Serial
Advanced Technology Attachment; E-IDE, Enhanced Integrated Drive
Electronics; USB, Universal Serial Bus; FireWire, i.Link ó IEEE 1394). Cuando
se requiere de alguna funcionalidad no integrada es necesario acoplarla
mediante alguno de estos mecanismos estándar.

Algunos criterios como velocidad, prestaciones y volumen, los impondrá


la propia aplicación mientras que el resto, independencia y coste, son más
objetivo de diseño (el coste, por ejemplo, suele ser un punto de partida
habitual); aunque todos estos criterios están directa o indirectamente
relacionados.

No menos importante, a medias entre hardware y software, son las


comunicaciones. Los sistemas, en general, pueden ser hardware, software o
mixtos y esto supone diferentes mecanismos de comunicación entre ellos ya
sea dentro del propio ordenador (intra) como entre ellos (inter). La
comunicación y sincronización entre procesos (IPC, Interprocess
Communication) se realiza mediante un buen número de plataformas
estándares (tuberías [pipes] anónimas y con nombre; CORBA, Common
Object Request Broker Architecture; DCE, Distributed Computing
Environment; MBUS, Message Bus [especificado en RFC 3259]; RPC, Remote
Procedure Calls; RMI, Remote Method Invocation; Sockets; XML, Extensible
Markup Language; XML-RPC; SOAP, Simple Object Access Protocol), que
siguen el modelo OSI (Open System Interconnection) de la ISO (International
Standard Organization), a mayor o menor nivel, o propietarios. Un
componente, en cuanto interactúa con otros componentes, se le denomina
nodo.

En los sistemas autónomos (hardware o mixtos) la conexión termina en


algún estándar de comunicación de nivel físico (USB, RS-232, RS-485,
Ethernet, etc.) que transforma los datos (información) en señales, y
garantiza el intercambio de información; mientras que los sistemas software

280
Sistemas Complejos

utilizan mecanismos de comunicación normalmente soportados por el


sistema operativo o APIs (Application Programming Interface); que son un
conjunto de funciones y procedimientos (o métodos si se refiere a
programación orientada a objetos) que ofrece cierta biblioteca (library) para
ser utilizado por otro software como una capa de abstracción.

En cualquier caso, es deseable que la comunicación física entre los


procesos sea independiente de la topología de interconexión (punto a
punto, árbol, anillo, bus, malla, etc.) y que, tal interacción, se produzca a
nivel de aplicación. Para ello pueden intervenir una enorme cantidad de
subsistemas de comunicación que aumentan la complejidad del sistema
global a nivel de comportamiento.

La conexión por excelencia en sistemas o dispositivos TIC ha sido durante


muchos años el RS-232C382 (Electronic Industries Alliance). Aunque es una
norma de interfaz diseñada, inicialmente, para el intercambio serie de datos
binarios entre un DTE (Data Terminal Equipment) y un DCE (Data
Communication Equipment), permite la conexión DTE-DTE. Prácticamente
cualquier dispositivo con alguna pretensión de independencia incorpora RS-
232C de serie. Sin embargo, fundamentalmente dada la limitación de su
velocidad (no más de 20 Kb/s), con el tiempo ha sido sustituido por el
USB383. Cualquier ordenador incorpora varios puertos USB y ninguno RS-
232C. Sin embargo, cualquier puerto de comunicación serie asíncrono no
implementa la capa física384 del modelo OSI lo que facilita la integración del
hardware, a muy bajo nivel, con protocolos de comunicación estándar (se
trata solo de un cambio en la capa de más bajo nivel encargada de la
señalización). Se puede conseguir el mayor grado de independencia
desagregando funcionalmente al sistema en múltiples componentes y

382
RS232-C. Véase http://es.wikipedia.org/wiki/RS-232, [Consulta: 10-10-2010].

383
La versión 1.0 alcanza una tasa de transferencia de 1'5 Mbps (192 KB/s), y se utiliza, en
mayor medida, en dispositivos de interfaz humana, como los teclados, los ratones y los
joysticks. La v1.1, consigue los 12 Mbps (1'5 MB/s); estos dispositivos dividen el ancho de
banda de la conexión USB entre ellos, basados en un algoritmo de búferes FIFO (First In First
Out; el primero en entrar es el primero en salir). La v2.0, llega hasta los 480 Mbps (60 MB/s) y
la v3.0, aún en fase experimental, aspira a los 4.8 Gbps (600 MB/s).

384
Utiliza señalización TTL (Transistor-Transistor Logic) o CMOS (Complementary Metal Oxide
Semiconductor).

281
TECNOLOGÍAS

normalizando los protocolos de comunicación e interacción, al más alto


nivel de abstracción: el nivel de aplicación del modelo OSI.

El mundo es complejo. El esfuerzo por crear sistemas análogos a los


naturales pasa por la comprensión de su complejidad y por la desagregación
del sistema complejo, el todo, en múltiples partes. Este enfoque converge
hacia la paralelización, el multiproceso, y al aumento de la complejidad
global, en general, a cambio de ofrecer la posibilidad de uso de técnicas
tradicionales de diseño y desarrollo para los componentes. La consecuencia
es un aumento de la fiabilidad, facilidad de mantenimiento y desarrollo,
modularidad, escalabilidad, etc.

El abaratamiento de tecnologías de muy bajo nivel (microcontroladores),


en paralelo al aumento de su potencia de cómputo e interacción, facilita la
creación de sistemas complejos cada vez más autónomos, descentralizados
e independientes. Arduino y Ardabasto385 es un ejemplo de ello: abstrae la
complejidad del hardware con un lenguaje de medio/alto nivel, y posee
comunicación USB e I2C (Inter-Integrated Circuit) de serie; fácilmente
expandible, vía comunicación serie asíncrona a cualquier otro estándar de
comunicación (inalámbrico, por ejemplo, como WiFi [norma IEEE 802.11],
ZigBee [norma IEEE 802.15.4] o Bluetooth [especificación industrial para
Redes Inalámbricas de Área Personal, WPANs, para transmisión de voz y
datos]). La clave está en dotarlo de una interfaz o lenguaje estándar que
permita la interacción (basado en XML, por ejemplo).

Los sistemas, cuanto más independientes, son más susceptibles de


adaptarse a los cambios, incluso, de la propia tecnología como entorno, de
evolucionar coherentemente, de reutilizar, de entender y mantener; en
definitiva, de sobrevivir. Los sistemas complejos, aunque relativamente
inexplorados, son una paso conceptual más allá del modelo cartesiano
“divide y vencerás” que aporta el cómo para entender sistemas (análisis) y

385
García, Lino. Ardabasto: Plataforma de Procesado Distribuido Open-Hardware. LINUX+.
2009, No. 46, pp. 82-85. Disponible en: http://lpmagazine.org/es/, [Consulta: 22-12-2010].
Arduino fue creado precisamente para facilitar el desarrollo de obras digitales interactivas.
Este proyecto de hardware libre ha sido del todo un acierto reconocido no sólo por una
amplia comunidad de usuarios, instituciones y artistas en todo el mundo; en 2006 recibió una
mención honorífica en la sección Digital Communities del Ars Electronica Prix.

282
Interconexión de Sistemas Abiertos

de “en la unión está la fuerza” para generar sistemas (síntesis) en sintonía


con el mundo que nos rodea, incierto, no lineal y caótico, por naturaleza. De
eso se trata, de un ir y venir en espiral que converge en lo desconocido.

Interconexión de Sistemas Abiertos

El modelo de referencia de interconexión de sistemas abiertos (OSI, Open


System Interconnection386) fue desarrollado por la ISO (Organización
Internacional de Normalización), en 1977, para describir las arquitecturas de
redes y compatibilizar la comunicación entre los fabricantes de
ordenadores387. Más de tres décadas después, el modelo ha demostrado
sobradamente su eficacia (Internet es el mejor ejemplo de ello);
probablemente, ha sido uno de los proyectos de las tecnologías de la
información y comunicaciones mejor pensado porque constituye una
herramienta desagregación funcional excepcional y universal. El objetivo de
este modelo fue la búsqueda de la integración/desagregación natural de los
componentes de un sistema según su funcionalidad para conseguir:

Interoperabilidad. Posibilidad de trabajo interactivo entre nodos (no solo


la transmisión de la información sino la comprensión y proceso de la
misma).

Independencia. Implementación del modelo sobre cualquier


arquitectura.

Extremos abiertos. Capacidad de comunicación entre nodos que corren


distinto software.

Interconectividad. Define las reglas que posibilitan la interconexión física


y la transmisión de datos entre nodos diferentes (HW/SW).

386
Modelo de referencia OSI: Interconexión de Sistemas Abiertos. Disponible en:
http://web.frm.utn.edu.ar/comunicaciones/modelo_osi.html, [Consulta: 10-10-2010].

387
García, Lino. Interconexión de Sistemas Abiertos. LINUX+. 2009, Vol. 55, pp. 38-40.
Disponible en: http://lpmagazine.org/es/, [Consulta: 22-12-2010].

283
TECNOLOGÍAS

La formalización de un modelo de interconexión corresponde a un


amplio catálogo de normalización. Tales normas se pueden dividir en dos
categorías: las normas de facto (de hecho) y las normas de jure (por ley). Las
primeras se establecen sin ningún planteamiento formal; simplemente se
imponen por su práctica (tal es el caso de las normas IBM PC y sucesoras).
Las últimas son formalizadas y adoptadas por un organismo internacional
(las autoridades internacionales se establecen entre organizaciones
voluntariamente o por convenio entre gobiernos).

La organización de una red de elementos informáticos en niveles


funcionalmente independientes, construidos sobre la base de sus
predecesores y ordenados jerárquicamente, garantiza la reducción de la
complejidad, el aumento de la modularidad de los diseños, interfaces entre
módulos bien especificadas y documentadas, posibilita la estandarización,
etc. El diseño de una red, por compleja que sea, se reduce a la
desagregación en pequeños módulos, montados unos sobre otros. La
filosofía de este modelo es dividir un problema grande en muchos
problemas pequeños normalizando funciones e interacciones. Cada capa o
nivel utiliza la funcionalidad proporcionada por las capas inferiores y crea, a
su vez, un nuevo nivel de funcionalidad para las capas superiores (cada
eslabón o nivel da solución a un nuevo problema teniendo en cuenta lo que
ha solucionado el eslabón anterior). La funcionalidad de cada capa, el
número de capas, la comunicación entre capas y el nombre de cada capa
varía de una red a otra. Sin embargo, en general para todas las redes, el
propósito de cada capa es ofrecer ciertos servicios a su nivel superior.

La conversación o diálogo entre las estaciones/puntos terminales se


realiza por capas (la capa N de un sistema interactúa con la capa N de los
otros) y es controlada por un conjunto de reglas y convenciones de manera
tal que no exista ambigüedad o incoherencia en el diálogo. Al conjunto de
reglas y procedimientos que rige el diálogo entre dos niveles de igual orden
en las estaciones que interactúan se le denomina protocolo y el número de
orden de tal protocolo está en correspondencia directa con el nivel para el
cual se establece (procedimientos iguales pertenecientes a un mismo nivel
de orden N en máquinas diferentes, dialogan o se comunican a través de un
protocolo de nivel N).

284
Interconexión de Sistemas Abiertos

88. Capas, protocolos e interfaces.

Dentro de la estructura jerárquica de la red los protocolos definen las


reglas para la comunicación armónica entre procesos situados en niveles
jerárquicos equivalentes. La comunicación establecida entre niveles
equivalentes no es física sino virtual. Cada capa pasa la información de datos
o control que desea enviar a su nivel equivalente solo a través de su nivel
inmediato inferior que la propaga por cada nivel hasta llegar al más bajo que
es, en realidad, quien verdaderamente realiza el enlace o conexión física.
Igualmente, los niveles inferiores pasan información de control o respuesta
solo a su nivel inmediato superior hasta que llegue al nivel al cual va dirigida.
Las reglas de comunicación entre procesos situados entre niveles
jerárquicos diferentes se denominan interfaces. Estos son los servicios que
las capas inferiores ofertan a su capa inmediata superior. En la
comunicación parece como si una parte del nivel o capa se comunicara
directamente con su contraparte a través del protocolo correspondiente;
pero, en realidad, los datos pasan a la capa inferior a través de la interfaz.
Cada capa obtiene los servicios de la capa inferior a través de la interfaz
correspondiente. La comunicación entre los elementos de una capa o nivel
en la estructura a través de una interfaz común se denomina comunicación
jerárquica.

Existen muchas formas de estructurar las capas y definir sus funciones.


Uno de los aspectos más importantes para los diseñadores de redes es
precisamente decidir la cantidad de niveles y sus funciones; así como las
especificaciones acerca de las operaciones a realizar por cada interfaz entre
un nivel y otro, de forma tal que minimice el volumen de información a
transitar entre niveles a través de su correspondiente interfaz. Al conjunto

285
TECNOLOGÍAS

de niveles con sus respectivos protocolos se le denomina arquitectura de


red. Las especificaciones de la arquitectura deben contener información
suficiente para la implementación de los protocolos de cada nivel. Los
detalles de la implementación y las especificaciones de las interfaces no
forman parte de la arquitectura (en todas las estaciones de la red las
interfaces entre niveles no tienen por qué ser iguales; la correspondencia es
necesaria solo respecto a los protocolos que rigen los diferentes niveles). La
red, por lo tanto, según este modelo arquitectónico, está formada por
nodos de distinta naturaleza de procesado que interactúan entre sí, de
manera física y virtual, a través de determinados protocolos e interfaces.

El modelo de interconexión de sistemas abiertos OSI es un modelo de


referencia para las comunicaciones entre sistemas abiertos propuesto por la
organización internacional de normalización ISO. Este modelo, ISO 7498388,
define un conjunto de normas y protocolos que permiten la interconexión
de diversos sistemas TIC. El modelo OSI define una jerarquía de siete capas
de protocolos, cada uno de los cuales utiliza a los de nivel inferior para
ofrecer un determinado servicio, al mismo tiempo que complementa los
servicios proporcionados por los protocolos de nivel superior. Los trabajos
sobre la interconexión de sistemas abiertos comenzaron cuando los usuarios
comprendieron que no se podrían llevar a la práctica todas las posibilidades
potenciales de las redes de datos y de los sistemas públicos de conmutación
de paquetes si cada dispositivo interconectado a la red exigiese el conjunto
de protocolos que determinase su fabricante. Tradicionalmente los sistemas
informáticos siempre fueron cerrados, es decir, los dispositivos se ajustaban
únicamente a las normas de interconexión establecidas por el fabricante o
diseñador del sistema. Los protocolos que utilizaban los terminales estaban
determinados por las características del ordenador o controlador de
comunicaciones. Un terminal de otro fabricante, e incluso del mismo
fabricante pero de otra familia de productos, difícilmente podía conectarse
al sistema sin antes ser modificado convenientemente para emular el
modelo especificado.

388
ISO 7498-2:1989, http://www.iso.org/iso/catalogue_detail.htm?csnumber=14256,
[Consulta: 10-10-2010].

286
Interconexión de Sistemas Abiertos

89. Modelo OSI de la ISO.

Esta situación resultó aceptable mientras el número de dispositivos a


integrar en un sistema era reducido y bajo el estricto control de un solo
ordenador. Sin embargo el avance de las técnicas informáticas, en las
técnicas de interconexión a red y la proliferación de ordenadores y equipos
relacionados con ordenadores fue de tal magnitud que hizo inaceptable el
concepto de red cerrada389. El modelo de referencia de la ISO supone el
primer intento serio hacia la consecuencia de ese objetivo. A continuación
se detallan sus capas y funciones.

Físico. Proporciona el soporte de transmisión o medio material para que


establecer y mantener el flujo de información entre varios terminales
remotos y la señalización necesaria para la gestión de errores. Este nivel
define y caracteriza las propiedades mecánicas, eléctricas y funcionales de
los dispositivos involucrados en el enlace físico.

389
Tanto usuarios como fabricantes, coincidieron en el beneficio que reporta establecer una
serie de normas o estándares para la interconexión de sistemas abiertos que permita la
integración de funciones operacionales de los equipos a todos los niveles.

287
TECNOLOGÍAS

Enlace. Garantiza un servicio de transferencia de datos libre de error (en


términos de mínima probabilidad). Esta capa es la responsable de establecer
y liberar conexiones de enlace, dividir la información en tramas, delimitar y
sincronizar, secuenciar, controlar el flujo de datos, detectar y recuperar
errores, controlar el acceso al medio, etc.

Red. Provee un servicio de conectividad universal independiente de la


tecnología (oculta a las capas superiores las diferencias tecnológicas de las
subredes) a la vez que ofrece una calidad de servicio. Sus funciones más
importantes son el encaminamiento de la información (y almacenamiento y
reenvío), la multiplexación, etc.

Transporte. Proporciona un servicio de transferencia de datos fiable y


efectivo en coste a la vez que mantiene la calidad de servicio. Básicamente,
realiza tres servicios: establecimiento de conexión, difusión de la
información a múltiples destinatarios y posibles transacciones. Para ello
debe establecer la correspondencia entre las direcciones de transporte y de
red; multiplexar y dividir; establecer y liberar conexiones de transporte;
segmentar, agrupar y concatenar; etc. Esta capa independiza las
aplicaciones de comunicaciones y media entre los requisitos de calidad de
servicio que imponen las aplicaciones y la calidad de servicio ofrecida por las
redes.

Sesión. Ofrece mecanismos para que la aplicación pueda gestionar su


diálogo, sincronizar y re-sincronizar el flujo de datos. Para ello establece y
libera conexiones de sesión; establece correspondencia entre direcciones de
sesión y transporte; segmenta y concatena; gestiona testigos; sincroniza y
re-sincroniza; etc. Es la auténtica interfaz del usuario hacia la red (con
procedimientos de identificación de usuario mediante el uso de contraseña).

Presentación. Independiza a la aplicación de los problemas relativos a la


presentación de los datos (sintaxis de transferencia). Esta capa negocia y
transforma sintaxis de transferencia, traduce alfabetos, etc. Define una
sintaxis común para la representación de los símbolos (cada terminal o nodo
deberá establecer una correspondencia entre tal sintaxis y la
correspondiente a su arquitectura interna).

288
Interconexión de Sistemas Abiertos

Aplicación. Proporciona los medios para que un proceso de aplicación


acceda al entorno OSI. Es el único nivel que conoce la semántica asociada a
la transferencia de información.

La segmentación funcional de las capas permite el intercambio de ellas


sin perjudicar al sistema. Por ejemplo, el RS232 es un protocolo de nivel
físico punto a punto, mientras que el RS485390 es de tipo bus. La capa física
define la topología de la red: árbol, bus, anillo, estrella, malla, etc. y la capa
de enlace el protocolo de acceso.

90. Grafos o topologías de interconexión. Arriba. Bus, estrella, mixta. Centro.


Anillo, doble anillo. Abajo. Árbol, malla, totalmente conexa. Un grafo es una
representación abstracta de un sistema cualquiera en el que los elementos del
sistema o nodos se relacionan entre sí mediante conexiones que indican la
presencia de una interacción; estas conexiones pueden ser físicas o lógicas.

390
RS485, http://es.wikipedia.org/wiki/RS-485, [Consulta: 10-10-2010].

289
TECNOLOGÍAS

Sin embargo es posible sustituir un enlace RS232 punto a punto por un


enlace inalámbrico multipunto IEEE 802.11g391 (Wi-Fi) sin que cambie la
funcionalidad de los niveles por encima de la subred de transporte. Esta
flexibilidad garantiza la actualización/renovación del hardware de
comunicación y el desarrollo de las aplicaciones independientemente de la
tecnología.

El modelo OSI ataca el problema de la compatibilidad entre terminales o


nodos (procesador, velocidad, almacenamiento, interfaz de comunicación,
código de caracteres, sistema operativo, etc.) mediante la formalización de
diferentes niveles o capas de interacción. Esta desagregación provee dos
beneficios muy importantes: posibilita una mayor comprensión del
problema a la vez que permite optimizar la solución de cada problema
específico. En esta arquitectura la información que genera/entrega un
proceso a la capa de aplicación baja hacia la subred de transporte y sube
hacia la aplicación destino para su entrega al proceso correspondiente. Cada
capa añade información redundante (adicional), para garantizar su servicio,
en el proceso de descenso, mientras que la elimina, en el proceso de
ascenso. Cada capa realiza tareas únicas y específicas; solo tiene
conocimiento de los niveles adyacentes, utiliza los servicios de la capa
inferior y presta servicios a la capa superior.

Este modelo (con las definiciones de servicios y protocolos asociados) es


muy complejo y extenso y, por supuesto, no es perfecto. Muchas son las
críticas que ha recibido durante todos estos años. Sin embargo aporta un
método para enfocar la complejidad de un sistema (facilita la comprensión
al dividir un problema complejo en partes más simples que tienen en cuenta
la interconexión entre sí), normaliza los componentes de red y permite el
desarrollo por partes de diferentes fabricantes (los cambios de una capa no
afectan las demás capas y éstas pueden evolucionar más rápido), garantiza
la comunicación entre procesos libre de error, evita los problemas de
incompatibilidad (e indirectamente la obsolescencia), simplifica el
aprendizaje, y así, un largo etcétera, que amenaza con prorrogar su hasta el
infinito su caducidad.

391
IEEE 802.11, http://www.ieee802.org/11/, [Consulta: 10-10-2010].

290
Arquitecturas

Arquitecturas

Cualquier ordenador o computador digital tiene, al menos, un procesador y


alguna capacidad de ampliar sus recursos periféricos mediante interfaces. Al
conjunto procesador-interfaz, como un todo, se le suele llamar sistema,
plataforma, arquitectura. El ordenador o computadora es un ejemplo de
sistema pensado para uso general. El sistema tecnológico digital más simple
es una entidad, componente o nodo con una parte “dura” (hardware), fija,
material, y otra “blanda” (software), volátil, inmaterial que permite realizar
operaciones “genéricas” (que, sin ellas, serían solo “específicas”) más un
conjunto de periféricos que, en general, son sistemas específicos y permiten
reaccionar al mundo real: capturar información del entorno y generar
acciones. En cada entidad corren procesos “blandos” (programas, códigos)
sobre una arquitectura o soporte “duro”.

Aunque con el tiempo los límites son cada vez más borrosos se puede
hablar, según capacidad de proceso y coste, de los siguientes grandes
sistemas centralizados:

Supercomputer. Equipo que lideró al mundo (o estuvo a punto de


hacerlo) en términos de capacidad de procesamiento (en particular la
velocidad de cálculo) desde el momento de su introducción. Se utilizan para
tareas de cálculo altamente intensivas como la resolución de problemas de
física cuántica, predicción meteorológica, modelado molecular, simulaciones
físicas, criptografía, etc. Coste del orden de 1000000 €.

Mainframes. Computadoras utilizadas principalmente por grandes


organizaciones para aplicaciones críticas como el procesado de enormes
cantidades de datos (transacciones comerciales, censos, encuestas, etc.).
Coste del orden de 100000 €.

Minicomputer (coloquialmente, mini). Término ya obsoleto para una


clase de computadoras muti-usuarios en el espectro medio de capacidad de
proceso entre los sistemas multiusuarios más grandes (mainframe) y los
sistemas mono-usuarios más pequeños (microcomputadoras u ordenadores
personales). Al igual que las supercomputers o mainframes las
minicomputers fueron utilizadas solo por compañías y organizaciones
grandes. Coste del orden de 10000€.

291
TECNOLOGÍAS

Ordenador de sobremesa (también conocidos como microcomputer,


microcomputadora, computadora o, simplemente, PC). Diseñados para usar
sobre el escritorio en la oficina o en casa. Según su función se puede
clasificar en cuatro tipos: casero, personal, estación de trabajo, servidores
de internet, y especializadas en comunicaciones. Coste del orden de 1000€.

Cart computer. Pensados para aumentar la movilidad, tienen la misma


potencia que los de sobremesa con unas dimensiones reducidas. Por
ejemplo: tablet PC o laptop. Se puede alimentar con baterías recargables y
guardar donde quiera (maletín, funda, etc.). Coste del orden de 1000€.

Portable computer. Ordenador diseñado para moverlo de un lugar a


otro. Por naturaleza son microcomputadoras. Este término se utiliza casi
exclusivamente para hacer referencia a computadoras mayores que un
portátil normalmente sin alimentación por baterías. Las computadoras
portables más pequeñas se conocen como ordenadores móviles y se hace
referencia a ellas según un término específico:

Laptop (o Notebook). Monitor de pantalla plana y teclado que requiere


trabajar sentado y con ambas manos.

Tablet PC. Esencialmente es un laptop sin teclado que opera al estilo de


una pantalla sensible al tacto.

Sub-notebook. Algo entre un laptop y una PDA.

Pocket computer. Combina las características de una calculadora


alfanumérica, un pequeño ordenador casero (normalmente programado en
BASIC) y una PDA.

PDA (personal digital assistant). Normalmente se sostiene con una mano


y se opera con la otra. Coste del orden de 1000€.

Mobile Computing. Término genérico que describe su capacidad para


utilizar la tecnología de los robots, que no está físicamente conectado, o en
entornos remotos o móviles (no estático). El término ha evolucionado en el
uso moderno de tal forma que exige que la actividad de computación móvil
se conecte sin cables a través de Internet o a través de una red privada. Esta
conexión enlaza el dispositivo móvil al centro de información y/o software

292
Arquitecturas

de aplicación mediante el uso de pilas, portátiles, móviles y dispositivos de


comunicación y computación. Esto incluye dispositivos como los portátiles
con red inalámbrica (LAN) o la tecnología inalámbrica WAN, teléfonos
móviles, ordenadores portátiles y PDAs con interfaces Bluetooth o IRDA. Por
ejemplo: Ordenador portátil, Asistente personal digital (PDA), Terminales
portátiles de datos (PDT), Terminales de datos móviles (ETM), Tablet
ordenador personal, Teléfonos inteligentes, etc. Coste del orden de 100€.

Embedded system. Sistema integrado392 dedicado solo a determinadas


funciones (por ejemplo: Ardabasto). Se caracterizan por su modularidad,
gestión autosuficiente, dimensiones reducidas, bajo consumo de potencia y
una gran interconectividad. Coste del orden de 10€.

Como se puede observar en este breve repaso arquitectónico-


tecnológico el objetivo de todas estas tecnologías es proporcionar
determinada capacidad de proceso y esta proporción está directamente
relacionada directamente con el precio. Las cifras que se manejan no son
precisas y, dependen de muchas variables (como el valor de la moneda y el
desarrollo tecnológico) pero sí permite tener una idea del tramo de coste
correspondiente. Por ejemplo en el tramo de las centenas: 10€, los costes se
mueven desde valores cercanos a la unidad hasta valores cercanos a 99€.
Hay que tener en cuenta que en ocasiones el coste del procesador
representa aproximadamente el 10% del coste total de la plataforma. La
tabla 78393 ofrece una comparativa entre las diversas arquitecturas en base a
su capacidad y coste. En este ámbito MIPS = (no. Instrucciones/ tiempo de
respuesta) 10-6.

El procesador es el elemento programable de un sistema. Muy a menudo se


le denomina, erróneamente, CPU. Una CPU puede estar soportada por uno
o varios microprocesadores, y un microprocesador puede soportar una o

392
En mucha de la bibliografía embedded se traduce como empotrado o embebido. Son
sistemas pequeños que prefiero traducir como integrado en alusión al alto nivel de
integración hardware que poseen desde el propio núcleo de estos sistemas.

393
cfr., Anexo A – Metodologías.

293
TECNOLOGÍAS

varias CPU. La porción del procesador que realiza todas las actividades de
una CPU real es el núcleo. En general, los procesadores se pueden clasificar
según su capacidad de realizar operaciones en el tiempo (en algunos
procesadores como los procesadores digitales de señal se da en flops; por
ejemplo 1 Mflops equivale a 1 Millón de Operaciones de Punto Flotante Por
Segundo), la frecuencia del reloj (relacionada con lo anterior), el ancho de
palabra de datos (16, 32, 64 bits, etc.) e instrucciones (los procesadores
CISC, Complex Instruction Set Computer, manejan microinstrucciones de
diferente tamaño, lo que los vuelve menos eficientes que los procesadores
RISC, Reduced Instruction Set Computer), etc.

Las tres grandes familias de procesadores más importantes son:


microcontrolador (e.j., Microchip, Atmel, etc.), procesador de propósito
general (e.j., Intel, AMD, etc.) y procesador de señal digital o DSP (e.j.,
Analog Devices, Texas Instruments, etc.) cada una orientada y dedicada a
diferentes sectores del mercado.

Microcontrolador. Circuito integrado o chip que incluye en su interior las


tres unidades funcionales de cualquier computadora: CPU, Memoria y
Unidades de E/S; se trata de un ordenador completo en un solo circuito
integrado. Aunque sus prestaciones son limitadas, además de dicha
integración, su característica principal es su alto nivel de especialización. Los
hay del tamaño de un sello de correos, incluso más pequeños, ya que,
lógicamente, forman parte del dispositivo que controlan. El
microcontrolador es un microprocesador optimizado para controlar equipos
electrónicos (probablemente entre los electrodomésticos de un hogar hayan
distribuido una o dos docenas de microcontroladores y pueden encontrarse
en casi cualquier dispositivo eléctrico como automóviles, lavadoras, hornos
microondas, teléfonos, etc.). Los microcontroladores representan la
inmensa mayoría de los chips de computadoras vendidos, sobre un 50% son
controladores simples y el restante corresponde a DSPs más especializados.
Un microcontrolador es más fácil de convertir en una computadora, con un
mínimo de chips externos de apoyo, a diferencia de un procesador normal
(de propósito general). La idea es que el circuito integrado microcontrolador
se coloque en un dispositivo, enganchado a la fuente de energía y de la
información que necesite, y eso sea todo. Un microprocesador tradicional no
permite hacer esto, sino que espera que todas estas tareas sean manejadas
por otros integrados.

294
Arquitecturas

Un microcontrolador típico tiene integrado un generador de reloj y una


pequeña cantidad de memoria RAM y ROM/EPROM/EEPROM; para hacerlo
funcionar, todo lo que se necesita son unos pocos programas de control y
un cristal de sincronización. Los microcontroladores disponen generalmente
también de una gran variedad de dispositivos de entrada/salida, como
convertidores analógico/digital, temporizadores, UARTs (Universal
Asynchronous Receiver-Transmitter) y buses de interfaz serie especializados,
como I2C (Inter-Integrated Circuit) y CAN (Controller Area Network).
Frecuentemente, estos dispositivos integrados pueden ser controlados por
instrucciones de proceso especializadas. En general, se suele utilizar a partir
de los portable computer, mobile computing and embedded systems.

Microprocesador. Un microprocesador es un circuito integrado,


construido en un trozo diminuto de silicio, que contiene miles, o incluso
millones, de transistores interconectados de manera tal que realicen una
amplia variedad de funciones generales con la particularidad que estas
funciones o instrucciones no son fijas y pueden ser programadas por
software.

Procesador de señal digital. Como su nombre indica estos procesadores


son muy buenos en realizar operaciones aritméticas en punto fijo o flotante
relacionadas con el procesado de señal. Los DSP utilizan arquitecturas
especiales para acelerar los cálculos matemáticos intensos implicados en la
mayoría de sistemas de procesado de señal en tiempo real. Por ejemplo, las
arquitecturas de los DSP incluyen circuitería para ejecutar de forma rápida
operaciones de multiplicar y acumular, conocidas como MAC (multiplican y
suman en una sola instrucción); lo cual es muy importante en operaciones
de filtrado y convolución. A menudo poseen arquitecturas de memoria que
permiten un acceso múltiple para permitir de forma simultánea cargar
varios operando, por ejemplo, una muestra de la señal de entrada y el
coeficiente de un filtro simultáneamente en paralelo con la carga de la
instrucción. También incluyen una variedad de modos especiales de
direccionamiento y características de control de flujo de programa
diseñadas para acelerar la ejecución de operaciones repetitivas. Además, la
mayoría de los DSP incluyen en el propio chip periféricos especiales e
interfaces de entrada salida que permiten que el procesador se comunique
eficientemente con el resto de componentes del sistema, tales como
convertidores analógicos-digitales o memoria.

295
TECNOLOGÍAS

Una señal, en este contexto, es una secuencia discreta (digital) que


representa una señal analógica del mundo real tal como audio
(unidimensional), imagen (bidimensional) o vídeo (tridimensional). Estas
señales tienen la particularidad de moverse a grandes velocidades (lo que se
traduce a un gran ancho de banda) y requerir mucha memoria. Por ejemplo
la señal de audio que utiliza un CD casero emplea 16 bits por muestra,
44100 muestras por segundo y dos canales (estéreo). Cualquier proceso
sobre este tipo de señal, como puede ser, por ejemplo, una operación de
filtrado en frecuencia (lo que se conoce como ecualización) requiere de un
gran número de operaciones que deben ser satisfechas en un tiempo muy
breve (en torno a aproximadamente 2x10-5 segundos). Otras señales para lo
cual se desarrollan muchos sistemas integrados están relacionadas con las
tecnologías de comunicación: WiFi, GSM, GPRS, DSRC, routers, switchers,
antenas, etc.

No obstante sus diferencias es importante destacar la intrusión de estas


tres tecnologías. Desde los Pentiums MMX, por ejemplo, los
microprocesadores de Intel llevan integrado un conjunto de instrucciones
para procesado digital de señal, los DSP incluyen módulos de entrada salida,
como convertidores analógicos/digitales y viceversa, los microcontroladores
(como los dsPIC de Microchip) incluyen muchas de las instrucciones
especializadas de un DSP, etc. Este proceso de convergencia emborrona las
fronteras de estas grandes familias a la vez que facilitan dispositivos cada
vez más robustos, pequeños, versátiles, integrados, de menor consumo y
potentes.

Los procesos que “corren” en los procesadores son funciones (o


procedimientos) que reciben datos organizados en determinado formato o
estructura. Las variables no son más que estructura de datos que requieren
de determinada cantidad de memoria cuya longitud depende del tipo de
dato. Todas las variables, sean del tipo que sean, tienen longitud fija, salvo
algunas excepciones —como las colecciones de otras variables (arrays) o las
cadenas donde la longitud es variable. A nivel sistema, donde colaboran
diversos procesadores, entidades de proceso o, simplemente, nodos, los
componentes tienen un comportamiento externo similar a la función. Sin
embargo internamente el funcionamiento es diferente. No es un único
proceso sobre un soporte aislado lo que procesa y genera datos en
determinado formato; sino múltiples procesos, en más de un hilo o hebra de
ejecución, en más de un soporte, con un intercambio de datos
empaquetados según determinado protocolo, etc. A este nivel se utiliza el

296
Arquitecturas

término servicio en lugar de función. La línea divisoria es difícil de trazar;


conceptualmente es lo mismo pero operan a niveles de abstracción
diferentes.

La elección del procesador debe tener en cuenta otro aspecto igualmente


importante: el sistema operativo (OS, Operating System). En general ambos
son elementos independientes y un procesador es susceptible de admitir
diversos OSs pero, en aquellos casos donde el OS está integrado (lo cual es
típico en los sistemas integrados) no es posible o es muy difícil su
sustitución.

Un OS es un programa o conjunto de programas (secuencia de


instrucciones al procesador) destinado a permitir una gestión eficaz de sus
recursos. Comienza a trabajar cuando se enciende el ordenador, y gestiona
el hardware de la máquina desde los niveles más básicos, permitiendo
también la interacción con el usuario pero ocultándole la complejidad
subyacente de la arquitectura. Los OSs vienen integrados en la mayoría de
los aparatos electrónicos que utilicen microprocesadores para funcionar;
gracias a estos se arranca la máquina y ésta cumple con sus funciones
(teléfonos móviles; reproductores multiformatos: MPEG2, DIVX, XVID, DVB
HDTV, etc.; TDTs... y computadoras). El uso de un OS es importante porque
facilita el acceso a los recursos del procesador y los administra de manera
eficaz. Actúa como una capa de abstracción que oculta la complejidad del
hardware. Sin embargo requiere del consumo de estos recursos por lo que
es muy importante sintonizar, optimizar, adaptar, el OS al sistema
específico.

El sistema operativo es software y, por lo tanto, es un proceso (en


realidad un conjunto de procesos) cuya función principal es la de controlar
los procesos del sistema (entre los que se encuentran los procesos que lanza
el usuario). El uso de un OS estándar tiene grandes ventajas: disminuye el
ciclo de desarrollo e indirectamente el coste, facilita su mantenimiento,
cuenta con amplio soporte, documentación y canales de ayuda, está
optimizado, etc.

297
TECNOLOGÍAS

Los sistemas integrados394 son un tipo particular de arquitectura HW/SW


que, a diferencia de los sistemas generales, se diseña para satisfacer
requerimientos muy específicos. Del inglés embedded system se suele
traducir como empotrado, embebido, embedido, embarcado o incrustado.
Una arquitectura de este tipo implica un control muy preciso de todos los
periféricos estrictamente necesarios por lo que, si bien los sistemas de
propósito general (como cualquier PC) admiten un número casi ilimitado de
recursos395, los sistemas integrados son mucho más cerrados, contienen
todo lo que necesitan y lo gestionan con muy alto rendimiento y muy baja
tasa de fallos. Tal capacidad de integración no está relacionada
directamente con el tipo de dispositivo de proceso, ni con su uso; la piedra
angular de Macintosh en sus inicios fue precisamente un alto nivel de
integración (lo que le proporcionó muy alta fiabilidad y prestaciones) y, sin
embargo, eran sistemas informáticos generales (para cualquier uso o, lo que
es más preciso, para un elevado número de usos). Los siguientes ejemplos,
uno por cada familida de procesador: microcontrolador, microprocesador y
procesador digital de señal son solo algunos esfuerzos tecnológicos
interesantes en el desarrollo de sistemas integrados; sin embargo, todos
comparten algunas buenas características; son: baratos, versátiles, de bajo
consumo y pequeños y, por supuesto, tienen un OS Linux integrado396.

394
García, Lino. Linux Integrado. LINUX+. 2009, Vol. 58, pp. 24-28. Disponible en:
http://lpmagazine.org/es/, [Consulta: 22-12-2010].

395
Algunos de los periféricos más communes son: discos, interfaces de sonido, vídeo,
televisión, impresoras, etc. La interconexión de los periféricos con la arquitectura anfitrión es
uno de los eslabones débiles en la cadena de resistencia a la obsolescencia. Todos los
periféricos no son gestionados por igual; los internos (disco duro, por ejemplo) normalmente
son gestionados por el/los procesador(es) a través de buses de muy alta velocidad con
protocolos bien definidos soportados por defecto por el sistema operativo en cuestión; sin
embargo los externos requieren de la instalación de programas especiales (plugins) que
añaden la funcionalidad desconocida del periférico al sistema operativo. Este tipo de interfaz
introduce cierto acoplamiento en detrimento de independencia.

396
SoM-9260M, de EMAC inc: http://www.emacinc.com/som/som9260.htm; Gumstix Verdex
Pro XM4 de gumstix: http://www.gumstix.com/; Beagle Board, de beagleboard.org:
http://beagleboard.org/; [Consulta: 10-11-2010]. Los tres sistemas integrados son “de
propósito general”; están preparados para servir de prototipos en desarrollos generales.

298
Arquitecturas

91. Algunos ejemplos de esfuerzos tecnológicos interesantes en el desarrollo de


sistemas integrados, uno por cada procesador; todos comparten algunas buenas
características; son: baratos, versátiles, de bajo consumo y pequeños y tienen un
OS Linux integrado. Arriba. Microcontrolador. SoM-9260M de EMAC Inc: basado
en el procesador ARM9 AT91SAM9260 de Atmel. Medio. Microprocesador.
Gumstix Verdex pro XM4 de gumstix: basado en el el procesador MarvellTM
PXA270 con XScaleTM (200MHz y 400MHz). Abajo. DSP. Beagle Board de
beagleboard.org: basado en OMAP3 de TI.

299
TECNOLOGÍAS

Los sistemas integrados son idóneos para la solución de muchas


aplicaciones que requieren potencia computacional, bajo consumo y coste,
movilidad, interconectividad, compactitud, etc. Estos sistemas, todo en uno,
no tienen nada que envidiar al resto de las arquitecturas397. La elección del
sistema integrado, aunque depende de las necesidades a satisfacer, será
prácticamente irrelevante teniendo en cuenta la convergencia:
prestaciones, coste, versatilidad, herramientas; todo ello con un sistema
operativo de libre distribución común: Linux.

El sistema operativo Linux arrastra una pesada fama respecto a la


complejidad de uso y desarrollo pero es algo de lo que la comunidad es
consciente y trabaja para superarlo. La instalación e interacción gráfica de
versiones como Ubuntu398 y Sugar OS lo demuestran. La disponibilidad de
correr el sistema desde una llave USB como lo hace SugarLab399, es casi
exclusiva de Linux. Linux no solo facilita el acceso a los recursos del sistema
integrado, sino que provee una interfaz común. El kernel400 de Linux está
“adaptado” a la arquitectura donde se integra para garantizar un óptimo
aprovechamiento de los recursos del sistema. La principal diferencia en
estas variantes es la ausencia de la unidad de gestión de memoria (MMU,
memory management unit); lo que hace que un OS pueda trabajar en modo
protegido integrado en el procesador. Aunque suelen ser sistemas Linux
multitarea, no tienen protección de memoria ni otras características
asociadas.

Existen sistemas integrados con recursos para casi cualquier aplicación.


Este tipo de sistemas es idóneo para la integración de la tecnología
informática en el entorno de una persona, de forma que los ordenadores no

397
Véase Tabla 78 en el apartado Valoración presupuestaria del Anexo A – Metodologías.

398
Ubuntu, http://www.ubuntu.com/, [Consulta: 10-10-2010].

399
SugarLab, http://wiki.sugarlabs.org/go/Sugar_on_a_Stick, [Consulta: 10-10-2010].

400
Afortunadamente, desde la versión 2.6 del kernel, Linux es reentrante y con derecho
preferente para los procesos de usuario. Esto significa que cada proceso tiene una prioridad y
puede quitar el acceso al procesador a procesos de menor prioridad; una vez termine, el
proceso interrumpido continuará por donde se quedó; lo que, en otras palabras, garantiza
tiempo real.

300
Arquitecturas

se perciban como objetos diferenciados; lo que se conoce como


computación ubicua y es la base del nuevo paradigma de la complejidad. En
definitiva un sistema integrado es un todo (integrado, compacto, versátil,
conectable) que puede ser parte de sistemas mucho más complejos; como la
vida misma.

Un proceso es un programa en ejecución, una secuencia de órdenes. Los


procesos corren en la unidad central de procesamiento (CPU, Central
Processing Unit) y son los encargados de manipular, crear y gestionar
información o datos. Cualquier CPU es capaz de correr, al menos, un proceso
y las más sofisticadas son capaces de correr múltiples procesos
simultáneamente en el mismo dispositivo (lo cual se conoce como
multiprocesamiento). Los procesos se inician, consumen cierto tiempo de
procesador y paran, normalmente a la espera de algún dato, cuando
finalizan su tarea o siguen infinitamente en espera de un nuevo suceso.

Precisamente para los procesadores menos dotados (mono-procesos) se


idearon diferentes estrategias para poder optimizar el uso del tiempo del
procesador y simular la ejecución simultánea de múltiples procesos; una
especie de falso multi-procesamiento. Todos estos mecanismos los gestiona
el proceso con mayor privilegio que corre en un ordenador: el sistema
operativo.

Una vez que varios procesos corren, ya sea de forma real o artificial,
“simultáneamente”, la necesidad de intercambiar datos es inmediata.
Incluso los sistemas operativos se organizan en múltiples procesos, cada uno
encargado solo de determinada función, y son sus interrelaciones las que
permiten determinados comportamientos o procesos a una escala mayor.
En esta economía de recursos no tiene sentido, por ejemplo, que el proceso
de un editor de texto se quede esperando, sin permitir a la CPU hacer
ninguna otra cosa, mientras el usuario se decide a teclear un carácter o a
pinchar con el ratón determinada opción. Mientras, el OS puede estar
descargando sus mensajes de correo, imprimiendo una foto, reordenando el
disco duro, etc. Pero, una vez que se genere la información desde el
teclado, se deberá notificar al editor de texto para que continúe con su
funcionamiento o “proceso”.

301
TECNOLOGÍAS

Las hebras o hilos (threads), o subprocesos, son un concepto


fundamental en lo que se conoce como programación concurrente. Un
proceso es la unidad básica de ejecución de la mayoría de sistemas
operativos. La hebra no es más que un mecanismo que permite la ejecución
“simultánea” de distintas aplicaciones. Una hebra es básicamente una tarea
que puede ser ejecutada en paralelo con otra. Por ejemplo, el kernel del OS
deja correr a una aplicación por un tiempo; cuando se agota dicho tiempo, el
kernel del OS retoma el control y se lo entrega a otra aplicación. Pero, para
cambiar el control de una aplicación a otra, el OS también intercambia, por
cada aplicación, información adicional tal como: la identificación de los
archivos abiertos, la memoria de la aplicación y la pila de ejecución,
conocida como información de contexto. El proceso es precisamente la
unidad compuesta por toda esa información contextual.

El concepto de hebra implica solamente un salto y mantiene el


contexto401. Esta técnica permite simplificar el diseño de una aplicación que
debe llevar a cabo distintas funciones simultáneamente. Existen muchas
situaciones en la que esto es deseable. En el caso de una aplicación cliente-
servidor, por ejemplo, para asignar una hebra en el servidor por cada
solicitud del cliente.

El siguiente paso es obvio: interconectando varias CPU a través de algún


sistema de comunicación, los procesos de cada una pueden compartir datos
con los de sus vecinas incrementando enormemente la capacidad de
procesamiento. Internet, de hecho, desde este punto de vista, es el
ordenador más grande que existe en la tierra y son muchas las aplicaciones
que empiezan a darle ese uso. La comunicación entre procesos puede ser
entonces intra o inter entidad.

401
Es decir que distintas partes de la aplicación se ejecutan concurrentemente, compartiendo
memoria y archivos abiertos (la pila de ejecución no se intercambia).

302
Arquitecturas

92. Secuencia 6EQUJ5 (conocida como WOW) detectada por Jerry R. Ehman,
profesor voluntario en el proyecto SETI, el 15 de agosto de 1977 a las 23:16h. Es
la señal anómala más intensa detectada por un radiotelescopio y la única hasta
la fecha que podría tener un origen extraterrestre.

Uno de los proyectos más conocidos de este tipo es SETI (Search for
ExtraTerrestrial Intelligence)402. SETI@Home403 usa los tiempos muertos de

402
El proyecto SETI tiene como misión explorar, entender y explicar el origen, la naturaleza y
la existencia de vida en el universo gracias al uso de la radioastronomía. La radioastronomía
estudia el cosmos mediante la medición de las radiaciones electromagnéticas en la región de
radio del espectro, cuya longitud de onda es mayor que la luz visible del espectro (región del
espectro en la que los telescopios convencionales trabajan). Pero el volumen de datos que
generan los radiotelescopios es enorme. Procesar todo esa información requiere de una
potencia de proceso descomunal. El interés de este proyecto, en este contexto, no es tanto la
investigación para la que fue diseñado sino porque permitió desarrollar el ordenador más
grande que pueda existir: aquel que uso todos los ordenadores del mundo que desean
colaborar interconectados a través de Internet.

403
SETI@Home, http://setiathome.ssl.berkeley.edu/, [Consulta: 10-10-2010]. El proyecto
SETI@Home utiliza la Infraestructura Abierta de Berkeley para la Computación en Red
(BOINC, Berkeley Open Infrastructure for Network Computing), http://boinc.berkeley.edu/,
[Consulta: 10-10-2010]. BOINC es una infraestructura de computación distribuida diseñada
bajo el paradigma cliente-servidor que permite alcanzar una capacidad de cómputo enorme

303
TECNOLOGÍAS

los ordenadores conectados a Internet para realizar la búsqueda de


inteligencia extraterrestre, mediante la ejecución de un programa de
descarga gratuita que analiza los datos extraídos de los radiotelescopios.

Sea cual sea el ámbito donde corre un proceso solo tiene cuatro estados
posibles:

Corriendo. Instrucciones en ejecución.

Bloqueado. El proceso espera porque ocurra algún evento (como la


finalización de un proceso de entrada/salida).

Listo. El proceso espera su asignación al procesador.

Condenado. El proceso espera por un evento que no ocurrirá nunca.

El proceso más frecuente, por raro que parezca, es bloqueado. La mayor


parte del tiempo el ordenador está ocioso. Los tiempos de entrada-salida
son de orden significativamente superior a los tiempos de ejecución. Los
procesos para transitar de un estado a otro necesitan comunicarse entre sí.
El proceso que espera una acción del teclado lo hace hasta que el proceso
que gestiona el teclado avisa. Como en un sistema de auto-regulación del
tráfico que garantiza un comportamiento “civilizado” se necesita una
jerarquía.

La comunicación entre procesos (IPC, Inter Process Communication)404 se


puede realizar según las siguientes categorías:

aprovechando la capacidad de computación de ordenadores personales que se unen


voluntariamente al proyecto como servidores en sus ciclos libres o inactivos de proceso. El
sistema se basa en un servidor que reparte las tareas entre los diferentes clientes, para
posteriormente recoger los resultados obtenidos.

404
García, Lino. Comunicación entre Procesos: En busca del eslabón perdido. LINUX+. 2010,
Vol. 63, pp. 70-75. Disponible en: http://lpmagazine.org/es/, [Consulta: 22-12-2010].

304
Arquitecturas

Tubería (Pipe). Sistema de comunicación unidireccional (half dúplex)


entre procesos dentro del mismo sistema que proviene del UNIX. En una
tubería un proceso escribe datos y otro proceso los lee. Una de sus ventajas
es que los datos solo pueden ser leídos una vez en el mismo orden en el cual
fueron escritos.

FIFO (Firs In First Out). Mecanismo de colas similar a la tubería; en


realidad la FIFO es una tubería identificada con un nombre. La única
diferencia sustancial respecto a las tuberías es que las FIFOs existen más allá
del ciclo de vida del proceso.

Memoria Compartida. Este mecanismo permite la comunicación entre


diferentes procesos como si compartiesen un espacio de direcciones virtual;
cualquier proceso que comparta una región de memoria puede escribir y
leer en/de ella. El mecanismo System V IPC describe el uso del mecanismo
de memoria compartida en cuatro pasos:

Obtener memoria compartida. Búsqueda de un identificar


correspondiente a un área de memoria.

Obtener la dirección a la memoria compartida a través de su


identificador.

Desconectar o aislar la memoria después de usar.

Finalmente uso de la dirección para controlar los accesos,


permisos, recibir información y destruir el área de memoria
compartida.

Este es el mecanismo más rápido de los servicios System V IPC; sin


embargo, no garantiza la consistencia de los datos (un proceso puede leer
de un área de memoria compartida mientras otro proceso escribe). El acceso
a esta memoria debe ser mutuamente exclusivo y se consigue mediante
mecanismos de sincronización entre procesos como semáforos; que
permiten bloquear y liberar la memoria.

Memoria mapeada. La memoria mapeada, como la FIFO y la tubería, es


una memoria compartida identificada con un nombre. Esta sutil diferencia
tiene una gran importancia y es que el mecanismo de memoria mapeada
permite mapear un archivo en un sistema de archivo a una porción de

305
TECNOLOGÍAS

memoria. Linux provee las llamadas al sistema mmap y munmap para


utilizar los mecanismos de memoria mapeada. Tampoco estos mecanismos
proveen opciones de sincronización.

Colas de mensajes. Mecanismo de System V IPC que permite que los


procesos envíen información a otros de manera asíncrona; el proceso que
envía continúa con su ejecución sin esperar acuse de recibo del proceso
receptor; el receptor no espera si no tiene mensajes en su cola. Esta cola es
implementada y mantenida por el kernel.

Sockets. Mecanismo IPC más popular simplemente porque es el único


mecanismo que soporta la comunicación entre diversas máquinas. Los
sockets proveen un canal de comunicación bidireccional (full dúplex) entre
procesos que no necesariamente corren en la misma máquina405.

Cuando se trabaja con hebras y procesos la ejecución avanza en varias


partes del programa a la vez y cada una de esas ejecuciones simultáneas
puede tocar los mismos objetos lo que puede ser un problema cuando esos
objetos son “críticos”. Por ejemplo una variable compartida. Para evitar
estos inconvenientes se utilizan técnicas como:

Bloqueo (Mutex). El término mutex viene de mutuamente exclusivo.


Cuando un proceso o hebra bloquea un recurso mediante una llamada
mutex al OS ningún otro hilo puede continuar su ejecución cuando intenta
bloquearlo. Solo cuando el primer hilo “suelte” ese mutex continuará la
ejecución del siguiente que lo ha solicitado.

Sección Crítica. En programación concurrente una sección crítica es una


pieza de código que no permite el acceso concurrente de más de una hebra
a recursos compartidos (estructuras de datos o dispositivos). Una sección

405
Los sockets son asociados, generalmente, con el concepto de comunicación en red y el
paradigma de programación cliente-servidor donde intervienen un par de procesos: uno de
los cuales actúa como cliente y el otro como servidor. Los procesos cliente envían peticiones
al servidor y el proceso servidor envía respuestas a las solicitudes de los clientes.

306
Arquitecturas

crítica normalmente finaliza después de un tiempo fijo, y el hilo, tarea o


proceso tendrá que esperar a que se agote ese tiempo para entrar en ella.

Semáforos. Es un tipo de dato abstracto o variable protegida que


constituye a un método clásico para controlar el acceso a un recurso desde
varios procesos en un entorno de programación paralela o concurrente.

Evento. Aunque normalmente se le llama semáforo es un mecanismo de


sincronización utilizado para indicar a un proceso que espera cuando una
condición particular se hace cierta (true); cuando “ocurre” determinado
acontecimiento. El evento es un tipo de dato abstracto de estado booleano
y en las siguientes operaciones: espera – provoca, cuando se ejecuta, que el
proceso en ejecución se suspenda hasta que el estado del evento cambie a
cierto o true (si el estado es cierto no tiene efecto); activa – cambia el
estado del evento a cierto, liberando todos los procesos en espera; limpia –
cambia el estado del evento a falso (false).

Interconectando CPUs, los procesos de cada una pueden compartir datos


con los de sus vecinas incrementando enormemente la capacidad de
procesamiento. Sin embargo, increíblemente, el propio ordenador puede
que disponga de otras opciones. La primera: aprovechar la capacidad
multinúcleo de su CPU, la segunda: reutilizar la unidad de procesamiento
gráfico (GPU, Graphics Processing Unit) y una tercera, que presupone
disponer de al menos una de las opciones anteriores, la paralelización de los
procesos o, lo que es lo mismo, cualquier código no vale, tiene que poder
“desdoblarse”406.

El rendimiento es una medida de cuánto se puede hacer con lo que se


tiene evaluable en términos de eficiencia y escalabilidad. La eficiencia es un
índice del grado de rendimiento real, comparado con el máximo valor
alcanzable mientras que la escalabilidad ofrece una idea del
comportamiento del sistema cuando se incrementa su capacidad de
cómputo o número de procesadores pero ni todos los sistemas paralelos son

406
García, Lino. Paralelización de Procesos: En busca del tiempo escondido. LINUX+. 2010,
Vol. 65, pp. 42-47. Disponible en: http://lpmagazine.org/es/, [Consulta: 22-12-2010].

307
TECNOLOGÍAS

escalables ni la eficiencia de un sistema paralelo crece proporcionalmente al


incremento del número de procesadores.

La medida de rendimiento habitual de una CPU es su frecuencia de reloj


(en MHz). La mayoría de las CPUs son síncronas: requieren de determinado
número de ciclos de reloj para “correr” un determinado conjunto de
instrucciones. Algunas arquitecturas solo ejecutan una instrucción por ciclo
de reloj (como las RISC, Reduction Instruction Set Computer) y otras un
número diferente de instrucciones por el mismo número de ciclos de reloj
(como las CISC, Complex Instruction Set Computer)407. Sin embargo existen
otras maneras de mejorar drásticamente el rendimiento de una CPU
subescalar: la segmentación y el paralelismo. La segmentación consiste en
descomponer la ejecución de cada instrucción en varias etapas para
procesar una instrucción diferente en cada una de ellas y trabajar con varias
a la vez, mientras que el paralelismo es capaz de ejecutar más de una
instrucción por ciclo de reloj; ya sea a nivel de instrucción (ILP, Instruction
Level Parallelism), que busca el aumento de la velocidad en la cual las
instrucciones son ejecutadas dentro de un CPU, o a nivel de hilo, (TLP,
Thread Level Parallelism), que se propone incrementar el número de hilos
(efectivamente programas individuales) que pueden correr
simultáneamente en una CPU.

Arquitectura Multinúcleo. Los microprocesadores multinúcleo, como la


intel multicore408 de la siguiente figura, combinan dos o más CPUs
independientes en un solo paquete, a menudo un solo circuito integrado y,
en general, exhiben una cierta forma de paralelismo a nivel de hilo o TLP sin
incluir múltiples CPUs en paquetes físicos separados. Esta forma de TLP se
conoce a menudo como multiprocesamiento a nivel de chip (CMP, Chip-
Level Multiprocessing). La idea de estas tecnologías es aumentar el
rendimiento a costa de potenciar el paralelismo.

407
La arquitectura CISC, a diferencia de la RISC, permite operaciones complejas entre
operandos situados en la memoria o en los registros internos de la CPU a la vez que dificulta
el paralelismo entre instrucciones, por lo que, en la actualidad, la mayoría de los sistemas
CISC de alto rendimiento convierten dichas instrucciones complejas en varias instrucciones
simples del tipo RISC llamadas generalmente microinstrucciones.

408
Intel multicore, http://www.intel.com/multi-core/, [Consulta: 10-10-2010].

308
Arquitecturas

93. La tecnología Intel® multi-core, que incorpora varios núcleos de ejecución en


un mismo encapsulado y hace posible la ejecución paralela de varios
subprocesos de software, permite que cada núcleo se ejecute a una menor
frecuencia, por lo que se divide la alimentación que normalmente se
proporciona a un solo núcleo. En consecuencia, los usuarios pueden disfrutar de
una increíble experiencia con una laptop o una PC, una estación de trabajo o
servidores.

94. La GPU es el componente principal de un acelerador grafico o tarjeta de


video cuya función es acelerar los cálculos y transferencias de datos en
aplicaciones de videos y de movimientos gráficos (películas, juegos, programas
con interfaces gráficas); el otro componente básico es la memoria (RAM,
Random Access Memory) del acelerador.

309
TECNOLOGÍAS

Las arquitecturas multinúcleos son más rápidas, paradójicamente, con


frecuencias de reloj menores, lo que reduce, a la vez, el consumo de
energía. Por lo tanto, comparar rendimiento en términos de MHz o
frecuencia de reloj, exige una misma microarquitectura, mismo tamaño de
memoria caché, mismo bus (FSB, Front-Side Bus), cantidad de núcleos, etc.

Reutilización de la GPU. La GPU es un procesador dedicado


exclusivamente al procesamiento de gráficos. La idea inicial de este co-
procesador es aliviar la carga de trabajo del procesador central en
aplicaciones como los videojuegos y/o aplicaciones 3D interactivas. De esta
manera la CPU puede dedicarse a otro tipo de cálculos (como la inteligencia
artificial o los cálculos mecánicos en los videojuegos) mientras que GPU
procesa “específicamente” los gráficos409.

La GPU tiene una arquitectura muy distinta a una CPU. A diferencia de la


CPU, que tiene arquitectura Von Neumann o los procesadores de señal
digital, cuya arquitectura es de tipo Hardward, la GPU se basa en el modelo
circulante; que es una arquitectura que facilita el procesamiento en
paralelo, y una gran segmentación.

Una GPU, por su especificidad, no reemplaza una CPU. Sin embargo la


alta especialización de las GPU, optimizadas para cálculo con valores en
coma flotante, predominantes en los gráficos 3D, y el alto grado
de paralelismo inherente al procesamiento gráfico, convierten su fuerza
bruta en una buena estrategia para completar más cálculos en el mismo
tiempo, especialmente en el ámbito científico y de simulación; desde la

409
La GPU implementa ciertas operaciones gráficas llamadas primitivas optimizadas y
específicas para el procesamiento gráfico. Por ejemplo antialiasing en 3D , que suaviza los
bordes de las figuras para darles un aspecto más realista; shader, que procesa píxeles y
vértices para efectos de iluminación, fenómenos naturales y superficies con varias capas,
entre otros; HDR, que es una técnica novedosa para representar el amplio rango de niveles
de intensidad de las escenas reales (desde luz directa hasta sombras oscuras); el mapeado de
texturas, que añade detalles en las superficies de los modelos, sin aumentar su complejidad;
motion blur o depth blur, que es un efecto de emborronado debido a la velocidad de un
objeto en movimiento o adquirido por la lejanía de un objeto, respectivamente; lens flare,
que imita los destellos producidos por las fuentes de luz sobre las lentes de la cámara; efecto
Fresnel o de reflejo especular, que refleja sobre un material en dependiencia del ángulo entre
la superficie normal y la dirección de observación (a mayor ángulo, más reflectante); o
aquellas funciones para dibujar formas básicas como rectángulos, triángulos, círculos y arcos.

310
Arquitecturas

biología computacional a la criptografía por ejemplo. Por ello una GPU


puede ofrecer un gran rendimiento en aplicaciones diseñadas con muchos
hilos que realizan tareas independientes (que es lo que hacen las GPUs al
procesar gráficos; su tarea natural).

Los modelos actuales de GPU suelen tener una media docena de


procesadores de vértices (que ejecutan Vertex Shaders), y hasta dos o tres
veces más procesadores de fragmentos o píxeles (que ejecutan Pixel
Shaders o Fragment Shaders). De este modo, una frecuencia de reloj de
unos 600-800 MHz (el estándar hoy en día en las GPU de más potencia),
muy baja en comparación con lo ofrecido por las CPU (3.8-4 GHz en los
modelos más potentes que no necesariamente más eficientes), se traduce
en una potencia de cálculo mucho mayor.

La programación de la GPU ha evolucionado desde las llamadas a


servicios de interrupción de la BIOS (Basic Input Output System), la
programación en lenguaje ensamblador específico a cada modelo, hasta
alcanzar un nivel más de abstracción entre hardware y software, con el
diseño de APIs (Application Program Interface), que proporcionan un
lenguaje más homogéneo para los modelos disponibles en el mercado (el
primer API usado ampliamente fue el estándar abierto OpenGL, Open
Graphics Language, tras el cual Microsoft desarrolló DirectX) hasta, en la
actualidad, el desarrollo de un lenguaje de alto nivel para gráficos más
natural y cercano al programador. Por ello, de OpenGL y DirectX surgieron
propuestas como: GLSL (OpenGL Shading Language) implementado en
principio por todos los fabricantes, asociado a la biblioteca OpenGL; Cg (del
inglés, "C for graphics") de la empresa californiana NVIDIA, con mejores
resultados que GLSL en las pruebas de eficiencia y HLSL (High Level Shading
Language), producto de la colaboración de NVIDIA y Microsoft,
prácticamente idéntico a Cg, pero con ciertas incompatibilidades menores.

Las diferencias fundamentales entre las arquitecturas de la GPU y la CPU


dificultan la implementación beneficiosa de cualquier problema en la GPU.
El primer reto es el acceso a memoria. Las CPU están diseñadas para
el acceso directo (aleatorio) a memoria lo que favorece la creación
de estructuras de datos complejas, con punteros a posiciones arbitrarias en
memoria. En cambio, en una GPU, el acceso a memoria es mucho más
restringido. Por ejemplo, en un procesador de vértices, se favorece el
modelo scatter, en el que el programa lee en una posición predeterminada

311
TECNOLOGÍAS

de la memoria, pero escribe en una o varias posiciones arbitrarias. En


cambio, un procesador de píxels, o fragmentos, favorece el modelo gather,
en el que el programa lee de varias posiciones arbitrarias, pero escribe solo
en una posición predeterminada.

La tarea del diseñador de algoritmos GPGPU (General-Purpose


Computing on Graphics Processing Units) consiste principalmente en
adaptar los accesos a memoria y las estructuras de datos a las características
de la GPU. Generalmente, la forma de almacenar datos es en un búfer 2D,
en lugar de lo que normalmente sería una textura. El acceso a esas
estructuras de datos es el equivalente a una lectura o escritura de una
posición en la textura. Puesto que generalmente no se puede leer y escribir
en la misma textura, si esta operación es imprescindible para el desarrollo
del algoritmo, éste se debe dividir en varias pasadas.

Cualquier algoritmo que es implementable en una CPU lo es también en


una GPU, sin embargo, esas implementaciones no serán igual de eficientes
en las dos arquitecturas. Solo los algoritmos con un alto grado de
paralelismo, sin necesidad de estructuras de datos complejas, y con una alta
intesidad aritmética, obtienen mayores beneficios de su implementación en
la GPU.

El desarrollo de programas GPGPU se realiza tradicionalmente en


ensamblador o en los lenguajes específicos para aplicaciones gráficas de la
GPU como GLSL, Cg o HLSL. Sin embargo existe una tendencia hacia la
abstracción de los detalles relacionados con los gráficos y la presentación de
una interfaz de más alto nivel como BrookGPU410 o Sh411. La iniciativa
OpenCL (Open Computing Language) es un estándar de computación abierto
que consta de una API y de un lenguaje de programación. Juntos permiten
crear aplicaciones con paralelismo a nivel de datos y de tareas (en un único

410
BrookGPU, http://graphics.stanford.edu/projects/brookgpu/, [Consulta: 10-10-2010].
BrookGPU ha sido desarrollada en la Universidad de Stanford, una extensión ANSI C que
proporciona nuevos tipos de datos y operaciones (stream, kernel, reduction, etc.)
automáticamente convertidos a una implementación que aprovecha la GPU sin intervención
explícita por parte del programador

411
Sh, http://www.libsh.org/, [Consulta: 10-10-2010]. Sh es una extensión
de C++ para metaprogramación con una implementación automática en la GPU.

312
Arquitecturas

o varios procesadores) que pueden ejecutarse tanto en GPUs como CPUs


(GPU, CPU, GPU + CPU o múltiples GPUs), con recursos computaciones
heterogéneos. OpenCL, además, está diseñado para trabajar con APIs
gráficas como OpenGL y está basado, al igual que Brook, en ANSI C,
eliminando cierta funcionalidad y extendiéndolo con operaciones
vectoriales.

OpenCL define un dominio computacional N-Dimensional donde cada


elemento independiente de ejecución en N-D es denominado work-item. El
domino N-D define el número total de work-items que corren en paralelo
(tamaño del trabajo global; los work-items se pueden agrupar en work-
groups). Los work-items en grupo se pueden comunicar entre sí y pueden
sincronizar la ejecución entre work-items en grupo para coordinar el acceso
a memoria (ejecutar múltiples work-groups en paralelo y mapeado del
tamaño del trabajo global para los work-groups). El modelo de ejecución de
datos en paralelo (data-parallel) debe estar implementado en todos los
dispositivos de cómputo OpenCL. Algunos dispositivos de cómputo como las
CPUs pueden ejecutar kernels de cómputo de tareas en paralelo: como un
único work-item, un kernel de cómputo escrito en OpenCL o una función
C/C++ nativa.

CUDA412 (Compute Unified Device Architecture) es otra iniciativa,


desarrollada por nVidia, que intenta explotar las ventajas de las GPUs frente
a las CPUs de propósito general utilizando el paralelismo que ofrecen sus
múltiples núcleos, y permite el lanzamiento de un altísimo número de hilos
simultáneos. CUDA es un conjunto de herramientas de desarrollo, entre las
que se encuentra un compilador, que permiten a los programadores usar
una variación del lenguaje de programación C para codificar algoritmos
en GPUs de nVidia de la serie G8X en adelante, incluyendo GeForce, Quadro
y la línea Tesla. Por medio de wrappers se puede usar Python,
Fortran y Java en vez de C/C++ y en el futuro, quizá el presenta, se sumarán
otros lenguahes como OpenCL y Direct3D.

CUDA es una estrategia de programación interesante; sin embargo, no


permite recursividad, punteros a funciones, variables estáticas dentro de
funciones o funciones con número de parámetros variable; no soporta el

412
CUDA, http://www.nvidia.es/object/cuda_home_new_es.html, [Consulta: 10-10-2010].

313
TECNOLOGÍAS

renderizado de texturas; en precisión simple no soporta números


desnormalizados o NaNs (infinitos); no garantiza ausencia de cuello de
botella entre la CPU y la GPU por los anchos de banda de los buses y sus
latencias; y obliga a lanzar los hilos, por razones de eficiencia, agrupados en
al menos 32, con miles de hilos en total.

La estrategia de CUDA es permitir la creación de aplicaciones que, de


forma transparente, escalen su paralelismo e incrementar así el número de
núcleos computacionales. Los tres puntos clave de este diseño son: la
jerarquía de grupos de hilos, las memorias compartidas y las barreras de
sincronización. La estructura que se utiliza en este modelo está definida por
un grid, dentro del cual hay bloques de hilos formados por, como máximo,
512 hilos distintos. En la arquitectura CUDA un multiprocesador contiene
ocho procesadores escalares, dos unidades especiales para funciones
trascendentales, una unidad multi-hilo de instrucciones y una memoria
compartida. El multiprocesador crea y maneja los hilos sin ningún tipo de
sobrecarga (overhead) por la planificación, lo cual unido a una rápida
sincronización por barreras y una creación de hilos muy ligera, consigue que
se pueda utilizar CUDA en problemas de muy baja granularidad, incluso
asignando un hilo a un elemento; por ejemplo de una imagen (un pixel).

Sacar el mayor rendimiento al ordenador parece una obviedad; sin


embargo, los ordenadores “caducan” con potencia de sobra para lo que
habitualmente se utilizan. La obsolescencia la imponen grandes campaña de
consumo, programas que gastan más recursos para hacer lo mismo, y el
afán de seguir la “moda”. Linux es una excepción en este desvarío de hacer
menos con más. Poco a poco las instituciones y el público en general, van
tomando nota de las ventajas que tiene el uso de software libre, pero aún
queda mucho recorrido para diseñar y explotar aplicaciones que expriman al
máximo todos los recursos.

Estas iniciativas que explotan la paralelización de procesos son


alentadoras en este sentido. La mayoría de las críticas al uso de la GPU, pese
que las ventajas de su uso para ciertas aplicaciones son evidentes, están
generalmente dirigidas a la inconveniencia de usar un procesador para fines
completamente diferentes a lo que se pensaba al diseñarlos. Otro
argumento común es la falta de continuidad de las arquitecturas usadas. La
rápida evolución o exagerada obsolescencia del hardware gráfico, según se
quiera ver, hace que implementaciones de algoritmos que funcionaban

314
Arquitecturas

óptimamente en un modelo de GPU, dejan de hacerlo, o lo hacen sub-


óptimamente en un modelo posterior. Otra crítica es la falta de precisión de
los registros de coma flotante de las GPU (2 o 4 bytes para representar un
número real, en comparación con los 4, 8 o más usados en las CPUs
modernas, no son suficientes para muchas aplicaciones científicas).

Pese a las críticas, cualquier línea en la búsqueda de una explotación


eficiente de los recursos “ocultos”, de su reutilización y de la prolongación
de la vida útil de las máquinas, es bienvenida. A la larga, el entrecruce o
tejido de estas tecnologías es beneficioso. En un futuro, quizá no muy
lejano, las CPUs introduzcan tecnologías propias de las GPUs o viceversa y el
paralelismo, clave para el aumento de la “velocidad” de las máquinas, se
convierta definitivamente, por qué no, en el paradigma de la programación
en paralelo.

Esta arquitectura distribuye la capacidad de proceso entre clientes y


servidores como se muestra en la siguiente figura. Tal separación entre
cliente y servidor es solo de tipo lógica; el servidor no se ejecuta
necesariamente sobre una sola máquina ni es necesariamente un solo
programa. Una disposición muy común son los sistemas multicapa en los
que el servidor se descompone en diferentes programas que pueden ser
ejecutados por diferentes computadoras aumentando así el grado de
distribución del sistema. La arquitectura cliente-servidor sustituye a la
arquitectura monolítica en la que no hay distribución, tanto a nivel físico
como a nivel lógico.

En una aplicación cliente-servidor las órdenes a procesar se deben


generar en determinado formato a partir de una base de datos; por
ejemplo, XML413 (eXtensible Markup Language, lenguaje de etiquetas

413
XML es un metalenguaje extensible de etiquetas desarrollado por el World Wide Web
Consortium (W3C). Disponible en: http://www.w3.org/, [Consulta: 10-10-2010]. Es una
simplificación y adaptación del SGML y permite definir la gramática de lenguajes específicos
(de la misma manera que HTML es a su vez un lenguaje definido por SGML). Por lo tanto XML
no es realmente un lenguaje en particular, sino una manera de definir lenguajes para
diferentes necesidades: un metalenguaje. La aplicación de XML no está limitada a Internet,
sino que se propone como un estándar para el intercambio de información estructurada
entre diferentes plataformas. Se puede usar en bases de datos, editores de texto, hojas de

315
TECNOLOGÍAS

extensible). XML, al ser un metalenguaje permite serializar los datos desde


la base fácilmente y desestructurarlos en el cliente (con un analizador
sintáctico o parser). Cada cliente procesa la orden y envía la respuesta
(también en un formato estructurado). JAVA incorpora SAX (Simple API for
XML) para ambas: análisis y síntesis de tramas XML pero existen múltiples
implementaciones de menor “peso”, como Java Micro XML Parser414, o
MinML415, útiles incluso para usar en sistemas integrados.

En la arquitectura cliente-servidor (C/S) el servidor centraliza el control de


acceso, los recursos y la integridad de los datos por lo que un programa
cliente defectuoso o no autorizado no pueda dañar el sistema. Sin embargo
esta centralización también tiene su debilidad: la congestión del tráfico y
menor robustez. El acceso masivo de peticiones simultáneas a un servidor
puede causar problemas de ancho de banda e incluso la caída del sistema
cuando las peticiones de los clientes no pueden ser satisfechas. El paradigma
C/S es escalable; es posible aumentar la capacidad de clientes y servidores
por separado.

La arquitectura C/S, requiere de la definición de un protocolo de


comunicación a nivel de aplicación que puedan utilizar los clientes para
comunicarse con el servidor. Este protocolo debe contener una serie de
mensajes parametrizables que estandaricen el proceso de comunicación.
Para determinados servicios existen protocolos bien definidos y
estandarizados; pero si se va a “montar” un servidor propio que ofrezca
servicios distintos a los que ya existen, se debe definir el protocolo que
permita la comunicación con el mismo.

cálculo y cualquier aplicación imaginable. XML es una tecnología simple que tiene a su
alrededor otras que la complementan y la hacen mucho más grande y con unas posibilidades
mucho mayores. Su mayor importancia es permitir la compatibilidad entre sistemas para
compartir información de manera segura, fiable y fácil.

414
Java Micro XML Parser, http://sourceforge.net/projects/uxparser/, [Consulta: 10-10-
2010].

415
MinML, http://www.vclcomponents.com/XML/Parsers/Java/MinML-info.html, [Consulta:
10-10-2010].

316
Arquitecturas

95. Funcionamiento de una comunicación entre procesos a través de sockets en


el paradigma cliente-servidor.

Todos los mecanismos de comunicación entre procesos presentados son


comunes a la mayoría de los sistemas operativos. Las técnicas relacionadas
con pase de mensaje (message passing), sin embargo, han sido excluidas por
su extensión pero no son menos importantes. El pase de mensaje es una
forma de comunicación natural a la computación en paralelo, la
programación orientada a objetos y la comunicación entre procesos. En este
modelo los procesos y objetos pueden enviar y recibir mensajes (de cero o
más bytes, estructuras complejas de datos e incluso, segmentos de código) a
otros procesos.

Algunos ejemplos de sistemas de pase de mensajes son los sistemas de


invocación de métodos remotos y objetos distribuidos como ONC RPC (Open
Network Computing Remote Procedure Call), CORBA (Common Object

317
TECNOLOGÍAS

Request Broker Architecture), Java RMI (Java Remote Method Invocation


API416; es una interfaz de programación de aplicación Java que realiza el
equivalente orientado a objetos de las llamadas a procedimientos remotos
equivalente RPC, Remote Procedure Calls), DCOM (Distributed Component
Object Model; tecnología propietaria de Microsoft), SOAP (Simple Object
Access Protocol), .NET Remoting (API de Microsoft para la comunicación
entre procesos liberado en 2002 con la versión 1.0 de .NET), QNX Neutrino
RTOS, OpenBinder y D-Bus (Desktop Bus).

La llamada a procedimiento remoto (RPC, Remote Procedure Call) es un


protocolo que permite a un programa de ordenador ejecutar código en otra
máquina remota sin tener que preocuparse por la comunicación entre
ambos. Este protocolo es un gran avance sobre los sockets en cuanto las
comunicaciones, encapsuladas dentro de las RPC, son ajenas al
programador. Las RPC son muy utilizadas en el paradigma C/S. El cliente
inicia el proceso solicitando al servidor que ejecute cierto procedimiento o
función y enviando éste de vuelta la respuesta de dicha operación al cliente.

Hay distintos tipos de RPC, muchos de ellos estandarizados como pueden


ser el RPC de Sun denominado ONC RPC (RFC 1057), el RPC de OSF
denominado DCE/RPC y el Modelo de Objetos de Componentes Distribuidos
de Microsoft DCOM. Ninguno de estos es compatible entre sí. La mayoría de
ellos utilizan un lenguaje de descripción de interfaz (IDL, Interface
Description Language) que define los métodos exportados por el servidor. Es
habitual definir IDL mediante el lenguaje XML y el uso de HTTP como
protocolo de red; lo que da lugar a lo que se conoce como servicios web. Por
ejemplo SOAP o XML-RPC.

La arquitectura común de intermediarios en peticiones a objetos (CORBA,


Common Object Request Broker Architecture) es un estándar que establece
una plataforma de desarrollo de sistemas distribuidos y facilita la invocación
de métodos remotos bajo un paradigma orientado a objetos. CORBA fue
definido y está controlado por el Object Management Group (OMG) que

416
Interfaz de programación de aplicaciones (API, Application Programming Interface). Una
API es un conjunto de funciones y procedimientos (o métodos, en la programación orientada
a objetos) que ofrece cierta biblioteca (librería) para ser utilizado por otro software como una
capa de abstracción. Son usados generalmente en las bibliotecas.

318
Arquitecturas

define las APIs, el protocolo de comunicaciones y los mecanismos necesarios


para permitir la interoperabilidad entre diferentes aplicaciones escritas en
diferentes lenguajes y ejecutadas en diferentes plataformas, lo que es
fundamental en computación distribuida. En un sentido general CORBA
“envuelve” el código escrito en otro lenguaje en un paquete que contiene
información adicional sobre las capacidades del código que contiene, y
sobre cómo llamar a sus métodos. Los objetos que resultan pueden
entonces ser invocados desde otro programa (u objeto CORBA) desde la red.
En este sentido CORBA se puede considerar como un formato de
documentación legible por la máquina, similar a un archivo de cabeceras
pero con más información. CORBA utiliza un lenguaje de definición de
interfaces (IDL) para especificar los interfaces con los servicios que los
objetos ofrecerán. CORBA puede determinar a partir de este IDL la interfaz a
un lenguaje determinado describiendo cómo los tipos de dato CORBA deben
ser utilizados en las implementaciones del cliente y del servidor. Existen
implementaciones estándar para Ada, C, C++, Smalltalk, Java y Python. Hay
también implementaciones para Perl y TCL. Al compilar una interfaz en IDL
se genera código para el cliente y el servidor (el que implementa el objeto).
El código del cliente sirve para poder realizar las llamadas a métodos
remotos. Es el conocido como stub, el cual incluye un proxy (representante)
del objeto remoto en el lado del cliente. El código generado para el servidor
consiste en unos skeletons (esqueletos) que el desarrollador tiene que
rellenar para implementar los métodos del objeto. CORBA es más que una
especificación multiplataforma, también define servicios habitualmente
necesarios como seguridad y transacciones pero no es un sistema operativo
en si, sino un middleware417.

Un servicio web (web service) es una colección de protocolos y


estándares que sirven para intercambiar datos entre aplicaciones. Distintas
aplicaciones de software desarrolladas en lenguajes de programación

417
Software de conectividad que ofrece un conjunto de servicios que hacen posible el
funcionamiento de aplicaciones distribuidas sobre plataformas heterogéneas. Funciona como
una capa de abstracción de software distribuida, que se sitúa entre las capas de aplicaciones
y las capas inferiores (sistema operativo y red). El middleware abstrae de la complejidad y
heterogeneidad de las redes de comunicaciones subyacentes, así como de los sistemas
operativos y lenguajes de programación, proporcionando una API de fácil programación y
manejo de aplicaciones distribuidas. Dependiendo del problema a resolver y de las funciones
necesarias, son útiles un tipo de servicios de middleware u otros.

319
TECNOLOGÍAS

diferentes, y ejecutadas sobre cualquier plataforma, pueden utilizar los


servicios web para intercambiar datos en redes de ordenadores como
Internet. La interoperabilidad se consigue mediante la adopción de
estándares abiertos. Las organizaciones OASIS y W3C son los comités
responsables de la arquitectura y reglamentación de los servicios Web. Para
mejorar la interoperabilidad entre distintas implementaciones de servicios
Web se ha creado el organismo WS-I, encargado de desarrollar diversos
perfiles para definir de manera más exhaustiva estos estándares.

La principal razón para usar servicios web es que se basan en HTTP sobre
TCP (Transmission Control Protocol) en el puerto 80. Dado que las
organizaciones protegen sus redes mediante firewalls (que filtran y
bloquean gran parte del tráfico de Internet), cierran casi todos los puertos
TCP salvo el 80, que es, precisamente, el que usan los navegadores. Los
servicios Web se enrutan por este puerto, por la simple razón de que no
resultan bloqueados. Otra razón es que, antes de que existiera SOAP, no
había buenas interfaces para acceder a las funcionalidades de otros
ordenadores en red. Las que había eran ad hoc y poco conocidas, tales como
EDI (Electronic Data Interchange), RPC, u otras APIs. Una tercera razón por la
que los servicios web son muy prácticos es que pueden aportar gran
independencia entre la aplicación que usa el servicio web y el propio
servicio. De esta forma, los cambios a lo largo del tiempo en uno no deben
afectar al otro. Esta flexibilidad será cada vez más importante, dado que la
tendencia a construir grandes aplicaciones a partir de componentes
distribuidos más pequeños es cada día más acusada.

Al contrario de las arquitecturas orientado a objetos, las arquitecturas


orientadas a servicios están formadas por servicios de aplicación débilmente
acoplados y altamente interoperables, es decir, servicios poco dependientes
unos de otros pero con gran facilidad de comunicación entre ellos que
permite combinarlos de forma simple y eficaz. Para comunicarse entre sí,
estos servicios se basan en una definición formal independiente de la
plataforma subyacente y del lenguaje de programación. Por ejemplo en
WSDL418 la definición del interfaz encapsula (oculta) las particularidades de

418
WSDL (siglas de Web Services Description Language) es un formato XML que se utiliza para
describir servicios Web (se suele leer como wisdel). La versión 1.0 fue la primera
recomendación por parte del W3C y la versión 1.1 no alcanzó nunca tal estatus. La versión 2.0
se convirtió en la recomendación actual por parte de dicha entidad.

320
Arquitecturas

una implementación, lo que la hace independiente del fabricante, del


lenguaje de programación o de la tecnología de desarrollo (como Plataforma
Java o Microsoft.NET). Con esta arquitectura, se pretende que los
componentes software desarrollados sean muy reusables, ya que la interfaz
se define siguiendo un estándar; así, un servicio C# podría ser usado por una
aplicación Java.

Los servicios, al igual que muchos componentes, tratan de ser bloques


independientes que, de forma colectiva, representan un entorno de
aplicación. De forma opuesta a los componentes tradicionales, los servicios
tienen una serie de características que los permiten formar parte de una
arquitectura orientada a servicios. Una de estas características es su
completa autonomía con respecto a otros servicios: cada servicio es
responsable de si mismo, lo cuál se suele traducir en limitar su alcance a una
función específica del negocio, o a un grupo de funcionalidades reducidas.
Este acercamiento de diseño resulta en la creación de unidades
independientes de funcionalidades del negocio independientes entre si.

Uno de los tipos de servicios más estándares, utilizados y aceptados son


los servicios web XML. Este tipo de servicios tiene dos tipos de
requerimientos: se comunica mediante protocolos de Internet (por lo
general HTTP) y envía y recibe datos formateados como documentos XML.
Con estas restricciones es posible desarrollar un servicio web, escrito en el
lenguaje de programación que se desee. La alta aceptación de los servicios
web ha resultado en la aparición de una serie de tecnologías suplementarias
que se han convertido en estándares de facto. Un servicio web estándar
para la industria, suele realizar una descripción de servicio que, como poco,
consiste en un documento WSDL, debe ser capaz de transportar
documentos XML utilizando SOAP sobre HTTP.

Por otra parte, es común que un servicio web sea capaz de actuar tanto
como cliente como servidor de un servicio y esté registrado en un agente de
descubrimiento a través del cual puede ser localizado. En una conversación
típica con un servicio web, el cliente que inicia la petición es también un
servicio web. Así pues, los servicios web no encajan en la arquitectura C/S, su
arquitectura tiene más que ver con las redes peer-to-peer (P2P) dónde los
nodos hablan de igual a igual.

321
TECNOLOGÍAS

XML, SOAP o WSDL son estándares comúnmente adoptados que forman


parte de la base tecnológica de los servicios web419:

XML. No es realmente un lenguaje en particular, sino un metalenguaje:


una forma de definir lenguajes para diferentes necesidades. Algunos de
estos lenguajes que usan XML para su definición son XHTML, SVG, MathML.
XML no solo es aplicable en aplicaciones de Internet, sino que se propone
como un estándar para el intercambio de información estructurada entre
diferentes plataformas. Se puede usar en bases de datos, editores de texto,
hojas de cálculo y casi cualquier cosa imaginable; es una tecnología sencilla
que tiene a su alrededor otras que la complementan y la hacen mucho más
grande y con unas posibilidades mucho mayores. Su importancia es mayor
cuanto mayor es la compatibilidad que ofrece entre sistemas y la capacidad
de compartir la información de una manera segura, fiable y fácil.

WSDL. Formato XML que se utiliza para describir servicios web. WSDL
describe la interfaz pública a los servicios web. Está basado en XML y
describe la forma de comunicación, es decir, los requisitos del protocolo y
los formatos de los mensajes necesarios para interactuar con los servicios
listados en su catálogo. Las operaciones y mensajes que soporta se
describen en abstracto y se ligan después al protocolo concreto de red y al
formato del mensaje. Así, WSDL se usa a menudo en combinación con SOAP
y XML Schema. Un programa cliente que se conecta a un servicio web puede
leer el WSDL para determinar qué funciones están disponibles en el servidor.
Los tipos de datos especiales se incluyen en el archivo WSDL en forma de
XML Schema. El cliente puede usar SOAP para hacer la llamada a una de las
funciones listadas en el WSDL.

SOAP. Protocolo estándar creado por Microsoft, IBM y otros


(actualmente bajo el auspicio de la W3C) que define cómo dos objetos en
diferentes procesos pueden comunicarse por medio de intercambio de
datos XML. SOAP es uno de los protocolos utilizados en los servicios web. A
diferencia de DCOM y CORBA, que son binarios, SOAP usa el código fuente
en XML. Esto facilita su lectura (es legible), a la vez que genera mensajes
más largos. El intercambio de mensajes se realiza mediante tecnología de
componentes420 (software componentry). El término object en el nombre

419
Erl, Thomas. Service Oriented Architecture: Guide to Integrating XML and Web Services.
Prentice Hall, 2004.

420
Software componentry es una forma común y conveniente de comunicación inter-
procesos (IPC). Está construido sobre teorías de objetos software, arquitecturas software,

322
Arquitecturas

significa que se adhiere al paradigma de la programación orientada a


objetos.

SOAP es un marco extensible y descentralizado que permite trabajar


sobre múltiples pilas de protocolos de redes informáticas. Es posible
modelar los procedimientos de llamadas remotas en forma de varios
mensajes SOAP interactuando entre sí. SOAP funciona sobre cualquier
protocolo de Internet, generalmente HTTP, que es el único homologado por
el W3C. SOAP tiene como base XML, con un diseño que cumple el patrón
Cabecera-Desarrollo de diseño de software, como otros muchos diseños,
verbigracia HTML. La cabecera: header, es opcional y contiene metadatos
sobre enrutamiento (routing), seguridad o transacciones. El desarrollo:
body, contiene la información principal, que se conoce como carga útil
(payload). La carga útil se acoge a un XML Schema propio.

El registro en el catálogo se hace en XML. UDDI421 es una iniciativa


industrial abierta (sufragada por la OASIS) entroncada en el contexto de los
servicios web. El registro de un negocio en UDDI tiene tres partes: páginas
blancas (dirección, contacto y otros identificadores conocidos), páginas
amarillas (categorización industrial basada en taxonomías), páginas verdes
(información técnica sobre los servicios que aportan las propias empresas).
UDDI es uno de los estándares básicos de los servicios web cuyo objetivo es
gestionar el acceso de los mensajes SOAP y dar paso a documentos WSDL,
en los que se describen los requisitos del protocolo y los formatos del
mensaje solicitado para interactuar con los servicios web del catálogo de
registros.

Estos sistemas se conocen como sistemas de “nada compartido” porque


la abstracción del pase de mensajes oculta los cambios de estado
subyacentes utilizados en la implementación de envío de mensajes. Estos
modelos basados en lenguajes de programación normalmente definen la
mensajería (casi siempre asíncrona) como el envío de datos (normalmente
como copia) a un terminal de comunicación (actor, proceso, hilo, socket,

estructuras software y patrones de diseño software (software design patterns), y es la


extensión de la teoría de programación orientada a objetos y el diseño orientado a objetos.
Los componentes software pueden ser intercambiables y confiables; recicla la idea de los
componentes hardware utilizados, por ejemplo, en telecomunicaciones.

421
UDDI son las siglas del catálogo de negocios de Internet denominado Universal
Description, Discovery and Integration.

323
TECNOLOGÍAS

etc.). Los mensajes son utilizados en el mismo sentido que en la


comunicación entre procesos (la versión de alto nivel de un circuito virtual).

Los mecanismos de comunicación entre procesos permiten el


intercambio de datos entre aplicaciones y, por lo tanto, ofrecen la
posibilidad de diseñar sistemas complejos y robustos, distribuidos,
concurrentes y paralelos. Esta posibilidad de interacción segura permite
concebir Internet como el ordenador distribuido más grande jamás
construido. El proyecto SETI, basado en la infraestructura BOINC, es solo un
ejemplo de cómo aprovechar los ciclos ociosos de ordenadores cooperativos
poco potentes para realizar cálculos que tardarían, incluso en el súper-
ordenador más rápido que exista, años o siglos422. El paradigma clásico
cliente-servidor, pese a las críticas que recibe: la red se construye en torno al
servidor, la congestión del tráfico, uso limitado de los recursos del servidor
por los clientes y el coste del servidor; tiene a favor, entre otras: la
centralización de los recursos en el servidor, seguridad, escalabilidad de la
red (se pueden agregar o eliminar clientes sin afectar el funcionamiento de
la red), centralización del control en el servidor, etc.

Sin embargo es posible desarrollar sistemas donde convivan múltiples


servidores (como los P2P) o aplicaciones actúen de cliente y servidor
simultáneamente lo que potencia la distribución o descentralización de las
aplicaciones. La computación en nube o el paradigma de los sistemas
complejos son solo algunos ejemplos de nuevos tipos de estructuración de
las aplicaciones.

Curiosamente la única señal que señala a unos posibles vecinos


extraterrestres fue obtenida fuera del proyecto SETI@Home pero son
muchas las aplicaciones ideales para este paradigma entre las que, sin duda,
se encuentran las relacionadas con el arte digital y todos los procesos de
Restauración; por lo menos hasta que aparezca el primer extraterrestre que
emita una señal entre las billones de frecuencias de radio que fluyen por el
Universo.

422
El análisis de un paquete SETI puede demorar de 1 hora, en caso de supercomputadoras, a
70 o 100 horas, en caso de ordenadores muy antiguos.

324
Arquitecturas

A mediados de los 90 Marc Andreessen (cofundador de la empresa Netscape


Communications Corporation y coautor de Mosaic, uno de los primeros
navegadores web con interfaz gráfico) predijo que Microsoft Windows
estaba destinado a ser un “pobre conjunto de drivers ejecutándose en
Netscape Navigator.” Netscape desapareció en Marzo del 2008, sin
embargo, su predicción va camino de cumplirse en algún navegador web.

En LINOOS423 se cuestiona el papel de los sistemas operativos en la


actualidad en un mundo interconectado a alta velocidad llamado Internet.
Internet, la nube, se puede considerar como un superordenador cuya
potencia está distribuida por todo el globo. El paradigma de la computación
distribuida y compleja, convive a diferentes escalas (según la aplicación y
unidades de proceso involucradas): uso de múltiples ordenadores en una
empresa en lugar de uno solo centralizado (aplicado desde finales de los
70s), uso de múltiples ordenadores en red distribuidos en un área geográfica
extensa o en el mundo entero (vía Internet) o el uso de múltiples
dispositivos inteligentes en red; todo ello para resolver un solo problema
(con la ilusión de muchos a la vez). En definitiva la explotación de la
capacidad de computar e interconectar de las tecnologías digitales ha
producido un cambio de paradigma hacia la computación en nube424.

Según TryCatch en su blog425 sobre programación: Web y tecnología: Sin


miedo a las excepciones...

La computación en nube no es una tecnología nueva ni una arquitectura


o framework de desarrollo Web más ágil y más productivo.

423
García, Lino. LINO Operating System. LINUX+, 2009, Vol. 52, pp. 42-45. Disponible en:
http://lpmagazine.org/es/, [Consulta: 22-12-2010].

424
García, Lino. Cloud Computing: Stairway To Heaven. LINUX+. 2009, Vol. 55, pp. 32-34.
Disponible en: http://lpmagazine.org/es/, [Consulta: 22-12-2010].

425
No disponible, [Consulta: 14-10-2010].

325
TECNOLOGÍAS

Sino

(…) un concepto, una comunión de ideas, como en su momento lo fue


Web2.0, que engloba tanto nuevas tendencias como la evolución de
servicios ya existentes.

La IEEE la define como:

(…) un paradigma en el cuál la información está permanentemente


almacenada en servidores en Internet y es cacheada temporalmente por los
clientes que incluye desktops, móviles, monitores, sensores, portátiles, etc.

96. Clases de Computación en Nube.

Tanto datos como procesos ya no están en los equipos “locales” sino en


la “nube”. Los sistemas locales son un simple accesorio con
navegador/cuenta/internet para acceder y utilizar servicios426 sin tener
conocimientos expertos ni necesidad de controlar y configurar esas

426
Visto como un conjunto integrado de procesos.

326
Arquitecturas

tecnologías o servicios. La figura anterior ilustra las clases de computación


en nube que se describen a continuación.

SaaS (Software As A Service). Modelo de distribución de software donde


una empresa sirve el mantenimiento, soporte y operación que usará el
cliente durante el tiempo que haya contratado el servicio427.

PaaS (Platform As A Service). Modelo en el que se ofrece todo lo


necesario para soportar el ciclo de vida completo de construcción y puesta
en marcha de aplicaciones y servicios web completamente disponibles en
Internet. Da soporte directamente al software que corre en la nube con la
infraestructura contratada por el cliente. No hay descarga de software que
instalar en los equipos de los desarrolladores. PaaS ofrece múltiples
servicios, todos, como una solución integral en la web. Ejemplos: Google
App Engine428.

IaaS (Infrastructure As A Service). Modelo de distribución de


infraestructura de computación como un servicio (se suele considerar como
la capa más inferior del modelo, incluyendo la capa HaaS o, como muestra la
figura anterior, la zona intermedia de toda la arquitectura), normalmente
mediante una plataforma de virtualización. En vez de adquirir servidores,
espacio en un centro de datos o equipamiento de redes, los clientes
compran todos estos recursos a un proveedor de servicios externo (hosting,
capacidad de cómputo, mantenimiento y gestión de redes, etc.). Una
diferencia fundamental con el hospedaje (hosting) virtual es que el
aprovisionamiento de estos servicios se hace de manera integral a través de
la web429.

427
Ejemplos: Salesforce, http://www.salesforce.com/es/, [Consulta: 15-10-2010] y Basecamp,
http://www.basecamphq.com/, [Consulta: 15-10-2010].

428
Google App Engine, http://code.google.com/intl/es-ES/appengine/, [Consulta: 15 -10-
2010].

429
Ejemplos: Amazon Web Services, http://aws.amazon.com/, [Consulta: 15-10-2010] y
GoGrid, http://www.gogrid.com/, [Consulta: 15-10-2010].

327
TECNOLOGÍAS

DaaS (Data Storage As A Service). Almacén de datos como servicio.


Proporciona la gestión y el mantenimiento completo de los datos del cliente.
Trabaja al mismo nivel que IaaS.

CaaS (Communication As A Service). Provee el equipamiento de redes y la


gestión de las comunicaciones como servicio (balance de carga, por
ejemplo). Trabaja al mismo nivel que IaaS.

Software Kernel. Gestión de los servidores físicos a través del sistema


operativo, software de virtualización, middleware de gestión de clústeres y
de la grid, etc.

HaaS (Hardware As A Service). Gestión del hardware (elementos físicos


de la nube) como servicio. Normalmente centros de datos gigantescos con
todo tipo de máquinas que proporcionan cómputo, almacenamiento,
catálogos, etc.

Otras tecnologías consideradas Cloud Computing son:

Web2.0. Herramientas y aplicaciones como redes sociales, blogs, wikis,


foros, etc.

Web Os (sistemas operativos en la Web). Web Semántica o Web 3.0, etc.

Grid Computing. Evolución natural de la nube. Es una arquitectura de


procesado en paralelo que permite compartir/distribuir los recursos de
proceso de muchas máquinas a través de la red de manera tal que
funcionen como un super-computador gigante430. Un ejemplo de ello es el
Programa para la Búsqueda de Inteligencia Extraterrestre (SETI, Search for
Extraterrestrial Intelligence). La Grid Computing, también se conoce como
Peer-to-peer Computing (red punto a punto o P2P), Utility Computing, o
simplemente Distributed Computing.

430
Esta tecnología pone el tiempo ocioso de los procesadores en función de la solución de
problemas computacionales enormes.

328
Arquitecturas

Las principales características de Cloud Computing provienen de las


tecnologías que forman la nube y de las nuevas capacidades provenientes de
la fusión de estos servicios:

Escalabilidad. El sistema trabaja de forma eficiente aumentando o


disminuyendo el uso de recursos según demanda, de forma automática y
transparente para el usuario.

Virtualización. El usuario puede hacer uso de la plataforma o entorno


que desee, ya sea contratándolos o creándolos él y pasándoselas al servicio.
Existe una total independencia entre datos y hardware; las aplicaciones
corren en servidores y el acceso se suele realizar desde un navegador.

Calidad de Servicio. Se rige por un acuerdo de nivel de servicio (SLA,


Service Level Agreement), que define varias políticas como: rendimiento,
tiempos de acceso, capacidad de tráfico, picos de conexión soportados, etc.
Calidad de servicio y escalabilidad están directamente relacionados; el
sistema se encarga de gestionar los recursos según estos términos.

Accesibilidad. Debido a las propiedades anteriores la nube es accesible


desde un amplio abanico de dispositivos.

Que datos y relaciones no estén en equipos privados, “locales”, ni


dependan del sistema operativo en cuestión no es nada nuevo. Todo lo
contrario, es anterior incluso de la aparición del primer ordenador personal,
cuando era imprescindible conectarse a las máquinas grandes431 a través de
un terminal tonto (dummy). Desde un punto de vista estrictamente técnico
no es exactamente lo mismo. La comunicación a Internet se realiza a través
de algún módem ADSL o interfaz inalámbrica como poco. En lugar de un solo
superordenador gigante se accede a muchos, de menor potencia, que
interactúan entre sí para conseguir mayor funcionalidad y prestaciones, etc.
Pero, desde un punto de vista funcional, sí. El navegador (browser) es una
especie de versión superior del XTerm, y el PC un terminal avanzado
respecto al tonto en términos multimedia.

431
Supercomputers, mainframes, minicomputers, utilizadas principalmente por grandes
organizaciones para aplicaciones críticas como el proceso de una enorme cantidad de datos.

329
TECNOLOGÍAS

Para entrar en Picasa432, subir fotos y compartirlas con familiares y


amigos en/desde cualquier lugar del mundo solo es necesario un navegador,
acceso a Internet y una cuenta gmail. No se sabe dónde están, ni cómo son
administradas, ni siquiera interesa; solo que sea posible verlas siempre que
se quiera, desde cualquier ordenador y lugar del planeta, cambiarlas o
establecer permisos y restricciones de uso (a quién se permite verlas, a
quién descargarlas, etc.). Detrás de este servicio, puede haber mucho más
de un ordenador (de diferente tecnología incluso) que valida la cuenta, sirve
e interactúa con los usuarios. Incluso si toda esta tecnología cambia,
mientras que el servicio se mantenga igual, no se notará ninguna diferencia.
He ahí la importancia del paradigma de programación orientada a servicios.

No hay que instalar nada localmente, no ocupa espacio, no hay que


preocuparse de averías o fallos, la mayoría de los servicios son gratuitos o de
menor coste que desarrollarlos por cuenta propia y, lo más importante, son
seguros433. Eso sí, la información queda en manos de terceras personas. El
propio Richard Stallman, considerado padre del software libre, ha dicho al
respecto: “(…) el Cloud Computing es una trampa”; pero no bajo
determinadas condiciones legales y medidas de seguridad (respecto al
acceso, uso, distribución, etc.) y no al libre albedrío.

Paradójicamente, con ordenadores cada vez más potentes, el uso de


estos servicios solo requiere ordenadores cada vez más tontos (cierta
capacidad multimedia y conexión a red) pero esto tiene su lado positivo y es
que aumenta el abanico de dispositivos desde dónde acceder/utilizar a/los
servicios. La computación en nube es una realidad y permite tanto a,
usuarios como a empresas, mayor flexibilidad para ofrecer/consumir
servicios. La interconexión de estas nubes permitirá crear/usar servicios
cada vez más complejos de manera más simple y desde un mayor número
de dispositivos, incrementar y compartir el patrimonio cultural, la
democratización de la información, y así, un largo etcétera434.

432
Picasa, http://picasaweb.google.es/, [Consulta: 15-10-2010].

433
Amazon ofrece un 99,95% de fiabilidad; tan solo 4,38 horas de caída al año.

434
Por ejemplo, los servicios de Google: Scholar (enorme conjunto de artículos de interés
educacional, científico...), Maps (mapas, callejeros, planificadores de rutas óptimas, páginas

330
Arquitecturas

Todo este entramado de servicios está influyendo notable y


positivamente en la «sociedad de la información» en la medida en que
facilitan su uso a menor complejidad y coste. Gracias a estas nubes los
científicos pueden realizar cálculos en superordenadores de potencia
ilimitada, un músico compartir sus creaciones, un cineasta sus películas, un
escritor sus libros, narraciones o poesías, un grupo de amigos puede
mantenerse en contacto, un conductor planificar su viaje de vacaciones, un
turista reservar su itinerario de vacaciones, un amante de la cocina
compartir una buena receta, un inventor sus ideas, una empresa mantener
sus documentos a salvo, etcétera, etcétera, etcétera.

Esta plataforma es ideal para un enfoque transdisciplinar de la


Restauración y podría aglutinar los esfuerzos de todas las instituciones,
museos, centros de investigación, etc. No obligaría a seguir ningún
protocolo acerca de cómo implementar los servidores locales sino que, a
través de interfaces, permitiría el acceso a cualquier servicio. Servicios cuyo
uso podría estar organizado, ordenado y controlado jerárquicamente,
clasificado, etc.; una oportunidad encomiable para compartir catálogos de
Restauración, esfuerzos, investigación, estrategias, etc.

La computación en nube es una vuelta al futuro. Llegará el día en que,


aquellos que lo deseen, puedan olvidarse de los drivers, las tediosas
instalaciones, la enorme espera del arranque del sistema operativo, la
gestión de su equipo informático y puedan concentrarse en lo que
realmente les importa; ese día, por fin, la inmersión digital será una
experiencia realmente placentera y fructífera. Se habrá conseguido que el
procesador esté… del otro lado.

amarillas…), Books (biblioteca digital gigantezca…), Talk (comunicación, búsqueda de


contactos…), Earth (visión tridimensional del planeta; navegación en cualquier parte del
mundo, es posible entrar incluso a los museos y acercarse a las obras hasta el milímetro;
señalización…), Youtube (probablemente la videoteca más grande del mundo), Blogger
(diarios digitales, bitácoras, narraciones compartidos, periodismo...).

331
TECNOLOGÍAS

Virtualidad

El concepto de máquina virtual (VM, Virtual Machine) está asociado,


normalmente, a la idea de compartir varios sistemas operativos en el
mismo ordenador, o a la inversa, como ocurre en JAVA, que un mismo
programa, puede correr en “cualquier” plataforma. La virtualidad supone
una suplantación de la realidad mediante alguna interfaz; entendida como
una capa de abstracción que separa el comportamiento del funcionamiento:
lo que se cree de lo que realmente es435. La aplicación más exigida a una VM
es la de correr un sistema operativo invitado o huésped y programas
relacionados conjuntamente con otros programas, concurrentemente,
realizados para un OS diferente; e incluso otros OSs, en un OS anfitrión. Por
ejemplo, Linux/x86 como OS anfitrión y aplicaciones de MS Windows, o
incluso diversas instancias del propio OS, sin necesidad de reiniciar.

97. Entorno de virtualización.

La figura anterior muestra el entorno de virtualización más común,


basado en un único PC. La capa de más bajo nivel firmware/hardware

435
García, Lino. La Máquina de la Virtualidad. LINUX+. 2009, Vol. 57, pp. 16-20.

332
Virtualidad

constituye la arquitectura, plataforma o máquina real, por ejemplo x86.


Sobre esta capa funciona el software sobre algún OS. La integración de la
VM con estas dos capas inferiores depende del nivel al que funcione. La VM
virtualiza los recursos hardware sobre los que funcionan los OS invitados o
huéspedes.

La virtualización es un concepto muy relacionado con la emulación. En el


corazón de la virtualización de los sistemas existe otra tecnología, VMM
(Virtual Machine Monitor), que permite gestionar la virtualización:
automatización basada en políticas, disco duro virtual, gestión del ciclo de
vida, migración en caliente y asignación de recursos en tiempo real, etc.
Básicamente, se puede decir que la VMM es una parte del código firmware
de la VM que gestiona varios OSs o múltiples instancias de un mismo OS, a
través de la emulación y de forma segura, en un único sistema informático
físico. Su función es la de gestionar el procesador (o procesadores) del
sistema, la memoria y otros recursos para asignar lo que cada OS requiere y
aumentar su nivel de utilización.

Mientras que la virtualización se realiza por software la VMM emula el


hardware necesario para el OS. Cuando la virtualización es asistida por
hardware el OS tiene acceso directo a los recursos sin ningún tipo de
emulación o modificación del OS. La virtualización asistida por hardware
cambia el acceso al propio OS. Las extensiones de virtualización de los
microprocesadores (x86, por ejemplo) ofrecen un nuevo conjunto de
instrucciones para el control de la virtualización.

Los OSs ofrecen distintos niveles de acceso a los recursos, el llamado


anillo de protección. Este anillo es un nivel jerárquico de privilegio dentro de
la arquitectura de un sistema informático. La capa más privilegiada es
normalmente la cero. El Anillo 0, no solo tiene más privilegios, sino que
también es la capa que accede directamente al hardware del sistema. En la
arquitectura tradicional x86, el núcleo del OS espera acceso directo a la CPU
funcionando en el Anillo 0, que es el nivel de mayor privilegio.

Con la virtualización software, los OSs invitados no pueden correr en el


Anillo 0; la VMM se encuentra allí. Los OSs invitados deben ejecutar en el
Anillo 1, pero hay un truco: Algunas instrucciones x86 solo funcionan en el

333
TECNOLOGÍAS

Anillo 0, por lo que el OS debe ser recompilado para evitarlas. Este proceso
se llama paravirtualización y no es práctico sobre todo si no se dispone del
código fuente del OS. Para evitar esto, la VMM trampea y emula estas
instrucciones, lo que, lamentablemente, se traduce en una enorme pérdida
de rendimiento: Las VMs pueden ser significativamente más lentas de la
física real.

La industria carece de apoyo para la virtualización a nivel de hardware y,


en consecuencia, para aumentar las prestaciones de la VMM. La
virtualización de las plataformas x86 se hace muy difícil debido a que la
arquitectura del procesador x86 no cumple las normas de la virtualización. A
partir de 2005 tanto AMD como Intel hicieron cambios en sus arquitecturas
x86 y añadieron extensiones de virtualización.

Xeon. La tecnología de virtualización de Intel (Intel VT) es un conjunto de


mejoras hardware a las plataformas cliente/servidor de Intel que ofrece
soluciones de virtualización basadas en software. Intel VT es una plataforma
que corre múltiples sistemas operativos y aplicaciones en particiones
independientes, lo que permite que un sistema informático funcione como
múltiples sistemas virtuales.

Opteron. AMD Virtualization (AMD-V), es la tecnología que implementa,


en el procesador AMD Athlon 64 y Opteron a través de un nuevo conjunto
de instrucciones, algunas de las tareas que las VMMs realizan por software
mediante emulación. La tecnología de virtualización de AMD fue anunciada
en 2004, bajo Pacífica, y los detalles técnicos de AMD fueron liberados a
mediados de 2005.

Crusoe. Es una familia de microprocesadores compatibles x86 fabricados


por Transmeta. Utiliza una capa de abstracción de software o VM, conocida
como CMS, Code Morphing Software, y que se ejecuta en un núcleo VLIW,
Very Long Instruction Word, (arquitectura de CPU que implementa una
forma de paralelismo a nivel de instrucción). CMS es la única aplicación
escrita para la arquitectura VLIW nativa, y traduce el flujo entrante de
instrucciones x86 a instrucciones VLIW. En teoría, es posible modificar CMS
para que maneje otros flujos de instrucciones (por ejemplo, para emular
otros microprocesadores). La adición de una capa de abstracción entre el
flujo de instrucciones x86 y el hardware permite que la arquitectura cambie
sin romper la compatibilidad x86, simplemente modificando CMS. Efficeon,

334
Virtualidad

la segunda generación del Crusoe, tiene un núcleo VLIW de 256 bits,


mientras que el de la primera era un VLIW de 128 bits. Los Crusoe realizan
mediante software algunas de las funciones clásicamente implementadas
mediante hardware, como por ejemplo la reordenación de instrucciones.
Esto resulta en un hardware más simple y con menos transistores. La
relativa simplicidad del hardware hace que el Crusoe consuma menos
energía (y por tanto disipe menos calor) que otros procesadores
compatibles x86 que trabajan a la misma frecuencia de reloj.

Las tecnologías de virtualización de Intel y AMD consisten


fundamentalmente en un puñado de nuevas instrucciones y un nuevo nivel
de privilegio. El hipervisor (hypervisor) puede ahora correr en el Anillo 1, por
lo que el anfitrión puede ejecutar sistemas operativos en el Anillo 0. No hay
necesidad de paravirtualización, la VMM trabaja menos, y el rendimiento es
mucho mayor. A pesar de ofrecer una funcionalidad similar ambas
tecnologías de virtualización no son compatibles. Estas técnicas son
colectivamente referenciadas como tecnología de virtualización por
hardware (hardware VT o simplemente VT). Estas extensiones de
virtualización para la arquitectura x86 sientan las bases para aprovechar al
máximo la eficiencia y las capacidades de la virtualización software. El
rendimiento de VT se evidencia con el aumento del número de VMs en un
único sistema físico; además de que permite un mayor número de usuarios
en las múltiples VMs. Esta es una tecnología relativamente nueva. No todo
el software de virtualización aprovecha la tecnología de Intel y AMD, ni son
compatibles con ambas. Sin embargo, es de esperar que los principales
actores del mercado del software de virtualización apoyen la virtualización
asistida por hardware.

También Sun, y sus socios tecnológicos (aJile, ARM, Fujitsu, inSilicon,


JEDI, Mitsubishi Electric, Motorola, Patriot Scientific, Smart Network
Devices, y Zucotto), trabaja en soluciones hardware para mejorar aún más el
rendimiento, la utilización de la energía, o la funcionalidad del circuito
integrado (chip) en los productos de consumo que utilizan la plataforma
Java. Estas nuevas soluciones de semiconductores impulsan la adopción
generalizada de la plataforma Java. Son varios los intentos de correr JAVA en
harware universal:

335
TECNOLOGÍAS

TinyVM436. Es una JavaTM, de código abierto, basada en la sustitución del


firmware para el microcontrolador RCX de Lego MindstormsTM. El RCX es
un ladrillo programable de Lego que viene con Lego's Robotics Invention
SystemTM; TINI (Tini Internet Interface) está a la vanguardia de los
dispositivos que corren Java; permite acceder y controlar cualquier cosa a
través de Internet, todo a través de Java. Se podría decir, incluso, que es el
servidor web más pequeño del mundo, proporcionando un servlet con
capacidad de servidor web en menos de 1 pulgada cúbica437.

Sin embargo, la idea de reprogramar el hardware (en la que trabaja


Transmeta) va más allá, lo que añadido a la necesidad que genera el nuevo
paradigma de computación ubicua y el advenimiento de hardware
reconfigurable438 barato permite re-pensar la viabilidad de la construcción
de VMs no solo para JAVA, sino incluso para LISP o Python; existe un
proyecto en marcha cuyo objetivo es el desarrollo de la máquina virtual
PyMite, controladores de dispositivo de alto nivel, bibliotecas y otras
herramientas para ejecutar un importante subconjunto de los
microcontroladores en lenguaje Python, sin un sistema operativo439.

En Running multiple operating systems concurrently on an IA32 PC using


virtualization techniques, Nov 29, 1999, Kevin Lawton440, y en The

436
TinyVM, http://tinyvm.sourceforge.net/, [Consulta: 1-2-2010].

437
TINI® Network Microcontrollers,
http://www.maxim-ic.com/products/microcontrollers/tini/, [Consulta: 10-10-2010]. En el
sitio no oficial de TINI también se encuentra disponible información muy valiosa,
http://www.rawbw.com/~davidm/tini/index.html, [Consulta: 10-10-2010].

438
Aquel donde la funcionalidad de las puertas lógicas y las conexiones entre ellas se puede
personalizar en tiempo de ejecución.

439
Python-on-a-Chip (p14p), http://code.google.com/p/python-on-a-chip/, [Consulta: 10-10-
2010].

440
Lawton, Kevin. Running multiple operating systems concurrently on an IA32 PC using
virtualization techniques. 1999, Vol. 29,
http://www.ece.cmu.edu/~ece845/sp05/docs/plex86.txt, [Consulta: 10-10-2010].

336
Virtualidad

Reincarnation of Virtual, Jul 2004, Mendel Rosenblum441, del departamento


de ciencias en la Universidad de Stanford, cofundador de VMware en 1998,
se describen los principales niveles o estrategias de virtualización aplicables
(ordenados desde el nivel más alto hasta el más bajo):

Lenguaje de alto nivel. Se dice que es la emulación “pura” porque


virtualiza la plataforma hardware completamente por software. En las VMs
de lenguajes de alto nivel, la capa de virtualización se “sienta” como un
programa de aplicación en la parte superior de un OS. La capa exporta una
abstracción de la VM que puede ejecutar los programas escritos y
compilados para la definición de máquina abstracta particular. En la VM
corre cualquier programa escrito en lenguaje de alto nivel y compilado para
ella. Smalltalk y Java son dos ejemplos de este tipo de VM. Son más
portables a costa de peor rendimiento. Ejemplo: proyecto bochs442.

OS/API. La capa de virtualización se sitúa entre el OS y los programas de


aplicación que se ejecutan en el OS. La VM ejecuta aplicaciones, o conjuntos
de aplicaciones, que están escritas para el OS virtualizado. La VM intercepta
y emula el comportamiento de las APIs (Application Program Interfaces) del
OS. Las aplicaciones generalmente corren en un espacio diferente al del OS,
y se comunican con el a través de un conjunto de APIs. Las aplicaciones, en
binario, pueden correr nativamente utilizando esta estrategia; lo que
conlleva a un buen rendimiento. Como las APIs del OS son emuladas, el OS
no es necesario; es gratificante no tener que comprar la licencia del OS.
Ejemplo: proyectos Wine443.

Hardware. Ésta es la definición original de la VM desde la década de


1960, incluida la tecnología más antigua como VM/370 sobre mainframes de
IBM, así como tecnología de virtualización de VMware en máquinas basadas
en x86. Los retos de la virtualización hardware están relacionados con su
control e incluyen:

441
Rosenblum, Mendel. The Reincarnation of Virtual. 2004,
http://queue.acm.org/detail.cfm?id=1017000, [Consulta: 10-10-2010].

442
bochs.com, http://www.bochs.com, [Consulta: 10-10-2010].

443
Wine, http://www.winehq.org/, [Consulta: 10-10-2010].

337
TECNOLOGÍAS

Gestión de memoria. Modelo de segmentación, unidad de paginado,


mecanismo de protección, etc. Virtualizar la memoria es, sin duda, la
parte más difícil de la paravirtualización de una arquitectura (disminuye
las penalizaciones al rendimiento, típicamente de un 2%, a un 8% en el
peor caso; lo que contrasta con las soluciones de emulación que
habitualmente sufren penalizaciones de un 20%), en términos de los
mecanismos que requiere su gestión y de las modificaciones necesarias
para portarlos al OS emulado.

Procesador. Protección, excepciones, llamadas al sistema,


interrupciones, tiempo. La mayoría de las CPUs proveen solo dos niveles
de privilegios (la arquitectura x86 hasta cuatro). En el contexto de
múltiples OSs corriendo, no es posible que funcione todo el conjunto de
instrucciones/particularidades de la CPU. La estrategia de virtualización
más aceptada es la de permitir que el mayor conjunto de instrucciones
compatible se ejecute en modo nativo (“transparentemente” a la capa
virtual) y emular el comportamiento esperado del conjunto
incompatible: cuasi-emulación.

Dispositivos de entrada salida. Red, disco, etc. Los entornos


completamente virtualizados normalmente emulan los dispositivos
hardware a diferencia de abstraerlos. Los dispositivos hardware (tarjetas
de video, controladores de disco, temporizadores, etc.) están diseñados
para ser controlados, exclusivamente por un manipulador.

La virtualización consigue bastante rendimiento nativo, la posibilidad de


correr varios OSs x86 y la independencia de la publicación de APIs
estándares, incluidas sus posibles extensiones. El número de VMs que
pueden correr en un procesador depende de varios factores como la
memoria física, el procesador, y la carga de trabajo que corre en el anfitrión.
Ejemplos: proyecto Xen444, Sun xVM VirtualBox445, de Sun Microsystems
(desarrollado originalmente por la empresa alemana Innotek GmbH),
VMware446 Inc., filial de EMC Corporation, KVM447 (Kernel-based Virtual
Machine).

444
Xen, http://www.xen.org/, [Consulta: 10-10-2010].

445
VirtualBox, http://www.virtualbox.org/, [Consulta: 10-10-2010].

446
VMware, http://www.vmware.com/, [Consulta: 10-10-2010].

338
Virtualidad

La virtualización puede recibir códigos de operación de muy bajo nivel


(opcodes, operation code) que genera un proceso de compilación o códigos
de operación de alto nivel, bytecodes, que genera a su vez un proceso de
interpretación o de compilación parcial. Un opcode es la porción de una
instrucción de lenguaje de máquina que especifica la operación a realizar
mientras que un bytescode es un conjunto de instrucciones nativo a la VM,
creado para correr por software en vez de hardware (en una CPU).

JAVA, LISP y PYTHON son ejemplos donde las aplicaciones nativas corren
en la VM en forma de programas pseudo-compilados o interpretados. Los
interpretadores de bytecodes trabajan con tipos de datos y operaciones de
más alto nivel, que el de un conjunto de instrucciones por hardware. En este
caso es la VM emula el mismo comportamiento en plataformas hardware
diferentes.

Las VMs se diseñan para simplificar el proceso del control del hardware de
un ordenador porque extienden y enmascaran su funcionalidad a través de
procedimientos y datos abstractos. Este comportamiento establece una
especie de jerarquía ordenada. PostScript, por ejemplo, es una VM que
incluye el estado gráfico, la ruta actual, el estado del diccionario y, aunque
sea bastante complejo, presenta una visión de alto nivel de muchos tipos
distintos de impresoras, aislando las características de las impresoras de las
aplicaciones que las usan.

Cuando se implementa un lenguaje de programación, las estructuras de


datos y algoritmos que se utilizan en la ejecución de un programa448 definen
las VMs, implícitamente, para este lenguaje. Las decisiones que toma el
desarrollador afectan tanto a la traducción como a la ejecución de los
programas escritos en este lenguaje. Las VMs se distinguen entre sí en base
a tres criterios:

447
KVM, http://www.linux-kvm.org/page/Main_Page, [Consulta: 10-10-2010].

448
La sintaxis y la semántica de cada estructura.

339
TECNOLOGÍAS

Concepción de la VM que tiene el desarrollador basada en la definición


del lenguaje.

Facilidades disponibles en el hardware del ordenador.

Decisiones de implementación tomadas por el desarrollador.

Es posible escribir un compilador para traducir, o compilar, un programa


escrito en un lenguaje de alto nivel directamente a código máquina (en el
sentido de no depender de ninguna otra pieza en el sistema para
producirlo), pero esta estrategia no es razonable debido a su alta
dependencia con la tecnología (es imprescindible modificar el compilador
para cada nueva CPU), y la pérdida de recursos que significa repetir el
proceso de diseño y desarrollo, cuando ya se ha hecho lo mismo muchas
veces antes para otros lenguajes para una máquina concreta.

Los compiladores C, por ejemplo, llevan mucho tiempo en


funcionamiento y son muy eficaces y estables. El compilador de algunos
lenguajes, como C++ (al menos en las primeras versiones) tradujo el código
fuente de C++ a C para poder luego usar el compilador C estándar. En
general, solo se suele rediseñar un compilador nuevo desde cero cuando los
ingenieros del lenguaje intentan alcanzar nuevos objetivos para ese
lenguaje; en caso de que vayan más allá que el modelo funcional de los
compiladores ya disponibles como, por ejemplo, como es el caso de Java.

La jerarquía de las VMs es prácticamente independiente del proceso que


se siga para correr un programa en determinada plataforma: compilación o
interpretación. Siguiendo el ejemplo de C++, un pre-procesador acepta el
código C++ como fuente y produce otra versión del mismo código C++ con
algunas extensiones e incorporaciones resueltas. A continuación el traductor
convierte el código fuente C++ estándar a código fuente C. El compilador C
acepta este código como fuente y lo traduce a código ensamblador,
representación simbólica del código máquina. El ensamblador traduce este
código simbólico a un código máquina reubicable. Y por fin, el cargador de
librerías, linker, acepta este código máquina como entrada y produce un
programa simple ejecutable, compuesto por el código máquina de entrada y
todos los subprogramas necesarios con direcciones de memoria contiguas.

La interpretación, tiene más que ver con el papel de las VMs en el tiempo
de ejecución que la compilación. La diferencia básica entre ambos procesos

340
Virtualidad

es que la compilación se realiza previa a la ejecución de un programa


mientras que la interpretación convierte cada instrucción del lenguaje de
alto nivel a código de máquina, una a una, durante la ejecución. Este
proceso se realiza a través de una VM de interpretación que simula un
ordenador cuyo código máquina es el lenguaje de alto nivel que está siendo
interpretado. Esta VM, típicamente, se construye a través de un conjunto de
programas de código máquina que representa los algoritmos y estructuras
de datos necesarios para la ejecución de las instrucciones del lenguaje de
alto nivel.

Se puede definir un lenguaje intermedio como una manera de


representar procedimientos y estructuras de datos que sirva como entrada
para una VM en alguna parte de su jerarquía, entre el lenguaje de entrada
(el nivel más alto) y el código ejecutado en la máquina (el nivel más bajo);
tanto en el tiempo de compilación como en el de ejecución.

98. JVM, Java Virtual Machine.

Cualquier aplicación web es un ejemplo de aplicación de estas jerarquías.


Lo que se podría llamar una aplicación web (unas páginas web con
elementos interactivos incrustados) está escrita en HTML, por ejemplo, y
funciona sobre una VM, soportada por el navegador web, que a su vez está
implementada en C o C++. Ésta corre sobre una VM compuesta por las

341
TECNOLOGÍAS

librerías de tiempo de ejecución que encapsulan el funcionamiento de los


procedimientos (o métodos) y datos de navegador web que, a su vez,
utilizan las funciones de la VM del OS implementadas en código máquina.
Los programas que componen esta VM corren sobre el firmware, un
conjunto de programas de micro-código que controlan directamente el
hardware del ordenador.

99. Vista de procesos LISP corriendo en una máquina Symbolics.

La idea de Java, por ejemplo, de liberar al programador de las


dificultades de portar su aplicación a nuevas plataformas requiere la
desvinculación del programa a cualquier aspecto del OS. El código fuente de
Java, como ilustra la figura anterior, se compila a bytecodes antes de
ejecutarlo. Cuando corre el programa, este código, como lenguaje

342
Virtualidad

intermedio, es el lenguaje de entrada para una VM, que con un conjunto de


librerías (el entorno de ejecución de Java, Java Runtime o JRE), lo interpreta
para su ejecución. Por lo tanto, estos bytecodes podrían correr en cualquier
hardware donde haya una versión del JRE disponible. Como estos bytecodes
están más cerca del nivel de máquina que de un lenguaje de alto nivel, los
programas correrán mucho más rápido que los programas completamente
interpretados, y más despacio que los programas previamente compilados
al código máquina.

Tanto los programas compilados parcialmente a un lenguaje intermedio,


como Java, como los programas escritos en lenguajes de alto nivel que se
interpretan, como Lisp, requieren una VM para interpretar el programa.

Suponga que exista una maquinaria virtual (VMT, Virtual Machinery


Technology) como una extensión de la VMs a aplicaciones distribuidas con
múltiples procesadores. La VMT sería, en este caso, una capa de abstracción
que separa el comportamiento de un sistema complejo de su
funcionamiento. Un sistema complejo está compuesto por múltiples
procesadores interconectados con un gran número de entidades autónomas
y heterogéneas que colaboran entre sí para conseguir determinado
objetivo449. Cada elemento interactúa con el resto, directa o indirectamente,
y estas interacciones afectan a otros elementos dando lugar a patrones de
comportamiento del sistema global, difíciles de deducir, ni inferir, en
función de la estructura y comportamiento de las partes componentes.

Estos conceptos son importantes para la creación de sistemas con una


metodología sólida con capacidad de auto-adaptación y evolución cada vez
más independiente de la tecnología. La obsolescencia tecnológica, el
abaratamiento de la tecnología, la dotación masiva de inteligencia a todos
los objetos del entorno en que vivimos, e incluso la propia necesidad que se
genera de todo, exige una reorientación de la industria a este nuevo
paradigma donde es fundamental, el uso de software libre, el copyleft y, por
lo tanto, Linux.

449
Las partes constituyen bloques de construcción básicos: componentes, agentes, procesos,
etc. Véase el apartado Sistemas Complejos en Anexo B – Tecnologías.

343
TECNOLOGÍAS

Por mucho que algunos fabricantes de software generen versiones para


los sistemas operativos más populares, es muy difícil recopilar todas las
aplicaciones que rquiere una aplicación en la misma plataforma y conciliar
los requerimientos de HW/SW. ¿Qué hacer si se quiere correr algún
programa gratuito de Linux en un MacBook Pro de Apple? ¿Qué hacer para
utilizar alguna aplicación de WindowsXP, por ejemplo la soberbia máquina
de síntesis de sonido Reason de Propeller Head, en Linux? o probar un
programa, o realizar pruebas en otro sistema operativo distinto al instalado.
La única manera de evitar múltiples ordenadores, cada uno con
determinadas aplicaciones, es mediante una máquina virtual. La capacidad
de aprovechar al máximo el hardware disponible ofrece una gran cantidad
de posibilidades no solo a nivel doméstico si no también a nivel empresarial.

En el observatorio tecnológico del Ministerio de Educación, Política Social


y Deporte, se referencian algunas de las utilidades del software de
virtualización450.

Consolidación de servidores. Convertir muchos servidores físicos en


virtuales. De este modo se aprovecha el hardware disponible de la mejor
manera posible.

Recuperación ante desastres. Las VMs se pueden salvar muy fácilmente


(la propia VM no es más que un fichero de configuración), y además su
estado se puede almacenar, por lo que en caso de desastre se puede
recuperar la información con rapidez.

Pruebas de aplicaciones. En muchas ocasiones se necesita un entorno


limpio para probar una aplicación. Usar una VM permite instalar un OS
desde cero, probar la aplicación y luego eliminar la máquina.

Ejecución de entornos completos sin instalación ni configuración. La


posibilidad de descargar VMs desde Internet permite ahorrar tiempo en
instalaciones y configuraciones. Existen muchas VMs con servidores LAMP
(Linux, Apache, mySQL y PHP) completos listos para ser usados, máquinas

450
Pérez Lobato, Montserrat. Introducción a las máquinas virtuales, Instituto de Tecnologías
Educativas del Ministerio de Educación, Política Social y Deportes, Junio 2007. Disponible en:
http://observatorio.cnice.mec.es/modules.php?op=modload&name=News&file=article&sid=
462, [Consulta: 10-10-2010].

344
Virtualidad

con gestores de contenidos, wikis, etc., gratuitos y funcionales desde el


primer momento.

Aplicaciones portátiles. Con el uso de las VMs se pueden tener PCs


completos listos para usar en dispositivos USB, lo que puede ser de mucha
utilidad para tener un entorno privado y usarlo en cualquier PC.

En el mismo enlace se muestra una tabla comparativa de tres productos


de virtualización (VirtualBox, VMWare Server y Virtual PC 2007) muy
completa en cuanto a facilidad de instalación, OSs anfitriones soportados,
OSs invitados soportados, soporte para USB, facilidad de creación de VMs,
existencia de VMs disponibles en Internet, integración con el OS anfitrión
(pantalla, carpetas compartidas, drag&drop), capacidad de importar
máquinas creadas con otras herramientas y rendimiento.

Palabras como virtualización, paravirtualización, virtualiza, no existen en


el diccionario de la RAE; sin embargo, en el mundo informático son tan
frecuentes que me tomo la licencia de utilizarlas. Desde otro punto de vista,
se observa que la abstracción de la tecnología mediante una capa con doble
interfaz es una aplicación del modelo de interconexión de sistemas abiertos
OSI. La máquina/maquinaria debe mantener sus interfaces hacia arriba
(aplicación invitada) y hacia abajo (software, OS/API, hardware; en
dependencia del nivel de la estrategia de virtualización). En este sentido la
supervivencia de la VM depende de conservar qué hace y no de cómo lo
hace y el aumento de sus prestaciones del cómo lo hace en lugar del qué
hace. Estas tecnologías siempre han estado y, probablemente, sean las de
mayor utilidad para el desarrollo de sistemas complejos, para integrar las
nuevas tecnologías en los viejos sistemas sin necesidad de procesos de
rediseño, reprogramación, etc. enormes y costosos. Como apunta
Rosembum: “la tecnología de máquina virtual a nivel hardware existe desde
hace más de 40 años”. Vale la pena mirar al pasado para aprender algunas
lecciones para el futuro.

345
TECNOLOGÍAS

Lenguajes, Lenguas y Dialectos

Case Reas y Ben Fry, en su libro451 “Processing. A Programming Handbook


for Visual Designers and Artists” sugieren que:

Como los lenguajes humanos, los lenguajes de programación pueden ser


agrupados en conjuntos relacionados.

Esta conexión podría insinuar una conexión más fuerte, pero no es así. El
desarrollo de los lenguajes de programación nada o poco tiene que ver con
sus parientes humanos. De hecho, los lenguajes de programación se parecen
mucho más entre sí, son muchos menos y, se puede decir sin herrar
demasiado, que tienen casi las mismas raíces; a diferencias de las lenguas.
Se estima que, en las casi 200 naciones del globo, se hablan más de 5000
lenguas y 41000 dialectos mientras que existen solo unos cientos lenguajes
de programación diferentes producidos por menos de una cuarta parte de
todas las naciones.

Según la Wikipedia un lenguaje de programación452:

Está formado por un conjunto de símbolos y reglas sintácticas y


semánticas que definen su estructura y el significado de sus elementos y
expresiones, y es utilizado para controlar el comportamiento físico y lógico
de una máquina.

Mucho han cambiado las cosas desde que IBM lanzó el primer ordenador
personal el 12 de agosto de 1981 pero, probablemente, el cambio de mayor
impacto en todo este tiempo es que, debido al acelerado desarrollo de la
electrónica, las comunicaciones y la informática (lo que hoy se da en llamar
TIC, Tecnologías de la Información y Comunicaciones), ha puesto en manos
de cualquier ciudadano de a pie, el ordenador distribuido más potente del
mundo: Internet. Cualquier ordenador tiene varios Giga hertzios de

451
Reas, Case and Fry, Ben. Processing. A Programming Handbook for Visual Designers and
Artists. The MIT Press, 2007.

452
Lenguaje de Programación,
http://es.wikipedia.org/wiki/Lenguaje_de_programaci%C3%B3n, [Consulta: 10-10-2010].

346
Lenguajes, Lenguas y Dialectos

frecuencia en su reloj, o varios procesadores pero incluso, cuando ni aún así


es suficiente, siempre podremos contar con miles, incluso millones, de
ordenadores distribuidos por todo el mundo, dispuestos a compartir algún
tiempo de proceso y garantizar la potencia de proceso requerida.

En el año 2004, O'Reilly diseñó un poster genial de la historia de los


lenguajes de programación, donde muestra 50 años «dorados», desde 1954
hasta 2004, en el ámbito de la programación453. Por supuesto, no están
todos los lenguajes de programación que existen sino solo los más
importantes; sin embargo, lo más interesante de este poster, es que
muestra las derivaciones de los distintos lenguajes para crear otros. Por
ejemplo, C#, se basa en C++ y Java2. C++, a su vez, se basa en C y Simula
que, a su vez, vienen del Algol que proviene de Fortran y Fortran… es el
primer lenguaje de programación de alto nivel. Esta evolución evidencia las
grandes similitudes de la mayoría de los lenguajes entre sí.

Los lenguajes se pueden relacionar en conjuntos según su nivel de


abstracción, entorno de desarrollo, forma de ejecución o paradigma de
programación.

El nivel de abstracción está relacionado con la capacidad del lenguaje de


ocultar los detalles del ordenador. Los lenguajes de alto nivel están
formados por elementos de lenguajes naturales, como el inglés. Sin
embargo los lenguajes de bajo nivel interactúan con todas las
especificidades del procesador (registros, operaciones, etc.). Las
instrucciones del lenguaje de máquina son cadenas binarias (0 y 1)
directamente legibles por la máquina (procesador) o completamente
incomprensibles (o intratables) para cualquier ser humano454.

Según el entorno de desarrollo los lenguajes pueden ser textuales o


visuales. El conjunto de símbolos y reglas sintácticas y semánticas que

453
History of Programming Languages, O’Reilly;
http://oreilly.com/news/graphics/prog_lang_poster.pdf, [Consulta:-10-2010].

454
Es importante tener en cuenta que todos los lenguajes operan, finalmente, a nivel de
código de máquina. La función última del compilador o intérprete es la conversión a lenguaje
de máquina.

347
TECNOLOGÍAS

definen un lenguaje normalmente se escriben, son texto. Sin embargo, los


entornos visuales pretenden ayudar a aquellos programadores que piensan
espacialmente y prefieren organizar sus pensamientos como relaciones
visuales entre elementos.

Según la forma de ejecución los lenguajes pueden ser compilados o


interpretados. El compilador es un programa que traduce el código escrito
con determinado nivel de abstracción a código de máquina. Sin embargo los
lenguajes interpretados no son compilados sino interpretados por otro
programa mientras corre. Los lenguajes compilados son más rápidos
mientras los programas interpretados pueden ser modificados mientras
corren. El refinamiento de tal intérprete ha derivado en máquina virtual. El
lenguaje es pseudo compilado a un código intermedio (byte code) que corre
en la máquina virtual. Esta técnica facilita la portabilidad del código entre las
diferentes arquitecturas o hardware.

Según el paradigma de programación455 los lenguajes pueden ser


imperativos o procedimentales (es considerado el más común y está
representado, por ejemplo, por el C o por BASIC); funcionales (expresivos y
matemáticamente elegantes. Por ejemplo LISP); lógicos (cuya característica
principal es la aplicación de las reglas de la lógica para inferir conclusiones a
partir de datos. Por ejemplo PROLOG); u orientado a objetos (este
paradigma usa objetos y sus interacciones. Está basado en varias técnicas,
incluyendo herencia, modularidad, polimorfismo y encapsulamiento. Un
lenguaje completamente orientado a objetos es Smalltalk). Si bien puede
seleccionarse la forma pura de estos paradigmas a la hora de programar, en
la práctica lo habitual es que se mezclen, dando lugar a la programación
multiparadigma.

Ante el desafío de la realización de un proyecto una de las preguntas


necesarias, tarde o temprano, es, cuál es el lenguaje adecuado. La respuesta
no es fácil y depende de muchos factores. Según se baja el nivel de
abstracción los programas serán más específicos y difíciles de mantener.
Según el grupo de desarrollo dependerá el entorno (y con ello las
herramientas de trabajo). ¿Compilado? o ¿interpretado? Los lenguajes

455
Un paradigma de programación representa un enfoque particular o filosofía para la
construcción del software.

348
Lenguajes, Lenguas y Dialectos

interpretados son más adecuados para pruebas rápidas. Sin embargo, si se


quiere toda la eficiencia, será necesario algún lenguaje compilado. Por
último, cuál paradigma será el más adecuado. La respuesta es: según el
problema. Lo que podría conducir a alguna conclusión del estilo: Hay casi
tantos lenguajes como problemas; e incluso, si el problema es muy complejo
probablemente se necesite del uso de más de un lenguaje para abordarlo.
Sin embargo la respuesta no es tan simple y es necesario agregar algunas
variables más.

Reusabilidad. Un lenguaje se hace potente en la medida que crece;


propiedad que finalmente se puede traducir en un buen soporte (muchas
funciones y mucha gente detrás resolviendo problemas). Las funciones se
agrupan en librerías o bibliotecas de funciones. Su potencia depende de
quién las mantenga y desarrolle (los proyectos de software libre son
mantenidos por un mayor número de personas sin presiones comerciales).
Su interacción con el lenguaje depende de la tecnología software (incrustada
junto con el código, dinámicamente, distribuido, etc.). Desde este punto de
vista ¿se podría considerar C# se puede considerar un C++ bien soportado?

Disponibilidad. Relacionada con el entorno (arquitectura HW/SW). Los


lenguajes, y sus respectivos compiladores o intérpretes, están disponibles
para determinados entornos con, posiblemente, ciertas restricciones de uso.
Aún cuando, presuntamente, el lenguaje más adecuado para nuestro
problema sea X, la indisponibilidad de las herramientas de desarrollo para el
entorno seleccionado será motivo suficiente de rechazo. La disponibilidad se
puede ver igualmente al revés. Suponga que el entorno de trabajo es un
navegador web; la aplicación será utilizada vía HTTP. El lenguaje de
desarrollo estará limitado por los lenguajes implementados por el
navegador (y lo utilizo en modo genérico porque unos a otros convergen en
la medida en que se hacen compatibles). De nada vale que sea más
adecuado programarlo en LISP si luego no es posible encontrar algún
navegador que me permita incorporar un intérprete LISP o, lo que es más
grave, si el navegador que utiliza la mayoría de los clientes, no lo tiene.

Durabilidad. El propio poster de O’Reilly muestra el ciclo de vida


completo de los lenguajes que referencia (al menos hasta el 2004). Es fácil
ver cómo muchos se convierten en otros y mueren. ¿Qué pasa si la
aplicación que quiero desarrollar simplemente ponga a prueba el paso del
tiempo? ¿Qué pasa con aquellas aplicaciones que duran? ¿Cómo elegir un

349
TECNOLOGÍAS

lenguaje duradero? Por muchos lenguajes que existan pocos han resistido al
paso del tiempo. Un buen ejemplo de ello es el lenguaje C. De hecho, se
podría hacer en C absolutamente todo lo que en C++ con muy poco
esfuerzo. ¿Qué es lo que ha hecho a C tan resistente? Probablemente la
conjunción de un buen diseño del lenguaje, la gran disponibilidad de
herramientas y librerías y una buena desconexión del lenguaje con la
entrada/salida.

Algunos piensan que los lenguajes son necesarios para garantizar la


variedad y probablemente tengan algo de razón; pero los lenguajes no son
lenguas, ni razas, ni sociedad, sino instrumentos para programar los
procesadores de propósitos generales y garantizar determinado
funcionamiento. Se sacará mayor rendimiento a un lenguaje con un dominio
perfecto de su sintaxis, reutilizando códigos y fortaleciéndolo.

Suponga por un momento que se dispone de las herramientas


necesarias, para cualquier entorno; para elegir libremente el lenguaje
adecuado. Suponga que es posible dividir en tres el nivel de abstracción de
las aplicaciones; algo así como bajo, medio y alto. El nivel bajo requiere de
un control absoluto del hardware, traducible en código máquina (lenguaje
ensamblador) o C, que permitirá hacer el mismo trabajo (incluso incluir
partes del código críticos en lenguaje ensamblador) con un nivel de
abstracción mayor. Para nivel medio el C sería también un excelente
candidato, incluso si se desea emplear el paradigma orientado a objetos
pero C no es interpretado. Para muy alto nivel LISP sería el lenguaje mas
recomendable, con cierto solapamiento con C.

LISP es un lenguaje funcional456 y multiparadigma de alto nivel; es un


lenguaje simbólico457 de procesamiento de listas (LISt Procesing) muy
flexible: utiliza la misma estructura para datos y código (una de las
características de LISP es la posibilidad de tratar las propias funciones como
datos458) y paso de funciones como parámetro (reusabilidad); es un lenguaje

456
Utiliza las propiedades matemáticas de las funciones.

457
Utiliza el símbolo como unidad fundamental.

458
50 años después resulta que es posible considerar XML, tan de moda para el intercambio
de datos entre aplicaciones y en arquitecturas orientadas a servicios, como una versión LISP

350
Lenguajes, Lenguas y Dialectos

autodefininible (entorno a la medida) con un mecanismo de manejo de


memoria automático (que libera el espacio utilizado por los objetos que
dejan de ser necesitados, lo que se conoce habitualmente como garbage
collector), que no tiene tipos estáticos, sino que asocia los tipos a los valores
en vez que a las variables. LISP es eminentemente recursivo (definiciones
muy claras y concisas), interpretado (para el desarrollo rápido de prototipos)
o compilado y compacto: funcional + recursivo + listas.

Inclusive la arquitectura de LISP (implementada normalmente en C)


permite verlo como una máquina virtual susceptible de correr en entornos
de bajo nivel de abstracción. Como se ha supuesto una buena reusabilidad
se da por hecho un buen soporte para todo tipo de aplicaciones: web, SOA,
imagen y sonido, compiladores, procesadores de texto, entornos
multiplataforma, matemáticas, etc. y, lo que es más importante, un buen
soporte de la comunidad de software libre.

La diversificación de los leguajes de programación es necesaria en la


medida que introduzca nuevos paradigmas, debilite la dependencia con los
sistemas operativos (potencie multiprocesamiento, distribución y con ello la
generalización de entornos de operación), y otras muchas razones pero no
para copiarse sintaxis, imponer determinados usos o tecnologías por
razones comerciales, con la excusa de facilitar el trabajo del programador,
etcétera. Muchos de los lenguajes más antiguos (como LISP y C) siguen
siendo igual de potentes y útiles, y poco o nada tienen que envidiar a los
últimos de moda; sin embargo la diversificación de los entornos o
herramientas no es tan considerada como la de los lenguajes. Si los
lenguajes se considerasen como criaturas y los entornos… vitales, es fácil
establecer la conexión. Desde ese punto de vista, potenciando el entorno,
probablemente en el poster de O’Reilly, 50 años después, las flechas serían
más largas y menos conectadas entre sí. Sin embargo la naturaleza sigue su
curso. ¿Cuál será la próxima bestia?

redundante de definición de datos y con alguna alteración en la sintaxis; sustituyendo los


paréntesis () por menor/mayor <>.

351
TECNOLOGÍAS

Computación Híbrida

El término computación híbrida no es demasiado afortunado459. En el


ámbito del diseño HW/SW parece una obviedad. Está claro que los sistemas
son una combinación de ambos componentes HW/SW donde el primero
actúa como un soporte material programable o reconfigurable y el segundo
define los procesos intangibles que gestionarán determinada información o
datos para conseguir determinados resultados. En este caso se da por hecho
que la hibridación se produce siempre en el dominio digital; sin embargo, las
computadoras hibridas son una combinación entre las computadoras
analógicas y las digitales; se desarrollaron para complementar la flexibilidad
de las computadoras digitales con la velocidad de las computadoras
analógicas y se utilizan sobre todo para el control de procesos y robótica,
muy rara vez fuera del entorno universitario o de investigación.

El mundo real es analógico, pero la interacción y control del hombre


sobre esta realidad, desde hace ya mucho y por ahora, es digital (quizá en
un futuro haya un retorno a la computación analógica pero eso está por
ver). Los sistemas son cada vez más complejos porque el mundo real, en
“realidad”, siempre ha sido y será mucho más complejo de lo que
consideramos. Se requieren muy diversas interfaces para capturar y
gestionar esta riqueza y una gran potencia de cálculo para procesarlas.

Cuando se plantea el diseño de un sistema de este tipo la primera


pregunta que surge es: qué se puede y debe hacer por hardware y qué por
software. Esta interrogación es válida incluso cuando toda la información es
digital por naturaleza. La respuesta claramente dependerá de qué se quiera
y habitualmente estará en función de un conjunto de variables en relación
de compromiso como coste, rendimiento, prestaciones, velocidad, tamaño,
etc.

Un ejemplo que pone de manifiesto una contradicción de la computación


híbrida es la actual guerra de Apple y Adobe en torno al desarrollo de
aplicaciones para iPhone e iPad. Resumiendo, porque el tema es muy
complejo: Adobe ataca a Apple porque ni el iPhone ni el nuevo iPad

459
García, Lino. Computación Híbrida: Co-diseño Hardware-Software. LINUX+. 2010, Vol. 68,
pp. 10-15. Disponible en: http://lpmagazine.org/es/, [Consulta: 22-12-2010].

352
Computación Híbrida

soportan Flash, y lanza una campaña virulenta contra los productos de la


manzana. Apple contraataca con una carta abierta en la que critica
duramente a Adobe y asegura que sus productos no necesitan esta
tecnología, que considera obsoleta. El propio Steve Jobs asegura que Flash
se queda corto tanto en tecnología como en seguridad y anima a los
desarrolladores a crear alternativas para el ecosistema de Apple:

La era móvil va de dispositivos de baja potencia, pantallas táctiles y


estándares abiertos para la web, todas ellas áreas donde Flash se queda
corto.

Y es que Flash, el producto de Adobe, utiliza el códec de vídeo H.264 por


software en lugar de por hardware lo que acaba con la batería de estos
dispositivos portátiles en mucho menos tiempo de lo esperable, ya no de lo
deseable. Lo que hay detrás de esta guerra no es simplemente un problema
de diseño técnico. La solución de Jobs para esta “era móvil” pasa por el
diseño de un coprocesador que garantice bajo consumo, fiabilidad y
paralelismo simultáneamente.

Un diseño híbrido adecuado de Flash debería utilizar su códec software


solo cuando no exista una alternativa hardware460 pero no existe estándar ni
voluntad entre las grandes industrias para solucionarlo en aras de mejores
prestaciones para el consumidor. Lo que hay en juego es mucho más que
esto: más del 75% de los videos en Internet se ven a través de Flash
(software instalado en el 98% de los ordenadores a nivel mundial y presente
en más de 800 millones de dispositivos móviles fabricados por 19 de los 20
primeros fabricantes donde, por supuesto, el vigésimo es Apple). Prueba de
esto es que Universal y Time Warner se posicionan a favor de Adobe y
comunican que no tienen intención de convertir sus colecciones a H.264
porque no es económicamente viable con Flash dominando la web.

460
Un ejemplo de solución adecuado se produjo con la introducción del co-procesador
aritmético de Intel. Los primeros ordenadores (de la familia x86) disponían de un limitado
conjunto de instrucciones aritméticas para cálculos complejos. Por ello Intel introdujo el co-
procesador aritmético: un chip opcional que dotaba al PC de capacidad de aritmética en
como flotante (lo cual resultaba muy adecuado para reducir los tiempos de ejecución en
programas que requerían una alta capacidad de cálculo numérico como AutoCAD). Los
compiladores sin embargo producían códigos que emulaban al co-procesador aritmético solo
cuando no estuviera presente y utilizaban su código nativo en caso contrario.

353
TECNOLOGÍAS

Esto es precisamente lo que se considera en este ámbito computación


híbrida; aquella relacionada con el diseño de sistemas complejos eficientes,
con la toma de decisiones acerca de computación HW/SW, con los criterios
que condicionan las respuestas. Un sistema híbrido consiste de hardware (ya
sea analógico, digital o mixto) no solo para interactuar con el mundo real,
sino también para satisfacer determinados requerimientos de tiempo real, y
de software, a distintos niveles de virtualidad y paralelismo. Un sistema de
computación híbrido es un sistema complejo a medida que combina todos
los recursos que necesita para obtener el mejor rendimiento, prestaciones,
seguridad, robustez, etc. En este sentido se puede pensar en un sistema
integrado, multiprocesador (que involucra microcontroladores,
microprocesadores y procesadores digitales de señal), que combina
hardware general con especializado y, mucho más allá, en sistemas
reconfigurables que se adaptan o “programan” para realizar determinadas
funciones.

Según la Wiki461:

Ingeniería de sistemas es un modo de enfoque interdisciplinario que


permite estudiar y comprender la realidad, con el propósito de implementar
u optimizar sistemas complejos. Puede verse como la aplicación tecnológica
de la teoría de sistemas a los esfuerzos de la ingeniería, adoptando en todo
este trabajo el paradigma sistémico.

Esta definición podría valer perfectamente para las reflexiones en torno a


la tecnología en el arte digital. Sin embargo:

Una de las principales diferencias de la ingeniería de sistemas respecto a


otras disciplinas de ingeniería tradicionales, consiste en que la ingeniería de
sistemas no construye productos tangibles. Mientras que los ingenieros
civiles podrían diseñar edificios o puentes, los ingenieros electrónicos
podrían diseñar circuitos, los ingenieros de sistemas tratan con sistemas
abstractos con ayuda de las metodologías de la ciencia de sistemas, y confían
además en otras disciplinas para diseñar y entregar los productos tangibles
que son la realización de esos sistemas.

461
Ingeniería de Sistemas, http://es.wikipedia.org/wiki/Ingeniería_de_sistemas, [Consulta:
10-10-2010].

354
Computación Híbrida

En este ámbito compartimentado, aunque con una interrelación


transdisciplinaria, la ingeniería del hardware (término poco consolidado)
agrupa un conjunto de áreas del conocimiento como electrónica, circuitos
(analógicos y digitales), arquitecturas de procesamiento, etc. mientras que
la ingeniería del software ofrece métodos y técnicas para desarrollar y
mantener software de calidad. Sin embargo, desde el paradigma de la
complejidad la ingeniería de sistemas debería superar su capacidad de
abstracción y constituirse como una disciplina que ofrezca, como cualquier
otra ingeniería, soluciones tangibles. Este enfoque moderno de diseño de
sistemas se relaciona directamente con los sistemas integrados y presenta el
diseño HW/SW de manera unificada, por lo que se utiliza el término co-
diseño. El libro Embedded System Design: A Unified Hardware/Software
Introduction, de Frank Vahid y Tony D. Givargis462, por ejemplo, introduce el
diseño y uso de procesadores de propósito-específico (hardware),
coprocesadores o aceleradores; de procesadores de propósito general
(software); de procesadores de conjunto de instrucciones específicos a
aplicación (ASIP, Application-Specific Instruction-Set Processor) y diserta
acerca de modelos de computación avanzada, sistemas de control,
tecnologías de dispositivos electrónicos y herramientas de diseño modernas.
Hardware y Software, simplemente, ya no pueden ser considerados
independientemente sino de manera híbrida y unificada. La ingeniería de
sistemas, como paradigma de la computación híbrida ni siquiera se estudia
como tal en las universidades salvo contadas excepciones463.

462
Vahid, Frank and Givargis, Tony. Embedded System Design: A Unified Hardware/Software
Approach, Department of Computer Science and Engineering, University of California, 1999.

463
Grado en Arte Electrónico y Digital de la UEM. Disponible en:
http://www.uem.es/titulacion/grado-en-arte-electronico-y-digital, [Consulta: 10-10-2010]. La
introducción de la materia Ingeniería de Sistemas responde a la necesidad de formación
híbrida en el arte digital. El autor participó en el desarrollo de la memoria y el proceso de
acreditación oficial de la ANECA (Agencia Nacional de Evaluación de la Calidad y Acreditación)
durante 2009 del cual resultó satisfactorio y se convirtió en el primer Grado de esta
naturaleza en España y uno de los pioneros de Europa y del cual es actualmente coordinador.

355
TECNOLOGÍAS

100. Proceso de co-diseño típico.

La tecnología de los semiconductores facilita la integración de millones


de puertas lógicas (gates) en un solo dispositivo (chip) y ha dado lugar a la
integración de sistemas en un dispositivo (SoC, Systems on Chip). Entre
muchas otras, los SoCs son los reyes híbridos del dominio multimedia, los
sistemas de transporte inteligentes y en general en cualquier aplicación que
procese, en paralelo, cantidades enormes de datos. El rendimiento de estos
sistemas es eficaz solo en determinados casos específicos con todo el
procesamiento por software, incluso sobre un procesador de alto-
rendimiento, o solo por hardware. Es mucho más deseable una combinación
óptima HW/SW y un sistema, también óptimo, de división (partitioning).

356
Computación Híbrida

101. Procesadores y solución del problema. a. problema, funcionalidad deseada,


b. procesador de propósito general, c. procesador específico a la aplicación, d.
procesador de propósito específico. Un desplazamiento hacia la izquierda en la
línea inferior aumenta en flexibilidad, coste (a pequeña escala), tiempo, etc.
mientras que hacia la derecha en eficiencia, rendimiento, tamaño y coste (a gran
escala), etc.

El diseño de sistemas requiere los siguientes pasos:

Captura de Especificación. Descomposición funcional en piezas para


crear un modelo conceptual del sistema. El resultado es una especificación
funcional carente de cualquier detalle de implementación.

Exploración. Exploración de alternativas de diseño y estimación de su


calidad hasta encontrar la más adecuada.

Especificación. Definición de la especificación en una nueva descripción


que refleje las decisiones hechas durante la exploración.

Software y Hardware. Implementación de cada uno de los componentes


utilizando técnicas de diseño software y hardware o híbridas.

Diseño físico. Generación de los datos de fabricación para cada


componente.

357
TECNOLOGÍAS

Esta metodología de modelado jerárquico permite alta productividad,


preservación de la consistencia a través de todos los niveles y por lo tanto la
eliminación de iteraciones innecesarias lo que se traduce a procesos más
eficientes y rápidos. Para comprender la funcionalidad de un sistema es
necesario describir las relaciones entre las diferentes piezas funcionales del
modelo conceptual. Algunos de los modelos que describen esta
funcionalidad de los sistemas son:

Gráfica de flujo de datos. Una gráfica de flujo de datos descompone la


funcionalidad en actividades y los flujos de datos entre estas actividades.

Máquina de estado finito (FSM, Finite-State Machine). Este modelo


representa al sistema como un conjunto de estados y un conjunto de arcos
que indican transición del sistema de un estado a otro como resultado de
determinado evento.

Procesos secuencialmente comunicados (CSP, Communicating


Sequencel Processes). Este modelo descompone el sistema en un conjunto
de procesos concurrentes que corren instrucciones de programa
secuencialmente.

Máquina de estado programa (PSM, Program-State Machine). Este


modelo combina FSM y CSP; permite que cada estado de un FSM
concurrente contenga acciones descritas por instrucciones de programa.

Cada modelo tiene sus ventajas y desventajas. Ninguno es perfecto para


todos los tipos de sistemas así que se debe seleccionar aquel que mejor se
ajuste a las características específicas del sistema. Es obvio que,
independientemente de si se trata de hardware o software, es posible
describir los procesos, datos y flujos que intervienen mediante algoritmos.
Por lo tanto, es natural pensar que estos algoritmos se implementen en
determinado lenguaje. Si observa detenidamente el ejemplo del siguiente
listado, cuesta pensar que no representa un fragmento de código
programado en Pascal o algún tipo de pseudocódigo y que, simplemente,
implementa funcionalidades hardware.

358
Computación Híbrida

102. Fuente de sumador con signo en VHDL. El VHDL se diseñó para documentar
el comportamiento de los circuitos integrados de aplicaciones específicas (ASIC,
Application Specific IC) del Departamento de Defensa del gobierno americano.

Existen diferentes tipos de hardware, configware, que permiten esta


“programación”. Los ASICs (ya sean de arreglo de puertas o celdas estándar)
permiten interconectar diferentes módulos pre-integrados (por ejemplo
puertas AND o combinaciones AND-OR-INVERTER) para conseguir
determinada funcionalidad. Los dispositivos de lógica programable PLD
(Programmable Logic Device) contienen determinadas capas de circuitos
programables que son interconectados (quemando fusibles o mediante
conmutadores programables) mediante software. La FPGA (Field
Programmable Gate Array) es un tipo de PLD complejo mientras que la PLA
(Programmable Logic Array), es un tipo de PLD simple.

359
TECNOLOGÍAS

Los lenguajes de descripción del hardware, como VHDL o Verilog, difieren


de los lenguajes de programación software en detalles como las formas de
describir la propagación del tiempo y las dependencias de señal
(sensibilidad). Existen dos operadores de asignación, uno de bloqueo (=) y
otro de no-bloqueo (<=); este último permite describir la actualización de
máquinas de estado sin necesidad de declarar y usar variables adicionales.
Desde su introducción, en 1984, Verilog representó un aumento tremendo
en la productividad. Los diseñadores de circuitos utilizaban un programa de
captura esquemático gráfico y los programas software escritos
especialmente para documentar y simular los circuitos electrónicos.

Los diseñadores hardware desean lenguajes de especificación con


características similares a los lenguajes de programación ampliamente
usados en el desarrollo de sistemas. Verilog tiene un sintaxis similar a la de
C: es sensible a mayúsculas-minúsculas, tiene un preprocesador básico
(aunque menos sofisticado que el de ANSI C/C++), etiquetas de control de
flujo equivalentes (if/else, for, while, case, etc.), y operadores de
precedencia compatibles. Las diferencias sintácticas incluyen la declaración
de variables (Verilog requiere bit-widths sobre tipos net/reg por ejemplo),
bloques procedimentales o de demarcación (begin/end en lugar de las llaves
{}), y otras pequeñas diferencias.

Otro lenguaje de descripción similar a VHDL y Verilog es el lenguaje de


descripción de sistemas SystemC464, realmente útil para modelar sistemas a
nivel de comportamiento.

SystemC es un conjunto de librerías y macros implementadas en C++ que


hacen posible una simulación de procesos concurrentes con la sintaxis del
lenguaje C++ ordinario. Así los objetos descritos pueden comunicarse
durante una simulación de tiempo real usando señales de cualquier tipo
ofrecido por C++, además algunas otras ofrecidas por las librerías de SystemC
y también otras definidas por el usuario.

La metodología de diseño comienza con un modelo de alto nivel escrito


en C++ y aplica un proceso iterativo que consiste en transformar el código
para usar solo los elementos que tengan su equivalente en un lenguaje de

464
SystemC, http://es.wikipedia.org/wiki/SystemC, [Consulta: 10-10-2010].

360
Computación Híbrida

descripción de hardware. La representación unificada de un sistema híbrido


debe describir su funcionalidad independientemente de su implementación
hardware o software lo que permite la repartición HW/SW según un
compromiso óptimo, provee un entorno de simulación y facilita una
fertilización cruzada entre los dominios HW/SW.

#include "systemc.h"

SC_MODULE(adder) { // módulo, declaración de la clase


sc_in<int> a, b; // puertos
sc_out<int> sum;

void do_add() { // proceso


sum = a + b;
}

SC_CTOR(adder) { // constructor
SC_METHOD(do_add); // registro do_add al kernel
sensitive << a << b; // lista de sensibilidad de do_add
}
};
103. Fuente de sumador en SystemC.

La partición es el proceso que decide, para cada subsistema, cómo es más


ventajoso implementar la funcionalidad requerida: por hardware o por
software. Este es un problema de optimización multi-variable que debe
satisfacer las prestaciones exigidas dentro de determinados requerimientos
del sistema: tamaño, peso, potencia, coste, etc. que, en el contexto del co-
diseño, se denomina frecuentemente partición funcional.

Existen dos enfoques básicos de división. O bien comenzar con todas las
operaciones en el software y mover algunas a hardware (por ejemplo,
cuando la velocidad es fundamental) o empezar con todas las operaciones
en hardware y mover algunas a software. Un programa de división funcional
identifica los cuellos de botella de cómputo y migra las funciones
correspondientes a un hardware específico de la aplicación. Por otra parte la
migración de componentes hardware a rutinas software pasa por la
identificación de las tareas no críticas susceptibles de migrar. Esto conlleva
una reducción de tamaño y costes significativos sin reducir el rendimiento

361
TECNOLOGÍAS

(especificado en términos de latencia y restricciones en la velocidad de los


datos).

La compartimentación funcional permite que el sistema se divida en


componentes hardware y software; es análogo a las particiones
estructurales en que la estructura de un sistema se refina en un menor nivel
de componentes hardware. Sin embargo, en las particiones estructurales, la
funcionalidad no se puede mover desde el hardware hacia el software. El
particionado de objetos funcionales entre los componentes del sistema se
realiza: mediante una descripción de la funcionalidad del sistema (descrita
como una colección de objetos funcionales indivisibles) y a continuación
cada componente de la funcionalidad del sistema se implementa en
hardware o software.

El proceso de partición es guiado por la métrica y el tipo de métrica a


utilizar depende en gran medida del nivel de descripción del sistema. La
métrica se define para determinar el coste relativo de una partición frente a
otras particiones potenciales. Obviamente, algunos indicadores, como el
tiempo de ejecución de una determinada tarea en un procesador específico,
son imposibles de medir con precisión hasta alcanzar la aplicación definitiva.
Algunas de estas técnicas son: de estimación determinística (solo útil
cuando se parte de un modelo completamente especificado), de estimación
estadística (en modelos incompletos; se basa en el análisis de sistemas
similares y ciertos parámetros de diseño) o de perfiles (examina flujos de
datos y control en una arquitectura para determinar qué partes, más caras
computacionalmente, son mejores implementadas por hardware). El
proceso de seleccionar los componentes se denomina asignación
(allocation).

Los sistemas híbridos no solo deben tener en cuenta qué implementar


por hardware o por software sino también cómo comunicar ambos
dominios y es que esta comunicación introduce determinada sobrecarga que
debe ser considerada.

Cuando es posible una implementación de todos los componentes del


sistema solo con procesadores de propósitos generales (ya sean
microcontroladores, microprocesadores o procesadores digital de señal) el
diseño de un sistema complejo se convierte en un problema de integración
(este concepto excluye la elaboración y uso de procesadores específicos).

362
Computación Híbrida

Este es, sin embargo, un escenario frecuente no menos complejo donde se


puede considerar los componentes como piezas de un rompecabezas que
deben encajar perfectamente (en términos de métrica) para conseguir el
objetivo deseado. Este “encaje” pasa por unas interfaces de comunicación
bien definidas y por el uso de terminales de interacción universales o
estándares.

El co-diseño HW/SW es muy útil en la búsqueda de soluciones a medida,


prototipado rápido, simulación, sistemas con determinados procesos críticos
(ya sea en velocidad, memoria, etc.), sistemas adaptables o reconfigurables,
concurrentes (desarrollo simultáneo HW/SW), integrables (la interacción del
desarrollo HW/SW produce diseños que satisfacen los criterios de
rendimiento y especificaciones funcionales), etc. y permite el desarrollo de
sistemas complejos que sacan lo mejor de cada tecnología.

104. Co-compilador Software-Configware. Configware significa programación


reconfigurable. Configware versus software significa programación estructural
versus programación procedimental. Configware considera ASICs, PLDs, etc.

Imagínese el siguiente escenario: se necesita desarrollar un sistema muy


complejo que debe interactuar con el mundo real. Para ello primeramente
se crea un modelo conceptual del sistema: una especificación funcional
ajena e independiente de cualquier detalle de implementación y, por lo
tanto, de la tecnología. Este diseño le permitirá implementar el sistema con
la tecnología disponible en el momento que lo requiera; es independiente
de ella. Ahora supóngase que es posible describir todos los algoritmos,

363
TECNOLOGÍAS

procesos, datos e interrelaciones del modelo en una suerte de meta-


lenguaje de programación (pseudocódigo o de muy alto nivel como muestra
la figura 101), ajeno igualmente a cualquier implementación.

Por último suponga que combinando estrategias automáticas y manuales


(en la figura 105, por ejemplo, solo se considera la división HW/SW
automática) pueda decidir qué y cómo hacer por hardware o por software y
cómo comunicarlas entre sí. Finalmente obtendrá un sistema híbrido
óptimo, susceptible de futuras implementaciones, definido en términos no
perecederos, en definitiva: un sistema eficaz resistente a la obsolescencia
tecnológica capaz de absorber la tecnología del futuro.

La computación híbrida, hoy día, parece aceptada como evidente pero


aún queda mucho por hacer y no existe, ni existirá, solución ideal ni
genérica. La resistencia llega de todas partes. El uso de meta-lenguajes no es
casi nunca bien recibido por la comunidad de programadores que lo
considera un intrusismo automatizado y prefieren seguir escribiendo sus
líneas de código en el lenguaje que les apetezca. Para los desarrolladores de
hardware este enfoque es una quimera basada en patrones susceptibles de
mejoras. Pero para la industria simplemente significa ganar o perder dinero.
Aquí la hibridación es lo de menos y lo de más la imposición de tecnologías y
estrategias propietarias. Steve Jobs reclama “baja potencia, pantallas
táctiles y estándares abiertos para la web” para el entorno de las
aplicaciones hoy día mientras Apple, la compañía que dirige, supera a
Microsoft en el mercado mundial y es el cuarto en ventas de ordenadores
en Estados Unidos; es difícil desvincular ambos hechos y su capacidad de
expansión a otros mercados como el de los móviles y la reproducción
multimedia.

Linux cuenta con el procesador Leon 2 (una implementación en VHDL de


un procesador de 32 bits compatible con el juego de instrucciones Sparc V8,
desarrollado para la Agencia Espacial Europea y mantenido en la actualidad
por Gaisler Research465. Leon 2 es de código abierto, viene acompañado de
las herramientas necesarias, que también son de código abierto:
compiladores C, versión de Newlib, y versiones de eCos y Linux. El
procesador Leon no solo es de código abierto, sino que además no está

465
Aeroflex Gaisle, http://www.gaisler.com/cms/, [Consulta: 10-10-2010].

364
LINOOS

ligado a ninguna tecnología de FPGA concreta. PeaCE, por otra parte,


permite realizar un particionado HW/SW automático.

La computación híbrida no es tan nueva como parece y ya cuenta con


algunas décadas. Sin embargo el co-diseño no lo es tanto y cada vez ejerce
mayor atracción. ¿Habrá que esperar por una comunidad HW/SW libre para
impulsarlo? El tiempo dirá. Mientras… el mundo sigue siendo analógico y
complejo y el hombre ridiculizando, rechazando violentamente y aceptando
como evidente toda verdad466.

Hasta aquí algunas reflexiones acerca de la tecnología involucrada en el


arte digital en torno a los principales problemas desde el punto de vista de
la Restauración: su obsolescencia tecnológica y su relación con las
metodologías de producción, utilizando como hilo conductor el proceso. Si
se desea producir o recrear una obra de arte digital ésta es
fundamentalmente la materia prima. Sin embargo, no pocas son las
restricciones que impone y no precisamente técnicas sino más bien por la
relación tecnología-consumo. ¿Sería útil reflexionar acerca de cómo podría
ser un entorno más apropiado para la Restauración del arte digital? ¿Es
posible alguna tecnología fuera de lo que ha venido consumando la
industria? Desde luego que sí y, para hacerlo, supóngase que existe un
sistema operativo de libre distribución cuyo nombre es: LINOOS.

LINOOS

es el acrónimo de LINO Operating System o LI NO Operating System,


según se lea, y este doble, a la vez que antagónico, significado pone en
evidencia el papel de los sistemas operativos centralizados modernos (como
MacOS, Windows, Linux, etc.) en la gestión de un mundo periférico
distribuido. El parecido fonético de LINOOS (Linus) con Linux, acentúa la
similitud filosófica de proyecto de software libre; hecho por y para la
comunidad.

Mucho han cambiado las cosas desde que IBM lanzó el primer ordenador
personal. Los procesadores son más rápidos, baratos a la vez que potentes,

466
En alusión a la frase de Arthur Schopenhauer: “Toda verdad pasa por tres etapas. Primero,
es ridiculizada. Segundo, es violentamente rechazada. Tercero, es aceptada como evidente.”

365
TECNOLOGÍAS

con arquitecturas orientadas a ofrecer cierto paralelismo; los ordenadores


incluyen más de un procesador; los periféricos son inteligentes; las
“unidades” de almacenamiento sobrepasan el Tera, y los discos duros son
sustituidos por memorias de estado sólido; las comunicaciones son rápidas,
extendidas y robustas; y así… un largo etc. que bien podría acabar con el
asentamiento de diferentes monopolios tecnológicos que no compiten
entre sí, sino que se complementan.

Los primeros ordenadores personales tenían un único procesador


(incluso un coprocesador), memoria interna y un conjunto de buses o
medios de comunicación (con su correspondiente circuitería) para acoplar
los periféricos. De modo que las señales que llegaban o salían al ordenador
personal eran procesadas por el propio procesador. Por ejemplo, un PC no
tenía salida a vídeo467. Era necesario insertar una tarjeta especializada que, a
su vez, proporcionaba las señales primarias de vídeo (por componentes, o
incluso compuesto o señal de televisión).

Esta filosofía centralizada de interconexión proporcionaba un soporte de


acceso primario, a través de la BIOS (Basic Input Output System) y mediante
un sofisticado sistema de interrupciones, y un soporte mucho más complejo,
para el manejo de todos los recursos del sistema, vía sistema operativo. Los
sistemas operativos proveían concurrencia468 a través del sistema de
interrupciones y, según fueron evolucionando, se impusieron estrategias de
cooperación, tiempo compartido, por prioridades o inclusive combinaciones
de ellas.

Según se desarrollaban los diferentes periféricos, por los innumerables


fabricantes, los sistemas operativos introdujeron el concepto de driver o
controlador para gestionar las especificidades de cada elemento y sacarle el

467
Macintosh optó por incluir su propio gestor de vídeo mientras que en cualquier PC era
posible utilizar cualquier interfaz compatible con sus buses.

468
La gestión del tiempo de proceso está directamente relacionada con la capacidad de
compartir tiempo de ejecución por diferentes programas. Normalmente un programa corre
hasta que necesita esperar por algún dato. La optimización más simple de esta espera pasa
por permitir que, mientras tanto, puedan correr otros programas. Finalmente, si el sistema
operativo garantiza la ejecución compartida de diversos programas puede parecer que todos
corren en paralelo o simultáneamente.

366
LINOOS

mayor provecho. En definitiva el driver es un programa cuya función


principal es proporcionar una capa normalizada entre las funciones de
acceso del sistema operativo y las específicas del periférico en cuestión
según el fabricante.

En la actualidad no existe dispositivo, por pequeño que fuere, cuyas


funciones no sean dirigidas por al menos un microcontrolador469. El
microcontrolador incorpora internamente temporizadores, señales de
entrada/salida, tanto digital como analógica, comunicación serie, etc. Los
dispositivos más complejos, como los relacionados con audio y vídeo,
además incorporan uno o más DSPs para manipular señales de gran ancho
de banda (audio, vídeo, etc.) y complejidad y uno o más microcontroladores
para manipular las señales de control o interfaz. Curiosamente, las tres
tecnologías evolucionan con cierta convergencia470.

Este hecho también cambió la forma de comunicación entre los


diferentes periféricos con la sustitución de señales digitales básicas (o
incluso analógicas) asociadas a cada periférico por la comunicación serie
incluida en estos dispositivos. El USB (Universal Serial Bus) es un ejemplo de
ello. A diferencia de las múltiples interfaces físicas del pasado, es posible
encontrar cualquier tipo de periférico con comunicación USB. Desde el
pequeño ratón, hasta sofisticados discos duros de altísima velocidad y
capacidad, impresoras, escáneres, entrada/salida de audio/vídeo, etc. Las
funciones de los periféricos siguen siendo las mismas, incluso muy parecidas
a la que ofrecía la BIOS, solo la forma de comunicación entre el
microprocesador y los periféricos ha cambiado por un estándar que
proporciona incluso la posibilidad de arrancar el dispositivo en caliente (sin

469
El microcontrolador, a diferencia del microprocesador de los PCs, incluye las funciones
asociadas a periféricos en el propio chip, en lugar de acceder a ellas a través de los buses de
datos, direcciones y control, y, en general, un conjunto de instrucciones reducido capaz de
operar en un solo ciclo de reloj.

470
Por ejemplo: Intel por ejemplo ha dotado a sus procesadores, desde la serie MMX, de
instrucciones propias de procesado de señal; Microchip ha desarrollado la familia dsPIC, una
especie de microcontrolador con funciones DSP. No obstante su función, velocidad, precio,
potencia, sigue ocupando rangos diferentes.

367
TECNOLOGÍAS

apagar y encender el ordenador). La comunicación con los periféricos471


pasó de dentro del ordenador (intra) hacia fuera (inter).

Un ordenador personal hoy día consta de uno o varios procesadores, sin


prácticamente controladores periféricos (DMA, Direct Memory Acces;
interrupciones, temporizadores, etc.), memoria RAM (Random Access
Memory) de alta capacidad y velocidad, memoria Flash (la Flash EPROM es
una memoria no volátil grabable in situ) actualizable (que hace las funciones
de la BIOS aunque se le suele denominar firmware o, inclusive, puede
albergar un sistema operativo), controlador de vídeo incorporado o un bus
de muy alta velocidad para ello (como el AGP, Accelerated Graphics Port) y
algún conjunto de buses series normalizados (como el USB, Ethernet,
Firewire ó inalámbricos como IrDA, Bluetooth y WiFi). Sin embargo, a pesar
de la enorme descentralización, los sistemas operativos mantienen una
centralización encubierta.

El desarrollo arquitectónico de un PC se podría dividir en dos etapas, con


una línea divisoria muy borrosa, que, para simplificar al máximo las cosas, se
podría llamar: “el antes” y “el después”.

La arquitectura correspondiente al “antes” posee una unidad de proceso


que debe intercambiar información con todos los periféricos; cada uno
según su protocolo de acceso mientras que la unidad de proceso del
“después” puede estar formada por varios procesadores que se comunican
con todos los periféricos con solo unos pocos protocolos estándares. Ambos
son esquemas centralizados; sin embargo, la introducción de cierta
inteligencia en los periféricos permite reorganizar este modelo para
conseguir distribución y paralelismo.

Para ello es preciso observar el esquema de “el después” como una red
local, formada por la interconexión de diferentes tipos de redes (según los
diferentes protocolos de comunicación), donde cada elemento de la red
(componente) tiene determinada función. Para hacer más fácil el análisis

471
Incluso muchos de los periféricos que aún trabajan dentro del ordenador (como es el caso
del disco duro) no se conectan mediante los viejos buses paralelos sino a través de buses
series de alta velocidad (SATA, por ejemplo) casi idénticos que los que ofrece al exterior
(como es el caso de firewire o USB).

368
LINOOS

considérese este esquema según el modelo de interconexión abierto OSI de


la ISO que permite abstraer los detalles de las conexiones y concentrar la
atención en sus interfaces a nivel de aplicación472.

Ahora véanse todos los componentes como “cajas negras” capaces de


realizar determinado conjunto de funciones. Cada función, procedimiento o
servicio consume información, a través de los parámetros o datos de
entrada, la procesa, y devuelve unos resultados, a través de los parámetros
o datos de salida. En este modelo, cada componente publica sus interfaces
(funciones y parámetros de entrada y salida de cada una de ellas) en un
formato común473. Como cada componente es capaz de publicar sus
funciones e interfaces474 a toda la red local; cada punto de la red local tiene
la capacidad de invocar estos servicios. Por ejemplo, la pantalla o display,
que tiene incluida la tarjeta gráfica (compatible, por ejemplo, OpenGL),
exporta una serie de funciones relacionadas con su uso (compatible
XWindows, por ejemplo). El propio disco duro se hace cargo del sistema de
archivos; de manera que publica sus directorios, archivos, contenidos de
archivos e inclusive realiza funciones de defragmentación automática en sus
ratos de ocio. De esta manera un editor de texto, por ejemplo, funciona
independientemente del tipo de monitor, disco duro, teclado, ratón o
impresora como una auténtica aplicación distribuida en la que cada

472
A este nivel de abstracción se puede considerar que todos los integrantes de la red
pueden intercambiar información sin profundizar en cómo lo hacen. El modelo OSI de la ISO
descompone la comunicación entre puntos en siete capas compatibles entre sí a nivel de
interfaz.

473
La arquitectura SOA (Service Oriented Arquitecture) es un ejemplo de ello. Los datos de
intercambio son formateados en cadenas XML.

474
Estas funciones e interfaces, en concepto, son similares a las definidas en la BIOS; sin
embargo, es importante un diseño armonioso que pueda evolucionar sin límites. Para ello
podríamos tomar el ejemplo del protocolo MIDI (Musical Instrument Digital Interface) que
fue capaz (en 1982) de definir un conjunto de mensajes generales para todos los fabricantes y
un mensaje exclusivo para el uso privado de cada fabricante. De esta manera prepararon al
protocolo para aguantar el paso del tiempo; cualquier necesidad posterior es susceptible de
insertar a través de un mensaje exclusivo.

369
TECNOLOGÍAS

componente juega su rol independientemente de cualquier sistema


operativo por la desagregación del modelo475.

La arquitectura distribuida de LINOOS cuestiona la necesidad de un


sistema operativo tradicional476. LINOOS no necesita de ningún driver para
operar, solo de las interfaces de cada componente de la red. ¿Cómo debe
funcionar el componente procesador? No todas las aplicaciones requieren
del uso de un sistema operativo. Normalmente las aplicaciones diseñadas
para microcontroladores no lo hacen y esto es debido a lo limitado de sus
recursos y la especificidad de sus funciones. Son sistemas a medida y
óptimos y es que el sistema operativo introduce cierta sobrecarga, consume
determinada memoria, espacio en disco, etc. ¿A cambio de qué? De
garantizar la concurrencia entre diversos programas, la comunicación entre
ellos, arbitrar el uso de recursos compartidos, etc.; en definitiva, de
gestionar los recursos del sistema.

Las aplicaciones DSP son otro caso donde habitualmente no se utiliza un


sistema operativo. Son aplicaciones donde lo más importante es la velocidad
y optimización de los recursos y, normalmente, son muy específicas. Lo cual
limita el uso de los sistemas operativos a aplicaciones generales donde lo
más importante no es precisamente la optimización477.

475
La desagragación funcional no es un concepto novedoso. El Modelo Vista Controlador
(MVC), desarrollado en 1979 por Trygve Reenskaug (entonces trabajando en Smalltalk en
laboratorios de investigación de Xerox), es un buen ejemplo de ello; un estilo de arquitectura
software que separa los datos de una aplicación, la interfaz de usuario, y la lógica de control
en tres componentes distintos. El estilo de llamada y retorno MVC, se utiliza frecuentemente
en aplicaciones web, donde la vista es la página HTML y el código que provee de datos
dinámicos a la página. El modelo es el sistema de gestión de base de datos y la lógica de
negocio y el controlador es el responsable de recibir los eventos de entrada desde la vista.
Cada uno es susceptible de reemplazo si se respetan las interfaces. De hecho pueden existir
muchas vistas y quizá menos controladores para un mismo modelo; que es el componente de
mayor reutilización.

476
En los términos en que funcionan los sistemas operativos. En realidad un kernel (incluso
un micro kernel) que gestione, como un componente más, los recursos específicos de la placa
base (mother board) es suficiente.

477
Hemos sido testigo de cómo los sistemas operativos, que hemos llamado centralizados
modernos, devoran espacio en disco, memoria y recursos insaciablemente para proveer un

370
LINOOS

Sin embargo, es posible aplicar la filosofía anterior para conseguir un


procesador LINOOS. En este caso cada procesador tiene su mini478 sistema
operativo (o gestor de tareas) en su propia memoria flash479 y exporta, a
través de sus interfaces de comunicación sus servicios.

Obsérvese que en un sistema LINOOS se pueden integrar múltiples


componentes (en principio ilimitado) con diferente, similar o igual
funcionalidad; lo que permite crear verdaderos sistemas
multiprocesamiento y compartir realmente todos los periféricos (es posible
tener múltiples pantallas, cada una visualizando diferente información;
múltiples sistemas de almacenamiento; múltiples impresoras; etc.).

El siguiente paso es la interconexión de diversos sistemas LINOOS lo cual


es prácticamente extensible si existe al menos un componente de la red que
pueda servir de pasarela (gateway). Para compartir recursos entre
diferentes sistemas LINOOS es necesario proveer a cada componente del
sistema de una dirección única. El uso de direcciones IP (Internet Address)
garantiza un enumerador único; pero es posible algún tipo de
direccionamiento más simple utilizando técnicas de numeración local para
diferenciar cada dispositivo con una dirección única. Lo más simple es
emplear algún tipo de código identificador de cada tipo de dispositivo,
según su función. Por ejemplo 1 para monoprocesadores, 2 para múltiples
procesadores, 3 para microcontroladores, 4 para DSPs, etc. seguido de un
identificador de dirección. O algún mecanismo como el que emplea el I2C 480

entorno más amistoso de dudosa justificación. Mucho más nocivo en cuanto no dejen opción
a usos más austeros.

478
El término mini (micro, nano, pico, etc.) es justificado por la reducción de sobrecarga que
introduce la gestión de los drivers, y la exclusión de todo lo que no sea estrictamente
relacionado con la gestión de concurrencia, comunicación entre procesos y compartición de
los escasos recursos de los que dispone. Obsérve que, bajo esta filosofía, la implementación
de cada mini sistema operativo es supérflua.

479
Obsérvese que no es necesario un disco duro y que el firmware (mini sistema operativo)
es auto actualizable a través de su propia interfaz.

480
I2C, http://www.i2c-bus.org/, [Consulta: 2-1-2011].I2C es un protocolo de comunicación
serie de alta velocidad diseñado para la comunicación de chips a muy bajo nivel. Por ejemplo
para que un microcontrolador amplie sus recursos: memoria, puertos, conversores
analógico/digital-digital/analógico, circuitos específicos para control de motores, circuitos de

371
TECNOLOGÍAS

que asigna rangos de direcciones según las diferentes funciones. Así 1.001
corresponde al monoprocesador 1 dentro de la red. Para diferenciarlo de
aquellos que pertenezcan a otras redes locales se puede complementar la
dirección con la IP de la pasarela, por ejemplo. En el caso de que coexistan
múltiples pasarelas es necesario diferenciar los puntos según la pasarela a la
que estén conectados.

Probablemente, con muy poco esfuerzo, sea posible crear sistemas


LINOOS a partir de los sistemas operativos habituales. Si es así, entonces
¿qué importancia podría tener este cambio? Lo más loable probablemente
de este enfoque es que consigue una total independencia entre aplicación y
tecnología. Es posible sustituir cualquier componente por otro de última
generación con tecnologías más rápidas, potentes y estables y todo seguirá
funcionando. ¿Por qué? Porque solo cambia el cómo no el qué hace y,
mientras no cambien las interfaces, todo seguirá funcionando
perfectamente. LINOOS, visto de otra manera, consigue crear sistemas
robustos a la obsolescencia tecnológica y se corresponde con la metodología
que propone A3.

Aunque el XML está tan extendido, es posible definir los mensajes de


intercambio en un metalenguaje multiparadigma como LISP481. De esta
manera no solo se podrá transferir información sino código fácilmente
ejecutable en cualquier componente del sistema LINOOS. ¿Es por esto
LINOOS menos seguro? No. En LINOOS cada componente de la red es
responsable de todas sus funciones, incluida las relacionadas a la seguridad.
No es posible formatear un disco duro malintencionadamente porque solo
el propio dispositivo puede hacerlo si recibe la orden y coteja que, quien la
emite, tiene permiso para ello; mecanismo que se puede activar en un
proceso de configuración inicial o especial.

comunicación, etc. El microcontrolador Atmel ATmega, que utilizan las placas Arduino y
Ardabasto, por ejemplo, se pueden comunicar con una cantidad enorme de periféricos
hardware sin utilizar para ello su puerto serie (USART, Universal Serial Asynchonous Receiver
Transmitter), que solo dispone de uno y, en estos sistemas, se utiliza para la comunicación
USB con un ordenador.

481
De hecho existe una relación muy directa entre ambos a pesar de que LISP es el segundo
lenguaje de programación de alto nivel (solo superado por FORTRAN) más longevo.

372
LINOOS

Otro aspecto reseñable es su escalabilidad. Para aumentar la potencia de


proceso, por ejemplo, basta con aumentar los componentes de proceso que,
dicho sea de paso, son más baratos y simples. La conservación de la
escalabilidad es posible también por la base OSI subyacente en la
arquitectura. Es posible cambiar inclusive el tipo de enlace de comunicación,
e incluir nuevas tecnologías que pudieran surgir en el futuro, sin que se
altere el funcionamiento del sistema. ¿Por qué? Porque LINOOS trabaja en
la capa de aplicación lo que hace posible sustituir cualquiera de las capas
inferiores, varias o todas inclusive, sin influencia en el conjunto.

Otro aspecto interesante, desde el punto de vista de desarrollo, es


considerar los mecanismos de comunicación interprocesos (soft/hard)
independientemente de si coexisten en el mismo componente (intra/inter).
De esta forma se tiene un sistema transparente a la arquitectura y se
distribuyen los mecanismos de arbitraje de recursos, normalmente
controlados por el sistema operativo. En término de conectores482,
considerando como un mecanismo de comunicación que hace posible
acoplamientos LINOOS garantiza diseños/arquitecturas de alto nivel,
reutilización, distribución/paralelización.

LINOOS converge hacia lo que se va conociendo como tecnología Web


3.0. En este entorno cada dispositivo, por diferente que sea, puede exportar
su funcionalidad a la comunidad. El éxito de LINOOS se basa en el empleo de
estándares libres y abiertos a toda la comunidad. LINOOS no es caos, sino un
mecanismo de cooperación que permite el desarrollo, pero más importante,
el mantenimiento, de aplicaciones complejas objeto-sistemas como las que
necesitan los objetos-símbolos del arte digital.

482
En este contexto un sistema operativo (kernel), Internet o un medio es un conector.

373
TECNOLOGÍAS

374
BIBLIOGRAFÍA

Obras citadas

Agúndez García, José A. 6-TV-Dé-coll/age. El ojo del elefante en Primera


generación. Arte e imagen en movimiento [1963-1986], Madrid: MNCARS,
2006.

Alsina, Pau. Arte, Ciencia y Tecnología. Barcelona: Editorial UOC, 2007.

Altshuler, Bruce (Ed). Collecting the New. A Historical Introduction en


Collecting the New: Museums and Contemporary Art. New Jersey: Princeton
University Press, 2004.

Bar, Norbert S. Does conservation have value? en Burchensen, K. (Ed). 25


Years School of Conservation: The Jubilee Symposium Preprints,
Copenhagen: 1998, pp. 15-19.

Barreca, Laura. Il dibattito internazionale intorno al la conservazione e alla


documentazione della New Media Art. 1995-2007. Tesis presentada en el
Dipartimento di Studi per la Conoscenza e la Valorizzazione dei Beni Storici e
Artistici, Università Degli Studi Della Tuscia Di Viterbo, 2008.

Barthes, Roland. Elementos of Semiología. 19 Edición. Madrid: Alberto


Corazón, 1971. Comunicación, Serie B: Elementos de Semiología.

Benjamin, Walter. La obra de arte en la época de su reproductibilidad


técnica en Discursos Interrumpidos I. Madrid: Taurus Ediciones, 1973.

Bense, Max. Estética de la información. Madrid: Alberto Corazón, 1972.


Comunicación, Serie B. No. 23.

Bonsanti, Giorgio. Riparare l’arte. OPD Restauro. 1997, No. 9.

Brandi, Cesare. Teoría de la Restauración. Madrid: Alianza Editorial, 2002.


Alianza Forma.

Bravo Monroy, Rodolfo. Metodología para el análisis y desarrollo de


sistemas complejos: una aproximación al estudio y selección de sus

375
BIBLIOGRAFÍA

elementos de información. Tesis doctoral presentada en la Universidad


Complutense de Madrid, Servicio de Publicaciones, Madrid, 2006.

Brock-Nannestad, George. The rationale behind operational conservation


theory. Conservation Without Limits, IIC Nordic Group XV Congress, Helsinki,
2000, pp. 21-33.

Burnett, Ron. Disciplines in crisis: Transdisciplinary approaches in the arts,


humanities and sciencies. Internet: Transdisciplinary-Unesco, 2000.

Capra, Fritjof. La trama de la vida. Una nueva perspectiva de los sistemas


vivos. Barcelona: Anagrama, 1998.

Capra, Fritjof. Las conexiones ocultas. Barcelona: Anagrama, 2003.

Caro, Antonio. El paradigma de la complejidad como salida de la crisis de la


postmodernidad, Discurso (órgano de la Federación Andaluza de Semiótica).
2002, No. 16-17.

Cilleruelo, Lourdes. Lo digital en el arte. Editorial Museo de Arte


Contemporáneo Reina Sofía, 2008.

Coddington, James. The Case against Amnesia en Mortality Immortality? cit.


en Corzo, Miguel (Ed). The legacy of 20th-century art. Los Angeles: Getty
Conservation Institute, 1999.

Côté, Michel. De la obra maestra al objeto: sacralización y desacralización en


el Museo. Museum Internacional 218 UNESCO, París, 2003.

Depocas, Alain; Ippolito, Jon y Jones, Caitlin (Eds). Permanence through


change: The Variable Media Approach. New York: The Solomon R.
Guggenheim Foundation y Montreal: The Daniel Langlois Foundation for Art,
Science, and Technology, 2003. Disponible en:
http://www.variablemedia.net/e/preserving/html/var_pub_index.html,
[Consulta: 8-10-2010].

Descartes, René. Discurso del Método. Madrid: Editorial Tecnos, 2005.

376
Obras citadas

Diego García, Isaac. Notación musical: El grafismo musical en la frontera de


los lenguajes artísticos. Opus Música, 20/11/2007. Disponible en:
http://www.opusmusica.com/020/grafismo.html, [Consulta: 20-2-2009].

Dilthey, Wilhem. The rise of hermeneutics en Connerton, Paul (Ed). Critical


sociology. New York: Penguin, 1900/1976.

Fatás, Guillermo y M. Borrás, Gonzalo. Diccionario de Términos de Arte y


elementos de Arqueología y Numismática. Madrid: Alianza Editorial, 1980.

Fisher, Phillip. Making and Effacing Art Modern American Art in the Culture
of Museums. New York: Oxford University Press, 1991.

Foster, Hal. Round Table. The Projected Image in Contemporary Art.


October. The MIT Press Journal. 2003, No. 104.

Foucault, Michel. La arqueología del saber. Buenos Aires: Siglo XXI Editores
Argentina, 1978.

Foucault, Michel. Las palabras y las cosas: una arqueología de las ciencias
humanas. Buenos Aires: Siglo XXI Editores Argentina, 1990.

Galeana de la O, Lourdes. Aprendizaje Basado en Proyectos. CEUPROMED.


Universidad de Colima, 2006. Disponible en:
http://ceupromed.ucol.mx/revista/PdfArt/1/27.pdf, [Consulta: 29-10-2010].

García González, María N., Metodología de aprendizaje activo para la


comunicación: técnicas para el conocimiento a través de la resolución de
problemas (PBL), Edit. Fragua, Madrid, 2007.

García, Lino. A3: Una Metodología para el Arte Digital. I Foro de Creatividad
e Innovación Transversal, Madrid: Universidad Europea de Madrid, 2010.

García, Lino. Recreación: Una estrategia de conservación evolutiva. ARTE


CONTEMPORÁNEO EN (sala de) GUARDIA, Jornadas sobre investigación y
nuevas prácticas en la conservación de obras de arte contemporáneo,
Buenos Aires, 2010.

377
BIBLIOGRAFÍA

García, Lino et al., Diseño Curricular de un Grado Híbrido. VII Jornadas de


Innovación Universitaria. Madrid: Universidad Europea de Madrid, 2010.

García, Lino et al., Refectum#1: Caso de Estudio. 6 TV Dé-coll/age: Wolf


Vostell. ARTE CONTEMPORÁNEO EN (sala de) GUARDIA, Jornadas sobre
investigación y nuevas prácticas en la conservación de obras de arte
contemporáneo, Buenos Aires, 2010.

García, Lino y Montero, Pilar. Conservación y Restauración de Arte Digital.


11ª Jornadas de Conservación de Arte Contemporáneo, Madrid: MNCARS,
2010.

García, Lino y Montero, Pilar. The challenges of digital art preservation. e-


Conservation. 2010, No. 14. Disponible en:
http://www.e-conservationline.com/content/view/884, [Consulta: 5-10-
2010].

García, Lino y Montero, Pilar. Videoarte y Videoinstalaciones, Un enfoque de


conservación y restauración. Presentado a 12ª Jornadas de Conservación de
Arte Contemporáneo, MNCARS, Madrid, 2011.

Gibson, Steve. Transdisciplinary Digital Art, Sound, Vision and the New
Screen, Vol. 7, Part 1, 1-2, Communication in Computer and Information
Science, chapter Introduction: Why Transdisciplinary Digital Art? Springer,
2008.

González Moreno-Navarro, Antoni. Falso histórico o falso arquitectónico,


cuestión de identidad. Loggia Arquitectura y Restauración. 1996, No. 1, pp.
16-23, cit. en Muñoz, Teoría contemporánea de la Restauración, p. 88.

González Moreno-Navarro, Antoni. Restaurar es reconstruir. A propósito del


nuevo monasterio de sant llorentç de guardiola de berguedà (barcelona). e-
rph, 2007, No. 1. Disponible en:
http://www.revistadepatrimonio.es/revistas/numero1/intervencion/estudio
s/_pdf/intervencion-experiencias.pdf, [Consulta: 21-12-2010].

González Mozo, Ana y Macarrón Miguel, Ana María. La Conservación y la


Restauración en el Siglo XX. Madrid: Editorial Tecnos, 2004.

378
Obras citadas

Goodman, Nelson. Los lenguajes del arte: Una aproximación a la teoría de


los símbolos. Barcelona: Paidós, 2010.

Greenberg, Ira. Processing: Creative Code and Computational Art. Appress,


2007.

Greene, Rachel. Internet Art. Thames & Hudson (world of art), 2004.

Hernández Sampieri, Roberto et. al., Fundamentos de Metodología de la


Investigación. Madrid: McGraw-Hill, 2007.

Higgins, Dick. Intermedia. Leonardo. 2001, Vol. 34, No. 1.

Hoetzlein, Rama. Timeline of 20th c. Art and New Media, Media Arts &
Technology Program. University of California Santa Barbara, 2009.
Disponible en http://www.rchoetzlein.com/theory/?p=42, [Consulta: 5-10-
2010].

Hoetzlein, Rama. What is New Media Art? Media Arts & Technology
Program. University of California Santa Barbara, 2009. Disponible en
http://www.rchoetzlein.com/theory/?p=11, [Consulta: 5-10-2010].

Hofman, Vanina. Album inestable. Un acercamiento a la conservación del


arte electrónico. Arte Electrónico/Entornos cotidianos, colección Papers per
a Debat Nº 5, FUNDIT – Escuela Superior de Diseño ESDi, Sabadell, 2007; en
http://www.anaisafranco.com/album_inestable.pdf, [Consulta: 19-12-2010].

Iles, Chrissie y Huldisch, Henriette. Keeing Time: On Collecting Film and


Video Art in the Museum, en Altshuler, Bruce (Ed). Collecting the New:
Museums and Contemporary Art. New Jersey: Princeton University Press,
2005, pp. 65-83.

Ippolito, Jon. Accommodating the Unpredictable: The Variable Media


Questionnaire en Depocas, Alain; Ippolito, Jon y Jones, Caitlin (Eds).
Permanence through change: The Variable Media Approach. New York: The
Solomon R. Guggenheim Foundation y Montreal: The Daniel Langlois
Foundation for Art, Science, and Technology, 2003. Disponible en:
http://www.variablemedia.net/e/preserving/html/var_pub_index.html,
[Consulta: 16-12-2010].

379
BIBLIOGRAFÍA

Ippolito, Jon. Death by Wall Label en Paul, Christiane (Ed). New Media in the
White Cube and Beyond: Curatorial Models for Digital Art. Berkeley:
University of California Press, 2008. Disponible en:
http://thoughtmesh.net/publish/11.php, [Consulta: 22-12-2010].

Ippolito, Jon. El museo del futuro: ¿una contradicción en los términos?,


http://aleph-arts.org/pens/museo_futuro.html, 1998, [Consulta: 6-5-2010].
Este artículo apareció originalmente en Artbyte_, Junio-Julio 1998.

Jaschko, Sussane; Evers, Lucas & Laboral, Centro de Arte y Creación


Industrial, El proceso como paradigma, Gijón: LABoral Centro de Arte y
Creación Industrial, 2010.

Jiménez, Alfonso. Enmiendas parciales a la Teoría del Restauro (II). Valor y


valores. Loggia 2, 5, pp. 12-29 cit. en Muñoz, Teoría Contemporánea de la
Restauración, p. 176.

Jones, Caitlin y Stringari, Carol. Seeing Double: Emulation in Theory and


Practice en Christiane, Paul (Ed). New Media in the White Cube and Beyond:
Curatorial Models for Digital Art. Berkeley: University of California Press,
2008, pp. 220-232.

Kahn, Douglas. Noise, Water, Meat: A History of Sound in the Arts.


Cambridge: The MIT Press, 2001.

Keene, Suzanne. Objects as systems: a new challenge for conservation, en


Oddy, A. (Ed). Restoration Is It Acceptable? Londres: British Museum, 1994.

Kedrov, Bonifatii Mikhailovich. Clasificación de las ciencias. Moscú: Editorial


Progreso, 1976.

Kuhn, Thomas S. ¿Qué son las revoluciones científicas? y otros ensayos.


Barcelona: Paidós, 1989.

Laurenson, Pip. The Conservation and Documentation of Video Art en


Hummelen, Ysbrand y Sillé, Dionne (Ed). Modern Art: Who Cares?
Amsterdam: Foundation for the Conservation of Modern Art and the
Netherlands Institute for Cultural Heritage, 1999.

380
Obras citadas

Lieser, Wolf. Arte Digital. Tandem Verlag: H. F. Ullmann, 2009.

Lledó, Elena. Problemas del arte digital. Madrid: Lápiz 204, 2004.

López Noguero, Fernando. Metodología participativa en la enseñanza


universitaria. Madrid: Editorial Narcea, 2005.

Macarrón, Ana. Conservación del Patrimonio Cultural. Criterios y


Normativas. Madrid: Editorial Síntesis, 2008.

Malagón, Mario J. Algunas reflexiones sobre los enfoques interdisciplinarios


a través de una disciplina del ejercicio de la profesión (principal
integradora). Pedagogía Universitaria. Universidad de Pinar del Río. 2001,
Vol. 6, No. 4.

Manovich, Lev. El lenguaje de los nuevos medios de comunicación. La


imagen en la era digital. Barcelona: Ediciones Paidós Ibérica, 2005. Paidós
Comunicación 163.

Marchan, Simón. Del Arte Objetual al Arte de Concepto. Madrid: Akal, 1986.

Martin, Sylvia. Videoarte. Taschen GmbH, 2006.

Martínez Miguélez, Miguel. El paradigma emergente: Hacia una nueva


teoría de la racionalidad científica. México, Editorial Trillas, 1997.

Martínez Miguélez, Miguel. Hacia una Epistemología de la Complejidad y


Transdisciplinariedad. Utopía y Praxis Latinoamericana, Universidad del
Zulia – Venezuela. 2009, Año 14, N. 46.

Martínez Miguélez, Miguel. La Nueva Ciencia. Su desafío, lógica y método.


México, Editorial Trillas, 1999.

Martínez Miguélez, Miguel. Transdisciplinariedad. Un enfoque para la


complejidad del mundo actual. ConcienciaActiva. 2003, Vol. 21, No. 1.

Montañés, Manuel. Metodología y técnica participativa: teoría y práctica de


una estrategia de investigación participativa. Barcelona: Edit. UOC, 2009.

381
BIBLIOGRAFÍA

Morin, Edgar. El Método. Madrid: Cátedra (Teorema Mayor), 1993.

Moin, Edgar. Introducción al pensamiento complejo. Barcelona: Gedisa,


1995.

Munari, Bruno. Cómo nacen los objetos. Apuntes para una metodología
proyectual. Barcelona: Edit. Gustavo Gili, 1983.

Muñoz Viñas, Salvador. Teoría contemporánea de la restauración. Madrid:


Editorial Síntesis, 2003.

Muñoz Viñas, Salvador. The artwork that became a symbol of itself:


reflections on the conservation of modern art en Theory and Practice in the
Conservation of Modern and Contemporary Art (Series of Publications by the
Hornemann Institute), Archetype Publications Ltd; Bilingual edition, 7 Mayo
2010, pp. 11-22.

Newlove, Jean y Dalby, John. LABAN for all. Londres: Nick Hern Books, 2008.

Noguera, Juan F. Restaurar ¿es todavía posible? Loggia, No. 1, pp. 6-15, cit.
en Muñoz, Teoría Contemporánea de la Restauración, p. 88.

Nyquist, Harry. Certain topics in telegraph transmission theory. Trans. AIEE.


1928, Vol. 47.

Paul, Christiane (Ed). New Media in the White Cube and Beyond. Curatorial
Models for Digital Art. University of California Press, 2008.

Paul, Christiane. Digital Art. Thames & Hudson (world of art), 2008.

Paul, Christiane. Feedback: del objeto al proceso y sistema en Feedback:


Arte que responde a instrucciones, a inputs o a su entorno, LABoral. Centro
de Arte y Creación Industrial, 2007, pp. 26-48.

Peirce, Charles S. Logic as Semiotic: The Theory of Signs en Buchler, Justus


(Ed). Philosophical Writings of Peirce. New York: Dover Publications, 1955.

382
Obras citadas

Pérez Lobato, Montserrat. Introducción a las máquinas virtuales. Instituto de


Tecnologías Educativas del Ministerio de Educación, Política Social y
Deportes, Junio 2007. Disponible en:
http://observatorio.cnice.mec.es/modules.php?op=modload&name=News&
file=article&sid=462, [Consulta: 10-10-2010].

Perry, John. The Story of Standards. Nueva York: Funk & Wagnalis Co., 1955
cit. en Bordwell, David; Staiger, Janet y Thompson, Kristin. El cine clásico de
Hollywood: estilo cinematográfico y modo de producción hasta 1960.
Barcelona: Ediciones Paidós Ibérica, 1997.

Popper, Frank. Art of Electronic Age. Thames & Hudson, 1993.

Prigogine, Ilya. El fin de las certidumbres. Madrid: Taurus, 1997.

Prigogine, Ilya. El nacimiento del tiempo. Barcelona: Tusquets, 1998.

Reas, Case y Fry, Ben. Processing. A Programming Handbook for Visual


Designers and Artists. The MIT Press, 2007.

Regil Vargas, Laura. Hipermadia: Medio, lenguaje herramienta del arte


digital. Revista Digital Universitaria [en línea]. 10/10/2005, Vol. 6, No. 10.
Disponible en: http://www.revista.unam.mx/vol.6/num10/art97/int97.htm,
[Consulta: 15-10-2010].

Rellie, Jemina. Feedback/Feedforward en Feedback: Arte que responde a


instrucciones, a inputs o a su entorno, Gijón: LABoral. Centro de Arte y
Creación Industrial, 2007, pp. 50-61.

Rinehart, Richard. A System of Formal Notation for Scoring Works of Digital


and Variable Media Art. The University of California Digital Arts Research
network Home Page, 2004, http://ucdarnet.org/writing/rinehart.php,
[Consulta: 8-12-2010].

Romano, Gustavo. 10 preguntas abiertas sobre conservación de arte


electrónico. Seminario Conservación del Arte Electrónico ¿Qué preservar y
cómo preservarlo? Buenos Aires: Espacio Fundación Telefónica, 2008.

383
BIBLIOGRAFÍA

Romero Pérez, Clara. Paradigma de la complejidad, modelos científicos y


conocimiento educativo. Universidad de Huelva,
http://www.uhu.es/agora/version01/digital/numeros/06/06-
articulos/monografico/html_6/clara_romero.htm, [Consulta: 5-10-2010].

Rosenblum, Mendel. The Reincarnation of Virtual. 2004,


http://queue.acm.org/detail.cfm?id=1017000, [Consulta: 10-10-2010].

Rothenberg, Jeff. Avoiding Technological Quicksand: Finding a Viable


Technical Foundation for Digital Preservation. 1998,
http://www.clir.org/pubs/reports/rothenberg/contents.html, [Consulta: 14-
2-2009].

Ruano Gómez, Juan de Dios. Auto-organización: transdisciplinariedad


científica y emplazamiento sociológico de una noción de segundo orden.
Tesis doctoral presentada en la Universidad Complutense de Madrid,
Madrid, 2002.

Ruhrberg, Karl, et al. Arte del siglo XX. Taschen, 2001.

Rusell, Lynes. Good Old Modern: An I ntimate Portrait of the Museum of


Modern Art. New York: Atheneum, 1973.

Rush, Michael. Nuevas Expresiones Artísticas a Finales del Siglo XX.


Barcelona: Ediciones Destino, Thames & Hudson, 2002.

Shannon, Claude E. A Mathematical Theory of Communication. Bell System


Technical Journal. 1948, Vol. 27.

Shannon, Claude E. Communication in the presence of noise. Proc. Institute


of Radio Engineers. 1949, Vol. 37.

Solé, Ricard. Redes Complejas: Del genoma a Internet. Barcelona: Tusquets,


2009.

384
Leyes, Cartas y Documentos

Sterling, Bruce. Digital Decay en Depocas, Alain; Ippolito, Jon y Jones, Caitlin
(Eds). Digital Decay en Permanence through change: The Variable Media
Approach. New York: The Solomon R. Guggenheim Foundation y Montreal:
The Daniel Langlois Foundation for Art, Science, and Technology, 2003, pp.
11-22;
http://www.variablemedia.net/e/preserving/html/var_pub_index.html,
[Consulta: 8-10-2010].

Tribe, Mark y Reena, Jana. Arte y Nuevas Tecnologías. Taschen, 2006.

Villaescuerna, Pureza. Videoarte: La evolución tecnológica. Nuevos retos


para la conservación. Registro de Videoarte: Aprehendiendo lo intangible. 8ª
Jornada de Conservación de Arte Contemporáneo. Madrid: MNCARS, 2007,
pp. 118-122.

Wands, Bruce. Art of the Digital Age. Thames & Hudson, 2006.

Wijers, Gaby. Preservation and/or Documentation: The Conservation of


Media Art,
http://www.montevideo.nl/en/nieuws/detail.php?archief=&id=72,
[Consulta: 15-10-2010].

Wilson, Stephen. Information Arts: Intersections of Art, Science and


Technology (Leonardo Books). The MIT Press, 2003.

Leyes, Cartas y Documentos

Anés, José et al., Carta de la Transdisciplinariedad, Convento de Arrábida,


Portugal, 1994; http://www.filosofia.org/cod/c1994tra.htm, [Consulta: 8-12-
2010].

Carta del Restauro, 1972;


http://www.mcu.es/patrimonio/docs/MC/IPHE/Biblioteca/ITALIA_2.pdf,
[Consulta: 4-10-2010].

Carta de la conservación y restauración de los objetos de arte y cultura,


1987; http://www.mcu.es/patrimonio/docs/MC/IPHE/Biblioteca/ITALIA.pdf,
[Consulta: 8-10-2010].

385
BIBLIOGRAFÍA

Carta de la UNESCO para la Preservación del Patrimonio Digital, 28/03/2003,


http://arpa.ucv.cl/texto/Preservaci%F3nPatrimonioDigitalUNESCO.pdf,
[Consulta: 4-10-2010].

Convención para la salvaguarda del partrimonio cultural inmaterial,


http://unesdoc.unesco.org/images/0013/001325/132540s.pdf, [Consulta:
21-12-2010].

Directrices profesionales de E.C.C.O: la profesión y su código ético; 2002,


2003 y 2004;
http://www.gruptecnic.org/2002_directrices_%20profesionales_de_ecco_la
_profesion_y_su_codigo_etico.pdf, [Consulta: 4-10-2010].

Ley 16/1985 del Patrimonio Histórico Español de 1985,


http://www.mcu.es/patrimonio/docs/ley16-1985.pdf, [Consulta: 4-10-
2010].

Memoria Para La Solicitud De Verificación De Títulos Universitarios Oficiales


del Grado en Arte Electrónico y Digital. UEM, Mayo 2010.

MNCARS. Memoria de actividades de 2007,


http://www.museoreinasofia.es/museo/memoria/Pags1175.pdf, [Consulta:
12-10-2010].

Webb, Colin et al., Directrices para la Preservación del Patrimonio Digital,


preparado por la Biblioteca Nacional de Australia, División de la Sociedad de
la Información, Organización de las Naciones Unidas para la Educación, la
Ciencia y la Cultura, 2003;
http://unesdoc.unesco.org/images/0013/001300/130071s.pdf, [Consulta:
15-11-2009].

Proyectos e Instituciones

Archiving the Avant-Garde,


http://www.bampfa.berkeley.edu/about/avantgarde, [Consulta: 4-10-2010].

Documentation and Conservation of the Media Arts Heritage, DOCAM;


www.docam.ca, [Consulta: 10-10-2010].

386
Proyectos e Instituciones

Electronic Arts Intermix, www.eai.org, [Consulta: 1-10-2010].

El Periódico Heróico: Historia, mitología, y primeras reflexiones sobre la


conservación y venta de net.art,
http://www.hamacaonline.net/upload/recursos_teoricos/periodoheroico.ht
ml, [Consulta: 21-12-2010].

Independent Media Arts Preservation, www.imappreserve.org, [Consulta: 4-


10-2010].

Inside Installations, http://www.inside-installations.org/ , [Consulta: 10-10-


2010].

International Network for the Conservation of Contemporary Art, INCCA;


www.incca.org, [Consulta: 10-10-2010].

La fondation Daniel Langlois, www.fondation-langlois.org, [Consulta: 10-10-


2010].

mediartbase.de, http://www.mediaartbase.de/index.html?L=1, [Consulta:


10-10-2010].

Media Center, MECAD; www.mecad.org, [Consulta: 12-10-2010].

Museo Nacional Centro de Arte Reina Sofía, MNCARS;


www.museoreinasofia.es, [Consulta: 12-10-2010].

Nederlands Intituut voor MediaKunst, NIMK; www.montevideo.nl,


[Consulta: 12-10-2010].

Open Archiving System with Internet Sharing, OASIS; www.oasis-archive.eu,


[Consulta: 10-10-2010].

PRACTICs of Contemporary Art: The Future,


http://www.incca.org/projects/64-current-projects/475-practics, [Consulta:
22-12-2010].

RHIZOME: At the New Museum, www.rhizome.org, [Consulta: 10-10-2010].

387
BIBLIOGRAFÍA

Variable Media Network, http://variablemedia.net, [Consulta: 10-10-2010].

ZKM: Center for Art and Media Karlsruhe, www.zkm.de, [Consulta: 10-10-
2010].

Referencias Tecnológicas

Aeroflex Gaisler, http://www.gaisler.com/cms/, [Consulta: 10-10-2010].

Amazon Web Services, http://aws.amazon.com/, [Consulta: 15-10-2010].

Bagdasaryan, Armen G. System Theoretic Viewpoint on Modelling of


Complex Systems: Design, Synthesis, Simulation, and Control,
http://arxiv.org/abs/0812.4523, [Consulta: 24-12-2008].

Basecamp, http://www.basecamphq.com/, [Consulta: 15-10-2010].

Beagle Board, http://beagleboard.org/, [Consulta: 10-10-2010].

Bertalanffy, Ludwing von. General System theory: Foundations,


Development, Applications. New York: George Braziller, 1968. Edición
revisada 1976.

Bertalanffy, Ludwing von. The Organismic Psychology and Systems Theory.


Worcester: Clark University Press, 1968. Heinz Werner lectures.

Bertalanffy, Ludwing von. Perspectives on General Systems Theory. Scientific-


Philosophical Studies. Ed. Edgar Taschdjian. New York: George Braziller,
1975.

Bertalanffy, Ludwing von. A Systems View of Man: Collected Essays. Paul A.


LaViolette (Ed). Boulder: Westview Press, 1981.

bochs.com, http://www.bochs.com, [Consulta: 10-10-2010].

BOINC, Berkeley Open Infrastructure for Network Computing,


http://boinc.berkeley.edu/, [Consulta: 10-10-2010].

388
Referencias Tecnológicas

BrookGPU, http://graphics.stanford.edu/projects/brookgpu/, [Consulta: 10-


10-2010].

Cliente-Servidor en Java,
http://arcos.inf.uc3m.es/~dad/dokuwiki/lib/exe/fetch.php?id=desarrollo_de
_aplicaciones_distribuidas&cache=cache&media=transparencias:l3-
cliente_servidor_en_java-v1b.pdf, [Consulta: 10-10-2010].

CUDA, http://www.nvidia.es/object/cuda_home_new_es.html, [Consulta:


10-10-2010].

Emulatronia: Juega con tu pasado, http://www.emulatronia.com, [Consulta:


22-12-2010]

Erl, Thomas. Service Oriented Architecture: Concepts, Technology and


Design. Prentice Hall, 2005.

Erl, Thomas. Service Oriented Architecture: Guide to Integrating XML and


Web Services. Prentice Hall, 2004.

García, Lino. Ardabasto: Plataforma de Procesado Distribuido Open-


Hardware. LINUX+. 2008, Vol. 46. Disponible en: http://lpmagazine.org/es/,
[Consulta: 22-12-2010].

García, Lino. Cloud Computing: Stairway To Heaven. LINUX+. 2009, Vol. 55,
pp. 32-34. Disponible en: http://lpmagazine.org/es/, [Consulta: 22-12-2010].

García, Lino. Computación Híbrida: Co-diseño Hardware-Software. LINUX+.


2010, Vol. 68, pp. 10-15. Disponible en: http://lpmagazine.org/es/,
[Consulta: 22-12-2010].

García, Lino. Comunicación entre Procesos: En busca del eslabón perdido.


LINUX+. 2010, Vol. 63, pp. 70-75. Disponible en: http://lpmagazine.org/es/,
[Consulta: 22-12-2010].

García, Lino. Desarrollo de Sistemas Complejos. LINUX+. 2009, Vol. 53, pp.
32-35. Disponible en: http://lpmagazine.org/es/, [Consulta: 22-12-2010].

389
BIBLIOGRAFÍA

García, Lino. Interconexión de Sistemas Abiertos. LINUX+. 2009, Vol. 55, pp.
38-40. Disponible en: http://lpmagazine.org/es/, [Consulta: 22-12-2010].

García, Lino. La Máquina de la Virtualidad. LINUX+. 2009, Vol. 57, pp. 16-20.

García, Lino. Lenguajes, Lenguas y Dialectos. LINUX+. 2009, Vol. 52, pp. 18-
21. Disponible en: http://lpmagazine.org/es/, [Consulta: 22-12-2010].

García, Lino. Lino Operating System. LINUX+. 2009, Vol. 52, pp. 42-44.
Disponible en: http://lpmagazine.org/es/, [Consulta: 22-12-2010].

García, Lino. Linux Integrado. LINUX+. 2009, Vol. 58, pp. 24-28. Disponible
en: http://lpmagazine.org/es/, [Consulta: 22-12-2010].

García, Lino. Metodología para la Evaluación y Desarrollo de Proyectos


Transdisciplinares. V Jornadas Internacionales de Innovación Universitaria,
Madrid: Universidad Europea de Madrid, Septiembre 2008.

García, Lino. Paralelización de Procesos: En busca del tiempo escondido.


LINUX+. 2010, Vol. 65, pp. 42-47. Disponible en: http://lpmagazine.org/es/,
[Consulta: 22-12-2010].

GoGrid, http://www.gogrid.com/, [Consulta: 15-10-2010].

Google App Engine, http://code.google.com/intl/es-ES/appengine/,


[Consulta: 15-10-2010].

GPGPU, http://gpgpu.org/, [Consulta: 10-10-2010].

Gumstix Verdex Pro XM4 de gumstix; http://www.gumstix.com/, [Consulta:


10-10-2010].

History of Programming Languages, O’Reilly;


http://oreilly.com/news/graphics/prog_lang_poster.pdf, [Consulta: 10-10-
2010].

I2C, http://www.i2c-bus.org/, [Consulta: 2-1-2011].

Intel® multicore, http://www.intel.com/multi-core/, [Consulta: 10-10-2010].

390
Referencias Tecnológicas

ISO 7498-2:1989,
http://www.iso.org/iso/catalogue_detail.htm?csnumber=14256, [Consulta:
10-10-2010].

Java Micro XML Parser, http://sourceforge.net/projects/uxparser/,


[Consulta: 10-10-2010].

KVM, http://www.linux-kvm.org/page/Main_Page, [Consulta: 10-10-2010].

Lawton, Kevin. Running multiple operating systems concurrently on an IA32


PC using virtualization techniques. 1999, Vol. 29,
http://www.ece.cmu.edu/~ece845/sp05/docs/plex86.txt, [Consulta: 10-10-
2010].

Lenguaje de Programación,
http://es.wikipedia.org/wiki/Lenguaje_de_programaci%C3%B3n, [Consulta:
10-10-2010].

MinML, http://www.vclcomponents.com/XML/Parsers/Java/MinML-
info.html, [Consulta: 10-10-2010].

Modelo de referencia OSI: Interconexión de Sistemas Abiertos,


http://web.frm.utn.edu.ar/comunicaciones/modelo_osi.html, [Consulta: 10-
10-2010].

Open SystemC Iniciative, http://www.systemc.org/home/, [Consulta: 10-10-


2010].

OpenCL,
http://s08.idav.ucdavis.edu/munshi-opencl.pdf,
http://www.macworld.com/article/134858/2008/08/snowleopard_opencl.h
tml, [Consulta: 8-10-2010].

Paradigmas de Computación Distribuida,


http://laurel.datsi.fi.upm.es/~ssoo/LIBRO/Cap3/capitulo3.doc, [Consulta:
10-10-2010].

Picasa, http://picasaweb.google.es/, [Consulta: 15-10-2010].

391
BIBLIOGRAFÍA

Pressman, Roger S. Ingeniería del software. Un enfoque práctico. Madrid:


McGraw-Hill, 2002.

Python-on-a-Chip (p14p), http://code.google.com/p/python-on-a-chip/,


[Consulta: 10-10-2010].

RS232-C, http://es.wikipedia.org/wiki/RS-232, [Consulta: 10-10-2010].

RS485, http://es.wikipedia.org/wiki/RS-485, [Consulta: 10-10-2010].

Salesforce, http://www.salesforce.com/es/, [Consulta: 15-10-2010].

SETI@Home, http://setiathome.ssl.berkeley.edu/, [Consulta: 10-10-2010].

Sh, http://www.libsh.org/, [Consulta: 10-10-2010].

SoM-9260M, de EMAC inc.; http://www.emacinc.com/som/som9260.htm,


[Consulta: 10-10-2010].

SystemC, http://es.wikipedia.org/wiki/SystemC, [Consulta: 10-10-2010].

TINI® Network Microcontrollers,


http://www.maxim-ic.com/products/microcontrollers/tini/, [Consulta: 10-
10-2010].

TINI no oficial site, http://www.rawbw.com/~davidm/tini/index.html,


[Consulta: 10-10-2010].

TinyVM, http://tinyvm.sourceforge.net/, [Consulta: 1-2-2010].

Vahid, Frank y Givargis, Tony. Embedded System Design: A Unified


Hardware/Software Approach. Department of Computer Science and
Engineering. University of California, 1999.

Verilog, http://www.verilog.com/, [Consulta: 10-10-2010].

VHDL, http://en.wikipedia.org/wiki/VHDL, [Consulta: 13-10-2010].

VirtualBox, http://www.virtualbox.org/, [Consulta: 10-10-2010].

392
Referencias Tecnológicas

VMware, http://www.vmware.com/, [Consulta: 10-10-2010].

Wine, http://www.winehq.org/, [Consulta: 10-10-2010].

World Wide Web Consortium (W3C), http://www.w3.org/, [Consulta: 10-10-


2010].

Xen, http://www.xen.org/, [Consulta: 10-10-2010].

Zimmermann, Hubert. OSI Reference Model–The ISO Model of Architecture


for Open Systems Interconnection. IEEE Transactions on Communications.
1980, Vol. 28, No. 4, pp. 425-432,
http://www.comsoc.org/livepubs/50_journals/pdf/RightsManagement_eid=
136833.pdf, [Consulta: 5-10-2010].

393
BIBLIOGRAFÍA

394

View publication stats

También podría gustarte