Fernando Boro
Un caso particular de lo efímero
Aunque no soy especialista en conservación de obras de arte, trabajo desde hace muchos años en preservación a largo plazo de materiales digitales en archivos históricos, bibliotecas y museos, las llamadas instituciones de la memoria. Esto me ha permitido no solo estar en íntimo contacto con las nuevas posibilidades que, en forma creciente, la tecnología digital brinda a las instituciones culturales, sino también familiarizarme con los riesgos, mucho menos conocidos, que aquejan a toda información guardada en formatos binarios.
Para interiorizarme del tema entrevisté a artistas visuales que usan la tecnología digital, con el fin de conocer su punto de vista sobre el problema de la conservación de sus “originales digitales”[1] y averiguar si toman alguna medida para asegurarse de que esos archivos sean accesibles en el futuro, en nuevos entornos de hardware y software hoy desconocidos. La información que recabé resulta muy ilustrativa. En primer lugar, descubrí que ya se han perdido una buena parte de las obras digitales más antiguas, bien porque estaban en formatos que ya no se pueden abrir con el software de hoy, o bien por problemas con los discos que fueron usados para guardar los archivos digitales.
Constaté que existe en los artistas una preocupación por la conservación de los originales digitales. El objetivo básico de su esfuerzo está orientado en no perder, como es lógico, los trabajos nuevos, estáticos y dinámicos, que están realizando ahora. Algunos consideran que sus obras virtuales estáticas –sus cuadros– solo cobran realidad cuando aparece un comprador, y entonces realizan la única impresión que están dispuestos a hacer –su modo particular de resolver el problema del original en este mundo infinitamente replicable–. Pero como no todas las obras se venden, muchos de sus trabajos virtuales no se imprimirán hoy, ni tampoco en el futuro cercano. ¿Qué pasaría si apareciera un hipotético comprador dentro de 15 o 20 años? ¿Se podrá reproducir el cuadro u obra con el software futuro? ¿Qué pasaría si un museo de arte decidiera adquirir alguna de sus obras dinámicas, como una animación con video y sonido digital, porque la juzga como un ejemplar valioso del artista o una rica expresión de una corriente artística de inicios del siglo XXI? ¿Puede confiar el museo en que el software futuro reproducirá adecuadamente lo que quiso hacer el autor con esa creación, tal como se reproducía originalmente?[2]
Hay que afrontar con resignación el hecho de que muchas de las obras digitales “antiguas” –es decir, desde mediados de la década de 1980 hasta fines de la de 1990– se perdieron. Y nadie está muy seguro, ni tiene mucha información, sobre qué pasará en el futuro con esos archivos digitales maestros, ya sea dentro de 25 o 70 años.
En las instituciones de la memoria en la Argentina existen –frente a la cuestión de la preservación digital– un marcado interés y una conciencia crecientes, pero muy pocos ejemplos de proyectos concretos orientados a dar alguna respuesta o solución. Con toda imprudencia, dado que no me especializo en la problemática particular de los museos de arte, considero que puede ser de utilidad hacer un planteo general del problema de la preservación digital, poniendo énfasis en el concepto de lo efímero desde un lugar que no remite a objetos orgánicos y degradables, sino en lo efímero que es propio de la “naturaleza” de los objetos digitales y del entorno de hardware y software en el que se crean y se conservan. Si ayudara con esto a movilizar y disparar discusiones entre creadores, curadores e instituciones del mundo del arte, a tomar conciencia de los riesgos que son inseparables de toda información nacida digital o digitalizada, mi objetivo estaría cumplido.
Debido a la particular “naturaleza” de la tecnología digital, caracterizada por ciclos rápidos de cambio en el hardware y el software,[3] cualquier archivo codificado binariamente se ve en riesgo de perder su calidad de accesible, una vez que esa evolución tecnológica suponga la dificultad –o directamente la imposibilidad– de reproducirlo –abrirlo, verlo, imprimirlo– respetando las características únicas que su autor quiso darle.
En el mundo de la creación artística, como en todos los ámbitos de la vida social, el impacto de la tecnología digital ha sido profundo. Desde una mirada optimista, esto supuso disponer de nuevas herramientas y posibilidades para la creación y la manifestación de la actividad artística. Pero nuestra estrecha relación cotidiana con las computadoras, el e-mail, los escáneres, las cámaras digitales y las aplicaciones informáticas que habitualmente usamos, más el evidente avance de la tecnología –reflejado profusamente en los medios de comunicación–, generan una ilusión riesgosa: la información “está ahí, y siempre va a estar ahí” porque es digital y casi ubicua, aunque nadie se ocupe de ella.
En unas jornadas, realizadas en Barcelona,[4] sobre el futuro de las instituciones de archivo en la era digital, una participante autora de blogs manifestaba con absoluta confianza que a ella no le preocupaba la preservación de los archivos digitales “porque… es software. Siempre vamos a encontrar un programa por Internet que sea capaz de abrir archivos en formatos antiguos”. Luego de lo cual relativizaba el papel que los archivos y museos iban a desempeñar en el futuro, imaginando que la interacción digital distribuida, descentralizada y virtuosamente anárquica de ciudadanos virtuales llegaría a reemplazar las funciones de aquellas instituciones.
Esa confianza suele encontrarse también en la creencia generalizada de que digitalizar materiales antiguos y valiosos de archivos históricos, museos y bibliotecas automáticamente pone a salvo esas copias electrónicas de la degradación y eventual desaparición a las que están condenados, con el tiempo, los originales analógicos. Desde esa confianza parecería que los bits y los bytes, por no presentar la desventaja de verse afectados por los factores ambientales que amenazan la integridad de los originales físicos, sostienen la promesa de una disponibilidad y supervivencia prácticamente infinitas, gracias a su pertenencia a un mundo virtual, intangible.
Lamentablemente, éste no es el caso. Una de las paradojas de la revolución digital consiste en que se ha logrado la hazaña de crear soportes de información codificada capaces de contener desde decenas de miles de páginas de textos, fotografías y mapas hasta películas en alta definición,[5] pero, al mismo tiempo, con una esperanza de vida tan corta que desafía y relativiza todo lo que aprendimos sobre conservación de los soportes tradicionales.[6] El aumento exponencial en la densidad de información inscrita en los soportes digitales se ha visto acompañado por una reducción igualmente impactante del ciclo de vida útil de esos contenedores de información.

Paul Conway, Preservation in the Digital World, Council on Library and Information Resources, marzo de 1996. Traducción al español por el Centro Nacional de Conservación y Restauración, Santiago de Chile, 2000. [Consultar artículo completo de Paul Conway en el que se incluye este gráfico (en español) en http://dglab.cult.gva.es/Archivos/Pdf/DIBAMpreser.digit.pdf.]
Este gráfico, tomado de Paul Conway, un pionero de la preservación digital, ilustra esta situación: las primeras tabletas de barro cocido o los papiros contenían pocos caracteres, pero algunos de ellos llegaron hasta nosotros, miles de años después de su creación, encontrados en cuevas o excavaciones arqueológicas, y su información todavía es accesible a simple vista. Más adelante, desde la invención de la imprenta, el mundo tuvo una disponibilidad creciente de libros capaces de sobrevivir por centurias, pese a los factores de degradación del papel y las tintas. O, si se quiere, pensemos en manifestaciones pictóricas como las pinturas rupestres, que pudieron sobrevivir hasta hoy, aunque durante siglos nadie se ocupó de preservarlas. Esta generosidad en la “perduración no asistida” es una característica propia del mundo analógico. Incluso cuando la degradación existe, la parte sana del papel escrito, de la pintura rupestre o de la tableta de arcilla todavía tiene información accesible a simple vista. Los objetos del mundo físico, analógico, como contenedores de información, son tolerantes a daños parciales. Obviamente, esto es posible porque la información es visible al ojo desnudo, no está mediada por tecnología alguna, y solo se requiere luz para que funcione nuestro sistema visual.[7]
Lamentablemente, los objetos digitales no comparten estas características: alcanza con que unos pocos bytes estén corruptos para que un archivo de texto o una imagen digital ya no se pueda abrir con el software habitual. Los modernos soportes informáticos como los DVD o los dispositivos USB[8] pueden contener una cifra astronómicamente superior de caracteres sobre la misma unidad de superficie que la utilizada por una hoja de un libro, pero su durabilidad se mide en muy pocos años.
Y éste es solo el inicio del problema. Aunque estos nuevos soportes digitales durasen dos mil años, como algunas tabletas de arcilla, eso no significaría que sus datos resultasen accesibles para los usuarios futuros. No solo por durar conseguirían presentarnos algo que pudiéramos considerar como información inteligible. Para apreciar en su totalidad en qué consiste el problema, es necesario volver a hablar de la “naturaleza” del mundo digital.
La información en formato digital, sea cual fuere, nunca es visible ni accesible como tal. Cuando vemos una foto digital en nuestro monitor, o una obra de arte, leemos un texto electrónico o un e-mail, escuchamos música en MP3 o disfrutamos de una película en DVD, estamos accediendo a una representación analógica del archivo digital, y lo mismo ocurre cuando imprimimos o proyectamos ese archivo.
Dado que los humanos somos seres analógicos, nuestro sistema perceptivo necesita representaciones analógicas para poder entender de qué se trata la información a la que estamos accediendo. El monitor de la computadora, el proyector digital, la impresora y el reproductor de CD de música nos proveen de una salida analógica de los archivos digitales, única forma en que para nosotros esos archivos se convierten en algo apreciable, inteligible.
Y para que esto ocurra, necesitamos que exista hardware y software que, por medio de una serie de procesos, logren que los archivos binarios formados por cadenas de ceros y unos se nos representen como una foto, un texto en cierto idioma, música, etc.
En suma, si la información digital se forma y se guarda como ceros y unos –y hoy en día se trata de millones de ceros y unos en un video, archivo de música o una foto digital–, en ese estado “natural” son puros datos opacos, incomprensibles para nosotros; no son información en el sentido habitual del término. Solo cuando tenemos la combinación adecuada de hardware y software podemos “abrir”, “visualizar” o “reproducir” esos archivos digitales, traducidos a una representación analógica capaz de portar un sentido o mensaje.
Tanto es así que cuando intenté mostrar los famosos ceros y unos de un archivo digital en el monitor, para un ejemplo didáctico, tuve que buscar software especial para lograrlo: los ingenieros informáticos saben que necesitamos de esa traducción y, con toda razón, no se les ocurre que un usuario normal quiera “ver” los datos crudos binarios que son la “esencia” de los archivos digitales.
Es como si dijéramos que los datos binarios de los archivos digitales necesitan de un traductor para que se conviertan en información, en música, texto, una película o lo que fuere. Pero resulta que ese traductor, que es la combinación compleja del hardware, el sistema operativo y la aplicación en particular capaz de entender ese archivo digital y abrirlo, se muere con relativa rapidez, y las nuevas generaciones de traductores que lo remplazan no siempre saben cómo leer los archivos creados por sus antecesores –las generaciones tecnológicas anteriores–, o solo los leen parcialmente, con resultados imprecisos o directamente incorrectos. Y es seguro que, si dejamos pasar un período lo suficientemente largo,[9] los traductores futuros ya no serán capaces de entender el código original con el que se crearon los archivos.
En rigor de verdad, cada vez que encendemos una computadora y la pantalla nos muestra algo inteligible como el simple mensaje de que el sistema operativo está arrancando, en vez de los ceros y unos de los datos digitales que se están procesando realmente, es porque ya hay algún software que está realizando esa traducción para nosotros. Cuando chateamos en Internet, las palabras que leemos y escribimos no son lo que se trafica por la red, sino códigos de ceros y unos que los distintos programas y protocolos de Internet saben finalmente entregar al usuario como un texto legible: otra vez, el resultado de una operación de traducción, aunque no nos demos cuenta.
Por consiguiente, si para acceder y reproducir cualquier archivo digital necesitamos de esos “traductores tecnológicos”, eso significa que dependemos absolutamente de ellos para asegurar el acceso liso y llano a la información, sea cual fuere. Tal situación de dependencia para el acceso no sería problemática si la tecnología que crea esos traductores se mantuviera estable y pudiéramos usar tranquilamente el mismo traductor dentro de cien años. Pero, debido al veloz cambio tecnológico, eso no ocurre, y, así, la rápida obsolescencia de hardware y software amenaza la posibilidad de acceder a la información digital si no tomamos medidas hoy, cuando se crea la información. El acceso puede perderse y ya hay muchos ejemplos de esto.
Si eso ocurre, habremos perdido el acceso a la información digital, no por problemas del estado de salud de los soportes, sino por algo más grave, que es la pérdida de la capacidad de “traducción” del código original. Esa pérdida del acceso, en el mundo digital, puede compararse a los efectos de un incendio devastador en un museo o un archivo que conserva materiales físicos. Pensemos en los datos guardados en las antiguas tarjetas perforadas de la década de 1960, o en los disquetes de 5 ¼ en uso hasta hace poco más de diez años: aunque no tengan problemas de conservación física, sería muy difícil acceder a la información allí guardada, ya sea por falta de los dispositivos de lectura, hoy obsoletos, como por la dificultad de encontrar software actual capaz de “leer” y “traducir” esos datos codificados con programas ya en desuso.
Habituados como estamos a pensar la preservación y la conservación desde el paradigma de los eventos físicos, analógicos, podríamos estar tentados de creer que la sola preservación física del soporte basta para preservar también la información contenida, algo que es cierto con los antiguos manuscritos o impresos de los archivos y bibliotecas –y sus versiones en microfilm–,[10] pero no con los objetos del mundo digital, donde la conexión íntima, propia del mundo físico, entre el soporte y el contenido se ha escindido. Y, mientras existe, esa conexión es eventual, temporaria, cambiable, no una característica intrínseca del objeto digital, ya sea una obra de arte o una foto digital casual.[11]
Para resumir estos nuevos problemas, derivados de las nuevas tecnologías, podríamos decir, citando a Paul Conway, que la preservación digital es la preservación del acceso, o, mejor dicho, la preservación del carácter “accesible” de la información digital, a través de los ciclos de cambio tecnológico del hardware y el software, nuestros “traductores”.
Algunos piensan que todas las estrategias de preservación digital disponibles consisten en aplicar soluciones de corto plazo a un problema de largo plazo. Y es que la incertidumbre frente a los cambios tecnológicos del futuro –que impactarán sobre los archivos digitales que se crean hoy en modos difíciles de anticipar– significa que tenemos que prepararnos para cambiar de un modo controlado, aunque no se sepa bien cómo va a ser ese cambio. Y esto a veces nos puede llevar a situaciones un poco “paranoicas”, tratando de prever aquello que todavía no nos es dado a conocer.
Frente al reto de la preservación digital, dos grandes líneas de pensamiento, de formación de estrategias, se van delineando entre los profesionales y las instituciones involucradas. Las palabras clave aquí son las de migración y emulación. La principal diferencia entre ambas estrategias radica en la decisión de modificar, o bien dejar intacto, el código binario original del archivo digital a preservar.
Desde la perspectiva de la migración,[12] mantener el acceso significa hacer todo lo necesario y estar bien preparados, desde hoy, para recodificar el archivo digital “A” bajo un nuevo formato “B” del futuro, que lo remplace fielmente y tenga la capacidad de ser bien entendido por las combinaciones de hardware y software que vendrán más adelante. Y, además, hacerlo antes de que el formato inicial “A” se haya vuelto del todo obsoleto. De ese modo, se mantendrían accesibles y en valor las colecciones de objetos digitales que se crean hoy, adaptándolas a las tecnologías futuras.
Los defensores de la emulación, por su parte, confían en otro tipo de solución. Si la tecnología cambia, nos dicen, y nosotros convertimos los archivos a nuevos formatos, se corre el riesgo de incompatibilidades o inadecuaciones entre el formato A y el B, y luego entre el B y el C, y así sucesivamente, lo que puede llegar a provocar que luego de varias migraciones ya no se conserve el archivo original, que pierda demasiados elementos que le eran propios como para considerarlo una copia de preservación. Con lo cual ya no se cumpliría con uno de los objetivos básicos de la preservación: mantener una copia fiel al original.
Por ejemplo, si un artista digital creó una animación de video y sonido con un determinado software y la guardó en cierto formato, propio de ese software, ¿qué pasará cuando, en el futuro, nos veamos obligados a migrar esa animación a otro formato, para preservar la obra, porque aquél tiende a desaparecer y ya no habrá software capaz de reproducirla? Se corre el riesgo de que el nuevo formato/programa no sea capaz de reproducir todas las características de la animación original; que la interacción entre el público y la obra no pueda mantenerse tal como la pensó el autor. Las instituciones podrían decidir que cierto grado de pérdida o alteración es aceptable mientras se conserven las características esenciales de la obra.[13]
Con el tiempo y las recurrentes migraciones, el problema podría agravarse, llegando a un punto en el que ya no se guarde correspondencia con la intención original del autor y las características esenciales de la obra –¿y quién decide cuáles serían esas características para preservar, si se acepta que no hay más remedio que tolerar alguna pérdida o alteración?–. Es por estas razones que una parte de los involucrados en preservación de materiales digitales confían en la otra vía propuesta: la emulación por medio de software.
Dado que es imposible mantener las computadoras y el software de una época determinada indefinidamente en uso, algunos proponen desarrollar software que emule el funcionamiento de antiguas combinaciones de hardware y sistemas operativos. Es decir, unas máquinas virtuales que se comporten como lo hacía el hardware y software del pasado, permitiéndonos abrir los archivos en sus formatos originales, sin modificarlos en absoluto. En ese caso, el esfuerzo se reduciría a preservar con buena salud los archivos originales y los soportes donde se guardan, limitándose a refrescar y copiar los archivos a los nuevos que van apareciendo (de disquete a CD, y de CD a DVD, de un servidor a otro de nueva tecnología, por ejemplo) para evitar la obsolescencia de los soportes. Pero, para tener éxito, tendríamos que asegurarnos de que esas máquinas virtuales se sigan desarrollando sin cesar para abarcar a las actuales y futuras generaciones de hardware y software, a medida que dejan de usarse y se vuelven obsoletas. Todavía no existe hoy ninguna institución o asociación de instituciones que garantice tal cosa, pero podría ocurrir en el futuro si este campo de trabajo logra apoyo técnico y financiero sostenido, tal vez con ayuda de los gobiernos y de las grandes instituciones.
Por ahora, solo tenemos los casos de los emuladores de los juegos de consolas electrónicas de las décadas de 1980 y 1990, y una máquina virtual desarrollada por el equipo de preservación de la Biblioteca Nacional de Holanda con apoyo de IBM, llamada Dioscuri, que emula antiguas PC XT con sistema operativo DOS. Como la mayoría de las herramientas para preservación digital, se trata de software libre que se puede bajar de Internet. Si bien muy interesante y prometedora, es todavía una prueba de concepto a la que le falta mucho trabajo y casos de aplicación real.
Para no dar una falsa impresión, se debe decir que la estrategia de la migración o conversión de formato ya está siendo sido utilizada por muchas instituciones que intentan preservar archivos digitales, por lo menos en casos de colecciones de imágenes fijas como las producidas por escáneres o cámaras fotográficas digitales. Las objeciones que se plantean a la estrategia de la migración recurrente, por los efectos adversos de la acumulación de errores o pérdidas de información o de conductas, puede que sean más preocupantes cuando se trata de archivos digitales cuya reproducción implica interacción en tiempo real con el usuario, o donde la información cambia con la variable tiempo, como ocurre con las animaciones o ciertos eventos de las páginas web. En todo caso, es posible que se terminen utilizando ambas estrategias, en función del tipo de archivo digital que se quiera preservar.
Por supuesto, buena parte de esta discusión no se vincula directamente con los autores de las obras digitales, ni se les podría pedir que realicen un trabajo tan costoso y complejo para preservar sus obras. Se trata de la clase de discusión que se da entre las instituciones que tienen la misión de preservar las obras para las futuras generaciones. El esfuerzo requiere una amplia colaboración, estándares y políticas en común, y modos de financiar esas actividades nuevas, además de seguir investigando las mejores opciones a medida que la tecnología evoluciona y cambia.
Ésta es una nueva área de trabajo y de profesionalización en el mundo de la preservación, y tiene el atractivo de enfrentar uno de los grandes desafíos de nuestra época. Ya existen programas institucionales para preservar todo tipo de información digital: desde sitios web considerados valiosos culturalmente, hasta producciones científicas y técnicas y diversas manifestaciones artísticas. La lista es larga y va más allá de los materiales más típicos y obvios conservados en las instituciones de la memoria. Por otro lado, es un área muy activa, que ha producido muchos avances en los últimos años: desde un marco de referencia teórico para la preservación digital con un alto grado de abstracción,[14] hasta el surgimiento de nuevos esquemas de documentación y descripción de colecciones digitales orientados a las necesidades de la preservación de largo plazo.[15]
En paralelo con la migración y la emulación como estrategias de preservación de los archivos, se está realizando un gran esfuerzo para la definición y aplicación de esquemas de metadatos, especie de contenedores de información normalizada y estructurada –generalmente en lenguaje XML– que ayuda de muchas formas en la preservación digital.[16] Y hay un muy fuerte consenso internacional acerca de la importancia de utilizarlos bajo normas en común, permitiendo la interoperabilidad entre repositorios institucionales.
Si algo va quedando claro, por las líneas de evolución de los saberes y prácticas del campo de la preservación digital, es que la tarea es exigente, reclama calificación, recursos y una escala de trabajo sustantiva. Preservar para el largo plazo.
- En este punto el autor hace referencia a obras digitales creadas para ser impresas sobre papel. (Nota del editor).↵
- Para más información sobre esta problemática, consultar los artículos “Cambio de percepciones en la conservación”, de Carol Strignari, y “Conservación del arte creado con computadoras en el Museo de Arte Moderno de Nueva York”, de Glenn Wharton, en este mismo volumen. (Nota del editor).↵
- Decimos “rápidos” desde la perspectiva temporal de conservación de obras en museos y archivos, la que excede largamente el lapso durante el cual una tecnología digital dada puede considerarse como estable y sin cambios sustantivos.↵
- La mesa redonda “El futuro de los archivos” se llevó a cabo el 1º de julio de 2010 en el Centre de Cultura Contemporània de Barcelona. (Más información en http://www.cccb.org/icionline/el-futuro-de-los-archivos/).↵
- Piénsese, por ejemplo, en la evolución de los simples discos ópticos de 12 cm de diámetro (CD, DVD, Blu-ray), baratos, de uso masivo y cada vez con mayor capacidad de almacenamiento.↵
- Desafortunadamente, el comprensible deslumbramiento de nuestra época por la “revolución digital” y sus impactantes novedades no nos ayuda a tomar conciencia de estos nuevos riesgos, y a su vez opaca la necesidad de desarrollar nuevas estrategias para enfrentarlos, en favor de la preservación de la memoria histórica y cultural de nuestras actuales sociedades.↵
- También existen casos de información en soportes analógicos que requieren mediación tecnológica para su acceso, tales como las grabaciones magnetofónicas en discos o casetes, y los materiales en video como el VHS, por ejemplo. Y presentan otro serio problema de preservación, por la obsolescencia y desaparición de los equipos grabadores/reproductores y la degradación de los soportes. Paradójicamente, la digitalización podría ser la última esperanza de mantener con vida las grabaciones analógicas sobre cintas magnéticas.↵
- Y para el caso, también los discos rígidos de nuestras computadoras, así como los discos rígidos externos.↵
- Período que se ha revelado notablemente corto, no solo desde la “larga perspectiva” propia de las instituciones de la memoria, sino desde la simple expectativa de vida de cualquier ser humano.↵
- En las primeras épocas de los proyectos de digitalización en bibliotecas y archivos, era habitual escuchar comparaciones sobre la durabilidad de los microfilms frente a la de los discos ópticos WORM con imágenes digitales, lo que de hecho significaba aceptar que el problema principal residía en el ciclo de vida útil de los soportes físicos de la información. Hoy sabemos que esa forma de ver las cosas deja en sombras problemas más serios en lo que hace a la preservación de información digital.↵
- Los trazos o tipos de tinta que forman las letras de un manuscrito o impreso original han penetrado en el papel, son inseparables de su soporte. La emulsion (portadora de la imagen) del microfilm está unida física y químicamente al soporte. En cambio, el código binario de un archivo digital puede separarse de su soporte y copiarse idéntico en otros soportes: el problema es contar con el software adecuado (y su hardware requerido) para “traducir” ese código original. ↵
- Entiéndase migración como cambio o conversión de formato, tal como ocurre si abrimos un archivo TIFF y lo guardamos en formato PNG, sin modificar ninguna otra variable de la imagen. Se supone que la imagen debería quedar y lucir exactamente igual al “original” en formato TIFF, aunque se haya cambiado su codificación.↵
- Así como en las bibliotecas se aceptó la conversión a microfilm de alto contraste para materiales impresos, aunque este medio no conserve todas las características visibles del ítem original, como el color amarillento del papel antiguo o la tonalidad de las anotaciones manuscritas.↵
- Nos referimos al Marco de Referencia OAIS (Open Archival Information System), norma ISO 14721:2003, muy influyente para el diseño de repositorios institucionales confiables. ↵
- Metadata Encoding and Transmission Standard (METS) y Preservation Metadata: Implementation Strategies (PREMIS), mantenidos por la Library of Congress de los Estados Unidos.↵
- Se espera que esa información normalizada permitirá a los “conservadores digitales” del futuro conocer la “historia curatorial” de las colecciones electrónicas preservadas, para proseguir con la tarea de manera segura e informada. ↵