Desde sus primeros trabajos y hasta finales del siglo pasado nuestro autor abordará la historia de los medios ópticos. En un conjunto de publicaciones Kittler pone en evidencia las relaciones entre teoría de los medios y estética, al tiempo que privilegia análisis arqueológicos y genealógicos de los principios y técnicas de almacenamiento, transmisión y procesamiento de la luz y de los colores.
Por un lado, su genealogía de los medios ópticos recupera una breve historia estética, pues arte y técnica se presentan para el pensador alemán como dos formas diferentes de alterar los límites de la visualidad y de lo visible, así como las fronteras de la temporalidad. De ese modo, Kittler comprende la noción de estética como sensación (aísthesis) estrictamente ligada a materialidades variables de la percepción y dependientes de la factibilidad tecnológica. Por ello, sus lecciones se detienen en la óptica como subcampo de la física y de la fisiología (cfr. Peters en OM). Así, como señala Fliethmann (2011), las investigaciones de nuestro autor no se preguntan cómo o qué significan las imágenes o cómo varían históricamente sus sentidos de acuerdo a distintos contextos (como harían algunos visual studies). Al contrario, se enfocan en las tecnologías (arquitectónicas, pictográficas, fotográficas, fílmicas y televisivas) de mediación y reorganización de la visión y en el impacto que han tenido en el proceso de generación de formas ópticas. En otros términos, Kittler desanda el a priori técnico de las imágenes que dependen de rayos y campos lumínicos.
Por otro lado, Kittler (2015a [1991]) parecería retomar los hilos que, según su lectura, dejó abiertos Foucault al pensar una posible historia de los pigmentos, que estaría ligada al análisis del poder arraigado en condiciones de luminosidad[1], en tanto las relaciones de fuerzas son también conceptualizables como arquitecturas de luces o complejos de visibilidades más allá de lo enunciable, y se podría decir que los medios técnicos justamente soportan lo visible desapareciendo del centro de lo que es visto: la historia de las normas técnicas resta por ser problematizada. En esos términos nuestro autor amplía el rango de exploración a los estándares técnicos de la mediación óptica como verdaderas relaciones de fuerzas emplazadas en el hardware, pues, como vimos, Kittler postula una transposición –que no deja de ser problemática– de los conceptos foucaultianos a términos electrónicos como potencia y control. Estos le permiten evaluar la productividad y la positividad del poder del sistema 1900.
I. Almacenamiento de imágenes: fotografía
Kittler apunta que durante largos períodos las imágenes eran pintadas, pero no podían ser almacenadas ni transmitidas, a menos que se las guardara en templos, catacumbas o iglesias o fueran distribuidas como ilustraciones librescas, hasta que la historia de los medios ópticos comienza a cambiar con la cámara oscura como dispositivo para recibir y grabar imágenes y con la linterna mágica para su producción y envío. Estos artefactos –siendo artísticos y gobernados por la mano– alcanzarán su punto álgido en la perspectiva lineal del Renacimiento y en las construcciones del Barroco. Configurarán asistencias técnicas para la pintura, que –a través de la trigonometría y el cálculo de la luz– construyen la percepción visual moderna y propenden a la automatización separada de los estándares humanos[2]. De hecho, estos aparatos comenzarán a formar una tecnología medial óptica diferenciada de las manos del artista (una esfera autónoma)[3].
No obstante, Kittler (OM: 118) se detendrá en cómo las imágenes comenzarían a ser almacenadas (procesadas y transmitidas) con el desarrollo de la fotografía y luego del film, pues, si bien los artefactos artísticos son antecedentes, para nuestro autor, no hay linealidad en el desarrollo de la historia de los medios, ya que el perfeccionamiento de la pintura no hace posible la transición de las artes visuales a los medios ópticos. En ese sentido, los medios técnicos no pueden ser pensados como meras copias de habilidades humanas, por ello propone otras líneas genealógicas para la fotografía.
De acuerdo con Kittler, ya desde mediados del siglo XVII anatomistas y botánicos buscaban automatizar las ilustraciones bajo el modelo de la reproducción tipográfica, con el propósito de demostrar la autoimpresión y el autoalmacenamiento de hojas vegetales. A estos intentos de generar imágenes automatizadas, el historiador alemán suma tanto la exploración de pigmentos como los experimentos alquímicos que permitirían conocer efectos fotoquímicos y sustancias fosforescentes. Con ellas, los magos, las sociedades secretas y algunos artistas podían crear sus fantasmas, mientras que el estudio de los efectos fotosensibles quedará ligado a los orígenes de la química[4] (como lo demuestran los análisis experimentales con fósforo y con sales de plata). Al mismo tiempo, la imprenta –que hasta ese momento seguía dominando la aproximación simbólica a las imágenes– comenzaría a generar modelos de grabado factibles. Así, en la década de los noventa del siglo XVIII, A. Senefelder inventaría la litografía, que haría posibles ilustraciones e impresiones masivas a partir del principio técnico de la grasa insoluble.
Con base en esos inventos, los hermanos Niépce comenzarían a desarrollar formas de automatizar la producción litográfica. En particular, J. Niépce se dedicaría a testear todos los materiales sensibles que la química de su época tenía disponibles y descubriría, a mediados de la década de los veinte del siglo XIX, que la combinación de placas de estaño y cobre emulsionadas con asfalto permitía grabar las imágenes de una cámara oscura y luego positivarlas mediante ácidos. Es sabido que el inventor francés llamó a este proceso heliografía, otorgándole al sol la habilidad de grabar imágenes de objetos iluminados y sin la operación de la mano del pintor.
Para perfeccionar la heliografía, Niépce trabajaría en conjunto con L. Daguerre, pintor de panoramas, quien –esencialmente liderado por accidentes experimentales– introdujo un proceso mejorado al utilizar una placa de cobre revestida con yoduro de plata. Con ello, los daguerrotipos iban a ser más simples, tendrían un tiempo de exposición menor y sus imágenes serían más estables. El inventor –que, subraya Kittler, lleva la guerra en su nombre– optaría por tomar imágenes bajo condiciones naturales, donde cambiaba la luz solar en lugar de reproducir códigos simbólicos.
Para nuestro autor, si los inicios de la fotografía, por un lado, suponen cierta relación competitiva entre arte y tecnología de los medios, por otro, estas innovaciones accidentales marcan un momento crucial, pues las invenciones empiezan a ser producidas y reproducidas a través de encadenamientos entre física, química y técnica. Esto es, comienzan a existir “sustancias y máquinas artificiales que son capaces de reaccionar unas con otras” (OM: 130) sin intervención humana o, al menos, sin encontrarla en todas las etapas directivas. Este proceso luego será metodológicamente implementado en laboratorios de investigación y desarrollo (como los de Edison), y hoy es legible en las computadoras que diseñan los chips de sus descendientes por vías mayormente automatizadas. Con ello se garantiza la reproductibilidad y la sucesión de invenciones en ensamblajes donde la agencia humana es solo un eslabón en la cadena de procedimientos.
Así, aunque los daguerrotipos eran mejoras sustanciales a la heliografía, tenían como desventaja el hecho de que su proceso solo producía una imagen que no podía ser copiada. Este problema fue abordado por W. H. F. Talbot en Inglaterra, quien utilizó papel transparente sensibilizado que podía ser expuesto y a partir del cual se creaba un negativo para multiplicar las impresiones, además de permitir procesos de escalado. Las consecuencias de la invención de Talbot, patentada como calotipo, serán copias, relativamente ilimitadas. Con ello, según Kittler, la fotografía deviene en un medio de masas, pues Talbot haría para la reproductibilidad óptica lo mismo que Gutenberg había logrado para la tipográfica.
Sin embargo, para hacer posibles las condiciones de los filmes, el nuevo medio óptico tenía que separarse eventualmente de la tradicional imprenta. A mediados de la década de los ochenta del siglo XIX, G. Eastman propone el celuloide como una nueva materialidad para el almacenamiento y la reproducción (diferente al metal, al papel, a la madera o al vidrio). Con ello, para Kittler, “la extraña media transparencia que llamamos film” será la implementación fotográfica de la tecnología de la prensa rotativa. De hecho, Eastman emplazó estos rollos en una sola cámara automatizándola (Kodak). También con la invención del film, para Kittler, llegamos a la era del capitalismo más extendido, donde se tendrá más de una opción epistolar (carta o telégrafo) e imagética (pintar o fotografiar).
Como se ve en este condensado recorrido (que no pretende ajustarse a la compleja historia de la fotografía), para nuestro autor la era de los medios ópticos analógicos libera el acto de la descripción gráfica de la mano, al tiempo que se reestructura la percepción visual. El ser humano ya no es el señor del registro del universo cognoscible y las máquinas fotoquímicas capturan tareas que alguna vez solo tuvieron implicancias antropocéntricas. Por ello, “[l]os medios […] tienen en lo real mismo una referencia a la materialidad con la que trabajan. Las placas fotográficas registran las huellas químicas de la luz; los discos, las huellas mecánicas del ruido” (VMT: 140). Sin embargo, como afirma Peters (OM: 16), si para Kittler el gran desarrollo de los medios analógicos es el almacenamiento y la manipulación de procesos temporales, “su problema principal será la falta de interoperabilidad entre los sistemas”. La posibilidad de la reunión tiene que esperar al momento electrónico, aunque aún quedará distante la capacidad de trabajar la luz en tanto luz y no solo como efecto o trazo.
II. Tecnología del imaginario: film
A través del análisis de los ensamblajes técnicos[5], Kittler subraya que, así como el fonógrafo necesitó de la acústica como objeto de investigación psicofisiológico y físico, el film se volvería concebible luego de dos condiciones de la óptica. La primera fue el estudio de las imágenes persistentes (desde Goethe a Fechner). La segunda condición fue el efecto estroboscópico, que transforma el flujo continuo de movimiento en intervalos modificando la frecuencia cero (que había sido la tasa en la que todas las obras de arte fueron representadas hasta el siglo XIX).
Así, nuestro autor se detiene en las ilusiones ópticas de J. Plateau, quien –de forma independiente a los estudios de M. Faraday– completaría el fenaquistiscopio (un juguete científico rotatorio), pero mientras los peep shows y la linterna mágica dieciochescos presentaban escenas diferentes del vía crucis, las imágenes del profesor belga eran tomadas de un solo y mismo sujeto en movimiento (bailarinas, malabaristas, etc.). Múltiples innovaciones seguirían hasta que, varias décadas más tarde, E. Reynaud, en Francia, desarrollase su conocido praxinoscopio, un diseño de tiras flexibles y perforadas con dibujos animados (cfr. Chausovsky y Rossi, 2015). De acuerdo con Kittler, el interjuego entre perforaciones y mecanismos de agarre garantizaban una sincronización visual; sin embargo, el film aún no era posible ya que la fotografía instantánea no estaba desarrollada lo suficiente para la velocidad estroboscópica, al tiempo que Reynaud rechazaba reemplazar sus diseños artísticos con fotos (OM: 154).
Hacia el decenio de 1870, E. Muybridge comenzaría a experimentar en Palo Alto con doce cámaras instantáneas construidas para registrar y estudiar el movimiento en alta velocidad. Las capturas estaban pensadas para instruir a pintores sobre la fisiología del movimiento de caballos de carrera, y concluyeron en el denominado zoopraxiscopio, de 1879. En 1882, E. J. Marey, profesor de historia natural en el Collège de France, buscaría optimizar el procedimiento de Muybridge. Para ello reduce la cantidad de cámaras de doce a una sola, con lo que inventa la fotografía serial. Marey utilizaría, primero, placas de vidrio y, luego, implementaría celuloide, y produce la primera cámara en serie para filmar aves en vuelo. El fotógrafo basaría su diseño en los trabajos del astrónomo francés P. Janssen, quien había convertido un revólver en un dispositivo para capturar el planeta Venus en 18 tomas. Marey llama a su artefacto fusil cronofotográfico, pues, cada vez que apretaba el gatillo, el arma producía una fotografía instantánea en un tambor que contenía los restantes negativos no expuestos.
Para Kittler (GFT, 1992a, OM) no es azaroso que la historia de la cámara de cine coincida con la de las armas automáticas, pues el almacenamiento y la transmisión de imágenes repetirá el cargar y disparar balas, como lo evidencia el término shoot. Con ello, la invención fílmica depende de ensamblajes marciales. Dice nuestro autor de forma provocadora que, así como el revólver Colt y las ametralladoras Gatling apuntaban a los nativos americanos o a los mexicanos, el cronofotógrafo impulsaría los mismos patrones de la muerte mecanizada, pero con una diferencia fundamental: “mientras que las armas aniquilaban a sus objetivos, las cámaras los harían inmortales” (GFT: 124; OM: 145).
En 1891 G. Demeny (un asistente de Marey) comenzó un trabajo sobre lo que denominaba “fotografía del habla”. La meta era sincronizar los datos acústicos derivados del fonógrafo de Edison y el fusil cronofotográfico, con el objetivo de enseñar a personas sordas. La misma estructura parece darse para nuestro autor cuando, por ejemplo, subraya el hecho de que Morse fue pintor y experimentó con la fotografía antes de desarrollar el telégrafo. Así, el acoplamiento entre tecnologías de los medios acústicos y ópticos estaba pensado mucho antes de la introducción del film sonoro, pues para el alemán, como sabía Wagner, siempre hay un horizonte multimedial antes que medios aislados (GFT: 170; OM: 133).
Fundamentalmente, la prehistoria del cine comienza cuando se convierte al celuloide en un sistema completo de almacenamiento y transmisión read-and-write y, por lo tanto, forja una sintaxis particular que deberá apoyarse en lo imaginario por dos motivos tecno-genéticos fundamentales (GFT: 117). Primero, en lugar de almacenar ondas de luz, graba sus efectos químicos en negativos. Los flujos de datos ópticos consisten en altas frecuencias y requieren miles de unidades de luz por unidad de tiempo, que deben ser transmitidas para presentar una imagen moviente bidimensional. Ello necesita un aumento de las capacidades de procesamiento de señales ópticas en tiempo real (algo que a inicios del siglo XX aún es cosa del futuro).
La segunda razón es que, para nuestro autor, si los cortes, montajes y manipulaciones de las grabaciones acústicas llegan al final de la historia del fonógrafo, la historia de las imágenes en movimiento los tiene en sus comienzos. Esto marca una diferencia profunda, pues las continuas ondulaciones registradas en los surcos del gramófono son materias primas de lo real, que solo secundariamente serán seccionadas y manipuladas por vías electrónicas, mientras que todas las secuencias del film emergen de escaneos, extractos, selecciones; la estética y las semióticas mismas del cine se apoyarán en cuadros y cortes por segundo.
De esta argumentación, Kittler extrae al menos tres consecuencias. En primer lugar, la conquista del imaginario lleva al cine a reestructurar el lugar nutrido por la poesía romántica. Así, los filmes se pliegan sobre lo fantástico, que antes llevaba el nombre de literatura y era linterna mágica de la imaginación. Para Kittler ya no son la literatura o las bibliotecas las que almacenan los dobles imaginarios (VMT), sino que el cine compone un Doppelgänger imagético. Prueba de ello será para nuestro autor, por una parte, la rápida conversión de los bestsellers de finales del siglo XIX en películas y, por otra, las derivas de las vanguardias literarias que reaccionan al nuevo medio (AS, 1991b).
En segundo lugar, para Kittler, el procesamiento secuencial de cuadros que despedaza los cuerpos para reunirlos en una continuidad proyectada se corresponde al estadio del espejo lacaniano. Como es sabido, dicho estadio es especialmente importante en el desarrollo del campo imaginario porque denota el momento en el que el niño pequeño recompone su cuerpo parcializado y a su yo a partir de una imagen externa (Winthrop-Young en GFT). Para nuestro autor la cámara no solo atomiza la imagen imaginaria del cuerpo, sino que también opera como un espejo que almacena todos los dobles (Kittler y Holl, 1996). Lo imaginario tiene estatuto cinematográfico y el cine despedaza el narcisismo del esquema corporal. Como consecuencia, lo imaginario deviene en un simple truco óptico. Por ello, este conjunto de interpretaciones lacanianas sobre la naturaleza del film lo llevan a Kittler, por un lado, a detenerse en los cruces entre cine y psiquiatría desde finales del siglo XIX. Pero, por otro, le permitirán seguir a F. Guattari (1975) al señalar que el film es asimbolia (AS)[6] y pone en acto los principios psicoanalíticos sobre el cuerpo social; inscribe en niños, mujeres e insanos un inconsciente de máquinas semióticas.
En tercer lugar, para Kittler (AS; GFT; 2003b) los trucos fílmicos son estrategias de poder ya que toda la historia del cine gira alrededor de la paradoja cifrada por el problema de socavar el umbral de percepción. Los trucos, “la cámara lenta y el montaje traducen tecnología en deseos de la audiencia”. Así, mientras que los órdenes tradicionales de las artes procesaban lo simbólico, el film va más allá y transmite a sus espectadores su propio proceso perceptivo (VMT). De allí que la mayor interpenetración entre cine y estudio del aparato psíquico, Kittler la observará en la teoría de H. Münsterberg (1916). Para el profesor de psicología experimental los trucos fílmicos configuran una psico-técnica que ataca y modifica el aparato psíquico del espectador actuando directamente en los flujos de datos neurológicos y despedazando el espíritu al implementar procesos inconscientes. Así, para Kittler (OM, 1990b) las teorías de Münsterberg completan un circuito científico histórico. Por un lado, las tecnologías de los medios emergen en el siglo XIX de las investigaciones psicofísicas y fisiológicas. Pero, por otro, en las primeras décadas del siglo XX, estas tecnologías de los medios serán perfeccionadas y proveerán como contrapartida modelos e instrumentos experimentales para dichas disciplinas.
Más allá de las tres consecuencias señaladas sobre la relación entre cine e imaginario, según nuestro autor, en la secuencia histórica de entreguerras que va del film silencioso al sonoro y del blanco y negro al color se hará evidente la emergencia de soluciones mediales específicas a la sincronización audiovisual. No obstante, estas tienen asiento en los albores del medio. Por ello, el historiador alemán repara en que, con las ganancias de sus empresas de iluminación incandescente, Edison construyó un laboratorio en New Jersey, donde hacia 1888 comienza a trabajar en las películas a través de una analogía con el fonógrafo. Si se podía usar una máquina para grabar sonidos, debería ser posible registrar el movimiento a través de las fotografías. Inspirado por Muybridge y Marey, Edison propondrá, por un lado, desarrollar una cámara de grabación de imágenes en movimiento (kinetógrafo) y, por otro, una máquina de reproducción, que sería conocida como kinetoscopio. Para ello, su asistente W. Dickson recortaría el celuloide Kodak en 35 mm y establecería así un estándar para las películas, además de diseñar un engranaje –basado en el telégrafo de Wheatstone– para lograr la sincronización de las imágenes. Con ello, construyen una caja que copiaba los antiguos gabinetes de peep show pero con un motor eléctrico que impulsaba el film y estaba iluminado por bombillos mientras pasaba por un lente amplificador hacia el observador. El nuevo feedback loop erótico e individual de los kinetoscopios funcionaría en los arcades y tendrá su émulo en el mutoscopio (de gran aceptación en nuestro país (cfr. Rossi [2018]).
Hacia finales de la década de los noventa del siglo XIX el negocio de las reproducciones en galerías comienza a decaer a la luz de la reciente introducción de las proyecciones en teatros y los conocidos nickelodeons. Aunque Edison desarrollaría su propia tecnología de proyección mediante el vitascopio, serán los hermanos Lumière quienes introducen mejoras al equipamiento y lo masifican. Nuestro autor se detendrá en que, con su familia en el negocio de los materiales fotográficos, Auguste y Louis Lumière desarrollaron el cinematógrafo como dispositivo que podía grabar, copiar y reproducir imágenes en movimiento, al tiempo que facilitaba la proyección eléctrica. Con estas invenciones convierten a los espectadores en “blancos” de sus imágenes proyectadas desde la perspectiva.
Para Kittler (2000b) las primeras proyecciones estarían en el rango de posibilidades entre un realismo documental y un teatro de ilusiones[7] de los filmes de estudios (que reemplazan a la fantasía romántica), pues el único elemento que faltaba para ligar todas las posibilidades era la cámara en movimiento que llegaría con directores norteamericanos que eliminarían la similitud teatral. No obstante, la analogía entre el kinetoscopio y el fonógrafo tuvo otras implicaciones teniendo en cuenta que en el primer estudio de filmes de Edison (Black Maria) se grababa simultáneamente sonido y movimiento.
Sin embargo, la sincronización de los flujos ópticos y sonoros seguía siendo un problema, pues, mientras que en el campo óptico el procesamiento era materia de escaneo equidistante para registrar altas frecuencias, el procesamiento de la dimensión acústica de bajas frecuencias aún se basaba en flujos analógicos de datos continuos. Así, para Kittler, las dificultades con la sincronización del sonido en los filmes tienen un aspecto tecno-estético[8]. En realidad, podríamos exagerar y decir que Kittler descree de que el cine silencioso haya siquiera existido, puesto que, en sus términos, lo que los medios no podían conectar por problemas de sincronización las interfaces humanas lo suplían a través del acompañamiento acústico con pianistas o con explicadores del “proletariado académico” (OM: 190; GFT: 171).
Hasta ahora nos hemos detenido en algunos problemas fundamentales de la tecnología de los medios ópticos a través de ciertas figuras destacadas, pero dice Kittler que, sin embargo, la cuenta de las invenciones individuales comienza a flaquear, pues las patentes y desarrollos de filmes se multiplican velozmente entre 1890 y 1910. El film sonoro y luego en color emergerá de ensamblajes en la era industrial y para ello fueron necesarios grandes equipos de investigación y desarrollo.
Así, distintos hobbistas e investigadores siguieron a Edison en su intento de unir la óptica y la acústica electro-mecánica, pero para Kittler las tecnologías de entreguerras llevarían al desarrollo del film sonoro a través de la implementación de estándares que compatibilizarían las señales con feedback electrónico. De hecho, nuestro autor se detiene en los desarrollos de AT&T, Warner y Western Electric, que con amplificadores de tubo buscaron sincronizar los filmes, como en el caso del Vitaphone. En Alemania, Siemens haría investigaciones en sistemas similares y nuestro autor explora especialmente los problemas del Tri-Ergon, un sistema de film sonoro cuyo desarrollo incluiría a ingenieros de televisión (de hecho, Kittler dedica artículos específicos a seguir el trabajo tripartito de Vogt, Massolle y Engl entre 1919 y 1922).
De acuerdo con nuestro autor, con estos sistemas la electricidad devino en la infraestructura común de todos los medios y canales sensoriales, mientras que la manipulación temporal electrónica en altas frecuencias haría posible la edición de las señales acústicas y ópticas (Kittler, 2000b). También, como vimos, los resultados inmediatos llevarían a los principios de la cinta de audio magnética producida durante la Segunda Guerra Mundial y adecuada al formato film (lo que acentuaba la manipulación del eje temporal y su edición[9]). Para Kittler (1992c) la cinta de audio manipulable lleva a la música rock, a los videotapes y luego al videoclip, donde un procesamiento de imágenes o escaneo (imaging) terminaría por desterrar a la imaginación.
No obstante, para nuestro autor el cine como tecnología estaba destinado a morir en el corto plazo, pues, como dirá en OM, tanto el registro químico de imágenes como el almacenamiento y la reproducción electromecánicos están fuera de lugar en un siglo que se define primordialmente a través de la conversión de los medios tradicionales a la electrónica.
III. Transmisión y procesamiento óptico: televisión
Como afirma J. D. Peters en la introducción a la versión inglesa de OM, la historia kittleriana de la televisión es diferente de las narrativas que –bajo los estudios culturales– parten de explicar las condiciones políticas, económicas o sociales, ya que hará hincapié en las consecuencias de las soluciones técnicas y en el conjunto de estándares que permitirán la transmisión mecánica y electrónica de señales. Pero no dejará de subrayar que, a diferencia del film, la televisión es un medio de alta tecnología que trabaja con dimensiones óptico-sonoras y, por lo tanto, es más complejo y ubicuo al implementar la TMI. En particular, el recorrido que propone el crítico alemán tiene tres etapas. Primero comienza con el paso de la televisión electromecánica a la electrónica por cable. Luego se detiene en la televisión en blanco y negro y en la estandarización del broadcasting. Por último, los estándares que regularizan las prácticas se multiplican, y afectan no solo a la transmisión, sino también al almacenamiento y al procesamiento. De allí que Kittler explora desde la televisión a color y sus normas en disputa hasta la aparición de la alta definición y la digitalización que cifran las formas del poder opto-electrónico contemporáneo (cuya última forma serán las gráficas computacionales).
Nuestro autor comienza por la conceptualización, en el siglo XIX, de la transmisión de imágenes como cantidades discretas de datos a través del modelo telegráfico y del envío de letras a distancia (A. Bain). No obstante, uno de los primeros sistemas que se materializaría sería el de un discípulo de Helmholtz y del experimentador de radiotelegrafía A. Slaby. El invento de P. Nipkow consistía en un disco rotatorio con una secuencia de agujeros dispuestos centrípetamente y enfrentado a una celda fotoeléctrica (de selenio). A medida que el disco de metal rotaba, la espiral de 18 agujeros escaneaba la escena de arriba hacia abajo en líneas paralelas. Con este diseño los detalles quedaban limitados en el eje vertical y en el horizontal por el diámetro del área cubierta, mientras la línea discreta del telegrama se impondría en las imágenes en movimiento con “una sucesión que se conocerá como barrido”. Sin embargo, Nipkow tendría dificultades al momento de diseñar un receptor que incluyera un mecanismo de reconstrucción de imágenes ya que carecía de un método para convertir la débil corriente producida por la fotocelda en luz visible con suficiente intensidad, al tiempo que no resolvía la sincronización entre transmisor y receptor. Estas desventajas de la perspectiva mecánica desalentaron la aplicación práctica de los discos; no obstante, el proceso de escaneo y la posible transmisión de imágenes por señales eléctricas quedó establecida como una fuerte dirección de investigación (como lo demuestran las tempranas experiencias de la BBC).
Los problemas de los sistemas electromecánicos de televisión no serían corregidos sino hasta el desarrollo del tubo electrónico de L. de Forest, que, como señalamos, permitiría funcionar como amplificador de las fotoceldas y posibilitaría la transmisión de señales inalámbricas modulando frecuencia y amplitud. Pero también el tubo podría decantar en un receptor adecuado. Por ello, Kittler (1996f; OM) repara en los desarrollos, hacia finales del siglo XIX, del físico K. F. Braun, quien descubriría la posibilidad de desviar mediante electromagnetismo los rayos de electrones dentro de un tubo hacia una pantalla fosforescente, donde se inscribiría una onda sinusoidal. Según Kittler, desde los desarrollos de Braun fue relativamente más fácil pensar en el receptor electrónico que concebir la cámara para tal desarrollo como combinación de cátodo, campo magnético y placa fotosensible. Se trata de un momento de exploración sostenida de fenómenos fotoeléctricos a través de materiales alternativos al selenio que permiten transformar variaciones de luminosidad en distintas corrientes eléctricas y viceversa (cfr. Llorens, 1995).
La idea de la televisión tomaría impulso por las invenciones del ruso B. Rosing y de su discípulo y oficial zarista V. Zvorykin, quien, tras la Revolución, emigra a Estados Unidos y comienza a trabajar en Westinghouse, donde desarrolla su cámara llamada iconoscopio (1923). La cámara de tubo escaneaba y almacenaba una escena a través de un patrón de mosaico de cargas eléctricas, pero, según Kittler, aunque el iconoscopio proveía una buena resolución, se necesitaban altos niveles de luz, lo que dificultaba la filmación en estudio, al tiempo que contaba con alteraciones en el escaneo. Luego de la presentación del invento en 1929, la RCA contrata a Zvorykin para que mejore sus inventos durante toda la década de los treinta del siglo XX. Por lo general las historias de la televisión recuperan el álgido contrapunto entre Sarnoff y Farnsworth, quien, desde 1927, había desarrollado el image dissector y se trenzaría en disputas por derechos de patentes. Sin embargo, esta historia americana, quizás demasiada americana, no parece ser del agrado para el filósofo alemán, pues, como dijimos antes, dado que nuestro autor mira los ensamblajes técnico-bélicos, está atento a la aparición de sistemas similares de transmisión con estándares implementados en las décadas del treinta y del cuarenta (en Francia, Holanda, Alemania, Polonia, Italia y la URSS).
Sin embargo, para Kittler, el evento que marca la nueva era de la transmisión televisiva son los Juegos Olímpicos de 1936, en Berlín, donde “todas las deficiencias del lado del transmisor desaparecen”. Como es sabido, las competencias serían transmitidas desde el estadio a cuartos específicos de visionado público y utilizarían múltiples cámaras, como el iconoscopio de RCA (así como versiones de Philco y de Telefunken). En particular, nuestro autor detallará que el régimen nazi diagramó la implementación del iconoscopio en cabezas de cohetes para reconocimiento militar remoto, al tiempo que sus expertos en propaganda buscaron inventar imágenes que sintonizasen a las multitudes con la televisión, pues era un medio de políticas domésticas atado a los lenguajes nacionales y con rango limitado por sus altas frecuencias. Aunque, a decir verdad, Kittler –antes que como una consecuencia del Estado totalitario– analiza a la televisión como un conglomerado de subsistemas de poder técnico.
No obstante, el desarrollo de la televisión fue retrasado por la Segunda Guerra Mundial por su similitud con la tecnología del radar y solo despegará en los años inmediatamente posteriores, pues, de acuerdo con Kittler, si la mayoría de los medios se desarrollaron o fueron impulsados a partir de tecnologías de guerra, solamente la televisión funciona como arma de rayos. No es extraño que por esta razón tampoco hubiese llegado a ascender en el poder sin el conflicto global y, en particular, sin la tecnología óptica del radar[10], que les posibilitó a los fondos de inversión estadounidenses explorar la transmisión de imágenes y su dibujo en pantallas (SC; Winthrop-Young en GFT). De hecho, nuestro autor se detiene en los estándares blanco y negro que, hacia 1940, permitirían la expansión del broadcasting y su explosión comercial en EE. UU.
Para Kittler, “cada sistema de información es solo tan bueno como su componente más débil” (OM: 212), por esto sostiene que el desarrollo de la televisión fue retrasado sobre todo por el ancho de banda disponible. Los transmisores de onda media ofrecían la frecuencia suficiente para señales acústicas o unidimensionales, pero la televisión electrónica necesitaba mayor potencia. En efecto, la posibilidad del broadcasting televisivo se hará –promediando la década de los cincuenta– a través de señales en VHF y ultra high frequency (UHF), que antes solo habían sido utilizadas con propósitos militares.
Con las altas frecuencias como canal de transmisión, las cámaras electrónicas y el cathode ray tube (CRT) como receptor, para Kittler el sistema de información de alta tecnología conocido como televisión sería completado. No obstante, para nuestro autor, terminado el conflicto bélico la guerra fue continuada por medios técnicos, por ello no cesarían de librarse batallas sobre los estándares de la televisión como medio masivo y global. Una muestra de esto la encuentra Kittler en que tanto RCA como CBS tuvieron proyectos de emisión y recepción a color, pero la industria armamentística estadounidense intervendría para hacer rentables y compatibles la transmisión a color y la monocromática. Para ello, en 1954, el NTSC se establecería como estándar que codificaba la información a color separadamente de la información de brillo y reducía la resolución para conservar el ancho de banda bajo el criterio de compatibilidad. Para nuestro autor se trataba de un estándar de broadcasting más orientado a la ganancia comercial que a la fiabilidad técnica, ergo, las señales en NTSC tenían severos problemas en la transmisión y en la estabilidad de los colores. Así, la guerra se replicará con los estándares franco-alemanes, que buscaban lograr colores más estables y terminarían por repartir el mercado mundial en tres normas imperiales en disputa. En 1958 H. De France, luego de trabajar en radares, desarrolla la codificación SECAM mientras que, unos años más tarde, W. Bruch (excamarógrafo de las Olimpíadas nazis), en Telefunken, propondría reservar la fase de las señales de color alternativamente de línea en línea (PAL). Para corregir cualquier distorsión durante la transmisión ambas soluciones (SECAM y PAL) integraban un sistema de almacenamientos momentáneos en un búfer que corregía matemáticamente las señales transmitidas y estabilizaba los colores en el receptor (cfr. Kaiser, 1998).
En las décadas siguientes se desarrollan sistemas de almacenamiento electrónico de imágenes derivados de las cintas de audio magnéticas de alta fidelidad que permitirán grabar datos ópticos. Nuestro autor repara en las primeras cintas AMPEX, BASF y en las grabadoras de video SONY, subrayando que no fueron diseñadas para hogares, sino para video-vigilancia en shoppings, prisiones y otros centros de poder. En ese momento la televisión, para Kittler, devino en un sistema cerrado que podía procesar, almacenar y transmitir datos e hizo posible los trucos de manipulación (así, los videoclips son una consecuencia lógica de los CCTV). Por ello, Kittler subraya que el placer de esta tecnología no nos debería hacer olvidar que la televisión es siempre una forma de vigilancia mundial y un sistema de información cerrado que representa un “asalto generalizado sobre otros medios ópticos” (OM: 221).
Asimismo, luego de la codificación del color y del almacenamiento en video, la última disputa de las normas para nuestro autor está ligada al paso a una mayor definición de las imágenes. De hecho, Kittler recupera que, para McLuhan (1996 [1964]), el cine, con su alta definición, era un medio caliente porque sus ilusiones widescreen resultaban en un decrecimiento en la actividad de los propios espectadores, mientras que la televisión era un medio frío porque solo proveía una limitada cantidad de líneas y píxeles que necesitaban de la audiencia para ser decodificados activa y táctilmente. Sin embargo, hacia la década de los setenta la aparición de nuevos estándares y la tecnología de circuitos integrados (CCD) y de cristales líquidos empujarán el fin de la televisión como medio frío.
Aunque la capacidad de resolución en píxeles de estos primeros modelos de laboratorio era limitada para aplicaciones broadcasting, por esa época aparecen los desarrollos de sistemas de alta definición de televisión (HDTV) con la investigación técnica de NHK en Tokio. Además, para la década de los ochenta, la colaboración entre SONY y el famoso MITI japonés establecería el nuevo estándar de televisión de alta definición que buscaba abolir las limitaciones de fidelidad e impulsar la tele-presencia. Así, por un lado, se amplían las pantallas para abarcar la visión estereoscópica y para “hacer desaparecer el carácter de peep show” y, por otro lado, se incrementa el número de píxeles, lo que permite acortar la distancia de visionado (se logra una intimidad total similar a la del cine). El ciclo se completa con la transmisión en HDTV de los Juegos Olímpicos de Los Ángeles en 1984, que, para Kittler (1992c; OM), significará no solo el fin del celuloide, sino también que la industria electrónica japonesa reemplazará todos los televisores del planeta; claramente el concepto de un solo estándar de producción que pudiese servir para todas las regiones del mundo proveería un sistema de broadcasting más ubicuo y acelerado.
Asimismo, la definición estética de la HDTV trajo aparejados problemas en los anchos de banda. Por ello, las compañías japonesas comienzan a comprimir la señal a través del algoritmo MUSE, aplicado a la transmisión en el campo óptico. En esos términos, la “musa” de SONY –creada por Nyquist y Shannon para AT&T–, como sugiere Kittler, encarna un procesamiento de señales que, nacido de la criptografía, ya no guarda relación ni con los contenidos mediales ni con los campos sensorios[11]. En conjunto con la transmisión por fibra óptica, el procesamiento digital le permite anticipar a nuestro autor que en solo una década los filmes dejarían el celuloide y se transpondrían en una forma estandarizada de opto-electrónica que coincide con el procesador universal de datos. De hecho, como señala A. Galloway (en Sale y Salisbury, 2015), para Kittler, si las señales televisivas ya excedían el campo óptico, el procesamiento digital de la imagen representa la liquidación de lo último que quedaba del imaginario, porque las computadoras no han sido diseñadas para procesar imágenes aun si vivimos en la paradoja de que nuestro campo imagético sea computacional.
En resumidas cuentas, el desarrollo de la televisión como primer medio que funciona completamente como un arma de rayos, los conflictos por los estándares que reemplazan las batallas por el control mundial y el procesamiento de imágenes comandado por la computación digital nacida de la Segunda Guerra Mundial son solo hipótesis que se deducen de otra tesis fundamental de nuestro autor.
IV. La guerra es el padre de todos los medios
Al inicio del capítulo III sosteníamos que, para Kittler, los sistemas de registro varían de acuerdo a las transformaciones en los medios técnicos[12], de allí que su teoría haya sido catalogada dentro del determinismo tecnológico (muy a pesar de que AS está construido sobre transformaciones institucionales y técnicas). Pero, a decir verdad, la tesis de nuestro autor enfatiza –más allá de la tónica heraclítea– que son los eventos bélicos los que configuran el motor de las transformaciones en los medios técnicos: constituyen su a priori histórico (SC). De allí que en algunas entrevistas declare que la única política que le interesa es la militar (Khayyat, 2012) y que no considere una casualidad que la edad de la tecnología de los medios sea la de las batallas tecnológicas (Sale y Salisbury, 2015). Al mismo tiempo, a nivel metodológico, comprendía que una historia de los medios apuntalada en la historia militar servía como antídoto para las narrativas de los ingenieros innovadores que solo gestan tecnologías para uso civil y comercial, y permitiría abordar los caminos complejos de los ensamblajes técnicos (Barberi, 2000).
Así, sostendrá en GFT que la guerra engendra todas las tecnologías de comunicación y de información que trabajan a altas velocidades y que la ciencia de los medios –concebible solo a partir de dichas técnicas (cfr. 1993a)– haría bien en recordar su historia nacida de los conflictos armados y prolongada en ellos, puesto que si “los medios, como la literatura o el cine o los discos […] están todos en guerra” (VMT: 103), también es necesario recordar que “[l]a historia no escrita de las normas técnicas es una historia de guerra” (Kittler, 1992a: 175). Con ello, hay una dimensión marcial que, no por incómoda[13], nuestro autor provocadoramente llama a pensar en nuestro mismo campo.
Todavía mayor es la apuesta que hará Kittler al subrayar que el concepto de información siempre tiene un componente militar y estratégico además de estar materializado y, por lo tanto, autofundamentado a nivel técnico. Como mencionamos, la inspiración para estas tesis es Virilio (2006), para quien las telecomunicaciones y la industria del entretenimiento cinematográfico son subproductos de la velocidad de la logística militar (Sale y Salisbury, 2015). Las tecnologías de misiles necesitan del cine y viceversa, pues los medios son “una escalada histórica de violencia[14]” (VMT: 93) y desde Vietnam las tropas solo atacan bajo la luz de las cámaras de televisión acompasadas por la Walkürenritt (Kittler, 1987a; 1991c; 1998c; SC).
Esta comprensión de los medios a partir de los conflictos bélicos y las armas de fuego está tan extendida en Kittler que reconoce conexiones con las tecnologías artísticas que serán construidas para almacenar y transmitir imágenes. Para nuestro autor, Durero y da Vinci hicieron contribuciones a la cámara oscura mientras desarrollaban fortificaciones y exploraban la naciente balística. También la linterna mágica estaba unida, además de a sus efectos religiosos, a la posibilidad de enviar órdenes en información óptica: una criptografía lumínica. Así, el origen de las luces de búsqueda y de las linternas mágicas está signado por las guerras absolutistas, donde soberanos y monarcas adquieren el dominio de la iluminación, mientras que la literatura decimonónica (prolongada en Jünger) se encarga de convertir a la guerra en experiencia interior (VMT). Pero son fundamentalmente las campañas napoleónicas, las que –implicando aplicaciones matemáticas a las innovaciones tecnológicas– comienzan una aceleración de los medios modernos cifrada en su historia de guerra. Por ello sostendrá que la Escuela Politécnica de París institucionalizaría la comprensión de los sistemas de información como sistemas de armas con el ejemplo predilecto del telégrafo óptico (Kittler, 1998c; 1999c; 2001e; 2001f; SC).
Sin embargo, más allá de estos pasajes, solo cuando comienza a emerger el paso del sistema de registro 1800 al 1900 la conexión entre medios técnicos y guerra moderna se hace tan expresa y clara que el crítico alemán señala tres fases ligadas a las capacidades de almacenamiento, procesamiento y transmisión de información (GFT: 191; 243).
Una primera fase de la lógica estratégica comienza con la guerra civil estadounidense, que tendrá consecuencias en el desarrollo de tecnologías de almacenamiento acústicas, ópticas y escriturales. Para nuestro autor, Edison desarrolla el fonógrafo como un intento de mejorar la velocidad telegráfica de envío de órdenes entre las filas del ejército, al tiempo que Remington comienza la producción de máquinas de escribir para hacer uso de la capacidad instalada luego de la guerra. Estas máquinas de escribir eran verdaderas ametralladoras discursivas cuya acción básica consistía en golpear y disparar de forma discreta y automatizable.
Asimismo, si los fotógrafos vivieron el boom de los estudios portátiles durante la guerra de Secesión, los filmes tendrán una línea genealógica que los conecta con las armas del coronel S. Colt, que introdujeron la posibilidad de disparar en serie al tiempo que estandarizaban la producción industrial seriada (Kittler, 1992a). De forma análoga, los objetos filmados eran divididos y los cuerpos, despedazados. De hecho, según Kittler las primeras cámaras eran literalmente armas. Durante la Gran Guerra las ametralladoras derivadas de Maxim convierten a sus inventores blancos en invisibles y masacrados, mientras las cámaras crean las audiencias de espectadores para los filmes. Apuntar a las masas con luces y con balas son gestos de una época en la que evolucionan en tándem. Además, esta confluencia entre perspectiva y balística se confirma en la incorporación de filmaciones aéreas que reunían la serialidad de la muerte y de la fotografía en un solo acto (OM), pues, estratégica y estéticamente, filmar y volar coinciden; los pilotos de reconocimiento forman parte de la historia de los medios.
La segunda fase, si seguimos el esquema propuesto en GFT, comenzaría con la Primera Guerra Mundial, momento en el cual para Kittler se gestan y aceleran combinaciones entre cada medio de almacenamiento y las tecnologías de transmisión eléctrica y electrónica. Sin embargo, los múltiples pasajes de las historias que escribe nuestro autor impiden una cronología lineal, pues también es cierto que anticipa que el desarrollo decimonónico de la telegrafía fue el resultado de una necesidad militar para la transmisión rápida de instrucciones, como es el caso del telégrafo óptico (de C. Chappe) durante la Revolución francesa (Kittler, 1992b; 2005a [1999]).
De hecho, en sí misma, la Gran Guerra devino en entretenimiento masivo, lo que impulsaría el desarrollo de la radio en la entreguerras. De allí que subraye una y otra vez que la radio civil emerge de los intercomunicadores de trinchera, mientras que el famoso radiodrama de O. Welles no es sino la prematura demostración de que el imperio norteamericano puede caer cuando todas sus estaciones radiodifusoras dejan de funcionar en plena invasión alienígena (Kittler, 1993c; 1998c). Por ello también dirá que el segundo conflicto global será desde sus comienzos una guerra de las altas frecuencias, ya que la radio se utilizará para guiar tanques, submarinos y bombarderos antes de 1939 y luego se volvería estándar para el consumo masivo (AM/FM): abusos de la tecnología militar.
La tercera fase comienza con la Segunda Guerra Mundial e incrementa la capacidad de los medios de transmisión. El envío de comunicaciones de divisiones Panzer a través de VHF y UHF significó la movilización, la motorización y la guerra relámpago (de 1939 a 1941), algo que hubiese sido imposible sin telecomando. Pero, como dice Winthrop–Young, la guerra para Kittler no funciona solo como motor, sino también como modelo a escala de estas transformaciones en los medios, tal es el caso por ejemplo del radar, la visión nocturna y los sensores infrarrojos, que, para nuestro autor, forman parte de los medios ópticos y están en las raíces de la televisión y de las interfaces gráficas de usuario (GUI), puesto que, como señala en NS, máquinas de guerra y medios ópticos pueden ver lo que el sujeto (hegeliano) del sistema de registro 1800 solo podía alucinar.
No obstante, más allá de acentuarse la transmisión, crecerá la capacidad de procesar datos serializados con la necesidad de encriptar y decodificar las operaciones de inteligencia militar, así como de calcular las trayectorias de los misiles. Por ello, para Kittler la consecuencia bélica más radical es la realización de la transferencia del esquema de la máquina de escribir a una tecnología de predictibilidad (GFT), pues, desde 1939, la guerra coincidirá con su red de comunicación, es decir, todos los datos, direcciones y comandos comenzarán a pasar por una máquina de criptografía automatizada.
Así, para Kittler, la importancia de la máquina de escribir a inicios del siglo XX se explica por su progresiva electrificación criptográfica y por su centralidad en la genealogía de la máquina universal. Por ello repara en que el ingeniero A. Scherbius (Chiffriermaschinen AG) comenzará a experimentar en Berlín con máquinas electromecánicas de escritura codificada que transforman el teclado de las máquinas Remington alterando el vínculo unívoco entre input y output y ofreciendo en cambio numerosas combinatorias para cada golpeteo. Explica nuestro autor que las letras corrían sobre conductos eléctricos en un sistema de distribución que consistía en tres rotores y uno de inversión, que seleccionaba letras substitutas. Al teclear, los rotores avanzaban una revolución, solo para volver a su posición original luego de millones de activaciones diferentes. Así, las matemáticas de la máquina liberaron a los criptógrafos del trabajo manual, pues el resultado de la emisión era solo descifrable con otra máquina de escribir secreta, en la cual el receptor traducía el ruido blanco en texto bajo el comando diario que indicaba la posición donde debía comenzar el rotor (GFT: 251-255).
A mediados del decenio de 1920 la Armada alemana utilizará sistemáticamente máquinas de encriptado (como también lo harían japoneses y norteamericanos) y unos años después se desarrolla una máquina equipada con más rotores. Su célebre y secreto nombre será Enigma, y estará destinada a canalizar el tráfico de mensajes de radio. Así, la escalada de criptografía y criptoanálisis pronto requeriría la automatización de la decodificación, pues solo en el marco de una guerra técnica y matemática puede entenderse el esfuerzo para generar un análisis en tiempo real que efectúe los millones de cálculos necesarios para decodificar mensajes. Como veremos en el próximo capítulo, para Kittler (1987b; SC) ello se volvería posible a través de la materialización de la máquina discreta universal o el modelo matemático, que vence a cualquier máquina de escribir, pues es capaz de imitar cualquier realidad maquinal. Con ellas, dice nuestro autor (NS), el servicio secreto británico desarrolla la primera computadora electrónica operativa de la historia y, al mismo tiempo, termina con la historia porque los autómatas (finitos) comenzarán a leerse y escribirse entre sí (al estar al inicio y al final del proceso de comunicación).
Pero para Kittler (2008) la piedra fundamental de esta historia pasa también por su lado oculto, pues la Segunda Guerra Mundial trae como consecuencia un profundo secretismo (Geheimnis[15]) a partir del cual el autor trabaja la historia de la informática y de los códigos. Así, desde la criptografía de Bletchley Park, el secreto de la computadora se mantiene en el Pentágono, que, bajo acuerdos confidenciales, evitaría que se conozca que las computadoras descifraban los códigos de la Wehrmacht (Rosenfelder, 2011). Estaba “estrictamente prohibido hablar de esas cosas” para que los mismos algoritmos no pudieran ser utilizados por el Ejército Rojo y la KGB.
Por ello, no es extraño que a nuestro autor –mucho antes de las revelaciones de Snowden– le maravillen las historias del secretismo estadounidense, como el hecho de que la NSA procesara todas las conexiones en este planeta. De acuerdo con Kittler, esta agencia aceleró el advenimiento de la edad computacional, pues el análisis automático del discurso tomó en ella el mando. En el artículo “No Such Agency” de 1986 (SC) señala, parafraseando a M. Jagger, que no siempre obtenemos la información necesaria sobre la información, pues solo los servicios secretos tienen el derecho a borrar su propia existencia bajo sus siglas. Asimismo, terminará OM dando a entender que la NSA había comenzado a explorar (pensando en sus batallas futuras de algoritmos) formas ultrarrápidas de computación óptica.
Ya desde la Guerra Fría los conflictos implican no solo secretismo y espionaje, sino también técnicas satelitales de comunicación y modelos complejos de simulación (Kriegsspiel y Game Theory) en redes informáticas globalizadas a través de computadoras distribuidas. Así, los escenarios de la information warfare despojan del monopolio de la violencia a los Estados Nacionales y ponen en escena desde organizaciones terroristas[16], mafias y cárteles hasta las corporaciones concentradas de la industria informática. Son estas últimas las que pujan por controlar todas las máquinas en sus redes “info-imperialistas”, al tiempo que desatan una guerra por la atención (Kittler, 1998c; 1999e; 2001c; 2001f; SC).
Además, para Kittler el secreto es una estructura que desprende poder cuyas consecuencias son aprovechadas por el aparato militar y corporativo británico-estadounidense y florecerán en el marco empresarial de los grandes productores de hardware (Intel, IBM, Motorola). Este conglomerado, como veremos en el próximo capítulo, en alianza con la industria del software, a mediados de la década de los setenta, comenzará a mantener en secreto el diagrama matemático que habitaba transistores y chips. Ese secretismo correrá en paralelo con una apuesta por las interfaces gráficas de usuario y una relación computadora-humano, donde la primera deviene en sujeto y el segundo, en usuario. Por ello, el secreto de los procesos computacionales vive en los gadgets de consumo masivo para usuarios que han perdido cualquier posibilidad de programarlos (SC).
La otra tendencia que surge de la Segunda Guerra Mundial es la miniaturización, pues si la electrónica previa al conflicto estaba ligada a soldaduras de resistores, capacitores y cables, la industria aeronáutica necesitaba eliminar esos componentes inestables (Kittler, 2001d). Por ello se impulsó la necesidad de circuitos integrados con todos los elementos adheridos a una placa y lo suficientemente pequeños para caber en la consola de un bombardero o un caza (lo que luego será el origen del motherboard). Así, nuestro autor se detiene en Minuteman, el primer misil intercontinental americano provisto de una computadora de a bordo (de Texas Intruments y Fairchild) que fue funcional y letal sin sacrificar la carga explosiva (Kittler, 1996f; Bramkamp, 2002). Pero, a decir verdad, la miniaturización no se trata solo de la frontera tecnológica misilística, sino que afectará a toda la informatización, ya que su descendencia les hará ganar a los circuitos integrados una total omnipresencia y ubicuidad (Allgegenwart; cfr. Kittler, 2014 [1994]). Se trata –si recuperamos la conceptualización de los medios técnicos– de la abolición de todas las distancias.
Pero hay una hipótesis más integral en la construcción teórica kittleriana: si el hombre es desplazado como organizador en el sistema 1900, entonces arriba una subjetividad de máquina. De hecho, teniendo en cuenta los niveles de secreto que analiza nuestro autor, no es extraño que conceptualice a la escritura de novelas como “una continuación del espionaje por otros medios” (DV: 24). De allí que, en su opinión, ninguna obra demuestre mejor esta relación entre guerra, secretos y tecnologías de la comunicación que El arco iris de gravedad, de Thomas Pynchon (1973). Kittler vuelve permanentemente a esta novela, que tiene como contexto a los misiles V2 cuyas bases nazis en los Países Bajos les permitían tener como blanco al Reino Unido.
Los motivos por los que nuestro autor recurre a Pynchon son varios. Primero, la novela hace evidente que las guerras ya no son disputadas por personas o por patrias, sino que toman lugar entre diferentes medios, tecnologías informacionales y flujos de datos. En segundo lugar, El arco iris de gravedad tiene contraparte en la misma biografía de Kittler y su gusto por la guerra. De acuerdo a diversas entrevistas, de niño pasaba sus vacaciones en Usedom, donde tomó por primera vez conocimiento de la célebre arma secreta nazi. En sus paseos, a pesar del disimulo generalizado, se cruzaba con restos misilísticos en el puerto de Peenemünde que nadie quería discutir (Kittler, 1990f: 2015c [1986]; Banz, 1996; Armitage, 2006 y Rosenfelder, 2011; Godzich, 2012). Luego, en su estancia en California, comprendió inmediatamente que se trataba del lugar estratégico para los misiles V2, ya que la infraestructura de sus autopistas (Auto Bahnen) estaría especialmente diseñada para transportar los misiles, pues, como señala, “[l]a paz es la continuación de la guerra con los mismos medios de transporte” (2015d [1984]: 382).
En tercer lugar, para Kittler el tema de la novela de Pynchon es la amistad germano-estadounidense en tanto transferencia de tecnología (VMT; 1990f; 1991a), es decir, el aprovisionamiento de científicos nazis que dieron nacimiento al imperio norteamericano (y, también en parte, a la potencia soviética). Por ello, le dedica un capítulo especial al desarrollador del V2, W. von Braun. Pero también la inversa es posible, pues grandes científicos y matemáticos (como von Neumann) huyen del régimen gracias, dice Kittler (EGS, 2011), a la idiotez nazi. De esta manera para nuestro autor si el V2 se vuelve el pináculo de los logros ingenieriles, la bomba atómica estadounidense se concibe desde el corazón mismo de las matemáticas y de la física.
Por último, para Kittler lo que desnuda la narración de Pynchon es que las computadoras adquieren una reflexividad operacional que antes era atribuida exclusivamente al ser humano, pues no solo el así-llamado-Hombre se deshace en el silicio, sino que el potente semiconductor cobra revancha sobre el carbono y despliega formas de subjetividad maquínica; la nueva cultura del medio digital se despide del humanismo en la producción de sentido. Para Kittler (2015b [2002]), con los desarrollos cibernéticos, saltos condicionales fueron integrados a las máquinas y las computadoras mismas se volvieron sujetos a través de una reflexividad operacional artificial (GFT: 258). Así, en conflictos dominados por computadoras los generales desaparecen del campo de batalla y tanto la perspectiva de los soldados como las experiencias de los tiempos de guerra son alteradas.
En otros términos, todas las máquinas que responden al feedback bajo control condicionado rompen potencialmente no solo con la causalidad lineal, sino también con el antropocentrismo de la noción de subjetividad. Las computadoras (y por tanto los misiles y drones) se vuelven sistemas autodirigidos; un sujeto en sentido kantiano con todas las “capacidades con las que estaban equipados los así–llamados–Hombres” (SC: 74). Para Kittler (1987b; 1988a; NS; LMS) las computadoras, operando bajo comandos de lógica booleana, son máquinas sujetos que desplazan a la históricamente contingente sustancia moderna. Así, con la codificación predictiva lineal (LPC) de Norbert Wiener –diseñada para los cañones antiaéreos que simulaban la posición y velocidad futura de los objetivos hostiles– las matemáticas mutaron en un “oráculo capaz de predecir eventos” y la subjetividad dejó de ser un privilegio humano[17]. Y si la guerra es librada por armas autodirigidas, ya no es necesaria la Marseillaise para los frentes en la lógica cibernética:
Desde que los ruidos ya no fueron afectados por la interpretación de discursos o tonos articulados, gracias a la intercepción de señales enemigas, nuestros hombros se han liberado del yugo de la subjetividad. Los sistemas de armas automáticas son ellos mismos sujetos. Surge un campo libre en el que sería factible canjear la teoría de la recepción por la praxis de la interceptación, la hermenéutica por la polémica. Podría instaurarse la hermenáutica: el conocimiento del piloto respecto de los mensajes sin importar si provienen de dioses, de máquinas o de fuentes de ruido (VMT: 199).
Para comprender estas transformaciones, Kittler, luego de haber tenido a la máquina universal como esquema de los pasajes entre sistemas de registro y como modelo de su definición de medios técnicos, debe volver a ella como objeto de su investigación y poner en el centro de todos sus problemas a la galaxia Turing.
- Así, por ejemplo, el absolutismo es ceguera deliberada, mientras los dispositivos disciplinarios modifican las condiciones del ver-ser visto (cfr. Foucault, 2000; 1997: 327 y sucesivas).↵
- Con ello, la tesis de nuestro autor es que desde la cámara oscura los dispositivos ópticos liberan a los humanos de la necesidad de calcular no solo la reflexión de la luz, sino también la proyección de los objetos iluminados y las funciones trigonométricas asociadas. Se produce así una suerte de automatización de la recepción de imágenes y el sujeto moderno se convierte, en el campo óptico, en un efecto del medio técnico: un producto del autómata genérico de la cámara oscura que sostiene el nuevo concepto pictórico de representar la representación geométrica de los sujetos sobre el mundo. Para Kittler se puede decir que la perspectiva lineal y la cámara oscura eran precisamente los medios de esta representación como complementos de la filosofía cartesiana, en tanto organizan la percepción visual moderna (en una época que Kittler (2007c; KT) denomina recurrentemente la era de la imagen del mundo).↵
- Aunque no podemos sistematizarlo aquí, para nuestro autor, tanto la cámara oscura como la linterna mágica están en connivencia con el Estado, el poder religioso y el aparato militar. En particular, Kittler relacionará ambos artefactos con la tecnología básica de la imprenta, en tanto jugaban un rol importante en los conflictos de la Reforma y la Contrarreforma, entre la prensa y la imaginería de la Iglesia (cfr. 2015).↵
- Kittler data por esta época los descubrimientos del infrarrojo (que unas centurias más tarde será el medio para la visión nocturna militar) y de los experimentos sobre el espectro ultravioleta.↵
- Para nuestro autor, los elementos técnicos individuales del film –el dispositivo de grabación, el medio de almacenamiento y el aparato de proyección– serían combinados gradualmente y en etapas que pertenecen a cadenas de ensamblajes.↵
- Por un lado, Kittler no sigue las críticas despiadadas de Guattari a Lacan. Por otro, el pensador francés nutrirá toda su obra de la división entre semióticas significantes, simbólicas y a-significantes. Kittler no recupera estos argumentos, de hecho no parece sacar todas las consecuencias de la noción de semiótica a-significante que probablemente traduce como asimbolia.↵
- Para nuestro autor, cineastas como G. Méliès transforman la manipulación temporal desde el procesamiento analógico fílmico. Con ello, la potencia de la simulación óptica crece.↵
- Una vibración unidimensional o lineal es adecuada para la grabación de sonidos, mientras que los medios ópticos principalmente requieren procesamiento de señales bidimensionales. Con ello la cantidad de información para ser procesada se eleva a la segunda potencia.↵
- Para Kittler, así como lo había hecho la radio, los filmes sonoros aparecieron para reforzar las fronteras nacionales, al tiempo que transformaron la economía gestual y las dinámicas mismas de la voz. En el mismo sentido, dirá que la Segunda Guerra Mundial será a color, pues el sponsor principal de la industria cinematográfica era Goebbels, que declaró la guerra al blanco y negro, y eliminó brutalmente las últimas diferencias remanentes con la ficción. Aunque no podemos hacer justicia aquí con la historia del color en el film que propone nuestro autor, debemos notar que para Kittler (1990f) los comandantes del Tercer Reich, junto con Agfacolor e IG Farben, se decidieron por el conjunto realista Technicolor y transformaron la historia completa de los medios ópticos desde 1939 a la televisión a color en 1965. En todo caso, futuros trabajos deberán seguir en mayor detalle cómo nuestro autor reconstruye procesos tecno-estéticos audiovisuales con antecedentes marciales.↵
- Para Kittler el radar no solo revolucionó la guerra en los mares y en los aires, sino que impulsó el proceso de miniaturización y cambió nuestro concepto de información en tanto medio óptico de pulsos discretos. El pulso del radar devino en fundamental para las modernas redes de telefonía, los circuitos computacionales, las interfaces gráficas de usuario (GUI) y los estándares de televisión. Así, para nuestro autor la genealogía de la imagen de computadora se encuentra en la direccionalidad de los sistemas de alerta temprana y no solo en el barrido horizontal de la televisión. Por ello, en su última aparición pública registrada (2011) dirá que no hay que entender a los estudios de comunicación como solo abocados a los medios masivos, sino que hay que ocuparse del radar y del GPS, de todos los medios (computacionales) que permiten dominar el mundo y la tierra.↵
- También por esta época se define la utilización de compresiones de video por estándares internacionales que les permitían a los receptores de HDTV operar con formatos MPEG-1.↵
- Como afirma Siegert (2015), Kittler y otros teóricos alemanes de los medios cambian el concepto foucaultiano de a priori histórico por el de a priori técnico gracias a que identifican al archivo como un medio técnico (cfr. Sebastian y Geerke, 1990). Sutherland y Patsoura (2017), por su parte, contraponen esta tentativa a los análisis foucaultianos, donde se desestiman las explicaciones de las transformaciones epistémicas como consecuencia de mutaciones del Zeitgeist, de cambios sociales o tecnológicos. Ante ello, las transformaciones en la episteme moderna están ligadas a un retorno del ser del lenguaje que desplaza a la forma-Hombre y conforma el Afuera incontenible en estas rupturas (hay grandes trabajos foucaultianos sobre estos problemas, cfr. Rodríguez, 2019; Rubio y Rodríguez, 2020; Rigotti, 2017). Para Kittler, como señala G. Winthrop-Young, los sistemas de registro cambian porque los medios cambian, son ellos los que toman el lugar del enigmático Afuera. Claramente lo que queda indeterminado hasta este momento es el motivo por el cual los medios cambian, pues, al remover a la agencia humana, el problema de la causalidad no se resuelve, sino que es diferido. Allí entra a jugar la hipótesis bélica como motor, modelo y disparador de las transformaciones mediales.↵
- Claramente, esta elección kittleriana por la tecnología bélica trae consecuencias. De acuerdo con Gumbrecht (2016), la admiración de Kittler por la complejidad de la tecnología militar de la Alemania nazi lo pone al borde de la incorrección política cuando, por ejemplo, exagera los alcances de la Blitzkrieg.↵
- Sin embargo, para Kittler (1995a) no se debería invertir el análisis, pues sostendrá que las guerras mundiales burguesas no fueron un efecto accidental de los medios, sino solo su origen necesario.↵
- Kittler, en DMK (“Hoffman…”), parece afirmar que el análisis interpretativo de los procesos inconscientes es mucho menos interesante que escudriñar los secretos, pues los secretos no permiten ni la interpretación ni la recepción, sino solo la interceptación de señales cuando los medios técnicos reestructuran el inconsciente (VMT). Asimismo, la historia marcial del secreto puede emplazarse antes, si tenemos en cuenta que ya desde el telégrafo óptico (Geheimmedium, SC), Kittler (1993a) señala una distinción entre órdenes militares clasificadas y comunicaciones públicas, al tiempo que hay momentos de los escritos de nuestro autor donde quizás la traducción más adecuada de este término sea la de “misterio”.↵
- Kittler (1990e; 2003e) parte de señalar que todo sistema de poder (como los Estados) genera sus propios enemigos (como las organizaciones terroristas). Así, la modernización de la República Federal Alemana y sus autopistas y ciudades satélites motorizaron los robos bancarios y las bombas, y la telegrafía del Imperio británico movilizó luchas independentistas africanas. La superpotencia de Estados Unidos (y su dominio de la aeronavegación) fomentó la carrera armamentística de Al Qaeda. De hecho, según nuestro autor, el 9/11 fue la captura del espacio aéreo de Manhattan por asesinos nómades que sabían controlar las computadoras de a bordo. Así, para Kittler, nuevas fuentes de recursos energéticos demuestran que la guerra tiene y tendrá en su base al hardware, por ello el abuso de los celulares está ligado a la expansión del GPS y de los bancos de datos sobre el mapa de recursos naturales globales.↵
- De hecho en un breve artículo (Kittler, 2015a [1991]) señalará que las armas electrónicas disuelven la centenaria unión entre electricidad y luz. El V2 ha reemplazado al clásico sujeto y el haz de rayos del radar, una luz de búsqueda invisible, a la mirada armada.↵






