I. La computación ubicua como medio
Las tesis de Kittler prometían un tratamiento en profundidad de la computación en un escenario de pasaje de tecnologías analógicas a digitales (cfr. 1984a; 1988a; 1993a; 1996d). Así, no es extraño que ya en GFT –mediados de la década de los ochenta– afirme que una vez que imágenes, textos y música alcancen los hogares vía fibra óptica, la distinción antigua entre medios entrará en una convergencia estandarizada por bits. “Un flujo de datos algorítmicamente formalizados reemplazará todos los medios” y los reestructurará en procesamientos de señales acústicas y ópticas cuya continuidad queda reducida a caracteres discretos. Con esta transformación “[l]a computadora [se convierte en] el medio principal de nuestra cultura, lo que la distingue de todas las demás culturas” (Kittler, 2004b: 201).
Como vimos, nuestro autor sostiene que, a diferencia de la escritura, los medios técnicos no utilizan el lenguaje natural, sino que hacen uso de procesos físicos mucho más veloces que solo pueden ser formulados en códigos matemáticos o en lenguajes formalizados. Esa codificación se completa con su transposición computacional, pues, como dice Winthrop-Young (2011a: 75), los medios siguen existiendo, pero han sufrido un profundo cambio: ya no se localizan “[…] en la intersección crucial entre los procesos físicos y el aparato sensorial sino que se han movido a los márgenes de la máquina digital para permitirles a los humanos acceder al universo binario auto-contenido”.
Por ello, Kittler no ahorrará energías en rechazar la idea publicitaria de new media[1] advirtiendo que la aceleración de las innovaciones de nuestra era emerge de la cadena de montaje matemática bajo máquinas que tienen como característica principal imitar a cualquier otra máquina (incluido el hardware analógico). Así, la digitalización generalizada de los canales y de la información borra las diferencias entre medios individuales[2]. Sonido e imagen, voz y texto se reducen a efectos de superficie conocidos para los consumidores como interfaces. Entonces, para Kittler (1996f, 2001b; 2002b, 2014) el sentido y los sentidos se vuelven mera brillantina: dentro de las computadoras todo “se convierte en número, cantidad sin imagen y sin sonido” (GFT). De allí que –en momentos en que el trabajo intelectual y el tiempo libre son reconstruidos por máquinas automatizadas y se ha desatado una verdadera guerra atencional (1999g; EGS)– no solo los correspondientes de Turing (los programadores que responden a su época), sino todas las personas desertan de las máquinas analógicas a las discretas. Sin embargo, en esta transformación el hombre ya no es la medida de todas las cosas, las máquinas no están aferradas a criterios antropológicos; una burocracia sin humanos formaliza la inteligencia y desencadena un feedback loop informacional ilimitado.
De hecho, Kittler señalará que si los medios analógicos son parte de la modernidad, la computadora abre la era contemporánea (VMT). Para ello repone la historia del ser heideggeriana e identifica que la clausura moderna coincide con el nacimiento de las primeras máquinas informáticas y su desempeño para codificar y decodificar mensajes por y para otras máquinas. Nuestro autor, sin embargo, es radicalmente reacio a llamarla posmodernidad y en su lugar recupera como absoluta novedad el nombre de composición o Gestell (VMT: 327).
Así, el verdadero sentido de nuestra era emerge cuando Kittler (MM) la llama Turingzeit. Esto es, el tiempo, la era o, como alternativamente lo denomina en sus cursos y otros escritos, la galaxia Turing (Turinggalaxis, cfr. Kittler, 2007b; EGS). Esta es la definición positiva de nuestra época y Kittler se dedicará a rastrear en ella transformaciones que vienen a la zaga del sujeto-máquina, que se desprenden de la genealogía de los chips como relaciones de fuerzas y de los encuentros entre física y lógica, así como de los cambios en los sistemas de signos. Se trata, como escribiría con Bolz y Tholen, de un proyecto que examina el presente a través de sus algoritmos y circuitos integrados.
Sin embargo, la condición para que el pensamiento de Kittler se apodere de nuestra era es una computación que se ha salido de los goznes administrativos, bancarios, personales y se ha vuelto ubicua (Rossi, 2020). Es decir, solo cuando la computadora deja de ser un objeto singular, separable y accesible desde un escritorio y se funde en un medio digital sin costuras, continuo y en ambientes de los que se predica inteligencia maquinal, Kittler empieza a avizorar las estrategias que permitirían definir la galaxia Turing.
En “La inteligencia artificial de la guerra mundial”, de 1987 (VMT), recordando las múltiples traducciones que ensaya Fausto y el binarismo del mito de la creación judeocristiano, dirá:
La Palabra, que fue al Comienzo, desapareció en el banco de datos de la computadora de todos modos. Cuando todo lo que dice la gente en este planeta sea absorbido en bits, la máquina discreta universal de Turing habrá llegado a su plenitud (VMT: 217).
La galaxia Turing se habrá completado en la ubicuidad y omnipresencia (Allgegenwart) de los procesos computacionales, pero al mismo tiempo ello significará que la extensión de los secretismos[3] –propios de los conglomerados militares y de la industria informática– ya no se detiene (cfr. 2014 [1994]).
En particular, hay tres vías por las cuales Kittler intenta acceder a la galaxia Turing como objeto conceptual de su teoría que –a pesar de nuestro artilugio expositivo– se presentan contemporáneamente en su obra (cfr. 1988a). Primero, a través de una exploración histórica del hardware programable. Así, gran parte de los ensayos de nuestro autor permiten trazar una investigación arqueológica (desde Leibniz hasta los microprocesadores Intel) en una senda que repite el camino montado para sus historias de los medios analógicos. Se trata de una mirada sobre los procesos mediante los cuales la matemática aplicada se concreta en cómputos de señales e impulsos electrónicos. El trasfondo biográfico de esta estrategia no solo se asienta en elementos prácticos como la construcción de sintetizadores que ensaya Kittler, sino que además expone su pasión como coleccionista de transistores y microprocesadores.
Pero, justo en el momento en el que las soldadoras del aficionado no pueden entrar en el circuito electrónico sin destruirlo, la otra vía que se hará presente en nuestro autor es a menudo traslapada. En especial, en segundo lugar, la forma de acceso al objeto conceptual de la computación como medio será trabajar los algoritmos. Así, el crítico alemán aborda el objeto matemático desde la codificación y los lenguajes formales. Sí, Kittler, el gran autor del materialismo crudo, miente descaradamente o, al menos, exagera cuando proclama la inexistencia del software. De hecho su interés estará cifrado en recuperar la programación de gráficas de computadora a través de comandos de máquina, compiladores C y lenguaje ensamblador (Assembler), emulando al hardware (el ojo) a través de miles de líneas de código. En los meandros de estas discusiones advertiremos cómo nuestro autor forja una verdadera genealogía del software, que constituye una de las críticas más sagaces al capitalismo informacional concentrado, monopólico, militar y global, al tiempo que delimita las fronteras de un nuevo ensayo alfabetizador.
La tercera vía de acceso al objeto que se propone Kittler será explorar la condensación más habitual y más accesible de la matemática: la música. De allí que termina su obra con el megaproyecto inconcluso Música y matemáticas. Muchos de los problemas que trabajaremos podrían haber llegado en el cuarto volumen de esa serie nunca finalizada (ya que fallece en 2011). Así, en la tercera espiral recursiva de la obra de nuestro autor la máquina de Turing y la arquitectura von Neumann ya no conforman ni el esquema de investigación ni el modelo de medios para su recorrido histórico, sino el objeto conceptual mismo de su problematización. En sus ensayos y fragmentos no serán ya suficientes ni el análisis del discurso materialista ni la arqueología y genealogía de los medios, aun si los suponen como pasos previos. Para Kittler es el momento donde el acercamiento que debe primar será el estudio de las técnicas culturales que reflejan los procesos de formalización de sistemas simbólicos así como las condiciones de posibilidad concretas del conocimiento y de las universidades en nuestro tiempo en función de una ontología del presente. Este enfoque le permite aproximarse a la galaxia Turing, pues habilita la comprensión de la composición o estructura de emplazamiento a la luz de una recursión donde los pitagóricos dan a conocer el primer algoritmo funcional y materialmente estructurado.
Siguiendo esta forma sinuosa proponemos dividir las siguientes páginas en tres grandes apartados: una arqueología del hardware, una genealogía del software y un acercamiento al análisis de las técnicas culturales, que llegará en el capítulo VI.
II. Arqueología del hardware
En distintos pasajes de sus ensayos Kittler no parece separarse demasiado de las historias convencionales que rastrean las primeras calculadoras en el siglo XVII diseñadas por grandes matemáticos y filósofos. Es conocido el relato que va de la pascalina a las mejoras de Leibniz (cfr. Ifrah, 2001). La Staffelwalze, demostrada en 1683, configuraba una de las primeras máquinas que podía no solo sumar y restar, sino también multiplicar, dividir y sacar raíces a través de distintos cilindros y engranajes. Pero, según Kittler (1987b; 1996b; 2006a [2003]), las contribuciones de Leibniz no implican solo un antecedente de las máquinas calculadoras empíricas, sino que anticipan la condición de posibilidad misma para que la matemática vaya más allá de los números hacia el terreno de las reglas formales y de la lógica algebraica. El cálculo diferencial que emergería de esas invenciones permitiría, con elegancia algorítmica, seguir los pasos de lo infinitamente grande y de lo infinitamente pequeño (tanto en la construcción divina del mejor de los mundos posibles como en las integrales de las mónadas que se espejaban entre sí).
Al mismo tiempo nuestro autor se detiene, además, en los intentos de Leibniz –hacia finales de la década de los noventa del siglo XVII– por corregir la dispersión de las lenguas desde la Torre de Babel y optimizar el sistema decimal a través de la aplicación de uno binario. Para ello, el gran filósofo alemán recibió información de los jesuitas, que habían importado de China símbolos que servirían para forjar un sistema universal (characteristica universalis). Se trata para Kittler de un tópico sexual borrado en la transmisión religiosa (VMT) que encaja en la figura del Dios calculador y creador a través de la codificación dual: luz y tiniebla, cielo y tierra, bien y mal, etc.[4] (Heidenreich y Schultz, 1993). Este sistema binario leibniziano estará presente en toda circuitería digital y en la combinatoria de las computadoras que hacen trabajo algorítmico (reuniendo lógica y control).
A inicios del siglo XIX, matemáticos franceses utilizaron las ideas de Leibniz para desarrollar un nuevo conjunto de tablas logarítmicas y cálculos trigonométricos. Concomitantemente, el matemático londinense C. Babbage propone una máquina mecánica que, automatizando esas tablas, podría ejecutar cálculos complejos. En 1822, Babbage comenzó a diseñar su motor diferencial y, una década más tarde, intenta construir un motor analítico con fondos que vendrán del Ejército Imperial Británico. Para Kittler (1987b; 1994d; 1998b; OM) se trata de diseños que utilizan los desarrollos de la mecánica de precisión bajo los mismos estándares que las armas automáticas y seriadas. Así, con miles de engranajes y alimentado con vapor, el motor analítico tendría componentes básicos de las actuales computadoras: memoria con slots para guardar números decimales, input de tarjetas perforadas (como los telares de Jacquard), una unidad de procesamiento central que podía ejecutar operaciones aritméticas, un output y hasta una interfaz de audio (pues tenía una campana que sonaba ante un error)[5]. Sin embargo, ambos proyectos no llegarían a materializarse en ese tiempo, y es conocida la historia de Babbage, que retrasaba permanentemente sus envíos y multiplicaba pedidos de fondos. Lo importante para Kittler (2001b) es que se trata del momento en el cual –en el medio de las guerras tecnológicas– las matemáticas aplicadas comienzan a automatizarse en máquinas concretas.
En este mismo período, Kittler (1988a) también se interesa en los aportes del matemático y filósofo británico G. Boole y sus famosas investigaciones sobre las leyes del pensamiento (1854). Sus escritos buscarán transformar la lógica de proposiciones a números binarios, permitiendo solo dos valores de output (0 para falso y 1 para verdadero) y admitiendo también la traducción de otros operadores, como la concatenación o la disyunción. De acuerdo con Kittler, Boole concibió el simbolismo para una lógica binaria que se abrirá paso por todos los circuitos digitales.
Así, puede leerse en los ensayos de VMT que mientras Leibniz propuso solamente el cálculo binario para reemplazar al decimal, el álgebra booleana complementa los valores aritméticos con decisiones lógicas y estratégicas. Como resume en sus cursos de EGS al analizar las diferencias de operatoria binaria entre ambos, cuando una CPU necesita contar revive a Leibniz, mientras que para decidir recurre a Boole. Por ello, si bien pueden ser concebidos como parte de la historia del software, nuestro autor permanentemente los liga al diseño de circuitos electrónicos y a sus puertas lógicas, que configuran verdaderas matemáticas aplicadas.
Ahora bien, revisando la cronología propuesta en MM quizás los últimos volúmenes hubiesen incluido distintas líneas arqueológicas y genealógicas. Por una parte, Kittler probablemente hubiese profundizado en la historia de la electricidad y de la electrónica, pues aparecen múltiples acontecimientos listados ligados a Volta, Franklin, Fresnel, Faraday y Maxwell, entre otros. De hecho, en sus artículos y cursos analiza las raíces etimológicas de la energía y se detiene en la electricidad como condición necesaria para la computación (Kittler, 1988a; 1996; EGS), señalando que si los ingenieros de software pueden pensar materialidades alternativas, solo quienes intentaron construir hardware conocen las dificultades para un cómputo no electrónico, así como los límites específicos y recursos necesarios para las máquinas físicamente factibles. En todo caso, nuestro autor quizás hubiese recuperado el desarrollo del telégrafo, pues, como vimos, en cada pasaje sobre el código Morse, Kittler destaca el carácter discreto del binario, que pone en marcha una nueva economía eléctrica de los significantes a través de la frecuencia de letras y números.
Por otra parte, el recorrido que ofrecería el filósofo alemán estaría ligado también a los grandes matemáticos y científicos dieciochescos y decimonónicos. De allí que en la cronología propuesta, Kittler incluya a C. Gauss, G. Cantor, B. Riemann, F. Klein, R. Dedekind, C. Hermite, L. Euler, B. Bolzano, Mandelbrot y muchos otros[6]. Entre ellos quizás figuraría Fourier, en quien se detiene para analizar el desarrollo de un procedimiento de cálculo que permitirá capturar sonidos con medios técnicos (desde el cilindro fonográfico a la computación acústica). La famosa transformada de Fourier y sus análisis de ondas sinusoidales se extenderán para Kittler (1990g; 1993a) en el sistema de muestreo de Nyquist y Shannon. Para nuestro autor, estos recursos analíticos, “a menudo condenados al anonimato, provocan la mutación del espacio del signo (no menos que el alfabeto vocal de los griegos)” y son fundamentales para nuestra cultura (VMT). En particular porque permiten que las frecuencias, señales y temporalidades tomen por asalto las dimensiones perceptivas fenomenológicas.
Otra línea arqueológica quizás hubiese recuperado a D. Hilbert, quien, de acuerdo con Kittler, en medio de la crisis sobre los fundamentos de las matemáticas, hacia 1928 postula nuevamente el problema de si era posible automatizar técnicamente los teoremas y enunciados. Es decir, si existía la posibilidad de un sistema formal axiomático que pudiera resolver todos los enunciados matemáticos en términos de consistencia, completitud y decibilidad –en una serie finita de pasos (Entscheidungsproblem)–. De acuerdo con nuestro autor, el primer punto del programa formalista fue refutado teóricamente, en 1931, por K. Gödel al afirmar la superioridad de la inteligencia (intuición) humana para demostrar que hay teoremas (por ejemplo el de incompletitud) que no pueden resolverse en forma algorítmica. Con ello, la completitud y la consistencia de los enunciados matemáticos no podrían ser alcanzadas al mismo tiempo bajo reglas lógico-deductivas finitas (cfr. Primiero, 2019). Sin embargo, para Kittler (1984a, 2001d) será fundamental la dirección inversa, que buscaba probar la verdad de una proposición matemática a través de un método definido (decibilidad). En otros términos, conseguir demostrar que, aunque las máquinas no podían probar que el edificio de las matemáticas fuese verdadero procesando signos formales, sí podrían resolver problemas matemáticos prácticos. Como han sistematizado muchos autores, Alan M. Turing en las Grantchester Meadows intenta resolver el problema de la decisión definiendo la computabilidad en general y transformando las bases del problema de Hilbert.
Kittler (GFT; 1992a) recupera que ya en su adolescencia Turing tenía problemas en su escuela de Sherborne por su pésima caligrafía y sus métodos no convencionales, que le valdrían bajas calificaciones en lengua y en matemáticas (aspectos que se sumaban a las dificultades de toda persona homosexual en una sociedad británica conservadora). De hecho, según nuestro autor, siguiendo la narración de Hodges y de la propia madre del matemático, en su juventud –marcada por un genuino interés en las ciencias naturales– Turing había contemplado la posibilidad de mecanizar el pensamiento construyendo una máquina de escribir especial para, por una parte, aproximarse desde la mecánica cuántica a la posibilidad de volver maquinal al pensamiento y, por otra, obtener finalmente buenas notas. En definitiva, la situación académica desfavorable para Turing comenzaría a cambiar en el King’s College, donde encontraría un ámbito propicio para el desarrollo de sus ideas matemáticas. Allí, ante el Entscheidungsproblem, Turing imagina, en 1936[7], luego de un año de trabajo solitario, una máquina que pudiera especificar lo infinito de los números reales en condiciones finitas; una máquina pensante que emulara a una persona humana computando a partir de secuenciar y describir todos los pasos de sus operaciones. Es decir, integraría tanto estados mentales finitos de la “computadora” como conjuntos limitados o discretos de símbolos que el artefacto observaría para realizar sus cálculos. Para ello, tal máquina debería ser capaz de leer (escanear) un conjunto de datos de una tira de papel ilimitada con secciones que contuviesen símbolos (binarios) y sobrescribirlos de acuerdo a la lectura realizada y a la configuración de la propia máquina (las condiciones finitas o la tabla de comportamientos que seguiría). Con este procedimiento mecánico (algorítmico), “Turing inventa y define, a un tiempo, el subconjunto de los números reales computables” a través de un procedimiento atomizado que es capaz de realizar las operaciones matemáticas necesarias para escribir decimales automáticamente (Kittler, 1987b; 2017b).
Con estas máquinas abstractas aparecen los autómatas de estado finito, que solo pueden hacer dos cosas: leer con un cabezal una tira de números y escribir con otro al final de ella. Cuando el autómata lee un número no contemplado en la instrucción se detiene para cambiar de configuración. Pero también el corazón de la resolución negativa del Entscheidungsproblem pasará por la imposibilidad de determinar a priori desde una máquina de Turing si en la relación de una configuración y una función la secuencia de cómputos finalizará o no (lo que luego será conocido como halting problem o los riesgos de loops infinitos). Con ello, para Kittler (GFT), el círculo de medios técnicos se cierra y la historia, el viejo continente de la escritura, llega a su fin, pues aparece una máquina capaz de registrar, transmitir y computar cualquier dato sin intervención humana y en una serie algorítmica.
Así, aun campos muy diferenciados y separados dentro de las matemáticas podrían ser introducidos en esta máquina abstracta y en este sentido, para Kittler (2001b: 62), la solución al programa matemático de Hilbert refunda las relaciones entre dimensiones teóricas y aplicadas, pues “la teoría deviene la invención de algoritmos, la práctica la invención de materiales, hasta que la diferencia entre las dos decrecerá tendiendo a ser nula”. Pero, también para nuestro autor (1997d), más allá de la solución del problema, Turing es un materialista que, en una disertación teórica, da un cuerpo materializado a las matemáticas de los autómatas finitos e impulsa así la posibilidad de concebir computadoras empíricas de hardware programable. Por ello señala que
Con la máquina discreta universal se completa el sistema de medios. Tanto los medios de almacenamiento como los de transmisión se basan en un principio de conexión que puede simular todas las otras máquinas de información, simplemente porque en cada uno de los ciclos del programa almacena, transmite y calcula. Una burocracia sin humanos asume todas las funciones necesarias y que bastan para la definición formal de inteligencia. Con los procesadores estándar actuales, un bus gestiona la transmisión de direcciones, una memoria de silicio el almacenamiento de datos y una unidad aritmético-lógica –como combinación de Leibniz y Boole– el cálculo binario de comandos (VMT: 210).
Para Kittler el modelo matemático de Turing era un sistema de feedback que diagramó materialmente tanto la capacidad automatizada de lectura y escritura de símbolos como los saltos condicionales; era una máquina de papel, pero daría lugar a computadoras concretas (cfr. Rodríguez, 2019). Con ella, Turing concluyó todos los desarrollos para el almacenamiento, indexado y procesamiento de datos numéricos y alfabéticos, y estableció el principio de la tecnología digital automatizada. Para nuestro autor eso es todo: ninguna computadora podrá hacer ni más ni menos. Pero es suficiente para desprenderse de las mecanógrafas y computadoras humanas que hasta ese momento eran completamente necesarias para estas operaciones algorítmicamente secuenciadas. Aunque su valor es aún más radical, pues entre las máquinas de Turing comienzan a destacarse aquellas que son discretas y universales en tanto guardan justamente la capacidad de imitar[8] o simular cualquier otra máquina. Esto es, la cinta leída a través de los estados contiene otras máquinas de Turing o un procedimiento recursivo. Será esa vía la que las lleve al centro de la escena bélica.
Unos años después de la tesis de Turing sobre los números computables, como señala la cronología de MM, las sirenas se vuelven eléctricas para advertir sobre los ataques aéreos de la Segunda Guerra Mundial. Pero, a decir verdad, desde su doctorado en Princeton y su vuelta a Cambridge, Turing trabajará en la posibilidad de crear máquinas de encriptado, por ello escribe a su madre sobre la aplicación de las matemáticas para la resolución de códigos cifrados y comienza a construir máquinas codificadoras con relés electromagnéticos, así como otras específicamente diseñadas para funciones y codificación de voz. Como vimos, Kittler, siguiendo a Hodges (2014 [1983]), se enfoca en la electrificación de las máquinas de escribir y en Enigma como un problema central para la inteligencia británica en 1939, pues los comandos ya no eran encriptados por humanos, sino por una máquina que servía para disponer las órdenes de los ataques submarinos. En ese contexto, Turing se vuelve una figura decisiva en los equipos de investigación de Bletchley Park, lugar de criptoanálisis que contaba con una máquina llamada Bomba[9] diseñada por el servicio secreto polaco. Con base en las mejoras propuestas por el matemático, la British Tabulating Machine Company construiría nuevas versiones de Bomba (apodadas “Diosa oriental”) que probaban cada posición de los rotores de Enigma, aplicaban un test para eliminar las poco probables y dejaban solo algunas para ser trabajadas por los criptógrafos. Así, en conjunto con la captura de registros navales nazis, las funciones recursivas fueron la base para decodificar las señales de la máquina secreta con base en procesos de criptoanálisis que contemplaban a la información en términos estadísticos (GFT: 256).
Sin embargo, el fabricante de Enigma pronto incrementaría el número y la complejidad de los rotores de la máquina para la codificación de mensajes entre los altos mandos del Tercer Reich (bajo el modelo Lorenz). Consecuentemente, Bomba ya no podría seguir descifrando a tiempo para detener las batallas del Atlántico y la Blitzkrieg. Para 1942 Turing viaja a Estados Unidos y entra en contacto con criptógrafos y matemáticos del ejército y de Bell Labs –entre ellos, C. Shannon (cfr. Hodges [2014: 305 y sucesivas])–. En tierras norteamericanas se habían remplazado versiones electromecánicas por electrónicas más complejas. Así, siguiendo los diseños de Turing, para 1943, otros investigadores concretarían la construcción de una segunda máquina llamada Colossus (compuesta de 1500 tubos). Este “descifrador inhumano”, como lo denomina nuestro autor, ejecutaba una serie de cálculos y pasaba a los comandos siguientes, por ello conformaría la primera computadora de propósito específico con saltos condicionales y con cierta libertad en los automatismos.
Así, aunque Kittler desprende la genealogía de la máquina universal de la máquina de escribir, señalará que Colossus era mucho más que una máquina Remington, porque incorporaría saltos condicionales (booleano) que dejan de ser un privilegio antropológico. De hecho, con el programa impulsado por Turing –para Kittler– el conocimiento desapareció de las cabezas humanas y se implementó en máquinas, por ello no le extraña que las analogías entre el cerebro y las computadoras electrónicas comiencen a estar en auge.
Para 1945, el matemático ya se encuentra en la Universidad de Mánchester creando las rutinas, funciones y códigos de las primeras mainframe; allí una serie de contactos lo volverán a enfrentar a la investigación de las máquinas pensantes. En especial, Turing, desde finales de la guerra, comienza a diseñar máquinas de computar que podían jugar ajedrez y traducir. Se trata de una vía para que lo computable se desplace sobre la intuición y accedan las máquinas al ámbito de lo incomputable desarrollando comportamientos que excedían los límites de sus programas (y que emulaban procesos intuitivos). En 1950 desarrolla su idea del juego de imitación con su famoso test que anticipaba la imposibilidad de distinguir entre enunciados formulados por computadoras de los creados por personas (predicando inteligencia de las primeras). Con ello, las máquinas discretas pensantes podrían imitar ya no solo todos los procesos de resolución con métodos finitos, sino aquellos que implicaban, como señalamos, aspectos incomputables, al tiempo que podrían “indexar experiencias”: aprender del entorno, registrar sus propias soluciones y autoorganizarse mediante algún tipo de educación. Ciertamente, los problemas del padre de la inteligencia artificial confluyen con los que N. Wiener había delineado en Cibernética (1948).
En el mismo sentido, para nuestro autor, en 1912 (cuando nació Turing) el poder del Imperio británico era equivalente a la energía almacenada en los buques de guerra, pero, al final de su vida, había otro imperio que desde el norte contemplaba toda su potencia en términos informacionales. Con ello se anticipaba que si, antes de la Segunda Guerra Mundial, direcciones, datos y órdenes circulaban entre humanos y máquinas alemanas, los Aliados implementarían progresivamente sistemas automatizados donde los tres elementos se volverían completamente maquinales. Así, se cumple la profecía del propio Turing, que postulaba que “si la tecnología victoriana había mecanizado el trabajo artesanal, la computadora del futuro automatizaría la inteligencia pensante”. Como es sabido, serán estas investigaciones y el famoso juego de la imitación el punto de inflexión para sopesar el alcance del nuevo paradigma informacional.
III. Flip-flops: información y circuitos integrados
Por supuesto, cuando Kittler se refiere a la galaxia o la época de Turing ello no se reduce solo al matemático británico. De hecho, no solo tiene presente en todo momento que se trata de grupos de investigadoras/es que forman parte de ensamblajes técnicos e institucionales, sino que además se detendrá con idéntico interés en otras figuras centrales de la edad de las computadoras.
De allí que, por ejemplo, a menudo nuestro autor recupere la figura de Konrad Zuse, quien, hacia 1938, construyó la primera máquina operativa de cálculo digital (Rechenmaschine Z1). Se trataba de una calculadora mecánica que operaba bajo código binario con programabilidad limitada que era capaz de ejecutar instrucciones leídas en tarjetas perforadas. Sin embargo, la Z1 no funcionaba correctamente, por lo que el ingeniero crearía la Z2, que utilizaba una memoria mecánica similar a su antecesora, pero establecía la aritmética y la lógica de control con circuitos de relés eléctricos. Unos años más tarde, en 1941, con más de 2600 conmutadores telefónicos, desarrolla la Z3, que configuraría la primera calculadora funcional de programa almacenado en cintas y que podía ejecutar aritmética con coma flotante. Si bien, de acuerdo con Kittler (1993a; 2007c), durante la guerra, la Z3 fue utilizada para diversos propósitos de la Luftwaffe, lo más importante es señalar que incluiría saltos condicionales en el hardware (que más tarde encontrarán otra expresión con Plankalkül).
En paralelo a los desarrollos de Zuse, que utilizaban relés telefónicos, como vimos, Kittler (NS) recurre constantemente –tanto desde la historia como desde la teoría– a los del matemático e inventor Claude E. Shannon (1916-2001). Mientras Turing terminaba su diseño de la máquina discreta universal, Shannon comenzaba a trabajar en el MIT[10] con V. Bush en el analizador diferencial. Se trataba de una megacalculadora electromecánica que podía resolver trayectorias balísticas de acuerdo a cambios en las direcciones de los vientos. Shannon propuso reconstruir el tablero de conmutadores y comandos de la denominada “máquina pensante”. Para ello automatizaría las operaciones matemáticas complejas por medio de circuitos de relés telefónicos[11] que trabajaban en código binario y permitían materializar los principios de la lógica booleana en puertas electrónicas (1938).
Luego de mudarse del MIT a Princeton, Shannon comienza a trabajar en secreto en el Comité de Defensa, primero, en misilística y, después, en encriptación de comunicaciones. Para optimizar las transmisiones, los ingenieros de AT&T implementaban, desde finales de la década de los treinta del siglo XX, procesos de modulación por impulsos codificados (PCM) que permitían superar las limitaciones del espectro electromagnético dividiéndolo y expandiéndolo para transmitir en más canales y frecuencias. Nuestro autor analiza cómo se reemplaza progresivamente el envío de señales analógicas a partir de muestreos sobre los valores de los picos de ondas (EGS; VMT). Estos valores se convertían en pulsos (binarios) que eran transmitidos inalámbricamente en una secuencia discreta de bits y permitían no solo analizar, sino también sintetizar las señales acústicas por procesos de simulación en tiempo real (lo que termina con los tiempos modernos, cfr. KT). El PCM, junto con otros procesos, integrará parte del teorema Nyquist-Shannon como forma para repensar la configuración digital de las telecomunicaciones (OM) y servirá, junto con los codificadores de voz del mismo Turing, no solo para conectar telefónicamente a Roosevelt y Churchill, sino también para impulsar a todas las bandas de rock de la posguerra (Kittler, 1988a).
Recién en julio de 1948, en paralelo al desarrollo del transistor, Shannon publicaría un extenso artículo (en el diario técnico de Bell) donde introdujo la teoría matemática de la información (sin las restricciones propias de la confidencialidad bélica). Hasta ese punto los ingenieros se habían concentrado en la forma que tomaban los mensajes y sus significados. Shannon argumentaría que debería pensarse no en el contenido, sino en la información encarnada en el mensaje, sugiriendo que esta podría ser medida en bits y conceptualizada en términos probabilísticos. El punto clave en el envío de mensajes pasaría por la resolución de la incertidumbre, que es la medición de la información (atendiendo al análisis estadístico de la señal de la fuente mediante logaritmos de base dos). Por ello Shannon, luego de convertir toda la información a bits, atiende a la redundancia bajo el idioma inglés y crea la base de cálculo correspondiente para comprimir el envío de información evitando la distorsión del mensaje y asegurando la precisión de la señal de acuerdo a la probabilidad de aparición de los símbolos y al ruido cuantificado en el canal. Con ello calcula la velocidad teorética máxima de la transmisión (el límite de Shannon) y las técnicas de codificación correspondientes para reducción de interferencias y errores.
Estos elementos serían recobrados en conjunto con W. Weaver (1963 [1948]), lo que conforma el famoso sistema universal de la comunicación y nuestro autor, como hemos visto, los supone en los fundamentos de sus diseños, búsquedas históricas y, finalmente, en su conceptualización misma. De hecho, Kittler tiene una admiración particular por Shannon y a lo largo de sus libros encontramos tanto referencias teóricas como anecdóticas[12]. Sin embargo, quizás el orden que más subraya nuestro autor estará ligado a las posibilidades que abrieron las investigaciones del matemático para el paso definitivo de la electricidad a la electrónica[13]. De hecho, para Kittler (2007b; 2007c) la piedra de toque de la electrónica digital serán los circuitos compuestos de puertas lógicas o flip-flops (biestables) en tanto unidades digitales de procesamiento y almacenamiento. Esta aplicación de Shannon tiene, para el crítico alemán, doble importancia ya que reintegra el tratamiento simbólico de datos.
De acuerdo con Kittler (1996f), en 1953 J. Lacan da una clase sobre cibernética y psicoanálisis y compara la circuitería con un laberinto de puertas automáticas. Para el psicoanalista francés estas puertas lógicas binarias son del orden simbólico, abriéndose a lo real mientras regulan el paso y el cierre, bajo la forma de circuitos de conmutadores:
Si hay máquinas que calculan solas, suman, totalizan y hacen todas las maravillas que hasta entonces el hombre había creído propiedad de su pensamiento, es porque el hada electricidad, como se dice, nos permite establecer circuitos, circuitos que se abren o se cierran, se interrumpen o se restablecen, en función de la existencia de puertas cibernetizadas (Lacan, 2008: 446).
Así, para el psicoanalista esta inscripción simbólica de ceros y unos tenía consecuencias en lo real, al tiempo que ponía en duda el albedrío del pensamiento humano al hacer operaciones. De hecho, en la entrevista con Rickels (1992), Kittler sugiere que debería hacerse una lectura completamente matemática de Lacan que interpretase lo real a partir de realidades numéricas a sabiendas de que las secuencias computables son definidas como un subconjunto de los números reales. Con ello, lo simbólico –despojado de toda semántica, figuración o significado– excede lo alfabético y opera directamente sobre lo numérico; deviene en aquello que puede procesar de forma probabilística y estadística los significantes (0/1), esto es, para Kittler, que la noción de lo simbólico –revivida en la sintaxis del binarismo[14]– se superpone a la información vista desde las teorías de Shannon, así como la de lo real lo hará con la de ruido matemáticamente analizado y sintetizado (VMT).
No obstante, aunque sabemos que estos temas hubiesen sido tratados en el proyecto trunco, se puede decir que para Kittler la electrónica se apoya en el surgimiento de tres invenciones fundamentales: primero, como hemos visto, el tubo de vacío; en segundo lugar, el transistor, desarrollado en 1947 y, finalmente, el circuito integrado, inventado en el decenio siguiente.
Así, quizás el cuarto volumen de MM hubiese incluido y reformulado una aproximación a las primeras generaciones de calculadoras y computadoras digitales (mainframe), que utilizaron válvulas y que se desarrollaron estrictamente ligadas a la guerra (como la Colossus). De hecho, probablemente Kittler hubiese vuelto, como hace en GFT, a la ENIAC, que fue construida bajo la dirección de P. Eckert y a J. Mauchly a finales de la guerra entre la Universidad de Pensilvania y el ejército estadounidense, y cuyo diseño le permitía integrar ecuaciones balísticas y calcular trayectorias de misiles simulando múltiples variables (cfr. Ceruzzi, 2003; O’Regan, 2012). Para que la ENIAC calculara las operadoras cableaban diferentes partes de la máquina que permitían ejecutar instrucciones secuenciales, loops y subrutinas en los tubos de vacío, pero esta tarea podía llevar semanas, por ello se dice que la máquina era configurada antes que programada.
Ante este problema, como recupera Kittler (1987b), John von Neumann –matemático húngaro que había pasado por Gotinga, de donde huyó de los nazis hacia Princeton– haría las veces de consejero externo del proyecto ENIAC. Hacia 1945 redactaría un informe que serviría de base para la construcción de las siguientes generaciones de computadoras. Impresionado por la complejidad de las conexiones de cables y tableros de conmutadores, concibe una arquitectura que permitía ejecutar diferentes tareas sin recableado. Para ello, las instrucciones debían ser almacenadas en la memoria. Así, cuando la tarea por computar necesitaba alterarse solo se ingresaba un nuevo programa en la memoria en lugar de recablear toda la máquina. Además, instrucciones, datos y direcciones debían estar en código binario para acelerar el cómputo.
De acuerdo con Kittler (1987d; 1997e; VMT), von Neumann sigue las ideas de Turing –a quien conocía personalmente– en lo que respecta al procesamiento secuencial, concibiendo la nueva arquitectura para computar las bombas apocalípticas norteamericanas. Esta arquitectura contaba con tres sistemas de elementos. En primer lugar, una unidad de procesamiento central (ALU). Luego, una memoria de lectura y escritura para datos y otra de comandos programados que configuran una unidad de control (constituida por tubos o cintas magnetofónicas[15]). En tercer lugar, integraba un sistema de buses para transmisión secuencial de todos aquellos datos y comandos que eran indicados por direcciones y columnas. Para nuestro autor con estas tres partes las máquinas de von Neumann –cuya encarnación en EDVAC[16] fue la más reconocida– articularon la estructura fundamental de la tecnología de información como una interrelación funcional de elementos de hardware[17]. Mientras que todo sistema de medios completo necesariamente debería implementar estas tres funciones y sus elementos, estas se sostenían en la permeabilidad y flexibilidad de la codificación binaria.
Al mismo tiempo, hasta la EDVAC las máquinas eran grandes calculadoras, pero con la noción de almacenamiento de instrucciones, la programabilidad comienza a impulsar nuevas computadoras de propósito general. En términos concretos, la arquitectura von Neumann sería realizada en la década subsiguiente a la guerra por casi una veintena de computadoras[18] construidas en conglomerados industriales, militares y académicos. Además de para cálculos militares, estas máquinas se utilizarían para investigación matemática y estadística, meteorología, astrofísica, dinámica de fluidos, física atómica y para aplicaciones automáticas.
Asimismo, en sus cursos, Kittler no deja de referir a la configuración de hardware y a las primeras estrategias de programación creadas por mujeres matemáticas expertas. Para nuestro autor hay una continuidad en el puesto de asistentes universitarias naciente con los cambios institucionales del sistema de registro 1900 y la paulatina puesta en red de las computadoras mediante códigos alfanuméricos, en tanto combinan como input no solo tarjetas perforadas, sino también teclados (lo que traza un paralelo con mecanógrafas y telefonistas). Así, las mainframe incluían centenares de mujeres que las configuraban y operaban, al tiempo que analizaban los tubos defectuosos (debugging). Por ello, Kittler anota en su cronología que Klara von Neumann inventa hacia 1945 la programación de hardware y, en algunos pasajes, refiere a G. Hopper, matemática de Yale y oficial de la marina estadounidense que trabajaría en la corporación de Mauchly y Eckert y en el desarrollo de los primeros compiladores y lenguajes como COBOL y Fortran (EGS).
Es sabido que las válvulas, además de su volumen, tenían filamentos inestables y generaban temperaturas elevadas, por lo que demandaban costosos sistemas de refrigeración. Estos problemas, junto a las tendencias de miniaturización, lideraron la investigación hacia tecnologías más compactas. Los físicos e ingenieros de AT&T (bajo los proyectos de M. Kelly) investigaron vías alternativas para controlar corrientes eléctricas, enfocándose en la respuesta de los semiconductores (como el germanio y el silicio) a las corrientes eléctricas.
Hacia 1947, en lo que Kittler (1994d; 1996f; 2004b) denomina una de las primeras investigaciones sistemáticas en materiales, W. Shockley, J. Bardeen y W. Brattain desarrollaron bajo el mismo equipo –pero por experimentos separados– el transistor, un dispositivo electrónico de estado sólido que permitía controlar y amplificar la señal eléctrica entre dos terminales, así como alcanzar un comportamiento digital. Esta invención soportó el desarrollo de circuitos uniendo los conmutadores en cascadas o el comienzo de los océanos de puertas lógicas. De esa forma, para el decenio de 1950 los transistores habían sido masificados por las radios en miniatura de la electrónica japonesa y fueron introducidos en las primeras computadoras construidas con estos componentes (Philco y UNIVAC). Es conocida la historia del supremacista blanco W. Shockley, quien, ofendido por la atribución tripartita del crédito y apartado de las patentes de AT&T, a mediados de la década del cincuenta crea una compañía independiente de semiconductores situada en Palo Alto. Sin embargo, antes de terminada la década, ocho de los investigadores, contrariados por no poder continuar sus pesquisas, abandonan al ganador del Nobel y se unen a Fairchild (un contratista militar). Entre ellos se cuentan G. Moore y R. Noyce, quienes fundarían Intel en 1968, así como los impulsores de AMD y de otras compañías que transformarán el pequeño pueblo de California en la base de Silicon Valley.
Para Kittler, luego de los flip-flops con base en transistores, el próximo paso estuvo marcado por la miniaturización e integración de circuitos en una sola pieza. J. Kilby en Texas Instruments para 1958 demostraría que se podría construir un circuito en miniatura usando germanio. Esencialmente, el dispositivo buscaba limitar la soldadura manual de los componentes discretos para la elaboración de la placa, al tiempo que intentaba reducir la complejidad para su fabricación utilizando semiconductores no solo para cada puerta lógica, sino en toda la superficie. Simultáneamente, R. Noyce y J. Hoerni en Fairchild combinaron técnicas fotográficas y limpieza vía ácidos para imprimir en capas circuitos integrados y lograron una producción estandarizada.
Con los circuitos miniaturizados y el proceso de fabricación automatizado, los costos comenzaron a caer drásticamente. Así, siguiendo la lógica de la miniaturización que propone Kittler, los chips se volverían ultralivianos, altamente confiables y de muy bajo consumo energético. Por ello, hacia 1960, Texas Instruments comenzó a fabricar circuitos integrados para la Fuerza Aérea estadounidense, para la NASA y luego para consumo masivo, mientras que IBM decidió utilizarlos para construir las primeras microcomputadoras de propósito general aplicadas al comercio y a la administración.
Para alentar la producción se conocieron predicciones que estipulaban que cada 18 meses el número de transistores encontrados en cada chip se duplicaría, al tiempo que, en el mismo período, su precio se reduciría a la mitad. Este vaticinio tomó el nombre de ley de Moore, pues quien la formuló en 1965 fue G. Moore, fundador de Intel. Es sintomático que, en diversas oportunidades, Kittler anuncie un análisis in extenso de dicha ley que llegaría en el cuarto volumen de MM. De hecho en sus cursos y en MM 2 señala que si el desarrollo biológico se mide en millones de años y el cultural, en milenios, el de las computadoras lo hace en meses, por lo cual nuestras ética y programación deberían ajustarse a la temporalidad desencadenada por la ley de Moore (EGS).
De forma singular, la industria del chip se aferraría a esta predicción por casi cincuenta años, acompañando el crecimiento de Intel[19]. La compañía, a inicios de la década de los setenta, tras diseñar circuitos integrados especializados para empresas japonesas que buscaban disputarle mercados a Texas Instruments y Motorola en las calculadoras, comenzó a desarrollar una serie de chips estandarizados que podían ejecutar las funciones básicas de una computadora (RAM, ALU). De hecho, para Kittler (EGS) el único poder industrial norteamericano genuino es Intel, pues a sus ojos es una compañía innovadora preocupada por el futuro (a diferencia de las petroleras, que son una fachada del pasado).
Finalmente, la estandarización de los microprocesadores por Intel llevaría al desarrollo de las computadoras personales. En 1971 se introduce el microprocesador 4004 (diseñado por M. Hoff), que tenía una capacidad de procesamiento de 4 bits e integraba unos 2300 transistores (como la ENIAC, pero en unos centímetros). Así, un solo chip podría contener todos los componentes de la computadora, de allí que se podría incrustar en una amplia variedad de aplicaciones, como controles de automóviles, cámaras, contestadoras, máquinas médicas, etc. En 1974, Intel introdujo el microprocesador de 8 bits de la serie 8080 y, en 1978, la serie 8086 de 16 bits marcó el inicio de la arquitectura x86. En términos generales será esta serie de microprocesadores (junto al Z80) la que forjaría estándares industrializados y, particularmente, es la que le servirá a Kittler (1986c; 1994a) para aprender el lenguaje ensamblador y el lenguaje de máquina. A inicios de la década de los ochenta Intel lanza el procesador 80286 de 16 bits, y nuestro autor le dedicará especial atención a las transformaciones que se inauguran con esta nueva configuración (que está en el corazón de su IBM AT).
IV. Genealogía del software
Terminamos el apartado anterior siguiendo las series de microprocesadores Intel, pues Kittler les da un lugar central en su ensayo de 1991 llamado Protected Mode (VMT), donde comenzará a perfilar una de sus tesis más conocidas y controvertidas. Para nuestro autor, con la computación personal y los procesos de miniaturización empiezan a disolverse las posibilidades de operar directamente sobre los circuitos con soldadoras[20], y por ello se detendrá en la programación de bajo nivel. Su punto de partida es que los primeros modelos de Intel no soportaban soluciones cerradas, sino que debía comprenderse la lógica computacional. Sin embargo, Kittler muestra cómo las configuraciones de los procesadores Intel 80286 y 80386 (así como la de los Motorola 68000) cifran un mojón histórico del cual no parece haber retorno. Para el filósofo, bajo el pretexto de mayor seguridad de funcionamiento, desde esos modelos se incluye un “modo protegido” (así como jerarquías entre niveles de supervisor y cliente) que separan los procesos del chip tanto del sistema operativo (configurado de antemano en MS-DOS) como de los programas de (quienes han sido reconceptualizados como) usuarios y consumidores finales. Para ello no solo se evitan los accesos indeseados a los niveles operativos más profundos, sino que también se ralentizan operaciones del llamado modo real y queda arbitrariamente establecido de antemano qué es una dirección, qué es un comando y qué es un dato.
Para Kittler, con la “protección” del procesador mediante la configuración del sistema operativo en formato multitarea y multiusuario, Intel y Microsoft deliberadamente oscurecen la diferencia entre los dos modos y esconden la ineficiencia que tales desdoblamientos traen aparejada. Así, el modo protegido no encierra ninguna maravilla de cómputo, sino un tipo de aislamiento; una capa técnica inaccesible. Imprime en silicio la lógica del Pentágono (Kittler, 1994a). Con las interfaces de usuario, la accesibilidad y la protección de datos, eliminan las posibilidades de operar directamente sobre las máquinas de Turing: “la industria con el paso del tiempo ha condenado al ser humano a permanecer como humano” (VMT: 235).
Esta nueva arquitectura tiene como consecuencia transferir y replicar el secretismo –propio del complejo militar e industrial– a la tecnología de la información. Por ello, el texto más difundido de nuestro autor apunta directamente al debate que surge de la misma historia de la computadora como medio. En su escrito “No hay ningún software” (VMT; 1993a) sostiene que vivimos una transformación de la tecnología de la escritura. Los escritos y los textos se han desprendido de los tiempos y espacios perceptibles y funcionan ahora en los transistores, con ello los procesos de alta tecnología crearon un mundo de significantes que dependen de la geometría de los chips. Pero, al mismo tiempo, en este escenario la miniaturización afecta a los signos llevándolos a la medida molecular del silicio, donde el acto de escritura humana desaparece radicalmente: “Todos sabemos […] que ya no es el hombre quien escribe” (VMT: 246). Así, la escritura transcurre solo mediante inscripciones electrónicas, pues, como vimos, para nuestro autor, a diferencia de todas las técnicas escriturales de la historia, la computación está en condiciones de leer y escribir automáticamente.
En los términos de Kittler “[l]a llamada filosofía de la sociedad computacional […] hace todo por ocultar el hardware tras el software” (VMT: 250). Traslapa los significantes electrónicos y las diferencias de voltaje de los flip-flops tras las interfaces gráficas de usuario (que borran la eficiencia de los comandos), las configuraciones de la BIOS o el mismo modo protegido (que limita el acceso al registro). Se trata de una filosofía no solo legible en las grandes corporaciones, sino también en la industria editorial de divulgación y en los congresos, donde se desestima la posibilidad de conocer el lenguaje de máquina, al tiempo que se abona el cuento fantástico de la interfaz amigable (Kittler, 1993d; 2000e). La falaz transparencia de las máquinas esconde sus operaciones internas, permite a los humanos ocultar de sí mismos los procesos no-humanos de lectoescritura automatizados, al tiempo que forja un engaño, pues nos hace creer que estamos a cargo de las computadoras cuando el modo protegido impide modificar el procesador (en particular, nuestro autor se detiene en UNIX y su aplicación a la serie Intel). Con ello “ya nadie puede controlar su propia máquina” (VMT: 251). Así, creemos que la computadora es una mera herramienta y nos ilusionamos con un sujeto que maneja libremente el software. Por ello, dirá Kittler que la simulación de que el software existe realmente es una efectiva “estrategia posmoderna” cuya emergencia está ligada a la contingente relación entre sistemas computacionales y lenguajes cotidianos.
De esa forma, para Kittler (1998a), el hecho de que “ignoremos” el hardware es “un efecto [claro] de la programación”. El software parece gritar el triunfo de la inmaterialidad y una nueva conquista del Espíritu sobre la cruda materialidad de las cosas; una especie de nuevo reino de libertad que terminaría de implementar todas las tesis del idealismo alemán. Por ello, como apunta Winthrop-Young (2011a: 75), en la estrategia de Kittler “[…] [t]oda la energía polémica antes reservada contra la glorificación del sujeto ilustrado es redirigida ahora contra el software”. En su versión más simple[21], el materialismo de nuestro autor parece señalar que no hay ningún software por la misma razón de que no hay una facultad elevada conocida como Espíritu, ya que ambos pueden ser comprendidos como configuraciones efímeras de la circuitería (esto, en cierta forma, es otra versión del materialismo que postulaba un cerebro maquinal).
Pero, en un nivel más complejo, evidentemente, Kittler no negaría el diagnóstico antifetichista generalizado por muchos historiadores que han señalado que, a mediados de la década del setenta, con su separación del hardware, el software se convierte en un producto de mercado que hoy denominamos privativo o propietario (cfr. Campbell-Kelly, 2003). Por ello, si nuestro autor construye una continuidad de esta lógica entre Intel e IBM, también hace esta lectura a la luz del creciente monopolio de Microsoft[22], que comienza con Macro Assembler. Es esta lógica la que a inicios de la década de los noventa, lejos de abrir los contenidos de las computadoras, solo termina de coagular una estricta vigilancia. Así, la misma estrategia de separación que bloquea el acceso al poder (o, mejor dicho, a la potencia maquínica) produce un cierto tipo de subjetividad gobernada, pues, para el filósofo alemán, lo que llamamos software es una vía para oscurecer las burocracias corporativas en las cuales las máquinas operan: “uno escribe como sujeto o súbdito de la corporación Microsoft” (VMT: 234). Al utilizar los software y sistemas operativos como MS-DOS o Windows, dice nuestro autor, “los comandos de la empresa se vuelven nuestros comandos; sus límites, nuestros límites”. Las mismas tendencias las verá en Apple, que cierra las computadoras y elimina así la posibilidad de ganar conocimientos.
Para nuestro autor, de hecho, esta estrategia se cifra en un supuesto memo de la compañía de Gates donde enfáticamente se incentivaba un oscurantismo cifrado en traslapar a las computadoras detrás de la discreta fachada de gadgets. Se trata de una “moda” que vende computadoras como si fuesen muebles de escritorio, televisores, teléfonos, lavarropas o, incluso, autos[23] (Kittler, 1998a; 2002b; 2014 [1994]). Independientemente de la perspicacia de un autor visionario que anticipa la Internet of Things y la multiplicación smart en las ciudades, Kittler ve la mayor amenaza en que los postulados de la industria llevan a que los usuarios sean tratados como computadoras, esto es, como si fuesen programables. Aquí hay un argumento mucho más oscuro y controvertido de nuestro autor que queda claro en 1995, cuando le señala a Virilio que el aumento de las corporaciones en Internet iba a ir de la mano con una pérdida del poder de los programadores y no solo de los usuarios.
En el mismo sentido se leen sus apreciaciones sobre la red de redes, pues, si bien nuestro autor no deja de subrayar la presencia de la fibra óptica (o la luz como medio) para el envío y transmisión de datos y en algunos escritos se detiene en ARPANET como infraestructura de control descentralizada e intercontinental de misiles (1998c), hasta donde conocemos no escribe una arqueología de Internet. En particular, hay dos motivos para ello: por una parte, Kittler rechaza, desde inicios de la década de los noventa, cualquier transhumanismo que puje por una fusión en el ciberespacio de silicio y cerebro, ya que la industria crece por el software y no por ese tipo de híbridos imaginados por el ciberpunk (SC; Rickels, 1992; Wegwerth, 2005). Por otra, para nuestro autor, es falso concebir que Internet signifique conectividad entre personas a escala global, pues son las máquinas las que se interconectan y continúan incrementando su poder de cálculo en una suerte de autorreflexión de los sistemas de cómputo que impulsa y profundiza el desarrollo tecnológico. Esa era la tendencia de las mainframe que las computadoras “personales” nos hicieron olvidar por un tiempo y que regresó en toda su potencia con las redes globales y la computación ubicua (Kittler, 2001b; 2017b; Armitage, 2006; Johnston en LMS).
De allí que cada vez que se le preguntaba sobre las supuestas redes sociales demostraba un total desprecio hacia el tópico ya que tenía la desagradable sensación de que las personas son tan poco importantes para el poder y para los negocios que la autopresentación y el exhibicionismo exacerbado se han convertido en el último recurso (Rosenfelder, 2011; Khayyat, 2012). Por ello dirá que la comunicación ordinaria entre personas no necesita ser duplicada. En todo caso, como aclara en sus cursos de EGS, el factor humano en Twitter, Facebook y otras compañías no es tan importante y solo parece ser una reedición de las viejas cartas decimonónicas de lectores. Mucho más interesantes le parecían las interconexiones de grandes servidores, corporaciones empresariales y motores de búsquedas. Así, señalará que la prevalencia comercial y técnica de Google explica la declinación de Microsoft, pues los operating systems han sido transferidos a servidores y programas que encuentran su vía hacia el usuario final en las famosas nubes de metal y dependen cada vez más de infraestructuras energéticas (que provocarán para nuestro autor nuevas guerras por recursos naturales).
Pero también el cloud y el crowd computing hacen que el trabajo en red sea completamente autorreferencial al transponer los contenidos de medios escriturales, ópticos y acústicos siempre de acuerdo a sus arquitecturas de hardware y software (SC). Con ello, la democracia no se extiende a la velocidad del cómputo globalizado, al contrario, con los clústeres informáticos distribuidos la “dominación mundial ha dicho adiós al antropomorfismo” (Kittler, 2001b: 66). Ese escenario conlleva también que las políticas sean cada vez más dependientes de simulaciones computacionales y se apoyen en la monopolización y el control de las redes de información (Kittler, 1993d).
En ese sentido nuestro autor, junto con Virilio, sostendrá que la ilusión de libertad inducida por la información[24] surge de una nueva uniformidad implantada de forma enmascarada, pues los viejos tiempos en los que cada uno podía hacer lo que quería con sus computadoras han quedado en el pasado. “Todos estamos siendo controlados a través de nuestras máquinas y cuanto más en red trabajan, más estrictos se vuelven los mecanismos de control y seguridad” (Kittler en Virilio y Kittler, 1999: 84). De hecho vaticinará que, en el corto plazo, Internet caerá en las manos del gran capital y de las burocracias corporativas propias del info-imperialismo norteamericano, que harán todo lo posible para terminar con la democratización de la información. Así, a pesar de que el costo de producción de hardware está tendiendo a cero, no podemos decir que estemos logrando una democracia informacional. Por ello, para Kittler cuando todo el mundo habla de la web, se suelen olvidar las arañas omniscientes que la tejen y que alimentan a sus ordenadores cada vez con más víctimas (SC: 173 y sucesivas). Un cuarto de siglo más tarde estos vaticinios parecen haberse cumplido.
Es sabido que el software empaquetado con sus soluciones propietarias, patentes y marcas registradas oculta sus condiciones de producción e impide su modificación. Para nuestro autor se trata del nicho que permite conservar los copyright en una época que ha perdido el espíritu del autor (una mera proyección nostálgica, al decir de Gumbrecht), al tiempo que el ocultamiento de las instrucciones algorítmicas solo sirve para perpetuar el mito de los humanos como agentes primordiales de los procesos creativos (Sale y Salisbury, 2015). De hecho, Kittler sostendrá que es una atrocidad el uso de copyright en el ámbito de la programación, ya que durante milenios la privatización de las matemáticas fue expresamente prohibida, pero ahora hemos naturalizado que los algoritmos y el software puedan ser patentados como parte de estrategias de monopolización que son insostenibles a largo plazo.
Concomitantemente, no es extraño que el filósofo alemán haya apoyado a los movimientos open source y free software y que haya sido invitado a asociaciones como el Chaos Computer Club. En efecto, en su artículo más controvertido, Kittler cita al manifiesto de R. Stallman y anota en su cronología –como un acontecimiento fundamental para nuestra época– el nacimiento del defensor del software libre[25]. Al mismo tiempo leerá como uno de los ejemplos más claros de ruptura con la fuerza de la industria del software y una muestra de las potencialidades de distribución por redes de código abierto a la invención de Linux por Linus Torvalds (Kittler, 2001b). Al punto de señalar que, por un lado, a través de los sistemas operativos libres y gratuitos con distribuciones open source y, por otro, con un hardware libre que tendencialmente debería ir a costos nulos (ya que el silicio duerme en cada piedrita del planeta), se puede lograr una crítica interna del capitalismo tardío. No obstante, esa resistencia es el reverso de la digitalización de los contenidos de los viejos medios analógicos que marca la tendencia comercial de Internet como ocultamiento de las infraestructuras informáticas que la sostienen.
Con ello se cierra el ciclo abierto en AS, ya que lo que había comenzado como una composición de la alfabetización vía la madre y luego había sido quebrado con la tríada de medios ópticos, acústicos y escriturales debería haber seguido el camino hacia un alfabetismo de los números computables con las primeras máquinas de información. No obstante, ello no ocurrió y hemos decantado nuevamente en un profundo analfabetismo (SC). Un analfabetismo computacional que genera regalías y ganancias porque es imposible que la gente que no puede escribir ni leer código devenga en hacker. Pero también porque, para el filósofo, la industria ha generado un analfabetismo propio del campo informacional entre códigos binarios y lenguajes de programación de alto nivel (así como entre diseño de las arquitecturas de chips y soluciones ready–made de los software empaquetados [cfr.1994a]).
A finales de 1990, Kittler observa la división entre, por un lado, las personas que pueden conocer y escribir código y, por otro, quienes solo están expuestas a su mero efecto de intoxicación psicodélica (SC: 87 y sucesivas). De hecho, para nuestro autor, aunque la tecnología de la información es radicalmente reprogramable, nuestra concepción de sociedad y de educación niega sistemáticamente el acceso a ese conocimiento coincidiendo con los postulados de la industria. “Hay, por tanto, un endémico analfabetismo computacional que se crea a través de la propaganda, de la publicidad y de las estrategias de marketing que impiden que las personas accedan a la tecnología” (Kittler en Virilio y Kittler, 1999: 83-84). Pero también dentro de aquellos que saben codificar Kittler ve algunos elementos preocupantes en quienes solo conocen lenguajes de alto nivel que automatizan las prácticas de codificación a través del paradigma llamado de programación orientada a objetos[26]. Por ello, anticipará que tampoco a los programadores se les hará fácil en el nuevo mundo de la ubicuidad computacional, donde cada vez habrá menos espacio para los hackers, pues pronto quedarán relegados a los millones de expulsados por “cuestiones de seguridad”. Para Kittler dueños, ejecutivos, gerentes de marketing y representantes legales de las grandes firmas de software seguirán tratando como esclavos de la programación a los desarrolladores. Así, en el big business, los programadores son ejércitos de siervos que pueden ser exprimidos durante sus años juveniles para luego ser desechados o retirados cuando han quedado estresados y exhaustos (SC).
De hecho, para nuestro autor, Shannon, Zuse y Turing, para quienes diseño y función iban juntos, no tenían problemas para interpretar el código binario, que les resultaba tan fácil como a nosotros el decimal. En la siguiente generación de computadoras se vio la necesidad de que las máquinas incorporaran tarjetas perforadas para adquirir legibilidad (unidimensionalidad) e incluir sistemas hexadecimales de registro que pudiesen abreviar la longitud de las direcciones. Input y output consistirán en columnas numéricas hasta mediados de la década de los cincuenta (en las mainframe). Por esos mismos años, de acuerdo con nuestro autor, comenzaron las búsquedas de un lenguaje universal formal de computación que pudiese competir con los lenguajes cotidianos (Balkema y Slager, 2001). Sin embargo, no funcionó: según Kittler, ningún programador pudo conocer todos los lenguajes y sus estilos. Para proveer una interfaz de usuario más amigable, la tecnología de las computadoras debió sustituir sus ceros y unos por números e imágenes, confundiendo hardware y software con interfaces de menor complejidad matemática. Como consecuencia, para Kittler (1993b; 1993d; 1996d, 1996f; 1997a), se empezaron a escribir “programas de computación como si fuesen novelas decimonónicas” y, bajo la Torre de Babel de los lenguajes de alto nivel, el trabajo de programación comenzó a perder la elegancia matemática de Turing.
A decir verdad lo que parece criticar Kittler es el abandono del paradigma de programación estructurada (un poco más cercano a la lógica de Assembler) y el paso a niveles de abstracción más elevados, como el empaquetado de clases y objetos, así como el auge de los lenguajes de marcado, puesto que, para nuestro autor, cuanto más sofisticados y cómodos sean los lenguajes, más infranqueable es la distancia entre ellos y el hardware. De hecho, según Kittler (1999a), en el espejo de los transistores el así-llamado-wetware es solo un recordatorio de lo que queda de la especie humana cuando el hardware descubre sin descanso todas sus fallas, “mientras que el negocio multimillonario del software no es sino lo que el wetware hace del silicio: una abstracción” en la que supuestamente no importarían los marcos temporales de ejecución para gobernar las máquinas.
A menudo se suele retener solo este aspecto de la crítica kittleriana sobre el analfabetismo computacional y el carácter fantasmagórico del software. Sin embargo, nuestro autor postula un tema escandaloso en 1990 cuando la cantidad de programadores ya superaba a los ingenieros de hardware y construye toda la serie de sus artículos como provocaciones. Al punto tal de que ponerse a discutir su veracidad o su grado de ajuste a la industria es errar. Kittler no está argumentando que el software no existe en los términos de una descripción, sino que está sosteniendo, quizás, su posición política más explícita: un llamado contramonopólico a abrir las capas técnicas que debe pasar por un nuevo ensayo alfabetizador.
En primer lugar, como señala Werber (2011), en estos análisis Kittler, siguiendo a Foucault, demuestra que el poder ya no es una función de la llamada sociedad, sino que son las arquitecturas de los chips las que –con sus modos de accesos diferenciales y privilegios de usuarios– materializan relaciones de fuerza. Así, las relaciones de poder están inscriptas en los procesos tecnológicos mismos. Los microcódigos de la informática –cuando cifran órdenes y comandos sobre direcciones– podrían ser comparados con la única definición válida de ideología y de sujeción que el filósofo parece recuperar. Es decir, la definición operacional de la interpelación conceptualizada por Althusser:
[…] el ciudadano es quien, ante el llamado “¡Eh, usted!” de un policía en la calle, se detiene y voltea. […] Los centros de comando, por tanto, no se encuentran allí donde un poder enarbola sus símbolos más altos, sino que estos habitan en las líneas perpendiculares más insignificantes y, como puentes, se tienden sobre gráficas que no se dejan aplanar (VMT: 169).
Así, mientras los medios analógicos (que antes estructuraban los flujos de datos) eran más difíciles de ser controlados por sus incompatibilidades y estándares en disputa, la computación como medio está sujeta a una lógica algorítmica de control que gesta una sola estructura de poder cifrada en microchips. Por ello, ante los controles y registros norteamericanos, Kittler menciona que otras arquitecturas asiáticas y europeas de chips, sin ser la panacea, serían alternativas al imperio. En todo caso, como ya lo había postulado V. Flusser (2015), el trabajo de la nueva crítica sociológica debe interrogar los circuitos integrados y los microprocesadores, que revelan una nueva burocracia impresa en silicio. De hecho, para Kittler deberíamos pensar una “sociología cuyos agentes no sean solo personas” (Barberi, 2000: 113).
De esta forma señala en la entrevista con Virilio (1999) que, cuando nos familiarizamos con nuestras computadoras, de repente nos damos cuenta de que ya no estamos solos, pues convivimos con más de un centenar de programas que se ejecutan en el background. Estos programas son los llamados “servicios”, “agentes”, “controladores embebidos”, “API” (application programming interfaces) o “demonios” (daemons), que tienen una extraña proximidad con el usuario y que, aunque nunca los vea, operan permanentemente con él (Kittler, 1993d; SC; 2017b [2007]). En consecuencia, se debería dejar atrás el viejo sueño de los sociólogos de una sociedad y una cultura hecha solo de seres humanos, pues dicho término deberá incluir en el siglo XXI tanto a personas como a programas y procesadores.
Sin embargo, en segundo lugar, la sociología no es suficiente. No solo porque para Kittler sociedad es otro falso principio organizador, sino también porque el poder ha cambiado de escala y ha pasado de los lenguajes cotidianos a los nanométricos circuitos “transformando su método y los blancos de ataque” (VMT: 240). Por ello, nuestro autor hace algo que, a menudo, se pasa por alto. Al analizar la estructura de Assembler de Intel se detendrá en los recovecos que permiten burlar las prohibiciones de entrada y violar los privilegios, señalando que estas instrucciones son solo esporádicamente mencionadas en los manuales y son sistemáticamente eliminadas de las traducciones y documentos. Con ello, Kittler afirma que solo un centenar de líneas en Assembler resuelven el problema de la metafísica posmoderna y nos permiten desviarnos de la caja de hierro corporativa del sistema operativo. En otros términos, sus ensayos no son solo sobre las franqueables barreras de Intel, sino que configuran una suerte de comentario sobre cómo hackear el modo protegido a través de comandos no documentados o “parches y técnicas de evasión”. Y así, quizás, generar una suerte de tendencia que vaya a contramano de las estrategias de la lógica cibernética burocratizada (VMT: 244); abusando de y jugando “con los poderes” del control (GFT: 110).
Pero, según Kittler, para ver estos cambios en las configuraciones predeterminadas para los usuarios no debemos fijarnos en la informática más elevada, sino en el trabajo empírico de los ingenieros. Por ello, su combate contra el software no es una negación, sino un llamado a reintegrar estudios de electrónica digital, programación básica y lenguajes operativos de modo generalizado para todas las capas sociales como estrategia contra la dependencia de las grandes corporaciones. La solución parece ser educacional e implica técnicas culturales que –en el medio de transformaciones en las universidades– permitan aprender a escribir y leer código (cfr. 1991a).
V. Paradojas del programador: contra el analfabetismo computacional
Así, como señalan Parikka y Feigelfeld (2015) y Krajewiski (2011), si es verdad que Kittler denuncia el software, no menos cierto es que durante su vida escribió miles de líneas de código (cfr. Wegwerth, 2005). Por lo tanto, la crítica de nuestro autor se dirige al software privativo y especialmente a los sistemas operativos, verdaderos objetos técnicos cerrados que programan a sus usuarios finales.
Hay una razón biográfica para estas posiciones. Kittler comienza a programar en una época que aún está a mitad de camino entre la microelectrónica y las computadoras personales, donde todavía se debía tener un conocimiento de lenguaje de bajo nivel para todo aquel iniciado que operara máquinas informáticas. Primero, como dijimos, con su hermano menor construye un sintetizador soldando circuitos y cables, y toma dimensión de la materialidad de la máquina. Luego de esas experiencias el joven Friedrich compra su primera computadora personal. Por ello, durante la década de los ochenta, mientras escribía sus obras fundamentales en procesadores de texto, comienza a escribir código como forma de extender sus conocimientos electrónicos para, finalmente, en el decenio siguiente dedicarse a tiempo completo a esas tareas.
De acuerdo con los curadores de los programas que escribiría nuestro autor, el primer paso que Kittler tomaría en la programación no sería orientada a aplicaciones y a los usuarios finales, sino que intentaría encontrar los límites de lo que el medio podría ofrecer, optimizando los procesos y exprimiendo hasta el último hercio de los procesadores. Así, Kittler encara la programación como estrictamente relacionada con el hardware; esto es, como un sucedáneo de los pasos que podía dar con su soldadora y de la manipulación técnica de los bloques fundamentales, ya que con la codificación se podrían alcanzar los niveles micro-temporales de los procesadores, donde ya no podía juguetear con los dedos sobre los circuitos electrónicos. En ese sentido, no es extraño que haya preferido escribir en Assembler y en C, por su cercanía a los procesos de hardware y su importancia en los sistemas embebidos de la ubicuidad computacional (Kittler, 1996f).
De tal modo, la idea nietzscheana de que los instrumentos de escritura modelan nuestros pensamientos se aplica también a la relación entre hardware y software, pues cada acto de escritura que ejecuta el software es especificado por el hardware, que indica cómo debe darse esa operación. Sin embargo, nuestro autor no es un desarrollador de software muy convencional y, tanto para Feigelfeld como para M. Marino (2020), la estética y la poética tienen un lugar fundamental en la sintaxis y en el estilo de los códigos que escribiría Kittler. De hecho, como veremos, una de las claves de lectura de su código pasa por señalar que Kittler convertiría toda la teoría y la historia de la óptica subyacente en programas gráficos (OM).
Así, Kittler afirma que programar es una nueva forma de alfabetización, y una particularmente emocionante, puesto que en ella, casi mágicamente, se tiene la impresión de que lo que se escribe de hecho está sucediendo (Griffin y Herrmann, 1996). “Se escribe algo, se aprieta enter y lo escrito se ejecuta frente a sus ojos –asumiendo que no haya errores–”. Se trata, para el filósofo alemán, de una forma de alfabetización en un campo completamente diferente que también implica otras rutinas, donde no solo se adquiere conocimiento sobre cómo crear parágrafos y notas al pie, sino que se aprende, a través de técnicas recursivas, a resolver problemas. Por ello, tiene la sensación de estar frente al final de la literatura hecha de oraciones, ya que cada microprocesador implementa lo que alguna vez fue el “sueño cabalístico” (NS; GFT). A través del cifrado y la manipulación de signos alfanuméricos se contienen y ejecutan procesos y resultados.
De allí que, a mediados de la década de los noventa, plantee Kittler que la programación es fundamentalmente necesaria para los estudios culturales. Quienes se formen en dichas áreas –además de saber redactar correctamente– deberían conocer algo de aritmética, álgebra y cálculo, pero, particularmente, deberían manejar al menos dos lenguajes de programación para ser capaces de formular premisas sobre la cultura contemporánea (1997a). Aún más, para nuestro autor, si entendemos a la cultura como un sistema de signos, el pensamiento crítico solo emerge de la relación y la comparación entre los programas que podemos crear y los artículos que podamos redactar. El pensamiento crítico de nuestro tiempo parece ser una combinación práctica e híbrida de programación y ensayística.
Kittler –en una de sus habituales formulaciones crípticas– también parece tener en mente que nuestra salvación en la era de la técnica viene de un conocimiento matemático acabado. Algunos de sus textos sugieren que casi no alcanza con saber programar, sino que hay que conocer los fundamentos matemáticos. No es suficiente con entender el paradigma orientado a objetos, sino que deberíamos leer binario o, como mínimo, manejar Assembler, pues allí es donde, en último término, hay una legible relación fundamental entre programación y hardware.
De hecho, para Kittler, Assembler es el lenguaje de programación más elemental (EGS), no solo por la correspondencia entre comandos e instrucciones de máquina, sino también porque, heredero del inglés, solo permite ejecutar mnemónicos (ADD, LDA, STO, SUB, MUL, JMP, MOV, etc.). Solo se pueden dar instrucciones, pero no hay opciones, no hay casos gramaticales; es la última forma del indoeuropeo, que ha perdido sus conjugaciones y declinaciones en favor de imperativos (Kittler, 1988a, 1988b; 1997c). Es un lenguaje cuyos signos no refieren a un sentido, sino que ejecutan las operaciones que contienen (VMT). Una nueva semio-técnica de símbolos que al nivel de la CPU pone en marcha la estructura de datos, direcciones y comandos.
Por ello, Kittler (2008: 40) no duda en recuperar el viejo dictum de GFT: “Los códigos –por nombre y por materia– son lo que nos determina y lo que debemos articular aunque sea para evitar desaparecer bajo ellos completamente. Son el lenguaje de nuestra época […]”. En especial, el código en la actualidad está presente en todas las líneas e instituciones de investigación que subrayan que no hay nada (desde los virus hasta el Big Bang) que no sea codificado o codificable. De allí que señale que si cada época histórica es gobernada por una filosofía, la nuestra corresponde a la del código, que es lo que nos gobierna en tanto subyace a la ley y a las normas; un nuevo reino de estándares que debe hacerse legible para los estudiosos de la cultura[27]. De hecho, Turing mismo cuando exploraba la posibilidad técnica de máquinas que aprendiesen asumía que el habla podría ser adquirida no solo por las computadoras, sino también por robots equipados con sensores y actuadores, esto es, con conocimiento del medio ambiente. Por ello, sea que escribamos los códigos o permitamos que las máquinas deriven códigos de su medioambiente, en último término, el dilema entre codificación y lenguaje cotidiano no deja de ser un problema para nuestra época.
Para el filósofo alemán cualquiera que haya escrito código sabe que, en primer lugar, todas las palabras llevan a errores y bugs y, en segundo lugar, que el programa se ejecutará de forma apropiada solo cuando la cabeza del programador esté vaciada de palabras. Por ello, nuestro autor se muestra dubitativo y no afirma directamente que la codificación signifique que el lenguaje ha sido desocupado como casa del ser[28]. De hecho, para Kittler (1993a), la escritura y los medios técnicos tienen una materialidad que es diferente a la definición de lenguaje. Sobre todo es diferente a la poesía, aunque definitivamente no el opuesto (Khayyat, 2012).
En ese sentido, nuestro autor se va a detener en la famosa frase que califica como “un poco humanista” de Heidegger (Wegwerth 2006). Evidentemente, como dice Winthrop-Young, hay una premisa de la obra de Kittler que se expresa como el desempoderamiento del sujeto hablante, ya que no solo hablamos, sino que somos hablados (pues, como diría Lacan, el inconsciente está estructurado como lenguaje). Pero también, para nuestro autor, ello implica que el lenguaje en un sentido elemental es sobre todo moralidad: “hablar y cantar, la poesía de nuestras lenguas maternas conforman una flor que nace de la boca” (como refería Hölderlin[29]) y ese florecimiento no se puede equiparar a medio técnico alguno. Para Kittler, nuestra lengua materna no es en absoluto un medio, no podemos manipularla. Aunque sí podemos escribirla, por ello por mucho tiempo la escritura y los impresos serán el único medium. Sin embargo, para Kittler
[e]l lenguaje natural, el territorio o el dominio único que las humanidades proclaman suyo por derecho propio, no queda inafectado por la emergencia global de las computadoras, desde que Turing demostró que los lenguajes formales existen como tecnologías y no solo como teoremas matemáticos (2006c [1996]: 47).
En ese sentido se puede entender que, para Kittler (1993b), los lenguajes nacionales y cotidianos han sido reemplazados progresivamente por los de programación, de allí que aunque las personas continúen hablando en castellano o en alemán ya han comenzado a migrar a lenguajes estandarizados de computación que se pueden leer y escribir, pero que en absoluto se rigen por procesos interpretativos como los del lenguaje cotidiano. Pues, para Kittler
El hecho de que el hombre, para usar la frase de Nietzsche, sea el animal no definido [no fijado], significa sobre todo que su construir, pensar y habitar, para usar la frase de Heidegger, están determinados y orientados por los medios de comunicación (2014: 101).
Así, para nuestro autor parece haber una tensa e irresoluble continuidad entre la idea del lenguaje como casa del ser y los lenguajes formales que se materializan en las puertas lógicas binarias de la arquitectura de chips en el medio de la ubicuidad computacional. Pero esto también significa que la computación involucra un lenguaje “que tiene su propio tipo de moralidad (morality) en la parte más alta de los medios técnicos”. Nuestra vida cotidiana nos familiariza con esa moralidad globalizada e imperial, pero solo es posible verla cuando uno es capaz de programar su propia computadora, cuando se aprenden lenguajes de programación. De allí que desconfíe de los profesores de literatura que no han escrito poemas y de los estudiosos de los medios que no saben programar.
Ahora bien, ¿qué significa repensar la moralidad de los lenguajes de programación? Aunque Kittler no irá mucho más allá, en principio, parece ser claro que la programación –en lenguajes de alto y de bajo nivel– es una forma de acercarse a los algoritmos. Por ello, una primera vía para este pensamiento será práctica, pues, como anticipamos, Kittler se dedica a la computación gráfica y acústica. La segunda vía es más compleja y quedará trunca, pero se señala cuando parece advertir una posible relación entre arte, poética y algoritmos. No obstante, para llegar allí deberá dar un rodeo fundamental que pasa, como veremos en el próximo capítulo, por analizar las técnicas culturales.
VI. Imágenes técnicas: gráficas de computación
Como vimos, la emergencia de la computación como medio implica que solo las interfaces fisiológicas y físicas puedan ser aún pensadas como medios imagéticos, pero en su interior no hay nada imaginario (Weinberger, 2012). De hecho, para Kittler, interfaces y periféricos parecerían ser una suerte de concesión que hace la computadora a nuestra incapacidad para vivir en directa relación con un procesamiento digital[30] que ya no trabaja solo en el tiempo de la percepción, sino en el del pensamiento (Balkema y Slager, 2001).
De hecho, Kittler reconstruye la historia de la relación entre imágenes y computación a través de V. Flusser (2015), para quien en las formaciones sociales futuras (totalitarias-imperativas o telemático-dialógicas) las imágenes técnicas llegarían a tener un lugar central como portadoras de información. Estas nuevas imágenes no ocuparían para el filósofo checo-brasileño el mismo lugar que las “tradicionales”. Las últimas son superficies abstraídas de volúmenes que significan escenas, mientras que las primeras son superficies construidas o concretizadas a partir de un programa calculador. Esto es, un abismo cerodimensional que no es manipulable (accesible a la mano) ni imaginable o concebible (accesible al ojo): solo son calculables en mosaicos de puntos y líneas computables. Son los aparatos los que ahora pueden reunir esos puntos por nosotros (imaginar lo inimaginable concretizando lo abstracto) y solo podemos dirigir esos aparatos mediante teclas.
Ahora bien, si desde la Segunda Guerra Mundial todas las dimensiones imaginarias colapsaron en la cerodimensionalidad de los bits, Kittler reconstruye el camino inverso a la reducción de las imágenes en las computadoras (OM; cfr. Peddie, 2013). Mientras input y output consistirán en vectores y matrices hasta mediados de la década de los cincuenta, los sistemas operativos introdujeron las primeras líneas de comando unidimensionales en los sesenta, y un decenio más tarde serán reemplazados por la interfaz gráfica de usuario (GUI, por sus siglas en inglés)[31]. La GUI bidimensional (de Xerox) permitió interactuar con la computadora mediante gráficos e imágenes (mouse y ventanas) antes que con comandos de textos abriendo –pero también constriñendo– la programabilidad.
En resumidas cuentas, se trata de un reemplazo de la imaginación por un procesamiento o escaneo imagético que encuentra su punto cúlmine con el cómputo automatizado (imaging, Kittler, 1992c). Pero, para el crítico alemán, el procesamiento de imágenes digitales coincide con el procesamiento simbólico de lo real y escapa a la lógica de la reproducción de las artes convencionales. Por ello, señala que los chips de silicio calculan y reproducen incrementando no solo la velocidad de las imágenes digitales, sino también su estructura matemática direccionada sobre cada píxel. Así, dado que cada píxel debe ser construido y reconstruido, la caza de realismo visual, para Kittler, no debería engañarnos respecto de los principios básicos de la computación gráfica, ya que las computadoras deben calcular todos los datos ópticos y acústicos por sí solas, pues nacen sin dimensiones y sin imágenes. Por esta razón las imágenes digitales no reproducen ninguna cosa o espacio existente, sino que emergen de sistemas de algoritmos y ecuaciones que se ponen en relación con campos sensoriales (o, como desliza nuestro autor, encarnan la relación entre cómputo y naturaleza).
De hecho, Flusser (2015) señalaba que hay una transformación en los límites de la crítica cultural que asiste a las imágenes digitales, pues ya no se trata (como con las imágenes tradicionales) de revelar la visión de su productor o su ideología detrás de la escena que significan (sus significados), sino que, en las imágenes técnicas, hay que analizar el cálculo y la codificación que las proyecta: desocultar sus programas, pues las imágenes técnicas no explican el mundo como lo hacen las imágenes tradicionales, sino que lo informan. La lectura de Flusser hecha por Kittler va en esa dirección ya que se detiene en las estructuras algorítmicas del campo de la computación gráfica, jugando con las imágenes técnicas. O, como declara en las entrevistas con Balkema y Slager (2001) y con Mackert (1994), uno de sus pasatiempos favoritos consistía en tomar una pequeña pieza del mundo, escribir un programa y hacerlo correr y así hurgar en las nuevas tarjetas gráficas.
Específicamente, como señala Feigelfeld, en una veta de pensamiento práctico, desde finales de la década de los ochenta, Kittler va a programar gráficas a través de algoritmos que permitían simular imágenes concebidas por reflexión y refracción. De hecho, los autores que han curado sus códigos (escritos en GNU Emacs) consideran estos programas una parte de su obra (Marino, 2020; Feigelfeld y Berz, 2014). Asimismo, este desarrollo práctico se articula directamente con las páginas de OM, KT y de estudios anteriores (cfr. 1988a), donde nuestro autor recorre desde la geometría fractal de B. Mandelbrot hasta las simulaciones computacionales de mundos ópticos.
Así, la cerodimensionalidad de los píxeles y su carácter discreto permiten trabajar coordenadas geométricas y valores cromáticos. Con ello, las gráficas de computadora se separan del film y de la televisión y engañan al ojo, que no puede diferenciar cada píxel individual; de allí que conlleven “un grado inusitado de falsificación” (OM). Esta potencialidad, cifrada por la posibilidad de dirigirse a cada píxel singular sin tener que apelar al barrido, es el correlato lógico de la manipulación digital del eje temporal por vías simbólicas.
En ese sentido, Kittler (2001a; 2004b) esboza un estudio de la síntesis automática de las imágenes. El autor sostiene que desde la cámara oscura a la televisión todos los medios ópticos reconstruyeron la antigua ley de la reflexión y la moderna ley de la refracción y las han automatizado al verterlas en materialidades específicas de cada aparato. Pero, así como los medios ópticos en tanto hardware simulan el ojo, el software de computación gráfica emula al hardware transponiendo las leyes ópticas a lógica puramente algorítmica.
En particular, el historiador y programador alemán se detiene en los algoritmos que capturan la perspectiva y las formas de construcción del mundo visual y analiza cómo objetos tridimensionales emergen a partir de matrices numéricas cerodimensionales del código sin tener referencia en realidad alguna (un ojo virtual surge de ellos). De hecho, para Kittler (2001a), si los usuarios fuesen más pacientes y aguardasen el tiempo de renderizado, las gráficas de computadora quizás podrían competir con los grandes maestros de la pintura. En esa tónica analizará las dos arquitecturas algorítmicas de renderizado más importantes en su época: ray tracing (el trazado de rayos) y radiosity (radiosidad).
En primer lugar, para abordar el ray tracing como cálculo diferencial de los rayos de luz que computa la reflexión en puntos y superficies, nuestro autor remonta su genealogía a la geometría analítica cartesiana y al seguimiento de aeroplanos con radar. Sin embargo, para Kittler, el ray tracing cartesiano no inspiró a los pintores, sino solo a los lenguajes de programación que permiten funciones recursivas para computar las miles de trayectorias diferenciales de un rayo de luz sobre masas virtuales. En segundo lugar, para Kittler, la ecuación de renderizado de J. Kajiya publicada en 1986 da un vuelco en la comunidad de la computación gráfica, pues postula la integración llamada radiosity, que ya no repara solo en rayos y puntos, sino que calcula la luz como campos y superficies en una iluminación global (cfr. Haines y Akenine-Möller, 2019). Al momento de hacer su genealogía, Kittler se detiene en la ley del coseno propuesta por J. H. Lambert para abordar las superficies difusas y su integración[32], aunque en términos específicos, para nuestro autor, radiosity es un algoritmo complejo que fue concretado para el cálculo balístico y termodinámico (aplicado a los cohetes que reingresaban en la atmósfera terrestre).
Atendiendo a los límites del poder de cómputo de los chips así como a las potencias de renderizado, Kittler anota que mientras el ray tracing es mucho mejor para escenas exteriores (mares, montañas, cielos e infiernos), la radiosity está limitada a escenas interiores (pequeños espacios íntimos o catedrales), que consumen mayor potencia de cálculo. También en esas anotaciones se hace legible el carácter poético que nuestro autor le imprimía tanto a los comentarios como a los nombres de variables y funciones en los códigos que escribía y que se han preservado (cfr. Marino, 2020). Pero fundamentalmente nos entregan pistas para aproximarnos a las dimensiones estéticas del pensamiento algorítmico:
La complejidad de [la] radiosity se relaciona con la complejidad del algoritmo […] y con lo que es, posiblemente, la tarea de todo arte. Tales procesos infinitamente rápidos, infinitamente continuos e infinitamente emocionantes son capturados en las obras de arte y en algoritmos, ¡ambos son finitos por definición! (Kittler, 2017b [2007]: 13).
Así, para el filósofo alemán, con la progresiva autonomía de máquinas que computan porciones de lo real, el viejo eslogan de la GUI es invertido entrando en su verdad dialéctica, en tanto lo que se obtiene con las gráficas computacionales es la potencia del chip o la forma en que la arquitectura de computadora se mira a sí misma en su ojo binario y ciego. La paradoja parece cerrarse, pues, como señala Holl (2017), en la actualidad no solo la computación gráfica aplica estos algoritmos de modo embebido en chips, sino que la misma pasión de nuestro autor por Assembler y C parece en desuso ante los lenguajes de alto nivel y el paradigma dirigido a objetos que han devenido en estándares del desarrollo gráfico.
- “El diagnóstico del presente que habla de medios en plural no sabe lo que hace” (Kittler, 2007b: 19). Por ello, dirá nuestro autor que podríamos denominar de forma más acertada a la computadora como “el medio universal” (KT: 31) o “súper-medio”.↵
- Para Kittler, desde las máquinas de Remington hasta la microelectrónica solo bastó un siglo para transferir el monopolio antiguo de la escritura de libros (aún legible en nombres como fonografía, fotografía, cinematografía, etc.) a la omnipotencia de la lectoescritura automatizada de los circuitos integrados.↵
- De hecho, no se le escapa el sentido teológico de la ubicuidad como deus absconditus (Kittler, 1996f).↵
- De acuerdo con Raulet (2011) en esta descripción de la lógica binaria se evidencia la influencia de C. Schmitt en nuestro autor (cfr. Kittler, 2003e).↵
- Además de este antecedente, Kittler (1991c; 1996a [1989]; OM) se explaya sobre la participación de Babbage (contemporáneo de Wagner) en los primeros sistemas de iluminación teatrales y técnicas de proyección (en particular, en la preparación de un ballet –Rainbow Dance– con bailarinas vestidas solo de blanco y luminarias coloreadas que proyectaban sobre ellas).↵
- Obviamente, además de las figuras de estos pensadores, Kittler (2007c) quizás hubiese reconstruido la génesis de las ramas matemáticas aplicadas que terminarían en la crisis de los fundamentos.↵
- La celebérrima disertación de 1936 adoptó el nombre de “On computable numbers, with an application to the Entscheidungsproblem”.↵
- Imitación que nuestro autor separa de su sentido platónico ya que el materialismo de Turing devuelve a las matemáticas su capacidad de construcción de imágenes, tonos y letras (cfr. 2007c).↵
- Hubo varias máquinas con este nombre construidas por polacos y británicos entre 1939 y 1941.↵
- Shannon llevará adelante investigaciones sobre la frecuencia de las letras en inglés a través de las cadenas de Márkov, por ello no es extraño que, según Krajewski (2011) y Holl (2017), los estudiantes avanzados de Kittler hayan desarrollado bajo su dirección no solo aspectos biográficos del matemático, sino también algoritmos de reconocimiento de caracteres de la escritura caligráfica y analizadores y compositores automáticos de texto a partir de dichas cadenas. Las aplicaciones, primero, recogían estadísticamente textos de grandes autores –analizando la probabilidad de aparición de palabras– y, luego, daban lugar a una síntesis que generaba un nuevo texto que dependía de la lista de probabilidades almacenadas. Los estudiantes trataban de replicar a una cuasi J. Austen, un cuasi Heidegger, un cuasi Kafka y, por supuesto, un Goethe automático. Por ello, hacia el final de su vida, Kittler apunta que la genealogía de Turingzeit quizás solo podría ser escrita en conjunto con algoritmos. Así, un Kittler algorítmico podría emerger de sus textos anteriores a través de una síntesis matemática original.↵
- Kittler (1999h) recupera diferentes historias de la criptografía, desde Alberti a Hedy Lamarr.↵
- Kittler (1997e) recupera diversas anécdotas de Shannon, señalando su afición por E. E. Cummings, el gusto por el puntillismo de Seurat, por el blues, o su paradójica muerte (unos de los padres de la memoria maquinal muere feliz, pero habiendo olvidado todo lo que había creado). Asimismo, hay algunos indicios de que MM tendría menciones a la incursión en genética del pensador norteamericano, así como una recorrida por los múltiples juguetes que construyó, como el famoso Teseo (claro antecedente de los problemas de IA [inteligencia artificial]) o el juguete binario de la mano robótica autoapagable.↵
- Obviamente, de haber completado MM, quizás Kittler se hubiese detenido en Eccles y Jordan (Ifrah, 2001).↵
- En estos términos, lo simbólico para el Lacan de nuestro autor no refiere, en principio, al sentido de símbolo que es usual: algo que está en lugar de otra cosa (por ejemplo su representación). Al contrario, quizás bajo sus raíces etimológicas, los símbolos son realidades binarias que se expresan de a pares y que garantizan una conmutabilidad. Así, siempre son complementarios, pues al generarse suponen un slot vacío que permite el intercambio. Un gran filósofo francés solía recordar que la relación entre una llave y una cerradura es análoga a la constitutiva tras todo símbolo; con Kittler esta relación se amplía hacia puertas que pueden abrirse y cerrarse para procesar porciones de lo real.↵
- Mientras la primera computadora con programas almacenados en tubo fue un desarrollo experimental de la Universidad de Mánchester y contó con la colaboración de Turing, el almacenamiento por cintas electromagnéticas tiene un antecedente claro para Kittler en los magnetófonos alemanes. Para nuestro autor, las cintas magnéticas pueden ejecutar cualquier edición posible, pues, como vimos, los artefactos sonoros equipados para grabación, lectura, borrado y reescritura, así como para el movimiento de sus cabezales, podían emular las tiras de papel de la máquina universal.↵
- Como vimos, con esta trinidad se suspende la definición estática aristotélica con base en una causalidad de forma y materia, puesto que es reemplazada por el flujo medial técnico constante, iterativo y recursivo de datos, comandos y direcciones en cadenas binarias o una nueva técnica cultural del computar.↵
- Al mismo tiempo, para Kittler (1998c) parece ser una consecuencia lógica que haya sido von Neumann quien automatizó los Kriegsspiele con la game theory de la guerra nuclear total.↵
- Entre estas máquinas estarían las famosas JOHNNIAC (nombrada así por el diseñador), MANIAC I, IBM 701, EDVAC, Ferranti Mark I (Clementina), ATLAS, Manchester Baby, BINAC y muchas más. De hecho, en 1946, un año después de EDVAC, Turing completa otra máquina electrónica llamada Automatic Computing Engine.↵
- A tal punto llega el tratamiento de Intel por Kittler (1996f) que nuestro autor no duda en traducir pasajes de un manual de microprocesadores sobre la transformación en flip-flop de los números computables.↵
- Kittler (2000e) recorre el camino que va de las interfaces gráficas de Windows a las microscópicas ventanas de los procesadores de silicio.↵
- En ambos casos, ya sea para advertir alguna dimensión espiritual o líneas de programación, nuestro autor parece forzar las exageraciones y provocaciones al límite. Sin embargo, hay en sus desarrollos posiciones más sutiles y temperadas que evitan este tipo de reduccionismos materialistas extremos.↵
- Kittler desarrolla en múltiples pasajes las consecuencias de las alianzas secretas concentradas y monopólicas entre arquitecturas de software y de hardware. Así, por ejemplo (2002b), reconstruye a partir de las relaciones espurias entre AMD y Microsoft no solo la política empresarial (donde el segundo demanda el apoyo del primero en los juicios antitrust), sino también las consecuencias de las alianzas con Intel. Al mismo tiempo considera las potencialidades de Linux para trabajar a la sombra de los sistemas operativos con arquitecturas de bajo nivel que puedan aparecer en los nuevos software embebidos (de la computación ubicua). Asimismo, Kittler afirma que la expansión del entrelazamiento Wintel (cfr. Kittler y Roch, 1995) es correlativa a las transformaciones constitucionales de la era Reagan y que, a mediano plazo, se podrían esperar nuevos desafíos emergentes de una futura guerra comercial con China (y, quizás, de una alianza con Linux).↵
- En una charla (2003c) va a señalar que un auto en Alemania incluye múltiples computadoras y controles embebidos, que hacen el seguimiento de este. Pronto, estos chips estarán conectados a las calles mediante sensores incrustados en cámaras y semáforos, pues la ciudad ha devenido en medio computacional (VMT).↵
- No obstante, esto no significa que Kittler no haya visto tempranamente la potencialidad de la web en tanto conocimiento colectivo sobre tecnología de computadoras (Griffin y Herrmann, 1996), aunque, contra los filósofos que se apuraban en definir a la Internet como la llegada de discursos no dominantes, llamaba a recordar su naturaleza de red de máquinas discretas (SC).↵
- De hecho, Kittler debatió y trabajó asiduamente con programadores profesionales. Sin poder hacer aquí una lista, quedará pendiente para el futuro articular sus trabajos con las dimensiones críticas de los informáticos que tanto apreciaba.↵
- En sus cursos de EGS, Kittler señala que C es un lenguaje flexible cercano a Assembler, al tiempo que destaca las características didácticas de Pascal y Basic y avanza sobre algunos lenguajes que soportan programación orientada a objetos (como C++ y Java).↵
- Por ello nuestro autor reconoce que Ensamblador paga tributo a la primacía de la arquitectura de procesadores de la familia x86 de Intel que se ha convertido en el estándar internacional (procurando ganancias multimillonarias). Ya que todos los lenguajes de programación son traducidos finalmente en Ensamblador de Intel y es este el que se dirige directamente a los registros.↵
- En nuestros días las matemáticas y la criptografía entraron en una unión inseparable, bajo la meta de Turing de decodificar y automatizar el lenguaje humano.↵
- Kittler recuerda a Heidegger cuando atribuye al poeta pensar a la poesía como flor y florecer de la boca. ↵
- En un breve texto, Kittler (2007c) resume el nacimiento del cómputo de gráficas digitales y su relación estrecha con los errores en las máquinas de Turing y con el diseño aeronáutico y automotor.↵
- En diversos pasajes Kittler (OM; 2002b; KT) se detiene en los artistas e ingenieros del Barroco, que hicieron posible la cámara oscura, impulsaron la perspectiva lineal –trabajando en el estudio de la arquitectura y de las matemáticas– y establecieron el estándar técnico de las imágenes. Como otros investigadores, el crítico alemán subraya que los pioneros de aquella técnica la concebirán en paralelo a la invención de la imprenta de tipos móviles (discreta y alfabética). Al mismo tiempo, la perspectiva lineal como construcción geométrica-algorítmica se desarrolló a través de la idea de una ventana ideal o imaginada llamada finestra aperta; una verdadera condición de posibilidad para pintar y virtualizar objetos. Por ello, Kittler (2000e; 1999h; SC; 2001a) conceptualiza a las ventanas como ancestros de las actuales interfaces de usuario, al tiempo que la proyección de rayos será decisiva para los cálculos de programación gráfica. No obstante, nuestro autor también señala que esta multiplicación de las dimensiones (que termina en la realidad virtual y aumentada) no se origina en la inmanencia del desarrollo de la computadora, sino en la historia del film, de la televisión y de los simuladores de vuelo (Kittler, 1996d; 1996c; 2000e; OM).↵
- Kittler (OM; 1999b) se explaya sobre el filósofo J. H. Lambert, quien, a mediados del siglo XVIII, propondría una ciencia que penetrara las apariencias y llegara a la verdad: una óptica trascendental que debería llamarse “fenomenología”. Al mismo tiempo, Lambert inventa fórmulas y reglas que automatizarían los cálculos necesarios para pintar y que se convierten en un acto fundacional de la fotometría.↵






