Cuando en 1977 el matemático estadounidense Donald Knuth ingresó en la escena de las técnicas de producción de escritura se vio beneficiado por varios inventos que lo antecedieron, y que utilizó y combinó de una manera original como nunca nadie antes. Antes de abocarnos a Knuth y a su obra —el lenguaje de programación Metafont— es necesario detenernos en el contexto tecnológico de mediados del siglo XX. Las distintas técnicas inventadas durante este período cambiaron sustancialmente la materialidad de la escritura potenciando el concepto desarrollado por Marshall McLuhan acerca de la repetitividad. Este concepto podría considerarse como una de las principales consecuencias de la aparición de la imprenta, un acontecimiento que inauguró la concepción de repetición y estandarización de los mensajes escritos. El contexto tecnológico de mediados del siglo XX fue fundamental porque es allí cuando se produce el fin del modelo que se desprendía de la imprenta de tipos móviles de Gutenberg, que en los años 50 se consolidó en sus versiones más automatizadas como la monotipia o la linotipia.
Dos serán las invenciones fundamentales que dan comienzo a la desaparición de la imprenta vinculada al plomo: la impresión offset (técnica de reproducción de documentos e imágenes sobre papel, creada a fines del siglo XVIII) y la fotocomposición (técnica fotográfica de producción de escritura inventada a mediados de 1940). Ambos inventos se complementaban porque la técnica de fotocomposición estaba proyectada para reproducir escritura estandarizada en el sistema de impresión offset.
Las primeras máquinas fotocomponedoras eran analógicas y los alfabetos estaban almacenados fotográficamente en soportes traslúcidos como filmes o placas de vidrios (figura 1). Cada una de las letras era previamente dibujada a mayor tamaño en papel para luego ser fotografiada, reducida y guardada en matrices fotográficas. El proceso de composición comenzaba con el tipiado del texto sobre un teclado más sofisticado que el de una máquina de escribir. El principio de funcionamiento de estas máquinas consistía en exponer la letra almacenada (en general estaba guardada en un negativo) a un haz de luz. La imagen resultante pasaba por un sistema complejo de lentes y espejos que permitía ampliar o disminuir el tamaño del signo que, hacia el final del recorrido, se proyectaba sobre papel o película fotosensible en donde quedaba fijada su imagen. El sistema permitía fijar sucesiones de caracteres para formar palabras, líneas y columnas de texto que luego servirían como originales para ser reproducidos en el sistema de impresión offset. Si bien en teoría este principio era más veloz y económico, en la práctica resultaba complejo y de una calidad defectuosa. Con el paso del tiempo fue esencial sustituir parte de este proceso fotomecánico por técnicas digitales generadas por computadoras que llevaron a las fotocomponedoras a una segunda generación de máquinas más veloces que permitían resultados de mayor resolución y calidad.1
Unos años después, a comienzos de la década del 60, esta segunda generación de máquinas fotocomponedoras aparecía en escena2 incorporando computadoras y pantallas de tubos de rayos catódicos, que reemplazaron al método fotográfico de almacenamiento de letras de la primera generación. De esta manera, el alfabeto sufrió una nueva reconversión de su estado: las matrices de letras pasaron a ser una grilla de puntos definidos digitalmente para ser representados en la trama de la pantalla mediante un código binario de prendido-apagado, o bien, de lleno-vacío (figura 4). Los puntos de la matriz se denominan píxeles (contracción del inglés de picture element, es decir, elemento de imagen) y a las matricesse las llama mapas de bits (bitmaps). Las dimensiones de estos píxeles dependen de la definición de pantallas, impresoras o filmadoras. Cada uno de estos dispositivos cuenta con definiciones o resoluciones diferentes que se miden en número de píxeles ennegrecidos por centímetro o pulgada, expresados en la abreviación dpi: dots per inch (puntos por pulgada).
En esencia, las etapas ópticas y fotoquímicas del proceso de producción seguían repitiendo el mismo esquema como en la anterior generación de fotocomponedoras. Es decir, que mediante la reflexión óptica la imagen era proyectada sobre una superficie fotosensible. Las letras se diseñaban directamente sobre una retícula —píxel por píxel— y es este concepto de trama (bitmap o mapa de bits) el que aún hoy, con algunas variaciones, se mantiene vigente (figura 5). En la actualidad tanto las pantallas como las impresoras láser o las de chorro de tinta, como así también las filmadoras de alta resolución, convierten a los caracteres digitales en una matriz de puntos.
Este proceso de digitalización que hoy está automatizado, en los años 60 requería de mucha intervención humana. Habitualmente los alfabetos eran corregidos a mano, signo por signo, tamaño por tamaño, y cada una de las letras debía ser ajustada visualmente para compensar problemas en la reproducción de los dispositivos de salida (impresoras, filmadoras o pantallas). Un alfabeto de un tamaño determinado podía ser usado, al igual que en las letras analógicas anteriores, para producir sólo una acotada variedad de escalas. Por ejemplo, la fotocomponedora digital Autologic APS-4 de 1971, que reproducía letras de distintos tamaños en un rango de 5 a 96 puntos,3 necesitaba tener almacenados en su memoria cuatro tamaños distintos de alfabetos (de 10, 20, 40 y 80 puntos).4 Si bien a través de este proceso las letras habían sufrido un cambio sustancial en su materialidad, esta ausencia de economía de recursos aún rememoraba la lógica de la escritura de tipos móviles, en la que para cada letra de un determinado tamaño era necesario construir una matriz y un punzón especial, un aspecto que lo convertía, además, en un proceso costoso.
A comienzos de la década del 70 la fotocomposición digital constituía un avance sustancial ya que —como vimos en el caso de la Autologic APS-4— con el dibujo de cuatro tamaños de letras se lograban 91 tamaños distintos. Sin embargo, seis años más tarde, en 1977, Metafont daría un giro radical en las técnicas de producción de escritura porque con un solo dibujo (en vez de cuatro) generaría infinitas versiones de tamaños, resoluciones y estilos, en vez de las limitadas 91.
La deficiencia de los caracteres bitmap se advertía en el vínculo estrecho que tenía la resolución del dispositivo de salida. Para poder dimensionar el problema tal vez sea útil analizar como ejemplo lo que sucedía en los comienzos de la década del 70 con la tecnología desarrollada por la empresa Xerox. Esta compañía había inventado las primeras impresoras láser de 480 dpi que estaban manejadas por computadoras. En el proceso de composición de texto las letras podían ser visualizadas previamente por el usuario en monitores de 72 dpi, una resolución distinta a la de la impresora. Para que este sistema funcionara correctamente era necesaria la existencia de dos versiones bitmap para cada signo: una con la resolución de la impresora láser y otra para su visualización en pantalla; si se necesitaba otro tamaño de letra el sistema requería de dos nuevas matrices para la impresora y la pantalla.
En una segunda etapa del proceso de digitalización de la escritura se introdujo una innovación fundamental que consistió en definir a las letras geométricamente a través de un contorno en lugar de los puntos en una trama. Precisamente, el recurso de definir geométricamente la letra a través del dibujo de su contorno —como vimos en el capítulo anterior— tiene su origen en el Renacimiento y en la actualidad resultó ser una solución menos engorrosa y más económica —en medios y tiempos de producción— que el sistema de mapa de bits. Si bien el resultado final de los dispositivos de salida seguía siendo tramas de píxeles, las letras se convirtieron en un proceso matemático. Éstas pasaron a ser figuras en un plano y bastaba con un solo dibujo por cada signo alfabético para lograr distintos tamaños y resoluciones. El principio básico de la definición de letras a través del contorno consistía en que todos los puntos de la trama (de pantalla, impresora o filmadora) que quedaran dentro del mismo pasaban a ser ennegrecidos por el dispositivo de salida —configurando la imagen de la letra— mientras que los píxeles exteriores al contorno permanecían en blanco —configurando el fondo—.
Hay que considerar que en el Renacimiento para la reproducción de los contornos de letras se utilizaban instrumentos mecánicos como la regla y el compás. Pero a principios de 1970 las herramientas que se comenzaban a utilizar para definir las curvas eran programas de computación basados en los principios de la geometría analítica. Esta geometría, cuyas bases fueron dadas por Descartes (1596-1650),5 permite representar figuras mediante fórmulas matemáticas y puntos específicos. Estas ecuaciones pueden ser calculadas por computadoras ya que en la geometría analítica los puntos, a partir de los cuales se definen las figuras geométricas planas, son definidos numéricamente a través de sus coordenadas en un plano. Como consecuencia de esta redefinición de la escritura era suficiente dibujar cada letra una única vez porque el cambio de escala de esa matriz ahora pasaba a ser fácilmente calculado por la computadora.
La primera máquina componedora que utilizó contornos de letras definidas mediante geometría analítica data de 1971. Seaco, una pequeña empresa norteamericana, introdujo en el mercado el modelo denominado Seaco 1600, que almacenaba los signos en forma de contorno geométrico. Sin embargo, la máquina resultó ser un fracaso comercial.6 A partir de allí, se sucedieron en forma paralela y en la misma dirección, distintos proyectos comerciales entre los cuales el que tuvo mayor éxito fue Ikarus, un software informático creado en 1973 por los alemanes Peter Karow y Florenz Walter Brendel. Estos sistemas iniciales como Seaco e Ikarus utilizaban las denominadas ecuaciones polinómicas de primer grado que sólo lograban expresar rectas y circunferencias. Si bien los contornos de las letras podían ser definidos mediante los fragmentos de estas formas simples (círculos y rectas), las partes más complejas de las letras —las de curvas libres— no podían ser resueltas con precisión, solamente se alcanzaba a realizar una aproximación.7 Poco tiempo después, métodos más complejos de geometría analítica iban a ser aplicados para resolver con mayor calidad estas dificultades.
Como vemos, el escenario tecnológico a comienzos de los 70 era muy variado. Convivían antiguos procedimientos junto a inventos recientes y desarrollos incipientes: el plomo (que languidecía), la fotocomposición analógica y la digital, todos formaban parte del mismo espacio. El tema de la producción de escritura había pasado de ser una cuestión mecánica a una fotográfica, para desembocar de lleno en el campo de la computación. La nueva situación distaba de ser ideal en cuanto a costos y a calidad, al menos, para la escritura de textos matemáticos, que ofrecen una dificultad mayor que los verbales. Precisamente textos de este tipo eran los que necesitaba resolver Donald Knuth. Sin embargo, a pesar de las dificultades existentes, el cambio fundamental se había planteado definitivamente: la imagen (la letra) era sustituida por un procedimiento (el conjunto de operaciones matemáticas que la define). El modelo Gutenberg había expirado.
Donald Knuth nació en 1938 en Milwaukee, Estados Unidos. Matemático y científico de programación de computadoras, en 1968 publicó su primer trabajo —que en la actualidad consta de múltiples volúmenes— llamado El arte de la programación de computadoras. La producción de este texto y de numerosos papers sobre matemática y ciencias de la computación, lo llevaron a ser profesor de la Universidad de Stanford en 1968 y, posteriormente, a ganar la Medalla Nacional de Ciencia de los Estados Unidos.8
La historia de Metafont comienza en 1976, cuando Knuth se proponía hacer una segunda edición del segundo volumen de su obra. Las modificaciones que había introducido implicaban volver a componer tipográficamente el libro en su totalidad. Sus editores le informaron que sería muy costoso hacerlo con la tecnología utilizada para su primera edición de 1969, la monotipia (composición mecánica automatizada en plomo). Por ello, en su reemplazo habían decidido utilizar una máquina fotocomponedora analógica. Finalmente, el proyecto de publicación se demoró porque el resultado de las primeras pruebas de impresión resultaron deficientes para Knuth, tanto que no estaba dispuesto a aceptar esa calidad de edición para su libro.9
Es así como se decidió a investigar sobre las nuevas técnicas de escritura y en 1977 tomó contacto por primera vez con las pruebas impresas de una componedora digital de alta resolución que le pareció de calidad superior a la antigua monotipia. De esta manera, Knuth recuerda esta experiencia: «recibí pruebas de galeras de un libro de un alumno al que tenía que evaluar que habían sido generadas por una nueva máquina del sur de California basadas en una trama de alta resolución […]. Había tenido muchas experiencias con impresión tramada pero sólo de baja resolución. Hasta entonces pensaba en el bitmap como un método poco profesional de producción tipográfica ‘real’ […] pero cuando vi aquellas pruebas, verdaderamente no podía distinguir el origen de la técnica utilizada.»10
Otro hallazgo importante para él fue encontrar que estas letras de alta calidad también estaban definidas por puntos en una trama, es decir, que estaban basadas en pulsos electrónicos, un problema perteneciente a un campo de su incumbencia: «La composición tipográfica digital es una configuración de ceros y de unos, y la ciencia de la computación puede pensarse como el estudio de estas configuraciones. Como científico de la computación por primera vez, veía con claridad como podría resolver el problema de la impresión que tanto me aquejaba. No necesitaba conocimientos acerca de metalurgia, óptica o química […] todo lo que necesitaba era construir el modelo correcto de ceros y unos y enviarlo a una componedora digital [de alta resolución]. En otras palabras, el problema de la calidad de impresión se había reducido a un problema de ceros y de unos».11
Al comienzo, Knuth evaluó que tenía en sus manos la solución para el problema de la edición de su libro y pensó que sería fácil de resolver, que sólo le demandaría unos meses. Pero había subestimado el problema. En primer lugar, se presentó la dificultad del financiamiento del proyecto ya que no había casi nadie que, en el ámbito académico, estuviese investigando el mismo tema y que quisiese comprar una costosísima máquina componedora. El problema era que estas máquinas estaban pensadas para el uso comercial y para la producción continua, no para un proyecto individual de investigación. Obviando estas cuestiones, no desestimó la idea y asumió que podría trabajar igualmente en la programación para luego experimentar en una máquina prestada.
Enterado Knuth de que el científico John Warnock12 estaba investigando sobre la misma temática pero en el campo empresarial, más específicamente en el Centro de Investigación Xerox de Palo Alto, decidió hacer una consulta acerca de la posibilidad de utilizar este laboratorio para su investigación. La propuesta de Xerox fue afirmativa pero condicionaba a Knuth a ceder todos los derechos de comercialización de sus descubrimientos. Esta petición no fue aceptada por Knuth porque no estaba de acuerdo con los fines lucrativos de sus investigaciones. Su interés era puramente científico.
De esta manera, el emprendimiento fue desarrollado solitariamente en el laboratorio de Inteligencia Artificial de Stanford. El problema consistía en crear un método matemático para la definición de las formas de los signos matemáticos y las letras que necesitaba para su libro. En esencia, el problema era un círculo cerrado porque utilizaría la «matemática» para la «escritura matemática». El objetivo que Knuth se había propuesto además debía estar en sintonía con las nociones estéticas tradicionales utilizadas en el dibujo de letras. La solución que él planteó se basó también en una geometría analítica, pero ésta no se limitaba a rectas y circunferencias sino que era capaz de generar curvas complejas de formas libres a partir de puntos específicos situados en un plano cartesiano. La utilización original de un tipo de curvas especiales, denominadas en inglés splines, lo llevó a la descripción matemática precisa del contorno de letras.
En el ámbito industrial el problema de la reproducción de curvas de formas libres —curvas complejas que no provienen de círculos— fue un tema que por siglos no había podido resolverse. La definición matemática de este tipo de curvas y la creación de dispositivos gobernados por computadoras capaces de reproducir ese tipo de figuras significó la estandarización definitiva de dibujos y objetos que siempre habían dependido del resultado aleatorio de los instrumentos mecánicos de dibujo (pistoletes y compases) y de producción (plantillas), manejados por humanos cuya destreza conllevaba grandes márgenes de error. Uno de los beneficios de la digitalización frente al dibujo manual es que no deja lugar a interpretaciones subjetivas.13
Las curvas splines, creadas en el siglo pasado, se utilizaron —y se utilizan— para definir matemáticamente formas complicadas. Para las computadoras son fáciles de representar y de calcular, algo que constituye su característica principal. Aunque no habían sido aplicadas para el dibujo de letras hasta la llegada de Knuth, venían siendo utilizadas desde fines de los años 50 para el dibujo y la producción de objetos industriales a través del diseño asistido por computadoras (CAD). Knuth fue el primero en trasladar las curvas splines al ámbito de la producción de la escritura. Años después serían utilizadas por todos los sistemas comerciales más difundidos en la actualidad.14
La historia del uso de las curvas para la producción de objetos industriales se remonta al origen de la construcción naval. Los romanos manejaban plantillas reutilizables para construir los cascos de sus naves que poseían formas curvas no circulares. Esta técnica fue continuada y mejorada en Venecia desde el siglo XIII hasta el XVI pero se consolidó recién es en el XVII, en Inglaterra, cuando se generalizó la utilización de dibujos y planos para la construcción de barcos. En este tiempo se inventó un instrumento mecánico que permitió dibujar curvas imposibles de trazar con la ayuda del compás: el spline. Éste era, básicamente, un instrumento de dibujo compuesto por un eje rectilíneo al que gracias a unos pernos se le podía sujetar una tira de madera o de goma flexible que servía como molde o plantilla de trazado de líneas.
En el siglo XX a la definición matemática de este tipo de curvas se la llamó con el nombre de aquel instrumento mecánico. Las denominadas curvas splines están definidas paramétricamente. Es decir que se especifican mediante puntos con coordenadas en el plano. A la resolución de este problema se llegó a fines de los años 50 y el ámbito de desarrollo fue la industria automotriz. Dos matemáticos franceses, uno perteneciente a la empresa Renault y otro a Citröen, sin conexión alguna entre ellos, llegaron a conclusiones similares con algunos años de diferencia. Ambos trabajaron con sistemas CAD primitivos.15
En 1959, en París, el matemático Paul de Casteljau ingresaba a Citröen. Su primera dificultad fue definir informáticamente la representación de piezas automotrices con curvas complicadas. Este desafío lo llevó a descubrir un método matemático innovador que le permitía resolver el problema con precisión.16 La solución era de fundamental importancia en términos productivos ya que posibilitaba la fabricación estandarizada y automatizada de piezas y objetos industriales a través de las primeras máquinas (tornos, fresadoras, agujereadoras) gobernadas por computadoras que comenzaban a existir. De esta forma, la posibilidad de representar y utilizar figuras complejas durante el proceso de diseño asistido por computadora se extendía a la producción seriada de piezas industriales gracias a que las máquinas también eran manejadas por computadoras.17 Lo que antes se construía artesanalmente ahora sería producido automáticamente a través de estas máquinas informatizadas.
A comienzos de 1960, Renault iniciaba una investigación en la misma dirección a cargo del ingeniero Pierre Bézier quien unos años más tarde arribaría a soluciones similares a las de Casteljau. Pero mientras que el trabajo de Casteljau fue mantenido en secreto por mucho tiempo, el de Bézier fue publicado ampliamente y pronto llamó la atención de otro matemático que, recién en 1972, logró expresarlo en los mismos términos matemáticos con los que Cateljau lo había hecho a fines de los 50.18
Las curvas Bézier, el método para definir curvas de formas libres, constituyen un subgrupo dentro de las curvas splines (figura 8). Su definición, mediante los denominados polinomios de Bernstein de tercer grado, se realizó en 1972, cinco años antes de que Donald Knuth utilizara splines semejantes para el proyecto Metafont. Es interesante resaltar que el tiempo transcurrido desde que este método nacido en la industria automotriz llegara hasta el ámbito de la producción de escritura estandarizada fue escaso. Este pasaje o hibridación —en términos de McLuhan— significará un cambio absoluto en materia de producción de letras.
Este texto es un fragmento de la Tesina de Especialización en Diseño Comunicacional, dirigida por el Dr. Wolfgang Schäffner (ver abstract). El texto completo de esta tesis, en formato pdf, está disponible en este link.