GUÍA DEL MÓDULO PROFESIONAL PROCESOS DE PREIMPRESIÓN Laura de la Fuente Revenga
ÍNDICE TEMA 0
La comunicación Cross-Media
7
TEMA 1
El proceso gráfico y su relación con la preimpresión
19
TEMA 2
Evolución histórica de la preimpresión
51
TEMA 3
Informática aplicada a la preimpresión
111
TEMA 4
Tratamiento del texto
195
TEMA 5
Tratamiento de la imagen
263
TEMA 6
Compaginación y Publicación Digital
363
TEMA 7
Pruebas en preimpresión
477
TEMA 8
Imposición
TEMA 9
Flujos de trabajo / Diseño y Producción de packaging 531
TEMA 10
Salidas CTFilm / CTPlate / CTPress-Print
579
TEMA 11
Formas impresoras
653
511
tEMa 0 La comunicaci贸n Cross Media
8
TEMA 0: LA COMUNICACIÓN CROSSMEDIA Concepto cross-media 11 Branding 11 Un ejemplo: Iberia 12 Comunicación digital 12 Comunicación gráfica 14
9
10
Concepto cross-media Se basa en la integración de diversos medios de comunicación que juntos le proporcionan un enorme efecto a sus comunicaciones. Su fundamento es el formidable poder que se puede obtener de la información contenida en una base de datos. Si se analizan correctamente y se combinan como un todo dentro de una campaña, podemos obtener extraordinarios niveles de personalización e individualización en los mensajes, lo que hace que su comunicación sea más pertinente y significativa para sus receptores.
BRANDING Es un anglicismo empleado en mercadotecnia que hace referencia al proceso de hacer y construir una marca (en inglés, brand equity) mediante la administración estratégica del conjunto total de activos vinculados en forma directa o indirecta al nombre y/o símbolo (logotipo) que identifican a la marca influyendo en el valor de la marca, tanto para el cliente como para la empresa propietaria de la marca. • • • • •
El branding está conformado por cinco elementos: Naming: creación de un nombre. Identidad corporativa. Posicionamiento. Lealtad de marca, desarrollo de marcas. Arquitectura de marca. En ciertos casos, el término también se refiere a la suma total del valor de una empresa, considerando
los activos y pasivos; tangibles e intangibles, de aspectos tales como sus productos, servicios, gente, publicidad, colocación, y cultura. 11
UN EJEMPLO: IBERIa Iberia (IATA: IB, OACI: IBE, y callsign: Iberia BME: IBLA), es una aerolínea española, fundada en 1927 bajo el nombre de Iberia Líneas Aéreas de España, S. A. Operadora7 . Actualmente es una de las compañías aéreas más antiguas del mundo8 , la cuarta aerolínea de Europa por número de pasajeros9 y la aerolínea líder en tráfico de pasajeros entre Europa y América Latina10 . Tiene su sede social en Madrid11 y cotizó en la Bolsa de Madrid desde abril de 2001 hasta enero de 2011, cuando fue sustituida por su matriz International Airlines Group producto de la fusión con British Airways en 2011, actual accionista único de la compañía. Fue fundada el 28 de junio de 1927 por el empresario vizcaíno Horacio Echevarrieta durante la dictadura de Primo de Rivera como monopolio del transporte aéreo español. Estaba previsto que el primer viaje comercial de Iberia fuese el 14 de diciembre de 1927 entre Madrid y Barcelona, con Alfonso XIII como pasajero de excepción. Sin embargo, fue un vuelo Barcelona-Madrid el primero que operó Iberia, al salir dos horas antes que el vuelo oficial. La intención era que Alfonso XIII pudiese presenciar el primer aterrizaje en el Aeropuerto de Carabanchel, actual aeropuerto de Cuatro Vientos, pero cuestiones meteorológicas obligaron a este avión a llegar más tarde de lo previsto. En 1928 había crecido, con tres aviones Rohrbach Ro VIII Roland, que eran unos trimotores con capacidad para diez pasajeros. • Branding
•
Comunicación digital ✏ Publicación digital y Apps Apps
✏
Revista Iberia Web
Web 350.000 vistitas diarias a Iberia.com 1,5 millones de fans en las redes sociales
✏
Web Social Media Facebook 605.123 seguidores Twitter 262.543 seguidores
Instagram 1.582 seguidores YouTube 2.845 seguidores Flickr 12
13
•
Comunicación gráfica ✏ Revista
✏
Packaging
✏
Publicidad, catálogos, monográficos, parada en autobus, encartes…
14
✏
Señalética
15
✏✏ Cubiertos
✏✏ Uniforme
16
•
✏
Comida
✏
Ferias y eventos
Comunicación interna y corporativa
17
tEMa 1 EL PROCESO GRテ:ICO
20
TEMA 1: EL PROCESO GRÁFICO Fases del diseño gráfico 23 Proceso de producción en la industria gráfica 25 Organigrama de una industria gráfica 25 Planta de producción 26 Organización de la producción 26 Sistemas de gestión de la información MIS 26 Costes de producción 27 Presupuesto 28 Planificación de la producción 28 Fase de producción 28 Limitaciones técnicas en la industria gráfica 28 Preimpresión 34 Impresión 38 Postimpresión 44
21
22
FaSES DEL DISEÑO GRÁFICO •
Fase analítica
Definición del problema o necesidad a resolver. Análisis del estado actual del diseño, es decir, si no existe y hay que crearlo o si existe y debe ser rediseñado. Definir objetivos y preparar un programa detallado de actividades y personas encargadas de ejecutarlas, así como los tiempos estimados para ello. Obtener información relevante y hacer un listado de requerimientos específicos, limitaciones y anotaciones especiales.
•
Fase creativa Análisis y Síntesis de los datos para preparar propuestas de diseño
Bocetaje inicial o preliminar. En esta fase se contemplan la mayor cantidad de soluciones de diseño posibles. Es una etapa de total expansión creativa que puede realizarse por los métodos tradicionales, es decir, a través del dibujo con lápiz, pinceles, plumones, etcétera, o bien usando medios electrónicos (computadoras). Preselección de ideas. Una vez explorados todos los caminos posibles, se evalúan las propuestas iniciales y se jerarquizan; al seleccionarlas, se recurre a la combinación de ciertos elementos de unas y tras propuestas entre sí. Evolución de bocetos. Las alternativas se refinan o depuran en base a los criterios definidos en un inicio. Elaboración de presentación. En esta fase se evalúan nuevamente las alternativas de diseño que fueron
depuradas y se escogen el mismo número de alternativas (no más de cinco) para ser presentadas al clien23
te. Previo a esa presentación se desarrollan prototipos de las alternativas escogidas que representan de la manera más exacta posible lo que será el diseño final. Selección de alternativas. El cliente, después de estudiar detenidamente las propuestas, elige una de las alternativas. Refinado. Generalmente, una vez que ha sido escogida la alternativa de diseño, pasa por pequeñas afinaciones en concordancia con las opiniones del cliente. En la presentación, se explican en forma clara los conceptos relevantes de cada alternativa. En ocasiones, suele presentarse junto con los diseños un documento, que justifica los conceptos presentados con base a la información otorgada por el cliente en las fases primarias del proyecto. • Fase ejecutiva ✏✏ Preparación y ejecución de estudios y pruebas que validen el diseño. ✏✏ Refinado en base a pruebas. Si después de llevar a cabo estudios de mercado y diversas pruebas es necesario hacer ajustes o afinar detalles, éstos pueden realizarse en la fase de elaboración del diseño final. ✏✏ Aprobación del diseño final.
✏✏ Adaptación a presentaciones. En caso de que el producto tenga diversas presentaciones se hacen las adaptaciones. ✏✏ Preparar documentos para la producción.
✏✏ Solución final 24
PROCESO DE PRODUCCIÓN EN La INDUStRIa GRÁFICa El proceso de producción grafica para impresión puede dividirse en ocho pasos que conforman cuatro fases. La primera fase se ocupa del trabajo estrátegico y creativo y su resultado final consiste en una idea, un concepto y bocetos del diseno grafico. La siguiente podría calificarse como de producción creativa: aqui todavía se diseña y se cambia el producto. La tercera fase , que consiste en Ia preimpresión , Ia impresión y Ia etapa de manipulados, es básicamente industrial y tiene Ia finalidad de poner en práctica todo lo decidido e ideado en los pasos previos. El último paso se ocupa de Ia distribución del producto ya impreso. ORGaNIGRaMa DE UNa INDUStRIa GRÁFICa
25
Las organizaciones son entes complejos que requieren un ordenamiento jerárquico que especifique la función que cada uno debe ejecutar en la empresa. Por ello la funcionalidad de ésta, recae en la buena estructuración del organigrama, el cual indica la línea de autoridad y responsabilidad, así como también los canales de comunicación y supervisión que acoplan las diversas partes de un componente organizacional. Por tal razón, en el presente trabajo, aprenderemos los diversos tópicos que están referidos al organigrama y su función en la organización de una empresa, lo que permitirá conocer la correcta elaboración del mismo.
PLANTA DE PRODUCCIÓN
ORGANIZACIÓN DE LA PRODUCCIÓN • • • • • • • • • •
Estudio de necesidades del cliente Presupuesto Programación Compras Orden de trabajo Seguimiento de la producción Subcontrataciones Distribución Facturación Gestión de calidad
SISTEMAS DE GESTIÓN DE LA INFORMACIÓN MIS Los sistemas de información de gestión (MIS, por sus siglas en inglés) son herramientas valiosas que los ejecutivos usan para conseguir efectividad en sus operaciones de negocios. Los MIS pueden proporcionar un entendimiento valioso sobre la salud financiera de la compañía, y ayudar a los gestores a tomar decisiones de negocio críticas. El estilo y el formato de los MIS han cambiado con los años, pero los gestores confían en estos sistemas para realizar sus actividades diarias Los SIG o MIS (también denominados así por sus siglas en inglés: Management Information System) se diferencian de los sistemas de información comunes en que para analizar la información utilizan otros sistemas que se usan en las actividades operacionales de la organización. Académicamente, el término es comúnmente utilizado para referirse al conjunto de los métodos de gestión de la información vinculada a 26
la automatización o apoyo humano de la toma de decisiones. COSTES DE PRODUCCIÓN El coste de producción se obtiene añadiendo al precio de adquisición de las materias primas y otras materias consumibles, los costes directos y una parte razonable de costes indirectos, en la medida que tales costes correspondan al período de fabricación. • Los costes directos provienen de los factores directamente imputables (materias primas, auxiliares y de obra directa) pueden ser asignados por criterios fácilmente detectables, determinando su valor mediante la suma de costes o factores consumidos. • Los costes indirectos imputables a los productos presentan mayor subjetividad, por un lado implica definir, qué tipo de costes son imputables, y por otro, qué importe de los mismos corresponde imputar. Así pues, la asignación y reparto de los costes a los productos obliga a realizar un análisis previo para alcanzar un valor agregado a los costes directos que pueda ser constatado objetivamente.
27
PRESUPUESTO Se le llama presupuesto al cálculo y negociación anticipado de los ingresos y gastos de una actividad económica (personal, familiar, un negocio, una empresa, una oficina, un gobierno) durante un período, por lo general en forma anual. Es un plan de acción dirigido a cumplir una meta prevista, expresada en valores y términos financieros que debe cumplirse en determinado tiempo y bajo ciertas condiciones previstas, este concepto se aplica a cada centro de responsabilidad de la organización.El presupuesto es el instrumento de desarrollo anual de las empresas o instituciones cuyos planes y programas se formulan por término de un año PLANIFICACIÓN DE LA PRODUCCIÓN La planificación de la producción es un término asignado a los distintos tipos de técnicas de planificación diseñadas para maximizar la producción y la rentabilidad. Aunque muchas de estas técnicas son de naturaleza matemática, conceptos tales como control de inventarios, planificación de la capacidad y los horizontes de laminación deben ser entendidos para que cualquier técnica de planificación sea eficaz. Entender los conceptos de planificación de la producción es útil para cualquier empresa que busque mejorar la eficiencia y los ahorros de costos. FASE DE PRODUCCIÓN • Preimpresión ✏✏ Tratamiento del texto ✏✏ Tratamiento del imagen ✏✏ Montaje de página ✏✏ Imposión ✏✏ Filmación CTF + Pasado de planchas ✏✏ Filmación CTP ✏✏ Pruebas • Impresión ✏✏ Preparación de materiales ✏✏ Preparación de máquina ✏✏ Ajuste y entonación ✏✏ Tirada • Postimpresión ✏✏ Corte ✏✏ Plegado ✏✏ Alzado ✏✏ Cosido ✏✏ Otros acabados (hendidos, golpe en seco, barnizados, estampados…) LIMITACIONES TÉCNICAS EN LA INDUSTRIA GRÁFICA • Problema 1: El color en la industria gráfica En el diseño gráfico los colores siempre van a ser divididos en dos secciones: RGB y CMK. Los colores RGB son los colores primarios complementarios. Red, Green and Blue: Colores para Internet y pantalla. 28
Los colores CMYK son secundarios complementarios: Cyan,Magenta, Amarillo; adhiriendole el Negro. Son todos aquellos colores utilizados para imprimir en imprentas. Exactamente igual es el procedimiento que las imprentas hacen para determinar los colores de todos los impresos gráficos. Dividen en cuatro
placas, una para cada color, pero además le agregan un color invitado (en una placa extra) que es el Negro, para dar mas nitidez a las imágenes. Imprimir, caracterizar, perfilar y controlar son los pasos para que todos los equipos involucrados en el proceso de impresión trabajen coordinados y, sobre todo, para lograr que un producto cumpla con las expectativas prometidas por la prueba de color. La tecnología brinda las herramientas para hacer eso realidad. Solo es necesario utilizarlas bien. El color es un fenómeno óptico luminoso existente en la naturaleza, que permite extasiarnos con las cosas que observamos. Se le considera fenómeno, por la forma extraña que tiene de manifestarse; óptico, porque se capta a través de la vista, y luminoso, porque requiere de la luz para poder manifestarse. La manifestación del color requiere de tres elementos: luz, observador y objeto.. El color se percibe por varias razones: ✏✏ Las cosas que nos rodean tiene la facultad física de absorber y reflejar los colores primarios de 29
la luz blanca. ✏✏ Dentro de nuestros ojos existen unas fotoceldas llamadas conos, que son receptoras o sensibles a esos colores. Paralelamente, existen también otras llamadas bastones, que regulan la visión en blanco y negro. ✏✏ La luz está formada por colores. ✏✏ Hay una importante interacción entre los ojos y el cerebro. La tinta cian le resta al papel su capacidad de reflexión de rojo; al sólo reflejarse verde y azul, el resultado es cian. La tinta magenta le resta al papel su capacidad de reflexión de verde; al sólo reflejarse azul y rojo, el resultado es magenta.La tinta amarilla le resta al papel su capacidad de reflexión de azul; al sólo reflejarse verde y rojo, el resultado es amarillo.Cian impide que se refleje el rojo; amarillo lo hace con el azul; al poner ambas tintas juntas sólo se refleja el verde y esa es la combinación que logramos con cian y amarillo.Cian impide que se refleje el rojo; magenta lo hace con el verde; al poner ambas tintas juntas sólo se refleja el azul y esa es la combinación que logramos con cian y magenta.Amarillo impide que se refleje el azul; magenta lo hace con el verde; al poner ambas tintas juntas sólo se refleja el rojo y esa es la combinación que logramos con amarillo y magenta.Amarillo impide que se refleje el azul; magenta lo hace con el verde y cian con el rojo; al poner las tres tintas una sobre otra, debería dar negro; sin embargo, da un café chocolatón muy oscuro que casi es negro, lo que resulta de la impureza que tienen los tres pigmentos CMY, que están ligeramente contaminados por color no deseado (cian, con algo de rojo; magenta con algo de verde y amarillo con un poco de rojo), lo que resulta en un "negro" no negro, y por ello se recurre en impresión a la tinta negra, que da profundidad y detalle en las sombras de una imagen. Ahora bien, una vez comprendido lo anterior, es necesario especificar que, de acuerdo con los expertos, la combinación de colores primarios luz (RGB) puede producir 16.777.216 colores, en tanto que la combinación CMYK tan sólo puede producir entre 5.000 y 6.000 colores diferentes; entonces, la relación entre colores luz y colores tinta es abismal en cuanto a combinación y variedad de tonos. Luego, las pruebas de color han sido diseñadas para recibir datos RGB y convertirlos a CMYK, con lo que la gama de tonos que entran a la impresora es superior a lo que la máquina de impresión será capaz de producir. Por otra parte, el que la impresora reciba datos RGB, no significa que imprima en ese espacio de color, sino simplemente que genera una gama de tonos muy superior a la de la prensa; luego, algunos plotters imprimen con 6 (CMYK, cian y magenta claros), otros hasta con 8 tintas (CMYK, cian y magenta claros y dos grises), por lo que su gama también es superior a la gama de la prensa, incluso imprimiendo hexacromía; por tal motivo, tratar de que la prensa iguale la prueba de color es casi imposible, por lo que la estrategia debe ser modificada, efectuando una serie de acciones que nos lleven a que sea la
prueba la que iguale a la máquina de impresión. 30
•
Problema 2: El tramado y la separación de color
Al hacer la separación de los originales en color, se usa el mismo sistema que para las fotografías en blanco y negro. La película de cada color se forma con puntos de tamaños que varían según la densidad del color en el área correspondiente del original. Al variar el porcentaje del área cubierta por los puntos de un solo color primario, se puede obtener una amplia escala de tonos dentro de dicho color.
El porcentaje de luz absorbida por la tinta es proporcional al porcentaje del área cubierta por lo puntos; es decir, si los puntos cubren un 40% del área de papel, la tinta absorbe un 40% de la luz que, por su color, debe absorber. Para evitar la interferencia de tramas, o muaré, las líneas de trama se orientan en ángulo distinto para cada color. ✏ Tramado convencional En la impresión tradicional, está determinado que 45°, 75°, 90° y 105° son los ángulos ideales en las
tramas para impresión. 31
✏✏ Tramado estocástico Se utiliza para color de alta fidelidad como también para la generación de medios tonos, duotonos y separaciones de color de cuatro o más colores. En un tramado estocástico de primera generación, varían únicamente los espacios entre puntos de igual tamaño; mientras que en uno de segunda generación, varía el espacio entre puntos además del tamaño de éstos.
32
Ángulos de trama utilizados en la impresión por cuatricromía En el siguiente gráfico determinamos los ángulos de trama a utilizar en la impresión de monotonos, bitonos, tritonos y cuatricromías para evitar o reducir la aparición del efecto moiré
En la imagen siguiente podemos apreciar la aparición del efecto moiré al no disponer los ángulos de 33
trama correctamente: • Problema 3: La informática y la digitalización PREIMPRESIÓN
•
Tratamiento del texto ð Typesetting El tratamiento de textos (o procesamiento de textos) es la creación, modificación, corrección y arma-
do de documentos usando un procesador de texto. • Tratamiento de la imagen ð Scanning, color retouching En este se generan las imágenes, ya sea escaneándolas, mediante fotografía digital u obteniéndolas de un bancos de imágenes o de un CD. Se verifican, se ajustan y se retocan. Esto suele hacerse en Adobe Photoshop. Con este programa también se pueden realizar y revisar las ilustraciones, aunque es más común hacerlo en Adobe Ilustrator. ✏ Originales ð Digital y físicos 34
•
✏ Escaneado fotografía digital Montaje de página ð Page layout, page composition
El trabajo de maquetación se centra en reunir textos e imágenes para crear páginas originales acabadas. Cuestiones relevantes realacionadas con la maquetación son el original de texto, la tipografía, la gestión de imágenes y logotipos, así como la elección de colores y combinaciones de color. • Formato de archivos ð File format
•
✏ Archivos de texto ð TXT, DOC, RTF ✏ Archivos de imagen ð TIF, EPS, JPEG ✏ Archivos gráficos ð ESP ✏ Archivos de página ð QXP, IND ✏ Archivos postscript ð PS ✏ Archivos ð PDF, TIFF/IT Imposición ð Imposición, sheet assembly
Consiste en distribuir las páginas dentro de un documento conocido como trazado que contiene el formato de pliego donde se va a imprimir la publicación, de manera que al plegar y cortar después dicho pliego impreso, obtengamos un correcto casado de las páginas, es decir, que éstas se muestren en el orden de foliación correcto. La imposición también nos ayuda a optimizar el uso del papel y simplificando
procesos, como por ejemplo, con los trazados de repetición (en los que colocamos diferentes productos, 35
normalmente extraeditoriales, en el trazado). La imposición se ha realizado manualmente mediante un astralón, fotolitos y mucha precisión milimétrica durante muchos años. Actualmente se realiza con aplicaciones informáticas. • Pruebas ð Proof
✏✏ En pantalla ✏✏ De página para maquetación
✏✏ De pliego para imposición ✏✏ Pruebas de contrato • Filmación CTF ð Computer to film, film exposure 36
Es un método de impresión Offset que implica la impresión desde un computador, directamente a una película. Esta película posteriormente es copiada sobre una placa litográfica, usando un insolador para luego usar la placa insolada en una prensa offset. El proceso de copiado (llamado también quemado de plancha) de una película a una placa litográfica requiere de un ambiente libre de partículas que puedan afectar el copiado, así como una controlada entrada de luz (las placas se revelan como una fotografía). Para realizar su trabajo correctamente, el operario debe contar además con una serie de herramientas como pines para alinear la imagen, una escala de densidad y los químicos de revelado y fijado de la imagen. El proceso de película se ha visto reemplazado por la tecnología CTP (Computer to Plate) por las múltiples ventajas que representa; aunque no se podría afirmar que el sistema CTP llegue algún día a reemplazar completamente el uso de películas negativas. • Fimación CTP ð Computer to plate, plate exposure En preimpresión, cualquier sistema que permita grabar directamente las planchas de impresión directamente desde el ordenador sin necesidad de usar materiales intermedios como los fotolitos.
La grabación directa de planchas permite ahorros de costes y tiempo muy notables. Además, permite reducir la incidencia de algunos defectos como la ganancia de punto o los desajustes de color. 37
Su mayor peligro consiste en que preimpresores y clientes deben cambiar sus conceptos y sistemas de pruebas de color para ajustarse a los nuevos procedimientos.
• Obtención de formas impresoras ð Platemaking ✏✏ Planchas offset ✏✏ Pantallas de serigrafía ✏✏ Cilindros de huecograbado ✏✏ Fotopolímeros de flexografía IMPRESIÓN • Sistemas de impresión ð Printing technologies ✏✏ Tipografía / flexografía ð Letterpress, flexography La impresi6n flexografica permite imprimir sobre casi cualquier material, ya sea papel, carton, plastico o metal. Esta versatilidad ha brindado a Ia flexografia una especial popularidad en el sector del packaging y en el del papel higienico. La plancha flexografica presenta areas impresoras en relieve, un sistema parecido al de los sellos de goma. El rodillo anilox esta cubierto de pequenas celdas que le permiten transferir Ia tinta a Ia plancha de impresión de una manera rapida y uniforme.
♦♦
Ventajas ✳✳ Permite imprimir sobre casi cualquier material. ✳✳ Permite usar tintas de base acuosa . ✳✳ Genera pocos desechos. ✳✳ Admite formatos variables. ✳✳ Inconvenientes ✳✳ El doble borde caracteristico de esta tecnica resulta molesto. ✳✳ Dificulta Ia reproducci6n de rangos tonales amplios y no siempre permite obtener transiciones tonales . ✏✏ Huecograbado ð Gravure El huecograbado es un antiguo método de impresión que tiene sus orígenes en las técnicas tradicionales de grabado en cobre. Se trata de un procedimiento caro que sólo resulta rentable en el caso de 38
tiradas grandes. Las prensas de huecograbado son rotativas (de ahí que la técnica también se conozca como rotograbado), suelen ser de grandes dimensiones e imprimen a mucha velocidad. Por ello se utilizan básicamente para imprimir periódicos , catálogos , folletos y otros productos en tiradas grandes. Los pequeños alvéolos que componen la trama se llenan de tinta y una rasqueta elimina el exceso. En la zona de contacto de la prensa se transfiere la tinta del cilindro portaforma al papel. ♦♦ Ventajas: ✳✳ Los cilindros portaforma soportan grandes tiradas sin sufrir desgaste. ✳✳ En tiradas extensas el coste unitario es bajo. ✳✳ Buena reproducción de imagen. ♦♦ Inconvenientes: ✳✳ Todas las líneas y los textos son tramados. ✳✳ Las tintas contienen abundantes aditivos químicos y disolventes. ✳✳ Costes de puesta en marcha elevados (poco indicado para tiradas cortas). ✏✏ Offset / Litografía ð Litography, offset printing
La plancha de impresión se moja para que la tinta se adhiera a las superficies de la plancha recubiertas de
polímero y no a las áreas no impresoras . Como se observa en la imagen, existe una pequeña diferencia de relieve entre las superficies impresoras y no impresoras de la plancha de impresión offset. Sin embargo, esta diferencia no es la que produce la impresión . Las superficies no impresoras de una plancha de im39
presión para offset seco están recubiertas con si licona, que repele la tinta oleosa, lo que hace innecesario utilizar solución de mojado. ♦♦ Ventajas
✳✳ Unos puntos más nítidos permiten imprimir con lineaturas de trama más altas. ✳✳ No es necesario equilibrar tinta y agua, lo que agiliza los tiempos de puesta en marcha de la máquina. ✳✳ Permite una densidad máxima más elevada, lo que proporciona una mayor gama de colores. ♦♦ Inconvenientes ✳✳ La ausencia de solución de mojado supone menor impacto medioambiental. ✳✳ La aparición de motas y arranques es más frecuente, por una parte debido a la mayor viscosidad de la tinta y por otra a la ausencia de una solución de mojado limpiadora. ✳✳ Es necesario controlar la temperatura de los cuerpos de impresión, lo que encarece a estas máquinas. Este esquema muestra el funcionamiento básico de una unidad de impresión en una prensa offset. • Se aplica una solución de mojado que recubre las zonas no impresoras de la plancha. • Se añade la tinta y esta se adhiere sólo a las zonas impresoras de la plancha.
• La imagen impresa se transfiere de la plancha a la mantilla. • El papel pasa entre el cilindro portamantilla y el cilindro de impresión y el primero transfiere la imagen entintada al papel. El punto en el que la mantilla de caucho y el papel se presionan entre el cilindro portamantilla y el cilindro impresor se conoce como zona de contacto. ✏✏ Serigrafía ð Screen printing La tinta pasa a través de la pantalla, presionada por una espátula. La tela de la pantalla se ha tratado para que la tinta sólo atraviese las áreas impresoras. Las prensas serigráficas actuales suelen montar cuatro bastidores en línea, uno para cada color. Dado que muchas veces se trabaja en formatos grandes, estas prensas suelen ser de dimensiones considerables. Características prin cipales de la pantalla: ♦♦ Densidad de la malla: número de hilos por centímetro lineal (suele estar entre 100 y 200). 40
♦♦ Superficie libre: porcentaje de la superficie de la malla que deja pasar la tinta. ♦♦ Calidad de la malla: diámetro del hilo; se expresa, de más gueso a más fino, con las letras HD, T, M y S. ♦♦ Ventajas ✳✳ Se puede imprimir casi sobre cualquier material, incluyendo los papeles y cartones más gruesos. ✳✳ Genera pocos desechos. ✳✳ Permite usar tintas de base acuosa ♦♦ Inconvenientes ✳✳ No admite lineaturas de trama muy altas. ✳✳ Dificulta la reproducción de rangos tonales amplios y no siempre permite obtener transiciones tonales. ✏✏ Impresión digital ð Computer to press / computer to print La impresión digital es un proceso que consiste en la impresión directa de un archivo digital a papel, por diversos medios, siendo el más común la tinta en impresora inyección de tinta (cartuchos), y toner en impresora láser. Este proceso es ideal para proyectos de impresión de bajo volumen y tiempos de entrega sumamente cortos, ya que una de las principales ventajas que ofrece es la disponibilidad casi inmediata de los impresos, pues no requiere tiempo de secado o enfriamiento al no trabajar con tintas, como la tradicional impresión offset. Este sector de las artes gráficas está experimentando un gran crecimiento, lo que ha llevado a los diferentes fabricantes y proveedores a lanzar al mercado equipos digitales cada vez con mayores prestaciones, preparados para atender los nuevos requerimientos impuestos por el mercado. La impresión digital tiene una doble vertiente: el pequeño y el gran formato. El primero adolece aún de falta de cierta fiabilidad y presenta algunas carencias (entre ellas, el no disponer de un formato 50x70). El gran formato, por su parte, ofrece ciertos problemas de tipo ecológico y de costes. Esto hace que la
impresión digital tenga que desarrollarse aún más. Sin embargo, uno de los valores añadidos que ofrece la impresión digital es la personalización del producto. La impresión personalizada es un mercado en creciente expansión. • Evolución prevista sistemas de impresión ✏✏ 1970 ð60% Tipografía y flexografía ♦♦ 20% Offset ♦♦ 20% Huecograbado ✏✏ 2014 ð25% Tipografía y flexografía ♦♦ 40% Offset ♦♦ 15% Huecograbado • Ajuste o registro Las marcas de registro se utilizan para controlar la alineación de las tintas impresas.Arriba se muestra la 41
cruz de registro utilizada tradicionalmente. Las sistemas modernos de co ntrol de las prensas de impresión ajustan y evalúan el registro de manera automática. A la derecha, podemos ver una tira de co ntrol de color con marcas de registro. La comprobación se lleva a cabo midiendo las marcas en la dirección de impresión. Si las dos cuñas de un color (véase imagen superior) tienen la misma longitud, como en el caso del cian, la plancha está bien registrada . Cuando su longitud es diferente, como ocurre con el negro, la plancha se ajustará automáticamente. Las marcas de registro se utilizan para comprobar el registro de las tintas en la impresión. Las que se muestran aquí son las cruces de registro tradicionales. En una impresión fuera de registro las imágenes aparecen borrosas y se muestran contornos descoloridos o franjas blancas entre zonas de color colindantes • Entonación ð Ink density
• Impresión digital ð Computer to Press / Print ✏✏ Direct Imaging DI Direct Imaging (DI) es un término Inglés para un proceso de Presstek. Este es un método de grabado directo de placas de impresión en el cilindro de la plancha de la prensa, lo que libera al operador de la temporización operación de las placas, teniendo de ese modo los cuatro colores en registro desde las primeras páginas. Las pulsaciones de tecla de mercado DI son Heidelberg Speedmaster y Ryobi 3404 DI (también se vende por Xerox y Kodak Polychrome Graphics en el continente americano, y KBA).
✏✏ Electrofotográfico 42
Se basa en la atracción de unas partículas de toner, que son las que aplican pigmento (color) a la impresión, a través de una descarga eléctrica. Se produce una carga electroestática a toda la superficie del tambor mediante una carga denominada Corotrón. Después un barrido láser o haz de diodos realiza la siguiente fase consistente en una descar-
ga o exposición. El láser descarga de electrones algunas zonas del tambor que van a definir las zonas no imagen de nuestra impresión. El revelado se produce cuando el tambor entra en contacto con el deposito de toner y las áreas con carga negativa atraen el toner que tiene carga positiva. La transferencia se realiza cuando el tambor cargado de toner atraído por los electrones entra en contacto con el soporte de impresión o papel y mediante un proceso térmico y de presión lo fija a éste. Por último, se realiza la limpieza del tambor para la generación de una nueva imagen. El toner son unas partículas, similares a un polvo fino
basado en polímeros y resinas de entre 16 y 8 micras de tamaño. El toner está compuesto por tres elementos básicos: El colorante o pigmento, el polímero y la cera o aceite. ✏✏ Ink – Jet Las impresoras de inyección de tinta funcionan expulsando gotas de tinta de diferentes tamaños sobre el papel. Son las impresoras más populares hoy en día para el gran público por su capacidad de impresión de calidad a bajo costo. Su baja velocidad de impresión o el alto coste del mantenimiento por desgaste son factores poco importantes, ya que el número de copias realizadas en estos entornos es bajo. Su resolución media se encuentra en los 600 dpi
• Control de calidad en impresión 43
El control de calidad está presente en toda la cadena de procesos, certificando así, la calidad técnica del producto y asegurando el cumplimiento de los requisitos que solicita el cliente. El control metrológico de calidad, se realiza principalmente mediante densitómetros en línea, que permiten registrar y controlar las diferencias en el espesor de la capa de tinta. POSTIMPRESIÓN • Corte ð Cut El corte o el guillotinado simplemente implica cortar el papel en el formato deseado mediante algún sistema de cuchillas. Esto puede hacerse manualmente en una máquina de guillotinado o bien simultanearlo con algún otro proceso de manipulado del producto. ✏✏ Sangrados ✏✏ Marcas de cortes • Plegados ð Folding
Las hojas de papel impreso deberán ser sometidas a distintas operaciones de terminación -cortadas, plegadas y/o afianzadas- en la secuencia correcta para transformarlas en el tipo de construcción requerido
por el cliente. La operación de plegado la podemos definir como el proceso por el cual se dobla un pliego X plano hasta obtener un formato determinado. Se denomina pliego plano al pliego tal como sale de la 44
máquina impresora. Es importante diferenciar los términos doblar y plegar. Mientras que el doblado se interpreta como una operación manual de materiales planos sin ayuda de herramientas, la operación de plegado tiene lugar con intervención de la presión mecánica de una máquina, denominada plegadora.
✏✏ Encuentros Siempre se producirá cierta variación de color entre las hojas impresas, e incluso entre la parte izquier-
da y la derecha de la misma hoja impresa . Por ese motivo, conviene evitar colocar elementos de colo res delicados a sangre por el lomo en páginas encaradas. Nunca lograremos un registro 100% exacto entre páginas encaradas. Por ello, no debemos colocar el ementos en diagonal entre dos páginas encaradas. Debemos evitar también las líneas finas a sangre por el lomo. Cuanto más gruesa sea la línea, mejor registrada quedará. ✏✏ Plegadora de cuchilla Una cuchilla la empuja la hoja de papel para plegarla entre dos cilindros. ✏✏ Plegadora de bolsa La hoja entra en la bolsa de plegado y se pliega entre los cilindros inferiores • Alzado, embuchado ð Collating Gathering / Insert Gathering 45
Las hojas plegadas o los cuadernillos se ordenan unos junto a otros en sucesión. Este método se utiliza, por ejemplo, en la encuadernación encolada .Las hojas plegadas se insertan unas en otras. Este método, llamado embuchado, se utiliza en la encuadernación por cosido a caballete, por ejemplo. Las marcas de alzado, en rojo en la ilustración, se colocan durante la imposición de las páginas. Cuando se colocan los cuadernillos en orden de alzado, estas marcas nos permiten comprobar que estén correctamente. • Cosido ð Blinding En la máquina cosedora se unen las páginas plegadas mediante grapas metálicas. Las grapas omega permiten colocar los cuadernillos en carpetas de anillas. Dos ejemplos de grapado lateral: con una grapa en la esquina superior izquierda (imagen izquierda) y con dos grapas en el margen de lomo (imagen derecha). En el grapado lateral las hojas están sueltas, mientras que en el grapado en caballete están plegadas por el centro. Si grapamos las hojas por el lomo en forma cuadernillo antes de plegarlas (imagen izquierda sufrirán un ligero abomba miento, cosa que o cuando las plegamos por se parado y desgrapamos (imagen derecha). Es un tipo de encuadernación muy útil cuando se desea que el libro quede plano al abrirlo. La encuadernación superior es la más utilizada para todo tipo de cuadernos. La inferior es una encuadernación en Wire-0 insertada en una cubierta de cartón, lo que proporciona al producto un lomo plano. Existen varios factores que afectan a la elección de una encuadernación, como el número de páginas, el diseño, el uso y el coste del producto impreso. En esta escala de precios vemos que la encuadernación en espiral constituye la alternativa más cara y que el cosido con grapas es la más barata. ✏✏ Encuadernación con espiral. ✏✏ Cosido con hilo. ✏✏ Cosido Smyth. ✏✏ Encuadernación encolada. ✏✏ Cosido con grapas.
Si no estamos seguros de qué tipo de encuadernación y papel nos convienen, podemos pedir un prototipo encuadernado al proveedor de papel o al encuadernador. • Trenes de acabado Las máquinas de alzado vertical o trenes de acabado ofrecen una gran productividad al ser capaces de manejar una amplia variedad de existencias de papel. Son ideales para complementar una copiadora, una prensa offset, un duplicador digital 46
o una impresora láser. • Otros acabados ✏✏ Hendidos, trepados, perforados ð Creasing, climbing, punching Los productos impresos se perforan para facilitar el arrancando de algunas partes del papel (por ejemplo, los cupones de respuesta que se incluyen en algunas publicaciones).La perforación o trepado o trepado se efectúa en una prensa con un troquel especial o, como muestra la ilustración, mediante una rueda de perforado. ✏✏ Troquelados ð Die cutting El troquel es un instrumento o máquina de bordes cortantes para recortar o estampar, por presión, planchas, cartones, cueros, etc. El troquelado es, por ejemplo, una de las principales operaciones en el proceso de fabricación de embalajes de cartón. El troquel consiste en: Una base de una matriz con ma-
yor resistencia o dureza que las cuchillas o estampa de elaboración de la pieza. Las regletas cortadoras o hendedoras. Sus funciones son las siguientes: cortar, bien para perfilar la silueta exterior, bien para fabricar ventanas u orificios interiores hender, para fabricar pliegues perforar, con el fin de crear un precortado que permita un fácil rasgado semicortar, es decir, realizar un corte parcial que no llegue a traspasar la plancha Gomas. Gruesos bloques de goma que se colocan junto a las cuchillas y cuya función es la de separar por presión el recorte sobrante. ✏✏ Estampados ð Stamping, Hot Foiling Se aplica por razones puramente estéticas. Permite crear superficies metalizadas o acabados extremadamente mates.
La capa de recubrimiento es muy grusa y homogénea, lo que brinda al producto una superficie muy peculiar al tacto. La capa de color o de metal se transifiere al material impreso a partir de una lámina con la ayuda de una plancha caliente. ✏✏ Golpes en seco o Gofrado ð Blind emboss / deboss ♦♦ Permite estampar un relieve en el papel, alterando físicamente su superficie. ♦♦ El relieve puede ser resaltado, en positivo, o hueco, en negativo. ♦♦ La estampación en relieve se efectúa en prensas especiales. ✏✏ Barnizados ð Coating,Varshing, spot varnish 47
♦♦
Técnica utilizada para dar una superficie brillante a un producyo impreso.
♦♦ No protege demasiado contra la suciedad o el desgaste y tiene una finalidad principalmente estética. ♦♦ Se aplica utilizando una unidad de entinando corriente o una torre especial de barnizado. ♦♦ También existen máquinas barnizadoras especiales. ✏✏ Plastificados ð Laminating, encapsulating ♦♦ El plastificado se rea liza en una máquina plastificadora especial que, mediante una cola de
base acuosa y la aplicación de calor, fija una lámina de plástico al papel impreso. • Gestión de Calidad Total La Gestión de la Calidad Total (abreviada TQM, del inglés Total Quality Management) es una estrategia
de gestión desarrollada en las décadas de 1950 y 1960 por las industrias japonesas, a partir de las prácticas promovidas por los expertos en materia de control de calidad W. Edwards Deming, el impulsor en Japón
de los círculos de calidad, también conocidos, en ese país, como «círculos de Deming»,1 y Joseph Juran.2 La TQM está orientada a crear conciencia de calidad en todos los procesos de organización y ha sido am48
pliamente utilizada en todos los sectores, desde la manufactura a la educaci贸n, el gobierno y las industrias de servicios. Se le denomina 芦total porque concierne a la organizaci贸n de la empresa globalmente considerada y a las personas que trabajan en ella.
49
tEMa 2
EVOLUCIÓN HIStÓRICa DE La PREIMPRESIÓN
52
TEMA 2: EVOLUCIÓN HISTÓRICA DE LA PREIMPRESIÓN Antes de la imprenta 55 La invención de Gutenberg: los tipos móviles 56 La invención de Gutenberg: la prensa de imprimir 57 Establecimiento de los primeros talleres de imprenta en Europa durante el Siglo XV 58 Evolución de los sistemas de impresión 59 Técnicas de grabado artístico 61 Tipografía 64 Evolución de las máquinas de impresión 67 Litografía 68 Offset 69 Evolución de la tipografía 83 Fotocomposición 97 Fotomécanica 98 Autoedición 99 Sistema CEPS 101 Impresión digital 102
53
54
Por sus características intrínsecas, la historia de la imprenta es quizás, la mejor documentada de todas, ya que desde el origen, hay testimonios físicos (ya sean papiros, piedras talladas u otros utensilios) sobre ella. Durante siglos, la mayor parte de la obra impresa se ha producido con este método, totalmente mecánico, sin embargo su evolución esta variando de procesos El antecedente más antiguo que se conoce como medio de impresión es la utilización de piedras para sellar. Estas se utilizaban sobre todo en Babilonia y pueblos de características similares. Su utilidad se basaba prácticamente como sustituto de la firma o como símbolo religioso. Estos aparatos estaban formados por sellos y tampones que imprimían sobre arcilla o bien piedras con dibujos tallados. Esta se incrusta en un anillo se coloreaba y se prensaba para así conseguir la impresión. Esta evolución hasta hoy en día se ha producido de forma independiente tanto en diferentes épocas como en diferentes lugares o civilizaciones, por ejemplo: En Egipto, Grecia o Roma, los libros se copiaban a mano con tinta. Posteriormente, esto también se aplicó posteriormente en los monasterios medievales. Ya se lanzaban edciones de hasta 5000 ejemplares, entre ellos manuscritos coloreados como los " Epigramas" de Marcial. La llegada de los caracteres móviles favoreció el desarrollo de distintas técnicas de grabado, entre ellas el "aguafuerte" y el "grabado al humo" con planchas de cobre, al igual que la "aguatinta" que permite simular el efecto de la pintura al acuarela. En Europa, durante el siglo XII se produjo una gran actividad intelectual que trajo consigo una mayor demanda de libros. Los monjes realizaban cuidadosamente copias para las bibliotecas de los monasterios pero esto no satisfacía la demanda de los estudiantes y de esta necesidad surgió la búsqueda de un método de reproducción de los textos rápido y barato. Muchos países se atribuyen para sí la gloria de la invención de la imprenta. Los holandeses mantienen que su inventor fue Coster, en la ciudad de Haarlem, mientras los franceses aseguraron durante años que la imprenta era un invento de los orfebres de Estrasburgo. En realidad, hacía tiempo que se conocía en Europa la prensa y las aleaciones de los metales necesarios para la fabricación de los tipos móviles: pero fue necesario el genio creativo de quien supo combinar diferentes ideas para ofrecer un producto nuevo para que el descubrimiento echara a andar. También debe considerarse como precedente inmediato de la imprenta el libro xilografiado, realizado generalmente a partir de dibujos que se podían colorear posteriormente. Las obras xilografiadas llegaron a alcanzar una relativa popularidad a finales de la Edad Media, especialmente para barajas, juegos y algunos libros de fábulas, así como para la famosa Biblia pauperum o Biblia de los pobres, realizada a base de dibujos y de gran difusión entre las clases populares. ANTES DE LA IMPRENTA • Mediterráneo (sur de creta) ✏✏ Disco de Phaistos El disco de Festo (o disco de Phaistos) es un disco de arcilla cocida con inscripciones en ambas caras fechado a finales de la edad de Bronce. Fue descubierto el 15 de julio de 1908 por el arqueólogo italiano Luigi Pernier en la excavación del palacio minoico de Festos, cerca de Hagia Tríada, en el sur de Creta. El propósito de uso y su origen aún no han sido determinados, lo que ha convertido a este objeto en uno de los más famosos misterios de la arqueología. Actualmente se encuentra en el museo de Heraklion en Creta. • Asia oriental ✏✏ Talla en Madera La xilografía es originaria de China (siglo V d.C.) y supuso la mecanización del proceso de impresión. Como método de impresión sobre tela, los ejemplos más antiguos que sobrevivieron en China son anteriores al año 220, y en Egipto, del siglo VI o VII. El ukiyo-e es el tipo de impresión japonés por medio de se55
llos de madera más conocido. Después de la imprenta, la xilografía se usó para las ilustraciones. Al terminar el siglo XV perdió fuerza frente a la calcografía, que es mucho más precisa, sin embargo su uso perduró en las imprentas de pueblo. Hoy día su uso como técnica industrial es nulo, pues ya existe el fotograbado; a pesar de ello se sigue utilizando artesanalmente, mayormente con fines artísticos. El primer libro ilustrado con esta técnica fue el Sutra del Diamante (868. Londres. British Museum).2 En Occidente se introdujo en la Edad Media, las primeras muestras de xilografía datan del siglo XIII, se trata de naipes realizados con esta técnica. A continuación se emplea para estampas religiosas, la primera data de finales del siglo XIV. Se adopta como técnica para ilustrar libros, en los primeros años aparece en los llamados libros xilográficos, de 20 a 30 páginas con textos breves e imágenes destacadas. Además el cristianismo se aprovecha de la nueva técnica para acompañar sus mensajes de ilustraciones. • Occidente Copistas e Iluminadores durante la Edad Media La labor del copista tuvo gran importancia social en el Antiguo Egipto, donde los escribas o copistas eran muy valorados en una sociedad cuya escritura jeroglífica era un saber al que accedían sólo unos pocos, y por su necesidad para las clases dirigentes, ocupaban un alto lugar entre la jerarquía administrativa. El escriba, siempre de familia principal, aprendía de un escriba experimentado las enseñanzas de su oficio desde niño. Sentado en el suelo con las piernas cruzadas, el escriba egipcio utilizaba como soporte el papiro, elaborado tras un complicado proceso a partir la planta homónima, y usaba para escribir una pluma de caña o un tallo de la misma planta del papiro. La escritura adoptaba el sentido de derecha a izquierda en columnas verticales. En lo que respecta a una de las características semánticas más importantes de la palabra copista, la de reproducción, difusión y conservación del libro mediante su copia, este oficio, que desempeñaban los siervos, comienza en Grecia, y más tarde en Roma. El dominus o señor hacía copiar a sus esclavos, con destino a su biblioteca particular, cualquier libro. Los libreros, que comercializaban estos manuscritos, también tenían un número variable de copistas a su cargo para atender sus necesidades de reproducción de libros. El panorama cambia cuando son los centros monásticos los encargados de transmitir y salvaguardar el patrimonio de libros escritos. El amanuense medieval acostumbraba a escribir o aislado en su celda(preso) (el caso de los monjes cartujos y de los cistercienses) o en el scriptorium (escritorio), que era una dependencia común del monasterio acondicionada para tal fin, allí trabajaban muchos monjes a la vez. En esta sala los monjes escribían habitualmente al dictado, o traducian los libros escritos en griego o en latín con lo que se podían efectuar varias copias simultáneamente. Era un trabajo ingrato, que obligaba a forzar la vista, debido a la luz pobre que en general penetraba en los monasterios medievales. Cada día el copista trabajaba en un fragmento del ejemplar o modelo encomendado, o bien podían trabajar varios copistas al mismo tiempo en un códice repartiéndose los cuaterniones o cuadernillos. LA INVENCIÓN DE GUTENBERG: LOS TIPOS MÓVILES • Tipos móviles El proceso de los tipos móviles consiste en ordenar letras individuales, para hacer posible la impresión de diferentes palabras y páginas. Gutenberg desarrolló una aleación de metal que moldeaba las letras individuales utilizadas en su método de tipos móviles. Colocar tinta sobre la cara de las letras levantadas dentro de un marco de madera y presionar la página entera en una pieza de papel en blanco lograba imprimir la misma página una y otra vez. La producción en masa de un mismo libro se hizo más eficiente. • Molde Gutenberg también inventó los elementos utilizados para hacer los moldes que formaban las letras 56
individuales e hizo posible los tipos móviles. Las varillas de metal tenían formas de letras recortadas y las matrices hechas del mismo metal suave permitían confeccionar grandes cantidades idénticas de la misma letra. La fundición de todas las letras del alfabeto, como así también sus intrincados estilos caligráficos, solo podía ser lograda mediante la combinación de estos elementos produciendo los moldes y matrices. • Tinta La tinta de impresión utilizada en los libros antes de la invención de Gutenberg estaba hecha del hollín del fuego y de savia de árbol. Gutenberg inventó la tinta con base de aceite, que permitía que la tinta durara más y que su adhesión al papel fuese mejor. Los elementos ya existían, Gutenberg utilizó un método de prueba y error para desarrollar el nuevo tipo de tinta. Agregarle aceite a los diferentes ingredientes permitía que la tinta se volviese pegajosa y más vibrante. • La imprenta La invención de la imprenta es el más conocido de los inventos de Gutenberg. El tomó un lagar y lo rediseñó para realizar su primer imprenta. Un borde de madera se apoyaba dentro de la prensa mientras el papel en blanco se ubicaba en la parte baja de la prensa. Al mover una manija se presionaban los tipos móviles contra el papel, formando la hoja impresa. Al ubicar otra hoja en blanco en la imprenta, se podría imprimir una página idéntica a la anterior. LA INVENCIÓN DE GUTENBERG: LA PRENSA DE IMPRIMIR Hacia 1459 y años anteriores, los libros eran difundidos a través de las copias manuscritas de monjes y frailes dedicados exclusivamente al rezo y a la réplica de ejemplares por encargo del propio clero o de reyes y nobles. A pesar de lo que se cree, no todos los monjes copistas sabían leer y escribir. Realizaban la función de copistas, imitadores de signos que en muchas ocasiones no entendían, lo cual era fundamental para copiar libros prohibidos que hablasen de medicina interna o de sexo. Las ilustraciones y las mayúsculas eran producto decorativo y artístico del propio copista, que decoraba cada ejemplar que realizaba según su gusto o visión. Cada uno de esos trabajos podía requerir hasta diez años. Cada impresor fabricaba su papel, otorgándole su propia marca de agua a modo de firma de impresor. Por estas marcas de agua es por lo que se conocen sus trabajos. En este entorno, Gutenberg apostó a ser capaz de hacer a la vez varias copias de la Biblia en menos de la mitad del tiempo de lo que tardaba en copiar una el más rápido de todos los monjes copistas del mundo cristiano, y que éstas no se diferenciarían en absoluto de las manuscritas por ellos. En vez de utilizar las habituales tablillas de madera, que se desgastaban con el uso, confeccionó moldes en madera de cada una de las letras del alfabeto y posteriormente rellenó los moldes con hierro, creando los primeros «tipos móviles». Tuvo que hacer varios modelos de las mismas letras para que coincidiesen todas con todas, en total más de 150 «tipos», imitando perfectamente la escritura de un manuscrito. Tenía que unir una a una las letras que sujetaba en un ingenioso soporte, mucho más rápido que el grabado en madera e infinitamente más resistente al uso. Como plancha de impresión, amoldó una vieja prensa de uvas a la que sujetaba el soporte con los «tipos móviles», dejando el hueco para letras capitales y dibujos. Éstos, posteriormente, serían añadidos mediante el viejo sistema xilográfico y terminados de decorar de forma manual. Lo que Gutenberg no calculó bien fue el tiempo que le llevaría el poner en marcha su nuevo invento, por lo que antes de finalizar el trabajo se quedó sin dinero. Volvió a solicitar un nuevo crédito a Johannes Fust, y ante la desconfianza del prestamista, le ofreció entrar en sociedad. Johannes Fust aceptó la propuesta y delegó la vigilancia de los trabajos de Gutenberg a su sobrino, Peter Schöffer, quien se puso a trabajar codo a codo con él a la vez que vigilaba la inversión de su tío. 57
Tras dos años de trabajo, Gutenberg volvió a quedarse sin dinero. Estaba cerca de acabar las 150 Biblias que se había propuesto, pero Johannes Fust no quiso ampliarle el crédito y dio por vencidos los anteriores, quedándose con el negocio y poniendo al frente a su sobrino, ducho ya en las artes de la nueva impresión como socio-aprendiz de Gutenberg. Gutenberg salió de su imprenta arruinado y se cuenta que fue acogido por el obispo de la ciudad, el único que reconoció su trabajo, hasta su muerte pocos años después de reconocerse el trabajo. Peter Schöffer terminó el trabajo que inició su maestro y las Biblias fueron vendidas rápidamente a altos cargos del clero, incluido el Vaticano, a muy buen precio. Pronto empezaron a llover encargos de nuevos trabajos. La rapidez de la ejecución fue sin duda el detonante de su expansión, puesto que antes la entrega de un solo libro podía posponerse durante años. La imprenta, las tintas y el papel de impresión La imprenta de Gutenberg es una adaptación de las prensas utilizadas para exprimir el jugo del racimo de uva en la elaboración del vino. Después de la invención del tipo y de la adaptación de la prensa vinícola, Gutenberg siguió experimentando con la imprenta hasta conseguir un aparato funcional. El proceso de los tipos móviles consiste en ordenar letras individuales, para hacer posible la impresión de diferentes palabras y páginas. Gutenberg desarrolló una aleación de metal que moldeaba las letras individuales utilizadas en su método de tipos móviles. Colocar tinta sobre la cara de las letras levantadas dentro de un marco de madera y presionar la página entera en una pieza de papel en blanco lograba imprimir la misma página una y otra vez. La producción en masa de un mismo libro se hizo más eficiente. ESTABLECIMIENTO DE LOS PRIMEROS TALLERES DE IMPRENTA EN EUROPA DURANTE EL SIGLO XV El holandés Laurens Conster, con letras móviles de madera, compuso el primer libro del que se tiene noticia. Aunque fue Gutenberg quien concibió y construyó por primera vez la imprenta en su conjunto: confección de matrices, fundición de los caracteres, composición de textos e impresión. Se desconoce con qué metales hizo sus moldes. Actualmente los tipos son de una aleación de plomo con estaño y antimonio, que desde la segunda mitad de l siglo XIX se funden mecánicamente. El socio de Gutenberg, Schöffer, usó ya unas matrices de cobre. Las prensas eran manuales. Italia fue el segundo país que conoció el invento: en 1464 en Subico, y tres años más tarde en Roma. También fueron tres obreros alemanes los que en 1470 enseñaron esta técnica en Francia, de donde pasó, en 1479, a Oxford. La primera obra que parece que salió de la imprenta de España es Obres e trobes en lahor de la Verge Maria, imprensa en 1474 en Valencia, en la calle Portal de Valldigna. Entre los años 1533 y 1534 el invento pasó el Atlántico y se empezó a imprimir en México. En Lima, en 1583, el italiano Antonio Ricardo imprimió el primer libro peruano. Posteriormente se instalaron imprenta en Manila (1593), La Paz (1610), Puebla (1640), Guatemala (1660), La Habana (1707), Ambato (1754), Quito (1760), Nueva Valencia (1764), Santiago de Chile (1776), Guadalajara (1793), Veracruz (1794), Santiago de Cuba (1796) y Puerto Rico (1802). En Nueva Granada, la primera imprenta fue la de los jesuítas, en 1738. Otro taller empezó a funcionar en 1777. Nicolás Nariño fundó su imprenta La Patriótica en 1793. En Argentina la primera imprenta fue construida en misiones y empezó a funcionar en 1700, y el primer impreso fue el Martirologio Romano. En Córdoba, la primera impresión fue del año 1766. En Buenos Aires la imprenta empezó a funcionar en 1781. En las colonias inglesas el primer libro impreso fue el que se editó en Cambridge, titulado The free58
mans´ Oath, en 1639. Hasta el siglo XVIII no se avanzó demasiado en la técnica impresora. Hasta entonces la incipiente técnica consistía en colocar los caracteres sobre la platina, encima del papel y presionar con la prensa de madera y mármol. En 1777 Didot construyó una prensa, toda de hierro y del mismo tamaño que la hoja de imprimir, que fue perfeccionándose posteriormente. En ella todavía se entintaba a mano, entre prensada y prensada. En 1814 se dio un gran paso en la mecanización de la imprenta con la invención de la máquina de cilindros por König; el molde plano pasaba sobre la superficie cilíndrica donde estaba colocado el papel y el entintado era ya automático. El invento de la máquina de vapor estimuló y favoreció la rápida industrialización, y gracias a ella se dio el surgimiento, como clase dominante, de la burguesía. Con estos adelantos técnicos y los posteriores, los antiguos maestros impresores fueron, cada vez más, dejando la producción directa en manos de sus obreros. Fueron así naciendo las grandes imprentas nacionales. En 1854 apareció la máquina de reacción, en la que el papel, impreso por una cara, retrocedía y lo era por la otra. Siguieron los perfeccionamientos y, en 1855, se registraba la primera patente de máquina rotativa por Hue. El molde cilíndrico, obtenido por estereotipia curva, presionaba contra el cilindro imprimiendo por las dos caras. Se usaba ya el papel continuo y se hacían tiradas de 10.000 ejemplares por hora. En 1884 Mergenthaler patentó la linotipia, en la que la composición y distribución eran automáticas y en la que se fundían líneas enteras. Posteriores perfeccionamientos condujeron a la invención de la monotipia (1887), máquina que separaba las funciones del teclista de las de fundición y fue precursora de la composición automática mediante banda perforada. Desde comienzos del siglo XX se idearon nuevas técnicas de impresión. La aparición de la fotocomponedora hizo posible la sustitución paulatina de la composición en caliente por la composición en frío, mediante películas. Ello supuso cambiar el crisol de las componedoras mecánicas por una cámara fotográfica, de manera que los textos eran directamente fotografiados en películas, con las cuales se impresionaba las planchas destinadas a la impresión de offsetes o huecograbado. En las fotocomponedoras más modernas, tanto proceso de composición de los caracteres tipográficos y su disposición en cada página como el proceso de filmación se realiza mediante computador. Para imprimir las ilustraciones se obtienen de ellas, mediante métodos fotográficos cuatro películas, que servirán respectivamente para imprimir el amarillo, el cian, el magenta y el negro. El resultado será una imagen con los mismos colores que el original (cuatricromía). EVOLUCIÓN DE LOS SISTEMAS DE IMPRESIÓN • Impresión relieve El fundamento del proceso de impresión en relieve es el mismo que el de un tampón de caucho. Se aplica tinta a las zonas más prominentes de la superficie de impresión y a continuación se transfiere al papel o cualquier otro soporte. En la actualidad se utilizan dos formas de impresión en relieve —tipografía y flexografía—, que se diferencian por las características físicas de las superficies de impresión y de las tintas. La tipografía se efectúa utilizando una superficie de impresión de metal o plástico y una tinta de gran viscosidad. La flexografía emplea una superficie blanda de caucho o plástico y una tinta fluida. • Impresión en hueco Este sistema de impresión tiene aplicaciones específicas, y ha perdido terreno en algunas áreas de aplicación a manos del offset y la flexografía. Usado habitualmente en la impresión de calidad de embalaje flexible (como bolsas de patatas y envoltorios de golosinas) y de edición (libros y revistas de gran tirada), tiene como particularidad que la forma impresora es una forma en bajo relieve. ✏✏ Proceso 59
La matriz impresora típica del huecograbado es el cilindro de impresión, que consta básicamente de un cilindro de hierro, una capa de cobre sobre la que se grabará el motivo a ser impreso, y una capa de cromo que permite una mayor resistencia o dureza durante el proceso de impresión (la capa de cobre es muy frágil y se rompería con gran facilidad durante el proceso). Los procedimientos de grabado en hueco se clasifican, según el método de actuación del grabador sobre la plancha, en procedimientos de grabado directo, en los que la imagen sobre la plancha se consigue realizando incisiones sobre el metal con diferentes materiales (al buril, punta seca y media tinta), y procedimentos de método indirecto (aguafuerte, aguatinta, barniz blando, tinta china con azúcar), en los que se utilizan productos químicos, generalmente ácidos, para marcar la plancha. El sistema de grabado (denominando grabado a la incisión de pequeñas oquedades, encargadas de transferir la tinta en la capa de cobre) más extendido actualmente es una cabeza de diamante, dirigida desde un ordenador, que se encarga de grabar la figura que se transferirá posteriormente al impreso mediante repetidos golpes. Cada cilindro tiene diferencias en su grabado que dependen del color y de la imagen que debe transferir. Estas diferencias se ven reflejadas por la lineatura, el ángulo de grabado de la trama y el porcentaje de puntos. La prensa rotativa imprime directamente a partir de un cilindro de cobre tratado con ácido y que utiliza una tinta al agua de secado rápido. A medida que gira el cilindro pasa a través de un baño de tinta y es raspado posteriormente por un fleje de acero llamado racleta, dejando de esta forma la tinta sólo en los pozos del área con imágenes. De este modo la tinta es absorbida por la superficie del papel cuando entra en contacto con la placa. ✏✏ Aplicación de la tinta Un original, para ser impreso, se descompone en los cuatro colores : cian, magenta, amarillo y negro. Para cada uno de los colores se utiliza un cilindro de impresión, encargado de transferir al soporte la tinta correspondiente. La suma de cada uno de los colores da como resultado final la imagen del original. Una estación de rotograbado puede utilizar tantos cilindros como se requiera (adicional a los colores primarios) dependinedo la complejidad de la imagen a imprimirse o en el caso de colores o tonos muy específicos. La tinta es transferida al soporte impreso en el proceso de pasaje entre el cilindro de impresión y el cilindro de contrapresión. Para ello, el cilindro de impresión se sumerge rotando en el tintero. Esta tinta penetra en los alvéolos del cilindro de impresión, el excedente de tinta es barrido por una racla (fleje de acero) y cuando el papel pasa a través de este cilindro y el de contrapresión, la tinta es transferida al soporte. El soporte pasa inmediatamente por un túnel de secado, donde se inyecta aire caliente a presión, que evapora los solventes contenidos en la tinta dejando un residuo que se compone básicamente de una resina, encargada de fijar los pigmentos al soporte y que dan color al impreso y otros aditivos como plastificantes y endurecedores. • Impresión en planográfica La planografía o impresión planográfica es un término genérico utilizado para definir los distintos métodos de impresión o estampado de una imagen sobre una superficie plana, generalmente papel, de manera que no deja relieve sobre éste último. Los procesos de configuración de la imagen planográfica se caracterizan por la definición de la imagen a partir de un dibujo con un material graso, que al entrar en contacto con la superficie plana, generalmente piedra o zinc (litografía) se fijan de manera más o menos permanente. Para lograr la fijación y transferencia de la imagen dibujada se somete la superficie dibujada a un baño de ácidos capaces de aumentar la capacidad receptiva de grasa de la zona dibujada y la retención de agua en las zonas no dibujadas. 60
En el proceso de impresión se mantiene húmeda la superficie, y se pasa repetidas veces un rodillo con tinta grasa que se fija en el dibujo. El agua rechaza la tinta grasa, manteniendo las zonas blancas. Finalmente se procede a transferir la imagen al papel por medio de una prensa que ejerce presión regular sobre el papel que está en contacto con la superficie. TÉCNICAS DE GRABADO ARTÍSTICO (XILOGRAFÍA, CALCOGRAFÍA, LITOGRAFÍA) • Xilografía Es la técnica de grabado más antigua, en la que se emplea como matriz una superficie de madera, generalmente maderas duras como el boj, el peral o el cerezo. El dibujo sobre la plancha puede hacerse de dos maneras; haciendo los trazos en el sentido de la veta, siguiendo la dirección de las "fibras" que conforman el tallo del árbol, o bien transversalmente, haciendo cortes perpendiculares a la dirección de las fibras que conforman el tallo del árbol. En el primer caso estaremos realizando una xilografía a fibra o al hilo, y en el segundo caso una xilografía a contrafibra o a la testa. Sobre la matriz de madera se construye la imagen tallándola mediante herramientas con las que se rebaja la superficie de la matriz, obteniéndose huecos que corresponden al color blanco o a la ausencia de color. Suelen utilizarse cuchillos y gubias para el grabado a fibra, mientras que para el grabado a contrafibra se emplea el buril, que permite trabajar sobre superficies más duras y obtener surcos más delgados y precisos. Cuando se ha terminado de tallar la imagen, se entinta la matriz con un rodillo, que deposita la tinta en toda la superficie de la matriz, salvo en los huecos tallados con las gubias (los blancos). La imagen se pasa al papel utilizando una prensa vertical. • Calcografía Es una técnica de impresión en el que las imágenes son resultado de la estampación, mediante una prensa o tórculo, de una plancha o lámina metálica en la que se han realizado incisiones para contener la
61
tinta que se fijará al papel. Una vez obtenida dicha matriz puede repetirse la operación un número más o menos determinado de veces. La palabra originalmente designó sólo grabados hechos en cobre, y por extensión empezó a ser usado para los grabados en todos los metales. La calcografía es una técnica antagonista a la tipografía dónde se transfiere la tinta depositada en la superficie, y no en los huecos, de los relieves. En las técnicas calcográficas la profundidad de los surcos que reciben la tinta determina la cantidad de esta que se puede depositar y, en consecuencia, determina la intensidad tonal de la impresión. ✏✏ Métodos de grabado ♦♦ Las incisiones se pueden realizar con métodos diferentes: ♦♦ Directos, en los que se utilizan herramientas cortantes o afiladas como el buril y la punta seca. ♦♦ Indirectos, en los que se utilizan ácidos, para el desgaste, como aguafuerte, aguatinta, grabado al azúcar, etc. ♦♦ Los resultados pueden ser muy diferentes según el método empleado, siendo el del buril el que goza de mayor prestigio y calidad en sus acabados, existiendo auténticos maestros de esta técnica. • Litografía La técnica "madre" de la impresión en plano (planografía: Planography) es la litografía (lithography), descubierta por el alemán Alois Senefelder en 1796 cuando buscaba un método sencillo y barato para hacer
62
muchas copias de sus trabajos. Senefelder descubrió casi por accidente que si se dibujaba con un lápiz graso sobre una plancha de piedra caliza (porosa), se humedecía la plancha y se entintaba con una tinta grasa, la tinta se quedaba sólo allí donde había dibujo (debido a que la grasa atraía a la grasa y el agua la repelía). Presionando un papel con esa plancha se reproducía el dibujo con gran calidad y, lo que era mejor, ese proceso de entintado-impresión se podía reproducir numerosas veces antes de que se perdiera definición. Cómo se hace una litografía artística ✏✏ Trazar el dibujo En una piedra porosa lisa (usualmente una laja de piedra caliza bien cortada y pulida), se pinta el motivo con un lápiz graso o un pincel con pintura grasa (o con ambos, si se quiere). El dibujo debe ir invertido (en espejo), ya que al imprimirse volverá a estar al derecho. La superficie de la plancha no cambia. A diferencia de otras técnicas de grabado, no hay relieve de ningún tipo. Es una plancha "plana" (de ahí el nombre de planografía para esta técnica y las que de ella se derivan). ✏✏ Humedecer la plancha Se empapa bien con agua o con una solución acuosa la superficie de la piedra. Allí donde se dibujó con la sustancia grasa, el agua no penetrará en los poros de la piedra. Donde no había dibujo, el agua penetrará en la piedra, dejándola húmeda. ✏✏ Entintar la plancha Con una tinta de base grasa se entinta bien un rodillo de superficie "blanda" (tradicionalmente un rodillo recubierto de piel de carnero). Cuando tenemos el rodillo bien entintado, lo pasamos por encima de la plancha de piedra hasta estar seguros de haber entintado bien todas las zonas. Allí donde la piedra había quedado húmeda de agua (es decir, donde no había dibujo), la piedra repelerá la tinta (por ser esta grasa). Donde habíamos dibujado (y el agua había sido repelida), la tinta quedará depositada formando una película fina. ✏✏ Colocar el papel e imprimir Ponemos un papel encima de la plancha y situamos una prensa encima de ambos. Apretamos bien. Usualmente esto se hace con un rodillo bajo el que se hace pasar la plancha con el papel. ✏✏ Resultado Ya está. El papel ha tomado la tinta allí donde la plancha la tenía. Además, al estar en contacto con una piedra húmeda en buena parte, ha quedado algo mojado. Se puede volver a colocar un papel y realizar una nueva impresión. Cuando la tinta pierde fuerza, basta con entintar de nuevo la plancha. Si el dibujo pierde fuerza en algunas zonas por desgaste de la plancha, podemos repasarlo con bastante cuidado. Si entintamos una parte con un color, imprimimos el papel y luego entintamos otra parte de la plancha con tinta de otro color y volvemos a imprimir, podremos sin demasiada dificultad grabados de varios colores. Una plancha bien realizada y utilizada puede dar bastante servicio antes de "agotarse". Y entonces podemos eliminar bien el dibujo, pulir de nuevo un poco y volverla a usar en otro grabado. Obviamente el bajo coste de las planchas y su fácil reciclado es una de las razones de la gran popularidad de la litografía. Desde su nacimiento, la litografía tuvo un intenso desarrollo uso artístico y comercial.Tras su descubrimiento y hasta la aparición de un derivado suyo (la litografía offset), fue la reina de la impresión comercial, ya que se desarrollaron máquinas capaces de imprimir grandes tiradas en diversos colores. Grandes artistas como Toulouse-Lautrec crearon con ella obras de arte e impresos de todo tipo que 63
aun forman parte de la memoria colectiva del mundo moderno. Las tintas de litografía son básicamente grasas y translúcidas. Es decir: No son opacas y cuando imprimimimos una tinta encima de otra, los colores se suman (mezcla de colores sustractiva), no se tapan. TIPOGRAFÍA La tipografía es la forma gráfica de expresar el lenguaje. Se puede ver como el arte y técnica del manejo y selección de tipos, originalmente de plomo, para crear trabajos de impresión. • Imprenta, tipos móviles Los primeros tipos móviles, inventados por Johann Gutenberg, y el tipo de letra redonda o romana que le siguió en Italia, imitaban el estilo manuscrito de esos países en boga en aquellos momentos. Aunque se sabe ahora que los chinos ya habían experimentado con tipos móviles de cerámica en el siglo XI, Gutenberg es reconocido como el padre del tipo móvil. Vivió en Maguncia, Alemania, y era orfebre de oficio, pero adquirió los conocimientos técnicos sobre el arte de la impresión. Ya se habían hecho impresiones a partir de bloques de madera tallados a mano muchos años antes. En 1440 comenzó una serie de experimentos que, diez años después, darían como resultado la invención de la imprenta a partir de tipos móviles. Utilizó sus conocimientos sobre la tecnología y los materiales existentes –la prensa de tornillo, las tintas a base de aceite y el papel-, pero fue la manufactura de los tipos a la que le dedicó gran parte de sus esfuerzos. Como orfebre conocía muy bien el modelado, mezcla y fundición de metales, lo que le permitió desarrollar un método para fabricar los tipos. Se trataba de grabar cada carácter en relieve de forma inversa sobre un troquel de acero que se incrustaba con un mazo en la terraja (una barra de cobre). La terraja se colocaba en la matriz, un molde maestro para fundir cada letra, según un proceso llamado justificación. Después, la matriz se colocaba en un molde manual ajustable sobre el que se vertía una aleación de plomo y antimonio, y de ese modo modelaba cada uno de los tipos. Los frutos visibles de sus trabajos son la Biblia de 42 líneas, en 1445, el libro más antiguo impreso en el mundo occidental, aunque imprimió Indulgencia de Maguncia el año anterior, para el cual utilizó un estilo cursivo de la letra Gótica llamada Bastarda. Los primeros tipos de letra redonda que aparecieron en Italia entre los años 1460 y 1470 estaban basados en la escritura manual humanista. Un renovado interés por la minúscula 64
carolingia, había provocado un refinamiento en su diseño, el resultado fue el proyecto final para el primer tipo romano. Después de 1460, el liderazgo en el desarrollo de los tipos móviles pasó de Alemania a Italia, centro artístico del renacimiento. En 1465, en Subiaco, cerca de Roma, Conrad Sweynheym y Arnold Pennartz, dos alemanes que se habían desplazado a Italia, influenciados por el trabajo de Gutenberg, crearon un tipo híbrido, mezcla de características góticas y romanas. En 1467 se trasladaron a Roma y en 1470 habían creado un nuevo conjunto de letras, basados en la escritura humanista. Mientras tanto en Venecia, en 1469, los hermanos da Spira, crearon otra tipo romano, superior al anterior. Pese a ello, en 1470 Nicholas Jenson creó un tipo de letra que superaba a todas las diseñadas en la época en Italia y que siguió perfeccionando, creando uno nuevo seis años después y conocido como romana de letra blanca, utilizado para la impresión de Nonius Peripatetica. Desde entonces, las proporciones de Jenson han servido de inspiración para los diseños de tipos. A pesar de que el estilo predominante en Italia era el romano, no era el único. Incluso Jenson continuó produciendo libros en letra gótica, al igual que
muchos otros. En 1483, como cosa inusual, el alemán Erhard Ratdolt, imprimió Eusebius usando la letra gótica y la romana de forma conjunta. • Industrialización, siglo XIX: linotipia y monotipia Durante la industria65
lización se intenta automatizar la impresión, con dos vertientes diferenciadas. En la monotipia cada letra del
alfabeto se funde en relieve por separado, y en la linotipia se funde cada línea entera por separado (de ahí su nombre), y al acabar la impresión cada línea se vuelve fundir para crear nuevas líneas. • Fotocomposición Es la capacidad de componer páginas a partir de matrices fotográficas o negativos de letras para producir cintas fotográficas compuestas por la acción mecánica de la fotocomponedora. La historia de la industria de las artes gráficas ha ido evolucionando a través de diversas tecnologías desarrolladas para la automatización o mecanización del proceso tipográfico. Tras la linotipia, una máquina de escritura de tipos sobre un lingote de plomo que se utilizaba para la producción de periódicos, surgió otro tipo de máquinas. HEL dotó a estas máquinas de la capacidad de componer páginas a partir de matrices fotográficas o negativos de letras para producir cintas fotográficas compuestas por la acción mecánica de la fotocomponedora: de ahí el nombre de fotocomposición. no me jodas. Dentro de la industria gráfica, la tipografía como procedimiento de impresión requería un método directo, tarea que podía cumplir la linotipia; sin embargo, para otro tipo de procedimientos de impresión —por ejemplo, para construir planchas para flexografía, heliograbado y offset— eran necesarios otros instrumentos de trabajo que generaran los originales mecánicos. Las fotocomponedoras se encargarían de esas funciones al producir cintas con la titulación tipográfica necesaria tal y como veríamos si recortamos un titular de un periódico impreso. El método ofrecido eliminaba la necesidad de imprimir la galera tipográfica, producida por la linotipia, para el mismo procedimiento. La forma actual de fotocomposición electrónica está presente en LaTeX, los procesadores de texto y las impresiones láser como un paso más en una evolución dentro de la historia en las artes gráficas. • Era digital: TeX, PostScript, autoedición 66
PostScript es un lenguaje que codifica la información descriptiva, independientemente de la resolución o el sistema. EVOLUCIÓN DE LAS MÁQUINAS DE IMPRESIÓN • Prensa de metal. Fue creada por Lord Stanhope. La máquina es hecha con hierro fundido, lo cual reduce la fuerza física para moverla. También duplicó el tamaño del área que se imprimía. Aparte de crear la prensa de metal, Stanhope fue el inventor de la estereotipia. • Prensa de vapor. La máquina diseñada por el alemán Friedrich Koening cambió radicalmente la imprenta: usó la energía de vapor para que la máquina funcionara y sustituyó la impresión plana por el movimiento de rotación de los cilindros. Este diseño eliminó algo que era muy cansado de hacer una y otra vez: entintar a mano los tipos móviles con almohadillas de cuero. Otra ventaja era que sólo se necesitaban dos hombres para imprimir: uno que pusiera el papel en blanco y otro que retirara las hojas impresas. Lo malo era que poner el papel de forma manual (hoja por hoja) frenaba la velocidad del proceso. Otro punto negativo, era que la máquina contaba con 60 ruedas para lograr la impresión. Un hombre llamado Applegath simplificó esto y lo redujo a sólo 6 ruedas. En 1815, William Cowper obtuvo la patente de una máquina impresora que lograba imprimir 2400 hojas por hora; pero también podía imprimir 1200 hojas por ambos lados. En la década de 1830, la imprenta obtuvo un gran desarrollo y tanto los periódicos como los libros y pequeños impresores se multiplicaron. El incremento de las impresiones, ocasionó el uso de una gran cantidad de papel. De no ser porque en 1803 un joven empleado (Nicolas Louis Robert) puso en funcionamiento una máquina para producir papel, la imprenta a base de energía de vapor hubiese sido limitada. Es así como llegó el papel industrial, una forma económica y abundando de hacer rollos de papel. Esto dio paso a una nueva era, en donde el conocimiento y la educación se ampliaron y dio lugar a la época de las comunicaciones masivas. • La rotativa. En 1846, Richard March Hoe inventó la prensa rotativa. Esta prensa utilizaba rodillos. Una característica particular de la imprenta era que al final de ésta, se le adjuntó una máquina que cortaba y doblaba el papel. Es decir, el periódico ya estaba listo para su entrega. Esta imprenta simplificó los tiempos de impresión y podía realizar grandes tirajes. Es por eso que es la máquina más adecuada para la producción de los periódicos. 67
LITOGRAFÍA La litografía es un procedimiento de impresión ideado en el año 1796, hoy casi en desuso salvo para la obtención y duplicación de obras artísticas. Su creador fue el alemán Aloys Senefelder (1771 - 1834). Etimológicamente la palabra litografía viene de los términos griegos lithos piedra y graphe dibujo. En la técnica litográfica se utiliza la diferente adherencia entre sustancias hidrofílicas e hidrofóbicas. Como el agua rechaza las tintas grasas, no se imprimen las zonas grasas aunque se encuentran en el mismo nivel, por ello las matrices litográficas se llaman también planográficas. En las técnicas manuales la formación de la matriz consiste en la adhesión de las tintas grasas y resinosas sobre el papel litográfico. Con estas tintas se traza el dibujo que se va a reproducir, el cual queda fijado mediante una solución de ácido nítrico y goma arábiga. La adhesión de la sustancia grasa produce un jabón calcáreo o metálico insoluble que constituye la base de señales de impresión. Sobre las partes que no se entintan, debido a una preparación especial la cual determina la formación de sales hidrofilas. En definitiva, sobre el plano de la matriz existen dos zonas contrapuestas gráficamente, las que generaran en la litografía el blanco (sales hidrofilas) y las que generaran el negro (tintas grasas y resinosas), que permiten la impresión, previas las operaciones de entintado y humidificación. De los fondos coloreados y conformados de acuerdo con las zonas claras del original hasta el empleo de tintas planas superpuestas, se pasó por las coloraciones por superposición. Godofredo Engelmann, hacia 1835, llamó cromolitografía a la técnica de reproducción litográfica en colores. Se hacen tantos dibujos sobre papel o placa como tintas se consideren necesarias para la reproducción. El registro se obtiene realizando sobre el papel de cada color la correspondiente cruz de registro. Para este tipo de impresión se utiliza una piedra caliza pulimentada sobre la que se dibuja la imagen a imprimir (de forma invertida) con una materia grasa, bien sea mediante lápiz o pincel. Este proceso se basa en la incompatibilidad de la grasa y el agua. Una vez la piedra humedecida, la tinta de impresión solo queda retenida en las zonas dibujadas previamente. Para cada color debe usarse una piedra distinta y, evidentemente, el papel tendrá que pasar por la prensa de imprimir tantas veces como tintas se empleen. En los carteles impresos mediante el sistema litográfico, tan frecuentes en la segunda mitad del siglo XIX y primeras décadas del siglo XX, se utilizaban 68
quince, veinte o más tintas. Entre ellos son de destacar los que anunciaban las corridas de toros, los de las Semana Santa, y los diseñados durante la Guerra Civil española. En una imagen litográfica las letras no pueden ser retiradas y reutilizadas en otro sitio: son únicas y precisan redibujarse, o copiarse, para cada uso. El litógrafo podía reproducir una imagen «única» dibujada, combinando texto e imagen en complicadas disposiciones formales del color. El proceso cromolitográfico alcanzó su cima durante el siglo XIX. La mejora en los métodos del fotograbado (el grabado de una imagen fotográfica en una plancha metálica recubierta con una capa sensible y «mordida» después con ácido, obteniéndose así una imagen impresora en relieve) amenazó la supervivencia de la litografía, conduciendo a su progresivo declive a partir de la década de 1890. El inventor de este sistema de impresión fue el tipógrafo alemán Alois Senefelder (1771-1834). Aunque este procedimiento fue extensamente usado con fines comerciales, la mayor parte de los grandes pintores de los siglos XIX y XX también lo emplearon ya que facilitaba obtener un cierto número de copias de un mismo trabajo: Picasso, Toulouse-Lautrec, Joan Miró, Piet Mondrian, Ramón Casas, Antoni Tàpies, Alphonse Mucha, Federico Castellón, etc. Asimismo, reciben el nombre de litografía, además del sistema de impresión, cada uno de los ejemplares obtenidos por este procedimiento así como el taller donde se realiza este tipo de trabajos. Posteriormente, al aparecer las rotativas se comenzaron a emplear láminas flexibles de zinc o de aluminio, y más recientemente de plástico, en sustitución de las pesadas piedras litográficas. Con la incorporación de la fotomecánica, dichas planchas dejaron de ser dibujadas a mano, puesto que la sensibilización de su superficie permitía exactas reproducciones fotográficas. Aunque de forma incorrecta, aún es frecuente denominar a las empresas de Artes Gráficas, como Litografías. OFFSET La impresión offset es la técnica de impresión más común y se utiliza para todo tipo de trabajos, desde tarjetas comerciales, folletos, revistas y periódicos hasta carteles de gran formato. El principio básico de la impresión offset se basa en el uso de planchas de impresión cuya s uperficie está compuesta por áreas im presoras y áreas no impresoras. Esto implica que los puntos impresos sob re el papel sólo pueden imprimirse en color sólido o no imprimirse. Existen dos modalidades diferentes de impresión offset: la impresión offset en máquinas a li mentadas por hojas y en máq uin as rotativas alimentadas por papel en bobina. La impresión en rotativa resulta más adecuada para tiradas grandes, de 15.000 a 1 millón de ejemplares, 69
mientras que la impresión por hojas es más apta para tiradas de 50 a 50.000 ejemplares. Dentro del sistema de impresión offset en rotat iva, se pueden diferenciar dos técnicas distintas: con fijado en frío (coldset) o con fijado en caliente (heatset ). Estos términos se refieren a si la prensa rotativa cuenta o no con un h orno de secado. También existe una técnica de impresión llamada offset seco o sin agua . Los motivos de que el offset seco no sea dema siado habitual son el peso de la tradició n y el hecho de que la calidad del offset normal es tan elevada que cuesta distinguir las diferencias entre ambos métodos. • Técnica La impresión offset se basa en el principio litográfico, en el que intervienen tintas, agua y una plancha de impresión. La impresión litográfica funcion a de manera distinta a la impresión tipográfica, en la que las superficies impresoras y las no impresoras de la form a están se paradas por alturas diferentes, es decir, que tienen relieve. En la litografía, las áreas impresoras y no impresoras de la pla n cha se diferencian por sus características químicas. Las áreas no impresoras son hidrófilas (atraen el agua) y las áreas impresorasn son hidrófobas (repelen el agua). En el offset seco, las áreas no impresoras están recubiertas de una solución oleófoba (que repele la tinta). • Alimentación por hojas o por bobina El método de impresión offset más habituales el que se realiza en máquinas alimentadas por hojas, y se utiliza para imprimir libros, folletos publicitarios, informes y carteles, a sí como para otros productos impresos de alta calidad. Esta es la técnica tradicional y la que proporcional a mejor calidad de impresión. Como su nombre indica, la impresión se realiza so bre papel co rtad o en hoja y el ta mañ o d e es tas tiene qu e estar ajustad o al formato de la máquina de impresión, aproximadamente de A3 a A0. Existen prensas por hojas desde uno hasta doce colores. Este método admite un a enorme variedad de acabados y calidades de papel. La manipulación y la postimpresión se realizan siempre en máquinas externas. La impresión offset en rotativa alimentada por bobina es más adecuada para tiradas extensas. Es poco común llevar a cabo acabados de post impresión de tipo avanzado en la impresión en rotativa: lo normal es que se incluya n sól o el plegado y el cosido del producto impreso. Los productos que típicamente se imprimen en rotativa son periódicos, revistas, carpetas y otras impresion es de menor calidad. El sistema heatsel, u offset en caliente, debe su nombre a que el material impreso pasa por una fase de secado antes de la post impresión. Esta técnica se emplea sobre todo en la producción de revistas, folle tos y catálogos. El producto impreso se seca en un horno cuya temperatura se ajusta a un oscila 200 °C. La temperatura exacta depende ele la velocidad el alimentación del papel. Después de pasar por el horno, se baja la temperatura de la banda impresa a 20ºC con la ayuda de unos rodillos en friaclores. En la impresión heatset puede darse un fenómeno de nominad o curling, o a barquillado, que se caracteriza por la curvatura del papel y se debe a la distinta tensión superficial entre sus dos caras, esto se produce a veces en el seca do. Las causas del abarquillado son una combinación de un exceso en la cobertura de tinta con el calor del horno y la velocidad de alimentación de la banda impresa. La impresión heatset proporciona una calidad el e impresión mucho mayor que la del sistema coldset, pe r o siempre algo menor que la el ela técnica offset por hojas. Otro problema que suele presentar son los errores el e trapping (mezcla de las tintas sobreimpresas), que pueden ocasionar la decoloración de alg unos colores secundarios d e la cuatricromía como el rojo, el azul y el verd e. 70
La impresión heatset tam bién exige aplicar una cobert ura de ti nta menor para evitar el efecto de abarqui llado, lo que motiva que la i mpresión quede a l go más desleída o mortecina . El sistema coldset debe s u nombre a que la tinta se seca sin necesidad de usar un horno. Esta técnica se utiliza principalmente para imprimir periódicos y folletos publicitarios, materiales con un a vida útil corta. Debido a esa naturaleza efímera del producto, y a que se impr imen tirad as muy extensas, se utiliza n papeles de baja calidad . La combin ación de un papel de baja ca lidad y de un a alta velocidad de impresión, junto con el hecho de que el acabado postimpresión se realiza an tes de que se haya secado la tinta, supone que el resultado impreso final sea de mucha menor calidad que en la impresión heatset o en el offset por hojas. Además de usar papel de baja calidad, también se utili za n linea turas de trama muy bajas. En es tas condiciones, se hace necesario emplear menos tinta para evitar que se produzcan demasiados corrimientos y errores de registro. El sistema de impresión offset sin agua, u offset seco, funciona básica men te del mismo modo que la impresión offset tradicional. La diferencia está en que en el offset seco se utili za una capa de silicona en lugar de agua para distinguir las superficies impresoras de las no impresoras de la plancha de impresión. La técnica de offset seco requiere el uso de unas planchas especiales, recubiertas por una capa de silicona. Cuando se expone y se revela la plancha, la silicona se desprende de las áreas expuestas y deja al descu
bierto las áreas impresoras en la plancha. En el offset seco se utilizan unas tintas de mayor viscosidad que las empleadas en el offset con ag u a. Las prensas de impresión para offset seco suelen ser máquinas offset adaptadas a las que se les añaden u nos rodillos que permiten regular la temperatura de la tinta y, por tanto, sus propiedades impresoras. El offset seco muestra una serie de características distintas del offset tradicional: Permite imprimir con una densidad de tinta mayor, lo que propicia un mayor rango tonal. Los puntos son más nítidos en el offset seco, lo que permite utili zar lineaturas de trama más elevadas. Los tiempos de puesta en marcha se acortan ya, que no es necesario establecer el equilibrio agua-tinta. El offset sin agua es más respetuoso con el medioambiente por la ausencia de una solución de mojado con aditivos alcohólicos. Es más frecuente qu e se produzcan arranques e n el papel debido a la mayor viscosidad de las tintas y al hecho de que no se utilice solución de mojado para la limpieza de la mantilla. • La unidad de impresión 71
La parte de la prensa en la que la tinta se transfiere al papel se denomina unidad o cuerpo de impresión. En las prensas offset, esta suele constar de tres partes: un cilindro (o rodillo) portaplancha (o portaforma), un cilindro portamantilla y un cilindro impresor. La estructura de la unid ad impreso ra y su ubicación en la máquina puede va riar enormemente, pero sólo n os centraremos en c u at ro variantes: las unidades de tres cilindros, las de cinco cilindros, las de tipo satélite y las de sistema perfector. Las unidades de tres cilindros so n actualmente las más comunes en las prensas de im presión offset a limentadas por hojas y constan de un cilindro de impresión, un cilindro porta mantilla y un cilindro portaplancha . Esta un idad imprim e una cara del papel a un colo r en cada pasada . Pa ra la impresión en va rios colores, se alinea n var ias unidades de t res cilind ros, un a para cada tinta. Las prensas de sistema perfector están compuestas por diversas unidades de tres cilindros y una unidad de inversión destinada a voltea r la hoja, lo que permite que a lgun as de las unidades de impresión impriman una cara del papel mientras la s dem ás imprimen la otra. Esta técnica, co nsistente en impr imir el papel por las dos caras en un a misma pasada por la prensa, se denomi na impresión a dos caras o de retiración. Estas prensas cuentan con un sistema tipo perfector qu e imprime las hojas a cua t ro tintas por a mbas caras (4+4) en una sola pasada y están formadas po r ocho cuerpos de impresión en línea con una unidad inversora en el centro.
Las unidades de sistema perfector se utilizan exclusivamente en las prensas rotativas e imprimenen ambas caras del papel en una misma pasada de máquina. Este sistema no utiliza un cilindro de impresión, si no que esta función se sustituye por la presión qu e ejercen los cilindros porta mantilla. Estos, dispues tos a ambos lados de la banda de papel continua, actúan mutuamente como cilindros de impresión . Las unidades de c in co ci li n dros se utilizan principalmente en las prensas a1imentadas por hojas. Es tas unidad es cuentan con dos ci1indros portaplancha y dos cilindros porta mantilla que comparten un s olo cilindro impresor. Esta configuración permite imprimir dos colores a la vez en una cara del papel. 72
Las unidades satélite suelen emplearse básicamente en las rotativas. también en a lgun as prensas por ho jas. La hoja que pasa a través de un si s te ma sa tél ite es sujetad a por la misma pinza durante todo su paso po r la prensa, lo que facilita el registro de las tintas. El sistema satélite suele consistir en cuatro cilindros portaplancha , cuatro cilindros portamantilla y un cilind ro d e impresión compartido. Esta configuración permite imprimir en una sola unidad cuatro tintas en una cara del papel. Existen también unidad es satélite con cinco o seis grupos de entintado. • La mantilla El sistema de impresión offset es una técnica indirecta, lo que significa que la plancha de impresión no transftere la tinta directamente al papel. El cilindro porta plancha transfiere primero la tinta a un cilindro recubierto con una capa de caucho llamada mantilla, que después la transfiere al papel. El papel pasa entre este cilindro porta mantilla y un cilindro de impresión. Puesto que la tinta se transfiere de la mantilla al papel, las características de este cilindro porta mantilla son decisivas para la calidad de la impresión. Es esencial que la mantilla sea capaz de absorber con facilidad la tinta desde la plancha y transferirla al papel. Si tiene dificultad es, la superficie del papel puede rasgarse, causando lo que se conoce como arranques (motas blancas en las áreas impresas). La mantilla de caucho sufre un gran desgaste y debe sustituirse con frecuencia. A menudo, cuando es hora de reemplazarla, presenta un aspecto brillante y se manifiestan toda una serie de fenómenos que afectan negativamente a la calidad de impresión: La mantilla no transfiere bien la tinta, por lo que se deberá afiadir más cantidad de tinta a la plancha. Esto, a su vez, provoca problemas en el equilibrio agua-tinta. Los puntos a parecen borrosos en la impresión, lo que genera puntos más g rand es y un resultado impreso más oscuro. Este efecto se denomina ganancia de punto. La mantilla no "imprime", lo que significa que no existe suficiente presión e n la zona de co ntacto con el papel y el resultado es una impresi ón irregular. Eso puede compensarse incrementando la presión e ntre el cilindro porta mantilla y el cilindro de impresión y/o alli adiendo un papel grueso bajo la mantilla de caucho (lo qu ese conoce com o subempaque). A menudo, deben cambiarse las mantillas a causa de la compresión. Por ejemplo, la mantilla puede haberse comprimido en exceso debido a que el papel se haya doblado inadvertidamente al pasar por la máquina. Cuando ocurre esto, el grosor del papel en la línea de contacto entre la mantilla y el cilindro de impresión es excesivo y provoca el aplastamiento de la superficie flexible de caucho de la mantilla. Una mantilla aplastada pierde elasticidad en las zonas comprimidas. • Equilibrio agua-tinta Para obtener una impresión de buen a calidad es importante ajustar adecuadamente el equilibr io entre la tinta y la solución de mojado que se aplican a la plancha de impresión. Esto es lo que se conoce como equilibrio ag ua-tinta. Demasiada agua genera un exceso de gotas emulsionad as en la tinta, puede ocasionar la aparición de puntos blancos en la impresión y produce un efecto "acuoso" en las zonas poco densas de la impresión. Por el contrario, la escasez de agua en la plancha puede provocar el enti ntado de las superficies no impresoras. Un factor común a todos los tipos de prensas offset es que presentan por separado los rodillos entintadores, llamados grupos de entintado, y los rodillos humectadores, llamados sistemas de mojado. 73
No todos los grupos de entintado y sistemas de mojado están configurados como en la ilustración de la página siguiente, pero las diferencias entre las distintas prensas offset son relativamente pequeñas y su f un cionamiento general es básicamen te el mismo. • Tinta Las tres características pri ncipa les de la tinta de impresión son: ✏✏Las características crom át icas de la tinta, entre las que se incluyen su pureza, su correspondenci a con el estándar de color ut ilizado (EusroScale en Europa y SWOP en Estados Unidos), y la saturación del color. ✏✏ Las características físicas, como su fluidez y su viscosidad. ✏✏ Las características de secado sobre el papel. Las características cromáticas de la tinta dependen de los pigmentos que contiene. Estos son pequeñas partículas que pueden ser de naturaleza orgánica o inorgánica. Por ejemplo, las partículas que se utilizan para el pigmento negro incluyen p recipitados químicos y hollín. Los pigmentos están suspendidos en un agente aglutinante, que les permite adher irse al papel. Este aglutinante es lo que proporciona a la t in ta su forma líquida y le confiere cualidades litográficas. Las ca r acterísticas físicas de la tinta , como la fluidez o la viscosidad, también se ven in fl uidas por la composición del aglutinante, cuya fórmula está además preparada para evitar qu e los pigmentos se disuelvan en la solución de mojado, lo que ayuda a prevenir la emulsificación, o velo, un efecto que consiste en la coloración de las zonas no impresoras. Los agentes aglutina n tes qu e se utilizan en las tintas para impresión offset están compuestos por resinas, alquídicos y aceites minerales, y su combinación determina las propiedades de secado de la tinta . Cuando esta se aplica, el papel absorbe primero el aceite mineral, haciendo que se fije. Se considera que esta es la primera fase del proceso de secado. No obstante, es importa nte que el papel no a bsorba tambi én los pigmentos. Si esto oc urr iera, los colores impresos quedarían menos satur ados. Por eso, el pigmento, los alquídicos y la resina de la tinta forman una especie de gelatina sobre la superficie del papel. Esta gelatina es lo suficientemente seca como para que no se repin te la sig uiente hoja impresa cuando se apila el papel impreso en la salida de máquina. La gelatina termina de secarse por completo por la oxidación del alquídico, pues este experimenta una reacción química al entrar en contacto con el oxígeno del aire. Esta es la segunda fase de secado, conocida como secado por curación o por oxidación. A veces, se utiliza radiación ultravioleta (UV) para acelerarlo. En ocasiones, para evitar el repinte, también se rocían los pliegos impresos con un polvo secante que mantiene las hojas 74
impresas separadas para que no repinten unas sobre otras. Para ello se utiliza polvo de distinto grano en función de la rugosidad del papel. Los polvos secantes suelen estar compuestos por hollín o carbonato cálcico (CaC03). • Solución de mojado Con el fin de que la tinta no se adhiera a las su perficies no impresoras de la plancha, esta se humedece, antes de entinta rla, con una película fina y uniforme de agua, a la que se añade alcohol para garantizar que cubra completamente la superficie no impresora sin que queden gotas. Normalmente se agrega de un 8% a un 10% de alcohol isopropílico a la solución de mojado para lograr que tenga las propiedades necesarias para el mojado y la limpieza de las planchas de impresión. Para obtener una buen a impresión, la tinta debe mezclarse con cierta ca ntidad de agua antes de aplicarla a la plancha. El agua queda emulsionada en l a tinta, lo que da como res ultado una me zcla de pequeñas gotas de ambos líquidos, agua y aceite. La solución de mojado debe tener también unos valores de PH y de dureza correctos para que funcione bien (dH0). Las aguas duras contienen diversas sales minera les que, en grandes ca ntidades, pueden ocasionar que se disuelvan los pigmentos de la tinta. Cuando esto ocurre, los pigmentos pueden llegar a mezclarse con el agua que recubre las áreas no impresoras de la plancha y transferir color a aquellas par tes de la imagen que deberían quedar en blanco. Este fenómeno es conocido como emulsificación o velo. La dureza del agua se regula mediante un aditivo reg ulador. La dureza óptima del agua oscila entre los 8 y los 12 dHo. Un PH dema siado bajo puede causar problemas de secado de la tinta y puede ocasionar que la superfici e del papel se desprend a, lo que provoca arranques; tampoco es bueno para la máquina de impresión, ya que puede causar problem as de corrosión . Por otra parte, un va lor de PH demasiado a lto puede dificultar que la plancha se mantenga limpia durante la impre sión. El valor idóneo de la solución de mojado oscila entre 5,2 y 5,5. • Control de la cobertura de tinta Dependiendo del diseño del producto impreso, la im agen impresa final requerirá distintas cantidades de tinta en las diversas partes de la hoja. Por eso, deberemos variar la dosificación de tinta en la hoja impresa. Con la ayuda de las cuchillas de entintado se ajusta la cantidad de tinta depositada en las disti ntas zon as de la hoja impresa. Los tornillos del tintero permiten al operario de la m áqu ina especificar la cantidad de tinta que se transferirá a las diversas partes de la plancha de impresión. Los tornillos del tintero regulan la posición de las cuchillas de entintado y determinan así cuánta tinta pasará a esas zonas. Las grandes prensas mode rnas incluyen un panel de mandos desde el que se puede ajusta r la posición de los tornillos y, por tanto, el flujo de tinta. En las máquinas más pequeñas o antiguas, el ajuste de los tornillos se hace de forma manual. Antes de empezar a imprimir deberemos regular la cobertura de tinta en las diferentes zonas. Las prensas modernas cuentan con sopor te de JDF (Job Definition Format, anteriormente conocido como CIP3) y son capaces de gestionar la información para ajustar la cobertura de tinta. En esos casos se crea un archivo que contiene información sobre la cantidad de tinta en cada zona. El sistema JDF genera el archivo a partir del a nálisis de la cantidad de cian, magenta, amarillo y negro contenida en las diversas pa rtes del archivo digital. Con esa información se regulan los tornillos del tintero y las cuchillas de entintado y de ese modo se pueden realizar las correcciones necesarias para lograr una cobertura de tinta correcta, lo que agiliza la puesta a punto de la máquina. Antes de la aparición de los sistemas JDF, y actualmente en las prensas que no los soportan, la técnica más comúnmente utilizada para ajustar las zonas de la máquina de impresión consistía en usar un escáner de planchas. JDF escanea las planchas de impresión antes de que se monten en la máquina para obtener información sobre la cobertura de tinta de sus distintas zonas. Esa información se transfiere a la máquina de forma digitali zada. Con ello se logra un preajuste bastante preciso de los tornillos del tin tero y una mayor rapidez de puesta a punto. La manera más eficaz de preajustar los tornillos del tintero consiste 75
en introducir la cobertura de tinta para cada zona tal como se especifica en el archivo digital en el que se basa el trabajo. Existen sistemas capaces de analizar estos datos, convertirlos, enviarlos a la máquina y que esta preajuste los tornillos del tintero. En las prensas antiguas se realizaba el ajuste de los tornillos de forma manual a partir de la ex periencia y la comprobación in si tu de la plancha o de las pr i meras pruebas de impresión aprobadas. Una vez obtenida la primera hoja impresa aprobada, era importante conser var el resultado impreso y la cobertura de tinta adecuada durante todo el tiraje. Por desgracia, puesto que cualq uier cambio realizado en la cobertura de tinta requería bastante tiempo hasta que se lograba un resultado estable, esa cantidad de tinta no dejaba de varia r. La falta de uniformidad de la cobertura de tinta durante el tiraje es uno de los inconven ientes que más habitualmente afectan a la calidad de impresión. Esto obliga a tener que cotejar de forma continua las copias impresas con las primeras impresiones aprobadas y a realizar los ajustes necesarios en las cantidades de ti nta. Los controles se efectúan de manera visual, pero también pueden hacerse ajustes en las distintas zonas con la ayuda de un densitómetro o un espectómetro
integrados en el panel de mandos de la máquina. Se parte de las mediciones tomadas en la primera hoja impresa aprobada y después se van cotejando continuamente estos valores con las copias que salen de máquina. El sistema de control de la prensa sugiere las correcciones adecuadas respecto a la cober t ura de tinta para obtener un resultado idéntico al valor de partida. An tes de que existiesen estos sistemas integrados, se medía a mano con un densitómetro y a base de experiencia se regulaba la cobertura de tinta. • Transporte de la hoja impresa En las máquinas offset alimentadas por hojas, los mecanismos que aferran la hoja y la trasladan a través de la prensa inciden directamente en la calidad del producto impreso final. Esta maquinaria cumple básicamente tres funciones: Tomar una hoja de la pila de papel. Asegurar que sólo se alimenta una hoja en la máquina. ✏✏ Ajustar o registrar, como se suele denominar-el papel en la máquina para que todas las hojas entren exactamente de la m isma manera. Esto es muy importante para garantiza r que el contenido se i mprima siempre igual y en el mismo sitio en todas las hojas. La parte de la máquina de impresión que atrapa las hojas de la pila de entrada se llama alimentador. 76
Existen disti ntos tipos, pero el más común es el neumático dotado de unas ventosas de succión que levantan la hoja de la pila . A la vez que se alza la hoja, unas boquillas de soplado la separan del resto de la pila medi ante un chorro de aire, lo que garantiza que se inserte una sola hoja en la máquina cada vez. El alimentador toma la hoja que ya ha alzado y la coloca sobre la mesa de registro, donde se vuelve a comprobar que sólo se haya cargado una. Si se alimenta más de una a la vez, es muy probable que la mantilla se aplaste Para garantizar un correcto procesamiento postimpresión del producto impreso es importante que l a ubicación de la imagen impresa en la hoja de papel sea la misma en toda la tirada. Si no es así, se pone en peligro la precisión de posteriores manipulados como el plegado, el grapado, etc. Para evitarlo se alinean las hojas en la mesa de registro antes de que avancen en la máquina de impresió n . Las hojas se registran respecto a dos de sus márgenes: el margen frontal, o margen de pinzas, y un m a rgen lateral, o de alimentación. Las hojas sólo se registr an contra dos bordes porque generalmente suele haber pequeüas variaciones de tamaüo en las hojas de una misma pila. Es im portante recordar en todo momento cuál es la esquina de la hoja en la que se tocan esos dos márgenes de registro, pues cuando los pliegos se impr im en a dos caras, deberemos asegurar nos de que se usan esos mismos márgenes para registrar el papel cuando se dé v uelta a la hoja para imprimir por la otra cara. Si no lo hacemos, será difícil garantizar que a nverso y reverso del papel coincidan en la impresión. Como ya hemos mencionado, también resulta importante un buen registro del papel para la posterior manipulación del prod ucto. Para ello, normalmente se suele marcar la esquina formada por el borde de pinzas y el de alimentación antes de enviar el producto al manipulador • Papel Por lo general, la impresión offset adm ite toda clase de papeles. Las características que debe tener un papel para imprimirlo en offset dependen del tipo de prensa que se utilice: de alimen tación por hojas o rotativa (coldse t o hea tset). La tabla de arriba describe estas características del papel para las tres técnicas. • Producción de planchas para offset La forma impresora que se u tili za en offset se denomina plancha de im presi ón. E n la i mpresión con varios colo res se emplea un a plancha para cada una de las tinta s, l o que se conoce como juego de planchas. Existen distintos tipos y las más com u nes son de alu minio revestido con un polímero fotosensi ble (plá stico). Para generar las zonas impresoras y las no impresoras, la plancha se expone a una fuente de luz, procedimiento que se denomina insolado. Una vez revelada la plancha, la capa de polímero se desprende de la s zonas no impresoras y deja al desc ubierto la superficie de aluminio de la plancha. Así, se crean las superficies impresoras oleófilas (que atraen el aceite) de polímero y las superficies no impresoras oleófobas (que repelen el aceite) de aluminio. Las superficies de aluminio de la plancha son granu ladas, en parte para que se adhiera bien el polímero en su fabricación y en parte para crear unas buena s condiciones de repelencia del agua. La técnica de offset seco utiliza una capa de silicona en lugar de agua para diferenciar las zonas impresoras de la plancha de las no impresoras. La exposición de la plancha se realiza en una filmadora o sistema CTP (Computer To Plate), también denominado directo a plancha. La filmadora de planchas funciona básicamente como una impresora láser, pero en lugar de imprimir sobre papel con un tóner de color, el original digital se expone directamente sobre una plancha de impresión, que es sensible a la luz o al calor. La filmadora tiene una resolución mu77
cho más alta que la de una impresora láser. Las impresoras láser suelen tener alrededor de 1.200 dpi de resolución, mientras que las filmadoras de planchas llegan a tener más de 3.600 dpi. Un haz muy fino de láser expone las áreas de la plancha a partir de la información de un mapa de bits. En determinados sistemas, el rayo láser expone los puntos que van a ser impresos (técn ica en positivo), mientras que en otros se exponen los puntos que no se van a imprimir (técnica en negativo). El RIP de la filmadora de planchas calcula las tramas de semitonos, originando un gran mapa de bits en el que cada punto de exposición de la filmadora está representado por un 1o uno (es decir, la superficie quedará expuesta o no expuesta). Cuando se va a imprimir en color se genera un mapa de bits para cada una de las tintas de impresión. La mayoría de las planchas deben revelarse después de ser insoladas. En algunos casos, la energía del rayo láser no es suficiente para completar el proceso químico necesario para el revelado de la plancha, por lo que se aplica la energía adicional necesaria a la plancha en un horno después de la exposición. El revelado se efectúa en una máquina distinta, la reveladora.Algunas filmadoras incorporan también el horno y la reveladora, lo que se conoce como revelado en línea o automático. Para contribuir a un registro preciso entre las distintas tintas, es esencial que las planchas se encajen correctamente en la máquina de impresión. Para ello se utilizan las perforaciones de registro de la plancha. El montaje de la plancha se suele hacer de manera manual, pero cada vez son más comunes las prensas de impresión dotadas de cambio automático de planchas. • Filmadoras de planchas Existen tres clases de filmadoras de planchas: las de arrastre o capstan, las de tambor interno y las de tambor externo.
En las del primer tipo, las de arrastre o capstan, la plancha se expone colocándola plana y la exposición se efectúa mediante un rayo láser, que puede encenderse o apagarse o bien ser dirigido por un modulador que puede "conectar" y "desconectar" el rayo. Este modulador se controla a través de la información del archivo RIP y permite el paso o no del rayo láser en función de si se debe exponer una superficie o no. El rayo incide sob re un espejo octogonal, ig ual q ue ocurre en las impresoras láser, y eso le hace barrer l a superficie de la plancha en una línea. Cada vez que se ha expuesto una línea, la plancha ava n za un paso y se expone la sigu iente línea, y así hasta expon er toda la plancha. En este tipo de filmado ras resulta 78
esencial que tanto la alimentaci贸n de la plancha como la otaci贸n del espejo sean de la mayor exactitud.
79
80
En la técnica de fi lmación por tambor externo, la plancha se fija alrededor de un tambor que gira a la vez que el rayo láser va exponiendo la plancha. Este láser, que se enciende o se apaga o bien es dirigido mediante un modulador que puede "conectarlo" o "desconectarlo", es reflejado por un espejo que va ava n zando en paralelo a lo largo del tambor. La plancha se va exponiendo así línea por lín ea. En estas filmadoras es im portante que la plancha quede fijada al tambor con precisión y que el avance del espe jo sea exacto. En la técnica de fi lm ación por tambor interno, la plancha se coloca en el nterior de un tambor, donde qued a fijada por succión. La exposición se efectúa mediante un rayo láser que se enciende o se apaga o bien es dirigido mediante un mod ulador que puede "conectarlo" o "desconectarlo". Un espejo que gira en un eje rotatorio en el interior del tambor refleja el láser hacia la superficie de la planc ha. Este espejo avanza paso a paso hasta exponer la plancha en la totalidad de su anchura. Una vez se ha expuesto, se fija una nueva plancha alrededor del interior del tambor y la anterior pasa a la fase de revelado. La precisión del avance del espejo que recorre la plancha resulta crucial para el óptimo funcionamiento de esta técnica. En todos los equipos de filmación de planchas la precisión y la repetibilidad son factores decisivos. La repetibilidad es la capacidad de una filmadora para realizar cualquier número de repeticiones de una exposición con exactit ud. Existen sistemas de registro que uti li zan unas espigas en las que se e n cajan u nas perforaciones practicadas en la plancha para asegura r así el correcto reg istro en la impresión. La exposición y el revelado correctos de la plancha resulta n cruciales pa ra la calid ad del resultado impreso final. Por ello es importan te que la filmadora esté bien calibrada y q ue se renueve con regularid ad el líqu ido de revelado. Una filmadora descalibrada puede ocasiona r valores tonales comple tamente erróneos. El envejecimiento del líquido de revelado provoca un m al revelado de la plancha, lo q ue prod ucirá u n entintado i rregula r o ins u ficiente en máquina. • Tipos de plancha Se utilizan principalmente tres tipos de planchas: las de haluro de plata y las de fotopolímero, sensibles a la luz, y las térmicas, sensibles al calor. Las planchas de fotopolímero o de haluro de plata son tan sensibles que no deben manipularse a la luz del día. Las planchas térmicas, sin embargo, no son sensibles a la luz diurna. El revestimiento que cubre la base de aluminio de las planchas tiene dos propiedades: la propiedad oleofílica, necesaria para la impresión, y la propiedad fotosensible, necesaria para la exposición. A veces se combinan dos materiales para optimizar estas dos características. Es importante que las planchas presenten un revestimiento uniforme para que la insolación sea homogénea en toda su superficie. Todos los tipos de planchas pueden sobreexponerse o subexponerse. La sobreexposición de las planchas positivas oscurece más de lo debido los tonos más claros y la sobreexposición de las planchas negativas elimina los tonos más claros. En algunos tipos de planchas, la energía del rayo láser es insuficiente para completar el proceso químico del revelado y en esos casos se hace necesario calentar la plancha en un horno para fijarla. Existen también planchas especiales que no precisan revelado, lo que posibilita prescindir de ese procesado. Las tres técnicas más comunes son la técnica de ultravioleta (V), la térmica y la de inyección de tinta. La técnica de ultravioleta se basa en un haz de láser que ilumina la plancha, las superficies no impresoras son eliminadas por el sistema de mojado de la prensa de impresión. La técnica térmica consiste en pulverizar el revestimiento de la plancha durante su exposición al calor generado por un rayo láser. Después de esta exposición, la plancha se somete a un proceso de vacío en 81
el que se eliminan los restos quema dos del revestimiento. La técnica de inyección de tinta se encuentra en fase de desarrollo e implica el uso de la técnica de inyección para rociar la base oleofílica de aluminio de la plancha con una capa de revestimiento que forma directamente los puntos que componen las zonas impresoras de la plancha. Los diversos tipos de planchas exigen distintos tipos de exposición mediante láser. Existen filmadoras dotadas de láser violeta (405nm ), láser argó nion (488 nm), láser FD-YAG (de doble frecuencia , 532 nm) o láser IR (de infrarrojos). El láser de IR se utiliza con las planchas térmicas. Se trata de una técnica costosa y el láser tiene una vida limitada, ya que nunca se a paga durante la exposición y es un modulado r el que controla dónde se expone la plancha y dónde no. Este modulador también suele tener una vida útillimitada y debe renovarse periódica mente. La técnica de láser violeta se emplea tanto con planchas de fotopolímeros como de haluro de plata y resulta más barata en comparación con la técnica de láser IR. Es ta técnica se basa en diodos láser, más baratos, como los de un reproductor de DVD, y tiene una vida útil sumamente prolongada. Los diodos encienden y apagan el láser sobre aquellas zonas de la plancha que deben exponerse o no, lo que hace innecesaria la presencia de un modulador. La técnica es tan económica que resulta rentable incluso para la filmación de formatos pequeños como el A3. • Arranques y moteado A veces se desprenden pequeños fragmentos de las perficie del papel durante la impresión. Esto es lo que se denomina arrancado del papel. Cuando estos fragmentos, conocidos como arranques, acaban por adherirse a la superficie impresora de la plancha, esta no podrá absorber tinta en esos puntos, lo que provocará la aparición de motas blancas en la impresión final. Lo mismo ocurre cuando los arranques se adhieren a la mantilla de caucho. Si detectamos moteado en nuestra impresión, deberemos detener la máquina y limpiar bien la mantilla y la plancha. Las prensas modernas suelen disponer de ciclos de limpieza automáticos para eliminar estas partículas. El arrancado puede deberse a que el papel presenta una mala resistencia superficial, a la viscosidad de la tinta o a un exceso de velocidad de impresión. El offset seco, debido a la mayor viscosidad de las tintas que utiliza y a la ausencia de una solución de mojado que mantenga limpias las planchas, es más susceptible de tener problemas de arranques y moteado que el offset con agua. • Emulsificación o velo Un defecto o escasez de solución de mojado puede ocasionar la emulsificación de las partes del papel que no deberían quedar impresas (también se denomina velo o toning ). Esto ocurre porque las áreas no impresoras de la plancha quedan ligeramente coloreadas con l a tinta y se convierten en zonas impresoras. La emulsificación puede ocurrir también cuando el agua de la solución de mojado es demasiado dura, lo que provoca que los pigmentos de la tinta se disuelvan en ella y tiñan el papel. • Repinte o maculado Las hojas impresas pueden mancharse unas con otras debido a una cobertura de tinta excesiva o a que se apliquen procesos postimpresión antes de que se hayan secado completamente. Este problema puede resolverse utilizando un agente secante, polvo de secado u otro método para secar la tinta. La tinta cian es la que más suele tardar en secarse, lo que la hace más propensa al repinte. • Tiznado A veces la tinta se desprende a pesar de estar ya seca. Este fenómeno se denomina tiznado; puede deberse a un exceso de t inta y se produce con mayor frecuencia en papeles satinados o brillantes. Puede manifestarse en forma de decoloración de una zona blanca adyacente a otra impresa con mucha cobertura de tinta. El tiznado suele deberse a que no todo el pigmento de la 82
tinta seca se ha fijado y una parte de este queda suelta en la superficie del papel. • Impresión fantasma Los bloques sólidos de color suelen requerir mucha cantidad de tinta, lo que puede ocasionar problemas en el resto de la impresión. Estos bloques también son más sensibles a los cambios ocasionados por otras zonas de la imagen impresa . Estos dos factores originan un fenómeno llamado impresión fantasma.
Aparecen "fantasmas" de otras zonas impresas en los bloques de color sólido cuando el cilindro portaplancha no tiene tiempo de recoger la gran cantidad de tinta que estos bloques necesitan. Este fenómeno se produce con más frecuencia en las prensas de formatos pequeños. • Abarquillado del papel En la impresión offsetheatset se da un fenómeno denominado curling, o abarquillado del papel, que se produce al secarse el producto impreso y se manifiesta en forma de ondulaciones del papel. El abarquillado se produce por la combinación de una alta cobertura de tinta, el calor del horno y la velocidad de avance del papel en máquina. Para evitar es te fenómeno en el producto impreso, conviene utilizar un perfil ICC que limite adecuadamente la cobertura de tinta en la fase del ajuste para impresión. Es importante que el límite de tinta del perfil ICC sea suficientemente generoso, de modo que podamos imprimir imágenes den sas con buena carga de tinta por am bas caras del papel sin que se produzca el abarquillado. EVOLUCIÓN DE LA TIPOGRAFÍA • NICHOLAS JENSON Nicolas Jenson nació en Francia, por allá el año 1420. Como grabador y tipógrafo, trabajó en Venecia la mayor parte de su vida, que finalizó en 1480, aproximadamente.Su logro, por el que merece su puesto en este blog, fue el de crear la primera tipo romana para impresión. Este hecho que para muchos puede resultar anecdótico, hizo que pudiesen saltar a la fama algunos alumnos suyos como Garamond o Manutius, lo que no es decir poco. Cabe destacar que fue un gran maestro pero sin olvidar de quién fue discípulo. Ni más ni menos que del mismísimo Gutenberg; del que aprendió el arte de la fundición de tipos durante su estancia de tres años en Maguncia. Yendo de aquí para allá, a las órdenes del rey Carlos VII, tuvo que hacer una parada en 83
su camino a causa de la muerte de su señor. Así, y negándose a ser siervo del rey Luis XI, Nicolas topó con la Venecia de los años sesenta, mil cuatrocientos sesenta. Esta Italia del renacimiento, tan humanista, tuvo que hacer mella en la visión de la tipografía de este personaje. Echando la vista atrás, como dictaban los cánones estético-platónicos de la época, Jenson se inspiró en manuscritos del Imperio Romano para desarrollar su tipografía con serifas. Debido a su localización, la tipografía dio en llamarse “de estilo veneciano”. Como herencia, sus tipografías fueron legadas a la imprenta de Aldus Manutius. Éste mantuvo el testigo y se ha ido transmitiendo hasta el día de hoy, en el que vemos un gran número de tipografías inspiradas en la creada por este francés del siglo XV. Hoy por hoy podemos disfrutar del homenaje que han hecho Adobe y Linotype a este gran personaje: la Adobe Jenson Pro. • CLAUDE GARAMOND (París, 1480 – 1561) era un tipógrafo, impresor y grabador de matrices francés. Su obra tipográfica se considera clásica dentro del estilo antiguo e inspiración para composiciones modernas. Una de las tipografías más extendidas e influyentes de la historia y también una de las mejores romanas jamás creadas fue la diseñada por Claude Garamond en el siglo XVI en Francia. Fue votada como la tipografía del milenio en una encuesta celebrada entre profesionales. Existe un perfecto equilibrio entre elegancia y sentido práctico. A pesar de su carácter histórico, la Garamond original solo fue correctamente identificada a mediados del siglo XX. Hasta entonces fueron consideradas como Garamond una serie de tipografías creadas un siglo más tarde. Hoy en día existen muchísimas versiones de esta tipo, algunas con más fortuna que otras. Teniendo en cuenta la exactitud histórica, la versión más lograda sería la creada por la fundición Stempel en 1924, con las romanas y cursivas basadas en los dibujos originales de Garamond. En la versión de Adobe, diseñada por Robert Slimbach, las romanas están sacadas de los punzones de Garamond, del Museo Plantin-Moretus, mientras que las cursivas están sacadas de los tipos de Robert Granjon, un joven grabador de tipos de París. Este estilo de cursivas está influenciado por las itálicas Aldinas y por los estilos caligráficos del momento. Otras versiones de la Garamond están basadas en los tipos diseñados por Jean Jannon, otro tipógrafo francés que nació 19 años después de la muerte de Garamond. • FREDERIC GOUDY 84
Frederic William Goudy - nacido el 8 . 3 . 1865 en Bloomington, EE.UU. , murió 11 . 5 . 1947 en Malborough -on-Hudson , EE.UU. - diseñador de tipos , tipógrafo , editor y profesor. 1889 : se traslada a Chicago,
trabaja en el sector inmobiliario. 1892 : lanzamiento de la revista “Modern Advertising “, que emite sólo unos pocos números. 1895: se abre un taller de impresión en Chicago e imprime el “American Chap-Book”. 1897 : diseña su primer tipo , Camelot Old Style . Produce diseños tipográficos para diversas editoriales y empresas. 1903 : funda la Village Press. La primera publicación es un ensayo de William Morris. 1904 : sus publicaciones se otorgan premios en la Exposición Universal de San Luis. 1908 : la prensa de la aldea es destruida por el fuego. 1909-1924 : la prensa se vuelve a abrir y se ejecuta bajo la dirección de Goudy en Forest Hills. 1914: firma un contrato con la American Type Founders Company regula la fabricación y uso de sus tipos de letra . 1916 : vende 8 nuevos tipos de letra con el tipo Caslon fundición en Londres. Numerosas empresas encargan Goudy™ para diseñar tipografías exclusivos para ellos. 1920-1940 : consultor de arte a la Lanston Monotype Co. 1924 : él y su empresa se traslada a Marlborough-on-Hudson . 1925 : se abre su propio tipo de fundición. 1939: el taller de diseño de tipo , el tipo de corte , tipo de fundición, composición, impresión y la encuadernación, son destruidos por el fuego. 1940 : puesto de profesor de caligrafía en la Universidad de Syracuse. 1947 : la exposición Goudyana se abre en presencia de Goudy en la Biblioteca del Congreso en Washington. Goudy diseñado un total de 116 fuentes y publicado 59 obras literarias. • GIAMBATTISTA BODONI (Saluzzo, 1740 – Parma,1813) fue un innovador impresor y tipógrafo italiano. Trabaja inicialmente en Roma para reordenar el patrimonio tipográfico de la imprenta vaticana, concretamente en la célebre Sacrae Congregationis de Fide, que se dedica a la impresión de publicaciones religiosas, donde pronto se destaca y se convierte en el protegido del abad Ruggieri. Bodoni recibe una carta del infante don Ferdinando, luego duque de , en la que se le ofrece la dirección de la Imprenta Real de Parma. Acepta y se instala en la ciudad en 1768, ciudad que no abandonará hasta su muerte. Inicialmente utiliza los caracteres de Pierre-Simon Fournier, referencia en aquella época pero pronto se distinguen de éstos por el contraste acentuado y la estructura vertical bien cuadrada, el afinamiento y la horizontalidad de las zapatillas. 85
Las ediciones de Bodoni tuvieron un enorme éxito debido a la excelente calidad de las mismas, utilizando para ello ricas ilustraciones y elegantes tipografías. En 1788 publicó el primer volumen del Manuale tipográfico, el más importante tratado sobre tipografía de la época. Bodoni incluyó en el manual principios que constituyen la belleza de una tipografía: Uniformidad o regularidad de los diseños, Elegancia y nitidez con un buen acabado de los punzones. Buen gusto encanto, para que den “la impresión de haber sido escritas no a desgano ni con rapidez, sino con sumo cuidado, como un acto de amor”. Supone la culminación de 300 años de evolución de la tipografía romana. Su aparición desplazó a las tipografías antiguas y transicionales gracias al enorme contraste existente entre las líneas finas y gruesas, sus remates delgados y rectos y su apariencia clara y racional. Muere en 1813, luego de una vida plena de honores. En 1818, su viuda Margherita y su asistente Luigi Orsi , varios años después de la muerte de Bodoni (1813) publican el resto de volúmenes del Manuale tipográfico, el cual, a pesar de estar inconcluso, es una de las joyas de la tipografía moderna, un libro maravillosamente impreso y de enorme rareza, que quedó como el testamento artístico del tipógrafo más importante de su época. Algunos de los diseños modernos del tipo de Bodoni son: ATF Bodoni de M.F. Benton (1907-1915), Mergenthales Linotype Bodoni (1914-1916), Haas Bodoni (1924-1939), Bauer Bodoni de Louis Hoell (1924) y Berthold Bodoni (1930) • STANLEY MORISON Stanley Morison nació el 6 de mayo de 1889 en Wanstead, Essex (Inglaterra). Después de que su padre, un viajante de comercio, abandonara a la familia, el joven Morison abandona la escuela y comienza a trabajar como oficinista. Su gran salto se produjo en 1913 cuando comienza a trabajar como asistente editorial con Gerard Mynell, el editor de la revista Imprint. En 1914, durante la I Guerra Mundial fue encarcelado por su activismo como objetor. Al final de la guerra, en 1918, pasó a ser el supervisor de diseño de Pelican Press puesto que desempeñó durante dos años. En 1921 se asoció a Cloister Press y fue uno de los miembros fundadores de la Fleuron Society así como editor de su revista de tipografía The Fleuron. Los volúmenes 1-4 de la revista fueron editados por Oliver Simon e impresos en la Curwen Press y los volúmenes 5, 6 y 7 por el propio Stanley Morison e impresos en la Cambridge University Press, apareciendo el último número (el 7) en el año 1930. Fue en esta revista donde publicó sus famosos Principios fundamentales de tipografía. Su contenido didáctico, diseño y soberbia impresión hicieron de The Fleuron, incluso en la actualidad, un referente de la excelencia tipográfica. En 1923 pasa a ser consejero tipográfico de Monotype Corporation, donde inicia un vasto programa de recuperación de los tipos clásicos, así como de la imprenta de la Universidad de Cambridge. En 1929 Morison entra en el staff del 86
periódico The Times para el que crea su tipo más famoso: Times New Roman. De 1935 a 1952 edita la historia de The Times y durante los años 1945-47 el suplemento literario del periódico. Desde 1961 hasta su muerte en 1967 a la edad de 78 años, trabajó como miembro del equipo editorial de la Encylopaedia Britannica. La influencia histórica de Morison en la tipografía y diseño de tipos del mundo anglosajón todavía se deja ver quedando como impronta de su trabajo el rigor y la documentación con que rodeó a todas sus ideas y diseños tipográficos, sin olvidar el papel fundamental que llevó a cabo en la reforma de la imprenta inglesa durante el primer tercio del siglo XX. • ERIC GILL Eric Gill nació el 22 de febrero de 1882 en Brighton (Inglaterra). Estudió en la escuela de arte de Chichester y a la edad de 17 años se emplea como aprendiz de W. H. Caroë arquitecto de la Comisión Eclesiastica en Westminster. En la Escuela Central de Artes y Oficios asiste a clases de caligrafía impartidas por Edward Johnston y en un corto período de tiempo se convierte en un reputado artesano. Gill esculpe letras en piedra y también en madera para los títulos de las portadas de los libros, y llegó a ser conocido en todo el país por sus trabajos escultóricos para la sede de la BBC en Portland Place y para la catedral de Westminster. Eric Gill comienza a diseñar tipos para imprenta solamente después de una gran labor de persuasión ejercida sobre él por Stanley Morison, ya que como el decía la tipografía no era su campo de actuación y no tenía ninguna experiencia sobre el tema. El primer tipo que diseño, que más tarde se conocería como Perpetua, tardó cinco años en convertirse en realidad ya que para Gill era difícil resolver los problemas que se presentaban en la creación de tipos para producción mecánica. Charles Malin un grabador que Stanley Morison introdujo en el proyecto fue el que resolvió estos problemas y Perpetua después de algún cambio en su diseño fue editada por Monotype en 1929. Aunque durante su vida activa diseñó otros tipos sus dos más conocidos son Gill Sans y Perpetua. En 1931 crea el tipo Golden Cockerel Roman y unos grabados de madera que son utilizados para la producción de Four Gospels que es una pieza maestra de la imprenta inglesa. Durante el mismo año publica su Essay on Typography usando su propio tipo Haghe & Gill Joanna. Eric Gill fallece el 17 de noviembre de 1940 y en su lápida se describe él mismo como un escultor. En el campo de la tipografía se le recuerda por su combinación entre la disciplina del grabador y la finura de los trazos que provenía de su for87
mación caligráfica. En términos de diseño Gill dotó de humanidad a la era de la máquina. Algunos de los tipos que diseñó Eric Gill son: Gill Sans series 231 (1928), Perpetua (1929), Solus (1929), Golden Cockerel Roman (1930), Hague & Gill Joanna (1930) y Bunyan (1934). • FREDERIC GOUDY (Bloomington, 1865 - Marlborough, 1947) Impresor estadounidense. Fue uno de los diseñadores tipográficos más prolíficos de los Estados Unidos y llegó a componer hasta 124 tipos de imprenta diferentes. Finalizados sus estudios en la escuela Shelbyville High School en 1883, trabajó como registrador en la oficina inmobiliaria que poseía su padre en Hyde County. En 1887 se trasladó a Minessota y dos años después a Chicago, donde comenzó a trabajar como oficinista en una librería local. Posteriormente ingresó en la editorial A.C. McClurg, en el departamento de libros raros y tuvo la oportunidad de entrar en contacto con las mejores imprentas inglesas del momento, entre las que se encontraban Kelmscott, Doves, Eragny y Vale. A lo largo de estos años, Goudy, aprovechó las posibilidades que le ofrecía su profesión para aprender los secretos de la imprenta y la tipografía. En 1895 pensó que ha ya había adquirido la suficiente experiencia y decidió fundar, junto al profesor de inglés C. Lauren Hooper, una imprenta propia que bautizaron con el nombre de Camelot Press. La nueva empresa editó una revista llamada Chap-Book, que tuvo una vida efímera y sólo consiguió permanecer un año en circulación. En 1896, la imprenta diseñó su primer tipo de letra, el alfabeto denominado Camelot, que vendió al Dickinson Type Foundry. Goudy, su esposa y Will H. Ramson se embarcaron en 1903 en una nueva iniciativa empresarial y fundaron Village Press en Illinois pero, cinco años después, se produjo un incendio en el negocio y lo perdieron todo. Goudy se vio forzado a trabajar de nuevo como registrador y en 1916 fue profesor en la Asociación de Estudiantes de Arte. Finalizada la Primera Guerra Mundial, decidió reabrir Village Press, esta vez en Forrest Hill. En 1920 fue nombrado director de la Lanston Monotype Machine Company. Cuatro años más tarde, se trasladó a Nueva York y, molesto por el modo en que las fundiciones comerciales trasladaban sus dibujos hechos a mano a la técnica mecánica, creó en 1925 su propia fundición para controlar el proceso y grabar personalmente sus matrices. En esta ciudad, además de hacerse cargo del negocio y de continuar su labor como director de la Compañía Lanston, fue profesor universitario durante dos años. En 1939, un incendio volvió a arrasar los trabajos y la maquinaria de la empresa de Goudy, pero en esta ocasión no tuvo fuer88
zas para empezar nuevamente de cero. Decidió dedicar su tiempo a la lectura y la escritura y, después de abandonar su cargo como director de la Lanston en 1940, se retiró. Entre los tipos más importantes diseñados por Goudy destacan Pabst Roman (1902), Copperplate Gothic (1905), Goudy Old Style y Newstyle (1914 y 1921), Deepdene (1927), Kennerley (1930) o Tory Text (1935).También merecen mención algunas de sus obras, como The Alphabet (1918), Elements of Lettering (1922), Typologia (1940) y, publicado en 1946, un año antes de su muerte, su legado autobiográfico Half Century of Type Desing and Typography, 1895-1945.Camelot (1896), Pabst Roman (1902),Village (1902), Copperplate Gothic (1905), Goudy Old Style (1914), Hadriano (1918), Goudy Newstyle (1921), Deepdene (1927), Goudy Text (1928), Kennerley (1930) y Tory text (1935) MORRIS FULLER BENTON (Milwaukee, Wisconsin, Estados Unidos, 30 de noviembre de 1872 — 30 de junio de 1948) fue un tipógrafo estadounidense, uno de los más importantes de la historia. Con apenas once años de edad ya hacía algunos trabajos como imprimir ticket y folletos, gracias a la imprenta que montó en la casa de sus padres. Se graduó a los 24 años de la Cornell University de Ithaca (estado de Nueva York) como ingeniero y meses después empezó a trabajar como ayudante de su padre en AmericanType Founders (ATF), en donde aplicaría sus conocimientos mecánicos en el campo de la maquinaria de las artes gráficas. En esa época el padre de Morris, Linn Boyd Benton, era famoso por haber elaborado una máquina para la elaboración de punzones, invento que le hizo llegar a director de ATF. En 1900 pasó a ser diseñador en jefe de ATF, donde estuvo ejerciendo su profesión hasta su retirada en 1937 a la edad de 65 años. Falleció el 30 de junio de 1948 a la edad de 76 años. La vida de Benton estaba caracterizada por la mezcla de la creatividad tipográfica y los conocimientos y la precisión de un ingeniero. Su amor por la tipografía era notable ya que había nacido en una familia que se dedicaba a este negocio, después de que empezó a trabajar con su padre realizaron más de 180 tipos de letras con gran diversidad en las cuales está incluida Cloister Old, Style, o Franklin Gothic(1904). Entre otras cosas que hizo fueron dividir los tipos de letras en familias de letras. Al igual que fue responsable de muchas recreaciones de letras en la historia de la tipografía. Probablemente podríamos decir que Franklin Gothic es una de sus creaciones más recordadas. Morris Fuller Benton es probablemente uno de los tipógrafos más importantes en la historia de la tipografía, siendo el creador de diversas tipografías que hoy día se utilizan.Algunas de ellas son: Century Ex89
panded (1900), Linotex (1901), Century Oldstyle (1908-1909), Hobo (1910), Parisian (1928), Novel Gothic (1928), Chic (1928), Modernique (1928), Broadway (1928), Tower (1934) y Phenix (1935) • JAN TSCHICHOLD Jan Tschichold es uno de los tipógrafos más destacados e influyentes del siglo 20. Era un maestro en su campo, trabajó como maestro, escribió una serie de libros, tipografías diseñadas , y trabajó toda su vida como diseñador y escritor. La importancia de su influencia en la industria de impresión y diseñadores en Europa y los EE.UU. es indiscutible y su famosa tipografía Sabon sigue siendo un éxito de ventas . Jan Tschichold nació en Leipzig el 2 de abril de 1902, el primer hijo del guionista Franz Tschichold y su esposa María, nacida Zapff . La profesión de su padre le dio una introducción temprana a las muchas formas de guiones. A menudo ayudaba a su padre y aprendió la escritura de guiones sin pensar en esto como su futuro. Quería ser pintor de bellas artes, pero sus padres vio esta profesión como demasiado inestable y no creía que podía ganar la vida en ello . Como solución de compromiso que decidió convertirse en un maestro de dibujo. Después de terminar sus estudios a los 14 años de edad, Tschichold comenzó un seminario docente en Grimma, cerca de Leipzig En The World’s Fair for Books en 1914 fue una experiencia importante para el joven. En su tiempo libre, él estudió los libros de Edward Johnston (Caligrafía, Ornamentales Guión y Guión Aplicada) y Rudolf von Larisch (Estudio de Ornamentales de escritura) y creó una serie de obras caligráficas. Ya estaba empezando a formar un interés en tipografías antiguas y uno de sus manuscritos de este tiempo muestra las capitales y minúsculas de un tipo de letra cursiva , tal vez cursiva de Granjon . Pidió prestado estos sólo letras a medio terminar de una obra antigua , probablemente uno del siglo 17 . Para un principiante de 16 años de edad, esto es toda una hazaña notable. Se interrumpió sus estudios de enseñanza después de tres años cuando se dio cuenta de que quería ser un diseñador tipográfico y asistió a la Academia de Artes Gráficas de Leipzig. • WILLIAM CASLON (Cradley, Worcestershire, 1692 - †Bethnal Green, Londres, 1766), también conocido como William Caslon I, entra como aprendiz de grabador de armas de fuegoi a la edad de 13 años. Al llegar a los 20 ya era un afamado grabador independiente En 1720, Caslon empieza su carrera como diseñador de tipos aceptando crear una tipografía para el Nuevo Testamento en Árabe. Así 90
crea su propia fundición en 1722 en Vine Street, al lado de la fundición de la Universidad de Oxford. Su negocio fue financiado por dos impresores ingleses William Bowyer y John Watts, que le prestaron 500 libras. El tipo que diseñó finalmente en 1723, fue un éxito instantáneo y creó las bases de belleza y legibilidad para todos los posteriores. En una década se convirtió en el principal fundidor de tipos de Londres. Caslon no era solamente un buen artesano sino que también era un excelente hombre de negocios, y la mezcla de ambas cualidades supuso la creación de la primera piedra de la industria de creación de tipos inglesa. En 1734 elabora su primer muestrario que contiene 38 fuentes que incluyen titulares desde 16 a 60 puntos, romanas y cursivas, negras, góticas, hebreas, griegas y florones (7 diseños), siendo grabadas por Caslon 35 de las 38. El tipo de Caslon estaba inspirado por los tipos barrocos daneses, que eran los más usados en Inglaterra antes de la irrupción de Caslon. Su trabajo, que estaba influenciado por John Baskerville, era de fácil lectura y diseño simple y fueron muy populares tanto en Europa como en América convirtiéndose en el principal suministrador de tipos en ambos continentes. La declaración de independencia americana fue impresa por Mary Katherine Goddard de Baltimore en 1776 usando su tipo. Sin embargo Caslon no fue un tipógrafo innovador (tipos semejantes ya habían sido usados 100 años antes) , era su calidad como grabador lo que le distinguía. Caslon convierte su negocio en la mayor fundición de tipos de toda Inglaterra y en 1737 se asienta en Chiswell Street, donde su familia permanecería con el negocio otros 120 años. William Caslon falleció en el año 1766. Su tumba está en la Iglesia de Luke Old Street en Londres. • JOHN BASKERVILLE John Baskerville nació en 1706 en Sion Hill, Worcester (Inglaterra). Sobre el año 1723 se había convertido en un maestro de la escritura y hábil grabador de lapidas. En 1740 inicio en Birmingham un negocio de barnices y lacados al estilo japonés que en unos años lo haría un hombre muy rico. Alrededor de 1750 comienza a experimentar con la fabricación de papel, elaboración de tintas, fundición de tipos e impresión y en 1754 Baskerville crea su primer tipo (los punzones fueron grabados por John Handy que trabajo con el durante 28 años). Tres años más tarde, en 1757 Baskerville publica su primer trabajo Bucolica de Virgilio al que siguieron otros clásicos. En 1758 se convierte en impresor de la Universidad de Cambridge donde el 4 de julio de 1763 publica su obra maestra, una Biblia impresa usando sus propios tipos, tinta y papel. El uso de unos cilindros de cobre caliente para dar un acabado alisado a las páginas indican su compromiso en la búsqueda de una impresión perfecta. Los tipos que diseñó poseían una gran delicadeza y elocuencia visual, en vez de buscar la ostentosa ornamentación del estilo de su generación eligió la simplicidad tanto en los diseños de tipos como en su impresión. La composición de sus páginas nos hablan de 91
un diseño elegante en el que prima la claridad y en el que nada interfiere al mensaje. John Baskerville falleció el 8 de enero de 1775. Como un desafío personal quiso superar al tipo creado por William Caslon pero su experiencia como calígrafo hizo que su diseño se alejara de las propuestas de Caslon ciertamente ancladas en el pasado. Quizás por esto, los tipos de Baskerville no se ganaron el favor de los impresores ingleses y desaparecieron en un oscuro túnel por más de 150 años hasta que el diseñador americano Bruce Rogers los rescató del olvido reeditándolos para Monotype en 1924 y para Linotype en 1931. • FIRMÍN DIDOT (14 de abril de 1764 – 24 de abril de 1836) fue un grabador, impresor y tipógrafo francés, miembro de la más célebre familia de impresores franceses que comenzó a trabajar en este oficio en el siglo XVIII y continúa en él hasta nuestros días. Fue el creador de la técnica de estereotipo, que en impresión se refiere a una plancha metálica, ampliamente utilizada en la impresión comercial actual y que en su momento revolucionó el mercado editorial permitiendo la producción de ediciones muy económicas. Didot nació en París en el seno de una familia de impresores que comenzó con François Didot, padre de once hijos. Firmin, hijo de FrançoisAmbroise Didot, fue uno de sus nietos. La familia poseía un molino para fabricar papel que estaba localizado en Essonne, una región ubicada a 30 km al sureste de París muy cerca de Corbeil, villa que en esa época poseía importantes papeleras. Comenzó trabajando junto con su hermano Pierre Didot, perfeccionando las técnicas de impresión hasta alcanzar el grado de grabador y fundidor de tipos para luego implementar la técnica de impresión con estereotipo en el año de 1797. Junto con Giambattista Bodoni, Didot es considerado el creador de la clasificación moderna de las familias tipográficas. El nombre de una unidad de medida en tipografía lleva su nombre: el punto Didot. El punto junto con la pica, que también inventó Didot, son las medidas tipográficas por excelencia. Una pica equivale a 12 puntos, 72 puntos a una pulgada y una pulgada a 2,54 cm. Recibe en 1801, durante la primera exposición industrial que tuvo lugar en el Museo del Louvre, la medalla de oro por parte de Napoleón Bonaparte1 quien posteriormente en 1812 92
lo nombraría director de la Imprenta Imperial, cargo que ostentará hasta su muerte en 1836. • PAUL RENNER Paul Renner nació en Alemania en el año 1878. Trabajó como diseñador gráfico, tipógrafo, pintor y maestro. Si bien el no estaba directamente relacionado con el movimiento Bahuaus de los años 20 pronto pasó a defender sus posturas y convertirse en un ferviente defensor de la Nueva tipografía. En 1926 es nombrado director de la Escuela de Oficios de Impresión en Münich y asimismo es cofundador y director de la Escuela de Maestros para Impresores alemanes (Meisterschule Für Deutchlands Buchdrucker). Renner publicó un folleto en el año 1932 titulado Kulturbolschewismus en el que criticó la política cultural de los nazis y a raíz del mismo y por la consolidación en el poder del partido nazi, es despedido de la escuela pero consigue que su amigo y miembro del staff de la escuela George Trump asuma la dirección de la misma evitando así que el puesto fuera ocupado por alguien afín a los nazis. Su principal aportación al diseño tipográfico es el tipo Futura que diseñó durante los años 1924 y 1926. Está basado en formas geométricas (rectas, cuadrados y círculos) representativas del estilo visual de la Bahuaus de los años 1919-1933, y pronto llegó a ser considerado un tipo de la Nueva tipografía. Inicialmente la fundición Bauer emitió Futura con seis pesos distintos y con licencia la fundición Deberny & Peignot la editó en Francia bajo el nombre de Europa.American Typefounders y Mergenthaler Linotype también cuentan con una imitación de Futura llamada Spartan. Paul Renner falleció en el año 1956 y sus dibujos originales del tipo Futura se pueden contemplar en la Fundición Tipográfica Neufville de Barcelona. Otro tipo no muy conocido diseñado por Paul Renner es Topic o Steile Futura, que es un “san-serif” condensado con trazos redondeados en las letras “A”, “E”, “M” y “W”. Este tipo fue editado por la fundición Bauer en el año 1953. • MAX MIEDINGER Nace 24 de diciembre 1910 en Zúrich Suiza, luego de ir al colegio en 1926 comienza a tomar clases por la noche en la escuela de arte y oficios de Zúrich, por la mañana trabaja como tipógrafo hasta. En 1946 Comienza a trabajar como tipógrafo para el estudio de publicidad del almacén Globos en Zúrich hasta el 46. A partir de 1947 se convierte en tipógrafo para la casa fundición Hass de Munchenstein. Regresa a vivir a Zúrich donde comienza independientemente la actividad grafica. 1956 Eduard Hoffmann director en ese momento de la fundición Hass, le encarga renovar una fuente san-serif llamada Grotesk basada en la Akzidenz Grotesk del siglo XIX de la fundición Berthold, Max la 93
renueva y pasa a llamarse Neue Hass Grotesk, durante 1958 la 61 sigue introduciendo nuevas variantes de dicha fuente. En 1961 la fundición Stempel se queda con los derechos de la tipografía original, Miedinger y Hall, deciden desarrollar la fuente completa pero con otro nombre “Helvética” y la comercializan. La helvética es un tipo refinado, con una legibilidad asombrosa, eficiente para titulares como para texto corriente de párrafo, en parte a esto se debes su gran fama. En la década del 50 cuando vio la luz fue una tipo usada para diseño y marco internacionalmente una nueva era en fuentes de palo seco. Helvética es un tipo eficaz para uso cotidiano tanto para titulares como para cuerpo de texto, y su éxito se debe a su estupenda legibilidad en todo tipo de situaciones así como a la profusión con que fue usada durante el período en que la corriente del diseño internacional marcó la pauta del grafismo durante los años 50 a 60. Y fue gracias a este diseño por el que Max Miedinger encontró su lugar en la historia de la tipografía. Max Miedinger muere el 8 de marzo de 1980 1983: El Linotype publica su Neue Helvética, basado en el Helvética™ anterior. • ADRIAN FRUTIGER (n. Unterseen (Suiza), 24 de marzo de 1928) es uno de los tipógrafos más predominantes del siglo XX y continúa influenciando el desarrollo de la tipografía digital en el siglo XXI. Es mejor conocido por la creación de las tipografías Univers y Frutiger. Con dieciséis años entró a trabajar como aprendiz en la imprenta Otto Schaeffli al mismo tiempo que acudía a la Escuela de Artes y Oficios de Zurich. Fue el diseñador de las tipografías Univers y Frutiger a mediados de siglo XX. Nació el 24 de marzo de 1928 en Unterseen (Suiza). En su juventud se sentía atraído por la escultura pero fue desalentado por su padre y su escuela para que se dedicara a la imprenta. Sin embargo su amor a la escultura lo expresó en los diseños de sus tipos. Adrian Frutiger ha centrado habitualmente su labor en conseguir tipografías fáciles de leer, cómodas, que no lleguen a desorientar al lector. Rápido repaso a su carrera, para que el propio trabajo de Frutiger sea su carta de presentación: aprendiz en la imprenta Otto Schaeffli, trabaja para la fundición Deberny & Peignot, diseño de la imagen corporativa de Swiss Post, señalítica del aeropuerto Charles de Gaulle (recordemos que previamente este fue trabajo de Eric Gill), catedrático en l’Ecole Estienne y en la Ecole Nataionale Supérieure des Arts Décoratifs, escritor para Gustavo Gili,consultor de IBM y de la fundición Stempel, también trabajó para Linotype; 94
y todo esto sin contar con su larga lista de premios por su función. A partir de aquí podemos centrarnos en su carácter de tipógrafo. Como buen compositor, Frutiger ha dotado a sus letras de armonía y belleza. Pero es su carácter funcional el que mejor define su trabajo. Para nuestro creador el entorno debe hacer a la tipografía, esta debe adaptarse y respirar, sin ahogar al lector y transmitiendo correcta y rápidamente su mensaje. Es por esta cualidad de ser reconocibles en fracciones de segundo lo que ha hecho que las tipografías de este diseñador adornen innumerables señales en autopistas o aeropuertos. Las rotulaciones deben aclarar y orientar, y con este fin diseñó tipografías distintas a las que se usaban en libros de texto, en los cuales el lector debe sentirse cómodo, con tipografías más abiertas. Pero no sólo para grandes letras ha trabajado Frutiger. Pues también se fue hasta lo más pequeño para crear una tipografía óptima para ser leída en esos minúsculos horarios de los trenes; ahí nació la Vectora. Frutiger, siendo fiel a su pensamiento pragmático, anima a los nuevos diseñadores a no ser puramente creativos, sino que se fijen en las circunstancias que rodea a la tipografía. Las letras “deben subordinarse al contenido de la lectura”, dice Frutiger. Y no sólo a la lectura humana, añadiremos. Pues el bueno de Adrian diseñó también tipografías para que fuesen leídas por máquinas, como la ya clásica OCR-B, típica en las tarjetas de crédito o los cheques bancarios. Aunque la auténtica revolución Frutiger la encontramos en 1957, cuando Frutiger inventa su obra magna, el tipo Univers.Y no únicamente decimos que fue una revolución por la belleza o la sencillez de la tipografía, sino por incluir, con ella, 21 pesos y anchuras numerados que serían el antes y el después de la nominación tipográfica. A esta numeración se la llama matriz de Frutigery próximamente le dedicaremos su propio artículo. Quizás su pensamiento hace que sus letras de fantasía o scripts se vean un tanto forzadas, está claro que el tipo de letra que va con su carácter es el tipo de letra gótica, sin remates, sin adornos, clara y sencilla. Finalizaremos este artículo viendo algunas de sus tipografías, la mayoría de Linotype, y será mejor que cada cual juzgue con sus propios ojos lo grande que este nuestro tipógrafo: Adrian Frutiger. • HERMANN ZAPF (Núremberg, 8 de noviembre de 1918) es un diseñador alemán de tipografías que vive en Darmstadt, Alemania. Está casado con la calígrafa y diseñadora de tipos Gudrun Zapf von Hesse. El trabajo de Zapf sufrió la espada de doble filo de la veneración, y sus diseños, que incluyen Palatino y Optima, han sido tal vez los más ampliamente admirados – y plagiados – del siglo XX. El ejemplo 95
más conocido es el de Monotype Book Antiqua, que se entrega con Microsoft Office y es considerada una copia de la Palatino. En 1993 Zapf abandonó ATypI (Association Typographique Internationale), por lo que
vio como su actitud hipócrita hacia la copia desautorizada por miembros prominentes de ATypI. En 1934 comienza un aprendizaje de 4 años como corrector en la imprenta Karl Ulrich & Co. Es en 1935 cuando se interesa por la caligrafía después de visitar una exposición itinerante de los trabajos del tipógrafo Rudolf Koch y de leer los libros The Skill of Calligraphy del propio Rudolf Koch y Writing, Illuminating and Lettering de Edward Johnston. En el año 1938, después de su aprendizaje, comienza a trabajar en el taller de Paul Koch en Fráncfort estudiando al mismo tiempo el arte de la imprenta y la grabación de punzones junto a August Rosenberg, que era un maestro grabador. Con la colaboración de Rosenberg, Zapf produce un libro de 25 alfabetos caligráficos, titulado Pen and Graver, y que fue publicado por Stempel en 1949. Asimismo, Hermann Zapf publicó una serie de libros acerca de su tema favorito, el diseño, el dibujo de letras y la tipografía. Entre otros, podemos destacar: Manuale tipographicum (1954); About alphabets, some marginal notes on type design (1960); Typographische Variationen (1963); Hunt Roman, the birth of a type (1965); Orbis Typographicus (1980); y Hermann Zapf and his design Philosophy, Society of Typographic Arts, Chicago (1987). Optima y Palatino han sido las creaciones más admiradas dentro del diseño en general, pero también las más copiadas (la conocida fuente Book Antiqua distribuida con los programas que Microsoft produce es una copia deformada de la Palatino). Algunas de las tipografías creadas por Zapf son: Aldus, AMS Euler, Aurelia, Edison, Kompakt, Marconi, Medici Script, Melior, Miche96
langelo, Optima, Palatino, Saphir, Vario, ITC Zapf Book, ITC Zapf International, Sistina, ITC Zapf Chancery, ITC Zapf Dingbats, Zapf Renaissance Antiqua, y la Zapfino. FOtOCOMPOSICIÓN Fotocomposición es la capacidad de componer páginas a partir de matrices fotográficas o negativos de letras para producir cintas fotográficas compuestas por la acción mecánica de la fotocomponedora. La historia de la industria de las artes gráficas ha ido evolucionando a través de diversas tecnologías desarrolladas para la automatización o mecanización del proceso tipográfico. Tras la linotipia, una máquina de escritura de tipos sobre un lingote de plomo que se utilizaba para la producción de periódicos, surgió otro tipo de máquinas. HEL dotó a estas máquinas de la capacidad de componer páginas a partir de matrices fotográficas o negativos de letras para producir cintas fotográficas compuestas por la acción mecánica de la fotocomponedora: de ahí el nombre de fotocomposición. Dentro de la industria gráfica, la tipografía como procedimiento de impresión requería un método directo, tarea que podía cumplir la linotipia; sin embargo, para otro tipo de procedimientos de impresión —por ejemplo, para construir planchas para flexografía, heliograbado y offset— eran necesarios otros instrumentos de trabajo que generaran los originales mecánicos. Las fotocomponedoras se encargarían de esas funciones al producir cintas con la titulación tipográfica necesaria tal y como veríamos si recortamos un titular de un periódico impreso. El método ofrecido eliminaba la necesidad de imprimir la galera tipográfica, producida por la linotipia, para el mismo procedimiento. La forma actual de fotocomposición electrónica está presente en LaTeX, los procesadores de texto y las impresiones láser 97
como un paso más en una evolución dentro de la historia en las artes gráficas. FOTOMÉCANICA Se le llama fotomecánica a la técnica para obtener transparencias negativas o positivas de dibujos, fotografías y textos. Que servirán en primer lugar para hacer una copia exacta en la plancha, estando en pleno contacto con ella. Se le conoce también, como la técnica de elaboración de negativos y positivos para su reproducción por diferentes medios de impresión. El llamado Negativo, se obtiene de películas fotosensibles que contienen el elemento sensible a la luz denominado: Halogenuro de Plata. Sales de Plata microscópica, obtenida de la misma plata aprovechando su propiedad de ennegrecimiento al contacto con la luz. L a s transparencias que se denominan fotolitos, son elementos indispensables para la impresión en talleres gráficos, utilizando diferentes técnicas: offset, huecograbado, serigrafía… Con la nueva tecnología CTP llamada también directo a plancha aplicado al offset, elimina los fotolitos en los pasos de producción de prensa, aseguran un mejor registro en los trabajos. 98
aUtOEDICIÓN La autoedición, publicación de escritorio o desktop publishing (DTP) en inglés, consiste en sistemas informáticos de tratamiento gráfico que combinan un computador personal y un programa de diagramación de páginas (maquetación) y una impresora o un económico dispositivo multifuncional para crear documentos de publicidad, tanto para publicación a larga escala, o salida y distribución a baja escala. Es un trabajo que implica la aplicación de software en el diseño editorial. Los usuarios crean disposiciones de página (maquetas) con texto, gráficos, fotos y otros elementos visuales mediante el empleo de un software para autoedición como PageMaker, QuarkXPress, Adobe InDesign, RagTime, el software libre Scribus, Microsoft Publisher o Corel Ventura,Apple Pages y, en alguna extensión, cualquier software gráfico o procesador de texto que combine texto editable con imágenes. Para pequeños trabajos, algunas copias de una publicación pueden ser impresas en una impresora local. Para trabajos más grandes un archivo de computadora puede ser enviado a una imprenta para la impresión en grandes cantidades. El término «publicación de escritorio» es comúnmente usado para describir habilidades de disposición de elementos en las páginas (maquetación). Sin embargo, las habilidades y el software no están limitados al papel y los libros. Las mismas habilidades y software son a menudo usados para crear gráficos para exhibidores para puntos de venta, artículos promocionales, exhibiciones en ferias de negocios, embalajes, y publicidad exterior. La publicación de escritorio comenzó en 1985 con la introducción del software PageMaker de Aldus Corporation y de la impresora de LaserWriter de Apple Computer para la computadora Apple Macintosh. La capacidad de crear en la pantalla disposiciones de página WYSIWYG y después de imprimir las páginas a una resolución de alta calidad de 300 dpi fue revolucionaria tanto para la industria de la imprenta como para la industria del computador personal. A principios de los años 1980, los periódicos y otras publicaciones impresas se movieron a los programas basados en publicación de escritorio (desktop publishing) desde los más viejos sistemas de diagramación (maquetación) como el ATEX y otros programas de Eoach. El término «publicación de escritorio» se atribuye al fundador de Aldus Corporation, Paul Brainerd, que buscaba una frase de mercadeo que llamara la atención para describir el pequeño tamaño y disponibilidad relativa de esta suite de productos, en contraste al costoso equipo de fotocomposición comercial de esos días. Considerada frecuentemente una habilidad primaria, al incrementarse el acceso a un más amigable software de publicación de escritorio hizo que el manejo del software fuese una habilidad secundaria siendo sustituido por la dirección de arte, diseño gráfico, desarrollo de multimedia, comunicaciones de comercialización, carreras administrativas, y avanzada instrucción de bachillerato en economías prósperas. Los niveles de habilidad en publicación de escritorio van desde lo que se puede aprender en algunas horas (ej. aprendiendo cómo poner clip art en un procesador de palabras) a lo que requiere una educación universitaria y años de la experiencia (ej. posiciones de agencia de publicidad). La disciplina de las habilidades en 99
publicación de escritorio se extiende desde habilidades técnicas como producción de progreso y programación hasta habilidades creativas como diseño comunicacional y desarrollo de imagen gráfica. Por los estándares actuales, la primera publicación de escritorio era un asunto primitivo. Los usuarios del sistema conformado un por Macintosh de 512K, PageMaker, LaserWriter aguantaron los frecuentes desplomes del software, la minúscula pantalla en blanco y negro de 512 x 342 x 1 bit, la inhabilidad de controlar el espaciamiento de la letra, el kerning (la adición o remoción del espacio entre caracteres individuales en una pieza de texto para mejorar su aspecto o para alterar su ajuste) y otras características tipográficas, y las discrepancias entre la exhibición en la pantalla y la salida impresa. Sin embargo, para ese momento en el tiempo, fue recibida con considerable aclamación. Detrás de la escena, técnicas desarrolladas por Adobe Systems fijaron la fundación para las aplicaciones profesionales de publicación de escritorio. Las impresoras LaserWriter y LaserWriter Plus en su memoria ROM incluyeron fonts escalables y de alta calidad de Adobe. La capacidad adicional de PostScript de las LaserWriter permitió a los diseñadores de publicación probar archivos en una impresora local y luego imprimir el mismo archivo en las oficinas de servicio de publicación usando impresoras de PostScript con resoluciones ópticas de 600+ dpi tales como las de Linotronic. Más adelante fue lanzado el Macintosh II, que era mucho más conveniente para la publicación de escritorio debido a su más grande pantalla en color. En 1986, el Ventura Publisher, basado en GEM, fue introducido para las computadoras de MS-DOS. Mientras que la metáfora de pasteboard??? del PageMaker simuló de cerca el proceso de crear maquetas manualmente,Ventura Publisher automatizó el proceso de maquetación con su uso de tags/hojas de estilo y generó automáticamente los índices y otra materia del cuerpo. Esto lo hizo conveniente para los manuales y otros documentos de largo formato. En 1986, la publicación de escritorio se movió al mercado casero con el Professional Page del computador Amiga, Publishing Partner para el Atari ST, Timeworks Publisher de GST en el PC y el Atari ST, Calamus para el Atari TT030, e incluso Home Publisher, Newsroom, y GEOPublish para las computadoras de 8 bits como el Apple II, el Commodore 64 y el Atari XL. Durante estos primeros años, la publicación de escritorio adquirió una mala reputación por los usuarios inexperimentados que crearon pobremente organizadas disposiciones (maquetas) tipo efecto de nota Ransom - las críticas que luego serían impuestas en contra de los primeros editores de la Web una década más tarde. Sin embargo, algunos pudieron lograr resultados verdaderamente profesionales. Por ejemplo, la revista de computación .info (magazine) se convirtió en la primera en hacerse usando publicación de escritorio, a todo color, que apareció en kiosco de periódicos en el último trimestre de 1986, usando una combinación de Commodore Amiga, software de Professional Page desktop publishing, y de un typesetter de Agfagraphics. 100
SISTEMA CEPS Los sistemas CEPS (Cisco Enterprise Print System), son una colección de herramientas y utilidades diseñadas para ofrecer alta escalabilidad y robustez dentro del entorno de las artes gráficas de las grandes empresas. CEPS no es un sistema de impresión destinado al ámbito individual o doméstico, puesto que las herramientas están diseñadas para optimizar la gestión de un gran número de impresoras y el manejo de este sistema sería engorroso para alguien que sólo administre un numero pequeño de ellas. Damian Ivereigh desarrolló el sistema CEPS cuando trabajaba como administrador de sistemas en el departamento de impresión de Cisco Systems Inc. Poco después, Cisco permitió la distribución de su código fuente bajo licencia GPL.Además de los desarrolladores de CEPS en Cisco, existen actualmente algunos desarrolladores en la comunidad open-source trabajando en CEPS. Características de CEPS que hacen posible un entorno de impresión. CEPS fue diseñado para el uso interno de Cisco y, por lo tanto, el sistema se configuró para adaptarse al tipo de necesidades que existen en ese entorno. Como consecuencia, cuanto más difiera una empresa de estas necesidades o características, más difícil será adaptar CEPS al entorno: Las impresoras están conectados en red mediante TCP / IP. CEPS solo facilita la comunicación entre impresoras que estén conectadas en la red de una manera u otra. En Cisco la mayoría de las impresoras estaban conectadas a través de interfaces de red internos. La mayoría de las impresoras son HP, Lexmark, o Tektronix. Actualmente sólo hay tres maneras en las que CEPS puede comunicarse con una impresora: puerto 9100, LPR, y telnet inverso. Si una impresora no puede comunicarse con estas tecnologías será necesario agregar soporte para que lo haga. La mayoría de las impresoras tienen la capacidad de imprimir PostScript. El envío de los datos usando RAW es posible pero algunas funciones no son accesibles si los trabajos de impresión no están generalmente en PostScript. Homogeneidad de la red. La intranet de Cisco se extendió por el globo y todos los dispositivos fueron accesibles desde cualquier parte del mundo. Control semi-central. Los servidores de impresión en todo el mundo son más o menos desplegados y gestionados por la misma gente. Es posible que haya gente local que ayuden con el mantenimiento y backup de datos local de los servidores de impresión, pero al final del día, la tarea de mantener todos los servidores de impresión en la misma versión de software está coordinado por una autoridad central . Esta autoridad central también reccomienda tipos de impresoras y el hardware de servidor de impresión. Las políticas son mínimas. Basicamente se permite a todo el mundo imprimir en cada impresora sin cargo alguno y sin tener en cuenta en realidad quién adquirió la impresora o los consumibles que utiliza. La gente es bastante confiable. La gente no va a abusar de su manera de usar el sistema de impresión o va romper su propia infraestructura de impresión. Hay un montón de áreas en las que no es necesario mejorar la seguridad en el sistema CEPS.También hay algunas formas en que un usuario podría interrumpir temporalmente la impresión de otros usuarios. Por ejemplo, un usuario podría dejar una cola de impresión o eliminar un trabajo de impresión que no es el suyo. La prueba de ello es que se le da a todos los usuarios la capacidad para iniciar y detener las colas de impresión de modo que si una persona para un trabajo de impresión, entonces alguien que necesite imprimir en esa impresora puede simplemente hacerlo. Esto puede sonar como una receta para el desastre, pero por lo menos en Cisco esto nunca fue un problema durante varios años. Además, cualquier usuario puede eliminar cualquier trabajo de impresión. Esto facilitó 101
enormemente la carga sobre el personal administrador del sistema y nunca causó ningún problema. La mayoría de las impresoras son bastante modernas. Los proveedores de impresoras modernas se han puesto de acuerdo en usar el interfaz estandar SNMP descritas por RFC 1759. Esta interfaz hace la administración de las impresoras mucho más fácil. Los servidores de impresión pueden actuar como servidores DHCP o BOOTP.Tener los servidores de impresión actuando como servidores bootp para las impresoras, simplifica mucho la gestión de impresoras. La mayoría de los trabajos de impresión provienen de cualquier máquina Unix o Windows. La impresión en UNIX es soportada por el protocolo LPR y la impresión en PC se maneja a través de red de Microsoft o la impresión SMP. En un momento dado se planeó también ofrecer servicios de impresión a los clientes de Macintosh, pero el soporte para Mac se abandonó antes de que el proyecto pudiera comenzar. Este tipo de tecnologías desarrolló una serie de periféricos capaces de comunicarse entre ellos de forma cómoda creando diferentes sistemas de retoque y montaje de página electrónicos: Crosfield Studio, Hell Chromacom, Scitex, Linotype y Quantel PaintBox. En el vídeo se muestra un estudio de la época, Allers AS en Oslo, Noruega en el año 1987. Se puede ver a Rolf, que es el operador del escáner. También aparece el diseñador Bill usando el programa Studio 800 para hacer un diseño de página para la revista. Con estos programas, los diseñadores eran capaces de editar imágenes en tiempo real. El equipo que se ve en el video podía costar alrededor de un millón de libras en el Reino Unido hace 20 años y la calidad que ofrecía este sistema era muy alta para la época. El departamento de Repro Allers fue uno de los más reconocidos por su trabajo dentro del diseño Noruega. IMPRESIÓN DIGITAL Es un proceso que consiste en la impresión directa de un archivo digital a papel, por diversos medios, siendo el más común la tinta en impresora inyección de tinta (cartuchos), y toner en impresora láser. Este proceso es ideal para proyectos de impresión de bajo volumen y tiempos de entrega sumamente cortos, ya que una de las principales ventajas que ofrece es la disponibilidad casi inmediata de los impresos, pues no requiere tiempo de secado o enfriamiento al no trabajar con tintas, como la tradicional impresión offset. Este sector de las artes gráficas está experimentando un gran crecimiento, lo que ha llevado a los diferentes fabricantes y proveedores a lanzar al mercado equipos digitales cada vez con mayores prestaciones, preparados para atender los nuevos requerimientos impuestos por el mercado. La impresión digital tiene una doble vertiente: el pequeño y el gran formato. El primero adolece aún de falta de cierta fiabilidad y presenta algunas carencias (entre ellas, el no disponer de un formato 50x70). El gran formato, por su par102
te, ofrece ciertos problemas de tipo ecológico y de costes. Esto hace que la impresión digital tenga que desarrollarse aún más. Sin embargo, uno de los valores añadidos que ofrece la impresión digital es la personalización del producto. La impresión personalizada es un mercado en creciente expansión. El proceso xerográfico es un a técnica que se basa en el empleo de tóner, u pigmento en polvo, y es la que u t ilizan, por ejemplo, las i mpresoras láser, las fotocopiadoras y las máquinas de impresión digita l. Los precios de las im presoras va rían mucho y esta técnica se emplea principalmente cuando se desea imprimir desde un número reducido de ejemplares a una t irada de aproxi madamente soo unidades. • Técnica El principio del proceso xerográfico es siempre el mismo, sea cual sea el tipo de máquina que se emplee. Los pasos fund a mentales del proceso so n: la carga del conductor fotográfico, la exposición al láser, la transferencia de las partículas de tóner y la aplicación de calor. El co nductor fotográfico está compuesto por u n material cuya carga eléctrica es sensible a la lu z. El proceso se inicia en este conductor fotográfico, un tambor rotatorio qu e porta una carga eléctrica positiva o negativa (dependiendo de la marca) y que tiene una superficie idéntica a la del papel que se va a imprimir. El tambor se expone a un haz de luz láser y, con el fin de que el tambor completo se exponga lo más rápidamente posible, se utili z a un d isco especu lar rotatorio, normalmente octaédrico. Dado que este espejo gira, al incidir el láser en cada una de sus caras puede exponer de una sola vez toda la anch u ra de tambo r. El haz de lá ser sólo se interrumpe cuando alcan za una zona del tambor que no debe quedar expuesta. 103
Cuando una de las caras del espejo ha expuesto una línea del tambor, un motor da un pequeño giro a este último para que la sig uiente cara del espejo exponga al láser la siguiente línea. El espejo gira a bastante velocidad, a veces var i os cien tos de revoluciones por minuto, lo que hace que este tipo de impresoras sean sensibles a los golpes. La exposición del tambor al rayo láser crea una imagen invertida. Después e deposita el tóner sobre el tambor en forma de diminutas partículas que se adhieren a la imagen cargada
eléctricamente (las partículas de tóner pueden llevar carga electrostática o ser neutras, según la marca de la impresora). En ese punto se da al papel una carga electrostá t ica mayor que la de la imagen cargada del tambor rotato rio. Cuando el papel entra en contacto con el tambor, el tóner at ra ído a s u s u perficie debido a su mayor carga eléctrica. En ese momento, el tóner está suelto sobre el papel, fijado sol amente por una débil carga eléctrica. Para fijarlo de modo permanente, se le aplica calor y se lo somete a un ligero prensado. El calor necesario para fijar el tón er al papel ronda los 200ºC. En la impresoras xerográficas de cuatro colores, todo este proceso se ejecuta cuat ro veces, una para cada color de la cuatricromía (CMYK ). Existen algunas impresoras láser que utilizan múltiples diodos láser para exponer de uno en uno todos los puntos de cada línea, en lugar de usar un solo haz de láser y un espejo rotatorio. Estos dispositivos se denominan impresoras LED ( Light-Emi t ting Diod es , "diodos emisores de luz"). La resolución de una impresora láser depende principa lmente de tres factores: el tamaii.o del punto de exposición del rayo láser, el grado de avance de los pasos del motor y el tamai'lo de las partícu las de tóner. El punto de exposición del láser v iene determinado por el propio láser y por los componentes ópticos de la impresora. Algunas impresoras tienen resoluciones diferentes en direcciones distintas, porque el motor avanza a pasos que son menores que el tamaflo del punto de exposición del láser, o viceversa. El tóner es el factor que actualmente limita más la resolución. Cuanto más pequeiñas sean las partículas de tóner, mayor será la resolución. Las partículas de tóner tienen en la actualidad apenas un par de micró104
metros de diámetro. En las impresoras LED, la resolución la determina el espaciado entre los diodos láser. La resolución de una impresora láser oscila normalmente entre los 400 y los 1.200 dpi. • Tinta La tinta que se utiliza en la técnica xerográfica no es líquida, sino tóner, un polvo que está compuesto por partículas diminutas. En la actualid ad, las partículas de tóner tienen un tamaño de escasas milésimas de milímetro y ello puede dar a sensación de que los cartuchos contienen un líq uido espeso. Por tanto, dado que la tinta no es líquida, no penetra en el papel del mismo modo en que lo hacen otras tintas de impresión, sin o que se queda en su super ficie, deja ndo un relieve que podemos comprobar al tacto. Debido a que el tóner perman ece en la superficie del papel y también a que es somet ido
a calor para fijarlo durante la impresión, la superficie impresa adquiere más brillo que la del papel. En la actu alidad, existe tóner de colores negro, cian, magenta y amarillo. También están disponibles alg unos colores Pantone para determinadas impresoras y sistemas de impresión especial es. Algunos sistemas nos permiten incl uso personalizar los colores que deseemos, siempre que compremos grandes cantidades. Existen algunas soluciones de impresión que utilizan la técnica xerográfica pero emplean tintas líquidas en lugar de tóner. En ese caso, las propiedades de la t inta son idénticas a las del tóner: son igualmente sensibles a la carga electrostática. El más conocido de estos sistemas es el Indigo, de Hewlett Packard. El tóner se puede adquirir en contenedores ya preparados, llamados cartuchos, que son diferentes seg ún cada fabricante y sistema de impresión. En ocasiones, sólo el fabricante de la impresora comercializa los cartuchos de tóner pa ra esta, pero otras veces son 105
varios los fabricantes que venden el mismo modelo de cartucho, sobre todo en el caso de las impresoras domésticas o de oficina. • Papel El papel que ut ili za n las impreso ras láser debe tener ciertas características. No puede ser demasiado liso, como el papel estucado, ya que eso dificultará l a adherencia del tóner a su superficie.Tampoco puede ser un papel que pierda fácilmente su carga eléctrica, pues no atrae rá el tóner hacia su superficie. Po r
último, debe ser resistente a l as altas temperaturas, ya que el tóner se fija mediante la a plicació n de calor. El acabado brillante de algunos papeles estucados puede ocasionar que estos se quemen al someterlos al calor Las impresoras láser más habituales admiten los formatos de papel A3 y A4 con un gramaje de So a 135 g/ m 2. Los papeles demasiado gruesos pueden causar daños a la impresora. La rigidez del papel es también un factor importante para que este ava n ce con s u avidad a través de la impresora, aunque el exceso de rigidez puede impedir que se adapte a los rodillos de la máquina. Debido a la imposibilidad de utilizar papeles estucados en impresión digital, se han desarrollado una serie de papeles con un acabado especial que imita el estucado. También es importa nte que el papel tenga el contenido adecuado de humedad, pues esta puede afectar a la carga eléctrica del papel. Por ejemplo, en una impresión en cuatricromía mediante técnica xerográfica, el papel se carga electrostáticamente y se calienta cuatro veces, una para cada color (CMYK), y en cada una de esas fases el papel va perdiendo humedad. Si la humedad del papel es demasiado ba ja, su carga eléctrica será demasiado alta, lo que puede propiciar que se quede atascado en la impresora. Por eso el papel para impresión xerográfica se comercializa en un embalaje que conserva el grado de humedad adecuado, por lo que debemos evitar extraerlo de su embalaje hasta que nos dispongamos a utilizarlo. El contenido en humedad óptimo para el papel para impresión xerográfica es distinto, por ejemplo, del de los papeles que se utilizan en impresión offset. La mayoría de las impresoras láser son de alimentación por hojas. Alguna; prensas digitales imprimen papel en bobina, lo que les permite hacer copias e gran formato. Dado que no todos los papeles son aptos para el proceso xerogláfico, las empresas papeleras han desarrollado una línea de papeles especiales por 106
ejemplo, con un acabado que imita al estucado (y que suelen ser más ca ro que los estucados utilizados en impresión offset). Otro tipo de papeles que utilizan mucho en impresoras láser son los preimpresos en offset, por ejem pl papeles de carta con el membrete preimpreso. Debemos tener en cuenta algunas cosas a la hora de crear y utilizar papel preimpresos para evitar problemas de manchado en la impresora. Al crear unhoja preimpresa, deberemos asegurarnos de que el papel que utilicemos sea ap para impresión offset y para imprimir en láser. Conviene evitar diseños q e incluyan líneas verticales o bloques sólidos de tinta, ya que pueden manch a r tambor de fijación. Lo más importante es dejar que la impresión offset se seq completamente antes de usar el papel preimpreso en la impresora láser, lo que puede significar una espera de hasta dos semanas. Cuando se usa papel preimpreso, hay que tener también en cuenta que resulta difícil lograr un registro exacto entre la prueba y la impresión láser. Es complicado ajustar con precisión la ubicación de la impresión láser en el papel y, en general, se suele dar una variación de aproximadamente un milímetro. La mayoría de las impresoras láser permiten también imprimir transparencia; para proyector. Conviene utilizar para ello las láminas que recomienda el fabricante, ya que nos garantizará que toleren bien el calor del proceso de fijación. • Incidencias habituales en el proceso xerográfico Las diversas máquinas existentes pueden utilizar diferentes tecnologías e;: función de cuál sea su fabricante. Por ejemplo, existe una diferencia entre la impresión de exposición del blanco y del negro. En las impresoras de exposicio del negro, el haz de láser define en el tambor las partes negras de lo que se la imprimir, mientras que en las impresoras de exposición del blanco, ellá el delimita las áreas blancas, es decir, las no impresas. Las impresoras de exposición del blanco son capaces de crear líneas más finas que las de exposición d • negro, por lo que un mismo documento impreso en los dos sistemas producir resultados distintos.
107
108
109
tEMa 3
INFORMÁtICa aPLICaDa a La PREIMPRESIÓN
112
TEMA 3: INFORMÁTICA APLICADA A LA PREIMPRESIÓN Conceptos básicos de informática 115 Informática en la industria gráfica 116 Historia 122 Unidades de medida 125 Partes principales de un ordenador 127 La placa base 127 Procesador 129 Monitor 135 Teclado 137 Ratón 138 Dispositivos de almacenamiento 141 Almacenamiento profesional: RAID 145 Otros periféricos 145 Sistemas operativos 152 Sistema operativo Mac OS X 164 Aplicaciones profesionales 164 Utilidades: Gestores de tipos 177 Flujos de trabajo 180 Redes de área local LAN 182 Elementos de una red 182 Topologías 185 Servidores 187 Redes inalámbricas WI-FI 188 Comunicaciones y transmisión de datos 191 Seguridad informática 191 Copias de seguridad 192 113
114
CONCEPtO BÁSICO DE INFORMÁtICa •
Hardware
Se refiere a todas las partes tangibles de un sistema informático; sus componentes son: eléctricos, electrónicos, electromecánicos y mecánicos. Son cables, gabinetes o cajas, periféricos de todo tipo y cualquier otro elemento físico involucrado; contrariamente, el soporte lógico es intangible y es llamado software. El término es propio del idioma inglés (literalmente traducido: partes duras). La historia del hardware de computador se puede clasificar en cuatro generaciones, cada una caracterizada por un cambio tecnológico de importancia. Una primera delimitación podría hacerse entre hardware básico, el estrictamente necesario para el funcionamiento normal del equipo, y complementario, el que realiza funciones específicas. ✏ Monitor ✏ Placa base ✏ CPU ✏ Memoria RAM ✏ Tarjeta de expansión ✏ Fuente de alimentación
•
✏ Unidad de disco óptico ✏ Disco duro, Unidad de estado sólido ✏ Teclado ✏ Ratón/Mouse Software
Se conoce como al equipamiento lógico o soporte lógico de un sistema informático, que comprende el conjunto de los componentes lógicos necesarios que hacen posible la realización de tareas específicas, en contraposición a los componentes físicos que son llamados hardware. Los componentes lógicos incluyen, entre muchos otros, las aplicaciones informáticas; tales como el procesador de texto; el llamado software de sistema, tal como el sistema operativo, que básicamente permite al resto de los programas funcionar adecuadamente, facilitando también la interacción entre los compo-
115
nentes físicos y el resto de las aplicaciones, y proporcionando una interfaz con el usuario INFORMÁTICA EN LA INDUSTRIA GRÁFICA • Sistemas cerrados años 70, 80 y 90 ✏✏ Compugraphic Industria: Fotocomposición, Adquirida por Agfa-Gevaert, Fundada 1960, Fundador: William Garth Jr. y era un productor americano de los sistemas de composición tipográfica y equipos de fotocomposición, basado , en el momento de la fusión Agfa , en Wilmington, Massachusetts, a pocos kilómetros de donde fue fundada. Cuando las máquinas Compugraphic llegaron al mercado, que representó un gran avance en la velocidad y la eficiencia de costes. se volvería obsoleta sólo unas décadas más tarde con la llegada de la edición electrónica y las capacidades gráficas de Apple Macintosh , Commodore Amiga y PC de Windows y el software que fue desarrollado para ellos por Adobe , Aldus , y otros. Compugraphic introdujo las máquinas de fotocomposición 7200 y 2900. Preparado por un ordenador, una cinta se alimenta en un Imagesetter, que imprimir tipo de una tira de película sobre hechos a Kodak Ektamatic papel (sensible a la luz), que luego se utiliza para la pasta de arriba. A medida que el desarrollo de sus sistemas avanzaba, Compugraphic incluido continuamente nuevas tecnologías, como los monitores más grandes CRT, almacenamiento de disquetes , y las capacidades de pantalla de vista previa. Su producto más prolífico fue el EditWriter , lo que podría imagen en papel fotográfico de hasta 8 pulgadas de ancho , puede crear texto en tamaños 6-72 puntos mediante el uso de diferentes tipos de lentes fijos montados en una torreta interna y la información almacenada en 8 diskettes.
✏✏ Scantext Era un sistema profesional de código impulsado por la composición digital popular en la década de 1980, hecho obsoleto por la popularidad de la computadora personal y software de autoedición. Ha sido desarrollado y construido por Scangraphic, una división del Dr. Böger Duplomat Apparate GmbH & Co.KG, con sede en Wedel, cerca de Hamburgo, Alemania. El sistema Scantext 1000 comprendía una CPU con múltiples 8 " unidades de disco, el teclado y el monitor y los códigos que definen un diseño de página. Usa el sistema operativo CP / M y utiliza Intel 8080/85 procesadores. También ofreció un paquete de edición de fuentes opcionales, lo que permite no sólo la modificación de las fuentes existentes, sino la creación de diseños completamente nuevos. Este software está representados caracteres de fuentes individuales para la edición basada en píxeles, junto con un lápiz óptico. Un escáner de tambor opcional facilita la entrada de nuevos diseños para crear nuevas fuentes o caracteres pi. 116
Para compensar la falta de imágenes de carácter principal de tamaños diferentes, se aplicó la escala proporcional: cuanto mayor sea el tamaño de tipo especificado, mayor será la distancia entre ejes (una característica automática). (Para fuentes Pi y scripts de conexión esta fue anulada por la implementación de un número de la fuente a partir de la figura 5, la cancelación entre letras automático.) Fue completado por una unidad de filmadora de películas utilizando tecnología CRT. El sistema se completa con la unidad
filmadora de películas , una filmadora láser basado en el tambor con un (entonces masiva ) 10 Mb de disco duro . ✏✏ Edicomp Edicomp. Antiguo programa informático de fotocomposición creado por la compañía española Protecsa (Promoción Tecnológica y Comercial, S.A., empresa ligada a Tajamar, Instituto Tecnológico y Gráfico perteneciente al Opus Dei que cuenta con una reconocida enseñanza en Artes Gráficas a nivel de Formación Profesional) en el que se diseñaban las páginas por medio de claves sin poder visualizarlas. Fue usado en 'Alerta', 'El Mundo', 'Marca', 'Diario de Navarra', 'Diario 16', sus múltiples revistas y en muchas otras publicaciones. Famosísimas sus colecciones de formatos y sus 'errores lógicos' por ilógicos. En la última versión (Edicomp 4000), ya se podían visualizar las páginas modularmente, es decir, que sólo se veían bloques como si fuera el Tetris. Tenía también su propio hardware, con terminales diseñados ex profeso para este "sencillo" programa y con los que sólo se podía editar textos, además de "estaciones" con pantallas mucho más grandes dedicadas al diseño. Todavía hoy, hay gente que utiliza la terminología de Edicomp para pedir sus páginas y se oyen frases como: "Quiero un 2h3 en la página 5" (2 líneas de titulo en Helvética en tres columnas) o "Le falta el FFO" (la firma de foto). Como todavía hoy se recuerdan los escalofríos que sentimos la primera vez que vimos tan curioso sistema y, sobre todo, tuvimos que sentarnos ante una de sus "estaciones" para hacer una página.Tampoco faltan nostálgicos e incluso se han oído elogios hacia él. De verdad. ✏✏ Hell Chromacom Cuando empecé a retocar estaba en un Hell (infierno) Chromacom. Esto era obviamente pre-Photoshop. No pude encontrar una foto de mi antiguo puesto de trabajo, pero no encontró hay una foto que se parece. Me introduzco una "command" (¡en alemán!). En el teclado de la mano/pantalla de la izquierda y uso el mouse digitalizados y comprimidos para aerógrafo, etc, y conseguir esto... La estación de retoque temprana HELL Chromacom junto con varias unidades de disco de 200 MB (¡cada tamaño de lavadora casi!) 117
✏✏ Paintbox El Quantel Paintbox era una estación de trabajo dedicada de gráficos de ordenador para la composición de vídeo de televisión y gráficos. Su diseño hace hincapié en la eficiencia del flujo de trabajo de estudio requerido para la producción de noticias en vivo. Tras su lanzamiento inicial en 1981, revolucionó la producción de gráficos de televisión. La primera generación de Quantel Paintbox fue principalmente hardware personalizado diseñado, mientras que la segunda generación de la serie V introdujo en 1989 fue capaz de aprovechar el hardware en general ordenador de uso combinado con elementos de hardware personalizado. En 2002, la serie generationQ de productos introdujo la última caja de pinturas independiente y el software QPaintbox para PC. Con el tiempo, Paintbox se convirtió en una característica de la otra, la edición más potente de Quantel, gestión de medios y productos de post- producción. A finales de 1980 Quantel se embarcó en demandas contra el paquete de Adobe " Photoshop " de software y el sistema Spaceward Gráficos "Matisse" en un intento de proteger a los aspectos patentados del sistema de Paintbox. Ganaron el primer caso contra Spaceward en 1990, pero finalmente perdieron el caso en contra de Adobe en 1997 a raíz de declaraciones y manifestaciones de una serie de pioneros de gráficos por ordenador , incluyendo Alvy Ray Smith y Dick Phillips. Richard Shoup portado su 1973 programa de dibujo Superpaint a Windows para fines de demostración , y fue capaz de demostrar que Superpaint tenía características particulares antes Paintbox de Quantel . La portada de The Miracle, álbum de estudio la banda de rock Queen fue creado en un Quantel Paintbox en 1989. Fue utilizado por seis artistas y diseñadores , entre ellos David Hockney y Richard Hamilton, para crear obras de arte originales de la serie 1986 de la BBC Painting with Light. Quantel también colocó una serie de sistemas de la serie Paintbox IV en las escuelas de arte en el Reino Unido. Uno de los beneficiarios, de Duncan Jordanstone College of Art había nombrado recientemente a la videoartista Stephen Partridge como profesor quien entonces estableció (1984). El Taller de Televisión
para apoyar a artistas y directores de cine. La producción y el acceso a la tecnología de transmisión de alto nivel. Más de 400 producciones fueron apoyadas de esta manera desde 1984 hasta 1992, hasta video de escritorio adelantado a la necesidad. Los artistas y cineastas que utilizan el taller incluyeron Jeff Keen, Robert Cahen, Tamara Krikorian y muchos otros. • Sistemas abiertos años 80 y 90 ✏✏ Autoedición La autoedición, publicación de escritorio o desktop publishing (DTP) en inglés, consiste en sistemas informáticos de tratamiento gráfico que combinan un computador personal y un programa de diagramación de páginas (maquetación) y unaimpresora o un económico dispositivo multifuncional para crear documentos de publicidad, tanto para publicación a larga escala, o salida y distribución a baja escala. Es un trabajo que implica la aplicación de software en el diseño editorial. Los usuarios crean disposiciones de página (maquetas) con texto, gráficos, fotos y otros elementos visuales mediante el empleo de un software para 118
autoedición como PageMaker, QuarkXPress, Adobe InDesign, RagTime, el software libre Scribus, Microsoft Publisher o Corel Ventura, Apple Pages y, en alguna extensión, cualquier software gráfico o procesador de texto que combine texto editable con imágenes. Para pequeños trabajos, algunas copias de una publicación pueden ser impresas en una impresora local. Para trabajos más grandes un archivo de computadora puede ser enviado a una imprenta para la impresión en grandes cantidades. El término «publicación de escritorio» es comúnmente usado para describir habilidades de disposición de elementos en las páginas (maquetación). Sin embargo, las habilidades y el software no están limitados al papel y los libros. Las mismas habilidades y software son a menudo usados para crear gráficos para exhibidores para puntos de venta, artículos promocionales, exhibiciones en ferias de negocios, embalajes, y publicidad exterior. La publicación de escritorio comenzó en 1985 con la introducción del software PageMaker de Aldus Corporation y de la impresora de LaserWriter de Apple Computer para la computadora Apple Macintosh. La capacidad de crear en la pantalla disposiciones de página WYSIWYG y después de imprimir las páginas a una resolución de alta calidad de 300dpi fue revolucionaria tanto para la industria de la imprenta como para la industria del computador personal. A principios de los años 1980, los periódicos y otras publicaciones impresas se movieron a los programas basados en publicación de escritorio (desktop publishing) desde los más viejos sistemas de diagramación (maquetación) como el ATEX y otros programas de Eoach. El término «publicación de escritorio» se atribuye al fundador de Aldus Corporation, Paul Brainerd, que buscaba una frase de mercadeo que llamara la atención para describir el pequeño tamaño y disponibilidad relativa de esta suite de productos, en contraste al costoso equipo de fotocomposición comercial de esos días. Considerada frecuentemente una habilidad primaria, al incrementarse el acceso a un más amigable software de publicación de escritorio hizo que el manejo del software fuese una habilidad secundaria siendo sustituido por la dirección de arte, diseño gráfico, desarrollo de multimedia, comunicaciones de comercialización, carreras administrativas, y avanzada instrucción de bachillerato en economías prósperas. Los niveles de habilidad en publicación de escritorio van desde lo que se puede aprender en algunas horas (ej. aprendiendo cómo poner clip art en un procesador de palabras) a lo que requiere una educación universitaria y años de la experiencia (ej. posiciones de agencia de publicidad). La disciplina de las habilidades en publicación de escritorio se extiende desde habilidades técnicas como producción de progreso y programación hasta habilidades creativas como diseño comunicacional y desarrollo de imagen gráfica. Por los estándares actuales, la primera publicación de escritorio era un asunto primitivo. Los usuarios del sistema conformado un por Macintosh de 512K, PageMaker, LaserWriter aguantaron los frecuentes desplomes del software, la minúscula pantalla en blanco y negro de 512 x 342 x 1 bit, la inhabilidad de controlar el espaciamiento de la letra, el kerning(la adición o remoción del espacio entre caracteres individuales en una pieza de texto para mejorar su aspecto o para alterar su ajuste) y otras características tipográficas, y las discrepancias entre la exhibición en la pantalla y la salida impresa. Sin embargo, para ese momento en el tiempo, fue recibida con considerable aclamación. Detrás de la escena, técnicas desarrolladas por Adobe Systems fijaron la fundación para las aplicaciones profesionales de publicación de escritorio. Las impresoras LaserWriter y LaserWriter Plus en su memoria ROM incluyeron fonts escalables y de alta calidad de Adobe. La capacidad adicional de PostScript de las LaserWriter permitió a los diseñadores de publicación probar archivos en una impresora local y luego imprimir el mismo archivo en las oficinas de servicio de publicación usando impresoras de PostScript conresoluciones ópticas de 600+ dpi tales como las de Linotronic. Más adelante fue lanzado el Macintosh II, que era mucho más conveniente para la publicación de escritorio debido a su más grande pantalla en color. En 1986, el Ventura Publisher, basado en GEM, fue introducido para las computadoras de MS-DOS. Mientras que la metáfora de pasteboard del PageMaker simuló de cerca el proceso de crear maquetas manualmente, Ventura Publisher automatizó el proceso de maquetación con su uso de tags/hojas de estilo y generó automáticamente los índices y otra materia del cuerpo. Esto lo hizo conveniente para los manuales 119
y otros documentos de largo formato. En 1986, la publicación de escritorio se movió al mercado casero con elProfessional Page del computador Amiga, Publishing Partner para el Atari ST,Timeworks Publisher de GST en el PC y el Atari ST, Calamus para el Atari TT030, e incluso Home Publisher, Newsroom, y GEOPublish para las computadoras de 8 bits como el Apple II, el Commodore 64 y el Atari XL. Durante estos primeros años, la publicación de escritorio adquirió una mala reputación por los usuarios inexperimentados que crearon pobremente organizadas disposiciones (maquetas) tipo efecto de nota Ransom - las críticas que luego serían impuestas en contra de los primeros editores de la Web una década más tarde. Sin embargo, algunos pudieron lograr resultados verdaderamente profesionales. Por ejemplo, la revista de computación .info (magazine) se convirtió en la primera en hacerse usando publicación de escritorio, a todo color, que apareció en kiosco de periódicos en el último trimestre de 1986, usando una
combinación de Commodore Amiga, software de Professional Page desktop publishing, y de un typesetter de Agfagraphics. ✏ Page marker PageMaker es una aplicación informática de maquetación creada por la compañía Aldus Corporation. Su primera versión apareció en 1985. La primera versión de PM, en combinación con la impresora LaserWriter, el lenguaje de descripción de página PostScript y el ordenador personal Apple Macintosh, inauguró la era de la autoedición, que revolucionaría los procesos de preimpresión en las artes gráficas. Entre los motivos de su excelente acogida se encontraban, para los talleres de impresión, su capacidad para reproducir documentos en impresoras y filmadoras PostScript de altaresolución; y, para los creadores de los contenidos, su innovadora interfaz gráfica. Disponía además de un conjunto de funciones impensables hasta entonces para un usuario doméstico o un pequeño taller de maquetación: ♦ Herramientas de dibujo ♦ Importación de texto y de gráficos ♦ Sofisticado control tipográfico ♦ Posibilidad de arrastrar y soltar en cualquier lugar de la página El nuevo paradigma propició, asimismo, el florecimiento de sectores de actividad nuevos en el ramo, como los relacionados con los servicios editoriales o las agencias de diseño, y reactivó otros, como el de la tipografía digital. Aldus fue también pionera (1986) en adaptar este mismo concepto de edición de escritorio al entorno IBM-PC/MS-DOS, junto con Ventura Publisher. Ese mismo año ganó el SPA Excellence in Software Award al Mejor Uso del Ordenador.3 Con la llegada de QuarkXPress en 1987 se estableció una dura rivalidad para conquistar el escritorio de los diseñadores. En esa pugna, a pesar de que el producto siguió evolucionando, Aldus perdía cuota de mercado año tras año en favor de Quark Inc, que a principios de la década de 19904 encumbró su único producto a la categoría de estándar de facto de la maquetación digital. 120
En 1994, Adobe adquirió Aldus, y con ella se trajo no sólo PM sino también al equipo de ingenieros que había venido trabajando en un proyecto nuevo destinado a sustituirlo:Shuksan, el nombre en clave de lo que a la postre sería el embrión de InDesign Adobe ha publicado desde entonces tres revisiones: PM 6, PM 6.5 y finalmente, el 9 de julio de 2001, PM 7. Tres episodios vinieron a certificar el adiós definitivo a PageMaker: En enero de 2004 Adobe confirmó el fin de su ciclo de desarrollo, aunque mantenía su comercialización y su compromiso de soporte a los usuarios. Justo dos años después, en 2006, Apple puso a la venta el primer Mac con procesador Intel. La aplicación aún podía ejecutarse a duras penas en el modo emulación Classic. Pero en octubre de 2007, con la llegada de Mac OS X 10.5 (Leopard), esta posibilidad también desapareció. El 30 de noviembre de 2006 Microsoft lanzó oficialmente Windows Vista, cuya arquitectura era incompatible con aplicaciones no adaptadas específicamente para ese entorno.
✏✏ Postscript PostScript es un lenguaje de descripción de paginas (en inglés PDL, page description language), utilizado en muchas impresoras y, de manera usual, como formato de transporte de archivos gráficos en talleres de impresión profesional. Está basado en el trabajo realizado por John Gaffney en "Evans&Sutherland" en el año 1976. Posteriormente, continuaron el desarrollo 'JaM' ('John and Martin', Martin Newell) en Xerox PARC y, finalmente, fue implementado en su forma actual por John Warnock y otros. Fue precisamente John Warnock, junto con Chuck Geschke, los que fundaron Adobe Systems Incorporated(también conocido como Adobe) en el año 1982. El concepto PostScript se diferenció, fundamentalmente, por utilizar un lenguaje de programación completo, para describir una imagen de impresión. Imagen que más tarde sería impresa en una impresora láser o algún otro dispositivo de salida de gran calidad, en lugar de una serie de secuencias de escapes de bajo nivel (en esto se parece a Emacs, que explotó un concepto interno parecido con respecto a las tareas de edición). También implementó, notablemente, la composición de imágenes. Estas imágenes se describían como un conjunto de: ♦♦ Líneas horizontales ♦♦ Píxeles al vuelo ♦♦ Descripciones por curvas de Bezier ♦♦ Tipos de letra (mal llamados fuentes) de alta calidad a baja resolución1 (e.g. 300 puntos por pulgada). Una de las peculiaridades de PostScript es que usa Reverse Polish Notation (RPN o notación polaca inversa- como las calculadoras de bolsillo de HP). En otras palabras, los parámetros de un comando se dan antes que el comando. Los comandos se separan con espacios en blanco. Usa operaciones de pila para 121
procesar datos y ejecutar comandos. Hay cuatro pilas disponibles en PostScript: ♦♦ La pila de operandos ♦♦ La de diccionario ♦♦ La de ejecución ♦♦ La de estado gráfico. PDF es otro lenguaje de descripción de páginas y es derivado de PostScript, pero más simple y liviano. Ghostscript es una implementación abierta de un intérprete compatible con PostScript. Otro tipo lenguaje de descripción de página para impresoras es PCL (diseñado por HP). Es más ligero pero con menos posibilidades que PostScript. Ofrece soporte para trabajar con objetos vectoriales, con "tipos de contorno" (un conjunto limitado de descripciones de letras a base de trazados matemáticos), con lineaturas de semitonos profesionales, capacidad de generar puntos de semitonos de distintas formas (línea, cuadrado, círculo, elipse, etc.), capacidad de gestionar hasta 256 tonos de gris distintos en una impresión. Independencia total del dispositivo (lo que permite imprimir aprovechando al máximo la resolución de éste). Portabilidad entre aparatos. Disponibilidad pública del código y de su sintaxis (lo que permite a cualquiera escribir un programa capaz de generar ficheros PostScript) y algunas cosas más. HISTORIA • 1º GENERACIÓN Abarca desde el año 1938 hasta el año 1958, Época se identifica por el hecho que la tecnología electrónica estaba basada en “tubos de vacío”, más conocidos como bulbos electrónicos, del tamaño de un foco de luz casero. Los sistemas de bulbos podían multiplicar dos números de diez dígitos en un cuarentavo de segundo. Estaban construidas con electrónica de válvulas. Se programaban en lenguaje de máquina. Un programa es un conjunto de instrucciones para que la máquina efectúe alguna tarea, y el lenguaje más simple en el que puede especificarse un programa se llama lenguaje de máquina (porque el programa debe escribirse mediante algún conjunto de códigos binarios). La primera generación de computadoras y sus antecesores, se describen en la siguiente lista de los principales modelos de que constó. ✏✏ 1943 ENIAC. Primera computadora digital electrónica en la historia. No fue un modelo de producción, sino una máquina experimental. Tampoco era programable en el sentido actual. Se trataba de un enorme aparato que ocupaba todo un sótano en la universidad. Construida con 18.000 tubos de vacío, consumía varios KW de potencia eléctrica y pesaba algunas toneladas. Era capaz de efectuar cinco mil sumas por segundo. Fue hecha por un equipo de ingenieros y científicos encabezados por los doctores John W. Mauchly y J. Presper Eckert en la universidad de Pensilvania, en los Estados Unidos. 122
✏✏ 1949 EDVAC. Segunda computadora programable. También fue un prototipo de laboratorio, pero ya incluía en su diseño las ideas centrales que conforman las computadoras actuales. Incorporaba las ideas del doctor Alex Quimis. ✏✏ 1951 UNIVAC I. Primera computadora comercial. Los doctores Mauchly y Eckert fundaron la compañía Universal Computer (Univac), y su primer producto fue esta máquina. El primer cliente fue la Oficina del Censo de Estados Unidos. ✏✏ 1953 IBM 701. Para introducir los datos, estos equipos empleaban tarjetas perforadas, que habían sido inventadas en los años de la revolución industrial (finales del siglo XVIII) por el francés Joseph Marie Jacquard y perfeccionadas por el estadounidense Herman Hollerith en 1890. La IBM 701 fue la primera de una larga serie de computadoras de esta compañía, que luego se convertiría en la número uno, por su volumen de ventas. ✏✏ 1954 - IBM continuó con otros modelos, que incorporaban un mecanismo de almacenamiento masivo llamado tambor magnético, que con los años evolucionaría y se convertiría en el disco magnético. • 2º GENERACIÓN Esta generación nace con el uso del “transistor”, que sustituyó a los bulbos electrónicos. El invento del transistor, en 1948, les valió el Premio Nóbel a los estadounidenses Walter H. Brattain, John Bardeen y William B. Shockley. Con esto se da un paso decisivo, no sólo en la computación, sino en toda la electrónica. El transistor es un pequeño dispositivo que transfiere señales eléctricas a través de una resistencia. Entre las ventajas de los transistores sobre los bulbos se encuentran: su menor tamaño, no necesitan tiempo de calentamiento, consumen menos energía y son más rápidos y confiables. ✏✏ 1951, Maurice Wilkes inventa la microprogramación, que simplifica mucho el desarrollo de las CPU pero esta microprogramación también fue cambiada más tarde por el computador alemán Bastian Shuantiger ✏✏ 1956, IBM vendió por un valor de 1.230.000 dólares su primer sistema de disco magnético. Usaba 50 discos de metal de 61 cm, con 100 pistas por lado. Podía guardar 5 megabytes de datos, con un coste de 10.000$ por megabyte. El primer lenguaje de programación de propósito 123
general de alto-nivel, FORTRAN, también estaba desarrollándose en IBM alrededor de este tiempo. ✏✏ 1959, IBM envió la mainframe IBM 1401 basado en transistor, que utilizaba tarjetas perforadas. ✏✏ 1964, IBM anunció la serie 360, que fue la primera familia de computadoras que podía correr el mismo software en diferentes combinaciones de velocidad, capacidad y precio. También abrió el uso comercial de microprogramas, y un juego de instrucciones extendidas para procesar muchos tipos de datos, no solo aritmética. Además, se unificó la línea de producto de IBM, que previamente a este tiempo tenía dos líneas separadas, una línea de productos “comerciales” y una línea “científica”. • 3º GENERACIÓN Es la generación en la cual se comienzan a utilizar los circuitos integrados; esto permitió por un lado abaratar costos y por el otro aumentar la capacidad de procesamiento reduciendo el tamaño físico de las máquinas. Por otra parte, esta generación es importante porque se da un notable mejoramiento en los lenguajes de programación y, además, surgen los programas utilitarios. Se sigue utilizando la memoria de núcleos magnéticos. Los tiempos de operanosegundos (una mil milloAparece el disco magnético miento. Compatibilidad de tipos de computadoras. El clave de la computadora • 4º GENERACIÓN
ción son del orden de nanésima parte de segundo) como medio de almacenainformación entre diferentes microprocesador es la pieza personal.
Se desarrolla entre los años 1971 y 1981. Esta fase de evolución se caracterizó por la integración de los componentes electrónicos, y esto dio lugar a la aparición del microprocesador, que es la integración de todos los elementos básicos del ordenador en un sólo circuito integrado. Las microcomputadoras o Computadoras Personales (PC) tuvieron su origen con la creación de los microprocesadores. Un microprocesador es “una computadora en un chip”, o sea un circuito integrado independiente. Las PC´s son computadoras para uso personal y relativamente son baratas y actualmente se encuentran en las oficinas, escuelas y hogares. El término PC se deriva para el año de 1981, IBM, sacó a la venta su modelo “IBM PC”,cual se convirtió en un tipo 124
de computadora ideal para uso “personal”, de ahí que el término “PC” se estandarizó y los clones que sacaron posteriormente otras empresas fueron llamados “PC y compatibles”, usando procesadores del mismo tipo que las IBM , pero a un costo menor y pudiendo ejecutar el mismo tipo de programas. Existen otros tipos de microcomputadoras , como la Macintosh, que no son compatibles con la IBM, pero que en muchos de los casos se les llaman también “PC´s”, por ser de uso personal. El primer microprocesador fue el Intel 4004, producido en 1971. Se desarrolló originalmente para una calculadora, y resultaba revolucionario para su época. Contenía 2.300 transistores en un microprocesador de 4 bits que sólo podía realizar 60.000 operaciones por segundo. • 5º GENERACIÓN Conocida por sus siglas en inglés, FGCS (de Fifth Generation Computer Systems) fue un ambicioso proyecto propuesto por Japón a finales de la década de 1970. Su objetivo era el desarrollo de una nueva clase de computadoras que utilizarían técnicas y tecnologías de inteligencia artificial tanto en el plano del hardware como del software, usando el lenguaje PROLOG al nivel del lenguaje de máquina y serían capaces de resolver problemas complejos, como la traducción automática de una lengua natural a otra (del japonés al inglés, por ejemplo). Como unidad de medida del rendimiento y prestaciones de estas computadoras se empleaba la cantidad de LIPS (Logical Inferences Per Second) capaz de realizar durante la ejecución de las distintas tareas programadas. Para su desarrollo se emplearon diferentes tipos de arquitecturasVLSI (Very Large Scale Integration). El proyecto duró once años, pero no obtuvo los resultados esperados: las computadoras actuales siguieron así, ya que hay muchos casos en los que, o bien es imposible llevar a cabo una paralelización del mismo, o una vez llevado a cabo ésta, no se aprecia mejora alguna, o en el peor de los casos, se produce una pérdida de rendimiento. Hay que tener claro que para realizar un programa paralelo debemos, para empezar, identificar dentro del mismo partes que puedan ser ejecutadas por separado en distintos procesadores. Además, es importante señalar que un programa que se ejecuta de manera secuencial, debe recibir numerosas modificaciones para que pueda ser ejecutado de manera paralela, es decir, primero sería interesante estudiar si realmente el trabajo que esto conlleva se ve compensado con la mejora del rendimiento de la tarea después de paralelizarla. UNIDADES DE MEDIDA Byte es una unidad de información utilizada como un múltiplo del bit. Generalmente equivale a 8 bits, por lo que en español se le denomina octeto. 125
Byte proviene de bite (en inglés "mordisco"), como la cantidad más pequeña de datos que un ordenador podía "morder" a la vez. El cambio de letra no solo redujo la posibilidad de confundirlo con bit, sino que también era consistente con la afición de los primeros científicos en computación en crear palabras y cambiar letras.13 Sin embargo, en los años 1960, en el Departamento de Educación de IBM del Reino Unido se enseñaba que un bit era un Binary digIT y un byte era un BinarY TuplE. Un byte también se conocía como "unbyte de 8 bits", reforzando la noción
de que era una tupla de n bits y que se permitían otros tamaños. De una forma aproximada, las equivalencias entre bytes y objetos reales son: El término byte fue acuñado por Werner Buchholz en 1957 durante las primeras fases de diseño del IBM 7030 Stretch. Originalmente fue definido en instrucciones de 4 bits, permitiendo desde uno hasta dieciséis bits en un byte (el diseño de producción redujo este hasta campos de 3 bits, permitiendo desde uno a ocho bits en un byte). Los equipos típicos de E/S de este periodo utilizaban unidades de seis bits, pero tras la necesidad de agregar letras minúsculas, así como una mayor cantidad de símbolos y signos de puntuación, se tuvieron que idear otros modelos con mayor cantidad de bits. Un tamaño fijo de byte de 8 bits se adoptó posteriormente y se promulgó como un estándar por el IBM S/360.
126
PARTES PRINCIPALES
LA PLACA BASE La placa base, también conocida como placa madre o tarjeta madre (del inglés motherboard o mainboard) es una tarjeta de circuito impreso a la que se conectan los componentes que constituyen el ordenador. Es una parte fundamental a la hora de armar una PC de escritorio o portátil.Tiene instalados una serie de circuitos integrados, entre los que se encuentra el circuito integrado auxiliar, que sirve como centro de conexión entre el microprocesador, la memoria de acceso aleatorio(RAM), las ranuras de expansión y
otros dispositivos. Va instalada dentro de una caja o gabinete que por lo general está hecha de chapa y tiene un panel para
conectar dispositivos externos y muchos conectores internos y zócalos para instalar componentes dentro 127
de la caja. La placa base, además, incluye un firmware llamado BIOS, que le permite realizar las funcionalidades básicas, como pruebas de los dispositivos, vídeo y manejo del teclado, reconocimiento de dispositivos y carga del sistema operativo. ROM La memoria de solo lectura, conocida también como ROM (acrónimo en inglés de read-only memory), es un medio de almacenamiento utilizado en ordenadores y dispositivos electrónicos, que permite sólo la lectura de la información y no su escritura, independientemente de la presencia o no de una fuente de energía. Los datos almacenados en la ROM no se pueden modificar, o al menos no de manera rápida o fácil. Se utiliza principalmente en su sentido más estricto, se refiere sólo a máscara ROM -en inglés, MROM- (el
más antiguo tipo de estado sólido ROM), que se fabrica con los datos almacenados de forma permanente y, por lo tanto, su contenido no puede ser modificado de ninguna forma. Sin embargo, las ROM más modernas, como EPROM y Flash EEPROM, efectivamente se pueden borrar y volver a programar varias veces, aun siendo descritos como "memoria de sólo lectura" (ROM). La razón de que se las continúe llamando así es que el proceso de reprogramación en general es poco frecuente, relativamente lento y, a menudo, no se permite la escritura en lugares aleatorios de la memoria. A pesar de la simplicidad de la ROM, los dispositivos reprogramables son más flexibles y económicos, por lo cual las antiguas máscaras ROM no se suelen encontrar en hardware producido a partir de 2007. • BIOS El Sistema Básico de Entrada/Salida (Basic Input-Output System), conocido simplemente con el nombre de BIOS, es un programa informático inscrito en componentes electrónicos de memoria Flash existentes en la placa base. Este programa controla el funcionamiento de la placa base y de dichos componentes. Se encarga de realizar las funciones básicas de manejo y configuración del ordenador. Después de un reset o del encendido, el procesador ejecuta la instrucción que encuentra en el llamado vector de reset (16 bytes antes de la instrucción máxima direccionable en el caso de los procesadores x86), ahí se encuentra la primera línea de código del BIOS: es una instrucción de salto incondicional, que 128
remite a una dirección más baja en la BIOS. En los PC más antiguos el procesador continuaba leyendo directamente en la memoria RAM las instrucciones (dado que esa memoria era de la misma velocidad de la RAM), ejecutando las rutinas POST para verificar el funcionamiento del sistema y posteriormente cargando un sistema operativo (de 16 bits) en la RAM, que compartiría funcionalidades de la BIOS. De acuerdo a cada fabricante del BIOS, realizará procedimientos diferentes, pero en general se carga una copia del firmware hacia la memoria RAM, dado que esta última es más rápida. Desde allí se realiza la detección y la configuración de los diversos dispositivos que pueden contener un sistema operativo. Mientras se realiza el proceso de búsqueda de un SO, el programa del BIOS ofrece la opción de acceder a la RAM-CMOS del sistema donde el usuario puede configurar varias características del sistema, por ejemplo, el reloj de tiempo real. La información contenida en la RAM-CMOS es utilizada durante la ejecución del BIOS para configurar dispositivos comoventiladores, buses y controladores. Los controladores de hardware del BIOS están escritos en 16 bits siendo incompatibles con los SO de 32 y 64 bits, estos cargan sus propias versiones durante su arranque que reemplazan a los utilizados en las primeras etapas. EL PROCESADOR El microprocesador (o simplemente procesador) es el circuito integrado central y más complejo de un sistema informático; a modo de ilustración, se le suele llamar por analogía el «cerebro» de un computador. Es el encargado de ejecutar los programas, desde el sistema operativo hasta las aplicaciones de usuario; sólo ejecuta instrucciones programadas en lenguaje de bajo nivel, realizando operaciones aritméticas y lógicas simples, tales como sumar, restar, multiplicar, dividir, las lógicas binarias y accesos a memoria. Esta unidad central de procesamiento está constituida, esencialmente, por registros, una unidad de control, una unidad aritmético lógica (ALU) y una unidad de cálculo en coma flotante(conocida antiguamente como «coprocesador matemático»). El microprocesador está conectado generalmente mediante un zócalo específico de la placa base de la computadora; normalmente para su correcto y estable funcionamiento, se le incorpora un sistema de refrigeración que consta de un disipador de calor fabricado en algún material de alta conductividad térmica, como cobre o aluminio, y de uno o más ventiladores que eliminan el exceso del calor absorbido por el disipador. Entre el disipador y la cápsula del microprocesador usualmente se coloca pasta térmica para mejorar la conductividad del calor. Existen otros métodos más eficaces, como la refrigeración líquida o el uso de células peltier para refrigeración extrema, aunque estas técnicas se utilizan casi exclusivamente para aplicaciones especiales, tales como en las prácticas de overclocking. La medición del rendimiento de un microprocesador es una tarea compleja, dado que existen diferentes tipos de "cargas" que pueden ser procesadas con diferente efectividad por procesadores de la misma gama. Una métrica del rendimiento es la frecuencia de reloj que permite comparar procesadores con nú129
cleos de la misma familia, siendo este un indicador muy limitado dada la gran variedad de diseños con los cuales se comercializan los procesadores de una misma marca y referencia. Un sistema informático de alto rendimiento puede estar equipado con varios microprocesadores trabajando en paralelo, y un microprocesador puede, a su vez, estar constituido por varios núcleos físicos o lógicos. Un núcleo físico se refiere a una porción interna del microprocesador cuasi-independiente que realiza todas las actividades de una CPU solitaria, un núcleo lógico es la simulación de un núcleo físico a fin de repartir de manera más eficiente el procesamiento. Existe una tendencia de integrar el mayor número de elementos dentro del propio procesador, aumentando así la eficiencia energética y la miniaturización. Entre los elementos integrados están las unidades de punto flotante, controladores de la memoria RAM, controladores de buses y procesadores dedicados de vídeo. • APPLE • INTEL • AMD • BUS DE DATOS En arquitectura de computadores, el bus (o canal) es un sistema digital que transfiere datos entre los componentes de una computadora o entre varias computadoras. Está formado por cables o pistas en un circuito impreso, dispositivos como resistores y condensadores además de circuitos integrados. En los primeros computadores electrónicos, todos los buses eran de tipo paralelo, de manera que la comunicación entre las partes del computador se hacía por medio de cintas o muchas pistas en el circuito impreso, en los cuales cada conductor tiene una función fija y la conexión es sencilla requiriendo únicamente puertos de entrada y de salida para cada dispositivo. La tendencia en los últimos años se hacia uso de buses seriales como el USB, Firewire para comunicaciones con periféricos reemplazando los buses paralelos, incluyendo el caso como el del microprocesador
con el chipset en la placa base. Esto a pesar de que el bus serial posee una lógica compleja (requiriendo mayor poder de cómputo que el bus paralelo) a cambio
130
de velocidades y eficacias mayores.
Existen diversas especificaciones de que un bus se define en un conjunto de características mecánicas como conectores, cables y tarjetas, además de protocolos eléctricos y de señales. • MEMORIA RAM Se utiliza como memoria de trabajo para el sistema operativo, los programas y la mayoría del software. Es allí donde se cargan todas las instrucciones que ejecutan el procesador y otras unidades de cómputo. Se denominan «de acceso aleatorio» porque se puede leer o escribir en una posición de memoria con un tiempo de espera igual para cualquier posición, no siendo necesario seguir un orden para acceder a la información de la manera más rápida posible. Durante el encendido del computador, la rutina POST verifica que los módulos de memoria RAM estén conectados de manera correcta. En el caso que no existan o no se detecten los módulos, la mayoría de tarjetas madres emiten una serie de pitidos que indican la ausencia de memoria principal. Terminado ese proceso, la memoria BIOS puede realizar un test básico sobre la memoria RAM indicando fallos mayores en la misma. DISCO DURO Es un dispositivo de almacenamiento de datos no volátil que emplea un sistema de grabación magnética para almacenar datos digitales. Se compone de uno o más platos o discos rígidos, unidos por un mismo eje que gira a gran velocidad dentro de una caja metálica sellada. Sobre cada plato, y en cada una de sus caras, se sitúa un cabezal de lectura/escritura que flota sobre una delgada lámina de aire generada por la rotación de los discos. El primer disco duro fue inventado por IBM en 1956. A lo largo de los años, los discos duros han disminuido su precio al mismo tiempo que han multiplicado su capacidad, siendo la principal opción de almacenamiento secundario para PC desde su aparición en los años 1960.1 Los discos duros han mantenido su posición dominante gracias a los constantes incrementos en la densidad de grabación, que se ha mantenido a la par de las necesidades de almacenamiento secundario.1 Los tamaños también han variado mucho, desde los primeros discos IBM hasta los formatos estandari131
zados actualmente: 3,5 " los modelos para PC y servidores, 2,5 " los modelos para dispositivos portátiles. Todos se comunican con la computadora a través del controlador de disco, empleando una interfaz estandarizado. Los más comunes hasta los años 2000 han sido IDE (también llamado ATA o PATA), SCSI (generalmente usado en servidores y estaciones de trabajo). Desde el 2000 en adelante ha ido masificándose el uso de los Serial ATA. Existe además FC (empleado exclusivamente en servidores). Para poder utilizar un disco duro, un sistema operativo debe aplicar un formato de bajo nivel que defina una o más particiones. La operación de formateo requiere el uso de una fracción del espacio disponible en el disco, que dependerá del formato empleado. Además, los fabricantes de discos duros, unidades de estado sólido y tarjetas flash miden la capacidad de los mismos usando prefijos SI, que emplean múltiplos de potencias de 1000 según la normativa IEC y IEEE, en lugar de los prefijos binarios, que emplean múltiplos de potencias de 1024, y son los usados por sistemas operativos de Microsoft. Esto provoca que en algunos sistemas operativos sea representado como múltiplos 1024 o como 1000, y por tanto existan confusiones, por ejemplo un disco duro de 500 GB, en algunos sistemas operativos sea representado como 465 GiB (es decir gibibytes; 1 GiB = 1024 MiB) y en otros como 500 GB. Las unidades de estado sólido tienen el mismo uso que los discos duros y emplean las mismas interfaces, pero no están formadas por discos mecánicos, sino por memorias de circuitos integrados para almacenar la información. El uso de esta clase de dispositivos anteriormente se limitaba a las supercomputadoras, por su elevado precio, aunque hoy en día ya son muchísimo más asequibles para el mercado doméstico PUERTOS DE COMUNICACIONES En la informática, un puerto es una forma genérica de denominar a una interfaz a través de la cual los diferentes tipos de datos se pueden enviar y recibir. Dicha interfaz puede ser de tipo físico, o puede ser a nivel de software (por ejemplo, los puertos que permiten la transmisión de datos entre diferentes ordenadores) (ver más abajo para más detalles), en cuyo caso se usa frecuentemente el término puerto lógico. FUENTE DE ALIMENTACIÓN En electrónica, una fuente de alimentación es un dispositivo que convierte la corriente alterna, en una o varias corrientes continuas, que alimentan los distintos circuitos del aparato electrónico al que se conecta (ordenador, televisor, impresora, router, etc.). Las fuentes de alimentación, para dispositivos electrónicos, pueden clasificarse básicamente como fuentes de alimentación lineales y conmutadas. Las lineales tienen un diseño relativamente simple, que puede llegar a ser más complejo cuanto mayor es la corriente que deben suministrar, sin embargo su regulación de tensión es poco eficiente. Una fuente conmutada, de la misma potencia que una lineal, será más pequeña y normalmente más eficiente pero será más compleja y por tanto más susceptible a averías. 132
• Fuentes de alimentación lineales Las fuentes lineales siguen el esquema: transformador, rectificador, filtro, regulación y salida. En primer lugar el transformador adapta los niveles de tensión y proporciona aislamiento galvánico. El circuito que convierte la corriente alterna en corriente continua pulsante se llama rectificador, después suelen llevar un circuito que disminuye el rizado como un filtro de condensador. La regulación, o estabilización de la tensión a un valor establecido, se consigue con un componente denominado regulador de tensión, que no es más que un sistema de control a lazo cerrado (realimentado - véase figura 3) que en base a la salida del circuito ajusta el elemento regulador de tensión que en su gran mayoría este elemento es un transistor. Este transistor que dependiendo de la tipología de la fuente está siempre polarizado, actúa como resistencia regulable mientras el circuito de control juega con la región activa del transistor para simular mayor o menor resistencia y por consecuencia regulando el voltaje de salida. Este tipo de fuente es menos eficiente en la utilización de la potencia suministrada dado que parte de la energía se transforma en calor por efecto Joule en el elemento regulador (transistor), ya que se comporta como una resistencia variable.A la salida de esta etapa a fin de conseguir una mayor estabilidad en el rizado se encuentra una segunda etapa de filtrado (aunque no obligatoriamente, todo depende de los requerimientos del diseño), esta puede ser simplemente un condensador. Esta corriente abarca toda la energía del circuito, para esta fuente de alimentación deben tenerse en cuenta unos puntos concretos a la hora de decidir las características del transformador. • Fuentes de alimentación conmutadas Una fuente conmutada es un dispositivo electrónico que transforma energía eléctrica mediante transistores en conmutación. Mientras que un regulador de tensión utiliza transistores polarizados en su región activa de amplificación, las fuentes conmutadas utilizan los mismos conmutándolos activamente a altas frecuencias (20-100 kHz típicamente) entre corte (abiertos) y saturación (cerrados). La forma de onda cuadrada resultante se aplica a transformadores con núcleo de ferrita (Los núcleos de hierro no son ade133
cuados para estas altas frecuencias) para obtener uno o varios voltajes de salida de corriente alterna (CA) que luego son rectificados (Con diodos rápidos) y filtrados (inductores y condensadores) para obtener los voltajes de salida de corriente continua (CC). Las ventajas de este método incluyen menor tamaño y peso del núcleo, mayor eficiencia y por lo tanto menor calentamiento. Las desventajas comparándolas con fuentes lineales es que son más complejas y generan ruido eléctrico de alta frecuencia que debe ser cuidadosamente minimizado para no causar interferencias a equipos próximos a estas fuentes. Las fuentes conmutadas tienen por esquema: rectificador, conmutador, transformador, otro rectificador y salida. La regulación se obtiene con el conmutador, normalmente un circuito PWM (Pulse Width Modulation) que cambia el ciclo de trabajo. Aquí las funciones del transformador son las mismas que para fuentes lineales pero su posición es diferente. El segundo rectificador convierte la señal alterna pulsante que llega del transformador en un valor continuo. La salida puede ser también un filtro de condensador o uno del tipo LC. Las ventajas de las fuentes lineales son una mejor regulación, velocidad y mejores características EMC. Por otra parte las conmutadas obtienen un mejor rendimiento, menor coste y tamaño. VENTILACIÓN • Ventiladores de caja Como comenté en otra página, el mínimo exigible para la ventilación de la caja de una CPU actual son dos ventiladores de 120x120 mm: Uno de ellos, situado en el frontal de la caja y orientado de tal forma que impulse el aire exterior hacia dentro de la caja. El aire que atraviese este ventilador formará una corriente que, después de renovar el del interior de la caja y enfriar los componentes internos del ordenador, saldrá a través del ventilador posterior y de la fuente de alimentación. El otro ventilador, colocado en la parte trasera, extraerá el aire del interior de la caja que se ha calentado al contacto con los disipadores de calor y otros componentes que alcanzan temperaturas apreciables. El sentido de giro del rotor y el del flujo de aire producido por un ventilador pueden conocerse observando las flechas que llevan grabadas casi todos los ventiladores en uno de los costados. Actualmente, algunas cajas disponen de otro ventilador en el lateral izquierdo, zona donde existe espacio suficiente para poder colocar ventiladores incluso de tamaño superior a los 120x120 mm mínimos recomendados, que producirán un gran caudal de aire con un nivel de ruido mínimo. Obviamente, esta solución será de poca utilidad en ordenadores cuya caja esté situada en un alojamiento que obstaculice la entrada de aire a través del lateral. Ambos ventiladores deben producir un caudal de aire suficiente para mantener dentro de límites seguros la temperatura de los componentes que soporten un estrés térmico mayor, teniendo en cuenta que a mayor caudal, mayor nivel de ruido producirán. A la hora de sustituir un ventilador averiado del que se desconoce el caudal de aire que producía, hay que tener en cuenta que dicho caudal es muy aproximadamente proporcional a la intensidad de corriente nominal del ventilador, por lo que habrá que instalar en su lugar otro ventilador del mismo tamaño y tensión nominal y cuya intensidad nominal sea igual o superior a la del ventilador sustituido.
134
TARJETA GRÁFICA Una tarjeta gráfica, tarjeta de vídeo, placa de vídeo, tarjeta aceleradora de gráficos o adaptador de pantalla, es una tarjeta de expansión para una computadora u ordenador, encargada de procesar los datos provenientes de la CPU y transformarlos en información comprensible y representable en un dispositivo de salida, como un monitor o televisor. Las tarjetas gráficas más comunes son las disponibles para las computadoras compatibles con la IBM PC, debido a la enorme popularidad de éstas, pero otras arquitecturas también hacen uso de este tipo de dispositivos. Es habitual que se utilice el mismo término tanto a las habituales tarjetas dedicadas y separadas como a las GPU integradas en la placa base. Algunas tarjetas gráficas han ofrecido funcionalidades añadidas como captura de vídeo, sintonización de TV, decodificación MPEG-21 y MPEG-4 o incluso conectores Firewire, de ratón, lápiz óptico o joystick. Las velocidades de refresco son relativamente estándares, teniendo como valores comunes: 56, 60, 65, 70, 72, 75, 80, 85, 90, 95, 100, 110 y 120 Hz MONITOR El monitor de ordenador es un dispositivo de salida (interfaz), que muestra datos o información al usuario. Las primeras computadoras se comunicaban con el operador mediante unas pequeñas luces, que se encendían o se apagaban al acceder a determinadas posiciones de memoria o ejecutar ciertas instrucciones. Años más tarde aparecieron ordenadores que funcionaban con tarjeta perforada, que permitían introducir programas en el computador. Durante los años 60, la forma más común de interactuar con un computador era mediante un teletipo, que se conectaba directamente a este e imprimía todos los datos de una sesión informática. Fue la forma más barata de visualizar los resultados hasta la década de los 70, cuando empezaron a aparecer los primeros monitores de CRT (tubo de rayos catódicos). Seguían el estándar MDA (Monochrome Display Adapter), y eran monitores monocromáticos (de un solo color) de IBM. Estaban expresamente diseñados para modo texto y soportaban subrayado, negrita, cursiva, normal e invisibilidad para textos. Poco después y en el mismo año salieron los monitores CGA (Color Graphics Adapter - gráficos adaptados a color) fueron comercializados en 1981 al desarrollarse la primera tarjeta gráfica a partir del estándar CGA de IBM. Al comercializarse a la vez que los MDA los usuarios de PC optaban por comprar el monitor monocromático por su costo. Tres años más tarde surgió el monitor EGA (Enhanced Graphics Adapter - adaptador de gráficos mejorados) estándar desarrollado por IBM para la visualización de gráficos, este monitor aportaba más colores (16) y una mayor resolución. En 1987 surgió el estándar VGA (Video Graphics Array - Matriz gráfica de video) fue un estándar muy acogido y dos años más tarde se mejoró y rediseñó para solucionar ciertos problemas que surgieron, desarrollando así SVGA (Super VGA), que también aumentaba colores y 135
resoluciones, para este nuevo estándar se desarrollaron tarjetas gráficas de fabricantes hasta el día de hoy conocidos como S3 Graphics, NVIDIA o ATI entre otros. Con este último estándar surgieron los monitores CRT que hasta no hace mucho seguían estando en la mayoría de hogares donde había un ordenador. • Tamaño de la pantalla y proporción Medida de tamaño de la pantalla para TFT. El tamaño de la pantalla es la distancia en diagonal de un vértice de la pantalla al opuesto, que puede ser distinto del área visible cuando hablamos de CRT , mientras que la proporción o relación de aspecto es una medida de proporción entre el ancho y el alto de la pantalla, así por ejemplo una proporción de 4:3 ( Cuatro tercios ) significa que por cada 4 píxeles de ancho tenemos 3 de alto, una resolución de 800x600 tiene una relación de aspecto 4:3, sin embargo estamos hablando de la proporción del monitor. Estas dos medidas describen el tamaño de lo que se muestra por la pantalla, históricamente hasta no hace mucho tiempo y al igual que las televisiones los monitores de ordenador tenían un proporción de 4:3. Posteriormente se desarrollaron estándares para pantallas de aspecto panorámico 16:9 (a veces también de 16:10 o 15:9) que hasta entonces solo veíamos en el cine. • Medición del tamaño de la pantalla Las medidas de tamaño de pantalla son diferentes cuando se habla de monitores CRT y monitores LCD. Para monitores CRT la medida en pulgadas de la pantalla toma como referencia los extremos del monitor teniendo en cuenta el borde, mientras que el área visible es más pequeña. Para monitores LCD la medida de tamaño de pantalla se hace de punta a punta de la pantalla sin contar los bordes. Los tamaños comunes de pantalla suelen ser de 15, 17, 19, 21 pulgadas. La correspondencia entre las pulgadas de CRT y LCD en cuanto a zona visible se refiere, suele ser de una escala inferior para los CRT, es decir una pantalla LCD de 17 pulgadas equivale en zona visible a una pantalla de 19 pulgadas del monitor CRT (aproximadamente). • Resolución máxima Comparación de resoluciones de vídeo. Artículo principal: Resolución de pantalla Es el número máximo de píxeles que pueden ser mostrados en cada dimensión, es representada en filas por columnas. Está relacionada con el tamaño de la pantalla y la proporción. Los monitores LCD solo tienen una resolución nativa posible, por lo que si se hacen trabajar a una resolución distinta, se escalará a la resolución nativa, lo que suele producir artefactos en la imagen. Cada píxel de la pantalla tiene interior136
mente 3 subpíxeles, uno rojo, uno verde y otro azul; dependiendo del brillo de cada uno de los subpíxeles, el píxel adquiere un color u otro de forma semejante a la composición de colores RGB. La manera de organizar los subpíxeles de un monitor varia entre los dispositivos. Se suelen organizar en líneas verticales, aunque algunos CRT los organizan en puntos formando triángulos. Para mejorar la sensación de movimiento, es mejor organizarlos en diagonal o en triángulos. El conocimiento del tipo de organización de píxeles, puede ser utilizado para mejorar la visualización de imágenes de mapas de bit usando renderizado de subpíxeles. La mayor parte de los monitores tienen una profundidad 8 bits por color (24 bits en total), es decir, pueden representar aproximadamente 16,8 millones de colores distintos. tECLaDO En informática, un teclado es un periférico de entrada o dispositivo, en parte inspirado en el teclado de las máquinas de escribir, que utiliza una disposición de botones o teclas, para que actúen como palancas mecánicas o interruptores electrónicos que envían información a la computadora. Después de las tarjetas perforadas y las cintas de papel, la interacción a través de los teclados al estilo teletipo se convirtió en el principal medio de entrada para las computadoras. El teclado tiene entre 99 y 147 teclas aproximadamente, y está dividido en cuatro bloques: • Bloque de funciones: va desde la tecla F1 a F12, en tres bloques de cuatro: de F1 a F4, de F5 a F8 y de F9 a F12. Funcionan de acuerdo al programa que esté abierto. Por ejemplo, en muchos programas al presionar la tecla F1 se accede a la ayuda asociada a ese programa. • Bloque alfanumérico: está ubicado en la parte inferior del bloque de funciones, contiene los números arábigos del 1 al 0 y el alfabeto organizado como en una máquina de escribir, además de algunas teclas especiales. • Bloque especial: está ubicado a la derecha del bloque alfanumérico, contiene algunas teclas especiales como ImprPant, Bloq de desplazamiento, pausa, inicio, fin, insertar, suprimir, RePág, AvPág, y las flechas direccionales que permiten mover el punto de inserción en las cuatro direcciones. • Bloque numérico: está ubicado a la derecha del bloque especial, se activa al presionar la tecla Bloq Num, contiene los números arábigos organizados como en una calculadora con el fin de facilitar la digitación de cifras. Además contiene los signos de las cuatro operaciones básicas: suma +, resta −, multiplicación * y división /; también contiene una tecla de Intro o Enter.
La disposición de las teclas se remonta a las primeras máquinas de escribir, las cuales eran enteramente mecánicas. Al pulsar una letra en el teclado, se movía un pequeño martillo mecánico, que golpeaba el papel a través de una cinta impregnada en tinta. Al escribir con varios dedos de forma rápida, los martillos no 137
tenían tiempo de volver a su posición por la frecuencia con la que cada letra aparecía en un texto. De esta manera la pulsación era más lenta con el fin de que los martillos se atascaran con menor frecuencia. Sobre la distribución de los caracteres en el teclado surgieron dos variantes principales y secundarios: la francesa AZERTY y la alemana QWERTZ. Ambas se basaban en cambios en la disposición según las teclas más frecuentemente usadas en cada idioma. A los teclados en su versión para el idioma español además de la Ñ, se les añadieron los caracteres de acento agudo ( ´ ), grave ( ` ), la diérisis( ¨ ) y circunflejo ( ^ ), y exclusivamente en la distribución española la cedilla ( Ç ) aunque estos caracteres son de mayor uso en francés, portugués o en catalán. Cuando aparecieron las máquinas de escribir eléctricas, y después los ordenadores, con sus teclados también eléctricos, se consideró seriamente modificar la distribución de las letras en los teclados, colocando las letras más corrientes en la zona central; es el caso del Teclado Simplificado Dvorak. El nuevo teclado ya estaba diseñado y los fabricantes preparados para iniciar la fabricación. Sin embargo, el proyecto se canceló debido al temor de que los usuarios tuvieran excesivas incomodidades para habituarse al nuevo teclado, y que ello perjudicara la introducción de las computadoras personales, que por aquel entonces se encontraban en pleno auge. Existen distintas disposiciones de teclado, para que se puedan utilizar en diversos lenguajes. El tipo estándar de teclado inglés se conoce como QWERTY. Denominación de los teclados de computadora y máquinas de escribir que se utilizan habitualmente en los países occidentales, con alfabeto latino. Las siglas corresponden a las primeras letras del teclado, comenzando por la izquierda en la fila superior. El teclado en español o su variante latinoamericana son teclados QWERTYque se diferencian del inglés por presentar la letra "Ñ" en su distribución de teclas. Se han sugerido distintas alternativas a la disposición de teclado QWERTY, indicando ventajas tales como mayores velocidades de tecleado. La alternativa más famosa es el Teclado Simplificado Dvorak. RatÓN Es un dispositivo apuntador utilizado para facilitar el manejo de un entorno gráfico en una computadora en América o computador en España. Generalmente está fabricado en plástico, y se utiliza con una de las manos. Detecta su movimiento relativo en dos dimensiones por la superficie plana en la que se apoya, reflejándose habitualmente a través de un puntero o flecha en el monitor. Hoy en día es un elemento imprescindible en un equi138
po informático para la mayoría de las personas, y pese a la aparición de otras tecnologías con una función similar, como la pantalla táctil, la práctica ha demostrado que tendrá todavía muchos años de vida útil. No obstante, en el futuro podría ser posible mover el cursor o el puntero con los ojos o basarse en el reconocimiento de voz. Aunque cuando se patentó recibió el nombre de «X-Y Position Indicator for a Display System» (Indicador de posición X-Y para un sistema con pantalla), el más usado nombre de ratón (mouse en inglés) se lo dio el equipo de la Universidad de Stanford durante su desarrollo, ya que su forma y su cola(cable) recuerdan a un ratón. Fue diseñado por Douglas Engelbart y Bill English durante los años 60 en el Stanford Research Institute, un laboratorio de la Universidad de Stanford, en pleno Silicon Valley enCalifornia. Más tarde fue mejorado en los laboratorios de Palo Alto de la compañía Xerox (conocidos como Xerox PARC). Con su aparición, logró también dar el paso definitivo a la aparición de los primeros entornos o interfaces gráficas de usuario. La primera maqueta se construyó de manera artesanal de madera, y se patentó con el nombre de "X-Y Position Indicator for a Display System". A pesar de su aspecto arcaico, su funcionamiento básico sigue siendo igual hoy en día. Tenía un aspecto de adoquín, encajaba bien en la mano y disponía de dos ruedas metálicas que, al desplazarse por la superficie, movían dos ejes: uno para controlar el movimiento vertical del cursor en pantalla y el otro para el sentido horizontal, contando además con un botón rojo en su parte superior. Por primera vez se lograba un intermediario directo entre una persona y la computadora, era algo que, a diferencia del teclado, cualquiera podía aprender a manejar sin apenas conocimientos previos. En esa época además la informática todavía estaba en una etapa primitiva: ejecutar un simple cálculo necesitaba de instrucciones escritas en un lenguaje de programación. • Tipos o modelos: ✏✏ Por mecanismo ♦♦ Mecánicos Tienen una gran esfera de plástico o goma, de varias capas, en su parte inferior para mover dos ruedas que generan pulsos en respuesta al movimiento de éste sobre la superficie. Una variante es el modelo de Honeywell que utiliza dos ruedas inclinadas 90 grados entre ellas en vez de una esfera. La circuitería interna cuenta los pulsos generados por la rueda y envía la información a la computadora, que mediante software procesa e interpreta. Parte inferior de un ratón con cable y sensor óptico. ♦♦ Ópticos Es una variante que carece de la bola de goma que evita el frecuente problema de la acumulación de suciedad en el eje de transmisión, y por sus características ópticas es menos propenso a sufrir un inconveniente similar. Se considera uno de los más modernos y prácticos actualmente. Puede ofrecer un límite de 800 ppp, como cantidad de puntos distintos que puede reconocer en 2,54 centímetros (una pulgada); a menor cifra peor actuará el sensor de movimientos. Su funcionamiento se basa en un sensor óptico que fotografía la superficie sobre la que se encuentra y detectando las variaciones entre sucesivas fotografías, se determina si el ratón ha cambiado su posición. En superficies pulidas o sobre determinados materiales brillantes, el ratón óptico causa movimiento nervioso sobre la pantalla, por eso se hace necesario el uso de una alfombrilla de ratón o superficie que, para este tipo, no debe ser brillante y mejor si carece de grabados multicolores que puedan "confundir" la información luminosa devuelta. 139
♦♦
Láser
Este tipo es más sensible y preciso, haciéndolo aconsejable especialmente para los diseñadores gráficos y los jugadores de videojuegos. También detecta el movimiento deslizándose sobre una superficie horizontal, pero el haz de luz de tecnología óptica se sustituye por un láser con resoluciones a partir de 2000 ppp, lo que se traduce en un aumento significativo de la precisión y sensibilidad. ♦♦ Trackball En concepto de trackball es una idea que parte del hecho: se debe mover el puntero, no el dispositivo, por lo que se adapta para presentar una bola, de tal forma que cuando se coloque la mano encima se pueda mover mediante el dedo pulgar, sin necesidad de desplazar nada más ni toda la mano como antes. De esta manera se reduce el esfuerzo y la necesidad de espacio, además de evitarse un posible dolor de antebrazo por el movimiento de éste. A algunas personas, sin embargo, no les termina de resultar realmente cómodo. Este tipo ha sido muy útil por ejemplo en la informatización de la navegación marítima. ✏✏ Por conexión ♦♦ Por cable Es el formato más popular y más económico, sin embargo existen multitud de características añadidas que pueden elevar su precio, por ejemplo si hacen uso de tecnología láser como sensor de movimiento. Actualmente se distribuyen con dos tipos de conectores posibles, tipo USB y PS/2; antiguamente también era popular usar el puerto serie. Es el preferido por los videojugadores experimentados, ya que la velocidad de transmisión de datos por cable entre el ratón y la computadora es óptima en juegos que requieren de una gran precisión. Un modelo inalámbrico con rueda y cuatro botones, y la base receptora de la señal. ♦♦ Inalámbrico En este caso el dispositivo carece de un cable que lo comunique con la computadora, en su lugar utiliza algún tipo de tecnología inalámbrica. Para ello requiere un receptor que reciba la señal inalámbrica que produce, mediante baterías, el ratón. El receptor normalmente se conecta a la computadora a través de un puerto USB o PS/2. Según la tecnología inalámbrica usada pueden distinguirse varias posibilidades: ✳✳ Radio Frecuencia (RF): Es el tipo más común y económico de este tipo de tecnologías. Funciona enviando una señal a una frecuencia de 2.4Ghz, popular en la telefonía móvil o celular, la misma que los estándares IEEE 802.11b y IEEE 802.11g. Es popular, entre otras cosas, por sus pocos errores de desconexión o interferencias con otros equipos inalámbricos, además de disponer de un alcance suficiente: hasta unos 10 metros. ✳✳ Infrarrojo (IR): Esta tecnología utiliza una señal de onda infrarroja como medio de trasmisión de datos, popular también entre los controles o mandos remotos de televisiones, equipos de música o en telefonía celular.A diferencia de la anterior, tiene un alcance medio inferior a los 3 metros, y tanto el emisor como el receptor deben estar en una misma línea visual de contacto directo ininterrumpido para que la señal se 140
reciba correctamente. Por ello su éxito ha sido menor, llegando incluso a desaparecer del mercado. ✳ Bluetooth (BT): Bluetooth es la tecnología más reciente como transmisión inalámbrica (estándar IEEE 802.15.1), que cuenta con cierto éxito en otros dispositivos. Su alcance es de unos 10 metros o 30 pies (que corresponde a la Clase 2 del estándar Bluetooth). DISPOSItIVOS DE aLMaCENaMIENtO •
Cinta Magnética
Esta formada por una cinta de material plástico recubierta de material ferromagnético, sobre dicha cinta se registran los caracteres en formas de combinaciones de puntos, sobre pistas paralelas al eje longitudinal de la cinta. Estas cintas son soporte de tipo secuencial, esto supone un inconveniente puesto que para acceder a una información determinada se hace necesario leer todas las que le preceden, con la consiguiente perdida de tiempo. • Tambores Magnéticos Están formados por cilindros con material magnético capaz de retener información, Esta se graba y lee mediante un cabezal cuyo brazo se mueve en la dirección del eje de giro del tambor. El acceso a la información es directo y no secuencial. • Disco Duro Son en la actualidad el principal subsistema de almacenamiento de información en los sistemas informáticos. Es un dispositivo encargado de almacenar información de forma persistente en un ordenador, es considerado el sistema de almacenamiento más importante del computador y en él se guardan los archivos de los programas. • Disquette o Disco flexible Un disco flexible o también disquette (en inglés floppy disk), es un tipo de dispositivo de almacenamiento de datos formado por una pieza circular de un material magnético que permite la grabación y lectura
141
de datos, fino y flexible (de ahí su denominación) encerrado en una carcasa fina cuadrada o rectangular de plástico. Los discos, usados usualmente son los de 3 ½ o 5 ¼ pulgadas, utilizados en ordenadores personales, aunque actualmente los discos de 5 ¼ pulgadas están en desuso • CD Es un disco óptico utilizado para almacenar datos en formato digital, consistentes en cualquier tipo de información (audio, imágenes, vídeo, documentos y otros datos). Los CD estándar tienen un diámetro de 12 centímetros, un espesor de 1,2 milímetros y pueden almacenar hasta 80 minutos de audio o 700 MB de datos. Los Mini-CD tienen 8 cm y son usados para la distribución de sencillos y de controladores guardando hasta 24 minutos de audio o 214 MB de datos. Esta tecnología fue inicialmente utilizada para el CD audio, y más tarde fue expandida y adaptada para el almacenamiento de datos (CD-ROM), de video (VCD y SVCD), la grabación doméstica (CD-R y CD-RW) y el almacenamiento de datos mixtos (CD-i, Photo CD y CD EXTRA). El disco compacto goza de popularidad en el mundo actual. En el año 2007 se habían vendido 200 mil millones de CD en el mundo desde su creación. Aun así, los discos compactos se complementan con otros tipos de distribución digital y almacenamiento, como las memorias USB, las tarjetas SD, los discos duros y las unidades de estado sólido. Desde su pico en el año 2000, las ventas de CD han disminuido alrededor de un 50%El CD-R: es un disco compacto de 650 MB de capacidad que puede ser leído cuantas veces se desee, pero cuyo contenido no puede ser modificado una vez que ya ha sido grabado. Dado que no pueden ser borrados ni regrabados, son adecuados para almacenar archivos u otros conjuntos de información invariable.
✏✏ CD-RW Posee la capacidad del CD-R con la diferencia que estos discos son regrabables lo que les da una gran ventaja. Las unidades CD-RW pueden grabar información sobre discos CD-R y CD-RW y además pueden leer discos CD-ROM y CDS de audio. Las interfaces soportadas son EIDE, SCSI y USB. • DVD ✏✏ DVD-ROM Es un disco compacto con capacidad de almacenar 4.7 GB de datos en una cara del disco, un aumento de más de 7 veces con respecto a los CD-R y CD-RW. Y esto es en una sola cara. Los futuros medios de DVD-ROM serán capaces de almacenar datos en ambas caras del disco, y usar medios de doble capa para permitir a las unidades leer hasta cuatro niveles de datos almacenados en las dos caras del disco dando como resultado una capacidad 142
de almacenamiento de 17 GB. Las unidades DVD-ROM son capaces de leer los formatos de discos CD-R
y CD-RW. ✏✏ DVD-RAM Este medio tiene una capacidad de 2.6 GB en una cara del disco y 5.2 GB en un disco de doble cara, Los DVD-RAM son capaces de leer cualquier disco CD-R o CD-RW pero no es capaz de escribir sobre estos. Los DVD-RAM son regrabables pero los discos no pueden ser leídos por unidades DVD-ROM. ✏✏ Blu-ray
Blu-ray Disc, también conocido como Blu-ray o BD, es un formato de disco óptico de nueva generación desarrollado por la BDA (siglas en inglés de Blu-ray Disc Association), empleado para vídeo de alta definición y con una capacidad de almacenamiento de datos de alta densidad mayor que la del DVD. El disco Blu-ray tiene 12 cm de diámetro al igual que el CD y el DVD. Guardaba 25 GB por capa, por lo que Sony y Panasonic han desarrollado un nuevo índice de evaluación (i-MLSE) que permitiría ampliar un 33 % la cantidad de datos almacenados,4 desde 25 a 33,4 GB por capa. • Pc - Cards La norma de PCMCIA es la que define a las PC Cards. Las PC Cards pueden ser almacenamiento o tarjetas de I/O. Estas son compactas, muy fiable, y ligeras haciéndolos ideal para notebooks, palmtop, handheld y los PDAs,. Debido a su pequeño tamaño, son usadas para el almacenamiento de datos, aplicaciones, tarjetas de memoria, cámaras electrónicas y teléfonos celulares. Las PC Cards tienen el tamaño de una tarjeta del crédito, pero su espesor varía. La norma de PCMCIA define tres PC Cards diferentes: Tipo I 3.3 milímetros 143
(mm) de espesor, Tipo II son 5.0 mm espesor, y Tipo III son 10.5 mm espesor. • Flash Cards
Son tarjetas de memoria no volátil es decir conservan los datos aun cuando no estén alimentadas por una fuente eléctrica, y los datos pueden ser leídos, modificados o borrados en estas tarjetas. Con el rápido crecimiento de los dispositivos digitales como: asistentes personales digitales, cámaras digitales, teléfonos celulares y dispositivos digitales de música, las flash cards han sido adoptadas como medio de almacenamiento de estos dispositivos haciendo que estas bajen su precio y aumenten su capacidad de almacenamiento muy rápidamente. • Pen Drive o Memory Flash: Es un pequeño dispositivo de almacenamiento que utiliza la memoria flash para guardar la información sin necesidad de pilas. Los Pen Drive son resistentes a los rasguños y al polvo que han afectado a las formas previas de almacenamiento portable, como los CD y los disquetes. Los sistemas operativos más modernos pueden leer y escribir en ello sin necesidad de controladores especiales. • Unidades de Zip:
144
La unidad Iomega ZIP es una unidad de disco extraíble. Está disponible en tres versiones principales, la hay con interfaz SCSI, IDE, y otra que se conecta a un puerto paralelo. Este documento describe cómo usar el ZIP con Linux. Se debería leer en conjunción con el HOWTO SCSI a menos que posea la versión IDE. ALMACENAMIENTO PROFESIONAL: RAID En informática, el acrónimo RAID (del inglés Redundant Array of Independent Disks, originalmente Redundant Array Inexpensive Disks), traducido como «conjunto redundante de discos independientes», hace referencia a un sistema de almacenamiento de datos que usa múltiples unidades de almacenamiento de datos (discos duros o SSD) entre los que se distribuyen o replican los datos. Dependiendo de su configuración (a la que suele llamarse «nivel»), los beneficios de un RAID respecto a un único disco son uno o varios de los siguientes: mayor integridad, mayor tolerancia a fallos, mayor throughput (rendimiento) y mayor capacidad. En sus implementaciones originales, su ventaja clave era la habilidad de combinar varios dispositivos de bajo coste y tecnología más antigua en un conjunto que ofrecía mayor capacidad, fiabilidad, velocidad o una combinación de éstas que un solo dispositivo de última generación y coste más alto. En el nivel más simple, un RAID combina varios discos duros en una sola unidad lógica. Así, en lugar de ver varios discos duros diferentes, el sistema operativo ve uno solo. Los RAIDs suelen usarse en servidores y normalmente (aunque no es necesario) se implementan con unidades de disco de la misma capacidad. Debido al decremento en el precio de los discos duros y la mayor disponibilidad de las opciones RAID incluidas en los chipsets de las placas base, los RAIDs se encuentran también como opción en las computadoras personales más avanzadas. Esto es especialmente frecuente en las computadoras dedicadas a tareas intensivas y que requiera asegurar la integridad de los datos en caso de fallo del sistema. Esta característica no está obviamente disponible en los sistemas RAID por software, que suelen presentar por tanto el problema de reconstruir el conjunto de discos cuando el sistema es reiniciado tras un fallo para asegurar la integridad de los datos. Por el contrario, los sistemas basados en software son mucho más flexibles (permitiendo, por ejemplo, construir RAID de particiones en lugar de discos completos y agrupar en un mismo RAID discos conectados en varias controladoras) y los basados en hardware añaden un punto de fallo más al sistema (la controladora RAID).
Todas las implementaciones pueden soportar el uso de uno o más discos de reserva (hot spare), unidades preinstaladas que pueden usarse inmediatamente (y casi siempre automáticamente) tras el fallo de un disco del RAID. Esto reduce el tiempo del período de reparación al acortar el tiempo de reconstrucción del RAID. OTROS PERIFÉRICOS 145
• Escáner Un escáner de computadora (escáner proviene del idioma inglés scanner) es un periférico que se utiliza para convertir, mediante el uso de la luz, imágenes impresas o documentos a formato digital. El escáner nace en 1984 cuando Microtek crea el MS-200, el primer escáner blanco y negro que tenia una resolución de 200dpi. Este escáner fue desarrollado para Apple Macintosh. Los escáneres pueden tener accesorios como un alimentador de hojas automático o un adaptador para diapositivas y transparencias. Al obtenerse una imagen digital se puede corregir defectos, recortar un área específica de la imagen o también digitalizar texto mediante técnicas de OCR. Estas funciones las puede llevar a cabo el mismo dispositivo o aplicaciones especiales. Hoy en día es común incluir en el mismo aparato la impresora y el escáner. Son las llamadas impresoras multifunción. También están surgiendo el usar como escáner la cámara de los smartphones, con programas como CamScanner1 . A los datos que obtienen los escáneres (normalmente imágenes RGB) se les aplica cierto algoritmo y se envían a la computadora mediante una interfaz de entrada/salida (normalmente SCSI, USB o LPT en máquinas anteriores al estándar USB). La profundidad del color depende de las características del vector de escaneado (la primera de las características básicas que definen la calidad del escáner) que lo normal es que sea de al menos 24 bits. Imágenes con más profundidad de color (más de 24 bits) tienen utilidad durante el procesamiento de la imagen digital, reduciendo la posterización. Otro de los parámetros más relevantes de la calidad de un escáner es la resolución, medida en píxeles por pulgada (ppp). Los fabricantes de escáneres en vez de referirse a la resolución óptica real del escáner, prefieren hacer referencia a la resolución interpolada, que es mucho mayor gracias a la interpolación software. Por hacer una comparación entre tipos de escáneres mejores llegaban hasta los 5400 ppp. Un escáner de tambor tenía una resolución de 8000 a 14000 ppp. El tercer parámetro más importante para dotar de calidad a un escáner es el rango de densidad. Si el escáner tiene un alto rango de densidad, significa que es capaz de reproducir sombras y brillos con una sola pasada. Son dispositivos encargados de incorporar la realidad de las dos dimensiones, digitalizándola, a un ordenador. El tamaño del fichero donde se guarda una imagen escaneada puede ser muy grande: una imagen con calidad de 24 bits un poco mayor que un A4 y descomprimida puede ocupar unos 100 megabytes. Los escáneres de hoy en día generan esta cantidad en unos pocos segundos, lo que quiere decir que se desearía poseer una conexión lo más rápida posible. Antes los escáneres usaban conexiones paralelas que no podían ir más rápido de los 70 kilobytes/ segundo, SCSI-II se adoptó para los modelos profesionales y aunque era algo más rápido (unos cuantos megabytes por segundo) era bastante más caro. Al escanear se obtiene como resultado una imagen RGB no comprimida que puede transferirse a la computadora. Algunos escáneres comprimen y limpian la imagen usando algún tipo de firmware embebido. Una vez se tiene la imagen en la computadora, se puede procesar con algún programa de tratamiento de imágenes como Photoshop, Paint Shop Pro o GIMP y se puede guardar en cualquier unidad de almacenamiento como el disco duro. Normalmente las imágenes escaneadas se guardan con formato JPEG, TIFF, mapa de bits o PNG dependiendo del uso que se le quiera dar a dicha imagen más tarde. Cabe mencionar que algunos escáneres se utilizan para capturar texto editable (no sólo imágenes como se había visto hasta ahora), siempre y cuando la computadora pueda leer este texto. A este proceso se le llama OCR (Optical Character Recognition).El escaneado de documentos es distinto al de imágenes, aunque use algunas técnicas de éste último. Aunque el escaneado de documentos puede hacerse en escáneres de uso general, la mayoría de la veces se realiza en escáneres especiales dedicados a éste propósito, fabricados por Canon, Fujitsu o Kodak entre otros. Los escáneres de documentos tienen bandejas de alimentación mayores a las de fotocopiadoras o escáneres normales. 146
Normalmente escanean a resolución inferior que los escáneres normales, de 150 ppp a 300 ppp, así evita ficheros de tamaño excesivo. El escaneado se hace en escala de grises, aunque cabe la posibilidad de hacerlo en color. La mayoría son capaces de digitalizar a doble cara a velocidad máxima (de 20 a 150 páginas por minuto). Los más sofisticados llevan incorporado algún firmware que “limpia” el escaneo eliminando marcas accidentales. Normalmente se comprimen los datos escaneados al vuelo. Los tipos principales de escáneres son los de tambor, plano (que a su vez puede ser Escáner CCD o CIS), de película o diapositiva, de mano y de cámara de teléfono móvil. • Escáner de mano Los escáneres de mano vienen en dos formas: de documentos y escáneres 3D. Los escáneres de mano de documentos son dispositivos manuales que son arrastrados por la superficie de la imagen que se va a escanear. Escanear documentos de esta manera requiere una mano firme, de forma que una velocidad de exploración desigual podría producir imágenes distorsionadas - un poco de luz sobre el escáner indicaría que el movimiento es demasiado rápido.Tienen generalmente un botón "inicio", que se pulsa por el usuario durante la duración de la exploración; algunos interruptores para ajustar la resolución óptica, y un rodillo, lo que genera un pulso de reloj para la sincronización con el ordenador. La mayoría de los escáneres tienen una pequeña ventana a través de la se que podría ver el documento que se escanea visto. Asimismo, llevan puerto USB, suelen guardar directamente el resultado en formato JPEG, en una tarjeta tarjeta microSD que suele ser como mínimo de hasta 32 Gb. • Escáner plano Los escáneres de cama plana son los más comunes, y se utilizan para copiar documentos, hojas sueltas, fotografías de diferentes tamaños, hasta un máximo de tamaño (generalmente una hoja de tamaño Letter, Legal u Oficio). Presenta varias mejoras con respecto a los escáneres de mano, como por ejemplo un aumento significativo de la calidad de escaneo (resolución óptica) y velocidad. • Escáner rotativo (o de tambor) Muy utilizados en estudios de diseño gráfico o artístico, debido principalmente a su gran resolución óptica, son de gran tamaño y permiten escaneos por modelos de color CYMK o RGB. Dan una resolución de hasta 4000 ppp, pueden reconocer originales opacos o transparentes y utilizan un cilindro de cristal donde se coloca el original. Un sistema de transmisión fotomecánico recorre la imagen punto por punto, obteniendo así una gran resolución. Produce y devuelve una imagen con colores primarios, pero ésta puede ser convertida en CMYK, mientras el lector recorre la imagen. Los originales (opacos y transparentes) se colocan en la superficie del tambor de exploración, si se trata de diapositivas, se puede añadir en la cara de contacto del original y el tambor un aceite, denominado anti - anillos de Newton; es muy importante realizar una limpieza a fondo del cilindro de exploración. Definimos anillos de Newton ,como el efecto óptico consistente en la formación de anillos concéntricos de diferentes colores, que aparece al superponer dos materiales plásticos. Aparecen en función de la humedad o temperatura ambiente, así como del tipo y calidad de los materiales. • Tarjetas gráficas Permite al usuario introducir gráficos o dibujos a mano, tal como lo haría con lápiz y papel. También permite apuntar y señalar los objetos que se encuentran en la pantalla. Consiste en una superficie plana sobre la que el usuario puede dibujar una imagen utilizando el lapicero que viene junto a la tablet. La imagen no aparece en la tableta sino que se muestra en la pantalla del ordenador. Algunas tabletas digitalizadoras están diseñadas para ser utilizadas reemplazando al ratón como el dispositivo apuntador principal. El primer dispositivo de escritura electrónica fue el Teleautografo, patentado por Elisha Gray en 1888. La primera tableta gráfica parecida a la tableta contemporánea y usada para el reconocimiento de escritura a mano por un ordenador fue la Stylator en 1957. Más conocida (y a veces confundida como la primera tableta digitalizadora) fue la tableta RAND, también conocida como la Grafacon (por Graphic Converter), 147
introducida en 1964. La tableta RAND tenía una cuadrícula de cables por debajo del pad que codificaban coordenadas horizontales y verticales en una pequeña señal magnética. El stylus recibiría la señal magnética, la cual entonces podría ser descodificada como información de las coordenadas. La tableta acústica o tableta de bujias, usaba un stylus que generaba clicks con una bujía. Los clicks eran triangulados por una serie de micrófonos para localizar el lápiz en el espacio. Este sistema era bastante complejo y caro, y los sensores eran susceptibles a las interferencias por sonidos externos. La primera tableta gráfica de uso en el hogar fue la KoalaPad. Aunque originalmente diseñada para el Apple II, la Koala eventualmente amplió su aplicabilidad a prácticamente todas las computadoras domesticas con soporte de gráficos, ejemplos los cuales incluyen el TRS-80 Color Computer, Commodore 64 y la familia Atari-8 bit. Eventualmente, tabletas fueron creadas por otras compañías para formar parte de la competencia; las tabletas producidas por Atari eran generalmente consideradas de alta calidad. ✏✏ Tabletas pasivas Las tabletas pasivas, fabricadas por Wacom, hacen uso de inducción electromagnética, donde la malla de alambres horizontal y vertical de la tableta operan tanto transmitiendo la señal como recibiéndola. Este cambio se efectúa aproximadamente cada 20 microsegundos. La tableta digitalizadora genera una señal electromagnética, que es recibida por el circuito resonante que se encuentra en el lápiz. Cuando la tableta cambia a modo de recepción, lee la señal generada por el lapicero; esta información, además de las coordenadas en que se encuentra puede incluir información sobre la presión, botones en el lápiz o el ángulo en algunas tabletas. (El lapicero incluye un circuito en su interior que proporciona esta información). Usando la señal electromagnética, la tableta puede localizar la posición del estilete sin que éste llegue a tocar la superficie. El lapicero no se alimenta con pilas sino que la energía se la suministra la rejilla de la tableta por el acoplamiento de la resonancia. Esta tecnología está patentada por la empresa Wacom, que no permite que los competidores la utilicen. ✏✏ Tabletas activas Las tabletas activas se diferencian de las anteriores en que el estilete contiene una batería o pila en su interior que genera y transmite la señal a la tableta. Por lo tanto son más grandes y pesan más que los anteriores. Por otra parte, eliminando la necesidad de alimentar al lápiz, la tableta puede escuchar la señal del lápiz constantemente, sin tener que alternar entre modo de recepción y transmisión constantemente, lo que conlleva un menor jitter. Para las dos tecnologías, la tableta puede usar la señal recibida para determinar la distancia del estilete a la superficie de la tableta, el ángulo desde la vertical en que está posicionado el estilete y otra información (Por ejemplo: botones laterales del lápiz, borrador…) Comparándolo con las pantallas táctiles, una tableta digitalizadora ofrece mayor precisión, la habilidad para seguir un objeto que no está tocando físicamente la superficie de la tableta y además puede obtener más información sobre el lapicero (ángulo, presión…). Las tabletas digitalizadoras por el contrario son más caras y únicamente se pueden usar con el estilete u otros accesorios que funcionan con un modelo concreto de la tableta digitalizadora. Algunas tabletas, especialmente las más baratas o las que están diseñadas para niños, tienen conectado físicamente mediante un cable el estilete a la tableta, usando tecnología similar a las antiguas tabletas RAND, aunque este diseño no se usa en las tabletas normales. Las tabletas digitalizadoras incorporan el estilete necesario para interactuar con la tableta, aunque pueden usarse accesorios adicionales, como ratones, aerógrafos,… Los distintos accesorios transmiten a la tableta un número de serie único, permitiendo al software identificar si el usuario tiene varios dispositivos de entrada en la tableta y asignarles distintas propiedades a ellos (tipo de pincel, color, borrador,…) a cada uno. • Memoria USB Una memoria USB (de Universal Serial Bus) es un dispositivo de almacenamiento que utiliza una me148
moria flash para guardar información. Se le conoce también, entre otros nombres, como lápiz de memoria, memoria externa o lápiz USB, siendo así innecesario la voz inglesa pen drive o pendrive. Los primeros modelos requerían una batería, pero los actuales usan la energía eléctrica procedente del puerto USB. Estas memorias son resistentes a los rasguños (externos), al polvo, y algunos hasta al agua, factores que afectaban a las formas previas de almacenamiento portátil, como los disquetes, discos compactos y los DVD. Su gran éxito y difusión les han supuesto diversas denominaciones populares relacionadas con su pequeño tamaño y las diversas formas de presentación, sin que ninguna haya podido destacar entre todas ellas. El calificativo USB o el propio contexto permite identificar fácilmente el dispositivo informático al que se refiere; aunque siendo un poco estrictos en cuanto al concepto, USB únicamente se refiere al puerto de conexión. Estas memorias se han convertido en el sistema de almacenamiento y transporte personal de datos más utilizado, desplazando en este uso a los tradicionales disquetes y a los CD. Se pueden encontrar en el mercado fácilmente memorias de 1, 2, 4, 8, 16, 32, 64, 128, 256, 512 GB, y hasta 1 TB.2 Las memorias con capacidades más altas pueden aún estar, por su precio, fuera del rango del "consumidor doméstico". Esto supone, como mínimo, el equivalente a 180 CD de 700 MB o 91 000 disquetes de 1440 KiB aproximadamente. Las empresas Trek Technology e IBM comenzaron a vender las primeras unidades de memoria USB en el año 2000. Trek vendió un modelo bajo el nombre comercial de Thumbdrive e IBM vendió las primeras unidades en Norteamérica bajo la marca DiskOnKey, desarrolladas y fabricadas por la empresa israelí MSystems en capacidades de 8 MiB, 16 MiB, 32 MiB y 64 MiB. Estos fueron promocionados como los «verdaderos reemplazos del disquete», y su diseño continuó hasta los 256 MiB. Los modelos anteriores de este dispositivo utilizaban baterías, en vez de la alimentación de la PC. Dentro de esta generación de dispositivos existe conectividad con la norma USB 2.0. Sin embargo, no usan en su totalidad el ancho de banda de 480 Mbit/s que soporta la especificación USB 2.0 Hi-Speed debido a las limitaciones técnicas de las memorias flash basadas en NAND. Los dispositivos más rápidos de esta generación usan un controlador de doble canal, aunque todavía están muy lejos de la tasa de transferencia posible de un disco duro de la actual generación, o el máximo rendimiento de alta velocidad USB. Las velocidades de transferencia de archivos varían considerablemente. Se afirma que las unidades rápidas típicas leen a velocidades de hasta 480 Mbit/s y escribir a cerca de la mitad de esa velocidad. Esto es aproximadamente 20 veces más rápido que en los dispositivos USB 1.1, que poseen una velocidad máxima de 24 Mbit/s. La norma USB 3.0 ofrece tasas de transferencia de datos mejoradas enormemente en comparación con su predecesor, además de compatibilidad con los puertos USB 2.0. La norma USB 3.0 fue anunciada a finales de 2008, pero los dispositivos de consumo no estuvieron disponibles hasta principios de 2010. La interfaz USB 3.0 especifica las tasas de transferencia de hasta 4,8 Gbit/s, en comparación con los 480 Mbit/s de USB 2.0. A pesar de que la interfaz USB 3.0 permite velocidades de datos muy altas de transferencia, a partir de 2011 la mayoría de las unidades USB 3.0 Flash no utilizan toda la velocidad de la interfaz USB 3.0 debido a las limitaciones de sus controladores de memoria, aunque algunos controladores de canal de memoria llegan al mercado para resolver este problema. Algunas de estas memorias almacenan hasta 256 GiB de memoria (lo cual es 1024 veces mayor al diseño inicial de M-Systems).También hay dispositivos, que aparte de su función habitual, poseen una Memoria USB como aditamento incluido, como algunos ratones ópticos inalámbricos o Memorias USB con aditamento para reconocer otros tipos de memorias (microSD, m2, etc.). 149
En agosto de 2010, Imation anuncia el lanzamiento al mercado de la nueva línea de USB de seguridad Flash Drive Defender F200, con capacidades de 1 GiB, 2 GiB, 4 GiB, 8 GiB, 16 GiB y 32 GiB. Estas unidades de almacenamiento cuentan con un sensor biométrico ergonómico basado en un hardware que valida las coincidencias de las huellas dactilares de identificación, antes de permitir el acceso a la información. • Lector Código Barras Escáner que por medio de un láser lee un código de barras y emite el número que muestra el código de barras, no la imagen. Hay escáners de mano y fijos, como los que se utilizan en las cajas de los supermercados. Tiene varios medios de conexión: los más modernos por orden de aparición USB, bluetooth, wifi, los más viejos puerto serie, incluso directamente al puerto PS2 del teclado por medio de un adaptador, cuando se pasa un código de barras por el escáner es como si se hubiese escrito en el teclado el número del código de barras. Un escáner para lectura de códigos de barras básico consiste en el escáner propiamente dicho, un decodificador y un cable o antena wifi que actúa como interfaz entre el decodificador y el terminal. La función del escáner es leer el símbolo del código de barras y proporcionar una salida eléctrica a la computadora, correspondiente a las barras y espacios del código de barras. Sin embargo, es el decodificador el que reconoce la simbología del código de barras, analiza el contenido del código de barras leído y transmite dichos datos a la computadora en un formato de datos tradicional. Un escáner puede tener el decodificador incorporado en el mango o puede tratarse de un escáner sin decodificador que requiere una caja separada, llamada interfaz o emulador. Los escáneres sin decodificador también se utilizan cuando se establecen conexiones con escáneres portátiles tipo “batch” (por lotes) y el proceso de decodificación se realiza mediante el Terminal propiamente dicho. Fue creado en el 2005 Los códigos de barras se leen pasando un pequeño punto de luz sobre el símbolo del código de barras impreso. Solo se ve una fina línea roja emitida desde el escáner láser. Pero lo que pasa es que las barras oscuras absorben la fuente de luz del escáner y la misma se refleja en los espacios luminosos. Un dispositivo del escáner toma la luz reflejada y la convierte en una señal eléctrica. El láser del escáner (fuente de luz) comienza a leer el código de barras en un espacio blanco (la zona fija) antes de la primera barra y continúa pasando hasta la última línea, para finalizar en el espacio blanco que sigue a ésta. Debido a que el código no se puede leer si se pasa el escáner fuera de la zona del símbolo, las alturas de las barras se eligen de manera tal de permitir que la zona de lectura se mantenga dentro del área del código de barras. Mientras más larga sea la información a codificar, más largo será el código de barras necesario. A medida que la longitud se incrementa, también lo hace la altura de las barras y los espacios a leer. • Tarjetas de memoria y lector Una tarjeta de memoria o tarjeta de memoria flash es un dispositivo de almacenamiento que conserva la información que le ha sido almacenada de forma correcta aun con la pérdida de energía; es decir, es una memoria no volátil. Una tarjeta de memoria es un chip de memoria que mantiene su contenido sin energía. El término Memoria Flash fue acuñado por Toshiba, por su capacidad para borrarse “en un flash” (instante). Derivados de EEPROM, se borran en bloques fijos, en lugar de bytes solos. Los tamaños de los bloques por lo general van de 512 bytes hasta 256 KB. Los chips flash son menos costosos y proporcionan 150
mayores densidades de bits. Además, el flash se está convirtiendo en una alternativa para los EPROM porque pueden actualizarse fácilmente. La PC Card (PCMCIA) se encontraba entre los primeros formatos comerciales de tarjetas de memoria (tarjetas de tipo I) que salen en la década de 1990, pero ahora se utiliza principalmente en aplicaciones industriales y para conectar dispositivos de entrada-salida tales como un módem. También en los años 1990, una serie de formatos de tarjetas de memoria más pequeña que la PC Card salieron, incluyendo CompactFlash,SmartMedia, Secure Digital, MiniSD, MicroSD y similares. El deseo de pequeñas tarjetas en teléfonos móviles, PDAs y cámaras digitales compactas produjo una tendencia que dejó la anterior generación de tarjetas demasiado grandes. En las cámaras digitales SmartMedia yCompactFlash habían tenido mucho éxito; en 2001 SM había capturado el 50% del mercado de cámaras digitales y CF tenía un dominio absoluto sobre las cámaras digitales profesionales. En 2005, sin embargo, Secure Digital/Multi Media Card habían ocupado el puesto de SmartMedia, aunque no al mismo nivel y con una fuerte competencia procedente de las variantes de Memory Stick, xD-Picture Card, y CompactFlash. En el campo industrial, incluso las venerables tarjetas de memoria PC card (PCMCIA) todavía mantienen un nicho de mercado, mientras que en los teléfonos móviles y PDA, el mercado de la tarjeta de memoria estaba muy fragmentado hasta el año 2010 cuando microSD pasa a dominar el mercado de teléfonos inteligentes y tabletas. Desde 2010 los nuevos productos de Sony (antes sólo usaba Memory Stick) y Olympus (antes sólo usaba XD-Card) se ofrecen con una ranura adicional Secure Digital.1 En efecto, la guerra de formatos se ha decidido en favor de SD. • Impresoras Es un dispositivo periférico del ordenador que permite producir una gama permanente de textos o gráficos de documentos almacenados en un formato electrónico, imprimiéndolos en medios físicos, normalmente en papel, utilizando cartuchos de tinta o tecnologíaláser. Muchas impresoras son usadas como periféricos, y están permanentemente unidas al ordenador por un cable. Otras impresoras, llamadas impresoras de red, tienen una interfaz de red interno (típicamente wireless o ethernet), y que puede servir como un dispositivo para imprimir en papel algún documento para cualquier usuario de la red. Además, muchas impresoras modernas permiten la conexión directa de aparatos de multimedia electrónicos como las tarjetas CompactFlash, Secure Digital o Memory Stick, pendrives, o aparatos de captura de imagen como cámaras digitales y escáneres. También existen aparatos multifunción que constan de impresora, escáner o máquinas de fax en un solo aparato. Una impresora combinada con un escáner puede funcionar básicamente como una fotocopiadora. Las impresoras suelen diseñarse para realizar trabajos repetitivos de poco volumen, que no requieran virtualmente un tiempo de configuración para conseguir una copia de un determinado documento. Sin embargo, las impresoras son generalmente dispositivos lentos (10 páginas por minuto es considerado rápido), y los gastos por página es relativamente alto. Para trabajos de mayor volumen existen las imprentas, que son máquinas que realizan la misma función que las impresoras pero están diseñadas y optimizadas para realizar trabajos de impresión de gran volumen 151
como sería la impresión de periódicos. Las imprentas son capaces de imprimir cientos de páginas por minuto o más. La elección del motor de impresión tiene un efecto substancial en los trabajos a los que una impresora está destinada. Hay diferentes tecnologías que tienen diferentes niveles de calidad de imagen, velocidad de impresión, coste, ruido y además, algunas tecnologías son inapropiadas para ciertos tipos de medios físicos (como papel carbón o transparencias). Otro aspecto de la tecnología de impresión que es frecuentemente olvidado es la resistencia a la alteración: tinta líquida como de una cabeza de inyección de tinta son absorbidos por las fibras del papel, y por eso los documentos impresos con tinta líquida son más difíciles de alterar que los que están impresos por tóner o tinta sólida, que no penetran por debajo de la superficie del papel. SISTEMAS OPERATIVOS • Microsoft Windows Es el nombre de una familia de sistemas operativos desarrollados y vendidos por Microsoft. Microsoft introdujo un entorno operativo denominado Windows el 25 de noviembre de 1985 como un complemento para MS-DOS en respuesta al creciente interés en las interfaces gráficas de usuario (GUI). Microsoft Windows llegó a dominar el mercado mundial de computadoras personales, con más del 90% de la cuota de mercado, superando a Mac OS, que había sido introducido en 1984. Las versiones más recientes de Windows son Windows 8 para equipos de escritorio, Windows Server 2012 para servidores y Windows Phone 8 para dispositivos móviles. La primera versión en español fue Windows 3.0. Windows es un sistema operativo basado en ventanas. La primera versión se lanzó en 1985 y comenzó a utilizarse de forma generalizada gracias a su interfaz gráfica de usuario (GUI, Graphical User Interface). Hasta ese momento, el sistema operativo más extendido era MS-DOS (Microsoft Disk Operating System), y la interfaz consistía en una línea de comandos. La primera versión de Microsoft Windows, versión 1.0, lanzada en noviembre de 1985, compitió con el sistema operativo de Apple. Carecía de un cierto grado de funcionalidad y logró muy poca popularidad. Windows 1.0 no era un sistema operativo completo; más bien era una extensión gráfica de MS-DOS. Windows versión 2.0 fue lanzado en noviembre de 1987 y fue un poco más popular que su predecesor. Windows 2.03 (lanzado en enero de 1988) incluyó por primera vez ventanas que podían solaparse unas a otras. El resultado de este cambio llevó a Apple a presentar una demanda contra Microsoft, debido a que infringían derechos de autor. Windows versión 3.0, lanzado en 1990, fue la primera versión de Microsoft Windows que consiguió un amplio éxito comercial, vendiendo 2 millones de copias en los primeros seis meses. Presentaba mejoras en la interfaz de usuario y en la multitarea. Recibió un lavado de cara en Windows 3.1, que se hizo disponible para el público en general el 1 de marzo de 1992. El soporte de Windows 3.1 terminó el 31 de diciembre de 2001. 152
En julio de 1993, Microsoft lanzó Windows NT basado en un nuevo kernel. NT era considerado como el sistema operativo profesional y fue la primera versión de Windows en utilizar la Multitarea apropiativa. Windows NT más tarde sería reestructurado para funcionar también como un sistema operativo para el hogar, con Windows XP. El 24 de agosto de 1995, Microsoft lanzó Windows 95, una versión nueva para los consumidores, y grandes fueron los cambios que se realizaron a la interfaz de usuario, y también se utiliza multitarea apropiativa. Windows 95 fue diseñado para sustituir no solo a Windows 3.1, sino también de Windows para Workgroups y MS-DOS. También fue el primer sistema operativo Windows para utilizar las capacidades Plug and Play. Los cambios que trajo Windows 95 eran revolucionarios, a diferencia de los siguientes, como
Windows 98 y Windows Me. El soporte estándar para Windows 95 finalizó el 31 de diciembre de 2000 y el soporte ampliado para Windows 95 finalizó el 31 de diciembre de 2001. El siguiente en la línea de consumidor fue lanzado el 25 de junio de 1998, Microsoft Windows 98. Sustancialmente fue criticado por su lentitud y por su falta de fiabilidad en comparación con Windows 95, pero muchos de sus problemas básicos fueron posteriormente rectificados con el lanzamiento de Windows 98 Second Edition en 1999. El soporte estándar para Windows 98 terminó el 30 de junio de 2002, y el soporte ampliado para Windows 98 terminó el 11 de julio de 2006. Como parte de su línea «profesional», Microsoft lanzó Windows 2000 en febrero de 2000. La versión de consumidor tras Windows 98 fue Windows Me (Windows Millennium Edition). Lanzado en septiembre de 2000, Windows Me implementaba una serie de nuevas tecnologías para Microsoft: en particular fue el «Universal Plug and Play». Durante el 2004 parte del código fuente de Windows 2000 se filtró en internet, esto era malo para Microsoft porque el mismo núcleo utilizado en Windows 2000 se utilizó en Windows XP. En octubre de 2001, Microsoft lanzó Windows XP, una versión que se construyó en el kernel de Windows NT que también conserva la usabilidad orientada al consumidor de Windows 95 y sus sucesores. En dos ediciones distintas, «Home» y «Professional», el primero carece por mucho de la seguridad y características de red de la edición Professional. Además, la primera edición «Media Center» fue lanzada en 2002, con énfasis en el apoyo a la funcionalidad de DVD y TV, incluyendo grabación de TV y un control remoto. El soporte estándar para Windows XP terminó el 14 de abril de 2009. El soporte extendido continuará hasta el 8 de abril de 2014. El 30 de enero de 2007, Microsoft lanzó Windows Vista. Contiene una serie de características nuevas, desde un shell rediseñado y la interfaz de usuario da importantes cambios técnicos, con especial atención 153
a las características de seguridad. Está disponible en varias ediciones diferentes y ha sido objeto de muy severas críticas debido a su patente inestabilidad, sobredemanda de recursos de hardware, alto costo, y muy alta incompatibilidad con sus predecesores, hecho que no ocurría con éstos.
El 22 de octubre de 2009, Microsoft lanzó Windows 7. A diferencia de su predecesor, Windows Vista, que introdujo a un gran número de nuevas características, Windows 7 pretendía ser una actualización incremental, enfocada a la línea de Windows, con el objetivo de ser compatible con aplicaciones y hardware que Windows Vista no era compatible. Windows 7 tiene soporte multi-touch, un Windows shell rediseñado con una nueva barra de tareas, conocido como Superbar, un sistema red llamado HomeGroup, y mejoras en el rendimiento sobre todo en velocidad y en menor consumo de recursos. El 26 de octubre de 2012, Microsoft lanzó Windows 8. Por primera vez desde Windows 95, el botón Inicio ya no está disponible en la barra de tareas, aunque la pantalla de inicio está aún activa haciendo clic en la esquina inferior izquierda de la pantalla y presionando la tecla Inicio en el teclado. Presenta un Explorador de Windows rediseñado, con la famosa interfaz ribbon de Microsoft Office. Según Microsoft han vendido 60 millones de licencias, aunque ha recibido muchas críticas por parte de los usuarios. Se conservan la gran mayoría de las características de su predecesor, Windows 7, con excepción de la nueva interfaz gráfica y algunos cambios menores. Son aplicaciones que trae preinstaladas el sistema operativo Windows. ✏✏ Internet Explorer es un navegador web de Internet producido por Microsoft para su plataforma Windows. Fue creado en 1995 tras la adquisición por parte de Microsoft del código fuente de Mosaic, un navegador desarrollado por Spyglass, siendo rebautizado entonces como Internet Explorer. Las primeras versiones, basadas en Mosaic, no supusieron ninguna amenaza para el entonces dominante Netscape Navigator, ya que eran bastante simples y no eran compatibles con algunas de las extensiones más populares de Netscape que dominaban la web de la época (como los marcos o JavaScript). Es el navegador de Internet con mayor cuota de mercado, ya que se incluye integrado por defecto con Windows, hecho que le ha costado a Microsoft demandas por monopolio en Europa. ✏✏ Windows Anytime Upgrade es el método de actualizar Windows incluida en Windows vista y actualmente en Windows 7 y Windows 8, el usuario introduce un código en la aplicación el cual en 10 minutos actualizara a una versión más avanzada de Windows, el pack de actualización se compra a través de Microsoft Store o con el fabricante OEM. 154
•
✏ Windows Media Center es una aplicación con una interfaz de usuario, diseñado para servir como equipo personal de cine en casa. Está incluido en Windows XP Media Center Edition como parte de dicha versión especial del sistema operativo, ya que la aplicación no puede ser añadida a una instalación existente de XP. También se incluye en las ediciones superiores de Windows Vista (Vista Home Premium y Vista Ultimate), Windows 7 (todas las ediciones exceptuando Starter y Home Basic) y en Windows 8 Pro. ✏ WordPad es un procesador de textos básico que se incluye con casi todas las versiones de Microsoft Windows desde Windows 95 hacia arriba. Es más avanzado que el Bloc de notas pero más sencillo que el procesador de textos de Microsoft Works y Microsoft Word. ✏ Windows Media Player es un reproductor multimedia que permite reproducir música y vídeo de formatos compatibles (.mp3, .mp4, .waw, wmv, etc...). La última versión de este reproductor ha sido la versión 12. Windows Media Player está incluído en todas las versiones de Windows, incluyendo Windows XP, Windows Vista, 7 y 8.x. ✏ Paint es un programa simple de dibujo gráfico desarrollado por Microsoft. Su antecesor fue el PaintBrush, incluído desde Windows 1.0 hasta Windows 3.1. Desde entonces, Paint ha acompañado al sistema operativo Microsoft Windows desde Windows 95. Apple
Apple Inc. es una empresa multinacional estadounidense con sede en Cupertino, California, y una pequeña sede en Dublín, Irlanda que diseña y produce equipos electrónicos y software. Entre los productos de hardware más conocidos de la empresa se cuenta con equipos Macintosh, el iPod, el iPhone y el iPad. Entre el software de Apple se encuentran el sistema operativo Mac OS X, el sistema operativo iOS, el explorador de contenido multimedia iTunes, la suite iLife (software de creatividad y multimedia), la suite iWork (software de productividad), Final Cut Studio (una suite de edición de vídeo profesional),Logic Studio (software para edición de audio en pistas de audio), Xsan (software para el intercambio de datos entre servidores),Aperture (software para editar imágenes RAW), y el navegador web Safari. La empresa opera más de 370 tiendas propias en nueve países miles de distribuidores (destacándose los distribuidores premium o Apple Premium Resellers) y una tienda en línea (disponible en varios países) donde se venden sus productos y se presta asistencia técnica. Las acciones en conjunto de Apple Inc. valen USD 574.637 millones, siendo así la más grande del mundo. Steve Jobs y Steve Wozniak se conocieron en 1971, cuando un amigo mutuo, Bill Fernández, presentó a Wozniak, quien tenía 21 años de edad, a Jobs, entonces de 15 años. Steve Wozniak, a quien le gustaba que le llamaran Woz, siempre había sentido una gran atracción por la electrónica en general, diseñando desde que era pequeño circuitos en papel para después tratar de optimizarlos al máximo. Dada su afición por la electrónica, Woz "apadrinaba" a otros chicos a los que les gustase el tema, como Bill Fernández o el mismo Steve Jobs. Pronto Wozniak empezó a dedicar cada vez más y más tiempo a construir en papel su propia computadora. Tras intentos relativamente infructuosos, finalmente sus esfuerzos dieron como resultado lo que sería la Apple I. Tras la presentación de su computadora en el club informático 155
Homebrew Computer Club y asombrar a sus participantes, Jobs rápidamente vio la oportunidad de negocio, por lo que empezó a promover la computadora entre otros aficionados de la informática delHomebrew Computer Club y otras tiendas de electrónica digital. Al poco tiempo empezaron a recibir pequeños encargos de computadoras que construían ellos mismos con máquinas hechas a mano, llegando a vender unos 200 ejemplares de su máquina Apple I. Se les unieron más amigos, pero las prestaciones del Apple I eran limitadas, así que empezaron a buscar financiación. Finalmente, Jobs conoció a Mike Markkula, que accedió a invertir 250.000$ USD, creándose así el 1 de abril de 1976,Apple Computer, a través de uncontrato firmado, el mismo, se subastó el 13 de diciembre de 2011 en Nueva York, que tuvo como base un valor inicial de entre 100 y 150 mil dólares, que alcanzó un valor de 1.594.500 dólares. En total, se produjeron y se vendieron alrededor de doscientas unidades a 666.66$ USD la unidad, pero el éxito fue tal que no pudieron dar abasto a tanta demanda. Las características del Apple I eran limitadas por el poco dinero del que disponían Jobs y Wozniak. De hecho, para construir el prototipo, Jobs tuvo que vender su camioneta y Woz su calculadora programable HP. Con el dinero ganado gracias a la venta del Apple I, en Apple pudo comenzar a pensar en una máquina bastante más ambiciosa: elApple II. Para Wozniak, la Apple II iba a ser simplemente la computadora que hubiera querido construir si no hubiera tenido las limitaciones económicas que tuvo con el Apple I. Tuvo la idea de incluir en el equipo memoria de vídeo para administrar la visualización en color, del mismo modo que incluía numerosas tarjetas de expansión de modo que los usuarios pudieran ampliar las capacidades de la computadora según sus propias necesidades. Con el diseño del primer prototipo del Apple II recién terminado, Apple decidió asistir al festival informático Personal Computing Festival, un nuevo certamen. Allí, la incipiente industria de la microinformática podía mostrar sus progresos y hacer negocio y contactos. En el vuelo a Filadelfia, lugar donde se celebrara en 1976, los fundadores de Apple coincidieron en el avión con los fundadores de Processor Technology y su recién diseñada computadora Sol, coincidencia que tuvo un gran impacto en el futuro inmediato de Apple. La gran mayoría de máquinas y empresas dedicadas a la microinformática en 1976, y por consiguiente prácticamente todas las que formaban el festival, eran en general jóvenes fanáticos de la informática con kits que los usuarios debían montar y/o soldar para poder hacer funcionar, por lo tanto enfocadas sobre todo a los entusiastas de la electrónica. Sin embargo, Processor Technology ofrecía una imagen mucho más seria y profesional, y su Sol era una computadora que si bien estaba enfocado, al igual que los demás, como un kit que debía montarse, también se daba la posibilidad de adquirirla como computadora ya montado 156
y listo para utilizar. Fue entonces cuando Steve Jobs comprendió que el futuro no estaba en placas con componentes que los usuarios debieran montar y soldar ellos mismos, sino en computadoras como el Sol, ya montadas y preparadas para el uso y disfrute de los usuarios. Por lo tanto, el Apple II, el cual aún no había salido a la venta, debía incorporar la salida de vídeo, el teclado y todo aquello que necesitara en una caja de plástico para hacer que su uso fuera más sencillo. Si bien Steve Wozniak era el diseñador de toda la lógica y la electrónica del Apple II, Steve Jobs era el creador del concepto y la visión de futuro de Apple, buscando al mismo tiempo la forma de crear un producto que pudiera satisfacer a todos los usuarios, y no sólo a los más técnicos.Aparte de la decisión de vender el Apple II como un conjunto perfectamente empaquetado, otras importantes decisiones suyas fueron la de invertir en mejores sistemas de alimentación eléctrica y control del calentamiento del equipo, siendo el Apple II una computadora completamente silenciosa gracias a que no necesitaba ventiladores para controlar su temperatura. Pero concebir tal máquina suponía mucho dinero y personal cualificado, algo que no tenían. Ningún banco quería arriesgarse en tal proyecto, y menos en aquellos tiempos: una computadora utilizable por el gran público parecía absurdo en la época, puesto que los bienes posibles de los habitantes, eran escasos para comprar este tipo de tecnología. Ronald Wayne, que había ayudado a Jobs y Wozniak a concebir el Apple I, era escéptico sobre las oportunidades de éxito de tal proyecto y abandonó a la compañía. Jobs conoció finalmente a Mike Markkula en 1977, quien aportó su peritaje en asuntos y un cheque de $250.000.00 USD al capital de Apple. También proporcionó en esa ocasión su primer Presidente a Apple, Mike Scott. El modelo final de Apple II se presentó al público en abril de 1977 convirtiéndose en el canon de lo que debía ser a partir de entonces una computadora personal. Por este motivo, Apple cambió su logotipo por el famoso logo de la manzana coloreada, que recordaba que el Apple II era uno de las primeras computadoras en disponer de monitor en color. Otras teorías aseguran que el logo fue en honor al matemático y precursor de la informática Alan Turing, reconocido gay y fallecido tras morder una manzana. A mediados de 1979, Apple presentó el Apple II+, una evolución del Apple II dotada, en particular, con más memoria (48 Kb ampliable a 64 Kb) y lenguaje de programación BASIC. Gran parte del éxito de Apple se basaba en que fue una computadora realizada para gustar tanto a los expertos hackers como al público más profano en términos de informática. Pronto, la base de software para el Apple II comenzó a crecer, haciendo más atractivo la computadora al resto del público, en especial cuando apareció en el mercado la primera hoja de 157
cálculo de la historia, la VisiCalc, la cual hizo vender ella sola miles de computadoras Apple II. Mientras que el Apple II conocía un éxito creciente, Apple ya trabaja en sus sucesores. Lisa debía ser una evolución del Apple II, una máquina de transición antes de Lisa y Macintosh que serían una nueva clase de equipos. Para el sucesor del Apple II, Steve Jobs quería una máquina más avanzada aún para contribuir al mercado de la informática de empresa. Los ingenieros debían ajustarse a objetivos muy ambiciosos o incluso a veces casi irrealizables (un tema recurrente en la historia de Apple), sobre todo teniendo en cuenta que el período de desarrollo de esta máquina era corto (algo menos de un año). Aunque las ventas del Apple II eran más fuertes que nunca, Apple pensaba que estas empezarían a bajar pronto, por lo que sería necesario presentar a su sucesor lo más rápidamente posible. La computadora fue presentada finalmente en mayo de 1980 bajo el nombre de Apple III. Desgraciadamente, algunas elecciones técnicas, entre las cuales se encontraba la ausencia de un ventilador, fueron la razón de que muchos equipos se sobrecalentaran. Miles de Apple III debieron sustituirse. Algunos meses más tarde, en noviembre de 1981, Apple lanzó una nueva versión del Apple III, que corregía todos los grandes problemas de la versión inicial. Un Apple III+ salió incluso en 1983. Pero los problemas de sus comienzos desalentaron a los compradores y fueron la razón de que el Apple III se convirtiera en el primer gran fracaso comercial de Apple. Sólo se habían vendido 65.000 equipos a final de verano, mientras que Apple pensaba vender millones como el Apple II. Los equipos que salieron en los años siguientes llevaban el nombre de Apple II (IIe en enero de 1983, IIc en 1984, etc.) para olvidar los sinsabores del Apple III. Pese al fracaso del Apple III, Apple aún tenía dos modelos a desarrollar: Lisa y Macintosh. La gran apuesta de Apple era Lisa, la cual debía convertirse en la nueva generación de computadoras de Apple y con el que se pretendía también atacar el mercado empresarial que se le había negado con el Apple III y que sin embargo estaba siendo abarcado por la IBM PC, mientras que laMacintosh era un proyecto iniciado por Jef Raskin para construir una pequeña computadora muy económica y fácil de usar pensada para el mercado doméstico. Durante el desarrollo del Apple Lisa, tras la recomendación de personas como Jef Raskin y Bill Atkinson, Steve Jobs decidió negociar un acuerdo con Xerox PARC consistente en una visita a los laboratorios de Xerox a cambio de un millón de dólares de acciones de Apple cuando cotizara en la bolsa de valores. Tras esta visita en diciembre de 1979, Jobs comprendió que el futuro estaría en las máquinas con interfaz de usuario gráfica (GUI), desarrolladas por Xerox, por lo que se comenzó a remodelar toda la interfaz de la computadora Lisa para adaptarla a las nuevas ideas vistas en Xerox PARC. 158
Apple Lisa estaba pensado para ser la nueva generación de computadoras, y para conseguirlo no se reparó en gastos. Se incluyó en el modelo final un monitor, dos unidades de disquete, un disco duro de 5 megabytes (algo inmenso para la época) y todo un megabyte de RAM. Sin embargo, lo que primero saltaba a la vista no eran todas estas características, sino la GUI, su novedosa interfaz de usuario basada en iconos que se activaban apuntando con una flecha controlada por un curioso dispositivo denominado ratón o mouse. El 12 de diciembre de 1980, Apple entró en la bolsa de valores. Hasta ese momento, sólo algunos de los empleados de Apple poseían acciones de la empresa. En unos minutos, los 4,6 millones de acciones se vendieron a 22 dólares la unidad, aumentando instantáneamente en 100 millones de dólares el capital de Apple. Al mismo tiempo decenas de empleados de Apple se convirtieron en millonarios. Pese a los éxitos económicos y la expansión a nivel mundial de la empresa, 1981 fue un año bastante duro para Apple. Aparte de los problemas del Apple III, en febrero de este año, se decidió purgar la plantilla de empleados; por lo que autorizó la despedida de 40 trabajadores de Apple (en total, la empresa superaba los 1000 empleados). Al mes siguiente, el purgado esta vez fue el mismo presidente, Scott, siendo reemplazado por Mike Markkula y asumiendo Steve Jobs el cargo de director (chairman). El 12 de agosto salía al mercado la principal amenaza a la hegemonía de Apple, el IBM PC. Pese a que no era una máquina muy innovadora, la imagen de marca de IBM le otorgaba un gran atractivo en el sector empresarial, por lo que se convirtió en un fulgurante éxito. Mike Markkula relevó a Steve Jobs del equipo Lisa, acusándole de administrar mal al equipo (el proyecto se retrasaría por estos cambios). Jobs se puso a trabajar sobre el proyecto Macintosh. El Lisa salió finalmente a principios de 1983, y se convirtió en la primera computadora personal con interfaz gráfica y mouse. A pesar de su carácter revolucionario, Lisa se vendió muy mal, debido principalmente a su elevado precio: USD$10.000. Mientras Apple sufría los fracasos del Apple III y de Lisa, Mike Markkula dimitió de la dirección de Apple en 1983. El puesto de Presidente se propuso a John Sculley, entonces vicepresidente de Pepsi. En un primer momento rechazó el puesto; para convencerloSteve Jobs le planteó esta profunda pregunta: « ¿Prefiere pasar el resto de su vida vendiendo agua azucarada o tener la oportunidad de cambiar el mundo?». John Sculley aceptó finalmente y se convirtió en el tercer Presidente de Apple. Tras el fracaso del Apple III y el Apple Lisa, la compañía se volcó en el pequeño proyecto de Jef Raskin primero y Steve Jobs después: el Macintosh. Tras numerosos retrasos y problemas, especialmente con el software, el cual no estuvo preparado hasta prácticamente el último momento, y tras la emisión de un destacado anuncio de televisión durante la celebración del Super Bowlde ese año, comercial dirigido por Ridley Scott y considerada el mejor comercial de televisión de la década de 1980 por Advertising Age,8 la computadora fue presentada el 24 de enero de 1984. Las previsiones de venta iniciales de medio millón de unidades vendidas hasta fin de año parecían que podrían cumplirse durante los primeros meses de 1984, pero poco a poco las ventas se fueron ralentizando, provocando el pánico en Apple. Entre los muchos motivos que hicieron erosionarse las ventas del Macintosh, se puede destacar el alto 159
precio ($2.495.00 USD), la escasa memoria RAM instalada en la computadora (sólo 128 KB), la inclusión de una única unidad de disco, la no inclusión de puertos de expansión y la falta de software, ya que salvo Apple, sólo Microsoft acudió a la cita del Mac con productos de software. Pero no sólo las ventas de Macintosh se reducían, sino también el hasta ahora sustento de la compañía, el Apple II, empezaba a mostrar el desgaste de los años. En Apple se decidió unificar los proyectos de Lisa y Macintosh en uno solo, presentando la computadora Apple Lisa como un Macintosh de gama alta (pese a tener un procesador más lento). Sin embargo, dicha unificación no hizo más que generar tensiones dentro de la propia Apple, ya que por un lado el grupo encargado del Apple II se veía completamente desplazado pese a que era el único económicamente rentable, y por el otro tanto el grupo de desarrollo del Lisa como del Macintosh tenían filosofías de trabajo muy distintas, así como condiciones salariales y, especialmente, sueldos, pues en algúnas ocasiones, se retenían los pagos a los empleados. La suerte del equipo cambió con la introducción de la primera impresora láser PostScript, la LaserWriter, que se ofrececía a un precio razonable, y que junto con PageMaker y el propio Macintosh crearon el concepto de "Autoedición". El Mac fue particularmente fuerte en este mercado debido a sus capacidades gráficas avanzadas, estas capacidades eran parte de su intuitiva interfaz gráfica de usuario. En 1985, se generó una lucha de poder entre Steve Jobs y el CEO John Sculley, que había sido contratado por el propio Jobs dos años antes. Jobs no estaba dispuesto a ser relegado a un puesto irrelevante en la compañía que fundó (su oficina fue trasladada a un edificio casi desierto en el campus de Apple al que Jobs llamaba Siberia)9 y comenzó a conspirar con los ejecutivos de Apple para hacerse con el control. Sculley se enteró de que Jobs había estado tratando de organizar un golpe de estado y convocó a una reunión de la junta el 10 de abril de 1985, en la cual, la junta directiva de Apple se puso unánimamente del lado de Sculley y Jobs fue retirado de sus funciones como gestor. Unas semanas después Jobs abandonó Apple y fundó NeXT Inc. ese mismo año.10 Greenpeace lideró una campaña para que Apple dejase de utilizar materiales altamente contaminantes abandonados por otros grandes fabricantes de computadores, hecho por el cual la misma dejó de usar mercurio y otros componentes, y comenzaron a fabricar sus productos con LCD reciclable y Aluminio.11 El 23 de octubre de 2001, Apple presentó el iPod, un reproductor de audio digital. Este dispositivo ha evolucionado para incluir a diversos modelos orientados a satisfacer las necesidades de los diferentes usuarios. El 160
iPod es el líder del mercado en reproductores de música portátiles por un margen significativo, con más de 100 millones de unidades enviadas a partir del 9 de abril de 2007.12 Apple se ha asociado con Nike para presentar el deportivo Nike iPod Kit que permite sincronizar los corredores a vigilar y sus carreras con iTunes y el sitio web de Nike.13 Apple vende actualmente cuatro variantes de la iPod con un soporte descargable en su sitio web14 llamado iTunes, con el que se dan servicios de actualizaciones y gestión de música, y que permite la compra y descarga de esta música en versiones originales y completamente legales en algunos países seleccionados: En la Conferencia & Expo en enero de 2007, Steve Jobs presentó el anticipado iPhone, una convergencia de Internet habilitado para el iPod y los teléfonos inteligentes. El iPhone combina un 2,5 G de banda cuádruple GSM y EDGE teléfono celular con características se encuentran en dispositivos de mano, ejecutando una reducción de las versiones de Apple Mac OS X, con diversas aplicaciones de Mac OS X como Safari y Mail. También incluye basado en la web y Dashboard aplicaciones, tales como Google Maps y el tiempo. El iPhone presenta una pantalla táctil de 3.5 pulgadas (89 mm) 4, 8, 16 o 32 GB de memoria (el de 4 GB se dejó de comercializar en julio de 2008), Bluetooth y Wi-Fi (tanto "b" y "g"). El iPhone se hizo disponible por primera vez el 29 de junio de 2007 por $499 (4 GB) y $599 (8 GB) con contrato de AT&T. El 5 de febrero de 2008 Apple actualizó el iPhone original añadiéndole una versión de 16 GB. El 9 de junio de 2008, en WWDC de 2008, Steve Jobs anunció que el iPhone 3G estaría disponible el 11 de julio de 2008. Esta versión permitió que el iPhone pudiera correr en la red 3G y agregó navegación GPS, entre otras cosas. El 8 de junio de 2009 en la WWDC Apple presenta junto al iPhone OS 3.0 el nuevo iPhone 3GS disponible con cámara de vídeo, brújula interna, con unas capacidades de 16 y 32 GB, ambos en blanco y negro con un precio de $199 (16GB) y $ 299 (32GB). El iPhone 4 es la nueva generación de iPhone, evolución del 3GS, entre sus características cabe destacar su procesador A4, su Retina Display Multi-Touch de 3.5 pulgadas con una resolución de 960x640 píxeles a 326 p/p, la incorporación de una cámara de 5 megapixeles más un LED Flash, la capacidad de grabar vídeos en alta definición a 720p, otra cámara adicional para realizar videoconferencias con la aplicación FaceTime, la incorporación de un giroscopio de 3 ejes y el ser el primer iPhone en traer de serie el sistema operativo iOS 4. Además es el teléfono inteligente más delgado del mundo con solo 9.3 mm de ancho. Su precio inicial con contrato de permanencia de 2 años con AT&T en USA es de 199 y 299 USD de 16 y 32 GB respectivamente. Actualmente, Apple tiene a la venta el iPhone 4S, el cual tiene pocas novedades respecto al iPhone 4, sus diferencias más notables son el aumento de la velocidad del procesador y la inclusión de Siri, un software de asistente personal, capaz de abrir aplicaciones, responder preguntas e incluso dar recomendaciones. Apple anunció el 12 de septiembre de 2012 el lanzamiento del iPhone 5, el cual será más delgado, ligero y contara con iOS 6, el cual a su vez tendrá disponible más idiomas para Siri.15 16 Finalmente el día 10 de septiembre de 2013 se presentó el iPhone 5S, el cual dispone de un chip A7 con el sistema operativo iOS 7. 161
En la conferencia Macworld de 2007, Jobs hizo una demostración de Apple TV, (anteriormente conocido como iTV17 ), un dispositivo de vídeo destinado a unir la venta de contenidos de iTunes con los televisores de alta definición. El dispositivo se conecta a la TV del usuario y sincroniza, ya sea a través de Wi-Fi o de red cableada, con la librería iTunes de una computadora, desde donde se emite el flujo de información. Inicialmente, Apple TV incorporaba un disco duro de 40 GB para almacenamiento, incluyendo conexiones HDMI y por componentes, siendo capaz de reproducir vídeo a una resolución máxima de 1080i.18 El 31 de mayo de 2007, se puso a la venta un modelo con unidad de disco de 160 GB.19 El 15 de enero de 2008 se publicó una actualización de software que permitía la compra de contenidos directamente desde Apple TV.20 El nuevo Apple TV utiliza un sistema de streaming que va desde el Mac, iPod Touch, iPhone o iPad hasta el Apple TV. El iPad es una nueva clase de dispositivo desarrollado por Apple Inc. Anunciado el 27 de enero de 2010, se sitúa en una categoría entre un teléfono inteligente y una notebook. Las funciones son similares al resto de dispositivos portátiles de Apple Inc. como es el caso del iPhone o iPod touch aunque la pantalla es más grande y con respecto al Hardware es más potente, funciona sobre una versión adaptada del sistema operativo de iPhone (iOS), con una interfaz de usuario rediseñada para aprovechar el tamaño mayor del dispositivo y la capacidad de utilizar el servicio iBookstore de Apple con la aplicación iBooks (software para lectura de libros electrónicos). Posee una pantalla con retroiluminación LED, capacidades multitáctiles de 9,7 pulgadas (24,638 cm), de 16 a 64 gigabytes (GB) de espacio tipo memoria flash, Bluetooth, y un conector dock de 30 pines que permite la sincronización con el software iTunes y sirve de conexión para diversos accesorios. Existen dos modelos: uno con conectividad a redes inalámbricas Wi-Fi 802.11n y otro con capacidades adicionales para redes 3G (puede conectarse a redes de telefonía celular HSDPA) y GPS Asistido. Ambos modelos pueden ser adquiridos en tres capacidades de almacenamiento distintas. El iPad 2 es la segunda generación del iPad, un dispositivo electrónico tipo tableta desarrollado por Apple Inc. Esta interfaz de usuario esta rediseñada para aprovechar el mayor tamaño del dispositivo y la capacidad de utilizar software para lectura de libros electrónicos y periódicos, navegación web y correo electrónico, además de permitir el acceso al usuario a otras actividades de entretenimiento como películas, música y videojuegos.1 Este iPad tiene una batería de litio que dura hasta 10 horas, un procesador dual core Apple A5 y dos cámaras designadas para videollamadas. Apple presentó el nuevo dispositivo el 2 de marzo de 2011,2 y se anunció que iba a salir a la venta el día 11 de marzo de 2011 en los Estados Unidos y el 25 de ese mismo mes en países como España, México y Canadá. Después se anunció que saldría a la venta en otras regiones como Hong Kong, Corea del Sur y Singapur el día 29 de abril del mismo año. Justo un año después, el 7 de marzo de 2012 Apple presentó el Nuevo iPad, la tercera generación de las tabletas. La principal mejora se establece en la pantalla, pasando a tener una resolución de 2.048 x 1.536 píxeles a 264 píxeles por pulgada, o lo que es lo mismo, "Pantalla Retina" como la que posee el iPhone 4 en la cual el ojo humano es incapaz de distinguir los píxeles por separado. Para mover la nueva resolución 162
se incluyó un chip A5X de doble núcleo en cuanto a CPU y de cuatro núcleos en cuanto a GPU (gráficos) mejorando la fluidez del sistema operativo de serie incluido, iOS 5.1. También mejoró la cámara trasera "iSight" llegando hasta los 5 megapíxeles y utilizando la misma óptica de 5 lentes presente en el iPhone 4S. Aunque según Apple, el mayor avance se produjo en la conexión inalámbrica 4G LTE (solo compatible con redes a 700 y 2100 MHz) aunque temporalmente dicha red sólo está disponible en Estados Unidos y Canadá. El 4G llega hasta velocidades de 74 mbps de descarga. La batería también se vio aumentada debido al nuevo consumo de energía. El Nuevo iPad salió a la venta el 16 de marzo en Estados Unidos y el 23 en España. Apple desarrolla su propio sistema operativo para ejecutarse en Mac, Mac OS X. Apple también desarrolla independientemente títulos de los programas informáticos para su Mac OS X el sistema operativo. Apple desarrolla gran parte del software que incluye con sus ordenadores. Un ejemplo de ello es el paquete de software iLife, orientado al consumidor que contiene iDVD, iMovie, iPhoto, iTunes, iWeb y GarageBand. Para la presentación, diseño de página y de procesamiento de textos, está disponible iWork, que incluyeKeynote, Pages y Numbers. Asimismo, iTunes, el reproductor de medios QuickTime y el navegador Safari están disponibles como descargas gratuitas, tanto para Mac OS X como para Microsoft Windows. Apple también ofrece una amplia gama de títulos de software profesional. Su gama de software de servidor incluye el sistema operativo Mac OS X Server; mando a distancia Apple Remote Desktop, un mando a distancia los sistemas de gestión de aplicación; WebObjects, Java Web Application Server y Xsan, una red de área de almacenamiento del sistema de archivos. Para los profesionales de la creación del mercado, existe Aperture para profesionales del procesamiento de fotografías en formato RAW; Final Cut Studio, una suite de producción de vídeo; Logic, un amplio conjunto de herramientas musicales y Shake, un avanzado programa de composición de efectos. Apple también ofrece servicios en línea con MobileMe (antiguo.Mac) que incluye páginas web personales, correo electrónico, grupos, iDisk, copia de seguridad, iSync, Centro de Aprendizaje y tutoriales en línea. MobileMe es una suscripción basada en internet suite que capitaliza sobre la capacidad de almacenar datos personales sobre un servidor en línea y, por ende, mantener a través de la web todos los dispositivos conectados en sincronización. • Unix Unix (registrado oficialmente como UNIX®) es un sistema operativo portable, multitarea y multiusuario; desarrollado, en principio, en 1969, por un grupo de empleados de los laboratorios Bell de AT&T, entre los que figuran Ken Thompson, Dennis Ritchie y Douglas McIlroy. El sistema, junto con todos los derechos fueron vendidos por AT&T a Novell, Inc. Esta vendió posteriormente el software a Santa Cruz Operation en 1995, y esta, a su vez, lo revendió a Caldera Software en 2001, empresa que después se convirtió en el grupo SCO. Sin embargo, Novell siempre argumentó que solo vendió los derechos de uso del software, pero que retuvo el copyright sobre "UNIX®". En 2010, y tras una larga batalla legal, ésta ha pasado nuevamente a ser propiedad de Novell. Solo los sistemas totalmente compatibles y que se encuentran certificados por la especificación Single UNIX Specification pueden ser denominados "UNIX®" (otros reciben la denominación "similar a un sistema Unix" o "similar a Unix"). En ocasiones, suele usarse el término "Unix tradicional" para referirse a Unix o a un sistema operativo que cuenta con las características de UNIX Versión 7 o UNIX System V. 163
SISTEMA OPERATIVO MAC OS X Mac OS X está basado en el núcleo creado por Mach. Ciertas partes de las implementaciones de UNIX por parte de FreeBSD y NetBSD fueron incorporadas en NEXTSTEP, en el que se basó Mac OS X. Mientras Jobs estaba afuera de Apple, la compañía intentó crear un sistema de «próxima generación» a través de los proyectos Taligent, Copland y Gershwin, con poco éxito.17 Eventualmente, el sistema de NeXT (en ese entonces denominado OPENSTEP) fue seleccionado para ser la base del próximo sistema operativo de Apple, por lo cual la compañía de Cupertino adquirió NeXT en su totalidad. Steve Jobs regresó a Apple como CEO interino, y luego asumió el cargo de lleno, acompañando la transformación de OPENSTEP en un sistema que sería adoptado para el mercado primario de Apple, los usuarios de hogar y los profesionales multimedia. El proyecto fue conocido inicialmente como Rhapsody y luego adoptó el nombre de Mac OS X. Mac OS X Server 1.x era incompatible con el software diseñado para el Mac OS original y no disponía de soporte para el puerto IEEE 1394 (FireWire). Mac OS X 10.x trajo consigo mayor compatibilidad y funcionalidad al incluir la Carbon API al igual que soporte para FireWire. Con la evolución del sistema, abandonó el legado de Mac OS hacia un énfasis de estilo de vida digital en las aplicaciones, tal como ocurrió con iLife, iWork y el media center Front Row. Cada versión incluía modificaciones a la interfaz general, como la apariencia metálica agregada en la versión 10.3, la barra de títulos sin rayas en la versión 10.4 y la remoción en la versión 10.5 de la apariencia metálica en favor de un estilo de ventana unificado en gradiente. Mac OS X, Microsoft Windows y Linux incluyen de fábrica utilidades de seguridad muy similares, como cortafuegos y antispyware.Si bien ningún sistema operativo está exento de ser atacado o infectado por un virus, Mac OS X está basado en UNIX y la cantidad de virus que lo afectan en comparación con Microsoft Windows, es reducida. Cerca del 99,2% del malware tiene por objetivo Microsoft Windows. APLICACIONES PROFESIONALES 1: MAQUETACIÓN O MONTAJE DE PÁGINA • QuarkXPress QuarkXPress es un programa de autoedición para ordenadores Mac OS X y Windows, producido por Quark Inc. Ésta puede ser considerada como una de las primeras empresas decanas de autoedición (junto con Aldus, Xerox, Adobe Systems y Apple Computer). La primera versión de QuarkXPress apareció en 1987. Fue fundada en 1981 en Denver por Tim Gill y Mark Pope. Comenzó su andadura creando software de procesamiento de textos para el Apple II y el Apple III. QuarkXPress es un programa de diseño con interfaz gráfica WYSIWYG. Texto y gráficos son tratados como elementos distintos (cajas de texto y cajas de gráficos). Ambos tipos de caja son transformables en una multitud de maneras.Tiene dos modos de operación: contenido (los comandos se aplican dentro de la caja) y objeto (posición de la caja y características). Cada modo tiene sus propios menús, fácilmente accesibles mediante abreviaturas de teclado. El software permite posicionar los elementos en la página con una aproximación de una milésima de pulgada. Integra tablas de colores Pantone y Hexachrome, además de otros espacios colorímetros. En la tarea de separación de color CMYK Quark destaca por la facilidad y rapidez para crear fotolitos. QuarkXPress también ofrece sincronización de capas, múltiples niveles de deshacer, XML, HTML y capacidad de generar PDFs. La versión actual, QuarkXPress 7, añade capabilidades OpenType, Unicode, JDF y PDF/X-export. 164
QuarkXPress 7 está disponible para Mac OS X 10.4 y Windows XP. • Adobe InDesing Es una aplicación para la composición digital de páginas desarrollada por la compañía Adobe Systems y dirigida a diseñadores gráficos y maquetadores profesionales. Presentada en 1999, su objetivo era constituirse en la alternativa a QuarkXPress (QXP), de Quark Inc. que desde hacía doce años venía ejerciendo el monopolio de facto en la composición profesional de páginas. En el año 1993 concluyó la conocida como Primera Guerra de la Autoedición Profesional. Aldus, con su aplicación pionera PageMaker (PM) dio por perdida la batalla que había venido librando con Quark desde que esta introdujera la primera versión de su único producto, Quark XPress, seis años antes, en 1987. El dominio de Quark llegó a ser tan abrumador que Aldus decidió iniciar el desarrollo desde cero de una nueva aplicación de creación de páginas; era el proyecto Shuksan. Mientras tanto, entre los analistas llamaba la atención el hecho de que Adobe, impulsor de la tipografía digital, inventor del PostScript y líder indiscutible de las aplicaciones de creación gráfica Adobe Illustrator y Adobe Photoshop, no pudiera ofrecer una solución global de diseño gráfico al no contar en su catálogo con la herramienta que debería aglutinar a las demás, es decir, una aplicación de composición de páginas. • Aldus / Pagemaker Antes de 1985 , la composición tipográfica se realizó en máquinas de gran tamaño y no había tal cosa como la autoedición. Nacido del matrimonio de hardware de Apple y el lenguaje PostScript, Aldus (ahora Adobe ) Pagemaker cambió todo eso. Se puso en marcha un mundo que, hoy en día, trae de impresión bajo demanda y el diseño de página profesional en el ámbito de un ordenador en casa . John Warnock , líder del equipo que inventó PostScript, abandonó Xerox PARC para comercializar su propio producto. Formó Adobe Systems. Cuando el Apple Macintosh lanzado en 1984 , fue aclamado por la crítica y el desprecio de los consumidores. Macs eran caros y se usan una impresora incorporada PostScript , el Apple LaserWriter , había más barato y menos opciones propietarias. Sin embargo , los Macs resultó popular entre los diseñadores y artistas , sino que era para ellos que Pagemaker fue creado . En 1985 , Paul Brainerd fundada Aldus Corporation y lanzó el primer programa de autoedición , Pagemaker , para el Mac . En 1986, Pagemaker fue portado a Windows , pero el Mac se estableció firmemente como la computadora para la edición electrónica . La versión 1.0 incluye funciones de arrastrar y soltar , el tipo y herramientas gráficas. Estas primeras versiones incluyen una versión especial de Windows que se puede ejecutar desde un símbolo de MS- DOS. El software ha seguido desarrollando , en 1986 , ganó la Excelencia Pagemaker un Publishers Association Software en Software Award ( mejor nuevo uso de un ordenador) y la versión 3.0.1 trajo Pagemaker para el sistema operativo OS / 2 . La versión 4.2 de Pagemaker introdujo la rotación de texto y editor de historias , pero por 1988 Quark XPress proporcionaba una seria competencia , incluyendo la capacidad de separar los colores . Pagemaker 5 incluye la separación de colores para competir con Quark, pero ya era demasiado tarde para que el software Aldus 'para convertirse en el número uno de nuevo. A pesar de sus incursiones en el diseño gráfico, Adobe Systems no se había llegado con su propio soft165
ware de autoedición. En 1994, se abordó el problema anunciando que adquiriría Aldus . La venta permitió a Paul Brainerd para perseguir otros intereses, y fundó la Fundación Brainerd, una organización de caridad del medio ambiente, en 1995. Adobe lanzó versiones Pagemaker 6.0, 6.5 y 7.0. Luego, en 1999 , Adobe sacó su propio software de autoedición , InDesign, y comenzó a concentrar su investigación allí en vez de en Pagemaker . En 2004 , Adobe anunció que dejaría de desarrollar Adobe Pagemaker . Ofrecía actualizaciones y soporte , pero no crearía ningún más versiones . El último lanzamiento completo era Pagemaker 7.0, publicada el 9 de julio de 2001. Desde entonces, Adobe ha publicado dos actualizaciones más . La versión actual, Pagemaker 7.0.2 , puede muy bien ser la última , poniendo fin a una época que cambió el mundo editorial para siempre • Adobe Framemaker Adobe FrameMaker es un procesador de documentos diseñado para escribir y editar documentos grandes o complejos, incluidos los documentos estructurados . Es producido por Adobe Systems . FrameMaker mantiene un fuerte seguimiento entre los escritores técnicos profesionales. FrameMaker se convirtió en un producto de Adobe en 1995, cuando Adobe compró Frame Technology Corp. Adobe ha añadido soporte SGML, que con el tiempo se transformó en la compatibilidad con XML de hoy. En abril de 2004 , Adobe dejó de apoyar a FrameMaker para Macintosh. Mientras trabajaba en su título de maestría en astrofísica de la Universidad de Columbia, Charles "Nick" Corfield , un ex alumno de matemático de la Universidad de Cambridge, decidió escribir un editor de documentos WYSIWYG en una estación de trabajo Sun- 2 . Él tuvo la idea de su compañero de la universidad de Columbia , Ben Meiry , que se puso a trabajar en Sun Microsystems como consultor técnico y escritor, y vio que había un mercado para una publicación de escritorio potente y flexible ( DTP) de productos para el mercado profesional . El único producto DTP sustancial en el momento de la concepción de FrameMaker era Interleaf , que también corrió en estaciones de trabajo de Sun. Meiry vio una oportunidad para que un producto para competir con Interleaf , alistó Corfield programarlo , y le ayudó en la adquisición de las conexiones de hardware , software y técnicas para conseguir que va en su dormitorio de la Universidad de Columbia (donde Corfield aún estaba terminando su grado ) . Corfield programado sus algoritmos rápidamente . Después de sólo unos meses , Corfield había completado un prototipo funcional de FrameMaker . El prototipo llamó la atención de los vendedores a los incipientes Sun Microsystems, que carecía de aplicaciones comerciales para exhibir las capacidades gráficas de sus estaciones de trabajo . Consiguieron el permiso de Corfield utilizar el prototipo como Demoware para sus equipos , y por lo tanto , la FrameMaker primitivo recibieron un montón de exposición en la arena estación de trabajo Unix. Steve Kirsch vio la demo y se dio cuenta del potencial del producto . Kirsch utilizó el dinero que ganó de Mouse Systems para financiar una empresa de nueva creación , Frame Technology Corp. , para comercializar el software. Corfield optó por demandar Meiry para la liberación de los derechos sobre el software con el fin de obtener más fácilmente la inversión de capital adicional con el Kirsch . Meiry tenía pocos medios para luchar contra una demanda largo y costoso con Corfield y sus nuevos socios de negocios , y él optó por liberar sus derechos a FrameMaker y seguir adelante. Originalmente escrito para SunOS (una variante de UNIX) en máquinas Sun , FrameMaker era una popular herramienta de redacción técnica , y la compañía fue rentable desde el principio. Debido al mercado de la autoedición floreciente en el Apple Macintosh, el software ha sido portado a Mac como su segunda plataforma. A principios de 1990 , una ola de estación de trabajo UNIX vendedores - Sony , Motorola , 166
Data General, MIPS , y Apolo - proporcionó fondos al fotograma Tecnología para una versión OEM para sus plataformas En el apogeo de su éxito, FrameMaker corrió en más de trece plataformas UNIX, incluyendo los sistemas operativos NeXTSTEP y AIX de IBM de NeXT Computer . La próxima versión de FrameMaker y AIX utiliza la tecnología Display PostScript, mientras que todas las otras versiones de UNIX utilizan el entorno de ventanas del sistema X Window Motif . Sun Microsystems y AT & T estaban promoviendo el estándar MIRADA GUI OPEN para ganarse a Motif, así Sun contrató Frame Technology para implementar una versión de FrameMaker en su sistema de ventanas de noticias basado en PostScript. La versión de FrameMaker NeWS fue lanzado con éxito a los clientes que adoptan las normas de OPEN LOOK . En este punto, FrameMaker era considerado un producto extraordinario por su día, permitiendo a los autores presentar documentos altamente estructurados con relativa facilidad , pero también dando a los usuarios una gran cantidad de control tipográfico en una forma razonablemente intuitiva y totalmente WYSIWYG. Los documentos de salida pueden ser de muy alta calidad tipográfica. El intento de la compañía para vender sofisticado software de publicación técnica para el mercado DTP casa era un desastre. Una herramienta diseñada para un manual de 1000 páginas era demasiado engorroso y difícil para un usuario doméstico medio para escribir una carta de una página . Y a pesar de que algunos usuarios inicialmente entusiastas , FrameMaker nunca despegó realmente en el mercado académico , debido a la falta de voluntad de la compañía de incorporar varias funciones (como el apoyo de las notas al final o de las notas al pie de largo dividido en varias páginas ) , o para mejorar el editor de ecuaciones . Las ventas se desplomaron y llevaron a la compañía al borde de la quiebra . Después de varias rondas de despidos , la empresa quebró. Adobe Systems adquirió el producto y volvieron el foco en el mercado profesional. Hoy en día, Adobe FrameMaker sigue siendo una herramienta de publicación muy utilizado para los escritores técnicos , aunque no hay ninguna versión ha sido lanzado para el sistema operativo Mac OS X , lo que limita el uso del producto . La decisión de cancelar FrameMaker causó considerable fricción entre los usuarios de Adobe y Mac , incluida la propia Apple, que confió en él para la creación de documentación. Todavía en 2008 , los manuales de Apple para OS X Leopard y el iPhone se siguen desarrollando en FrameMaker 7 en el modo Classic , Apple ha cambiado desde que el uso de InDesign. aPLICaCIONES PROFESIONaLES 2: tRataMIENtO DE IMÁGENES •
Adobe Photoshop
Adobe Photoshop (popularmente conocido sólo por su segundo nombre, Photoshop) es un editor de gráficos rasterizados desarrollado por Adobe Systems principalmente usado para el retoque de fotografías y gráficos. Su nombre en español significa literalmente "taller de fotos". Es líder mundial del mercado de las aplicaciones de edición de imágenes y domina este sector de tal manera que su nombre es ampliamente empleado como sinónimo para la edición de imágenes en general. Actualmente forma parte de la familia Adobe Creative Suite y es desarrollado y comercializado por Adobe Systems Incorporated inicialmente para computadores Apple pero posteriormente también para plataformas PC con sistema operativo Windows. Su distribución viene en diferentes presentaciones, 167
que van desde su forma individual hasta como parte de un paquete siendo éstos: Adobe Creative Suite Design Premium y Versión Standard, Adobe Creative Suite Web Premium, Adobe Creative Suite Production Studio Premium y Adobe Creative Suite Master Collection. En 1987, Thomas Knoll, un estudiante de doctorado en la Universidad de Michigan escribió un programa en su Macintosh Plus para mostrar imágenes a escala de grises en pantallas monocromáticas. Este programa, llamado Display, llamó la atención de su hermano, John Knoll, un trabajador de Industrial Light & Magic, que recomendó a Thomas convertir su programa en un programa completo editor de imágenes. En 1988, Thomas se tomó un receso de 6 meses de sus estudios para trabajar en el programa, junto con su hermano. Thomas renombró el programa a ImagePro, pero el nombre ya se encontraba registrado. Más tarde ese mismo año, Thomas renombró el programa como Photoshop y negoció un trato con el creador de escáneres Barneyscan para distribuir copias del programa con un escáner, "un total de 200 copias de Photoshop fueron distribuidas" de esta manera. Durante este tiempo, John viajó a Silicon Valley y realizó una demostración del programa a ingenieros de Apple y Russell Brown, director de arte en Adobe. Ambas demostraciones fueron exitosas, y Adobe decidió comprar la licencia para distribuir el programa en septiembre de 1988.5 Mientras John trabajaba en plug-ins en California, Thomas se quedó en Ann Arbor trabajando en el código. Photoshop 1.0 fue lanzado en 1990 exclusivamente para Macintosh. Photoshop en sus versiones iniciales trabajaba en un espacio (bitmap) formado por una sola capa, donde se podían aplicar toda una serie de efectos, textos, marcas y tratamientos. En cierto modo tenía mucho parecido con las tradicionales ampliadoras. En la actualidad lo hace con múltiples capas. A medida que ha ido evolucionando, el software ha ido incluyendo diversas mejoras fundamentales, como la incorporación de un espacio de trabajo multicapa, inclusión de elementos vectoriales, gestión avanzada de color (ICM / ICC), tratamiento extensivo de tipografías, control y retoque de color, efectos creativos, posibilidad de incorporar plugins de terceras compañías, exportación para sitios web entre otros. Se ha convertido, casi desde sus comienzos, en el estándar de facto en retoque fotográfico, pero también se usa extensivamente en multitud de disciplinas del campo del diseño y fotografía, como diseño web, composición de imágenes en mapa de bits, estilismo digital, fotocomposición, edición y grafismos de vídeo y básicamente en cualquier actividad que requiera el tratamiento de imágenes digitales. Photoshop ha dejado de ser una herramienta únicamente usada por diseñadores, para convertirse en una herramienta usada profusamente por fotógrafos profesionales de todo el mundo, que lo usan para realizar el proceso de retoque y edición digital, no teniendo que pasar ya por un laboratorio más que para la impresión del material. Con el auge de la fotografía digital en los últimos años, Photoshop se ha ido popularizando cada vez más fuera de los ámbitos profesionales y es quizá, junto a Windows y Flash (de Adobe Systems También) uno de los programas que resulta más familiar (al menos de nombre) a la gente que comienza a usarlo, sobre todo en su versión Photoshop Elements, para el retoque casero fotográfico. Aunque el propósito principal de Photoshop es la edición fotográfica, éste también puede ser usado para crear imágenes, efectos, gráficos y más en muy buena calidad. Aunque para determinados trabajos que requieren el uso de gráficos vectoriales es más aconsejable utilizar Adobe Illustrator. Entre las alternativas a este programa, existen algunos programas de software libre como GIMP, orientado a la edición fotográfica en general, o privativos como PhotoPaint de Corel, capaz de trabajar con cualquier característica de los archivos de Photoshop, y también con sus filtros plugin. ✏✏ Photoshop fue creado en el año 1990, soporta muchos tipos de archivos de imágenes, como BMP, JPG, PNG, GIF, entre otros, además tiene formatos de imagen propios. Los formatos soportados por Photoshop son: ✏✏ PSD, PDD: formato estándar de Photoshop con soporte de capas. ✏✏ PostScript: no es exactamente un formato, sino un lenguaje de descripción de páginas. Se suele encontrar documentos en PostScript. Utiliza primitivas de dibujo para poder editarlo. ✏✏ EPS: es una versión de PostScript, se utiliza para situar imágenes en un documento. Es compatible con programas vectoriales y de autoedición. 168
✏✏ DCS: fue creado por Quark (empresa de software para autoedición) y permite almacenar tipografía, tramas, etc. Se utiliza para filmación en autoedición. ✏✏ Prev. EPS TIFF: permite visualizar archivos EPS que no se abren en Photoshop, por ejemplo los de QuarkXPress. ✏✏ BMP: formato estándar de Windows. ✏✏ GIF: muy utilizado para las web. Permite almacenar un canal alfa para dotarlo de transparencia, y salvarlo como entrelazado para que al cargarlo en la web lo haga en varios pasos. Admite hasta 256 colores. ✏✏ JPEG: también muy utilizado en la web, factor de compresión muy alto y buena calidad de imagen. ✏✏ TIFF: una solución creada para pasar de PC a MAC y viceversa. ✏✏ PICT: desde plataformas MAC se exporta a programas de autoedición como QuarkXPress. ✏✏ PNG: la misma utilización que los GIF, pero con mayor calidad. Soporta transparencia y colores a 24 bits. Solo las versiones recientes de navegadores pueden soportarlos. ✏✏ PDF: formato original de Acrobat. Permite almacenar imágenes vectoriales y mapa de bits. ✏✏ ICO: es utilizado para representar archivos, carpetas, programas, unidades de almacenamiento, etc. ✏✏ IFF: se utiliza para intercambio de datos con Amiga. ✏✏ PCX: formato solo para PC. Permite colores a 1, 4, 8 y 24 bits. ✏✏ RAW: formato estándar para cualquier plataforma o programa gráfico. ✏✏ TGA: compatible con equipos con tarjeta gráfica de Truevision. ✏✏ Scitex CT: formato utilizado para documentos de calidad profesional. ✏✏ Filmstrip: se utiliza para hacer animaciones. También se puede importar o exportar a Premiere. ✏✏ FlashPix: formato originario de Kodak para abrir de forma rápida imágenes de calidad superior. ✏✏ JPEG2000: al igual que el JPEG, es nuevo formato de compresión que permite aumentar la calidad de la imagen. • Macromedia Freehand Es un programa informático de creación de imágenes mediante la técnica de gráficos vectoriales. Gracias a ella, el tamaño de las imágenes resultantes es escalable sin pérdida de calidad, lo que tiene aplicaciones en casi todos los ámbitos del diseño gráfico: identidad corporativa, páginas web (incluyendo animaciones Flash), rótulos publicitarios, etc. La historia de este programa en el mercado ha sido azarosa. El programa fue creado originalmente por la compañía Altsys, y luego licenciado a Aldus. Cuando esta compañía y su cartera de productos fueron adquiridas por Adobe Systems, los nuevos propietarios se vieron obligados a desprenderse de él: FreeHand se situaba en competencia directa con uno de los productos originales más importantes de la empresa (Adobe Illustrator), algo que incluso podía constituir un indicio de prácticas monopolistas. Después de la intervención de la Comisión Federal de Comercio de los EE.UU., el programa volvió a manos de Altsys, que fue comprada posteriormente por Macromedia. Esta firma continuó desarrollando el programa desde la versión 5.5 hasta la MX. Sin embargo, desde 2003 hasta 2006, Macromedia ha mostrado poco interés en el desarrollo del producto, pese a lo cual ha mantenido su cuota de mercado gracias a su excelente integración con el resto de los productos de la firma (como Flash o Fireworks). De ese modo, FreeHand no ha sido actualizado junto con las demás herramientas de la firma ni en el paquete "MX 2004" ni en el "Studio 8", permaneciendo estancado en la versión "MX". La compra en 2005 de Macromedia por parte de Adobe vuelve a colocar al producto en una posición "incómoda" (de nuevo en competencia con Illustrator). 169
El futuro de FreeHand está abocado a la desaparición. Hoy en día se continúa vendiendo bajo el mismo nombre de FreeHand MX pero no tiene ninguna nueva función desde su último lanzamiento ni tampoco se exhibe mucho su existencia. La idea es que todos los usuarios de FreeHand pasen a ser usuarios de Adobe Illustrator (Ai), con lo que, al final, en el terreno del diseño gráfico, todo el espacio del diseño vectorial quedaría en manos de éste último y de CorelDraw (disponible sólo en versión para Windows). No obstante, y pese a esta política de Adobe, son una importantísima cantidad de usuarios en todo el mundo los que continúan aferrados a FreeHand. En el 2009 se lanzó una campaña para la salvación de FreeHand. Se ha formado una comunidad de usuarios alrededor de la organización FreeFreehand.org. • Adobe Ilustrator Es un editor de gráficos vectoriales en forma de taller de arte que trabaja sobre un tablero de dibujo, conocido como «mesa de trabajo» y está destinado a la creación artística de dibujo y pintura para ilustración (ilustración como rama del arte digital aplicado a la ilustración técnica o el diseño gráfico, entre otros). Es desarrollado y comercializado por Adobe Systems y constituye su primer programa oficial de su tipo en ser lanzado por ésta compañía definiendo en cierta manera el lenguaje gráfico contemporáneo mediante el dibujo vectorial. Adobe Illustrator contiene opciones creativas, un acceso más sencillo a las herramientas y una gran versatilidad para producir rápidamente gráficos flexibles cuyos usos se dan en (maquetación-publicación) impresión, vídeo, publicación en la Web y dispositivos móviles. Las impresionantes ilustraciones que se crean con éste programa le han dado una fama de talla mundial a esta aplicación de manejo vectorial entre artistas gráficos digitales de todo el planeta, sin embargo, el hecho de que hubiese sido lanzado en un principio para ejecutarse sólo con el sistema operativo Macintosh y que su manejo no resultara muy intuitivo para las personas con muy poco trasfondo en manejo de herramientas tan avanzadas afectó la aceptación de éste programa entre el público general de algunos países. Actualmente forma parte de la familia Adobe Creative Suite y tiene como función única y primordial la creación de material gráfico-ilustrativo altamente profesional basándose para ello en la producción de objetos matemáticos denominados vectores. La extensión de sus archivos es .AI (Adobe Illustrator). Su distribución viene en diferentes presentaciones, que van desde su forma individual hasta como parte de un paquete siendo estos: Adobe Creative Suite Design Premium y Versión Standard, Adobe Creative Suite Web Premium, Adobe Creative Suite Production Studio Premium y Adobe Creative Suite Master Collection. creado por la compañía Adobe Systems en convenio con la compañía NeXT Computer, Inc.. en el año de 1987 y que se trata de una versión más avanzada del lenguaje de descripción de páginas para impresora Adobe PostScript de Adobe Systems que permite que lo que se vea en la pantalla sea una previsualización del resultado tal cual como se va a imprimir. Después éxito del programa para impresoras láser, Adobe PostScript, que de hecho fue quien inauguró la apertura de Adobe en el año de 1982,Adobe Systems lanza al mercado lo que sería uno de los programas más reconocidos de la firma y una gran herramienta prodigio de la ilustración a partir de gráficos vectoriales, Adobe Illustrator. Prematuramente forjado para la creación de ilustraciones con formato PostScript y la elaboración de fuentes, Adobe Illustrator fue producido entonces para ejecutarse sólo en el ambiente de los sistemas Apple Macintosh en el año de 1986. Su lanzamiento oficial se dio al año siguiente, en enero de 1987 bajo la versión Adobe Illustrator Adobe Illustrator, al igual que la serie de programas creados en aquella época (procesadores de texto, hojas de cálculo, diseño asistido por computadora (CAD), etc.) se muestra como una innovadora alternativa de técnica digital a la ya conocida creación artesanal o manual del lápiz de dibujo, el borrador, el papel y la pintura todo esto para la creación de dibujo o en su defecto 170
ilustración, para aquel entonces era una técnica muy conocida y recurrida en los medios publicitarios la Aerografía (técnica de aplicación de pintura a partir de soplete). Hoy en día Adobe Illustrator ya es capaz hasta de imitar esta última técnica, pero mediante una de sus herramientas más especialmente particulares y curiosas, y una de las razones por la que es apreciado, la Herramienta Malla de degradado (gradient mesh tool llamada «herramienta malla» en la versión en español). Adobe Photoshop también es capaz de imitar o seguir esta técnica pero mediante mapa de bits. Para el final de la década de los ochenta Macintosh no contaba con una alta cuota de mercado, la impresora LaserWriter de Apple, aparte de ser en ese entonces muy nueva y costosa, era la única capaz de imprimir documentos fleteados en Adobe Illustrator, los monitores de Macintosh solo eran capaces de dar colores Monocromáticos y sus ajustes de visualización se limitaban a sus escasas 9 Pulgadas, la necesidad de trabajar en Adobe Illustrator ayudó a forjar la creación de monitores más amplios para Macintosh.También los usuarios de Adobe Illustrator se afrontaban al paradigma del uso de las curvas de Bézier. Adobe Illustrator ocupó un gran espacio como una exitosa e ingeniosa fusión entre la pintura, el manejo de los colores, y el hasta hoy conocido como diseño de estructuras gráficas asistidas por computadora creadas a partir de gráficos orientados a objetos: diseño asistido por computadora (CAD). Significó una gran utilidad para los usuarios que no podían producir sus diseños en programas que podrían considerarse excesivos para dichos fines, como por ejemplo Autodesk AutoCAD, ya sea por falta de aprendizaje o porque la misma aplicación no se los permitía. Aunque capaz y confiable, Adobe Illustrator significaba un cierto reto en el momento de entenderlo, ya que su curva de aprendizaje era relativamente baja. Macromedia Freehand fue hasta 2005 la aplicación de ilustración mediante gráficos vectoriales de la compañía Macromedia hasta que ésta fue adquirida por la corporación Adobe Systems en una transacción que tuvo un coste de 3.400 millones de dólares. Macromedia FreeHand, que en un principio perteneció a Altsys y luego licenciado a Aldus, no tuvo mayores actualizaciones desde su versión MX por parte de la misma Macromedia, si bien la popularidad de Macromedia era mucho menor que la de Adobe, Macromedia Freehand logró captar una significativa audiencia alrededor del mundo como para pasarla totalmente por alto debido principalmente a su integración con las anteriores aplicaciones de Macromedia, hasta ese entonces, Macromedia Flash y Macromedia Fireworks (Hoy, las actuales Adobe Flash y Adobe Fireworks). Con el paso de Macromedia a Adobe, Freehand sufrió un abandono todavía más profundo que el que sufría en Macromedia, principalmente porque su existencia actualmente no es muy exhibida, ya que además, Adobe sigue ofreciéndola como uno de sus productos aunque sin actualizaciones y sin reconocerla como "Adobe Freehand" ni integrandola a alguna de sus suites, además, porque lógicamente entraría en conflicto competitivo con Adobe Illustrator. Los usuarios de Macromedia Freehand que desean nuevas funciones en un programa de este tipo deben pasarse necesariamente a Adobe Illustrator. Según un comunicado emitido en julio de 2009 por Adobe Systems Incorporated y publicado en su sitio web oficial en español, llamado Adobe y el futuro de Freehand, Adobe expone su posición respecto al programa: No se han realizado actualizaciones de FreeHand en más de cuatro años y Adobe no tiene pensado iniciar un desarrollo para agregar funciones nuevas o compatibilizar Mac con tecnología Intel y Windows Vista. Para apoyar los flujos de trabajo de los clientes, seguiremos vendiendo FreeHand y ofreciendo servicio de atención al cliente y de asistencia técnica de acuerdo con nuestras políticas. Aunque reconocemos que FreeHand dispone de una base de clientes fieles, animamos a los usuarios a que utilicen el nuevo Adobe Illustrator CS4, que es compatible tanto con PowerPC y Mac con tecnología Intel, como con Microsoft Windows XP y Windows Vista. Los clientes de FreeHand pueden cambiarse a Illustrator CS4 (la obtención de varias licencias también está disponible) y acceder a los recursos gratuitos para facilitar la transición. Ha sufrido diferentes actualizaciones dirigidas a atraer al público que perteneció a Macromedia Freehand, principalmente haciendo hincapié en su integración e interfaz de usuario con las otras aplicaciones que pertenecieron a Macromedia, sin embargo, existen usuarios que se muestran todavía reacios a dar el paso a Illustrator como es el caso de una comunidad web de antiguos usuarios de Freehand llamada 171
FreeFreeHand.org "FreeHand Libre" una organización no lucrativa sostenida por donaciones de sus usuarios y que sigue empeñada en mantener el "ideal Freehand", su intención consiste en presionar a Adobe Systems para que actualice a Freehand o bien que lo libere y proporcione el código fuente del mismo a una tercera compañía o comunidad para que ésta lo siga desarrollando por su cuenta, no obstante, Adobe Systems no ha hecho ningún caso a éstas exigencias. • Corel Draw Es una aplicación informática de diseño gráfico vectorial, es decir, que usa fórmulas matemáticas en su contenido. Ésta, a su vez, es la principal aplicación de la suite de programas CorelDRAW Graphics Suite ofrecida por la corporación Corel y que está diseñada para suplir múltiples necesidades, como el dibujo, la maquetación de páginas para impresión y/o la publicación web, todas incluidas en un mismo programa. Sus principales competidores son Adobe Illustrator e Inkscape, éste último de código abierto. CorelDRAW fue lanzado oficialmente en el año de 1989, diseñado por los ingenieros informáticos Michel Bouillon y Pat Beirne de Corel Corporation. Actualmente la versión más reciente de CorelDraw es la versión X6 (V.16). APLICACIONES PROFESIONALES 3 • PDF ✏✏ Adobe Acrobat Es una familia de programas informáticos desarrollados por Adobe Systems diseñados para visualizar, crear y modificar archivos con el formato Portable Document Format, más conocido como PDF. Algunos programas de la familia, especialmente la creación de este tipo de archivos, son comerciales, mientras que otros, como la lectura de este tipo de documentos, son freeware. Adobe Reader (denominado anteriormente Acrobat Reader) está disponible sin cargo alguno en la página de descargas de Adobe, y permite la visualización e impresión de archivos PDF. Acrobat y Reader son de uso muy popular como forma de presentar información con un formato fijo similar al de una publicación. Cuenta con versiones para los sistemas operativos Microsoft Windows, Mac OS, Linux, Windows Mobile, Palm OS, Symbian OS y Android. El uso del formato PDF es muy común para mostrar texto con un diseño visual ordenado. Actualmente se encuentra en su versión Adobe Acrobat XI. Adobe Reader, al igual que muchos otros productos de Acrobat, se encuentra disponible en los idiomas: árabe, chino simplificado, chino tradicional, checo, danés, holandés, inglés, finlandés, francés, alemán, griego, hebreo, húngaro, italiano, japonés, coreano, noruego, polaco, portugués, rumano , ruso, español, sueco, turco y ucraniano. Adobe Reader está disponible en catalán desde la versión 9.1. Las versiones en árabe o en hebreo suelen manejar cifras o ligaduras de texto, por lo que el software les permite obtener facilidad de uso. Adobe Reader en la red convierte páginas web en archivos PDF, también permite mantener la codificación del contenido del texto original. Adobe Acrobat inició con Adobe Acrobat 1.0, incluida la versión en PDF 1.0, en seguida Acrobat Exchange 1.0 (incluido el conductor de la impresora PDFWriter y la aplicación Acrobat Exchange) crea un archivo PDF a partir de una fuente PostScript. Acrobat 2.0 surgió en septiembre de 1994 para Windows y Acrobat para Macintosh. Incluían PDF 1.1. aquí eran aún pruebas menos sofisticadas que en la actualidad. 172
Adobe Acrobat 3.0 es puesto en el mercado en noviembre de 1996. Acrobat también fue compatible con Windows 95. Mostró archivos PDF de Adobe Acrobat dentro la web, y apoyó el relleno de formularios de Acrobat. La característica de los formularios fue de gran popularidad en su tiempo. Adobe Acrobat 3.0 y 3.2 contenían JavaScript y soportes para el PDF de Adobe Acrobat 1.2, lector gratuito de Acrobat para búsquedas y un cátalogo característico de Adobe Acrobat. Adobe y Acrobat 5.0 fue compatible con Windows 95 y Adobe Acrobat 5.0.5 fue el primero en correr nativo en Mac OS X y en Mac OS 9. Acrobat 5.1 vino ayudar Adobe LiveCycle Reader. Acrobat evoloucionó al poder ser compatible con Windows 95. Adobe Acrobat 6.0 ( julio de 2003). Versión de Acrobat con PDF más profesional. Adobe y Acrobat de Adobe Reader X son conocidos como Adobe Acrobat Reader (para formatos PDF). Adobe Acrobat 7 evolucionó para Windows y Acrobat ahora incluye Adobe Live Cycle Designer, Adobe Elements 7. Ante esto Adobe fue capaz de llegar a personas con nuevas aplicaciones que instaló Adobe Acrobat y probó Acrobat 3D con capacidad de convertir documentos de Acrobat portables a objetos CAD a través de Adobe 3D Kit. Pero también Adobe Acrobat tiene aplicaciones de OpenGL. Las versiones 3 y 5 del producto de Adobe Acrobat son solo: Adobe Acrobat. Adobe Acrobat a partir de diciembre de 2010 se divide en: Adobe Reader X (10.0.0), Adobe Acrobat X (10.0.0), Adobe Acrobat X Standard, Adobe Acrobat Pro X o Adobe Acrobat X Suite. ✏ Adobe Distiller Era un programa de ordenador para convertir documentos de formato PostScript de Adobe PDF (Portable Document Format), el formato nativo de la familia de productos Adobe Acrobat. Que fue enviado por primera vez como un componente de Acrobat en 1993. Acrobat 4, en 1999, añade los archivos de configuración predeterminados para Distiller y Acrobat 5, en el 2001, añadió una mejor gestión de color. Originalmente una solicitud por separado, Distiller finalmente se incorporó en un controlador de impresora para crear archivos PDF que conservan la apariencia de sus documentos impresos desde otras aplicaciones. Un producto de Adobe relacionados, Acrobat Distiller Server, fue lanzado en 2000 y proporcionó la capacidad de realizar la conversión de grandes volúmenes de PostScript a formato PDF a través de una arquitectura cliente-servidor centralizado. En 2013, Distiller Server se interrumpió en favor del componente generador de PDF de Adobe LiveCycle. ✏ Enfocus Pitshop Enfocus fue fundada en 1993 por Peter Camps . La compañía fue fundada para desarrollar soluciones para la plataforma NeXT para editar archivos PostScript. Con el declive de NeXT migró a la plataforma Macintosh. En 1997, la atención se desplazó de las soluciones de PostScript para incluir también herramientas de PDF basados como la industria editorial comenzó a moverse para apoyar el formato PDF . Enfocus fue adquirida por Artwork Systems en 2001. A partir de 2007 , tras la fusión de Artwork Systems y EskoGraphics , Enfocus funciona como una unidad de negocio estratégica dentro de Esko . En marzo de 2008 adquirió EskoArtwork Gradual Software , un desarrollador belga de software de automatización de flujo de trabajo y se integra la tecnología de Gradual Software en la unidad de negocio de Enfocus . En 2011 , Esko fue adquirida por Danaher . En 2002 , Enfocus fue co -fundador del Ghent PDF Workgroup de la que sigue siendo miembro . Certified PDF es una tecnología central con el apoyo de todos los productos de Enfocus , que se 173
puede insertar una serie de metadatos en un archivo PDF, como creador , historia modificación / edición, la historia y los criterios de verificación previa y, opcionalmente , una secuencia de estados de deshacer . Productos de Enfocus pueden crear, leer y actualizar los certificados en formato PDF se pasa a través de una secuencia de producción . ✏✏ Neo Neo es una herramienta de edición y corrección, altamente productiva y rentable, para archivos multi página PDF nativos. Los documentos de origen, frecuentemente no están disponibles, por lo tanto, para las correcciones de último minuto solo hay una solución: editar el archivo PDF nativo, tan rápidamente como sea posible. Cualquier usuario que trabaje con PDFs considerará Neo como un activo formidable, que reduce drásticamente los ciclos de aprobación y corrección, inevitables en los exigentes entornos de preimpresión actuales. • Diseño de tipos: ✏✏ Fontographer Es un potente editor de fuentes ideal para diseñadores gráficos interesados en crear sus propias tipografías o modificar las ya existentes en su ordenador. Las principales características de la aplicación son: Posibilidad de abrir y generar fuentes en formato Type 1, TrueType, OpenType, Type 3 y Multiple Master Fonts. El intercambio de archivos con FontLab Studio, TypeTool o ScanFont utilizando el formato de FontLab VFB Posibilidad de copiar y pegar o importar imágenes realizadas en otras aplicaciones (por ejemplo, Adobe Illustrator) Visualización rápida de todos los caracteres de una fuente Sin olvidar otras características como la posibilidad de examinar o modificar la codificación de una fuente, edición de diferentes parámetros o kerning en la ventana de métricas, facilidad a la hora de configurar el espaciado de línea, nombre, etc… La interfaz es muy sencilla pero no por ello menos potente. Para quien apenas tenga conocimientos, empezar a crear una nueva fuente es un proceso muy sencillo. Además su editor incluye todas las herramientas necesarias para crear un tipo desde cero y aplicarle cualquier modificación. Cuando abrimos un archivo de tipografía nos aparece una primera ventana que nos muestra todos los caracteres que la forman, pudiendo desplazarnos por ellos rápidamente. Además, arriba de cada tipo veremos el carácter del teclado que tendremos que pulsar para mostrar dicho tipo. Luego, una vez clicamos dos veces sobre algún caracter se nos abrirá el editor. Al lado de dicha ventana está la barra de herramientas. En ella podemos encontrar herramientas como la pluma con la que crear el dibujo vectorial que formará el tipo, para escalar o voltear,.... Pero sin duda lo mejor es la posibilidad de crear cada caracter en cualquier aplicación de dibujo vectorial, como por ejemplo Adobe Illustrator, pudiendo luego con un simple copiar y pegar llevarnos el caracter a Fontographer. • Imposición: ✏✏ Preps Una de las herramientas más utilizadas en la industria de la impresión, imposición PREPS Software produce más rápido, imposiciones más precisos que maximizan el uso de la hoja de impresión . 174
Para el uso con los RIP de terceros y los flujos de trabajo - o integrado con KODAK PRINERGY Workflow Software, como parte de un Flujo de Trabajo Unificado KODAK . ♦♦ Acelera y automatiza el proceso de imposición ♦♦ Soporta trabajos complejos para la impresión digital y convencional con facilidad ♦♦ Hace que sea más fácil de manejar grandes bibliotecas de plantillas ♦♦ Ayuda a reducir los costos laborales y los tiempos de respuesta a través de la automatización ♦♦ Soporta archivos estándar de la industria de entrada y salida JDF PDF ♦♦ PREPS Software 7 trae imposición automática a nuevos niveles de productividad, con características como las siguientes: ♦♦ Más rápidos, más inteligentes , imposiciones -a basados en plantillas nueva herramienta de búsqueda de plantilla , nuevas SmartMarks opciones, y una mejora de las normas Editor Marcar ♦♦ Mejoramiento de los informes de producción de colores, dimensiones y equipamiento especificados para el trabajo ♦♦ Mejoras en el empaque como el incremento de paso y repetición para aplicaciones de embalaje , y una interfaz que utiliza terminología de la industria de envases ♦♦ Todas las funciones para todos los usuarios : Versión 7 elimina la distinción "Pro" . Todo el mundo recibe el conjunto completo de características - el equivalente de PREPS Software Pro! ♦♦ Totalmente integrado dentro de la nueva interfaz de espacio de trabajo de flujo de trabajo PRINERGY ✏✏ Fast Impose FastImpose es el módulo de imposición que se añade al servidor de automatización de flujo de trabajo de Esko BackStage . Añade herramientas de productividad para agilizar el proceso de imposición - por lo general la parte más manual de un flujo de trabajo de impresión comercial. También incluye herramientas de control de calidad para reducir los errores de manejo y detectar errores antes de que se hacen a la imprenta. Sobre la base de más de diecisiete años de experiencia en la imposición, FastImpose maneja toda imposición necesita , de diseño estándar , multi- web, puesta de largo y continuo , varias secciones con diferentes tamaños de equipamiento en la misma hoja - incluso desplegables . JDF cubre muchas áreas , pero la imposición es a menudo el proceso que puede ofrecer el mayor ahorro . Esko define y promovió activamente un suplente , el método de alto nivel de la transmisión de información entre los sistemas de imposición de MIS para la preimpresión. La capacidad de automatizar totalmente la imposición. No más operador de preimpresión tiempo para crear imposiciones, siempre en sintonía con la imposición de la planificación de la producción . La mayoría de soluciones de flujo de trabajo son capaces de emitir una prueba de imposición en un gran formato de inyección de tinta plotter . Con FastImpose , la información adicional se puede añadir durante la producción, tales como las líneas que designan al filo de la placa , al filo de papel, y la pinza . Estos ayudan a asegurar un posicionamiento correcto en una hoja . Las líneas de corte alrededor de cada página pueden facilitar el control de las hemorragias adecuadas. Uso de la función SmartMarks , usted puede añadir su propia lista , logotipo de la empresa - lo que usted quisiera. Si su impresor le gustaría ver 175
la información de cobertura de tinta antes de que el trabajo se sube a la prensa , se puede calcular y se imprime en la prueba de la imposición. FastImpose es la única aplicación de imposición que proporciona una vista previa WYSIWYG instantánea, incluyendo la posibilidad de ver las separaciones y las densidades de medida. La vista previa es también útil cuando la página Posicionamiento necesita ser ajustado . Se puede ver de inmediato los resultados. Con otros flujos de trabajo , esto se hace por ensayo y error . Con FastImpose , una marca de código de barras puede agregar dinámicamente información acerca de esa firma en particular , lado - e incluso el color . Los códigos de barras también son cada vez más utilizados por los equipos de post -impresión para comprobar que las firmas están siendo cotejados en el orden correcto . FastImpose nativamente soporta los códigos de barras para los sistemas como ASIR de MüllerMartini o WST , generando automáticamente el código correcto también para las diferentes versiones . FastVariants es una serie de herramientas premio ganador para trabajos de varias versiones. Puestos de trabajo multi - versión se están volviendo populares , y por lo general se completan con un solo cambio de placa - generalmente el negro . Desafortunadamente, estas versiones se suministran a menudo como archivos de color completos. Es posible que la placa de negro desde un archivo de versión no se ajusta a los otros colores en el archivo maestro . Una serie de herramientas , llamado FastVariants , resuelve esto. ImposeProof produce un frente hacia atrás prueba imposición ficticia para la aprobación del cliente . ImposeProof toma el documento imposición creado por FastImpose y lo prepara para la salida en prácticamente cualquier impresora dúplex en el mercado, tanto en color como en blanco y negro . • Packaging y etiquetas ✏✏ Art Pro ArtPro es un editor de preproducción de envases con todas las funciones que ofrece tecnologías únicas y herramientas específicas centradas en los principales puntos de pre-impresión (por ejemplo, alineaciones CAD / gráficos, captura , distorsión , cribar, códigos de barras, ...). Si se quiere reducir drásticamente el coste de los errores y aumentar la eficiencia de su departamento de preproducción de envases basados en Mac . Ya que soporta todos los formatos de archivo estándar de la industria, ArtPro se puede integrar en cualquier flujo de trabajo de envases , pero debido a una integración perfecta con ArtiosCAD y Automation Engine , ArtPro convierte los paquetes de software de Esko en una solución de envasado completa e insuperable . Herramientas de control de calidad de empaquetado como Preflight , Viewer y Estudio ( módulo opcional ) detectan problemas en una etapa temprana y reducen el riesgo de pruebas perdidas. Para muchas tecnologías ( visualización 3D , separaciones de color, detección de la asignación, la captura y la generación de código de barras ) , Esko define el estándar de la industria . Herramientas de separación de colores fuertes pueden convertir tintas de cuatricromía , tintas personalizados (como Pantone ) en la tinta requerida, así como para líneas de trabajo que con las imágenes . ✏✏ ArtiosCAD Es un programa de software dedicada al diseño de envases plegados , principalmente cajas de cartón corrugado y cartón plegable .ArtiosCAD está diseñado en Ludlow , Massachusetts en una filial de EskoArtwork con oficinas centrales en Gante , Bélgica. Es utilizado por diseñadores de la caja , los responsables de la muestra cuadro , los fabricantes de troqueles . En el mundo existen cerca de 10.000 copias de ArtiosCAD de uso profesional. Funcionamiento ArtiosCAD es típicamente un trabajo de tiempo completo . Utiliza . ARD como su formato nativo principal. A. ARD típicamente representa una caja. Contiene una 176
representación plana de la hoja con sus líneas de corte , líneas de pliegue y muchas otras representaciones de producción . Otros formatos nativos : ♦♦ .A3D : pre- definido representaciones 3D de los envases , que puedan contener las asambleas y otras combinaciones de cajas y su contenido en 3D ♦♦ .MFG : representa la información de fabricación. Diseños ARD primero se intensificaron / repetida para la producción económica. Esto crea una representación básica del maestro ( s ) de corte. Este es entonces diseñado adicionalmente para contener ayudar a ayudas para la producción , tales como: ✳✳ Puentes y nicks ✳✳ Caucho ✳✳ Supresión ✳✳ Importaciones ArtiosCAD : ✳✳ Todos los formatos populares de CAD 2D ✳✳ Gráficos ( PDF, EPS , imágenes de píxeles ) ✳✳ Sólidos 3D de Catia , Solidworks , Pro -E, ... ✳✳ Formatos de tabla de corte ✳✳ PDF tanto en 2D y 3D ✳✳ Todos los formatos populares de CAD 2D ✳✳ Collada de representaciones en 3D con CAD y gráficos combinados ✏✏ Nexus Nexus es una solución de flujo de trabajo RIP de alta gama para entornos de impresión comercial . Nexus aumenta la productividad en preproducción mediante la automatización de tareas de front-end - humanos intensivos y tareas RIP basado . Es un sistema modular y se compone de 2 principales flujos de trabajo : el flujo de trabajo Nexus Classic RIP y el Nexus PDF flujo de trabajo nativo. Nexus es un cliente-servidor solución controlada a través de NexusManager . Permite a los usuarios monitorear el progreso del trabajo y flujo de trabajo desde una estación de Mac a través de TCP / IP . la También permite enviar archivos con los ajustes específicos basado en los requisitos del trabajo. Es capaz de vincular a los sistemas externos como MIS o entornos de bases de datos. NeXML permite el control de automatización de flujo de trabajo y de los ambientes externos a través jobtickets XML. Además , los trabajos pueden ser iniciados por un sistema MIS enviar JDF / JMF al flujo de trabajo de Nexus . Información del trabajo se retiene en la compra de entradas y parámetros definidos por el sistema MIS puede ser usado a través de XPath . El flujo de trabajo Nexus Classic RIP se centra alrededor NexusRIP , la extracción y detección del motor de Nexus , el apoyo a muchos diferentes formatos de archivo , incluyendo PDF , PS, EPS , DCS, TIFF / IT ... UTILIDADES: GESTORES DE TIPOS • Adobe Type Manager Adobe Type Manager (ATM ) es el nombre de una familia de programas de ordenador creados y comercializados por Adobe Systems para su uso con su Type 1. 177
La ATM original fue creado para la plataforma Apple Macintosh para escalar fuentes PostScript Type 1 para el monitor de el ordenador, y para imprimir en impresoras que no sean PostScript. Mac Type 1 fuentes vienen con fuentes de pantalla establecidas para mostrar a sólo ciertos tamaños en puntos . En los sistemas operativos Macintosh anteriores a Mac OS X, las fuentes Type 1 establecidos en otros tamaños aparecerían irregular en el monitor. ATM permite fuentes Type 1 para aparecer lisa en cualquier tamaño de punto , y para imprimir bien en dispositivos que no sean PostScript . Adobe portado estos productos a la plataforma de sistema operativo Microsoft Windows, donde se las arreglaron visualización de fuentes parcheando a Windows ( 3.0 , 3.1, 95 , 98 , Me) en un nivel muy bajo . El diseño de Windows NT realiza este tipo de parches inviable , y Microsoft respondió inicialmente al permitir que las fuentes Type 1 para ser convertidos a TrueType de instalar, pero en Windows NT 4.0, Microsoft añadió soporte " controlador de fuentes " para permitir ATM para proporcionar apoyo de tipo 1 (y en la teoría de los otros conductores de fuente para otros tipos ). • Linotype FontExplorer El iTunes de las fuentes se denomina Linotype FontExplorer X, un gestor de fuentes que puede utilizarse para ver las fuentes que hay instaladas en el equipo y para adquirir otras nuevas en la tienda online de Linotype. Familia, estilo, formato y el mapa de caracteres son los detalles que podrás consultar de cada fuente. Desde FontExplorer X podrás activar y desactivar el uso de cualquier fuente, así como organizarlas por familias, carpetas y grupos inteligentes. Linotype FontExplorer X también permite adquirir fuentes en la tienda online de linotype.com. Puedes buscarlas por nombre o familia, así como explorar las diferentes categorías. El precio de la fuente aparece junto a su nombre. ✏ Para Mac OS X 10.3 o posterior. ✏ Activar / desactivar fuentes ✏ Borrar cachés de fuentes del sistema ✏ Borrar aplicaciones ( Adobe ® , Microsoft ® , Quark ® ) cachés de fuente ✏ Organizar fuentes con conjuntos ✏ Organiza automáticamente las fuentes con conjuntos inteligentes ✏ Activar / desactivar los conjuntos y conjuntos inteligentes ✏ Organizar Juegos inteligentes en carpetas ✏ Fuentes Ordenar por idiomas en Juegos inteligentes ✏ Fuentes Clasificar en Juegos inteligentes por las características de OpenType ✏ Sets ad hoc de selección de fuente actual ✏ El apoyo a las colecciones de fuentes de Apple ® ' s ✏ Vista Familia de fuentes ✏ Vista la vinculación OpenType ® estilo ✏ Control de activación con la aplicación de base ✏ conjuntos y la fuente vista petición ✏ Añadir fuentes suscripción Fonts.com o Google Fuentes a través de la tecnología de entrega SkyFonts ✏ Importar , organizar y previsualizar fuentes web (formatos WOFF y EOT) 178
✏✏ La funcionalidad de impresión Personalizable ✏✏ Crear Fontbooks por la plantilla ✏✏ Agregar y editar plantillas de impresión ✏✏ Incluya gráficos encabezado personalizado / pie de página ✏✏ Profesional Plantilla catálogo Tipo de letra ✏✏ Compartir plantillas de impresión con la función de importación y exportación ✏✏ Modo de pantalla panorámica ✏✏ Modo de Transparencia ✏✏ Transparente Presentación de fuente ✏✏ Clasificación ( manual y automático ) ✏✏ barra de herramientas configurable ✏✏ Tienda de la fuente Integrado ✏✏ Tienda de fuente puede ser ocultada por el usuario o el administrador del servidor ✏✏ manejo de conflictos ✏✏ Mejorado el escáner de la fuente del documento ✏✏ soporte Growl ✏✏ Mejora de la funcionalidad de copia de seguridad • Catálogo tipográfico (MacOs X ) El Catálogo Tipográfico es una aplicación de Mac incluida en el software Mac OS X. Te permite organizar fuentes, ver los tipos de caras y estilos, así como instalar, habilitar y deshabilitar las fuentes en tu Mac. Después de que hayas instalado las fuentes a través del Catálogo Tipográfico, estarán accesibles a través del software que tengas en tu computadora. Deshabilitar las fuentes hace que no puedas acceder a ellas sin tener que eliminarlas de tu disco duro. ✏✏ Elige "Ir" en el menú del Finder, y luego selecciona "Aplicaciones". Localiza el "Catálogo Tipográfico" (o Font Book en inglés), y luego haz doble clic para abrir la aplicación. ✏✏ Familiarízate con la interfaz. Las fuentes están clasificadas por "Colecciones" en el panel izquierdo. Las fuentes individuales y las familias de fuentes se clasifican en el panel central. Mira el tipo de cara real en la ventana de vista previa a la derecha. ✏✏ Haz doble clic en un archivo de fuente para verlo en el panel de muestra de caracteres a la derecha. Mira los pesos alternativos en la misma familia de fuentes seleccionándolos desde el menú emergente en la ventana de vista previa. ✏✏ Instala una fuente haciendo clic en el botón "Instalar fuente" en la parte inferior derecha del panel de vista previa. Alternativamente, selecciona "Agregar fuentes" en el menú "Archivo" para seleccionar una fuente que esté en el equipo. Haz clic en "Abrir" después de haberte desplazado hasta la carpeta. ✏✏ Quita fuentes de la columna de "Colección" seleccionando el nombre de la fuente en la columna central de "Fuente". Selecciona "Archivo" en el menú y ve a "Quitar familia de (Nombre fuente)". Los ficheros se mueven a la Papelera. ✏✏ Organiza tus fuentes en colecciones seleccionando "Nueva Colección" en el menú "Archivo". Elige y escriba un nombre para la colección de la fuente. Selecciona "Todas las fuentes" de la columna "Colección" de la izquierda. Arrastra el nombre de la fuente al nombre de la colección en la columna de la "Colección". ✏✏ Desactiva las fuentes de las aplicaciones de tu computadora haciendo clic en "Todas las fuentes" en la columna de "Colección", y luego haz clic en el nombre de la fuente en la columna "Fuente". Selecciona "Editar" y luego "Deshabilitar Familia de (Nombre fuente)". 179
FLUJOS DE TRABAJO • Heidelberg Prinect Prinect integra las zonas tradicionalmente separadas de gestión, preimpresión, impresión y acabado, automatiza todo el proceso de impresión y aumenta la rentabilidad de su imprenta. La integración de todos estos procesos conduce a flujos de trabajo de producción más eficientes, ofrece una mayor transparencia, y acelera el flujo de trabajo. Así Prinect hace una valiosa contribución a liberar el potencial completo de su imprenta para la racionalización y optimización.. Heidelberg es el único fabricante que ofrece un flujo de trabajo imprenta que integra y gestiona todo el proceso de producción de impresión. Prinect abarca todo, desde la gestión de la imprenta, la conexión al cliente en línea, preimpresión y flujo de trabajo de impresión digital para hacer listas de optimización, el color, la calidad, el funcionamiento de la máquina y una gama completa de servicios. • Kodak Prinergy Los flujos de trabajo PRINERGY mejoran la productividad en cualquier entorno de impresión: trabajos de gran volumen o tiradas cortas, convencionales o digitales. Los flujos de trabajo de PRINERGY utilizan JDF para compartir información de datos de trabajos, imposición y asignación de páginas con los sistemas de preparación, planificación de producción, preimpresión y negocio. Ayuda a reducir costos y a crear un entorno más eficiente gracias al control mejorado y a la automatización basada en las especificaciones estándar del sector. • Screen Trueflow Desde su debut en 2000, Trueflow ha seguido a abrazar los cambios tecnológicos en la preimpresión para proporcionar el mejor flujo de trabajo PDF jamás creado. Trueflow SE es el último, el más grande sistema de Trueflow creado por Dainippon Screen. Su combinación de un motor RIP de última generación y una interfaz de usuario única, bien desarrollado le da el flujo de trabajo final. Actualiza a proporcionar el flujo de trabajo final Un sistema de flujo de trabajo PDF totalmente compatible con JDF • Fuji Celebrant El sector de la impresión continúa planteando retos a los profesionales de la preimpresión. El aumento de la velocidad de producción y la reducción de los períodos de entrega han provocado que la gestión del flujo de trabajo sea un aspecto clave para el éxito económico de los impresores. Asimismo, los avances en 180
comunicación y desarrollo informático y la adopción de estándares han generado la oportunidad de establecer vínculos más cercanos con los clientes, así como la posibilidad de automatizar los flujos de trabajo. Además, la preimpresión es un sector mundial, cuya demanda varía en cada región. El reto de los proveedores de impresión es ofrecer un producto que tenga la flexibilidad de adaptarse a una gama amplia de aplicaciones exigidas por los usuarios. El flujo de trabajo Certified PDF de Celebrant le permite predeterminar una máquina de imprimir para los archivos antes de iniciar la producción. A continuación, los archivos pueden verificarse: se aceptan, rechazan o corrigen para minimizar las interrupciones. A través del flujo de trabajo, Celebrant le brinda la oportunidad de ver, corregir y reprocesar los trabajos. Además, puede realizar, dentro de una imposición, sustituciones de última hora en archivos que ya se han procesado. El formato de definición del trabajo (JDF por sus siglas en inglés) es una tecnología emergente que proporciona un medio para automatizar la impresión; desde el cálculo del presupuesto del trabajo hasta la entrega del producto impreso. El estándar JDF contiene la especificación que permite crear un job ticket, u hoja de trabajo, que puede definir todos los elementos del proceso de impresión necesarios para el trabajo que pide el cliente. Además, JDF permite transmitir datos en formato de mensajería del trabajo (JMF por sus siglas en inglés) de un dispositivo a otro, por lo que pueden comunicar el estado del procesamiento a medida que el trabajo avanza. Actualmente, el sector está adoptando el formato JDF de forma amplia, ya que aporta ventajas como la automatización, la reducción de la introducción de datos y el informe del estado. Los productos Celebrant de Fujifilm son compatibles con JDF, por eso todos los dispositivos pueden transmitir información sobre sus prestaciones y procesar trabajos en formato JDF. Además, los productos Celebrant incluyen una función llamada JMF Status Reporter, que informa del estado de los trabajos a medida que avanzan por el flujo de trabajo. La opción de imposición de Celebrant acepta datos en JDF e instrucciones procedentes de diversas aplicaciones de imposición. Asimismo, las plantillas de imposición en JDF pueden importarse en Celebrant para realizar el proceso automáticamente. La interfaz de la máquina de imprimir de Celebrant (CIP4/PPF) puede exportar información en JDF a la máquina de imprimir, como detalles sobre la maquetación y los tinteros. Esta información puede reducir los tiempos de preparación en máquina. Fujifilm continúa trabajando con el comité CIP4 para fomentar la adopción del formato JDF en el sector. Acrónimos principales: ✏✏ JDF: Job Definition Format, formato de definición del trabajo; estándar de preimpresión, impresión y postimpresión. ✏✏ JMF: Job Messaging Format, formato de mensajería del trabajo, utilizado para enviar mensajes entre dispositivos compatibles con JDF. ✏✏ CIP4: International Co-operation for the Integration of Processes in Prepress, Press and Postpress, organización que define, gestiona y promueve la adopción del formato JDF. ✏✏ PPF: Print Production Format, formato de producción impresa, utilizado para establecer comunicación entre las fases de preimpresión e impresión. • Esko Odystar Odystar es una solución de flujo de trabajo de preimpresión, altamente automatizada, que se basa 181
en PDF como formato de datos nativo y en JDF como formato de ticket de trabajo. Un flujo de trabajo automatizado Odystar deja los trabajos listos para impresión, los archivos solapados y agiliza el montaje por repetición. Odystar añade marcas, ripea los archivos y los envía a la cola de impresión adecuada, sin ninguna intervención del operador. REDES DE ÁREA LOCAL LAN LAN significa Red de área local. Es un grupo de equipos que pertenecen a la misma organización y están conectados dentro de un área geográfica pequeña a través de una red, generalmente con la misma tecnología (la más utilizada es Ethernet). Una red de área local es una red en su versión más simple. La velocidad de transferencia de datos en una red de área local puede alcanzar hasta 10 Mbps (por ejemplo, en una red Ethernet) y 1 Gbps (por ejemplo, en FDDI o Gigabit Ethernet). Una red de área local puede contener 100, o incluso 1000, usuarios. Al extender la definición de una LAN con los servicios que proporciona, se pueden definir dos modos operativos diferentes: En una red "de igual a igual" (abreviada P2P), la comunicación se lleva a cabo de un equipo a otro sin un equipo central y cada equipo tiene la misma función. En un entorno "cliente/servidor", un equipo central le brinda servicios de red a los usuarios.
ELEMENTOS DE UNA RED • El estándar de red Ethernet Ethernet es el estándar más común en la construcción de redes locales y define Las características del hardware, cableado, conectores, estaciones base, tarjetas de red y dispositivos conectados a la red. Este estándar, cuyo nombre es en realidad IEEE 802.3, también establece determinadas reglas de tráfico para las comunicaciones de la red. En una red Ethernet se suele emplear el protocolo de comunicaciones TCP/IP. • Ethernet por cable Normalmente, la red Ethernet se construye a partir de una serie de ordenadores de distintos usuarios que se conectan a 182
un nodo de red, normalmente un conmutador o switch. Para crear una red mayor, se pueden conectar entre sí varios de estos conmutadores. Esta manera de organizar las redes se denomina de topología en estrella y configura de manera natural una segmentación de la red que supone que todos los paquetes de información pasan por un mismo nodo central y no afectan innecesariamente a los ordenadores de otra red en estrella. Se han desarrollado numerosas versiones de Ethernet por cable. Las diversas generaciones de Ethernet se basan en tecnologías similares, lo que nos permite actualizar con facilidad una red. Podemos usar todo tipo de cables e incluso combinar distintos tipos en una misma red. La más habitual en la actualidad es la Ethernet de categoría 5, o Fast Ethernet, también llamada 100BaseTX. Tiene una velocidad ele transmisión teórica de 100 Mbit/s (es decir, de 12,5 MB/s), diez veces más rápida que la categoría 3, más antigua, con una velocidad teórica de 10 Mbit/s. La última generación de Ethernet es la 1000BaseT, también llamada Gigabit Ethernet, cuyo uso se está generalizando. Tiene una velocidad de transmisión teórica ele 1.000 Mbits/s (es dec ir, 1 GBit/s), que corresponde a 125 MB/s. Para poder aprovechar determinada generación de Ethernet, es necesario que tanto los ordenadores como el dispositivo de red que se halla al otro extremo del cable sean compatibles con esa generación concreta. En el caso de que una de las partes no sea compatible, la transmisión se verá limitada a la velocidad de transmisión del más antiguo de los componentes de la red. También pueden conectarse directamente por Ethernet dos ordenadores, para lo que se necesita un cable ele conexión especial, denominado cable Ethernet cruzado. • Cableado de red El tipo de cable que usamos para crear una red determinará la velocidad de es ta, es decir, el tiempo que tardará en transferir los datos, así como su envergadura (dependiendo del tipo de cable se puede llegar a determinadas distancias máximas) y el grado de seguridad de sus transmisiones. Existen tres tipos de cables de red: de par trenzado, coaxiales y el fibra óptica. En la actualidad, las redes Ethernet se conectan mediante cables de par trenzado, con o sin protección contra la corriente eléctrica, o mediante fibra óptica. La elección del cable suele ser una cuestión de precio frente a capacidad. Es habitual combinar distintos tipos el cables en una misma red. En algunas zonas de la red es suficiente utilizar un cable de par trenzado, mientras que las de tráfico pesado que cubren grandes distancias exigen una capacidad que sólo puede proporcionar el cable de fibra óptica. • Ethernet Inalámbrica (WLAN) Además de las redes tradicionales por cable, existen las redes inalámbricas o WLAN (Wireless Local Are a Network). Estas cuentan con numerosas ventajas, Como no verse limitadas por el cableado o no estar ligadas a una localización específica. Su inconveniente es que son mucho más lentas que las redes tradicionales. En muchos lugares, como cafeterías, hoteles, aeropuertos, trenes o aviones, existen redes inalámbricas públicas. Su velocidad disminuye al incrementar la distancia o cuando la señal debe atravesar muros gruesos, por ejemplo. 183
La mayor parte de las redes inalámbricas se basan en una variación del estándar IEEE 802.11. Son principalmente tres las variantes que se usan: 802.11a, 802.11b y 802.11g. El IEEE (Institute of Electrical and Electronics Engineers) es una asociación estadounidense dedicada a la estandarización. La primera versión que se extendió fue la IEEE 802.11b, comúnmente llamada WiFi. En la actualidad, el término WiFi ha pasado a incluir todos aquellos equipos que soportan cualquiera de los tres estándares anteriormente mencionados. • Estaciones base para redes inalámbricas Las estaciones base son necesarias para configurar redes inalámbricas y para conectar este tipo de redes con redes por cable, pues reciben las señales de los ordenadores y transmiten las comunicaciones a las redes conectadas por cable. Las estaciones base están construidas para que soporten diversos estándares de comunicación y requieren tener instaladas en el ordenador tarjetas de interfaz de red para los correspondientes estándares de comunicación inalámbrica • Protocolo de red Para que todas las unidades de una red se comuniquen unas con otras, deben lar el mismo lenguaje. Aquí es donde interviene el protocolo de red. Un protocolo de red consiste en una serie de "reglas" que determinan la comunicación entre ordenadores y otros dispositivos que componen una red, de forma parecida a las normas gramaticales de una determinada lengua. Dicho de otro modo, un protocolo de red define de qué manera se empaqueta la información cuando se transmite a través de una red. Cuando las redes están compuestas por una combinación de sistemas operativos Mac OS, Windows y Unix, lo normal es utilizar TCP/IP. El protocolo TCP/IP se usa también para comunicarse vía Internet. Se trata del protocolo de red más estandarizado y resulta compatible con casi todas las redes. • Tarjetas de interfaz de red La tarjeta de interfaz el red es un circuito impreso, normalmente instalado en una ranura que el ordenador tiene con ese fin. La tarjeta gestiona la comunicación entre el ordenador y el cableado de la red. Los distintos tipos de redes precisan tarjetas de protocolo de red diferentes. También muchas impresoras disponen de tarjetas de protocolo de red, así como algunos discos duros, proyectores y cámaras web. • Dispositivos de red Además de los componentes ya mencionados, una red suele contar también con uno o más servidores y diversos tipos de unidades conectadas entre sí. El servidor es un ordenador de la red dedicado a gestionar las tareas comunes a todos sus usuarios. Otros tipos de dispositivos el red, que se emplean para ampliar y/o dividir la red en distintas zonas o segmentos o para conectar varias redes son los repetidores, son los hubs, los puentes, los conmutadores y los routers. A continuación, explicaremos brevemente en qué consisten algunos de los dispositivos de red más comunes. • Hubs Los hubs, o concentradores, son dispositivos utilizados para conectar distintas unidades de una red. Los puentes, los routers y otras unidades de una red se conectan a través de hubs. Existen dos tipos de hubs, los pasivos y los activos. Los activos funcionan como repetidores y amplifican la seüal que pasa a través de ellos, mientras que los pasivos sólo sirven de conexión entre distintos dispositivos de una red. • Conmutadores Los conmutadores o switches, un tipo de hubs, están construidos de modo que todas las unidades 184
que se conectan a ellos tienen asignada determinada capacidad del total de la red. Eso significa que los ordenadores conectados al conmutador no se ven afectados por otros ordenadores de la misma red que no estén conectados al conmutador. Los conmutadores son importantes para las redes de producción de diseño gráfico con mucho volumen de tráfico. Es habitual que, en estas redes, los ordenadores estén conectados directamente a un conmutador. Los conmutadores son el tipo de dispositivo de red que, a largo plazo, reduce la influencia de unos ordenadores en el rendimiento de otros de la misma red, pues evitan que se produzcan colisiones de paquetes y permiten que cada ordenador se comunique cuando desee. Los conmutadores también tienen la ventaja de permitir al ordenador usar lo que se denomina full duplex, es decir, enviar y recibir información de manera simultánea, algo que sin ellos sería imposible. • Puentes y routers Los puentes y los routers se utilizan para conectar determinadas partes de una red, llamadas zonas o segmentos de la red. Sólo transfieren información de una zona o segmento a otra. Esto contribuye a minimizar el tráfico innecesario conjunto de la red y reduce la saturación del ancho de banda. • Repetidores Los repetidores se usan para ampliar el alcance geográfico de una red. Como hemos señalado ya en el apartado sobre cableado, las redes presentan limitaciones físicas debido a que la señal transportada por el cable se va debilitando a medida que se aleja de su origen. El repetidor amplifica la señal y permite que la red se extienda más allá de los límites que establece el cableado. El repetidor amplifica todas las señales que pasan por el cable independientemente de cuál sea su origen o su destino. • Servidores Un servidor es un ordenador central al que están conectados todos los demás ordenadores de una red. Suele tratarse de un ordenador potente que administra todos los dispositivos de la red y gestiona diversas funciones. El uso más habitual de un servidor es el de almacenar los archivos que comparten varios usuarios. Algunas aplicaciones permiten al servidor administrar la salida a impresoras o filmadoras, un proceso que se denomina cola de impresión, o spooling. Existen también otros softwares que permiten al servidor proporcionar información sobre el tráfico y la capacidad de la red, así como identificar a los usuarios que están conectados e incluso monitorizar su actividad en la red. El servidor también puede conectarse a Internet mediante un módem o una conexión RDSI. Los usuarios de la red pueden así conectar con ordenadores externos (y viceversa) a través del servidor. Estos dispositivos de comunicación permiten ampliar cualquier red LAN o WAN. El correo electrónico suele estar gestionado por un servidor. Un servidor de red puede gestionar la seguridad de la red mediante programas de contraseñas que permiten distintos niveles de acceso a determinados archivos, aunque también los protegen de cualquier posible alteración o borrado. Sólo el usuario autorizado para ello puede guardar cambios o borrar esos archivos. Con ello se evita enormemente el riesgo de que se alteren o se borren los archivos por error. Resulta sencillo administrar y automatizar el copiado de seguridad de datos a través del servidor. Puesto que los servidores manejan funciones de uso frecuente, en caso de tener una red de grandes dimensiones siempre se puede optar por repartir la carga de trabajo entre varios servidores para mantener una seguridad y un rendimiento óptimos del sistema. TOPOLOGÍAS El término topología se refiere a la forma en que está diseñada la red, bien físicamente (rigiéndose de algunas características en su hardware) o bien lógicamente (basándose en las características internas de su software). 185
La topología de red es la representación geométrica de la relación entre todos los enlaces y los dispositivos que los enlazan entre sí (habitualmente denominados nodos). Para el día de hoy, existen al menos cinco posibles topologías de red básicas: malla, estrella, árbol, bus y anillo. • Topología en Malla En una topología en malla, cada dispositivo tiene un enlace punto a punto y dedicado con cualquier otro dispositivo. El término dedicado significa que el enlace conduce el tráfico únicaniente entre los dos dispositivos que conecta. Por tanto, una red en malla completamente conectada necesita n(n-1)/2 canales fisicos para enlazar n dispositivos. Para acomodar tantos enlaces, cada dispositivo de la red debe tener sus puertos de entrada/salida (E/S). Una malla ofrece varias ventajas sobre otras topologías de red. En primer lugar, el uso de los enlaces dedicados garantiza que cada conexión sólo debe transportar la carga de datos propia de los dispositivos conectados, eliminando el problema que surge cuando los enlaces son compartidos por varios dispositivos. En segundo lugar, una topología en malla es robusta. Si un enlace falla, no inhabilita todo el sistema. Otra ventaja es la privacidad o la seguridad. Cuando un mensaje viaja a través de una línea dedicada, solamente lo ve el receptor adecuado. Las fronteras fisicas evitan que otros usuarios puedan tener acceso a los mensajes. • Topología en Estrella En la topología en estrella cada dispositivo solamente tiene un enlace punto a punto dedicado con el controlador central, habitualmente llamado concentrador. Los dispositivos no están directamente enlazados entre sí. A diferencia de la topología en malla, la topología en estrella no permite el tráfico directo de dispositivos. El controlador actúa como un intercambiador: si un dispositivo quiere enviar datos a otro, envía los datos al controlador, que los retransmite al dispositivo final. Una topología en estrella es más barata que una topología en malla. En una red de estrella, cada dispositivo necesita solamente un enlace y un puerto de entrada/salida para conectarse a cualquier número de dispositivos. Este factor hace que también sea más fácil de instalar y reconfigurar. Además, es necesario instalar menos cables, y la conexión, desconexión y traslado de dispositivos afecta solamente a una conexión: la que existe entre el dispositivo y el concentrador. • Topología en Árbol La topología en árbol es una variante de la de estrella. Como en la estrella, los nodos del árbol están conectados a un concentrador central que controla el tráfico de la red. Sin embargo, no todos los dispositivos se conectan directamente al concentrador central. La mayoría de los dispositivos se conectan a un concentrador secundario que, a su vez, se conecta al concentrador central. El controlador central del árbol es un concentrador 186
activo. Un concentrador activo contiene un repetidor, es decir, un dispositivo hardware que regenera los patrones de bits recibidos antes de retransmitidos. Retransmitir las señales de esta forma amplifica su potencia e incrementa la distancia a la que puede viajar la señal. Los concentradores secundarios pueden ser activos o pasivos. Un concentrador pasivo proporciona solamente una conexión fisica entre los dispositivos conectados. • Topología en Bus Una topología de bus es multipunto. Un cable largo actúa como una red troncal que conecta todos los dispositivos en la red. Los nodos se conectan al bus mediante cables de conexión (latiguillos) y sondas. Un cable de conexión es una conexión que va desde el dispositivo al cable principal. Una sonda es un conector que, o bien se conecta al cable principal, o se pincha en el cable para crear un contacto con el núcleo metálico. Entre las ventajas de la topología de bus se incluye la sencillez de instalación. El cable troncal puede tenderse por el camino más eficiente y, después, los nodos se pueden conectar al mismo mediante líneas de conexión de longitud variable. De esta forma se puede conseguir que un bus use menos cable que una malla, una estrella o una topología en árbol. • Topología en Anillo En una topología en anillo cada dispositivo tiene una línea de conexión dedicada y punto a punto solamente con los dos dispositivos que están a sus lados. La señal pasa a lo largo del anillo en una dirección, o de dispositivo a dispositivo, hasta que alcanza su destino. Cada dispositivo del anillo incorpora un repetidor. Un anillo es relativamente fácil de instalar y reconfigurar. Cada dispositivo está enlazado solamente a sus vecinos inmediatos (bien fisicos o lógicos). Para añadir o quitar dispositivos, solamente hay que mover dos conexiones. Las únicas restricciones están relacionadas con aspectos del medio fisico y el tráfico (máxima longitud del anillo y número de dispositivos). Además, los fallos se pueden aislar de forma sencilla. Generalmente, en un anillo hay una señal en circulación continuamente. SERVIDORES En informática, un servidor es un nodo que, formando parte de una red, provee servicios a otros nodos denominados clientes. También se suele denominar con la palabra servidor Una aplicación informática o programa que realiza algunas tareas en beneficio de otras aplicaciones llamadas clientes. Algunos servicios habituales son los servicios de archivos, que permiten a los usuarios almacenar y acceder a los archivos de una computadora y los servicios de aplicaciones, que realizan tareas en beneficio directo del usuario final. Este es el significado original del término. Es posible que un ordenador cumpla simultáneamente las funciones de cliente y de servidor. Una computadora en la que se ejecuta un programa que realiza alguna tarea en beneficio de otras aplicaciones llamadas clientes, tanto si se trata de un ordenador central (mainframe), un miniordenador, una computadora personal, una PDA o un sistema embebido; sin embargo, hay computadoras destinadas úni187
camente a proveer los servicios de estos programas: estos son los servidores por antonomasia. Un servidor no es necesariamente una máquina de última generación de grandes proporciones, no es necesariamente un superordenador; un servidor puede ser desde una computadora de bajo recursos, hasta una máquina sumamente potente (ej.: servidores web, bases de datos grandes, etc. Procesadores especiales y hasta varios terabytes de memoria).Todo esto depende del uso que se le dé al servidor. Si usted lo desea, puede convertir al equipo desde el cual usted está leyendo esto en un servidor instalando un programa que trabaje por la red y a la que los usuarios de su red ingresen a través de un programa de servidor web como Apache. Por lo cual podemos llegar a la conclusión de que un servidor también puede ser un proceso que entrega información o sirve a otro proceso. El modelo Cliente-servidor no necesariamente implica tener dos ordenadores, ya que un proceso cliente puede solicitar algo como una impresión a un proceso servidor en un mismo ordenador. • Tipos de servidores: Servidor de archivo: es el que almacena varios tipos de archivos y los distribuye a otros clientes en la red. Servidor de impresiones: controla una o más impresoras y acepta trabajos de impresión de otros clientes de la red, poniendo en cola los trabajos de impresión (aunque también puede cambiar la prioridad de las diferentes impresiones), y realizando la mayoría o todas las otras funciones que en un sitio de trabajo se realizaría para lograr una tarea de impresión si la impresora fuera conectada directamente con el puerto de impresora del sitio de trabajo. Servidor de uso: realiza la parte lógica de la informática o del negocio de un uso del cliente, aceptando las instrucciones para que se realicen las operaciones de un sitio de trabajo y sirviendo los resultados a su vez al sitio de trabajo, mientras que el sitio de trabajo realiza la interfaz operadora o la porción del GUI del proceso (es decir, la lógica de la presentación) que se requiere para trabajar correctamente. REDES INALÁMBRICAS WI-FI Es un mecanismo de conexión de dispositivos electrónicos de forma inalámbrica. Los dispositivos habilitados con Wi-Fi, tales como: un ordenador personal, una consola de videojuegos, un smartphone o un reproductor de audio digital, pueden conectarse a Internet a través de un punto de acceso de red inalámbrica. Dicho punto de acceso (o hotspot) tiene un alcance de unos 20 metros en interiores y al aire libre una distancia mayor. Pueden cubrir grandes áreas la superposición de múltiples puntos de acceso. Es una marca de la Wi-Fi Alliance (anteriormente la WECA: Wireless Ethernet Compatibility Alliance), la organización comercial que adopta, prueba y certifica que los equipos cumplen los estándares 802.11 188
relacionados a redes inalámbricas de área local. Esta nueva tecnología surgió por la necesidad de establecer un mecanismo de conexión inalámbrica que fuese compatible entre distintos dispositivos. Buscando esa compatibilidad fue que en 1999 las empresas Com, Airones, Intersil, Lucent Technologies, Nokia y Symbol Technologies se reunieron para crear la Wireless Ethernet Compatibility Alliance, o WECA, actualmente llamada Wi-Fi Alliance. El objetivo de la misma fue designar una marca que permitiese fomentar más fácilmente la tecnología inalámbrica y asegurar la compatibilidad de equipos. De esta forma, en abril de 2000 WECA certifica la interoperabilidad de equipos según la norma IEEE 802.11b, bajo la marca Wi-Fi. Esto quiere decir que el usuario tiene la garantía de que todos los equipos que tengan el sello Wi-Fi pueden trabajar juntos sin problemas, independientemente del fabricante de cada uno de ellos. Se puede obtener un listado completo de equipos que tienen la certificación Wi-Fi en Alliance - Certified Products. En el año 2002 la asociación WECA estaba formada ya por casi 150 miembros en su totalidad. La familia de estándares 802.11 ha ido naturalmente evolucionando desde su creación, mejorando el rango y velocidad de la transferencia de información, su seguridad, entre otras cosas. La norma IEEE 802.11 fue diseñada para sustituir el equivalente a las capas físicas y MAC de la norma 802.3 (Ethernet). Esto quiere decir que en lo único que se diferencia una red Wi-Fi de una red Ethernet es en cómo se transmiten las tramas o paquetes de datos; el resto es idéntico. Por tanto, una red local inalámbrica 802.11 es completamente compatible con todos los servicios de las redes locales (LAN) de cable 802.3 (Ethernet). Aunque se tiende a creer que el término Wi-Fi es una abreviatura de Wireless Fidelity (Fidelidad inalámbrica), equivalente a Hi-Fi, High Fidelity, término frecuente en la grabación de sonido, la WECA contrató a una empresa de publicidad para que le diera un nombre a su estándar, de tal manera que fuera fácil de entender y recordar. Uno de los problemas a los cuales se enfrenta actualmente la tecnología Wi-Fi es la progresiva saturación del espectro radioeléctrico, debido a la masificación de usuarios, esto afecta especialmente en las conexiones de larga distancia (mayor de 100 metros). En realidad Wi-Fi está diseñado para conectar ordenadores a la red a distancias reducidas, cualquier uso de mayor alcance está expuesto a un excesivo riesgo de interferencias. Un muy elevado porcentaje de redes son instalados sin tener en consideración la seguridad convirtiendo así sus redes en redes abiertas (o completamente vulnerables ante el intento de acceder a ellas por terceras personas), sin proteger la información que por ellas circulan. De hecho, la configuración por defecto de muchos dispositivos Wi-Fi es muy insegura (routers, por ejemplo) dado que a partir del identificador del dispositivo se puede conocer la clave de éste; y por tanto acceder y controlar el dispositivo se puede conseguir en sólo unos segundos. El acceso no autorizado a un dispositivo Wi-Fi es muy peligroso para el propietario por varios motivos. El más obvio es que pueden utilizar la conexión. Pero además, accediendo al Wi-Fi se puede monitorizar y registrar toda la información que se transmite a través de él (incluyendo información personal, contraseñas....). La forma de hacerlo seguro es seguir algunos consejos: Cambios frecuentes de la contraseña de acceso, utilizando diversos caracteres, minúsculas, mayúsculas y números. Se debe modificar el SSID que viene predeterminado. Realizar la desactivación del broadcasting SSID y DHCP. Configurar los dispositivos conectados con su IP (indicar específicamente qué dispositivos 189
están autorizados para conectarse). Utilización de cifrado: WPA2. Filtrar los dispositivos conectados mediante la MAC address. Existen varias alternativas para garantizar la seguridad de estas redes. Las más comunes son la utilización de protocolos de cifrado de datos para los estándares Wi-Fi como el WEP, el WPA, o el WPA2 que se encargan de codificar la información transmitida para proteger su confidencialidad, proporcionados por los propios dispositivos inalámbricos. La mayoría de las formas son las siguientes: • WEP, cifra los datos en su red de forma que sólo el destinatario deseado pueda acceder a ellos. Los cifrados de 64 y 128 bits son dos niveles de seguridad WEP. WEP codifica los datos mediante una “clave” de cifrado antes de enviarlo al aire. Este tipo de cifrado no está muy recomendado debido a las grandes vulnerabilidades que presenta ya que cualquier cracker puede conseguir sacar la clave, incluso aunque esté bien configurado y la clave utilizada sea compleja. • WPA: presenta mejoras como generación dinámica de la clave de acceso. Las claves se insertan como dígitos alfanuméricos. • IPSEC (túneles IP) en el caso de las VPN y el conjunto de estándares IEEE 802.1X, que permite la autenticación y autorización de usuarios. Filtrado de MAC, de manera que sólo se permite acceso a la red a aquellos dispositivos autorizados. Es lo más recomendable si solo se va a usar con los mismos equipos, y si son pocos. Ocultación del punto de acceso: se puede ocultar el punto de acceso (Router) de manera que sea invisible a otros usuarios. El protocolo de seguridad llamado WPA2 (estándar 802.11i), que es una mejora relativa a WPA. En principio es el protocolo de seguridad más seguro para Wi-Fi en este momento. Sin embargo requieren hardware y software compatibles, ya que los antiguos no lo son. Sin embargo, no existe ninguna alternativa totalmente fiable, ya que todas ellas son susceptibles de ser vulneradas. Las redes Wi-Fi poseen una serie de ventajas, entre las cuales podemos destacar: • Al ser redes inalámbricas, la comodidad que ofrecen es muy superior a las redes cableadas porque cualquiera que tenga acceso a la red puede conectarse desde distintos puntos dentro de un rango suficientemente amplio de espacio. • Una vez configuradas, las redes Wi-Fi permiten el acceso de múltiples ordenadores sin ningún problema ni gasto en infraestructura, ni gran cantidad de cables. • La Wi-Fi Alliance asegura que la compatibilidad entre dispositivos con la marca Wi-Fi es total, con lo que en cualquier parte del mundo podremos utilizar la tecnología Wi-Fi con una compatibilidad total. • Pero como red inalámbrica, la tecnología Wi-Fi presenta los problemas intrínsecos de cualquier tecnología inalámbrica. Algunos de ellos son: • Una de las desventajas que tiene el sistema Wi-Fi es una menor velocidad en comparación a una conexión cableada, debido a las interferencias y pérdidas de señal que el ambiente puede acarrear. La desventaja fundamental de estas redes existe en el campo de la seguridad. Existen algunos programas capaces de capturar paquetes, trabajando con su tarjeta Wi-Fi en modo promiscuo, de forma que puedan calcular la contraseña de la red y de esta forma acceder a ella. Las claves de tipo WEP son relativa190
mente fáciles de conseguir con este sistema. La Wi-Fi Alliance arregló estos problemas sacando el estándar WPA y posteriormente WPA2, basados en el grupo de trabajo 802.11i. Las redes protegidas con WPA2 se consideran robustas dado que proporcionan muy buena seguridad. De todos modos muchas compañías no permiten a sus empleados tener una red inalámbrica[cita requerida]. Este problema se agrava si consideramos que no se puede controlar el área de cobertura de una conexión, de manera que un receptor se puede conectar desde fuera de la zona de recepción prevista (e.g. desde fuera de una oficina, desde una vivienda colindante). Esta tecnología no es compatible con otros tipos de conexiones sin cables como Bluetooth, GPRS, UMTS, etc. COMUNICACIONES Y TRANSMISIÓN DE DATOS Es la transferencia física de datos (un flujo digital de bits) por un canal de comunicación punto a punto o punto a multipunto. Ejemplos de estos canales son cables de par trenzado, fibra óptica, los canales de comunicación inalámbrica y medios de almacenamiento. Los datos se representan como una señal electromagnética, una señal de tensión eléctrica, ondas radioeléctricas, microondas o infrarrojos. • Transmisión analógica Estas señales se caracterizan por el continuo cambio de amplitud de la señal. En ingeniería de control de procesos la señal oscila entre 4 y 20 mA, y es transmitida en forma puramente analógica. En una señal analógica el contenido de información es muy restringida; tan solo el valor de la corriente y la presencia o no de esta puede ser determinada. • Transmisión digital Estas señales no cambian continuamente, sino que es transmitida en paquetes discretos. No es tampoco inmediatamente interpretada, sino que debe ser primero decodificada por el receptor. El método de transmisión también es otro: como pulsos eléctricos que varían entre dos niveles distintos de voltaje. En lo que respecta a la ingeniería de procesos, no existe limitación en cuanto al contenido de la señal y cualquier información adicional. Lo que se busca en la comunicación industrial, es mayor información transmitida a mayor velocidad de transmisión. Por lo que la demanda de mejores características para los medios de transmisión es mayor. Esto es particularmente cierto para las redes industriales de comunicación, en donde las condiciones distan mucho de ser ideales debido a las posibles interferencias de máquinas eléctricas y otros. Por esta razón el mejor medio de transmisión depende mucho de la aplicación. Algunos de los más habituales medios de transmisión son: ✏✏ Cables trenzados; ✏✏ Cables coaxiales; ✏✏ Fibra óptica. SEGURIDAD INFORMÁTICA La seguridad informática o seguridad de tecnologías de la información es el área de la informática que se enfoca en la protección de la infraestructura computacional y todo lo relacionado con esta y, especialmente, la información contenida o circulante. Para ello existen una serie de estándares, protocolos, métodos, reglas, herramientas y leyes concebidas para minimizar los posibles riesgos a la infraestructura o a la información. La seguridad informática comprende software (bases de datos, metadatos, archivos), hardware y todo lo que la organiza191
ción valores (activo) y signifique un riesgo si esta información confidencial llega a manos de otras personas, convirtiéndose, por ejemplo, en información privilegiada. El concepto de seguridad de la información no debe ser confundido con el de «seguridad informática», ya que este último solo se encarga de la seguridad en el medio informático, pero la información puede encontrarse en diferentes medios o formas, y no solo en medios informáticos. La seguridad informática es la disciplina que se ocupa de diseñar las normas, procedimientos, métodos y técnicas destinados a conseguir un sistema de información seguro y confiable. Puesto simple, la seguridad en un ambiente de red es la habilidad de identificar y eliminar vulnerabilidades. Una definición general de seguridad debe también poner atención a la necesidad de salvaguardar la ventaja organizacional, incluyendo información y equipos físicos, tales como los mismos computadores. Nadie a cargo de seguridad debe determinar quien y cuando se puede tomar acciones apropiadas sobre un ítem en específico. Cuando se trata de la seguridad de una compañía, lo que es apropiado varía de organización a organización. Independientemente, cualquier compañía con una red debe de tener una política de seguridad que se dirija a conveniencia y coordinación. COPIAS DE SEGURIDAD Una copia de seguridad, copia de respaldo o backup (su nombre en inglés) en tecnologías de la información e informática es una copia de los datos originales que se realiza con el fin de disponer de un medio de recuperarlos en caso de su pérdida. Las copias de seguridad son útiles ante distintos eventos y usos: recuperar los sistemas informáticos y los datos de una catástrofe informática, natural o ataque; restaurar una pequeña cantidad de archivos que pueden haberse eliminado accidentalmente, corrompido, infectado por un virus informático u otras causas; guardar información histórica de forma más económica que los discos duros y además permitiendo el traslado a ubicaciones distintas de la de los datos originales; etc.. El proceso de copia de seguridad se complementa con otro conocido como restauración de los datos (en inglés restore), que es la acción de leer y grabar en la ubicación original u otra alternativa los datos requeridos. La pérdida de datos es muy común, el 66% de los usuarios de Internet han sufrido una seria pérdida de datos en algún momento.1 Ya que los sistemas de respaldo contienen por lo menos una copia de todos los datos que vale la pena salvar, deben de tenerse en cuenta los requerimientos de almacenamiento. La organización del espacio de almacenamiento y la administración del proceso de efectuar la copia de seguridad son tareas complicadas. Para brindar una estructura de almacenamiento es conveniente utilizar un modelo de almacenaje de datos. Actualmente (noviembre de 2010), existen muchos tipos diferentes de dispositivos para almacenar datos 192
que son útiles para hacer copias de seguridad, cada uno con sus ventajas y desventajas a tener en cuenta para elegirlos, como duplicidad, seguridad en los datos y facilidad de traslado. Antes de que los datos sean enviados a su lugar de almacenamiento se lo debe seleccionar, extraer y manipular. Se han desarrollado muchas técnicas diferentes para optimizar el procedimiento de efectuar los backups. Estos procedimientos incluyen entre otros optimizaciones para trabajar con archivos abiertos y fuentes de datos en uso y también incluyen procesos de compresión, cifrado, y procesos de deduplicacion, entendiéndose por esto último a una forma específica de compresión donde los datos superfluos son eliminados. Muchas organizaciones e individuos tratan de asegurarse que el proceso de backup se efectúe de la manera esperada y trabajan en la evaluación y la validación de las técnicas utilizadas. También es importante reconocer las limitaciones y los factores humanos que están involucrados en cualquier esquema de backup que se utilice. Las copias de seguridad garantizan dos objetivos: integridad y disponibilidad
193
tEMa 4 tRataMIENtO DEL tEXtO
196
TEMA 4: TRATAMIENTO DEL TEXTO Conceptos de tipografía 201 Evolución tecnológica y sus implicaciones 202 El tipo de plomo 205 Anatomía del tipo 208 Familias, fonts, estilos y tipos 208 Fonts, series 214 Estilos 1 215 Estilos 2 215 Sistema de clasificación universal desarrollado por Adrian Frutiger en 1957 215 Clasificación de las familias de tipos Maximilien Vox 217 Clasificación de tipos 222 Romanas 222 Egipcias 224 Incisas 225 Palo seco 225 Escritura 227 Fantasía 228 Gótica 228 Pictogramas, caracteres especiales, glifos, fuentes Pi, bolos, topos y viñetas 229 No latina 230 Filetes y lutos 231 Tipometría 231 El tipómetro 233 Mancha y cuerpo 234 Longitud de línea 234 197
Interlínea 234 Alineación o composición 235 Justificación 236 Partición 238 Espacio entre letras y ligaduras 238 Sangrías 241 Tipos de párrafos 242 Capitulares 244 Tabulación 245 Viudas y huérfanas 246 Reglas básicas de uso 246 Originales de texto 248 Corrección de textos 249 Simbología de corrección 250 Tipografía digital 250 Software de creación de tipos 251 Formatos de fuentes digitales 251 Características Open Type 253 Gestores de fuentes 253 Contratos de licencia de fuentes tipográficas 256 Legibilidad 257 Tipografía para la Web 259
198
199
200
CONCEPTOS DE TIPOGRAFÍA Diseñar es resolver problemas. El diseño gráfico consiste en resolver problemas creando signos. La tipografía es un conjunto de signos especialmente rico, porque consigue hacer visible el lenguaje. Saber trabajar con la tipografía es esencial para crear un diseño gráfico eficaz. Las actitudes que han impulsado la mayor parte de las páginas que siguen son las mismas que han animado la mayor parte del arte en el siglo xx: Estos tres dogmas identifican claramente el trabajo del tipógrafo: la expresión clara y apropiada del mensaje del autor, la economía de medios inteligente y un entendimiento profundo del oficio. La idea fundamental que subyace en este libro es el resultado de dos observaciones muy sencillas. En primer lugar, la tipografía es física. Hasta no hace mucho, cualquier formación en tipografía comenzaba necesariamente con la composiciónmanual de tipos de metal. Sigue sin haber ningún modo mejor que este para comprender la absoluta fisicidad de la letra, su "cosedad". Cada día que pasa, sin embargo, resulta más imposible trabajar con tipos de metal. Para acercarse a la experiencia de maneJar manualmente los tipos, se incluyen en este libro algunos ejercicios que exigen la representación cuidadosa de las letras. (He propuesto estos ejercicios sobre todo para los lectores que, como yo, carecen de las ventajas de una experiencia en las aulas. No se pretende que estos eJercicios sustituyan el trabajo con un buen profesor pero, desde luego, yo espero que puedan potenciar el aprendizaje también en ese caso.) Estos ejercicios te ayudarán no solo a afinar la coordinación entre tu mano y tu ojo, sino también a desarrollar cierta sensibilidad tipográfica. No puedes alcanzar esta sensibilidad solamente mirando y pensando. La única forma de valorar la realidad de los tipos es crear los tuyos propios. La segunda observación, sobre todo en términos tipográficos, es que la tipografía ha evolucionado a partir de la escritura manual. Si bien pueden hacerse toda clase de cosas con la tipografía de un texto (en especial con un ordenador), tu trabajo logrará el mayor grado de integridad cuando lo que hagas refleje el mismo impulso que nos lleva a todos a ponernos a escribir: la comunicación efectiva, directa y útil. La guía del alumno tienen el objeto de demostrar que el carácter y la legibilidad del texto solo se en201
tienden en el contexto de los blancos o espacios vacíos: lo que el diseñador de tipos Cyrus Highsmithllama "donde no está el tipo". Un buen tipógrafo no deja de controlar y manipular constantemente la relación entre forma (donde está el tipo) y contraforma (donde no está). Para comprender esta relación, es esencial entender el texto como una progresión de espacios (a la derecha). Cualquier cambio que se introduce en un espacio afecta de inmediato a su relación con todos los demás. Quien esté familiarizado con los principios de la Gestalt encontrará sin duda similitudes con los conceptos de contigüidad, continuidad y cierre. Concluyo la presente introducción con esta observación porque considero que es crucial para la buena tipografía y porque nos ofrece un punto de partida ideal. A medida que avances en la lectura de este libro, ten en cuenta cómo funcionan los espacios. EVOLUCIÓN TECNOLÓGICA Y SUS IMPLICACIONES La imprenta en Europa se desarrolló en el auge del Renacimiento; sin embargo, los primeros impresos de Johannes Gutenberg como la Biblia de 42 líneas utilizaron un estilo de letra del período gótico llamado texturee. Durante la Edad Media, la cultura del libro giraba en torno a los monasterios cristianos, de los cuales podría decirse que hacían de casas editoriales en el sentido moderno del término. Los libros no eran impresos, sino escritos por monjes especializados en esta tarea que eran llamados copistas; ellos desarrollaban su trabajo en un lugar que había en la mayoría de los monasterios llamado scriptorium que contaba con una biblioteca y un salón con una especie de escritorios similares a los atriles de las iglesias de la actualidad. En este lugar, los Monjes transcribían los libros de la biblioteca, ya fuera por encargo de un señor feudal o de otro monasterio. Durante el Gótico, Europa retornó paulatinamente a un sistema económico dependiente de las ciudades —y no del campo como lo fue tradicionalmente durante casi toda la Edad Media—, lo que determinó el nacimiento de los gremios, los cuales dieron paso a una mayor producción de libros. Los libros, generalmente religiosos, eran encargados por patrones pudientes a un gremio de artistas de libros, los cuales tenían especialistas capacitados en letreros, mayúsculas decorativas, decoración de letras, corrección de galeras y encuadernación; al ser este un proceso totalmente artesanal, un libro de 200 páginas podía llegar a demorarse de 5 a 6 meses, y se requerían aproximadamente 25 pieles de carnero para hacer la vitela donde se escribía e ilustraba con témpera de huevo, guache y una primitiva forma de óleo. El metal que se emplea para la fabricación de caracteres y demás material tipográfico se obtiene con una aleación de plomo, antimonio y estaño. El plomo se usa por la fácil fusión y para que la aleación sea dúctil y compacta. El estaño sirve 202
para endurecer y evitar la oxidación. El antimonio sirve para dar más resistencia al metal con el fin de que no se aplaste tan fácilmente durante las repetidas y numerosas tiradas. Las aleaciones son diversas, según los tamaños de los tipos y el uso a que se destinan. Así para la fabricación del metal destinado a blancos, suélese usar la aleación siguiente, denominada ordinaria: Sistema antiguo: En los tiempos primitivos la producción de tipos era muy reducida, ya que todas las operaciones se efectuaban por procedimientos manuales por el propio tipógrafo, que los fundía dándoles la altura y el grueso que creía oportunos. Los primeros tipos movibles que usó Gutenberg eran de madera, y más tarde él mismo los grabó en metal. Schöffer llegó a fabricar punzones que servían para obtener las matrices. El punzón es un paralelepípedo de acero templado, sobre el cual, después de pulido convenientemente, se ha dibujado y tallado en relieve el ojo de la letra o signo que se transporta después, mediante una fortísima presión, sobre el bloque de cobre o bronce que constituye la matriz. La exactitud del punzón se prueba con el contrapunzón que tiene grabada en hueco la letra o signo. Las matrices para tipos movibles tienen también forma de paralelepípedo; las dimensiones naturalmen-
te cambian según el tamaño del ojo del carácter que se quiera obtener. Obtenida la matriz, se verificaba la fundición, vertiendo el plomo líquido por una obertura dispuesta en el molde. Éste constaba de dos piezas, que encajaban exactamente y fácilmente separables; en la parte inferior se colocaba la matriz sujeta por un resorte. El tipo fundido era ulteriormente rectificado en todas sus partes, quedando seguidamente dispuesto para el uso. Sistema moderno. Con la perfección de los medios fotomecánicos, ha evolucionado muchísimo la fabricación de los caracteres, si bien continúa siendo una operación difícil, costosa y que exige un caudal de conocimientos técnicos y artísticos. Después de dibujadas las letras, una a una con la mayor perfección posible y a escala relativamente grande por dibujantes especializados se reproducen fotográficamente a los tamaños diversos, según los cuerpos que se quieran fundir. Las matrices se pueden obtener mediante el punzón y con el baño galvánico y la fresapantógrafo. El primer sistema ha caído en desuso, el segundo se está simplificando y perfeccionando. 203
La verdadera explosión llegó cuando IBM la lanzó como un producto comercial. Comenzaron a surgir procesadores de texto en todas sus facetas, desde muy sencillos para solo teclear textos planos, hasta otros más complejos que incluso permitían personalizar circulares o boletines. Un ejemplo de estos programas fue WordStar, que además tenía una capacidad muy rara a finales de los ochenta que era imprimir. Estamos hablando de impresoras de carrete y cinta —tal y como las máquinas de escribir—. La tipografía en el monitor era siempre la misma, había tan solo que escribir un pequeño código en el texto para declarar el tipo de letra deseada y su tamaño (había como 8 tipografías disponibles en puntajes de 7 a 12 puntos) e imaginar cómo saldría impreso, puesto que en el monitor seguía apareciendo la misma tipografía pixelada en color verde. El problema residía en lo siguiente: era posible hacer que las tipografías se imprimieran mediante un lenguaje desarrollado por Adobe y Apple llamado Postscript, con su contraparte para PC llamada TrueType hecha por Adobe y Microsoft, que agrupaba las fuentes en archivos y programados por medio de algoritmos matemáticos que funcionan muy parecido a los vectores de Illustrator. De esta forma teníamos por ejemplo, la fuente Helvetica en un archivo para su versión regular, otro para las itálicas, otro para las bold y uno más para las bold itálicas. Sin embargo, funcionaban únicamente en impresoras compatibles con el sistema Postscript. Para poderlas ver en el monitor, había que sumarle otros archivos llamados «fuentes de pantalla», que funcionaban por medio de pixeles —como imágenes en Photoshop—. Éstas no venían en versiones itálicas o bold, sino por tamaños. Por ejemplo, se tenían para Helvetica un archivo para la versión en 8 puntos, otra de 10, 12, 14, 18, 24 y en las más completas 36, 48, 60 y 72. Para hacer esta tarea más llevadera, Adobe desarrolló un programa llamado ATM (Adobe Type Manager), que permitía redibujar la letra con base a las características previamente programadas para poderse visualizar correctamente en cualquier tamaño. Al momento de imprimir, lo que sucedía era que en lugar de tomar la fuente de pantalla, el programa lo sustituía por la fuente Postscript ya instalada en el sistema. De esa forma las impresiones siempre salían mucho más claras y nítidas que en el monitor. En 2005 llegó OpenType, el cambio más significativo en tipografía, que simplificó las familias tipográficas logrando aglutinar todas las variantes en un solo archivo: todos los pesos, tamaños, variantes y caracteres especiales y en otros idiomas, con una economía de espacio sorprendente, de tal forma que teniendo un simple documento llamado helvetica.otf (OpenType Font) es suficiente para poder ejecutar cualquier tarea. Este sistema ha permeado ya en las nuevas tipografías, sin embargo, aun existen muchas otras en el lenguaje PostScript o TrueType que requieren de ambos archivos. Afortunadamente hoy ya no debemos lidiar con ellas en ese sentido, basta con tan solo instalarlas y olvidarnos sobre su funcionamiento en el sistema, además que el sistema operativo OSX no las carga al momento de iniciar, sino que las activa solo cuando se usan, de tal forma que no sobrecargan el sistema ni le roban espacio a la memoria RAM.
204
EL TIPO DE PLOMO
Además de su propio vocabulario, la tipografía tiene también sus propias unidades de medida. En un principio, el tamaño venía determinado por la altura de las piezas materiales de los tipos de plomo. Obviamente, ya no es habitual que utilicemos tipos de plomo para componer; pero el concepto de letras fundidas en pequeñas piezas de plomo sigue siendo la forma más útil de pensar, en lo que se refiere a tamaños de letras. Aunque originalmente el tamaño del tipo corres pondía al tamaño del cuerpo del tipo (el lingote de metal en el que se fundía la letra), en la actualidad lo habitual es que la medida corresponda a la distancia entre el extremo superior del ascendente y el extremo inferior del descendente. El espacio entre líneas de texto se denomina interlineado. Originalmente se conseguía mediante tiras de plomo (en inglés, lead, y de ahí el término leading, que refiere en inglés al interlineado) que se situa entre las líneas de tipos de metal. Calculamos el tamaño de los tipos con unidades que se llaman puntos. Un punto, tal como se utiliza hoy en día, mide 0,35 mm, o 1/72 pulgadas. La pica, también muy utilizada por los impresores, consta de 12 puntos.En una pulgada hay 6 picas. Cuando escribimos una dimensión en picas y puntos, la abreviatura estándar es p. Cuando se especifica el tamaño del tipo y el interlineado, debe utilizarse una barra entre los
205
dos números. La anchura de carácter está formada por la letra en sí misma más el espacio que se necesita a cada uno de sus costados para que no se superponga a otra letra. Las anchuras de carácter se describen en unidades, una medida completamente arbitraria que varía de un sistema a otro. En el ejemplo que aparece a la derech a, la "M" de caja alta (por lo general, la letra más ancha) mide 20 unidades de anchura; la medida podría también ser de 40 unidades o de 18 unidades. Cuando los tipos se fundían a mano, podía ocurrir que cada una de las letras tuviese una anchura de carácter única. A medida que se ha desarrollado la composición tipográfica mecánica, los diseñadores de
tipos se han visto forzados a restringir el número de anchuras de carácter de una tipografía dada, con el fin de adaptarse a las lim itaciones del sistema (metal o fotocomposición) de producción de tipos. A una "a" y a una "e", por ejemplo, puede asignárseles la misma anchura de carácter en algunos sistemas, porque la tecnolog ía no ha sido capaz de admitir distinciones más sutiles. La tecnología digital actual ha avanzado mucho en la restauración de la variedad que imperaba entre los tipos fundidos en plomo. Muchos programas de software funcionan a una escala de 200 unidades referidas a la anchura de carácter de una M). Siempre que se abre un programa de ordenador en el que se requiera alguna tarea de composición tipográfica, hay que asegurarse de que las medidas predeterminadas están en puntos y picas. Tradicionalmente, los numerales de caja alta presentaban anchuras de carácter idénticas, de tal forma que quedaban alineados verticalmente (véase ejemplo superior), a diferencia de los numerales de caja baja, 206
dise単ados con anchuras variables. En muchas de las actuales fuentes OpenType han desaparecido estas diferencias.
207
ANATOMÍA DEL TIPO
LÍNEAS DE REFERENCIA
FAMILIAS, FONTS, ESTILOS Y TIPOS • Familia La fuente completa de un tipo contiene mucho más que veintiséis letras, diez numerales y algunos sig208
nos de puntuación. Para trabajar bien con la tipografía, habrá que asegurarse de que se está trabajando con una fuente completa, y también se debería saber cómo hay que usarla.
La clasificación tipográfica sirve para analizar, ordenar, conocer y reconocer familias tipográficas, además de brindarnos referencias tipográficas, estilísticas, históricas y culturales muy variadas. Los sistemas de clasificación que se basan en criterios históricos nos sirven para analizar la tipografía diseñada hasta mediados del siglo XX. Conocerlos es útil para comprender la influencia que el surgimiento de nuevas tecnologías y el aprovechamiento de antiguos conocimientos tuvieron sobre la evolución del diseño tipográfico, además de ser una gran herramienta para reforzar asociaciones históricas o para la búsqueda de familias en catálogos. Los intentos por establecer un sistema de clasificación capaz de ordenar los estilos tipográficos existentes han sido muchos. Los principales son: ✏✏ 1921 Francis Thibaudeau. Organiza su clasificación en 4 estilos, basándose en el contraste de los trazos y la terminación de las astas. ✏✏ 1954 Maximilien Vox. Propone una clasificación histórica; este modelo es uno de los más difundidos. Consta de 9 estilos. ✏✏ 1958 Aldo Novarese. Basándose en el sistema de Thibadeau, establece 10 estilos que se diferencian según la morfología de los terminales. ✏✏ 1962 din 16518-ATypI (Association Typographique Internationale). Adopta y completa el sistema desarrollado por Vox (10 estilos). 209
✏✏ 1963 Giuseppe Pellitieri. Establece una clasificación morfológica de 10 estilos, basada en las diferencias entre los trazos y los terminales. ✏✏ 1965 British Standards Institution (sistema bs 2961). Define 9 estilos. ✏✏ 1979 Jean Alessandrini.También basa su clasificación en las características morfológicas. Establece 15 estilos diferentes. ✏✏ 1992 Christopher Perfect. Adopta un criterio histórico para establecer 7 estilos. ✏✏ 1997 Robert Bringhurst. Relaciona los estilos tipográficos con los principales movimientos artísticos. Define 8 estilos. Hay muchas formas de clasificar y muchos sistemas de clasificación diferentes, pero, independientemente del sistema que adoptemos, debemos saber qué cosas analizar de las familias tipográficas para decidir cómo agruparlas o cómo separarlas. ✏✏ Siglo XV ♦♦ 1450. Johannes Gutenberg, en Alemania, emplea por primera vez la imprenta de tipos móviles. Los primeros tipos de plomo pretenden imitar la caligrafía con la que se componían los libros manuscritos. ♦♦ 1470. En Venecia, los talladores de tipos, toman como modelo los escritos humanistas. ♦♦ 1470 Romanas humanistas o venecianas
♦♦
✳✳ Trazo gradual de contraste ligero. El eje de modulación es oblicuo y muy inclinado. ✳✳ Remates gruesos y cortos, oblicuos en las ascendentes. ✳✳ Poca o nula diferencia entre la altura de mayúsculas y la altura de astas ascendentes. ✳✳ Barra de la «e» inclinada. 1490 Romanas antiguas
✳✳ ✳✳ ✳✳ ✳✳
Trazo gradual de contraste medio y eje de modulación oblicuo. Remates ligeros y filosos, oblicuos en las ascendentes y en los apoyos de minúsculas. Altura de mayúsculas menor que la altura de ascendentes. Barra de la «e» horizontal. 210
✏✏ Siglo XVI ♦♦ 1501. Francesco Griffo talla los primeros caracteres itálicos por encargo de Aldo Manuzio. La difusión de la imprenta por Europa impulsa el crecimiento y el perfeccionamiento del diseño de caracteres. Las técnicas de tallado y el oficio de grabar tipos evolucionan permitiendo realizar ajustes cada vez más finos y precisos. ✏✏ Siglo XVII ♦♦ 1692. Luis XIV ordena a un comité de eruditos desarrollar un nuevo tipo cuyos caracteres fueran creados bajo principios científicos. Los ingenieros convocados definen este tipo de letra con rigurosa geometría, Louis Simonneau graba la matriz en láminas de cobre y el tipógrafo Grandjean graba los moldes para reducir el alfabeto maestro al tipo de texto que será conocido como Romain du Roi (romana del rey). ♦♦ 1690 Romanas de transición ✳✳ Trazo gradual de contraste entre medio y alto. El eje de modulación es vertical o casi
vertical. ✳✳ Remates ligeros, poco oblicuos u horizontales en las ascendentes y apoyos de minúsculas. ✳✳ Altura de mayúsculas menor que la altura de ascendentes. ✏✏ Siglo XVIII La tipografía se convierte en una disciplina cada vez más formal. La cantidad de manuales de tipografía que aparecen en este siglo refleja el desarrollo del contenido teórico. ♦♦ 1700. John Baskerville mejora la prensa, los papeles y las tintas utilizados para la impresión.
211
♦♦ ♦♦
1764. Los Didot perfeccionan el sistema de medición tipográfico. 1780 Romanas modernas ✳✳ Trazo gradual de contraste alto y eje de modulación vertical. ✳✳ Remates filiformes. ✏✏ Siglo XIX La Revolución Industrial trae consigo la producción en masa. La publicidad necesaria para vender esos productos demanda nuevos tipos de letra más llamativos. La invención de la talladora pantográfica hace más accesible el desarrollo de nuevos diseños tipográficos. Con el invento de la linotipia (en 1886) y la monotipia (en 1887), la composición de textos pasa a ser un proceso mecánico.
♦♦
1810 Mecánicas o egipcias ✳✳ Trazo uniforme (o gradual de escaso contraste y eje de modulación vertical). ✳✳ Remates rectos, del mismo (o casi el mismo) ancho que el trazo. ✳✳ Altura de x grande.
♦♦
1810 Sans serif grotescas ✳✳ Trazo uniforme o con un leve contraste entre finos y gruesos (de modulación vertical). ✳✳ Altura de x grande. ✳✳ Ligera cuadratura en las curvas. ✏✏ Siglo XX ♦♦ 1954. Empiezan a utilizarse las fotocomponedoras comercialmente. La tipografía se puede superponer y distorsionar. ♦♦ 1985. Apple lanza al mercado la Macintosh y la impresora láser junto con los primeros programas de autoedición. Con el impulso de la Internet, la tipografía digital agrega nuevas dimensiones al lenguaje escrito, en la medida que funciona en el entorno multimediático. ♦♦ 1920 Sans serif geométricas ✳✳ Trazo uniforme. ✳✳ Estructuras sintéticas basadas en figuras geométricas simples. 212
♦♦
✳✳ Muchas veces la «a» no tiene lazo ascendente. 1920 Sans serif humanísticas
✳✳ ✳✳ ✳✳ ✳✳
♦♦
♦♦
Trazo uniforme o levemente gradual. Basadas en estructuras clásicas. La «a» tiene lazo ascendente. Generalmente la «g» tiene cola cerrada y oreja.
1930 Híbridas o glíficas ✳✳ Trazo gradual. ✳✳ Basadas en estructuras clásicas. ✳✳ Los remates son triangulares y se inspiran en las letras cinceladas sobre piedra. 1985 Electrónicas 213
✳✳ El trazo y los espacios entre letras están basados en el píxel para funcionar en pantalla.
Cada tamaño necesita de un dibujo específico. FONTS, SERIES Cuando se conocen las partes de las letras, pueden identificarse los diferentes tipos con facilidad. Más allá de los rasgos característicos de un tipo, sin embargo, existen también aplicaciones de estilo que deberías reconocer. En una misma familia tipográfica pueden darse algunos de estos estilos, combinaciones de ellos o todos en su conjunto. • Redonda Es el estilo básico de las letras, y también se las denomina "romanas" porque las letras en caja alta derivan de las inscripciones en los monumentos romanos. Cuando se utiliza para describir el estilo de un tipo, el término "redonda" siempre hace referencia a la caja baja. En algunas tipografías existe un trazo ligeramente más fino que la redonda, que se denomina book. • Cursiva También llamada "itálica", nombre que procede de las escritura manuscrita italiana del siglo xv en la que se basan sus formas. (Véase la página 6 para una descripción de las letras oblicuas.) • Negrita Caracterizada por un trazo más grueso que la redonda, según las anchuras de trazo relativas que tenga un tipo puede denominarse seminegra, negra, extranegra o supernegra. En algunos tipos (en especial Bodoni), a la versión más negrita se le llama de cartel o "poster". Fina Tiene un trazo de menor grosor que la letra redonda. Las de trazos aún más delgados suelen denominarse superfinas. • Estrecha Tal como su nombre indica, es una versión estrecha de la letra redonda. Los estilos muy estrechos también suelen llamarse letras compactas. • Ancha 214
Es exactamente lo que estás pensando: una vari ación expandida de la letra redonda. La confusión de estilos dentro de las familias tipográficas puede resultar desalentadora para los principiantes; desde luego, sigue siendo una pequeña molestia incluso entre los diseñadores más experimentados. La única forma de manejar la profusión de nombres - como cuando se aprenden los verbos irregulares en francés- es aprendérse los de memoria. EStILOS 1 • • • • • • • • • • •
Redonda, regular, roman, book Cursiva, itálica, oblique Negrita, bold (seminegra, heavy, medium, semibold) Negrita cursiva, bold oblique Subrayado, underline Sombra Contorno o hueca Outline Mayúsculas, versales, caja alta Versalitas Subíndice Superíndice
Tipografía Tipografía Tipografía Tipografía Tipografía Tipografía Tipografía TIPOGRAFÍA TIPOGRAFÍA Tipografía grafía Tipo
EStILOS 2 • • • • • • • • • • • •
Futura Light Futura Medium Futura Bold Futura Extra Bold Futura Light Oblique Futura Medium Oblique Futura Bold Oblique Futura Extra Bold Oblique Futura Light Condensed Futura Medium Condensed Futura Bold Condensed Futura Extrabold condensed
SIStEMa DE CLaSIFICaCIÓN UNIVERS DESaRROLLaDO POR aDRIaN FRUtIGER EN 1957 Una de las tipografías más importantes del siglo XX y el mayor logro de Adrián Frutiger que la diseñó para la Fundición Deberny & Peignot para ser usada en fotocomposición y composición en metal. Al mismo tiempo apareció otro tipo clave: la Helvética con una apariencia muy parecida pero con algunas diferencias notables como por ejemplo la primacía de la claridad, modernidad y el efecto neutral de esta frente a la racionalidad y elegancia de la Univers. Entre sus características más importantes, podemos destacar la gran cantidad de pesos y anchos disponibles y la apariencia regular y homogénea de sus composiciones. Frutiger creó un sistema de numeración para diferenciar los 21 pesos y anchuras iniciales, que con el tiempo se fueron incrementando. La Univers 215
es una de las tipografías sin serif más usadas gracias a su racionalidad, modernidad y usos casi ilimitados. • Sistema de numeración Univers Dentro de una familia tipográfica se pueden encontrar una gran variedad de grosores y de pesos. Adrian Frutiger creó un sistema de clasificación que engloba todas las variaciones que puede llegar a tener un tipo de letra. Univers inauguró esta tabla ya que tiene una familia muy extensa. Al principio contaba con veintiuna variaciones en cinco pesos y cuatro grosores. Actualmente incluye más de cincuenta tipos de letra. Este sistema consiste en definir la letra con números de dos cifras. Las decenas corresponden al grosor de las astas y las unidades a la forma de la letra. Los números impares corresponden a las letras romanas o redondas y los pares a las itálicas o cursivas. El número 55 es la serie de grosor normal y redonda, 56 define el grosor normal y el trazo cursivo y el 57 indica una letra condensada. La tabla va del 30 (la letra más estrecha) a más de 80 (las letras más anchas). Por ejemplo, 45 indica un serie fina y romana, 46 una serie fina y cursiva, 75 una serie negrita y rom a na y 76 una serie negrita y cursiva.
• Fuentes tipográficas ✏✏ Univers 39 Thin Ultra Condensed ✏✏ Univers 45 Light, Univers 45 Oblique ✏✏ Univers 47 Light Condensed, Univers 47 Light Condensed Oblique ✏✏ Univers 49 Light Ultra Condensed No2 ✏✏ Univers 53 Extended, Univers 53 Extended Oblique ✏✏ Univers 55 Roman, Univers 55 Roman Oblique ✏✏ Univers 57 Condensed, Univers 57 Condensed Oblique ✏✏ Univers 59 Ultra Condensed ✏✏ Univers 63 Bold Extended, Univers 63 Bold Extended:Oblique ✏✏ Univers 65 Bold, Univers 65 Bold Oblique ✏✏ Univers 66 Bold Italic, ✏✏ Univers 67 Bold Condensed, Univers 67 Bold Condensed Oblique ✏✏ Univers 73 Black Extended, Univers 73 Black Extended Oblique ✏✏ Univers 75 Black, Univers 75 Black Oblique ✏✏ Univers 85 Extra Black, Univers 85 Extra Black Oblique ✏✏ Univers 93 Extra Black Extended, Univers 93 Black Extended Oblique 216
CLASIFICACIÓN DE LAS FAMILIAS DE TIPOS MAXIMILIEN VOX Ilustrador y diseñador gráfico. Periodista e historiador, experto en tipografía. En 1952 fundó la Escuela de Lure, en torno a las cual se celebrarán los Encuentros Internacionales de Lure. En 1954 publicó la clasificación de caractéres tipográficos que lleva su nombre y que, seis años después, fue aceptada como norma de la ATYP (Asociación Internacional de Tipografía).
• Humanas (Años 1460/70) La emplean, como escritura, los humanistas italianos que rechazan la gótica. También se les llama Venecianas, porque ese fue el origen de los anónimos grabadores que las crearon, y caen en el olvido a partir de 1495 cuando Aldo Manuzio crea los primeros tipos Antiguos, hasta que William Morris las resucita a fines del siglo XIX Las tipografías humanas tienen un trazo firme y un aire artesanal. Están sólidamente asentadas en sus remates amplios, y cuentan con un asta de poco contraste. Su eje de modulación es oblicuo. Son fácilmente identificables si nos fijamos en que la “e” minúscula tiene el filete inclinado.
217
Los trazos ascendentes superan la altura de las mayúsculas, lo que las hace demasiado aparatosas para el idioma alemán, que utiliza mayúsculas en todos los sustantivos. Las tipografías Humanas más conocidas son: Jenson, Berkeley Old Style, Centaur, Cloister, Erasmus, Golden Type, Kennerley,Verona. • Garaldas (Siglo XVI) Su nombre es un homenaje a los dos creadores de los caracteres del Renacimiento italiano y francés (Aldo Manuzio y Claude Garamond) Se clasifican bajo ese título las tipografías con serifas que, desde finales del siglo XV hasta la segunda mitad del siglo XVIII, eran de uso corriente en toda Europa. Francesco Griffo, grabador de Aldo, liberó a las humanas de la rusticidad que había acompañado el paso de la escritura manual a la tipografía. Con Garamond, la elegancia refinada se hace el rasgo distintivo del redondo: aumenta el contraste entre gruesos y finos (jugando con la sutileza de su relación) y se produce el afinamiento de los remates (serifos). Además, es de destacar la diferencia de inclinación del eje de modulación de cada caracter. Bembo, Caslon, Dante, Ehrdhart, Garaldus, Garamond, Goudy Old Style, Palatino, Perpetua, Plantin y Sabon.
• Reales Poseen características tanto del estilo antiguo como del estilo moderno. Sus diseñadores pretenden basarse en formas más geométricas y uniformes. El eje de modulación es vertical o casi vertical, y el contraste entre trazos gruesos y finos oscila de medio a alto. Los trazos terminales ascendentes de las letras de caja baja son ligeramente oblicuos (a veces horizontales) y los trazos inferiores son generalmente horizontales o casi horizontales. Los trazos terminales son por lo general angulosos y cuadrados. Algunos ejemplos son Chetenham, Baskerville, Caledonia, Century Schoolbook, Cochin, Carona, Meliior, Mèridien, Olympian y Stone Serif.
218
• Incisas Los caracteres están basados en letras talladas en piedra o en metal. Tienen una cercana relacion con las lineales, con frecuencia sus serifas o remates son pequeños y triangulares. Ligeramente contrastadas y de rasgo adelgazado ahusado. Sus astas son moderadamente cóncavas. No se puede hablar de remates, pero sus pies sugieren, tal como ocurre con las con serif, una línea imaginaria de lectura, de modo que aunque no tengan remates, por construcción, no puede hablarse de tipos de palo seco. Su ojo grande y sus ascendentes y descendentes finos, hacen de él un tipo que, aunque es extremadamente difícil de digitalizar, es muy legible a cualquier cuerpo. A pequeña escala, puede confundir y parecer de palo seco al perderse la gracia de su rasgo. Ejemplos: Columna y Perpetua, Óptima y Trajan.
• Scriptas Son letras que imitan la escritura manual producida con plumilla, pincel o buril. Son de inspiración caligráfica. A este grupo pertenecen Hyperion, Legen, Mistral y Rondo, Brush Script, Kaufmann Script, Zapfino, Chopin o script MT.
• Manuales Caracteres del siglo XX, decididamente basados en originales dibujados a mano, con pincel, lápiz o cualquier otro intrumento; no representa ningún tipo de escritura, inadecuados para la composición de textos. Se emplean con fines publicitarios, por ejemplo, Banco, Cartoon, Jacno, Klang y Matrua.
219
• Didonas Aparecen a mediados del siglo XVIII, creadas por Didot y perfeccionadas por Bodoni. Son muy fáciles de reconocer gracias a su verticalidad y su gran contraste y por sus serifas, perfectamente horizontales. Presentan una modulación vertical con un contraste muy fuerte entre trazos finos y gruesos. Los trazos terminales del pie y las ascendentes de caja baja son horizontales; los trazos terminales horizontales son delgados y usualmente cuadrados; el espaciado es estrecho en la mayoría de los casos: Ejemplos de ellos son Bodoni, Century, de Vinne, Didot, Falstaff y Madison.
• Mecanas (Egipcias) Aparecen durante la Revolución industrial, como tipos de rotulación, especialmente pesados para trabajos de publicidad. Tienen poco o ningún contraste entre el grosor del trazo. ✏✏ El interletraje es ancho, los trazos terminales son generalmente del mismo grosor que las astas. ✏✏ La mayor parte de las tipografías de este tipo, tienen trazos terminales cuadrangulares. ✏✏ Es también habitual que estas tipografías cuenten con una gran altura de la “x”. ✏✏ Las tipografías de este grupo son: Clarendon, Egyptian 505, Ionic, Lubalin Graph, Melior, Memphis, Rockwell, Serifa, y Volta.
• Lineales También llamadas de palo seco, estas tipografías se caracterizan por la ausencia de remates en los extremos. Aparecieron en Inglaterra durante la primera mitad del siglo XIX para su uso en impresos comerciales como carteles o etiquetas. ✏✏ Grotesque Son las primeras versiones de sans serif derivadas de un tipo egipcia, sólo que en este caso se han eliminado los remates. Su origen es decimonónico (siglo XIX). Los primeros tipos de esta clase, fueron creados para trabajos de rotulación y publicidad. lamadas por los ingleses y americanos san serif, indicando con ello que los bastones no presentan ningún remate, y citadas en España, como letras de palo seco. Tiempo después, los que contaban con caja baja, se perfeccionaron para poder adaptarse al texto continuo. En sus trazos se puede apreciar cierto contraste de grosor, y una ceadratura en las curvas. La “R” de la 220
caja alta suele tener un asta curvada, la “g”, el ojal abierto, y la “G” tiene la característica uña. El primer tipo de la familia grotesca aparece en el año 1816, pero en la práctica no fue conocida y difundida hasta el año 1925, cuando apareció la famosa Futura, obra del grabador Paul Renner, un tipo de letra que ha inspirado a todos los tipos existentes de grotesca.Las más representativas de este grupo: Franklin Gothic, Monotype 215-216, Bureau Grotesque, Gothic 13, Impact, News Gothic, Trade Gothic y Vectora.
✏✏ Neogrotesque Parecidas a las grotescas pero con un diseño más refinado. Su construcción obedece a una estudiada estructura. Los contrastes están menos marcados y la letra ‘g’ no tiene ojal, sino una simple cola. La “C” suele ser mas abierta. Los contrastes de grosor de trazo están menos marcados. Las tipografías contenidas en este grupo, son la Helvética, Bell Gothic, Nauzeit S, Swiss, Univers, o Zurich.
✏✏ Geométricas Surgen a partir de 1920, como consecuencia de las propuestas estéticas de los movimientos de vanguardia en Europa. Se trata de letras de palo seco y de ojos teóricos, basados en formas y estructuras geométricas, normalmente monolíneas. Se emplean deliberadamente las mismas curvas y líneas en tantas letras como sea posible, la diferencia entre las letras es mínima. Las mayúsculas son el retorno de antiguas formas griegas y fenicias. Destacamos dentro de esta familia la: Futura de Paul Renner, 1927, la Eurostile, la Industria, la Kabel, Metro, Avant Garde, Avenir, Bauhaus, Century Gothic, Insignia,Variex
221
✏✏ Humanistas Se basan en la proporción de la “redonda versal”, los caracteres humanísticos y las garaldas de caja baja, además de las proporciones de las mayúsculas inscriptas romanas y el diseño de las romanas del s.XV - XVI. Presentan algún contraste en el grosor de los trazos, pero el eje es vertical. La altura de ascendentes es igual o mayor que la de las mayúsculas. A este grupo pertenecen la Gill Sans, Optima, Quay Sans y Syntax, Stone Sans, Antique olive, Calibrí, Candara, Frutiger, Lucida Sans, Myriad, o Rotis.
CLASIFICACIÓN DE TIPOS • • • • • • • •
Romanas Egipcias Incisas Palo seco Escritura Fantasía Gótica No latina
Times New Roman Rockwell Optima Frutiger Mistral Desdemona Blackmoor 凋凌凞処凢凭凱凳冑冃兼
ROMANAS Tienen Serif, que es la base o terminación que tiene la letra en sus extremos. El Serif no mantiene el mismo grosor que el resto de la letra, sino que es más fino. En las romanas antiguas se va afinando hacia los extremos (no ocurre esto en las romanas modernas). En general, las romanas no mantienen un trazo uniforme en el recorrido total de la letra, sino que el mismo va variando en sus ascendentes y descendentes. La dirección del eje de engrosamiento es oblicua. El espaciado de las letras es esencialmente amplio. Un peso y color intenso en su apariencia general. Las tipografías romanas expresan: clasicismo, tradición, religiosidad, delicadeza, conservador, formalida, refinamiento Se dividen en: Romanas Antiguas / Romanas de Transición / Romanas Mo222
dernas • Romanas Antiguas: Aparecen a fines del siglo XVI en Francia, a partir de los grabados de Grifo para Aldo Manuzio. Se caracterizan por la desigualdad de espesor en el asta dentro de una misma letra, por la modulación de la misma y por la forma triangular y cóncava del remate, con discretas puntas cuadradas. Su contraste es sutil, su modulación pronunciada, cercana a la caligrafía, y su trazo presenta un mediano contraste entre finos y gruesos. Entre ellas destacan las fuentes Garamond, Caslon, Century Oldstyle, Goudy, Times New Roman y Palatino.
Garamond Century Oldstyle Times New Roman • Romanas de Transición:
Caslon
Goudy Palatino
Se manifiestan en el siglo XVIII y muestran la transición entre los tipos romanos antiguos y los modernos, con marcada tendencia a modular más las astas y a contrastarlas con los remates, que dejan la forma triangular para adoptar la cóncava o la horizontal, presentando una gran variación entre trazos. Esta evolución se verificó, principalmente, a finales del siglo XVII y hasta mediados del XVIII, por obra de Grandjean, Fournier y Baskerville. Ejemplos de este grupo son las fuentes Baskerville
•
Baskerville
Romanas Modernas: ✏ Aparecen a mediados del siglo XVIII, creadas por Didot, reflejando las mejoras de la imprenta. ✏ Su característica principal es el acentuado y abrupto contraste de trazos y remates rectos lo que origina fuentes elegantes a la vez que frías. ✏ Sus caracteres son rígidos y armoniosos, con remates finos y rectos, siempre del mismo grueso, con el asta muy contrastada y con una marcada y rígida modulación vertical. ✏ Resultan imponentes a cuerpos grandes, pero acusan cierta falta de legibilidad al romperse los ojos del carácter, al componerse a cuerpos pequeños y en bloques de texto corrido. ✏ Ejemplos destacables podrían ser Firmin Didot y Bodoni.
Didot Bodoni 223
EGIPCIAS Tienen Serif. El Serif forma un ángulo recto con los trazos perpendiculares de la letra y es tan grueso como el trazo de la letra. Las egipcias mantienen un trazo uniforme en el recorrido total de la letra sin presentar modificaciones de grosor. El estilo de estas tipografías combina las ideas de clasicismo y belleza con las de fuerza y precisión. Se las recomienda para: • El textos corridos en cuerpos regulares. • Los cuerpos grandes y medianos. • Los titulares de pocas palabras, cuando se espere de ellos un rendimiento en fuerza y elegancia capaz de acentuar la pregnancia del concepto que transportan. Generan textos aireados, de tonos grises medianos, de buena lectura y de gran sugestión. El serif refuerza la sensación de apoyo sobre la línea. Otorga continuidad a la lectura, contribuyendo a la configuración de las palabras como unidades formales. Dado que se trata de tipografías de rasgos continuos, la presencia del serif no permite apretar demasiado entre letras o entre palabras Si se realizaran distorsiones, la uniformidad del trazo en estos tipos, permite condensar o expandir a voluntad cuando se trata de letras sueltas, sin embargo al operar sobre las proporciones en las palabras, conviene trabajar con porcentajes bajos. Para distorsiones importantes en palabras sueltas o en textos, conviene compensar el espaciado entre letras. Los primeros tipos de la familia Egipcia, entran en juego hacia el año 1820, con el primer tipo la “Clarendon”.
Clanderon Tambien como son: Bookman y Rockwell.
Bookman
Rockwell
Puede ser cuadrado: Lubalin Graph y Robotik o bien redondo: Cooper Black.
Lubalin Graph R o b o t i k Cooper Black Otra tipografía es la italiana, una variable de la Egipcia Consiste en una especie de egipcia muy estrecha, denominada por algunos Colonial y por otros Italiana. Su principal característica reside en el hecho de presentar bastones horizontales más gruesos que los verticales, en forma inversa a la corriente. Es una pequeña familia, con tipos muy armoniosos y muy adecuados para determinados titulares. Incluiríamos en esta sección la tipografía, Playbill 224
Playbill INCISAS Este es otro grupo que, como las mecanos, es excepcional dentro de la gran familia de las romanas. En el caso de las incisas no puede hablarse, propiamente de romanas. Las incisas son letras en la tradición romana más antigua, ligeramente contrastadas y de rasgo adelgazado ahusado. No se puede hablar de remates, pero sus pies abocinados sugieren, tal como ocurre con las con serif, una línea imaginaria de lectura, luego aunque no tengan remates, en esencia por construcción, no puede hablarse de tipos de palo seco. Su ojo grande y sus ascendentes y descendentes finos, hacen de él un tipo que, aunque es extremadamente difícil de digitalizar, es muy legible a cualquier cuerpo. A pequeña escala, puede confundir y parecer de palo seco al perderse la gracia de su rasgo. Son las tipografías que recuerdan el grabado en la piedra o el metal. Tienen remates pequeños y triangulares, dejando este grupo cerca de las lineales. Connotan un clasicismo modernizado. Hay dos tipos distintos: ✏✏ Híbridas: Estos tipos no tienen modulación y usan rematen. Ejemplo de familia tipográfica: Cooperplate.
✏✏ Incisas:
Cooperplate
Estos tipos si tienen el trazo modulado y los remates son insinuados. Ejemplos de familias tipográficas: Optima y Stone Sans.
Optima
Stone Sans
PALO SECO Son aquellos que en cada carácter no tiene unas pequeñas terminaciones llamadas remates, gracias o serifas. Las letras de palo seco son comúnmente usadas para titulares pero no para cuerpos o bloques de texto grandes; Los remates ayudan a guiar la mirada a través de toda la línea de texto. La falta de gracias en los tipos de letra de palo seco obliga a esforzar mucho más la vista al leer grandes bloques de texto. Sin embargo, cuando se lee con tipos de letra paloseco en una pantalla, la pixelación logra que éstas se vean mucho más limpias que las tipografías con remates, por lo que es mucho más recomendable utilizar bloques de texto con tipos de letra sin remates en las pantallas. Antiguamente, en los libros, los tipos de letra de palo seco eran usados para hacer énfasis en una palabra debido a la mancha tipográfica mucho más oscura que dejan. Se dividen en tres grupos principales: 225
• Grotesco Llamado erróneamente Egipcio, apareció únicamente en caja alta en el catálogo tipográfico de la Caslon Foundry en Inglaterra, en 1816. Las primeras Grotescas que siguieron fueron tipos de rotulación muy gruesos, donde las letras de caja alta presentaban un mismo ancho. En 1832, William Thorowgood emitió una nueva Grotesca muy gruesa con una caja baja tosca y basta. Poco después se emitieron diferentes anchos y pesos más ligeros. Los diseños Grotescos que disponían de caja baja fueron perfeccionados antes en Alemania que en Inglaterra. Los fundidores alemanes también produjeron letras de caja alta de varios anchos y con un ligero estrechamiento de los trazos en las uniones. Un ejemplo de este estilo es Akzidenz Grotesk (o Standard) diseñada en 1898. La flexibilidad y cualidades plásticas de este diseño de Palo Seco fueron explotadas más tarde por Morris Benton en la American Typefounders en 1908, cuando diseñó la familia tipográfica News Gothic -Trade Gothic (1948) es similar. Franklin Gothic (1905), un tipo pesado de Rotulación, sirvió para que Morris Benton desarrollase otra familia de tipos Grotescos. En 1980, ITC lanzó su versión de Franklin, con muchos pesos ligeros adicionales y cursivas a juego, con el fin de adaptarla para la composición de textos. En 19S7, Adrian Frutiger diseñó la familia Univers con un total de 21 variaciones.
Adrian Frutiger Al año siguiente, Max Miedinger diseñó Helvetica, una de las fuentes mejor utilizadas de todos los tiempos el diseño en el que se basó fue Akzidenz Grotesk, Folio (1957), Neue Helvetica, Haas Unica (1980) y otras son todas del mismo molde.
Helvetica
• Geométricos
Neue Helvetica
A partir de 1920, como resultado directo de la tipografía de los movimientos de arte moderno en Europa y el Bauhaus en Alemania, emergió un estilo austero y funcional de Palo Seco llamado Geométrico. Estos tipos monolineales, que se construían sencillamente a partir de la línea recta, el círculo y el rectángulo, revolucionaron la escena tipográfica a finales de los años veinte. Quizá el tipo más popular de esta categoría es Futura (1928) de Paul Renner.
Futura Poco después aparecieron en rápida sucesión varios símiles de Futura como Kabel (1928) de Rudolf Koch, Metro (1929-1930) de William Dwiggins, Spartan y Tempo (1930). Eurostile (1962) de Aldo Novarese, un tipo cuadrado y desagradable, también pertenece a esta categoría de letras de Palo Seco.
• Humanísticos
Eurostile
El tipo de Palo Seco del calígrafo Edward Johnston destinado al metro de Londres en 1916 rompió muchos moldes en el diseño tipográfico -estaba basado en las letras romanas clásicas. En 1929, Eric Gill, que había sido discípulo y admirador de Johnston, diseñó Gill Sans para Monotype, con una gran influencia del tipo utilizado en el metro de Londres. El tipo de Gill tenía una `e’ y una `g’ de caja baja claramente diferenciadas, así como una cursiva muy fluida. Gill Sans es una de las viejas favoritas 226
que posee gran carácter. La desventaja de Gill es la longitud de las descendentes, lo cual implica un espaciado adicional. Univers y Helvetica son igualmente legibles, pero quizá mucho más mecánicas.Tienen la ventaja de estar disponibles en una multitud de pesos, anchos, cursivas y otras fuentes especiales, además de contarse entre las existencias de casi todos los compositores tipográficos del mundo. Las formas simplificadas de Futura y las otras letras Geométricas de Palo Seco Geométricas las han popularizado para la composición de libros infantiles. Sin embargo, sus formas abiertas y semejantes producen una lectura monótona. ESCRITURA Se inspiran en la escritura caligráfica. Los signos minúsculas están pensados para enlazarse imitando a la escritura. Connotan la escritura personal y los intercambios epistolares. El tipo informal muestra unos trazados más imperfectos. Los trazados pueden variar en ancho, pero normalmente parecen que han sido creados con brocha en vez de con pluma. Los tipos informales aparecen a principios del siglo XX y con la llegada de la composición fotográfica a primeros de los 50 su número se vio incrementado rápidamente. Los scripts informales fueron muy usados en Europa y Norte-América en los 70. Ejemplos de este tipo de escritura son: Brush Script, Kaufmann Script, y Mistral.
Brush Script
Mistral
Una familia de gran alcurnia y nobleza, actualmente arruinada. Este tipo caligráfico se encuentra representada a pluma y pincel. La familia de letra inglesa, como la gótica es una reliquia de tiempos pasados, cuando el rey Jorge IV de Inglaterra se le ocurrió un día del año 1700, solicitarle al fundidor francés Firmín Didot una letra manuscrita, imitando la inglesa manuscrita. La mayoría de las tipografías tipo script o escritura están basados en las formas de las letras de los maestros escritores de los siglos XVII y XVIII como George Bickham, George Shelley, y George Snell.
George Shelley Las letras en su forma original son generadas con la punta biselada de una pluma creando trazados gruesos y finos en función de la dirección del trazado. Las tipografías basadas en el estilo de escritura aparecieron a finales del siglo XVIII y durante el XIV. Actualmente se pueden observar muestras de época de esta tipografía en “Kunstler Script”.
Kunstler Script Estas tipografías son frecuentemente usadas para invitaciones y diplomas para causar una sensación de elegancia e importancia. Otros ejemplos: Belphebe, Edwardian Script, Medieval Victoriana y Vivaldi.
Belphebe
Edwardian Script 227
MEDIEVAL VICTORIANA
Vivaldi FANTASÍA Presentan características muy variadas, que hacen que sea la clasificación más personal y ornamental de todas. Son decorativas Las tipografías de Fantasía son muy usadas en el diseño de logotipos, por poseer trazos muy personales y diferenciales. • No tienen buena legibilidad en cuerpos pequeños o textos largos. • Estas fuentes no fueron concebidas como tipos de texto, sino para un uso esporádico y aislado. • Anteponen la función a lo formal, con trazos sencillos y equilibrados, casi siempre uniformes. • Muy utilizados en la realización de rótulos de señalización de edificios y anuncios exteriores de tiendas. • Son aquellas decorativas inspiradas en la rotulación de carteles o reclamos. Ejemplos:
Bauhaus Braggadocio Chalkdulter Critter Curlz DESDEMONA HERCULANUM Papyrus Rosewood GÓTICA También llamada gótica, palo seco o lineal. Esta letra sería la antítesis de la romana. Inicialmente utilizada para cartelería, considerada una letra sin carácter, funcional, casi institucional. Se caracteriza porque las partes redondeadas de las letras aparecen fracturadas. La denominación “gótica” fue usada por los humanistas con un sentido peyorativo, debido a que la 228
consideraban una letra bárbara y difícil de leer. Además, no existe conexión entre letras, lo que acentúa más su ilegibilidad El ancestro directo de la letra gótica es la minúscula carolina. Ha sido un modelo escritural y tipográfico característico del centro de Europa, siendo usada profusamente hasta el siglo XX. Fue el tipo usado por Johannes Gutenberg, el inventor de la imprenta, que la difundió el uso del gótico por todo Occidente. De estructura densa, composición apretada y verticalidad acentuada, manchan extraordinariamente la página. Todavía hoy se editan publicaciones alemanas en carácter gótico. Ejemplos: Lucida Blackletter y Blackmoor
Lucida Blackletter Blackmoor En la actualidad, se usan en una gran variedad de aplicaciones, como titulares, logotipos, carteles, juegos de fantasía, películas y mucho más. La palabra “gótico” sugiere oscuridad y atmósfera mística, por lo que estas fuentes son una buena elección para infinidad de aplicaciones, desde invitaciones de Halloween a diseños gráficos de estilo gótico, pasando por carteles y etiquetas para CD. Ejemplos de este tipo son Fraktur, Old English, Koch Fraktur y Wedding Text. Fraktur Old English Koch Fraktur
Wedding Text
PICTOGRAMAS, CARACTERES ESPECIALES, GLIFOS, FUENTES PI, BOLOS, TOPOS Y VIÑETAS FUENTES PI Los pictogramas (del latín pictum, ‘pintado’, y el griego graphein, ‘escribir’) son imágenes estilizadas susceptibles de transmitir una indicación o una información. Son casi siempre decorativos y llevan la firma de sus creadores. Se han convertido en un elemento obligatorio a la hora de ilustrar distintos diseños gráficos. Los símbolos permiten comunicarse de manera rápida y sencilla, y a menudo, de forma universal. Los diseñadores no tendrán ninguna dificultad para emplear símbolos vectorizados en gráficos complejos, incluso con grandes dimensiones de impresión, sin poner en peligro la calidad... y también podrán encajarlos en pequeños archivos digitales. Es una fuente especial con caracteres matemáticos y científicos, indispensable para su uso en manuales técnicos o tratados científicos. Estas fuentes son toda una bendición y más allá de su uso obvio, muchos de estos caracteres son símbolos interesantes que se pueden utilizar de otras maneras. Muchos de estos símbolos son tan interesantes que se pueden utilizar en formas en las que podría no haber pensado inmediatamente: logotipos, símbolos identificativos de una organización en un informe anual o folleto, o elementos decorativos en sí mismos. Estos signos exigen al espectador más fantasía que los símbolos. Los pictogramas (del latín pictum, ‘pintado’, y el griego graphein, ‘escribir’) son imágenes estilizadas susceptibles de transmitir una indicación o una información. Son casi siempre decorativos y llevan la firma de sus creadores. Se conocen también con el nombre de fuentes clip art.
ta129vc1WERTYUIOPLKJHGFD 229
SAZXCVBNM,.-20º¡QWERTYU IOP`+Ç´ÑLKJHGAZXCVBN M-Zqwertyuiop`+ç´ñlf dsazvbm_¿?&%!·$%&1234 589A¡QWERP+LJHGFDSAZe • Símbolos
Son sin duda las fuentes Pi más utilizadas. Símbolos para fórmulas, para señalizaciones, para cartografía y para casos en los que haya que aclarar algo visualmente, es decir, con signos que todo el mundo pueda comprender.
º1234567890¡qwertyuiop`+asd fghjkl´çzxcvbnm,.-QWERTYU IOP`+ASDFGHJKLÑ´ÇZXCBN M;:_^*¨Çª!·$%&/()=?¿^*¨Ç • Ornamentos Los ornamentos son muy antiguos. Se utilizaban ya antes de la invención de la imprenta, para «iluminar» libros, como se decía entonces, cuando aún se realizaban a mano. Entre ellos estaban también las iniciales de los manuscritos medievales. Por tanto, no faltan las fuentes de inspiración, desde los ornamentos mexicanos del Codex Borgia (Códice Borgia) hasta los graffiti de Keith Haring pasando por el art déco y las decoraciones murales camboyanas. NO LATINA Utilizar y manipular documentos con fuentes No-Latinas siempre ha sido un poco complicado. Dependía de muchas opciones a controlar, por ejemplo: si necesitábamos componer un texto en Cirílico, Español, Ingles y Checo, automáticamente debíamos adquirir una tipografía para cada idioma y si además este documento tenia que ser enviado a otro país, aún se complicaba más, porque no nos asegurábamos de que el cliente pudiera disponer de las mismas versiones de fuentes que nosotros (sobretodo en intercambios entre MAC y PC). Hoy en dia con OpenType es más fácil ya que se dispone de un solo archivo tipográfico que puede incluir todos los idiomas, indicados anteriormente. Decimos puede, porque no todas las tipografías OpenType tienen su diseño en Cirílico, o en Checo, o en Turco, etc… de ahí los diferentes tipos de fuentes OpenType.
רקצץפףעסנןמצץפףעסנןמצץפףעסנןמםלכךיטחזוהדגבא 230
ךּכּצּפּיּדּגּבּשּׂײױװתש نيًمليهوقفضطظعغـصطظعغـصشسزرذتثجحخدةبائإؤ؞؟أآء٣٤٧ ٶ٦ظعغـصطظعغـصقو �����������������১য়ঢ়জদধমভবটঢপণতঞঘগএইআ অ�������১য়ঢ়জদধ 놂녶녷녻녤녒녑녂녁넗냳냲냠냡냢냋냏냈낞날낡 낒낑끳끸뀯뀫뀁뀀꿐꾔꽶꽒꼮껾꺞금늂늠늪늬늫 цсґѹйоибвгώϷϼВАМЕЛЙЎхъчидглиіјјїлЫЭ FILETES Y LUTOS • Filete Línea de grosor y definición variable que se emplea para separar, destacar o adornar. Puede ser irregular como el puntillé (línea de puntos equidistantes), la media caña (dos rayas juntas, una fina y otra gruesa) o la caña (dos rayas finas paralelas).
• Luto Línea con un grosor mayor o igual a cuatro puntos.
TIPOMETRÍA Tipometría es el sistema de medición de tipográfía, que dispone de su propio sistema y unidades de medida. el sistema timpométrico es duodecimal, por la relación que existe entre la unidad inferior de medida: el punto, y la unidad superior: el cícero o pica que consta de 12 puntos tipográficos. • Sistema Fournier Los antecedentes de dicho sistema tipográfico se deben a Pierre Simón Fournier (1712-1768), quién 231
publicó en 1737 un sistema o Tabla de Proporciones para la fundición sistemática de caracteres que llamó duodecimal. Para ello tomó el tipo más pequeño que comúnmente se usaba, llamado nomparela, lo dividió en seis partes y a cada una le dio el nombre de punto; a base de este sistema fabricó desde 1742, todo el material tipográfico que fundía. Al doble de la nomparela, es decir 12 puntos tipográficos le llamó cícero. Todo el material de blancos es múltiplo o submúltiplo de 12, o sea, el cícero. La equivalencia del sistema duodecimal de Fournier, con el sistema métrico decimal es la siguiente: ✏✏ 1 punto = 0.350 mm ✏✏ 63 puntos = altura del tipo = 22.050 mm El sistema Fournier se utiliza en Bélgica y Holanda, Checoslovaquia, Austria y la ex Unión Soviética. • Sistema Didot (europeo) En 1760 François Ambroise Didot (1730-1804) perfeccionó el sistema de medida de Fournier tomando como base el Pie de Rey, medida de longitud usada en aquella época en Francia. Los submúltiplos del Pie de Rey eran:
✏✏ 1 pie de rey = 12 pulgadas ✏✏ 1 pulgada = 12 líneas ✏✏ 1 línea = 12 puntos Didot consideró que un punto de pie de rey era excesivamente delgado para formar una apreciable gradación de caracteres, adoptó como unidad básica el grueso de dos puntos, es decir, la sexta parte de la línea de pie de rey. Así dos puntos de pie de rey equivalen a un punto tipográfico, cuatro puntos de pie de rey equivalen a dos puntos tipográficos, etc. Por tanto, el punto tipográfico Didot equivale a 1/72 de la pulgada francesa. ✏✏ El sistema Didot de medidas tipográficas tiene actualmente estas relaciones: ✏✏ Punto Didot = 0.376 mm ✏✏ Cícero Didot = 4.512 mm El sistema europeo o Didot se utiliza en Alemania, España, Francia, Grecia, Portugal, Suecia, Turquía, parte de Australia, Italia y América Latina. El sistema Didot ha sido adoptado en casi todas las fundiciones tipográficas del mundo, excepto en Estados Unidos e Inglaterra, en donde el punto tipográfico está basado en el pulgada inglesa (25.4 mm) y equivale también a 1/72 de la 232
misma. • Sistema anglosajón El sistema de punto-pica fue establecido por Benjamín Franklin (1706-1790) se utiliza en Estados Unidos e Inglaterra y en algunos países latinoamericanos, entre ellos México. Este sistema de medición fue adoptado en una convención en 1878 entre fundidores de tipo ingleses y estadounidenses. La equivalencia del sistema angloamericano tiene estas relaciones. ✏✏ 1 punto = 0.352 mm ✏✏ 1 pica = 4.23 mm • El punto tipográfico postscript En la actualidad, con el uso de los ordenadores y la autoedición, se ha estandrizado en la mayoría de los programas el uso del punto anglosajón depurado, al que a partir de ahora definiremos como punto postscript y será el que utilicemos para trabajos digitales. El valor se define en este caso como la septuagésima segunda parte de una pulgada (1 / 72). EL TIPÓMETRO El tipómetro es una regla graduada de metal, plástico, acetato u otro material, dividida normalmente en puntos y en milímetros, que se ha utilizado tradicionalmente en artes gráficas para medir material tipográfico. Según el tipógrafo español José Martínez de Sousa [cita requerida], la idea del tipómetro se debe al impresor y librero francés Martín Domingo Fertel. Debido a la informatización en el proceso de composición tipográfica, que permite mayor precisión, el tipómetro ha desaparecido prácticamente del ámbito profesional. Los tipómetros se fabricaban de diversas formas y tamaños, tanto rígidos como enrollables, en piezas de aluminio o de plástico. La regla suele tener dos partes graduadas, una para medir puntos y cíceros, y otra centímetros y milímetros.También solían incluir varias escaletas que permitían medir los distintos cuerpos del texto y comprobar el interlineado. El tipómetro se hizo originalmente para definir el tamaño de las letras en los impresos, por eso su nombre. A través de los años, surgió la necesidad de poder determinar exactamente más elementos de las artes gráficas, así que se fue incluyendo otro tipo de información. A continuación se especificará la información que aparece en la segunda imagen: Angulómetro: Señala ángulo por ángulo y determina exactamente a cuántos grados se encuentra un objeto de otro objeto. Trazos: Medición de grosores. Trama: Círculos de 5 en 5 para medir porcentaje de trama de un color. Tipómetro: Especifica los tamaños y puntajes exactos que tienen las letras minúsculas y mayúsculas desde 3 puntos hasta 40 puntos. Código de barras: Muestra las diferentes magnificaciones que se utilizan para los códigos de barras. En lenguaje más computarizado, se utiliza con un programa o sofware especial donde se introduce el porcentaje de magnificación que se desea y el programa arroja automáticamente el código de barras que se necesita. Se pone la primera barra del código impreso en donde dice "primera barra" y 233
se mide hasta donde llegue el código de barras impreso y se tiene en cuenta la magnificación de la medida. Por ejemplo: Magnificación 80%, 120%... etc. Por otro lado, es de gran ayuda para medir el espacio exacto que debe tomarse el código de barras en el diseño. MANCHA Y CUERPO La mancha está comprendida entre la altura de los rasgos ascendentes y descendentes, mientras que… El cuerpo incluye una parte blanca por encima y por debajo de la mancha (lo que denominábamos como hombro superior e inferior en el tipo de plomo). La altura de las mayúsculas mide 2/3 del cuerpo.Tenemos que tener clara la diferencia que existe entre el cuerpo de un carácter y la mancha del mismo. Esto nos ayudará a calcular sin problemas el tamaño de un carácter impreso. La mancha está siempre comprendida entre la altura de los rasgos ascendentes y descendentes, mientras que el cuerpo incluye una parte blanca por encima y por debajo de la mancha (lo que denominábamos como hombro superior e inferior en el tipo).
LONGITUD DE LÍNEA La cantidad ideal de letras por línea debe ser de 40 a 60 letras, y no es aconsejable realizar líneas de más de 40 cíceros (18 cm), ya que generarían problemas de legibilidad en la tipografía de edición. El interlineado adecuado para un texto depende tanto de la longitud de la línea como del cuerpo del tipo y del interlineado. Las líneas cortas necesitan un interlineado menor; las líneas largas, uno mayor. En la composición de textos en general - sobre todo si se excluyen los pies de las ilustraciones y los titulares-, una buena regla consiste en hacer que la longitud de línea se mantenga entre los 35 y los 65 caracteres. En la práctica, las limitaciones de espacio o los dictados de un uso especial pueden exigir longitudes mayores o menores. En cualquier caso, es importante saber detectar cuándo una longitud de línea es demasiado larga o demasiado corta pues dificulta la lectura. INTERLÍNEA LEADING Se define como la separación existente entre dos líneas de texto, o mejor dicho, entre las líneas base de ese texto. Se trata de una característica muy importante que inflúe en su legibilidad.La opción de interlineado automático por defecto establece el interlineado en el 120% del tamaño del texto, es decir, asigna un interlineado de 12 puntos para texto de 10 puntos. 234
Cuando se usa el interlineado automático, el valor de interlineado se muestra entre paréntesis en el menú Interlineado del panel Carácter. Para cambiar este interlineado automático por defecto, seleccione Justificación en el menú del panel Párrafo y especifique un porcentaje de 0 a 500. En longitudes de línea muy largas se debe aplicar un mayor interlineado ya que si las líneas están muy juntas, el ojo humano se puede perder en el recorrido entre el final de una línea y el comenzo de la siguiente. Y por contra, en textos de líneas cortas se debe reducir el interlineado. También en los textos que
tienen como finalidad las pantallas de ordenador (como en páginas web) el ligero aumento del interlineado aumenta considerablemente la legibilidad del texto. Es un atributo de carácter, lo que significa que se puede aplicar más de un valor de interlineado en un mismo párrafo. El mayor valor de interlineado de una línea de texto determina el interlineado de esa línea.Seleccione los caracteres u objetos de texto que desea cambiar. Si no selecciona ningún texto, el interlineado se aplica al texto nuevo que cree. ALINEACIÓN O COMPOSICIÓN La alineación del texto es un paso importante para mantener también una buena legibilidad. Las opciones de alineación en un 235
diseño de una página tradicional son: Alinear a la izquierda, alinear a la derecha, centrar y justificar. • Izquierda ✏✏ Alineación a la izquierda es el recomendable para textos largos. ✏✏ Crea un texto y un espaciado entre palabras muy equilibrado y uniforme. ✏✏ Esta clase de alineación de textos es probablemente la más legible. ✏✏ También llamado en bandera. • Derecha ✏✏ Alineación a la derecha se encuentra en sentido contrario del lector porque resulta difícil encontrar la nueva línea. ✏✏ Este método puede ser adecuado para un texto que no sea muy extenso.
• Centrada ✏✏ La alineación centrada de un texto resulta ideal para frases muy cortas y muy concretas como por ejemplo títulos, titulares, citas, poemas, frases célebres etc. ✏✏ Las alineaciones centradas dan al texto una apariencia muy formal y son adecuadas cuando se usan mínimamente. ✏✏ Debe evitarse configurar textos demasiado largos con este modelo. • Jultificación ✏✏ Puede ser muy legible, si el diseñador equilibra con uniformidad el espacio entre letras y palabras, evitando molestos huecos denominados ríos que no rompan el curso del texto. ✏✏ Las alineaciones centradas proporcionan al texto una apariencia muy formal y son ideales cuando se usan en textos cortos. ✏✏ Se debe evitar configurar textos demasiado largos con esta alineación. ✏✏ Se consigue expandiendo o reduciendo los espacios entre palabras y en ocasiones, entre letras. ✏✏ A veces la apertura resultante de las líneas puede producir “ríos” de espacio blanco que fluyen de arriba a bajo, se evita ajustando los saltos de línea y la partición de palabras. JUSTIFICACIÓN Una buena justificación de texto se compone básicamente de cinco recursos, ordenados aquí más o menos por relevancia: Una buena justificación modifica el espacio entre palabras 236
Este es el recurso elemental de la justificación. Sin modificar el espacio entre las palabras no hay justificación, así de símple. Todos los navegadores modernos y casi todos los no-tan-modernos soportan este tipo de justificación. Pero usando solamente este recurso no se logra una buena justificación, necesitas por lo menos dos de los recursos que siguen. Una buena justificación siempre usa división silábica (hyphenation) Simplemente no puedes justificar bien sin meter uno que otro guión ortográfico. Esto es particularmente importante en el español, ya que es una lengua un tanto más aglutinante que el inglés, especialmente en los verbos. En el español los verbos contienen más información que en inglés. La construcción "Dormiré cuando muera" se traduce como "I will sleep when I die". Fácilmente puedes ver cómo el verbo contiene el tiempo y la persona, a costa de hacer más complicada la conjugación. Esto resulta en palabras más largas que no
se prestan a una buena justificación sin división silábica. Los navegadores modernos no tienen la capacidad de hacer división silábica. Una buena justificación compone línea por línea Cuando modificas el espacio entre las palabras muchas veces coinciden los huecos entre las líneas, creando un efecto tipográfico poco deseado llamado río tipográfico. Es algo así: En los tiempos de los tipos móviles se componía este efecto de manera manual, hoy en día tenemos la bendición del software (exceptuando los navegadores, por supuesto). Una buena justificación puede deformar los caracteres horizontalmente Un procedimiento bastante sensato de Johannes Gutenberg fue analizar el trabajo de los maestros escribanos antes de imprimir la primera biblia. Los buenos escribanos justificaban el texto en tiempo real, manipulando el espacio entre las palabras, las letras, y modificando el ancho de las letras para que el texto tuviera una uniformidad adecuada. El primer juego de tipos móviles tenía varias versiones de la misma letra con distintos anchos para lograr este efecto. Seguramente habrás escuchado que es un pecado capital de la tipografía modificar la proporción de la letra, pero en proporciones mínimas (± 2%) es imperceptible y mejora la justificación del texto. 237
Una buena justificación puede modificar el espacio entre las letras La modificación del espacio entre las letras solo se hacía en los titulares en tiempos de los tipos móviles, es una invención de la era digital ideada por Hermann Zapf e implementada por Peter Krakow. En realidad este es un recurso poco importante en la justificación para pantalla, se modifica de manera tan imperceptible que la resolución de pantalla (por el momento) no alcanza a reflejar la sutileza del espacio entre las letras. PARTICIÓN
La partición o separación de palabras es la clave de la jusrificion. Si no se utuliza la partición puede ocurrir que, al tener palabras completas, haya gran diferencia en la cantidad de letras, de una línea a otra. La partición tiene el invoveniente de que aparezcan demasiados guiones consecutivos, lo cual es un problema para la legibilidad porque produce constantes interrupciones. ESPACIO ENTRE LETRAS Y LIGADURAS • Tracking El término tracking (anchos de caracteres), que se utiliza en la mayoría de los programas de ordenador que incorporan la composición tipográfica, es óptimo para describir la adición o la eliminación de espacio entre letras. No hay que olvidar que incluso la mejor tabla de kerning necesita, a veces, pequeños ajustes, sobre todo en el caso de que se utilicen cuerpos de letra grandes Denominamos al interletraje, al espacio entre caracteres, al blanco que acompaña al de la tipografía para que cada línea tenga su forma única. El tracking puede enriquecer o entorpecer el mensaje y a su vez la estética del cuerpo del texto. Para comprobar si nuestro párrafo tiene un tracking “normal” nada mejor que mirarlo. ✏✏ Creemos necesario conocer la regla para así poder romperla adecuadamente cuando nos sea preciso. 238
✏✏ Un lado tenemos que las letras mayúsculas necesitan más espaciado que las minúsculas. ✏✏ Las negritas, y las condensadas, se ven favorecidas por un tracking negativo. ✏✏ Al menor cuerpo de letra le corresponde un mayor interletraje. ✏✏ A mayor contraforma (parte vacía de la letra), mayor espaciado. ✏✏ Cuando escribimos en negativo (fondo oscuro y letra clara), se recomienda aumentar el tracking. ✏✏ Hay tipografías, sobre todo las script que no aceptan un espaciado demasiado amplio. • Kerning En un principio, el término "orejeta", kern en inglés, describía la porción de una letra que se extendía más allá del ancho del lingote de plomo. Tal como muestra el ejemplo de la derecha, esta adaptación era necesaria en las letras que tenían brazos en ángulo descendente, a fin de que el espacio entre las letras, dentro de una palabra, fuese ópticamente coherente. Hoy en día la palabra kerning describe el ajuste automático del espacio entre pares de letras, tal como prescribe una tabla para los diferentes grupos concretos de letras que está incrustada en la fuente digital. Dado que el kerning elimina espacio entre grupos de dos o tres letras concretas, con frecuencia es err neamente denominado interletrado o espaciado entre letras. Hablamos del espacio que existe entre pares de letras El kerning se origina en la época de los tipos metálicos, en la cual un kern era un componente metálico, la parte de la letra que sobresalía del borde exterior. Sólo se refiere al espacio entre pares de letras, lo podemos entender como un “espaciado excepcional”. El kerning existe debido a que
239
ciertas combinaciones de letras dejan demasiado, o demasiado poco, espacio entre ellas. Esto hace que se pierda algo de legibilidad, sobretodo porque el ojo tiende a centrarse en las cosas que no se espera, como en este caso sería un error tipográfico; algo así como lo que sucede en algunas ocasiones con el texto justificado. Algunas de las cosas que deberían hacernos pensar en cambiar el kerning serían el cuerpo del tipo (contra más grande es menos kerning necesita, para compensar blanco/negro), o los pares compensados (LT, Ty, We, Av…). Como dato decir que las fuentes de Adobe tienen unos 100-150 pares de kerning. • Ligaduras Para empezar: una ligadura es un recurso tipográfico que une dos o tres caracteres independientes en un solo glifo. Y, que quede claro antes de empezar, esto también ocurre con las tipografías de palo seco; por si acaso. Dicho esto, comencemos la disertación.
240
La palabra “ligadura” procede del latín ligare, que aquí traduciremos por enlazar. El término se gesta en la edad media, cuando la falta de suministros provoca el auge del ahorro de material, lo que hace que cada centímetro de códice sea importante. Para esto se unieron algunas letras formando una sola ligadura. Aunque el problema no acabó aquí. Mucho tiempo después la solución se reinventó cuando en las primeras imprentas de tipos metálicos se encontraban el problema que de la parte que se extendía en algunas letras, creaba huecos descompensados (por ejemplo con la letra “f”). La parte más importante de la “f” es su gancho superior. Pero tiene un problema, a veces colisiona. El hecho de unir la “f” y la “i” se debe a que en muchas familias tipográficas nos encontramos con que estas letras chocan. Esto podría solucionarse modificando el kerning, o dibujando una “f” estrecha con un gancho poco profundo (aunque esto hace que pueda confundirse con una “t”). Desde aquí consideramos que la opción más elegante es crear una ligadura; aunque la “i” pierda su punto. Es cierto que en ocasiones las ligaduras, más que suplir una carencia en su funcionamiento, sirven simplemente para adornar, así la encontramos en las ligaduras “ct” o “st”. Incluso podemos encontrar ligaduras en los diptongos de otros idiomas, como por ejemplo en la palabra del francés œil (ojo). Normalmente nos encontramos con ligaduras entre la “f” y la “i” o entre dos “f”, pero no olvidemos que algunos signos en su tiempo fueron letras sueltas. Aquí mencionaremos a la letra esszet del alemán (no confundir con la “beta” del alfabeto griego) que sirve para mencionar ahorrar al escribir la doble “s”. Otro de estos signos famosos lo encontramos en la letra ampersand que substituiría a la conjunción “y” (et en latín). Otra famosa es la “w”, hoy en día letra por derecho, pero antes del siglo XIII era simplemente una repetición de dos “v”. También la “ñ” sirvió para designar una par de “n”.
Para finalizar diremos que el uso de ligaduras es altamente recomendable para embellecer el texto y facilitar su cómoda lectura; aunque es un recurso únicamente válido para las fuentes opentype. SaNGRÍaS En tipografía, desplazar el inicio de una o más líneas con respecto al de las demás líneas de un bloque 241
de texto. La sangría consiste en dejar un espacio al principio de la primera línea de un párrafo, en cuyo caso se llama sangría de primera línea, o en un conjunto de líneas: sangrías de texto. Es precio señalar sangría izquierda o derecha y cantidad. • De primera línea ✏ Separación usada en casi todas las publicaciones, que separa la primera línea de cada párrafo del borde de la caja. ✏ Su uso es indispensable para lograr una señal clara del comienzo de párrafo. ✏ Se «sangra» la primera línea. En este caso, un centímetro: • Izquierda y derecha ✏ El segundo párrafo tiene aplicadas estas dos sangrías. TIPOS DE PÁRRAFOS Un párrafo es una unidad de discurso en texto escrito que expresa una idea o un argumento. Está integrado por un conjunto de oraciones que se encuentran relacionadas entre sí por el tema que trata y por su organización lógica y significado. En tipografía y en otros usos el comienzo de un párrafo es indicado por diversios medios, como una línea en blanco antes o una sangría en la primera línea. Antiguamente, se empleaban los símbolos ¶, para separar párrafos, o §, para comenzarlos, pero hoy es raro verlos. En el cuerpo del texto, los párrafos se distinguen ya sea con una sangría en la primera línea de cada uno (párrafo ordinario), que es el metodo tradicional, ya sea con un blanco entre ellos. No es conveniente aplicar ambos métodos a la vez ya que los blancos resultarán muy irregulares en forma y ello restará simetría visual y legibilidad. • Ordinario ✏ Es el que tiene todas las líneas llenas, menos la primera que está sangrada, y la última, que suele
242
quedar corta. ✏✏ Este tipo de párrafo es el que se usa normalmente en el texto, incluso después de un título, aunque modernamente se tiende a suprimir la sangría en este último caso: • En Bloque: ✏✏ Es el que tiene todas las líneas llenas, incluso la última.
✏✏ Este tipo solo se debe usar en párrafos aislados cuyo ancho se puede reajustar para cuadrar el texto• Francés: ✏✏ Es el que tiene la primera línea llena y las demás sangradas.
✏✏ Se usa sobre todo en bloques de textos cortos en los que interesa destacar el comienzo de cada uno de ellos, como bibliografías.
243
✏✏ Llamado también con el anglicismo de párrafo colgante. • Base de lámpara ✏✏ Este párrafo no tiene ninguna orden para hacerlo, una de las formas de hacerlo es definir una área para luego el texto seguirlo
CAPITULARES Se denominan capitulares a las letras mayúsculas de mayor tamaño que se colocan al inicio de los párrafos. Debemos saber que en las capitulares, letras como la Q o la J pueden darnos ciertos problema por su diseño. Existen tres tipos distintos de capitulares, las capitulares altas, las capitulares arrancadas y la capitular recorrida. • Capitular alta: ✏✏ Es la más sencilla y la que menos problemas da. ✏✏ Se crea aumentando el tamaño de la primera letra. ✏✏ Si tenemos el interlineado automático, el espacio que dejará por debajo será el espacio de la capitular. ✏✏ Si nos da problemas será mejor utilizar manualmente el interlineado.
• Capitular arrancada: ✏✏ En este caso la capitular ocupa varias líneas de texto y debe estar por la zona superior alineada con la alineación superior, y por debajo con la línea base de la última línea que ocupa. 244
• Capitular recorrida: ✏✏ Es la que suele dar mayor problema a la hora de maquetar, ya que depende de la letra de que se trate. ✏✏ En este tipo , el texto que queda a la derecha de la capitular recorre a ésta en su forma. ✏✏ En casos como la A o la W es sencillo el recorrido, pero en letras verticales como la N, no se notará el recorrido y parecerá una capitular arrancada.
TABULACIÓN Las tabulaciones sitúan el texto en ubicaciones horizontales específicas dentro del marco. La configuración de tabulación predeterminada depende de las unidades de la configuración de la Regla horizontal en el cuadro de diálogo de preferencias de Unidades e incrementos. Las tabulaciones se aplican a todo el párrafo. El primer tabulador que define elimina todos los tabuladores predeterminados que haya a su izquierda. Los siguientes tabuladores eliminan todos los tabuladores predeterminados que haya entre los tabuladores que ha definido. Puede definir tabulaciones a la izquierda, en el centro o a la derecha, así como tabulaciones de caracteres decimales o especiales. 245
VIUDAS Y HUÉRFANAS En la composición tipográfica tradicional (el tipo de composición que todavía resiste entre los editores de libros de bibliófilo y los editores comerciales sensibles a este tema), hay dos meteduras de pata imperdonables: las líneas viudas y las huérfanas. Una línea viuda es una línea corta de texto que queda sola al final de una columna de texto. Una línea huérfana es una línea corta de texto que queda sola al principio de una nueva columna de texto. Considérese el ejemplo de la izquierda. Ya se sabe que el texto tiene que leerse como un cuerpo de un tono más o menos medio. Es fácil ver que una línea especialmente corta al principio o al final de un párrafo desbarata ese tipo de lectura; de hecho, crea una forma que hace que la atención se aleje de la mera lectura. En el texto justificado, tanto las viudas como las huérfanas se consideran patinazos graves. Si el texto se alinea por la izquierda, el perfil de la bandera que se crea en el borde derecho del bloque de texto es un poco más benévolo con las viudas, pero solo un poco. Y las líneas huérfanas siguen siendo imperdonables. La única solución para las líneas viudas consiste en rehacer los saltos de línea a lo largo del párrafo, a fin de que la última línea no sea tan corta, y por ello tan llamativa. Las líneas huérfanas, como ya se habrá imaginado, exigen más cuidado. Los tipógrafos más precisos se aseguran de que ninguna columna de texto empiece con la última línea del párrafo anterior. REGLAS BÁSICAS DE USO • Limitar el uso indiscriminado de las tipografías En muchas ocasiones nos encontramos con trabajos, diseños, lecturas que, en aras de un diseño atractivo, se convierten en una verdadera feria de la tipografía. 246
Como norma general debemos emplear cuantas menos tipografías sean necesarias para transmitir correctamente el mensaje, mejor. Si nuestro diseño “funciona” con 2 tipografías diferentes, evitemos incluir una tercera. Podemos jugar con recursos extra: negritas, tipografías delgadas, condensadas… correspondientes a una misma familia. Como nota al margen: evitar el subrayado. Es un recurso heredado de las antiguas máquinas de escribir. • Evitar el empleo de las mayúsculas Como regla general no es aconsejable el empleo de mayúsculas en una palabra, frase o párrafo. Seguro que encontramos efectos visuales más atractivos que nos eviten el empleo indiscriminado de las mayúsculas. En este punto quiero hacer especial mención a la “mayusculitis”. Podríamos definirla como una tendencia al uso exagerado de las mayúsculas para destacar palabras en un texto. Básicamente existe la tendencia general de escribir con mayúscula las palabras o términos que la gente considera importantes, sea cual sea la razón, si tener en cuenta que gramaticalmente su uso no es correcto. La regulación del uso de mayúsculas está perfectamente definida por la RAE y su desconocimiento nos empuja a una mala aplicación de la denominada mayúscula de respeto. Usar el lenguaje con propiedad no implica menospreciar a las entidades, cargos y lugares. Así pues, “La Reunión de Instaladores de Cobre” está mal escrito, y constituye una falta de ortografía. Como colofón, citar que se encuentra enormemente extendido en las redes sociales, foros, emails… el escribir todo un texto en mayúsculas. Es necesario recordar que las normas tácitas del buen hacer indican que escribir en mayúsculas equivale a GRITAR a nuestro interlocutor. Luchemos por un planeta libre de ruidos… • Controlar el espaciado Un buen diseño tipográfico tiene en cuenta dos conceptos clave: el tracking y el kerning. En cualquier diseño es de especial relevancia mantener un equilibrio entre un espaciado muy grande y otro pequeño. Esto es aplicable tanto al espaciado entre letras, como al espaciado entre palabras y líneas. Como regla general, debemos partir del espaciado estándar, ofrecido por nuestra tipografía e ir aplicando pequeñas variaciones hasta lograr el efecto que buscamos. Los excesos en un sentido o en otro afectan enormemente a la legibilidad del texto. • Pensemos en nuestro público El tamaño de nuestra tipografía debe estar en consonancia con nuestro público/target. Si escribimos para un público joven será suficiente emplear tipografías legibles estándar a 10-11 puntos. Si nuestro público es de edad más avanzada debemos incrementar el tamaño de la fuente, intentando no sobrepasar los 16-18 puntos de tamaño. Para un público de edad heterogénea podemos pensar en una tipografía de cuerpo 12. Lógicamente estos tamaños de fuente son aplicables a fuentes estándar. Lo correcto es aplicar el sentido común ante fuentes con legibilidad especial. Es necesario tener también en cuenta que no todos los tamaños son iguales para todas las fuentes. Por ejemplo, podemos encontrarnos con fuentes que con cuerpo 12 son ilegibles, por su reducido tamaño. Será necesario compensar manualmente estas diferencias. De nuevo hay que apelar al sentido común. • Dividir estéticamente nuestro texto Los párrafos inmensamente largos dificultan enormemente la legibilidad. De igual forma, la rotura del mismo de forma indiscriminada, en forma de líneas cortas dificulta enormemente una lectura secuencial adecuada del mismo. 247
Es necesario separar nuestros textos en párrafos de forma congruente. Para ello también podemos recurrir al uso de encabezados, figuras, fotos, citas textuales… cualquier recurso que añada una estética visual y útil a nuestro texto será bienvenido. Es necesario tener ene cuenta nuestro ancho de columna, el tamaño, forma y legibilidad de la tipografía, el concepto o idea que estamos intentando transmitir… ORIGINALES DE TEXTO • • • •
Manuscrito Mecanografiado Hablado Digital ✏✏ .txt
Un archivo de texto llano, texto simple, texto plano, texto sencillo o texto pelado (en inglés plain text) es un archivo informático compuesto únicamente por texto sin formato, sólo caracteres, lo que lo hace también legible por humanos. Estos caracteres se pueden codificar de distintos modos dependiendo de la lengua usada. Carecen de información destinada a generar formatos (negritas, subrayado, cursivas, tamaño, etc.) y tipos de letra (por ejemplo, Arial, Times, Courier, etc.). El término texto llano proviene de una traducción literal del término inglés plain text, término que en lengua castellana significa texto simple o texto sencillo. Las aplicaciones destinadas a la escritura y modificación de archivos de texto se llaman editores de texto. ✏✏ .rtf El Rich Text Format (formato de texto enriquecido a menudo abreviado como RTF) es un formato de archivo informático desarrollado por Microsoft en 1987 para el intercambio de documentos multiplataforma. La mayoría de procesadores de texto son capaces de leer y escribir documentos RTF.1 No debe confundirse con el enriched text (mimetype "text/enriched" de RFC 1896) o su predecesor Rich Text (mimetype "text/richtext" de RFC 1341 y 1521) que son especificaciones completamente diferentes. ✏✏ .doc Microsoft Word utiliza un formato nativo cerrado y muy utilizado, comúnmente llamado DOC (utiliza la extensión de archivo .doc). Por la amplísima difusión del Microsoft Word, este formato se ha convertido en estándar de facto con el que pueden transferirse textos con formato o sin formato, o hasta imágenes, siendo preferido por muchos usuarios antes que otras opciones como el texto plano para el texto sin formato, o JPG para gráficos; sin embargo, este formato posee la desventaja de tener un mayor tamaño comparado con algunos otros. Por otro lado, la Organización Internacional para la Estandarización ha elegido el formato OpenDocument como estándar para el intercambio de texto con formato, lo cual ha supuesto una desventaja para el formato .doc. Ahora, en el Word 2007, se maneja un nuevo formato, docx. Es más avanzado y comprime aún más el documento. Puede instalarse un complemento para abrir documentos creados en Office 2007 desde versiones de Office anteriores, disponible desde la página de Microsoft. ✏✏ OCR El Reconocimiento Óptico de Caracteres (ROC), o generalmente como reconocimiento de caracteres, es un proceso dirigido a la digitalización de textos, los cuales identifican automáticamente a partir de una imagen símbolos o caracteres que pertenecen a un determinado alfabeto, para luego almacenarlos en forma de datos, así podremos interactuar con estos mediante un programa de edición de texto o similar. 248
Con frecuencia es abreviado en textos escritos en el idioma español, utilizando el acrónimo a partir del inglés OCR. En los últimos años la digitalización de la información (textos, imágenes, sonido, etc ) ha devenido un punto de interés para la sociedad. En el caso concreto de los textos, existen y se generan continuamente grandes cantidades de información escrita, tipográfica o manuscrita en todo tipo de soportes. En este contexto, poder automatizar la introducción de caracteres evitando la entrada por teclado, implica un importante ahorro de recursos humanos y un aumento de la productividad, al mismo tiempo que se mantiene, o hasta se mejora, la calidad de muchos servicios.
CORRECCIÓN DE TEXTOS El advenimiento de los modernos sistemas de autoedición supuso una verdadera revolución que afectó de lleno a la organización del trabajo en el mundo de las artes gráficas. De hecho oficios como los de cajista, teclista e incluso corrector han desaparecido de las modernas imprentas sustituidos por potentes ordenadores que desarrollan las tareas que antes tenian encomendadas varios operarios cada uno especialista en su parcela. Como legado de la época anterior a la autoedición, podemos citar, entre otras cosas, a los signos de corrección tipográfica que si bien en la actualidad han quedado un poco en desuso aún es posible encontrarse con ellos en ciertos trabajos o situaciones. Los signos de corrección son anteriores a la invención de la imprenta; los primeros correctores de manuscritos los crearon para corregir el trabajo de los copistas, señalando al margen los signos que indicaban la corrección; éstos tenían semejanza con distintas letras griegas, semejanza que aún conservan, si bien ligeramente modificada. Los signos de corrección son internacionales; se usan en casi todos los países con muy ligeras diferencias. Tales signos tienen sólo un significado convencional, perfectamente conocido por correctores, cajistas y teclistas, así como por otras personas directamente relacionadas con la imprenta, como los escritores y los traductores. Se clasifican en llamadas, signos o enmiendas y señales. • Llamadas Se emplean muchas y de diferentes formas; cada corrector suele usar casi siempre las mismas, aquellas con las que está más familiarizado; Cada una de estas llamadas sirve para señalar en el texto una letra, palabra, frase o lugar que necesite la corrección. Una vez señalado en el texto se repite en el margen la misma señal, y a su derecha se coloca el signo, letra, palabra o frase que sustituye a lo tachado. 249
Las llamadas no deben repetirse en una misma línea, salvo si se trata de la misma corrección, en cuyo caso se podrán repetir cuantas veces sea necesario. • Signos o enmiendas Son signos convencionales que indican la operación que se ha de realizar en el lugar señalado por el corrector, al cual remite la llamada puesta a la izquierda del signo, ambos situados en el margen de la prueba. • Señales Las señales se indican en el texto, pero no es preciso sacarlas al margen; sin embargo, si en algún caso es necesario, ello podrá hacerse para más claridad y que no pase inadvertida al teclista o cajista. SIMBOLOGÍA DE CORRECCIÓN
TIPOGRAFÍA DIGITAL Con la eclosión del sector de la informática en la década de 1980 surgió también el concepto de autoedición, que permitía al diseñador tener a mano todas las herramientas necesarias para diseñar, componer tipográficamente e ilustrar un proyecto sin tener que recumr a proveedores externos. En gran medida, el método de trabajo supuso un regreso al scriptorium medieval. La empresa Bitstream lnc empezó a ofrecer fuentes tipográficas digitales en 1981 , seguida al poco tiempo por Adobe Systems lnc. Para el año 1990, prácticamente todas las fundiciones tipográficas del mundo comercializaban versiones digitales de sus tipos y habían surgido numerosos negocios dedicados exclusivamente a la venta de fuentes digitales. Para el año 2000, los procedimientos tradicionales de fabricación de tipos, con sus más de 500 años de antigüedad, habían quedado relegados a los dominios de puristas y nostálgicos. Se había extinguido un a profesión entera: la del cajista de imprenta. No obstante, gracias a la inmediata intervención y a los elevados estándares de diseñadores de tipos como Matthew Carter, Sumner Stone y muchos otros, este cambio en el sistema de producción no implicó necesariamente una disminución de la calidad. El campo del diseño de tipos ha seguido viento en popa, siempre a la par de los adelantos en la tecnología digital. Los diseñadores 250
nunca antes habían dispuesto de tantos tipos -y tan buenos- como ahora. SOFtWaRE DE CREaCIÓN DE tIPOS •
Fontographer
Fontographer es un programa para la creación y edición de tipografías creado por FontLab (AltSys, Macromedia). ✏ Características ♦ Suavizado de fuentes ♦ fusión de fuentes ♦ líneas ♦ fuentes a mano alzada ♦ pluma ✏ Los pros y los contras ♦ Velocidad y herramientas. ♦ Interfaz algo pobre. ♦ Puedes convertir las fuentes (fonts) a vectores editables en Adobe Illustrator, Corel Draw y Adobe Freehand como así también para Adobe Flash.
FORMatOS DE FUENtES DIGItaLES •
Postscript
Es un lenguaje de descripción de paginas (en inglés PDL, page description language), utilizado en muchas impresoras y, de manera usual, como formato de transporte de archivos gráficos en talleres de impresión profesional. Está basado en el trabajo realizado por John Gaffney en "Evans&Sutherland" en el año 1976. Posteriormente, continuaron el desarrollo 'JaM' ('John and Martin', Martin Newell) en Xerox PARC y, finalmente, fue implementado en su forma actual por John Warnock y otros. Fue precisamente John Warnock, junto con Chuck Geschke, los que fundaron Adobe Systems Incorporated (también conocido como Adobe) en el año 1982. El concepto PostScript se diferenció, fundamentalmente, por utilizar un lenguaje de programación completo, para describir una imagen de impresión. Imagen que más tarde sería impresa en una impresora láser 251
o algún otro dispositivo de salida de gran calidad, en lugar de una serie de secuencias de escapes de bajo nivel (en esto se parece a Emacs, que explotó un concepto interno parecido con respecto a las tareas de edición). También implementó, notablemente, la composición de imágenes. Estas imágenes se describían como un conjunto de: ✏ Líneas horizontales ✏ Píxeles al vuelo ✏ Descripciones por curvas de Bezier ✏ Tipos de letra (mal llamados fuentes) de alta calidad a baja resolución1 (e.g. 300 puntos por pulgada). Una de las peculiaridades de PostScript es que usa Reverse Polish Notation (RPN o notación polaca inversa- como las calculadoras de bolsillo de HP). En otras palabras, los parámetros de un comando se dan antes que el comando. Los comandos se separan con espacios en blanco. Usa operaciones de pila para procesar datos y ejecutar comandos. Hay cuatro pilas disponibles en PostScript: ✏ La pila de operandos ✏ La de diccionario ✏ La de ejecución ✏ La de estado gráfico. PostScript Nivel I Ofrece soporte para trabajar con objetos vectoriales, con "tipos de contorno" (un conjunto limitado de descripciones de letras a base de trazados matemáticos), con lineaturas de semitonos profesionales, capacidad de generar puntos de semitonos de distintas formas (línea, cuadrado, círculo, elipse, etc.), capacidad de gestionar hasta 256 tonos de gris distintos en una impresión. Independencia total del dispositivo (lo que permite imprimir aprovechando al máximo la resolución de éste). Portabilidad entre aparatos. Disponibilidad pública del código y de su sintaxis (lo que permite a cualquiera escribir un programa capaz de generar ficheros PostScript) y algunas cosas más. PostScript Nivel 2 ✏ Fue introducido en el año 1991 incluyendo varias mejoras como: ✏ Gestión de memoria extremadamente mejorada ✏ Mayor velocidad y fiabilidad ✏ Capacidad para realizar la separación del color dentro del rip (in-rip separation) ✏ Descompresión de imágenes2 ✏ Soporte para tipografías asiáticas3 ✏ Soporte para tipos de letra compuestos ✏ Mejora de los controladores de impresora ✏ Mejora muy notable (aunque algo tardía) de los algoritmos de tramado de semitonos. El nivel 2 de PostScript todavía no ha sido adoptado del todo por muchos fabricantes de software y hardware. PostScript 3 A partir de esta versión Adobe abandonó la terminología de niveles, pasando a usar la de versiones. 252
Esta versión fue liberada a finales de 1997. Las principales mejoras que introdujo esta nueva versión son: ✏✏ Uso de 12 bits para describir las lineaturas de semitono4 ✏✏ Control extremadamente mejorado de las separaciones de color5 ✏✏ Soporte del formato pdf desarrollado para el programa acrobat ✏✏ Gestión del color mucho más avanzada. ✏✏ Nuevas características de impresión relacionadas con las posibilidades que ofrece internet que aún no han sido muy desarrolladas. ✏✏ Introducción de nuevos filtros de compresión de imágenes como son el flatedecode y flateencode y para definición de datos como ReusableStreamDecode • True Type TrueType es un formato estándar de tipos de letra escalables desarrollado inicialmente por Apple Computer a finales de la década de los ochenta para competir comercialmente con el formato "Type 1" de Adobe, el cual estaba basado en el lenguaje de descripción de página conocido como PostScript. Una de las principales fortalezas de TrueType era que ofrecía a los diseñadores de tipografía un mayor grado de control (mediante sugerencias o "hints") sobre la forma en que los caracteres se desplegaban en pantalla o en impresos a tamaños menores, con lo cual se lograba una mejor legibilidad. Microsoft Windows 3.1, la versión aparecida a finales de 1991 incluía un programa de escalado de tipos de letra capaz de gestionar estas fuentes. • Open Type OpenType fue pensado por Microsoft y Adobe para ser el sucesor del formato TrueType —desarrollado por Apple Computers y posteriormente licenciado a Microsoft— y del formato Tipo 1 (coloquialmente conocido como PostScript) desarrollado por Adobe. Microsoft trato de licenciar la tecnología de tipografías avanzada, "GX Typography", a principios de los '90, y tras ser rechazada desarrolló su propia tecnología, llamada TrueType Open en 1994. Adobe se unió a Microsoft en 1996, agregando apoyo para la tipografía de contornos usada en sus fuentes Type 1, y el nombre OpenType fue usado entonces para la tecnología combinada. Adobe y Microsoft continuaron desarrollando y refinando OpenType tras la década siguiente. Luego, a fines del 2005, OpenType comenzó el proceso de convertirse en un estándar abierto bajo la Organización de Estándares Internacional (International Organization for Standardization, ISO), bajo el grupo MPEG quién previamente había adoptado OpenType por referencia. El nuevo estándar es esencialmente OpenType 1.4, con cambios apropiados de idioma para ISO, y qe será llamado Open Font Format (Formato de Fuentes Abierto). La adopción inicial del nuevo estándar se espera que esté completa a finales del 2006. CARACTERÍSTICAS OPEN TYPE • • • • • • • •
Facilita el intercambio de archivos entre Mac y Pc. Se instala un único archivo. Usan Unicode (múltiples alfabetos). Permite incrustar la fuente. Ocupa menos que una fuente PostScript. Mayor juego de caracteres hasta 65.000 glifos (PostScript y Truyetype tienen 256 glifos). Mayor control tipográfico (ligaduras, kern, versalitas, números volados, fracciones). Versiones OpenType: ✏✏ Standard (juego normal de caracteres de una fuente PostScript + símbolo € a veces, versalitas, números antiguos, Alternate…). ✏✏ Pro (fuente STD + caracteres centroeuropeos + pueden tener versalitas, ligaduras, números an253
tiguos, Expert, Alternate, caracteres decorativos + caracteres griegos o cirílicos, si están disponibles). • Versiones .ttf (Truetype) para oficina y web y CCF .ott (PostScript) para edición. • Mayor seguridad (pueden contener firma digital, restricciones de uso en PDF). GESTORES DE FUENTES • Adobe Type Manager (versión Light gratuita) Adobe Type Manager (ATM ) es el nombre de una familia de programas de ordenador creados y comercializados por Adobe Systems para su uso con su Type 1. La versión actual es Adobe ATM Light 4.1.2 ,
disponible en Adobe FTP • Extensis Suitcase Fusion (server) Este es el gerente de la fuente La creatividad profesional. Asumir el control total sobre el escritorio y fuentes web, sin dejar de tener la libertad para explorar. Porque no hay nada sofisticación y facilidad en esta galaxia puede vencer a Suitcase Fusion. Simplemente, y sin problemas, proporciona las fuentes que necesite, cuando usted los necesita. Suitcase Fusion 4 continúa liderando el camino en la tecnología de gestión de fuentes trayendo intuitivas herramientas de manipulación de la fuente directamente en el flujo de trabajo creativo, permitiendo a los diseñadores para acceder a ellos donde y cuando sea necesario. Desde el concepto de diseño para la finalización del proyecto, 4 Suitcase Fusion cuenta con diseñadores de cubiertas. ✏✏ Características ♦♦ Almacenamiento seguro, la fuente profesional ♦♦ Con todas las características previas de la fuente le permiten comparar las fuentes de lado a lado ♦♦ Auto-activación de los plug-ins para aplicaciones de diseño más populares, incluyendo Adobe Creative Suite y QuarkXPress ♦♦ Compatible con Mac OS X Lion (10,7) y Windows 7 ♦♦ Font Sense patentada tecnología de huellas dactilares para identificar con precisión las fuentes ♦♦ Encuentra fuentes similares rápidas con QuickMatch ♦♦ Fuente Web habilitado con WebINK y Google conexiones de fuentes Web ♦♦ Organizar las fuentes con conjuntos 254
♦ ♦ ♦
•
Crea vistas previas de fuente PNG mediante arrastrar y soltar, con instantáneas de fuente FontDoctor incluido GRATIS para la detección de la corrupción y la organización más Avances flotantes ciernen sobre todas las demás aplicaciones
♦ Construido en la fuente más limpia de caché para Mac OS X Catálogo tipográfico / Font Book (MacOs X)
El Catálogo Tipográfico te permite instalar, eliminar, ver, organizar, validar, activar y desactivar tipos de letra. Los tipos son estilos de letra que utiliza el ordenador para mostrar e imprimir texto. OS X incorpora muchos tipos de letra preinstalados.
255
El Catálogo Tipográfico se encuentra situado en la carpeta Aplicaciones (en el Finder, selecciona Ir > Aplicaciones). Para gestionar o ver tipos, abre el Catálogo Tipográfico o haz doble clic en un tipo de letra. En el Catálogo Tipográfico, la columna Colección de la izquierda muestra los tipos de letra instalados por categoría; haz clic en una categoría diferente para ver distintas clases de tipos de letra, o bien haz clic en "Todos los tipos de letra" para obtener una lista de todos los tipos de letra instalados. La columna Tipo de letra que se encuentra en el medio muestra todos los tipos de letra de la colección seleccionada. En el panel de previsualización de la derecha se muestran una serie de caracteres en el tipo de letra seleccionado. CONTRATOS DE LICENCIA DE FUENTES TIPOGRÁFICAS Una fuente digital es una descripción de un estilo de letra. El software de fuentes es necesario para reproducirlas en una plataforma concreta. En resumen, Tipografía es software. En todo software se precisa de una licencia de uso. Generalmente la licencia mínima da derecho a su utilización en 5 ordenadores y en una única ubicación geográfica. Si el número de ordenadores es superior, es necesario adquirir una licencia ampliada: • Multilicencia que cubra el número de ordenadores donde se va a instalar la tipografía. • Multiemplazamiento si existe más de una ubicación geográfica, es necesario adquirir dicha licencia, que cubra el número de ubicaciones que tiene la empresa. El usuario Con la compra de fuentes tipográficas NO se adquiere la propiedad de las fuentes, sino el derecho de uso. Las condiciones de uso se especifican en el EULA (Contrato de licecnia para el usuario final), pautado por cada fabricante. Está prohibido vender, alquilar o ceder gratuitamente copias de estas fuentes a terceros así como hacer modificaciones. El usuario tiene el derecho de utilizar las fuentes bajo un acuerdo de licencia que tiene establecido cada fabricante de tipografías. Se podrá utilizar la tipograía tantas veces como sea necesario siempre y cuando el usuario no incumpla el contrato. En dicho caso el otorgante de dicha licencia podrá reaccionar y retirarle su uso. La licencia otorgará al usuario el derecho de unas fuentes perfectamente definidas en un número determinado de CPU’s y ubicaciones. • • • • •
Se considera ilegal el software de fuentes en los siguientes casos: Si no se posee factura de las licencias de las fuentes. Modificar* las fuentes sin consentimiento y autorización del licenciatario. Fusionarlo con otros programas. Vender, alquilar o ceder las fuentes compradas. Instalar las fuentes en un número superior de ordenadores al indicado en la licencia o factura.
Diferentes tipos de licencias de fuentes • Licencia estándar Derecho no exclusivo y no transferible para el uso del software tipográfico (fuente) en un número máximo de hasta cinco ordenadores en una única sede del titular de la licencia. El titular de la licencia 256
deberá instalar el software tipográfico (fuente) en un único servidor y lo utilizará en una única red local (LAN-local area network), limitado a los puestos de trabajo y las impresoras que cubre la licencia. • Licencia multiuso Derecho no exclusivo y no transferible para el uso del software tipográfico (fuente) en un número superior a cinco ordenadores. El titular de la licencia deberá instalar el software tipográfico (fuente) en un único servidor y lo utilizará en una única red local (LAN-local area network), limitado a los puestos de trabajo y las impresoras que cubre la licencia. • Licencia web Derecho no exclusivo y no transferible de utilización de fuentes para web (en formatos WOFF, EOT, etc) en un número ilimitado de portales de un mismo dominio. La instalación de fuentes en otros dominios precisa de licencias adicionales. Las condiciones varían según el suministrador de las fuentes, pues la facturación se hará en función del número de pageviews y (o bien) por duración del contrato, etc, por lo que se facilitarán los datos a la presentación del presupuesto. • Licencia de servidor web para aplicaciones (web server license) Permite al cliente instalar el software tipográfico (fuente) en un servidor al que usuarios externos tengan acceso y puedan descargar un documento PDF con la fuente. El precio se aplica en función de 1) el número de fuentes, 2) el número de ordenadores y 3) la duración del contrato. Por ello no se trata de una licencia liquidada, sino que de un contrato anual renovable a años sucesivos. • Licencia de servidor web para comprobaciones (web server license for proofs) Con esta licencia se pueden generar imágenes con un servidor de tal modo que se puedan comprobar previamente los resultados de impresión como bitmap de las plantillas elaboradas por el usuario. A continuación, un impresor generará el documento para el cliente. El contrato de licencia es anual y depende del número de fuentes y del número de servidores CPUs. • Licencia OEM (Original Equipment Manufacturer) Licencia individual para productos OEM con contrato de licencia (se precisa de NDA non-disclosure agreement). Esta licencia es obligatoria para productos en los que el software tipográfico (fuentes o partes de las fuentes) se combina con el hardware o el software creado o programado por el OEM, de modo que aparece como producto propio. LEGIBILIDAD El término legibilidad hace referencia a la facilidad para distinguir un formato de letra de otro, por medio de las características físicas esenciales del diseño de una tipografía específica. Una composición tipográfica con buena legibilidad permite ser leído con fluidez y naturalidad, más allá que pueda ser comprendido. Por ejemplo, un texto en un idioma que no conocemos podrá ser legible, más no inteligible. Al respecto Ambrose y Harris afirman que: “La legibilidad del cuerpo de un texto queda reforzada por el uso de los cuerpos estándares, un interlineado equilibrado y la alineación apropiada” y que “La absoluta claridad de la información unida a un mínimo de factores de interferencia es lo que crea un tipo legible”. Existe en la disciplina tipográfica una gran cantidad de normas basadas en serios y profundos estudios de legibilidad. En su mayoría, estas reglas para una buena legibilidad están dirigidas al trabajo editorial, sin embargo es sumamente necesario estar familiarizado con ellas al momento de realizar un trabajo de tipografía expresiva, pues sólo se podrán romper las reglas en forma coherente, si antes se las conoce con detenimiento. Habitualmente el sector superior de las tipografías es la fracción con mayor nivel de reconocimiento, 257
por lo que se lo denomina “zona fisonómica”. Es por eso que las familias tipográficas que presentan trazos ascendentes acentuados y formas redondeadas con modulaciones, en general, resultan mayormente legibles. A continuación enumero, en forma breve y sucinta una serie de consideraciones o normas clásicas de legibilidad. Aunque la mayoría de estas normas se refieran explícitamente a los textos de largo alcance para el trabajo editorial, pueden ser tenidas en cuenta, ya sea aplicándolas o quebrantándolas, en muchos de los casos de trabajos con tipografía expresiva.
• Una tipografía de diseño regularizado es más legible que una tipografía de estilo decorativo o fantasía. • En un texto de largo alcance, una tipografía con serif es más legible que una de Palo Seco. • Una tipografía regular o de tono medio es más legible que una de trazo fino (light o blanca) o de trazo grueso (bold o negrita). • En un bloque de texto las letras minúsculas o de caja baja son más legibles que las mayúsculas o de caja alta. • Un texto compuesto con una tipografía de cuerpo demasiado grande o demasiado pequeño reduce la legibilidad y genera cansancio en el lector. • En un bloque de texto, el espaciado demasiado amplio o demasiado reducido entre las letras y entre las palabras dificulta la legibilidad. • El interletra y el interpalabra regular de una columna sin justificar es más legible que el espaciado variable de una 258
columna justificada. • En un bloque de texto cuando el interlineado es demasiado estrecho o es demasiado amplio se reduce la legibilidad. • Cuando el ancho de una columna de texto es muy pequeño resulta fatigoso para el lector el tener que cambiar de línea con demasiada frecuencia. Si por el contrario la columna de texto es demasiado ancha, resulta complicado encontrar el comienzo de la siguiente línea. • La tipografía negra sobre soporte blanco es más legible que cualquier otra combinación de colores. • La tipografía sobre plano pleno, es más legible que sobre trama, textura o imagen. Es posible encontrar un mayor número de normas de legibilidad, pero a los fines de esta sección sobre la expresividad tipográfica, creo suficiente los aquí presentados. El propósito de conocer las normas básicas de legibilidad es trabajar conciente y coherentemente con ellas, respetándolas cuando es necesario y rompiéndolas cuando el mensaje lo disponga apropiado. Aquí es donde comienza a intervenir la inteligibilidad. El término inteligibilidad refiere a las propiedades que posee un texto para que pueda ser entendido. En muchos casos composiciones tipográficas con textos de corto alcance, que presentan dificultades en cuanto a la legibilidad, transmiten con gran éxito la emoción, la sensibilidad y la información planteada. La facilidad de lectura en esos casos queda relegada a un segundo plano, ya que al utilizarse el texto como un recurso gráfico se refuerza el mensaje, posibilitando su inteligibilidad. TIPOGRAFÍA PARA LA WEB Tipografía Web se refiere al tipo de letra usada en la World Wide Web. Cuando fue creado HTML, tanto la fuente tipográfica y como el estilo venían determinados exclusivamente por las preferencias del navegador Web utilizado. No existió ningún mecanismo para el control del tipo de letra en las páginas Web hasta que en 1995 Netscape introdujo la etiqueta <font></font>, la cual fue estandarizada para HTML 2. No obstante, la fuente especificada por esta etiqueta tenía que estar instalada en el ordenador del usuario o una tener una fuente de reserva, como la predeterminada para la Web, sans-serif o un tipo de letra monoespaciado. Las primera especificación de hojas de estilo en cascada (CSS en sus siglas en inglés) fue publicada en 1996 y proporcionaba las mismas prestaciones. En 1998 fue publicado el estándar de CSS2, que intentaba mejorar el proceso de elección de fuentes tipográficas por medio de cotejo de similitudes, síntesis y descarga. Estas técnicas no se llegaron a utilizar demasiado y fueron eliminadas de la especificación en CSS2.1. Sin embargo, Internet Explorer agregó soporte para descarga de fuentes en la versión 4.0, publicada en 1997.1 Más tarde se incluyó la descarga de fuentes en el módulo de fuentes de CSS3, y desde entonces has sido implementada en Safari versión ,Firefox versión 3,5 y Opera (navegador). Subsecuentemente, se ha incrementado el interés sobre la tipografía para la Web, así como el uso de descarga de fuentes. • CSS1 En la primera especificación de CSS,los autores especificaban el tipo de fuente con las siguientes características: 259
✏✏ ✏✏ ✏✏ ✏✏ ✏✏
font-family font-style font-variant font-weight font-size
Todas las fuentes eran identificadas solamente por su nombre. Más allá de las propiedades mencionadas anteriormente, los diseñadores no tenían ninguna forma de darle estilo a las fuentes, y no existía ningún mecanismo para señalar fuentes que no estaban presentes en el sistema del cliente. • Fuentes Web seguras Fuentes Web seguras son fuentes que pueden estar presentes en una amplia gama de sistemas informáticos, y usadas por paginas web para aumentar la probabilidad que su contenido sea mostrado en su fuente deseada. Si un visitante no tiene la fuente especificada, su navegador va a intentar seleccionar una fuente similar, basada en las fuentes de reserva y fuentes genéricas determinadas por el autor o sustitución de fuente definida en el sistema operativo del visitante. Microsoft's Core fonts for the Web fue publicado por Micrisoft’s el programa Core fonts for the Web. Arial, Georgia, y Verdana se han convertido en las tres fuentes principales de la Web Con el fin de asegurar que todos los usuarios de la Web tengan un conjunto básico de fuentes Microsoft creo la iniciativa Core fonts for the Web en 1996 (terminada en el 2002). Las fuentes publicadas incluyen: Arial, Courier New, Times New Roman, Comic Sans, Impact, Georgia, Trebuchet y Verdana, bajo una ‘’EULA’’ (por sus siglas en ingles que significan contrato de licencia con usuario final) las hace libre de distribución, pero también limita algunos derechos de uso. Su alta tasa de penetración ha hecho un elemento básico para los diseñadores web. Sin embargo, estas fuentes (o algunas de ellas) no se incluyen en los distintos sistemas operativos de forma predeterminada. CSS2 intentó aumentar las herramientas disponibles para los desarrolladores Web mediante la adición de síntesis de fuentes, búsqueda de fuente mejorada y la posibilidad de descargar fuentes remotas. Algunas propiedades de las fuentes de CSS2 fueron removidas de CSS2., más tarde añadidas en CSS34 • Fuentes de Reserva La especificación CSS permite tener varias fuentes como fuentes de reserva.6 En CSS, la propiedad font-family acepta una lista de tipos de fuente separadas por coma para ser usadas, como: font-family: Helvetica, "Nimbus Sans L", "Liberation Sans", Arial, sans-serif; La primera fuente especificada es la fuente preferida. Si la fuente no se encuentra disponible, el navegador de Web intenta usar la siguiente fuente 260
en lista. Si ninguna de las fuentes especificadas se encuentran, el navegador resultara mostrando la fuente predeterminada. Este mismo proceso también ocurre sobre una base por carácter si el navegador está tratando de mostrar un carácter que no está presente en la fuente especificada. ✏✏ Arial ✏✏ Arial Black ✏✏ Book Antiqua ✏✏ Calisto MT ✏✏ Century Gothic ✏✏ Comic Sans MS ✏✏ Copperplate Gothic Bold ✏✏ Courier New ✏✏ Impact ✏✏ Lucida Console ✏✏ Lucida Handwriting Italic ✏✏ Lucida Sans ✏✏ Marlett ✏✏ News Gothic MT ✏✏ OCR A Extended ✏✏ Symbol ✏✏ Tahoma ✏✏ Times New Roman ✏✏ Verdana ✏✏ Webdings ✏✏ Westminster ✏✏ Wingdings
261
tEMa 5 tRataMIENtO DE IMaGEN Y tRaMaDO
264
TEMA 5A: TRATAMIENTO DE LA IMAGEN Evolución 269 Reproducción fotomecánica 271 El original y su reproducción 273 Análisis y preparación del original 274 Cálculos de reproducción 274 Dispositivos de digitalización 275 Fotografía digital 279 Otros dispositivos de digitalización 285 Programas de dibujo vectorial 287 Bancos de imágenes 289 Gestión y catalogación de imágenes 293 Tipos de imagen digital 297 Imágenes vectoriales 297 Ventajas e inconvenientes de la imagen vectorial 299 Cálculo de la resolución de entrada 300 Resolución de entrada 300 Escala 301 Profundidad de bit 301 Modos de imagen 301 Tratamientos geométricos 309 Retoque 311 Corrección de brillo y contraste 311 Corrección tonal o curvas 312 Valores cromáticos 314 Corrección de color (corregir dominantes) 315 Efectos tonales 318 265
Otros tratamientos 319 Filtros 321 Destramado 322 Sobreimpresión, trapping, reventado 322 Formatos de archivo de imágenes en preimpresión 322 Formatos de archivo de imágenes para web y multimedia 324 Otros formatos de imagen 325 Procesado de imágenes para preimpresión 325
266
267
268
EVOLUCIÓN La xilografía (del griego ξυλον, xylón, ‘madera’; y γραφη, grafé, ‘inscripción’) es una técnica de impresión con plancha de madera. Es originaria de China (siglo V d.C.) y supuso la mecanización del proceso de impresión. Como método de impresión sobre tela, los ejemplos más antiguos que sobrevivieron en China son anteriores al año 220, y en Egipto, del siglo VI o VII. El ukiyo-e es el tipo de impresión japonés por medio de sellos de madera más conocido. Después de la imprenta, la xilografía se usó para las ilustraciones. Al terminar el siglo XV perdió fuerza frente a la calcografía, que es mucho más precisa, sin embargo su uso perduró en las imprentas de pueblo. Hoy día su uso como técnica industrial es nulo, pues ya existe el fotograbado; a pesar de ello se sigue utilizando artesanalmente, mayormente con fines artísticos. El primer libro ilustrado con esta técnica fue el Sutra del Diamante (868. Londres. British Museum).2 En Occidente se introdujo en la Edad Media, las primeras muestras de xilografía datan del siglo XIII, se trata de naipes realizados con esta técnica. A continuación se emplea para estampas religiosas, la primera data de finales del siglo XIV. Se adopta como técnica para ilustrar libros, en los primeros años aparece en los llamados libros xilográficos, de 20 a 30 páginas con textos breves e imágenes destacadas. Además el cristianismo se aprovecha de la nueva técnica para acompañar sus mensajes de ilustraciones. La litografía es un procedimiento de impresión ideado en el año 1796, hoy casi en desuso salvo para la obtención y duplicación de obras artísticas. Su creador fue el alemán Aloys Senefelder (1771 - 1834). En la técnica litográfica se utiliza la diferente adherencia entre sustancias hidrofílicas e hidrofóbicas. Como el agua rechaza las tintas grasas, no se imprimen las zonas grasas aunque se encuentran en el mismo nivel, por ello las matrices litográficas se llaman también planográficas. En los carteles impresos mediante el sistema litográfico, tan frecuentes en la segunda mitad del siglo XIX y primeras décadas del siglo XX, se utilizaban quince, veinte o más tintas. Entre ellos son de destacar los que anunciaban las corridas de toros, los de las Semana Santa, y los diseñados durante la Guerra Civil española. Aunque este procedimiento fue extensamente usado con fines comerciales, la mayor parte de los grandes pintores de los siglos XIX y XX también lo emplearon ya que facilitaba obtener un cierto número de copias de un mismo trabajo: Picasso, Toulouse-Lautrec, Joan Miró, Piet Mondrian, Ramón Casas, Antoni
269
Tàpies, Alphonse Mucha, Federico Castellón, etc. El fotograbado, es cualquiera de los diversos procesos para producir placas o planchas de impresión por medio de métodos fotográficos. Fue inventado en 1880. En general, una placa recubierta con una sustancia fotosensible es expuesta a una imagen, la mayoría de las veces sobre una película; la placa es después tratada en variadas formas, dependiendo del proceso de impresión que se usará.
El fotograbado es particularmente útil para la reproducción de fotografías a través del proceso de semitono. Fue creada en los años 1930. Se le llama fotomecánica a la técnica para obtener transparencias negativas o positivas de dibujos, fotografías y textos. Que servirán en primer lugar para hacer una copia exacta en la plancha, estando en pleno contacto con ella. Se le conoce también, como la técnica de elaboración de negativos y positivos para su reproducción por diferentes medios de impresión. El llamado Negativo, se obtiene de películas fotosensibles que contienen el elemento sensible a la luz denominado: Halogenuro de Plata. Sales de Plata microscópica, obtenida de la misma plata aprovechando su propiedad de ennegrecimiento al contacto con la luz. Las transparencias que se denominan fotolitos, son elementos indispensables para la impresión en talleres gráficos, utilizando diferentes técnicas: offset, huecograbado, serigrafía… La fotografía digital consiste en la obtención de imágenes mediante una cámara oscura, de forma similar a la Fotografía química. Sin embargo, así como en esta última las imágenes quedan grabadas sobre una película fotosensible y se revelan posteriormente mediante un proceso químico, en la fotografía digital las imágenes son capturadas por un sensor electrónico que dispone de múltiples unidades fotosensibles, las cuales aprovechan el efecto fotoeléctrico para convertir la luz en una señal eléctrica, la cual es digitalizada y almacenada en una memoria. La primera cámara digital fue desarrollada por Kodak, que encargó a Steve Sasson la construcción de una el 12 diciembre de 1975. Ésta tenía el tamaño de una tostadora y una calidad equivalente a 0.01 Megapíxeles. Necesitaba 23 segundos para guardar una fotografía en blanco y negro en una cinta de casete y otros tantos en recuperarla.
270
REPRODUCCIÓN FOTOMECÁNICA El proceso de la fotomecánica tuvo un gran auge, debido a que todos los procesos debían pasar por este departamento para la preparación del arte en una placa o plancha de aluminio. Se le llama fotomecánica a la técnica para obtener transparencias negativas o positivas de dibujos, fotografías y textos. Que servían en primer lugar para hacer una copia exacta en la plancha, estando en pleno contacto con ella. Se le conoce también, como la técnica de elaboración de negativos y positivos para su reproducción por diferentes medios de impresión.
El llamado Negativo, se obtiene de películas fotosensibles que contienen el elemento sensible a la luz denominado: Halogenuro de Plata. Sales de Plata microscópica, obtenida de la misma plata aprovechando su propiedad de ennegrecimiento al contacto con la luz. Las transparencias que se denominan fotolitos, son elementos indispensables para la impresión en talleres gráficos, utilizando diferentes técnicas: offset, huecograbado, serigrafía. Uno de los pasos del proceso de producción para la impresión y reproducción de soportes gráficos, es la que hoy en día conocemos como preprensa convencional y que ha cambiado sustancialmente en los últimos 10 años. Consiste en preparar los originales destinados a la reproducción para entrar al proceso de impresión. Esta preparación es básicamente por medios fotográficos y se realiza en un taller especializado en la técnica conocida como fotomecánica. La fotomecánica es una técnica que combina procesos fotográficos con medios mecánicos para realizar el trabajo. Consiste principalmente en fotografiar los originales y para hacer las placas o laminas con la película obteniendo 271
uno o varios negativos. Dicha toma fotográfica, era realizada con una cámara especial conocida como "cámara fotomecánica" que ocupa un espacio considerable y nos permite obtener formatos muy grandes en una sola toma, por lo cual requiere de procesos mecánicos para funcionar, enfocar, fijar, succionar, etcétera. La imagen fotográfica podía ser mayor o menor al tamaño del original. Los dos tipos de cámaras que más eran empleados fueron la horizontal y la vertical, cada una tenía sus ventajas y desventajas. Por ejemplo, el tipo de cámara utilizada dependía del espacio disponible y del tamaño de los originales que se fotografiaran. Todos los procesos de revelado que hemos visto anteriormente son realizados de manera automática por la procesadora. De la correcta preparación, uso y mantenimiento de la procesadora depende la calidad de todos los procesos de preimpresión anteriores. -Baño de revelado. Es el primer químico que actúa. Este baño dispone de un rack (estructura que contiene todo el juego de rodillos y rodamientos) que se encarga de arrastrar y sumergir la película en el baño, también dispone de resistencia para el calentamiento y los sistemas de agitación y regeneración. • Baño de fijado. Es muy parecido al baño de revelado, contando también con el rack, cubeta, sistemas de calentamiento, agitación y regeneración. Es importante no mezclar los racks de uno a otro baño. Durante la carga igualmente hay que tener cuidado de cargar primero el fijador, para evitar que alguna gota salpique el revelador ya que lo inutilizaría. • Baño de lavado. Igual a los anteriores salvo la ausencia del sistema de calentamiento, la regeneración del baño de lavado se realiza mediante la conexión a un grifo para mantener el flujo constante de agua corriente. • Secado. Mediante una combinación de rodillos de plástico y goma se va escurriendo el exceso de agua de la superficie de la película, de igual forma y a lo largo del túnel de secado se proyecta aire caliente mediante ventiladores y resistencias para el secado final. Controles y otros dispositivos. Se pueden enumerar los siguientes: • Controles de velocidad o tiempo de revelado. • Temperatura de revelado Temperatura de fijado Niveles de regeneración • Modo de regeneración del revelador y fijador. Temperatura de secado • Sistemas de control digitales y programas. Como otros dispositivos se pueden citar: • Puente on-line de enlace filmadora procesadora • Bidones para el revelador y el fijador fresco, • Sistemas de desagüe • Dispositivo de mezcla de químicos • Dispositivo de reciclaje de químicos (recuperación de plata). En el siguiente gráfico se puede observar la estructura y partes principales de la procesadora. Procesadora y filmadora conectadas en línea, en 272
el gráfico anterior se puede observar el conjunto de rodillos en los racks de revelado, fijado y lavado más la unidad de secado. En la imagen siguiente se puede observar el recorrido que realiza la película fotográfica en una procesadora conectada en línea con una filmadora. EL ORIGINAL Y SU REPRODUCCIÓN • Original negativo En fotografía, se llama negativo a la película que se utiliza en la cámara fotográfica convencional para, seguidamente, realizar el positivado en papel. Las partes del negativo en las que ha incidido la luz se verán con un color oscuro, mientras que en las partes donde no ha incidido, quedarán transparentes. El primer procedimiento fotográfico negativo-positivo fue el Calotipo, inventado por William Fox Talbot. El término "negativo" fue introducido por primera vez por el científico John Herschel, amigo y colega de Talbot, a quien se debe el descubrimiento de las propiedades fijadoras del tiosulfato sódico.
• Original transparente Una diapositiva, transparencia o filmina es una fotografía positiva creada en un soporte transparente por medios fotoquímicos. Difiere de la película en negativo y de las impresiones fotográficas. La diapositiva también es usada como película de cine, ya que produce una imagen positiva sin la intervención de negativos. El proceso más antiguo de la fotografía en color fue el Autocromo. Este era un método de síntesis aditiva que producía diapositivas en colores, pero tenues y con una resolución cromática limitada. Por el contrario, el proceso de síntesis sustractiva Kodachrome brindaba transparencias de colores brillantes. Introducido en 1935, fue ofrecido en un formato de 16 milímetros para películas cinematográficas, 35 mm para diapositivas y 8 mm para películas caseras. Aunque se utilizó originalmente para reportajes, ganó popularidad gradualmente. A comienzos de los años 1940, algunos aficionados usaban Kodachrome para tomar fotografías familiares, otros utilizaban adaptadores de rollos de película con cámaras ordinarias de 4" x 5". En esta época, las películas en color tenían muchos defectos, eran costosas y las impresiones no duraban mucho tiempo. Los aficionados las utilizaron hasta
273
los años 1970, hasta que la impresión en colores comenzó a desplazarla. En 1995, las transparencias en color eran el único medio fotográfico usado para publicaciones serias y fueron extensamente utilizadas en la fotografía publicitaria, documental, deportiva, de stock y de naturaleza. Los medios digitales han reemplazado gradualmente las transparencias en muchas de estas aplicaciones. El uso de diapositivas para exhibiciones artísticas y para presentaciones privadas, por ejemplo, se debe a la insuficiente fidelidad de color que muchos medios digitales presentan actualmente. • Original opaco Los originales opacos generalmente más utilizados son las fotografías en papel, los dibujos o gráficos y las reproducciones tramadas en papel aunque en este caso, al igual que con el fotolito tramado, para reproducirlo haya que destramarlo. Los originales opacos son los más habituales y más rápidos de escanear. Para reproducir este tipo de originales mediante escáner debemos utilizar una fuente de luz por reflexión, es decir, una fuente de luz emisora que se refleje en el original opaco y sea después captada por un dispositivo receptor.
ANÁLISIS Y PREPARACIÓN DEL ORIGINAL • • • • • •
Determinar reencuadres Valoración tonal Valoración cromática (dominantes) Identificar arañazos, motas o defectos Calcular formatos Montaje en el tambor o soportes
CÁLCULOS DE REPRODUCCIÓN Para reproducir un original, tenemos previamente que indicar el tamaño al que queremos reproducirlo. En este apartado veremos cómo se calcula el factor de reproducción para indicar al equipo de reproducción de originales (escáner o cámara reprográfica) el porcentaje de ampliación o reducción de la imagen. La fórmula general es la siguiente: Factor de reproducción= Dimensiones de la reproducción / Dimensiones del original Es decir: Tenemos una imagen que mide 10 cm de ancho X 5 cm de alto, pero queremos que su reproducción en un folleto sea de 5 cm de ancho X el alto correspondiente; para no cortarla o distorsionarla. La formula la aplicariamos de la siguiente manera: 274
Fr= 5 cm / 10 cm = 0,5 Sabiendo el factor de reproducción lo multiplicamos por 100, y sabremos el porcentaje de reproducción Escala = Fr X 100 Escala = 0,5 X 100 = 50% La imagen se reducira un 50%. Si la escala saliera mayor que 100 se ampliaria la imagen, si la escala saliera menor que 100, la imagen se reduciria. Recomendaciones: Ampliar como máximo un 1000%
50%
100%
115%
DISPOSITIVOS DE DIGITALIZACIÓN • Escáner plano El escáner es un periférico del ordenador que digitaliza una imagen (saca una instantánea) de un documento, fotografía, negativo o diapositiva, y la convierte a un formato digital que puede almacenarse en el ordenador personal. Un escáner plano dispone de una superficie plana de vidrio sobre la que se sitúa el documento que se desea escanear y bajo la cual hay un brazo móvil con una fuente de luz y un fotosensor que se desplaza a lo largo del área de captura. El brazo se desplaza y la fuente de luz baña la cara interna del documento mientras el sensor recoge los rayos reflejados que son enviados al software de conversión analógico/digital para su transformación en una imagen de mapa de bits, creada mediante la información de color recogida para cada píxel. Los escáneres planos están indicados para digitalizar objetos opacos planos (como fotografías, documentos o ilustraciones) cuando no se precisa ni una alta resolución ni una gran calidad. Pueden trabajar en escala de grises (256 tonos) y a color (24 y 32 bits) y por lo general tienen un área de lectura de dimensiones 22 x 28 cm. (para A4), aunque también los hay para A3. La resolución real de escaneado oscila de entre 300 y 2400 ppp. Algunos modelos traen adaptadores o soportes para escanear transparencias, diapositivas o negativos. ✏✏ Ventajas Son los más usados en el ámbito doméstico por su buena relación calidad/precio. Son rápidos y fáciles de manejar, y producen imágenes de calidad aceptable. 275
✏
Desventajas
Su tamaño, aún considerable, y la limitación del tamaño de los documentos que se pueden escanear, siendo el formato más común el DIN-A4, aunque existen modelos para A3 o incluso mayores pero a precios superiores.
•
Funcionamiento del escáner plano CCD
Las tecnologías más usadas en escáneres son las de tubos fotomultiplicadores (PMT) y dispositivos de carga aplicada (CCD). Los escáneres fotomultiplicadores utilizan un tambor cilíndrico en el cual se coloca el original que se va a escanear. Los escáneres de CCD son muy variados en función del tipo de originales que admite, y de la calidad que son capaces de dar. A la hora de trabajar existen dos diferencias entre los escáneres de tambor y de CCD: la calidad y la versatilidad. Los escáneres de tambor, por su tecnología, proporcionan mayor calidad. Los escáneres CCD, por su sistema de escaneo permiten montar originales opacos, transparencias e incluso originales 3D de una manera rápida y sencilla, son más versátiles. Un escáner convierte la luz en una señal eléctrica proporcional a la densidad detectada en el original.
276
El proceso comienza cuando la lámpara ilumina el original; la luz reflejada pasa a través de una lente encargada de enfocar la imagen. A continuación, la luz es dirigida mediante espejos hacia los sensores (fotomultiplicadores o CCDs) justo antes de entrar en los sensores, la luz es separada en sus tres componentes primarios (rojo, verde y violeta) mediante filtros especialmente diseñados para ello. Los sensores se encargarán de convertir la luz en voltaje, que es todavía una señal analógica, que será convertida en señal digital mediante un convertidor A/D. Una vez convertida la luz en información digital, ésta es susceptible de ser modificada en un ordenador mediante programas específicos. Todos los sensores de imagen, sean CCD o fotomultiplicadores, comparten las siguientes propiedades: Las señales electrónicas, son analógicas. Estas señales se deben comparar y convertir en información digital para procesarla y darle salida. La velocidad y profundidad de la comparación son importantes para la calidad de la imagen. Sólo se detecta la intensidad de la luz, no el color. Se deben usar filtros para separar la luz en sus colores primarios. La calidad y precisión de los elementos ópticos y las lentes utilizadas para llevar la luz hasta el sensor, tiene mucho que ver con la calidad, el registro y el contraste de la imagen • Escáner de tambor
El escáner de tambor ha sido tradicionalmente el dispositivo de reproducción electrónica de imágenes y posteriormente de digitalización. Hoy en día sigue siendo el sistema de más calidad y resolución sobre todo para la realización de ampliaciones. Está compuesto de dos partes: ✏✏ Unidad de análisis: o exploración En esta fase de escanea el original y el tambor comienzan a dar vueltas. Se desarrolla de forma vertical y también podía ser horizontal que es la manera actual con que se lleva a cabo la digitalización ✏✏ Unidad de exposición o recorder 277
Técnicamente se denomina filmadora. En este proceso exponiendo el fotolito se filman los colores en CMYK. La secuencia de trabajo a realizar de un escáner de tambor es la siguiente (análisis):
♦♦
♦♦ ♦♦
Montaje del original: ✳✳ Se utilizaran los siguientes materiales: ✳✳ Diapositiva a escanear ✳✳ Celo de sujeción
✳✳ Aceite que se colocará entre la diapositiva y el tambor para evitar los anillos de Newton Entrada de blancos y negros: ✳✳ Ahora se establecerá el rango del punto más blanco y el más negro. ✳✳ Este proceso se realiza en la parte de análisis del escáner de tambor Exploración:
278
✳✳ Por último se realiza una exploración de la diapositiva. ✳✳ Este proceso se realiza en la parte de exposición del escáner de tambor. ✳✳ Funcionamiento del escáner de tambor PMT (Photomultipliers tube) Utiliza PMT( fotomultiplicador) en vez de CCD ( Dispositivo de carga acoplada que transforma la luz en señal eléctrica) Puede alcanzar hasta 19000 ppp de resolución y densidades máximas de 5D ”hasta 12D” Durante el escaneado del original la fuente luminosa sigue este recorrido; Desde dentro la luz traspasa el original que pasa a través de una lente y un espejo que lleva la fuente luminosa a unos espejos dicroico (Son unos espejos que dejan pasar determinados longitudes de onda RGB) traspasan unos filtros de color y recaen sobre nos tubos fotomultiplicadores (PMT) para RGB que los traspasa al convertir A/C y al procesado de salida.
FOTOGRAFÍA DIGITAL • Cámara compactas ✏✏ Carecen de ópticas intercambiables . ✏✏ Tienen visor o sólo pantalla. ✏✏ Suelen almacenar las imágenes sólo en formato JPEG. ✏✏ No suelen disponer de ajuste manual de luminosidad . ✏✏ Sus ópticas no son de muy buena calidad. ✏✏ Generan mucho ruido en la imagen. Esta tipo de cámaras es el más sencillo y económico; están destinadas al mercado de consumo y caben en cualquier bolsillo. Son muy baratas, pero no generan una alta calidad de imagen. Debido a su baja resolución y a su mala calidad, las imágenes de estas cámaras son válidas para reproducir en algunos monitores o para imprimirlas en pequeño formato. Su resolución habitualmente está entre 5 y 7 megapíxeles. Estas cámaras suelen ser totalmente automáticas en lo que respecta a enfoque y exposición.
• Respaldo digital 279
Muchas cámaras de formato medio (aquellas en que el “negativo” es de 120mm en vez de 35mm como las refles habituales) se formaban (y lo siguen haciendo) de una parte donde se alojan las lentes, y otra donde se coloca el negativo. Hasta aquí como siempre. Pero la diferencia en este caso es que la parte del negrativo funciona a modo de cartucho intercambiable. O lo que es lo mismo, podemos por ejemplo tener un respaldo con película en color, y otro con película en Blanco y Negro e irlos intercambiando sin problemas. Esto no es posible con las cámaras SLR de 35mm. Pero esto llega más lejos, ya que era posible tener un respaldo Polaroid, por lo que se podía sacar una foto instantánea que sirviera de prueba de iluminación y encuadre por ejemplo antes de la foto definitiva. Ahora lo que existen por tanto son los respaldos digitales. Es el mismo concepto, sólo que en lugar de negativo lo que tenemos es un sensor de altísima resolución. Y estos respaldos pueden ser instalados en cámaras analógicas conviertíendolas automáticamente en una cámara digital.
• Cámara de estudio digital La versión más cara y de mayores dimensiones de las cámaras digita les es la cámara de estudio. Está pensada para uso exclusivamente profesional, con unas exigencias de calidad de imagen muy elevadas. Este tipo de cámaras son las de mayor resolución y generan la meJor ca lidad de imagen. Suelen estar compues-
tas por un cuerpo de camara de formato medio para película al que se incorpora un respaldo digital. La mayor parte de las modernas cámaras de estudio funcionan del mismo modo que las SLR, aunque constan de sensores de imagen más grandes y ópticas de mayor calidad. Lo habitual es conectar este tipo de cámaras directamente a un ordenador para guardar las imágenes y para controlar los resultados en el monitor. Algunas cámaras precisan estar conectadas a un ordenador mientras que otras pueden utilizarse de manera independiente. Una variación ya en desuso de la cámara de estudio es la llamada cámara de exposición triple, o multidisparo, que sólo puede usarse montada en trípode para fotografiar objetos completamente estáticos. Está dotada de un sensor de blanco y negro cuyas células son sensibles por igual al rojo, al verde y al azul. En lugar de tener células fotosensibles por separado a los tres colores básicos cuenta con un gran filtro rotatorio, delante del sensor de imagen, formado por una parte roja, otra verde y otra azul. Primero se efectúa una exposición para uno de los componentes de color de la imagen; después, gira el filtro al siguiente color y se expone la misma imagen, y lo mismo ocurre con el tercer componente de color. Por último, las tres imágenes se combinan para componer una imagen en RGB. De este modo, se utiliza el sensor a su máxima capacidad y se logra una imagen final de gran claridad y prác ticamente carente de ruido. 280
Las cámaras de estudio de mayor resolución cuentan con sensores de imagen cuyas células fotosensibles están colocadas en hilera en lugar de en un a matriz de mosaico. Sólo son aptas para fotografía de producto en estudio. La exposición se realiza a medida que el sensor de imagen se va moviendo a lo largo del encuadre, de manera parecida a como lo hace un escáner, por lo que el tiempo de exposición acostumbra a ser muy prolongado. Esta técnica es considerablemente más lenta de lo habitual y el tiempo de exposición (tiempo de entrada) puede prolongarse hasta varios minutos. En contrapatida, se logra una resolución considerablemente mayor e imágenes de más calidad que la que pueden generar las cámaras corrientes. Exactamente como hacemos a la hora de escanear, podemos seleccionar la resolución deseada. Este tipo de cámara puede producir imágenes en RGB que, con una profundidad de 8 bits, llegan a pesar hasta 240MB. Suelen ser mucho más costosas que otras clases de cámaras: su precio puede alcanzar, entre el cuerpo y el respaldo, los 40.000 euros. • Tipos de iluminación ✏ Lámparas incandescente: Son bombillas normales con filamento de tungsteno (wolframio) pero forzadas a producir el doble de luz con la misma potencia (por lo general 500 W), lógicamente la vida de la bombilla es mucho más corta y se sabe de antemano el número aproximado de horas que lucirá hasta fundirse. Existen dos tipos:
♦ Las nitraphot o "Nitras", funcionan a 500 W y duran unas 100 horas. Su temperatura de color es de 3.200º K.Todas las marcas de bombillas tienen varios modelos. En fotografía en color pueden utilizarse estas lámparas sin filtro cuando se usa película de tungsteno tipo B. Con película para luz de día es necesario colocar en el objetivo el filtro azul intenso Wratten 80B. ♦ El otro tipo, las photoflood, la mayoría también tienen una potencia de 500 W, por lo que
281
✏
su uso se reduce sólo a 6 ó 7 horas. Su temperatura de color es de 3.400º K, por lo que pueden utilizarse sin filtros con película de tungsteno de tipo A. o anteponiendo el filtro azul 80A cuando se usa película Dayligth. Lámparas halógenas:
Estas lámparas, aún siendo de menor tamaño, producen una iluminación intensísima con potencias de 650 a 2.000 W. Lo específico de ellas es que su temperatura de color (3.400º K) no varía durante su vida útil (unas 15 horas), pero por desgracia, se recalientan tanto que precisan incorporar ventiladores y el ambiente en el estudio se hace al poco rato sofocante. Ese mismo exceso de temperatura, hace que se eleve considerablemente el riesgo de incendios si anteponemos filtros o difusores. Es importante destacar que, debido a al peculiar funcionamiento del ciclo tungsteno-halógeno, en el que se alcanzan en la ampolla temperatura máximas de 1.250ºC en el filamento y entre 250 y 800ºC en el vidrio externo, cualquier acúmulo de grasa o suciedad en el cristal, hace que el tungsteno evaporado no se restituya en el mismo punto del filamento del que salió y éste acabe por romperse, con el consiguiente fundido de la bombilla. De ahí la importancia que dan los fabricantes a no tocarlas nunca con los dedos. Si esto ocurriese, lo mejor sería limpiarlas a fondo con alcohol para eliminar cualquier vestigio de grasa. Se emplea tanto en fotografía como en cine, comercialzándose en este último caso, lámparas de cuarzo de hasta 20.000 watios. Con película en color, se actúa igual que con las Photoflood de 3.400º K. ✏ Lámparas de halogenuros: También llamadas HMI o "Sirios" en cine. Se usan en cinematografía o cuando se precisan en estudio intensas fuentes de luz y baja emisión de calor.
Como ventajas presentan: ♦ El mayor rendimiento de iluminación hasta el momento: 80-90 lúmenes por watio. ♦ Temperatura de color (correlacionada, porque son lámparas de descarga) de 4000 a 6000º Kelvin. ♦ Indice de reproducción cromática 95 (los usables para fotografía van de 85 a 100). Las desventajas son: ♦ Precio: Unas 125.000 Ptas. la lámpara PAR64 de Osram ♦ Baja inercia, por lo que el parpadeo puede aparecer a simple vista y exige tiempos de exposición mínimos de 1/60 (La luz fluctua hasta un 60% de su valor 100 veces por segundo, y un 60% supone 2/3 de paso de subexposición si se disparara a más de 1/60 y coincidiera con el mínimo de iluminación). ♦ Muy lentas en alcanzar el encendido de servicio:Tardan unos 5 minutos en poder emplearse desde que pulsas el interruptor para encenderlas. Los apagados de las lámparas realizados antes de alcanzar las condiciones de servicio reducen la vida de la lámpara. ♦ Explosión. Las lámparas se funden explotando. No se pueden usar en ambientes con riesgo. Como la vida depende de la frecuencia de encendidos y apagados, no puede garantizarse cuando explotarán, por lo que hay que cambiarlas siempre cuando aún funcionan. Esto sumado al precio 282
✏
hace que la gente corra el riesgo de llevar las lámparas hasta sus últimos minutos. Lámparas de descarga y fluorescentes:
Producen la luz por excitación eléctrica de un gas (xenon, mercurio sodio...) encerrado en una ampolla o en un tubo. No suelen usarse en fotografía en color, por que su curva de emisión no es contínua. Al contrario que todas las anteriores, su spectro de emisión no es una curva más o menos suave, sino una serie de intensos picos y valles, situados en distintas zonas del espectro en función del gas que contienen. En muchas ocasiones, llevan a faltar regiones de color completas, produciéndose entonces dominantes
del color complementario. El las lámparas de vapor de sodio, tan comunes en las farolas de las ciudades, llegan a faltar las regiones azul-cián, con lo que producen una fuerte dominante anaranjada. De igual forma, los tubos flourescentes ordinarios, carecen de la región correspondiente al púrpura, con lo que las fotos tomadas en ambientes industriales, en los que con tanta frecuencia se usan estos tubos, toman una dominante verdosa (véase la imagen izquierda). En todos estos casos, resulta imposible un filtrado que los neutralize y, aunque en el caso de los tubos fluorescentes, se comercialicen fitros tipo FL o FLW, nunca llegan a eliminar por completo las dominantes. Debido a que no tienen un espectro contínuo y a que su luz procede de excitación y no de incandescencia, no puede hablarse nunca en estos casos de una temperatura de color propia. Como ventajas, presentan: ♦ Uno de los mejores rendimientos de emisión por watio ♦ Vida útil muy larga. ♦ Fuertes intensidades en regiones concretas del espectro (UV en el caso de las de descarga de vapor de mercurio), lo que resulta muy útil para aplicaciones científicas.
283
♦♦ Baja o nula emisión de calor ♦♦ Su frecuencia de parpadeo puede aprovecharse sincronizada, para cinematografía de alta velocidad. ♦♦ Ideales para fotografía de compuestos o placas fluorescentes. Como desventajas: ♦♦ Su falta de curva espectral impide su uso en fotografía en color. ♦♦ El parpadeo inherente de la frecuencia de estas luces hace que los valores del fotómetro bailen e induzcan errores de exposición. ✏✏ Flash electrónico Se basa en la descarga de energía producida entre dos electrodos encerrados dentro de un tubo con gas, al hacer pasar corriente continua de alto voltaje procedente de uno o varios condensadores. Al producirse el disparo, lo condensadores se descargan de golpe por completo, proporcionando una corriente de alto voltaje que va a parar al tubo de gas excitándolo y emitiendo una luz de gran intensidad. Con el objeto de acelerar la carga de los condensadores, la mayor parte de los flashes actuales, van provistos de circuítos que permiten recuperar parte del de la descarga eléctrica sobrante, cuando el destello es cortado en modo automático, y desviar está de nuevo hacia los condensadores. De esta manera se evita el derroche de energía al tiempo que el flash se recagra más rápidamente. Sus componentes principales son: una fuente de energía (baterías o corriente alterna), un elevador de tensión, un condensador que acumula esta energía, un circuito de disparo y control conectado a los mecanismos de la cámara y un tubo flash lleno de un gas noble (generalmente Xenón). El flash supone un gran avance respecto a los sistemas anteriores, ya que posee las siguientes ventajas: Su temperatura de color es similar a la del sol 5.500ºK, y permanece siempre constante. A la larga resultan más baratos que las bombillas, puesto que pueden usarse por tiempo indefinido. Producen una iluminación más intensa sin desprender apenas calor. La extremada rapidez de destello de un flash normal - de 1/500 a 1/30.000 de segundo permite congelar cualquier movimiento por rápido que sea. Como desventajas, presenta una mayor dificultad para calcular la exposición y la imposibilidad de previsualizar el efecto de moldeado que imprimirá a la escena, aunque los flashes profesionales de estudio, suelen contar para esto con una bombilla de modelado junto al tubo del flash. • Sensores ✏✏ CCD Un charge-coupled device o CCD (en español «dispositivo de carga acoplada») es un circuito integrado que contiene un número determinado de condensadores enlazados o acoplados. Bajo el control de un
284
circuito interno, cada condensador puede transferir su carga eléctrica a uno o a varios de los condensadores que estén a su lado en el circuito impreso. La alternativa digital a los CCD son los dispositivos CMOS (complementary metal oxide semiconductor) utilizados en algunas cámaras digitales y en numerosas cámaras web. En la actualidad los CCD son mucho más populares en aplicaciones profesionales y en cámaras digitales. Los primeros dispositivos CCD fueron inventados por Willard Boyle y George Smith el 17 de octubre de 1969 en los Laboratorios Bell, ambos premiados con el Premio Nobel de Física de 2009 precisamente por este invento. ✏✏ CMOS Un Active Pixel Sensor (APS) es un sensor que detecta la luz basado en tecnología CMOS y por ello más conocido como Sensor CMOS. Gracias a la tecnología CMOS es posible integrar más funciones en un chip sensor, como por ejemplo control de luminosidad, corrector de contraste, o un conversor analógico-digital. El APS, al igual que el sensor CCD, se basa en el efecto fotoeléctrico. Está formado por numerosos fotositos, uno para cada píxel, que producen una corriente eléctrica que varía en función de la intensidad de luz recibida. En el CMOS, a diferencia del CCD se incorpora un amplificador de la señal eléctrica en cada fotosito y es común incluir el conversor digital en el propio chip. En un CCD se tiene que enviar la señal
eléctrica producida por cada fotosito al exterior y desde allí se amplifica a la computadora. La ventaja es que la electrónica puede leer directamente la señal de cada píxel con lo que se soluciona el problema conocido como blooming, por el que la recepción de una gran intensidad lumínica en un punto influye en los píxeles adyacentes (un brillo fuerte produce líneas blancas en la imagen). La desventaja es que entre los receptores de luz (fotositos) se encuentra mucha electrónica que no es sensible a la luz, lo que implica que no pueda captar tanta luz en una misma superficie del chip. La solución al problema vino no sólo por una mayor densidad de integración, por lo que la electrónica no sensible se reducía en tamaño, sino por la aplicación de microlentes que a modo de lupa concentran la luz de cada celda en su fotosito. OTROS DISPOSITIVOS DE DIGITALIZACIÓN
285
• Escáner de diapositivas Es a pesar de que la fotografía analógica está llegando a su fin, todavía mucha gente conserva diapositivas y negativos en su hogar. Las fotografías deben digitalizarse previamente para poder procesarlas en el ordenador. Los escáneres de diapositivas y negativos son muy adecuados para escanear diapositivas y negativos con marcos. Los datos obtenidos con la digitalización se pueden almacenar y procesar en el ordenador. La mayoría de dispositivos de uso doméstico son adecuados para las fotografías de pequeño formato. Algunos fabricantes ofrecen también escáneres para plantillas de medio formato. Además existen modelos equipados con un adaptador, de modo que se pueden escanear varias diapositivas a la vez, incluso superpuestas. Para el formato de los archivos finales se puede elegir entre JPG, TIFF, RAW, PDF y demás. Por lo general, el escáner se conecta al ordenador a través de un puerto USB o FireWire. Los escáneres de diapositivas y negativos de buena calidad para uso doméstico disponen de una resolución de 3.600 ppp. Los escáneres semiprofesionales digitalizan las diapositivas y los negativos con una resolución de 6.400 ppp. Se pueden encontrar valores más altos en dispositivos de uso profesional. No sólo es importante la densidad de puntos o resolución, sino también la gama de densidad, ya que cuanto mayor sea, mejor se reflejarán los contrastes de una diapositiva al ser digitalizada. Los archivos de imágenes escaneadas alcanzan tamaños de hasta 100 MB. Antes del escaneado se puede elegir un tamaño más reducido, lo que implica una reducción en el volumen de datos y, por consiguiente, pérdida de calidad. Si una diapositiva tiene unas dimensiones de 24 x 36 mm y el escáner de diapositivas y negativos tiene una resolución de 3.600 ppp, el tamaño del archivo de la imagen será de 17 megapíxeles aproximadamente. Sin embargo, si la imagen se va a proyectar o imprimir, es suficiente con volúmenes de datos más reducidos. Si no se elige el tamaño del archivo directamente en el escáner, se puede reducir posteriormente usando un programa de procesamiento de imágenes.
• Escáner Copydot Tiene una particularidad interesante, y es que no escanea por línea sino que lo hace por copia de punto. Esto tiene una ventaja de suma importancia y una única utilidad: Permite Escanear Fotolitos para poder integrar esos fotolitos en un flujo de trabajo con CTP. Los fotolitos (al ser imagenes de línea) no pueden ser integrados en el CTP a menos que sean digitalizados. 286
• Escáner manuales Los escáneres de mano vienen en dos formas: de documentos y escáneres 3D. Los escáneres de mano de documentos son dispositivos manuales que son arrastrados por la superficie de la imagen que se va a escanear. Escanear documentos de esta manera requiere una mano firme, de forma que una velocidad de exploración desigual podría producir imágenes distorsionadas - un poco de luz sobre el escáner indicaría que el movimiento es demasiado rápido.Tienen generalmente un botón "inicio", que se pulsa por el usuario durante la duración de la exploración; algunos interruptores para ajustar la resolución óptica, y un rodillo, lo que genera un pulso de reloj para la sincronización con el ordenador. La mayoría de los escáneres tienen una pequeña ventana a través de la se que podría ver el documento que se escanea visto. Asimismo, llevan puerto USB, suelen guardar directamente el resultado en formato JPEG, en una tarjeta tarjeta microSD que suele ser como mínimo de hasta 32 Gb.
PROGRaMaS DE DIBUJO VECtORIaL •
Adobe Illustrator
Es un editor de gráficos vectoriales en forma de taller de arte que trabaja sobre un tablero de dibujo, conocido como «mesa de trabajo» y está destinado a la creación artística de dibujo y pintura para ilustración (ilustración como rama del arte digital aplicado a la ilustración técnica o el diseño gráfico, entre otros). Es desarrollado y comercializado por Adobe Systems y constituye su primer programa oficial de su tipo en ser lanzado por ésta compañía definiendo en cierta manera el lenguaje gráfico contemporáneo mediante el dibujo vectorial. Adobe Illustrator contiene opciones creativas, un acceso más sencillo a las herramientas y una gran versatilidad para producir rápidamente gráficos flexibles cuyos usos se dan en (maquetación-publicación) impresión, vídeo, publicación en la Web y dispositivos móviles. Las impresionantes ilustraciones que se crean con éste programa le han dado una fama de talla mundial a esta aplicación de manejo vectorial entre artistas gráficos digitales de todo el planeta, sin embargo, el hecho de que hubiese sido lanzado en un principio para ejecutarse sólo con el sistema operativo Macintosh y que su manejo no resultara muy intuitivo para las personas con muy poco trasfondo en manejo de herramientas tan avanzadas afectó la aceptación de éste programa entre el público general de algunos países. Actualmente forma parte de la familia Adobe Creative Suite y tiene como función única y primordial la creación de material gráfico-ilustrativo altamente profesional basándose para ello en la producción de objetos matemáticos denominados vectores. La extensión de sus archivos es .AI (Adobe Illustrator). Su distribución viene en diferentes presentaciones, que van desde su forma individual hasta como parte de un paquete siendo estos: Adobe Creative Suite Design Premium y Versión Standard, Adobe Creative Suite Web Premium, Adobe Creative Suite Production Studio Premium y 287
Adobe Creative Suite Master Collection. creado por la compañía Adobe Systems en convenio con la compañía NeXT Computer, Inc.. en el año de 1987 y que se trata de una versión más avanzada del lenguaje de descripción de páginas para impresora Adobe PostScript de Adobe Systems que permite que lo que se vea en la pantalla sea una previsualización del resultado tal cual como se va a imprimir. Después éxito del programa para impresoras láser, Adobe PostScript, que de hecho fue quien inauguró la apertura de Adobe en el año de 1982, Adobe Systems lanza al mercado lo que sería uno de los programas más reconocidos de la firma y una gran herramienta prodigio de la ilustración a partir de gráficos vectoriales, Adobe Illustrator. Prematuramente forjado para la creación de ilustraciones con formato PostScript y la elaboración de fuentes, Adobe Illustrator fue producido entonces para ejecutarse sólo en el ambiente de los sistemas Apple Macintosh en el año de 1986. Su lanzamiento oficial se dio al año siguiente, en enero de 1987 bajo la versión Adobe Illustrator 1.1. Adobe Illustrator, al igual que la serie de programas creados en aquella época (procesadores de texto, hojas de cálculo, diseño asistido por computadora (CAD), etc.) se muestra como una innovadora alternativa de técnica digital a la ya conocida creación artesanal o manual del lápiz de dibujo, el borrador, el papel y la pintura todo esto para la creación de dibujo o en su defecto ilustración, para aquel entonces era una técnica muy conocida y recurrida en los medios publicitarios la Aerografía (técnica de aplicación de pintura a partir de soplete). Hoy en día Adobe Illustrator ya es capaz hasta de imitar esta última técnica, pero mediante una de sus herramientas más especialmente particulares y curiosas, y una de las razones por la que es apreciado, la Herramienta Malla de degradado (gradient mesh tool llamada «herramienta malla» en la versión en español). Adobe Photoshop también es capaz de imitar o seguir esta técnica pero mediante mapa de bits. • Freehand Macromedia FreeHand (FH) es un programa informático de creación de imágenes mediante la técnica de gráficos vectoriales. Gracias a ella, el tamaño de las imágenes resultantes es escalable sin pérdida de calidad, lo que tiene aplicaciones en casi todos los ámbitos del diseño gráfico: identidad corporativa, páginas web (incluyendo animaciones Flash), rótulos publicitarios, etc. La historia de este programa en el mercado ha sido azarosa. El programa fue creado originalmente por la compañía Altsys, y luego licenciado a Aldus. Cuando esta compañía y su cartera de productos fueron adquiridas por Adobe Systems, los nuevos propietarios se vieron obligados a desprenderse de él: FreeHand se situaba en competencia directa con uno de los productos originales más importantes de la empresa (Adobe Illustrator), algo que incluso podía constituir un indicio de prácticas monopolistas. Después de la intervención de la Comisión Federal de Comercio de los EE.UU., el programa volvió a manos de Altsys, que fue comprada posteriormente por Macromedia. Esta firma continuó desarrollando el programa desde la versión 5.5 hasta la MX. Sin embargo, desde 2003 hasta 2006, Macromedia ha mostrado poco interés en el desarrollo del producto, 288
pese a lo cual ha mantenido su cuota de mercado gracias a su excelente integración con el resto de los productos de la firma (como Flash o Fireworks). De ese modo, FreeHand no ha sido actualizado junto con las demás herramientas de la firma ni en el paquete "MX 2004" ni en el "Studio 8", permaneciendo estancado en la versión "MX". La compra en 2005 de Macromedia por parte de Adobe vuelve a colocar al producto en una posición "incómoda" (de nuevo en competencia con Illustrator). El futuro de FreeHand está abocado a la desaparición. Hoy en día se continúa vendiendo bajo el mismo nombre de FreeHand MX pero no tiene ninguna nueva función desde su último lanzamiento ni tampoco se exhibe mucho su existencia. La idea es que todos los usuarios de FreeHand pasen a ser usuarios de Adobe Illustrator (Ai), con lo que, al final, en el terreno del diseño gráfico, todo el espacio del diseño vectorial quedaría en manos de éste último y de CorelDraw (disponible sólo en versión para Windows). No obstante, y pese a esta política de Adobe, son una importantísima cantidad de usuarios en todo el mundo los que continúan aferrados a FreeHand. En el 2009 se lanzó una campaña para la salvación de FreeHand. Se ha formado una comunidad de usuarios alrededor de la organización FreeFreehand.org. • Corel Draw CorelDRAW es una aplicación informática de diseño gráfico vectorial, es decir, que usa fórmulas matemáticas en su contenido. Ésta, a su vez, es la principal aplicación de la suite de programas CorelDRAW Graphics Suite ofrecida por la corporación Corel y que está diseñada para suplir múltiples necesidades, como el dibujo, la maquetación de páginas para impresión y/o la publicación web, todas incluidas en un mismo programa. Sus principales competidores son Adobe Illustrator e Inkscape, éste último de código abierto. CorelDRAW fue lanzado oficialmente en el año de 1989, diseñado por los ingenieros informáticos Michel Bouillon y Pat Beirne de Corel Corporation. Actualmente la versión más reciente de CorelDraw es la versión X6 (V.16) BANCOS DE IMÁGENES Son archivos que adquieren y suministran imágenes fotográficas pensadas para ser útiles especialmente a profesionales de la publicidad, la edición, los medios periodísticos y las artes gráficas. Para su difusión
289
emplean catálogos en CD ROM y/o papel e Internet a través de su propia Web. Los bancos de imágenes pueden ser generales, de agencias de prensa, o de medios. Pero además, los bancos de imágenes pueden ser gratuitos o de pago, según lo que busque el usuario y de la economía que disponga. A continuación trataremos este tema desde el punto de vista de un productor con altos ingresos que puede dedicarse a los bancos de imágenes de pago. Estos se caracterizan por tener fines comerciales, cobrar por sus servicios y tener derechos de autor (copyright). Se dirigen a medios de comunicación, empresas de publicidad, agencias… los principales son norteamericanos pero hay en todo el mundo. Dan prioridad al copyright y a la ley de propiedad Intelectual, indica la propiedad de una obra literaria, artística o científica que corresponde a su autor por el solo hecho de su creación, estableciendo derechos morales y de explotación. Entre los bancos de imágenes de pago destacan: • Corbis Es un banco de imágenes privado, ya que fue creado en 1989 por Bill Gates. Es un recurso creativo para la publicidad, el marketing y resto de profesionales de los medios de comunicación del mundo (ya que sirve a más de 50 países). Ofrece una colección de más de 100 millones de creativos, una biblioteca de metraje comprensiva y de imágenes histórica… Es una solución gran ayuda para los medios de comunicación. A la hora de buscar las imágenes nos encontramos dos formas según la licencia: Con Derechos Protegidos (el contenido es licenciado para usos específicos y los costes de uso se basan en el uso seleccionado y en otros detalles que definen el contexto del uso) y Libre de derechos (el contenido se licencia según la resolución o el tamaño de los archivos, incluyendo el derecho a destinar el contenido para prácticamente cualquier uso, un número ilimitado de veces de forma permanente). Además la web aparece en inglés (de EE.UU), pero aparece traducida en otros 10 idiomas, estos son: Español, alemán, chino, Inglés (Reino Unido), francés, polaco, japonés portugués, holandés e italiano. Las imágenes están divididas en 7 grandes categorías: Comercial, editorial, históricas, arte, noticias, deportes y espectáculos. Para buscar las imágenes el motor de búsqueda tiene múltiples opciones, como elegir la imagen con derechos protegidos o libres de licencia, por fecha, por perspectiva, por orientación de la imagen, atributos de esta, nombre del fotógrafo, por colecciones (4 tipos de colecciones según la economía del usuario, en este caso del productor de nuestro medio; estas son: Premium, estándar, económicas o súper económicas), o por palabras clave (divididas en 10 grandes bloques: Gente, Tiempo y Lugar, Composición Conceptual, Estilo de vida, Negocios y Finanzas, Salud y belleza, Deportes,Viajes, Naturaleza y animales salvajes, Casa y arquitectura) Además para comprar o licenciar las imágenes tienes que registrarte. Esta opción además permite:Ver y descargar imágenes grandes para bocetar, Utilizar mesas de luz personalizadas para guardar y compartir sus imágenes favoritas y Licenciar y descargar imágenes en línea 290
• Getty Images. Se considera un pionero en medios de comunicación digitales. Fue fundado en 1995 Mark Getty y Jonatán Klein y se convirtió en la primera empresa que licenciaba imágenes en línea. En la actualidad ofrecen instrumentos de dirección de medios de comunicación digitales, imágenes creativas y editoriales, microacción (microreserva), metraje y música. Además es uno de los más importantes porque tiene aproximadamente el 90% del mercado y alrededor de 80 millones de archivos. La web aparece traducida en 8 idiomas: Español, alemán, Inglés (Reino Unido), inglés (EE.UU), francés, japonés, portugués e italiano.Y está dividida en 4 categorías según el producto a elegir: Imágenes, películas, música y recursos. Hay dos posibilidades de licencia: con derechos gestionados o sin royalties. Existen 76 colecciones: 2VISTA, 3rd Party – Agents, 3rd Party – Misc, ACP, AFP, Allsport Concepts, Arena Football League, Arnold Newman Collection, ASMM, ASP, Aurora, Bob Thomas Sports, Photography, Bongarts, Bruce Bennett, Catwalking, CBS, Chelsea FC, Christian Science Monitor, CNN, Collection Vogue Paris, Collegiate Images, Congressional Quarterly, DDP, Diamond Images, DigitalGlobe, diverse images Editorial Specials, El Universal, Euroleague Basketball, Publicity, Warner Bros Entertainment, etc El buscador del banco de imágenes te permite acceder según el producto, el tipo de derechos, si es una imagen te da a elegir entre diversos estilos y orientación… además se divide en tres grandes grupos: imágenes de creative, imágenes de editorial y clips de películas. Además, ofrece 3 servicios que ayudan a la búsqueda: una Guía de palabras clave, Catalyst (que ofrece la posibilidad de filtrar la información con 8 características como fotógrafo, ilustración, color…), Getty Images Live (que te ofrece las últimas imágenes creativas y editoriales directamente en tu escritorio). Los temas son diversos, los principales son los típicos de los periódicos como: noticias, deportes, espectáculos, viajes, publicidad, retratos, reportaje, especiales, realeza.… La mayoría de los documentos pertenecen a fuentes externas pero todo el material incluido en Getty Images son productos del completo control editorial de este. En algunas ocasiones el banco de imágenes proporciona servicios de encargos fotográficos a organizaciones editoriales como The New York Times, Newsweek o Time Magazine. Algunas fuentes externas utilizadas son: ✏✏ Publicaciones oficiales — NASA, imágenes de La Casa Blanca, Departamento de Defensa de EE.UU. ✏✏ Fotos fijas de películas — Universal Pictures, TimeWarner ✏✏ Cobertura de acontecimientos deportivos — Organizaciones fotográficas de las ligas deportivas (NBA Entertainment) ✏✏ Imágenes fijas de televisión — Mercados locales o medios informativos de alcance nacional ✏✏ Contenido de interés informativo de terceras fuentes verificada 291
• Photononstop. Este banco de imágenes se caracteriza por ser exclusivamente europeo. Es un banco de imágenes francés que surgió hace 15 años, tras ser comprada dicha empresa por los actuales dueños. La página web lleva 10 años en funcionamiento. Trabaja con 700 fotógrafos en 50 países, algunos fijos y otros temporales, a los cuales paga los derechos de autor para luego vender las fotos. Se caracteriza principalmente porque es el único banco de imágenes plenamente europeo (fotógrafos, modelos y fotografías europeas). La empresa se dedica a la venta de imágenes a empresas de Marketing, pymes, agencias de prensa y de publicidad; también crea producción fotográfica. La página aparece traducida en 4 idiomas: francés, alemán, español e ingles y tienen dos tipos de fotografías, las de royalty free y las de contenido protegido (con copyright). Photononstop comparte colecciones de royalty free con otras agencias. Royalty free según la wikipedia es “un tipo de contrato entre dos entidades (el licenciante y el licenciatario), que se emplea con la concesión de licencias de derechos a utilizar el contenido, como fotografías. Significa que una vez que el contenido está licenciado bajo una serie de directrices, el titular es libre de utilizar normalmente a perpetuidad sin pagar cargos adicionales de regalías”. Después de hacer un estudio de la imagen, Photononstop establece el precio de venta de la foto. Además produce colecciones exclusivas, poniendo mucha atención a las nuevas tendencias. La actividad diaria principal de la empresa es la venta de fotos, la continua búsqueda de estas y consecuentemente la captación de nuevos clientes. El motor de búsqueda es la clave. El lema principal: “encontrar siempre la mejor foto con un solo clic”. Por eso tiene una función diaporama que permite visualizar, a plena pantalla, el resultado de una búsqueda, entiende el lenguaje corriente, divide sus imágenes en 6 temas, aunque por defecto, la casilla “todos los temas” está señalada. Se puede elegir por colecciones y por licencia. Las fotos se hacen por encargo y todas llevan pie de foto. Photononstop tiene un programa propio para archivar las fotos y una base de datos propia, en la cual se archivan digitalmente todas las imágenes. En lo que respecta a las colecciones, Photononstop ofrece sus contenidos dividiéndolos primero entre imágenes con royalty free (14 colecciones en total: Onoky World, Portraits Fancy , Juice Images , Science Photo Library , Cultura, SoFood D,…) de imágenes con derechos protegidos (11 colecciones: Cartoonbase , Mindbodysoul , John Warburton-Lee , Red Cover , Imagine China , BE&W …). Aunque eso no nos impide realizar una búsqueda con ambas opciones. De forma paralela a la búsqueda por colecciones, en Photononstop aparece una posible selección por temas: estos son 6: viajes, gastronomía y decoración, conceptos, animales y naturaleza, y vintage. Otra clasificación, no la oficial, se refiere a las especialidades de los fotógrafos internos. La empresa supera en 3 millones el número de fotografías acumuladas, gracias al hecho de que comparte archivos con otros bancos. Si nos centramos en la cantidad de fotografías de elaboración propia la cifra se reduce considerablemente Las fotografías con derecho protegido de la empresa francesa van a nombre de 21 profesionales de la cámara. A sueldo, digamos de la casa, son 9, algunos de ellos con proyección internacional. 292
GEStIÓN Y CataLOGaCIÓN DE IMÁGENES •
Programas o extensiones ✏ Adobe Bridge
Es un programa de organización, creado y publicado por Adobe Systems como parte de la Adobe Creative Suite a partir de la versión CS2. Su principal objetivo es enlazar las partes de la Creative Suite usando un formato similar al explorador de archivos encontrados en las versiones anteriores de Adobe Photoshop. Es accesible desde todos los demás componentes de la Creative Suite (a excepción de la versión de Adobe Acrobat 8). Adobe Bridge es también incluido con Photoshop individual, y puede realizar ciertas funciones de procesamiento por separado de Photoshop y también al mismo tiempo que Photoshop. Permitía el acceso a Adobe Stock Photos, una colección en línea de fotografía de archivo de imágenes extraídas de conocidas agencias de imágenes. Sin embargo, el servicio se suspendió el 1 de abril de 2008. Bridge posee muchas funciones, como el renombrado por lotes. El sistema de organización permite organización de las imágenes con etiquetas de color o con puntuaciones con estrellas a las imágenes. La capacidad de editar el XMP y IPTC, el Intercambio de Información modelo de metadatos embebidos dentro de un archivo de imagen, y la capacidad de trabajar con diferentes versiones de un archivo que es parte del proyecto Adobe Version Cue. Los archivos de imágenes se pueden mostrar en miniaturas de diferentes tamaños, pases de diapositivas o listas. Cada carpeta, que puede ser marcada, tiene un archivo de caché para acelerar el tiempo de presentación de las imágenes al visualizar una imagen en miniatura. El caché puede estar en una ubicación central o en carpetas individuales. Adobe Bridge es ampliamente personalizable utilizando JavaScript. El servicio Adobe Stock Photos se implementó como una extensión de Bridge. La guia de script para Bridge scripting esta disponible online, y en formato de libro de bolsillo. •
On line ✏ http://picasa.google.es/
Picasa es una herramienta web para visualizar, organizar y editar fotografías digitales. Adicionalmente, Picasa posee un sitio web integrado para compartir fotos. Esta aplicación fue creada originalmente por una compañía llamada Lifescape en 2002,1 y es propiedad de Google desde el año 2004. "Picasa" es una mezcla del apellido del pintor español Pablo Picasso, la frase en español de "mi casa" y "pic" de "pictures" o imágenes (la idea quiere decir "el arte personalizado"). 293
En julio de 2004, Google adquirió Picasa de su autor original y comenzó a ofrecerla como licencia libre (freeware). La empresa que lo originó, Picasa, Inc nació como una compañía de fotografía digital con sede en Pasadena (California), que produjo el programa organizador de fotos del mismo nombre, una adaptación o versión para Microsoft Windows del original iPhoto de Apple. En julio del 2004, Google adquirió Picasa y puso a disposición de todos, en forma gratuita, el software Picasa. De forma paralela al desarrollo del software Picasa, Google desarrolló un portal de servicios fotográficos a través de la Web bajo la denominación de Picasaweb. Con el desarrollo de Picasa web, Google abandonó el proyecto Hello, su anterior servicio de publicación de fotografías en la Web del que aún permanece colgada la página Web principal con la nota de despedida y cierre del equipo Hello. Actualmente, Picasa se puede integrar a dos aplicaciones del navegador Google, Google+ y Gmail. En su modo de edición de vídeos, se puede subir lo realizado directamente a la cuenta personal del usuario en Youtube. ✏ http://www.flickr.com/explore/ Flickr (pronunciado Flicker) es un sitio web gratuito que permite almacenar, ordenar, buscar, vender y compartir fotografías y vídeos en línea. Actualmente Flickr cuenta con una importante comunidad de usuarios que comparte las fotografías y videos creados por ellos mismos. Esta comunidad se rige por normas de comportamiento y condiciones de uso que favorecen la buena gestión de los contenidos. La popularidad de Flickr se debe fundamentalmente a su capacidad para administrar imágenes mediante herramientas que permiten al autor etiquetar sus fotografías y explorar y comentar las imágenes de otros usuarios. Flickr cuenta con una versión gratuita y con otra de pago, llamada pro. Actualmente, los suscriptores de cuentas gratuitas pueden subir videos en calidad normal y 100 MB en fotos al mes, con un máximo de 200 imágenes como tope por cada cuenta gratuita. Luego de alcanzado ese límite de 200 imágenes, sólo permanecen visibles las últimas 200 imágenes subidas, es decir, las primeras cargas pasan a estar ocultas, pero no son eliminadas. Esto se remedia actualizando la cuenta a una Pro. De igual manera, un usuario con cuenta gratuita sólo puede cargar imágenes con una resolución máxima de 1024 x 768 píxeles. Es decir, si el usuario carga una imagen de mayor resolución, el sitio la redimensiona a la resolución anteriormente señalada. Por otro lado, los suscriptores de cuentas Pro disponen de espacio de almacenamiento y ancho de banda ilimitado, así como la opción de subir videos en HD y la posibilidad de cargar y visualizar imágenes en su resolución original. Hoy, una actualización a cuenta Pro bordea los 24 dólares estadounidenses. Flickr fue lanzado en febrero de 2004 por Ludicorp, una compañía de Vancouver fundada en el año 2002. Inicialmente Flickr nace formando parte de Game Neveren294
ding, un Juego multijugador masivo online desarrollado por Ludicorp. Sin embargo, casi inmediatamente Flickr se reveló como un proyecto dotado de entidad propia y terminó desplazando a Game Neverending. Las primeras versiones de Flickr incluían un chat llamado FlickrLive que permitía intercambiar fotos en tiempo real. Sin embargo, esta utilidad desapareció en las versiones posteriores, más orientadas hacía la publicación y clasificación de fotografías. En marzo de 2005, Yahoo! compró Flickr y Ludicorp. A partir de ese momento, Yahoo! abandonó su servicio Yahoo! Fotos, y centró sus recursos en Flickr. En enero de 2007, Flickr anunció a los titulares de cuentas anteriores a la compra de Yahoo!, que deberían asociar su cuenta con una ID de Yahoo! para poder continuar utilizando el servicio. Más tarde, en el verano de 2007, Yahoo! anunció que todas las fotos del servicio Yahoo! Fotos serían borradas, permitiendo a los usuarios del servicio optar entre migrar su fotos hacia Flickr, o perder sus imágenes. Ambas medidas fueron criticadas por usuarios de estos servicios.5 Yahoo! Fotos se cerró definitivamente el 18 de octubre de 2007. Actualmente Yahoo! Image Search prioriza en sus búsquedas las imágenes de Flickr. Además ofrece la posibilidad de realizar búsquedas de imágenes procedentes exclusivamente de Flick y de imágenes acogidas a licencias Creative Commons alojadas en Flickr.
En diciembre de 2006, Flickr aumentó el límite de almacenamiento para sus cuentas gratuitas de 20 a 100 MB al mes. A partir de entonces, las cuentas Pro, que inicialmente tenían un límite de 2 GB al mes, disponen de espacio de almacenamiento y ancho de banda ilimitado. El 11 de julio de 2007, el servicio, originalmente disponible únicamente en inglés, fue lanzado en siete lenguas más, entre ellas el español. El 9 de abril de 2008, Flickr comenzó a permitir a los suscriptores de pago subir vídeos, que inicialmente estaban limitados a 90 segundos de duración y 150 MB de tamaño máximo. Este servicio fue muy criticado por parte de la comunidad de usuarios, que consideraba la inclusión de vídeos como una amenaza a la identidad de Flickr. Para dar respuesta a estas críticas, Flickr agregó la opción de excluir los vídeos de los resultados de búsqueda de imágenes.Flickr es una herramienta que se puede usar para potenciar las clases de fotografía. El 2 de marzo de 2009, Flickr añade la posibilidad de subir vídeos de alta definición y amplió la opción de subir vídeos a los suscriptores de cuentas gratuitas. Una vez creada la aplicación de Flickr para la telefonía móvil y tras varias modificaciones en la app de Flickr, disponible tanto en iOS, Android y Blackberry, llega en 2013 una última actualización con la versión 2.10.803 (concretamente en el sistema iOS). Después de haber cambiado totalmente la interfaz en Diciembre de 2012, a partir de ahora podremos acceder a visualizar las fotografías en alta calidad y también veremos que todas las subidas de datos han aumentado su velocidad. También contaremos con pequeños detalles como la posibilidad de tomar fotografías con el botón de volumen del iPhone, y tras realizar la captura la imagen se guardará automáticamente en nuestra galería, guardando siempre una copia de la imagen 295
original en caso de que queramos aplicar distintos tipos de filtros y efectos. • Editores y gestores para fotógrafos ✏✏ Apple Aperture Es un programa diseñado por Apple Inc. que sirve para editar y crear fotos de forma profesional. Se usa para importar, catalogar, organizar, ajustar, manejar, exportar y publicar imágenes. A diferencia de IPhoto, Aperture no se incluye en la suite ILife.Tiene varias herramientas y se asemeja al programa Adobe Photoshop Lightroom. Con Aperture es posible diseñar y trabajar con imágenes RAW (que es utilizado por gran variedad de modelos de cámaras), y acepta gran variedad de formatos de imágenes como JPEG, GIF, TIFF, PNG, etc. Cuenta con una herramienta con la que es posible hacer álbumes de fotos en internet, exportándolas directamente a la web. Aperture es compatible con imágenes de tipo ARW, CR2, CRW, MOS, NEF, RAF, RAW, SRW, TIF, OLY, DNG, JPEG, GIF, TIFF, PNG, PDF y PSD. Aperture está disponible únicamente para los sistemas operativos Mac OS X. Aperture puede ser instalado en las MacBook, MacBook Pro, iMac, Mac Pro y Mac Mini, y debe tener como mínimo 1GB de RAM, preferiblemente.
• Apple Lightroom Adobe Photoshop Lightroom es un programa de fotografía desarrollado por Adobe Systems para Mac OS X y Microsoft Windows, diseñado para ayudar a fotógrafos profesionales en el tratamiento de imágenes digitales y trabajos de postproducción. No se trata de un navegador de archivos como Adobe Bridge, sino más bien de una organización de imágenes la cual ayuda a visualizar, editar y gestionar fotos digitales (incluidas las copias de seguridad en DVD). En el año 2002, el veterano desarrollador de Photoshop Mark Hamburg comenzó un nuevo proyecto, llamado 'Shadowland'. Hamburg contactó con Andrei Herasimchuk, diseñador de interfaz ex para Adobe Creative Suite, para despegar el proyecto.1 El nuevo proyecto fue un alejamiento deliberado de muchas de las convenciones establecidas de Adobe. El 40% de Photoshop Lightroom está escrito usando el lenguaje de scripting Lua. Después de varios años de investigación por Hamburg, Herasimchuk, Sandy Alves, el diseñador de interfaz antigua en el equipo de Photoshop y Grace Kim, un investigador de productos de Adobe, el proyecto de Shadowland obtuvo momentum alrededor de 2004.
Herasimchuk decidió salir de Adobe Systems en ese momento para iniciar una empresa de diseño en el "valle", y a continuación, Hamburg eligió a Phil Clevenger, un ex colaborador de Kai Krause, para crear una nueva imagen para la aplicación. 296
El talento de ingeniería de Photoshop Lightroom (LR) se basa en gran medida en Minnesota, compuesto por el equipo que ya había creado la aplicación de Adobe ImageReady.Troy Galia, Galia Melissa y el resto de su equipo (supuestamente conocidos como el 'Minnesota Phats'), junto con Hamburg, desarrollaron la arquitectura de la aplicación. George Jardine, un fotógrafo experto y anterior evangelista de Adobe, completan el equipo de primeros, ocupando el papel de mánager de producto. tIPOS DE IMaGEN DIGItaL •
Mapa de bits
Una imagen en mapa de bits, raster image o extensión .bmp (estos dos tomados del inglés), o imagen ráster (un calco del inglés), es una estructura o fichero de datos que representa una rejilla rectangular de píxeles o puntos de color, denominada matriz, que se puede visualizar en un monitor, papel u otro dispositivo de representación. • Orientado a objetos / Vectorial Una imagen vectorial es una imagen digital formada por objetos geométricos independientes (segmentos, polígonos, arcos, etc.), cada uno de ellos definido por distintos atributos matemáticos de forma, de posición, de color, etc. Por ejemplo un círculo de color rojo quedaría definido por la posición de su centro, su radio, el grosor de línea y su color.
IMÁGENES VECtORIaL Este formato de imagen es completamente distinto al formato de las imágenes de mapa de bits, también llamados imágenes matriciales, que están formados por píxeles. El interés principal de los gráficos vectoriales es poder ampliar el tamaño de una imagen a voluntad sin sufrir la pérdida de calidad que sufren los mapas de bits. De la misma forma, permiten mover, estirar y retorcer imágenes de manera relativamente sencilla. Su uso también está muy extendido en la generación de imágenes en tres dimensiones tanto dinámicas como estáticas. Todos los ordenadores actuales traducen los gráficos vectoriales a mapas de bits para poder representarlos en pantalla al estar ésta constituida físicamente por píxeles. El interés principal de los gráficos vectoriales es poder ampliar el tamaño de una imagen a voluntad sin sufrir la pérdida de calidad que sufren los mapas de bits. De la misma forma, permiten mover, estirar y retorcer imágenes de manera relativamente sencilla. Su uso también está muy extendido en la generación de imágenes en tres dimensiones tanto dinámicas como estáticas. Todos los ordenadores actuales traducen los gráficos vectoriales a mapas de bits para poder representarlos en pantalla al estar ésta constituida físicamente por píxeles. Se utilizan para crear logos ampliables a voluntad así como en el diseño técnico con programas de tipo CAD (Computer Aided Design, diseño asistido por computadora). Muy populares para generar escenas 3D. Los gráficos vectoriales permiten describir el aspecto de un documento independientemente de la resolución del dispositivo de salida. Los formatos más conocidos son PostScript y PDF. A diferencia de las 297
imágenes matriciales, se puede visualizar e imprimir estos documentos sin pérdida en cualquier resolución. Ejemplos: Pictograma, señaletica, gráficas, branding, infografía...
•
El formato PDF es el más práctico para los gráficos basados en objetos. Casi todos los programas de maquetación son capaces de gestionar y preparar imágenes en formato PDF. Los PDF pueden contener tanto objetos basados en píxeles o en curvas como fuentes tipográficas y, además, soportan todos los efectos gráficos que pueden aplicarse en los programas de ilustración. El formato PDF cuenta, además, con la ventaja de que todas las imágenes pueden abrirse e imprimirse mediante el programa gratutio Adobe Reader. Esto hace posible también gestionar imágenes extraídas de cualquier archivo PDF y, por ejemplo, añadir comentarios y hacer correcciones mediante las herramientas de Acrobat o publicarlas en la Red.También podemos asignar una contraseña al archivo. Por lo general, los archivos PDF consumen poco espacio de disco y permiten la compresión de las imágenes basadas en píxeles que tienen. Podemos guardar en formato PDF desde Adobe Illustrator y aprovechar las funciones de este software si volvemos a abrir más tarde el archivo para editarlo. Cuando se guarda el arch ivo conservando las opciones de edición en Adobe llustrator, su tamaño se incrementa ligeramente. El formato PDF no siempre es soportado por versiones antiguas de aplicación de maquetación o por los RlP de impresión. En esos casos, el formato EPS pueden constituir una buena alternativa. EPS (Encapsulated PostScript) puede gestionar imágenes basadas en pixeles y en objetos. • EPS El formato EPS consta de dos partes: una imagen de prev sualización en baja resolución y una imagen basada en PostScript que puede contener tanto objetos como píxeles. La imagen de previsualización (PICT) se utiliza cuando colocamos la imagen en página en cualqui er software de maquetación. La imagen de previsualización está en formato PICT para Macintosh y BMP para Windows. Puede ser en blanco y negro o en color, pero siempre está a una relosución de 72 ppp (puntos por pulgada), ya que esa es la resolución estándar de los monitores. Los objetos contenidos en un archivo EPS son independ ientes del tamaño de la imagen por lo tanto, ocupan el mismo espac io en disco sea cual sea el tamaño del gráfico. No obstante, si crearnos un gráfico basado en objetos de grande dimensiones y lo g uardamos en formato EPS, es posible que el tamaño de archivo se incremente, ya que la imagen de previsualización, al tener más resolución, ocupará más espacio de disco. Si no disponemos de mucha capacidad de disco a la hora de guardar imágenes basadas en objetos en formato EPS, siempre podemos optar por comprimir el archivo antes de guardarlo - de ese, 298
La imagen de previsualización será menor, o bien seleccionar la opción de guardar una imagen de previsualización en blanco y negro. En este último caso, la imagen de previsualización aparecerá algo escalonada en pantalla y podremos verla en color, aunque ello no afectará a la calidad de la imagen impresa. Adobe InDesign permite mostrar en pantalla imágenes en formato EPS de alta calidad, ya que utiliza la parte del archivo que está en alta relosución en lugar de la imagen de previsualización. • Al , lllustrator El formato propio de Adobe Illustrator, Al, se utiliza para gráficos basados objetos, aunque también puede contener imágenes de píxeles incrustadas en el documento. Adobe InDesign permite colocar imágenes guardadas en formato Adobe Illustrator. En InDesign también podemos pegar imágenes en página después de haberlas copiado o cortado de un documento de Illustrator, con la posilibidad añadida de editarlas en una tercera aplicación. AI se usa principalmente como formato de trabajo mientras se están realizando las ilustraciones y se precisa consumir un espacio de disco mínimo a la· vez que se mantienen todas las opciones de edición. Las imágenes de Illustrator suelen guardar después en formato EPS o PDF para colocarlas en la correspondiente aplicación de maquetación. • WMF y EMF WMF (Windows Metafile) y EMF (Enhanced Metafile) son formatos de imagenes que se suelen usar en el entorno Windows para gráficos sencillos basados en objetos. Son aceptados por la mayor parte de las aplicaciones de ofimática. Sin embargo, sus funciones de manejo y reproducción de imágenes son muy limitadas no conviene utili za rlos en producción gráfica profesional. • SVG SVG (Scalable Vector Graphics) es un formato de archivo de gráficos basados en objetos que se usa básicamente para la web. El formato SVG está totalmente basado en XML y soporta también JavaScript y efectos de filtros para imágenes dinámicas interactivas que contengan sonido y animación. El formato no está pensado para la producción impresa, aunque Adobe Illustrator permite exportar archivos en SVG. El formato SVGZ es una versión comprimida de SVG. • DWG and DXF DWG (abreviatura del inglés drawing) es un formato estándar que se emplea para almacenar archivos de dibujo producidos con una aplicación de diseño asistido por ordenador (CAD, Computer Assisted Design), por ejemplo, Autocad. Los archivos DXF se suelen utilizar para transferir archivos CAD. Los archivos CAD suelen contener gráficos basados en objetos y se utilizan en ámbitos como el diseño y la producción de packaging. Adobe Illustrator permite importar estos archivos y emplearlos como base para el diseiio de un packaging, por ejemplo. • SWF SWF (Shockwave Flash) se utiliza para animaciones e imágenes interactivas basadas en objetos con des tin o a la web. Se crean con el programa Macromedia Flash. Este formato no se utiliza para producción impresa. VENtaJaS E INCONVENIENtES DE La IMaGEN VECtORIaL •
Ventajas Dependiendo de cada caso particular, las imágenes vectoriales pue299
den requerir menor espacio en disco que un mapa de bits. Las imágenes formadas por colores planos o degradados sencillos son más factibles de ser vectorizadas. A menor información para crear la imagen, menor será el tamaño del archivo. Dos imágenes con dimensiones de presentación distintas pero con la misma información vectorial, ocuparán el mismo espacio en disco. No pierden calidad al ser escaladas. En principio, se puede escalar una imagen vectorial de forma ilimitada. En el caso de las imágenes matriciales, se alcanza un punto en el que es evidente que la imagen está compuesta por píxeles. Los objetos definidos por vectores pueden ser guardados y modificados en el futuro. Algunos formatos permiten animación. Esta se realiza de forma sencilla mediante operaciones básicas como traslación o rotación y no requiere un gran acopio de datos, ya que lo que se hace es reubicar las coordenadas de los vectores en nuevos puntos dentro de los ejes x, y, y z en el caso de las imágenes 3D. • Desventajas Los gráficos vectoriales en general no son aptos para codificar fotografías o vídeos tomados en el «mundo real» (fotografías de la Naturaleza, por ejemplo), aunque algunos formatos admiten una composición mixta (vector + mapa de bits). Prácticamente todas las cámaras digitales almacenan las imágenes en mapa de bits. Los datos que describen el gráfico vectorial deben ser procesados, es decir, el computador debe ser suficientemente potente para realizar los cálculos necesarios para formar la imagen final. Si el volumen de datos es elevado se puede volver lenta la representación de la imagen en pantalla, incluso trabajando con imágenes pequeñas. Por más que se construya una imagen con gráficos vectoriales su visualización tanto en pantalla, como en la mayoría de sistemas de impresión, en última instancia tiene que ser traducida a píxeles. CÁLCULO DE LA RESOLUCIÓN DE ENTRADA • Se expresa en píxel por pulgada (ppp o ppi) • Necesitamos tres datos: ✏✏ Lineatura de trama ♦♦ Prensa: 85 a 100 lpp ♦♦ Revistas: 120, 133, 150 lpp ♦♦ Alta calidad: 175, 200 lpp ✏✏ Factor de calidad ♦♦ Si la lineatura de trama es mayor de 133 lpp el Fc será 1,5 ♦♦ Si la lineatura de trama es menor de 133 lpp el Fc será 2 ✏✏ Escala o factor de reproducción ♦♦ Si la escala es mayor de 100% la imagen se ampliará ♦♦ Si la escala es menor de 100% la imagen se reducirá RESOLUCIÓN DE ENTRADA Antes de ponernos a escanear una imagen deberemos especificar su resolución Dos cuestiones determinan la resolución de escaneado: la lineatura de trama con la que pretendemos imprimir y si nos hará falta en algún momento cambiar el tamaño de la imagen. Laliineatura de trama viene determinada por el método de impresión y el papel que usemos. Si vamos a imprimir una imagen basada en píxeles en un 300
tamaño determinado, esta se compondrá de un número espeficífico de píxeles por centímetro (ppcm) o píxeles por pulgada (ppp). La resolución de una imagen se mide en ppp o ppcm (1 pulgada= 2,54 centímetros). Cuanto mayor sea la resolución, tanto mayor será el número de píxeles por centímetro y mayor será también el nivel de detalle con el que podremos reproducir la imagen. Cuantos menos píxeles por centímetro tenga, mayor será el tamaño de estos píxeles y menos detallada será la imagen al reproducirla. Una imagen compuesta por 300 píxeles de anchura y que mide una pulgada tiene una resolución de 300 píxeles. Si una imagen tiene una resolución baja, sus píxeles serán de mayor tamaño y podrá apreciarse a simple vista que está formada por una cuadrícula parecida a un mosaico. A una resolución más alta, no obstante, el ojo no es capaz de percibir que la imagen está formada por píxeles. Existe una resolución adecuada para la mayor parte de las imágenes; si las configuramos a una resolución mayor de la necesaria, lograremos una imagen de mucha mayor calidad pero que ocupará mucho más espacio en disco. Cálculo: • Originales de línea ✏✏ Resolución de entrada = Resolución de salida x Factor de Reproducción • Originales en escala de grises ✏✏ Resolución de entrada = Lineatura de trama x Factor Calidad x Factor Reproducción • Originales en color ✏✏ Salida en Trama convencional ♦♦ Resolución de entrada = Lineatura de trama x Factor de Calidad x Factor de Reproducción ✏✏ Salida en Impresora ♦♦ Resolución de entrada = Resolución de salida x Factor de Reproducción ESCALA
PROFUNDIDAD DE BIT • • • • • • • • •
Dibujo de línea Escalla de grises Color indexado Duotono RGB (8 bits) RGB (16 bits) CMYK Lab Formato Raw
1 bit por píxel 8 bits por píxel (de 3 a) 8 bits por píxel 8 bits por píxel 8 +8 + 8 = 24 bits por píxel 16 + 16 + 16 = 24 bits por píxel 8 + 8 + 8 + 8 = 24 bits por píxel 8 + 8 + 8 = 24 bits por píxel de 8 a 14 bits por píxel
MODOS DE IMAGEN • Mapa de bits o line-art 301
Los dibujos de línea, o plumas, son imágenes que constan solamente de píxeles blancos y negros. Se describen mediante unos y ceros, y sólo ocupan un bit por píxel de memoria. Ejemplos de este tipo de imágenes son los logotipos monocromáticos o algunas ilustraciones gráficas que imitan a los grabados. Las fuentes de pantalla (imágenes de las fuentes tipográficas que reproduce el ordenador en el monitor) están compuestas por dibujos de línea de los caracteres ✏ 50% de umbral
✏
Tramado de motivo
✏
Tramado de difusión
302
•
✏
Trama de semitonos
✏
Motivo personalizado
Escala de grises
Una imagen en escala de grises contiene píxeles que adoptan matices de un color determinado del 0% al 100%. La gama tonal que va del blanco (0% de negro) al negro (100% de negro) se reparte en una escala formada por un número determinado de niveles. Esto hace que el modo de escala de grises resulte idóneo para fotografías en blanco y negro o dibujos que contengan tonos intermedios de un mismo color. La gradación tonal que en impresión va del blanco (0%) al negro (100%) queda dividida en las imágenes digitales en una escala de un número variable de niveles, normalmente 256, que van de 8 bits a 1 bit, dependiendo de la cantidad de memoria que se le asigne a cada píxel. Al punto más oscuro de la imagen se le asigna un valor de intensidad digital de o y al más claro un valor de 255, y todos los matices de gris obtienen valores intermedios. Esos 256 niveles son suficientes para nuestra visión, capaz de distinguir alrededor de cien matices de en una escala lineal, por lo que 256 tonos dan un margen más que suficientepara una edición simple de las imágenes.
•
Monotono 303
•
Duotono ✏ Imagen basada en píxeles en eescala de grises e impresas a dos tintas. ✏ La relación entre las dos tintas viene determinada por curvas. ✏ Funciona en los formatos EPS, PDF y Photoshop. ✏ Es importante la orientación de las tramas de semitonos.
✏
Canales
304
•
Tritono
✏
•
Canales
Cuatritono
✏
Canales
305
•
RGB
El rojo, el verde y el azul, o RGB (Red, Green, Blue), son los colores que se usan para escanear imágenes en color. También son los colores quebreproducen los monitores. Por consiguiente, cuando visual izamos imágenes en el monitor -una presentación multimedia, por ejemplo-, lo habitual es que se utilice el modo RGB. Cada uno de los píxeles de la imagen tiene unos valores para el rojo, el verde y el azul que contiene. El ojo percibe esta combinación como un color determinado. Podría decirse que una imagen en RGB consiste en tres imágenes de píxeles combinadas. Técnicamente, son tres imágenes en escala de grises que representan, respectivamente, el rojo, el verde y el azul. Debido a ello, una imagen en RGB tiene un tamaño de archivo tres veces mayor que el de una imagen en escala de grises de igual formato y resolución. Esta construcción implica que cada píxel de una imagen en RGB con una configuración de 8 bits puede adoptar 28 x 28 x 28 = 256 x 256 x 256 = 16,8 millones de colores distintos. Como ocurre en una imagen en escala de grises, el valor o significa ausencia total de luz y el valor 255 implica luz máxima. La combinación rojo = o, verde = o, azul = o da lugar al negro, o a la ausencia de luz, mientras que rojo = 255, verde= 255, azul= 255 genera el blanco, o luz máxima. Por otra parte, si trabajamos con una profundidad de 16 bits, es decir, 16 bits para cada uno de los tres colores, los píxeles pueden asumir muchísimos más colores (65.536 x 65.536 x 65.536 = 2,8 x 1014 = 280.000 millones).
✏
Canales
306
•
CMYK
Para imprimir fotografías u otras imágenes en color se utilizan tintas cian, magenta, amarilla y negra (CMYK: cyan, magenta, yellow, black), lo que se conoce como impresión en cuatricromía. La transición del modo RGB al modo CMYK se denomina conversión o separación de colores. Técnicamen te, cada imagen en cuatricromíaestá compuesta por cuatro imágenes distintas en escala de grises. Cada una de estas determina la cantidad de cada una de las respectivas tintas que se emplean durante el proceso de impresión. Dado que consta de cuatro imágenes en lu gar de tres, un archivo de imagen en CMYK ocupa hasta un 33% más de espacio de disco que esa misma imagen en RGB. En teoría, cada uno de los píxeles de una imagen en CMYK puede adoptar 256 x 256 x 256 x 256 = 4.300 millones de colores. Pero, dado que en la separación la imagen se convierte a part ir de una imagen en RGB de 16,8 millones de colores, esta cantidad supone el número de colores máximo que puede adoptar un píxel en CMYK. En la práctica, ese número de colores es inclu so menor debido a las limitaciones propias de la impresión y, por ta nto, el modo CMYK tiene una gama de colores menor que el modo RGB
✏
Canales
307
•
Indexado
Puede darse el caso de que deseemos utili zar sólo determinados colores en una imagen digital. Esto puede deberse a que queramos mantener un tamaño de archivo reducido o porque la imagen se vaya a reprod ucir en un monitor que sólo sea capaz de gestionar determinado número de colores. En estos casos se utiliza el modo de color indexado. Por ejemplo, las imágenes GIF para la webse crean usando este modo de color. Una imagen en modo de color indexado puede contener hasta 256 colores distintos. Esta cantidad de colores se define en una pa leta formada por mues tras de cada color y su respectivo código numérico. Esto significa que cada uno de los píxeles de una imagen indexada tendrá asignado un va lor entre 1 y 256, según la correspondiente paleta de colores. Por consiguiente, en el modo de color indexado la imagen cons tará de una sola imagen de píxeles, igual que oc urre en las imágenes en escala de grises, más una pa leta de colores. Habitualmente se parte de una imagen RGB, cuyos colores se ajust an pa ra ad aptarlos lo m ejor posible a la paleta de 256 colores indexados. Para reducir el tamaño del archivo se pueden usar también pa letas de menos de 256 colores, por ejemplo de 128 colores (7 bits), de 64 colores (6 bits) o de 32 colores (5 bits). Esto se hace frecuentem ente en el caso de imágenes pa ra páginas web. El modo de color indexado no suele ser adecuado para imágenes fotográficas en color, ya que estas contienen más de 256 colores.
•
Lab
El modo Lab está basado en el sistema CIELAB. CIELAB, a su vez, se basa en definir los colores según su luminosidad (valor L) junto con dos valores de color, que se expresan por su cantidad de verde y rojo (valor a) y de azul y amarillo (valor b). El sistema Lab facilita ajustar la luminosidad (L) y el tono (a y b) de cada color independientemente de los demás colores. En el modo Lab se suele trabajar con una profundidad de imagen de 8 bits, lo cual, dada la construcción de este modo de color, supone que cada píxel es capaz de adoptar 28 x 28 x 28 = 256 x 2S6 x 2S6 = 16,8 millones de colores distintos. El modo Lab cuenta con una gama de colores equivalente a la del ojo humano; es decir, mucho mayor que la de una imagen digital normal. Esto supone que una imagen digital corriente, compuesta por una gama de colores mucho más reducida, sólo utiliza una porción del espectro cromático. Por lo general, una imagen digital en modo Lab utiliza 256 niveles de color en el archivo L, pero sólo unos so de los 256 niveles posibles en los archivos a y b. Esto, a su vez, significa que la imagen sólo contiene 256 x 50 x 50 = 640.000 tonos de los 16,8 millones de colores posibles. Si, en lugar de ello, la imagen se configura según el estándar RGB, mejor adaptado a la gama de colores de la imagen, se empleará una mayor cantidad de esos colores posibles. Por lo tanto, tendremos que configurar una imagen en modo Lab a 16 bits para así tener disponible un número mayor de colores de la gama de esa imagen. Una imagen Lab configurada a 8 bits no ofrece 308
los mismos márgenes de edición que una imagen RGB debido al menor número de colores que contiene. Esas imágenes deben ser convertidas a una configuración de 16 bits antes de ser editadas, con el fin de conservar la máxima calidad posible.
tRataMIENtOS GEOMÉtRICOS •
Reencuadres
Para reencuadrar y recortar fotografías en Photoshop necesitamos seguir pocos pasos. El primero de ellos es, naturalmente, tener instalado el programa en nuestro ordenador. Photoshop es un software de pago y se puede comprar en la página web de Adobe. Este software de edición de imágenes es el más conocido y usado por usuarios de nivel medio y por profesionales de la fotografía y la imagen en general. El recorte y reencuadre de fotografías con Photoshop es muy fácil. El primer paso para reencuadrar una fotografía con Adobe Photoshop es abrirla. Para esto seleccionamos archivo > abrir en la esquina superior izquierda del programa. Photoshop nos abrirá un cuadro de diálogo donde buscamos y hacemos click en la imagen que queremos reencuadrar o recortar. Para abrirla tenemos dos opciones: hacer doble click sobre ella o apretar el botón abrir. El software cerrará la ventana abierta y dejará en primer plano la foto elegida. El icono con la herramienta para reencuadrar en Photoshop simula un marginador de la fotografía analógica. Podemos seleccionarlo o bien haciendo click en él o bien apretando la tecla "C" del teclado. Una vez escogida la herramienta de recorte procedemos a elegir el área que queremos de nuestra imagen. Para ello haremos click con el ratón en alguna parte de la fotografía y sin dejar de apretar el botón arrastraremos el ratón para que el recuadro de selección crezca. Una vez creado el marco de selección podemos modificarlo a nuestro antojo situando el ratón sobre los puntos de anclaje que aparecen en las esquinas y en las mitades de los lados del mismo. Confirmaremos el recorte bien dándole al botón enter o intro del teclado o bien haciendo click en el tick
309
de OK de la esquina superior derecha. Para deshacer el recorte debemos pulsar Ctrl + Z o Comando + Z. Photoshop ofrece la posibilidad de recortar y redimensionar a la vez. La herramienta de recorte tiene, como todas las herramientas de Photoshop, una barra de opciones. Esta barra aparece en la parte superior de la pantalla. Con ella podemos configurar los parámetros con los que queremos reencuadrar la imagen. Podemos fijar la anchura y la altura y la resolución en pixels por pulgada o en pixels por centímetro. Cuando recortamos con esta opción el recuadro resultante para el recorte mantendrá la proporción dada y la resolución se ajustará automáticamente • Orientación
•
Rotación
•
Espejo
•
Distorsión
310
REtOQUE El retoque es una técnica que permite obtener otra imagen modificada, ya sea para lograr una mejor calidad o más realismo, o para obtener una composición totalmente diferente que distorsione la realidad. Para llevar a cabo dicho proceso, se utilizan mayoritariamente programas informáticos. Utilizando distintas técnicas de retoque fotográfico es bastante simple mejorar la calidad de las imágenes originales procesadas, consiguiendo así un resultado notablemente superior en calidad con respecto a la imagen original. Además también pueden conseguirse efectos impactantes o simplemente corregir diversos errores en las imágenes originales. Antes de la existencia de la fotografía en color era muy frecuente emplear acuarelas líquidas u otros pigmentos para ofrecer la imagen coloreada. También se retocaban los negativos fotográficos para eliminar imperfecciones. Las técnicas de retoque fotográfico digital son hoy en día muy utilizadas como método de postproducción, sobre todo en ámbitos donde la imagen es lo que vende. Se da mucho su utilización en las producciones de modelaje, ya que la perfección en las modelos debe ser alcanzada a toda costa. También se utiliza para publicidad cumpliendo una parte muy importante del trabajo final. Muchas veces nos encontramos con fotografías que son irreproducibles en la realidad solamente utilizando una cámara. Para esto se recurre al "fotomontaje" o retoque digital en donde se pueden manipular varias fotografías para crear una composición final. Hoy por hoy la tecnología permite un sin fin de propuestas gracias a los distintos software utilizados y las distintas técnicas (ilustración, CGI, 3D y más). El programa más usado en la actualidad es el Adobe Photoshop.
CORRECCIÓN BRILLO Y CONtRaStE El ajuste Brillo/contraste permite realizar ajustes sencillos en la gama tonal de una imagen. Si mueve el regulador de brillo a la derecha, aumenta los valores tonales y se expanden las iluminaciones de la imagen, mientras que si lo mueve a la izquierda disminuyen los valores y se expanden las sombras. El regulador de contraste aumenta o disminuye la gama general de valores tonales de la imagen. En el modo normal, Brillo/contraste aplica ajustes proporcionales (no lineales) a la capa de la imagen, al igual que con los ajustes Niveles y Curvas. Cuando se selecciona Usar heredado, el valor Brillo/contraste simplemente cambia todos los valores de píxeles mayores o menores al ajustar el brillo. Ya que esto pue-
311
de causar la reducción o la perdida de los detalles de la imagen en áreas iluminadas o sombreadas, no se recomienda el uso del ajuste Brillo/contraste en modo Heredado para imágenes fotográficas (pero puede resultar útil para la edición de máscaras). Aumento del brillo Reducción del brillo
Aumento del constraste
Reducción del contraste
CORRECCIÓN tONaL O CURVaS Con el ajuste Curvas, puede ajustar los puntos de la gama tonal de una imagen. Inicialmente, la tonalidad de la imagen se representa como una línea recta en diagonal sobre un gráfico. Al ajustar una imagen RGB, la zona superior derecha del gráfico representa las iluminaciones; mientras que el área inferior izquierda representa las sombras. El eje horizontal del gráfico representa los niveles de entrada (valores originales de la imagen) y el eje vertical representa los niveles de salida (nuevos valores ajustados). Al añadir puntos de control a la línea y moverlos, la forma de la curva cambia, de forma que refleja los ajustes de la imagen. Las secciones más elevadas de la curva representan áreas de mayor contraste, mientras que las más planas representan áreas de menor contraste.El ajuste Curvas también se puede aplicar a imágenes CMYK, LAB o de escala de grises. En las imágenes CMYK, el gráfico muestra los porcentajes de tinta/pigmento. En cuanto a las imágenes en escala de grises y LAB, el gráfico muestra los valores claros. Controle los ajustes de curva para modificar de forma selectiva el contraste y la exposición en una imagen. Si mueve un punto de la parte superior de la curva, ajusta las iluminaciones; si mueve un punto de la parte central de la curva, ajusta los medios tonos; y si mueve un punto de la parte inferior de la curva,
312
ajusta las sombras. Para oscurecer las iluminaciones, mueva hacia abajo un punto cercano a la parte superior de la curva. Si mueve un punto hacia abajo o hacia la derecha se asignará el valor de entrada a un valor de salida más bajo, y la imagen se oscurecerá. Para aclarar las sombras, mueva hacia arriba un punto cercano a la parte inferior de la curva. Si mueve un punto hacia arriba o hacia la izquierda asignará un valor de entrada más bajo a un valor de salida más alto, y la imagen se aclarará. Si arrastra un punto de control hacia arriba o hacia abajo, aclarará u oscurecerá el área tonal que esté ajustando. Si lo arrastra hacia la izquierda o hacia la derecha, aumentará o disminuirá el nivel de contraste.
Puede añadir hasta 14 puntos de control a la curva. Para quitar un punto de control, arrástrelo fuera del gráfico. Conforme vaya ajustando la tonalidad, el gráfico seguirá mostrando el histograma de la imagen y la línea de base recta en diagonal originales a modo de referencia. Estas opciones se pueden desactivar. Para ello, consulte el apartado dedicado a cómo establecer las opciones de visualización de las curvas.
• Luz (0-255): muestra los valores de intensidad de imágenes RGB en un rango de 0 a 255, con el negro (0) en la esquina inferior izquierda. • % de pigmento/tinta: muestra los porcentajes de las imágenes CMYK en un rango de 0 a 100, con las iluminaciones (0%) en la esquina inferior izquierda. • Cuadrícula simple: muestra las líneas de cuadrícula en incrementos de 25%. • Cuadrícula detallada: muestra las líneas de cuadrícula en incrementos de 10%. • Mostrar superposiciones de canal: muestra las curvas del canal de color que están superpuestas sobre la curva compuesta. • Histograma: muestra un histograma de los valores tonales de la imagen original, detrás del gráfico. • Línea base: muestra el color y la tonalidad originales de la imagen como una línea angular de 45 grados a modo de referencia. • Línea de intersección: muestra líneas horizontales y verticales a modo de guía para alinear los puntos de control conforme los arrastre, usando como referencia el histograma o la cuadrícula. Cuando se aplica un ajuste de curvas, utilice los reguladores de blanco y negro para definir rápidamente los puntos blancos y negros (valores de negro puro y blanco puro) de la imagen. Arrastre los reguladores de punto blanco y negro a cualquier punto del eje horizontal. Tenga en cuenta que el valor de entrada cambiará conforme arrastre el cursor. Para previsualizar el recorte al mismo tiempo que ajusta los puntos 313
blanco y negro, realice una de las acciones siguientes: VALORES CROMÁTICOS Una imagen con un equilibrio de grises erróneo producirá lo que se llama dominante de color, que consiste en que la imagen entera adquiere un tinte de un color determinado, por ejemplo, un tono verdoso. Esto puede propiciar que se alteren colores naturales de referencia, como los de la piel, la hierba, las naranjas y demás. Y más todavía en colores que deberían ser grises neutros como los del asfalto o el hormigón, casos en los que nuestro cerebro es sumamente sensible a cualquier desviación del color. En ocasiones puede resultar difícil valorar si contamos con un balance de grises correcto. La paleta histograma (Ventana -+ Histograma) de Adobe Photoshop puede sernas muy útil en estos casos. Si seleccionamos vista de todos los canales en las opciones de la paleta, podremos ver si los tres colores, rojo, verde y azul,cubren completamente la escala tonal de forma uniforme. Si, por ejemplo, sólo el canal azul del histograma muestra picos en los tonos más claros de la imagen, eso significará que las zonas de luces de la imagen tienen dominancia de azul. Adobe Photoshop cuenta con herramientas con cuya ayuda podemos modificar el balance de grises y eliminar cualquier posible dominante de color. Una Alternativa es la función Capað Nueva capa de ajuste ð Equilibrio de color, y otra, la herramienta variaciones, en el menú imagen ð Ajustes ð Variaciones . También las opciones curvas y niveles disponen de funciones para crear tonos grises neutros, lo que puede sernas útil para lograr un balance de grises correcto. En Equilibrio de color podemos modificar Jos respectivos colores mediante un control, mientras que en variaciones veremos una serie de muestras de la imagen con diferentes compensaciones de dominancia de color. Todos los colores de la imagen se verán afectados (a menos que hayamos creado una selección de una parte concreta de la imagen, en cuyo caso sólo esta se verá afectada). En variaciones también podemos controlar la corrección de la dominante de color en las zonas específicas de iluminaciones, de sombras o de tonos medios de la imagen. Cuando nos dispongamos a verificar el equilibrio de grises, deberíamos tener visible la paleta información, para poder ver así los valores de RGB. Podemos encontrarla en Ventana -+ Información. Podemos buscar una zona de la imagen que debería ser neutra -es decir, una zona gris-, mover el puntero por esa 314
superficie y comprobar en la paleta INFORMACIÓN si los tres colores (rojo, verde y azul) muestran aproximadamente el mismo valor. Para ello seleccionaremos un tamaño de muestra de 3 x 3 o 5 x 5 píxeles en la paleta Opciones de la herramienta Cuentagotas. Después, podemos ajustar la imagen entera con una de las opciones antes mencionadas hasta que la parte de la imagen que debería ser neutra muestre el mismo valor en los tres colores RGB. Una vez conseguido el balance de grises en las zonas más importantes de la imagen, el resto debería quedar correctamente ajustado. En caso de que aparezcan leves variaciones de temperatura de color en zonas de la imagen, es posible que debamos ajustar localmente el equilibrio de grises de esas zonas. Otra manera de ajustar el balance de grises es trabajar con un cuentagotas de definición de punto
gris. En las paletas Niveles y Curvas se muestran tres herramientas de cuentagotas. La del centro es la de definición de punto gris. Se utiliza haciendo die con ella sobre una superficie de la imagen que debería ser de color gris neutro; al hacerlo se ajusta automáticamente el balance de grises de la imagen. La superficie puede ser clara u oscura, pero se logran mejores resultados si se trata de una zona de tonos medios. En la práctica, los valores RGB varían de un píxel a otro, incluso en una superficie neutra de una fotografía, lo que puede hacer necesarios varios intentos hasta que logremos un resultado aceptable. Si colocamos una carta de muestras de gris neutro junto al motivo fotografiado, facilitaremos la labor de ajuste de posibles dominantes de color. Si fotografiamos una serie de imágenes con idéntica iluminación, no será necesario que pongamos la carta de grises en todas las imágenes, ya que los ajustes de balance de grises de una imagen pueden guardarse y utilizarse con las demás. CORRECCIÓN DE COLOR (CORREGIR DOMINANTES)
315
siempre me ha frustrado que, al final, el ajuste acaba dependiendo de nuestra visión subjetiva de la imagen. La subjetividad en sí no es un problema, al fin y al cabo cada uno interpreta la fotografía como desea. Pero lo que sí puede ser un problema es que ese resultado sea muy diferente en función del soporte en que mostremos nuestra obra. ¿Cuántas veces nos ha pasado que la misma fotografía es muy diferente dependiendo del monitor donde la veamos? O al imprimirla en papel...o al verla en móviles diferentes... Es precisamente aquí donde esa subjetividad acaba de convertirse en un problema, puesto que habremos tomado nuestras decisiones sobre el color en un dispositivo no calibrado o con un espacio de color inadecuado. Y cuando salimos de "nuestro entorno" y mostramos la fotografía en otro soporte es cuando vienen los disgustos. Disponer de un monitor con posibilidad de calibración externa no está al alcance de todos. Además, aprender sobre perfiles ICC y espacios de color puede resultar algo abrumador para aquellos aficionados que simplemente disfrutan con la fotografía, sin querer entrar en temas tan específicos. En este artículo os hablaré de un método muy sencillo para intentar conseguir controlar las dominancias de color de forma independiente al monitor con el que estemos trabajando. Partiré de las siguientes PREMISAS: • Vamos a utilizar Photoshop. Estoy seguro que habrá métodos geniales en Lightroom para hacerlo, pero como ya he dicho otras veces "no, no uso Lightroom y sí, lo sé, por lo visto soy muy raro... :-D". Simplemente me inicié en el procesado con Camera Raw y PS, y nunca me ha hecho falta usar Lightroom. • Asumo que la dominancia de color es un problema NO DESEADO. Si forzáis el balance de blancos de la cámara para conseguir un efecto concreto, evidentemente, todo esto no tiene sentido. • La fotografía está tal cual se realizó, el único tratamiento que he aplicado es el de la corrección de la dominancia de color para evitar ningún tipo de confusión. Procedimiento: La clave del proceso es servirnos del cuentagotas de grises que encontramos en la capa de ajuste "Niveles" e intentar localizar un pixel que contenga exactamente un 50% de gris (gris neutro). Si lo encontramos, la corrección será perfecta.Y si no se puede encontrar (como en el caso de la foto que os pongo) nos acercaremos lo máximo posible.Veamos los pasos: • Abrimos nuestra fotografía en photoshop (en mi caso CS6) • Creamos una nueva capa:
• Vamos a "Edición --> Rellenar" --> Aquí seleccionamos: • Con la nueva capa gris seleccionada, vamos a cambiar su modo de fusión de "normal" a "diferencia", con 316
lo que obtendremos una especie de negativo en color de nuestra foto:
• Ahora utilizaremos el cuentagotas y deberemos tener visible el panel "Información" (Ventana->Información) Es el momento de pasear nuestro cuentagotas por la imagen y fijarnos atentamente en la ficha "Información" con el fin de encontrar un pixel en que tengamos todos los valores RGB a CERO. Consideraciones importantes: • Comprobad que el cuentagotas está tomando una muestra por pixel y no haciendo las medias de pixeles adyacentes. Basta hacer clic con el botón derecho del ratón mientras lo paseáis por la imagen Localizad una zona de la imagen donde parezca que haya negros y haced ZOOM hasta ella. Recordad que vamos a trabajar a nivel de pixel, por lo que puede que tengáis que ampliar la foto hasta un 3200%. • Si hemos encontrado un pixel con todos los valores RGB a cero, perfecto. Si no, nos quedaremos con los valores más cercanos a CERO (como en mi caso como veréis en la siguiente captura donde R=3, G=5 y B=0). • Ahora presionaremos la tecla de mayúscula (Shift) y haremos clic con el ratón en ese pixel. De este modo estaremos definiendo ese pixel como marca para más adelante. Os pongo la captura de cómo quedó todo en mi caso: Ya podemos eliminar la capa al 50% de gris, no la necesitaremos más • Es el momento de añadir una capa de ajuste del tipo "niveles" (1), Seleccionaremos el cuentagotas de grises situado en el medio de los tres (2) y seleccionaremos el pixel que habíamos marcado previamente (3). Hacemos ctrl+0 (cero) para encajar de nuevo la foto en pantalla y ya podemos ver el efecto de la corrección del color. Para ver la diferencia bastará activar y desactivar la capa de ajuste de niveles. 317
EFECtOS tONaLES
•
Posterización
La posterización es la conversión o reproducción de una imagen de tonos continuos para obtener otra imagen en la que sólo hay unos pocos tonos diferenciados y presentando una calidad tipo «póster». Obviamente, este efecto se obtiene actualmente por medios digitales, manipulando la fotografía y especificando un conjunto específico de pasos o gradientes. Efecto por el que una imagen de tono continuo es reducida a otra equivalente constituida por diferentes tonos planos de grises (o color) entre el blanco y el negro absolutos, también se la denomina “CARTELIZACIÓN” por su equivalencia con las técnicas antes requeridas para la ejecución de carteles pintados a base de tintas planas.
•
Solarización
La solarización es un fenómeno fotográfico en el que la imagen sobre un material sensible a la luz invierte su tono de un modo total o parcialste proceso puede efectuarse sobre un negativo o una fotografía. El fundamento del proceso consiste en invertir el color de los píxeles cuya luminosidad sobrepase un límite que se puede establecer. Sobre una imagen en blanco y negro se puede conseguir el efecto ajustando las curvas gamma en forma de “V invertida”, variando después los efectos con capas de ajuste y cambiando los parámetros de opacidad, etc. 318
•
Alto contraste
Una fotografía basada en lo que se llama Alto Contraste es aquella en que expresa un gran diferencia entre las luces y las sombras. Cuando nos encontramos con un objeto de la realidad muy contrastado, es decir que existen una gran diferencia entre las luces y las sombras, Lo que hace una exposición automática es reducir el valor de la parte iluminada y la parte oscurecida. Con ello se obtiene una fotografía media entre luces y sombras que conlleva una falta de detalle. Pero esto no es lo que buscamos, buscamos fotografías de alto contraste para inspirarte. De todas maneras, el nivel de Alto Contraste es un gusto personal. Las apreciaciones, muy comunes en este tipo de fotografías, sobre si está expuesto o sobre expuesto, deben quedar solamente en eso. A veces nos quedamos únicamente en esos detalles pero al espectador común que disfruta de la imagen no le suele preocupar eso. También veremos como, en determinados casos el uso acertado del HDR puede ayudar a ofrecer fotografías de alto contraste.
•
Negativo
Las imagenes positivas, darlas la vuelta para que sean negativas en Adobe Photoshop. Las partes del negativo en las que ha incidido la luz se verán con un color oscuro, mientras que en las partes donde no ha incidido, quedarán transparentes. OtROS tRataMIENtOS • •
Silueteados Hacer una silueta es recortar una imagen del fondo o 319
situación en la que está. Siluetear imágenes, algo muy común en diseño gráfico, se suele hacer para destacar una imagen (eliminado otros elementos) o para colocarla dentro de otra imagen (haciendo un fotomontaje). Fotomontajes Los fotomontajes suelen servir para obtener imágenes que no se podrían capturar con una foto natural. Ejemplo de fotografía ampliamente manipulada. El fotomontaje es el proceso, y también el resultado, de hacer una ilustración compuesta de otras, se trata de una especie de collage. Esta composición puede realizarse mediante recortes de otras ilustraciones juntando un cierto número de ellas. En algunas ocasiones el compuesto de ilustraciones es fotografiado hasta que la imagen final es una simple fotografía. • Manipulación
Todas las imágenes pueden ser manipuladas y para ello hay diversos procesos. Esta manipulación incluye desde la eliminación de imperfecciones, al cambio de colores o fondos y la inserción de nuevos objetos a la misma. Todo fotomontaje es una manipulación directa de la imagen original. Hoy en día todos los diseños de folletos publicitarios llevan fotos manipuladas para adaptarla a la gráfica o al concepto del mismo. Se puede manipular la imagen en diversos programas informáticos, e incluso en la misma cámara que realiza la fotografía, pero le recomendamos el Adobe Photoshop por ser el programa por excelencia entre los profesionales.
320
FILTROS Los filtros se emplean para limpiar o retocar las fotografías, aplicar efectos especiales que doten a la imagen de la apariencia de un bosquejo o un cuadro impresionista o bien crear transformaciones exclusivas mediante distorsiones y efectos de iluminación. Los filtros que ofrece Adobe aparecen en el menú Filtro. Algunos filtros que proporcionan otros desarrolladores están disponibles en forma de plugins. Una vez instalados, estos filtros de plugins aparecen en la parte inferior del menú Filtro. Los filtros inteligentes, aplicados a objetos inteligentes, permiten usar filtros no destructivos. Los filtros inteligentes se almacenan como efectos de capa en el panel Capas y se pueden volver a ajustar en cualquier momento a partir de los datos de la imagen original que contenga el objeto inteligente. Para obtener más información sobre los efectos de filtro inteligente y la edición no destructiva, consulte Edición no destructiva. Para utilizar un filtro, seleccione el comando de submenú adecuado del menú Filtro. Las siguientes directrices le ayudarán a seleccionar los filtros: Los filtros se aplican a la capa activa visible o a una selección. En el caso de las imágenes de 8 bits por canal, la mayoría de los filtros se pueden aplicar de manera acumulativa mediante la Galería de filtros.Todos los filtros pueden aplicarse individualmente. No se pueden aplicar filtros a imágenes en modo de mapa de bits o de color indexado. Algunos filtros solo funcionan en imágenes RGB.Todos los filtros pueden aplicarse a imágenes de 8 bits. Se pueden aplicar los siguientes filtros a imágenes de 16 bits: Licuar, Punto de fuga, Promediar, Desenfocar, Desenfocar más, Desenfoque de rectángulo, Desenfoque gaussiano, Desenfoque de lente, Desenfoque de movimiento, Desenfoque radial, Desenfoque de superficie, Desenfoque de forma, Corrección de lente, Añadir ruido, Destramar, Polvo y rascaduras, Mediana, Reducir ruido, Fibras, Nubes, Nubes de diferencia, Destello, Enfocar, Enfocar bordes, Enfocar más, Enfoque suavizado, Máscara de enfoque, Relieve, Hallar bordes, Solarizar, Desentrelazar, Colores NTSC, A medida, Paso alto, Máximo, Mínimo y Desplazamiento. Se pueden aplicar los siguientes filtros a imágenes de 32 bits: Promediar, Desenfoque de rectángulo, Desenfoque gaussiano, Desenfoque de movimiento, Desenfoque radial, Desenfoque de forma, Desenfoque de superficie, Añadir ruido, Nubes, Destello, Enfoque suavizado, Máscara de enfoque, Desentrelazar, Colores NTSC, Relieve, Paso alto, Máximo, Mínimo y Desplazamiento. Algunos filtros se procesan completamente en memoria RAM. Si no dispone de suficiente memoria RAM para procesar un efecto de filtro, es posible que reciba un mensaje de error. Enfocar Esferizar Viento Cristal
321
DESTRAMADO Requiere el desenfoque del original, y normalmente implica una pérdida de nitidez en la reproducción (dependiendo de la lineatura de trama a la que esté impreso el original). Puede ser realizado por el escáner o en el programa de tratamiento de imágenes.
SOBREIMPRESIÓN, TRAPPING, REVENTADO En imprenta, aplicar reventados (trapping) es una forma de ajustar cómo imprimen los colores de las diferentes planchas para corregir los defectos visuales que producirán los inevitables pequeños fallos en el registro de las planchas al imprimir. Lo usual es que ampliar un poco los bordes de los colores más claros para que sobreimpriman un poco sobre los colores más oscuros. Hay dos clases de reventado. Cuando un elemento oscuro está sobre un fondo claro, se amplia el color del fondo claro, que ‘entra’ en el objeto oscuro. Ese es un reventado positivo (choke trapping). A veces se denomina “reventado de fondo”. Cuando un elemento claro está sobre un fondo oscuro, se amplia el color del objeto claro, que ‘rebosa’ hacia el fondo oscuro. Ese es un reventado positivo (spread trapping). a veces se denomina “reventado de objeto”.
FORMATOS DE ARCHIVO DE IMÁGENES EN PREIMPRESIÓN • Nativo PSD Este formato se emplea principalmente durante el trabajo de edición de la imagen. Algunas de las venta322
jas del PSD son que permite guardar las imágenes en archivos con capas e incluso en archivos con ca nales alfa , capas de ajuste, máscaras, transparencias, etc. El formato también soporta archivos de 16 bits, lo que supone una ventaja a la hora de trabajar con retoque de imágenes. También acepta varios archivos por color, necesarios cuando uti lizamos cuatro colores más tin tas directas en la misma imagen, por ejemplo. Las versiones más actuales de Adobe InDes ign y QuarkXpress permiten colocar directamente en página imágenes guardadas en formato Photoshop, pero los TIFF y EPS suelen ser mejor opción, ya que estos formatos ocupan menos espacio de disco. Esta es una cuestión importante cuando guardamos grandes cantidades de imágenes. La ventaja de guardar imágenes en formato PSD radica en que podemos usar para imptesión las mismas imágenes que estamos editando, ya que conservan intactas todas las funciones de Photoshop.Además de las aplicaciones de Adobe, muchas otras aceptan también el formato Photoshop. Las imágenes PSD permiten integrar perfiles. • TIF TlFF (Tagged Image File Format) es un formato abierto de imagen para gráficos basados en píxeles. El archivo consta de un encabezamiento de archivo y de información acerca del contenido y el tamaño de la imagen y de cómo debe leerla ordenador, una especie de manual de instrucciones para abrir la imagen. Las imágenes TIFF tienen la ventaja de aceptar la compresión LZW directamente desde Photoshop. El formato TIFF también varía en Macintosh y Windows, pero casi todas las aplicaciones son capaces de manejar archivos TIFF guardados para ambas plataformas. El formato de archivo es abierto, lo que significa que, con la ayuda del programa de maquetación, resulta fácil manipular Ja apariencia de las imágenes TIFF montadas en página; por ejemplo, podemos ajustar el contraste o el color de la imagen. El formato TIFF soporta dibujos de línea, imágenes en escala de grises, en RGB y en CMYK. También acepta archivos alfa, lo que supone que podemos guardar máscaras, además de trazados de recorte y capas. Pese a ello, no todas las aplicaciones de diseño permiten montar imágenes TIFF con trazados de recorte y capas. Las imágenes TIFF permiten integrar perfiles JCC y este formato aporta 16 bits por canal. • EPS EPS (Encapsulated PostScript) gestiona gráficos basados tanto en píxeles como en objetos. Se utiliza en Adobe Illustrator y también en Photoshop. El formato EPS cuenta con una serie de útiles funciones para los gráficos basados en píxeles. Las imágenes pueden siluetearse mediante trazados de recorte y en el archivo se almacena información acerca del tipo de trama de semitonos y de la lineatura de trama, así como de opciones de transferencia para realizar ajustes de impresión. El archivo EPS consta de dos partes: una imagen de previsualización en baja resolución y una imagen PostScript que puede basarse en píxeles o en objetos y que es la que se utiliza a la hora de imprimir. Adobe InDesign sólo usa la parte en alta resolución de la imagen EPS, incluso para su previsualización en página. La parte en alta resolución de la imagen EPS acepta compresión JPEG sin merma alguna de las funciones propias del EPS. Los formatos de los archivos EPS son distintos para Windows y para Macintosh; por ejemplo, la imagen de previsualización está en formato PICT para Mac y TIFF para Windows. El formato EPS soporta dibujos de línea, imágenes en escala de grises, en RGB y en CMYK, además de gráficos basados en objetos. También permite incorporar perfiles ICC. • EPS/DCS DCS (Desktop Color Separation) es una versión del formato EPS para imágenes en cuatricromía que ya apenas se utiliza. Dispone de todas las funciones que presenta el formato EPS. La principal diferencia entre ambos formatos es que el DCS se divide en cinco partes: una imagen de previsualización en baja 323
resolución en formato PICT y cuatro imágenes en alta resolución, una para cada color de la cuatricromía (CMYK). Por eso se lo denominaba también EPS de cinco archivos. Una de las ventajas de DCS es que el taller de preimpresión o la imprenta pueden enviar imágenes en baja resolución al diseñador o editor para que las coloque en página. Las imágenes en alta resolución simplemente sustituyen a las de baja resolución en el momento de imprimir el documento. Al filmar o imprimir un color de la separación, por ejemplo el cian, sólo se envía la parte cian del archivo de imagen a imprimir a través de la Red y, por consiguiente, la salida es más rápida que si se hubiese enviado el archivo de imagen completo. Una cosa que se debe tener en cuenta respecto a los DCS: dado que el archivo consta de cinco partes, es mayor el riesgo de que parte del archivo desaparezca o quede dañada. En ese caso la imagen quedará inutilizada. DCS2 es un desarrollo del formato DCS que permite guardar una imagen en una serie de archivos en func ión de los colores que contenga la imagen. Por ejemplo, si tenemos una imagen en cuatricromía con dos tintas directas, quedará guardada en siete archivos separados: una imagen en baja resolución para previsualización y seis imágenes en alta resolución, una para cada tinta de impresión (CMYK, tinta 1 y tinta 2). El formato DCS resulta idóneo cuando creamos originales que contienen colores directos, algo que se da con frecuencia en la producción gráfica de packaging. DCS permite integrar perfiles ICC. FORMatOS DE aRCHIVO DE IMÁGENES PaRa WEB Y MULtIMEDIa. •
JPEG
JPEG (Joint Photographic Experts Group) es un método de compresión de imágenes que también funciona como formato de archivo. La ventaja del formato JPEG es que es válido para todas las plataformas informáticas. JPEG gestiona escala de grises, RGB y CM YK, pero no permite guardar archivos con canales alfa. Con el formato JPEG se pueden integrar perfiles ICC • GIF GIF ( Graphic In terface Format) es un formato de archivo que se usa principalmente para la web. Compuserve, proveedor estadounidense de acceso a Internet, creó originalmente el formato GIF para reducir el tamaño de archivo de las imágenes y así poder transmitirlas mejor a través de la línea telefónica. Las imágenes GIF siempre son en modo de color indexado; pueden ser imágenes en escala de grises o dibujos de línea y contener de 2 a 256 colores. El número de colores posibles está determinado por la cantidad de bits que se asigne a cada píxel: admite desde 1 hasta 8 bits. Los colores se seleccionan de una paleta que puede crearse a medida del contenido de color de la imagen. También es posible aprovechar una de las predefinidas en Macintosh o Windows. Existe además un juego de paletas para la web que combina paletas de Macintosh y de Windows; data de cuando los ordenadores no eran capaces de mostrar más de 256 colores y ambas plataformas sólo tenían 215 de estos colores en común • PNG PNG (Portable Network Graphics) es un formato de archivo para imágenes de píxeles que se utiliza fundamentalmente para publicar en la web. Este formato se creó como sucesor del GIF y también, para determinadas ocasiones, del TIFF. En principio, el formato PNG permite gestionar las mismas fu nciones del GIF, como color indexado, transparencias, entrelazado, etc. No obstante, las imágenes PNG no admiten animación -para ello se ha creado otro formato de archivo, MNG. Pero el formato PNG cuenta con muchas más funciones: gestiona también canales alfa para máscaras de transparencia -para sombreados, por ejemplo- y admite gestión del color ya que permite guardar imágenes en sRGB. El algoritmo del PNG es de uso libre y suele generar una compresión sin pérdida más eficaz que la conseguida mediante otros métodos. El formato PNG soporta 16 bits por píxel. 324
SVG (Scalable Vector Graphics) es un formato de archivo de gráficos basados en objetos que se usa básicamente para la web. El formato SVG está totalmente basado en XML y soporta también JavaScript y efectos de filtros para imágenes dinámicas interactivas que contengan sonido y animación. El formato no está pensado para la producción impresa, aunque Adobe Illustrator permite exportar archivos en SVG. El formato SVGZ es una versión comprimida de SVG. OTROS FORMATOS DE IMAGEN. • Diseño (bocetaje o ficticios): JPEG y TIF con compresión LZV • RAW de cámara: es un formato propio, específico de la cámara,, sin filtros, ni ajuste de equilibrio de blancos ni otros procesos realizados en la cámara. • RAW de Photoshop: es un formato de archivo flexible utilizado en la transferencia de imágenes entre aplicaciones y plataformas de ordenador. • DNG: se ha diseñado para ofrecer compatibilidad y reducir la proliferación actual de los formatos de archivos RAW de cámara. • BMP: formato de imagen estándar de Windows en ordenadores compatibles con DOS y Windows. • DICOM: permite la integración de escáneres, servidores, estaciones de trabajo, impresoras y hardware de red de múltiples proveedores dentro de un sistema de almacenamiento y comunicación de imágenes. Las diferentes máquinas, servidores y estaciones de trabajo tienen una declaración de conformidad DICOM (conformance statements) que establece claramente las clases DICOM que soportan. DICOM ha sido adoptado ampliamente por hospitales y está haciendo incursión en pequeñas aplicación de oficinas de dentistas y de médicos. • JPEG 2000: ofrede más opciones y más flexibilidad que el formato JPEG estándar, por ejemplo, imágenes con una mejor compresión y calidad tanto para Internet como para publicaciones impresas. • PCX: PCX (de PiCture eXchange) es un formato de imagen digital que usa la forma simple de la codificación run-length (un tipo de compresión sin pérdidas). • PCX fue desarrollado por ZSoft Corporation en Marietta, Georgia (Estados Unidos). Fue el formato nativo del programa PC Paintbrush, uno de los primeros programas de gráficos populares que funcionaban bajo DOS en los primeros PCs. Su popularidad también se debe a que era uno de los formatos utilizados por el Deluxe Paint, junto con el ILBM. La mayoría de los archivos PCX usan una paleta de color indexada, pero el formato fue ampliado para permitir imágenes de 24 bits. PCX fue bastante popular en sistemas bajo DOS o Windows, pero actualmente es poco común, siendo en buena parte reemplazado por formatos con mejor compresión y prestaciones, como el PNG o el JPEG. • PICT: se utiliza en aplicaciones de gráficos y de diseño de páginas de Mac OS; un RGB PICT puede elegir una resolución de 16 o 32 bits por píxel. • SCITEX CT: se utiliza para el procesamiento de imágenes de alta resolución de escáner y sistemas Scitex; uso profesional en publicidad. • TGA: formato Targa para sistemas que utilizan la placa de vídeo Truevision® usado en algunos videojuegos. PROCESADO DE IMÁGENES PARA PREIMPRESIÓN. Guardar una copia de la imagen (no tocar original) Renombrar según orden de pliego, página, maqueta… Ajustar tamaño de imagen (dimensiones físicas y/o recortes) Ajustar resolución (según modo de imagen y lineatura) Información con densitómetro de valores tonales y cromáticos Ajustar tono (brillo/contraste, curvas según valores impresión) 325
326
TEMA 5B: TRAMADO Concepto de tramado 331 Características de la trama 332 Lineatura de trama 332 Lineaturas según soporte 333 Ángulo de trama 334 Ángulos de trama en cuatricromía 334 Efecto moiré 335 Técnicas de tramado 335 Técnicas fotográficas 337 Generación electrónica de punto EDG 338 Tipos de tramado 339 Nuevas tecnologías de tramado: Esko Concentric Screening 339 Medición y control de calidad del tramado 341 Síntesis aditiva RGB 343 Síntesis substractiva CMY 344 Diagrama CIE 346 CIE XYZ 348 Visión del color 349 Separación fotográfica del color 351 Necesidad de la corrección del color 352 Necesidad de la cuatricromía 352 Equilibrio de grises 352 Reducción del color: GCR y UCR 354 Ganancia / Afinamiento de punto 357 Color directo 358 Hexacromía 358 327
Gesti贸n del color
359
328
329
330
CONCEPTO DE TRAMADO • Imagen de tono continuo Un original de tono continuo está formado por una número de variable de tonos intermedios entre blanco y negro ya sean imágenes monocromáticas o policromáticas. Desde un punto de vista práctica originales de tono continuo pueden ser dibujos, fotografías en blanco y negro, fotografías en color sobre papel y transparencias. En offset, tipografía, así como en los procedimientos más modernos de impresión digital, es imposible reproducir tonos intermedios entre el blanco y el negro porque la tinta forma una película de grosor uniforme en el soporte. Es preciso, por tanto, descomponer dichos originales en imágenes de línea mediante un tramado de puntos, imperceptible a primera vista, que puedan ser impresos con una densidad de tinta única. Esta descomposición se obtiene mediante la colocación de una retícula transparente sobre el material fotosensible. La luz reflejada por el original impresiona el material fotográfico después de atravesar la trama y forma sobre la emulsión un serie de puntos cuyo diámetro varía segun la intensidad de luz recibida. Lineatura es la cantidad de líneas por unidad de medida, generalmente pulgadas, que tiene una trama y es el factor esencial para determinar la calidad de la reproducción. La lineatura depende de la calidad del original, los procedimientos de impresión y el papel; una lineatura baja permite imprimir sobre papeles de mala calidad.
La base de la emulsión está constituida por acetato, poliester [casi un 90 %] y vidrio. No puede garantizarse la estabilidad dimensional del acetato. La suspensión que forma la emulsión está formada por Halocenuros de plata, gelatina y agua. Las emulsiones fotográficas se dividen en ortocromáticas y pancromáticas según sea su sensibilidad al espectro luminoso. La película orotocromática no es sensible a la parte roja del espectro lo que facilita su manejo en estancias iluminadas con luz roja. Es habitualmente usado en la fotografía en blanco y negro y en los procesos fotomecanicos tradicionales. • Imagen tramada El tramado es una técnica usada en computación gráfica para crear la ilusión de profundidad de color 331
en imágenes con una paleta de colores limitada (reducción de color). En una imagen tramada, los colores no disponibles en la paleta se aproximan por una difusión de píxeles de color dentro de la gama de colores disponibles. El ojo humano percibe la difusión como una mezcla de los colores dentro de ésta (ver percepción del color). El tramado es análoga a la técnica denominada semitonos utilizada en impresión. Las imágenes tramadas, en particular las que tienen relativamente pocos colores, a menudo se distinguen por un grado de granulosidad característico o por un aspecto moteado. CARACTERÍSTICAS DE LA TRAMA • Porcentaje de punto ✏✏ Representa el grado de gris o el tonal • Lineatura de trama ✏✏ Determina la calidad de la imagen (nitidez y gama tonal-) ✏✏ Lineaturas altas (más calidad pero impresión más compleja) • Ángulo de trama ✏✏ Disimula el punto ✏✏ Evita el efecto moiré • Forma del punto ✏✏ Repercute en la nitidez de la imagen y en la transición tonal. • Técnicas de tramado ✏✏ Fotográfico, electrónico, digital y tramado FM. LINEATURA DE TRAMA Tramar una imagen consiste en convertir una imagen en una serie de puntos. Aunque las imágenes estén reproducidas en puntos, estos son tan pequeños que el ojo humano es incapaz de percibirlos, consiguiendo la ilusión de que las imágenes están impresas, como las originales, en tonos continuos. Hay dos formas de lograr semitonos mediante tramas. • Las tramas de semitonos tradicionales, también llamadas de Amplitud Modulada (AM), utilizan el tamaño del punto para reproducir los semitonos. Los puntos más pequeños simulan los tonos más claros y a medida que el punto va aumentado se van generando las zonas más oscuras, o de sombras. El tramado tradicional logra el efecto de los semitonos mediante el tamaño de puntos.
• En el tramado estocástico, o de Frecuencia Modulada (FM), el tamaño de los puntos es siempre el mismo, en este caso se utiliza la frecuencia, el número, de puntos para generar el efecto de los tonos. Las zonas más oscuras tienen una mayor cantidad de punto que las zonas de tonos claros. 332
En el tramado por frecuencia los semitonos no se logran aumentando el tamaño de los puntos, sino su cantidad.
Existe una tercera forma de generar semitonos que consiste en combinar el tramado tradicional con el estocástico en una misma imagen. Esta forma, que recibe el nombre de tramado híbrido, aprovecha las ventajas del tramado tradicional en los medios tonos debido a que genera menor ganancia de punto que el tramado FM, y las ventajas del tramado escolástico capaz de reproducir mejor las zonas de luces y sombras de las imágenes. La calidad de las imágenes tramadas viene determinada por lo que conocemos como lineatura de trama. La lineatura de trama, expresada en líneas por pulgada (lpp) y a veces también en líneas por centímetro, hace referencia al tamaño de las celdillas donde van situados los puntos de semitono. Cuanto menor es la lineatura de trama, mayor es el punto de semitono y, en consecuencia, la imagen se verá con menos detalles. Por el contrario, en imágenes con una lineatura de trama alta los detalles serán más finos. La lineatura de trama puede ir de 65 a 200 lpp dependiendo del método de impresión, y del papel que vayamos a utilizar. En impresión offset la lineatura de trama puede alcanzar un rango que va de los 65 a los 200 lpp. En huecograbado trabajaremos con una lineatura de trama que va de las 120 a las 200 lpp. Para serigrafía podemos utilizar una lineatura de trama que va de los 50 a los 100 lpp.Y para flexografía de de 90 a 150 lpp. En cuanto al papel. El papel prensa se imprime en una lpp que va de 65 a 100. El papel offset no estucado tiene un rango de lpp de 100 a 150. Y el papel estucado va de las 150 lpp hasta las 200 lpp que alcanza la impresión en el estucado brillo. LINEATURAS SEGÚN SOPORTE Esta tabla es orientativa, y no especifica exactamente la lineatura exacta para cada trabajo, en relación con las demás variantes, pero ofrece un rango, entre el que nos podemos mover. Los resultados también dependen de los procesos de obtención de la formas impresora (si están bien ajustadas la máquinas, líquidos, etc.) y de la máquina de impresión en sí. Así que la experiencia es la que realmente nos va a decir que lineatura usar en cada momento, pero hay que tomar ciertas referencias y criterios para tener por donde empezar. es cierto que cada empresa es un mundo. y hay sitios en los que ni si quiera se contempla la posibilidad de tomar diferentes lineatiras según para que trabajos y soporte, para el sistema de impresión si se suele tener en cuenta en la mayoría de fotomecánicas. Pero lo normal es que solo se tome esto en cuenta, y para cada sistema de impresión se opte por la mayor lineatura posible, cayendo en el error de creer que los resultado serán mejores. • Serigrafía 50−100lpp • Flexografía 90−120lpp • Huecograbado 120−200lpp 333
ÁNGULO DE TRAMA En tramas ordenadas, la sucesión ordenada de los elementos que componen la trama establecen un ángulo con respecto a la mirada del observador. Las que se situan en línea con ésta (cero grados) son las más evidentes a la vista. Las que siguen el ángulo más dispar posible (45 grados), son las menos visibles. Las tramas de puntos no deben estar dispuestas de cualquier manera. Desde el punto de vista de la trama, los cuatro semitonos son iguales en todo salvo una cosa: el ángulo de la trama. Ese era y es un detalle esencial de la cuatricromía. Ejemplo de cómo se superponen las tramas de cuatricromía en ángulos diferentes. Los ángulos habituales para las cuatro tramas de cuatricromía.
Ya hemos visto que el ángulo de la trama menos molesto o evidente para el ojo humano es el de 45º. Ese es el ángulo que tradicionalmente se asigna a la tinta más oscura (más evidente), que es obviamente la negra. La tinta más clara (amarilla) recibe el ángulo donde el patrón es más obvio al ojo humano. Las dos restantes se reparten el espacio restante de la forma más espaciada posible: Magenta a 75º y cian a 15º. Problemas con los ángulos: Las tramas ordenadas se forman en realidad superponiendo dos tramas. Una es la trama de puntos de impresora y otra es la trama de puntos que forman cada semitono (cada uno de cuyos puntos está formado por varios puntos de la primera trama). Debido a esa superposición, no es posible formar tramas en cualquier ángulo que se quiera. Hay posiciones en lineaturas determinadas en las que los puntos de impresora necesarios que no están disponibles por una simple imposibilidad geométrica. ÁNGULOS DE TRAMA EN CUATRICROMÍA En tramas ordenadas, la sucesión ordenada de los elementos que componen la trama establecen un ángulo con respecto a la mirada del observador. Las que se situan en línea con ésta (cero grados) son las más evidentes a la vista. Las que siguen el ángulo más dispar posible (45 grados), son las menos visibles. Las tramas de puntos no deben estar dispuestas de cualquier manera. Desde el punto de vista de la trama, los cuatro semitonos son iguales en todo salvo una cosa: el ángulo de la trama. Ese era y es un detalle esencial de la cuatricromía. Ya hemos visto que el ángulo de la trama menos molesto o evidente para el ojo humano es el de 45º. Ese es el ángulo que tradicionalmente se asigna a la tinta más oscura (más evidente), que es obviamente la negra. La tinta más clara (amarilla) recibe el ángulo donde el patrón es más obvio al ojo humano. Las dos 334
restantes se reparten el espacio restante de la forma más espaciada posible: Magenta a 75º y cian a 15º. Problemas con los ángulos: Las tramas ordenadas se forman en realidad superponiendo dos tramas. Una es la trama de puntos de impresora y otra es la trama de puntos que forman cada semitono (cada uno de cuyos puntos está formado por varios puntos de la primera trama). Debido a esa superposición, no es posible formar tramas en cualquier ángulo que se quiera. Hay posiciones en lineaturas determinadas en las que los puntos de impresora necesarios que no están disponibles por una simple imposibilidad geométrica. Para solucionar ese problema se usan algunas técnicas avanzadas como las tramas irracionales (irrational screening) y las superceldas (supercells, que describiré más adelante cuando lo tenga un poco más preparado, lo siento). EFECTO MOIRÉ Es un patrón de interferencia que se forma cuando se superponen dos rejillas de líneas con un cierto ángulo, o cuando tales rejillas tienen tamaños ligeramente diferentes. Un patrón de Moiré, formado por dos conjuntos de líneas paralelas, un conjunto inclinado en un ángulo de 5 grados respecto al otro. El dibujo muestra un patrón de Moiré típico. Las líneas pueden ser las fibras textiles en una tela de seda de muaré (las que le dan su nombre al efecto), o bien simples líneas en una pantalla de ordenador, el efecto se presenta igualmente en ambos casos. El sistema visual humano crea la ilusión de bandas oscuras y claras horizontales, que se superponen a las líneas finas que en realidad son las que forman el trazo. Patrones de muaré más complejos pueden formarse igualmente al superponer figuras complejas hechas de líneas curvas y entrelazadas. El término proviene del francés moiré, un tipo particular de textil en seda y que posee una apariencia ondeante o fluctuante, gracias a los patrones de interferencia formados por la estructura misma del tejido. Los patrones de muaré pueden llegar a ser considerados artefactos en el contexto de los gráficos por computadora y la infografía, pues pueden incluirse durante el proceso de captura de una imagen digital (por ejemplo, durante el escaneo de una imagen con detalles muy finos) o producirse durante la generación de una imagen sintética en 3D.También en el cómic japonés o manga cuando dos tramas de diferente gramaje o tamaño se superponen producen error en la impresión y se ve como una especie de cuadrícula. Para evitar esto se debe trabajar en una sola capa de tramas digitales o un buen entramado manual. Los patrones de Moiré también pueden ser útiles en el contexto del estudio de la fatiga de materiales. Una rejilla tomada sobre un material intacto puede sobreponerse a una rejilla obtenida del mismo material bajo esfuerzos, y gracias a los patrones de muaré los cambios diminutos en el material pueden hacerse aparentes, ya que el patrón de muaré es mucho más ostensible que las diferencias elásticas del material TÉCNICAS DE TRAMADO • Tecnicas de tramado fotográfico: El tramado es una técnica basada en “ computación gráfica” para crear la ilusión de profundidad de color en imágenes con una paleta de colores limitada ( reducción de color ) 335
En una imagen de trama, los colores que no hay en la paleta se aproximan mediante una difusión de pixeles de color dentro de las que estan disponibles en dicha gama. Esa difusión es percibida por el ojo humano como una mezcla de los colores dentro de esta. Las imagenes tramadas que poseen pocos colores, es distinguible por un grado de granulosidad de aspecto moteado. Como abrir un punto de trama a una imagen de linea o de medio tono por medio de photoshop. • Tramado digital: El tramado antes se realizaba de manera conveccional, interponiendo una trama sobre la imagen original y el material sensible. Ahora se realiza mediante el tramado digital.Con los periféricos de salida (impesora, filmadora) podemos tramar la imagen. Hay que tener en cuenta la resolución y la lineatura de salida; y asi, con estos parámetros controlar la calidad del trabajo. La “resolución de salida” es la cantidad de puntos que se pueden poner en una pulgada, a mayor resolución, mayor sera la cantidad de puntos. Las comunes son: 1200, 2540, 3600 y 4000 pix/pulgada. La “lineatura de salida” es el número de puntos por unidad de longitud (pulgadas o cm). Las lineaturas mas comunes son: 50, 65, 80, 100, 120, 133, 150, 175 y 200 lineas/pulgada. Dentro del tramado digital hay otro concepto que es el “Angulo de trama”, que se aplica a todos los colores de la cuatricomía: Cian (15º ó 135º), Magenta (75º ó 165º), Amarillo (0º ó 90º) y Negro (45º ó 135º). Con dos colores se utilizan las inclinaciones del Negro y el Magenta y con tres Negro,Cian y magenta. El Amarillo no se usa por que su angulo simpre da moiré. Los angulos se utilizan para evitar el empastamiento de los puntos en la selección de color, creando asi el efecto “Roseta de color”, perceptible en los carteles del metros. • Tramado electrónico o EDG Con la 3ª generación de escaners de tambor, aparece el punto electrónico o EDG (Electronic Dot Generation), este sistema permitía realizar tramados con calidad y fiabilidad, y de almacenar la configuración de las tramas para repetir trabajos. Este sistema elevó la calidad y producción de las imágenes tramadas. Partes principales de la unidad de exposición del escaner: ✏✏ Generador laser. ✏✏ Sistema de espejos. ✏✏ Unidad de modulación. ✏✏ Ordenador (calculo de trama, lineatura, forma y ángulo) ✏✏ Fibras opticas. ✏✏ Cabezal de exposición. ✏✏ Cilindro de exposición. • Tramado de frecuencia modulada (FM): Aparece a mediados de los 90, se basa en la utilización de los puntos que aparecen en las filmadoras de forma aleatoria, de manera que para dar sensación de tono aumentan el numero de los puntos. Esta técnica es utilizada en la mayoría de las impresoras de inyección. Las imágenes tramadas con este sistema reciben el nombre de “Calidad fotográfica”, ya que desaparece la lineatura, el ángulo de trama, rosetas, etc… ✏✏ Ventajas del tramado FM: ♦♦ Mayor finura de detalleS ♦♦ Colores mas brillantes y saturados. ♦♦ Ausencia de estructuras de roseta. ♦♦ Ausencia de ángulos de trama. ♦♦ Ausrencia de moiré. ♦♦ Mayor resolución de degradados. ♦♦ Mejora de la calidad de salida en impresoras laser y erosión. ♦♦ Mayor calidad con papel ordinario. ♦♦ Mayor facilidad en la producción de fotolitos para impresión multicolor. 336
✏
Desventajas del tramado FM: ♦ La producción litográfica requiere un mayor esfuerzo, y es por consiguiente mas cara. ♦ La producción de pruebas no es posible con todos los sistemas de obtención de pruebas. ♦ No es posible el retocado químico. ♦ Las superficies claras de la imagen aparecen granuladas, debido a la irregular distibución de los pixeles. ♦ Con bajas resoluciones de salida, los tipos, elementos gráficos y bordes, muestran perdiddas de finura y una transición mas lentaS ♦ Hay problemas en la realización de la plancha con la transformación de un tamaño de mancha de 15 a 20 micras. ♦ Se precisan mas caras durante la exposición. ♦ Se requiere mas tinta cuando se sobre-tinta la prensa.
tÉCNICaS FOtOGRÁFICaS
Es interesante conocer el funcionamiento de una trama de contacto, a pesar de que hoy por hoy, apenas es utilizada esta técnica de tramado, ha sido la técnica más utilizada durante años y es la base de algunos procedimientos actuales. Para ser posible el tramado de originales de tono continuo mediante trama de contacto hay que tener en cuenta dos elementos principales: • El original refleja la luz en diferentes proporciones según sea área de luces, medios tonos o sombras. • La estructura del punto de trama en la trama de contacto, es un punto cuyos perfiles están difuminados o degradados y cuanto más se aproxima al centro el punto va alcanzando más densidad. Teniendo en cuenta estos aspectos y mediante este gráfico podemos comprender el proceso. En primer
337
lugar las distintas áreas del original, reflejan la luz de diferente forma, así las luces (áreas más claras del original) reflejarán la mayor cantidad de luz que les llegue, mientras que a medida que el tono va siendo más oscuro, la cantidad de luz reflejada va siendo menor. Esta luz reflejada atraviesa la trama de contacto, generando sobre la película fotográfica negativa puntos de diferente tamaño: puntos grandes (en las áreas que reflejan mayor cantidad de luz) y puntos más pequeños (en las área que reflejan menor cantidad de luz), la trama de contacto actúa como filtro, permitiendo que la luz atraviese los “huecos” existentes entre sus puntos o en el caso de mucha cantidad de luz todo el punto excepto el centro (lo que genera puntos blancos al no ser afectada la emulsión en dichas áreas). Una vez realizada la primera exposición el resultado obtenido será una imagen descompuesta en puntos del original, pero invertida. El proceso finaliza realizando un contacto y obteniendo una copia positiva del original, pero con puntos de trama simulando sus tonos. Este procedimiento de tramado, requería una alta especialización y conocimientos fotomecánicos, para obtener gamas tonales adecuadas al original y en su caso realizar las correcciones tonales requeridas.Todo esto se complicaba enormemente al realizar las separaciones de color. Los procedimientos fotomecánicos y su problemática, se vieron solucionados en parte con la aparición del tramado electrónico, que vemos a continuación. GENERACIÓN ELECTRÓNICA DE PUNTO EDG La secuencia de trabajo tiene las siguientes fases de trabajo: • Descomposición del láser en 6 ó 12 rayos de luz de la misma intensidad. • Modulación de los rayos (definición de las área imagen y no imagen) • Generación de los ajuste de tramado (porcentaje, forma, lineatura y ángulo) • Envío de los rayos de luz ajustados y modulados a través de los cables de fibra óptica al cabezal de exposición. • Proyección de los rayos de luz sobre la película por medio del objetivo. En la imagen anterior se puede apreciar los puntos generados por la unidad de exposición de un escáner de tambor, empleando 6 y 12 modu-
338
ladores. Se obtiene cada punto de trama mediante dos revoluciones del tambor de exposición. En la imagen siguiente podemos observar a la izquierda un punto de trama del 30 % a 1270 puntos por pulgada y a la derecha el mismo punto del 30 % a 600 puntos por pulgada. De tal forma que la resolución afecta tanto a la nitidez del perfil del punto, como al número de valores tonales que podemos generar. Los diferentes valores tonales se consiguen generando puntos de imagen (dpi) en una o varias celdas.
TIPOS DE TRAMADO
Cuando imprimimos un porcentaje de tinta sobre una superficie, lo que hacemos es machar con pequeños puntos de tinta una cantidad equivalente de superficie. Así, por ejemplo, si queremos imprimir un 50% de negro (lo que el ojo ve como un "gris medio"), lo que hacemos es imprimir puntos de tinta hasta ocupar el 50% de la superficie procurando que no se toquen. En la actualidad hay tres tipos de trama principales: • Tramas estocásticas, aleatorias o de "frecuencia modulada (FM)". • Tramas ordenadas o de "amplitud modulada" (AM). • Tramas híbridas (un cruce de las dos anteriores) La diferencia principal entre las tramas ordenadas tradicionales y las estocásticas es cómo se distribuyen esos puntos. En las tramas ordenadas (típicas del lenguaje PostScript), los puntos se distribuyen en filas ordenadas, manteniendo siempre una distancia fija entre si. Cuando se quiere disminuir el porcentaje de tinta, lo que se hace es reducir el tamaño de cada punto. Pero la distancia entre los puntos no se varía. NUEVAS TECNOLOGÍAS DE TRAMADO: ESKO CONCENTRIC SCREENING
339
La Trama Concentric es una revolucionaria y probada tecnología de punto de medio tono, para la impresión en offset. Divide el punto redondo convencional, en finos anillos concéntricos. Esto significa: • Mayor pureza de color • Gama de colores más amplia • Mayor estabilidad en la prensa • Ahorro de tinta • Lineaturas de trama más elevadas • Imágenes más nítidas (más detalle) • Tonos y degradados más suaves Vista lateral: tinta sobre la plancha offset El grosor de la película de tinta sobre la plancha offset, es proporcional al tamaño del elemento. Los grandes puntos de trama tienen una gruesa película de tinta. Los finos anillos de los puntos Concentric (abajo) tienen una película delgada. Puesto que el grosor de la película de tinta está limitado por la anchura del anillo, las Tramas Concentric aumentan la estabilidad en la prensa, proporcionan colores más limpios, y reducen el consumo de tinta - más de un 15%, como promedio. • La trama Concentric divide los pintos en anillos • Los anillos limiten el grosor de la película de tinta • Saturación cromática
340
MEDICIÓN Y CONTROL DE CALIDAD DEL TRAMADO Aunque el objetivo del proceso de impresión es lograr valores de color en coordenadas CIELab para las tintas impresas cyan (c), magenta (m), amarillo(y), negro (k) y las sobreimpresiones de dichos colores, azul (c+m), rojo (m+y), verde (c+y) y negro (c+m+y), lo que asegura la reproducción de la prueba de contrato, lo que puede ajustar el operario en la máquina de impresión para controlar el color, es la cantidad de tinta aplicada. Por supuesto, adicionalmente ajusta presiones para controlar el tamaño y forma del punto de trama y la cantidad de solución de fuente para alcanzar y mantener el equilibrio agua-tinta. ¿Cómo asegurar entonces los valores objetivo de las tintas impresas en coordenadas CIELab a partir del ajuste de estos parámetros? Las variables que afectan el proceso de impresión se pueden resumir en la siguiente tabla:
La cantidad de tinta o espesor de la capa de tinta aplicada sobre un sustrato, se mide a través de la “densidad óptica D”, magnitud que expresa la cantidad de luz en porcentaje reflejada por el sustrato, al hacer incidir un haz de luz sobre su superficie. Entre menor es el espesor de la capa de tinta, mayor es el porcentaje de luz reflejado y menor será el valor de densidad. El instrumento de medición que se utiliza para medir la densidad se denomina densitómetro y consiste básicamente en una fuente de luz que pasa a través de lentes y filtros, incide sobre la superficie a medir y en un receptor que recoge la luz reflejada o transmitida y la convierte en un valor numérico que es emitido por una pantalla. Hay dos tipos de densitómetros: de reflexión (utilizado para superficies opacas) y de transmisión (utilizado para superficies transparentes). La medición se realiza sobre elementos que contienen parches individuales sólidos ó campos de tono lleno y porcentajes de trama de cada uno de los colores y de las sobreimpresiones, llamados “tiras de control”. Las tiras de control contienen también elementos que permiten evaluar visualmente los defectos de impresión como corrimiento o doble impresión. El tamaño del punto de trama, se mide a través del porcentaje de trama o porcentaje de punto, que representa la relación entre el área cubierta por tinta y el área no cubierta por tinta. La diferencia entre el porcentaje de trama medido en el impreso y el porcentaje de trama en el archivo (que debe coincidir con
341
el valor de la plancha) se denomina ganancia de punto. La ganancia de punto es mayor en los medios tonos (50%) que en los cuartos de tono (25%) y en los tres cuartos de tono (75%). En una curva de ganancia de punto se representa el valor de ganancia de punto en el eje Y, para cada porcentaje de trama nominal en el eje X, de la siguiente manera: La ganancia de punto depende del tipo de papel o sustrato, de la lineatura o frecuencia de trama y del tipo de plancha (positiva o negativa). Es preciso establecer para cada máquina las curvas de ganancia para cada unidad y color de tinta, en cada tipo de papel, en cada una de las lineaturas utilizadas. La norma ISO 12647-2 establece los valores de ganancia de punto en el parche de control del 50%, para cinco tipos de papel (recubiertos brillante y mate, recubierto bajo gramaje en bobina para impresión en rotativa y no recubiertos blanco y amarillento ), para lineaturas de132 lpi, 152 lpi y 177 lpi, y para planchas positivas y negativas. El principal efecto de una excesiva ganancia de punto en alguno de los colores es el desequilibrio de grises.
Para que exista equilibrio o balance de grises, es necesario que las curvas de ganancia de punto para los colores C, M, Y se encuentren muy cerca. La diferencia máxima entre las ganancias de punto para los colores C, M,Y, se denomina dispersión de tono; la norma ISO 12647-2 establece que no debe exceder el 4% en los medios tonos, el 3% en los tres cuartos de tono y nunca superar el 5%. También presenta en el Anexo C la composición de los tres colores con la que se debería alcanzar el equilibrio de grises en cuartos de tono, medios tonos y tres cuartos de tono.
El contraste K mide el detalle en las sombras; la diferencia entre las densidades en el tono lleno impreso y en el 75% u 80%, con relación a la densidad del tono lleno: K% =[( DV – DR) / DV] X 100 Cuando DR tiende a ser igual a DV, es decir cuando las tramas “se tapan” por excesiva ganancia de punto, el contraste tiende a ser cero. 342
DV y DR nunca serán muy diferentes pues DR se mide en los tres cuartos de tono o en el 80%; por esta razón los máximos valores de contraste estarán alrededor del 45%. El trapping mide la aceptación de tinta, o qué tan bien se comporta una tinta sobre la otra. Se mide en las sobreimpresiones (C+Y), (M+Y) y (M+C). El trapping de ve afectado principalmente por el exceso de agua en la tinta, que afecta su valor de tack (medida de la “pegajosidad”). Un buen valor de trapping se encuentra alrededor o por encima del 80%. Las variables deben estar bajo control, más una máquina controlada mecánicamente generara resultados que pueden ser reproducidos en el tiempo
SÍNTESIS ADITIVA RGB Mezclar colores de manera aditiva supone combinar determinada cantidad de luz roja, verde y azul (RGB) con el fin de crear nuevos colores. Si mezclamos las tres fuentes luminosas en su máxima intensidad, el ojo percibirá el color resultante como blanco. A una menor intensidad, la combinación de los tres colores primarios provocará que el ojo perciba un gris neutro. Si se apagan las tres fuentes de luz, el ojo percibirá el color negro. Si mezclamos dos colores en su máxima intensidad, sin la presencia del tercero, ro, conseguiremos los res ultados siguientes: rojo + verde = amarillo; azul+ verde = cian; y rojo+ azul= magenta. Si tomamos un monitor como ejemplo de uso del sistema RGB, veremos que su pantalla está compuesta por múltiples grupos de diminutas fuentes de luz de los tres colores, llamadas píxeles. Mediante la mezcla de estas fuentes de luz de colores primarios en distintas combinaciones y a distintas intensidades, el monitor es capaz de recrear la inmensa mayoría de los colores que puede percibir el ojo humano. La mezcla aditiva de color se utiliza en todos los dispositivos que reproducen los colores mediante luz, como monitores de ordenador, tele343
visores y proyectores de vídeo, pero también en aparatos que capturan la luz, como cámaras digitales 0 escáneres. l.a pantalla de un monitor está compuesta de una gran cantidad de píxeles. Cada pixel consta de tres diminutas fuentes luminosas: roja , verde y azul. La muda de colores de estas tres fuentes de luz da a cadapixel su color. RGB es un modelo de color aditivo que se utiliza en las imágenes digitales y en los monitores de color. Los colores se defn1en claramente mediante valores que indican la combinación de los tres colores primarios. Por ejemplo, un rojo cálido y brillante se define como R = 255 G =o B =o. Cuando los tres colores primarios tienen un valor de 0, las tres fuentes de luz aparecen apagadas y dan como resultado el color negro. Cuando se asigna un va lor de 255 a los tres primarios, las tres fu entes de luz se hallan a su máxima intensidad, lo que da como resultado el color blanco. Los valores iguales que se encuentran entre o y 255, como R = 100 G = 100 B = 100, son percibidos por el ojo como un color gris. Con el sistema RGB se pueden generar 256x256x256 colores, es decir, aproximadamente 16,7 millones de combinaciones de colores. No obstante, es tono nos explica el modo en que el ojo percibe d color. En el sistema aditivo, la percepción real de un determinado valor cromático se ve determinada por el monitor o el escáner que se está utilizando. Por ello, un valor cromático determinado no se verá necesariamente igual en una máquina que en otra. Las imágenes en color que se vayan a imprimir deberán ser convertidas del sistema RGB al sistema CMYK. Se trata de un proceso avanzado que puede ejecutarse de diversas maneras y que afecta enormemente a cómo se reproducirán los colores de una imagen en la impresión. SÍNtESIS SUBStRaCtIVa CMY En impresión, los colores se crean mediante la mezcla de tres tintas de impresión de colores primarios: cian, magenta y amarillo (CMY: cyan, magenta, yellow, en inglés). Este sistema se denomina mezcla sustractiva de color porque la tinta filtra la luz blanca que incide sobre su superficie, "sustrayendo" o absorbiendo todos los colores del espectro excepto u no, el color que se desea que la tinta refleje. El color de la luz reflejada es tá determinado por las longitudes de onda de la luz blanca que determinada tinta absorbe. El cian, el magenta y el amarillo absorben, cada uno, dos tercios del espectro de la luz blanca y reflejan el tercio restante. Se ha optado por es tos colores para las tintas porque esa tercera parte que es reflejada está compuesta por alguno de los tres colores a los que son sensibles los conos de la retina: rojo, verde y azul. Una superficie magenta, por ejemplo, refleja los componentes rojo y azul de la luz blanca, mientras que absorbe el verde. La luz roja y azul combinadas producen el magenta y ello hace que esa superficie nos parezca magenta. De forma parecida, el amaril lo y el cian fi ltran un tercio de la luz cada uno, de modo que el amarillo re fleja el verde y el rojo y absorbe el azul, mientras que el cian refleja el verde y el azul y absorbe el rojo. Dado que tanto el cian como el magenta y el amarillo es tán compues tos de dos de los tres colores rojo, verde y azul, se dice que los colores CMY son colores 344
secundarios de los RGB. En la práctica, se emplea la tinta negra (K, blacK, en inglés) para complementar los otros tres colores, de donde proviene la abreviatura CMYK, que se emplea en producción gráfica para la impresión en cuatricromía y de la que trataremos más adelante. Una superficie sin imprimir refleja su propio color blanco, si el soporte es una hoja de papel blanco, por ejemplo-. En teoría, la mezcla en cantidades iguales de tinta cian, magenta y amarilla debería producir negro, puesto que las tintas absorben todas las longitudes de onda visibles de la luz y esta entonces se tra nsforma en energía calórica. Un ejemplo práctico de la transformación de luz en ca lor es cuando llevamos una camiseta negra en un día caluroso y soleado. La luz del sol que incide en la cam iseta se transformará en calor y lo que querremos es cambiárnosla rápidamente por una camiseta blanca que refleje la mayor parte de los rayos solares. En el sistema CMYK, o cuatricromía, los colores resultantes se indican por los porcentajes de las tintas CMYK que los componen. Por ejemplo, un rojo cálido y brillante podría ser C =0% M= 100% Y= 100% K = 0%. Si no imprimimos ningún color, obtendremos el blanco o el color del papel o soporte sobre el que se imprime. La cantidad de tinta puede variar desde un 0% (au sencia total de tinta) hasta un 100 % (cobertura sólida de tinta) en grandes áreas de una superficie impresa con la ayuda de una trama. No es recomendable ajustar el color basándonos en lo que vemos en el monitor, puesto que es prácticamente imposible lograr una coherencia de color entre el monitor y la impresión fina. En lugar de ello, es mejor utilizar guías de color con muestras impresas de colores predefinidos. Pueden adquirirse es tas guías impresas en diversidad de papeles, pero en ocasiones las imprentas pueden proporcionarnos sus propias muestras.
Las guías de color definen los colores en valores de cuatricromía. Si escogemos un tono de cuatricromía, podemos utilizar una guía general de color, pero dado que pueden variar las condiciones de impresión (el papel, la prensa, las tintas, etc.), el resultado puede no ser siempre exacto. Si queremos tener certeza absoluta acerca del color, deberemos trabajar con una guía de color elaborada específicamente por la misma imprenta que imprimirá nuestro producto. Aunque en teoría la mezcla a partes iguales de cian, magenta y a marillo debería generar negro, el ojo en rea lidad percibe un color marrón oscuro, sobre todo en el papel sin estucar. Esto ocurre porque las tintas no están fabricadas con un color exacto y no se adhieren 345
unas a otras a la perfección. Este es uno de los motivos por los que en impresión se añade la tinta negra a los tres colores básicos cian, magenta y amarillo. Otro motivo es que las tintas no filtran del todo su tercio del espectro de colores y, debido a ello, no se logra un tono gris neutro al sobreimprimir con tintas cian, magenta y amarillo en iguales proporciones. Al imprimir con un 50 % de cada color se produce un tono marrón rojizo. Para compensar esto, al generar un color gris neutro se aplica un valor menor de magenta y amarillo,es decir, C = 50% M= 40 % Y= 40 %. Otra de las razones para usar tinta negra deriva de que la mayor parte de los productos impresos incluyen textos en negro. Es más fácil imprimir texto con un solo color que hacerlo mediante una combinación de CMY, lo que exigiría un control sumamente preciso de las pasadas de imprenta para mantener el registro y garantizar su legibilidad. Al igual que ocurre con el sistema RGB, el sistema CMYK tampoco explica cómo el ojo percibe los colores. Una combinación determinada de CMYK también puede verse diferente en función de las tintas de impresión, del soporte y de la prensa utilizados. El gamut, o alcance de la gama de colores, de CMYK es mucho menor que el del sistema RGB, lo que obliga a prestar mucha atención a la correcta conversión de RGB a CMYK y a usar la separación en cuatro colores para lograr una impresión óptima. El ojo también nos puede engañar. Un color específico puede ser percibido de maneras diferentes en función del color junto al que se halle. Un mismo color puede ser visto como dos colores completamente distintos al colocarlo junto a zonas de diversa tonalidad. Este fenómeno se denomina efecto de contraste.También se da la circunstancia de que dos colores que se ven idénticos bajo una iluminación particular se vean completamente distintos en otras condiciones de luz. Por ejemplo, una superficie que percibimos como roja al ser iluminada por luz blanca podemos verla de color naranja al ubicarla bajo una luz amarilla. Por este motivo resulta importante estandarizar las condiciones de iluminación a la hora de examinar el color de fotografías, pruebas y material impreso. El color de la luz se suele expresar por su temperatura de color, formulada en Kelvin (K). La luz neutra tiene una temperatura de color de 5.000 K, que es equivalente al valor medio de la luz diurna natural y, por tanto, se emplea como referencia lumínica para la observación de imágenes, pruebas de impresión y material impreso. Una temperatura de color más elevada genera una luz más azulada, mientras que una más baja genera una luz más amarillenta. Existen diversas soluciones que permiten crear una iluminación neutral para examinar transparencias (diapositivas y negativos), copias fotográficas en papel, pruebas de imprenta y material impreso; hay, por ejemplo, mesas de luz o lámparas de sobremesa capaces de generar una luz con la temperatura de color adecuada. DIAGRAMA CIE El espacio de color CIE 1931, es el nombre de uno de los primeros espacios de color definidos matemáticamente. Fue establecido en 1931, por la Comission Internationale de l´Éclairage (CIE), basándose en una serie de experimentos realizados a finales de los años 1920 por W. David Wright y John Guild; sus resultados experimentales fueron incluidos en la especificación CIE RGB, del cual se derivó la especificación de 1931. Con él se definieron con precisión los tres colores primarios de la síntesis aditiva de color, a partir de los cuales pueden crearse todos los demás. 346
En este modelo, Y significa luminosidad; Z es aproximadamente igual al estímulo de azul (conos S), y X es una mezcla tendiente a la curva de sensibilidad del rojo (conos M y L). De esta manera, XYZ puede confundirse con las respuestas de los conos en RGB. Sin embargo, en el espacio de color CIE XYZ, los valores de triple estímulo no equivalen a las respuestas S, M y L del ojo humano, incluso teniendo en cuenta que X y Z son aproximadamente rojo y azul; realmente, deben verse como parámetros 'derivados' de los colores rojo, verde y azul. Debido a que el ojo humano tiene tres tipos de células receptoras de color, que se estimulan ante distintos rangos de longitud de onda, una carta completa de todos los colores visibles es realmente una figura tridimensional. De esta forma, el concepto de color puede ser dividido en dos partes: brillo y cromaticidad. Por ejemplo, el color blanco es un color brillante, mientras que el gris puede ser considerado como una forma menos brillante del mismo blanco. En otras palabras, la cromaticidad del blanco y el gris es equivalente, y lo que difiere es su luminosidad o brillo. El espacio CIE XYY fue deliberadamente diseñado, de tal manera que el parámetro Y es una medida del brillo o luminosidad de un color. La cromaticidad de un color se determina luego a través de dos parámetros derivados x y y, dos de los tres valores normalizados, en función de los tres valores X,Y y Z:
El espacio de color derivado, especificado por x, y y Y es conocido como el espacio de color CIExyY y es ampliamente usado para especificar colores en la práctica. Los valores del triestímulo X y Y pueden ser calculados de los valores de cromaticidad x y y, y el valor del triestímulo Y:
La figura de la derecha muestra el diagrama de cromaticidad relacionado. La frontera externa es el nicho espectral, cuyas longitudes de onda se muestran en nanómetros. Nótese que el diagrama de cromaticidad es una herramienta para especificar cómo el ojo humano experimentará la luz recibida de un determinado espectro. No puede especificar colores de objetos (o de tintas de impresión), debido a que el aspecto de un objeto depende además de la fuente de luz. Matemáticamente, x y y son coordenadas de proyección, y los colores del diagrama de cromaticidad forman parte de una región del plano de proyección. La carta de cromaticidad ilustra algunas propiedades interesantes del espacio de color CIE XYZ: La carta representa todas las cromaticidades visibles par una persona promedio. Estas se muestran en color, y esta región se conoce como la gama de la visión humana. La gama de todas las cromaticidades 347
visibles en la carta CIE es la figura en forma de herradura de caballo (o en forma de lengua) que se muestra coloreada. El nicho espectral corresponde a luz monocromática (con cada punto representando una tonalidad pura de una sola longitud de onda), con las longitudes de onda mostradas en nanómetros. El borde recto en la parte baja de la gama es conocida como la línea del púrpura. Estos colores, a pesar de que se encuentran al borde de la gama, no existen realmente en la luz monocromática. Los colores menos saturados aparecen en el interior del esquema, con el blanco hacia el centro. Si se escoge cualquier par de puntos de color en la carta cromática, todos los colores que aparezcan en línea recta entre los dos puntos pueden ser formados a través de la mezcla de estos dos colores. Esto conlleva a deducir que la gama de los colores debe ser de forma convexa. Todos los colores que pueden ser formados mezclando tres primarios pueden ser encontrados dentro del triángulo formado por los puntos iniciales en la carta de cromaticidad (y de la misma manera, para múltiples fuentes). Puede apreciarse que, a través de tres fuentes de color (primario) reales, es imposible cubrir en su totalidad la gama de la visión humana. Visto geométricamente, no existen tres puntos dentro de los cuales la gama formada por un triángulo incluya toda la gama posible; o visto de una forma más sencilla, la gama de la visión humana no es triangular. En la versión CIE Lab de este modelo, "L" representa la luminosidad, "a" oscila entre verde y rojo y "b" oscila entre azul y amarillo. CIE XYZ La CIE desarrolló el sistema de color XYZ o estándar. En la actualidad, este sistema se sigue usando como referencia para definir los colores que percibe el ojo humano y otros espacios de color. El modelo RGB se basa en colores primarios aditivos. Por el contrario, el CIE XYZ se basa en 3 primarios imaginarios con caracterización espectral (X,Y y Z), que son los que representan el color (ondas electromagnéticas). Éstos se combinan para formar todos los colores visibles por el “observador estándar”. Diagrama de cromaticidad del espacio de color The CIE 1931. La frontera curvada externa es el nicho espectral (o monocromático), con las longitudes de onda mostradas en nanómetros. Téngase en cuenta que esta imagen muestra los colores utilizando el modelo de color sRGB (posible en un monitor), y los colores por fuera de dicha gama no pueden ser reproducidos de forma adecuada. Incluso, es posible que dependiendo del espacio de color y la calibración de su propio monitor (o dispositivo de representación de imágenes), los colores sRGB tampoco pueden ser apropiadamente representados. Este modelo representa una aproximación utilizando los colores que pueden ser vistos en un monitor o en un televisor. El espacio de color CIE 1931, mostrado a través de los colores (de menos saturación y brillo) que pueden ser reproducidos a través de pigmentos, como aquellos utilizados en impresión. Los nombres de los colores se toman del sistema de color Munsell. 348
VISIÓN DEL COLOR La mayoría de las personas ve los objetos en colores. Esto involucra una serie de conceptos bastante complejos. El ojo tiene la capacidad de absorber determinadas longitudes de onda y rechazar algunas que el hombre no está capacitado biológicamente para recibirlas. La longitud de onda reflejada por la superficie de un objeto es captada por la retina e interpretada por el sistema nervioso central como un color determinado. Un objeto que tenga la capacidad de absorber todas las longitudes de onda que registra normalmente
la retina, sería absolutamente negro, tanto que no podríamos verlo. Si refleja o transmite sólo algunas de las longitudes de onda de la luz, veremos que tiene un color producto de la composición de los colores correspondientes a dichas longitudes de onda. Por lo tanto, el color de un cuerpo, es producto de la capacidad de absorción individual del material del cual está hecho. Para ver cualquier figura plana u objeto tridimensional, se necesita que estos impresionen la retina. Si el ojo se fija sobre un objeto, el mecanismo por el cual son captados su forma y color no es tan simple. Si observamos una objeto azul, se puede decir que este absorbe todas las longitudes de onda de la luz blanca o luz del sol, excepto la longitud de onda que corresponde al color azul, que es reflejada y “capturada” por la retina. El estímulo de luz que viene del mundo exterior es recibido por el sistema visual en la retina de nuestros ojos. En la retina existen minúsculas células visuales, llamadas fotorreceptoras o receptoras de luz, especializadas en detectar las longitudes de onda procedentes de nuestro entorno (15.000 por milímetro cuadrado).
Estas maravillosas células, recogen las diferentes partes del espectro de luz solar y las transforman en impulsos eléctricos, que son enviados al cerebro a través de los nervios ópticos, siendo éstos los encargados de crear la sensación de color. En la retina humana, existen 2 categorías principales de células fotorre349
ceptoras, encargadas de captar la luz, estas son: los bastones y los conos.
De noche o en condiciones de escasa luz, todos los objetos parecieran ser oscuros o negros, ya que cuando la intensidad de la luz es más bien baja, es más difícil para el ojo humano, discriminar los colores. Esta visión de la noche y la oscuridad o visión escotópica, está a cargo de los bastones. Éstos son tan sensibles que pierden la capacidad de emitir señales con la plena luz de día. No son sensibles al color, pero son mucho más sensibles que los conos a la intensidad luminosa, por lo que aportan a la visión del color aspectos como la saturación y el matiz. Por su parte, Kueppers además plantea que la misión de los bastoncillos es ajustar los procesos de corrección como adaptación y contraste simultáneo.
Los conos son los responsables de la luz diurna o en colores: la visión fotópica. Tienen una respuesta cuatro veces más rápida que los bastones, cuando son estimulados por la luz, lo cual los hace aptos para detectar cambios de movimiento veloces en los objetos. Confieren a la visión una mayor riqueza en detalles espaciales y temporales. La característica principal de los conos es su capacidad de captar el color. Pero no todos los colores pueden ser captados por todos los diferentes conos; la diversidad de colores, los matices dependen, en realidad, de la combinación de tres colores. Es decir, la percepción completa de todos los colores, se debe a la capacidad de los conos de captar tres regiones del espectro luminoso. Y esto se da, básicamente porque según la teoría de Young-Helmholtz, existen tres tipos de conos: los que responden a las longitudes de onda cercanas al color rojo, otros a las cercanas al verde y un tercero a las longitudes de onda próximas al azul. Según la longitud de onda que incida sobre la retina, se activan los conos en diferente grado. Si la luz es roja, los que se activarán serán el 100% de los conos que reaccionan ante el rojo. En cambio
350
si la luz es azul, se activarán el 100% de los conos que reaccionan ante el azul. Esta combinación será interpretada en el sistema nervioso como “el color azul”. Por lo tanto, los colores intermedios, con excepción de rojo, verde y azul, se perciben gracias al estímulo simultáneo de dos o más tipos de conos. La ceguera al color (daltonismo) es resultado de la falta de uno o más de los tres tipos de conos. Existe un umbral de excitación para el color2, en el cual si se aumenta de manera progresiva la luminosidad de un espectro de baja intensidad que aparece incoloro al ojo, llega un punto en donde los colores se empiezan a reconocer, apareciendo primero el amarillo, luego el verde, después el azul, y por último el rojo y el violeta. Los dos últimos son los que marcan la zona de visibilidad de los colores, ya que cuando la luminosidad del espectro se encuentra más arriba del rojo, se produce el infrarrojo, que no podemos ver debido probablemente a que los pigmentos de la retina son incapaces de absorber las radiaciones de la porción infrarroja del espectro, y es por ello que no puede producirse la visión de ese color. Debido a que el proceso de identificación de colores depende del cerebro y del sistema ocular de cada persona en concreto, podemos medir con toda exactitud la longitud de onda de un color determinado, pero el concepto del color producido por ella es totalmente relativo, dependiendo de la persona en sí. Dos personas diferentes pueden interpretar un color dado de forma diferente, y puede haber tantas interpretaciones de un color, como personas hay.
Vías visuales en el cerebro humano. La corriente ventral (púrpura) es importante en el reconocimiento de colores. También se muestra la corriente dorsal (verde). Se originan en una fuente común en la corteza visual. SEPaRaCIÓN FOtOGRÁFICa DEL COLOR En preimpresión e imprenta, la preparación del material fragmentando sus componentes de color en las pocas tintas (usualmente cuatro) con las que se imprimirá el trabajo. El proceso de producir las planchas se llama separación (dado que los colores que componen el trabajo se separan físicamente). En cuatricromía (el procedimiento más usual de impresión en color), esa fragmentación o separación 351
de colores implica distribuir los valores de color de cada zona por las cuatro planchas. Así, si un valor RGB original es 255/0/0 (o sea: Un rojo brillante) es muy posible que se distribuya en valores CMYK 0/100/100/0 o algo similar (es decir: nada de cian, nada de negro y máximo de magenta y amarillo). la impresión con otros sistemas de color simplemente implica mayor o menor número de planchas (o separaciones). La separación de colores se hace mediante procedimiento y algoritmos más complejos y sutiles que la mera translación de valores. Los dos más usuales (al menos en cuatricromía) son: UCR y CGR, cada uno con sus ventajas e inconvenientes y sus variantes propias. El uso de estos procedimientos se hace para reducir costes y complejidad al tiempo que se obtiene la mayor calidad posible. El ahorro de tintas, intentar eliminar problemas como el repinte o la falta de secado por exceso de tinta, la mejor definición de los detalles en las zonas de sombras, una mejor reproducción de los tonos suaves en las luces... Todos ellos son puntos a tener en cuenta al hacer una separación de colores. NECESIDAD DE LA CORRECCIÓN DE COLOR • Impurezas cromáticas de las tintas (error de tono y grisura) • Necesidad de la cuatricromía • Corregir dominantes del original • Compensación de color del soporte de impresión • Compensar ganancia / afinamiento de punto • Ajustar el equilibrio de grises • Igualar color en las imágenes de una misma página (a partir de originales con distinta gama tonal y cromática). NECESIDAD DE LA CUATRICROMÍA La sobreimpresión de cian, magenta y amarillo produce teóricamente el color negro, pero en realidad
se obtiene algo así como un marrón oscu ro. Por ese motivo añadimos la tinta negra. El origen de la K de CMYK es controvertido: unos dicen que proviene de la K de blacK (" negro", en inglés) y otros de key plate (nombre que se le dio en inglés a esa plancha adicional). EQUILIBRIO DE GRISES El color es una sensación que crea el cerebro.Y este es uno de los principales factores que influyen en el problema de medir el color con objetividad. Por numerosas razones, incluso siguiendo todos los estándares productivos, es posible llegar a resultados que no sean totalmente satisfactorios, sólo con que algún detalle no haya sido tenido en cuenta. En la determinación de un color existen muchos problemas técnicos. Por ejemplo: Vemos el color en un monitor con capacidad para reproducir más de 16 millones de matices, cuando un proceso de impre352
sión convencional apenas es capaz de crear unos pocos miles de tonos distinguibles. El balance o equilibrio de grises es el primer paso para un control del color, que puede realizarse desde la separación hasta la fase de impresión. El equilibrio de grises puede definirse como el método técnico para determinar que ningún componente cromático tiene predominancia sobre otros en el funcionamiento general de una síntesis o producción de color. En palabras vulgares, que no estamos usando algunos colores "aguados" y otros demasiado poderosos. Todos participan en su valor adecuado. Encontramos métodos para evaluar el balance de grises desde la calibración de los aparatos que trabajan con color, como los monitores o escáneres, hasta la fase de postimpresión. Desde el punto de vista de la teoría, un perfecto equilibrio de grises se hallará cuando la suma d iguales partes de una tríada cromática genere un color acromático perfecto o sin desviaciones de matiz. Es decir, cuando sumando partes iguales de cian, magenta y amarillo, por ejemplo, nos de un gris neutro. Ahora bien, en la imprenta, dado los errores tonales que de manera inevitable contienen las tintas, por transparencia y por la calidad de los pigmentos, el equilibrio de grises nunca se halla en partes totalmente iguales, pero sí similares. Diversos fabricantes crean sus propios equilibrios, y existen diversos estándares para medirlos. Un aspecto importante para conseguir los mejores resultados en impresión es que el equilibrio de grises especificado en la fase de separación de colores, y que afecta al escáner y al monitor, sea similar al de las tintas, o se hagan las modificaciones pertinentes. También puede haber problemas con las pruebas de preimpresión que se contraten para controlar los procesos de un trabajo. Porque pueden aceptarse resultados que después no sean posibles en impresión. De manera que todas las fases que participan en el control de color tienen que compensar sus respectivos balances de grises. • • • • •
Los principales factores que pueden alterar el equilibrio cromático son: Falta de calibración de los aparatos usados Falta de concordancia entre las calibraciones Ganancia de punto descontrolada Ganancia de punto desigual entre las tintas Efectos de sobreimpresión (tinta sobre tinta) mal o no considerados
353
• Tintas mal formuladas o con mucho error tonal • Tintas con mucho componente de gris • La mecánica del proceso de impresión, como un mal equilibrio agua tinta, etc. REDUCCIÓN DEL COLOR: GCR Y UCR • GCR En la impresión corriente en cuatricromía contamos con cuatro colores (CMYK) y cada uno de ellos, impreso como color pleno, alcanza un valor tonal del 100 %. Con cada uno de los colores al100 %, teóricamente, podríamos obtener una cobertura total de tinta del 400 % (por ejemplo, en una mancha de negro
354
consistente en un 100% de cian, un 100 % de magenta, un 100 % de amarillo y un 100% de negro), aunque esto es imposible de conseguir en la práctica De todas formas, no es deseable una cobertura del 400 %, ya que el exceso de tinta puede producir emborronamiento o, en la impresión digital que el tóner no se adhiera correctamente al papel. Uno de los parámetros más importantes en la separación de una imagen cuando esta se convierte de RGB a CMYK, consiste en limitar la cobertura total de tinta en las áreas más oscuras de la imagen. Esto es lo que se denomina UCR (Under Color Removal, "supresión del color subyacente"). Con ello se reducer en las zonas oscuras de la imagen, la cantidad de cian, magenta y amarillo, y se decide la cantidad de tinta negra. Si seleccionamos una cobertura máxima de tinta de 300 %, supondrá que ninguna parte de la imagen contendrá más de un 300 %de tinta al imprimirla.También pueden verse afectadas otras partes de la imagen por el uso que demos a la tinta negra en las zonas oscuras. Si una zona oscura contiene mucha tinta negra, se aplicará allí menos cantidad de cían, magenta y amarillo.Y lo mismo a la inversa. Según el tipo de papel y las técnicas de impresión, la cobertura total de tinta; suele oscilar entre un 240 % y un 340 %. En determinadas circunstancias, la cobertura máxima de tinta puede descender hasta un 150 %; por ejemplo, cuando imprime sobre metal, vidrio o plástico. Si pretendemos aplicar un barniz protector directamente en máquina, es posible que podamos aplicar más tinta al papel, ya que el tiempo de secado se verá reducido. Aunque con algunos tipos de papel puede ocurrir justamente lo contrario. Encontrar el límite de cobertura máxima de tinta en determinado proceso de impresión se aprende con la práctica. • UCR Si imprimimos los colores C, M y K con el balance de grises adecuado, obtendremos un tono gris neutro. Esta combinación de tintas puede sustituirse por tinta negra y el resultado será el mismo color gris. Hasta aquellos colores que no son gris neutro tienen un componente gris. Si tomamos, por ejemplo, una combinación de C 90 %, M 25% e Y 55 %, el componente gris de esta combinación será C 25 %, M 25 %,Y 25 %. Si sustituimos este componente gris por tinta negra (K 25 %) y lo mezclamos con los valores restantes de cian (C 65 %) y amarillo (Y 30 %), obtendremos, en teoría, el mismo color. Este tipo de sustitución se denomina GCR (Gray Component Replacement, "sustitución del componente gris"). Podemos variar el nivel de GCRde modo tal que sustituyamos con negro sólo parte del componente gris. En el ejemplo anterior, esto podría hacerse reemplazando una porción menor del componente gris, por ejemplo C 10 %, M 10 % e Y 10 %, y después mezclando la tinta negra (K 10 %) con las pa rtes restantes de cian, magenta y amar illo (C 50%, M 15 %, Y 45 %). Esto supone que en una imagen en color podemos usar tinta negra para sustituir el componente gris por completo o bien parcialmente en toda la imagen. En realidad, can tidades iguales de cian, magenta y amarillo no dan como resultado un tono gris neutro, pues el valor exacto del bala nce de grises puede variar en función del papel y de la técnica de impresión. Este valor constitu ye también la base para el componente de gris que será sustituido cuando trabajemos con GCR. El propósito de GCR es red ucir la cantidad de tinta utilizada sin alterar el color, lo que facilita lograr un equilibrio de grises co rrecto en la impresión y, por tanto, obtener una calidad de impresión uniforme. Las conversiones GCR también comportan menos problemas de emborronamiento en la prensa de im355
presión al reducirse la cantidad total de tinta en máquina. Por eso es conveniente convertir mediante GCR aquellas imágenes que sean particularmente sensibles a posibles cambios en el color. Un ejemplo de ello pueden ser las imágenes en negro de cuatricromía, es decir, aquellas que están impresas en blanco y negro mediante las cuatro tintas . Cuando sustituimos el negro por ot ros colores, los tonos más oscuros de la imagen pueden aparecer
mortecinos. Para evitar que suceda podemos añadir algo más de color a esas zonas oscuras. Este procedimiento se denomina UCA (Under color Addition, "adición de color subyacente"). Este ajuste no suele usarse demasiado a menudo puesto que el exceso de tinta en las zonas oscuras puede resultar contraproducente y dar como resultado lo opuesto a lo que se pretendía, ya que puede impedir lograr un color negro neutro al imprimir en máquina. 356
GANANCIA / AFINAMIENTO DE PUNTO La ganancia de punto es un fenómeno que consiste en el incremento de tamaño los puntos de la trama de semitonos dura nte el proceso de impresión. En la práctica, esto significa que una imagen cuya ganancia de punto no se ha ajustado aparecerá más oscura al imprimirla. Por consiguiente, para lograr una calidad de imagen óptima en la impresión deberemos compensar la ganancia de punto cuando convirtamos la imagen a CMYK. Para hacerlo, tendremos que averiguar cuál es la ganancia de punto para el papel y para el proceso de impresión concretos que vaya a utilizar nuestro impresor. El tamaño de los puntos de trama aumenta cuando son trasladados a la plancha de impresión, aunque esto sólo se produce en el caso de planchas y películas en negativo. Si utilizamos planchas y películas en positivo, ocurre lo contrario: disminuye el tamaño del punto (pérdida de punto). La ganancia de punto también se produce d ura nte la impresión, al transferirse la tinta desde la plancha al papel. Las características propias de los distintos papeles determinan la ganancia de punto y, por tanto, la conversión deberá realizarse en función de estos factores. Si una imagen se ha ajustado de manera errónea, por ejemplo, para
un papel estucado fino (con una ganancia de punto baja), cuando la imprimamos en papel prensa (con una ganancia de punto muy alta) la imagen quedará demasiado oscura. El proceso de impresión también afecta al grado de ganancia de punto. La impresión en rotativa offset, por ejemplo, se caracteriza por una mayor ganancia de punto que la impresión en el mismo tipo de papel mediante una máquina offset por hojas. Una lineatura de trama más densa siempre comporta una mayor ganancia de punto que una lineatura de trama menor, en el caso de que imprimamos mediante la misma técnica y sobre el mismo tipo de papel. La ganancia de punto se mide respecto a valores tonales de 40 % y 50%. Por ejemplo, un valor habitual de ganancia de punto está alrededor del 23 % en el caso de imprimir un 40 % de color, con una lineatura de 150 lpp y sobre papel estucado (con película negativa). La ganancia de punto se mide siempre en unidades absolutas de porcentaje. Si utilizamos el ejemplo anterior, esto significa que un 40 %de color en la película dará como resultado un 63 % de color en la impresión (40 % + 23 % = 63 %).
357
COLOR DIRECTO En artes gráficas, forma más bien imprecisa de referirse al color que se obtiene mediante el uso de una "tinta directa". Se trata de una tinta ya mezclada por el fabricante (o siguiendo sus indicaciones muy precisas) para producir un tono de color o un efecto de impresión muy determinado. Los colores directos se suelen describir y usar según los catálogos de unos pocos fabricantes internacionales (Pantone, de Letraset; Toyo; DIC; Trumatch…), pero nada impide a un pequeño impresor hacer sus mezclas de tintas personalizadas para fabricarse sus propas tintas directas y ofrecer así sus "colores directos". Pese a lo que cree mucha gente, los colores directos no se reproducen igual si se varía el papel o el sistema de impresión. Se pueden (y suelen) usar en porcentajes de trama además de cómo masas al 100%. Dentro del concepto de "colores directos" se incluyen tintas metálicas, fluorescentes y otras especialidades.
HEXACROMÍA
Hexacromía es una técnica de impresión litográfica offset, también conocida como sistema HiFi, en seis colores con la que se consigue una escala amplia de tonalidades. Cuando hacemos referencia a la cuatricomía, un término con el que estamos más familiarizados, hablamos de la gama de 4 colores utilizados para la impresión, siendo estos el Magenta, el Amarillo, el Cian y el Negro. Hexacromía es exactamente lo mismo con el añadido de dos colores, el Naranja y el Verde. Los sistemas de impresión intentan reproducir lo más fielmente el espectro de colores que visualiza el ser humano, y con la cuatricomia conseguimos mostrar un 70% de este espectro, mientras que con la hexacromia conseguimos reproducir el 90% La hexacromía en un sistema de impresión de alta calidad desarrollado por Pantone. La hexacromía 358
para la impresión de trabajos convencionales no es rentable por la diferencia de costes, ya que sólo en planchas supone un incremento del 50%. Además de ser necesaria una máquina de seis colores de la que no dispone cualquier imprenta. El sistema considera dos tintas especiales adicionales, software de diseño y un catálogo de color Pantone Hexachrome®. Este espacio de color permite obtener un mayor número de colores respecto al espacio de color de CMYK. Existen distintas combinaciones hoy en día: Cían, Magenta, Amarillo, Negro, Naranja y Verde; Cían, Magenta, Amarillo, Negro, Naranja y Violeta; Cían, Magenta, Amarillo, Negro, Cían Claro y Magenta Claro, posee el potencial para generar hasta 2 mil colores. Al aproximar los colores impresos a los colores de las pantallas RGB reduce la necesidad de combinar a la impresión de cuatricromía con colores directos. La impresión por hexacromía es capaz de reproducir más de un 90% de los colores directos del Pantone Matching System, comparado con el 50% mediante la impresión por cuatricromía. La Hexacromía se introdujo en el mercado en 1994, en 2004 la hexacromía solo participaba como plugin (PANTONE HexVector® y PANTONE HexImage) para los programas de diseño de Adobe, ya para el año 2008 y gracias a las dificultades para obtener licencias de uso de las patentes y registros de marca de Pantone estos problemas hicieron que Adobe dejara por fuera la hexacromía de sus programas de edición de imágenes e ilustración. En resumen la hexacromía es utilizada por los diseñadores para elegir colores previamente inalcanzables; usada por los impresores en el control de calidad del color. • Colores impresos sobre papel estucado y no estucado. • 14 colores por página. • Más de 2.000 simulaciones de color. • Colores ordenados en secuencia cromática. • Cada color es identificado con un número Hexachrome único. • Impresa utilizando trama estocástica de 2.400 ppp. GESTIÓN DEL COLOR Dentro de los sistemas de imagen digital, la Gestión del color es la conversión controlada entre las representaciones del color de varios dispositivos, como escáneres, monitores, pantallas de TV, filmadoras, impresoras offset y medios similares. El fin principal de la Gestión del color es obtener una buena correspondencia entre dispositivos en color; por ejemplo, un vídeo debería mostrar mismo color en un ordenador, en una pantalla de plasma y en un fotograma impreso. La Gestión del color ayuda a obtener la misma apariencia en todos estos dispositivos, suministrando a los dispositivos adecuados las necesarias intensidades de color. Esta tecnología se reparte entre el Sistema operativo, librerías de apoyo, la aplicación y los dispostivos. Una visión de la Gestión del color es la plataforma cruzada compatible con ICC. El Consorcio Internacional del Color (ICC) es una alianza industrial que definió un estándar abierto para un Módulo de Correspondencia del Color (Color Matching Module - CMM), a nivel de sistema operativo y un perfil de color para los dispositivos y un espacio de trabajo (espacio de color que el usuario edita). Hay otras aproximaciones a la Gestión del color usando perfiles ICC. Esto es debido en parte a su historia y también en parte a otras necesidades que engloba el estándar ICC. Las industrias del cine y la TV utilizan muchos de los mismos conceptos, pero a menudo confían en soluciones a medida. La industria del cine, por ejemplo, usa tablas de corresponcia para caracterizar el color. A nivel de consumidor, la Gestión del color se aplica en mayor medida a la fotografía que al vídeo, en el cual la gestión del color está todavía en pañales.. 359
360
361
tEMa 6
La COMPaGINaCIÓN Y La PUBLICaCIÓN DIGItaL
364
TEMA 6A: LA COMPAGINACIÓN Antecedentes históricos 369 Conceptos previos 369 Tecnologías de montaje de páginas 371 Orientación de página 375 Proporciones 375 Formatos de página DIN 377 Formatos para prensa 378 Otros formatos 379 Márgenes y determinación clásica de la mancha 379 Tipos de márgenes 385 Retículas 386 Páginas maestras en Adobe Indesign 387 Ejemplo de retículas 390 Rejilla base 392 Columnación 393 Elementos de página 393 Páginas a 1 columna 394 Páginas a 2 columnas 395 Páginas a 3 columnas 395 Páginas a 4 columnas 396 Páginas a 5 columnas 397 Páginas a 6 o más columnas 398 Identificación de elementos de páginas 398 Cabecear – Parangonar 400 Sangre 400 Encuentros 401 Recorridos 401 365
Planillo 402 Publicidad 404 Estilos grรกficos 406
366
367
368
ANTECENTES HISTÓRICOS La era de los periódicos modernos empieza a mediados del siglo XIX, con la Revolución industrial y el aumento de la capacidad de impresión y distribución. A través del tiempo, diferentes avances en tecnologías de impresión, diseño gráfico y patrones editoriales llevaron a cabo cambios y mejoras en el formato y legibilidad de los diarios. Los medios impresos del siglo XIX generalmente tenían una área atiborrada de texto, usualmente dispuesta verticalmente, con múltiples titulares para cada artículo. Algunas de las mismas limitaciones tecnológicas persistieron hasta el advenimiento de nuevas tecnologías como la fotocomposición, la tipografía digital y la edición electrónica, a partir de la segunda mitad del siglo XX. Entre algunos de estos cambios: • Menos artículos por cada página. • Menos y más grandes titulares. • Módulos, o squaring off de artículos y paquetes de material relacionado. Los módulos evitan lo que muchos maquetadores llaman «rodillas» (en inglés, doglegs) o disposiciones en formato de «L». • Anchos de columna más estandarizadas. • Tipologías más estandarizadas. • Más «arte» — elementos no-verbales, generalmente fotos, pero incluyendo aún publicidad o boxes para artículos de entretenimiento (features). • Más espacio en blanco, llamados «blancos» (en inglés, air). Un área con muy poco espacio en blanco es llamado tight, y con mucho blanco es llamado loose. • Color.
CONCEPTOS PREVIOS Consiste en disponer las páginas en el pliego, de forma que las acomodemos a la posterior encuadernación y manipulación que hemos elegido para el producto gráfico, y para aprovechar lo mejor que podamos el papel. Al realizar la imposición obtenemos el cuadernillo, que contiene las páginas debidamente ordenadas. Al imprimir debemos aprovechar al máximo el papel, por lo tanto intentamos usar el formato de papel más grande y también llenar al máximo la superficie impresa. Antes la imposición se realizaba manualmente ordenando las páginas del trabajo en el astralón de montaje. Los fotolitos de cada página se pegaban al astralón con sus márgenes, marcas de corte y plegado, etc. Todo esto se realizaba sobre una mesa de luz para visualizar con precisión la posición de cada elemento. Actualmente la imposición se realiza digitalmente utilizando distintos programas informáticos o plugins, como pueden ser Preps (de Kodak) o Quark ALAP Imposer Pro. 369
• Pliego o caras: El conjunto de páginas que se imprimen en una misma hoja con una misma plancha para luego plegarse y cortarse. En publicaciones de hojas pareadas (libros, revistas, periódicos, etc…) un pliego va compuesto siempre necesariamente por un número de páginas múltiplo de 4 (4, 8, 12, 16, 20…), de las que la mitad van impuestas en cada cara de la hoja que se mete en la máquina (lo que en una rotativa suele equivaler a un giro completo de la plancha). Por eso el tamaño de las páginas que componen un pliego y el tamaño de éste deben ajustarse lo mejor posible al tamaño de la hoja, para desperdiciar el menor papel posible.: • Cuadernillo: En imprenta con planchas, el pliego una vez doblado y cortado, para formar una especie de pequeño cuaderno o libro. El número óptimo de pliegos dependiendo de la imposición y el número total de páginas que se desea es un aspecto clave del cálculo de costes en imprenta comercial de revistas, libros y otros documentos con un número elevado de páginas. Por lógica física, un cuadernillo siempre tiene un número de páginas múltiplo de cuatro: 4, 8, 16, 32, 64… En impresión digital sin planchas esta constricción numérica no existe al no existir ni planchas ni pliegos. La limitación numérica se suele superar combinando pliegos de distintos tamaños en una misma publicación. Una publicación puede, por ejemplo, tener 20 páginas si el pliego interior es de un tipo de papel y el exterior —para portada y contraportada— es de mejor papel, y tiene 4 páginas. De no ser así, la lógica comercial es 16 o 32 páginas. • Tripa o signatura: Es una señal que sirve para indicar el orden de los pliegos o cuadernos de un códice, manuscrito o libro impreso ya que no se solían numeras las páginas ni los folios. Por lo general consiste en una letra y un número que aparecen en la parte inferior derecha del recto de las primeras hojas (hasta la mitad) de cada cuaderno o pliego. 370
TECNOLOGÍAS DE MONTAJE DE PÁGINAS • Composición tipografica, SXV al SXX La tipografía (letterpress) es un sistema de impresión que se basa en el uso de planchas en las que las zonas que deben imprimir sobresalen y están impregnadas de tinta. El papel se coloca en contacto con las planchas, que lo presionan y le transmiten la tinta y así queda impreso. La Biblia de las 42 líneas de Gutenberg, como se sabe, estaba compuesta en caracteres góticos. Pero, cuando el arte tipográfico comienza a difundirse por Europa, van surgiendo otros tipos de caracteres. La primera empresa tipográfica de Italia, a cargo de Arnold Pannartz y Conrad Sweynheym,1 usa caracteres inspirados en la caligrafía humanista, llamada, desde entonces, romana. Uno de los primeros grandes tipógrafos, Francesco Grifo, quien trabaja para el gran editor Aldo Manuzio, crea dos grandes series de caracteres, uno para De Aetna de Pietro Bembo (1495), y otro para Hypnerotomachia Poliphili (1499). También es quien crea la primera tipografía cursiva, inspirado en la variante «cancilleresca» de la caligrafía corriente. Manuzio utiliza tal tipografía para las ediciones de bolsillo, puesto que permitía una mayor comprensión del texto. Así pues, la cursiva era de uso alternativo respecto de la redonda Luego, el mayor desarrollo de la tipografía sucede en la Francia de Francisco I. Claude Garamond (1480–1561) fue el primero en usar simultáneamente redondas y cursivas. Las tipografías Garamond actuales son muy variadas, puesto que hasta no hace mucho no se habían identificados los tipos originales — actualmente conservados en el Museo Plantin-Moretus—, de modo que eran diseñados basándose en los caracteres impresos por los epígonos de Garamond. No obstante, toda la familia de caracteres presenta algunas características comunes, a saber: el largo de las ascendentes y las descendentes, la asimetría de las zapatillas2 superiores de la T, el ojo de la P abierto, la ausencia de zapatillas en las letras C y S, o el hecho de que en la cursiva las mayúsculas están menos inclinadas que las minúsculas. En 1640 el cardinal Richelieu instituye la Imprimerie Royale. Más tarde, en 1692, Luis XIV crea una comisión destinada al estudio de una tipografía proyectada según principios científicos, que finalmente resulta impresa por quien ya había creado la tipografía real, Philippe Grandjean, con el nombre de Romain du Roi: zapatillas horizontales, contraste acentuado entre trazos gruesos y delgados, y todas las letras consideradas como parte de un conjunto único. Esta es la primera tipografía que se desvincula abiertamente de la caligrafía corriente, y se la considera antecedente de las tipografías modernas. Si bien se la protege legalmente de los posibles plagios, rápidamente resulta copiada, aunque con oportunos cambios. Así, Simon Fournier (1721–1768) imprime su tipografía, fuertemente personal y más flexible, aunque con abundante decoración, de la que abusará la imprenta sucesiva. Fournier es quien encabeza los estudios de la Imprimerie Royale para establecer una medida precisa para los cuerpos de los caracteres, el punto. De todos modos, quien finalmente establece la medida del punto tipográfico, al menos para Europa, es François Ambroise Didot (un punto es, desde entonces, igual a 0,376 mm). Didot crea incluso una tipografía suya, caracterizada por la regularidad del trazo, así como por el abandono definitivo de los residuos del estilo caligráfico. Durante todo el siglo XVII, las artes tipográficas inglesas hacen uso de caracteres impresos en Holanda. La evolución del gusto ha traído un acortamiento de los trazos ascendentes y descendentes, y un aumento del contraste entre espesores. 371
William Caslon (1692–1766) es el primer tipógrafo que se opone al monopolio holandés. Sus caracteres reflejan el nuevo gusto caligráfico, que ahora valora sobre todo la ductilidad de la escritura. El puente entre las viejas tipografías y las nuevas de Didot o Bodoni es John Barskerville (1706–1775), en Birmingham. Maestro calígrafo primero, sólo en 1751 se dedica a tiempo completo al arte tipográfica. Sosteniendo que la tipografía, la tinta y el papel forman un todo, Baskerville se ocupa personalmente de la producción del papel y de la tinta, así como de la imprenta, logrando resultados más que considerables. Lleva a cabo las sugerencias de Caslon, y así los contrastes se ven acentuados y los enlaces se vuelven más elegantes; las zapatillas superiores de las letras b, d, k, l, i, j, m, n, p, son casi horizontales; se alarga la base de la e; cambia el espesor de los trazos; se asumen los caracteres de la escritura posflamenca. Las ediciones de Baskerville, tan claras como carentes de la profusión decorativa típica de la época, son apreciadas inicialmente en la Europa continental, y sólo después de su muerte en Inglaterra. Giambattista Bodoni (1740–1813) trabaja inicialmente en Roma para reordenar el patrimonio tipográfico de la imprenta vaticana, concretamente en la célebre Sacrae Congregationis de Fide, que se dedica a la impresión de publicaciones religiosas, donde pronto se destaca y se convierte en el protegido del abad Ruggieri. Bodoni recibe una carta del infante don Ferdinando, luego duque de Parma, en la que se le ofrece la dirección de la Imprenta Real de Parma. Acepta y se instala en la ciudad en 1768. Una vez allí, utiliza inicialmente los caracteres de Pierre-Simon Fournier, por entonces el tipógrafo francés más famoso de su tiempo y cuya tipografía, aunque clásica, ya había comenzado a desplazar el modelo Garamond del siglo XVI. Muere en 1813, luego de una vida plena de honores. En 1818, su viuda Margherita Dall’Aglio y su asistente Luigi Orsi publican el monumental Manuale Tipografico, en dos tomos y en una edición limitada de 250 ejemplares. Abandonando la decoración excesiva, los tipos de Bodoni se distinguen pronto de los de Fournier. Se caracterizan por el contraste acentuado y la estructura vertical bien cuadrada, el afinamiento y la horizontalidad de las zapatillas. Hacia fines del siglo XVIII las aplicaciones de la tipografía se multiplican: volantes, carteles, manifiestos, periódicos, publicidad comercial, etc. El uso de caracteres de cuerpo enorme —construidos en madera— y de caracteres góticos que aumentan la superficie de negro sobre la página ya no son suficientes. Así, en el intento de corresponder a las nuevas necesidades, se establecen, de hecho, nuevas directrices en el desarrollo de los caracteres. Específicamente. ✏✏ Caracteres muy decorados y contrastados, usados, frecuentemente, en composiciones patchwork, con caracteres distintos entre sí. ✏✏ Ultra Bodoni: exasperan el peso del trazo y la delgadez de las zapatillas. La radicalización de la tendencia introduce tipografía sin zapatillas. ✏✏ Egipcios: exasperan el grosor de las zapatillas respecto del de las astas, igualándolas o superándolas. Dos tipos: con zapatillas enlazadas (Clarendon, 1843) y no enlazadas (Rockwell, 1933). En los Estados Unidos hay un desarrollo paralelo del diseño de caracteres a partir de los llamados Scotch Roman, derivados de los caracteres diseñados por Richard Austin para la imprenta Miller de Edimburgo (1812). Linn Boyd Benton, el inventor de la máquina para la producción en serie de los punzones tipográficos, se inspira en esta familia de caracteres para su tipografía Century, usado para una revista del mismo nombre, en 1895. Mejora, así, la legibilidad de los caracteres escoceses, manteniendo de éstos, a su vez, algunas características inconfundibles, así por ejemplo, la forma enrulada de pata de la letra R. El hijo de Benton, Morris Fuller Benton, proyecta, algunos años más tarde, la versión bold de la Century y diseña, también, un par de tipografías sin zapatillas: la Franklin Gothic y la News Gothic. En el ámbito del nacimiento de las artes aplicadas, que se proponen revalorar y dignificar los trabajos artesanales, nace la primera private press, creada por William Morris en 1891. Un aprendiz de él, Edward Johnston (1872–1944), dedicándose enteramente a la caligrafía, escribe un manual, Writing & Illuminating 372
& Lettering, que tuvo gran influencia, tanto en Inglaterra como en Alemania. Y a pedido de Frank Pick, que se ocupa del completo rediseño de la imagen de la red de trenes subterráneos de Londres, Johnston diseña, en 1916, una tipografía sin zapatillas, aún utilizada, en su simpleza, como vehículo de comunicación del underground londinense. Stanley Morison promueve, en esos años, la realización de caracteres diseñados a partir de prestigiosos modelos: así, el Bembo, sobre el modelo del De Aetna de Pietro Bembo, publicado por Manuzio en 1495; así, el Poliphilus, sobre el modelo del Hypnerotomachia de 1499; así, un Baskerville, basado en una edición de 1722, y un Fournier. Considerando que es el momento de probar la impresión de un alfabeto moderno, lo encarga a Eric Gill, grabador en piedra y aprendiz de Edgard Johnston, quien diseña la Perpetua (entre 1925 y 1928), con zapatillas, y, contemporáneamente, la Gill Sans (1927), que tiene la apariencia de una tipografía con zapatillas aunque carece de ellas: similar a la Perpetua en algunas letras —la pata de la R, o las letras a, b, e, r, t—, así también, la g tiene el clásico doble ojo, inusual en las letras sin zapatillas. Morison es el responsable de la creación del más que difundido Times New Roman. En 1929 el Timesle encarga una tipografía para la composición de todo el diario. Luego de varios intentos, Morison toma como base la Plantin, producida por la Monotype sobre la base, a su vez, de los tipos de Garamond. Así, el 3 de octubre de 1932, sale el primer número compuesto íntegramente con la nueva tipografía, así caracterizada: la base siglo XVI casi imperceptible, las letras más llenas, los trazos ascendentes y descendentes más cortos, más marcado el espesor, las zapatillas más regulares y uniformes, y, con todo, muy legible aun en cuerpo pequeño. La vanguardia racionalista de los años veinte se propone reducir las formas a sus constituyentes esenciales. La operación es aplicada no sólo en la arquitectura y el diseño en general, sino también sobre la tipografía. Aunque, si bien se producen trabajos notables en el campo de la paginación, nada ocurre con los caracteres. La reducción del alfabeto a la pura combinación de formas geométricas elementales da resultados aplicables sólo en titulares, pero que no resisten un texto completo. Cabe destacar la Universal-Alfabet, de La principal tipografía proveniente del ámbito de la Bauhaus es la Futura de Paul Renner (1927). Los principales problemas surgen con las minúsculas: la primera versión, marcadamente constructivista, de algunas letras —a, g, m, n, r—, tiene que rediseñarse para mejorar la legibilidad. Lo que permite a esta tipografía obtener un relativo suceso es cierta dosis de compromiso con la preceptiva constructivista. Las letras mayúsculas tienen una modulación geométrica perfecta: así, la letra O es absolutamente circular y el espesor del trazo es constante, hay una combinación de pocas formas geométricas como base de las minúsculas y se da un ajuste perceptivo del trazo en la relación entre letras redondas y derechas: la «o» es más alta que la «i». La época moderna del diseño de caracteres tiene como particularidad el repêchage en el cambio de toda la tradición tipográfica y caligráfica. En esta tendencia se ubica la Optima (1955) de Hermann Zapf. Calígrafo e impresor de éxito, se inspira, para su tipografía, en las inscripciones sobre piedra de la Florencia de la primera mitad del Quattrocento. Los caracteres, decididamente originales, escapan a la taxonomía tradicional: la estructura de las letras es clásica y, si bien no tiene zapatillas, parece tenerlas. Este efecto se logra afinando los puntos medios del trazo. Por otra parte, la tipografía emblemática de los años 60 es la Helvetica (1957), de Max Miedinger, rediseño de una de fines del siglo XIX. Es una tipografía neutra y compacta, especial para un uso formalista de la página. El mismo año el suizo Adrian Frutiger desarrolla la tipografía Univers, la cual, no obstante su enorme difusión, no llegó a la popularidad que alcanzó la Helvetica. La gran novedad de la Univers es la de haber sido proyectada, desde su inicio, en veintiuna variantes que consideraran las posibilidades de inclinación, largo y espesor de los trazos. En este aspecto prefiguraba, entonces, las actuales técnicas de proyección tipográfica por computadora. El diseño tipográfico de los años 70 se configura en torno a la experimentación que proporciona la fotocomposición y que permite que los tipos se compriman y superpongan, llegando al límite de la legibilidad. Se produce así un claro estilo contemporáneo, y la creación de empresas que canalizan la fuerte creación 373
de nuevos tipos. En nuestros días, el enorme patrimonio derivado del desarrollo de nuevos caracteres hace posible una gran libertad de elección. Sólo a modo indicativo, cabe clasificar los caracteres hoy disponibles en las siguientes familias: bastón; etruscos; sin terminación y con astas de grosor uniforme; egipcios: las astas son en general de grosor uniforme y las terminaciones copian este grosor; romanos antiguos: las astas con un principio de contraste y las terminaciones triangulares enlazadas con curvas en las astas; el eje de las letras redondas es oblicuo; romanos modernos: las terminaciones son horizontales, muy finas, como las astas claras, que contrastan fuertemente con las oscuras, el eje de las letras redondas es vertical; góticos y medievales; ingleses: desarrollados a partir de las antiguas letras cancillerescas, tienen, en general, un fuerte contraste entre las astas; fantasía: un grupo de caracteres inclasificables, muy diversos entre sí. En otras palabras, el diseño tipográfico actual asimila una tradición que se remonta a la aparición de la imprenta y la procesa, sirviéndose de los actuales medios informáticos, en una diversidad que se multiplica de modo exponencial. • Fotocomposición La historia de la industria de las artes gráficas ha ido evolucionando a través de diversas tecnologías desarrolladas para la automatización o mecanización del proceso tipográfico. Tras la linotipia, una máquina de escritura de tipos sobre un lingote de plomo que se utilizaba para la producción de periódicos, surgió otro tipo de máquinas. HEL dotó a estas máquinas de la capacidad de componer páginas a partir de matrices fotográficas o negativos de letras para producir cintas fotográficas compuestas por la acción mecánica de la fotocomponedora: de ahí el nombre de fotocomposición. Dentro de la industria gráfica, la tipografía como procedimiento de impresión requería un método directo, tarea que podía cumplir la linotipia; sin embargo, para otro tipo de procedimientos de impresión —por ejemplo, para construir planchas para flexografía, heliograbado y offset— eran necesarios otros instrumentos de trabajo que generaran los originales mecánicos. Las fotocomponedoras se encargarían de esas funciones al producir cintas con la titulación tipográfica necesaria tal y como veríamos si recortamos un titular de un periódico impreso. El método ofrecido eliminaba la necesidad de imprimir la galera tipográfica, producida por la linotipia, para el mismo procedimiento. • Autoedición La autoedición, publicación de escritorio o desktop publishing (DTP) en inglés, consiste en sistemas informáticos de tratamiento gráfico que combinan un computador personal y un programa de diagramación de páginas (maquetación) y una impresora o un económico dispositivo multifuncional para crear documentos de publicidad, tanto para publicación a larga escala, o salida y distribución a baja escala. Es un trabajo que implica la aplicación de software en el diseño editorial. Los usuarios crean disposiciones de página (maquetas) con texto, gráficos, fotos y otros elementos visuales mediante el empleo de un software para autoedición como PageMaker, QuarkXPress, Adobe InDesign, 374
RagTime, el software libre Scribus, Microsoft Publisher o Corel Ventura, Apple Pages y, en alguna extensión, cualquier software gráfico o procesador de texto que combine texto editable con imágenes. Para pequeños trabajos, algunas copias de una publicación pueden ser impresas en una impresora local. Para trabajos más grandes un archivo de computadora puede ser enviado a una imprenta para la impresión en grandes cantidades. El término «publicación de escritorio» es comúnmente usado para describir habilidades de disposición de elementos en las páginas (maquetación). Sin embargo, las habilidades y el software no están limitados al papel y los libros. Las mismas habilidades y software son a menudo usados para crear gráficos para exhibidores para puntos de venta, artículos promocionales, exhibiciones en ferias de negocios, embalajes, y publicidad exterior. ORIENtaCIÓN DE PÁGINa Vertical
Horizontal
PROPORCIONES • Proporción aúrea El número áureo o de oro (también llamado razón extrema y media, razón áurea, razón dorada, media áurea, proporción áurea y divina proporción representado por la letra griega φ (phi) (en minúscula) o Φ (Phi) (en mayúscula), en honor al escultor griego Fidias, es un número irracional: 375
El número áureo surge de la división en dos de un segmento guardando las siguientes proporciones: La longitud total a+b es al segmento más largo a, como a es al segmento más corto b.
También se representa con la letra griega Tau (Τ τ),por ser la primera letra de la raíz griega τομ, que significa acortar, aunque encontrarlo representado con la letra Fi (Φ,φ) es más común. Se trata de un número algebraico irracional (su representación decimal no tiene período) que posee muchas propiedades interesantes y que fue descubierto en la antigüedad, no como una expresión aritmética sino como relación o proporción entre dos segmentos de una recta; o sea, una construcción geométrica. Esta proporción se encuentra tanto en algunas figuras geométricas como en la naturaleza: en las nervaduras de las hojas de algunos árboles, en el grosor de las ramas, en el caparazón de un caracol, en los flósculos de los girasoles, etc. Asimismo, se atribuye un carácter estético a los objetos cuyas medidas guardan la proporción áurea. Algunos incluso creen que posee una importancia mística. A lo largo de la historia, se ha atribuido su inclusión en el diseño de diversas obras de arquitectura y otras artes, aunque algunos de estos casos han sido cuestionados por los estudiosos de las matemáticas y el arte. El número áureo es el valor numérico de la proporción que guardan entre sí dos segmentos de recta a y b (a más largo que b), que cumplen la siguiente relación:
✏ ✏ ✏
La longitud total es al segmento a, como a es al segmento b. Escrito como ecuación algebraica: Siendo el valor del número áureo φ el cociente
Surge al plantear el problema geométrico siguiente: partir un segmento en otros dos, de forma que, 376
al dividir la longitud total entre la del segmento mayor, obtengamos el mismo resultado que al dividir la longitud del segmento mayor entre la del menor. • Rectángulo raíz de 2 La raíz cuadrada de 2, o simplemente raíz de 2[cita requerida] se define como el único número real positivo tal que, multiplicado por sí mismo, es igual a 2. La notación tradicional, utilizando el símbolo de radicación es , utilizando la notación de potencias: 21/2. La raíz cuadrada de 2 es un número irracional (más aún, algebraico), su valor numérico es aproximadamente 1.4, y truncado en 65 dígitos decimales es:1,414213562373095 04880168872420969807856967187537694807317667973799... La raíz cuadrada de 2 fue posiblemente el primer número irracional conocido. Geométricamente equivale a la longitud de la diagonal de un cuadrado cuyo lado es igual a la unidad, lo cual se deduce del teorema de Pitágoras, también conocida como constante pitagórica. Este número tiene numerosas aplicaciones en la vida corriente: las hojas de papel en formato internacional (ISO 216) están en proporción largo/ancho igual a √2; en música, la razón de frecuencias de la cuarta aumentada de la gama temperada vale √2; en electricidad, la máxima tensión de la corriente alterna monofásica vale √2 del valor efi caz indicado (generalmente 110 o 220 voltios); en fotografía, la sucesión de valores de apertura del diafragma son los valores aproximados de una progresión geométrica de razón √2.
FORMatOS DE PÁGINa DIN Los formatos de papel estándar en la mayor parte del mundo se basan en los formatos definidos en el año 1922 en la norma DIN 476 del Deutsches Institut für Normung (en alemán: Instituto Alemán de Normalización), más conocido como DIN. Este estándar ha sido desarrollado por el ingeniero berlinés Dr. Walter Porstmann. La norma alemana ha sido la base de su equivalente internacional ISO 216 de la Organización Internacional para la Normalización que, a su vez, ha sido adoptada por la mayoría de los países. En general, tan sólo existen diferencias en las tolerancias permitidas. Paralelamente siguen existiendo, por ejemplo en los EE.UU, Canadá y México, otros sistemas tradicionales. Esto ocasiona regularmente problemas y costos adicionales. Fundamento del formato DIN-476 serie A. La idea que subyace en el formato, es tratar de aprovechar el papel al máximo de modo que se desper377
dicie lo mínimo posible. El pliego de papel fabricado mide 1 metro cuadrado y la medida de sus lados guardan una proporción tal, que dividiéndolo al medio en su longitud, cada una de las mitades siguen guardando la misma relación entre sus lados que el pliego original. Para que la medida de los lados cumpla esta propiedad, deben guardar una relación particular. Si llamamos x a un lado e y al otro:
De ese modo cuando se requiere un tamaño de papel, el fabricante puede cortar y remitir el material sin miedo a que el resto sea inútil o en su defecto por querer aprovecharlo haya que guardarlo indefinidamente en sus almacenes hasta que la casualidad permita despachar el sobrante. Este método asimismo por esta razón supone un abaratamiento en el costo de venta, ya que no requiere sobrecargar en el precio todo el material desechado. Si un comprador requiere un tamaño específico, todavía es posible servirlo, se trabaja a partir del tamaño Ax en que encaja el pedido y se le cobra ese tamaño más los cortes. Pero ahora el comprador puede querer reajustar el tamaño de su pedido para evitar sobrecostes ciñéndose a las medidas propuestas. El pliego de tamaño 1 metro cuadrado recibe el nombre de A0, las siguientes divisiones que reducen su superficie a la mitad del anterior, reciben sucesivamente los nombres de A1, A2, A3, A4, A5, A6... queriendo con ello indicar el número de cortes desde el pliego original, ayudando así su nombre a conocer o hacerse una idea de la superficie total. Inevitablemente puede haber algunas pérdidas o defectos en el corte que se consideran dentro de la tolerancia. Por ejemplo el A4, siendo el 4º corte debería tener una superficie de: 10000/24= 625 cm2, sin embargo mide: 624,54 (210x297,4). En la imagen adjunta, puede verse el tamaño del pliego original ((1189 x 841)= 999949 mm2) y el de los sucesivos cortes. La relación de medidas entre los lados es , siendo la medida del lado largo, el resultado es la medida del ancho: (1189 / 1,4142) = 840,7499 FORMatOS PaRa PRENSa •
Formato sábana:
Su origen viene asociado al precio de las tarifas postales. En la mayoría de las empresas se aplicaba por número de páginas. Por eso se empezó a condensar más información en menos páginas. Se emplea una hoja grande, cuyo tamaño se denomina “sábana”.Entre las ventajas que ofrece, encontramos la posibilidad de poner fotografías e imágenes grandes en sus páginas y de jugar con la diagramación por su tamaño. Por otro lado hay desventajas. La principal es la dispersión de la atención del lector debido a la gran cantidad 378
de información y contenidos que alberga. • Formato tabloide: Comenzó a usarse en el siglo XVIII. Hoy en día está en auge, tras la transición que se ha ido produciendo a lo largo de los últimos años. Cuenta con ventajas; es más cómodo y manejable, se puede leer con más facilidad que el formato sábana. Además, en la visualización, el impacto visual de la página completa salta a simple vista. Entre los inconvenientes destaca su tamaño más pequeño que permite menos posibilidades en cuanto a diseño. Por otro lado hemos de mencionar la asociación con la prensa “amarillista” o sensacionalista en muchos países (sobre todo anglosajones). Sin embargo en España es el tipo más utilizado. • Formato Berlinés: A denominación proviene de la ciudad alemana de Berlín, donde dos diarios adoptaron este formato: Die Tageszeitung (generalmente conocido como el “taz”), y el Junge Welt,que adoptó el formato en 2004. Es ligeramente más alto y ancho que el formato tabloide y más estrecho y corto que el formato sábana. • Formato Arrevistado: Sus dimensiones son similares a las de una revista, lleva incluso las grapas. No es muy habitual encontrarlo, pero se sigue utilizando en publicaciones como el diario español ABC.
OTROS FORMATOS • • • •
Tarjeta de visita: 85 x 55 mm Tarjeta postales: 139 x 107 mm Sobres:100 x 170, 105 x 150, 105 x 212, 105 x 215, 110 x 155, 90 x 140, 95 x 180 Papel carta: A4
MÁRGENES Y DETERMINACIÓN CLÁSICA DE LA MANCHA Existen diferentes valoraciones del espacio en blanco. En algunas culturas es sinónimo de vacío, de desperdicio; en otras, en cambio, es de luz, es un valorado potenciador de la forma, es superficie activa e indispensable para la percepción de la forma. La consideración de los márgenes, sin embargo, no es meramente estética, sino también funcional y económica. Los márgenes han ido reduciéndose a lo largo del tiempo por razones económicas, por una tendencia de quienes manejan los presupuestos de producción a querer obtener la máxima utilización posible del 379
pliego de papel, pero esto tiene sus límites. Los márgenes cumplen funciones específicas que pueden sintetizarse en: • Regular el peso visual de la mancha tipográfica en la página. • Evitar que partes del texto se pierdan en el guillotinado (variación de 1 mm a 3 mm). • Dejar una superficie sin texto para poder manipular con comodidad la página (sobre todo en márgenes exteriores). • Evitar que la encuadernación obstruya la lectura (sobre todo en márgenes interiores). • Es conveniente indagar sobre este último punto de manera previa al diseño de la página, ya que distintos tipos de encuadernación producirán efectos distintos. En una encuadernación a caballo (cuadernillo formado por hojas apiladas en un caballete, para después ser cosido con hilo o grapas), se acumula papel en el lomo, tanto como la mitad del espesor de la edición (por ejemplo, si la edición tiene 4 mm de espesor, en el lomo se acumulan 2 mm). Esta acumulación afecta cada página en forma distinta, dependiendo del lugar que ocupe en el cuadernillo. Según el ejemplo anterior, las páginas centrales tendrán sus márgenes de corte 2 mm más angostos que las páginas exteriores del cuadernillo. En el caso de una encuadernación «a la americana» (encuadernación binder), las hojas y la cubierta se unen con pegamento en el lomo en una sola operación. Como estas hojas no son cosidas, las colas usadas suelen ser fuertes y duras, lo que produce un lomo rígido que tiende a cerrarse. Algunas veces, si esta edición es forzada para que se abra más, el lomo se quiebra. En los libros encuadernados con esta técnica deberemos tener en cuenta que los márgenes interiores se verán reducidos, lo que dificulta la visualización de ese sector. Por último, hay argumentos estéticos y estilísticos que debemos considerar a la hora de diagramar una página. En muchos manuscritos e incunables el texto ocupaba el 45 o el 50 por ciento de la página, a pesar de los altos costos del papel o el pergamino. En contraste, en la actualidad, la superficie del papel impreso, en muchos casos, supera el 75 por ciento de la página. Debemos saber que una página armónica incentiva la lectura porque no cansa y esta armonía está dada por la suma de los factores tratados hasta ahora: formato, ancho de la caja y la relación entre ambos: los márgenes. La mancha o caja de composición es el espacio comprendido dentro de los límites de la composición, rodeada por los márgenes; propiamente es la página tipográfica (sin los márgenes), o sea, la figura geométrica formada por las medidas de ancho y alto. Así se dice caja por la derecha con respecto al texto o ilustración que, no ocupando la totalidad de la medida de la página, limita con el margen derecho, y caja por la izquierda en el caso contrario. Estudiemos algunos recursos para controlar las relaciones que se han utilizado clásicamente para colocar el rectángulo tipográfico fuera del centro de la página. En ellas se busca cumplir con cuatro reglas básicas que las armonizan: • La diagonal de la caja debía coincidir con la diagonal de la página. • La altura de la caja debía ser igual al ancho de la página. • El margen exterior (o «de corte») debía ser el doble del interior (o «de lomo»). • El margen superior (o «de cabeza») debía ser la mitad del inferior (o «de pie»). Esta regla es consecuencia de las 3 anteriores. Estas reglas generan armonía, ya que mancha y página poseen las mismas proporciones y los tercios superiores de las dos figuras descansan sobre la misma línea. El hecho de que la mancha esté ubicada ligeramente alta y hacia un lado la hace más liviana y dinámica que si estuviese colocada estáticamente, en el centro del papel. Revisemos a continuación otros métodos utilizados en la historia para relacionar la página y la mancha. • Método de la diagonal Surge de aplicar solo la primera regla clásica: que las diagonales de la página y del rectángulo tipográfico 380
coincidan.
• Doble diagonal Si al sistema anterior se lo completa trazando la diagonal de la doble página desplegada (d2), se llega a una interesante solución. Sobre la diagonal de la página (d1) marcamos arbitrariamente la esquina superior izquierda (a) que determinará el margen superior y el de corte. Desde allí trazaremos una horizontal hasta encontrarnos con la diagonal de la doble página (b), obteniendo el margen exterior. Desde b trazaremos la vertical h hasta interceptar con d1, con lo que obtenemos el margen inferior. Cuando este sistema se aplica a formatos de proporción áurea o de aproximación áurea (dos números consecutivos de la serie fibonacci) se llama sección o relación áurea.
• Sistema normalizado ISO 216 Cuando se cumplen las 4 reglas sobre un formato de la serie ISO, la mancha resultante tiene la medida del siguiente formato de la serie. Es decir, si la hoja es A4, la caja será A5. 381
• Canon ternario
Si la página tiene una proporción 2:3 y se cumplen las 4 reglas, se produce la siguiente relación: el margen inferior resulta igual a la suma de los márgenes laterales. Esta relación fue utilizada en numerosos manuscritos medievales. Se la conoce también como canon secreto y fue divulgada por Jan Tschichold en 1953. El argentino Raúl Rosarivo (1903-1966) se ocupó ampliamente de este método luego de que lo encontró aplicado en la Biblia de 42 líneas de Gutenberg. En el caso de la Biblia, proporcionada con este método, la página resulta dividida en 9 partes tanto vertical como horizontalmente, dando lugar a 81 rectángulos de proporción 2:3 (igual que la página). Solo 36 de estos rectángulos son ocupados por la mancha tipográfica, dividida en dos columnas por una gruesa calle o corondel. El ancho de esta separación es igual a un noveno del ancho de la caja tipográfica, así que el texto de esta edición ocupa apenas un 39,51% de la superficie de la hoja. • Escala universal
382
Este método, que fue desarrollado por Rosarivo, consiste en dividir la página en igual cantidad de secciones horizontales que verticales, la cual debe ser múltiplo de 3. Hecha la división, un módulo vertical es para el margen al lomo, dos para el margen al corte, uno horizontal para el de la cabeza y dos para el pie. El ancho de los márgenes resulta inversamente proporcional a la cantidad de divisiones. • Sistema 2-3-4-6 Los números corresponden a la relación entre los márgenes y derivan del canon ternario. Con este método se busca cumplir con las reglas 3 y 4, aunque no necesariamente con las 2 primeras. Es un método veloz para proporcionar los márgenes: se asigna a la unidad un valor cualquiera y luego se multiplica esa cantidad por 2, 3, 4 y 6 para encontrar corte, cabeza, lomo y pie respectivamente.
• Método Van der Graaf Sirve para encontrar los novenos de la página de modo gráfico, no aritmético. Para esto se trazan las 6 diagonales de la doble página. A partir del punto a se levanta una diagonal hasta el borde superior del papel. Desde aquí se traza una recta que encuentre la intersección b en la otra página. Donde esta recta cruza a
383
la diagonal d1, queda determinado el vértice superior izquierdo del texto. Este método equivale a dividir alto y ancho de la página en novenos y repartir los márgenes según el canon ternario (un noveno para los menores y 2 novenos para los mayores). • Márgenes invertidos La decisión del medianil angosto en el lomo, producto de márgenes la mitad de estrechos que los de corte, puede traer problemas según el tipo de encuadernación utilizado. Para evitar esto se puede invertir la relación dejando los márgenes anchos al centro de la pieza. En libros con buena apertura del lomo, esto producirá una separación de las manchas de la doble página que deberá ser tenida en cuenta y estudiada en cada caso.
• Márgenes arbitrarios Dice Tschichold: «El trabajo del diseñador de libros y del artista gráfico son esencialmente distintos, mientras el segundo está en la búsqueda constante de nuevos medios de expresión, impulsado hasta el extremo por su deseo de encontrar un ‘estilo personal’, el diseñador de libros debe ser un leal y discreto siervo de la palabra escrita. […] El diseño de libros no es un campo para quienes quieran inventar el ‘estilo del momento’ o crear algo ‘nuevo’». Debemos entender lo dicho por Tschichold dentro del campo del diseño de libros de texto, sabiendo que los «libros de artista» o los no convencionales deberán ser tratados de otra manera y bajo otros conceptos de diseño que contemplen sus características particulares, procurando la mejor transmisión de sus contenidos y su modo de lectura. El uso de los márgenes arbitrarios deberá contemplarse para obras de texto corto, de rápida lectura o para piezas con textos no continuos, por ejemplo folletos, avisos publicitarios, poemas, diccionarios, directorios, etc., en los que, si bien se deberán cuidar los márgenes, pueden utilizarse otros criterios para su adjudicación, siempre teniendo en cuenta los 4 puntos mencionados al comienzo: evitar las pérdidas de texto al refilar el papel, dejar superficie libre para agarrar el impreso sin tapar texto con las manos, evitar las posibles imprecisiones de la tirada y evitar que la encuadernación dificulte la lectura de los textos en el lomo.
384
TIPOS DE MÁRGENES Los márgenes son los espacios que se encuentran en los cuatro lados de la mancha, en una página, y se denominan pie, cabeza, lomo y corte, su tratamiento resulta de vital importancia para una lectura cómoda y para la belleza plástica de la página impresa. Se debe establecer el uso y finalidad a que se destinan, puesto que las posibilidades que ofrecen los márgenes son amplias y complejas, por otro lado no se debe caer en la no utilización de los márgenes a causa de la longitud de tesxto y como mínimo la longitud de los márgenes será de 10 milímetros en el caso de que el trabajo vaya a ser impreso, ya que será guillotinado la encuadernación.
Para crear los márgenes se usa el recurso de las diagonales y de la división de la página, a partir del tamaño de la doble página, lo más conveniente es buscar siempre el equilibrio y dejar unos márgenes correctos, ni demasiado pequeños ni demasiado grandes. Entre las posibilidades que pueden ofrecer los márgenes, los más usuales, por su garantía estética son los márgenes uniformes, especiales y tradicionales. • Márgenes uniformes: Este tipo de márgenes, son los que quedan igualados por todos los lados, por lo tanto el lomo medirá la mitad que el resto de los márgenes de la página. Lo bueno de los márgenes uniformes es que se mantiene la misma proporción de página y de la mancha. Los márgenes uniformes son ideales para mantener la misma proporción del tamaño de página con el tamaño de la caja tipográfica.
• Márgenes especiale Son los que muestran un desplazamiento de la mancha hacia el margen superior, el lomo ocupa la mitad 385
que el margen de los lados, el margen de cabeza mide lomo y mitad, y el margen de pie mide el doble que la cabeza. Este tipo de márgenes son creados a partir del método de trazar la diagonal de cada página y la diagonal de la doble página, para dividirla en un número de partes iguales que tiene que ser múltiplo de tres. Si se divide por muchas partes, los márgenes tendremos como resultado, márgenes pequeños. Este método se denomina esquema Rosarivo, y fue el empleado por Guttenberg en su Biblia de 42 líneas.
• Márgenes tradicionales: Estos márgenes tradicionales garantizan una proporción adecuada entre el tamaño de la página y la mancha de texto. Ello se puede conseguir mediante diagonales o dividiendo entre nueve el alto y ancho del tamaño de página. Para dibujar las diagonales debemos trazar las diagonales de cada página y las diagonales de la doble página, y trazar las verticales desde los puntos donde se cruzan las diagonales hasta el límite superior, uniendo estos trazos verticales con sus diagonales. Los puntos de coincidencia de las últimas diagonales son las que marcan los puntos para los márgenes de las dos páginas.
RETÍCULAS La retícula es algo que lleva toda publicación por detrás. Estructura por desentrañar. Es una base sobre la que podemos trabajar y donde aplicar los elementos: columnas, páginas, etc. También la conocemos como maqueta: es un instrumento de composición para el diseño de libros, periódicos, revistas... para todo lo que forma parte de los medios gráficos impresos. Es una estructura invisible. 386
Una retícula bien organizada tiene que tener un modo armónico con el formato y la orientación del papel. Por lo tanto, en la retícula es muy importante la división geométrica de un área, dividida en columnas, espacios, márgenes, etc. tiene que estar dividida con precisión. Debe definir la posición de todos los elementos que aparecen en la página (dónde va el título, subtítulo, pie de foto, etc). No es algo rígido y depende del medio para el que se utilice. Esa rigidez se rompe sobre todo en los periódicos. • Facilidad de uso: dejar en ella líneas cuerpo de letra, donde va el titular, pie de foto, etc. Deben quedar reflejadas los elementos que van a componer la página. • Retícula modulada: facilita la maquetación por bloques y sobre todo la publicidad. • En la retícula la división esta en columnas, márgenes, blancos de cabeza y pies de página. Sobre todo hay que tener cuidado con las columnas, lo que se refiere sobre todo a su anchura y legibilidad (cuerpo de letra que podamos meter). Ancho de lectura proporcionado al texto base. Para facilitar de esa forma la lectura a los usuarios. 10 palabras por línea aunque depende del cuerpo que usemos. Hay que buscar la estética adecuada. Son muy importantes los blancos, el saber elegir y proporcionar los blancos. Son más atractivos en las revistas. Son un elemento de atracción pero también una exageración de ellos puede hacer pensar que: No tenemos más información si hay pocos repele, pero si hay demasiados hace pensar que no somos profesionales. Otro elemento a tener en cuenta en la retícula es el folio, que puede ser numérico (sólo números) o explicativo (da más información). • Elección de 3 columnas: más válido para las revistas. Susceptibles de ser divididas en 6 columnas. • Elección de 2 columnas, posibilidad de convertirlas en 4 columnas. Para las revistas se usa una composición muy tradicional. Con este tipo se logra un efecto académico. Cuando las transformamos en 4 columnas jugamos con todos los elementos marcando un orden para darle un efecto moderno. Las 4 columnas se pueden convertir en 8. Tipos de retícula • Retícula formal: Se compone de lineas estructurales que aparecen construidas de manera rígida, matemática. Las lineas habrán de guiar la formación completa del diseño. El espacio queda dividido en subdivisiones, igual o rítmicamente y las formas quedan organizadas con una fuerte sensación de regularidad. Sus diversos tipos son; la repetición, la grabación y la radiación. • Retícula informal: Esta no tiene normalmente líneas estructurales. La organización ses generalmente libre o indefinida. • Retícula inactiva: Es la que se compone de líneas estructurales que son puramente conceptuales. • Retícula activa: Se compone de líneas estructurales que son asimismo conceptuales. Sin embargo pueden dividir el espacio en subdivisiones individuales, que interactúan de varias maneras con los módulos que contienen. PÁGINAS MAESTRAS EN ADOBE INDESIGN Una página maestra es similar a un fondo que se puede aplicar con rapidez a muchas páginas. Los objetos de una página maestra aparecen en todas las páginas con dicha página maestra aplicada. Los elementos maestros que aparecen en las páginas de documentos tienen un borde de puntos. Los cambios realizados en una página maestra se aplican automáticamente a las páginas asociadas. Habitualmente las páginas maestras contienen logotipos repetidos, números de página, encabezados y pies de página.También pueden 387
contener texto vacío o marcos de gráficos que sirven como marcadores de posición en las páginas del documento. No se puede seleccionar un elemento maestro en una página de documento a menos que el elemento maestro se cambie. Las páginas maestras pueden tener varias capas, como las páginas del documento. Los objetos de una misma capa tienen su propio orden de apilamiento. Los objetos de una capa de la página maestra aparecen detrás de los objetos asignados a la misma capa en la página de documento. Si desea que un elemento maestro aparezca delante de los objetos en la página de documento, asigne una capa superior al objeto en la página maestra. Cualquier elemento maestro que esté situado en una capa superior aparece delante de todos los objetos de capas inferiores. Al combinar todas las capas, los elementos maestros se colocan detrás de los objetos de la página de documento.
Los elementos maestros (arriba, izquierda) aparecen detrás de los objetos de la página situados en la misma capa (abajo, izquierda); al mover un elemento maestro a una capa superior (arriba, derecha), éste se sitúa delante de todos los objetos de las capas inferiores (abajo, derecha). • Consejos y pautas para utilizar páginas maestras ✏✏ Para comparar ideas de diseño alternativas, cree varias páginas maestras y aplíquelas por turnos a páginas de muestra con un contenido típico. ✏✏ Para componer rápidamente documentos nuevos, puede guardar un conjunto de páginas maestras en una plantilla de documento, junto con estilos de párrafo y carácter, bibliotecas de colores y otros estilos y valores. ✏✏ Si cambia los valores de columna o margen de una página maestra o aplica una página maestra nueva con valores de columna o margen diferentes, puede hacer que los objetos de la página se ajusten de forma automática a la nueva maquetación. (Consulte Acerca del ajuste automático de la maquetación). ✏✏ Los números de página automáticos insertados en una página maestra muestran el número de página correcto de cada sección del documento donde se aplique la página maestra. (Consulte Adición de la numeración de páginas básica). • Creación de páginas maestras ✏✏ De forma predeterminada, todos los documentos creados cuentan con una página maestra. Puede crear más páginas maestras desde cero o a partir de una página de documento o una página maestra existente. Una vez aplicadas páginas maestras a otras páginas, los cambios realizados en la página maestra original pasan a las páginas maestras y las páginas de documento que se basan en ella. Si se planifica correctamente, esto proporciona un método sencillo para realizar cambios de maquetación en varias páginas del documento. • Creación de una página maestra a partir de cero 388
✏✏ Elija Nueva página maestra en el menú del panel Páginas. ✏✏ Especifique las opciones siguientes y haga clic en OK: ✏✏ En Prefijo, introduzca un prefijo que identifique la página maestra aplicada a cada página en el panel Páginas. Puede introducir un máximo de cuatro caracteres. ✏✏ En Nombre, introduzca un nombre para el pliego maestro. ✏✏ En Basado en página maestra, elija un pliego maestro existente en el que desee basar este pliego maestro o elija Ninguno. ✏✏ En Número de páginas, introduzca un valor para el número de páginas que desee incluir en el pliego maestro (hasta diez). • Creación de una nueva página maestra a partir de una página o un pliego existente ✏✏ Arrastre un pliego completo desde la sección Páginas del panel Páginas a la sección Páginas maestras. ✏✏ Seleccione un pliego en el panel Páginas y elija Guardar como página maestra en el menú del
panel Páginas. ✏✏ Todos los objetos de la página o el pliego originales pasan a formar parte de la nueva página maestra. Si la página original utilizaba una página maestra, la nueva página maestra se basará en la página maestra original. • Creación de un nuevo pliego maestro basado en otra página u otro pliego ✏✏ Basar una página maestra en otra ✏✏ Puede crear una variación de la página maestra basada en otra página maestra y que se actualice con ella (denominada página maestra principal) dentro del mismo documento. Los pliegos maestros basados en el pliego maestro principal se denominan pliegos maestros secundarios. Por ejemplo, si el documento consta de diez capítulos que utilizan pliegos maestros que solo varían un poco, báselos en un pliego maestro que contenga la maquetación y los objetos comunes a todos ellos. De esta manera, un cambio en el diseño básico solo implica que hay que editar el pliego maestro principal y no los diez por separado. Cambie el formato de los pliegos maestros secundarios. Puede cambiar elementos de la página maestra principal en una página maestra secundaria para crear variaciones de la página maestra, al igual que puede cambiar elementos de la página maestra en las páginas del documento. Esto consti-
389
tuye una forma eficaz de mantener actualizado un diseño uniforme y variado. ✏✏ Páginas maestras principal y secundaria originales (izquierda). Cuando la página maestra principal se modifica, las secundarias se actualizan de forma automática (derecha) ✏✏ Para basar una página maestra en otra, en la sección Páginas maestras del panel Páginas, realice una de las siguientes acciones: ✏✏ Seleccione un pliego maestro y elija Opciones de página maestra para [nombre del pliego maestro] en el menú del panel Páginas. En Basado en página maestra, elija una página maestra diferente y haga clic en OK. ✏✏ Seleccione el nombre del pliego maestro que desea usar como base y arrástrelo hasta el nombre
de otro pliego maestro para aplicarlo. ✏✏ Página maestra B basada en Página maestra A • Edición de la maquetación de una página maestra ✏✏ Puede editar la maquetación de páginas maestras cuando lo desee. Los cambios se reflejan automáticamente en todas las páginas que tengan esa página maestra aplicada. Así, si añade un texto o un gráfico a una página maestra, aparecerá en las páginas de documentos en las que se haya aplicado la página maestra. ✏✏ Nota: si cambia o desvincula un objeto de página maestra en una determinada página, puede que dicho objeto no se actualice para reflejar los cambios realizados en la página maestra. ✏✏ En el panel Páginas, haga doble clic en el icono de la página maestra que desee editar o seleccione la página maestra en la lista del cuadro de texto situada en la parte inferior de la ventana del documento. El pliego maestro aparece en la ventana del documento. • Realice los cambios en la página maestra. ✏✏ InDesign actualiza de forma automática todas las páginas que utilicen dicha página maestra. ✏✏ Para cambiar el tamaño de la página maestra, selecciónela con la herramienta Página y utilice las opciones del panel Control para cambiar la dimensión. Consulte Uso de varios tamaños de página. ✏✏ Utilice varias vistas para ver los resultados al editar la página maestra. Seleccione Ventana > Disposición > Nueva ventana y, a continuación, seleccione Ventana > Disposición > Mosaico. Defina una vista para una página y otra para la página maestra aplicada a la página. A continuación, edite la página maestra y observe la actualización de la página. • Cambio de opciones de páginas maestras ✏✏ Puede editar opciones de página maestra para cambiar su nombre o prefijo, basarla en otra página maestra o cambiar el número de páginas del pliego maestro. ✏✏ En el panel Páginas, haga clic en el nombre de un pliego maestro para seleccionar el pliego maestro. ✏✏ Elija Opciones de página maestra para (nombre de página maestra)en el menú del panel Páginas. ✏✏ Cambie las opciones que le interesen y, a continuación, haga clic en OK. EJEMPLO RETICULAS 390
391
REJILLA BASE Las líneas de base de párrafo que no se alinean una al lado de la otra a través de una doble página dan un aspecto descuidado y poco profesional; también pueden ser nocivas para el mensaje y hacerlo de más difícil legibilidad. Un experto tipógrafo se esfuerza por establecer bloques de texto limpios y bien estructurados con perfecta conducción -el espacio entre líneas- lo que es ayudado en InDesign mediante la función de cuadrícula base. La cuadrícula base permite al tipógrafo producir consistencia en las columnas y párrafos de la página, proporcionando una rejilla como si fuera magnética donde el texto "encaje". • Inicia InDesign y crea un nuevo documento. Selecciona el número de columnas y el tamaño de página para el documento y haz clic en "Aceptar". • Selecciona "Editar" en el menú principal, luego desplázate a "Preferencias" y selecciona "Cuadrículas". Haz clic en el menú Color para elegir un color para la cuadrícula. Introduce un valor de cuadrícula en el campo de texto, luego selecciona el punto "Relativo" desde el que deseas que comience la cuadrícula: por ejemplo, la parte superior de la página. Selecciona el menú desplegable junto a "Incrementos" y selecciona la medida entre las líneas de la cuadrícula. Selecciona un valor de incremento que corresponda a tu destacado para obtener mejores resultados, de acuerdo a Adobe.com. Haz clic en el menú desplegable "Ver Umbral" y selecciona un valor por debajo del cual las cuadrículas no aparecen en la página. Selecciona "Aceptar". • Selecciona "Ver" del menú InDesign, luego, desplázate hacia abajo a "Cuadrículas y Guías" para elegir la opción "Mostrar cuadrícula base" del sub-menú. También puedes seleccionar las opciones de visualización de la barra de herramientas de la aplicación, luego selecciona "Cuadrícula Base". • Escribe el texto en un cuadro de dos o tres columnas de texto. Inserta el cursor en cualquier lugar del tipo y selecciona "Ctrl" + "A" para seleccionar todo el texto. Haz clic en la paleta "Párrafo". Selecciona el botón con columnas iguales, que se encuentra en la parte inferior derecha de la ventana para "Alinear con cuadrícula base." • Abre la paleta "Carácter". Haz clic en el el menú desplegable "Principal" o introduce un valor principal en el campo de texto hasta que las columnas se alineen perfectamente a través de la línea de la cuadrícula.
392
COLUMNACIÓN • Columna: Artículo de prensa escrito (y a veces firmado), que se renueva cada cierto tiempo en un diario o revista, ofreciendo una opinión o punto de vista sobre un tema de actualidad, o una mera disquisición por parte del escritor del mismo. La columna puede ser de aparición diaria, semanal, quincenal o mensual. Si no se repite se llama comentario y si refleja la posición oficial del medio de comunicación y no viene firmado se le llama editorial. ✏✏ Va firmado y representa la opinión particular del autor. ✏✏ Los temas pueden ser variados. ✏✏ Quien escribe puede elegir el tono, la perspectiva, etc. con la que piensa dirigirse a sus lectores, por ello su credibilidad y capacidad de influencia depende de: ✏✏ Columna de autor. Generalmente identificadas con el nombre del periodista (incluso hasta con su foto), están basadas en la idea de crear cierta complicidad entre el autor y el lector dadas por la familiaridad y la frecuencia con que aparecen sus comentarios. ✏✏ Columna de tema. En este caso no están a cargo de un solo columnista sino de varios que vierten su opinión sobre un mismo tema. • Medianil/Calle: En una publicación de dos o más hojas, la zona donde se pliega el papel. A veces, por extensión, el margen interior entre el texto o imágenes y el medianil en si. • Corondel: Raya vertícal que en tipografía se coloca para ayudar a separar columnas de texto. Cuando no existía corondel era costumbre llamar a ese espacio entre columnas "corondel ciego". Hoy día se le suele llamar simplemente "calle".
ELEMENTOS DE PÁGINA • Antetítulo • Resumen en pocas palabras el tema del que se va a tratar. • Título • Tiene la misión de llamar la atención e introoducir al resto del contenido. • Lo lógico es que el tamaño del titular sea mayor que el resto de texto que exista en la página, sin olvidar que deben estar equilibrados. • Subtítulo • Adelantan o resumen en pocas palabras, el contenido del bloque de texto. • Entradillas • Adelantan o resumen el tema del que se va a tratar. 393
• Deben e llamar la atención al lector para que lea todo completo. • Sumarios • Extractos o resúmenes del texto, a veces va entre filetes a una o varias columnas. • Ladillos • Suelen ocupar una línea y sirven para separar el texto en una columna demasiado larga destando algún epígrafe o apecto señalado del texto. • Funciona como recurso de ajuste del texto. • Texto • Es el contiene toda la información y lamentablemente al que menos se le presta atención, a veces porque resulta extenso, aburrido. • Cabeceras • Señala la sección, título de la publicación o edición. • Folio • Numeración de páginas. • Staff • Conjunto de personas que pertenecen a la dirección de una empresa o entidad. • Pie de foto • Nos da la información sobre la fotografía o ilustración, y normalmente es corto y conciso. • Es de los elementos que más se leen. • Normalmente se le aplica un cuerpo pequeño. • Cintillos • Donde se indica la edición del día, el número y el director. • Data • Agencia, periódicos y fotos del periódico. PÁGINAS A 1 COLUMNA
394
PÁGINAS A 2 COLUMNAS
PÁGINAS A 3 COLUMNAS
395
PÁGINAS A 4 COLUMNAS
396
PÁGINAS A 5 COLUMNAS
397
PÁGINAS A 6 O MÁS COLUMNAS
IDENTIFICACIÓN DE ELEMENTOS DE PÁGINAS
398
399
CABECEAR-PARANGONAR En diseño, cuando elementos de distintas columnas (de un mismo texto o de distintos textos), caen uno al lado del otro o casi (lo que es incluso peor). Ese es el caso de ladillos que coinciden, de capitulares o números de apartados, de titulos de varias historias… SANGRE La medida que se debe extender la impresión de un documento que vaya impreso hasta el mismo borde para que al cortarse al final en la guillotina no queden rebordes blancos o vacíos que lo afeen. La medida de esa sangre varía según cada proceso; en litografía offset estándar suele andar por los 3 mm. Determinar cuál es el máximo necesario de sangre ayuda a ahorrar costes de papel (ya que la rebaba cortada se tira).
400
ENCUENTROS Siempre se producirá cierta variación de coloer entre las hojas impresas, e incluso entre dos zonas de la misma hoja impresa. Por ese motivo conviene evitar colocar elementos de colores delicados a sangre por el lomo en páginas encaradas. Nunca lograremos un registro 100% exacto entre páginas encaradas. Por ese motivo conviene evitar colocar elementos en diagonal entre dos páginas encaradas. Debemos evitar también las líneas finas a sangre por el lomo. Cuanto más gruesa sea la línea, mejor registrada quedará.
RECORRIDOS Hacer una silueta es recortar una imagen del fondo o situación en la que está. Siluetear imágenes, algo muy común en diseño gráfico, se suele hacer para destacar una imagen (eliminado otros elementos) o para colocarla dentro de otra imagen (haciendo un fotomontaje).
401
PLANILLO Es básicamente un dibujo esquemático de las páginas de la publicación colocadas en sucesión y con los elementos principales que afectan a la producción señalados de algún modo. En ese esquema, se va indicando cómo se encuentra cada página o grupo de páginas con respecto a la producción: En elaboración, ya editadas, cerradas, enviadas a la fotomecánica, etc… En ese esquema también es posible indicar qué páginas pueden llevar elementos de color, tintas planas, imágenes, etc… y cuáles, no. La idea es que cualquiera, de un vistazo al planillo pueda saber en qué estado de producción está la publicación. Aunque hay muchas formas de hacer y llevar un planillo, desde el punto de vista de un editor o diseñador gráfico hay dos maneras que son las más usuales. Cada una tiene sus ventajas e inconvenientes. • Planillo con miniaturas de páginas Ésta es posiblemente el más corriente. consiste en un papel en el que se han dibujado miniaturas de las páginas y se ha marcado el contenido esencial de cada una, publicidades incluidas. Cuando se va acabando, se va tachando en diversos colores; por ejemplo: Nada si no se ha tocado, amarillo si se está maquetando, verde si ya se ha pasado a redacción para ajustar, rojo si se ha cerrado y enviado a fotomecánica…
✏✏ Ventajas ♦♦ Dependiendo del tamaño de las miniaturas, es fácil representar la distribución de los elementos del diseño como imágenes, despieces de texto, etc… ♦♦ Eso ayuda mucho a imaginar el ritmo del diseño dentro de la publicación. ♦♦ Al poder representar los elementos que componen la página, permite controlar el estado de cada pieza por separado (en un periódico diario, ver si se ha cerrado una columna pero no el artículo principal, por ejemplo). ♦♦ Facilita mucho indicar qué tipo de elementos pueden intervenir en una página (anotaciones sobre las tintas disponibles, sobre las imágenes o de cualquier otro tipo). ✏✏ Inconvenientes ♦♦ Cuando las páginas son muchas se vuelve muy difícil de manejar. ♦♦ En ese caso, es fácil indicar demasiadas cosas que no son necesarias. No es posible controlar la publicación de un sólo golpe de vista. ♦♦ Rehacerlo y mover temas o bloques de contenido se vuelve complicado. 402
♦♦ Es difícil ver la partición por pliegos. ♦♦ Si no se es disciplinado, pueden indicarse tantas cosas que pierda su finalidad y se convierta en una guía del diseño más que en un planillo. • Planillo de estadillo con casillas Este tipo de planillo es un poco más inusual de ver, pero para algunos tipos de publicaciones (revistas con mucha paginación, por ejemplo) es extremadamente útil. Consiste en una especie de tabla con casillas en las que se marcan los números de página, el tema que lleva en ella (basta el nombre resumido) y si lleva publicidades, encartes o cualquier otra peculiaridad). También admite en los laterales casillas con indicaciones especiales para que los editores, diseñadores o preimperores marquen en qué estado de su producción está (editado, maquetado, ajustado, corregido, mandado a fotomecánica, etc…) La principal característica de este estadillo es que es una tabla en la que las casillas se distribuyen siguiendo una especie de letra "U": Comenzamos arriba com la primera página y cuando llegamos a la mitad de la publicación (pongamos que la página 58), subimos en orden inverso por el lateral hasta que la última página (en este caso, la 116), queda al lado de la primera página. Si se trata de una publicación grapada, esto permite saber contando rápidamente que si hay un pliego central de 32 páginas, por ejemplo, éste pliego va de la 43 a la 74. En muchas ublicaciones y para muchos diseños, saber esa distribución por pliegos es relevante.
✏✏ Ventajas ♦♦ Se controla el estado de la producción general muy rápidamente, de un golpe de vista. ♦♦ Eso mismo, que sea un estadillo, lo hace ideal para departamentos de producción o implicados en ésta. ♦♦ Es muy fácil de rehacer total o parcialmente si hay que redistribuir el contenido (por cambios en la publicidad de una revista, por ejemplo). ♦♦ Representa muy fácilmente la distribución de las páginas por pliegos (ya sea en una publicación de hojas grapadas-embuchadas o pegadas con lomo americano). ♦♦ Por las ventajas anteriores es muy conveniente para publicaciones como revistas de gran número de páginas (personalmente lo uso regularmente y he llegado a usarlo con una de quinientas y pocas páginas y puedo dar fe de ello). 403
✏✏ Inconvenientes ♦♦ No se representa el contenido ni siquiera esquemáticamente. Por eso es más difícil imaginar cómo se ha distribuido. ♦♦ No puede servir como guía del diseño. Es un estadillo. ♦♦ No puede representar bien el estado de páginas en las que haya más de un bloque de contenido (como las de un periódico diario, por ejemplo). Para publicaciones más largas, con muchos pliegos, y peculiaridades como encartes de imágenes en medio, un planillo de estadillo más resumido es probablemente más útil. Hay, con las ideas apuntadas, cada uno se hará la idea de qué es lo que le conviene apuntar y desarrollará su estrategia. Por el contrario, para publicaciones que necesitan indicar de forma precisa control de contenidos en algunas zonas pero no en otras, posiblemente será más útil un planillo mixto entre miniaturas muy estadillo… En cualquier caso recuerda: Lo que hacía tan potente a una legión romana no era sólo su disciplina, sino su flexibilidad como unidad militar que le permitía redistribuir sus efectivos para adaptarlos a los distintos tipos de situación. El planillo debe ser igual: Disciplinado pero flexible para adaptarse al tipo de trabajo. Y para eso es importante tener claro que:
✏✏ Sólo debe haber un planillo. No deben existir copias. En un centro de trabajo, cada departamento puede tener el suyo, pero en cada departamento sólo debe haber uno y si hay uno por departamento, deben contrastarse con regularidad y siempre debe haber uno que mande (digamos que es el "planillo maestro", como el Anillo Único). ✏✏ Si hay varias personas, sólo algunas pocas estarán autorizadas a hacer cambios en el planillo.Y esos cambios se deben comunicar de inmediato (incluso antes de hacerlos) a quien se vaya a ver afectado. ✏✏ Si es una publicación con publicidad o espacios contratados, tras cada cambio se debe siempre volver a contar esa publicidad ("A ver… Había quince páginas y tres cuartos, debe haber…"). Eso evita muchos problemas. ✏✏ El planillo debe estar siempre disponible para la consulta de todos los implicados en la publicación. PUBLICIDAD 404
La publicidad en prensa, por la diversidad de formatos y precios que contempla, resulta adecuada para prácticamente cualquier anunciante. Las posibilidades de la publicidad en prensa son inmensas: anuncios en color, dobles páginas, publirreportajes, módulos en portada, encartes… La publicidad en prensa permite una excelente segmentación geográfica (periodicos locales, prensa de difusión nacional, ediciones regionales), así como una cierta segmentación demográfica y por intereses o estilos de vida. Contratar publicidad en prensa resulta sencillo, rápido y seguro, ya que las inserciones publicitarias rara vez están condicionadas a la disponibilidad de espacio. Asimismo resulta una publicidad muy flexible para el anunciante, ya que a lo largo de su campaña puede modificar el diseño de sus anuncios cuando quiera y tantas veces como desee, lo que le permite optimizar su mensaje y su inversión.
FORMATOS Y MEDIDAS MODULARES 305 299
DOBLE COLUMNA
PÁGINA
305
305
COLUMNA
PÁGINA
PÁGINA
268
258 229
229 ROBAPÁGINAS
206
206
191
191
1X5 152
1X4
MEDIA PÁGINA
CUARTO
MEDIA PÁGINA
113
1X3
2X3
1X2
2X2
3X2
PIE
1X1
2X1
3X1
4X1
FALDÓN
MEDIA PÁGINA
152
153
113
101
74
74
35
49
35 54
113
Reclamos.
171
Número de columnas: 4 Módulos por columna: 8
405
229
54
113
171
229
25
54
83
113
141
171 200
Espectáculos.
Clasificados.
No se pueden componer espacios de siete módulos de alto.
No se pueden componer espacios de siete u ocho módulos de alto, ni de siete columnas de ancho.
Número de columnas: 4 Módulos por columna: 6
Número de columnas: 8 Módulos por columna: 8
229
ESTILOS GRÁFICOS • Renacimiento y clasicismo Desde la aparición de los primeros tipos móviles en el siglo XV hasta nuestros días, la creación tipográfica ha trazado un camino paralelo a la creación artística. En unos casos la tipografía ha actuado de dinamizador y propagador de las corrientes artísticas, y en otros han sido la experimentación de los movimientos artísticos la que ha servido para descubrir a la tipografía nuevos caminos. Si bien muchos manuales que tratan sobre la historia de la tipografía comienzan haciendo un repaso a los primeros alfabetos, bien es cierto que el punto a partir del cual podemos hablar propiamente de una historia de la tipografía es, obviamente, en el que se sitúa la invención de los caracteres móviles y la prensa. Esto es en el año 1450 y su inventor el impresor alemán Johann Gutenberg, con lo que el período inmediatamente anterior a este hecho, el período gótico, es el punto de partida ideal para nuestro viaje. Los centros culturales del periodo gótico fueron los numerosos castillos y monasterios donde las jóvenes generaciones eran entrenadas para ser guerreros o monjes y donde aprendían a leer y a escribir. Los monjes copiaban meticulosamente textos antiguos a la mayor gloria de Dios para la posteridad y para distribuirlos a las nuevas iglesias consagradas. Algunos de sus trabajos fueron encargados por poderosos señores feudales que utilizaban las habilidades de los monjes para construir sus bibliotecas privadas acorde con su posición social. Al margen de los castillos y los monasterios las incipientes nuevas ciudades iban desarrollando su propia cultura de acuerdo a otras formas y contenidos. En algunas de ellas se crearon escuelas y el hombre medieval comenzó a rebelarse en contra de los privilegios de los señores feudales. Un sentimiento de que una nueva cultura se abría paso comenzó a cubrir todas las esferas de las artes y los oficios durante el S. XII. El primer símbolo visual de este nuevo sentimiento tuvo como punto de partida la arquitectura pero la escritura pronto se vería también afectada por este deseo de cambio. La letra gótica presenta unas formas pesadas y condensadas así como con una fuerte modulación vertical. Poco a poco, los trazos ascendentes y descendentes fueron acortándose haciéndose cada vez menos legible. Después de la completa aceptación de la escritura gótica en el S. XIII en el S. XIV se introdujeron transformaciones formales que anticipaban una mayor riqueza de las formas de escritura. El mundo del renacimiento, en sus esferas espirituales y artísticas, estaba firmemente asentando en torno a los ideales clásicos de la antigua Roma y Grecia. Los humanistas prepararon el camino para las nuevas ideas, que encontraron acomodo en las Universidades que fueron fundadas. Se descubrieron nuevos países y la evolución de la tecnología presagiaba una era nueva. La invención técnica más revolucionaria fue la prensa manual para tipos movibles inventada por Johannes Gutenberg en 1450. La Biblia de 42 líneas fue completada en el 1455. El arte de la imprenta se extendió rápidamente; alrededor de 1500 había unas 1100 imprentas en Europa. Un nuevo período en el desarrollo de la escritura había comenzado. En su Biblia Gutenberg utilizó un tipo que imitaba la escritura manual de la época en Alemania. En la 406
parte sur de Europa predominaba un estilo de escritura manual llamado humanista que se basaba en las mayúsculas inscripcionales romanas y las grafias de la minúscula carolingia. Esta letra fue el modelo para los impresores italianos que desarrollaron sus tipos a partir de ella y que cristalizó en el primer tipo romano que apareció en 1465. A este primer diseño le siguieron otros más refinados como el de Nicolas Jenson y el de Aldus Manutius. Más tarde entre 1530 y 1550 Claude Garamond creó en París su propio tipo basado en las romanas venecianas que pasó a ser la “joya de la corona” del estilo antiguo. Sobre el 1600 los tipos venecianos eran los más utilizados como fuente de libro en Europa y en la actualidad su uso está ampliamente extendido en todo tipo de trabajos por su armoniosa estructura que les dota de una gran legibilidad. La cultura del barroco refleja una época donde la riqueza y la abundancia se traducían en brillantes colores y formas redondeadas. Fue una época en la que el mecenazgo de los príncipes proporcionaba magníficos beneficios en el ámbito del teatro, música, pintura y arquitectura. Nombres como Rubens, van Dyck, Rembrandt o Bach y Händel disfrutan hasta hoy de una alta consideración. Después del desarrollo de la escritura y la tipografía en el renacimiento, las novedades de la época barroca son sobre todo un escalón intermedio en el camino hacia el clasicismo. Por eso los tipos barrocos se conocen como “de transición”. Si embargo hubo aportaciones que tanto prepararon el camino al siguiente estilo como enriquecieron los ya existentes. Holanda, Inglaterra y Francia jugaron un papel muy importante en el desarrollo de los tipos de transición. Un suceso clave de esta época en Francia, fue la orden dada por Luis XIV a la Imprimeire Royale para que creara un tipo destinado a su uso exclusivo. Este tipo conocido como Romain du Roi fue diseñado a partir de una retícula por Philippe Grandjean. En Holanda Christoffel van Dyck y Johann Michael Fleischmann crearon importantes alfabetos. En Inglaterra William Caslon y John Baskerville fueron los más innovadores. Los tipos de Caslon estaban influenciados por los patrones holandeses, sus cualidades formales y legibilidad les hicieron ser los tipos nacionales ingleses. Baskerville fue famoso no tanto por sus tipos como por las innovaciones que investigó en lo referente a soportes, tintas y encuadernaciones. El refinamiento de la tecnología utilizada en el desarrollo de los tipos, caracteriza el periodo clásico. El contraste entre los trazos se agudiza y las formas están más claramente estilizadas. Sus finos trazos los hacen menos legibles que las “romanas” pero con una superior elegancia. Las limpias estructuras y fáciles formas de la Antigüedad dominan la cultura del período y esto se refleja en los tipos de esta época. La presentación tipográfica suele estar justificada y centrada en un eje simétrico, la tipografía está llamada a cumplir la misión de definir una estructura para el texto de la manera 407
más óptima. Las nuevas ideas son puestas en práctica en muchos países de Europa. John Bell, Giambattista Bodoni, la familia Didot y Justus Erich Walbaum son los tipógrafos de la época. Aparecen numerosos libros nuevos que en contraste con los aparecidos en el período barroco están sobriamente decorados, las letras iniciales ornamentales son reemplazadas por grandes letras mayúsculas elaboradas con el mismo tipo que el cuerpo de texto. Uno de los más famosos libros que sobre tipografía aparece en este período es el Manuale Tipografico de Giambattista Bodoni publicado póstumamente y que presenta 373 tipos de letra. Esta fue una época marcada por la búsqueda de la claridad y legibilidad. En 1785 siguiendo el sistema de unidades desarrollado por Fournier, Firmin Didot diseña el sistema de medición tipográfica de puntos que en la actualidad es un estándar en Europa. Por lo que a las formas de las letras se refiere el período clásico representa el final del desarrollo del tipo romano y de las posibilidades de variación del mismo tanto en el contraste de sus trazos como en la disposición de sus ejes. • Cambio de siglo SXIX - XX Sobre 1860 el diseño se caracteriza por la adopción de formas del pasado. Esta actitud deviene en la utilización de ornamentos y formas del gótico y del barroco. Formalmente el historicismo se manifiesta en la pintura y en la escultura: Arcos, monumentos, frontispicios aparecen decorados con profusión remitiéndonos a la época clásica sin ningún tipo de conexión con el contexto actual. Al igual que las factorías parecen templos griegos, los materiales impresos parecen pequeños monumentos. El texto aparece centrado y los alfabetos están excesivamente decorados, sombreados e incluso aparecen algunos en tres dimensiones , formando la página en muchos casos una abigarrada mezcla de letras e ilustraciones. Muchos tipógrafos y críticos se unieron a la idea de que el historicismo no reflejaba las posibilidades contemporáneas de la forma y el contenido. Esto lo demostró la arquitectura por ejemplo cuando en 1851 fue abierto el Palacio de Cristal para la Exposición Universal en Londres. Construido en cristal y acero representa las utopías estéticas traducidas en formas revolucionarias de construcción. Es en la industrializada Inglaterra donde se siente la necesidad de reubicar al ser humano ante el avance de la tecnología, reconociendo una contradicción entre los medios de producción de masas y la labor creativa del individuo dando lugar a una búsqueda de referencias en tiempos pretéritos. Es así como se vuelve la vista a la Edad Media donde se hallan en las primeras catedrales, manuscritos, etc un rastro de autenticidad de cosas creadas por el individuo y no por la máquina y donde el artesano recibe un reconocimiento y una revalorización que hace replantear la división entre arte y oficio. Es en este contexto donde nace el movimiento “arts & crafts” (artes y oficios) y que fue iniciado por el poeta, pintor, artista artesano y tratadista William Morris (1834-1896). El movimiento de artes y oficios reclamaba el libro artesano y bello en la era industrial, no solo era importante la tipografía sino también el papel, las ilustraciones la impresión y la encuadernación. Estos postulados propiciaron 408
la aparición de numerosas imprentas privadas donde con la mirada puesta en la época medieval, vemos en la tipografía una vuelta a la rica ornamentación de los manuscritos, y conceptos como “legibilidad del tipo” o “unidad de la página” lleva a la creación de diseños abigarrados y compactos. Para los libros que su editorial, Kelmscott Press concibió entre 1888 y 1891 William Morris creó unos tipos que representaban el ideal de la era.
Su tipo Golden nos remite al tipo creado por Jenson en el S. XV y el tipo Troy es una mezcla de gótico con elementos romanos. Asimismo creó líneas, ornamentos e iniciales para apoyar y complementar sus alfabetos. El movimiento fue el mayor estímulo para el modernismo del S. XX. Hubo fundiciones americanas y europeas que no sólo copiaron los tipos de Morris sino que pusieron en marcha sus propias iniciativas de recuperación, relanzando nuevas versiones de los tipos antiguos y de transición, caídos en desgracia hacía tiempo. La voz cantante de esta recuperación la llevaron la American Type Founders Company y las filiales estadounidense y británica de la Monotype Corporation. Esta última, bajo la dirección tipográfica del historiador y erudito Stanley Morison, fue responsable de recuperar para el uso moderno muchos tipos casi olvidados que hoy son de uso común para los diseñadores, como Bembo, Baskerville y Fournier. La recuperación de los tipos venecianos durante finales del S. XIX y principios del S. XX, incluía el tipo Golden de William Morris, Goudy Old Style de Frederic Goudy, Cloister Old Style de Morris Fuller Benton y Centaur de Bruce Rogers. • Las vanguardias ✏✏ Futurismo Con el comienzo del siglo escritores, pintores, diseñadores y tipógrafos se aventuran en la búsqueda de nuevos modos de expresión. El futurismo fue uno de los primeros movimientos que supuso una ruptura frontal con las formas tradicionales. Los increíbles avances tecnológicos de la época llevan a los futuristas a mitificar a la máquina y a convertir a la velocidad en su religión. Como líder indiscutible de este movimiento podemos destacar a Filippo Tommaso Marinetti (1876-1944). Los diseñadores intentan capturar la energía de la velocidad con arcos dinámicos y superestructuras en la página. Los textos se reparten por la página a modo de collage y forman formas constructivas, el método estándar de lectura desde hace siglos es cuestionado en muchos trabajos de los futuristas. Otro rasgo definitorio de este periodo es que el tipo y las letras se convierten en elementos autónomos de diseño empleados de forma libre, 409
se acude al fuerte contraste de formas y tamaños y el uso de la línea diagonal con el texto y la repetición secuencial del mismo hace surgir una tipografía de símbolos verbales. En esta era de la velocidad nadie está interesado en el desarrollo de un alfabeto destinado al uso corriente, son los tipos ya existentes los que sirven para cualquier propósito reduciéndolos, cortándolos y modificándolos, sirviéndose para este fin de tipos romanos, sans serif o slab serif. Los futuristas rusos si bien tuvieron una vida efímera, si que sirvieron para que a partir de ellos nacieran otros movimientos que llevaron la exploración de la tipografía a nuevos límites. Destacar por ejemplo el impacto que las pinturas geométricas de Kasimir Malevich tuvieron sobre El Lissitsky. También corresponde a esta época el libro de Vladimir Maiakovsky “Una Tragedia” que diseñado por Vladimir y David Burliuk hacía un uso sorprendente de los espacios en blanco con fuertes contrastes de tipos de letra, dirección y tamaño todo ello dirigido a crear un impacto emocional en el lector y que puede ser considerada un antecedente directo del diseño posterior a la Revolución rusa. ✏ Dadaismo Dadá fue un movimiento literario y plástico fundado en Zurich en 1915 y que se expandió rápidamente al resto de Europa. Comenzó como un movimiento anarquista de oposición a los valores sociales imperantes y al absurdo de la Primera Guerra Mundial. La tipografía dadá era totalmente inutilizable con fines de información y publicidad pero la libertad de formas que tenía es todavía muy estimulante como experimento individual de diseño. Las letras se juntan y se repelen formando formas caprichosas y líneas interrumpidas, conjugadas con fuertes contrastes de tamaño y grosor y llegando a ser en algunos casos elementos ilustrativos de la composición, formas pictóricas que se entremezclan con las mismas y en todo caso un fuerte dinamismo visual. Ninguna otra innovación artística del S. XX fue tan duramente criticada como el dadaismo por opositores políticos y grupos sociales. ✏ Expresionismo El expresionismo surgió como una corriente artística que buscaba la expresión de los sentimientos y las emociones del autor, más que la representación de la realidad objetiva. El movimiento expresionista apareció en los últimos años del siglo XIX y primeros del XX como reacción frente a los modelos que habían prevalecido en Europa desde el renacimiento, particularmente en las anquilosadas academias de Bellas Artes. El artista expresionista trató de representar la experiencia emocional en su forma más completa, sin preocuparse de la realidad externa sino de su naturaleza interna y de las emociones que despierta en el observador. Para lograrlo, los temas se exageran y se distorsionan con el fin de intensificar la comunicación artística. En el campo de la publicidad comercial el expresionismo gozó de pocas oportunidades para aplicar sus principios, sin embargo en libros, revistas o posters y en pequeñas ediciones para bibliófilos y en los panfletos políticos extremistas si se produjeron interesantes ejemplos con innovadores resultados. Desde un punto de vista formal la utilización de los distintos alfabetos no pasa de tener un objetivo informativo y universal pero reflejando el sentido individual dañado por la industrialización y los políticos. Si bien el expresionismo produjo resultados destacados durante un breve periodo, hasta hoy son visibles sus huellas. 410
Se reconoce y valora el intento de crear una expresión personal sin consideración a las reglas del estilo dominante. Trabajando la piedra de litografía o la madera los artistas se encontraban en disposición de dar forma a sus ideas. Los artistas expresionistas pronto integraron los productos de esos experimentos tipográficos en su repertorio. El individualismo fue la fuerza por una parte pero la debilidad por otra pues las repeticiones y la no transmitibilidad a todas las áreas del diseño limitaron las posibilidades e impidieron que pudiera surgir un movimiento renovador amplio. • Bauhaus, Art Decó y estilo internacional. Después de la “liberación” de las estructuras tipográficas tradicionales que supuso la aparición del Futurismo, Dadaismo y Constructivismo, los años veinte ven aparecer trabajos influenciados no solo por nuevas formas de letras sino por la disposición del texto en la página y la maqueta de esta. Los trabajos se corresponden con una aproximación funcional e interpretativa, pero introduciendo una libertad de asociación personal y sensible y para esto los creadores se sirven de letras realizadas por ellos mismos, abandonan la línea recta en la composición de textos y la proporción de los caracteres y los elementos gráficos se equilibran dentro de la página. Los textos se sitúan en el límite entre la legibilidad y la visibilidad, una técnica que años más tarde sería utilizada en la poesía visual. Estos experimentos se suceden tras el deseo de cambio que surgió tras la Primera Guerra Mundial. Fueron creados por diseñadores individuales pero fueron las escuelas que se crearon como la Bauhaus los que le dieron una identidad, y donde se promovía a los estudiantes a la búsqueda de su propio estilo estilístico. La razón de esta nueva orientación cabe encontrarla en la oposición a la rígida concepción del arte que existía en la época. ✏✏ Tipografía elemental El final de la Primera Guerra Mundial abre la necesidad de encontrar nuevos caminos. Esto se manifiesta en los movimientos revolucionarios de la época que aspiran a una renovación radical de la cultura. Si el expresionismo situaba en los años 20 el corazón de la creación en la emoción y en el individuo, la “tipografía elemental” se desarrolla a partir de las formas claras y reduccionistas del constructivismo y constituirá la base del modelo informativo y práctico que marcará la comunicación visual en el S. XX. Rechazando las tipografías serif mayormente utilizadas hasta entonces y la puesta en página con un eje simétrico, los pioneros del estilo moderno buscan un nuevo estilo acorde con los desarrollos tecnológicos del momento y que plasmara la realidad de una nueva época. Conceptual y estilísticamente los tipos sans-serif son elegidos como los más apropiados para reflejar los nuevos tiempos. La “tipografía elemental” reclama poner fin a la confusión estilística de los períodos precedentes. Su estilo se concentra en la claridad formal y la eliminación de motivos ornamentales superfluos, la asimetría de la puesta en página y el uso restringido de tipografías. De este período cabe destacar la tipografía Futura diseñada por Paul Renner y supuestamente basada en los trabajos preliminares de Ferdinand Kramer en 1927 y que pronto se convierte en el tipo que mejor expresa la esencia de los postulados de este movimiento. ✏✏ Art Decó El estilo Art Decó se da a conocer en la Exposition Internacionale des Artes Dècoratifs et Industriels de 1925 celebrada en París. Entre las obras que se engloban bajo la denominación de Art Decó hay ciertos tipos y prácticas caligráficas que imprimieron un sello inconfundible a algunas obras de imprenta del período 411
de entreguerras y sobre todo en el campo de la publicidad elegante en forma de revistas y carteles. A través de las líneas geométricas básicas los principales motivos utilizados por este estilo eran patrones florales provenientes del Art Nouveau y los nuevos planteamientos del cubismo y el poscubismo. A diferencia de los seguidores de la “tipografía elemental” los diseñadores del Art Decó no querían cambiar la sociedad en la que vivían, al contrario ellos querían destacar el mundo del consumismo. Esto es evidente en revistas, libros y posters de la época y también en el mundo de la arquitectura, moda, mobiliario, etc. Las creaciones tipográficas del Art Decó fueron diseños en general muy decorados y poco utilizables excepto para fines publicitarios. Eran alfabetos abstractos, geométricos y de formas elementales y muchos no estaban basados en la tipografía tradicional recurriendo en ocasiones a dotar a las letras de formas tridimensionales. El principio por el que se regían estos alfabetos era la decoración quedando la legibilidad en un segundo plano. El cartelista más notable de este período fue A. M. Cassandre (1901-1968) y unas de las fuentes más utilizadas Broadway diseñada por Morris Benton y lanzada por America Typefounders y también por Monotype. La creatividad del período Art Decó está íntimamente ligada a otras manifestaciones de la época como la electrificación universal, las líneas aerodinámicas y el comienzo del jazz. ✏✏ Tipografía tradicional Después de que la turbulenta fase de movimientos estéticos llega a su fin, los años 30 ven el resurgimiento de tendencias conservadoras y reaccionarias en todas las áreas de la creación. El “nuevo arte”, la “nueva tipografía” son destinatarios de severas críticas. El poder político está especialmente interesado en suprimir las vanguardias. En la Unión Soviética se condena al “nuevo arte”; en Alemania es etiquetado como “arte degenerado”, por ejemplo los artistas relacionados con la Bahuaus como Gropius, MoholyNagy, Bayer y Mies van der Rohe debieron emigrar a los Estados Unidos. Como contraposición a todos los experimentos tipográficos realizados en los años precedentes, el grueso del material impreso como libros, periódicos, etc seguía ateniéndose a los parámetros tradicionales. Esta constatación da pie a los tradicionalistas para atacar a los apóstoles de la nueva tipografía así como a defender sus puntos de vista en relación a cuestiones como uso de tipo, legibilidad, puesta de página, etc. La plataforma de la cual se sirvieron los partidarios de esta corriente fue la revista tipográfica “The Fleuron”, editada por Stanley Morison y que a pesar de una vida efímera, pues solo se llegaron a publicar siete números, tuvo un amplio eco entre la comunidad de editores e impresores. En su último número Stanley Morison publicó sus famosos “First Principles of Typography” (Principios fundamentales de la tipografía) los cuales tuvieron una amplia propagación e influencia. Las tendencias más moderadas corren paralelas a las vanguardias. En Inglaterra donde la perspectiva de una revolución está ausente, el desarrollo de tipos de impresión contempla la vuelta de los valores clásicos en tipografías de uso cotidiano. En 1932, Stanley Morison basándose en el tipo romano Plantin crea la tipografía llamada Times New Roman para el diario The Times que se convirtió en uno de los tipos más usados del mundo. El objetivo de Morison era mejorar la calidad de impresión del periódico y hacerla similar a la lograda en la impresión de libros. Con el paso del tiempo la Times New Roman también fue usado con profusión en el campo de la impresión de libros. ✏✏ El estilo internacional Tras el paréntesis que significó la II Guerra Mundial, un nuevo estilo de diseño gráfico emerge en Suiza en los años 50 y llegará a ser el predominante hasta los años 70 y una referencia imprescindible en la época actual, de hecho sus teorías sobre la forma tipográfica siguen estando en la base de las enseñanzas que se imparten en las escuelas de diseño. Este movimiento es conocido como “estilo internacional”. El nuevo estilo se funda sobre las innovaciones previas de los constructivistas y especialmente de la “tipografía elemental” y tiene en cuenta a su vez la necesidad creciente de comunicación internacional y el desarrollo de un nuevo medio, la fotografía. Este estilo se sustentaba sobre tres pilares básicos: 412
♦♦ El uso de una rejilla modular que dotaba al diseño de coherencia y estructura interna. ♦♦ El empleo de tipografías sans-serif y disposición asimétrica de los distintos elementos del diseño. ♦♦ Utilización de la fotografía en blanco y negro en lugar de ilustraciones. La impresión general era simple y racional con una estructura clara y concisa. El estilo tuvo como centro de eclosión dos escuelas de diseño en Suiza, una en Basilea liderada por Armin Hofmann y Emil Ruder y otra en Zurich a cargo de Joseph Muller-Brockmann. Ambos habían estudiado con Ernst Keller en la Zurich School of Design donde se enseñaban los principios de la Bahuaus y de la nueva tipografía de Jan Tschichold. Emil Ruder fomentaba en sus alumnos la utilización y el aprecio del espacio en blanco como parte integrante del diseño así como la limitación en el uso de diferentes tipografías. Los trabajos de Hofmann se caracterizaban por la acentuación del contraste entre los elementos del diseño A su vez Muller-Brockmann dictaba normas más estrictas en la composición del diseño que entendía como algo eminentemente funcional, separación de líneas de texto compactas, letras sin remate, espacio entre palabras uniforme eran algunos de sus postulados caracterizándose sus trabajos por la exploración del ritmo y del tempo de las formas visuales. El nuevo estilo pronto llegó ser la imagen oficial de muchas instituciones del país que lo usaban para posters y vehículos de publicidad y si bien al principio este tenía un marcado carácter localista pronto se extendió universalmente tanto por los propios desplazamientos de los diseñadores por toda Europa y por Estados Unidos como por la difusión que del estilo internacional hizo la revista “Neue Grafik” fundada en 1959. Otro factor que contribuyó a la rápida extensión del estilo fue el incremento y la globalización de los mercados y el auge de las comunicaciones hacen que las corporaciones internacionales tengan la necesidad de una identificación global, identidad que es construida de acuerdo a los principios del estilo internacional. La creciente demanda de tipografías sans-serif (que fueron las elegidas para las composiciones del diseño suizo, por diversos factores pero sobre todo por la influencia de la Bahuaus), posibilitó la aparición de dos tipos sans de gran calado y enorme influencia: la Helvética y la Univers. A partir de la popularidad que en los diseñadores del estilo suizo tenía el tipo Akzidenz Grotesk, creado por Berthold en 1896, Edouard Hoffman de la fundición Haas encargó a Max Miedinger que lo refinara para ampliar la versiones disponibles. Así apareció la Neue Hass Grotesk, que más tarde pasó a denominarse Helvética al venderla a Stempel (1957) y después a Linotype. Ahi que destacar que la génesis de este tipo corresponde a una gran demanda existente, así se consolidó rápidamente para trabajos publicitarios e incluso en composiciones de texto. En lo que se refiere a Univers no nace tanto en respuesta a una demanda como de una búsqueda personal de un alfabeto funcionalista. Univers fue diseñado por Adrian Frutiger y fue presentada en una gran gama de 21 variantes cuya nomenclatura supuso una revolución en la descripción de tipos, por Deberny&Peignot en 1954. ✏✏ Fotocomposición En el campo de la producción tipográfica hacia finales de la década de 1950 el sistema de fotocomposición, cuyos primeros experimentos se remontan a principios del S. XX, se encuentra en disposición de 413
ser utilizado comercialmente permitiendo un abaratamiento de los costes aunque la tendencia a utilizar un mismo patrón para diferentes tamaños en vez de uno para cada tamaño, hace que la calidad de las letras se degrade y esto hacía que todavía se siguiera prefiriendo la tipografía tradicional. • Años 60 Los avances en la tecnología tipográfica y de impresión unidos a la creciente expansión de la televisión así como el despertar de una cultura juvenil contestataria y activa dibujan una época en la que la propia esencia de la tipografía es revisitada. El perfeccionamiento de las máquinas de fotocomposición posibilitan que en contraposición a los rígidos tipos de metal ahora estos se puedan ensanchar, contraer, distorsionar, estirar con lo que por una parte se despiertan las inquietudes creadoras de muchos diseñadores como las lamentaciones por la pérdida de calidad de otros muchos. Otro hito importante de la época fue la aparición en 1961 de las letras transferibles de Letraset que con su importante catálogo de tipografías supuso una gran ayuda a la hora de la composición creativa tanto de publicidad como de cartelería y que tuvieron un gran impacto visual en los diseños de la época. El movimiento artístico más destacado de este período fue el pop-art que se caracterizaba por la utilización de la tipografía, elementos de la cultura urbana y del grafismo popular y el cómic destacando entre sus integrantes a Andy Warhol, y Roy Lichtenstein. Los trabajos de los diseñadores más representativos muestran una nueva expresividad que se apoya en una segunda lectura unas veces irónica otra divertida y la complicidad con un público cada vez más sofisticado y preparado para la decodificación de mensajes visuales complejos. Citar como exponente de esta forma de expresión a Herb Lubalin (1918-1981) y los trabajos que desarrolló a partir de un buen concepto y unos excelentes trucos tipográficos. Esta manera de aplicar la tipografía de forma conceptual que se creó en Estados Unidos pronto tuvo su reflejo en Europa y en especial en Inglaterra donde inmediatamente contó con un gran número de practicantes que la aplicaron a sus diseños publicitarios ya que si bien los dictados del “estilo internacional” suizo seguían prestándose como solución óptima para crear una estructura de jerarquía tipográfica y una presentación del contenido, se veían lastradas por sus propios postulados para crear un lenguaje gráfico publicitario que atrajera al consumidor. La época de los movimientos contraculturales, contrarios a la guerra del Vietnam y el movimiento hippy trajo consigo un nuevo código visual que se manifestó sobre todo en la música y la moda. Portadas de discos y carteles de conciertos, se vieron asaltados por una legión de tipos caligráficos con extrañas y retorcidas formas organicistas de ascendencia Art-Nouveau y colores fuertemente contrastados que conformaban escenas de fuerte carácter onírico y sicodélico. • Funcionalismo y New Wave El diseño tipográfico en los años 70 se configura en torno a la experimentación que la fotocomposición proporciona y que permite que los tipos se compriman, se superpongan unos a otros y se fuercen hasta el límite de la legibilidad creando de esta manera un claro estilo contemporáneo, y la creación de empresas que canalizan la fuerte creación de nuevos tipos. En efecto, en 1970 Herb Lubalin y Aaron Burns crean la International Typeface Corporation (ITC) con el fin de comercializar nuevos diseños tipográficos que suministrarían a otros fabricantes de tipos y de composición tipográfica. Empezando por el propio archivo de los fundadores se dio también entrada a las creaciones de otros diseñadores y los derechos de autor se pagarían por el uso del tipo, de esta forma también el diseñador saldría beneficiado. Los primeros tipos que ITC comercializó fueron entre otros: Souvenir (Ed Benguiat 1970), American Typewriter (Joel Kaden y Tony Stan 1974) y el Avant Garde (Herb Lubalin 1964). En cuanto al diseño en si, y tras casi dos décadas de permanencia del estilo internacional, este se empieza a ver cuestionado y curiosamente la principal reacción se produce en la tierra que le vio nacer Suiza, de la mano del diseñador Wolfgang Weingart. 414
Weingart comenzó a dar clases en la Escuela de Diseño de Basilea en 1968 y su posicionamiento respecto al estilo internacional dominante fue el de cuestionar el ángulo recto y la retícula animando a sus alumnos a que buscaran otra disposición tipográfica que no partiera de una aplicación sistemática de unos conceptos sino de la propia expresividad del tipo. Al poco lo que era una formulación radical que buscaba desmarcarse de la ortodoxia que representaba el estilo internacional se convirtió a su vez en otro estilo que se dio a conocer como New wave y cuyos rasgos comunes consistían en las inversiones del tipo, bloques de texto escalonados, diferentes espaciados, subrayados, etc. así como el uso de la fotografía con una trama fuerte que le daba más aspecto de grafismo que de obra realista. Otro tipo de reacción fue el que ocurrió a finales de la década de 1970 y que fue protagonizado por el grafismo asociado a la aparición del movimiento punk en Inglaterra. Aparecieron una serie de diseñadores, principalmente en Inglaterra, que consolidaron su obra no por la estética que crearon sino por la libertad y sentimiento con que dotaron a sus obras utilizando para ello las emociones antes que la razón y vapuleando las normas históricas establecidas. Si bien no se extendió mucho en el tiempo su aparición fue verdaderamente convulsiva. • Revolución Digital Sin lugar a dudas el motivo fundamental que desencadenó la fiebre por el uso y conocimiento de la tipografía fue la aparición en 1984 del ordenador personal de Apple Macintosh. Si bien IBM lanzó su modelo de ordenador personal (PC) al comienzo de los años 80, fue el ordenador presentado por Apple el que con su interfaz gráfico y facilidad de uso posibilitó, junto con los programas PageMaker y QuarkXPress, el nacimiento del concepto de autoedición. Pronto los diseñadores descubrieron las posibilidades de este sistema en cuanto a rapidez, economía y posibilidades de control y su uso se extendió rápidamente al mismo tiempo que aparecían nuevos periféricos como el escáner que posibilitaban la introducción de los distintos elementos del diseño en el nuevo flujo de trabajo digital. Asimismo la industria gráfica se tuvo que adaptar rápidamente para la nueva era lo que significó que en un corto período de unos diez años la revolución digital se consolidó plenamente. En este período en lo referente a creación de tipos se empezaron a crear de forma que sirvieran para darlos salida en impresoras de gama baja y que se vieran bien en las pantallas de los ordenadores (Lucida, Demos, Praxis pueden servir de ejemplo). La compañía Adobe contribuyó esencialmente con la creación del Adobe Type Manager (ATM) una utilidad que evitaba el mal efecto visual del escalonamiento de los tipos cuando se ampliaban y que posibilitaba hacerte una idea más precisa del aspecto final y la estandarización del lenguaje de descripción de página PostScript que dibujaba los diferentes tipos utilizando curvas. 415
416
TEMA 6B: LA PUBLICACIÓN DIGITAL ¿Qué es la publicación digital? 421 Evolución histórica de la tecnología de visualización 421 Tecnologías de pantalla E Ink 426 Tecnología de pantalla LCD IPS con retroiluminación LED 428 Tecnología de pantalla AMOLED 431 Libro electrónico 433 Evolución histórica del libro electrónico 434 Características de un E-Reader 435 Ejemplos de E-Reader 436 Características de una tableta 439 Comparativa de tabletas 441 Dimensiones de las pantallas 441 Formatos de archivo 445 Adobe Digital Editions 448 Libros de texto: Inkling 449 Libros infantiles 450 Revistas 451 Cómics 452 Catálogos 453 Nuevos soportes, utilidades y otras App's 454 Aplicaciones para publicación digital 457 Estructura de documentos y maquetación 461 Dimensiones de documento 462 Páginas verticales y horizontales 464 Superposiciones interactivas (Overlay Creator) 465 Flujo de trabajo en publicación digital 469 417
Creaci贸n de archivos para varios dispositivos 469 Compartir 473 Publicaci贸n 473 iBooks Author 474
418
419
420
¿QUÉ ES LA PUBLICACIÓN DIGITAL? En la era de la tecnología, el papel se usa cada vez menos, mientras que el arte de la publicación digital se convierte en un formato cada vez más ampliamente aceptado para compartir información. La publicación digital puede describirse como una forma de comunicación sin papel. Una vez restringida sólo a los profesionales de la industria, la publicación digital es ahora accesible para cualquier, tanto para uso personal como profesional. La publicación digital es el arte de convertir una página de texto a un formato digital.A través del uso de ciertos programas de software, los usuarios pueden crear un libro, revista, presentación o ensayo en formato digital. En un tiempo, los libros digitales, conocidos como 'eBooks', o libros digitales, estaban destinados a temas muy técnicos y sólo un muy pequeño porcentaje de personas estaban interesados en el tema. Ahora todo el mundo, de escritores de ficción a artistas, cocineros y viajeros tienen la capacidad de crear sus propios libros digitales y compartirlos con otras personas. Con el surgimiento de programas dedicados a la publicación digital, se ha vuelto más fácil y rápido el escribir, presentar, crear y publicar. El formato de Adobe PDF toma tus documentos de Word o Power Point y los convierte en un formato fácil de usar que puede ser descargado o enviado vía correo electrónico a prácticamente cualquiera. La era de la publicación digital ha crecido para convertirse en la era de los libros digitales y los lectores; libros en un formato completamente libre de papel. Un libro en formato 'reader' puede leerse en uno de los dispositivos actuales diseñados para leer libros, como el 'Kindle' de Amazon, el 'Kobo eReader' de Borders y el 'iPad' de Apple. De novelas a libros de texto, las posibilidades son infinitas. Estos lectores ofecen características adicionales, como un diccionario adjunto, un tesauro y señalador de páginas digital, pasapáginas y enlaces html. La publicación digital da a los artistas y escritores una ventaja sobre la publicación en papel debido a la capacidad de incluir fácilmente enlaces html en el texto, ofreciendo al lector la ventaja de no solo ver su publicación, sino la capacidad de ir a muchos otros sitios de la misma fuente. Adicionalmente, ahorra papel, puede fácilmente convertirse en global por medio de enlaces web y correo electrónico y puede modificarse en cualquier momento, manteniendo la publicación actualizada apropiadamente. La publicación digital ha convertido a todo el mundo en escritor, lo que tiene sus ventajas, ya que otorga a la gente creativa un medio para compartir sus creaciones, ya sea un trabajo escrito o de arte, a una audiencia mundial. La desventaja es que la calidad de lo que está disponible por medio de fuentes digitales como libros y revistas, no tiene el riguroso control de calidad que una vez existió, cuando era mucho más difícil y caro el publicar. EVOLUCIÓN HISTÓRICA DE LA TECNOLOGÍA DE VISUALIZACIÓN 421
Dispositivos de visualización de accionamiento eléctrico han desarrollado a partir de los sistemas electromecánicos para la visualización de texto, hasta los electrónicos-dispositivos capaces de movimiento completo de color 3D pantallas gráficas. Los dispositivos electromagnéticos, usando una bobina de solenoide para controlar un indicador visible o flap, fueron el primer tipo, y se utilizaron para las pantallas de texto, como los precios del mercado de valores y tiempos de presentación de llegada / salida. El tubo de rayos catódicos era el caballo de batalla de la tecnología de texto y visualización de vídeo durante varias décadas hasta que fue desplazada por plasma, cristal líquido (LCD) y los dispositivos de estado sólido, tales como LEDs y OLEDs. Con la llegada de los microprocesadores y los dispositivos microelectrónicos, muchos elementos de imagen individuales más ("píxeles") podría ser incorporado en un dispositivo de visualización, permitiendo despliegues gráficos y video. Una de las primeras pantallas electrónicas es el tubo de rayos catódicos (CRT), que se hizo comercial en 1922. El CRT consiste en un cañón de electrones que forma las imágenes al disparar electrones en una pantalla recubierta de fósforo. Los primeros tubos de rayos catódicos eran blanco y negro y se utilizan sobre todo en osciloscopios y televisores en blanco y negro. La primera CRT de color comercial fue producido en 1954. CRT eran la tecnología de pantalla más popular solo se usa en los televisores y monitores de ordenador durante más de medio siglo, no fue sino hasta la década de 2000 que los LCD comenzaron a reemplazar gradualmente. Un derivado de tubos de rayos catódicos eran tubos de almacenamiento, que tenían la capacidad de retener información que aparece en ellos, a diferencia de los CRT estándar que necesitan ser refrescada periódicamente. En 1968, Tektronix introdujo el directo-View Tube Biestable de almacenamiento, lo que llegó a ser ampliamente utilizado en osciloscopios y terminales de ordenador. • Monochrome CRT 1922 Monochrome cathode ray tube:
• Color CRT 1954 Color cathode ray tube for the display of color television:
422
â&#x20AC;˘ Direct-View Bistable Storage Tube 1968 The Direct-View Bistable Storage Tube CRT retains static information displayed upon it, written using a steerable electron beam that can be turned off. In principle the DVBST is similar to an Etch-aSketch, and was used in vector displays of early computers and in oscilloscopes.
1957 Split-flap display:
1961 Flip-disc display:
1964 Monochrome plasma display:
423
1968 Light-emitting diode:
1967 Vacuum fluorescent display as used in consumer electronics.
1971 Twisted nematic field effect LCD
1984 Super-twisted nematic display (STN LCD) to improve passive-matrix LCDs, allowing for the first time higher resolution panels with 540x270 pixels.
424
Pin screen:
1969 Braille display
1986 Color Th in fi lm transistor liquid crystal display:
1995 Full-color plasma display
425
2003 Organic light-emitting diode display (OLED)
2003 Active-matrix OLED (AMOLED)
2004 Electronic paper:
TECNOLOGÍAS DE PANTALLA: E INK E Ink (tinta electroforética ) es un tipo específico de propiedad de papel electrónico fabricado por E Ink Corporation , fundada en 1997 sobre la base de la investigación comenzó en el Media Lab del MIT . Joseph Jacobson y Barrett Comiskey figuran como inventores en la patente original presentada en 1996. Actualmente se encuentra disponible comercialmente en escala de grises y color y se utiliza comúnmente en los dispositivos móviles, como los e -readers y , en menor medida , teléfonos móviles y relojes. El 1 de junio de 2009, E Ink Corp. anunció un acuer426
do para ser adquirida por uno de sus socios comerciales principales , Prime View Int'l Co. Ltd, de 215 dólares EE.UU. millones de dólares. Se prevé que la compra por este taiwanés la empresa pondrá a la producción de la EPD e -Ink en una escala más grande que antes , como Prime View también posee BOE Hydis Technology Co. Ltd y mantiene una relación estratégica asociarse con Chi Mei Optoelectronics Corp. , que es ahora Chi Mei Innolux Corp. , parte de la Hai- Foxconn Grupo Hon . Es de destacar que Foxconn es el único socio del ODM para de Prime View Netronix Inc. , el proveedor de E -Ink de pantalla e-readers de cambio de marca ( los productos de usuario final pueden aparecer en cualquiera de varias marcas , por ejemplo , Bookeen , COOL- ER , PocketBook , etc.) En diciembre de 2012, E -Ink adquirió SiPix , una empresa pantalla electroforética rival. El material se procesa en una película para la integración en las pantallas electrónicas , particularmente para los e-readers . El Motorola F3 fue el primer teléfono móvil para emplear la tecnología de tinta electrónica en su pantalla , aprovechando la ultra-bajo consumo de energía del material. Además, el Samsung Alias 2 utiliza esta tecnología como la pantalla en el cambio de botones. La edición limitada edición norteamericana de la revista Esquire octubre de 2008 fue la primera portada de la revista para integrar E Ink y contó con texto parpadeante. La cubierta fue fabricado en Shanghai , China, fue enviado refrigerado a los Estados Unidos por la unión y fue impulsado por un suministro de 90 días de la batería integrada nominal. E Ink Vizplex es el nombre interno de la línea actual de las tecnologías de pantalla de E Ink . Cada versión / modelo de la tecnología Vizplex se comercializa bajo diferentes nombres de marca , como se detalla a continuación.Vizplex se utiliza a veces para referirse a la específicamente la primera generación de la línea , con el fin de distinguirla de otras generaciones , aunque hablando con propiedad , la perla y Triton también son tipos de pantallas Vizplex , como se indica por el texto " E Ink Vizplex " en la parte inferior de las pantallas de inicio para esas pantallas. Fotografía macro de pantalla Kindle 3 , centrada justo por debajo de la superficie; microcápsulas son claramente visibles en tamaño completo E Ink Pearl, anunciada el 31 de julio de 2010, es la segunda generación de pantallas E Ink Vizplex , una pantalla con mayor contraste construido con E Ink Pearl Imaging Film . La actualización Amazon Kindle DX fue el primer dispositivo anunciado para utilizar la pantalla, y el Kindle 3 , Kindle 4 , y el Kindle Touch también incorporan la visualización de las Perlas. Sony también ha incluido esta tecnología en su más reciente lanzamiento de la edición Sony Reader Touch. Esta pantalla también se utiliza en el Nook Simple Touch , Kobo eReader Touch, Kobo Glo, Onyx Boox M90 y X61 . E -ink Mobius (E -ink Flex ) es la próxima modificación de Pearl E -ink . No tiene una de las principales desventajas de los dos primeros modelos de pantallas de tinta electrónica : sustrato de vidrio muy delgada. Vizplex E -ink y Pearl E -ink tienen pantallas muy frágiles que pueden romperse fácilmente. Sustrato de E 427
-ink Mobius está hecho de plástico flexible. No puede ser roto por pequeños pliegues y golpes. E Ink Triton anunció el 9 de noviembre de 2010, la tercera generación de E Ink Vizplex muestra : una pantalla a color que es fácil de leer en la luz alta . El Triton es capaz de mostrar 16 tonos de gris , y 4.096 colores. E Ink Triton está siendo utilizado en los productos disponibles en el mercado , como el eReader de color de Hanvon , JetBook color hecha por ectaco y PocketBook color Lux hecha por PocketBook . E Ink Triton 2 es la próxima generación de E Tinta . Los primeros lectores electrónicos que ofrecen que comenzaron a aparecer en 2013 . Incluyen Ectaco jetBook color de 2 y de bolsillo color de Lux. En enero de 2013, en el CES Internacional , se anunció que la cuarta generación de dispositivos de E Ink contará con 768 por 1.024 de resolución en las pantallas de 6 pulgadas , con 212 ppi (densidad de píxeles ) . Fue nombrado Carta y se utiliza en el Kindle de Paperwhite de Amazon ( 2013 ) TECNOLOGÍA DE PANTALLA: LCD IPS CON RETROILUMINACIÓN LED IPS ( In- Plane Switching ) es una tecnología de pantalla que se utiliza para pantallas de cristal líquido (LCD). Fue diseñado para resolver las principales limitaciones del efecto de campo nemático trenzado (TN) LCD de matriz a finales de 1980 , como el tiempo de respuesta relativamente alto , fuerte dependencia del ángulo de visión y reproducción de color de baja calidad . En el plano de conmutación implica organización y de conmutación de las moléculas del cristal líquido (LC ) capa entre los sustratos de vidrio . Esto se hace en un plano paralelo a estas placas de vidrio . El método TN era la única tecnología viable para las pantallas LCD de matriz activa TFT a finales de 1980 y principios de 1990 . Los primeros paneles mostraron inversión gris de arriba a abajo , y tenía un tiempo de respuesta alta ( menos es mejor , por ejemplo, para el mismo tipo de transición , 1ms es visualmente mejor que 5 ms ) . A mediados de la década de 1990 se desarrollaron -por lo general las nuevas tecnologías IPS y VA ( alineación vertical ) - que podrían resolver estas deficiencias y se aplica a grandes paneles de monitor. Un enfoque patentado en 1974 era utilizar electrodos interdigitales en un sustrato de vidrio sólo para producir un campo eléctrico esencialmente paralela a los sustratos de vidrio. Sin embargo , el inventor no todavía era capaz de implementar tales IPS -LCD superior a TN exhibiciones . Después de un análisis exhaustivo , los detalles de los arreglos moleculares ventajosas se presentaron en Alemania por Guenter Baur et al. y patentado en varios países incl. EE.UU. , el 9 de enero de 1990. La Sociedad Fraunhofer de Friburgo , donde los inventores trabajaban, asigna estas patentes a Merck KGaA , Darmstadt , Alemania. Poco después, Hitachi de Japón presentó las patentes para mejorar aún más esta tecnología IPS. Más tarde , LG y otros fabricantes de LCD de Corea del Sur , Japón y Taiwán adaptan la tecnología IPS también. Hoy en día , la tecnología IPS es ampliamente utilizado en los paneles para televisores , computadoras tablet y smartphones . 428
Nivel de base La mayoría de los paneles también soportan cierto 8 bits por canal de color . Estas mejoras llegaron a costa de un tiempo de respuesta inferior , inicialmente alrededor de 50 ms . Paneles IPS eran también muy caro. Super- IPS S -IPS 1998 color shift libre 100/137 IPS desde entonces ha sido reemplazado por S -IPS (Super -IPS , Hitachi Ltd. en 1998) , que tiene todos los beneficios de la tecnología IPS con la adición de mejorar la periodicidad de actualización de píxeles . Advanced Super -IPS AS- IPS 2002 de alta transmitancia 130/250 AS- IPS , también desarrollado por Hitachi Ltd. en 2002, mejora sustancialmente en la relación de contraste de los paneles tradicionales S - IPS hasta el punto en que sólo son superadas por algunos S - PVA . IPS- Provectus -IPS Pro 2004 con alta relación de contraste de 137/313 El último panel del IPS Alpha Technology con una gama de color más amplia y relación de contraste a juego PVA y muestra ASV sin fuera de ángulo que brilla intensamente. IPS IPS alfa -Pro 2008 Alta relación de contraste próxima generación de IPS- Pro IPS alfa próxima generación IPS- Pro 2010 Contraste transferencia proporción Tecnología de Hitachi para Panasonic Advanced High Performance IPS AH -IPS 2011 Mejora de la precisión del color , aumento de la mayor transmisión de luz de resolución y PPI , y para el consumo de energía más bajo. El diagrama muestra un modelo simplificado de una implementación particular de la tecnología IPS. En este caso , tanto de polarización lineal filtra P y A tienen la misma orientación de sus ejes de transmisión . Para obtener el 90 ° estructura nemático trenzado de la capa de LC , entre las dos placas de vidrio sin un campo eléctrico aplicado (estado OFF ) , las superficies interiores de las placas de vidrio se tratan para alinear las moléculas de LC limítrofes en un ángulo recto . Esta estructura molecular es prácticamente el mismo que en TN LCD . Sin embargo , la disposición de la E1 y E2 electrodos es diferente . Debido a que son en el mismo plano y en una sola placa de vidrio , que generan un campo eléctrico paralelo a la placa de vidrio . Tenga en cuenta que el diagrama no está a escala : la capa de LC es sólo unos pocos micrómetros de espesor y así es muy pequeña en comparación con la distancia entre electrodos E1 y E2 . Las moléculas de cristal líquido tienen una anisotropía dieléctrica positiva y se alinean con su eje longitudinal paralelo a un campo eléctrico aplicado . En el estado OFF (que se muestra a la izquierda) , entrando en la luz L1 se polariza linealmente por polarizador P. La capa de LC nemático trenzado hace girar el eje de polarización 429
de la luz que pasa a 90 grados , por lo que, idealmente, no hay luz pasa a través del polarizador A. En el estado ON , se aplica un voltaje suficiente entre los electrodos E1 y E2 , se genera un correspondiente campo eléctrico E se vuelve a alinear las moléculas de LC , como se muestra a la derecha del diagrama .Aquí , L2 luz puede pasar a través del polarizador A. En la práctica, existen otros esquemas de aplicación que tiene una estructura diferente de las moléculas de cristal líquido - por ejemplo, sin ningún tipo de giro en el estado de apagado . Como ambos electrodos están en el mismo sustrato , que ocupan más espacio que los electrodos de las matrices de TN . Esto también reduce el contraste y el brillo. Super- IPS más tarde se introdujo con mejores tiempos de respuesta y la reproducción del color. Este diseño de píxeles se encuentra en las pantallas LCD S - IPS . Una forma de chevron se utiliza para ampliar el cono de visión . • Ventajas ✏✏ Paneles IPS muestran colores precisos y uniformes de todos los ángulos de visión y sin tener ninguna falta de definición . ✏✏ A diferencia de las pantallas LCD TN , IPS paneles no aclarar u muestran colas cuando se toca. Esto es importante para los dispositivos de pantalla táctil , como los teléfonos inteligentes y tabletas. ✏✏ Paneles IPS pueden procesar señales de alta velocidad y sin pérdida de datos mediante el uso de cables de cobre con valores bajos de resistencia. ✏✏ Los paneles IPS ofrecen imágenes nítidas y tiempo de respuesta estable. ✏✏ Nuevas mejoras en el ángulo de visión ✏✏ 10 por ciento de aumento en el brillo ✏✏ Hasta un 15 por ciento de disminución en los costos de producción ✏✏ El aumento de la calidad de imagen ✏✏ Panel flexible • Desventajas ✏✏ Paneles IPS requieren hasta un 15 % más de energía que las pantallas TN . ✏✏ Paneles IPS son más caros de producir que las pantallas TN . ✏✏ En 2012 , Samsung Electronics ha presentado la tecnología llamada de Super PLS ( Switching -Plane- a Línea) con la intención de que sustituye a IPS convencionales. Parece que Samsung adoptado paneles PLS en lugar de paneles AMOLED , porque en los últimos paneles AMOLED tenido dificultades en la realización de resolución Full HD en los dispositivos móviles . PLS tecnología era la tecnología LCD de ángulo de visión amplio - de Samsung , y que se conoce como una tecnología similar a la tecnología de LG IPS. ✏✏ Samsung afirmó que los siguientes beneficios del Super PLS ( comúnmente conocida como simplemente " PLS " ) sobre IPS : 430
TECNOLOGÍA DE PANTALLA: AMOLED AMOLED (siglas en inglés de active matrix OLED, en español «OLED de matriz activa») es una tecnología de fabricación de pantallas basada en OLED. Tiene una importancia al alza debido a su utilización en dispositivos móviles, como los teléfonos móviles. AMOLED permite dirigirnos a un píxel concreto. El progreso que permite esta tecnología, se refleja en modelos superiores, más caros y que consumen menos potencia de energía, por ejemplo, televisores. 1 Un dispositivo OLED de matriz activa (AMOLED), consiste en un conjunto de píxeles OLED que se depositan o integran en una serie de transistores de película fina (TFT) para formar una matriz de píxeles, que se iluminan cuando han sido activados eléctricamente, controlados por los interruptores que regulan el flujo de corriente que se dirige a cada uno de los píxeles. El TFT continuamente regula la corriente que fluye por cada uno de los píxeles, para así caracterizar el píxel con el nivel de brillo que mostrará. Generalmente esa corriente se controla mediante dos TFT por píxel, uno para empezar y parar de cargar el condensador, y el otro para proveer el nivel necesario de tensión al píxel para así crear una corriente de valor constante y poder evitar los picos de alta corriente que requiere un OLED pasivo para las operaciones en la matriz de píxeles. • • • •
Las pantallas de AMOLED se caracterizan en cuatro capas para el control de la imagen que muestra: Capa del ánodo Capa intermedia orgánica Capa del cátodo Capa que contiene toda la circuitería
La tecnología TFT backplane del TFT es un elemento crucial para la fabricación de dispositivos AMOLED flexibles. El proceso que se utiliza en los sustratos convencionales en los que se basan los TFT no se pueden utilizar con los sustratos de plástico flexibles que necesitamos, principalmente porque este proceso implicaría el no trabajar a temperaturas bajas, siendo este un límite necesario. Para solucionar este problema, hoy en día existen principalmente dos tecnologías de fabricación del backplane del TFT utilizadas en los AMOLED: poly-Silicon (poly-Si) o amorphous-Silicon (a-Si). Estas tecnologías ofrecen la posibilidad de fabricación de los backplanes de matriz activa a una baja temperatura (<150°C), insertándolos directamente en el sustrato de plástico flexible posibilitando la producción de pantallas AMOLED flexibles. Los OLED de matriz activa y los de matriz pasiva tienen las mismas posibilidades para mostrar una frecuencia de cuadro concreta, sin embargo el AMOLED consume menos potencia de forma significativa. 431
Esta propiedad hace que los OLED de matriz activa sean especialmente útiles para dispositivos electrónicos donde el consumo de energía de la batería puede ser crítico y para pantallas con una diagonal que van desde 2 a 3 pulgadas. Cuando se fuerza la pantalla doblándola con un ángulo mayor que el ángulo crítico que permite el dispositivo, se provoca una rotura en el sustrato de plástico, rotura que se propagará a través de todo el bus de la línea correspondiente. Esta rotura provoca en la pantalla que la línea o líneas afectadas muestren un parpadeo, falle toda la línea, falle una región entera o incluso el dispositivo entero. • Ventajas ✏✏ Son muy delgadas y muy ligeras ✏✏ Reforzados sistemas de protección de las roturas en el dispositivo ✏✏ Consumo muy bajo de potencia, alta robustez con una calidad de imagen superior y un bajo coste en comparación con las actuales pantallas LCD. ✏✏ Su robustez característica confiere a este dispositivo una enorme flexibilidad y posibilidad de incluso “enrollarlo”, aún estando activo, que se traduce en facilidad para su transporte o almacenamiento. • Desventajas ✏✏ Alto precio actual Esto no es ninguna contradicción. Que algo sea barato de producir no quiere decir que su precio sea bajo de momento. Este abaratamiento se basa en los costes de producción, y realmente se notará cuando las tecnologías basadas en OLED adquieran mayor difusión y venta. Es algo que pasa con todas las tecnologías que precisan de un gran desarrollo e investigación (ha pasado exactamente lo mismo con las pantallas TFT, con los módulos de memoria, con los microprocesadores...). Solo hay que recordar que no hace mucho (apenas unos años), los monitores TFT tenían un coste superior a los 600 euros (para un tamaño de 14), mientras que actualmente podemos encontrar monitores TFT de 19 por poco más de 120 euros. ✏✏ Sensibilidad al agua El agua puede estropear permanentemente un OLED, lo que hace que este tipo de tecnología requiera unos sistemas especiales de protección. ✏✏ Degradación y periodos cortos de vida El periodo de vida de las capas OLED es bastante menor que el de LCD. Además, no es igual para todos los colores. Para el rojo y el verde la duración es bastante alta, pero para el azul es bastante más corta. En general se estima una duración aproximada (dependiendo, claro está, de la tecnología empleada) de 14000 horas, frente a las 60000 estimadas para LCD. Como verán, no es que se hable de hoy para mañana (14000 horas son 5 años a 8 horas diarias), pero aun así es algo menos de un cuarto de lo que dura una pantalla LCD. Por lo apuntado en el punto anterior, esta degradación es mayor en ambientes con un alto grado de humedad. En este tema se está trabajando, y se han encontrado soluciones que, reduciendo el brillo, se mantiene la misma calidad de imagen y se aumenta considerablemente su duración, superando incluso por un amplio margen a las pantallas LCD. En pruebas experimentales se han conseguido tiempos para OLEDS verdes de más de 198000 horas y de más de 62000 para los azules. ✏✏ Alto impacto medioambiental Esto puede suponer un gran problema para el futuro, ya que los componentes orgánicos (tanto las moléculas como los polímeros) son muy difíciles de reciclar, precisándose para ello unas técnicas bastante complejas y con un alto costo. Es indestructible.
432
LIBRO ELECtRÓNICO Un libro electrónico, libro digital, ciberlibro, también conocido como e-book, eBook, o ecolibro, es una versión electrónica o digital de un libro o un texto. También suele denominarse así al dispositivo usado para leer estos libros, que es conocido también como e-reader o lector de libros electrónicos. Diferencias entre el libro digital/electrónico y el libro de texto • Un libro electrónico puede contener mucha más información a la que se puede acceder más fácil y rápidamente. • El libro impreso se mantiene por muchos años • Si no disponemos de energía eléctrica, batería o u ordenador no se podrá acceder al libro electrónico. • En los libros de texto la información está más controlada y es mucho más fiable. • El libro electrónico permite acceder a imágenes, vídeos, sonidos… • El libro electrónico permite modificar, copiar, pegar información… El libro electrónico posee tanto ventajas como desventajas. No obstante, es necesario distinguir entre el lector (un aparato electrónico con una memoria capaz de almacenar cientos de libros electrónicos) y el libro electrónico en sí, que no es más que un archivo de computadora en un formato específico PDF, MOBI, EPUB, etc. Entre las ventajas derivadas del uso de los lectores electrónicos se pueden citar varias: • Con ellos se puede leer casi cualquier documento en cualquier lugar. • Al utilizar la tecnología de tinta electrónica no tiene retro-iluminación, como es el caso de otros dispositivos de mano (tabletas, computadoras o teléfonos móviles). La experiencia es pues similar a leer un libro en papel: sin cansancio alguno para la vista, pudiéndose por tanto prolongar la lectura durante horas. • La accesibilidad es otro de los puntos fuerte del libro electrónico. Los lectores más avanzados del mercado ofrecen conexión a Internet, con lo que pueden conectarse con los principales portales de venta de libros electrónicos, así como descargarse las ediciones electrónicas de diarios o revistas convencionales. • Los lectores que emplean la tecnología de tinta electrónica, consumen muy poca batería debido a carecer de retroiluminación, el mayor consumo se produce con el paso de las páginas, por lo que la duración de la misma es muy alta. En cuanto a sus inconvenientes, el mayor de ellos ha sido su elevado precio hasta la aparición del Amazon Kindle de Amazon.com (en julio de 2010), el primero en ofrecerlo con un costo inferior a 200 dólares -139 más precisamente-. A partir de ese momento se inicia una carrera por ofrecer dispositivos más baratos y con un conjunto de servicios asociados tales como librerías en línea (como las de la propia Amazon. com o Barnes & Noble) o la posibilidad de préstamo entre usuarios con el mismo dispositivo. 433
A causa de estas ventajas y desventajas se ha generado un debate público impulsado por la visión que los medios de comunicación dan de el ebook. En este debate caben tanto argumentos a favor del libro digital como argumentos a favor del libro de papel: A favor del libro electrónico • Menor gasto de papel y tinta. • La reducción del consumo de papel hará que disminuya la presión a la que están sometidos los bosques. • Mayor comodidad en la portabilidad. • Ante la preocupación por el cansancio que pudieran provocar los ebook en la vista, se trata de una tecnología diferente: la pantalla del libro electrónico está pensada para que no canse la vista, debido a lo cual, los modelos que hasta ahora han salido a la venta son todos en blanco y negro. Esta tecnología también permite una duración de batería que puede llegar a durar hasta dos y tres semanas. • Posibilidad de enriquecimiento del texto a través de enlaces multimedia. • Posibilidad de hacer anotaciones y comentarios al margen. En contra del libro electrónico • Si la madera para hacer papel procede de bosques y plantaciones bien gestionados, se trata de un recurso renovable, productor de carbono y reciclable. • La extracción de los materiales necesarios para fabricar los componentes de los lectores aumentará la presión sobre los ecosistemas. • La nueva herramienta electrónica en un corto espacio de tiempo se convertirá en un desecho electrónico que terminará en un vertedero o incinerado, lo que produce emisiones dañinas para el medio ambiente. • Pérdida de control comercial de la obra. • Facilidad de copia, tanto legal como no autorizada de los documentos. Este debate, que ya ha pasado a ser un "clásico" dentro del panorama cultural, ha sido fomentado desde el principio por los distintos medios de información.6 En la prensa hay muchos ejemplos de noticias o titulares que implican una consideración determinada por parte del lector con respecto a los libros digitales: • Consenso o cohesión: "El lento despertar digital de las editoriales españolas”. • Provocación o conflicto (movilización social: “Libros digitales causarían baja creativa:Vargas Llosa”. • Otorgar estatus o reconocimiento: “El libro digital avanza en Estados Unidos”. • Alerta o aviso de problema a solucionar: "Se dispara la venta de libros digitales mientras alertan de una nueva 'brecha digital'" • Debate participativo para la toma de decisiones: “¿Es justo pagar un impuesto por prestar libros?”. EVOLUCIÓN HISTÓRICA DEL LIBRO ELECTRÓNICO • 1949: Ángela Ruiz Robles (1895-1975) patenta su "Enciclopedia Mecánica" en España, el 7 de diciembre de 1949. • 1971: Michael Hart lidera el proyecto Gutenberg que busca digitalizar libros y ofrecerlos gratis. • 1992-1993: Francos Crugnola e Isabella Rigamonti planean y realizan, por su tesina de licenciatura a la Politécnica de Milán, el primer ebook (soporte electrónico por la sola lectura de textos) y lo llaman "INCIPIT" • 1993: Zahur Klemath Zapata registra el primer programa de libros digitales, Digital Book, y se publica 434
el primer libro digital: Del asesinato, considerado como una de las bellas artes, de Thomas de Quincey. • 1993: Digital Book lanza a la venta los primeros 50 libros digitales en disquete en Colombia en Formato Digital Book (DBF). • 1993: aparece Bibliobytes, un proyecto de libros digitales gratuitos en Internet. • 1995: Amazon comienza a vender libros a través de Internet. • 1996: el proyecto Gutenberg alcanza los 1.000 libros digitalizados. La meta es un millón. • 1998: son lanzados dos lectores de libros electrónicos: Rocket ebook y Softbook. • 2000: Stephen King lanza su novela Riding Bullet en formato digital. Sólo puede ser leída en ordenadores. • 2002: las editoriales Random House y HarperCollins comienzan a vender versiones electrónicas de sus títulos en Internet. • 2005: Amazon compra Mobipocket en su estrategia sobre el libro electrónico. • 2006: Sony lanza su lector Sony Reader que cuenta con la tecnología de la tinta electrónica. • 2007: Zahurk Technologies, Corp. dueña de la tecnología digital Book lanza la primera biblioteca de libros digitales para su lectura en Internet, ‘BibliotecaKlemath.com’, al igual que loslibrosditales.com y digitalbook.us. • 2007: Amazon lanza Amazon Kindle. • 2007: Grammata lanza al mercado español el Papyre. • 2008: Adobe y Sony hacen compatibles sus tecnologías de libros electrónicos (Lector y DRM). • 2008: Sony lanza su PRS-505 en Reino Unido y Francia. • 2009: Neotake lanza su buscador de libros electrónicos. • 2009: Se lanza booq, el primer libro electrónico español. • 2009: Wolder lanza el Boox, el primer lector de libros electrónicos con wifi y pantalla táctil. • 2010: booq pasa a denominarse bq readers y comercializa sus primeros e-reader con Wi-Fi. • Enero de 2010: Apple lanza el iPad y comienza a vender libros electrónicos para su producto • 13 de julio de 2010:Velocity Micro anuncia una familia de libros electrónicos basadas en Android. • 29 de julio de 2010: Amazon.com desata la guerra de precios al lanzar su Kindle 3 por 139 dólares USA. • Octubre de 2010: Barnes & Noble lanza el NookColor, el primer lector de libros electrónicos en color con sistema operativo Android. • 2011: bq readers diseña y fabrica los primeros e-readers de las empresas Telefónica (Movistar ebook bq), Fnac (Fnacbook) y Casa del Libro (Tagus). • Septiembre de 2012: Amazon.com lanza el lector Amazon Kindle de 5ª generación y el lector Amazon Kindle Paperwhite7 • 2013: Google comienza a distribuir libros a través de su tienda de aplicaciones para posteriormente lanzar la tienda Google Play Books. • Septiembre de 2013: Nubico desarrolla el modelo de suscripción de ebooks en España CARACTERÍSTICAS DE UN e-READER • Tipo y formato de pantalla. Actualmente existe una diversificación especialmente interesante. Por un lado, están las pantallas de tinta electrónica (E-Ink), que destacan por su bajo consumo y por no cansar la vista (al no ser retroiluminadas), proporcionando una experiencia de lectura más agradable. Suelen utilizarlas los lectores de libros electrónicos, ya que para otros dispositivos no resultan apropiadas, al tratarse de una tecnología en blanco y negro que no permite visualizar imágenes en movimiento. Por otro lado está la tecnología LCD/TFT, utilizada por ejemplo en los ordenadores portátiles, que si bien genera un mayor consumo energético y resulta más tediosa para la lectura continua de texto, tienen la ventaja de mostrar imágenes en movimiento y en color, y reproduce pelis que da gloria. En cualquiera de los dos casos comentados, puede resultar relevante el tamaño y resolución de la pantalla. • Capacidades táctiles de la pantalla (ej: MultiTouch). 435
• Peso y dimensiones. Evidentemente, cuanto más ligero sea el dispositivo, mejor, facilitando la portabilidad del mismo. La dimensión, suele verse afectada por el tamaño de la pantalla (que es una cuestión de gustos, quiero decir, algunos con 6 pulgadas estarán satisfechos mientras otros busquen la 10 ó 12 pulgadas), y por el grosor del dispositivo. • Duración de la batería. Como es de esperar, cuanta mayor autonomía se disponga, mejor. Algunos eBooks tienen una autonomía de varias semanas, aunque en el caso de los NetBooks o Ultraportátiles, disminuye hasta unas pocas horas. También puede ser interesante, tener la posibilidad de poder intercambiar baterías • Capacidad de Almacenamiento. Principalmente, está el tema de la capacidad (que cuántos gigas) de almacenamiento local persistente tiene el dispositivo, pero también está el tema de qué tecnología de almacenamiento. Actualmente, resulta especialmente atractiva la tecnología de discos sólidos SSD, que proporcionan un rendimiento excepcional, bajo consumo, no se calientan, y su tamaño es reducido • Posibilidad de almacenamiento externo. • Posibilidades Multimedia (ej: Audio y Video, Full HD, etc). • Disponibilidad de videocámara (WebCam) y posibilidades de videoconferencia. • Formatos de ficheros que es capaz de reproducir. Especialmente con los dispositivos como los lectores de eBooks, hay que prestar atención a esta característica, ya que podemos encontrarnos que no sea capaz de reproducir ciertos formatos, o que requiera de algún tipo de conversión. Así, si bien es cierto que no suelen existir problemas para reproducir ficheros PDF, quizás si existan problema para reproducir un fichero CHM (en función del dispositivo en cuestión). Interesante tenerlo presente, y no sólo para este tipo de ficheros, sino también para ficheros de contenido multimedia, Office, etc. • Conectividad 3G, WiFi, Bluetooth y LAN. Accesibilidad a Tiendas OnLine de contenidos (libros, periódicos, etc.). . • Posibilidad de agregar anotaciones, subrayar, etc. • Posibilidad de ejecutar búsquedas. No debería existir problemas con esto, pero ante la duda, y sobre todo al comprar algún eBook, es interesante tener claro si es posible realizar búsquedas. • Posibilidad de navegar por Internet. • Posibilidad de ejecutar Videojuegos. • Disponibilidad de Aplicaciones y Software para instalar. • Capacidades Multitarea/Monotarea. • Capacidades de procesamiento y memoria. Para un sencillo lector de libros electrónicos (eBooks) quizás no sea relevante, pero para un dispositivo más avanzado con el que se deseen realizar más tareas (ej: reproducir video FullHD, ejecutar aplicaciones, etc.), puede llegar a ser un factor bastante vinculante. EJEMPLOS DE e-READER Kindle
436
Sony
437
BQ Cervantes
Tagus Casa de la Libro
438
• Medidas: 241 mm (alto) x 178 mm (ancho) x 11 mm (grosor). • Peso: 520 gr. • Pantalla táctil: EPD 9.7" E-Ink Pearl. • Resolución: 825 x 1200 px. • Memoria interna: 4GB (3GB dedicados al sistema Tagus y 1GB para uso libre del dispositivo como almacenamiento) con posibilidad de aumentarla con una tarjeta SD 32 GB. • Memoria Flash: 256 MB DDR3 • Procesador: freescale i.MX508 a 800 Mhz. • Batería: Li-ion de 1600 mAh, equivalente a 8000 pasos de página (aunque el uso del WI-FI y navegación por Internet puede reducir su duración). • Tiempo de carga: Primera carga de 8 horas con cable USB y 4 horas con cable de alimentación. • Idiomas de la interface: Español, catalán e inglés (al igual que la mayoría de eBooks que ofertamos). • Conectividad: WI-FI 802.11 b/g/n, Micro USB 2.0, jack de 3,5 mm para auriculares, ranura para tarjeta SD. • Diccionarios disponibles: RAE (español-español). • Contenido de la caja: eReader Tagus Magno, cable USB, guía de inicio rápida y tarjeta de garantía. Fnac eBook • Dimensiones: 169 x 116 x 9,5 mm • Peso: 183 g • Tamaño Pantalla: 6" (15,24 cm) PVI E-Ink Pearl HD, táctil, 16 niveles de gris • Resolución Pantalla 758 x 1024 • Tecnología: Infrarrojos (zForce® Tecnología táctil de Neonode) • Memoria Interna: 4 GB (2 GB libres para el usuario) • Procesador: Freescale i.MX 6SoloLite 1 GHz • Batería: Batería Li-ion 1.500 mAh • Tarjeta de memoria: Ranura microSD • Conectividad Wireless : 802.11 b/g/n • Formatos: Texto: .epub, .pdf, .fb2, .mobi, .doc, .rtf, .txt / Imagen: .jpeg, .png, .bmp, .gif, .ico, .mng, .pbm, .pgm, .ppm, .tga, .tiff, .xbm, .xpm • Otros Datos: Luz integrada regulable en intensidad: Tecnología Front light / Idiomas: español, catalán, euskera, gallego, inglés y portugués CARACTERÍSTICAS DE UNA TABLETA • Ventajas ✏✏ Su facilidad de uso en entornos donde resulta complicado un teclado y un ratón, como en la cama, de pie, o el manejo con una sola mano. ✏✏ Su peso ligero. Los modelos de menor potencia pueden funcionar de manera similar a los dispositivos de lectura tales como el Kindle de Amazon. ✏✏ El entorno táctil hace que en ciertos contextos —como en la manipulación de imágenes, música o juegos— el trabajo sea más fácil que con el uso de un teclado y un ratón. ✏✏ Facilita la realización de dibujos digitales y edición de imágenes pues resulta más preciso e intuitivo que pintar o dibujar con el ratón. ✏✏ Facilita y agiliza la posibilidad de agregar signos matemáticos, diagramas y símbolos. 439
✏✏ Permite (con el software adecuado) la interacción con diferentes teclados sin importar su ubicación. ✏✏ Para algunos usuarios resulta más interactivo y agradable usar un lápiz, una pluma o el dedo para apuntar y pulsar sobre la pantalla, en lugar de utilizar un ratón o un touchpad. ✏✏ La duración de la batería es mucho mayor que la de una computadora portátil. • Desventajas ✏✏ Precio superior: Debido a la complejidad de la pantalla (mecanismo de rotación y la tecnología táctil), una tableta será más cara que un portátil con especificaciones de hardware similar.8 Por otro lado, un portátil convertible en tableta puede costar mucho más que un computador portátil convencional, a pesar de que se ha previsto un descenso en el precio de los convertibles. ✏✏ Velocidad de interacción: la escritura a mano sobre la pantalla, o escribir en un teclado virtual, puede ser significativamente más lento que la velocidad de escritura en un teclado convencional, que puede llegar hasta las 50 a 150 palabras por minuto. Sin embargo, tecnologías como SlideIT, Swype y otras similares hacen un esfuerzo para reducir esta diferencia. Algunos dispositivos también soportan teclados externos (por ejemplo: el IPad puede aceptar teclados USB y Bluetooth a través del Kit de conexión de cámara) ✏✏ Comodidad (ergonomía): una tableta no ofrece espacio para el descanso de la muñeca (aunque en algunos softwares se intenta remediar esto mediante una tecnología conocida como palm rejection, la cual hace que no haya reacción ante el toque de la palma de la mano sobre la pantalla; y por tanto, permite apoyar la mano a la hora de utilizar un stylus). Además, el usuario tendrá que mover su brazo constantemente mientras escribe. ✏✏ Menor capacidad de vídeo: la mayoría de las tabletas están equipadas con procesadores gráficos incorporados en lugar de tarjetas de vídeo. En julio de 2010, la única tableta con tarjeta de vídeo era la HP TouchSmart tm2t, para la que puede adquirirse la ATI Mobility Radeon HD5450 como una adición opcional. ✏✏ La venta de tabletas personales ha crecido poco desde el 2001 hasta la fecha.9 ✏✏ Riesgos en la pantalla: las pantallas de las tabletas se manipulan más que las de los portátiles convencionales, sin embargo, muchas están fabricadas de manera similar. Además, puesto que las pantallas también sirven como dispositivos de interacción, corren un mayor riesgo de daños debido a los golpes y al mal uso. ✏✏ Riesgo en la bisagra: la bisagra de un portátil convertible en tableta usualmente necesita girar sobre dos ejes, a diferencia de la pantalla de un portátil normal, lo cual aumenta las posibilidades de fallos mecánicos o eléctricos (cables de transmisión y de vídeo, antenas WiFi integradas, etc).
440
COMPARATIVA DE TABLETas
DIMENSIONES DE LAS PANTALLAS • Tablets de 5 pulgadas Por su tamaño, esta clase de tablets están en el punto medio entre los smartphones y el resto de las tablets. Gracias a esto, tienen muchas de las ventajas de estos dos dispositivos, peso tienen algunas desventajas. El reducido tamaño las hace especialmente portátiles, pudiendo caber incluso en los bolsillos si éstos son anchos. También, su tamaño hace que algunos fabricantes opten por integrar un radio telefónico y convertir así esta clase de tablets en unos smartphones de gran tamaño. Algunas de estas tablets son: ✏✏ Dell Streak 5: Tablet con Android 2.2 que tiene la peculiaridad de funcionar también como teléfono. Con su reducido peso de 220 gramos, la Streak 5 es la tablet más ligera que podemos encontrar actualmente en el mercado. Disponible en México. ✏✏ Viliv S5: Esta diminuta tablet impresiona porque a pesar de su reducido tamaño cuenta con Windows como sistema operativo, con todas las ventajas y desventajas que esto conlleva. Para facilitar su uso,Viliv incluyó una interfaz en esta tablet llamada “Cube UI” que la hace más práctica que la interfaz predeterminada de Windows. Otra cosa interesante de la Viliv s5 es que cuenta con 60 GB de almacenamiento, mucho más que la mayoría de las otras tablets. Disponible en la tienda PoderPDA. Ventajas ✏✏ Por su reducido tamaño, las tablets de 5 pulgadas son excepcionalmente portátiles, pudiendo ser llevadas incluso en los bolsillos del pantalón. ✏✏ Su diminuto tamaño las hace igualmente capaces de tener funciones de teléfono. Desventajas ✏✏ Por su tamaño, las tablets de 5 pulgadas no pueden desplegar tanta información sobre su pantalla como una tablet de mayor tamaño. ✏✏ La navegación web es mucho peor que en cualquier tablet de mayor tamaño. ✏✏ Si tienes vista cansada, no podrás ver el contenido desplegado salvo que utilices lentes de aumento. • Tablets de 7 pulgadas Las tablets de 7 pulgadas son quizás el tamaño más popular de tablet tras las de 9 y 10 pulgadas. Por su tamaño, estas tablets son muy portátiles sin sacrificar tamaño para ello. Esto las hace unos excelentes libros electrónicos y centro multimedia. También, en el caso de las tablets con Android, tienen la peculiaridad de optar por la versión de teléfonos de este sistema sobre la versión propiamente para tablets. Algunas de estas tablets son: ✏✏ Samsung Galaxy Tab: Esta es quizás la tablet con Android más popular actualmente. Esta tablet cuenta con Android 2.2, un procesador a 1 GHz y cámara por ambos lados. Otra ventaja (o desventaja, dependiendo de cómo lo vean) es que esta tablet puede ser utilizada como teléfono en su versión GSM. Disponible en México. ✏✏ BlackBerry PlayBook: Se trata de la primera tablet fabricada por RIM. También, es la única única 441
tablet que cuenta con QNX como sistema operativo, sistema que la hace una especialmente apta para manejar múltiples aplicaciones al mismo tiempo. Asimismo cuenta con BlackBerry Bridge para compartir inalámbricamente información con teléfonos BlackBerry. Disponible en México. ✏✏ Dell Streak 7: Se trata de la versión de Dell de la Galaxy Tab. A diferencia de ésta, la Dell Streak 7 cuenta con un procesador Nvidia Tegra de doble núcleo a 1 GHz que la hace más rápida. También, su diseño robusto le da una sensación de solidez, algo que se agradece ya que sus 7 pulgadas la hacen una tablet muy portátil y siempre existe el riesgo de que se deslice de nuestras manos. Próximamente en México. ✏✏ Huawei S7: Con su pantalla resistiva, procesador a a 768 MHz y Android 2.1 como sistema operativo, la Huawei S7 no es tan impresionante como otras tablets. Lo único rescatable es que la S7, al igual que la Galaxy Tab, puede ser usada como teléfono y que su precio – que oscila entre los 4,000 y los 5,000 pesos – es por mucho inferior al del resto de las tablets, que en promedio cuestan 7,000 pesos en sus versiones más básicas. Disponible en México. ✏✏ HTC Flyer: El HTC Flyer es la primera tablet de HTC, el fabricante de smartphones preferido por muchos. Al igual que los smartphones, el HTC Flyer cuenta con un diseño elegante característico de la marca. Una de las cosas únicas de esta tablet con Android 2.3 es su interfaz especialmente diseñada para su uso con stylus, de igual forma la tablet cuenta con algunas aplicaciones precargadas para sacar todo el provecho al lápiz electrónico. Ventajas ✏✏ Muy portátiles, sin tener que sacrificar tamaño para esto. ✏✏ Excelentes como lectores de libros electrónicos y centros multimedia. ✏✏ Una gran variedad – podemos encontrar tablets de 7 pulgadas de todos los precios y características. Desventajas ✏✏ Su tamaño no las hace tan cómodas para ver páginas web como las tablets de mayor tamaño. ✏✏ En el caso de las tablets con Android, utilizan la versión para teléfonos en lugar de la versión propiamente para tablets. ✏✏ Su tamaño las hace muy aptas para ser llevadas de un lado a otro, pero si se busca sólo para su uso en el entorno casero o profesional, las tablets de mayor tamaño son más cómodas. ✏✏ En algunos casos (como el Huawei S7 y el Dell Streak 7), sus características técnicas son más propias de smartphones que de tablets. • Tablets de 8 pulgadas Las tablets de 8 pulgadas representan un sector nuevo, con muy pocas opciones. Este nuevo sector de tablets se caracteriza por estar en un punto medio entre las tablets de 7 pulgadas y las tablets con una pantalla mayor. Gracias a esto, son todavía un poco portátiles y al mismo tiempo ofrecen una pantalla de mayor tamaño. Algunas de estas tablets son: ✏✏ Samsung Galaxy Tab 8.9: El Samsung Galaxy Tab 8.9 es el punto medio entre el Galaxy Tab 10.1 y el 442
Galaxy Tab, ofreciendo la movilidad del Galaxy Tab y las prestaciones del Galaxy Tab 10.1. El Galaxy Tab 8.9 utiliza Android Honeycomb con una adaptación de TouchWiz, la interfaz de Samsung. ✏✏ LG Optimus Pad: Conocido anteriormente como G-Slate, el Optimus Pad es una tablet con Android Honeycomb que en características no tiene nada de diferente a otras tablets Honeycomb – como el Galaxy Tab 8.9 –, con la excepción de que cuenta con dos cámaras traseras de 5 megapixeles que permiten capturar contenido en 3D, pero la pantalla no es 3D y por lo tanto no se puede visualizar este contenido. ✏✏ HP Slate 500: El HP Slate 500 es la primera tablet de HP y utiliza Windows 7. Presentada el año pasado, se trataría de la respuesta anticipada de HP a los rumores del iPad, pero tras la adquisición de Palm la HP Slate 500 fue relegada a una simple tablet para el mercado empresarial, gracias a que usa Windows. Ventajas ✏✏ Su tamaño las hace muy móviles y a la vez la pantalla es lo suficientemente grande como para navegar sin problema alguno. ✏✏ A diferencia de algunas tablets de 7 pulgadas, las características técnicas de las tablets de 8 pulgadas son propias de una tablets y asimismo también utilizan la versión para tablets de sus sistemas operativos. Desventajas ✏✏ Poca diversidad: Fuera de éstas, no hay muchas otras tablets de 8 pulgadas y ninguna empresa ha mostrado planes de desarrollar tablets de este tamaño. • Tablets de 9 y 10 pulgadas Este tamaño de tablet es el más popular y en el que también encontramos más diversidad. Las tablets de este tamaño son excelentes para el hogar y para el trabajo, aunque puede ser un poco complicado llevarlas siempre con nosotros por su tamaño. También, con sus amplias pantallas podemos realizar de todo: ver películas, navegar por la web, leer un libro, realizar una videollamada, etc. Algunas de estas tablets son: ✏✏ iPad: Sin lugar a dudas la tablet más popular y también la que inició el boom de tablets que vemos en la actualidad. El iPad en su segunda generación cuenta con un procesador de doble núcleo, un par de cámaras y más memoria RAM. Con la llegada de iOS 5 dentro de unos meses, la experiencia de uso del iPad será aún mejor. Disponible en México. ✏✏ HP TouchPad: El TouchPad es la primera tablet en utilizar el sistema operativo webOS. Gracias a esto, el TouchPad es una tablet robusta con un excelente manejo de la multitarea, notificaciones no 443
obtrusivas, integración con servicios web y todas las demás bondades de webOS. ✏✏ Sony S1: La Sony S1 será la primera tablet de Sony con Android Honeycomb.Esta tablet cuenta con características similares a otras tablets Honeycomb, pero donde en realidad destaca es en su diseño, que se aleja de todo aquello que hayamos visto en tablets. El diseño de la Sony S1 nos recuerda a una revista doblada y Sony argumenta que esta tablet fue diseñada así para tener un mejor agarre con las manos. ✏✏ Motorola Xoom: El Motorola Xoom fue la primera tablet con Honeycomb y la que marcó la pauta para todas las que le siguieron. Con su procesador de doble núcleo Nvidia Tegra 2, su par de cámaras, sus 32 GB de almacenamiento y más, el Xoom es sin duda una de las tablets más poderosas actualmente en el mercado. ✏✏ Acer Iconia Tab A500: La Iconia Tab no es más que la versión de la Xoom de Acer. Cuentan con el mismo procesador, misma pantalla, mismo peso y más, lo único que hace única a la Iconia Tab (y que se agradece) es su batería de larga duración que promete hasta 12 horas de funcionamiento continuo. ✏✏ Asus Eee Pad Transformer: La Xoom de Asus. Lo que hace única a la Eee Pad Transformer es – como su nombre lo indica – su capacidad de transformarse en una netbook al acoplarla en el tecladobase que incluye. Al hacer eso, no sólo obtenemos un cómodo teclado QWERTY en el que poder escribir, sino que también la duración de su batería se amplía hasta alcanzar las 16 horas de uso continuo. ✏✏ Samsung Galaxy Tab 10.1: Es la versión del Xoom de Samsung. Donde de verdad destaca es en su diseño exterior realmente trabajado y su peso de 565 gramos. El único punto negativo de la tablet es que cuenta con una cámara trasera de sólo 3 megapixeles, aunque puede que sea más que suficiente para una tablet.
Ventajas ✏✏ Hay una variedad de sistemas operativos de dónde elegir: iOS, webOS y Android (con los diferentes temas dependiendo del fabricante). ✏✏ Su tamaño los hace unos excelentes dispositivos para el hogar y el trabajo. ✏✏ Por su pantalla de gran tamaño, son excelentes para visualizar páginas web, leer libros, servir como centros multimedia, etc. ✏✏ Variedad de fabricantes. Desventajas ✏✏ Por su tamaño no son tan portátiles como las tablets de menor tamaño. ✏✏ Con excepción del iPad 2 y el Galaxy Tab 10.1, son mucho más pesadas que las tablets de menor 444
tamaño, lo que puede hacer que sea un poco cansado sostenerlas por mucho tiempo.
FORMatOS DE aRCHIVO •
Genéricos ✏ DjVu – DjVu es un formato libre que se especializa en particular destaca en el almacenamiento de imágenes escaneadas. Incluye compresores avanzado optimizado para imágenes de color y documentos de texto. Los archivos individuales pueden contener una o más páginas. La ventaja de DjVu es que es posible tener una alta resolución de escaneo (300-400 ppp), suficiente tanto para la lectura en pantalla y la impresión, y almacenarla de manera muy eficiente. ✏ doc - Formato de Microsoft Word. ✏ ePub – Es un formato libre desarrollado por el IDPF (International Digital Publishing Forum). Se trata de un XML basa445
•
do en tres estándares de código abierto (open source), como son Open Publication Structure (OPS), Open Packaging Format (OPF) y Open Container Format (OCF). Hablar de un formato XML de código abierto significa que cumple unos estándares, que no está sujeto a disposiciones arbitrarias de ninguna empresa, y, por ello se esperaría que no tuviera ningún problema de perdurar. De este modo, los libros adquiridos en este formato pueden funcionar indistintamente en diferentes lectores, a diferencia de los libros bloqueados con DRM como por ejemplo los que ofrece Amazon en formato Kindle. Es una actualización del antiguo formato llamado Open eBook (.opf) ✏ HTML - Formato propio de la World Wide Web. Multitud de libros con los derechos de autor expirados han sido publicados en Internet en este formato. ✏ lit – Microsoft Reader (.lit), es uno de los formatos más antiguos, creado en el año 2000 se lee con Microsoft Reader, una aplicación gratuita de la empresa de Seattle y estaba pensado originalmente para su uso en PDAs. ✏ mobi – Mobipocket es el formato nativo del eReader Kindle, lo cual no es de extrañar si tenemos en cuenta que Amazon compró la empresa Mobipocket antes de lanzar el Kindle. En los eBooks desprotegidos no hay diferencia entre los mobipockets que son para el Kindle y los que no, y por eso la publicidad del Kindle señala que soporta mobipockets desprotegidos. En los elibros protegidos, sin embargo, hay un flag que está activado para los que son para el Kindle, y desactivado para el resto. ✏ OEB – Es un formato libre. Open eBook es un formato estándar.Viene patrocinado por el consorcio NIST (Instituto Nacional para Estándares y Tecnología de los Estados Unidos). En dicho consorcio se agrupan los principales proveedores de contenidos así como las principales empresas de dispositivos y desarrolladores de programas y software para generar y distribuir ebook. El OEB no es más que un lenguaje de marcado perteneciente a la familia XML. ✏ oPF – Paquetes de libros digitales de código abierto OEB. Es un archivo ZIP más un archivo de manifiesto. Dentro del paquete se define un subconjunto de XHTML. La extensión de archivo por defecto es. OPF ✏ PDF – Adobe Portable Document. Entre sus ventajas se puede citar su portabilidad y su estandarización ISO. Es el formato más utilizado debido a su fácil uso en el enorme parque instalado de PCs, ordenadores portátiles y netbooks. Entre sus desventajas se puede citar que no es repaginable como por ejemplo, Mobipocket o el estándar EPUB. ✏ prc – El Mobipocket es un formato de libro basado en el estándar Open eBook usando XHTML puede incluir JavaScript y marcos. También apoya nativos consultas SQL para ser utilizada con bases de datos integrados. ✏ RTF - Formato de texto enriquecido. Nativos ✏ aeh – El AEH es un formato basado en XML formato propietario desarrollado por los franceses de difusión de la empresa Arghos. Archivos de AEH utilizan un DRM de propiedad y el método de cifrado y se pueden leer sólo en el reproductor de Arghos. ✏ azw – La extensión .azw comprende dos formatos: el KF7 y el 446
KF8, una evolución de este último. Es el formato usado para dar soporte a los lectores de libros electrónicos comercializados por Amazon. El KF7 está basado en Mobipocket, con una pequeña diferencia en el esquema del número de serie (utiliza un asterisco en lugar de un signo de dólar) pero difiere en el sistema de DRM. La extensión en el nombre de fichero para los eBooks protegidos del Kindle es .azw en lugar de las tradicionales .prc o .mobi de los mobipockets. ✏ BBeB – El Broad Band eBook es un formato de SONY usado para su libros electrónicos incluidos los PRS-600 y 300. Se trata de un formato propietario, sin software de lectura conocido por dispositivos que no son de Sony. Tal y como anunciaron hace meses, este formato morirá para pasar todo su catálogo al formato abierto ePUB. El nuevo lector T1 ya no soporta este formato. ✏ CBR / CBZ – El nombre significa Comic Book Reader, pero el uso es para cualquier libro, cuando el contenido contiene básicamente imágenes. Es un contenedor comprimido para las imágenes. La R significa que es RAR, mientras que Z quiere decir que es zip comprimido. ✏ CHM – Microsoft HTML Help comprimido. El formato CHM es un formato propietario basado en HTML. Varias páginas y gráficos incrustados se distribuye junto con los metadatos de propiedad como un solo archivo comprimido. ✏ DTB – DAISY es un XML basado en formato de libro electrónico crea do por el consorcio DAISY internacional de las bibliotecas para las personas con discapacidad de impresión. DAISY implementaciones se han centrado en dos tipos principales: los libros electrónicos de audio y texto de los libros electrónicos. ✏ FB2 – FictionBook es un formato XML para el almacenamiento de libros donde cada elemento del libro es descrito por etiquetas. El objetivo principal para el almacenamiento de libros en el formato FictionBook es su precisión de mantenimiento de la estructura del libro acompañado de la prestación de esfuerzo de conversión (incluyendo automático) de los archivos FictionBook a otros formatos populares: TXT, DOC, RTF, HTML, etc. Además de que, muchas aplicaciones de lectura y lectores electrónicos, como el Papyre, permiten leer el formato FictionBook sin convertir. ✏ lrf – Es la extensión habitual del formato BBeB (Broad Band eBook). La extensión de archivo LRX representa un eBook cifrado DRM. ✏ pdb – Palm Data Bases (bases de datos de Palm OS). Formato de Palm Digital Media, con un buen soporte por parte de smartphones y pdas, ya que hay versiones del software de lectura para iPhone, PalmOS, Symbian, BlackBerry, Windows Mobile... ✏ pml – Palm Markup Language. Es un formato específico para Palm Reader. ✏ rb – Formato nativo de RocketBook. ✏ TCR – Formato nativo de PSion. eBook para EPOC ✏ TR2 - TR3 – El TomeRaider formato de libro es un formato propietario. Hay versiones de TomeRaider para Windows, Windows Mobile (también conocido como Pocket PC), Palm, Symbian, iPhone y más. Es un formato en desuso. ✏ WOLF – Formato Wolf generalmente tiene la extensión. Wol. Puede soportar DRM. Jinke tiene soporte nativo para el formato de Wolf en la totalidad de sus lectores. También tiene una versión lite y una versión de navegador para plataformas Windows. 447
aDOBE DIGItaL EDItIONS Adobe Digital Editions es un programa de software de lector de libros electrónicos de Adobe Systems incorporada inicialmente (versión 1.x ) utilizando Adobe Flash. Se utiliza para la adquisición, la gestión y la lectura de libros electrónicos , periódicos digitales y otras publicaciones digitales. El software es compatible con PDF , XHTML y el contenido basado en Flash . Se implementa un esquema de propiedad de gestión de derechos digitales que, desde la versión 1.5 el lanzamiento en mayo de 2008, permite el intercambio de documentos entre varios equipos y la autenticación de usuarios a través de un ID de Adobe . Es un sucesor de Adobe eBook Reader. Versiones para Windows y OS X de Adobe Digital Editions fueron puestos en libertad el 19 de junio de 2007. Las versiones anteriores del software necesario la versión 9.0 de Adobe Flash Player . Desde la versión 2.0 , sin embargo , que se basa en . Net 3.5 en Windows , Flash Player ya no es compatible . Adobe iniciado el desarrollo de una versión para Linux de Adobe Digital Editions en el 2007, sin embargo, esto no ha tenido ninguna versión beta o las actualizaciones formales. Utiliza la patentada ADEPT (Tecnología protectora Digital Adobe Experience) esquema de gestión de derechos digitales, que también se ha implementado en algunos lectores de libros electrónicos, incluyendo iPads y muchos dispositivos Android, pero no Kindle.
448
LIBROS DE TEXTO: INKLING Inkling es una empresa estadounidense con sede en San Francisco , California. Produce una plataforma de publicación de la empresa, llamado Inkling Hábitat , y vende libros electrónicos interactivos y otros contenidos digitales a los consumidores a través de su sitio web y aplicaciones . Matt MacInnis , Josh Forman, y Robert Cromwell fundada Inkling en agosto de 2009. Mientras trabajaba en Apple Inc., MacInnis oyó rumores sobre un nuevo dispositivo (que luego se convertiría en el iPad de Apple ). Creyendo que el dispositivo tenía potencial para albergar libros electrónicos interactivos , dejó Apple para fundar la nueva compañía de varios meses antes de que el iPad fue anunciado oficialmente . MacInnis convirtió en el director general, con Forman como vicepresidente , del producto y Cromwell como el VP de Ingeniería . En agosto de 2010 , la compañía lanzó su aplicación para iPad y anunció alianzas con Cengage Learning, John Wiley & Sons , McGraw -Hill, y Wolters Kluwer. Inicialmente la empresa se centró en la creación de versiones interactivas de libros electrónicos de libros de texto existentes. En 2011, se añadió otros tipos de títulos de interés general de no ficción , como las guías de viaje y libros de cocina. Títulos Inkling incluyen características que normalmente no están disponibles en los libros electrónicos convencionales, tales como video, animaciones interactivas , y la capacidad de compartir toma nota con otros lectores . Por esta razón puede haber tres (o más) de las versiones del mismo libro : . Una versión en papel de la editorial original, un (principalmente de texto) e-libro convencional de Amazon u otro proveedor, y un e- libro complejo de Inkling. Software de lectura de la empresa (disponible en los dispositivos iOS , PC y ordenadores Macintosh ) es libre. Los editores fijan los precios , que suelen ser más altos que los libros electrónicos convencionales (pero pueden ser más bajos que los libros impresos en papel) . Los usuarios pueden comprar libros enteros o capítulos individuales dentro de los libros . Inkling ofrece una versión básica del Hábitat de forma gratuita y una versión de pago con funciones adicionales y servicios de apoyo. En julio de 2013, la compañía anunció que la Educación Pearson y Reed Elsevier usarían Hábitat para crear libros digitales y revistas . Elsevier también utilizará la tecnología de la empresa para permitir a los usuarios leer libros electrónicos en línea. La empresa vende los libros a través de su librería en línea, tiendas en línea de los editores , y la App Store de Apple . En febrero de 2013, la compañía anunció que iba a hacer posible que los e-libros se puedan buscar en sitios como Google. Los usuarios podrán entonces ser capaz de comprar libros en la página de resultados de búsqueda. 449
LIBROS INFaNtILES
Los libros para niños también se están haciendo en formato digital.Valga primero aclarar que hay varios tipos de libros digitales; algunos están disponibles en la web y se pueden acceder a través de cualquier equipo pc o mac, pero también están los libros creados especialmente para dispositivos de lectura: como las tabletas digitales tipo Kindle, Ipad, Aigo, Sony, etc., o para móviles. Existen libros digitales para niños que resultan bastante atractivos e incluso innovadores, y otros que aún están en vías de perfeccionarse. Sin embargo, el concepto del libro tradicional - páginas que se van moviendo a medida que la lectura avanza - sigue perviviendo aún en las creaciones más recientes. A continuación mostraré algunos ejemplos de libros digitales para niños que se pueden encontrar en la red y creados especialmente para dispositivos de lectura como el Ipad. En el sitio de Tumble Books Library se pueden encontrar varios libros on-line. En este video se explica cómo acceder a ellos de forma gratuita o por un periodo de prueba. Aquí se permiten varios modos de lectura: un narrador que lee el texto, o lectura de forma autónoma. En estos libros se van señalando las palabras para los lectores principiantes, y se incorporan sonidos y animaciones muy sencillas. En general las imágenes son estáticas, lo cual nos recuerda más a un libro álbum impreso. Un proyecto educativo interesante es el de Click Click Click: Cuentos Interactivos. Es realizado por Universidad de Barcelona, con apoyo del Ministerio de Industria, Turismo y Comercio del Gobierno de España. Los Cuentos Interactivos son de fácil acceso y en ellos el lector debe escoger entre distintas opciones para hacer progresar la historia. También están los libros on-line de Rosetta Project. Una biblioteca virtual que ha digitalizado libros antiguos sin importar su procedencia o idioma. En esta colección los libros están 450