LA
LA TELEVISIÓN
2016
1
PRIMERA UNIDAD HISTORIA DE LA TELEVISIÓN UN NUEVO MEDIO UN NUEVO LENGUAJE
TEMA 1 PRIMEROS PASOS DE LA TELEVISIÓN
La telefotografía Los primeros intentos de transmitir imágenes a distancia se realizan mediante la electricidad y sistemas mecánicos. La electricidad ejercía como medio de unión entre los puntos y servía para realizar la captación y recepción de la imagen, los medios mecánicos efectuaban las tareas de movimientos para realizar los barridos y descomposición secuencial de la imagen a transmitir. Para 1884 aparecieron los primeros sistemas de transmisión, mapas escritos y fotografías llamados telefotos. En estos primeros aparatos se utilizaba la diferencia de resistencia para realizar la captación. El desarrollo de las células fotosensibles de selenio, en las que su resistividad varía según la cantidad de luz que incida en ellas, el sistema se perfeccionó hasta tal punto que en 1927se estableció un servicio regular de transmisión de telefotografía entre Londres y Nueva York. Las ondas de radio pronto sustituyeron a los cables de cobre, aunque nunca llegaron a eliminarlos por completo, sobre todo en los servicios punto a punto. El desarrollo de la telefotografía alcanzó su cumbre con los teleinscriptores, y su sistema de transmisión. Estos aparatos permitían recibir el periódico diario en casa del cliente, mediante la impresión del mismo que se hacía desde una emisora especializada. Hasta la década de los años 80 del siglo XX se vinieron utilizando sistemas de telefoto para la transmisión de fotografías destinados a los medios de comunicación.
El movimiento en la imagen La imagen en movimiento es lo que caracteriza a la televisión. Los primeros desarrollos los realizaron los franceses Rionoux y Fournier en 1906. Estos desarrollaron una matriz de células fotosensibles que conectaban, al principio una a una, con otra matriz de lamparillas. A cada célula del emisor le correspondía una lamparilla en el receptor. Pronto se sustituyeron los numerosos cables por un único par. Para ello se utilizó un sistema de conmutación que iba poniendo cada célula en cada instante en contacto con cada lámpara. El problema fue la sincronización de
2
ambos conmutadores, así como la velocidad a la que debían de girar para lograr una imagen completa que fuera percibida por el ojo como tal. La necesidad de enviar la información de la imagen en serie, es decir utilizando solamente una vía como en el caso de la matriz fotosensible, se aceptó rápidamente. En seguida se desarrollaron sistemas de exploración, también llamados de desintegración, de la imagen. Se desarrollaron sistemas mecánicos y eléctricos Televisión mecánica, el disco de Nipkow y la rueda fónica En 1884 Paul Nipkow diseña y patenta el llamado disco de Nipkow, un proyecto de televisión que no podría llevarse a la práctica. En 1910, el disco de Nipkow fue utilizado en el desarrollo de los sistemas de televisión de los inicios del siglo XX y en 1925, el 25 de marzo, el inventor escocés John Logie Baird efectúa la primera experiencia real utilizando dos discos, uno en el emisor y otro en el receptor, que estaban unidos al mismo eje para que su giro fuera síncrono y separados 2 m. Se transmitió una cabeza de un maniquí con una definición de 28 líneas y una frecuencia de cuadro de 14 cuadros por segundo. Baird ofreció la primera demostración pública del funcionamiento de un sistema de televisión a los miembros de la Royal Institution y a un periodista el 26 de enero de 1926 en su laboratorio de Londres. En 1927, Baird transmitió una señal a 438 millas a través de una línea de teléfono entre Londres y Glasgow. Este disco permite la realización de un barrido secuencial de la imagen mediante una serie de orificios realizados en el mismo. Cada orificio, que en teoría debiera tener un tamaño infinitesimal y en la práctica era de 1 mm, barría una línea de la imagen y como éstos, los agujeros, estaban ligeramente desplazados, acababan realizando el barrido total de la misma. El número de líneas que se adoptaron fue de 30 pero esto no dio los resultados deseados, la calidad de la imagen no resultaba satisfactoria. En 1928 Baird funda la compañía Baird TV Development Co para explotar comercialmente la TV. Esta empresa consiguió la primera señal de televisión transatlántica entre Londres y Nueva York. Ese mismo año Paul Nipkow ve en la Exposición de radio de Berlín un sistema de televisión funcionando perfectamente basado en su invento con su nombre al pie del mismo. En 1929 se comienzan las emisiones regulares en Londres y Berlín basadas en el sistema Nipkow Baird, que emitía en banda media de radio. Se desarrollaron otros exploradores mecánicos como el que realizó la casa Telefunken, que dio buenos resultados, pero que era muy complejo y constaba de un cilindro con agujeros que tenían una lente cada uno de ellos. La formación de la imagen en la recepción se realizaba mediante el mismo principio que utilizaba en la captación. Otro disco similar, girando síncronamente, era utilizado para mirar a través de él una lámpara de neón cuya luminosidad correspondía a la luz captada en ese punto de la imagen. Este sistema, por el minúsculo tamaño del área de formación de la imagen, no tuvo mucho éxito, ya que únicamente permitía que ésta fuera vista por una persona, aun cuando se intentó agrandar la imagen mediante la
3
utilización de lentes. Se desarrollaron sistemas basados en cinta en vez de discos y también se desarrolló, que fue lo que logró resolver el problema del tamaño de la imagen, un sistema de espejos montados en un tambor que realizaban la presentación en una pantalla. Para ello el tambor tenía los espejos ligeramente inclinados, colocados helicoidalmente. Este tambor es conocido como larueda de Weiller. Para el desarrollo práctico de estos televisores fue necesaria la sustitución de la lámpara de neón, que no daba la luminosidad suficiente, por otros métodos, y entre ellos se utilizó el de poner una lámpara de descarga de gas y hacer pasar la luz de la misma por una célula de Kerr que regulaba el flujo luminoso en relación a la tensión que se le aplicaba en sus bornes. El desarrollo completo del sistema se obtuvo con la utilización de la rueda fónica para realizar el sincronismo entre el emisor y el receptor. La exploración de la imagen, que se había desarrollado de forma progresiva por las experiencias de Senlecq y Nipkow se cuestiona por la exposición del principio de la exploración entrelazada desarrollado por Belin y Toulón. La exploración entrelazada solventaba el problema de la persistencia de la imagen, las primeras líneas trazadas se perdían cuando todavía no se habían trazado las últimas produciendo el conocido como efecto ola. En la exploración entrelazada se exploran primero las líneas impares y luego las pares y se realiza lo mismo en la presentación de la imagen. Brillounin perfecciona el disco de Nipkow para que realice la exploración entrelazada colocándole unas lentes en los agujeros aumentando así el brillo captado. En 1932 se realizan las primeras emisiones en París. Estas emisiones tienen una definición de 60 líneas pero tres años después se estaría emitiendo con 180. La precariedad de las células empleadas para la captación hacía que se debiera iluminar muy intensamente las escenas produciendo muchísimo calor que impedía el desarrollo del trabajo en los platós. La rueda fónica La rueda fónica fue el sistema de sincronización mecánico que mejores resultados dio. Consistía en una rueda de hierro que tenía tantos dientes como agujeros había en el tambor o disco. La rueda y el disco estaban unidos por el mismo eje. La rueda estaba en medio de dos bobinas que eran recorridas por la señal que llegaba del emisor. En el centro emisor se daba, al comienzo de cada agujero, principio de cada línea, un pulso mucho más intenso y amplio que las variaciones habituales de las células captadoras, que cuando era recibido en el receptor al pasar por las bobinas hace que la rueda dé un paso posicionando el agujero que corresponde. Televisión electrónica En 1937 comenzaron las transmisiones regulares de TV electrónica en Francia y en el Reino Unido. Esto llevó a un rápido desarrollo de la industria televisiva y a un rápido aumento de telespectadores, aunque los televisores eran de pantallas pequeñas y muy caras. Estas emisiones fueron posibles por el desarrollo de los elementos en cada extremo de la cadena, el tubo de
4
imagen (tubo de rayos catódicos) en la aparte receptora y el iconoscopio en la parte inicial. En el receptor, el TRC La implementación del llamado tubo de rayos catódicos o tubo de Braum, por S. Thomson en 1895 fue un precedente que tendría gran trascendencia en la televisión, si bien no se pudo integrar, debido a las deficiencias tecnológicas, hasta entrado el siglo XX y que perdura hasta los primeros años del siglo XXI. Desde los comienzos de los experimentos sobre los rayos catódicos hasta que el tubo se desarrolló lo suficiente para su uso en la televisión fueron necesarios muchos avances en esa investigación. Las investigaciones de Wehnelt, que añadió su cilindro, los perfeccionamientos de los controles electrostáticos y electromagnéticos del haz, con el desarrollo de las llamadas "lentes electrónicas" de Vichert y los sistemas de deflexión permitieron que el investigador Holweck desarrollara el primer tubo de Braum destinado a la televisión. Para que este sistema trabajase correctamente se tuvo que construir un emisor especial, este emisor lo realizó Belin y estaba basado en un espejo móvil y un sistema mecánico para el barrido. Una vez resuelto el problema de la presentación de la imagen en la recepción quedaba por resolver el de la captación en el emisor. Los exploradores mecánicos frenaban el avance de la técnica de la TV. Era evidente que el progreso debía de venir de la mano de la electrónica, como en el caso de la recepción. El 27 de enero de 1926, John Logie Baird hizo una demostración ante la Real Institución de Inglaterra, el captador era mecánico, compuesto de tres discos y de construcción muy rudimentaria. Alfredo Dinsdale lo describe de esta manera en su libro Televisión: El aparato estaba montado con ejes de bicicletas viejas, tableros de mesas de café y lentes de cristal de claraboyas, todo unido con lacre, cuerdas, etc., lo cual hizo que no impresionara muy favorablemente a aquellos que estaban acostumbrados a los primorosos mecanismos de los constructores de aparatos; sin embargo, la importancia de las pruebas fue real y decisiva para el mundo científico de aquellos tiempos. La primera imagen sobre un tubo de rayos catódicos se formó en 1911 en el Instituto Tecnológico de San Petersburgo y consistía en unas rayas blancas sobre fondo negro y fueron obtenidas por Boris Rosing en colaboración con Zworrykin. La captación se realizaba mediante dos tambores de espejos (sistema Weiller) y generaba una exploración entrelazada de 30 líneas y 12,5 cuadros por segundo. Las señales de sincronismo eran generadas por potenciómetros unidos a los tambores de espejos que se aplicaban a las bobinas deflexoras del TRC, cuya intensidad de haz era proporcional a la iluminación que recibía la célula fotoeléctrica.
5
En el emisor, el iconoscopio Diagrama de una patente de Zworykin, en1931. Es un microscopio construido similarmente al Iconoscopio. Bloque óptico de una cámara de TV de CCDs. En 1931 Vladimir Kosma Zworykin, luego de visitar los laboratorios de Philo Taylor Farnsworth, desarrolló el captador electrónico que tanto se esperaba, el iconoscopio. Este tubo electrónico permitió el abandono de todos los demás sistemas que se venían utilizando y perduró, con sus modificaciones, hasta la irrupción de los captadores de CCD's a finales del siglo XX. El iconoscopio está basado en un mosaico electrónico compuesto por miles de pequeñas células fotoeléctricas independientes que se creaban mediante la construcción de un sándwich de tres capas, una muy fina de mica que se recubría en una de sus caras de una sustancia conductora (grafito en polvo impalpable o plata) y en la otra cara una sustancia fotosensible compuesta de millares de pequeños globulitos de plata y óxido de cesio. Este mosaico, que era también conocido con el nombre de mosaico electrónico de Zworykin se colocaba dentro de un tubo de vacío y sobre el mismo se proyectaba, mediante un sistema de lentes, la imagen a captar. La lectura de la "imagen electrónica" generada en el mosaico se realizaba con un haz electrónico que proporcionaba a los pequeños condensadores fotoeléctricos los electrones necesarios para su neutralización. Para ello se proyecta un haz de electrones sobre el mosaico, las intensidades generadas en cada descarga, proporcionales a la carga de cada célula y ésta a la intensidad de luz de ese punto de la imagen pasan a los circuitos amplificadores y de allí a la cadena de transmisión, después de los diferentes procesados precisos para el óptimo rendimiento del sistema de TV. La exploración del mosaico por el haz de electrones se realizaba mediante un sistema de deflexión electromagnético, al igual que el utilizado en el tubo del receptor. Se desarrollaron otro tipo de tubos de cámara como el disector de imagen de Philo Taylor Farnsworth y luego el Icotrón y el súper emitrón, que era un híbrido de iconoscopio y disector, y al final apareció el orticón, desarrollado por la casa RCA y que era mucho menor, en tamaño, que el iconoscopio y mucho más sensible. Este tubo fue el que se desarrolló y perduró hasta su desaparición. Vladimir Zworykin realizó sus estudios y experimentos del iconoscopio en la RCA, después de dejar San Petersburgo y trabajando con Philo Taylor Farnsworth quien lo acusó de copiar sus trabajos sobre el disector de imagen. Philo Taylor Farnsworth desarrolló el disector de imagen el el 7 de septiembre de 1927 retransmitió la primera señal, una simple línea recta en movimiento. Un año después el sistema estaba suficientemente desarrollado como para hacer una manifestación pública que fue recogida por los medios de prensa. El periódico San Francisco Chronicle publicaba en 3 de septiembre de 1928, un invento de un ciudadano de San Francisco que revolucionará la televisión. El
6
artículo que lo acompañaba describía al disector de imagen diciendo que era «del tamaño de un cuarto de galón ordinaria de las que las amas de casa utilizan para conservar la fruta. El invento de Farnsworth aún no estaba patentado, por lo que se guardaba en secreto, pero el entonces recién nombrado presidente de la RCA, David Sarnoff, contrató en 1930 a Vladimir Zworykin, que trabajaba en un diseño parecido al de Farnsworth, aunque con problemas todavía sin resolver. Este, sin decirle que trabajaba para la RCA, se presentó como un colega interesado en intercambiar opiniones y visitó su laboratorio durante tres días enteros. Poco después Zworykin presentó su desarrolló con los problemas resueltos y fue acusado por Farnsworth de copiar sus trabajos. Los transductores diseñados fueron la base para las cámaras de televisión. Estos equipos integraban, e integran, todo lo necesario para captar una imagen y transformarla en una señal eléctrica. La señal, que contiene la información de la imagen más los pulsos necesarios para el sincronismo de los receptores, se denomina señal de vídeo. Una vez que se haya producido dicha señal, ésta puede ser manipulada de diferentes formas, hasta su emisión por la antena, el sistema de difusión deseado. El iconoscopio se usó en las transmisiones de Estados Unidos entre 1936 y 1946. Sucesores del iconoscopio El vidicón es un tubo de 2,2 cm de diámetro y 13,3 cm de largo basado en la fotoconductividad de algunas sustancias. La imagen óptica se proyecta sobre una placa conductora que, a su vez, es explorada por el otro lado mediante un rayo de electrones muy fino. El plumbicón está basado en el mismo principio que el vidicón, sin embargo, su placa fotoconductora está formada por tres capas: la primera, en contacto con la placa colectora, y la tercera están formadas por un semiconductor; la segunda, por óxido de plomo. De este modo, se origina un diodo que se halla polarizado inversamente; debido a ello, la corriente a través de cada célula elemental, en ausencia de luz, es extraordinariamente baja y la sensibilidad del plumbicón, bajo estas características, muy elevada. Entre ambos, la señal de vídeo La señal transducida de la imagen contiene la información de ésta, pero como hemos visto, es necesario, para su recomposición, que haya un perfecto sincronismo entre la deflexión de exploración y la deflexión en la representación. La exploración de una imagen se realiza mediante su descomposición, primero en fotogramas a los que se llaman cuadros y luego en líneas, leyendo cada cuadro. Para determinar el número de cuadros necesarios para que se pueda recomponer una imagen en movimiento así como el número de líneas para obtener una óptima calidad en la reproducción y la óptima percepción del color
7
(en la TV en color) se realizaron numerosos estudios empíricos y científicos del ojo humano y su forma de percibir. Se obtuvo que el número de cuadros debía de ser al menos de 24 al segundo (luego se emplearon por otras razones 25 y 30) y que el número de líneas debía de ser superior a las 300. La señal de vídeo la componen la propia información de la imagen correspondiente a cada línea (en el sistema PAL 625 líneas y en el NTSC 525 por cada cuadro) agrupadas en dos grupos, las líneas impares y las pares de cada cuadro, a cada uno de estos grupos de líneas se les denomina campo (en el sistema PAL se usan 25 cuadros por segundo mientras que en el sistema NTSC 30). A esta información hay que añadir la de sincronismo, tanto de cuadro como de línea, esto es, tanto vertical como horizontal. Al estar el cuadro dividido en dos campos tenemos por cada cuadro un sincronismo vertical que nos señala el comienzo y el tipo de campo, es decir, cuando empieza el campo impar y cuando empieza el campo par. Al comienzo de cada línea se añade el pulso de sincronismo de línea u horizontal (modernamente con la TV en color también se añade información sobre la sincronía del color). La codificación de la imagen se realiza entre 0 V para el negro y 0,7 V para el blanco. Para los sincronismos se incorporan pulsos de -0,3 V, lo que da una amplitud total de la forma de onda de vídeo de 1 V. Los sincronismos verticales están constituidos por una serie de pulsos de -0,3 V que proporcionan información sobre el tipo de campo e igualan los tiempos de cada uno de ellos. El sonido, llamado audio, es tratado por separado en toda la cadena de producción y luego se emite junto al vídeo en una portadora situada al lado de la encargada de transportar la imagen.
8
TEMA 2 HISTORIA DE LA TELEVISIÓN EN EL MUNDO
Definición Carrera Páramo define la televisión como: “Sistema electrónico de grabación de las imágenes en movimiento y sonidos y su simultanea reproducción a distancia por medio de ondas electromagnéticas”. Méndez la considera como:”El sistema de transmisión de imágenes por medio de ondas electromagnéticas a través de hilos eléctricos, cable o por el éter (lo que ahora se conoce por transmisión abierta) fenómeno que pertenece a la electrónica”. La palabra televisión se deriva del griego tele: lejos y de visión: ver. Se puede decir que es el privilegio que tiene el humano para ver lo que ocurre en el mundo desde su casa. La transmisión de imágenes a distancia, como la ilusión del movimiento en el cine, ha sido posible gracias a la particularidad fisiológica conocida como la persistencia de las imágenes en la retina. Resulta de mirar un objeto luminoso y luego se cierran los ojos por un breve tiempo, la visión no desaparecerá de inmediato. La visión persistirá por un breve tiempo, aproximadamente una décima de segundo. Antecedentes históricos Según Mendoza Palacios la historia de la televisión en el mundo se desarrolló de la siguiente manera: Primeros pasos En 1872, Emite Renand inventa el praxinoscopio, sistema para mostrar imágenes en movimiento a más de un espectador. Un año después, Senlecp formuló la teoría de la transmisión a distancia de imágenes en movimiento, mediante la descomposición y sucesiva recomposición fragmentaria, lo cual se constituyó en el primer servicio público de telefonía. Por el año de 1880, el científico estadounidense G. R. Carey crea un método para captar mediante la electricidad la imagen del fondo de la cámara oscura y mostrarla a gran distancia. Sin embargo su proyecto no funcionó. En 1897, Ferdinand Braun, físico alemán, inventó el tubo de rayos catódicos que hizo posible las modernas cámaras y receptores de televisión. El físico investigó como se comportaban los electrones, diminutas partículas que constituyen la corriente eléctrica, descubrió que al chocar con pintura fluorescente, ésta brillaba intensamente.
9
Braun aplicó pintura al extremo de un tubo de vidrio que contenía un electrodo, que al calentarse emitía electrones. Este electrodo se denomina cátodo y el haz de electrones, rayo catódico. En 1906, el ruso Boris Rosing consideró que el tubo de rayos catódicos podía utilizarse para proyectar imágenes de televisión. En 1911, Rosing sólo pudo producir imágenes deficientes. Esto no fue tropiezo entonces para crear así el primer aparato de televisión que funcionó en el mundo. La televisión electrónica Vladimir Zworykin fabrica el primer tubo electrónico para cámara que llamo iconoscopio, entre 1923 y 1931. Así también produce un tubo de imagen, el kinescopio. Zworykin obtuvo la primera patente de televisión en color en 1925. Se le ocurrió cubrir la pantalla del tubo de rayos catódicos con una serie repetida de filtros de color en cámara. Este trabajo no tuvo éxito y los sistemas electrónicos de color no se produjeron hasta 25 años después. John Logie Baird, de origen escocés, efectuó en 1926 la primera demostración pública de televisión ante los miembros de la Royal Institution (inglesa), en su laboratorio de SOHO londinense. Estudio de televisión En 1929 se inauguró el primer estudio de televisión del mundo en Long Acre, por Baird. Baird persuadió a una de las estrellas más populares de Gran Bretaña, la cantante Gracie Fields, para que apareciera en una diminuta pantalla, en el primer programa experimental. No logró transmitir al mismo tiempo las imágenes y el sonido, los espectadores vieron primero el rostro de una silenciosa cantante, y unos minutos después escucharon su voz frente a una pantalla vacía. En 1930 estos problemas fueron resueltos. Baird transmitió desde su estudio la primera presentación teatral televisada por la BBC, la obra de Pirandello “El hombre de la flor en boca”, con media hora de transmisión y tres personas como reparto. Primer programa filmado El término filmado surge porque la televisión para presentar sus imágenes utilizó la tecnología de la película procesada por químicos para su revelado. Todo el material estaba formado por cinta fílmica proveniente de la cinematografía. Cuya reproducción se hacía en cámaras de 8 milímetros. En la ciudad alemana de Berlín en 1935 se inaugura el primer servicio del mundo de televisión filmada, que funcionaba tres días a la semana por dos
10
horas diarias de programación, proyecto imágenes de los juegos olímpicos de Berlín en 1936, hasta que fue bombardeado y destruido en 1943. El primer servicio público de alta definición fue inaugurado por la BBC desde el Alexandra Palace en Londres, en noviembre de 1936. Dos sistemas se emplearon durante los primeros tres meses: la televisión completamente electrónica desarrollada por Marconi-EMI se alternaba semanalmente con el equipo mecánico de Baird. En pocos años el equipo Marconi-EMI había mejorado la calidad de la imagen a 405 líneas horizontales, con 25 imágenes completas por segundo. El satélite trasatlántico La transmisión intercontinental de imágenes fue difícil, pues las señales difundidas en las bandas de VHF y UHF no viajaban mucho. Por lo que se hizo necesario contar con satélite de comunicación para las transmisiones en vivo. Telstar se convirtió en el primer satélite en transmitir televisión a través del Atlántico poco después de ser lanzado en 1962. El primer programa mostraba imágenes de Paris, transmitidas por el servicio de la televisión francesa al telstar y de ahí a una antena en Estados Unidos.
11
TEMA 3 HISTORIA DE LA TELEVISIÓN EN LATINOAMÉRICA
En México, se habían realizado experimentos en televisión a partir de 1934, pero la puesta en funcionamiento de la primera estación de TV, Canal 5, en la Ciudad de México, tuvo lugar en 1946. El 31 de agosto de 1950 se implantó la televisión comercial y se iniciaron los programas regulares y en 1955 se creó Telesistema mexicano, por la fusión de los tres canales existentes.
El mismo año 50, con pocas semanas de diferencia, se abrieron las transmisiones comerciales en Brasil (18 de septiembre) y Cuba (24 de octubre, aunque hubo transmisiones extraoficiales a finales de los 40 y en el propio año de apertura). En Brasil, la TV vino de manos de Assis Chautebriand, dueño de los Diários Associados. Él fundó la TV Tupí que duraría hasta el año 1980 cuando la segunda mayor red del país fue a la quiebra. En Cuba, la férrea competencia existente en la radio, se trasladó al nuevo medio. Gaspar Pumarejo, dueño de Unión Radio y los hermanos Mestre, en particular Goar, dueño del Circuito CMQ, hicieron todo lo posible para tener la primacía. Y aunque Pumarejo llegó a hacer transmisiones no oficiales, el mérito del primer canal de la isla le cabe a la CMQ, que estuvo en el aire hasta el año 62, cuando se transformó sencillamente en Canal 6, tras la nacionalización que sufrió a manos de la Revolución Cubana. La primera transmisión en la Argentina se realizó en 1951, dando origen al por entonces privado canal 7, en ese entonces LR3-TV, propiedad del pionero en radio y televisión, Jaime Yankelevich. La televisión argentina siempre se ha diferenciado del resto de las producciones de Hispanoamérica por el sistema de televisión empleado en ese país (PAL-N). Debido a esto, todo programa producido en Argentina que se llevare a otro país hispanoamericano (excepto Paraguay y Uruguay) tiene que convertirse al sistema NTSC (M ó N). República Dominicana realizó su primera transmisión el 1 de agosto de 1952. Otro de los primeros países en América Latina, después de México y Argentina, en abrir campo a la televisión fue Nicaragua en 1956, cuando se Televisión de Nicaragua S.A. Canal 8, propiedad de la Familia Somoza. La programación de este canal poseía un contenido de tipo recreativo y comercial, en vivo algunos, principalmente de noticias y culturales, ya sea musicales como documentales sobre el país. De hecho, para inicios de 1957, de los 12 programas que se presentaban en televisión, 8 eran producción nacional, principalmente programas en vivo de corte cultural. Sin embargo, al año siguiente lo que más
12
se presentaban era películas, con una presencia muy alta en el Canal 8, sin dejar atrás los de tipo cultural, que todavía ocupaban los primeros lugares (por encima de las noticias). El 17 de enero de 1957 se creó el Canal 6. Salvadora Debayle era la principal accionista de este canal naciente. Cinco años más tarde, canal 8 se uniría al canal 6, formando así la primera cadena televisiva nacional, hecho memorable en la historia de Nicaragua. Esta fusión, al parecer, era predecible, ya que el canal 6 empezó a trabajar con los equipos del canal 8. Posteriormente se da la creación de nuevos canales como Canal 2 y Canal 12, propiedad de los Sacasa, parientes de los Somoza. Nicaragua estuvo también junto a Chile en la lista de los primeros países en América Latina en transmitir imágenes en color antes de que finalizara la década de los 70s. En 1973 Canal 2 inició operaciones en color, justamente al año del terremoto de Managua, en Diciembre de 1972. Panamá inicio sus transmisiones de televisión comercial, el 4 de marzo de 1960, a cargo de Canal 4 RPC, propiedad de la familia Eleta. Antes de esto, en 1956, la TV había llegado a la Zona del Canal de Panamá, Canal 8, SCN del Ejército Sur de los Estados Unidos USSOUTHCOM. Televisa, la empresa privada de televisión más importante de habla hispana, se fundó en 1973 y se ha convertido en uno de los centros emisores y de negocios, en el campo de la comunicación, más grande del mundo, ya que, además de canales y programas de televisión, desarrolla amplias actividades en radio, prensa y ediciones o espectáculos deportivos. La televisión ha alcanzado una gran expansión en todo el ámbito latinoamericano. En la actualidad existen más de 300 canales de televisión y una audiencia, según el número de aparatos por hogares (más de 60 millones), de más de doscientos millones de personas. A partir de 1984, la utilización por Televisa del satélite Panamsat para sus transmisiones de alcance mundial, permite que la señal en español cubra la totalidad de los cinco continentes. Hispasat, el satélite español de la década de 1990, cubre también toda Europa y América Historia de la televisión en Bolivia Las circunstancias en las que surge la televisión en Bolivia se diferencian bastante de lo ocurrido en el resto de los países analizados, puesto que lo hace durante un régimen militar y en manos del Estado. Por lo tanto, como medio no fue testigo ni de la revolución organizada por el Movimiento Nacionalista Revolucionario de 1952, ni del gobierno militar del general René Barrientos ni de la captura y muerte de Ernesto “Che Guevara. La televisión en Bolivia surgió en 1969, en plena dictadura. De carácter estatal, cinco años más tarde se convirtió en la herramienta con la cual el gobierno militar del General Banzer trato de neutralizar la influencia de las emisoras mineras y de evitar que estas operaran con éxito.
13
En 1974, el gobierno y la COMIBOL distribuyeron cinco mil televisores en las minas con amplias facilidades de pago. Según testimonios de las familias de los mineros, la introducción de este nuevo medio cambio visiones y expectativas de la gente, aunque posteriormente en 1968 los mineros exigieron mediante una paralización de actividades la devolución y reapertura de sus radios. Entre 1976 y 1980 se conforma el Sistema Integrado de Televisión Universitario formado por ocho canales, aunque la autorización para que las universidades pudieran tener su emisora fue otorgada en 1973. Pese a recibir una subvención estatal, estas estaciones administraron sus recursos económicos, humanos y técnicos en forma totalmente independiente, sin condicionamiento alguno. Si bien el objetivo de estos canales era de carácter educativo, su programación muchas veces adquirió un tono político e incluso alternativo al discurso gubernamental que se emitía a través del canal estatal. La única forma de control que el gobierno militar podía realizar a estos canales era mediante un recorte a los presupuestos de subvención. En 1979 la estructura del mercado televisivo en Bolivia estaba formada por nueve canales de televisión: ocho de universidades estatales con cobertura regional y un canal estatal con cobertura nacional. Los primeros se financiaban mediante subvenciones del Tesoro General de la Nación, mientras que el canal estatal completaba los ingresos con publicidad, lo cual le daba una mayor estabilidad financiera. Ese mismo año el general Padilla autorizo la concesión de licencias para canales privados de televisión. Pero antes de que las licencias se asignaran su régimen fue derribado por el general García Meza, quien rápidamente restableció el monopolio estatal de la televisión y designo rectores militares en las universidades, de manera que sus canales pasaron a estar bajo el estrecho control del Ministerio del Interior y la relativa independencia que tenían hasta entonces dichas estaciones se redujo considerablemente.
14
TEMA 4 ERA DIGITAL, LA TELEVISIÓN INTERACTIVA
La digitalización de la emisión, transmisión y recepción de la señal televisiva supone un cambio revolucionario que afecta a todos los integrantes de la cadena de valor y a los modelos de negocio que existen a su alrededor. Esta revolución tecnológica, que afecta a todas las plataformas de televisión existentes (TDT, Satélite, Cable, IPTV), es comparable a la evolución obtenida por el fax sobre el envío de papel físico o el DVD sobre las cintas de audio y vídeo analógicas. El cambio tecnológico es tan profundo en la TV (calidad de imagen y sonido, aumento de canales, interactividad, etc.), y tan importante por el tipo de medio de comunicación y su uso masivo, que abre un futuro prometedor e inmenso. Esta amplia oferta para el espectador, que podrá llegar a ver más de 50 canales distintos, provocará una clara fragmentación de audiencias, por lo que las cadenas deberán olvidar las audiencias del 15-25% actual para pasar a modelos televisivos norteamericanos donde audiencias menores del 5% se consideran un auténtico éxito. No nos podemos olvidar de los grabadores digitales o PVR que ya están generando una nueva forma de ver televisión, TV bajo demanda, y que tienen capacidades, incluso, de eliminación de publicidad. Estos y otros conceptos generarán un drástico descenso de los modelos de ingresos publicitarios actuales vinculados a la audiencia, principal fuente de ingresos de la TV en abierto, y que obligarán tanto a la búsqueda de nuevos modelos de ingresos como a la gestión de las TV con unos costes mucho más ajustados. Esta necesaria búsqueda de nuevos modelos de ingresos que sustituyan a la audiencia tiene, en otra de las características del cambio tecnológico, su principal aliado: el cambio más importante es la evolución de la televisión hacia un medio multimedia e interactivo. La emisión en formato digital permite la inclusión de datos junto con la imagen y el sonido que son interpretados por el descodificador y mostrados en la televisión a través de un interface de usuario muy evolucionado respecto del teletexto. La comunicación se convierte en bidireccional a través de un canal de retorno utilizado en el decodificador o en la televisión y que puede funcionar a través de diferentes tecnologías, pero basándose, sin duda, en la ya implantada banda ancha. Esta capacidad de comunicación bidireccional permitirá desarrollar cualquier tipo de servicio interactivo de valor añadido sobre un medio de utilización masivo como es la televisión. Esta es la gran revolución, frente a un mercado de venta de ordenadores saturado, la conversión de la televisión en interactiva permitirá el desarrollo de la sociedad de la información acercando las nuevas tecnologías a los
15
ciudadanos ya sean usuarios de PC y nuevas tecnologías o no. A través de la televisión podremos acceder a servicios de valor añadido:
Informativos: guías electrónicas de programación, noticias, meteorología, campañas de información pública, catálogos, estado de las carreteras, información turística, publicaciones oficiales y un largo etc.
Interactivos: publicidad interactiva, concursos, encuestas, comercio electrónico, trámites con administraciones públicas, información cultural, alertas informativas, telemedicina, participación en los contenidos que se emiten, etc.
Bien, imaginemos las bondades y nuevos valores añadidos de esta interactividad para la publicidad televisiva actual o el comercio electrónico… una auténtica revolución. Veamos algunos ejemplos. Inicialmente tenemos que definir la diferencia entre aplicaciones interactivas para televisión no sincronizada y sincronizada.
Las no sincronizadas. Son aquellas que no están directamente vinculadas a la emisión de un programa de contenidos concreto sino que están disponibles para su utilización en cualquier momento a través del mando a distancia. Estamos viendo la televisión y accedemos a las aplicaciones interactivas pulsando el botón correcto en el mando a distancia. La televisión nos muestra una lanzadera con la lista de aplicaciones disponibles en el canal actual. En esta lista figura, entre otras, una aplicación concreta de una compañía aérea, accedemos a ella y entramos en un entorno en el que la imagen de la televisión en vivo se minimiza a una esquina y nos muestra una serie de contenidos destacados con un menú de opciones como: información general de la compañía, ofertas de vuelos actualizables en tiempo real, compra de billetes a través de un formulario de selección típico con pago a través de tarjeta de crédito, registro como usuario, acceso a la información de puntos de mi tarjeta de fidelización, etc. Esta aplicación es una especie de WEB o Microsite adaptada al medio de televisión interactiva con los contenidos y aplicaciones de interés para el público en general y que esta siempre disponible ligada a este canal concreto. Como puede verse es muy útil para el usuario final y muy interesante para cualquier anunciante ya que no solamente es un folleto o anuncio estático, como en el teletexto, sino una serie de servicios y aplicaciones de valor para el usuario. En este ejemplo tendríamos, directamente y en cada hogar, un punto de información y venta del anunciante abierto las 24 horas del día.
16
Las aplicaciones interactivas sincronizadas. Son aquellas que están vinculadas a la emisión de un contenido concreto estando disponibles únicamente en la emisión de este contenido. Vayamos al ejemplo: En el intermedio de la emisión de una película se emite un anuncio de un nuevo automóvil. Durante la emisión del mismo se nos muestra la posibilidad de acceder a más información sobre el automóvil si pulsamos un botón concreto del mando a distancia. Al realizar esta pulsación se muestra un entorno en la pantalla que deja la emisión de la televisión en vivo minimizada en una esquina y que nos muestra una imagen grande y de calidad del automóvil. Un menú de opciones nos permite girar la imagen para verlo desde distintos ángulos (ver el interior, el motor, el maletero, etc.), nos permite ver más imágenes de versiones del mismo modelo, textos con características técnicas y, a través de un formulario, podemos localizar el concesionario de venta más cercano para solicitar una prueba en el mismo momento. Una vez satisfecho nuestro deseo de más información sobre el anuncio y abandonar la aplicación, ésta desaparece de la pantalla volviendo la televisión en vivo a pantalla completa y a la programación actual. Esta aplicación ya no estará de nuevo disponible hasta que no se vuelva a emitir el anuncio de publicidad de este vehículo ya que su misión es dar respuesta al interés mostrado por el producto en sí, pero no estar disponible en todo momento como el ejemplo anterior. Obviamente también se identifica claramente el interés de los anunciantes por la emisión de esta interactividad con su anuncio ya que pueden convertir directamente al telespectador en contacto interesado o incluso en cliente a través de la compra directa del producto. Veamos un ejemplo de publicidad sincronizada más ligada al contenido emitido. Imaginemos que estamos viendo un partido de fútbol en directo. El partido comienza y a los pocos minutos se produce una falta cerca del área de las denominadas peligrosas. De forma automática se muestra en la televisión una pequeña ventana de información que nos permite, de una forma sencilla, poder apostar si habrá gol en el lanzamiento de la misma. Apostemos o no, la falta se lanza y el ídolo local marca el primer tanto. Ahora la televisión nos muestra la opción de ver los datos del jugador, su fotografía y sus estadísticas en la temporada actual.
17
El partido llega sin más sobresaltos al intermedio, en este momento una ventana de información nos muestra que podemos pedir directamente pizzas las cuales serán enviadas en breves minutos a nuestro domicilio y siempre a través de un sencillo entorno manejado con el mando a distancia. El partido se reanuda y a los pocas jugadas el líder del equipo visitante, y estrella mediática internacional, lanza un potente disparo desde fuera del área el cual penetra sin remedio en la portería. En este momento de celebración una ventana de información nos muestra que podemos pedir directamente la camiseta del goleador eligiendo la talla de la misma y contribuir así a su mayor engrandecimiento. El partido llega a su final integrando aplicaciones y servicios de parecidas características. En este ejemplo se muestran las posibilidades de integración de publicidad y comercio electrónico en contenidos concretos. Las posibilidades son infinitas. Ciencia ficción, no, realidad, actualmente estamos en la última fase del apagón analógico en la plataforma de TDT o televisión digital Terrestre que permite, tecnológicamente, desarrollar estos y otros servicios.
18
UNIDAD 2 TELEVISIÓN QUE VEMOS HOY
TEMA 1 CARACTERÍSTICAS DEL LENGUAJE AUDIOVISUAL
Según el Dr. Pere Marqués Graells el lenguaje audiovisual cumple las siguientes características: Es un sistema de comunicación Porque es capaz de emitir un mensaje a un receptor. Es multisensorial Ya que se apoya en la estimulación visual y auditiva al unísono. Promueve un sistema paralelo de información Al representar una opción más para la obtención de conocimiento. Moviliza la sensibilidad Antes que el intelecto por su alta receptividad por parte del hemisferio derecho del cerebro. Sintético Por ser capaz de tratar, condensar y relacionar varios puntos de un tema de manera complementaria a partir de la imagen. Los aspectos sintácticos Son los que conforman la narrativa, van más allá de sustantivos, verbos y adjetivos compuestos de la manera correcta como en la literatura, ya que la técnica audiovisual se basa en la composición de los valores de la imagen y el sonido como fue antes mencionado, estos a su vez juegan el papel de elementos formales, los cuales se denominan como los elementos que componen una estética.
19
TEMA 2 ESTUDIOS DE CONSUMO DE TELEVISIÓN: TELEVIDENTES Y RATINGS
Para asignar recursos publicitarios a la televisión, la industria compra los servicios de medición de audiencia a proveedores privados especializados. Dos de los principales proveedores son Ibope, empresa Brasilera que opera en 13 países, mayormente de América Latina, incluyendo Colombia, y Nielsen, que trabaja en 100 países, incluyendo Estados Unidos. La metodología predominante de medición es el people meter, dispositivo electrónico que se instala en los televisores y registra minutos a minuto el canal encendido, y la persona o personas que los están viendo, para lo cual los individuos se registran como tales. Entre las medidas de audiencia, la más conocida es el rating, que en términos absolutos mide el número de personas que ven televisión (multiplicado por el número de minutos de audiencia), y en términos relativos, el total de minutos viendo televisión (o el programa) sobre el total de personas multiplicado por minutos de audiencia posibles (duración del programa). Otras medidas de audiencia importantes son los televisores encendidos, la cobertura o reach (individuos que vieron el programa por un tiempo mínimo/total individuos), y el share de emisión (rating% / televisores encendidos). Con frecuencia se interpretan las medidas de audiencia como iguales a las preferencias de los televidentes. Tanto los datos de la EUC 2008 como los mismos datos del rating proveen datos que nos permiten diferenciar las preferencias del rating. La encuesta EUC 2008 preguntó a los televidentes cuáles tipos de programas de televisión sobran, cuáles faltan, y cuáles “hay suficientes”. Los géneros televisivos que más sobran, a juicio de los encuestados, son las telenovelas, los Realities y los dramatizados, justamente los mismos que tienen el mayor rating. Por otra parte, los géneros que mas faltan según los encuestados son los documentales, programas de humor y musicales, que en el rating alcanzan los puntajes más bajos (documentales y musicales) o puntajes medios relativos a otros géneros televisivos (humor). Las preferencias por género televisivo varían en algunos casos según el estrato socioeconómico, y edad y el sexo del televidente. Los estratos uno y dos, es decir, los estratos socioeconómicos más pobres, manifiestan que falta un mayor número de programas de la mayoría de géneros televisivos, salvo documentales, magazines y programas de opinión. Por edad, los jóvenes consideran que faltan musicales, documentales, y programas con cine y películas, principalmente. Los jóvenes consideran que sobran, en su orden, telenovelas, concursos y dramatizados. Por sexo, uno de cada dos hombres cree que sobran telenovelas frente a una de cada tres mujeres. Las mujeres consideran que sobran programas de deportes con una probabilidad que dobla a los hombres (18% vs 8%).
20
En sĂntesis, la diferencia entre preferencias de los televidentes y rating, y entre rating sobre el tiempo, permite afirmar que ĂŠste mide lo que la gente ve, y no necesariamente lo que la gente quiere ver.
21
TEMA 3 IMAGEN E INTENCIÓN COMUNICACIONAL
Intención comunicativa La intención comunicativa es el propósito que persigue el hablante con la emisión de su discurso. Esto significa que el emisor, a través de su mensaje, busca producir un efecto en el receptor. Sin embargo, no siempre el discurso declara explícitamente la intención del emisor. Ello, en tanto muchas veces los mensajes son indirectos, las circunstancias en que son emitidos no contribuyen a su comprensión y el conocimiento compartido entre emisor y receptor no es equivalente. Por consiguiente, en algunas ocasiones, la tarea de reconstruir la intención comunicativa del hablante por parte del receptor se hace extremadamente dificultosa. Para evitar lo anterior, es necesario que el emisor considere todos aquellos aspectos de la situación comunicativa que son relevantes para que el receptor pueda interpretar adecuadamente su intención comunicativa y así lograr una comunicación efectiva. Tema El tema corresponde al contenido que se desarrolla en el discurso. La diversidad de temas que se pueden abordar en los discursos es enorme y su selección tiene relación con la intención comunicativa del hablante. En el caso del discurso enunciado en situación pública de comunicación, los temas deben ser de interés para la comunidad, pues es lo que propicia la comunicación entre el emisor y los receptores. Situación comunicativa pública Una situación comunicativa es pública cuando el tema desarrollado en el discurso puede ser conocido por un grupo o una colectividad; también define su carácter público el hecho de que el tema del discurso sea de interés para dicha comunidad. Por otra parte, el lugar en que se emiten estos discursos también es frecuentemente público (iglesias, calles, congreso, plazas, etc.). Sin embargo, en ciertas circunstancias, algunos espacios privados se utilizan para emitir un discurso que está destinado a un receptor colectivo. El emisor está investido de autoridad, de representatividad o de competencia ética o cognitiva sobre un tema de interés para la comunidad. Se dirige a un receptor masivo que se motiva por el contenido que desarrollará el emisor. Se entiende que en estos casos existe una relación de jerarquía en que el emisor está por sobre el receptor. Como se mencionó previamente, el tema o materia de estos discursos es de interés para la comunidad y por ello es necesario que sea emitido. A través de su actualización se informa de contenidos de interés de un grupo social, o se delibera acerca de tópicos importantes para los destinatarios. De allí que se espera que el receptor tome conciencia sobre aquellas materias que son de su incumbencia.
22
Finalmente, las circunstancias de enunciación implican una puesta en escena en que el emisor debe considerar tanto los recursos verbales como los no verbales para lograr el efecto que desea en el receptor. Tanto los recursos verbales como los no verbales se utilizan para enfatizar ciertos aspectos del discurso que, a juicio del emisor, son relevantes. Así, el hablante recurre tanto a su entonación, al tono de su voz, el timbre, etc., como a los gestos faciales y corporales para llamar la atención de sus destinatarios. Los discursos emitidos en situaciones públicas no presentan una estructura textual específica y, por consiguiente, pueden evidenciar cualquier estructura (narrativa, expositiva, descriptiva o argumentativa).
23
TEMA 4 IMPACTO DE LA TELEVISIÓN EN LA CULTURA
El impacto de la televisión en la sociedad contemporánea puede tener su punto de entrada en el impacto cultural que tienen los medios y tecnologías de comunicación. Este impacto propone un lenguaje que nos atraviesa. Los medios, en general, se usan con fines específicos, la audiencia elegirá el medio y el contenido de acuerdo a sus propios intereses y demandas. El impacto de la televisión en la sociedad contemporánea demuestra que la mayoría de los adultos utilizan la televisión a falta de compañía para no sentirse solos. Sucede que la televisión realiza movimientos estratégicos como mostrar las políticas gubernamentales, o las caracterizaciones de los distintos estatus sociales y así logra crear un cuerpo de conocimientos que la audiencia comparte. El impacto de la televisión en la sociedad contemporánea se explica debido al alto grado de influencia que esta tiene como consecuencia de distintas características, como el manejo de imágenes, sonidos, colores que entran directamente a nivel subconsciente. Por otro lado la televisión engloba a toda una serie de espectáculos como el teatro, la música, el deporte que en esa misma integración se vuelven dependientes del medio. La intimidad modificada Pero el impacto de la televisión en la sociedad contemporánea llega más lejos, a la misma intimidad del hogar, donde afecta la distribución física de los objetos y determina los lugares de reunión familiar. Afecta la comunicación misma de la familia al volverse un objeto que llega a sentirse como indispensable. A nivel marital la televisión puede convertirse en el tercero en discordia que evita o al menos espacia los momentos de intimidad conyugal. El impacto de la televisión en la sociedad contemporánea puede dimensionarse si pensamos que es el medio de comunicación más usado en el mundo. Y es por lo tanto una forma de control. Símbolo de la cultura de masas, genera incultura e uniformidad. El impacto esta dado por el vacío ideológico y la lógica de consumo En general presenta una ideología cambiable y por lo tanto genera el vacío ideológico en los espectadores puesto que su estructuración se encuentra basada, no en la ética sino en el rendimiento económico. De esta manera la mediada de éxito está dada por la lógica del capital y del consumo, no del contenido. Es un medio masivo, porque sus contenidos no son complejos sino en los estructurales y por eso es un medio económico que transporta cargas morales superficiales, como las telenovelas, que funcionan para los espectadores como guía en sus juicios morales.
24
UNIDAD 3 LENGUAJE DE LA TELEVISIÓN
TEMA 1 MANEJO DE PUNTOS DE TOMA, PUNTOS DE VISTA Y PLANOS
Planos Es la imagen cubierta por la cámara. Este se clasifica según la proximidad de la cámara al objetivo y lo que cubre de él según su proporción. Esto clasifica los planos en:
Planos descriptivos: Aquel que describe el lugar y establecen contexto. Este se denomina como: o Plano General: Ubica a los personajes en su entorno, es decir en el lugar donde se desarrolla la acción. o Plano Conjunto: Presenta un espacio amplio en el cual se pueden distinguir bastante bien los personajes. Tiene sobre todo un valor descriptivo. Sitúa los personajes en el entorno donde se desenvuelve la acción. Indica cual es la persona que realiza la acción y dónde está situada (actúa como el sujeto de una frase); no obstante también puede mostrar varias personas sin que ninguna de ellas destaque más que las otras. El plano general permite apreciar bastante bien la acción que desenvuelven los personajes, de manera que también aporta un cierto valor narrativo. Planos narrativos: Aquellos que narran la acción que se desarrolla y estos son: o Plano Entero: Es ya un plano más próximo que puede tener como límites de la pantalla la cabeza y los pies del personaje principal, que por lo tanto se ve entero. Aporta sobretodo un valor narrativo, ya que muestra perfectamente la acción que desarrollan los personajes. El plano entero también puede tener cierto valor descriptivo ya que permite apreciar las características físicas generales del personaje. o Plano Americano: Es un plano medio ampliado que muestra los personajes desde la cabeza hasta las rodillas. En este plano lo que interesa sobre todo es mostrar la cara y las manos de los protagonistas; por lo tanto tiene un valor narrativo y también un valor expresivo. El plano americano se utiliza mucho en las escenas donde salen personajes hablando y en las películas "westerns".
25
o Plano Medio: Presenta el personaje de cintura para arriba. La cámara está bastante cerca de él. Aporta sobretodo un valor narrativo, ya que presenta la acción que desenvuelve el personaje. En cambio, el ambiente que le rodea ya no queda reflejado. El plano medio también tiene un valor expresivo ya que la proximidad de la cámara permite apreciar un poco las emociones del personaje.
Planos expresivos: Aquellos que enfatizan la emoción de los personajes, y estos son: o Primer Plano: Presenta la cara del personaje y su hombro. La cámara está muy cerca de los elementos que registra. Aporta esencialmente un valor expresivo al audiovisual. Sirve para destacar las emociones y los sentimientos de los personajes. Añade calor y detalle a la trama. El primer plano suele tener una corta duración y se suele intercalar con otros planos, ya que aporta poca información sobre lo que hace el personaje y sobre el entorno que le rodea. o Plano Detalle: Muestra un objeto o una parte del objeto o personaje. La cámara está situada prácticamente sobre los elementos que registra. Su valor depende del contexto. Puede aportar un valor descriptivo, un valor narrativo o un valor expresivo. Los planos de detalle suelen tener también una corta duración y se intercalan con otros planos que aportan más información sobre lo que hace el personaje y sobre el entorno que le rodea. Al igual que en los otros tipos de plano, hay que evitar cortar a las personas por sus uniones naturales.
Ángulos Se refiere al ángulo imaginario que forma una línea perpendicular al objetivo de la cámara y que pasa por la cara del personaje principal. Según la posición de la cámara el ángulo mediante el cual el objetivo captará los personajes se denomina: o Ángulo Normal o A nivel: Se obtiene cuando una línea perpendicular al objetivo de la cámara incide en perpendicular sobre la cara del personaje. En este caso, la cámara estará situada aproximadamente a la altura de la mirada de la persona. El ángulo normal por sí mismo no proporciona ningún valor expresivo especial a parte del que aporten los demás elementos sintácticos utilizados. El ángulo normal es el que se utiliza normalmente. Denota una situación de normalidad. o Picado: El ángulo picado o “vista de pájaro” se obtiene cuando la cámara realiza un encuadramiento desde arriba hacia abajo. El ángulo picado añade un fuerte valor expresivo a las imágenes ya que, por razones de perspectiva, el personaje u objeto enfocado aparece más pequeño en relación al entorno. Denota inferioridad, debilidad, sumisión del personaje. o Contrapicado: El ángulo contrapicado o “vista de gusano” se obtiene cuando la cámara realiza un encuadramiento de abajo hacia arriba. Al ángulo contrapicado añade un fuerte valor
26
expresivo a las imágenes ya que, por razones de perspectiva, el personaje queda engrandecido, potenciado, de manera que parecerá más grande y poderoso. o Aberrante: Cuando se sitúa la cámara con una inclinación lateral las imágenes aparecerán inclinadas. La inclinación lateral de las imágenes añade un valor expresivo de inestabilidad y de inseguridad que a menudo se utiliza cuando se aplica la técnica de la cámara subjetiva. o Movimientos de la cámara Se refiere a los distintos movimientos que la cámara realiza al realizar una toma. Estos se dividen en físicos y ópticos. Estos son: o Paneo: Movimiento físico de la cámara sobre un eje de manera horizontal. o Tilt: Movimiento físico de la cámara sobre un eje de manera vertical, siendo tilt ascendente si es de abajo hacia arriba y tilt descendente si es de arriba hacia abajo. o Traveling: Movimiento físico de la cámara hacia atrás, adelante o hacia los lados, esta vez sobre una carretilla. o Dolly: Movimiento físico de la cámara en círculo. o Zoom: Movimiento óptico que resulta en el acercamiento o alejamiento del a imagen a través del movimiento de los lentes de la cámara, alternando la óptica del lente para lograr esto. Composición Se refiere a la distribución de los elementos que intervienen en una imagen dentro del encuadramiento que se realiza a partir del formato de la imagen y de acuerdo con la intencionalidad semántica o estética que se tenga. Se pueden considerar diversos aspectos: o Líneas Verticales: Producen una sensación de vida y sugieren cierta situación de quietud y de vigilancia. En general las líneas verticales, igual que las líneas horizontales, se asocian a una situación de estabilidad. No conviene abusar demasiado de las líneas verticales porque pueden cansar y provocar una sensación de monotonía en el espectador. o Líneas Horizontales: Producen una sensación de paz, de quietud, de serenidad y a veces de muerte. En general las líneas horizontales, al igual que las líneas verticales, se asocian a una situación de estabilidad. No conviene abusar demasiado de las líneas horizontales porque pueden provocar una sensación de monotonía en el espectador. o Líneas Inclinadas: Producen una sensación de dinamismo, de movimiento, de agitación y de peligro. En general las líneas inclinadas dan relieve y sensación de continuidad a las imágenes. Las líneas inclinadas al igual que las líneas curvas proporcionan un ritmo más dinámico a las secuencias de vídeo y resultan más agradables que las líneas verticales y las líneas horizontales. o Líneas curvas: Producen una sensación de dinamismo, de movimiento, de agitación y de sensualidad. En general las líneas curvas dan relieve y sensación de continuidad a las imágenes.
27
Las líneas curvas al igual que las líneas inclinadas proporcionan un ritmo más dinámico a las secuencias de vídeo y resultan más agradables que las líneas verticales y las líneas horizontales. o El aire: Se refiere al espacio más o menos vacío que se deja entre los sujetos principales que aparecen en una imagen y los límites del encuadre. o Regla de los tercios: Es una de las principales reglas de la composición. Según ella, los personajes u objetos principales tendrían que estar colocados en las intersecciones resultantes de dividir la pantalla en tres partes iguales de manera vertical y también de manera horizontal. De esta manera se consigue evitar la monotonía que producen los encuadres demasiado simétricos. A consecuencia de la regla de los tercios hay que tener presentes los siguientes aspectos: Los personajes principales no han de ocupar el centro del encuadre. La línea del horizonte nunca dividirá horizontalmente el encuadre en dos partes iguales. Simetría La simetría se produce cuando en un encuadre aparece repetido un elemento de manera que uno de ellos parece el reflejo del otro en un espejo. Las composiciones muy simétricas resultan agradables, dan una sensación de estabilidad, pero pueden resultar monótonas. Las composiciones asimétricas son más dinámicas, producen una sensación de inestabilidad y pueden generar más tensión dramática. Profundidad de Campo Es el área por delante y por detrás del objeto o personaje principal que se observa con nitidez. Una buena utilización de la profundidad de campo permite obtener interesantes efectos estéticos, destacar determinados objetos y difuminar otros para evitar distraer la atención del espectador. Estas se clasifican en: o Gran profundidad de campo: Es cuando en una imagen se ven con claridad la mayoría de los objetos de la imagen, tanto los que están más próximos al objeto principal como los más lejano. o Poca profundidad de campo: Cuando en una imagen sólo se ven con claridad los objetos situados cerca del objeto principal que se ha querido enfocar. Iluminación Consiste en el manejo de luces y sombras sobre nuestro objetivo para denotar u ocultar ciertas características del mismo, por esto la iluminación posee un valor expresivo y puede crear una atmósfera determinada que produzca diversas sensaciones. Esta se clasifica en: Luz Suave: O iluminación tonal es una iluminación difusa que reduce los contrastes excesivos y permite apreciar bien los detalles a la sombra. Se puede conseguir compensando adecuadamente la iluminación principal (interior o exterior) con reflectores o focos de relleno. Es una iluminación
28
plana, igualada y menos dramática que la iluminación dura, y proporciona una apariencia agradable a las personas. Luz Dura: O iluminación de claro y oscuro, es una iluminación direccional que sirve para destacar las formas y los contornos de las personas y los objetos. Produce un fuerte contraste. Se consigue utilizando una potente iluminación principal con una débil iluminación de relleno. Cuando se utiliza una iluminación dura las personas pueden aparecer con una imagen amenazadora.
Color El fenómeno del color se produce por la luz que reflejan los objetos. Los objetos que no reflejan la luz aparecen de color negro. Los colores nos producen, de manera inconsciente, diversos sentimientos y sensaciones. Cuando se crean imágenes conviene limitar los colores puros que se utilizan ya que si se usa un único color dominante se podrá centrar mejor el interés en la idea principal. Entre las principales propiedades de los colores están:
La tonalidad, que diferencia un color de otro. La saturación, que representa la fuerza del color, su grado de pureza o de mezcla con el blanco. La luminosidad, que es la mayor o menor capacidad que tiene para reflejar la luz.
Según su tonalidad los colores se pueden clasificar en dos grupos: Colores Cálidos: Resultan excitantes y estimulantes. En general los espacios con colores cálidos parecen más grandes, cercanos y pesados. Estos colores son: El rojo, el amarillo, el naranja y el blanco. Colores Fríos: Resultan sedantes. En general los espacios con colores fríos parecen más pequeños y lejanos. Estos colores son: el Verde, el violeta, el azul y el negro. Continuidad El raccord o continuidad hace referencia a la relación que existe entre las diferentes tomas de una filmación a fin de que no rompan en el receptor la ilusión de continuidad. Cada toma ha de tener relación con la anterior y servir de base para la siguiente. Por lo tanto se debe asegurar: La continuidad en el espacio: líneas virtuales, dirección de los personajes, de sus gestos y miradas. Por ejemplo, si un personaje sale por un lado del encuadre, en el plano siguiente ha de entrar por el lado contrario. La continuidad en el vestuario y en el escenario: ya que como las películas no se registran siguiendo el guión secuencialmente hay que asegurarse de que el vestuario de los personajes y su entorno no cambian sin razón. La continuidad en la iluminación: que no haya cambios repentinos de tonalidad dentro de un mismo espacio y secuencia. La continuidad en el tiempo.
29
Ritmo Se consigue a partir de una buena combinación de efectos y de una planificación variada. Constituye uno de los elementos que contribuirá más a hacer que las imágenes tengan o no atractivo para los espectadores. Para determinar el ritmo que conviene imprimir en una filmación habrá que tener presente el público al que va dirigida y las sensaciones que se quieren transmitir. El ritmo deberá estar al servicio de la narración. Se pueden considerar dos formas básicas de ritmo: Ritmo Dinámico: Se consigue mediante la utilización de muchos planos cortos y de corta duración. El cambio rápido de planos dará sensación de ritmo. Hay que tener presente que el uso de planos demasiado breves puede dificultar la asimilación de la información por parte de los receptores. Ritmo suave: Se consigue utilizando planos largos y poco numerosos. Cuando se presenta un plano general hay que dar más tiempo al espectador para su lectura ya que acostumbra a contener más información que los planos cortos. Hay que tener presente que el uso de planos demasiado largos puede crear un ritmo demasiado lento y hacer perder el interés de los espectadores. Cuando se observen dos planos de igual duración parecerá más lento el que contiene menos información.
30
TEMA 2 GUIONIZACIÓN ESCALETA, PAUTA Y GUIÓN
La escaleta o sinopsis técnica Resumen de los recursos dramáticos. Secuencias y escenas, ordenados cronológicamente para dar paso a la progresión dramática. Es un ordenamiento sintético de la historia. Sirve para comprobar la efectividad narrativa, el crecimiento gradual del conflicto, para que éste avance sin lagunas ni saturaciones, hasta llegar al clímax y de allí desembocar en la solución La redacción La redacción de un guión como cualquier obra es una reacción. Creamos a partir de una idea. La idea es una propuesta de nuestro pensamiento. Por tanto crear supone ciertas cualidades y disposición de nuestro pensar. Para llegar a redactar bien se requiere de ciertas características con el pensar con claridad, la sencillez y el sentido crítico. La redacción posee cuatro elementos, la introducción, que es una pauta de la que se trata la obra; el desarrollo, que implica la explicación detallada de la obra, el nudo de tensión, y el final. El concepto del guión El guión es el documento escrito de cualquier espectáculo ya sea de teatro, cine radio o televisión. Básicamente el guión debe tener tres cualidades esenciales.
Logos. Es la palabra, el discurso, la forma que daremos. Es la organización verbal de un guión, su estructura general. Pathos. Es el drama, el drama humano. Por lo tanto, es la vida, la acción, el conflicto generando acontecimientos. Aun en la comedia tenemos el pathos del humor. Ethos. Es la ética, la moral. Es el significado de la historia, sus implicaciones morales, políticas, etc. es el contenido del trabajo, lo que se quiere decir con él.
ELABORACIÓN DE UN GUIÓN Se considera cinco etapas para elaborar un guión. 1. IDEA NÚCLEO INICIAL Constituye el tema del guión y de ella se partirá para el desarrollo de la posteriores fases del guión. 2. IDEA ARGUMENTAL Una vez determinada núcleo se continúa con la idea argumental, en la cual se determina los personajes principales y los secundarios, se explican los principales acontecimientos y se ubica la acción en el tiempo y espacio. El argumento apenas debe ocupar una hoja.
31
3. SINOPSIS Consiste en descomponer el argumento en unidades simples de modo que puedan ser traducidas después en imágenes a través la distintas escenas. Es una idea mas desarrollada del argumento y ocupa aproximadamente unas tres o cuatro hojas. Se conoce también como el History Board. 4. GUIÓN LITERARIO Se desarrolla en orden cronológico cada escena, incluyendo la descripción del espacio y del decorado donde tiene lugar la acción. Se detallan los diálogos que sostienen los personajes así como sus movimientos, reacciones y actitudes. Incluso se señala el texto de la voz en off. 5. GUIÓN TÉCNICO Es la etapa que precede al rodaje, consiste en las indicaciones que hace el realizador a partir de la información contenida en el guión literario. Las indicaciones se refieren a la técnica propia de la realización de ese programa, sobre emplazamientos de las cámaras, tamaño del encuadre, efectos especiales. El guión técnico aparece divido en secuencias y dentro de éstas, numerado por planos, con el fin de facilitar el control de producción y realización y permitir el ordenamiento del material grabado en su post-producción.
32
GUIÓN LITERARIO
PROGRAMA: DURACIÓN:
VIDEO
AUDIO
Escena N. 1 Interior o Exterior Mañana/Tarde/Noche -
Describir escenario. Acciones que suceden. Movimiento de actores.
Diálogos. Música. Efectos de sonido.
-
GUIÓN TÉCNICO NOMBRE: DURACION: Escena
Toma
Personajes
Encuadre (planos y ángulos)
Móv. Cámara (Paneo, traveling, grúa, etc.)
Iluminación (filtros, …)
“STORYBOARD”
TITULO: REALIZADOR: SECUENCIA NUM: NUM. DE PAGINAS:
Dialogo
Audio (música, voz)
Efectos
33
TEMA 3 CONDUCCIÓN EN TELEVISIÓN
Los elementos indispensables para la conducción televisiva son:
Claridad La comunicación en televisión es inmediata, fugaz, por lo que la claridad expositiva en el discurso ha de ser una máxima. Esta claridad afecta al lenguaje, y en televisión deberá ser clara, breve, concisa y precisa.
Autoridad Otro de los requisitos, hace mención al crédito y fe que, por su mérito y fama, se da a una persona o cosa en determinada materia. Abogamos por esta interpretación. Por ello, autoridad no debería interpretarse como altanería ante la cámara o contundencia en el uso de la voz y los gestos.
Entusiasmo Quizás resulte extraño considerar el entusiasmo como una de las cualidades necesarias para un presentador. Esta cualidad sí se puede vincular con, por ejemplo, la actitud del presentador ante la introducción de una nota blanda, cuyo contenido le permite mostrarse entusiasmado. Efectivamente, también se puede pensar en cómo sería la actitud ante noticias de contenido más formal, serio. Habrá que apuntar que quizás, más que entusiasmo podríamos hablar de la capacidad de adaptación al mensaje.
Concentración Ponerse delante de las cámaras requiere un esfuerzo de concentración máximo, ya que la puesta en escena de un programa es muy compleja. El conductor desempeña una labor de dirección ante las cámaras, aunque realmente ése no sea su cometido. Anteriormente, ya le asemejábamos a un director de orquesta, y algunos avances técnicos ayudan a realizar estas tareas con mayor eficacia. Por ejemplo, en la actualidad está muy extendido el uso del sonopronter, un pequeño auricular que se intenta disimular para evitar una sensación de artificialidad. Mediante este instrumento, el presentador recibe y escucha las instrucciones desde el control de realización; ha de estar pendiente de las pautas indicadas por un regidor, y si se utiliza el teleprompter debe conseguir una lectura disimulada. Parece evidente la necesidad de concentración para simultanear tantas percepciones.
Tranquilidad Se podría considerar como una cualidad vinculada directamente a la anterior, y apela a la serenidad que el profesional debe reflejar ante las cámaras. El presentador no debe exteriorizar sus nervios, ya que haciéndolo perdería gran parte de la imprescindible credibilidad. La
34
tranquilidad ayuda a controlar cualquier situación surgida en pleno directo, y en consecuencia, a reaccionar del mejor modo.
Profesionalidad Son precisamente los acontecimientos inesperados, sucedidos «fuera de guión», las apariciones públicas en otros contextos, los que pueden poner en evidencia, con más facilidad, el grado de profesionalidad del conductor de un programa. La profesionalidad de un presentador queda reforzada cuando dispone de ocasiones en las que puede demostrar que no funciona como un simple «busto parlante», sino que es capaz de resolver con solvencia situaciones habituales de las rutinas profesionales.
Experiencia Esta cualidad queda vinculada, habitualmente, a la credibilidad. El curriculum vitae de un presentador también cuenta. Debe considerarse que la experiencia será considerada como una cualidad suplementaria; no una condición obligatoria. Muchos de los presentadores son rostros jóvenes, y no por ello su trabajo es peor que el de otros profesionales del medio consagrados.
Personalidad Pese a tratarse de presentación, los presentadores tienen opciones de mostrar su carácter, su sentido del humor. Ya se han establecido las diferencias entre «noticias duras» y «noticias blandas» en páginas anteriores. Y las introducciones y los comentarios de cierre a esas piezas permiten que, en ocasiones, el presentador abra la ventana de su personalidad. Esta cualidad queda directamente ligada a la cualidad entusiasmo.
Buena voz El uso correcto de la voz en los medios audiovisuales es esencial. La voz es aquélla que se encuentra en posesión de unas mínimas condiciones de audibilidad y gracia al oído. Otro de los aspectos reseñables, relativos al uso de la voz, es que las voces graves resultan más agradables al oído que las agudas, y que la velocidad de la lectura se debe adecuar al medio audiovisual. Esto es: escribir y hablar no para quien lee, sino para quien va a escuchar.
Buena imagen Por buena imagen cabría, inicialmente, una interpretación de las características físicas del presentador. También hay que integrar en este apartado: el vestuario de los presentadores, el peinado, el maquillaje o los accesorios (15). En el primer capítulo ya detallamos pormenorizadamente este punto, pues en la buena imagen no sólo cabe indicar aspectos relativos a la telegenia, sino a la comunicación no verbal de los comunicadores.
35
UNIDAD 4 MENSAJES TELEVISIVOS Y SUS FORMAS
TEMA 1 GÉNEROS EN TELEVISIÓN
Según su estructura y ciertas particularidades los programas de televisión se clasifican en géneros. El género es la forma de expresar el contenido en el lenguaje audiovisual. La decisión sobre las formas de organizar el contenido es, desde luego, difícil de asumir porque cada medio de comunicación tiene sus propios géneros. A continuación presentamos una clasificación elaborada por el Instituto Latinoamericano de la Comunicación Educativa. (ILCE).
Spot o Promocionales. Sus características principales corresponden a su duración, que varía de 10 a 60 segundos, y el lenguaje utilizado debe ser directo, claro y atractivo. Cuando estos spots se usan para difusión de servicios se les llama promocionales; cuando sirven para promover el consumo se llaman comerciales.
Tele dramas. Son adaptaciones de la literatura dramática con tratamiento visual y auditivo especifico; voz, música, ambientación, efectos sonoros. El melodrama es la modalidad más usual.
Teleteatro. A partir de obras dramáticas originalmente escritas para teatro, retoma sus situaciones, actos, escenas, etc. los procesa con su potencialidad técnico-retórica. Deben mantenerse el estilo y el aire teatral.
Telenovela. Se basa en la novela o el cuento, con todos sus elementos literarios. Una característica fundamental corresponde a su desarrollo en episodios o capítulos seriados. La mayoría de los capítulos presentan una situación de clímax, en la parte final una situación de suspenso que puede ser coincidente con el clímax.
Noticiero o Informativo. La televisión igual que la radio, toma de la prensa escrita sus géneros: reportajes, entrevistas, artículos de fondo, editorial o caricatura. Sin embargo, aquí la redacción de una noticia se concibe para ser vista y oída: pocas palabras y variada imagen.
36
De Concurso. Se transmiten en vivo con la participación del público en el estudio como concursante y espectador; los concursos o competencias llevan implícita una recompensa proporcionada por los patrocinadores del programa o por la estación.
Miscelánea. Formado por fragmentos o pequeñas partes cuyo hilo narrativo está determinado por un tema, una actividad o simplemente por un conductor, recurre a los otros géneros para su desarrollo, así, un mis programa puede incluir en su estructura, noticias, mesa redonda, documental, dramatización, números musicales, etc.
Musicales. El elemento principal de su estructura es una expresión musical, un autor, una época, un estilo, así como uno o varios intérpretes.
Didácticos. Este tipo de programa se utiliza par la difusión de conocimientos escolares o académicos y pueden ser: de información general, de capacitación, y con conductor y material complementario.
Infantiles. Quedan condicionados por el público a quien van dirigidos y utilizan un lenguaje directo y sencillo. Para lograr una mayor identificación con el perceptor, los personajes son en su mayoría de la misma edad de los niños para quienes se produce el programa.
Deportivos. El deporte-espectáculo encuentra en la televisión su principal medio de difusión. Como puede ser captado por varias cámaras, se logra una fidelidad de los acontecimientos en el mismo momento que suceden. Los comentaristas de televisión, a diferencia de los de radio, se encargan de complementar la información visual. Estos programas quedan comprendidos dentro de los llamados eventos especiales, y son realizados fuera de los estudios.
De Difusión. Son aquellos programas de información específica, por ejemplo, los llamados culturales, educativos, científicos, etc. normalmente son concebidos para su público de amplio espectro.
Mesa Redonda. (Panel) Este tipo de programas cuenta con la participación de especialistas en un tema. La mayoría de las veces se apoya en un conductor que hace de moderador.
37
Cómicos o Sketch. De los géneros teatrales menores, la televisión toma algunos elementos para desarrollar los programas cómicos con base en chistes, integrados generalmente a través del estilo personal del cómico, comediante o actores participantes en un programa.
De Revista. Como los programas cómicos, tiene su origen en el teatro y se estructuran de igual forma al teatro de revista (números musicales, chistes, cantantes, bailes, etc.), es, en cierta manera, un programa de miscelánea.
Series. Desde su inicio, la televisión fue prolífica en programas seriados cuya estructura se determina a partir de personajes, situaciones, géneros dramáticos o temas. La característica principal de estas series (filmadas o grabadas) corresponde a la solución unitaria (por programa) de las situaciones temáticas o dramáticas.
De ficción La ciencia ficción es la denominación popular con que se conoce a uno de los géneros derivados de la literatura de ficción, junto con la literatura fantástica y la narrativa de terror. Nacida como subgénero literario distinguido en la década de 1920 (aunque hay obras reconocibles muy anteriores) y exportada posteriormente a otros medios, como el cinematográfico, historietístico y televisivo, gozó de un gran auge en la segunda mitad del siglo XX debido al interés popular acerca del futuro que despertó el espectacular avance tanto científico como tecnológico alcanzado durante esos años.
Documental El documental es un género producido comúnmente para medios audiovisuales. Su valor cognoscitivo puede variar entre lo científico, histórico, educacional o informativo. De igual forma, el Diccionario de la Real Academia Española (DRAE) define al documental como: “una película cinematográfica o programa televisivo que representa, con carácter informativo o didáctico, hechos, escenas, experimentos, etc., tomados de la realidad”. Se piensa que el primer documental o documentalista existente fue el de Robert Flaherty con “Nanook el Esquimal” o “Nanook del Norte”, grabado en 1922. Este video mostraba como era la vida de un esquimal en el Ártico; es decir, su modo de vida. Sin embargo, con el transcurrir del tiempo, se ha empezado a apreciar a las primeras obras cinematográficas como documentales.
38
“Los Lumière comenzaron con documentales. Proyectaban situaciones cotidianas: Una pareja de enamorados en una plaza, un jardinero, el pasar de los transeúntes, e incluso, el famoso recorrido del tren que tanto pavor causó al público en las salas de proyecciones”. La opinión pertenece al profesor en el área audiovisual en la escuela de Comunicación Social, de la Universidad del Zulia (Luz), Eduardo Ochoa. Entonces, desde sus inicios, el cine ha puesto de manifiesto su carácter de medio investigativo, al registrar meras realidades. Luego, apareció el free cinema británico, en el cual se proyectaron importantes documentales que permitieron la creación del cinéma-verité (cine de verdad) en Francia, cuyo máximo logro fue el de coincidir “con la nueva ola en su común preocupación por la sinceridad y reivindicó la importancia de la entrevista en directo, de la auto confesión, que va a jugar un papel primordial en el nuevo cine, donde el actor no compone el personaje, sino que se interpreta a si mismo”. La palabra documental fue establecida por el cineasta británico John Grierson en 1930, cuando criticó una producción de Robert Flaherty sobre las Islas Samoa, titulada Moana (1926). Fue a mediados de la Segunda Guerra Mundial, cuando aparece un nuevo género cinematográfico: el reportaje periodístico. El cine era el único medio posible de comunicación visual para un público que seguía, cada vez más, el conflicto bélico. Desde ese momento, el documental pasa a un segundo plano; pero no es sino hasta el transcurso de los años cincuenta, con la progresiva implantación de la televisión, cuando el documental cinematográfico sufre importantes transformaciones; por ser tan realista, se negaba a la dramatización de los hechos que se querían mostrar. No obstante, al llegar a un medio tan dinámico como el televisivo, debió incorporar este formato a su producción, con la condición única de ser verosímil o por lo menos, lo más exacto posible. El primer canal televisivo en adoptar el documental como género propio fue la BBC de Londres en 1950, desde un primer instante, cuando el film empezó a emplearse en la televisión. Definiendo documental televisivo, el profesor Edgar Fernández, autor del libro La Producción de Reportajes y Documentales en Televisión, ratifica que: “En el más amplio sentido, documental es cualquier programa de televisión, en film o video, basados en documentos. Definido de esta manera, documental es la forma de presentar a la gente real, a las cosas y a los eventos”. Hay que tener en cuenta que un productor no puede realizar un documental si no cuenta con un amplio conocimiento en la materia. De no tenerlo, es fundamental que tenga, “bajo su manga”, una extensa biblioteca. Esta, le servirá de apoyo al momento de realizar la obra.
39
De igual forma, debe visitar regularmente la filmoteca más cercana porque de allí se basará mucho de su contenido audiovisual. Siemzre se tiene que tener presente que el documental es una historia creativa de la realidad y, que como su propio nombre lo dice, se basa en el uso de documentos. Por lo tanto, los archivos escritos, grabados, filmados, entre otros, pasarán a ser parte fundamental de la producción documental. Características del Documental El uso de la narración, bien sea a través de locución en off o por medio de entrevistas, encuestas, etc. Es fundamental el uso de voces vivas de los protagonistas del hecho. La utilización de efectos sonoros y musicales. Reproducción de visuales: Fotos, mapas, dramatizaciones, diapositivas, diagramas, maquetas, animaciones, entre otras. Debe ser persuasivo, alcanzando ciertos objetivos: “1) Despertar el interés del público hacia aquellos problemas sociales que degradan la condición humana… 2) Se debe plantear o sugerir la(s) solución (es) al problema… 3) La meta debe ser simple para inspirar o levantar el entusiasmos de la audiencia”. Es creativo y profundo, sin límites. Es real. Es controversial. Es de contenido temático: Científico, cultural, histórico, educativo, didáctico, institucional, divulgativo, entre otros. Existen otros tipos de documentales como el fotográfico y el radial, ya que en este último, hay programas que incluyen documentos sonoros en archivos. Para el profesor de la cátedra Géneros de Radio II, en la escuela de Comunicación Social de la Universidad del Zulia, Héctor Escalante Ramírez, la elaboración del documental radial “Es completa, ya que precisa el contacto de diversas fuentes presentes y pasadas, además del análisis de testimonios, verificación de datos, certificación de documentos y una labor de investigación profunda”. Entonces se puede concluir que: El documental es un género propio de los medios audiovisuales: Cine, televisión, radio y fotografía; con el que se evidencia una realidad. Debe ser tratado de manera creativa, utilizando una serie de estrategias audiovisuales (Mapas, imágenes, animaciones, musicalización, fotos, diaporamas, efectos sonoros, dramatizaciones, etc.) aunado a las informaciones e imágenes de archivos o documentos. Tiene como fin ulterior la persuasión y la creación de controversia.
40
El Reportaje La palabra reportaje es una voz francesa de origen inglés, la cual fué adaptada al español. Del latín reportàre que significa: “Traer o llevar… Transmitir, comunicar o dar noticias”. El reportaje es un género informativo que relata, de manera libre pero directa, un hecho noticioso. Permite que el periodista el que suscite la información en lugar de esperar a que acontezca. A su vez, cede la rigidez a otros géneros, para dar paso a la creatividad; “Claro, sin olvidar que se trata de una narración informativa”. En el periodismo se trabaja, fundamentalmente, con dos tipos de reportajes: El informativo y el interpretativo. Ambos de diferencia, lógicamente, por el tipo de tratamiento que se le da a sus contenidos. El reportaje es un género periodístico propio del medio impreso. Se presume que apareció por primera vez en 1880 en la prensa británica Pall Mall Gazzete, “A raíz de una investigación realizada por sus reporteros sobre la trata de blancas en Londres”. Luego, fue adoptado por otros medios como el fotográfico y el cine. Este último, partió de la base fotográfica y evolucionó hasta llegar al noticiero fílmico (Newsreel). De esta manera, los medios audiovisuales empiezan a tomar géneros periodísticos impresos. Fue a mediados de la Segunda Guerra Mundial, cuando el cine se convierte en “el único canal posible de información visual para un público cada vez más interesado por los sucesos de todo el mundo”; de allí, surge el conocido reportero de guerra. Pero, con la llegada de los años cincuenta, y con ellos la implantación televisiva, el género periodístico cinematográfico empieza a desaparecer. El reportaje desde ese momento pasó a ser televisivo, decayendo así el Newsreel. El reportaje televisivo, según el profesor Edgar Fernández, es todo “relato periodístico esencialmente informativo, libre en cuanto a tema, objetivo en cuanto al modo y redactado preferentemente en estilo directo, en el que se da cuenta de un hecho o suceso de interés actual o humano”. Todo reportaje debe cumplir con una serie de “requisitos formales”, como son:
Claridad Deben emplearse palabras del uso común que se adapten al tema a tratar. De la misma manera, serán presentadas las ideas y exposiciones.
Originalidad El ser original está en el enfoque que se le de al tema. La magia del reportaje estará en el cómo se cuente la historia, no en las palabras.
41
Brevedad Un reportaje largo no es signo de calida (pero tampoco de deficiencia). Debe ser conciso. Edgar Fernández recomienda que si el reportaje es muy largo porque se tiene mucha información, y sobretodo si es buena información, hacer un seriado con los múltiples reportajes.
Variedad Cuando se habla de reportajes variados no se refiere, exclusivamente, al uso de diferentes temas; sino también, a los distintos enfoques que el productor le puede tornear al reportaje (Descripciones, diálogos, humor, anécdotas, reflexiones, conclusiones, entre otros.).
“Los reportajes son frutos de una cuidadosa investigación. En esa misión, el periodista debe bucear en muchos lugares, hablar con personas, enterarse de cosas que han podido ser ocultadas. Debe recolectar el mayor número posible de datos para, con esa herramienta y una vez seleccionada, dar forma a la información. Si la información conseguida es confidencial, la exclusiva de la misma otorgará al reportaje gran clase, superior si cuenta con un material gráfico de calidad”. El reportaje se caracteriza por: Estar basado en un tema actual, preferiblemente de algún hecho noticioso. Presenta a la noticia desde el ángulo de sus últimas causas. Se basa en la investigación. Se apoya en las entrevistas. Es el género más completo del estilo informativo. Es un género donde se trabaja de forma, creativa, personal y libre. Entonces, se puede finalizar este punto definiendo el término reportaje como: Un género periodístico, del estilo informativo, en el cual se tienen que tratar temas de actualidad o noticiosos, estableciendo nuevos datos que parecían no existir. Es rico en cuanto la flexibilidad de su formato. La investigación, entrevista, narración y descripción son fundamentales en su constitución.
42
TEMA 2 LA PUBLICIDAD EN LA TELEVISIÓN
La publicidad televisiva es todo tipo de comunicación persuasiva cuyo fin es promocionar un bien, servicio o idea y que ha sido concebida para ser emitida por la televisión. Esta publicidad se considera del tipo above the line, por el medio en el que se difunde. Soportes publicitarios propios de la publicidad televisiva
Patrocinio de programas televisivos o bartering Es cuando el anunciante paga el costo total o parcial de la producción de un programa de televisión a cambio de la mención o promoción de su marca o producto durante la transmisión del mismo.
Posicionamiento de producto También llamado product placement, es cuando los personajes de un programa de televisión utilizan, portan o mencionan un producto, su marca, su logo o sus beneficios de forma implícita dentro de la trama del mismo. Es común su uso en producciones dramatizadas, como series, telenovelas o películas.
Spots Son mensajes audiovisuales contratados por empresas a los canales de televisión para transmitir su mensaje a la audiencia. Su duración se encuentra usualmente entre los 10 y los 60 segundos, aunque a veces estos anuncios se recortan a 5 segundos.
Infomerciales Anuncios de más de un minuto de duración y que, por lo general, duran media hora e imitan los formatos de programas talk show comunes para promocionar un producto.
Promocionales o promos Básicamente es auto publicidad institucional de un canal de televisión.
43
UNIDAD 5 ETAPAS DE LA PRODUCCIÓN TELEVISIVA
TEMA 1 PRE PRODUCCIÓN
Se refiere a las actividades previas al rodaje, como la elaboración de un presupuesto, planificación y otros preparativos. El periodo de preproducción puede llegar a durar un mes en el caso de una película, o sólo una semana si se trata de un episodio para una comedia de situación. Las producciones más complejas, como tele maratones o ceremonias de entrega de premios en directo, pueden exigir meses de preproducción. Las tres personas claves en este proceso son:
Jefe de Producción Director Director de Casting
El jefe de Producción debe, en primer lugar, hacer un presupuesto provisional, contratar un manager de localizaciones y jefes para los distintos departamentos. Las primeras decisiones esenciales para la producción son la localización para el rodaje y la fecha de comienzo de éste. El Director revisa el guión y hace los cambios que considera necesarios, empieza el proceso de selección de actores o casting y elige a sus asistentes y operadores de cámara. Desde este momento todas las decisiones relacionadas con el reparto, personal creativo, localizaciones, horarios o componentes visuales deben contar con la aprobación del director. El proceso de preproducción termina con una reunión final a la que asisten todos los componentes del equipo, los productores, el director y a menudo también el guionista. El equipo de preproducción, conducido por el director, revisa detalladamente cada escena del guión. Se analiza cada elemento de la producción y se responden las preguntas que puedan surgir. La duración de la reunión puede variar, según la complejidad de la producción, de dos horas a un día entero.
44
TEMA 2 PRODUCCIÓN
Durante la grabación se filma toda la cinta o película necesaria para el proyecto. Todos los programas de televisión se graban utilizando uno de los dos métodos básicos: la producción con una sola cámara en película o la producción con varias cámaras en vídeo. El método de una sola cámara se usa en la producción de películas para televisión y de la mayoría de las series dramáticas. El de cámaras múltiples es típico de las comedias de situación, programas de debate, telenovelas, concursos y los magazines informativos, además de ser habitual en espacios en directo, como los acontecimientos deportivos, entregas de premios o telediarios. Algunos tipos de programa, como los de vídeos musicales o los reality shows (noticias de interés especial presentadas en un formato que tiende al espectáculo), emplean ambos métodos, el múltiple para la grabación en el estudio y el de una sola cámara para los exteriores. El método de una sola cámara es casi idéntico al utilizado en películas teatrales. Se divide el guión en escenas y cada escena se graba desde una serie de ángulos. Se llama plano maestro o de situación al más amplio, el que incluye toda la acción. También se ruedan otros planos con tomas más cercanas de los actores, algunas veces en grupos y casi siempre una toma de cada actor solo. Esa toma puede ser un plano medio (de la cintura a los hombros), un plano medio corto (cabeza y hombros) o un primer plano (sólo la cara). Muchas veces se incluyen tomas insertadas (como el primer plano de un reloj o una pistola) o cortes (una toma del cielo, un árbol o cualquier otra cosa relacionada con la escena). El orden de grabación de las escenas no se corresponde con el de la progresión de la historia, sino que se organiza según su conveniencia, para hacer la producción más eficiente. La película se monta durante la posproducción. El método de varias cámaras es más adecuado para grabar en estudio. Se colocan tres o cuatro cámaras de vídeo alrededor de la acción que tiene lugar en el decorado y las escenas se graban en secuencia. Cada operador trabaja según una lista de posiciones de la cámara y encuadres. Todas las cámaras juntas cubren los ángulos necesarios para la escena. Gracias a los auriculares, el director se comunica con el equipo de cámaras para ordenar ajustes durante el rodaje e indicar al director técnico que cámara utilizar en cada momento. El director técnico se asegura de que la toma quede grabada en una cinta máster. El resultado es un programa completo, que ya sólo necesita efectos de sonido, música, efectos ópticos y títulos sobreimpresionados.
45
TEMA 3 POST PRODUCCIÓN
La postproducción empieza cuando se completa la grabación y continúa hasta que el programa está listo para que la cadena lo emita. Las dos partes fundamentales de la posproducción son la edición o montaje de la grabación en vídeo y la creación de una banda sonora completa. La edición puede comenzar durante la producción. En las tomas con una sola cámara la filmación de cada día es revisada más tarde por el director, el productor y la cadena en el orden de grabación, después los editores cortan las distintas tomas y las montan en escenas. El director ve el primer montaje completo y lo modifica a su gusto; en el montaje final intervienen el productor y la cadena. El montaje definitivo se entrega al departamento de sonido, que se encarga de preparar las pistas de sonido, efectos de sonido y diálogos y mezclarlas en una sola pista para tener la mezcla final (dubbing). Durante este periodo los ingenieros de sonido seleccionan los puntos en los que debe insertarse la música, que los músicos componen y graban. Los ingenieros también ajustan la grabación del diálogo hasta que tenga la calidad suficiente y regraban algunos diálogos mediante un procedimiento llamado doblaje; también añaden los efectos de sonido. La mezcla de sonido, que puede llevar varios días en una película o sólo unas horas en programas grabados con varias cámaras, se hace a partir de entre 5 y 25 pistas. El paso final de la post producción es la adición de efectos ópticos, fundidos o virados por ejemplo, títulos de crédito y efectos especiales, como las animaciones y la corrección del color. El proceso de posproducción puede durar hasta ocho semanas en el caso de una película o sólo tres días si se trata de una comedia de situación. En la producción de telenovelas, programas de debate y concursos, los efectos ópticos, títulos y música suelen incluirse durante la producción, lo que reduce mucho el tiempo de post producción.
46
UNIDAD 6 REALIZACIÓN TELEVISIVA
TEMA 1 LA REALIZACIÓN TELEVISIVA
Constituye un área cerrada, acústicamente aislada, donde se instalan los decorados y donde actúan los actores, los presentadores y conductores de los programas; donde tienen lugar las actuaciones de artistas, músicos y cantantes. Además del espacio en planta necesario para contener los decorados, las cámaras, y la utilería empleado en las grabaciones, los estudios requieren una altura de techo considerable con el fin de ubicar los focos, las luces. Es por ello que todos los estudios de grabación cualquiera que sea su tamaño están dotados de un emparrillado cenital de estructura metálica que sirve para las luces y/o micrófonos. Los responsables para llevar a buen término la realización de un programa son el productor y el realizador o director de televisión. 1. El Productor Es el encargado de la organización, administración y control de todos los recursos humanos, técnicos y económicos para la ejecución del programa. 2. El Realizador o Director de Televisión Es el responsable artístico del programa, que se encarga generalmente de elaborar o afinar el guión técnico, definir sus coordinaciones, disponer la distribución de cámaras, controlar la adecuada composición de imágenes y la continuidad narrativa audiovisual. Su ámbito de trabajo es el estudio de televisión. A continuación desarrollaremos cada uno de los controles de un estudio. 1. El control de realización Constituye el ámbito de trabajo del equipo realizador conformado por el realizador y sus ayudantes y colaboradores. Desde este control se ordena y dispone la actuación de los equipos técnicos y de las personas que intervienen el desarrollo general de producción de un programa. En el control de realización se pueden diferenciar dos partes:
47
a) El panel de monitores Se ubican las fuentes de video que permiten visualizar no sólo la imagen procedente de cada una de las cámaras que funcionan en el estudio, sino también las imágenes que proceden de otras fuentes como: imágenes para fondo, imágenes procedentes de otras fuentes e imágenes de computadora. b) La meza de mezclas Selecciona, mezcla y combina las señales de video o las imágenes procedentes de las distintas fuentes señaladas anteriormente, el complemento de la mesa en el mezclador de imágenes, switcher, equipo electrónico capaz de combinar y enlazar señales de video entre sí. El mezclador actúa utilizando diversos tipos de mezcla: 1. Mezcla aditiva Son los encadenados, sobreimpresiones, fundidos a negro o a otro color. 2. Mezcla no aditiva Es la aparición de una nueva imagen y la desaparición de otra. 3. Croma key Se realiza sobre un fondo verde o azul. 4. Generador de caracteres y tituladoras Son para el tratamiento de las letras. 2. El control de sonido Es una instalación dedicada al tratamiento de la señal de audio del programa. El elemento más importante es la mesa de sonido o mezcladora. En esta mesa se pueden tratar por separado los parámetros técnicos de los distintos canales de audio que llegan a la mesa, procedentes de diversas fuente sonoras como ser: micrófonos, reproductores de CDS, computadoras, reproductores de DVD, cámaras, etc. 3. El control de cámaras Permite las operaciones de adecuación de las señales primarias de todas las cámaras de la cadena del estudio. Se hallan los mandos que fijan los valores de nivel de negros, balance de color, abertura de diafragma, amplitud de la señal de video, inserción de sincronismos de borrado, añadido de señales de corrección.
48
4. Control de iluminación Permite la regulación de intensidad de todos los aparatos de iluminación, proyectores, focos, etc., ubicados en el estudio. Consta de un panel de monitores y de un pupitre de control propiamente dicho. En los monitores se visualizan las imágenes de distintas cámaras del estudio. El pupitre contiene los mandos de regulación de intensidad de los aparatos individualmente y por cada uno de los untos de luz. Desde el panel de control se puede variar la tensión aplicada a cada fuente mediante reguladores que permiten la graduación desde la plena intensidad luminosa hasta la extinción total
49
TEMA 2 LA REALIZACIÓN EN ESTUDIO
Es una operación compleja que requiere la acción conjunta, coordinada y precisa de un amplio abanico de profesionales en producción y artísticas. Consta de: Preparación previa Planificación y estudio del guión. Decoración, construcción e instalación. Vestuario y mobiliario. Medios técnicos. Iluminación. Equipos técnicos de audio y video. Ensayos. Emisión en directo o grabación La persona que generalmente está a cargo de la producción completa es el productor, el jefe de jefes. Él o ella definen el concepto general del programa, calcula el presupuesto de producción y toma las decisiones mayores. Esta persona es el "Gran Jefe", el líder del equipo, trabaja con los escritores, decide el talento principal, contrata al director y guía la dirección general de la producción. En producciones menores, el productor también toma cargo de cosas más mundanas. Y en el caso de las producciones más pequeñas, el director (a definir más abajo) puede también asumir las responsabilidades del productor. En este caso la dualidad del puesto se llama productor-director. Normalmente el talento para la producción, sería la siguiente cuestión considerada por el productor. El talento incluye actores, reporteros, anfitriones, invitados y narradores en off. Algunas veces el "talento" es clasificado en tres subcategorías:
Actores Quienes representan personajes en producciones de corte dramático. Conductores Aparecen en cámara en papeles no dramáticos. Locutores Los que usualmente no aparecen en cámara.
En una producción mayor el productor será responsable de la contratación de un director. Este es la persona a cargo de revisar los detalles de preproducción (antes de la producción), coordinar las actividades del staff y el talento a cámara, definir las posiciones de las cámaras y el talento, seleccionar la toma durante la producción y supervisar los trabajos de post-producción.
50
En otras palabras, el director es el comandante en el frente, a cargo de llevar el guión hasta el final del proceso de producción. Asistiendo al director, en la cabina de control normalmente está el director técnico o realizador quien opera el video switcher (consola de video). El realizador, es también responsable de coordinar todos los aspectos técnicos de la producción (es necesario enfatizar que las responsabilidades del personal pueden variar ampliamente en cada centro de producción). Uno o más asistentes de producción pueden ser contratados como auxiliares de productor y director. Durante los ensayos estas personas llevan notas de las necesidades y cambios en la producción. Otra persona es el director de iluminación quien se encarga de diseñar el esquema de iluminación, supervisar la colocación de los equipos y autorizar el esquema ya montado. (La iluminación puede mejorar o arruinar una producción como ya veremos). En algunas producciones puede haber un diseñador de set (escenógrafo) quien, en colaboración con el productor y el director, diseña el set y supervisa su construcción e instalación. A continuación puede haber un maquillador o estilista, quien con la ayuda de maquillaje, laca para cabello, o muchas otras cosas, procura que la imagen del talento sea impecable (o terrible sí así lo especifica el guión). Existe también un encargado de vestuario. Un director o técnico de audio prepara el equipo de grabación, instala y verifica los micrófonos, monitorea la calidad del audio, desarma y recoge todos los instrumentos y accesorios al término de la producción. El operador de boom presencia los ensayos y decide el tipo de micrófono adecuado y su posición para cada escena. Esta persona necesita tener fuerza en los brazos para poder sostener el boom sobre los actores por largos periodos de tiempo durante una toma en locación. El operador de video instala el equipo de grabación y sus accesorios, ajusta las modalidades de grabación, realiza pruebas y monitorea la calidad del video. En una producción en locación el "script o continuista”, toma notas cuidadosamente sobre los detalles de continuidad de cada escena para asegurar que éstos permanezcan iguales en escenas subsecuentes, (un trabajo más importante de lo que parece, especialmente en producciones en locación a una sola cámara). Una vez que las labores de producción han sido llevadas a cabo, el "script" es el responsable de hacer descansar a los actores después de cada escena o segmento. El operador del generador de caracteres programa (diseña y escribe) títulos de entrada, subtítulos, y créditos finales en el equipo. Estos textos son insertados sobre la imagen durante la producción. Algunas computadoras suelen sustituir al generador de caracteres. Se puede utilizar un Inscriber, con
51
muchas capacidades y también computadoras personales con software dedicado a estas tareas. Los camarógrafos hacen más que simplemente operar las cámaras, también ajustan y aseguran la calidad técnica de su equipo, colaboran con el director, director de Iluminación y técnico de sonido en la marca de posiciones (blocking) y realización de cada toma, y en el caso de producciones de campo se encargan de recibir, transportar y entregar su equipo. Dependiendo en el nivel de producción, puede haber un coordinador de piso, es el responsable de coordinar las actividades en el set. Él o ella pueden estar asistidos por uno o más asistentes de piso, a quienes pueden delegar varias responsabilidades en el set. Normalmente trabajan con un intercom que se comunica a los controles. Después de que las tomas han sido completadas, los editores toman las grabaciones y ensamblan los segmentos correspondientes, agregan música y efectos sonoros y de video para crear el producto final. La importancia de la edición para el éxito de una producción es mucho mayor de lo que usualmente se piensa. Como pronto veremos, un editor puede salvar o acabar con una producción.
52
PLAN DE RODAJE/GRABACIÓN
TITULO: REALIZADOR: PRODUCTOR: FECHAS DE RODAJE:
DÍA
HORA
INT/EXT
LOCACIÓN
TOMAS
MEDIOS ESPECIALES
53
PRESUPUESTO DE PROGRAMA TELEVISIVO
Producción__________________________ Fecha____________________ Título_______________________________ Género___________________ Duración____________________________ Cliente___________________ Descripción del guión___________________________________________
PRE PRODUCCIÓN Planificación Contratación de personal Dirección Guión Fotocopias Soportes gráficos Exteriores Servicios fotográficos Escenografía, vestuario y maquillaje Música PRODUCCIÓN Personal: actores, presentadores, locutores Material técnico Soportes Estudio Iluminación Unidades móviles POST PRODUCCIÓN Montaje Grabación de banda sonora Copias del programa VARIOS Desplazamientos Asesores Traducciones Averías TOTAL
TIEMPOS
COSTOS
54
UNIDAD 7 NUEVAS TECNOLOGÍAS Y SU APLICACIÓN
TEMA 1 LA IMAGEN DIGITAL
Vivimos una era en la que todas las formas de la información están sufriendo un proceso de digitalización. Las imágenes, por supuesto, no han podido escapar a este proceso. La fotografía, el cine, la televisión, el diseño gráfico e, incluso, el diseño industrial producen miles de imágenes digitales, que son almacenadas en algún soporte físico, enviadas por un medio de transmisión electrónico, presentadas en una pantalla o impresas en papel en algún dispositivo. Muchas personas, cuando se quieren comprar una cámara de vídeo o un escáner, escuchan atentamente los consejos del vendedor pero no entienden bien lo que les dice: “mega píxeles”, “puntos por pulgada”, “profundidad de color de 32 bit”. Vaya un lío. ¡Qué lejos están las películas fotográficas de 35 milímetros y el positivado en papel fotográfico! Cuando producimos imágenes, tomando fotos o escaneando un documento, por ejemplo, tenemos que tomar algunas decisiones para alcanzar un compromiso entre la calidad de la imagen y el tamaño del archivo. Para tomar bien esas decisiones hay que tener claros algunos conceptos básicos y con ese objetivo he redactado estos apuntes. La primera decisión que debemos tomar es si queremos producir una imagen vectorial o una imagen bitmap. Cada uno de estos tipos de imagen se produce y edita con programas diferentes y tiene aplicaciones diferentes. Conviene comprender bien en qué se diferencian y cuáles son las ventajas e inconvenientes de cada una. Imágenes vectoriales Las imágenes vectoriales están compuestas por entidades geométricas simples: segmentos y polígonos básicamente (de hecho, una curva se reduce a una sucesión de segmentos). Cada una de estas entidades está definida matemáticamente por un grupo de parámetros (coordenadas inicial y final, grosor y color del contorno, color del relleno, etc.) Por compleja que pueda parecer una imagen, puede reducirse a una colección de entidades geométricas simples. La imagen siguiente es una imagen vectorial:
55
Al estar compuestas por entidades geométricas simples, las imágenes vectoriales se pueden cambiar de escala, para ampliarlas o reducirlas, sin que la imagen pierda calidad. Observa, por ejemplo la imagen siguiente, obtenida haciendo zoom sobre la imagen anterior: sin perder calidad en los bordes de la imagen tenemos mucho más detalle sobre el sistema de fijación de la cruceta al eje del grifo.
Esta es su gran ventaja, porque proporcionan siempre imágenes de colores planos con contornos limpios, sin importar el tamaño al que se muestran. De entre los programas utilizados para realizar esta clase de imágenes hay que destacar Corel Draw, todo un clásico, e Illustrator, que forma parte del producto Creative Suite de la empresa Adobe, el preferido por los profesionales del diseño gráfico. Existe una prometedora alternativa, en el mundo del
56
software libre, para la creación de imágenes vectoriales: se llama Sodipodi y, de momento, sólo está disponible para plataformas Linux. Imágenes bitmap Las imágenes de mapa de bits están construidas mediante una gran cantidad de cuadraditos, llamados pixel. Cada uno de estos cuadraditos está relleno de un color uniforme, pero la sensación obtenida es el resultado de integrar visualmente, en la retina, las variaciones de color y luminosidad entre píxeles vecinos.
Las imágenes de mapa de bits, también llamadas bitmap, son la alternativa ideal para reproducir objetos sutilmente iluminados y escenas con gran variación tonal. De hecho, es el tipo de imagen utilizado para la fotografía y el cine. Obviamente, la calidad de la imagen dependerá de la cantidad de píxeles utilizados para representarla. Las imágenes bitmap no permiten el cambio de escala. Observa, en la imagen siguiente, lo que pasa al hacer zoom sobre las flores de la imagen anterior: los píxeles son evidentes y la representación es totalmente irreal. Este efecto, que se conoce con el nombre de pixelado se hace más evidente en las líneas curvas y en las zonas en las que hay cambios bruscos de luminosidad.
57
Los programas más utilizados para generar, o editar, este tipo de imágenes bitmap son el famoso Photoshop de Adobe y el Photopaintde Corel. Afortunadamente, existe una alternativa de software libre llamada The Gimp, un programa excelente, potente y profesional, que tiene muy poco que envidiar al costoso Photoshop. Así pues, resumiendo, antes de crear una imagen hay que elegir una de las dos tecnologías de imagen digital: vectorial o bitmap. Cada una de ellas tiene unas aplicaciones y su producción exige unos requisitos que hay que conocer. Las imágenes vectoriales son ideales para cartelería, diseño de envases, imagen corporativa, logotipos etc., es decir en todas aquellas situaciones en las que una misma imagen, hecha con una gama reducida de tintas planas, debe ser reproducida en distintos soportes y a distintos tamaños. Las imágenes en mapa de bits, en cambio, son perfectas cuando la gama de colores cambia sutilmente. En este caso, la imagen debe generarse teniendo muy en cuenta dónde y cómo va a mostrarse, con una cantidad de píxeles y una gama de colores adaptados al soporte en el que va a reproducirse. Una vez hecha, las modificaciones comportarán pérdida de calidad. La resolución Podemos definir la resolución como la capacidad de reproducir fielmente los detalles de una imagen. Utilizaremos esta palabra, lógicamente, al referirnos a la resolución de una imagen digital, pero también, al referirnos a una impresora, un monitor, una cámara o un escáner. Así pues, se trata de un concepto fundamental, que posee distintas acepciones, según el contexto en el que lo utilizamos. A partir de ahora nos referiremos a la tecnología bitmap, que es la más exigente en lo que concierne a la resolución. Hay que tener presente este concepto en todas las etapas de la vida de la imagen, desde su captura con una cámara digital o un escáner hasta la reproducción en el soporte elegido.
58
La resolución de una imagen La resolución de una imagen es la cantidad de píxeles que la componen. Suele medirse en píxeles por pulgada (ppi)1 o píxeles por centímetro (pcm). Cuanto mayor es la resolución de una imagen más calidad tendrá su presentación pero, desgraciadamente, más espacio ocupará en el disco el archivo gráfico que la contiene. Por ejemplo, una imagen con una resolución de 72 ppi, que es muy común en las páginas web, necesitará 5184 píxeles en cada pulgada cuadrada, que es un cuadrado de 2,54 centímetros de lado (ya sé que es una lata tener que manejar las unidades anglosajonas, pero hay que utilizarlas). Una resolución de 72 ppi es adecuada para imágenes que se muestran en el monitor de un ordenador. La nitidez de los detalles es suficiente y la reproducción de las distintas tonalidades es correcta. Sin embargo, podría ser insuficiente para una impresión en papel.
Afortunadamente, muchos de los programas de tratamiento de imágenes nos permiten expresarnos en centímetros y milímetros. así que, para poner otro ejemplo, supongamos que queremos hacer una imagen con una resolución de 30 pixel por centímetro (30 pcm). Cada centímetro cuadrado necesitará 900 píxeles y, si nuestra imagen es una fotografía de 13 x 18 centímetros, cuya superficie es de 234 cm2, necesitará en total 210600 píxeles. Lógicamente cuanto más alta es la resolución de una imagen, más finamente reproduce los detalles y los cambios sutiles de tonalidad pero, a la vez, más pesado será el archivo. La misma fotografía de 13 x 18 cm del ejemplo anterior, con una resolución de 20 píxeles por pulgada, sólo necesitaría 14508 píxeles, lo que equivale a un archivo cuyo tamaño es 15 veces menor y muchísimo más ligero que el anterior:
59
Pero si observas la imagen, que está hecha a 20 ppp, observarás que ha perdido nitidez y su aspecto es bastante mediocre. Dimensiones de la imagen Las dimensiones de una imagen se expresan, como es habitual, en cm o mm. Por ejemplo, una imagen de 10 x 15 cm medirá 10 cm de ancho y 15 cm de alto.
A veces, sin embargo, los programas expresan el tamaño de una imagen en píxeles. La ilustración de la izquierda muestra el modo en que Gimp muestra el tamaño de una imagen: 640 x 480 píxeles. Para calcular el tamaño de una imagen en píxeles basta con multiplicar las dimensiones lineales, en centímetros por ejemplo, por la resolución en píxeles por centímetro. Hay que poner atención para utilizar las mismas unidades de longitud. Profundidad de color Cada uno de los píxeles de una imagen bitmap está coloreado con un color homogéneo. Así pues, el archivo que contiene los datos de la imagen debe contener la información del color de cada uno de los píxeles. ¿Cuántos bits se emplean para albergar esta información? Eso es lo que se conoce con el término profundidad de color de una imagen.
60
Profundidad de color es el número de bits utilizados para describir el color de cada pixel de la imagen. Es obvio que, cuanto mayor sea la profundidad de color de una imagen, más colores tendrá la paleta disponible y, por tanto, la representación de la realidad podrá hacerse con más matices, con colores más sutiles. Por ejemplo, si sólo disponemos de 1 bit para describir el color de cada pixel, tan sólo podremos elegir entre dos colores: un color si el bit tiene el valor 0 (habitualmente negro) y otro color si el bit vale 1 (habitualmente blanco).
Observa la fotografía superior de la Alhambra, con una profundidad de 1 bit, que tiene el aspecto de una fotocopia de mala calidad. Si disponemos de 8 bit para describir el color de cada pixel, podremos elegir entre 256 colores, porque 28=256. Esta es una profundidad de color suficiente para las imágenes construidas en el modo denominado escala de grises, porque con 8 bits cada pixel puede adoptar un tono entre 256 valores posibles de gris, entre el negro absoluto (00000000) y el blanco absoluto (11111111). La imagen siguiente es la misma fotografía de la Alhambra, en modo escala de grises, con una profundidad de color de 8 bits, lo que le da una calidad tonal más que suficiente.
61
Si los 8 bit disponibles para la profundidad deben designar colores, entonces se utiliza una tabla con los 256 colores más frecuentes, que incluyen obviamente el negro, el blanco y varios tonos de gris, para componer la imagen. Cada una de las 256 combinaciones posibles de unos y ceros de los 8 bits es un índice que permite acceder a la tabla. Por eso, a este tipo de imágenes se les conoce como de color indexado., que es el más frecuente en la web. A continuación puedes ver la Alhambra en una imagen de color indexado, con 8 bit de profundidad:
Y así, cuanto mayor sea la profundidad se utilizará una cantidad mayor de colores para describir la imagen. En la tabla siguiente tienes el cálculo de los colores disponibles para cada profundidad:
62
Profundidad
Colores
1 bit
2
4 bit
16
8 bit
256
16 bit
65536
32 bit
4294967296
Una imagen bitmap de calidad está compuesta por varias capas: una para cada color básico (rojo, verde y azul, por ejemplo) y una para la luminosidad (de oscuro absoluto a luz absoluta). Por encima de 16 bits de profundidad, la descripción del color se divide por capas. Si la profundidad de color es de 16 bits, por ejemplo, se dedican 4 bits (128 niveles) a cada capa. Y si la profundidad es de 32 bits, cada capa utiliza 8 bits (256 niveles) para ajustar el color.
Observa la misma foto de la Alhambra, con una profundidad de 16 bits. La superposición del color de las cuatro capas proporciona la delicadeza de matices de la imagen. La resolución del monitor Hacemos imágenes para mostrarlas, muy frecuentemente, en un monitor. La pantalla del monitor está compuesta también por puntos o dots muy próximos entre sí. Esos puntos se corresponden con los agujeros de la máscara, en un monitor de tubo catódico, o con los puntos de una matriz en las pantallas planas.
63
Nuestro ojo integra la luz recibida de cada punto para componer una imagen que parece continua. En la imagen siguiente puedes ver una fotografía de los agujeros en las máscaras de un monitor de tubo catódico:
La resolución del monitor es el número de puntos por unidad de longitud en la pantalla. Normalmente se mide en puntos por pulgada (dpi). Si, ¡otra vez las unidades anglosajonas! La resolución normal de un monitor es de 96 dpi. La resolución del monitor determina el tamaño con el que se muestra la imagen en la pantalla. Pero el tamaño de la imagen en la pantalla no debe confundirse ni con la resolución de la imagen ni con sus dimensiones. Por ejemplo, una imagen con una resolución de 192 ppi se verá al doble de su tamaño real en un monitor con una resolución de 96 dpi, debido a que cada pixel de la imagen ocupará dos de los puntos de la pantalla. El tamaño del archivo El tamaño del archivo es una cifra, en bits o en bytes, que describe la cantidad de memoria necesaria para almacenar la información de la imagen en un soporte (disco duro, CD, tarjeta de memoria, etc.). Y, como ya te imaginas, el tamaño del archivo dependerá de varios factores y, especialmente, de la resolución (R), las dimensiones de la imagen (Largo x Ancho) y la profundidad de color (P). Puedes calcular el tamaño de un archivo con la siguiente fórmula: Tamaño = R²*L*A*P Por ejemplo, una imagen de 10 x 15 cm (3,94 x 5,91 pulgadas), con una resolución de 96 ppi (38 pcm) y una profundidad de color de 32 bits, tendrá un tamaño bruto de: 9216x3,94x5,91x32=6.857.14bits es decir, 858.393 Bytes o, lo que es lo mismo: 838 Kbyte.
64
Compresión de archivos Una vez creada nuestra imagen, ya sea capturada con la cámara o creada a mano, la guardamos en un archivo. El archivo, con un nombre y una extensión, no sólo contiene la información de cada pixel. Tiene también una cabecera en la que se guarda información destinada al programa encargado de abrir la imagen y mostrarla en el monitor. Aunque, por regla general, los archivos vectoriales tienen tamaños mucho menores que los archivos bitmap, todos los archivos gráficos suelen tener tamaños muy grandes. Este gran consumo de espacio en disco hizo necesario el desarrollo de tecnologías capaces de comprimir archivos gráficos. Cada sistema de compresión utiliza un algoritmo matemático propio para reducir la cantidad de bits necesarios para describir la imagen, y marca el archivo resultante con una extensión característica: bmp, wmf, jpg, gif, png, etcétera. Algunos de estos algoritmos están patentados, son propiedad de una empresa, y hay que pagar por utilizarlos. Otros algoritmos, en cambio, son de dominio público y pueden utilizarse libremente. También se distinguen entre si por las pérdidas producidas en la información de la imagen durante el proceso de compresión. Así pues hay algoritmos con pérdidas y sin pérdidas. Veamos algunos de los formatos de compresión más utilizados: Formato JPG Es un formato de compresión con pérdidas, pero que desecha en primer lugar la información no visible, por lo que las pérdidas apenas se notan. El algoritmo jpg está basado en el hecho de que el ojo humano percibe peor los cambios de color que las variaciones de luminosidad. jpg divide la información de la imagen en dos partes: color y luminosidad y las comprime por separado. Admite modos en escala de grises con una profundidad de 8 bits y en color hasta 24 bits. Permite la carga progresiva en un navegador, lo que lo ha convertido en el formato estándar en la web. No es un formato adecuado para imágenes con alto contraste de color. Además, hay que tener en cuenta que la compresión se produce automáticamente cada vez que se guarda el archivo, por lo que es aconsejable guardar en este formato una única vez, cuando la imagen esté ya terminada. Formato GIF Es un formato que devuelve imágenes de tamaño muy reducido. Esa reducción se consigue indexando los colores, es decir, asimilándolos a uno de los 256 colores de su tabla. Su profundidad de color máxima, por tanto, es de 8 bits. El formato gif permite hacer algunas cosas curiosas: puede hacerse transparente uno de los colores indexados en la tabla, lo que permite suprimir fondos. También permite enlazar varias imágenes gif en una secuencia, lo que se conoce con el nombre gif animado.
65
El pequeño tamaño de los archivos gif hizo que fuera el formato más extendido en los primeros tiempos de Internet. Pero su principal defecto consiste en que es un formato propietario (CompuServe Inc.), lo que ha provocado la aparición del formato libre png que, además, comprime mejor que gif. Formato PNG Es el formato de más rápido crecimiento en la web, porque reúne lo mejor de jpg y gif. Se trata de un formato de compresión sin pérdidas, con una profundidad de color de 24 bits. Soporta hasta 256 niveles de transparencia, lo que permite fundir la imagen perfectamente con el fondo. Entre sus inconvenientes hay que citar que no soporta animaciones y que el tamaño de los archivos png, debido a la capa de transparencia, siempre es mayor que el de los archivos jpg. Formato BMP Es un formato de compresión sin pérdidas. Admite cualquier tipo de resolución y una profundidad de color máxima de 24 bits. Es el formato nativo de Microsoft y se usa en todas sus aplicaciones (Windows, Office, etc.). Por esta razón es muy frecuente encontrar archivos bmp, pero su tasa de compresión es ridículamente baja. Entre los navegadores, sólo es soportado por Internet Explorer. El modo de color El ojo humano percibe los colores según la longitud de onda de la luz que le llega. La luz blanca contiene todo el espectro de color, mientras que la ausencia de luz es percibida por nuestro ojo como el color negro. Los programas de edición de imágenes utilizan varios modos de color para definir y clasificar todos los colores posibles. La mayoría de los programas utilizan uno de estos tres modos de color: HSB (tono, saturación y brillo), RGB (rojo, verde y azul) y CMYK (cyan, magenta, amarillo y negro). El modo HSB El modo HSB clasifica los colores de acuerdo a tres características básicas: tono, saturación y luminosidad. El tono (Hue) Esta propiedad se refiere a la longitud de onda dominante en la luz emitida o reflejada por un objeto. Para asignar un valor al tono se utiliza una rueda de color normalizada, en la que los tres colores primarios (rojo, verde y azul) y los tres colores secundarios (cyan, magenta y amarillo) se alternan a lo largo de una circunferencia.
66
De este modo, cada color está ubicado en el extremo opuesto a su complementario, es decir, el magenta está en el extremo opuesto al verde, el amarillo al azul y el cyan al rojo. El tono se mide en grados, de 0º a 360º, según su posición en la periferia de la rueda de color. Cuando un programa de edición de imágenes trabaja en este modo, para añadir la proporción de un color en una zona de la imagen, lo que hace es rebajar la cantidad de su complementario. La saturación La saturación es la propiedad que describe la viveza del color. Un color muy saturado es un color con una tonalidad intensa y pura. Por el contrario, un color poco saturado es el que tiene una tonalidad apagada. La saturación de un color se expresa en porcentaje y oscila entre el 100%, que corresponde a los colores puros, saturados al máximo y el 0%, que corresponde a los colores apagados en los que ya no se distingue la tonalidad. En la rueda de color HSB, la saturación se representa a lo largo del radio de la circunferencia. Los colores muy saturados se encuentran cerca del borde y los colores poco saturados son los que están cerca del centro del círculo. La luminosidad La luminosidad describe la cantidad de luz reflejada. Se trata por tanto de una magnitud relativa, que se expresa también en forma de porcentaje, desde el 100% (luminosidad total) hasta el 0% (oscuridad total).
67
En la imagen superior puedes ver cómo evolucionan los colores con la luminosidad, desde los colores poco luminosos, en la parte inferior de la imagen, hasta los colores muy luminosos, en la parte superior. El modo RGB Este modo de color es el que se utiliza en todos los procesos en los que el color se obtiene por mezcla aditiva de luces: televisión, pantallas gráficas, iluminación artificial, etc. En todos estos dispositivos, la gama completa de colores se obtiene a partir de la mezcla de tres colores primarios: rojo, verde y azul.
En este caso, cualquier color se obtiene mezclando dos o más luces: al mezclarse luz verde y luz azul, por ejemplo, se obtiene el color cyan, al mezclarse rojo y azul se obtiene el magenta, y así sucesivamente. La mezcla de proporciones variables de colores primarios produce la gama completa de color. La mezcla de los tres colores básicos produce el color blanco, mientras que la ausencia de los tres colores produce el color negro.
68
Las aplicaciones de edición de imágenes suelen expresar las cantidades de cada color primario con un número que puede adoptar cualquier valor entre 0 (ausencia absoluta de ese color) y 255 (cantidad máxima). Así, por ejemplo, pueden describir un color RGB con las cifras (127, 52, 209). El modo CMYK El modo de color CYMK es el que se utiliza para describir el color que se obtendría si tiñésemos un papel con tintas de colores. Es el modo en que hemos aprendido a colorear cuando éramos niños: rojo y amarillo dará naranja. La razón estriba en que la tinta absorbe una parte de las longitudes de onda de la luz que recibe, de modo que la parte del espectro no absorbido se refleja. Dicho de otro modo, la tinta sustrae al espectro de la luz blanca una parte de la radiación, por eso a este modo de obtener colores se le llama método sustractivo.
Una mancha de tinta cyan dejará pasar las longitudes de onda azules y verdes (que son las que componen el color cyan), pero bloqueará la luz roja. Teóricamente, si pintásemos una hoja de papel con tinta cyan, magenta y amarillo debería absorber todo el espectro, produciendo, en consecuencia, el color negro. Pero en la práctica las tintas no son de color puro y sólo conseguimos un marrón oscuro, que tenemos que ajustar con tinta negra para mejorar la calidad de la reproducción. Este modo de color es el preferido cuando hay que ajustar el color para imprimir una imagen sobre papel. De hecho es el modo utilizado en las imprentas bajo el nombre técnico de cuatricromía.
69
TEMA 2 RECURSOS DIGITALES
Un recurso digital es cualquier tipo de información que se encuentra almacenada en formato digital. De acuerdo con una definición formal del ISBD (ER) (1997), entendemos por recurso digital todo material codificado para ser manipulado por una computadora y consultado de manera directa o por acceso electrónico remoto. Los recursos digitales facilitan el almacenamiento, la organización y la recuperación de enormes cantidades de datos. A la estructura de información externa de un recurso digital se le denomina metadato y describe los aspectos técnicos y educativos del objeto. Siguiendo el estándar IEEE LOM y ajustando el perfil de aplicación para el proyecto, se definen los siguientes metadatos obligatorios para los objetos de aprendizaje y se consideran opcionales el resto de campos de la especificación.
70
Tema 3 Edición no lineal
La edición de vídeo es un proceso en el cual, un editor elabora un trabajo audiovisual o visual a partir de medios que pueden ser archivos de video, fotografías, gráficos, o animaciones. En la mayoría de los casos se incluye audio que puede ser música o el diálogo de personajes, pero también existen ediciones donde no se usa el audio y únicamente se utilizan medios visuales. Usualmente la edición de video se realiza por computadora, junto con un programa especializado en edición de video donde el editor manipula los medios con ayuda de diferentes herramientas, para así lograr una "composición" deseada y obtener un resultado final, comúnmente llamado "video final" o "película final". La edición básica consiste en reproducir los medios, "recortarlos" y ordenarlos en tiempo real. Aunque sucede, como en cualquier otro estilo de edición, pueden agregarse efectos, transiciones, filtros o textos para mejorar o enfatizar el video que va a crearse, todo depende de lo que se quiera realizar. Existen diferentes estilos de edición, que van desde amateur donde usualmente se crean videos caseros, la edición estilo vidding, y hasta los más complejos como las sesiones de vj y ediciones profesionales dentro del campo de la Cinematografía. Tipos de edición Hay dos tipos de edición de vídeo: la Digital o por computadora (no lineal) y la analógica (lineal). Edición Digital Consiste en manipular a través de un programa de edición de video, los diferentes medios como archivos de video, fotos, gráficos o animaciones, y donde también es posible manipular audio aunque generalmente de forma muy simple. Una vez creado nuestro montaje, (también llamado "proyecto" o "composición"), se lleva a cabo la renderización con la cual se obtiene el video final (a esta acción también se le llama "grabar", "exportar", "guardar" o "crear" video, pero es exactamente lo mismo). Generalmente se renderiza como un archivo de video con un formato que puede ser MP4, AVI, MPEG2 o WMV por mencionar algunos de los más populares y que se han estandarizado últimamente, por ejemplo en diferentes dispositivos como celulares o reproductores de música, o en sitios en Internet. Ya obtenido el video final, se le da el uso deseado o el específico para el que fué creado, como producir una película, mostrarlo a una audiencia, etc. Hoy en día existen varios programas de computadora utilizados para la edición digital, enfocados al diferente tipo de edición, desde los más básicos como MAGIX Video deluxe, Pinnacle Studio, Nero Vision, Windows Movie Maker u OpenShot y los semiprofesionales y profesionales como Final Cut Studio, Adobe Premiere Pro, Sony Vegas Pro, Avid, Autodesk Combustion, Dalet Plus, etc.
71
Edición Analógica Este tipo de edición nada tiene que ver que la señal registrada sea digital. Para realizarla se necesitan dos magnetoscopios, uno que sea el lector o reproductor (player) y otro el grabador (recorder). El proceso de edición consiste en grabar en el recorder la señal reproducida por el player. La característica que diferencia a los dos magnetoscopios es el botón rojo de rec, pues este botón solo está presente en el recorder. En el reproductor se inserta la cinta de brutos (que contiene las imágenes grabadas desde la cámara) y en el grabador se inserta la cinta master (pimera cinta de montaje). De este modo se pueden hacer sucesivas copias que recibirán el nombre de segunda, tercera... generación, perdiendo con cada nueva copia calidad de imagen y sonido. Este tipo de edición de vídeo ha ido perdiendo preponderancia en la industria, siendo desplazado por la edición no lineal, tanto por sus ventajas en la comodidad y manipulación de las imágenes como por los menores costes. Si embargo este método fue el mas usado en su tiempo. La edición en televisión El montaje o edición consiste en el conjunto de las operaciones realizadas sobre el material grabado, con la finalidad de obtener la versión completa y definitiva del programa. Clases de montaje 1. Según la escala y duración del plano Podemos distinguir dos clases de montaje o edición. La primera, es el montaje analítico que se realiza en base al encuadre, con planos medios, cortos y detalles, sirve para lo expresivo y psicológico. La segunda edición es llamada el montaje sintético, elaborada con planos generales, conjunto, enteros, americano y medios, sirve para ubicación. 2. Según la estructura general del relato cinematográfico Tenemos dos tipos de montaje, el narrativo y el expresivo. El montaje narrativo Es lineal, invertido, paralelo y alterno. El montaje narrativo lineal Es cuando la película monta sus encuadres con el fin de desarrollar una acción única, expuesta por una sucesión de escenas en orden cronológico. El montaje narrativo invertido Busca mayor dramatismo del personaje, va del presente al pasado para volver al presente. El montaje narrativo paralelo Se desarrollan dos acciones o más, alternando y mezclando fragmentos de cada una de ellas para crear un significado a través de su comparación.
72
El montaje narrativo alterno. Es como el paralelo con la diferencia que existe correspondencia temporal estricta. El Assemble y el Insert. El Assemble Es el enganche sucesivo de las distintas secuencias de un programa en los dos componentes: audio y video. El Insert. Es un modo de edición que consiste en la posibilidad de sustituir un fragmento de video, audio, o de ambos, en una cinta de video con base de señal previamente sincronizada. La elipse Se prescinde de hechos o situaciones no relevantes para la narración, por ejemplo: si imaginamos una persona en el recorrido desde su domicilio hasta su centreo de trabajo, podemos filmar saliendo desde su casa, sube al micro, y luego viene la elipse, es decir, omitimos todos los detalles del viaje, por que no nos interesa, luego filmamos al personaje llegando a su oficina. Formas de transición de imágenes El corte. Principales casos de corte El corte retardado Deliberadamente se retrasa el nuevo plano hasta después del momento esperado, con el objeto de crear suspenso, interés y anticipación en la audiencia. Por ejemplo: 1.
2.
Corte sobre una reacción Tocan la puerta. El escritor mira hacia arriba. Puerta se abre. La mujer entra. Corte retardado Tocan la puerta. El escritor mira hacia arriba. Se oye la puerta abriéndose. La voz de la mujer, “Puedo entrar”. Mujer en la puerta y entra.
Corte entre imágenes en movimiento Cuando se enlazan imágenes en movimiento, invariablemente se crea una interacción especial entre ellas, incluso aunque ésta no exista. En tales casos, la transición sugiere: 1. Movimiento convergente Encuentro, colisión. 2. Movimiento divergente Separación, expansión.
73
3. Movimiento en la misma dirección Seguimiento, destino similar. Corte entre imágenes estáticas y en movimiento El corte entre una imagen estática y una en movimiento acelera súbitamente el interés de la audiencia. La transición genera acción, energía o violencia, dependiendo de cuan súbito es el corte. Corte para empezar o finalizar una acción Estos deben usarse con suma cautela, porque pueden fácilmente parecer errores de operacionales. 1. Corte de entrada.- Una introducción chocante para una acción vigorosa, catastrófica o de caos. 2. Corte de salida.- Una acción conclusa y definitiva que corta a negro el final de una toma. Representa un gesto enfático. Evite el cambio de dirección de marcha Cuando un sujeto aparece en toma sucesiva mostrando movimientos opuestos, se puede evitar los efectos subjetivos accidentales introduciendo una toma intermedia que muestre una imagen de frente. Cortes adecuados e inadecuados. a)
Empalme defectuoso. 1. Cambios de altura Alturas de objetivos distintos. 2. Cambios en el espacio ocupado por la cabeza Desequilibrio de planos. 3. Saltos de tamaño Si se produce un cambio mínimo en le tamaño del sujeto durante el corte, tiene lugar un crecimiento instantáneo o encogimiento del sujeto. Es preferible siempre la diferencia mayor.
b)
Salto brusco. Si el mismo sujeto se incluye en toma sucesiva se puede saltar la posición del encuadre en el corte.
c)
Oscilación. Una ligera diferencia en los puntos de visión o mira puede producir un giro u oscilación brusca en el empalme. Por fortuna, este desequilibrio se puede disimular motivando el cambio, por ejemplo un cantante se vuelve hacia la nueva cámara. O mediante un fundido lento.
d)
Empalme de continuidad. Cuando se hacen tomas discontinuas, hay que acopiar el detalle y la acción de la toma para cada corte durante el montaje, por ejemplo el momento de girar un pomo, abrir la puerta, levantar un vaso.
74
EL FUNDIDO. Es otra modalidad de transición de imágenes. Se utiliza tanto dinámica como estáticamente, el empleo dinámico conlleva el pasaje entre dos imágenes con una degradación progresiva de intensidad de la primera y en correspondencia, un aumento de la segunda. Tenemos: 1. 2.
3.
Fundido cruzado Cuando se cruzan dos imágenes al cien por ciento. Fundido de entrada o fade in Se obtiene el aumento gradual hasta el nivel correcto. Sirve para el inicio de un programa. Fundido de salida o fade out. Es la disminución gradual de la imagen a negro. Se utiliza cuando acaba el programa.
CORTINILLAS Es un efecto visual, principalmente utilizado para transiciones decorativas. El efecto de la cortinilla es descubrir, revelar, cancelar, fragmentar la continuidad. Se pude ir desde un plano detalle, hasta un plano general. SUPERPOSICIONES Colocar una imagen sobre la otra, las cuales son estáticas, sirven para títulos o cromakey.
75
TEMA 4 MULTIMEDIA
El término multimedia se utiliza para referirse a cualquier objeto o sistema que utiliza múltiples medios de expresión (físicos o digitales) para presentar o comunicar información. De allí la expresión «multimedios». Los medios pueden ser variados, desde texto e imágenes, hasta animación, sonido, video, etc. También se puede calificar como multimedia a los medios electrónicos (u otros medios) que permiten almacenar y presentar contenido multimedia. Multimedia es similar al empleo tradicional de medios mixtos en las artes plásticas, pero con un alcance más amplio. Se habla de multimedia interactiva cuando el usuario tiene libre control sobre la presentación de los contenidos, acerca de qué es lo que desea ver y cuando; a diferencia de una presentación lineal, en la que es forzado a visualizar contenido en un orden predeterminado. Hipermedia podría considerarse como una forma especial de multimedia interactiva que emplea estructuras de navegación más complejas que aumentan el control del usuario sobre el flujo de la información. El término "hiper" se refiere a "navegación", de allí los conceptos de "hipertexto" (navegación entre textos) e "hipermedia" (navegación entre medios). El concepto de multimedia es tan antiguo como la comunicación humana ya que al expresarnos en una charla normal hablamos (sonido), escribimos (texto), observamos a nuestro interlocutor (video) y accionamos con gestos y movimientos de las manos (animación). Con el auge de las aplicaciones multimedia para computador este vocablo entró a formar parte del lenguaje habitual. Cuando un programa de computador, un documento o una presentación combina adecuadamente los medios, se mejora notablemente la atención, la comprensión y el aprendizaje, ya que se acercará algo más a la manera habitual en que los seres humanos nos comunicamos, cuando empleamos varios sentidos para comprender un mismo objeto e informarnos sobre él. Características Las presentaciones multimedia pueden verse en un escenario, proyectarse, transmitirse, o reproducirse localmente en un dispositivo por medio de unreproductor multimedia. Una transmisión puede ser una presentación multimedia en vivo o grabada. Las transmisiones pueden usar tecnología tantoanalógica como digital. Multimedia digital en línea puede descargarse o transmitirse en flujo (usando streaming). Multimedia en flujo puede estar disponible en vivo o por demanda. Los juegos y simulaciones multimedia pueden usarse en ambientes físicos con efectos especiales, con varios usuarios conectados en red, o localmente con un computador sin acceso a una red, un sistema de videojuegos, o un simulador.
76
En el mercado informático, existen variados softwares de autoría y programación de software multimedia, entre los que destacan Adobe Director y Flash. Los diferentes formatos de multimedia analógica o digital tienen la intención de mejorar la experiencia de los usuarios, por ejemplo para que la comunicación de la información sea más fácil y rápida. O en el entretenimiento y el arte, para trascender la experiencia común. Los niveles mejorados de interactividad son posibles gracias a la combinación de diferentes formas de contenido. Multimedia en línea se convierte cada vez más en una tecnología orientada a objetos e impulsada por datos, permitiendo la existencia de aplicaciones con innovaciones en el nivel de colaboración y la personalización de las distintas formas de contenido. Ejemplos de esto van desde las galerías de fotos que combinan tanto imágenes como texto actualizados por el usuario, hasta simulaciones cuyos coeficientes, eventos, ilustraciones, animaciones o videos se pueden modificar, permitiendo alterar la "experiencia" multimedia sin tener que programar. Además de ver y escuchar, la tecnología háptica permite sentir objetos virtuales. Las tecnologías emergentes que involucran la ilusión de sabor y olortambién puede mejorar la experiencia multimedia. La multimedia encuentra su uso en varias áreas incluyendo pero no limitado : arte, educación, entretenimiento, ingeniería, medicina, matemáticas, negocio, y la investigación científica. En la educación, la multimedia se utiliza para producir los cursos de aprendizaje computarizado (popularmente llamados CBT) y los libros de consulta como enciclopedia y almanaques. Un CBT deja al usuario pasar con una serie de presentaciones, de texto sobre un asunto particular, y de ilustraciones asociadas en varios formatos de información. El sistema de la mensajería de la multimedia, o MMS, es un uso que permite que uno envíe y que reciba los mensajes que contienen la multimedia contenido relacionado. MMS es una característica común de la mayoría de los teléfonos celulares. Una enciclopedia electrónica multimedia puede presentar la información de maneras mejores que la enciclopedia tradicional, así que el usuario tiene más diversión y aprende más rápidamente. Por ejemplo, un artículo sobre la segunda guerra mundial puede incluir hyperlinks (hiperligas o hiperenlaces) a los artículos sobre los países implicados en la guerra. Cuando los usuarios hayan encendido un hyperlink, los vuelven a dirigir a un artículo detallado acerca de ese país. Además, puede incluir un vídeo de la campaña pacífica. Puede también presentar los mapas pertinentes a los hyperlinks de la segunda guerra mundial. Esto puede acelerar la comprensión y mejorar la experiencia del usuario, cuando está agregada a los elementos múltiples tales como cuadros, fotografías, audio y vídeo. (También se dice que alguna gente aprende mejor viendo que leyendo, y algunos escuchando).
77
La multimedia es muy usada en la industria del entretenimiento, para desarrollar especialmente efectos especiales en películas y la animación para los personajes de caricaturas. Los juegos de la multimedia son un pasatiempo popular y son programas del software como CD-ROMs o disponibles en línea. Algunos juegos de vídeo también utilizan características de la multimedia. Los usos de la multimedia permiten que los usuarios participen activamente en vez de estar sentados llamados recipientes pasivos de la información, la multimedia es interactiva. Tipos de información multimedia:
Texto Sin formatear, formateado, lineal e hipertexto.
Gráficos Utilizados para representar esquemas, planos, dibujos lineales.
Imágenes Son documentos formados por píxeles. Pueden generarse por copia del entorno (escaneado, fotografía digital) y tienden a ser ficheros muy voluminosos.
Animación Presentación de un número de gráficos por segundo que genera en el observador la sensación de movimiento.
Vídeo Presentación de un número de imágenes por segundo, que crean en el observador la sensación de movimiento. Pueden ser sintetizadas o captadas.
Sonido Puede ser habla, música u otros sonidos.
El trabajo multimedia está actualmente a la orden del día y un buen profesional debe seguir unos determinados pasos para elaborar el producto.
Definir el mensaje clave Saber qué se quiere decir. Para eso es necesario conocer al cliente y pensar en su mensaje comunicacional. Es el propio cliente el primer agente de esta fase comunicacional.
Conocer al público Buscar qué le puede gustar al público para que interactúe con el mensaje. Aquí hay que formular una estrategia de ataque fuerte. Se trabaja con el cliente, pero es la agencia de comunicación la que tiene el protagonismo. En esta fase se crea un documento que los profesionales del multimedia denominan "ficha técnica", "concepto" o "ficha de
78
producto". Este documento se basa en 5 ítems: necesidad, objetivo de la comunicación, público, concepto y tratamiento.
Desarrollo o guion Es el momento de la definición de la Game-play: funcionalidades, herramientas para llegar a ese concepto. En esta etapa sólo interviene la agencia que es la especialista.
Creación de un prototipo. En multimedia es muy importante la creación de un prototipo que no es sino una pequeña parte o una selección para testear la aplicación. De esta manera el cliente ve, ojea, interactúa... Tiene que contener las principales opciones de navegación. Ahora ya se está trabajando con digital, un desarrollo que permite la interactividad. Es en este momento cuando el cliente, si está conforme, da a la empresa el dinero para continuar con el proyecto. En relación al funcionamiento de la propia empresa, está puede presuponer el presupuesto que va a ser necesario, la gente que va a trabajar en el proyecto (lista de colaboradores). En definitiva, estructura la empresa. El prototipo es un elemento muy importante en la creación y siempre va a ser testeado (público objetivo y encargados de comprobar que todo funciona)
Creación del producto En función de los resultados del testeo del prototipo, se hace una redefinición y se crea el producto definitivo, el esquema del multimedia.
Tipologías Los diferentes tipos de multimedia se pueden clasificar de acuerdo a la finalidad de la información, o también, al medio en el cual serán publicadas.
Multimedia educativa Es importante recalcar que la multimedia educativa es previa a que el computador apareciera, se puede considerar como un proceso no lineal esto hace que el estudiante lleve su propio orden en su modelo educativo (a distancia, presencial etc.). Se fundamenta en un desarrollo navegable que permite cierta libertad de moverse sobre el aplicativo. Algunos eventos temporales importantes de la multimedia educativa: 1975/1980 Programación – 1985 Multimedia – 1990/1995 Internet – 2000 E-learning – 2005 Redes Sociales.
Multimedia publicitaria Es el uso de diferentes medios enfocado a una campaña publicitaria, esto ha genereado nuevos espacios en este sector, se viene presentando un cambio de los medios tradicionales a los digitales con un abanico enorme de nuevas posibilidades, tablets, móviles, desarrollo web, TDT (Televisión Digital Terrestre), hipertexto y el correo, y como elemento destacado las redes sociales como herramienta de difusión viral.
79
Multimedia comercial En este tipo de multimedia encontramos una gran variedad de entregables, tales como: Bases de datos (DB), promociones, catálogos, simuladores, páginas web, publicidad entre otros, todo este material se presenta en forma digital, interactivo y su funcionalidad principal es la de convencer a un posible comprador o cliente de adquirir un servicio o producto. De alguna forma este tipo de multimedia está directamente relacionada con el aprendizaje electrónico (e-learning).
Multimedia informativa Está relacionada con los elementos multimediales que brindan información, tales como: noticias, prensa, revistas, televisión y diarios, esta información se presenta en la mayoría de los casos en forma masiva (entorno mundial) y se mantiene actualizada al momento de los hechos, su valor informativo es primordial para conocer hechos antes que los medios de comunicación tradicionales.
80
TEMA 5 INTERNET
Internet es un conjunto descentralizado de redes de comunicación interconectadas que utilizan la familia de protocolos TCP/IP, garantizando que las redes físicas heterogéneas que la componen funcionen como una red lógica única, de alcance mundial. Sus orígenes se remontan a 1969, cuando se estableció la primera conexión de computadoras, conocida como ARPANET, entre tres universidades enCalifornia y una en Utah, Estados Unidos. Uno de los servicios que más éxito ha tenido en Internet ha sido la World Wide Web (WWW, o "la Web"), hasta tal punto que es habitual la confusión entre ambos términos. La WWW es un conjunto de protocolos que permite, de forma sencilla, la consulta remota de archivos de hipertexto. Ésta fue un desarrollo posterior (1990) y utiliza Internet como medio de transmisión. Existen, por tanto, muchos otros servicios y protocolos en Internet, aparte de la Web: el envío de correo electrónico (SMTP), la transmisión de archivos (FTP y P2P), las conversaciones en línea (IRC), la mensajería instantánea y presencia, la transmisión de contenido y comunicación multimedia telefonía (VoIP), televisión (IPTV)-, los boletines electrónicos (NNTP), el acceso remoto a otros dispositivos (SSH y Telnet) o los juegos en línea. El género de la palabra Internet es ambiguo, según el Diccionario de la lengua española de la Real Academia Española.