MEDIOS AUDIOVISUALES 2º BACHILLERATO VIDEO DIGITAL

Page 1



INTRODUCCIÓN La producción audiovisual desde sus inicios ha contemplado la necesidad de estructurarse en tres distintas etapas, la planificación, la producción y los procesos de selección, ordenamiento, arreglo y construcción del material conseguido para así crear la pieza audiovisual que transmita un mensaje o bien simplemente exponga alguna idea o pensamiento que el autor quiere expresar o comunicar. La tercera etapa de la producción es quizás la que más ligada se encuentre a la tecnología como tal, no quiere decir que los avances tecnológicos no toquen a los procesos de producción durante el rodaje, todo lo contrario, pero es en la etapa de postproducción que toda esa evolución tecnológica se evidencia aún más, desde la calidad del material codificado y comprimido hasta la forma en cómo se almacena la información, ha cambiado drásticamente. Es importante entonces estudiar y conocer cuáles son los principales cambios, cómo han afectado a los procesos de creación en la etapa de edición y montaje de piezas audiovisuales, deteniéndose para poder determinar qué beneficios trae y cuál es la mejor manera de aprovecharlos.


TELEVISIÓN Y VIDEO ANALÓGICOS La tecnología analógica de video descompone la información de cada uno de los frames en dos tipos: el nivel de luz en cada punto de imagen (luminancia) y los tonos de color (crominancia).

Luminancia y crominancia Luminancia: guarda la información de la intensidad luminosa y se representa en una imagen en blanco y negro con todos los tonos de grises. No contiene información sobre los colores de la imagen. Es una información que ya estaba presente en la televisión en Blanco y Negro y que continuó con la televisión en color analógica. Crominancia: Comprende los canales RGB, es decir rojo, verde y azul, representa la combinación de los tres colores primarios. Para obtener el blanco máximo se debe cumplir que la luminancia sea (Y) igual a 1, para lo cual se deben mezclar los colores con proporción de: 30% de rojo, 59% de verde y 11% de azul.

Soportes Los soportes en los que se registra, se almacena y se reproduce el video analógico es la cinta magnética, en diferentes formatos según las tecnologías: Cinta abierta, U-matic, betacam, VHS, etc. Eso hacía vulnerable la preservación de material de archivo, que corría riesgos de deteriorarse, además de implicar el manejo de grandes volúmenes de cintas e imponía un techo a la calidad del video.

Edición La edición de video analógico, y eso es una clara desventaja sobre el digital, era lineal, lo que implicaba trabajar en tiem-

po real la visualización y regrabación, e importaba pérdida de calidad de imagen en el proceso.

Los métodos de barrido más comúnmente usados son: el progresivo y el entrelazado.

Señal de vídeo analógico.

Sistema de barrido Entrelazado: Una particularidad del video analógico y de la televisión en general es que el pasaje de un frame a otro no se produce por completo, sino que dos cuadros sucesivos se entrelazan dibujándose un cuadro distinto en cada una de las 625 líneas horizontales, o dos semicuadros simultáneamente. Uno de los campos contiene las líneas pares, se le denomina “campo par”, mientras que el otro contiene la impares, se le denomina “campo impar” al comienzo de cada uno de ellos se sitúa el sincronismo vertical. Con eso se evita un efecto de parpadeo en la imagen, aunque eso implica que la resolución real de cada frame es de la mitad, es decir 312 líneas aproximadamente. Progresivo: Implica una mejora en la calidad ya que en cada período se actualizan todas las líneas de cada cuadro, pero no es soportado por los sistemas de televisión analógico.

La señal de vídeo analógica es una señal eléctrica que varía con el tiempo y que se obtiene a partir de muestrear, de forma periódica, la información que llega a una cámara: un patrón de distribución espacial de intensidad luminosa cambiante con el tiempo. Este proceso se conoce como barrido scanning). De esta forma se recoge la información acerca de la distribución luminosa a través de unas líneas predefinidas de muestreo, así como la información de control (sincronismos) acerca de la posición horizontal y vertical del punto de barrido en cada momento. El punto de reconocimiento de la imagen va trazando líneas casi horizontales de izquierda a derecha, volviendo a la izquierda y así sucesivamente hasta completar la pantalla.


RELACIÓN DE ASPECTO O PROPORCIÓN La relación de aspecto es un par de números que expresa el achatamiento de una imagen o video. Los videos digitales así como las emisiones de televisión digital han modificado la relación de aspecto de la televisión y los videos analógicos a las proporciones “panorámicas” más cercana al cine. Se denomina relación de aspecto a la proporción entre ancho y largo de las imágenes. Los estándares de la industria confirieron a la televisión, y luego al video analógico, una proporción 4:3, que le da a la pantalla chica esa imagen “casi cuadrada”, superada ahora por los LCD y LEDs digitales, adaptados a la relación 16:9. Los números describen sencillamente que en un caso la pantalla tiene cuatro partes de ancho por tres de alto. Es decir que si, por ejemplo, midiera 40 centímetros de ancho, deberá tener un alto de 30 centímetros. Esa relación se amplía a 16 partes de ancho contra 9 de alto para el caso de la perspectiva panorámica. La falta de atención a esas dos relaciones básicas de proporción hace que en ocasiones algunos videos en la web se vean “angostos” como comprimidos en los laterales, con personas y objetos delgados y altos. O a la inversa, cuando un video 4:3 se fuerza a 16:9, las imágenes se verán más anchas que lo normal. En ocasiones, para evitar esa distorsión se completa la pantalla con barras negras horizontales o verticales según el caso, o se aplican acercamientos sobre la imagen hasta completar la pantalla, aunque a costa de perder parte de la imagen en los laterales. Adicionalmente, hay un tercer formato que se ha popularizado en el cine aún más panorámico, con una relación 21:9, que fuerza la aparición de franjas negras horizontales aún en los modernos televisores de alta definición.

Para hallar la relación de aspecto de un video o una imagen, simplemente mide su ancho y altura. La relación de aspecto puede ser expresada como anchura:altura. Si la imagen tiene 24cm de ancho y 18cm de alto, la relación de aspecto se puede expresar como 24:18. Es decir, 24 dividido 18, lo que da un resultado de 1,33, igual a 4 dividido 3. Es decir que una pantalla de 24:18 tiene una relación de 4:3 La relación de aspecto se expresa en términos de las dimensiones pretendidas en pantalla. La resolución de la imagen en pixels no es siempre un buen indicador de la relación de aspecto. El modo más fácil de comparar relaciones de aspecto es reducirlas a común denominador haciendo una simple división: 24 / 18 = 1,33 4 / 3 = 1,33 16 / 9 = 1,78 Las dos primeras relaciones de aspecto son equivalentes a 1,33:1. Ambas son más estrechas que la relación de aspecto de pantalla panorámica 1,78:1. La reducción de las relaciones de aspecto a un común denominador hace más sencilla la comparación.

Comparación de las tres relaciones de aspecto más comunes. La azul (2,39:1) y la verde (1,85:1) son las más usadas en el cine. Por su parte, el recuadro rojo (4:3) solía ser la relación más normal en televisión. Actualmente el estándar utilizado es el denominado «panorámico» (16:9)


SISTEMAS DE TRANSMISIÓN TELEVISIVOS ANALÓGICOS: NTSC, PAL Y SECAM Con la llegada de la televisión a color se impusieron a nivel mundial tres normas, el NTSC, PAL y SECAM. La diferencia sustancial entre ellos estriba en la velocidad en la que se emiten los fotogramas y su resolución. Cada país adoptó para sí uno de los tres sistemas de transmisión televisiva. Todos los aparatos utilizados, cámaras de filmación de video, televisores, etc., deben compartir el sistema de transmisión estándar propio de cada país.

• • • •

NTSC: National Television Systems Commitee definido en el 1952 se utiliza principalmente en Norte América y Japón. PAL: Phase Alternation Line se desarrolló en 1960 y se utiliza mayormente en Europa. SECAM: Systeme Electronique Color Avec Memoire, utilizado en Francia y Rusia. HDTV:High-definition television se define como dos veces mayor en resolución que la televisión convencional, con una relación 16:9 de aspecto, una frecuencia de barrido de cuadro de 24 Hz. O mayor y, por lo menos, dos canales de audio de calidad CD.

Es usual encontrar los sistemas anteriores descritos como combinación de sus características de líneas, frecuencia y modo de barrido, como:


CÓMO SE FORMAN LAS IMÁGENES ANALÓGICAS El televisor consta de un tubo catódico, este emite una serie de rayos de electrones que barren la pantalla, de arriba hacia abajo y de izquierda a la derecha. Estos rayos de electrones van formando una serie de líneas en el televisor horizontales y verticales, escaneando toda la pantalla, a una determinada frecuencia por segundo. Tubo de rayos catódicos: El tubo de la imagen en color, lleva incorporados tres cañones de electrones, uno para cada color primario, rojo, verde y azul. La ráfaga emitida por cada cañón, pasa por un soporte perforado que lo dirige a cada punto luminiscente de su correspondiente color y hacerlo activo con su distinto nivel de brillo


VÍDEO DIGITAL La revolución digital de las últimas dos décadas ha impulsado la tecnología existente hasta el punto de que es posible realizar sonido e imagen de alta calidad en computadores personales, hasta el punto de que se puede considerar el vídeo (digital) como una forma más de información (datos) que es capaz de manejar el computador. Tomando la idea del vídeo analógico, lo único que tiene que añadir el digital es la conversión de la señal eléctrica a bits, mediante el proceso de digitalización o muestreo, que consiste en discretizar primero el tiempo (sampling) y después representar la amplitud con un valor discreto (quantizing), en lo que se denomina conversión analógico-digital (A/D). Esto produce una aproximación a la señal original, pero a partir de ahí (si la digitalización tiene la precisión suficiente) se puede simplemente copiar cuantas veces sea necesario los valores originales sin perder calidad (cosa que ocurre con cada copia analógica). Para ello es necesario que la frecuencia de muestreo sea al menos el doble que la mayor frecuencia posible que la onda original (teorema de Nyquist), y que el número de bits utilizado para cada valor sea suficiente para la calidad deseada. Las ventajas de realizar el tratamiento en formato digital son: • Robustez de la señal, es menos sensible a interferencias y errores en la transmisión. • También admite procesos de comprobación de la integridad de la señal. • Es posible el acceso aleatorio a los contenidos de la secuencia, facilitando la edición y/o impresión de imágenes individuales de la secuencia grabada. • Es posible realizar la captura (grabación) al tiempo que otros procesos de tratamiento de la imagen.

No hay necesidad de pulsos de sincronismo y apagado del haz en los mismos, puesto que se conoce la longitud de cada línea y dónde empieza y termina.

Señal de vídeo digital. Casi todos los sistemas de vídeo digital se ajustan al estándar de componentes de vídeo para representar la señal de color (o niveles de gris). La mayoría de cámaras de vídeo proporcionan salidas RGB que se digitalizan de forma individual. En los casos en que se necesita transmitir la señal a cierta distancia de su origen esta se realiza en modo de vídeo compuesto, como es el caso de los equipos de reproducción de vídeo y cámaras analógicas. En estos casos, se convierte primero la señal de vídeo compuesto a componentes de vídeo que después de digitalizan de forma individual. Las áreas de ajuste horizontal y vertical de la señal de vídeo analógico desaparecen y ahora nos referiremos al

número de pixels por línea y el número de líneas por cuadro. La pérdida de resolución espacial en el caso analógico comporta un efecto de desenfoque o emborronamiento en el sentido que se produzca esa pérdida de resolución. En el caso digital el efecto que se produce es el de aliasing. Este consiste en que se hace visible la naturaleza “pixelada” de una imagen, fundamentalmente en los bordes de los objetos: en lugar de verlos de forma continua, se aprecia un efecto de escalera. En función de las características del monitor y la distancia del usuario este efecto se aprecia en mayor o menor medida. La calidad de color deseable se alcanzaría con 24 bits de color (8 bits de cada canal RGB), aunque a menudo se usa una solución de compromiso para disminuir los requisitos de tamaño de 16 bits (5 bits R, 6 bits G, 5 bits B, ya que el ojo humano parece ser más receptivo al verde), o bien se define el color mediante paleta.


El cuadro de trabajo de vídeo digital en PAL es de 768 x 576. El hecho de que sea tan habitual trabajar en 320 x 240 o 160 x 120 es que son divisores directos de 640 x 480, que es la resolución NTSC. El problema con el vídeo digital es el requerimiento de memoria que impone al sistema, tanto para su almacenamiento como para su transmisión. Por esto, la viabilidad del vídeo digital está en función del uso de los métodos de compresión. En lo que sigue se va a describir una serie de estándares de formato de vídeo digital y de estándares de técnicas de compresión utilizadas en este campo.

Píxeles y relación de aspecto La resolución de un video, como en el caso de una fotografía, está condicionada a las condiciones de captura original de esas imágenes, y más precisamente a la cantidad de píxeles en los que descompuso la toma el CCD de la cámara, que es el es el sensor con células fotoeléctricas que registran la imagen. Es decir que remite directamente a la cantidad de píxeles dispuestos a lo ancho por la cantidad de píxeles a lo alto. Los estándares de la industria para la captura de video están relacionados con la relación de aspecto de cada tecnología, pero no se deben confundir ambos conceptos: se puede tener diferentes resoluciones posibles en una misma relación de aspecto.

Resoluciones 16:9

• • • • • • • • • • • • • • • • • • • • •

Resoluciones 4:3

128x72 • 640x480 256x144 • 800x600 384x216 • 1024x768 512x288 • 1152x864 640x360 • 1280x960 768x432 • 1400x1050 800x450 - no divisible por 8 • 1600x1200 800x480 - 16:9 en tablets, • 2048x1536 teléfonos móviles, etc. (no • 3200x2400 usar en vídeos) • 4000x3000 852x480 - 480p 16:9, reso- • 6400x4800 lución nativa en TV plasma Resoluciones 16:10 de 42 pulgadas • 1440x900 896x504 • 1680x1050 1024x576 • 1920x1200 1152x648 • 2560x1600 1365x768 - resolución • 3840x2400 nativa en TV plasma de 50 • 7680x4800 pulgadas 1408x792 1280x720 - 720p HD 1536x864 1600x900 - no divisible por 8 1664x936 1792x1008 1920x1080 - 1080p HD 2560x1440 - 1440p QHD (Quad HD) / WQHD (Wide Quad HD) - resolución nativa en determinados monitores de 27 pulgadas (ejemplo: Apple Thunderbolt 27”)

4K standard

Otras Resoluciones

• •

3840x1600 - UW4K (12:5) (2.4:1) (21.6:9) (ultra-wide) (Ultra HD Blu-ray) 3840x2160 - 2160p 4K UHD-1 / UHDTV (1.78:1) (16:9) [8.3 megapixels] 4096x2160 - DCI 4K (256:135) (1.9:1) [4K en cines] [8.8 megapixels]

• • • • •

8K standard

• • •

7680x4320 - 4320p (1.78:1) (16:9) [soportado por YouTube] [33.2 megapixels] 8192x4320 - (1.89:1) (17:9) 8192x5120 - (1.60:1) (16:10) 8192x8192 - (1.00:1) (1:1) [8K FULLDOME en planetarios]

2048x1080 - DCI 2K nativo (256:135) (~17:9) 1998x1080 - DCI 2K recortado (1.85:1) 2048x858 - DCI 2K CinemaScope recortado (2.39:1) 4096x2160 - DCI 4K nativo (1.90:1) (256:135) 3996x2160 - DCI 4K recortado (1.85:1) (999:540) 4096x1716 - DCI 4K CinemaScope recortado (2.39:1) (1024:429)


Por ejemplo, un video grabado en 640 x 480 tiene una relación de aspecto de 4:3 (640/480 = 4/3 = 1,33). Del mismo modo, un video captado a 1280 x 960 tendrá una relación de aspecto 4:3 (1280/960=1,33). Sin embargo el primero tendrá una calidad estándar y el segundo será de alta definición.

1280x720 Formato de alta calidad (HD Ready), para TV digital, con relación de aspecto 1,5 (DVD) 1920x1080 Formato de muy alta calidad (HD Full), para TV digital, con relación de aspecto 16:9 (1,77) 3840×2160 Formato de calidad superior (4K), para TV digital, con relación de aspecto 16;9

Se trata de una forma de medir la cantidad de información contenida en un flujo o secuencia de video para su reproducción, atendiendo a que el tiempo en que se reproduce es un dato central para el caso de un video en la medida en que, por ejemplo, un videoclip de 3 minutos, debe ser reproducido necesariamente en ese tiempo.

Ocurre que las normas desarrolladas para la televisión digital optaron por cambiar la relación de 4:3 a 16:9 para acercarla a la visión panorámica del cine, por lo que se suele asociar erróneamente relación de aspecto con calidad.

Tamaño y profundidad de color Como en la fotografía, la profundidad de color remite al número de colores distintos que pueden ser representados por un pixel y, como sabemos, depende del número de bits por pixel. A mayor cantidad de bits por píxel, mayor cantidad posible de colores a representar, con el consiguiente efecto en el tamaño final del archivo.

Es decir, el tiempo que demora un sistema para reproducir una fotografía puede ser mayor o menor, pero nunca afecta a la exhibición misma de la imagen, toda vez que no requiere un tiempo establecido de visualización.

Recordemos que para el caso del video o la TV analógica la resolución no se mide en píxeles sino en líneas horizontales (ver barrido), aunque se ha logrado desarrollar procedimientos que traducen la información entrelazada del video analógico al formato digital. Tamaños estándar de resolución de video en píxeles: • 640x480 Archivo de calidad estándar para computadora, con relación de aspecto 4:3 (1,33) • 720x480 Formato de calidad estándar para TV (SDTV), con relación de aspecto 4:3 en sistema NTSC • 720x576 Formato de calidad estándar para TV (SDTV), con relación de aspecto 4:3 en sistema PAL

• •

También en este caso, el tamaño del archivo de video será el producto de la cantidad de píxeles, por la cantidad de bits que informa a cada uno, pero multplicado por la cantidad de frames por segundo, por la cantidad de segundos que dura el video Tasa de transferencia De la elevada cantidad de bits que requiere un archivo de video surge la importancia de la tasa de transferencia, también denominada tasa de bits o bitrate.

Distinto es el caso de los archivos de video o audio, los que deben respetar el tiempo de su duración durante la reproducción, lo que exige que el soporte sea capaz de transmitir, procesar y/o reproducir el contenido del archivo en tiempo real. Así, si la tasa de transferencia que admite el soporte es inferior a la tasa de transferencia que requiere el archivo para reproducirse en tiempo real su visualización adecuada se tornará imposible. De tal modo que la tasa de transferencia pasa a ser una condición inherente al propio archivo de video.


La información surgirá de multiplicar píxeles por bits por fotogramas por segundo, lo que arrojará una cifra que se medirá en bits por segundo (bps) o en sus múltiplos, como megabits.

COMPRESIÓN DE VIDEO Con semejantes números queda claro que es necesario aplicar eficientes algoritmos de compresión para tornar manipulables los archivos de video digital. Métodos de compresión de video: Existen básicamente dos métodos de compresión de video, que apuntan a desechar los datos que contengan información redundante tanto espacial como temporal: Intraframe e interframe. Intraframe: se trata de un sistema de compresión similar al que aplica el formato jpg en las imágenes estáticas. Básicamente encuentra información similar en un conjunto de píxeles que promedia y unifica, quitando leves diferencias de color que no son detectadas por la percepción humana. Así, cada frame termina teniendo un tamaño muy inferior al original. Interframe: deja de lado datos redundantes entre diferentes frames o cuadros de una imagen. Así, cuando detecta

que la información no cambia, como una pared detrás de un entrevistado, la repite entre cada cuadro, renovando exclusivamente la información de los píxeles que sí sufren modificaciones, como los del rostro de la persona que habla. Es decir que sólo se guarda la información de los píxeles que difieren entre un frame y otro. La compresión temporal entonces implica analizar una secuencia de video de modo que no sea necesario transmitir todos los fotogramas consecutivos, sino que se codifique un fotograma y luego sólo la diferencia entre éste y sus fotogramas cercanos. Esto permite que las secuencias en donde los datos son redundantes (porque existen muy pocas variaciones entre fotogramas consecutivos) se consigan factores de compresión muy elevados, ya que la diferencia entre ellos es prácticamente nula. La mayoría de las técnicas de compresión temporal también incluyen la predicción del frame siguiente, lo que disminuye considerablemente el peso del archivo.

CÓDECS Y FORMATOS CONTENEDORES DE ARCHIVO DE VIDEO Aunque los códecs, y los formatos contenedores de archivos no son equivalentes, a menudo se confunden entre sí. El formato contenedor define cómo se almacenan los metadatos junto con los datos audio y de video y suele darle nombre a la extensión. No define ni la codificación ni la compresión de los datos. El códec sí define el modo en que se comprime y se codifica la información de video.

Formatos contenedores de archivos de video Los videos digitales se pueden guardar en archivos de distintos formatos. Cada uno se corresponde con una extensión específica del archivo que lo contiene. Existen muchos tipos de formatos de video. Aquí se citan algunos de los más utilizados. Asimismo cada tipo de archivo admite en cada momento un códec de compresión distinto. AVI (Audio Video Interleaved = Audio y Video Intercalado) • Es el formato estándar para almacenar video digital. • Cuando se captura video desde una cámara digital al ordenador, se suele almacenar en este formato con el códec DV (Digital Video). • El archivo AVI puede contener video con una calidad excelente. Sin embargo el peso del archivo resulta • siempre muy elevado. • Admite distintos códecs de compresión como CinePak, Intel Indeo 5, DV, etc. Los de mayor capacidad de compresión y una calidad aceptable son DivX y XviD. • El formato AVI puede ser visualizado con la mayoría de reproductores: Windows Media, QuickTime, etc. siempre y cuando se encuentren instalados en el equipo los adecuados códecs para cada tipo de reproductor. • Es ideal para guardar videos originales que han sido capturados de la cámara digital (codificados con DV). • No es recomendable publicarlos en Internet en este formato por su enorme peso. • Los códecs CinePak, Intel Indeo, DV, etc. no ofrecen una gran compresión. Los códecs DivX y XviD por el contrario consiguen una óptima compresión aunque se suelen destinar sobre todo a la codificación de películas de larga duración.


RM

• • • • • •

Es la propuesta de Real Networks para archivos de video. Utiliza un códec propio para comprimir el audio. Este tipo de archivos tiene extensión *.RM y *.RAM. Se visualiza con un reproductor específico: Real Player. Existe una versión gratuita del mismo que sepuede descargar de Internet. Se puede utilizar para publicar videos en Internet por su aceptable calidad/peso. Admite streaming.

FLV

• • • • • MPEG (Moving Pictures Expert Group = Grupo de Expertos de Películas) • Es un formato estándar para la compresión de video digital. • Son archivos de extensión *.MPG ó *.MPEG. • Admite distintos tipos de códecs de compresión: MPEG-1 (calidad CD), MPEG-2 (calidad DVD) y MPEG4 (más orientado a la web). MOV • Es el formato de video y audio desarrollado por Apple. • Utiliza un códec propio que evoluciona en versiones con bastante rapidez. • Este tipo de archivos también pueden tener extensión *.QT • Se recomienda utilizar el reproductor de QuickTime.

• •

Existe una versión gratuita del mismo que se puede descargar de Internet. Es ideal para publicar videos en Internet por su razonable calidad/peso. Admite streaming.

WMV • Ha sido desarrollado por Microsoft. • Utiliza el códec MPEG-4 para la compresión de video. • También puede tener extensión *.ASF • Sólo se puede visualizar con una versión actualizada de Windows Media 7 o superior. Esta aplicación viene integrada dentro de Windows. • Es ideal para publicar videos en Internet por razonable calidad/peso. • Admite streaming.

• • •

Es un formato que utiliza el reproductor Adobe Flash para visualizar video en Internet. Utiliza el códec Sorenson Spark y el códec On2 VP6. Ambos permiten una alta calidad visual con bitrates reducidos. Son archivos de extensión *.FLV. Se pueden reproducir desde distintos reproductores locales: MPlayer, VLC media player, Riva, Xine, etc. Opción recomendada para la web por su accesibilidad. Al visualizarse a través del reproductor de Flash es accesible desde la mayoría de los sistemas operativos y navegadores web. Los repositorios de video más conocidos en Internet utilizan este formato para la difusión de videos: YouTube, Google Video, iFilm, etc. Permite configurar distintos parámetros del video para conseguir una aceptable calidad/peso. Admite streaming.


CÓDECS DE COMPRESIÓN MPEG • Este estándar de compresión fue desarrollado por Moving Picture Experts Group, o dicho de otra forma, expertos en imágenes en movimiento. • El método de compresión que utiliza es el de similitud de contenidos, si percibe una parte común a todo guarda un ejemplar eliminando el resto. De esta manera se consigue una reducción de espacio. • Este formato se clasifica en: MPEG-1, MEPG-2, MEPG-3 Y MPEG-4 MPEG1 • Surgió durante el año 1991. Su calidad se parece al del sistema VHS. • La principal finalidad de este tipo de compresión fue el de poder colocar el video digital en un soporte muy conocido para todos nosotros, el CD-ROM. • Requiere de un ancho de banda de 1,5 mega bits por segundo y se presentaba a una resolución de 352 x 240 píxeles NTSC o 352 x 288 en PAL. • Actualmente este formato se utiliza bastante para visualizar videos por internet. MPEG2, utilizado por la televisión digital y el DVD • El MPEG2 aparece en 1994 y es uno de los códec de compresión que ofrece mayor calidad de imagen. Funciona con una tasa de transferencia de 3 a 10 Mbps. • Este formato ofrece la transmisión de ficheros de video digital a pantalla completa o broadcast. • El MPEG2, es el utilizado por la televisión digital y por el DVD para la codificación de video • Trabaja con resoluciones desde 352 x 480 y 1920 x 1080 píxeles o 720x576 (PAL) y 720x480 (NTSC).

MPEG3 • El MPEG3, se desarrolló para la televisión digital de alta calidad aunque el formato MPEG2 también cumplía perfectamente esta función. • El formato MPEG3 tiene mayor ancho de banda que el MPEG2 y se optó por la utilización finalmente del formato MPEG2. Por este motivo el proyecto orientado en el MPEG3 se abandonó. MPEG4 Uno de los códecs utilizados en este formato son los famosos, DivX y XviD. Una de las grandes ventajas que ofrece este formato es una muy buena calidad, muy parecida al del formato DVD, a cambio de un factor de compresión mucho más elevado que otros formatos, dando como resultado archivos o ficheros más comprimidos que otros e ideales para poder transmitir los datos a través de Internet. MPEG-4 parte 10, también conocido como MPEG-4 AVC/H.264 o Codificación de video avanzada, es utilizados por el códec x264, y video de alta definición en los medios como el Blu-Ray MPEG-4 trata más de agrupar los estándares ya existentes que de crear nuevos formatos (formato de formatos). Se trata de una especie de meta-formato que engloba tanto la posibilidad de almacenar imágenes y sonidos comprimidos, como la de añadir objetos sintéticos, interpretar (decodificar y renderizar) y representar una composición de escena a partir de múltiples objetos. Además, describe la forma en que debe transmitirse y sincronizarse el envío de los datos, bien sea a través de una red o bien en un soporte físico local y también se encarga de la posible interacción del usuario con las escenas descritas. Dispone de un conjunto de tecnologías para satisfacer las necesidades de los autores de productos multimedia, los proveedores de servicios de red y los usuarios finales:

Autores de productos multimedia: Les permite combinar varias tecnologías en una sola con mayor flexibilidad. o Les otorga una mayor reutilización de sus creaciones al trabajar con objetos Proveedores de servicios de red: Controlarán mejor el tráfico, puesto que el estándar contempla el envío de señales de control. Define unos niveles mínimos de calidad de servicio (QoS) para que cada operador garantice un servicio de calidad según los requerimientos del cliente y del canal a utilizar. Se puede optimizar el flujo de datos en función de su tipo y relevancia. Usuario final: Le ofrece televisión digital, aplicaciones gráficas y multimedia interactivas, comunicación en tiempo real, vigilancia a distancia, etc. Las escenas audiovisuales MPEG-4 están compuestas por multitud de objetos multimedia de forma jerárquica. Estandariza el número de objetos multimedia primitivos que pueden ser de dos o tres dimensiones. Por ejemplo: si pensamos en una persona hablando en una clase y queremos transmitir esta información de forma audiovisual, podemos descomponer la escena en varios objetos diferentes, como: imágenes estáticas (pizarra, fondo, etc), objetos de vídeo (la animación de la persona hablando), objetos audio (la voz de esa persona), etc.


Las escenas son agrupaciones de objetos multimedia. Los objetos que componen la escena se agrupan en árboles y subárboles. Esta idea se basa en el concepto de escena empleado en el lenguaje VRML (Virtual Reality Modeling Language o Lenguaje de Modelado de Realidad Virtual). La idea básica es que los objetos multimedia primitivos se agrupan para formar objetos multimedia más complejos de forma jerárquica. De esta manera, el autor puede construir escenas tan complejas como sea necesario y el usuario puede interactuar con un grupo de objetos como si de uno sólo se tratara.

flujos de datos, que pueden ser de diferente naturaleza y que son transportados en uno o mas flujos elementales. Un objeto descriptor identificará los flujos asociados a un objeto multimedia. Los descriptores pueden llevar indicaciones del nivel de calidad (QoS) apropiado que se requiere para la transmisión (p.e., la máxima tasa de bit, la tasa de bit de error, la prioridad, etc). La capa de sincronización se encarga de sincronizar los flujos elementales. La sintaxis de esta capa de sincronización es configurable en multitud de modos por lo que se puede usar en distintos tipos de sistemas.

uno de los fotogramas relativos. También se suele poner definir la velocidad de transferencia de datos máxima soportada, de modo que Cinepak reducirá la calidad hasta permitir que los datos necesarios no sean superiores.

Generalmente, el usuario final verá la escena tal cual el autor la ha creado, aunque este pueda permitir cierto grado de interacción con la escena si la diseña de este modo. Entre otras cosas, el usuario podrá:

Animation Es el codec más utilizado para comprimir películas generadas por ordenador (2 o 3-d), por ejemplo una animación generada con Macromedia Director. Utiliza también compresión interframe.

• • • •

Debido a la presencia de varios objetos es un solo bloque, es necesario tener en cuenta las necesidades de ancho de banda de cada objeto para no tener que esperar al más lento. Esto se consigue mediante una capa de sincronización (capa de sincronización de flujos) que se dedica exclusivamente a la gestión y control de los objetos que se necesitan representar. Los objetos multimedia se transmiten en los que llamaremos flujos de datos. Los flujos de datos se componen de flujos elementales de datos (elementary stream, ES). Así pues, los objetos multimedia pueden necesitar varios

Cambiar los puntos de vista o audición (navegar por la escena). Mover objetos de la escena a distintas posiciones. Arrancar y detener el flujo de eventos (ej: iniciar y detener el vídeo). Elegir el lenguaje que desea emplear, caso de que se ofrezca soporte para varios.

MPEG7 MPEG7, este formato está en proyecto, cómo el estándar que más se utilizará en Internet y televisiones interactivas. Este formato codificará además de la imagen y sonido datos en lenguaje XML. MPEG7 servirá de gran ayuda para el avance de la nueva televisión interactiva con introducción de buscadores de contenidos, búsquedas de audiovisuales etc.

Otros codecs Cinepak El codec más utilizado si lo que interesa es el espacio. Permite definir el espacio entre cuadros llave y la calidad interframe, eliminando más o menos información en cada

SorensonVideo Parece que va a ser el sustituto natural de Cinepak. Tiene una gran calidad incluso con tasas de transmisión mínimas, con lo que se está convirtiendo en una de las principales opciones para transmisión de vídeo en Web. También es tremendamente asimétrico, como Cinepak.

DIVX/XVID La razón de la existencia de los formatos DivX y XviD es su excelente capacidad de almacenar vídeo de alta calidad en un fichero de tamaño reducido que podamos insertar en un CD de 650-700-800 o 900 MB de los llamados consumibles. El proceso de compresión de vídeo se hace en MPEG 4 por lo que esta versión de MPEG y el códec DivX van ya unidas dentro de la terminología de los consumidores de archivos DivX y Xvid. Por lo tanto, al contrario que los ficheros de DVD que van con compresión de vídeo en MPEG 2, el DivX y el Xvid utilizan el la compresión en MPEG 4. • Resolución PAL (generalmente): 640x480 o menor • Compresión vídeo: MPEG 4 • Compresión de audio: MP3, Ogg, WMA • Bitrate de vídeo: 300-1000 kbps • Tamaño/minuto: 1-10 MB/min.


Streaming de video En la navegación por Internet es necesario descargar previamente el archivo (página HTML, imagen JPG, audio MP3, etc.) desde el servidor remoto al cliente local para luego visualizarlo en la pantalla de este último. La tecnología de streaming se utiliza para optimizar la descarga y reproducción de archivos de audio y video que suelen tener un cierto peso. El streaming funciona de la siguiente forma: • Conexión con el servidor. El reproductor cliente conecta con el servidor remoto y éste comienza a enviarle el archivo. • Buffer. El cliente comienza a recibir el fichero y construye un buffer o almacén donde empieza a guardarlo. • Inicio de la reproducción. Cuando el buffer se ha llenado con una pequeña fracción inicial del archivo original, el reproductor cliente comienza a mostrarlo mientras continúa en segundo plano con el resto de la descarga. • Caídas de la velocidad de conexión. Si la conexión experimenta ligeros descensos de velocidad durante

la reproducción, el cliente podría seguir mostrando el contenido consumiendo la información almacenada en el buffer. Si llega a consumir todo el buffer se detendría hasta que se volviera a llenar. El streaming puede ser de dos tipos dependiendo de la tecnología instalada en el servidor: • Descarga progresiva. Se produce en servidores web que disponen de Internet Information Server (IIS), Apache, Tomcat, etc. El archivo de video o audio solicitado por el cliente es liberado por el servidor como cualquier otro archivo utilizando el protocolo HTTP. Sin embargo, si el archivo ha sido especialmente empaquetado para streaming, al ser leído por el reproductor cliente, se iniciará en streaming en cuanto se llene el buffer. • Transmisión por secuencias. Se produce en servidores multimedia que disponen de un software especial para gestionar más óptimamente el streaming de audio y video: Windows Media Server, Flash Communication Server, etc. La utilización de un servidor multimedia ofrece múltiples ventajas frente al servidor web.

Las más destacadas son: • Mayor rapidez en la visualización de este tipo de contenidos. • La comunicación entre servidor/cliente se puede realizar por protocolos alternativos al HTTP. Tiene el inconveniente del bloqueo impuesto por Firewalls pero tiene la ventaja de una mayor rapidez. • Mejor gestión del procesador y ancho de banda de la máquina del servidor ante peticiones simultáneas de varios clientes del mismo archivo de audio o video. • Control predefinido sobre la descarga que pueden realizar los clientes: autentificada, filtrada por IP, sin almacenarla en la caché del cliente, etc. • Mayor garantía de una reproducción ininterrumpida gracias al establecimiento de una conexión de control inteligente entre servidor y cliente. • Posibilidad de distribución de transmisiones de audio y video en directo.


Optimización de archivos de video Para optimizar el peso del archivo de video será necesario editarlo para establecer alguno o algunos de los siguientes parámetros: En el Audio: • El códec de compresión de audio utilizado: MPEG Layer 1, MPEG Layer 2, MP3, etc. • Resolución. Establecer resoluciones más pequeñas: 32-bits, 16-bits, 8-bits, 4-bits, etc. • Tasa de muestreo. Definir valores inferiores: 44100 Hz., 22050 Hz., 11025 Hz, etc. • Velocidad de transmisión (bitrate). Configurar bitrates más bajos: 128 Kbps, 96 Kbps, 64 Kbps, etc. 5) Calidad estéreo/mono. Reducir la calidad de “stereo” a “mono”

En el Video: • El códec de compresión de video utilizado: MPEG-1, MPEG-2, MPEG-4, Intel Indeo, Cinepak, DivX, etc. • Método de BitRate. Utilizar un bitrate variable VBR puede optimizar la calidad del video y repercutir en el peso final del archivo frente a un bitrate constante CBR. • Velocidad de transmisión (bitrate). Configurar bitrates más bajos: 1000 Kbps, 768 kbps, 360 Kbps, etc. • Dimensiones. Cuanto más pequeña sea la altura y anchura en píxeles de los fotogramas de un video, menos tamaño ocupará su archivo. • Velocidad de fotogramas. Se puede reducir el número de fotogramas por segundo que mostrará el video: 30, 24, 20, 16, etc. • Fotogramas Clave. Durante la compresión también se puede indicar cada cuánto se guardará un fotograma completo (fotograma clave): 24, 48, 96, 128, etc. Cuanto mayor sea esta cadencia más bajo será el peso del archivo resultante. Otros elementos que inciden en la optimización: • Duración. Cuanto más corto es un video, menos peso ocupa su archivo. En ocasiones puede resultar interesante fraccionar un archivo de video en sus escenas para facilitar su descarga. • Formato de archivo. Los archivos *.WMV, *.MOV, *.RM y *.FLV son los más adecuados para publicar un video en Internet por su adecuada relación calidad/peso y porque admiten streaming. Los

archivos *.AVI con códecs de compresión baja son ideales para guardar los videos originales. Los archivos *.AVI con códecs DiVX-XviD son apropiados para videos de películas de cierta duración. Los archivos *.MPG con códec MPEG-1 se utilizan para crear Video-CDs. Los archivos *.MPG con códec MPEG-2 se utilizan como fuente para montar un DVD.

VIDEOCÁMARAS DIGITALES La parte óptica de una cámara digital se encarga de recoger la luz con la mayor precisión y calidad posible. Suelen ser lentes zoom de unos 10x. En algunas Sony, son Carl Zeiss, mítico fabricante alemán de óptica Es importante disponer de un buen zoom ya que el zoom digital deteriora la imagen. Mucho más importante, aunque los aficionados siempre lo olvidan, es tener una buena apertura gran angular. En este sentido es difícil elegir ya que no está muy claro este dato en los folletos. En cuanto al diámetro de la rosca para filtros, el tema es caótico. Cada fabricante, incluso cada modelo, puede tener uno distinto. Si se prevé el uso de filtros hay que tener muy en cuenta la posible disponibilidad. Es importante que el autofocus sea rápido y preciso. Algunas cámaras llevan un anillo giratorio que facilita el enfoque manual. Os aseguro que es muy útil, aunque tienen un tacto no muy bueno ( en realidad, controlan indirectamente el motor del focus). Viene muy bien disponer de un modo de “bloqueo del focus”. En condiciones difíciles, los autofocus enloquecen un poco. Lo profesionales siempre trabajan con enfoque manual. Todas incorporan un iris para ajustar la exposición. También juegan con la ganancia electrónica del CCD para controlar la exposición. Normalmente es posible trabajar en modo manual, pero pocos modelos ofrecen un control total del iris ( suele haber un ajuste para subir o bajar la sensibilidad pero no un ajuste absoluto de la apertura del iris independiente de la ganancia electrónica). Es intere-


sante que tengan, al menos, bloqueo de la exposición, para evitar cambios bruscos al hacer un barrido de paisajes con diferente luminosidad. Algunos modelos de la gama alta disponen de un filtro de densidad neutra, sumamente útil para evitar la saturación del CCD en tomas con exceso de luz (playa,nieve) o para resaltar efectos estéticos (disminuir la profundidad de campo usando aperturas muy grandes). Sólo las mejores cámaras incorporan el “zebra pattern” : indicación en el visor de las zonas sobreexpuestas [aunque en todas las Sony es posible habilitar esta función conociendo ciertos códigos] Otro detalle a tener en cuenta es el control de balance de blanco. Debido a las distintas fuentes de luz, con distinta composición cromática, es necesario ajustar dicha composición. Las cámaras suelen tener un ajuste automático, pero nunca está de más ( es muy interesante ) un control manual. Con él, basta poner una cartulina blanca delante del objetivo y activar el ajuste. La cámara almacenará este nuevo valor cromático. Es también útil para realizar efectos y cambiar el tono de las tomas artificialmente. Hay alguna cámara que no tiene control manual ( las menos ) que deben ser evitadas. La velocidad de obturación se controla electrónicamente en el propio CCD, es decir, no existe unas “cortinillas” realmente. Variando las frecuencias de control del CCD se consigue variar la velocidad de exposición. Evidentemente, el formato PAL impone ofrecer 25 imágenes por segundo ( 50 cuadros de mitad de resolución, entrelazados) , cada uno de ellos expuesto el tiempo que se haya seleccionado ( ya sea manualmente o auto). Tal como ocurre en el campo de la fotografía, el juego de velocidad y exposición determina el resultado final de la imagen. Las velocidades de obturación altas se deben usar al filmar objetos en movimiento rápido, sobre todo si se

quiere que la cámara lenta o la pausa brinden imágenes bien definidas. Normalmente, en modo auto, las cámaras trabajan a 1/100. De la misma manera, la apertura permite controlar la profundidad de campo ( área de la imagen enfocada). Aperturas pequeñas dan la máxima profundidad de campo a costa de menor luminosidad. Y viceversa: apertura grande implica poca profundidad de campo. Esto permite resultados estéticos remarcables, sobre todo al efectuar retratos, en los que queda muy bien un fondo desenfocado ( por tanto, habrá que ajustar una apertura máxima y usar un zoom bastante potente, tanto para resaltar el efecto como para lograr suavizar los contornos de la cara). Pero bueno, estas disquisiciones tienen más que ver con aspectos de “técnicas de filmación”, etc) De todos modos, estos ajustes lo suelen hacer automáticamente las cámaras dotadas de “modos de operación” ( retrato, deportes, etc ). La mejor manera de saber los resultados es la experimentación. Antes del CCD, se antepone un filtro óptico para eliminar la parte del espectro no visible. Vamos, que se elimina el infrarojo y el ultravioleta. Las cámaras con “Night Shot” ( visión nocturna por infrarojos) deben quitar este filtro. Las imágenes capturadas por las lentes son transformadas en señales eléctricas por el CCD ( Charge Coupled Device) . Ëste está compuesto por miles de puntos sensibles a la luz ( más de 500.000 ). El CCD en sí mismo, siempre es monocromo. Se anteponen unos filtros con los colores primarios para obtener la información de color. En los modelos de alta gama y profesionales se usan tres CCD, uno para cada color.



Turn static files into dynamic content formats.

Create a flipbook
Issuu converts static files into: digital portfolios, online yearbooks, online catalogs, digital photo albums and more. Sign up and create your flipbook.