TM Broadcast España #183, Enero 2025

Page 1


EDITORIAL

Telemadrid ha culminado una importante renovación tecnológica para dotarse de una infraestructura IP en su área de producción de programas. Con este desarrollo, la televisión autonómica se ha posicionado a la vanguardia de los radiodifusores españoles en el plano de la innovación.

Con el propósito de brindar al lector una información detallada y exclusiva de este proyecto, nos hemos acercado a las instalaciones del canal madrileño para extraer de primera mano las razones que le llevaron a adoptar esta implementación, una explicación pormenorizada de sus elementos clave y una reflexión final sobre los beneficios obtenidos.

Nos han ayudado en esta tarea los principales responsables técnicos de Telemadrid implicados en su diseño: José María Casaos, director de Operaciones y Tecnología, y Pablo de la Peña, subdirector de Ingeniería y Mantenimiento.

Por otro lado, analizamos en este número la calidad actual de las emisiones de la TDT, toda vez que las televisiones han adoptado ya -desde febrero de 2024- la alta definición. ¿Están cumpliendo con las expectativas? Es la pregunta que lanzamos al inicio del artículo y a la que damos posterior respuesta tras un exhaustivo análisis.

Asimismo, exploramos uno de los desarrollos tecnológicos de los que más se está hablando este 2025: las producciones virtuales. Analizamos el cambio de paradigma que representa este avance para la producción de contenido, equivalente a la transición del B/N al color o de la creación analógica a la digital.

Tras este breve repaso por algunos de los contenidos principales, solo nos queda desear que esta selecta colección de artículos te ayude a tomar mejor el pulso de las novedades que están marcando el inicio de año en la industria broadcast.

EDITOR

Javier de Martín editor@daromediagroup.com

DIRECCIÓN DE CONTENIDOS

Mercedes González mercedes.gonzalez@tmbroadcast.es

REDACTOR JEFE

Daniel Esparza daniel.esparza@tmbroadcast.es

DIRECCIÓN COMERCIAL

Javier M. Gutiérrez jmg@tmbroadcast.es

PUBLICIDAD

Sergio Castaño sergio.castano@tmbroadcast.es

Patricia Pérez ppt@tmbroadcast.com

REDACCIÓN redaccion@tmbroadcast.es

COLABORADORES

Yeray Alfageme

Carlos Medina

Luis Pavía

Carlos Alberto Martín

Javier Guerra Luis Sanz

Alfonso Redondo

José Luis Cordero

Carlos González

Fernando Suárez

MAQUETACIÓN

Sorex Media

DIRECCIÓN ADMINISTRACIÓN

Laura de Diego laura.dediego@daromediagroup.com

SUSCRIPCIONES suscripciones@tmbroadcast.es

Imprime: IMEDISA ARTES GRÁFICAS S.L.

Dep. legal: M-11254-2008

ISSN: 1888-6965

Impreso en España en enero de 2025

TM Broadcast no se hace responsable de las opiniones vertidas en los reportajes e informaciones firmadas. Todos los derechos reservados. Esta publicación no puede ser reproducida ni en todo ni en parte en ningún medio impreso ni electrónico, ni registrada en, ni transmitida por cualquier sistema sin permiso previo por escrito de la editorial.

TM Broadcast es una publicación de Daró Media Group S.L.

Centro Empresarial Tartessos Calle Pollensa 2, Oficina 14 28290 Las Rozas, Madrid. Tf: 91 640 46 43

SUMARIO

Actualidad

PREMIOS TM BROADCAST

V Edición PREMIOS TM BROADCAST

¡Prepara tu proyecto y participa en los premios que reconocen los trabajos más innovadores en nuestro país!

A partir del 15 de enero de 2025 está abierta la convocatoria de la V Edición de los Premios TM Broadcast.

TELEVISIONES

Telemadrid

Tecnología eficaz, facilidad de producción

Telemadrid ha terminado de implementar la infraestructura IP en su área de producción de programas. Con la tecnología que ha utilizado y su forma de aplicarla, la televisión autonómica madrileña probablemente es el radiodifusor español que mejor realiza la producción de programas en platós. 20

TECNOLOGÍA

Conocer el presente es disfrutar del futuro

Producción virtual en Broadcast

Estamos en uno de los momentos más importantes en la historia del cine y la televisión Broadcast. Si lo comparamos con lo acontecido en el pasado, es muy posible que los cambios tecnológicos que el sector audiovisual está viviendo en la actualidad sean tan o más importantes, que lo que sucedió cuando se pasó del mudo al sonoro, del B/N al color o de la creación analógica a la digital, entre otros.

TECNOLOGÍA

¿Con qué calidad se perciben los contenidos audiovisuales emitidos a través de la TDT en España?

En febrero de 2024, todas las transmisiones de canales de televisión adoptaron la Alta Definición (HD, High Definition), provocando un cambio muy notable en el avance de la calidad audiovisual.

LABORATORIO

Sony PXW-Z200

La cámara de mano capaz de encuadrar

En plena expansión de la IA, con esta cámara llega el momento de derribar otro de esos conceptos que hasta ahora formaban parte de nuestras “grandes verdades inmutables”.

Juande Mellado, director general de RTVA, nuevo presidente de FORTA

La Federación de Organismos de Radio y Televisión Autonómicos (FORTA) ha nombrado a Juande Mellado, director general de la Radio Televisión de Andalucía (RTVA), como su nuevo presidente. Mellado asumirá el cargo durante seis meses, hasta el mes de julio de 2025.

Juande Mellado sucede en el cargo a Raquel Fuertes, directora general de Corporación Aragonesa de Radio y Televisión (CARTV), quien ha estado al frente de FORTA durante los últimos seis meses. La gestión realizada por Fuertes, que ha coincidido con el 35 aniversario de la FORTA, ha sido valorada de manera positiva por la Junta General, que ha dado también la bienvenida a Juande Mellado a la presidencia de la Federación durante los próximos seis meses.

Juande Mellado ya fue presidente de FORTA a lo largo del primer semestre de 2020 y, cinco años después, sigue considerando como premisa básica apostar “de una forma decidida por trabajar todos los que

formamos parte de FORTA en continuar con la transformación digital de las radios y televisiones públicas autonómicas. Creo que esta debe ser una de las líneas de acción para competir, que nos dará garantías en un mercado audiovisual cada vez más competitivo, con más actores y otras formas de consumo bajo demanda”.

Para el director general de RTVA y presidente de FORTA, “el papel de las televisiones autonómicas hoy en día es fundamental por la cercanía con los ciudadanos a través de programas e informativos, en los que se refleja de forma fiel y cercana lo que ocurre en su territorio. Nuestro reto debe ser que los ciudadanos nos vean como auténticas ventanas a la realidad y la diversidad, sin olvidar el apoyo al cine, a la creación audiovisual y a la producción”.

Perfil profesional del nuevo presidente de FORTA

Juande Mellado es licenciado en Ciencias de la Información por la Universidad de Navarra y trabajó

entre 1990 y 1996 en Diario 16 de Málaga. Asimismo, fue corresponsal de Cambio 16 en Andalucía Oriental y enviado especial en la guerra de Ruanda en el año 1994. También ha sido socio fundador de la consultora Comunicación & Turismo, donde gestionó la comunicación de la Universidad de Málaga y del Puerto de Málaga.

Profesor de Periodismo Especializado en EADE Málaga (1997-1999), ocupó el cargo de redactor jefe y subdirector del periódico La Opinión de Málaga desde 1999 a 2008. También ha ejercido como director de Comunicación de la Consejería de Turismo de la Junta de Andalucía entre 2008 a 2010, y en febrero de ese año asumió la dirección de La Opinión de Málaga, donde impulsó la transformación digital del periódico.

En mayo de 2018 se incorporó como coordinador de Comunicación y Estrategia de la Marca de Turismo y Planificación Costa del Sol y en 2019 fue director general de Comunicación Social de la Junta de Andalucía hasta su elección como director general de la agencia pública empresarial de la Radio y Televisión de Andalucía en julio de ese mismo año, en los que la agencia pública andaluza se ha abierto a nuevos soportes y mercados, destacando sobremanera la puesta en marcha de CanalSur Más, la plataforma de contenidos bajo demanda de la cadena, y su decidida apuesta por dinamizar la industria audiovisual andaluza.

SanDisk presenta una nueva gama de productos para creadores de contenido

A través de su línea Creator, la marca pretende guiar a los profesionales en cada paso del proceso creativo, desde la idea hasta la visualización

SanDisk lanza su nueva serie Creator, una línea de soluciones de almacenamiento diseñada específicamente para creadores de contenidos, a los que pretende guiar en cada paso del proceso creativo, desde la idea hasta la visualización.

A continuación, se ofrece la lista de especificaciones de cada producto, compartida por la compañía:

• SanDisk Creator Phone SSD: Este nuevo SSD, diseñado específicamente para crear contenido en movimiento, se conecta fácilmente a teléfonos inteligentes compatibles con MagSafe con capacidades de hasta 2 TB y velocidades de hasta 1000 MB/s de lectura y hasta 950 MB/s de escritura. Los creadores ahora pueden grabar vídeos en 4K a 60 fps en Apple ProRes directamente en su SSD Creator Phone para comenzar a editar al instante. Cuenta con una carcasa de silicona duradera, protección contra caídas de hasta tres metros y resistencia al agua y al polvo con clasificación IP65. Para ayudar

a agilizar más el proceso de edición, los usuarios podrán disfrutar de un mes de Adobe Creative Cloud. Tiene un precio a partir de 119,99 euros para la versión de 1 TB1 y se espera que esté disponible esta primavera en SanDisk. com y en tiendas seleccionadas.

• Tarjeta SanDisk Creator microSD: disponible en capacidades de hasta 1 TB, los creadores pueden capturar fácilmente secuencias en 4K y 5,3 K con un rendimiento de nivel profesional y descargar archivos a velocidades turboalimentadas con un lector USB-A de tarjetas microSD UHS-I SanDisk QuickFlow (se vende por separado). Las tarjetas microSD SanDisk Creator tienen un precio de venta de 17,99 euros para la versión 128 GB y ya están disponibles en SanDisk.com y en tiendas seleccionadas.

• Tarjeta SanDisk Creator SD UHS-II: disponible en capacidades de hasta 1 TB, esta tarjeta de memoria de alto rendimiento está diseñada para creadores que requieren captura de imágenes y videos de calidad profesional con un alto nivel de fiabilidad para grabar, editar y publicar sus publicaciones sin errores. La tarjeta SanDisk Creator SD USH-II

tiene un precio de 60,99 euros para la versión de 128 GB y ya está disponible en SanDisk.com y en tiendas seleccionadas.

• SanDisk Creator Phone Drive: perfecta para creadores con flujos de trabajo en varios dispositivos, esta unidad cuenta con conectores Lightning y USB Type-C y ofrece hasta 256 GB1 de almacenamiento para administrar de manera eficiente fotos de alta resolución, numerosos archivos de video o documentos entre dispositivos. La aplicación SanDisk Memory Zone para dispositivos móviles con Android permite realizar copias de seguridad automáticas de todos los archivos favoritos. Tiene un precio de 48,99 euros para la versión de 128 GB y se espera que esté disponible en febrero en SanDisk. com y en tiendas seleccionadas.

• Unidad flash USB-C de SanDisk Creator: equipada con un conector USB Type-C versátil, esta unidad está diseñada para creadores de contenido que exigen rendimiento y durabilidad dondequiera que estén, con una capacidad

SanDisk Creator Extreme PRO

SanDisk Creator Phone

de almacenamiento de hasta 1 TB que ofrece un amplio espacio para crear contenido sin esfuerzo. Se espera que la unidad flash USB-C de SanDisk Creator, con un precio de 30,99 euros para la versión de 256 GB, esté disponible en febrero en SanDisk.com y en tiendas seleccionadas.

• SanDisk Creator Pro Portable SSD: disponible en capacidades de hasta 4 TB, este producto brinda a los creadores la velocidad, la capacidad y la durabilidad que necesitan para flujos de trabajo creativos ultra exigentes. Gracias a su potente rendimiento NVMe, permite fácilmente transferir, editar y hacer copias de seguridad de metraje sin comprimir, archivos de proyectos multicámara

y activos generados por IA. Con un precio de 155,99 euros para la versión de 1 TB, la SSD portátil SanDisk Creator Pro ya está disponible en SanDisk.com y en tiendas seleccionadas.

• SanDisk Creator Desk Drive: diseñada para ser el centro del contenido creativo, esta unidad SSD de escritorio ofrece velocidades de lectura hasta 4 veces más rápidas que un disco duro de escritorio común, lo suficientemente rápida para transferir y hacer copias de seguridad de proyectos grandes sin esfuerzo. Con un precio de 377,99 euros para la versión de 4 TB, esta unidad ya está disponible para pedidos anticipados en SanDisk.com y en tiendas seleccionadas.

SanDisk Creator USB-C Flash Drive
Un consorcio integrado por Hispasat firma el acuerdo para la nueva red europea de satélites

La constelación IRIS² contará con 6.500 millones de euros en fondos públicos, que representan alrededor del 60% de las inversiones para lograr esta infraestructura

El consorcio SpaceRISE, formado por la española Hispasat, Eutelsat y SES, ha firmado en la Comisión Europea un acuerdo para diseñar, construir y explotar durante 12 años la Infraestructura de Resiliencia, Interconectividad y Seguridad por Satélite (IRIS²), un proyecto cuyo objetivo es lograr una Europa interconectada y segura. La constelación IRIS² está formada por una red de 290 nuevos satélites en órbita terrestre baja (LEO) y media (MEO), que se espera entren en servicio en 2030.

Mediante un modelo de colaboración público-privada, IRIS² contará con 6.500 millones de euros en fondos públicos, que representan alrededor del 60% de las inversiones del proyecto, provenientes de la

Comisión Europea, los Estados miembros de la UE y la Agencia Espacial Europea. Esta inversión pública se complementará con la financiación privada aportada por los tres miembros del consorcio.

La inversión de Hispasat en IRIS² podría ascender hasta los 600 millones de euros, sujeta al diseño final de la constelación y a la verificación de diversos parámetros que deben confirmarse en el hito de diseño preliminar del proyecto. Esta inversión permitirá a la compañía acceder a capacidades en órbita no geoestacionaria en regiones de alto interés estratégico y relevancia comercial. Parte de esta inversión se vincula al acceso a capacidades en bandas militares que queden excedentes o a

la incorporación de cargas útiles de interés, las cuales serán analizadas y evaluadas durante el primer año de contrato, según recoge Hispasat en un comunicado.

Hispasat es responsable del diseño, desarrollo e implementación del segmento terrestre de IRIS², es decir, de todas las instalaciones necesarias para la gestión y operación de las diferentes capas orbitales de la constelación, así como de la interconexión con las redes terrestres. El segmento terrestre contará con varias ubicaciones (centros de control, estaciones de servicios, telecomando y telemetría), garantizando los requisitos de seguridad y resiliencia inherentes a un sistema de comunicaciones gubernamentales como este.

Dentro del consorcio, Hispasat asume el rol de responsable de la operación y prestación de servicios a los Estados miembros, lo que incluirá desde la identificación del catálogo de servicios hasta el diseño del concepto de operaciones, los procedimientos para su puesta en marcha y los esquemas de prestación de servicios que se desarrollen.

Además, la compañía liderará la capa orbital muy baja (Low LEO) de la constelación, diseñada para operar por debajo de los 750 kilómetros de altura. En esta capa se llevarán a cabo misiones innovadoras, interconectadas con el resto de la constelación, que contribuirán a dinamizar el ecosistema de startups y pymes europeas y a desarrollar las soluciones más vanguardistas en el ámbito espacial.

Pedro Duque, presidente de Hispasat, declaró: «La participación de Hispasat en el programa IRIS² es una noticia de gran importancia para España. Es fundamental que nuestro país aproveche esta oportunidad para invertir en los futuros desarrollos espaciales de Europa. Para Hispasat, además, es un proyecto estratégico clave que refuerza nuestra posición a la vanguardia del sector europeo».

Miguel Ángel Panduro, consejero delegado de Hispasat, señaló: «La firma de IRIS² es un hito histórico para el espacio en Europa. Nuestra compañía nació de la colaboración público-privada para proporcionar comunicaciones gubernamentales y comerciales en las áreas geográficas de interés para nuestro país. Por ello, estamos convencidos de que, a través de SpaceRISE, no solo garantizaremos las comunicaciones seguras de los países miembros, sino que también contribuiremos a generar un ecosistema más innovador y competitivo en un momento de especial relevancia para la industria europea del espacio».

El corto ‘Dog’ cuenta con Blackmagic para retratar la nostalgia de los 90

Ben Saffer optó por una cámara Blackmagic URSA

Cine 12K LF para capturar las sutilezas emocionales y el entorno, que es un elemento central en esta historia

El director de fotografía Ben Saffer ha colaborado con la directora Caitlin McLeod y la productora Jessica Palmarozzi (Flumeri Films) en su producción más reciente titulada ‘Dog’, con el objetivo de crear una historia conmovedora sobre las relaciones en la infancia. Saffer optó para este cortometraje por una cámara digital cinematográfica Blackmagic URSA

Cine 12K LF a fin de captar las sutilezas emocionales y el entorno, que es un elemento central en esta historia.

McLeod es una directora galardonada que ha trabajado con Globe, la Royal Shakespeare Company y el National Theatre, y anteriormente también dirigió el cortometraje dramático ‘One Like Him’, producido por Palmarozzi. Sobre el argumento de la película, Saffer comenta a Blackmagic: «Sus padres están presentes y a la vez son distantes y permiten que sus hijos resuelvan las cosas solos. Es un guion encantador que se centra en las luchas de tres hermanos jóvenes en su camino por encontrar una conexión. Filmé más de 50 cortometrajes y siempre trato de adoptar una narrativa fresca, y este proyecto me ofreció algo verdaderamente único».

Leído el guion, el instinto de Saffer y el de McLeod indicaron que debían filmar en 16 mm. «La historia está ambientada en los años noventa,

así que la estética tenía que ser un poco más nostálgica, pero dada la cantidad de tiempo que queríamos rodar, tuvimos que elegir el formato digital», relata en declaraciones al citado fabricante de cámaras.

Al desarrollarse en la década de 1990, la película requería un estilo visual que fuese nostálgico y arraigado a la vez. Saffer terminó decidiendo usar el modelo URSA Cine 12K LF dadas las necesidades prácticas. «Trabajar con niños implica ser flexible. El medio digital nos brindó la posibilidad de seguir filmando sin perdernos de nada», explica. «El sensor de formato más grande también captó los paisajes vatos de Yorkshire, que son esenciales al tono de la película».

A fin de suavizar la resolución del modelo URSA Cine 12K LF, Saffer combinó la cámara con objetivos

de distancia focal fija S8i de Cooke, cuya naturaleza permitió evocar una apariencia más cinematográfica y cálida. «Grabamos con una apertura cercana a la máxima para crear imágenes íntimas y delicadas que lograran un equilibrio con la definición de la cámara. Esto nos aportó la estética nostálgica que buscábamos, acorde a mis recuerdos de la década de 1990».

Un iluminación que despierta emociones

El concepto de McLeod de «fuentes de luz» fue un elemento central de la narrativa, donde los personajes podían pasar por las sombras y dirigirse a áreas más iluminadas. «Caitlin quería que la iluminación tuviera un efecto funcional, en lugar de ser cálida, lo cual incrementó la distancia en la historia», añade Saffer.

Fotos: Blackmagic

Este enfoque es evidente en las escenas de la carpa donde ser reúnen los niños. «Lo natural era inclinarnos hacia imágenes ligeras y cálidas, como en un anuncio de vacaciones, pero Caitlin buscaba un estética más fría y distante. La diseñadora de producción, Liz Simpson, utilizó elementos del campo como utilería, con el objetivo de reforzar este tono, mientras que yo trabajaba con una iluminación mínima a fin de crear las sombras justas y necesarias para dar lugar a una sensación de aislamiento», revela Saffer.

El equipamiento de iluminación fue proporcionado por Panalux, y Saffer se valió de la luz indirecta para crear siluetas dinámicas para las escenas en el interior. «En el pasillo de la casa de campo, iluminamos las escenas a través de las puertas que daban a las habitaciones, lo cual creó fuentes de iluminación y sombras interesantes. Esto nos brindó la posibilidad de dar forma al entorno de una manera sutil y mantener el foco en los niños», explica. «En lugar de iluminar la habitación entera, dirigíamos la luz a través de las aberturas de las puertas desde un lateral, creando de esta manera fuentes naturales de luces y sombras. El modelo URSA procesó estos contrastes de una manera extraordinaria, lo cual aportó las siluetas y la profundidad que buscábamos».

En una escena clave que se desarrolla en la cocina, Saffer adoptó un enfoque de iluminación mínima que permitió que la sensibilidad de la cámara funcionara con las sombras naturales. Los niños se reúnen a la mesa para cenar, y cuando su madre entra para servir la comida, su presencia se siente, pero no se ve. «Queríamos que el foco estuviera puesto en los niños y, a la par, hacer que el fondo se desvaneciera sutilmente», observa.

La película ‘Dog’ se encuentra en etapa de posproducción y se prevé que su estreno tendrá lugar en el marco de un festival en 2025.

FORTA y RTVE suscriben un acuerdo para impulsar la radio digital en España

FORTA y RTVE han firmado un acuerdo para impulsar la implantación de la radio digital en España dentro del marco de colaboración establecido entre ambas entidades, conocido como ‘Convenio Compostela’. El pacto se suscribe con el objetivo de que la radio pública nacional y autonómica sean competitivas en el entorno digital, proporcionando un mejor servicio a los ciudadanos, según comparte RTVE a través de un comunicado.

La radiodifusión digital terrestre en DAB+ es uno de los pilares en los que se apoya la radio del futuro. Ello es así porque permite la emisión en abierto sin costes de conexión o consumo de datos. Además, la legislación vigente obliga a que los coches nuevos comercializados en la Unión Europea que incluyan radio incorporen receptor de DAB+ de serie desde el 21 de diciembre de 2020. A día de hoy, se estima que hay más de 3,9 millones de coches con DAB+ en España.

En el ecosistema digital actual, existen plataformas de terceros que distribuyen por Internet contenidos radiofónicos y de audio producidos por miembros de FORTA y RTVE sin autorización. Se apropian unilateralmente de los contenidos lineales y no lineales que les interesan e insertan su propia publicidad, llegando incluso a mutilarlos. Aparte del beneficio económico derivado de unos costes de producción nulos y de la publicidad insertada, se evidencia una pérdida total del control de los contenidos que elaboran los miembros de FORTA y RTVE, lo que puede afectar gravemente a la integridad de estos, según se afirma en la nota compartida por RTVE.

Además, existen gatekeepers que pueden impedir prestar a los radiodifusores públicos el servicio de radio que tienen encomendado por ley, y a los ciudadanos recibir el servicio que están financiando.

En la actualidad, en distintos puntos de España están proliferando emisiones ilegales en DAB+, que además de no abonar las correspondientes tasas anuales de utilización de espectro, están emitiendo en bloques de frecuencias no planificados a nivel internacional para España y fuera de norma en algunos casos, pudiendo llegar a poner en riesgo comunicaciones aeronáuticas y otros servicios relacionados con la seguridad de las personas.

Para garantizar el futuro de la radio a largo plazo, los miembros de FORTA y RTVE manifiestan la necesidad de disponer de un nuevo Real Decreto de radiodifusión sonora digital terrestre que ponga orden, que refleje la realidad de la radio española y que permita incluir a toda la radiodifusión legal actual. Además, expresan su voluntad de colaboración con las administraciones públicas competentes en su concreción y elaboración.

En el marco de ese nuevo Real Decreto, los miembros de FORTA y RTVE piden que se tengan en cuenta sus necesidades a la hora de planificar la digitalización real y efectiva de la radio en DAB+, considerando el futuro desarrollo de servicios lineales adicionales y el espectro disponible. Dichas emisiones en DAB+ deberán ir acompañadas de características adicionales que garanticen una experiencia de usuario de radio rica y dinámica, incluidos datos textuales y visuales asociados a los programas junto con información sobre servicios y programas, según se indica en el comunicado.

DAZN nombra a Oscar Vilda CEO de España y Portugal

El nuevo director ejecutivo procede de Finetwork, donde impulsó el crecimiento de la operadora convirtiéndola en el quinto operador del mercado

DAZN anuncia que Bosco Aranguren, CEO de la plataforma deportiva de streaming en España, dejará la compañía para emprender un nuevo proyecto. Oscar Vilda, exCEO de Finetwork, será quien le sustituya en el cargo a partir del 1 de febrero.

Desde su incorporación en 2022, Aranguren ha desempeñado un papel fundamental en la transformación y el crecimiento del negocio en España, logrando duplicar tanto los ingresos como el número de suscriptores, según pone en valor la compañía. Bajo su liderazgo, se han alcanzado importantes acuerdos de distribución con los principales operadores del país, como Telefónica, Orange, Vodafone, Grupo MásMovil y Avatel, además de alianzas estratégicas con plataformas líderes de entretenimiento como Prime Video y Max. En diciembre de 2023, DAZN España obtuvo la certificación Great Place to Work, un reconocimiento a la cultura de trabajo desarrollada durante su gestión.

Shay Segev, CEO de DAZN Group, ha comentado: «Estamos profundamente agradecidos a Bosco Aranguren

por su dedicación, visión estratégica y compromiso en estos tres últimos años. Aranguren ha sido una pieza clave para la consolidación y crecimiento de DAZN en España y le deseamos el mayor de los éxitos en esta nueva etapa». A partir del 1 de febrero, le relevará Oscar Vilda quien asumirá el cargo de CEO de España y Portugal, aportando su experiencia en la industria para liderar el desarrollo y crecimiento del negocio en ambos mercados.

Vilda se incorpora a DAZN desde Finetwork, donde durante sus casi dos años como CEO impulsó el crecimiento de la operadora convirtiéndola en el quinto operador del mercado. Anteriormente fue director ejecutivo del operador Oredoo Qatar y fue miembro del consejo de la tecnológica catarí Starlink, así como director general comercial en Orange, director general de la Unidad de Negocio de Particulares en Vodafone, y desempeñó diferentes responsabilidades en las áreas comercial y de marketing de compañías de gran consumo como Allied Domecq, Pepsico o Schweppes.

Oscar Vilda, nuevo CEO de DAZN España y Portugal, ha dicho: “Formar parte del proyecto de DAZN, impulsado por la ambición de sus directivos y accionistas de convertir la marca en el hogar global del deporte y en un punto de encuentro para todos los aficionados, es probablemente uno de los retos más ilusionantes que he afrontado en mi carrera profesional. Contribuir a ofrecer respuestas únicas y específicas a las necesidades de un tipo concreto de clientes, de forma transparente y aprovechando la mejor tecnología disponible, hace que este desafío sea aún más apasionante».

Shay Segev, CEO de DAZN Group, ha añadido: “Estamos encantados de dar la bienvenida a Oscar a DAZN, quien aporta más de 30 años de experiencia en los sectores gran consumo y telecomunicaciones en Europa y Oriente Medio. Su experiencia y conocimientos en torno a la marca, la experiencia del cliente y el desarrollo de canales de distribución nos ayudarán enormemente mientras seguimos impulsando el crecimiento del negocio”.

RNE inicia emisiones de DAB+ en Zaragoza

RNE ha iniciado emisiones en DAB+ desde el centro emisor de Cellnex en el Cerro de La Muela, desde donde se proporciona cobertura a la zona metropolitana de Zaragoza. De esta manera, Radio Nacional, Radio Clásica, Radio 3 y Radio 5 se convierten en las primeras emisoras de radio de Aragón en emitir legalmente en DAB+.

Con ello, se ofrece ya la posibilidad de escuchar las emisiones de RNE en DAB+ desde 13 centros emisores

en el estándar que está llamado a convertirse en el sustituto de la FM a largo plazo en Europa. Con la mejor calidad, emisiones en abierto, información complementaria y recepción gratuita.

Para poder escuchar las emisiones de RNE en DAB+ se deberá disponer de receptores específicos.

En lo que se refiere a receptores convencionales y equipos de audio, existe una amplia gama que se comercializa a través de internet. Asimismo, ya se encuentran disponibles en los puntos tradicionales de venta.

Con respecto a los automóviles, disponen de receptor de DAB y DAB+ de serie todos los que se hayan comercializado en la Unión Europea a partir del 21 de diciembre de 2020.

No obstante, algunos ya lo incorporaban de serie o como equipamiento extra anteriormente, por lo que se estima que actualmente hay más de 3,8 millones de automóviles con recepción de DAB y DAB+ en España. Además, existen en el mercado kits adaptadores para recibir estas emisiones en vehículos, así como autorradios nuevos convencionales con DAB y DAB+ para vehículos de cierta edad.

Una vez desplegado en todo el territorio nacional, DAB+ permitirá a Radio Televisión Española la prestación del servicio público de radiodifusión sonora en los términos que actualmente tiene encomendados por ley, proporcionando la máxima cobertura geográfica y social al conjunto de los ciudadanos.

FIFA+ cuenta con Magnite para potenciar la publicidad de la plataforma digital

La empresa publicitaria Magnite ha sido elegida como proveedor programático global de FIFA+, de modo que impulsará la publicidad en vídeo y display de la plataforma digital en las regiones de EMEA, Norteamérica, LATAM y Asia-Pacífico.

FIFA+ aprovechará el paquete de productos de Magnite, que incluye Magnite Streaming, SpringServe y Magnite DV+, para monetizar su contenido a escala mundial y ofrecer una mejor experiencia de visualización a los aficionados. La tecnología de Magnite ayudará a ofrecer publicidad de forma programática en

todos los dispositivos en los que FIFA+ esté disponible para su descarga incluidos móviles, ordenadores de sobremesa y televisores conectados (CTV).

“FIFA+ está satisfaciendo la demanda de los consumidores de contenidos deportivos en directo más accesibles y estamos orgullosos de que nos hayan elegido para ayudar a desbloquear más oportunidades para que los anunciantes lleguen a los aficionados al deporte más apasionados”, ha señalado Sam Wilson, vicepresidente de Streaming Platform para EMEA en Magnite.

“Estamos deseando trabajar estrechamente con los equipos de FIFA+ en todo el mundo —ha continuado Wilson— y apoyar sus esfuerzos para ofrecer una experiencia digital superior a los aficionados al fútbol más entregados”.

La radio municipal de QUER trabaja en digital con el mezclador AEQ CAPITOL IP

Radio Quer nace en 2012 como un proyecto colectivo liderado por Edgard Delgado, concejal de nuevas tecnologías del Ayuntamiento de Quer en Guadalajara – España. Sin ningún límite, de edad o de temas, Radio Quer se ha creado para incentivar la creatividad de la gente joven y no tan joven de la localidad.

Actualmente la dirección técnica del ayuntamiento ha aprobado renovar su estudio principal de emisiones en el vivero municipal de empresas, donde por supuesto la tecnología digital de AEQ ocupa un lugar destacado siendo el corazón de todo el sistema un mezclado ultracompacto AEQ CAPITOL IP por donde pasan todas las señales ahí producidas. Dado el nivel de operadores de la emisora se ha decidido instalar la tecnología AEQ por su robustez, calidad superior de audio digital y sencilla operación.

AEQ CAPITOL IP es una consola de mezcla de Audio Digital de

configuración fija de 8 Canales. En CAPITOL IP la implementación de la conectividad IP se basa en un único módulo de 16 canales de entrada y 16 de salida, incorporado en su chasis. Una de las principales cualidades de AEQ CAPITOL IP es la amplia capacidad de entradas disponible: 4 micro/línea, 12 analógicas, 4 digitales estéreo AES/EBU (AES3), 2 digitales estéreo USB, 2 líneas telefónicas opcionales, y enlaces opcionales de audio multicanal digital; 16 canales AoIP sobre dos conectores ethernet o 64 canales MADI entrada por fibra óptica.

V Edición PREMIOS TM BROADCAST

¡Prepara tu proyecto y participa en los premios que reconocen los trabajos más innovadores en nuestro país!

A partir del 15 de enero de 2025 está abierta la convocatoria de la V Edición de los Premios TM Broadcast.

D ocumentación & plazos

Toda la información relativa a una candidatura debe ser enviada a premios@tmbroadcast.es.

Documentación a entregar con cada candidatura:

› Categoría/s en la/s que se incluye el proyecto. Cada proyecto podrá inscribirse en un máximo de 2 categorías.

› Material gráfico: logo y al menos dos imágenes del proyecto. En alta resolución. También pueden enviarse links a vídeos.

› Sumario: resumen de 100 palabras sobre el proyecto.

› Descripción del proyecto: texto de hasta 3.000 palabras en el que se describa, desde un punto de vista técnico, el proyecto. Puede recoger declaraciones del cliente, partners o cualquier otra persona involucrada en el proyecto. Cuanto más precisa sea esta descripción, más fácilmente entenderá el jurado el alcance y las características del proyecto.

La documentación debe entregarse completa de una sola vez.

El plazo para envío de candidaturas es a partir del 15 de enero de 2025 hasta el 31 de marzo de 2025.

Criterios: los proyectos candidatos deberán haber sido realizados desde el 1 de julio de 2023 hasta diciembre de 2024.

Si no están terminados debe haberse ejecutado al menos un 75% de la totalidad. No podrá presentarse ningún proyecto que haya participado en ediciones anteriores de estos Premios.

C ategorías

› Mejor proyecto de renovación de infraestructuras

› Mejor proyecto de integración de tecnología IP

› Mejor proyecto 5G

› Mejor proyecto radiofónico

› Mejor proyecto postproducción

› Mejor proyecto de innovación

› Mejor proyecto en implementación de inteligencia artificial

› Mejor producción técnica deportiva

› Mejor producción técnica informativa

› Mejor producción técnica de entretenimiento

› Mejor producción técnica en directo

› Mejor producción técnica remota

› Mejor producción técnica de ficción

› Mejor producción virtual

› Mejor integración de archivo

› Mejor proyecto OTT

› Mejor proyecto de centro de formación

› Otros

Para ello, ha contado principalmente con el fabricante alemán LAWO y el integrador Telefónica Servicios Audiovisuales. La puesta en marcha de la infraestructura IP también se ha apoyado en las soluciones de red de CISCO.

José María Casaos, Director de Operaciones y Tecnología de Telemadrid, comenta las razones de este importante desarrollo:

“El año 2024 ha sido el año de implementación del proyecto de Transformación y renovación

Tecnológica de Telemadrid, el

Telemadrid Tecnología eficaz, facilidad de producción

Telemadrid ha terminado de implementar la infraestructura IP en su área de producción de programas. Con la tecnología que ha utilizado y su forma de aplicarla, la televisión autonómica madrileña probablemente es el radiodifusor español que mejor realiza la producción de programas en platós.

Texto: Luis Sanz

cual incluye muchas iniciativas que no solo tienen que ver con la tecnología, sino que también abarcan el cambio cultural y en los procesos de negocio, con el doble objetivo de, por un lado, adaptarse a los nuevos hábitos de consumo de la audiencia, y por otro ayudar a producir contenidos con mayor calidad, y por supuesto, incluir la innovación y la mejora continua en todos nuestros procesos.

Uno de los principales proyectos ha sido la creación e implementación de una infraestructura única y convergente usando

la tecnología IP, con todos sus beneficios, en cuanto a mejora de la calidad y ahorro de costes de las producciones, mayor redundancia y fiabilidad de las infraestructuras, que sin duda contribuirán a la sostenibilidad del servicio público.

Nuestra decisión de ir a una tecnología IP no solo parte de la necesidad de acometer una renovación tecnológica, sino que aporta nuevas funcionalidades, capacidades y mejoras que encajan directamente con la estrategia de transformación digital.

Cuando planificamos nuestra renovación tecnológica, tuvimos claro que nuestra prioridad principal era mantener el servicio actual con más de 12 horas de directo de lunes a viernes, que no puede parar. Hoy en día las necesidades de cara a la producción de programas no solamente requieren gestionar el audio y vídeo de los platós que conforman la señal principal del programa, sino que son necesarias muchas fuentes externas, grafismos, realidades virtuales, aumentadas y extendidas, etc...., que también alimentan pantallas de LED en el plató, así como las diferentes emisiones en otras ventanas de distribución.

En este caso, nos hemos dirigido hacia unos protocolos de tecnología de vídeo SMPTE 2110, el protocolo DANTE de audio (del que ya teníamos experiencia previa en Onda Madrid), y, en paralelo, seguiremos usando otros protocolos IP

que actualmente estamos utilizando en todo tipo de conexiones y vídeoconferencias, como puede ser el NDI, SRT, etc.

La idea era disponer de dos controles en IP, que hemos llamado A y B (a diferencia de los anteriores numerados del 1 al 4) que pudieran dar servicio a cualquiera de los cuatro platós de televisión, pero también a la totalidad del centro de producción donde se puede conectar cualquier equipo como cámaras o micrófonos, y por supuesto anticipándonos a futuros flujos de trabajo con capacidad de producción remota.

Más allá de esta mejora en nuestra operatividad, esta tecnología nos permitirá añadir una nueva capa de innovación que nos abrirá la puerta a nuevas funcionalidades. Por ejemplo, la mejora en la calidad en nuestras producciones con nuevos formatos (HDR, 1080p, etc..), o los nuevos flujos de trabajo

que estamos implementando basados en el motor Unreal de Epic Games, que nos permiten trabajar con realidad virtual, realidad aumentada y realidad extendida, que crecerán con esta transición a IP. Esta infraestructura nos permite no solo gestionar la capa de vídeo y audio, sino toda la capa de datos y control, lo que facilita todos los procesos.”

Conocidas las razones, creemos que es conveniente ver con mayor detalle en qué han consistido las soluciones adoptadas por Telemadrid para mejorar la producción de programas, facilitando enormemente su ejecución.

Para ello, hemos contado con las informaciones facilitadas por el propio CTO José María Casaos, por Pablo de la Peña, Subdirector de Ingeniería y Mantenimiento y por los superusuarios de la plataforma IP de producción.

JOSÉ MARÍA CASAOS Y PABLO DE LA PEÑA

EMPEZAMOS

Para la transición a IP y dentro de la última renovación tecnológica de Telemadrid, se han instalado cámaras y mezcladores de Sony junto con el sistema de producción de programas y automatización de estudio HIVE, mesas de audio digital de Yamaha, la plataforma de grafismo de Avid Maestro y su herramienta de escaleta para la redacción (NRCS) de iNews, o el sistema de monitorado con NEC.

El área de producción de Telemadrid dispone ahora de 2 Controles A y B, 2 platós principales, 1 y 2, dos platós auxiliares, 18 cámaras IP para todos los platós, 18 Unidades de Control de Cámaras CCU, 18 paneles de control remoto de cámaras RCP, 2 sistemas Systel de AEQ con 16 comunicaciones posibles y 10 monitores en cada control, con posibilidad de presentación de hasta 64 pantallas de señal en cada uno.

Para la transición a IP y dentro de la última renovación tecnológica de Telemadrid, se han instalado cámaras y mezcladores de Sony junto con el sistema de producción de programas y automatización de estudio HIVE, mesas de audio digital de Yamaha, la plataforma de grafismo de Avid Maestro y su herramienta de escaleta para la redacción (NRCS) de iNews, o el sistema de monitorado con NEC.

CONTROL A
PLATÓ 2, BUENOS DÍAS MADRID
CONTROL B
PLATÓ 1, 120 MINUTOS

¿Qué supone el cambio del mundo SDI al mundo IP?

Veamos una cadena de cámara. En la estructura SDI, el cable de fibra que conecta la cabeza de cámara con el control, donde está su CCU, contiene todas las señales que se manejan en ambas direcciones: vídeo, audio, intercom, tally, teleprompter, retorno de programa, señal de control de la cabeza de cámara desde la CCU.

En una estructura IP, a todos los recursos, vídeo, intercom, tally, teleprompter, retorno de programa, señales de control de la cabeza de cámara, CCU, RCP (Remote Control Panel), se le asocia una dirección IP. Esos recursos no son solo de esa cámara, sino que son asignables a cualquiera de las otras cámaras.

Y eso ocurre con el resto de los recursos del área de producción: mezcladores de vídeo, monitores de vídeo, mesas de audio, grafismo, videowalls, sistema de comunicación Systel, HIVE, UMD, etc. Todos los recursos tienen una dirección IP asociada y todos son asignables.

Conclusión: En el mundo SDI todo está rígidamente asociado y en el mundo IP todo es asignable, según las necesidades y ahí es donde entran CISCO y LAWO.

CISCO Y LAWO

CISCO soporta toda la electrónica de red de la infraestructura IP, que permite la transmisión, transporte y distribución de todos los flujos multicast y LAWO tiene el core de la instalación IP, con su orquestador VSM que gestiona el control de los flujos IP. CISCO realiza el transporte de

los datos paquetizados y LAWO es el que se encarga de hablar con los distintos dispositivos, para hacer los puntos de cruce entre transmisores y receptores. En una estructura IP (SMPTE 2110), el transporte de la red de media es con fibra y el transporte de datos es con cobre, cable ethernet categoría 6ª en Telemadrid.

La infraestructura IP de CISCO para media instalada es totalmente redundante, estructurada en dos redes idénticas, la red azul y la red roja- Ahí se han conectado todas las fuentes, cámaras, mezcladores de vídeo…”. El sistema se completa con la solución IP Fabric for Media, así como del Cisco Network Dashboard Fabric Controller, responsable de aportar una fotografía en tiempo real de la red y los dispositivos.

Dentro de una estructura IP, todos los recursos tienen una dirección IP y, en un área de producción, los recursos tienen dos, una para la media y otra para el control del equipo., Telemadrid estableció un rango de direcciones IP que se dividió: una parte para la red roja IP, otra para la red azul IP, para las direcciones de media y otra parte para las IP de control de los dispositivos.

En Telemadrid, TSA ha establecido todas las direcciones IP, de media y de control de todos los dispositivos. La configuración de un equipo se realiza entrando en su dirección IP de control a través de un navegador Web, si es la forma de trabajo del equipo, por ejemplo, los equipos Sony. Otros equipos tienen una aplicación propietaria que se instala para acceder a su dirección IP y proceder a su control.

Una señal de vídeo tiene asociada una dirección IP, una señal de audio igual. Esas direcciones IP de media se gestionan mediante unos archivos llamados SDP (Session Description Protocol). Lo que hace un archivo SDP es decirle al receptor de la trama dónde está esa trama, o sea si se quiere mandar a un receptor una señal IP 2110, se manda un archivo SDP y el receptor le dice al transmisor que quiere esa señal. Esa señal, atravesando la red de media, se suscribe al receptor.

LAWO habla directamente con los equipos, no necesita ninguna aplicación, generalmente lo hace a través del protocolo NMOS para los flujos multicast. Cada equipo tiene una dirección pública en NMOS, donde tienen publicados todos sus emisores y sus receptores. LAWO coge la información de ahí o de la lista de protocolos SDPs para la media que publique el equipo y con ello se configura. Para los dispositivos cuyo protocolo no está integrado en su propio servidor, LAWO utiliza un servidor específico, el Gadget Server.

Dentro del área de producción de Telemadrid aún hay equipos que generan señales SDI y que para su control por LAWO necesitan convertirse a IP 2110, “IPerizarse” que dicen sus técnicos. Para ello, LAWO tiene, dentro de la línea de productos V_matrix, el producto C100, que es un módulo de procesado, que puede configurarse para convertir señales SDI a IP, IP a SDI, IP a IP, y también convertir señales HD 1080i a 4k e, incluso operar como un módulo para cargar señales a un multipantalla.

VSM

VSM (Virtual Studio Manager) es un “broadcast controler”, un orquestador de funciones, una solución de control y flujo de trabajo en la transmisión IP, para controlar todos los equipos broadcast en su área de actuación a través de interfaces visuales (paneles) y se puede comunicar con los protocolos de transmisión más utilizados en la industria broadcast.

VSM tiene dos servidores que trabajan en paralelo, si se pierde uno el otro entra automáticamente, por lo que cada vez que se hace un cambio hay que guardarlo y transferirlo a los dos servidores, tienen que ser iguales para que el sistema funcione.

VSM facilita una asignación dinámica de recursos, empezando por las propias cámaras, la CCU, la cabeza de la cámara, el RCP, el telepromter, la intercom, el tally, todo es programable, direccionarle y asignable, así como todos los recursos de gráficos producidos por Maestro de AVID. IP 2110 envía cada señal por

Son ocho los oficiales técnicos electrónicos de Telemadrid que se han tenido que reconvertir a expertos en la nueva tecnología, que son los Operadores Técnicos de Estudios (OTE).

la electrónica de red... Una cámara IP tiene un elenco de direcciones IP de todos esos recursos.

VSM Y LAS CÁMARAS

VIRTUALES

Dentro de las configuraciones de VSM, nace el concepto de cámara virtual, como una caja negra que se va rellenando de los recursos que le asignemos, dentro del pool de recursos disponible en el área. Es una cámara amorfa que tiene todas las funcionalidades que se quiera que tenga.

En el concepto de cámara virtual, por ejemplo, la cámara 1 en el Control se verá en el monitor 1 del puente de monitorado, pero no tiene que ser siempre la misma CCU, se le puede asignar cualquier CCU para que sea la cámara 1 en vídeo, pero por detrás también se le asigna el teleprompter del control al que está asignado, las órdenes de realización para que el realizador cuando hable, hable con esa cámara, el retorno de vídeo y el de audio que tiene el operador abajo, el tally para que cuando

el mezclador pinche se encienda el tally abajo, la intercom, etc. En una palabra, la cámara 1 es virtual, no existe hasta que se le asignen los recursos que le hacen funcionar como cámara, de acuerdo con las necesidades que se establezcan en la producción del programa. Los controles

A y B tienen 10 cámaras virtuales cada uno.

OTE, SUPERUSUARIOS, PANELES

Son ocho los oficiales técnicos electrónicos de Telemadrid que se han tenido que reconvertir a expertos en la nueva tecnología, que son los Operadores Técnicos de Estudios (OTE), sobre los que recae la responsabilidad de las asignaciones de recursos en cada Control y plató, su control y detección de problemas y su solución en un primer nivel.

Los OTE disponen de un panel en cada uno de los dos Controles de un panel de gestión, desde el que pueden acceder a diferentes configuraciones aplicadas a cada Control.

IMAGEN 6 l PRESETS GENERALES OTE CTLB

En la Imagen 6 se reproduce el panel del OTE para el Control B. Se observan las configuraciones a las que se puede acceder: Asignación de Control, Asignación de cámaras virtuales, Under Monitor Displays, Monitorado de señales IP. Monitorado de señales SDI, Grupos de almacenamiento, PRESETS, Control del mezclador de vídeo. Fuente del target, Monitores NEC.

Dentro de cada configuración del panel, aparecen varias acciones y controles a realizar. Precisamente la imagen 6 nos muestra la configuración más importante del panel que es PRESETS. En ella, observamos:

> Acceso a los presets de las cámaras virtuales.

> Acceso a los presets del monitorado, con tres opciones: general, monitorado del fin de semana y monitorado de futbol, dependiendo de la programación de la cadena.

> Configuración del monitorado en realización, producción, sonido y CCU Iluminación.

> Asignación de los cues (telepromters) para la cámara PTZ que se ubica en la redacción de informativos, el plató y el Vmix que se usa para comunicaciones de vídeo con exteriores,

> Configuración de eventos, cuando los hay.

> Asignación de rótulos para los eventos.

> Actuación sobre los sistemas de comunicación Systel 12 o 16.

> Y finalmente los CRUCES DE PLATÓS, que merece una explicación detallada más adelante.

La otra figura fundamental en la producción de programas IP es la del” Supernumerario”, puesto que detentan dos personas en Telemadrid, que estuvieron con TSA desde el principio de la implantación del sistema y son los que le conocen más profundamente y están en condiciones de diseñar e implementar los paneles de VSM. Además de trabajar en la mesa de los Controles A y B, tienen otro puesto en la sala de superusuarios.

La Imagen 7 nos muestra una vista del Panel General de Superusuario, donde se encuentran las configuraciones de primer nivel realizadas con VSM.

En los Controles A y B, aparte de los OTE y los superusuarios solo tienen un panel de VSM los operadores que envían señales SDI a los videowalls, que se controlan por VSM a través del panel.

“HUNDIR LA FLOTA”

8 l VSM HUNDIR LA FLOTA

Este término, acuñado por los técnicos de Telemadrid, alude a la representación de la gran matriz de entradas y salidas de VSM, que recuerda al juego de los barcos. Incluye todo el conjunto de recursos disponibles en el área de producción de programas, sus entradas y salidas, con múltiples representaciones.

La Imagen 8 nos muestra una de ellas, en la que se establecen los puntos de cruce entre CCUs y RCPs

CRUCE DE PLATÓS:

LA GRAN FACILIDAD DE PRODUCCIÓN

Como se observa en el panel del OTE (Imagen 6), figuran dos botones

en Cruces de Platós, 1-MD PLATÓ 1 y 2-TN2 PLATÓ 2. Cada uno de los botones traslada al Control B o la totalidad de los recursos asignados en el Plató 1 para el programa diario MD (Madrid Directo) o la totalidad de los recursos asignados en el Plató 2 para el programa diario TN2 (Telenoticias 2).

IMAGEN

El cruce de platós funciona de forma que se está haciendo un programa, Madrid Directo, en el Control B con el Plató 1. Inmediatamente después, a continuación, se va a emitir el programa informativo TN2 que se produce en el Plató 2 y hay que cambiar todos los recursos asignados al Control B que están en el Plató 1, las cámaras virtuales que ya no son las CCU de 1 a 5, sino las CCU 13 a 18. Con este botón todos los recursos del segundo plató se pasan a este Control B: cámaras, micrófonos, escuchas a plató, retornos de programa, etc., señales en el puente de monitorado, unas cosas

con IP, otras cosas con SDI, otras con DANTE, etc., apretando un solo botón del VSM se cambia todo.

Aprovechando la publicidad entre programas se produce el cambio de parte del personal, unos son “sillas calientes”, como el personal de realización. Los editores tienen dos sitios en el Control, uno para cada programa. Los editores del TN2 ya están sentado en su sitio antes de que termine el MD, probando los recursos del Plató 2 e incluso hablando con los presentadores. Igual pasa con el personal de producción que también están sentados antes de que termine el MD y prueban los directos que

van en el TN2, las llamadas de Systel, prueban el audio, los micrófonos. El operador de sonido es el mismo para el MD y para el TN2, el mezclador de vídeo también es el mismo, el control de cámaras y el de iluminación son los mismos y también es necesario cambiar la gestión del videowall de un plató al otro.

Esta facilidad operativa cambia el paradigma de la producción programas. Nunca fue tan eficaz trabajar en un Estudio de televisión a la hora de producir programas en directo.

PUENTES DE MONITORADO, VIDEOWALLS

Esta facilidad operativa cambia el paradigma de la producción programas. Nunca fue tan eficaz trabajar en un Estudio de televisión a la hora de producir programas en directo.

La Imagen 9 es una representación del puente de monitorado del Control B, tiene 10 monitores, cada uno de ellos presenta varias pantallas y se puede asignar qué es lo que se ve en cada monitor. Cada monitor recibe una señal HDMI que viene de una señal SDI de un equipo LAWO

IMAGEN 9 l CONFIGURACIÓN PUENTE MONITORADO

DMV, específicamente diseñado para puentes de monitorado. Cada uno de estos equipos está sacando 8 señales de vídeo SDI.

Las señales que llegan a los videowalls de LED de los platós son gestionadas por Maestro de AVID, que controla un HDVG, con salidas de vídeo SDI que bajan al plató, para entrar al procesador de vídeo que alimenta las pantallas. VSM se utiliza para asignar las bajadas.

El cambio de todas las imágenes de un panel de monitorado por otras imágenes con un solo botón, se hace en el cruce de platós.

Se entiende por cambio de monitorado el cambiar el tamaño del monitor o el número y/o tamaño de las pantallas que tiene el monitor. El que en las pantallas se vean otras imágenes, no es un cambio de monitorado. Con el cruce de platós, apretando un botón se sustituyen las imágenes (las

del plató 2, por ejemplo, por las del plató 1) de las pantallas de cada monitor, pero la configuración de los monitores del puente de monitorado del control es la misma. La cámara virtual 1 es la cámara virtual 1 siempre y está en el mismo monitor siempre, sin tener en cuenta la CCU asignada.

EL MUNDO SDI: INGESTA, CONTROL CENTRAL, CONTROL DE CONTINUIDAD

CONTROL CENTRAL
INGESTA

El Control Central trabaja solo en SDI. Tiene el control de una matriz SDI de UTAH, 256 x 256 y dispone de un pequeño panel de VSM para ciertas aplicaciones en IP, que manejan sus operadores para monitorar señales exteriores “iperizadas”, ya que el Control es SDI y no podría monitorar señales IP sin la ayuda de VSM.

En la ingesta todas las señales que entran son SDI, provenientes de la matriz UTAH. Son grabadas y los archivos generados se envían a HIVE para su edición posterior en el formato de su servidor. HIVE produce señales SDI que son convertidas a IP 2110 para su ingreso en los Controles de producción.

Especial interés tiene la recepción de señales exteriores provenientes de mochilas 4G/5G, en formato SDI, que ingresan en la matriz UTAH (se pueden recibir hasta 50) y son direccionadas hacía los mezcladores de los Controles de Producción, previo paso por gateways para convertirlas a IP. La matriz UTAH reserva 30 salidas (2 x 15 para los dos Controles) SDI con sus correspondientes gateways. Conocidos los exteriores necesarios para un programa en emisión, desde el Control de producción se le pide al Control Central que asigne las mochilas en uso a determinadas entradas de exteriores en el mezclador.

Por su parte, el Control de Continuidad de emisión recibe las señales SDI desde el Control Central por medio de fibra óptica.

AUDIO

Al inicio del proyecto, Telemadrid disponía de una red digital DANTE para la Intercom, compartida con

la emisora de radio Onda Madrid y apoyada en electrónica de red CISCO, con muy buenas prestaciones.

Por ello, se decidió mantener la red DANTE para la Intercom y ampliarla al uso del resto del audio del área de producción: mesas digitales Yamaha, microfonía Sennheiser, monitorado de audio y comunicaciones con el exterior. Para comunicar la red DANTE con el mundo 2110, se han instalado unos módulos “power core” de LAWO que hacen las conversiones de DANTE a IP 2110.

El sistema de comunicaciones audio con el exterior es el Systel de AEQ, en dos versiones de 12 o 16 llamadas para dar órdenes por teléfono a los cámaras y a los redactores que están haciendo directos en la calle. De la 1 a la 8 son para los redactores. En estas líneas telefónicas está el retorno N-1 de este exterior más una tecla de la intercom para que se puedan dirigir a ellos tanto edición como producción. Las llamadas 9 a 16 son para comunicación con los operadores de cámara.

Estos sistemas no están directamente incluidos en la red IP, tienen que ver con DANTE, pero VSM tiene una interfaz que maneja el DANTE Domain Manager para cambiar las rutas de un entorno a otro.

REALIDAD AUMENTADA

En relación con la realidad aumentada, VSM no realiza ninguna acción directa. Son máquinas de Avid controladas por MAESTRO las que fabrican la realidad aumentada. Son renderizados que se entregan a LAWO, en una señal de vídeo en SDI que mediante un getway se convierte a 2110, para su gestión y asignación.

REFLEXIÓN FINAL

José María Casaos nos ofrece una reflexión final sobre lo que está suponiendo para Telemadrid este profundo cambio técnico-empresarial que ha puesto en marcha.

Telemadrid emprende su nueva etapa en IP entendiéndola como una transición, ya que son muchos los equipos que hay gestionar de una manera más sencilla y eficiente. Entre estos equipos, por ejemplo, figura la pantalla LED del estudio 2 que usan los informativos de la televisión madrileña, o la nueva pantalla de LED que se ha instalado en el plató de Estudio 1 y que da servicio al resto de programas.

Telemadrid se encuentra en la actualidad ante un sistema que aporta “mucha más facilidad” en la configuración de elementos, así como “flexibilidad” en cada proceso. Este salto al IP, por tanto, ha venido acompañado de un proceso orgánico de transición con muchas más ventajas que inconvenientes.

Telemadrid emprende su nueva etapa en IP entendiéndola como una transición, ya que son muchos los equipos que hay gestionar de una manera más sencilla y eficiente

El IP, más allá de la conveniencia industrial en el momento de transformación digital que se encontraba Telemadrid, ha aportado beneficios tangibles tanto a los espectadores y para el propio personal técnico de Telemadrid.

Con relación a la calidad visual de las imágenes que llegan a la audiencia, ha sido posible gracias a un trabajo extraordinario del equipo de iluminación, de control de cámaras y el resto de equipos. Más allá de trabajar con esta nueva red, hemos renovado todas las cámaras y hemos cambiado nuestra infraestructura de iluminación a LED, lo que nos

ha permitido controlar al detalle la temperatura de color y resto de parámetros técnicos, y crear una nueva puesta en escena entre los equipos de realización, mezcladores, dirección de fotografía y control de cámara.

En este sentido también se ha mejorado los flujos de trabajo de grafismos, realidad virtual y aumentada, así como todos los procesos para alimentar con imágenes y videos a las pantallas LED de los platós, que hoy en día son un elemento clave en la realización de sus programas.

El IP también ha sido la oportunidad ideal para redefinir procesos, consiguiendo hitos como una mejora en la captación de las pantallas LED, nuevos movimientos escénicos y decisiones inéditas sobre dirección y realización. Gracias a este trabajo en equipo ya estamos compitiendo con las televisiones nacionales en términos de calidad. La gente ya puede percibir una mejora sustancial en la calidad de las retransmisiones

de todos los programas y esto no es solo gracias a la infraestructura IP, sino a todos los elementos que hemos cuidado al detalle. Los beneficios operativos son especialmente notorios. Por encima de todo, la flexibilidad que aporta el IP junto con el Controlador Broadcast VSM, permite que cada programa pueda tener la configuración de señales deseada, que los equipos puedan escalarse para abordar producciones especialmente complejas o que cada operador pueda seleccionar a través del sistema los elementos a los que accede para cada producción, así como asociar los controles de realización a cualquier estudio o incluso combinar cualquier fuente de sonido e imagen de la infraestructura. Este era un concepto básico del diseño que imaginamos inicialmente en el equipo de ingeniería: el IP debía permitirnos adaptarnos al diseño de cada producción con muchísima mayor flexibilidad.

Ahora casi todo es preproducción y directos. Los 14 operadores de postproducción y grafismo ya son todos grandes grafistas.

El IP también ha sido la oportunidad ideal para redefinir procesos, consiguiendo hitos como una mejora en la captación de las pantallas LED, nuevos movimientos escénicos y decisiones inéditas sobre dirección y realización.

Contemporáneamente al proceso de puesta en marcha de la infraestructura IP, se han acometido otros proyectos de tecnología, como:

> Ejecución y puesta en marcha del proyecto de sustitución del sistema de Propmter de los estudios, 6 licencias para funcionamiento redundante, 15 monitores de 17”, sistemas de operación tanto fijos como inalámbricos en cualquier de los estudios.

> Mejora de la fiabilidad del sistema intercomunicación técnica mediante la adquisición de una matriz de Back-up.

> Adquisición de una mesa de control de iluminación de Backup para aumentar la fiabilidad de los sistemas de iluminación.

> Instalación de una pantalla led de grandes dimensiones en el Plató 1. Compuesta por 6 pantallas, 1 fija y 4 móviles (motorizadas), y 1 de suelo que permite realizar Realidad eXtendida (XR).

> Se ha licitado y adjudicado los servicios de Cabecera y múltiple TDT para la difusión de los programas de Telemadrid y Onda Madrid. Servicios que se han adaptado a la nueva situación tecnológica, marcada por la desaparición de los servicios SD y donde RTVM ha incorporado una emisión HD HDR destinada a mejorar la calidad de visionado para los usuarios de televisores de última generación.

> Adquisición de un sistema automatizado de producción audiovisual para el Estudio 3. Dotando tres cámaras robotizadas y un sistema de gestión que detecta qué persona está interviniendo y elige los planos de cámara más adecuados según criterios previamente establecidos. Este sistema permite la generación de contenidos con destino al área digital de una forma fácil y económica.

> Puesta en marcha de un sistema de codificación y transmisión de video y audio con baja latencia a través de Internet (Tecnología SRT) que permite el envío de señales de retorno y Telepromter a medios de producción en exteriores como unidades móviles, ENG´s y otros.

> Renovación Locutorio eventos externos. Nueva instalación con tecnología SMTE2110 y HD del Locutorio para eventos de exteriores.

Con este paso, ahora sí que sí, Telemadrid afrontará una nueva era, más flexible para el técnico, y mucho más atractiva para el espectador. Nos permitirá no solamente llegar a la audiencia con una mejor calidad y producir con unos flujos de trabajo internos más sencillos, sino que, además, facilitará mucho la capacidad de innovar en todas las áreas de la televisión. Hemos realizado esta inversión que nos permitirá operar mejor durante la próxima década y, a la vez, mejorar el día a día de los flujos de trabajo de nuestra producción actual.

La Revolución en la Monitorización de la Calidad de Vídeo

En la era digital, la calidad del vídeo es un factor crucial para garantizar una experiencia de espectador satisfactoria. Con el aumento exponencial del consumo de contenido en línea, las herramientas para monitorizar y evaluar la calidad del vídeo se han vuelto esenciales. Una de las tecnologías emergentes en este campo es las herramientas de inteligencia artificial de Video-MOS ofrecidas en pago por uso. Pero ¿qué es exactamente Video-MOS y qué ventajas ofrece para la monitorización de la calidad de vídeo?

¿Qué es MOS?

MOS significa "Mean Opinion Score" (Puntuación Media de Opinión) y es una métrica de calidad de vídeo basada en la percepción humana que ha definido la UIT. Una medida utilizada tradicionalmente en la evaluación de la calidad de audio y vídeo. Video-MOS aplica este concepto al vídeo, proporcionando la puntuación que refleja cómo los espectadores perciben la calidad del contenido visual.

¿Cómo Funciona Video-MOS?

Video-MOS evalúa el MOS sin necesidad de referencias al utilizar algoritmos avanzados de inteligencia artificial y aprendizaje automático para analizar el vídeo desde el punto de vista de la calidad de servicio (QoS) como la resolución, la tasa de bits, la compresión, y desde el punto de vista de la calidad de Experiencia (QoE), como los artefactos visuales (pixelación, loudness, blurring, etc).

Estos algoritmos están entrenados con grandes conjuntos de datos que incluyen evaluaciones humanas de la calidad del vídeo. De esta forma, Video-MOS predice con precisión cómo los espectadores percibirán la calidad del vídeo.

Ventajas de Video-MOS en la monitorización automatizada de la Calidad de Vídeo

1. Medida sin referencia: Video-MOS no necesita la imagen de referencia para realizar medidas de calidad, como necesitan otras soluciones en el mercado.

2. Evaluación Precisa y Objetiva: A diferencia de las evaluaciones subjetivas, que pueden variar entre diferentes espectadores, Video-MOS proporciona una medida consistente y objetiva de la calidad del vídeo. Esto es especialmente útil para los proveedores de contenido y las plataformas de streaming que necesitan mantener un

estándar de calidad uniforme para fidelizar a sus usuarios.

3. Detección Temprana de Problemas: Video-MOS permite la detección temprana de problemas como la pixelación, blurring, contraste, brillo, subexposición, el desenfoque o la pérdida de detalles y otros parámetros, que no detectan las soluciones de QoS. Al identificar estos problemas, las empresas pueden tomar medidas correctivas, mejorando la experiencia del usuario.

4. Optimización de Recursos: Al proporcionar una evaluación precisa de la calidad del vídeo, Video-MOS ayuda a las empresas a optimizar el uso de sus recursos. Por ejemplo, pueden ajustar la tasa de bits o la resolución del vídeo para equilibrar la calidad y el ancho de banda disponible, asegurando una transmisión eficiente sin comprometer la calidad.

5. Mejora Continua: Con Video-MOS, las empresas pueden realizar una monitorización 24x7 de la calidad del vídeo y realizar ajustes basados en datos concretos, no en apreciaciones subjetivas de los técnicos, adaptándose a las expectativas cambiantes de los espectadores y las condiciones de la red.

6. Compatibilidad con Diferentes Dispositivos: Video-MOS puede evaluar la calidad del vídeo en una variedad de dispositivos, desde teléfonos móviles hasta televisores de alta definición. Esto es crucial en un entorno donde los espectadores consumen contenido en múltiples plataformas y dispositivos, asegurando una experiencia de alta calidad en todos los frentes.

7. Análisis en Tiempo Real: Una de las mayores ventajas de Video-MOS es su capacidad para realizar análisis en tiempo real. Esto permite a las empresas monitorizar la calidad del vídeo mientras se transmite, proporcionando alertas instantáneas

(e informes) sobre cualquier degradación de la calidad para su análisis.

8. Análisis de archivos: Además del análisis en tiempo real, Video-MOS permite analizar archivos de diferentes formatos para monitorizado de archivos digitales y contenidos creados previamente.

9. Análisis semántico: Video-MOS ofrece la opción de realizar análisis adicionales personalizados mediante herramientas que permiten extraer más información y detalles de los contenidos.

Casos de Uso de VideoMOS

• Plataformas de Streaming: Servicios de streaming, OTT, TDT y plataformas satélite pueden utilizar Video-MOS para garantizar que sus usuarios reciban contenido de alta calidad, independientemente de las condiciones de la red.

• Telecomunicaciones: Estas empresas pueden utilizar Video-MOS para monitorizar la calidad del vídeo en sus redes, asegurando

una transmisión fluida y sin inte rrupciones a los proveedores de contenidos.

• Estudios de producción: pueden emplear Video-MOS para evaluar la calidad de sus vídeos antes de su distribución, asegurando que cumplan con los estándares de calidad esperados por los espectadores.

Conclusión

Video-MOS representa un avance significativo en la monitorización automatizada de la calidad del vídeo, ofreciendo una evaluación precisa y basada en la percepción humana. Sus ventajas, donde destaca la no necesidad de referencias y el uso de la IA, incluyen la detección temprana de problemas, la optimización de recursos y el análisis en tiempo real; y lo convierten en una herramienta fiable y económica para cualquier empresa que intervenga en la transmisión de vídeo. Con los consumos de contenidos actuales, tecnologías como Video-MOS son indispensables para garantizar una experiencia de espectador de alta calidad.

Video-MOS es una empresa española que utiliza su avanzada tecnología de Inteligencia Artificial aplicada al vídeo para ofrecer soluciones y servicios de control de calidad de contenidos audiovisuales, con alertas e informes personalizados para cada cliente, dirigidos a broadcasters, productoras, OTTs y plataformas de contenidos.

www.video-mos.com

SAPEC es una empresa tecnológica española con oficinas en México, que diseña, desarrolla y fabrica soluciones fiables de contribución y distribución de vídeo para entornos broadcast y telecomunicaciones altamente exigentes. Sus soluciones permiten el trasporte del contenido audiovisual con calidad profesional en tiempo real y sin limitaciones ya sea a través de satélite, fibra óptica, IP, radioenlaces…

Sapec es la empresa en la que ha confiado Video-MOS para comercializar sus productos de forma global.

www.sapec.es

Sobre Video-MOS
Sobre Sapec
Conocer el presente es disfrutar del futuro

Producción virtual en broadcast

Estamos en uno de los momentos más importantes en la historia del cine y la televisión Broadcast. Si lo comparamos con lo acontecido en el pasado, es muy posible que los cambios tecnológicos que el sector audiovisual está viviendo en la actualidad sean tan o más importantes, que lo que sucedió cuando se pasó del mudo al sonoro, del B/N al color o de la creación analógica a la digital, entre otros.

La tecnología siempre ha marcado el ritmo en el ámbito del ocio, el entretenimiento, el audiovisual y el espectáculo. Cuando me planteo escribir sobre la producción virtual (PV - Virtual Production -) bajo mis conocimientos, mi experiencia laboral y en el propio camino de la investigación/documentación sobre este tema, me doy cuenta que estamos

en un cambio de paradigma en la producción audiovisual Broadcast/ cinematográfica.

La producción virtual (PV) no es solamente una nueva máquina o equipamiento, un software innovador, una tendencia estética, un movimiento artístico y/o una estrategia comercial ejecutiva. Es claramente

un antes y un después. Mi artículo titulado “Platós Inmersivos LED. Una nueva manera de producción audiovisual” (AV Integración Audiovisual, 22 de Octubre de 2024) es, solamente, la punta de un enorme iceberg, que afecta a lo creativo, lo técnico y lo empresarial dentro del sector audiovisual Broadcast/cinematográfico.

El sector de las transmisiones en directo de TV Broadcast marca el inicio de la producción virtual cuando se generan gráficos en tiempo real y emitido en directo

Por Carlos Medina, Experto y Asesor en Tecnología Audiovisual

Con la llegada de la producción virtual (PV) todo lo que conocemos, hemos estudiado y se ha desarrollado anteriormente en el mundo laboral está cambiando o simplemente ya no vale: tiempos de trabajo, decisiones ejecutivas y creativas, presupuestos, tecnologías utilizadas, perfil de los distintos profesionales inmersos en el propio proceso e, incluso, la forma de consumo del espectador/ público se están modificando.

La producción virtual es el todo, de principio a fin, que va desde el desarrollo de la idea, hasta la obtención de un material audiovisual comercializado (sea acabado por el profesional o contando con la participación de un tipo de espectador cada vez más activo e inmerso en la finalización del producto audiovisual), pasando por una constante actualización en el workflow.

Por tanto, vamos a intentar conceptualizar lo que es la producción virtual dejando abiertas todas las posibilidades que se van a presentar en un breve futuro. La producción virtual es el modo de elaborar material y contenido audiovisual bajo dos únicas premisas: la tecnología digital como elemento dinamizador del proceso en todas las fases existentes y la realización del trabajo en tiempo real.

Esta tecnología digital está presente desde el propio origen del proyecto audiovisual y repercute en el qué se hace, cómo se hace, desde dónde se hace y cómo se quiere disfrutar del material audiovisual acabado (serie de ficción, película, programa de TV…). Supone la integración total del entorno real y del entorno virtual facilitando el propio

devenir del tipo de película y/o programa de TV resultante.

Respecto al trabajo en tiempo real, es definitivo, el desarrollo realizado desde la ingeniería, la robótica, la informática y las comunicaciones. En este sentido, la capacidad de los motores de videojuegos (video game engine), como: Unreal Engine, Unity, Game Maker, UbiArt Framework, CryEngine, Godot… ha permitido tener soluciones y procesamientos de datos más rápidos, que afecta desde lo más artístico o creativo, hasta las cuestiones más complejas en el terreno de la programación.

El sector de las transmisiones en directo de TV Broadcast marca el inicio de la producción virtual cuando se generan gráficos en tiempo real y emitido en directo. Por ejemplo, en programas deportivos o electorales, donde los datos cambian constantemente y los gráficos deben actualizarse en base al propio desarrollo del contenido del programa TV.

La producción virtual no es excluyente, ni limitada, ni tiene fecha de caducidad. Es y serán todas las técnicas y tecnologías que se sumen a la obtención de contenido audiovisual profesional permitiendo varias ventajas frente la producción tradicional:

› Workflow (o Pipelines) no lineal. Las fases de trabajo están completamente integradas, con

dinámicas de equipos multidisciplinares y funcionando en paralelo. Existe la multiubicación con resultados inmediatos de gran calidad técnica y audiovisual. Es mucho más que colocar contenido en una pantalla inmersiva LED para un rodaje cinematográfico o grabación de una programa de TV.

› Ahorro de tiempo y costes. La creación de escenarios, localizaciones y recursos escenográficos visuales sin la necesidad de viajar, construir y/o alquilar.

› Solución tecnológica escalable para distintas envergaduras de proyectos de producción y con un gran abanico de posibilidades narrativas y creativas, ideal para cualquier cliente que quiera hacer un audiovisual de calidad.

› Proceso en tiempo real lo que permite visualizar y experimentar constantemente. Se puede evolucionar y hacer cambios sin grandes consecuencias, permitiendo sumar nuevas ideas en el momento. Un proceso más inmediato, colaborativo, más libre en sus decisiones creativas.

› Integración de todos los recursos posibles con el objetivo de “ver resultados”, desde el guión hasta la comercialización. Por eso, es la

La producción virtual (PV) no es solamente una nueva máquina o equipamiento, un software innovador, una tendencia estética, un movimiento artístico y/o una estrategia comercial ejecutiva. Es claramente un antes y un después.

suma de técnicas (reales/virtuales) y de distintos equipos utilizados como pueden ser dispositivos de captación (tipos de cámaras presencial/remota/automatizada), dispositivos de presentación de imágenes (pantallas/modulares LED), sistemas de visualización y calibración (ACEScg, HDR y OpenColorIO…), equipamientos de generación de contenido visual (hardware y software especializado), técnicas de chroma y escenografía virtual, soluciones y sistemas de rastreo y tracking 2D/3D (Camera Trackers como FreeD -i.e. Mo-Sys, Vive Mars, etc-, Vicon, stYpe, OptiTrack, y EZtrack) y Mapping, sistemas de captura de movimiento de objetos (Motion Sensors), trajes de captura de movimiento (MoCaps), sistemas de captura facial (Facial Capture), y/o distribución de señal y cableado específico.

› Realismo inmediato para los distintos departamentos de creación. Sobre todo en lo relacionado con la interactuación con el reparto de actores/actrices, la atmósfera creada por el director de fotografía, el tipo de contenido imaginado por los productores; y por supuesto, las decisiones del director (realizador) en la puesta en escena. Lo que se conoce como ICVFx (In-Camera Visual Effects) nuevo término usado en producción virtual donde todo el equipo puede ver el efecto final y los efectos especiales en directo, sin tener que esperar a la post-producción, es decir, se muestra delante de la misma cámara o en un ordenador en el mismo lugar y hora de la grabación/ rodaje.

› Cambios, pruebas y ensayos artísticos inmediatos. Un nivel de respuesta adaptativa a las circunstancias y decisiones muy elevado, en temas como la composición visual (encuadres, ángulos, perspectivas…), la colorimetría, la iluminación… Siempre en tiempo real, sin tener que esperar por ajustes en la postproducción.

› El falso directo como método de trabajo único y válido para obtener mayores ratios de productividad. Entendiendo ese falso directo como la generación de material válido en el mismo momento de su creación y que en ocasiones, también puede ser “en vivo y en directo” cuando haya un público/espectador/audiencia que lo disfrute a la vez que se produce, por ejemplo un programa de TV.

› Solución tecnológica retrocompatible. Una producción virtual está permitiendo poner en funcionamiento todos los modelos de producción, desde la presencial o local (in situ/on site) –más tradicional y conocida por todos nuestro lectores – hasta la remota (off site) o a distancia (REMI-Remote Integration Model); pasando por producción on line, la híbrida/mixta y la producción automatizada/asistida.

› Altos niveles de retorno, a pesar de que la producción virtual supone una fuerte inversión económica. También, los primeros trabajos audiovisuales aplicando producción virtual están dando un espectacular resultado creativo, técnico y artístico.

La producción virtual (PV) ha modificado las cuatro fases tradicionales de la producción audiovisual incorporando nuevos procesos muy especializados en cada una ellas

La producción virtual (PV) ha modificado las cuatro fases tradicionales de la producción audiovisual incorporando nuevos procesos muy especializados en cada una ellas (fuente: https://www.unrealengine.com/):

1. PREPRODUCCION. La PV permite básicamente la VISUALIZACION (VIS/VIZ) de un contenido en el complejo proceso de crecimiento creativo con la capacidad de ser mostrado de una forma más fiel, realista y precisa. Esto facilita la toma de decisiones:

1.1. Pitchvis. Es una forma de previsualizar contenido para conseguir la aprobación del proyecto en los momentos de presentación (pitching) hacia posibles agentes inversores y/o empresas de financiación.

1.2. Previs: A partir del guión, el objetivo es ofrecer una referencia visual de lo que se deberá rodar en directo. Es la versión renovada de los dibujos de viñetas – storyboard– y un animatic, es decir, utilizando imágenes generadas por ordenador (CGI). La ventaja es que permite a los cineastas experimentar con diferentes opciones de puesta en escena, los personajes y sus elementos (props) y dirección de arte, como iluminación, ubicación y movimiento de la cámara, dirección de escena y edición, sin incurrir en los mayores costos de producción real. Pueden hacer falta cámaras virtuales o Vcams.

En otros entornos, más propios de la animación, se habla de Layout, que son los responsables de la puesta en escena (staging), el establecimiento y la colocación de la acción de cada secuencia (scouting).

1.3. Stuntvis (o diseño de acción). Combina las fases de previs y techvis para las secuencias de acción y las acrobacias físicas. Se necesita un alto grado de precisión para que los diseñadores de acción puedan coreografiar las tomas con exactitud, puedan disfrutar de una mayor participación creativa y garanticen un nivel de seguridad elevado para los dobles y los especialistas de escenas de riesgo. Suele ser guiado por el coordinador de especialistas o el coreógrafo de acción.

1.4. Techvis. Nos va a permitir visualizar y determinar los equipamientos técnicos exactos en relación a las decisiones tomadas sobre lo real y lo virtual antes de comprometer el equipo y el material necesario del rodaje (cámaras, grúas y rigs de control de movimiento) o cuando se habilite el set de grabación.

Es muy útil para ver la viabilidad del diseño de los planos dentro de una localización específica (por ejemplo, dónde irá la grúa, o incluso si cabrá en el decorado), así como los bloqueos que impliquen elementos virtuales. También se puede usar para determinar la cantidad de decorado físico que se necesita en vez de extensiones del decorado digital. Como novedad, la presencia desde el comienzo del proyecto de nuevos perfiles profesionales dedicados a la generación de contenidos virtuales como puede ser el departamento de Arte Virtual (VAD), así como operadores/creadores/artistas de Pitchvis, Previs… e incluso riggers, moldeadores, lighter, entre otros.

2. PRODUCCION. La PV siempre en tiempo real permite crear un espacio de trabajo (el rodaje o set de grabación) donde se combina un entorno real con un entorno virtual diseñado y adaptado a la historia que se quiere mostrar. Aparecen nuevos procesos de trabajo:

2.1. Live Action. Es el proceso donde interviene una cámara que realiza la filmación/grabación de la imagen real.

2.2. Live Compositing (composición en directo o simulcam). Gracias a esta técnica, los directores pueden ver durante el rodaje los elementos gráficos por ordenador compuestos sobre la acción real, lo que les permite hacerse una mejor idea de qué tipo de contenido se está capturando.

2.3. Exploración virtual. Permite a los principales miembros del equipo creativo (como el director del proyecto, el cinematógrafo o el diseñador de producción) revisar una localización virtual dentro de la realidad virtual (RV), gracias a la posibilidad de sumergirse en el decorado y hacerse una idea real de la escala.

También facilita el diseño de escenografía y decorados especialmente difíciles y coreografiar escenas complejas: los recursos digitales se relacionan con el entorno a escala humana.

2.4. Green Screen. La reconocida pantalla verde para realizar chroma key.

2.5. LED Wall Inmersive. Esta instalación es una gran pantalla compuesta por multitud de módulos LED de forma continua, que permiten generar fondos, imágenes, videos envolventes llegando a los 360º con un alto nivel de realismo (hiperrealismo). Es decir, se mantiene la esencia grabar/rodar en vivo las imágenes que se presentar en las pantallas LED junto con otros los recursos clásicos del cine/televisión como pueden ser: el elenco de interpretación (protagonista, grupo de actores/actrices, presentador/a), la iluminación (efecto día, efecto atardecer,…), el equipo de cámara, atrezzo, vestuario, la captación del sonido, entre otros. Esta combinación de tecnología LED y escenografía real también se la conoce como Stargecraft.ICVFx (In-Camera Visual Effects). Las escenas en tiempo real son interactivas y en directo, y se mueven en relación con la cámara para crear un efecto de paralaje realista para que todo aparezca con la perspectiva correcta.

La PV siempre en tiempo real permite crear un espacio de trabajo (el rodaje o set de grabación) donde se combina un entorno real con un entorno virtual diseñado y adaptado a la historia que se quiere mostrar.

2.6. AI Background Removal. Proceso y técnica que elimina el fondo de cualquier vídeo a través de sistemas de Inteligencia Artificial (IA): Goodbye GreenScreen y Robust Video Matting, son algunas de las tecnologías para Background Removal.

2.7. Postvis. Tiene lugar después del rodaje físico. Se utiliza cuando a una toma se le van a añadir efectos visuales, pero estos aún no están acabados (o, en algunos casos, ni siquiera se han empezado a crear). La postvisualización o postvis puede trasladar la visión de los directores al equipo de efectos visuales, así como ofrecer una versión más precisa de cualquier plano de efectos visuales sin finalizar para que el editor pueda realizar el montaje. En esta fase a los habituales profesionales propios de un rodaje o grabación se suman un conjunto de técnicos especialistas con las disciplinas propias de un entorno virtual en conjunción con el entorno real.

Son tantos los cambios y novedades que vienen con la aceleración de la producción virtual (PV) que tenemos que actualizar ya a día de hoy la propia denominación, y referirnos a ella como VPxR, término que hace referencia a la producción virtual utilizando tecnologías de realidad extendida (XR), que integran elementos físicos y digitales en tiempo real en todo el proceso de producción audiovisual.

XR es el término que agrupa tecnologías como la realidad virtual (RV), la realidad aumentada (RA) y la realidad mixta (RM), que combinan entornos físicos y digitales para ofrecer experiencias inmersivas al público/espectador.

Es fundamental el supervisor de Producción Virtual, el especialista en Captura de rendimiento, VFX Supervisor, Técnico/Grip de imágenes virtuales (VIT), entre otros.

3. POSTPRODUCCION. Sigue con la base de la producción tradicional para llegar a un acabado de la imagen, de los efectos, de la banda de sonido, pero con muchas decisiones ya tomadas por la intervención de la PV y con flujos de trabajo más complejos dado que se ha abierto el abanico del modo de consumir los trabajos audiovisuales por parte del espectador/público.

4. COMERCIALIZACIÓN. La PV abre un gran abanico de tipologías de productos a consumir y formas diferentes de disfrutar para el público/espectador buscando una mayor participación e interactividad entre el audiovisual, la realidad y una experiencia más inmersiva.

4.1. RV (Realidad Virtual)

4.2. RA (Realidad Aumentada)

4.3. RM (Realidad Mixta)

Los profesionales que se han dedicado a la animación visual (2D/3D), al desarrollo de videojuegos, a la generación de efectos visuales (VFX) están muy acostumbrados a esta terminología y los procesos arriba indicados, pero somos el resto de profesionales del sector audiovisual (TV Broadcast y Cine) los que tenemos que asumir que la producción convencional está desapareciendo.

A los perfiles profesionales conocidos y puestos en práctica en la producción tradicional se suman una serie de especialistas propios de la producción virtual (PV) como: Environment Artist, Character Artists, Technical Artists, Programador, Stage Operator, Previs & Production Designer,…

XR es el término que agrupa tecnologías como la realidad virtual (RV), la realidad aumentada (RA) y la realidad mixta (RM), que combinan entornos físicos y digitales para ofrecer experiencias inmersivas al público/espectador.

En 2009, miembros de ASC, ADG, PGA, ICG y VES formaron el Comité de Producción Virtual. Este comité compartió estudios de casos sobre proyectos de cine y televisión que aprovechan la producción virtual y produjo muchas de sus definiciones iniciales.

En 2019, “The Virtual Production Field Guide” -2 volúmenes- de Epic Games (creadores de Unreal Engine) fue la publicación de cabecera para entender lo que ha sucedido y porque estamos donde estamos en el 2025. Una constante forma de producir contenido audiovisual que todavía tiene que vivir momentos de incertidumbre y aprendizaje, si a la producción virtual le sumamos otros como la computación en la nube

(Cloud Computing), la inteligencia artificial (IA) generativa/control y la comunicación en tiempo real (5G).

En 2024, aparece “Libro Blanco de la Producción Audiovisual Virtual en España” (A.A.V.V.; Editorial Aranzadi S.A.U. / Spain Film Commission / Ministerio para la Transformación Digital y de la Función Pública – Gobierno de España) donde ya se habla de poder alcanzar el “Final Pixel” en cámara, es decir que no haya un proceso de postproducción posterior (como a día de hoy conocemos) gracias a la producción virtual.

Son tiempos de grandes cambios en la industria audiovisual, que solamente pueden llevar al éxito a través de una constante innova-

ción, una formación permanente y especializada y un trabajo en equipo multidisciplinar altamente coordinado. Es evidente la necesidad de centros de formación audiovisual próximos a la realidad productiva que preparen a los técnicos para el presente más inmediato, dado que la tecnología genera cambios en el sector profesional a gran velocidad.

La producción clásica (la más tradicional) y la virtual van a coexistir como ya conocemos en el presente; pero es necesario entender los cambios y asumirlos como profesionales del sector audiovisual y principales agentes del contenido audiovisual para disfrutar del futuro.

Son tiempos de grandes cambios en la industria audiovisual, que solamente pueden llevar al éxito a través de una constante innovación, una formación permanente y especializada y un trabajo en equipo multidisciplinar altamente coordinado.

¿ ?

Con qué calidad se perciben los contenidos audiovisuales emitidos a través de la TDT en España

La TDT en España

En España, la Televisión Digital Terrestre (TDT) proporciona una amplia cobertura que se extiende al 98% del territorio nacional [1], facilitando acceso público y gratuito a la población. Este alto nivel de cobertura posiciona a España entre los países de Europa con los índices más altos de uso y adopción de esta tecnología. Aunque las plataformas de streaming han incrementado su popularidad, la TDT continúa siendo esencial en el ámbito audiovisual al permitir que millones de personas disfruten de contenidos audiovisuales de muy alta calidad sin coste adicional por el pago de una suscripción a una línea de banda ancha.

La evolución de la TDT en España sigue siendo crucial para mantenerse al día con las expectativas cambiantes (y cada vez más exigentes) de los espectadores, y para seguir siendo una alternativa competitiva frente a las plataformas de streaming y televisión de pago. En febrero de 2024, todas las transmisiones de canales de televisión adoptaron la Alta Definición (HD, High

Definition), provocando un cambio muy notable en el avance de la calidad audiovisual. Este significativo cambio en las emisiones de televisión no solo mejora la calidad visual percibida, sino que también facilita la integración de nuevas tecnologías y servicios, y la aparición incluso de canales de televisión en Ultra Alta Definición (UHD, Ultra High Definition) o 4K, con una experiencia visual más inmersiva y detallada [2]

Según lo referido anteriormente, a partir de febrero de 2024 todas las emisiones de televisión en la TDT en España son en HD, salvo el canal de televisión La 1 UHD que se transmite con resolución 4K. Según refleja el Plan Técnico Nacional de la Televisión Digital Terrestre, establecido por el Real Decreto 391/2019 (BOE nº151, del 25 de junio de 2019) [3], todos los canales de televisión cumplen con las mismas especificaciones técnicas: resolución de 1920x1080 píxeles, 25 imágenes por segundo en formato entrelazado y espacio de color siguiendo la recomendación ITU-R BT.709 [4]. Aunque para la compresión del vídeo se utiliza el estándar de codificación

En

febrero de 2024, todas las transmisiones de canales de televisión adoptaron la Alta Definición (HD, High Definition), provocando un cambio muy notable en el avance de la calidad audiovisual.

H.264/MPEG-4 AVC (Advanced Video Coding), la velocidad binaria con la que se emite cada uno de los canales de televisión no queda prefijada, si no que puede variar en función de la complejidad del contenido y las decisiones propias que apliquen cada uno de los radiodifusores, y esto afecta a la calidad con que se perciben los canales.

El estándar empleado en España para la transmisión de la TDT es DVB-T (Digital Video BroadcastingTerrestrial), el cual también ha sido adoptado por más de 110 países de todo el mundo, entre los que se encuentran todos los Estados miembro de la Unión Europea. El estándar DVB-T utiliza la modulación COFDM (Coded Orthogonal Frequency Division Multiplexing), que no solo incrementa la robustez a interferencias y a ecos, sino que también posibilita transmitir múltiples canales de televisión y servicios dentro de una misma banda de frecuencia. Actualmente, la capacidad máxima

de cada múltiple de TDT en España, haciendo uso del estándar DVB-T, es de 19,91 Mbps. Esta capacidad máxima se obtiene de utilizar un ancho de banda de 8 MHz (denominado múltiple), con configuración en modo 8K de FFT (Fast Fourier Transform), modulación 64-QAM (Quadrature Amplitude Modulation), intervalo de guarda de 1/4, y FEC (Forward Error Correction) de 2/3 [5]. La capacidad máxima de los múltiples se tiene que repartir entre todos los servicios y canales de televisión que formen parte cada uno de ellos.

En España, la TDT se compone de un total de siete múltiples nacionales principales: RGE1, RGE2, MPE1, MPE2, MPE3, MPE4 y MPE5. Además de estos múltiples nacionales, cada comunidad autónoma cuenta con un múltiple autonómico (múltiples MAUT), destinado a la emisión de canales locales o regionales. El Plan Técnico de la TDT en España establece las normas sobre la organización del espectro radioeléctrico

y la gestión de los diferentes múltiples de TDT. Según este plan, cada múltiple tiene capacidad para transmitir un máximo de cuatro canales de televisión en HD. Actualmente, este principio se cumple, ya que todos los múltiples cuentan con cuatro canales HD, excepto el múltiples RGE2 que dispone de dos canales HD y un canal UHD. La siguiente figura muestra los diferentes canales de televisión HD en cada uno de los múltiples. Los datos del múltiple MAUT, así como los datos de canal y frecuencia corresponden con las emisiones de TDT en la comunidad de Madrid, lugar donde se ha llevado a cabo este estudio.

Cada múltiple tiene capacidad para transmitir un máximo de cuatro canales de televisión en HD.

Canales de televisión HD por múltiples. Datos de TDT en la comunidad de Madrid.

Nuestro estudio

Una vez detallado el estado actual de las emisiones de la TDT en España, cabe preguntarse con qué calidad percibida se están emitiendo los diferentes canales HD de televisión. ¿Es esta calidad suficiente para cumplir con las expectativas de los espectadores?

Para responder a estas preguntas se ha llevado a cabo un estudio que ha evaluado todo el contenido televisivo transmitido durante una semana completa (24 horas, 7 días de la semana desde el 10 al 17 de octubre de 2024), en los ocho múltiples recibidos en la Comunidad de Madrid. La recepción de la TDT y el procesamiento de los datos ha sido posible gracias al equipamiento profesional que tiene el Grupo de Aplicación de Telecomunicaciones Visuales en la Escuela Técnica Superior de Ingenieros de Telecomunicación de la Universidad Politécnica de Madrid, en Ciudad Universitaria.

El estudio realizado incluye datos de calidad subjetiva, percibida de forma personal por el usuario, velocidades binarias, nivel de complejidad de los contenidos y tipo de programa emitido en la parrilla de programación de cada uno de los canales de televisión. Debido a que la información proporcionada puede ser sensible, los resultados de calidad se presentan de manera anónima y aleatoria, tanto para los múltiples como para los canales de televisión dentro de cada uno de los múltiples.

Toda la información de este estudio se ha obtenido con la herramienta comercial de Video-MOS [6], una solución basada en inteligencia artificial que incluye un conjunto amplio de parámetros de señal audiovisual y de métricas de vídeo sin referencia utilizadas para la evaluación de la calidad de la experiencia (QoE, Quality of Experience), en contenidos audiovisuales en tiempo real, difundidos a través de diferentes plataformas y redes de comunicaciones, así como la detección y cuantificación de distorsiones típicas y específicas producidas a lo largo de toda la cadena audiovisual, desde la adquisición del contenido hasta la reproducción final en el dispositivo del usuario.

La herramienta Video-MOS ofrece la información de calidad con valores comprendidos en el rango numérico de 1 a 5 en escala de MOS (Mean Opinion Score), de acuerdo con la recomendación ITU-R BT.500 [7]: 1-Malo, 2-Mediocre, 3-Aceptable, 4-Bueno y 5-Excelente. Además del valor de MOS, la herramienta también ofrece información relacionada con la velocidad binaria del contenido, el cálculo de métricas de vídeo como la información espacial (SI, Spatial Information) e información temporal (TI, Temporal Information) y las etiquetas de la EPG (Electronic Program Guide), entre otros datos.

El análisis de las métricas de vídeo relacionadas con la información espacial e información temporal

definidas en la recomendación ITU-T P.910 [8] permite determinar el nivel de complejidad del contenido audiovisual. Del mismo modo, el análisis de la EPG permite extraer el tipo de contenido del programa emitido en los diferentes canales de televisión, de acuerdo con la norma ETSI EN 300 468 [9] donde se definen las especificaciones de la EPG propia de la TDT en España.

La EPG en España: un caso pendiente

La normativa vigente en España subraya la importancia de etiquetar y describir correctamente los contenidos en las emisiones de TDT para garantizar el acceso a la información y fomentar la accesibilidad. La Ley General de la Comunicación Audiovisual (Ley 7/2010, modificada en 2022) [10], en su artículo 98, obliga a los operadores a cumplimentar adecuadamente los descriptores en las Guías Electrónicas de Programas, asegurando así que los receptores muestren información precisa sobre los contenidos emitidos. Sin embargo, como se observa en las gráficas analizadas, muchos radiodifusores no cumplen con estas obligaciones. Ni etiquetan ni describen, en muchas ocasiones, los contenidos. Este incumplimiento, considerado una infracción leve según el artículo 159 de la misma ley, afecta directamente la experiencia del usuario, dificultando el acceso a una información clara y estructurada sobre la programación.

Cantidad de programas (en %) sin etiqueta (tipo de contenido Undefined content) por múltiples y por canal de televisión.

Cantidad de programas (en %) sin descripción por múltiples y por canal de televisión.

La falta de etiquetado y descripción adecuada limita el acceso a una información completa sobre los contenidos, afectando la experiencia de los usuarios. Mejorar estos aspectos es fundamental para cumplir con los objetivos de accesibilidad y calidad en la TDT.

Como se puede observar en las figuras, hay múltiples en los que no se etiqueta ni un 10% del contenido. En casi todos los múltiples la norma es no etiquetar, únicamente 3 de los 8 etiquetan más de la mitad de su programación. Tampoco se incluye descripción de los contenidos en una gran cantidad de programas, llegando a ser más de tres cuartas partes del contenido para dos múltiples enteros. La falta de etiquetado y descripción adecuada limita el acceso a una información completa sobre los contenidos, afectando la experiencia de los usuarios. Mejorar estos aspectos es fundamental para cumplir con los objetivos de accesibilidad y calidad en la TDT.

¿Con qué calidad se están emitiendo los canales de televisión en la TDT en España?

La calidad media de la TDT en España, medida en este estudio, teniendo en cuenta los ocho múltiples, es de 3.18. Este valor de MOS obtenido se sitúa por encima de 3, suponiendo una calidad aceptable en escala de MOS. Esta calidad media no es constante para todos los múltiples ni lo es entre los canales dentro de un mismo múltiple, si no que depende de muchos factores, algunos de los cuales se exploran a continuación.

Distribución de los valores medios de MOS de los programas de los distintos múltiples (anonimizados).

Las cajas representan los valores de MOS desde el 25% al 75%. La línea en el centro de la caja es la mediana estadística, y las líneas que salen de la caja representan los valores máximos y mínimos de MOS excluyendo valores atípicos.

¿Con que velocidad binaria se están emitiendo los canales de televisión en la TDT en España?

La velocidad binaria no es constante a lo largo de una jornada. Depende de muchos factores, entre otros: la complejidad del contenido, el tipo de contenido que se retransmite y la velocidad binaria de los demás canales del múltiple. En muchas ocasiones, un canal dentro del múltiple

tiene proporcionalmente más velocidad binaria que el resto, porque es más importante o porque emite contenidos más complejos (directos, deportes, etc.). La velocidad binaria media del vídeo de retransmisión en este estudio fue de 4.39 Mbps. Esto deja un margen de casi 600 Kbps con respecto a la velocidad binaria resultante de un reparto equitativo, a grandes números, entre los canales de un mismo múltiple. Esto se hace para tener espacio para

imprevistos debido al reparto dinámico del ancho de banda, para los canales de audio, para los canales de radio y para la señalización de los diferentes canales dentro del múltiple.

¿Qué nivel de complejidad tienen los contenidos emitidos en los canales de televisión en la TDT en España? ¿Guarda relación con el tipo de contenido?

Velocidades binarias según el múltiple y el canal (anonimizados).

Puede observarse como para muchos múltiples hay canales con más velocidad binaria generalmente (Canal A en el múltiple A, por ejemplo), y hay canales para los que se reserva menor velocidad binaria constantemente (canales B en los múltiples C, F, G y H, por ejemplo).

El múltiple RGE2 se ha omitido dado que es identificable al ser el único con dos canales.

El reparto automatizado de la velocidad binaria dentro de un múltiple se realiza empleando multiplexación estadística, que codifica los contenidos con una velocidad binaria que depende de factores como la complejidad espacial, temporal y/o ajustes predefinidos por los propios radiodifusores. Observando los datos de este estudio se puede ver que la métrica más

relacionada con la velocidad binaria es la complejidad temporal (con un índice de correlación de más del 0.7). La complejidad espacial, sin embargo, no se relaciona mucho con la velocidad binaria. Esto puede ser indicativo de que los codificadores son más eficientes considerando las diferencias entre píxeles dentro de un mismo fotograma que entre fotogramas consecutivos.

Distribución de las complejidades temporales (izquierda) y espaciales (derecha) medias en función de la velocidad binaria media de los contenidos analizados. En rojo se dibuja la relación lineal calculada entre las dos variables. Cuanto más abrupta la pendiente, más pronunciada la relación.

¿Guarda relación la complejidad con el tipo de contenido?

Como acaba de explicarse, la complejidad temporal es la variable más relacionada con la velocidad binaria asignada a un programa. Esta complejidad temporal depende del contenido que se retransmite, por lo que si hay canales que retransmiten muy a menudo contenidos más sencillos (dibujos animados, películas) dentro de un mismo múltiple, estos recibirán menos velocidad binaria de manera consistente. Viceversa, con contenidos más complejos (concursos o deportes, por ejemplo), más velocidad binaria.

Distribución de los programas según su tipo (según sus etiquetas de la EPG) y su complejidad.

De izquierda a derecha las gráficas presentan la complejidad de menor a mayor. En rojo se puede observar cómo los programas infantiles son una mayor proporción del contenido sencillo y esta proporción va bajando conforme aumenta la complejidad. En verde se ve como en la dirección opuesta, al aumentar la complejidad aumentan los contenidos de concursos.

¿Guarda relación la complejidad del contenido con el valor de MOS?

Se acaba de describir cómo la complejidad temporal es el indicador más potente a la hora de distribuir la velocidad binaria. ¿Es esta complejidad indicadora también de contenidos con un valor mejor o peor de MOS? A pesar de aumentar la velocidad binaria con la complejidad, los codificadores pueden no llegar a codificar con calidad adecuada y, por tanto, producir contenido con calidades subjetivas bajas cuando

la complejidad es muy alta. Como muestra la siguiente figura, este es el caso. A mayor complejidad temporal, más cantidad de programas con valores de MOS inferiores a 3 (mediocres y malos) hay.

¿Guarda relación el valor de MOS con la velocidad binaria?

La velocidad binaria, como se ha explicado anteriormente, está íntimamente relacionada con la complejidad temporal del contenido emitido. Por tanto, al evaluar la

Cantidad de programas con valores de MOS menor de 3 según la complejidad temporal del contenido.

La velocidad binaria y la calidad están relacionados como cabe esperar: para contenidos de complejidad equivalente, cuanta más velocidad binaria, más calidad.

relación entre calidad subjetiva y velocidad binaria, estamos evaluando de manera indirecta la relación entre calidad y complejidad. Por tanto, si se evalúa la relación entre la calidad y la velocidad binaria sin haber tenido esto en cuenta, se obtiene un resultado casi paradójico: a mayor velocidad binaria, peor calidad subjetiva. Si, en cambio, corregimos este análisis fijando la complejidad del contenido, obtenemos resultados mucho más intuitivos. La velocidad binaria y la calidad están relacionados como cabe esperar: para contenidos de complejidad equivalente, cuanta más velocidad binaria, más calidad.

Según los datos obtenidos de este estudio, la calidad con la que se están emitiendo los canales de televisión en la TDT en España ¿es suficiente para cumplir con las expectativas de los usuarios?

Para responder a esta pregunta, es interesante conocer lo que especifica la normativa europea: la norma EBU R.132 [11] establece el valor de 3 (aceptable, en escala de MOS), como el límite de calidad aceptado para contenidos HD en televisión. Utilizando este dato como valor umbral para determinar si la calidad es suficiente o no es suficiente para cumplir con las expectativas de los usuarios, muchos canales de la TDT española emiten más de un 30% de su contenido con calidades malas. En algunos casos extremos, más de la mitad de la programación de la parrilla se emite con calidades mediocres o malas.

Porcentaje de programas con calidades medias que incumplen la norma EBU R.132 por canal y múltiples (anonimizado, omitiendo RGE2).

Muchos canales de la TDT española emiten más de un 30% de su contenido con calidades malas. En algunos casos extremos, más de la mitad de la programación de la parrilla se emite con calidades mediocres o malas.

La manera en la que se están emitiendo los canales HD, por tanto, no es adecuada desde el punto de vista de la calidad subjetiva de los usuarios. Ya se ha explicado que la relación entre velocidad binaria y calidad para una misma complejidad es directa: a más velocidad binaria, más calidad. Por tanto, la velocidad binaria disponible no es suficiente, no se está repartiendo de manera apropiada o ambas cosas, para la complejidad de los contenidos

Referencias

retransmitidos. Con la llegada de contenidos retransmitidos en 4K la complejidad se va a incrementar, por lo que el problema solo va a crecer. En este sentido, cabe preguntarse si el nuevo plan técnico de la TDT, en gestación en estos momentos, debería hacer referencia a resoluciones 4K exclusivamente al referirse a la evolución a UHD, o más bien debería hacer referencia evolucionar a señales según el estándar ITU-R BT.2100 [12], que habla de evolucionar a señales con alto rango dinámico (HDR –High Dynamic Range), color ampliado (WCG – Wide Color Gamut), alta tasa de refresco de cuadro (HFR – High Frame Rate), audio mejorado (NGA –Next Generation Audio) y resoluciones mayores, desde HD a 4K u 8K. Todo lo anterior es lo que trae de mejora la UHD, no sólo resolución. Realizando una migración a señales según la norma anterior facilitaríamos la evolución de cada radiodifusor progresivamente, mejoraríamos las características de la señal, y permitiríamos que la calidad percibida fuera mejorando con las nuevas generaciones de los codificadores,

[1] https://television.digital.gob.es/TelevisionDigital/ TDT/Paginas/tdt.aspx

[2] https://television.digital.gob.es/ayuda-ciudadano/ sala-prensa/Paginas/por-fin-llega-el-4k-para-todaespana.aspx

[3] https://www.boe.es/diario_boe/txt.php?id=BOE-A-2019-9513

[4] https://www.itu.int/dms_pubrec/itu-r/rec/bt/R-RECBT.709-6-201506-I!!PDF-E.pdf

[5] https://www.etsi.org/deliver/etsi_en/300700_300799/ 300744/01.06.02_60/en_300744v010602p.pdf

[6] https://www.video-mos.com/

las inversiones progresivas en in fraestructuras, y no obligaríamos a compresiones excesivas en múltiples que, en estos momentos, ya tienen di ficultades para comprimir 4 canales.

El futuro de la TDT en España requiere una evolución tecnológi ca que garantice la calidad de las retransmisiones y se adapte a las de mandas de los usuarios. Para alcan zar este objetivo, es imprescindible mejorar la asignación de la veloci dad binaria, asegurando que sea sufi ciente para la complejidad creciente de los contenidos, especialmente con la expansión de emisiones en UHD. Además, se hace necesaria la adopción de estándares más avan zados, como DVB-T2, que permiti rían incrementar la capacidad de los múltiples y facilitar la transmisión de contenidos con mayores requisitos de calidad. Junto a esto, la actua lización de los estándares de codi ficación de vídeo sería clave para optimizar el uso del espectro y ga rantizar que la TDT continúe siendo una plataforma competitiva y atrac tiva para los espectadores.

[7] https://www.itu.int/dms_pubrec/itu-r/rec/bt/R-RECBT.500-15-202305-I!!PDF-E.pdf

[8] https://www.itu.int/rec/dologin_pub.asp?lang=e&i d=T-REC-P.910-202310-I!!PDF-E&type=items

[9] https://www.etsi.org/deliver/etsi_en/300400_300499 /300468/01.17.01_20/en_300468v011701a.pdf

[10] https://www.boe.es/buscar/pdf/2022/ BOE-A-2022-11311-consolidado.pdf

[11] https://tech.ebu.ch/files/live/sites/tech/files/share d/r/r132.pdf

[12] https://www.itu.int/dms_pubrec/itu-r/rec/bt/R-RECBT.2100-2-201807-I!!PDF-E.pdf

Sony PXW-Z200

La cámara de mano capaz de encuadrar

SONY PXW-Z200

La evolución tecnológica nunca deja de sorprendernos. Hace muchos años que las funciones automáticas son una valiosa ayuda, aunque siempre hemos dicho que un buen profesional está por encima de cualquier automatismo. Y eso, al menos de momento, sigue siendo una afirmación totalmente válida.

Vaya por delante que, como firmes defensores de la innovación y la tecnología, siempre recibimos con entusiasmo todos sus avances y desarrollos. Y si bien esto facilita cada vez más la participación de profesionales de distintos niveles, queremos destacar que un profesional bien preparado siempre potenciará cualquier herramienta, y no se limitará a depender de ella.

Cierto que los sistemas de enfoque automático son más rápidos y precisos que la mayoría de nosotros, pero en general no saben identificar correctamente cuál es el punto de interés en cada escena. Esto ha mejorado desde que son capaces de reconocer caras, ojos, e incluso personas concretas para mantener el foco sobre ellas y no otras.

Y aunque de momento siguen careciendo de la habilidad de llevar el foco al plano de interés narrativo en ciertas situaciones, es un gran avance la capacidad de seleccionar en cualquier momento en la pantalla táctil el punto o la zona deseada de enfoque.

Algo parecido aportan los automatismos de exposición, capaces de ajustes muy precisos, pero siempre

Texto: Luis Pavía

y cuando la iluminación no sea complicada y “les digamos” de alguna forma cuál es la zona crítica para que nuestro contenido sea realmente útil para nuestro propósito. Que de nuevo, probablemente pueda estar más condicionado por las necesidades narrativas que por la cantidad, calidad, o dirección de la luz existente.

Incluso es una característica frecuente y habitual que las cámaras de tipo PTZ sean capaces de hacer seguimiento de personas, aunque la innovación de la que os hablamos en el reciente laboratorio de la BRC-AM7 (también de Sony) con capacidad de mantener un encuadre determinado especificando el aire en los contornos, sobre protagonistas que se mueven rápidamente y en amplios espacios es impresionante, gracias a su sistema de movimiento integrado.

Pero volviendo a nuestro titular… ¿cómo es capaz de encuadrar una cámara de mano, que no tiene capacidad de movimiento por sí misma?

Esta es una de esas verdades inmutables que ahora nos toca revisar.

Veamos en que consiste, y aunque la respuesta es sencilla y tiene limitaciones como todos los automatismos, hay situaciones en las que será de gran ayuda. Pero seguimos insistiendo en esta gran verdad, que deseamos permanezca inmutable: siempre serán las manos de un buen profesional las que harán que cualquier herramienta sea realmente efectiva y eficiente.

Siempre serán las manos de un buen profesional las que harán que cualquier herramienta sea realmente efectiva y eficiente.

Como de costumbre, antes de entrar en materia hagamos un repaso al resto de características para ubicarla correctamente. Se trata de un camcorder de mano, con óptica zoom integrada 20x, sensor único R-CMOS de tipo 1.0 pulgada con resolución nativa 5k, y conectividad Ethernet + Wi-Fi.

Adelantando que parece estar pensada para cubrir necesidades principalmente en ámbitos de Broadcast y ENG, por el resto de cualidades que ofrece también desempeñará excelentes resultados en ámbitos desde creación web hasta aspiracionales cinematográficos.

La óptica zoom integrada abarca un rango óptico 24-480 mm en equivalencia a distancias focales full frame. Combinada con el Clear Image Zoom, función propia que utiliza procesos adicionales para evitar los artefactos característicos del zoom digital, el 20x inicial se puede ampliar hasta 30x sin pérdidas perceptibles en calidad de imagen en UHD; y hasta 40x trabajando en HD, alcanzando así un rango 24-960 realmente extraordinario.

La luminosidad parte de un excelente f/2,8 en angular, que se reduce hasta f/4,5 en tele. Las distancias de enfoque se retraen hasta sólo 1 cm en angular, llegando a enfocar dentro del parasol, y crece hasta una distancia mínima de 1 metro con el tele en máximo alcance.

Es decir, aunque la óptica no sea intercambiable, cuenta con cualidades suficientes para resolver la mayoría de las situaciones, con la comodidad de estar perfectamente

integrada formando un conjunto sólido y compacto con el cuerpo.

Contamos con estabilizador óptico integrado con dos modos de funcionamiento. Los dos anillos independientes para foco y zoom se complementan con un control de iris que se realiza mediante una rueda colocada en una posición cómoda y natural para cualquier operador, aunque ya en el cuerpo y no sobre sobre el barrilete de la óptica.

Su posición, cercana y gemela de la rueda que controla el filtro de densidad neutra variable, ya característico en la marca, facilita que siempre tengamos el mejor control posible de la exposición.

Por cierto, y según información de la documentación técnica, es posible que mediante alguna próxima actualización de firmware se permita asignar la función de control de iris a alguno de los anillos de control principales. Entendemos que esta posibilidad no sólo facilita la personalización del equipo, sino que aumenta su versatilidad al poder afrontar distintas necesidades con la máxima comodidad para distintos operadores o distintos escenarios.

La funcionalidad de ND variable, que también se puede configurar en niveles fijos como los filtros clásicos y no necesariamente en orden progresivo al igual que en el resto de modelos, se puede configurar en automático. De esta forma mantendrá la exposición seleccionada compensando las diferencias en iluminación al pasar de un entorno a otro sin que ello afecte a la narrativa visual.

Se trata de un camcorder de mano, con óptica zoom integrada 20x, sensor único R-CMOS de tipo 1.0 pulgada con resolución nativa 5k, y conectividad Ethernet + Wi-Fi.

Esta capacidad de controlar el nivel de exposición sin modificar diafragma, velocidad de obturación o sensibilidad, supone que no se modificará profundidad de campo, movimiento ni el ruido en la imagen aunque los niveles de iluminación varíen en hasta 6 pasos de diafragma, que es su margen de operación entre ¼ y 1/128 de exposición, y siempre sin producir ninguna alteración cromática.

Por estos motivos, el ND variable es una de las características que nos sedujo desde que apareció hace años y nos alegra enormemente que forme parte natural de todos los nuevos equipos que Sony lanza al mercado.

El sensor CMOS Exmor RS, de tipo 1.0 pulgada, cuenta con 14 Mpixel efectivos que permiten una resolución de 5k. Además de la resolución,

se cuenta con procesadores BIONZ XR dedicados y un módulo específico de IA. Este conjunto, además de contribuir significativamente en los procedimientos de reencuadre que veremos detenidamente más adelante, facilita una mayor precisión de enfoque combinando técnicas de detección de contraste y detección de fase, optimizando tanto la rapidez como la precisión.

Esta velocidad de procesamiento del conjunto del sensor es la que permite grabaciones con elevadas tasas de cuadro, que alcanzan los 120p en formato UHD (3840 x 2160) o 240p en HD (1920x1080).

La respuesta cromática se puede configurar en distintos espacios que incluyen S-Cinetone, S-Log3, HLG y diversas variantes de 709, facilitando la integración con distintas cámaras, distintos entornos y distintos flujos

de trabajo. Es decir, siempre nos resultará sencillo igualar la respuesta cromática tanto con cámaras Broadcast como con cámaras de gama Cinema Line.

Los márgenes de operación en los parámetros clásicos de captación de imagen son muy amplios: Velocidades de obturación entre 1/8000 y 64f. Balance de blancos entre 2.000 y 15.000 ºK. Ganancia desde -3 hasta 36dB en pasos de 1 dB. ISO entre 250 y 16.000, pudiendo configurar límites inferior y superior en el caso de automatizarlo.

El autofoco cuenta con hasta 475 puntos de detección y reconocimiento de personas con detección de sujeto. Es decir, puede identificar a una persona para hacer el seguimiento de foco sobre un individuo en concreto. Y ya veremos que no sólo de foco…

Para la visualización contamos con visor y pantalla, como también es habitual en este tipo de equipos. El visor xga-oled de 1 cm cuenta con 2,36 Mpixel y detecta por proximidad si lo estamos usando, en cuyo caso apaga la pantalla. Lógicamente, este modo es configurable para evitar que nos la pueda apagar accidentalmente si fuesen la mano o el cuerpo quienes cubren el ocular.

La pantalla LCD de 3,5 pulgadas y 2,75 Mpixel, ofrece una excelente resolución y calidad de imagen, fácilmente visible a plena luz del día, y cuenta con funcionalidad táctil para facilitar la operación. Disponemos de parasol plegable y extraíble de serie y tres botones en el lateral siempre accesible con las funciones de zebra, peaking, y uno personalizable.

La cantidad de información que podemos mantener superpuesta a la imagen durante la grabación puede llegar a ser abrumadora. Afortunadamente, toda esta información sobreimpresa se puede activar y desactivar con una simple pulsación en el botón asignado. Esta información no sólo incluye datos en forma de texto o datos, sino también gráficos, como histograma, vectorscopio o forma de onda.

Configurándolo a través del menú se pueden utilizar LUTs, tanto en pantalla como en alguna de las salidas, de forma que nuestra visualización sea lo más parecida posible al resultado final que obtendremos una

El soporte del LCD es de nuevo diseño, y aunque el tacto es robusto e inspira confianza, por la posición en la que queda la pantalla una vez recogida, da la sensación de resultar un tanto vulnerable ante tratos poco delicados. Sólo la capacidad de los nuevos materiales y la experiencia de uso con el tiempo nos confirmarán las bondades de la nueva solución.

Respecto a la operación, otra de las características que nos ha gustado mucho son los diversos métodos para controlar todas sus funciones y capacidades: por un lado, los botones y selectores con funciones dedicadas al estilo de las cámaras ENG

Además, la mayoría de los 12 botones personalizables repartidos por todo el cuerpo ofrecen un tacto distinto para facilitar su localización al tacto, y mediante el menú tenemos un abanico de hasta 63 funciones para asignar en cada uno de ellos. De esta forma, siempre dispondremos de la máxima eficiencia a la hora de afrontar cualquier tipo de proyecto.

Por otro lado, el acceso al menú en dos modalidades: resumido para acceder a las funciones principales de configuración (con una pulsación corta), y extendido (con una pulsación larga) para controlar hasta el último detalle del último parámetro. Estas dos modalidades están dispo-

uno de ellos muy accesible en la propia empuñadura para utilizarlo durante el rodaje si es necesario.

Y finalmente, la combinación de menú rápido en pantalla con el joystick para saltar entre parámetros y ajustar cada uno directamente. Estos parámetros son aquellos que habitualmente encontramos como información superpuesta en los contornos de la pantalla durante el rodaje y, de hecho, este mini joystick se encuentra duplicado en ambas empuñaduras (la lateral y la superior) junto a los dos botones de grabación.

Respecto al audio, superando lo que viene siendo habitual últimamente, contamos con hasta 6 entradas físicas para 4 canales de audio,

Respecto al audio, superando lo que viene siendo habitual últimamente, contamos con hasta 6 entradas físicas para 4 canales de audio, grabándose el audio siempre en formato LPCM de 48 kHz a 24 bits.

grabándose el audio siempre en formato LPCM de 48 kHz a 24 bits.

Disponemos de dos entradas a través de los conectores XLR con posibilidad de alimentación, y controles directos clásicos para el selector de entrada y nivel. Otras dos mediante la zapata MI-shoe, capaz de llevar señal tanto analógica como digital y a cuyos controles se accede a través del menú principal. Y además de la entrada estéreo que proporciona el micrófono integrado, contamos con otra entrada de mini-jack TRS de 3,5 mm para micrófono externo no balanceado.

Respecto a los formatos de grabación de vídeo, es importante destacar que se realizará siempre sobre códecs AVC, intraframe o long-gop, y siempre en progresivo. Internamente ya no contamos con códecs MPEG2 ni modalidad entrelazada. Atención a este detalle si por cualquier motivo necesitamos generar contenido entrelazado.

Resumiéndolos, dentro de la amplia gama de opciones disponibles en función de resolución y tasa de cuadro, podremos seleccionar desde un máximo de 500 Mbps en UHD intra a 50p, hasta un mínimo de 50 Mbps en HD long-gop, ya sea 420 ó 422 y 25p o 50p. Parece ser que la razón de mantener el mínimo de 50Mbps es para cumplir siempre el estándar admitido para broadcast. En cuanto a los proxies, éstos se conforman con 16 Mbps.

La grabación de contenedores mxf o mp4 se realiza sobre tarjetas CFexpress tipo A, o SD UHS-I/II, en cualquiera de las dos ranuras con

flexibilidad de configuración: distintos formatos en paralelo, el mismo en relevo, e incluso control independiente para cada una de ellas desde cada uno de los dos botones de grabación.

Evidentemente, todos los formatos que la cámara es capaz de generar siempre podrán quedar limitados por la velocidad real de la tarjeta que decidamos utilizar. Pudiendo elegir entre SD o CFexpress, tengamos presente que no todas ellas pueden soportar la velocidad de datos sostenida en grabación necesaria para los formatos más exigentes.

Siendo todos muy conscientes de que la capacidad afecta al tiempo de grabación, debemos asegurar el dato de tasa sostenida de datos en grabación, ya que muchos fabricantes sólo anuncian el de lectura, que siempre es mayor. Cuidado con esto, por favor.

Entrando ya en el apartado de conectividad, además de las entradas de audio ya descritas, contamos con dos conectores BNC: uno configurable como entrada o salida para el código de tiempo, y el otro para la salida SDI. Otro conector HDMI proporciona una segunda salida de vídeo, pudiendo configurarse ambas salidas SDI y HDMI con resoluciones o sobreimpresiones diferentes.

Contamos con un conector de 3,5 mm para una toma de auriculares estéreo, y un pequeño altavoz mono para la supervisión de contenidos grabados. Lo que no es tan habitual es disponer de un sistema de “lectura” de menú que nos permite escuchar opciones mientras lo manejamos.

Aunque esta característica no está disponible, al menos de momento, en todos los idiomas en los que se puede configurar la cámara.

Como también viene siendo habitual en las cámaras de este tipo, contamos con funciones de red, tanto Ethernet 10/100/1000BaseT como Wi-Fi en bandas de 2,4 y 5 GHz, permitiendo el streaming directo o la subida de ficheros a cualquier plataforma FTP, así como a servicios dedicados en la nube como el Creator’s Cloud C3 Portal propietario de Sony, con controles de calidad QoS y flujo de datos en tiempo real.

Aquí hacemos una rápida mención a un nuevo dispositivo opcional PDT-FP1 (Portable Data Transfer). De forma similar a los conocidos grabadores externos, este nos ofrece algunas funciones más: una pantalla de mayor tamaño con visualización 4k y funciones de control remoto sobre la cámara, posibilidad de grabación interna y, lo más interesante de todo: una conectividad adicional con trasferencia de datos estables en alta velocidad con multitud de bandas, como LTE, 5G Sub6 y mmWave. Se conecta mediante USB-C y libera las funciones de red de la cámara para cualquier otro fin.

Estas funcionalidades de red permiten, además del conector Lan-C de 2,5 mm, la posibilidad de control remoto de la cámara desde teléfonos o tabletas mediante Wi-Fi o Bluetooth, pudiendo convertirse en su propio punto de acceso en aquellos lugares en los que no hay red disponible.

Un puerto USB-C proporciona conectividad de alta velocidad hasta

5 Gbps con protocolo USB 3.2 apto para diversos usos, desde volcado de contenidos hasta control remoto.

El streaming se realiza mediante protocolos RTMP, RTMPS y SRT con códecs configurables H.264 y H.265 en resoluciones 720p, HD o hasta UHD con 2 canales de audio de 16 bits a 48 kHz.

Las baterías son de tipo BP-U, con las capacidades ya conocidas que proporcionan desde ligereza en el modelo más pequeño BP-U35 hasta largos tiempo de funcionamiento en el de mayor capacidad BP-U100. La sensación es que el rendimiento mejora en general respecto a modelos anteriores, contando con hasta 90 minutos de grabación continua con la batería más pequeña y ligera, según catálogo.

Tengamos presente que el consumo siempre vendrá determinado por la utilización real, y que ésta puede variar de forma significativa si se usan, por ejemplo, los servicios de red o no, la pantalla o el visor, la visualización prolongada de contenidos, etc. más todas sus posibles combinaciones. Por eso sugerimos que cada operador haga algunas pruebas en su entorno y condiciones reales para obtener datos realmente precisos para sus condiciones de trabajo, y ganar así toda la tranquilidad que precise llegado el momento.

Terminamos con la descripción del conjunto confirmando que todas estas cualidades se encuentran en un cuerpo cómodo y muy manejable, cuidando detalles como que la ventilación está diseñada de forma que el aire fluye desde la izquierda y abajo,

hacia la derecha y arriba, alejando el aire caliente de la persona que opere la cámara y proporcionando así mayor comodidad de uso.

Se ha fabricado combinando aleaciones de metales ligeros con nuevos materiales sintéticos, buscando robustez, ligereza y fiabilidad junto con el mejor equilibrio con el compromiso medioambiental. De esta forma el conjunto ronda los 2,4 Kg de peso en condiciones de funcionamiento con batería incluida.

Hemos necesitado todo este larguísimo bloque sólo para enumerar y comentar someramente la gran colección de características que tenemos a nuestra disposición, y algunas de sus ventajas. Pero entremos ya en esa nueva y fascinante función de auto encuadre.

Como podemos intuir tratándose de una cámara sin funcionalidades PTZ, el método de auto encuadre es conceptualmente muy sencillo. Y tiene sus limitaciones, al igual que sucede con todos los automatismos, aunque eso no limita un resultado sorprendente.

El streaming se realiza mediante protocolos RTMP, RTMPS y SRT con códecs configurables H.264 y H.265 en resoluciones 720p, HD o hasta UHD con 2 canales de audio de 16 bits a 48 kHz.

Básicamente, lo que hacemos es establecer el margen de recorte que permitimos para que, una vez identificado el sujeto de la misma forma que hacemos para mantener el enfoque con la identificación de personas, nuestro protagonista se mantenga en un lugar destacado de la imagen y no perdido en un rincón.

Correcto. El reencuadre se realiza recortando y escalando la imagen, de la misma forma que haríamos en edición ¡Pero en tiempo real en la propia grabación! Y si bien es cierto que esto puede llegar a provocar compromiso en la calidad de imagen si somos demasiado permisivos o agresivos en el ajuste, puede resultar tremendamente útil en multitud de situaciones.

Teniendo en cuenta que el sensor es 5k, en un escenario de rodaje HD como el que aún se usa en muchas

noticias, eventos o retransmisiones, podemos hacer una ampliación mayor de x2 sin ninguna pérdida de calidad de ninguna clase. Eso significa que un operador en medio de una aglomeración de operadores ante una noticia, aún sin poder apuntar con cuidado, podrá lograr una grabación o un directo más que razonable en tiempo real.

Combinando la velocidad de los procesadores de imagen con las funciones de IA, la versatilidad de la identificación de sujetos con la eficacia del autofoco, logramos que nuestro protagonista siempre esté enfocado, y se mantenga lo más centrado posible en el marco de referencia.

Contamos con dos parámetros para controlar la respuesta del sistema: por un lado, el rango de reencuadre o ampliación que deseamos, y por otro la sensibilidad o velocidad de respuesta.

Aquí es donde la habilidad del profesional marcará las diferencias. Imaginemos un plano general en un auditorio, donde el sujeto se moverá en un espacio limitado: el reencuadre irá siguiendo al ponente ofreciendo un plano mas cerrado sobre la persona, pero la primera decisión será establecer los límites del plano general, ya que el reencuadre, evidentemente, nunca podrá salir de él.

Después, si forzamos demasiado la ampliación, podríamos llegar a comprometer la calidad de imagen. Si ampliamos demasiado poco, el resultado del seguimiento será poco significativo. Si exageramos la sensibilidad, los pequeños movimientos del protagonista podrían generar seguimientos poco naturales. Y la reducimos en exceso, arriesgamos que tenga que acercarse demasiado a los límites antes de reencuadrar.

El reencuadre se realiza recortando y escalando la imagen, de la misma forma que haríamos en edición ¡Pero en tiempo real en la propia grabación!

Por todo esto, siendo un sistema que en general funciona bastante bien, unos ajustes poco acertados pueden dar lugar a un resultado poco favorable, alejado de nuestras expectativas y las auténticas capacidades del sistema.

Otro ejemplo de uso muy práctico es el de un único operador haciendo una entrevista, en la que dedicaremos toda nuestra atención al contenido de la entrevista sin ser necesario estar también pendientes del encuadre de nuestro protagonista mientras la realizamos.

Por otro lado, con unos ajustes correctos, y si además le añadimos la estabilización óptica, el plano logrado desde una muchedumbre que nos

mantiene en movimiento mientras seguimos la noticia, puede acabar pareciendo un rodaje perfectamente planificado y ejecutado.

Al igual que con el sistema de identificación de sujetos, si nuestro protagonista sale de plano perderemos el seguimiento, pero lo recuperaremos tan pronto vuelva a entrar en escena. En este caso, haber configurado la activación/desactivación del auto encuadre en alguno de los botones personalizables facilitará la conmutación directa e instantánea de la función.

Ya finalizando, sólo mencionar que conjuntamente con esta cámara se ha presentado un modelo similar y de precio aún más ajustado (NX800)

que compartiendo el mismo cuerpo y la mayoría de sus características, sólo recorta algunas funciones específicamente broadcast como los conectores BNC con la salida SDI, el código de tiempo y que sólo grabará en formatos mp4.

En definitiva, un nuevo avance en las posibilidades de creación de contenidos que proporciona las funciones más sofisticadas disponibles actualmente a un precio altamente competitivo. En resumen, e insistiendo en nuestra idea de partida: estando encantados con todos los avances, seguimos defendiendo que un buen profesional aportará un valor incuestionable, potenciando las mejores herramientas en lugar de ser sustituido por ellas.

Turn static files into dynamic content formats.

Create a flipbook
Issuu converts static files into: digital portfolios, online yearbooks, online catalogs, digital photo albums and more. Sign up and create your flipbook.