POSTE ITALIANE SPA Spedizione in Abbonamento Postale DL 353/2003 (Legge n.46 27/2/2004) art.1 comma 1 DCB Milano Mancata consegna restituire all’editore che si impegna a pagare la relativa tassa presso il CMP Roserio-Milano
g: astin oadc io.tv r b t u d s abo orra t new onit Latesww.m w
RADIO • TELEVISIONE • VIDEO • MULTIMEDIA • POST-PRODUZIONE • AUDIO • ALTA FREQUENZA
Rivista mensile specializzata • N° 251 • Agosto/Settembre 2005 • Anno XXVIII • ISSN 0394-0896 PUBBLICAZIONE DELLA MEDIA AGE SRL • VIA STEFANO JACINI, 4 • 20121 MILANO • TEL. 02862534 • FAX 0286450149 • E-MAIL: INFO@MONITOR-RADIOTV.COM • INTERNET: WWW.MONITOR-RADIOTV.COM
L’alta definizione come missione
L’animazione si rinnova
Il videoproiettore 4K: un “mostro” in laguna st: adca a bro nza.tv d e i notiz rge time nve Le ul w.co ww
4 L’alta definizione come missione Anno XXVIII n. 251 - agosto 2005 ISSN 0394-0896 MediaAge srl Via Stefano Jacini, 4 - 20121 Milano, Italy Tel. (+39) 02862534 (ra) - Fax (+39) 0286450149 E-mail: info@monitor-radiotv.com Siti internet http://www.convergenza.tv (in italiano) http://www.monitorradio.tv (in inglese) La Media Age srl è iscritta al Registro Nazionale della Stampa al n. 2636 vol. 27, foglio 281 dal 28.6.89 - MONITORRADIO TELEVISIONE è registrata al Tribunale di Milano n. 880 del 20.12.1988. Dir. resp. Enrico Callerio. Manoscritti e foto originali, anche se non pubblicati, non si restituiscono. Non è permessa la riproduzione di testi e foto senza l’autorizzazione scritta dell’Editore. Progetto grafico e impaginazione: Ago, Bollate (MI). Fotolito: PRG Milano. Stampa: Cooperativa Grafica Bergamasca, Almenno S. Bart. (BG). Abbonamenti: la rivista è diffusa e venduta solo in abbonamento annuale. Il costo annuale è di 40,00 EURO da versare sul c/c postale n. 11158201 intestato a Media Age srl, Via Stefano Jacini, 4 - 20121 Milano, oppure inviare un assegno bancario non trasferibile allo stesso indirizzo. Arretrati 6,00 EURO l’uno da allegare alla richiesta anche i francobolli. Foreign subscription: annual 80,00 EURO (80,00 US$) or equivalent via International Money Order or cheque to Media Age srl, Via Stefano Jacini, 4 - I - 20121 Milano Italy. CREDIT CARDS subscription call (+39) 02862534 or fax (+39) 0286450149. Cards accepted: VISA MASTER-CARD - EUROCARD - AMERICAN EXPRESS. Airmail rates on applications. Lo staff Direttore responsabile: Enrico Callerio Condirettore tecnico: Mauro Baldacci Hanno collaborato: Manlio Cocconcelli, Angelo D’Alessio, Lidia Di Giovanni, Dario Monferini, Massimo Montissori, Enrico Oliva, Alberto Pellizzari, Claudio Re, Piero Ricca, Maria Ronchetti. Nei siti della “convergenza” di Monitor troverete tra gli altri contenuti: la Guida RadioTv delle radio e tv private (www. guidaradio.tv) le proposte di Monitor Lavoro (www.monitor-radiov.com/lavoro) le emittenti radio tv in diretta nella rete da tutto il mondo (www.webcastitaly.com)
34 L’animazione si rinnova 8 Guida a Digital Intermediate di Quantel Prima edizione Sesta e ultima parte 20 Editing video per il prossimo decennio
41 Come catturare suoni, musiche, discorsi 44 Server su misura
46 Una storia americana: il BPL
24 Le bugie della scienza (e della pseudoscienza) 50 Il “mostro” arriva in laguna
32 Padroneggiare il colore
L’area riservata a Media Factory all’evento prganizzato da Avid Italia lo scorso mese di giugno
L’alta definizione come missione 4
In questa intervista concessa in occasione dell’ultimo Nab, Jeff Stewart di Avid Europe delinea le strategie future dell’azienda in tema di alta definizione, ma non solo Alla tradizionale conferenza stampa che aveva preceduto l’apertura del NAB, i vari portavoce di Avid presenti in quell’occasione si sono ben guardati dal commentare la notizia risalente al mese precedente dell’acquisizione di Pinnacle. La transazione è infatti ancora al vaglio dell’antitrust, che negli Stati Uniti ha poteri ben diversi da quelli assegnati all’omologa italiana: una parola di troppo, potrebbe comportare conseguenze piuttosto pesanti. Anche in casa Pinnacle l’ordine era quello di non rilasciare alcuna dichiarazione e quindi, con la speranza di saperne qualcosa di più, abbiamo chiesto un incontro con Jeff Stewart, direttore marketing di Avid Europe che però non è stato molto più esplicito dei suoi colleghi: “Prevediamo di completare l’operazione nel corso del terzo trimestre e fino ad allora continueremo ad operare come aziende completamente separate. Due sono fondamentalmente le ragioni che ci hanno indotto ad acquisire Pinnacle: in primo luogo la loro posizione nel mercato consumer, loro hanno qualcosa come
dieci milioni di sistemi venduti nel mercato consumer. Questo per noi rappresenta una sorta di garanzia per il futuro di Avid: certamente non tutti questi utenti diventeranno professionisti del video, ma quelli che sceglieranno questa via potranno continuare a usare un prodotto Avid. In secondo luogo, nell’offerta Pinnacle per il broadcast ci sono alcune soluzioni che si inseriscono bene nella nostra, alcuni componenti che possono essere considerati complementari alla nostra offerta.”
Nitris - abbiamo avuto una forte domanda dal mercato per un prodotto in alta definizione come Symphony. Abbiamo venduto numerosi sistemi Symphony in Europa e c’era un livello molto elevato di richieste per un prodotto che fosse molto forte sul lato del montaggio e che avesse buone capacità di finalizzazione. Ecco quindi per-
Anche Symphony per l’HD Alla domanda se il ritardo nella definizione dell’operazione potesse avere influenze negative sulle vendite di Pinnacle, Stewart ha preferito non rispondere, diventando subito più loquace quando si è passati a parlare delle novità presentate al Nab da Avid. “Nonostante avessimo già versioni in alta definizione per quasi tutta la nostra linea di prodotti - Xpress Pro, Media Composer Adrenaline e DS
Jeff Stewart, direttore marketing Avid Europe
Monitor n° 251 - agosto 2005
re certa di poter passare all’alta definizione in futuro. Penso che se non fossimo in grado di offrire alta definizione ora, non riusciremmo a vendere nulla. Anche per questa ragione, tutti i nostri prodotti supportano l’HD. Non è come negli States, dove l’alta Anche con Symphony si può sfruttare tutta la potenza dell’acceleratore Nitris definizione sta ché in questa occasione presentiamo andando come un razzo, ma un buon numero dei nostri clienti sta già usando Symphony Nitris.” l’alta definizione.” Con la versione HD di Symphony si completa la transizione dei prodotti Avid verso l’alta definizione, ma non Le prospettive dell’Hdv bastava DS Nitris? “DS Nitris rappreOttime le prospettive anche per il forsenta il top della gamma, è molto mato Hdv, nonostante le sue radici potente in termini di effetti, composiprettamente consumer.”C’è una richieting e capacità grafiche e anche nel sta molto intensa, quasi incredibile, e settore del Digital Intermediate, che noi soddisfiamo questa richiesta diventa sempre più importante per offrendo il supporto per l’Hdv nativo in noi, c’è una forte domanda per DS Xpress Pro e in tutta la nostra linea di Nitris. D’altro canto, Symphony Nitris prodotti. Occorre però tenere ben prepenso che sia un prodotto più semplisente che l’HDV, come del resto tutti i ce da comprendere. Per quanti conoformati per l’alta definizione esistenti, è scono Symphony non è altro che la sua un formato per l’acquisizione, studiato versione in alta definizione. per trasferire in modo efficiente l’alta Un prodotto adatto per i broadcaster, definizione su un nastro. Non ci sono la stessa Rai ha diversi sistemi codec sul mercato per la post produSymphony. zione, se si esclude il nostro DNxHD: ci Inoltre, non è necessariamente un prosiamo resi conto che c’era la necessità dotto soltanto per l’alta definizione e di un codec con qualità molto elevata questo è un elemento chiave poiché per la post produzione, che non coml’hardware Nitris è in grado di offrire portasse delle perdite di qualità prestazioni molto elevate in termini di apprezzabili. L’Hdv è un buon esemtrattamento in real time anche limitanpio, è un buon formato per l’acquisidosi alla definizione standard: le prestazione poiché il bitrate è molto basso, zioni sono estremamente elevate, fino a ma appena si passa alla post-produziootto stream di video non compresso, ne, la qualità degenera anche soltanto tutto in tempo reale, con DVE, chiavi, aggiungendo una dissolvenza o una correzione colore su ciascuno stream. In tendina. pratica, con Nitris Symphony diventa un Al contrario, utilizzando il codec prodotto molto potente per la definiDNxHD, il materiale acquisito viene zione standard, ma con capacità di alta convertito e poi lavorato in questo fordefinizione.” mato che permetStewart non ha dubbi sul fatto che ci sia te di preservare al un forte interesse per l’HD anche da meglio la qualità parte degli europei: “Abbiamo già una originale. forte domanda, non necessariamente Facendo la post per la possibilità di fare lavorazioni in produzione in alta definizione già ora, ma una percenDNxHD alla fine si tuale molto consistente dei nostri clienpuò ricavare una ti quando acquista qualcosa vuole esse-
Monitor n° 251 - agosto 2005
buona qualità, sia che si esca in definizione standard che alta. Da qualche mese, il codec DNxHD si può scaricare gratuitamente dal sito web e Avid lo ha messo a disposizione anche di altri fabbricanti. Finora però, l’unica azienda che l’ha utilizzato è Ikegami per la versione in HD della Editcam. Avid considera questo codec un elemento chiave per ottimizzare i flussi di lavoro in HD: “uno dei prodotti che presentiamo in questa occasione è Dnxchange, un encoder che prende un segnale HD-SDI e lo converte in DNxHD, occupando una banda simile a quella dei segnale video digitali non compressi in definizione standard. Grazie a ciò, una post-produzione potrà utilizzare l’infrastruttura esistente in definizione standard per trattare materiale in HD, senza dover sostituire nulla, server compresi. L’elemento chiave del codec DNxHD è la qualità, anche osservando il video compresso con questo codec fianco a fianco con quello non compresso, non si vede la differenza, garantito. Ma la banda richiesta è la stessa della definizione standard e quindi se già esiste un’infra- 5 struttura per definizione standard la si può usare anche per l’HD.” Se nella fascia alta del mercato, Avid ha una posizione ben consolidata e difficilmente attaccabile, in quella più bassa la concorrenza di prodotti come Final Cut della Apple comincia a farsi sentire, ma Stewart non si dimostra per nulla preoccupato: “La maggior parte dell’attività dei nostri concorrenti si concentra in un mercato intermedio, quello dei new media, dove puoi prendere hardware dallo scaffale del centro commerciale e semplici software per crearti il tuo sistema. La concorrenza più frenetica è proprio nella fascia bassa del mercato new media, ma quando si passa a prodotti come Adrenaline o Symphony Nitris noi siamo ancora molto forti. Non sto dicendo che non abbiamo concorrenti ma semplicemente che siamo molto
Avid DNxchange permette di sfruttare un’infrastruttura SD esistente per l’alta definizione
L’area riservata a Media Factory all’evento prganizzato da Avid Italia lo scorso mese di giugno
L’alta definizione come missione 4
In questa intervista concessa in occasione dell’ultimo Nab, Jeff Stewart di Avid Europe delinea le strategie future dell’azienda in tema di alta definizione, ma non solo Alla tradizionale conferenza stampa che aveva preceduto l’apertura del NAB, i vari portavoce di Avid presenti in quell’occasione si sono ben guardati dal commentare la notizia risalente al mese precedente dell’acquisizione di Pinnacle. La transazione è infatti ancora al vaglio dell’antitrust, che negli Stati Uniti ha poteri ben diversi da quelli assegnati all’omologa italiana: una parola di troppo, potrebbe comportare conseguenze piuttosto pesanti. Anche in casa Pinnacle l’ordine era quello di non rilasciare alcuna dichiarazione e quindi, con la speranza di saperne qualcosa di più, abbiamo chiesto un incontro con Jeff Stewart, direttore marketing di Avid Europe che però non è stato molto più esplicito dei suoi colleghi: “Prevediamo di completare l’operazione nel corso del terzo trimestre e fino ad allora continueremo ad operare come aziende completamente separate. Due sono fondamentalmente le ragioni che ci hanno indotto ad acquisire Pinnacle: in primo luogo la loro posizione nel mercato consumer, loro hanno qualcosa come
dieci milioni di sistemi venduti nel mercato consumer. Questo per noi rappresenta una sorta di garanzia per il futuro di Avid: certamente non tutti questi utenti diventeranno professionisti del video, ma quelli che sceglieranno questa via potranno continuare a usare un prodotto Avid. In secondo luogo, nell’offerta Pinnacle per il broadcast ci sono alcune soluzioni che si inseriscono bene nella nostra, alcuni componenti che possono essere considerati complementari alla nostra offerta.”
Nitris - abbiamo avuto una forte domanda dal mercato per un prodotto in alta definizione come Symphony. Abbiamo venduto numerosi sistemi Symphony in Europa e c’era un livello molto elevato di richieste per un prodotto che fosse molto forte sul lato del montaggio e che avesse buone capacità di finalizzazione. Ecco quindi per-
Anche Symphony per l’HD Alla domanda se il ritardo nella definizione dell’operazione potesse avere influenze negative sulle vendite di Pinnacle, Stewart ha preferito non rispondere, diventando subito più loquace quando si è passati a parlare delle novità presentate al Nab da Avid. “Nonostante avessimo già versioni in alta definizione per quasi tutta la nostra linea di prodotti - Xpress Pro, Media Composer Adrenaline e DS
Jeff Stewart, direttore marketing Avid Europe
Monitor n° 251 - agosto 2005
re certa di poter passare all’alta definizione in futuro. Penso che se non fossimo in grado di offrire alta definizione ora, non riusciremmo a vendere nulla. Anche per questa ragione, tutti i nostri prodotti supportano l’HD. Non è come negli States, dove l’alta Anche con Symphony si può sfruttare tutta la potenza dell’acceleratore Nitris definizione sta ché in questa occasione presentiamo andando come un razzo, ma un buon numero dei nostri clienti sta già usando Symphony Nitris.” l’alta definizione.” Con la versione HD di Symphony si completa la transizione dei prodotti Avid verso l’alta definizione, ma non Le prospettive dell’Hdv bastava DS Nitris? “DS Nitris rappreOttime le prospettive anche per il forsenta il top della gamma, è molto mato Hdv, nonostante le sue radici potente in termini di effetti, composiprettamente consumer.”C’è una richieting e capacità grafiche e anche nel sta molto intensa, quasi incredibile, e settore del Digital Intermediate, che noi soddisfiamo questa richiesta diventa sempre più importante per offrendo il supporto per l’Hdv nativo in noi, c’è una forte domanda per DS Xpress Pro e in tutta la nostra linea di Nitris. D’altro canto, Symphony Nitris prodotti. Occorre però tenere ben prepenso che sia un prodotto più semplisente che l’HDV, come del resto tutti i ce da comprendere. Per quanti conoformati per l’alta definizione esistenti, è scono Symphony non è altro che la sua un formato per l’acquisizione, studiato versione in alta definizione. per trasferire in modo efficiente l’alta Un prodotto adatto per i broadcaster, definizione su un nastro. Non ci sono la stessa Rai ha diversi sistemi codec sul mercato per la post produSymphony. zione, se si esclude il nostro DNxHD: ci Inoltre, non è necessariamente un prosiamo resi conto che c’era la necessità dotto soltanto per l’alta definizione e di un codec con qualità molto elevata questo è un elemento chiave poiché per la post produzione, che non coml’hardware Nitris è in grado di offrire portasse delle perdite di qualità prestazioni molto elevate in termini di apprezzabili. L’Hdv è un buon esemtrattamento in real time anche limitanpio, è un buon formato per l’acquisidosi alla definizione standard: le prestazione poiché il bitrate è molto basso, zioni sono estremamente elevate, fino a ma appena si passa alla post-produziootto stream di video non compresso, ne, la qualità degenera anche soltanto tutto in tempo reale, con DVE, chiavi, aggiungendo una dissolvenza o una correzione colore su ciascuno stream. In tendina. pratica, con Nitris Symphony diventa un Al contrario, utilizzando il codec prodotto molto potente per la definiDNxHD, il materiale acquisito viene zione standard, ma con capacità di alta convertito e poi lavorato in questo fordefinizione.” mato che permetStewart non ha dubbi sul fatto che ci sia te di preservare al un forte interesse per l’HD anche da meglio la qualità parte degli europei: “Abbiamo già una originale. forte domanda, non necessariamente Facendo la post per la possibilità di fare lavorazioni in produzione in alta definizione già ora, ma una percenDNxHD alla fine si tuale molto consistente dei nostri clienpuò ricavare una ti quando acquista qualcosa vuole esse-
Monitor n° 251 - agosto 2005
buona qualità, sia che si esca in definizione standard che alta. Da qualche mese, il codec DNxHD si può scaricare gratuitamente dal sito web e Avid lo ha messo a disposizione anche di altri fabbricanti. Finora però, l’unica azienda che l’ha utilizzato è Ikegami per la versione in HD della Editcam. Avid considera questo codec un elemento chiave per ottimizzare i flussi di lavoro in HD: “uno dei prodotti che presentiamo in questa occasione è Dnxchange, un encoder che prende un segnale HD-SDI e lo converte in DNxHD, occupando una banda simile a quella dei segnale video digitali non compressi in definizione standard. Grazie a ciò, una post-produzione potrà utilizzare l’infrastruttura esistente in definizione standard per trattare materiale in HD, senza dover sostituire nulla, server compresi. L’elemento chiave del codec DNxHD è la qualità, anche osservando il video compresso con questo codec fianco a fianco con quello non compresso, non si vede la differenza, garantito. Ma la banda richiesta è la stessa della definizione standard e quindi se già esiste un’infra- 5 struttura per definizione standard la si può usare anche per l’HD.” Se nella fascia alta del mercato, Avid ha una posizione ben consolidata e difficilmente attaccabile, in quella più bassa la concorrenza di prodotti come Final Cut della Apple comincia a farsi sentire, ma Stewart non si dimostra per nulla preoccupato: “La maggior parte dell’attività dei nostri concorrenti si concentra in un mercato intermedio, quello dei new media, dove puoi prendere hardware dallo scaffale del centro commerciale e semplici software per crearti il tuo sistema. La concorrenza più frenetica è proprio nella fascia bassa del mercato new media, ma quando si passa a prodotti come Adrenaline o Symphony Nitris noi siamo ancora molto forti. Non sto dicendo che non abbiamo concorrenti ma semplicemente che siamo molto
Avid DNxchange permette di sfruttare un’infrastruttura SD esistente per l’alta definizione
forti. Per quanto riguarda nello specifico prodotti come Final Cut, preferisco non fare commenti, forse perché sono inglese.”
L’istinto del giornalista Una delle novità più interessanti presentate da Avid al Nab è stato il software iNews Instinct, definito da Stewart “assolutamente rivoluzionario. Questo è uno strumento per giornalisti che permette fondamentalmente di fare editing video. Abbiamo cercato un approccio completamente nuovo per questo prodotto, abbiamo costituito un nuovo team di sviluppo che ha analizzato il workflow della produzione di news. Il risultato è un prodotto completamente nuovo che mira a coinvolgere i giornalisti nel processo di editino e finora le reazioni dei giornalisti sono state molto positive. Sempre per il settore delle news, abbiamo poi completato l’integrazione dei formati P2 e XDcam. L’acquisizione basata su file è sempre più richiesta e con il supporto Mxf possiamo offrire una buona integrazione 6 dei formati P2 e XDCam, anche se nel caso del P2 di Panasonic non si può quasi parlare di workflow, basta inserire la card nello slot e il materiale è immediatamente disponibile per la lavorazione.” Nonostante sia oramai possibile trasferire materiale poco compresso come il DV anche più velocemente che in tem-
porale, Stewart è convinto che ci sia ancora la richiesta di poter effettuare montaggi off-line con i proxy: “Nel caso del formato XDcam, possiamo importare i proxy, montarli e poi effettuare la cattura in batch del materiale in piena risoluzione. Penso che ci siano situazioni per le quali sia importante poter operare in questo modo, per esempio il montaggio sul campo o la possibilità di cominciare il montaggio prima ancora di avere a disposizione tutto il materiale a piena risoluzione.” Lo scorso autunno, in occasione dell’IBC, Avid aveva lanciato Media Factory, un’offerta “chiavi in mano” per la produzione delle news destinata alle emittenti medio/piccole. A poco più di sei mesi di distanza, il bilancio per Stewart è positivo. “Media Factory è molto più che il semplice raggruppamento dei prodotti insieme. Noi offriamo un pacchetto di supporto completo con la preconfigurazione e il collaudo del sistema e inclusa nel pacchetto c’è anche l’installazione. Per la maggioranza delle piccole emittenti tutto questo è molto importante, spesso perché non hanno il personale qualificato per la fase di messain funzione e noi glielo forniamo come parte del pacchetto. Abbiamo cominciato a consegnare i primi sistemi da gennaio e da allora ne abbiamo installati una decina. Questa è una soluzione completa dall’inizio alla fine: acquisizione, editing con iNews e poi trasmissione. Uno dei
Avid completa l’acquisizione di Pinnacle Con il via libera da parte delle autorità antitrust statunitensi ed europee, Avid formalizza l’acquisto di Pinnacle annunciato lo scorso mese di marzo Dai primi di agosto, Pinnacle è diventata a tutti gli effetti una divisione di Avid, più esattamente la nuova divisione Consumer alla cui guida è stato chiamato Jeff Hastings, ex chief operating officer della M-Audio, azienda acquisita lo scorso anno da Avid. Questa divisione si occuperà dei prodotti destinati al mercato del largo consumo, come Pinnacle Studio o ShowCenter, e avrà sede nel vecchio quartier generale della Pinnacle a Mountain View in California. Nel comunicato stampa rilasciato da Avid non si fa alcun cenno alla sorte che avranno gli ex-dirigenti Pinnacle, compreso uno dei suoi fondatori, Ajay Chopra, che aveva assunto recentemente la carica di presidente della divisione Professional e Broadcast di Pinnacle. La commercializzazione e lo sviluppo dei prodotti Pinnacle dell’area broadcast saranno infatti affidati alla divisione Video di Avid, capitanata da Chas Smith, che si occuperà in particolare dei sistemi per la titolazione Deko e dei server MediaStream. Per quanto riguarda la famiglia Liquid,
L’interfaccia grafica di iNews Istinct facilita sensibilmente il compito del giornalista
migliori esempi è stata un’emittente del Dubai: dall’ordine del sistema alla messa in onda ci sono volute solo sei settimane, che è quasi incredibile per un sistema completo di produzione dei notiziari. Le nostre ricerche mostrano che in Italia sono numerose le emittenti che hanno necessità simili, 600/700 emittenti potrebbero essere interessate a un prodotto come Media Factory. Per questo pensiamo che questo prodotto possa avere un discreto successo in Italia, siamo molto ottimisti in proposito.”
7
Avid ha per ora confermato l’intenzione di volerne continuare lo sviluppo. L’acquisizione ha comportato un esborso di 71,3 milioni di dollari e l’emissione di circa 6,2 milioni nuove azioni Avid cedute agli azionisti di Pinnacle. Gli ambienti finanziari non sembrano aver accolto con molto favore l’operazione: la quotazione delle azioni Avid è scesa dal massimo di oltre 68 dollari raggiunto proprio nel mese di marzo a poco meno di 38 dollari. David Krall, presidente e ceo di Avid, si dimostra comunque molto ottimista sul futuro dell’azienda: “I broadcaster che stanno affrontando il passaggio dalle produzioni analogiche a quelle completamente digitali avranno ora immediato accesso a una più vasta offerta da parte nostra e nei prossimi mesi avranno modo di sperimentare la stretta interoperabilità fra i prodotti broadcast Pinnacle e gli ambienti di produzione interamente digitali di Avid. Allo stesso tempo, abbiamo costituito una nuova divisione Consumer che continuerà a far leva sul marchio Pinnacle per confermare la sua posizione di leader nel crescente mercato del video consumer. In definitiva, con l’ingresso di Pinnacle abbiamo ulteriormente consolidato la nostra posizione di fornitori primari di prodotti e servizi per i creatori di contenuti digitali di tutto il mondo.”
Monitor n° 251 - agosto 2005
Monitor n° 251 - agosto 2005
forti. Per quanto riguarda nello specifico prodotti come Final Cut, preferisco non fare commenti, forse perché sono inglese.”
L’istinto del giornalista Una delle novità più interessanti presentate da Avid al Nab è stato il software iNews Instinct, definito da Stewart “assolutamente rivoluzionario. Questo è uno strumento per giornalisti che permette fondamentalmente di fare editing video. Abbiamo cercato un approccio completamente nuovo per questo prodotto, abbiamo costituito un nuovo team di sviluppo che ha analizzato il workflow della produzione di news. Il risultato è un prodotto completamente nuovo che mira a coinvolgere i giornalisti nel processo di editino e finora le reazioni dei giornalisti sono state molto positive. Sempre per il settore delle news, abbiamo poi completato l’integrazione dei formati P2 e XDcam. L’acquisizione basata su file è sempre più richiesta e con il supporto Mxf possiamo offrire una buona integrazione 6 dei formati P2 e XDCam, anche se nel caso del P2 di Panasonic non si può quasi parlare di workflow, basta inserire la card nello slot e il materiale è immediatamente disponibile per la lavorazione.” Nonostante sia oramai possibile trasferire materiale poco compresso come il DV anche più velocemente che in tem-
porale, Stewart è convinto che ci sia ancora la richiesta di poter effettuare montaggi off-line con i proxy: “Nel caso del formato XDcam, possiamo importare i proxy, montarli e poi effettuare la cattura in batch del materiale in piena risoluzione. Penso che ci siano situazioni per le quali sia importante poter operare in questo modo, per esempio il montaggio sul campo o la possibilità di cominciare il montaggio prima ancora di avere a disposizione tutto il materiale a piena risoluzione.” Lo scorso autunno, in occasione dell’IBC, Avid aveva lanciato Media Factory, un’offerta “chiavi in mano” per la produzione delle news destinata alle emittenti medio/piccole. A poco più di sei mesi di distanza, il bilancio per Stewart è positivo. “Media Factory è molto più che il semplice raggruppamento dei prodotti insieme. Noi offriamo un pacchetto di supporto completo con la preconfigurazione e il collaudo del sistema e inclusa nel pacchetto c’è anche l’installazione. Per la maggioranza delle piccole emittenti tutto questo è molto importante, spesso perché non hanno il personale qualificato per la fase di messain funzione e noi glielo forniamo come parte del pacchetto. Abbiamo cominciato a consegnare i primi sistemi da gennaio e da allora ne abbiamo installati una decina. Questa è una soluzione completa dall’inizio alla fine: acquisizione, editing con iNews e poi trasmissione. Uno dei
Avid completa l’acquisizione di Pinnacle Con il via libera da parte delle autorità antitrust statunitensi ed europee, Avid formalizza l’acquisto di Pinnacle annunciato lo scorso mese di marzo Dai primi di agosto, Pinnacle è diventata a tutti gli effetti una divisione di Avid, più esattamente la nuova divisione Consumer alla cui guida è stato chiamato Jeff Hastings, ex chief operating officer della M-Audio, azienda acquisita lo scorso anno da Avid. Questa divisione si occuperà dei prodotti destinati al mercato del largo consumo, come Pinnacle Studio o ShowCenter, e avrà sede nel vecchio quartier generale della Pinnacle a Mountain View in California. Nel comunicato stampa rilasciato da Avid non si fa alcun cenno alla sorte che avranno gli ex-dirigenti Pinnacle, compreso uno dei suoi fondatori, Ajay Chopra, che aveva assunto recentemente la carica di presidente della divisione Professional e Broadcast di Pinnacle. La commercializzazione e lo sviluppo dei prodotti Pinnacle dell’area broadcast saranno infatti affidati alla divisione Video di Avid, capitanata da Chas Smith, che si occuperà in particolare dei sistemi per la titolazione Deko e dei server MediaStream. Per quanto riguarda la famiglia Liquid,
L’interfaccia grafica di iNews Istinct facilita sensibilmente il compito del giornalista
migliori esempi è stata un’emittente del Dubai: dall’ordine del sistema alla messa in onda ci sono volute solo sei settimane, che è quasi incredibile per un sistema completo di produzione dei notiziari. Le nostre ricerche mostrano che in Italia sono numerose le emittenti che hanno necessità simili, 600/700 emittenti potrebbero essere interessate a un prodotto come Media Factory. Per questo pensiamo che questo prodotto possa avere un discreto successo in Italia, siamo molto ottimisti in proposito.”
7
Avid ha per ora confermato l’intenzione di volerne continuare lo sviluppo. L’acquisizione ha comportato un esborso di 71,3 milioni di dollari e l’emissione di circa 6,2 milioni nuove azioni Avid cedute agli azionisti di Pinnacle. Gli ambienti finanziari non sembrano aver accolto con molto favore l’operazione: la quotazione delle azioni Avid è scesa dal massimo di oltre 68 dollari raggiunto proprio nel mese di marzo a poco meno di 38 dollari. David Krall, presidente e ceo di Avid, si dimostra comunque molto ottimista sul futuro dell’azienda: “I broadcaster che stanno affrontando il passaggio dalle produzioni analogiche a quelle completamente digitali avranno ora immediato accesso a una più vasta offerta da parte nostra e nei prossimi mesi avranno modo di sperimentare la stretta interoperabilità fra i prodotti broadcast Pinnacle e gli ambienti di produzione interamente digitali di Avid. Allo stesso tempo, abbiamo costituito una nuova divisione Consumer che continuerà a far leva sul marchio Pinnacle per confermare la sua posizione di leader nel crescente mercato del video consumer. In definitiva, con l’ingresso di Pinnacle abbiamo ulteriormente consolidato la nostra posizione di fornitori primari di prodotti e servizi per i creatori di contenuti digitali di tutto il mondo.”
Monitor n° 251 - agosto 2005
Monitor n° 251 - agosto 2005
Digital Intermediate di Quantel Prima edizione Guida a
Traduzione e adattamento di Roberto Landini
Sesta e ultima parte: come fare le riprese in HD Aumentare la Gamma Dinamica Due sono gli approcci che tendono ad aumentare la gamma dinamica delle riprese effettuate con camere digitali 8 HD. Il primo prevede l'impiego del sensore CCD con una gamma ampliata. La camera viene di solito regolata dalla fabbrica per generare immagini immediatamente utilizzabili con una curva di gamma di tipo ‘Televisivo". É, tuttavia, possibile regolare la camera al fine di avere un contrasto inferiore ma una gamma dinamica superiore. Si tratta di un'uscita che non è immediatamente utilizzabile per impieghi broadcast ma è una buona approssimazione al tipo di cattura attuato dalla pellicola; ciò permette anche un margine addizionale per il grading in post produzione. Con questo approccio otteniamo una certa estensione della gamma dinamica di circa 2-3 stop che può essere applicata non a tutte ma alla gran parte delle camere HD digitali (riferirsi al manuale del costruttore). Il secondo metodo descritto è il più interessante dato che il costruttore stesso della telecamera prevede anche un'uscita apposita con caratteristiche più vicine a quelle della pellicola. La Viper, la CineAlta HDCAM-SR e la
Origin, prevedono già tali uscite. La Viper usa un CCD con un front-end a 12-bit; questi dati lineari RGB sono immediatamente tradotti in 10-bit Logaritmici e mandati in uscita via HSDL a un registratore a disco in forma di dati RGB non compressi. La gamma dinamica disponibile è nell'ordine degli 8 / 9 stop – quindi migliore delle camere HD tradizionali lineari, ma ancora inferiore al negativo cinema che, in origine è di circa 11 stop. Nota: per rappresentare in digitale e in modo accurato la gamma dinamica del negativo su pellicola 2.048 con granularità di 0.002, come specificato dal formato file logaritmico digitale Kodak/Cineon, sono necessari 13 bit. É anche bene ricordare che nelle riprese l'intento è catturare un'immagine che possa consentire la massima flessibilità durante il processo di post produzione e non la migliore immagine per una visione immediata. Solo con questa flessibilità nella post produzione potremo giungere ai migliori risultati finali.
Compressione Un'altra caratteristica di gran parte delle telecamere HD è che registrano immagini compresse in 4:2:2YUV su nastro. In questa modalità ‘camcorder’ il livello di compressione è piuttosto alto. L'alternativa è registrare su un VTR da studio dati a 10-bit 4:2:2 con meno compressione. Diverse camere HD applicano livelli differenti di compressione e numero di bit per pixel. É consigliabile fare dei controlli valutativi della qualità sulle
condizioni delle riprese prima di partire con un progetto. Ovviamente le uscite di tali telecamere possono essere registrate direttamente su un disc recorder e quindi possiamo saltare completamente la compressione, ma, come avviene in studio, la camera è limitata nei movimenti dal collegamento mediante cavo coax al VTR. Si tratta di un punto a sfavore che può ridurre di molto i benefici dell'impiego di una camera digitale. In effetti una macchina da presa per pellicola non fa uso di compressione e si porta sempre con sè il medium di registrazione... Le camere HD e i VTR più nuovi permettono anche di catturare immagini in RGB 4:4:4 con ridotti livelli di compressione, e.g. la nuova CineAlta F950 di Sony con deck a nastri HDCAM-SR.
9
La Profondità di Campo I sensori delle camere HD sono generalmente da 2/3" di diagonale, più piccoli quindi di un frame di pellicola 35mm. Questo risulta in una più ampia area di fuoco, profondità di fuoco o profondità di campo se comparata a una camera da 35mm – ma simile ai valori del Super 16. Continue modifiche di fuoco sono sempre più spesso introdotte nella narrazione per guidare l'occhio ai punti di interesse, tuttavia, un più ampio campo di fuoco può trarre in inganno sulla percezione della qualità finale. Quindi è procedura comune girare in HD con l'apertura più ampia possibile, utilizzando obiettivi con filtri ND per cercare di mantenere l'immagine a una dimensione estetica "più filmica" possibile.
Monitor n° 251 - agosto 2005
Monitor n° 251 - agosto 2005
Digital Intermediate di Quantel Prima edizione Guida a
Traduzione e adattamento di Roberto Landini
Sesta e ultima parte: come fare le riprese in HD Aumentare la Gamma Dinamica Due sono gli approcci che tendono ad aumentare la gamma dinamica delle riprese effettuate con camere digitali 8 HD. Il primo prevede l'impiego del sensore CCD con una gamma ampliata. La camera viene di solito regolata dalla fabbrica per generare immagini immediatamente utilizzabili con una curva di gamma di tipo ‘Televisivo". É, tuttavia, possibile regolare la camera al fine di avere un contrasto inferiore ma una gamma dinamica superiore. Si tratta di un'uscita che non è immediatamente utilizzabile per impieghi broadcast ma è una buona approssimazione al tipo di cattura attuato dalla pellicola; ciò permette anche un margine addizionale per il grading in post produzione. Con questo approccio otteniamo una certa estensione della gamma dinamica di circa 2-3 stop che può essere applicata non a tutte ma alla gran parte delle camere HD digitali (riferirsi al manuale del costruttore). Il secondo metodo descritto è il più interessante dato che il costruttore stesso della telecamera prevede anche un'uscita apposita con caratteristiche più vicine a quelle della pellicola. La Viper, la CineAlta HDCAM-SR e la
Origin, prevedono già tali uscite. La Viper usa un CCD con un front-end a 12-bit; questi dati lineari RGB sono immediatamente tradotti in 10-bit Logaritmici e mandati in uscita via HSDL a un registratore a disco in forma di dati RGB non compressi. La gamma dinamica disponibile è nell'ordine degli 8 / 9 stop – quindi migliore delle camere HD tradizionali lineari, ma ancora inferiore al negativo cinema che, in origine è di circa 11 stop. Nota: per rappresentare in digitale e in modo accurato la gamma dinamica del negativo su pellicola 2.048 con granularità di 0.002, come specificato dal formato file logaritmico digitale Kodak/Cineon, sono necessari 13 bit. É anche bene ricordare che nelle riprese l'intento è catturare un'immagine che possa consentire la massima flessibilità durante il processo di post produzione e non la migliore immagine per una visione immediata. Solo con questa flessibilità nella post produzione potremo giungere ai migliori risultati finali.
Compressione Un'altra caratteristica di gran parte delle telecamere HD è che registrano immagini compresse in 4:2:2YUV su nastro. In questa modalità ‘camcorder’ il livello di compressione è piuttosto alto. L'alternativa è registrare su un VTR da studio dati a 10-bit 4:2:2 con meno compressione. Diverse camere HD applicano livelli differenti di compressione e numero di bit per pixel. É consigliabile fare dei controlli valutativi della qualità sulle
condizioni delle riprese prima di partire con un progetto. Ovviamente le uscite di tali telecamere possono essere registrate direttamente su un disc recorder e quindi possiamo saltare completamente la compressione, ma, come avviene in studio, la camera è limitata nei movimenti dal collegamento mediante cavo coax al VTR. Si tratta di un punto a sfavore che può ridurre di molto i benefici dell'impiego di una camera digitale. In effetti una macchina da presa per pellicola non fa uso di compressione e si porta sempre con sè il medium di registrazione... Le camere HD e i VTR più nuovi permettono anche di catturare immagini in RGB 4:4:4 con ridotti livelli di compressione, e.g. la nuova CineAlta F950 di Sony con deck a nastri HDCAM-SR.
9
La Profondità di Campo I sensori delle camere HD sono generalmente da 2/3" di diagonale, più piccoli quindi di un frame di pellicola 35mm. Questo risulta in una più ampia area di fuoco, profondità di fuoco o profondità di campo se comparata a una camera da 35mm – ma simile ai valori del Super 16. Continue modifiche di fuoco sono sempre più spesso introdotte nella narrazione per guidare l'occhio ai punti di interesse, tuttavia, un più ampio campo di fuoco può trarre in inganno sulla percezione della qualità finale. Quindi è procedura comune girare in HD con l'apertura più ampia possibile, utilizzando obiettivi con filtri ND per cercare di mantenere l'immagine a una dimensione estetica "più filmica" possibile.
Monitor n° 251 - agosto 2005
Monitor n° 251 - agosto 2005
Usando una apertura più ampia del diaframma può aiutare ad ottenere la percezione di un fuoco più morbido con risultati più cinematografici. Ma ciò significa anche che c'è pericolo di sovraesporre la scena. Come già detto, ci vuole molta cura nell'illuminazione della scena se usiamo filtri ND. Per la scala inferiore delle ottiche delle camere HD, il back focus è proporzionalmente più critico e dobbiamo controllarlo dopo la spedizione della telecamera per evitare effetti deleteri. I collimatori sono disponibili e possono compiere un veloce controllo sul back focus. Nota: la telecamera Dalsa Origin dispone di sensori immagine simili al 35mm, quindi le appena citate differenze di campo di fuoco non sono applicabili e possiamo utilizzare normali ottiche di tipo cinematografico standard.
L'inquadratura
10 Uno dei benefici addizionali di una macchina da presa cinematografica è che fa uso di una "loop" ottica (viewfinder). Tutte le telecamere HD impiegano una "loop" elettronica e quindi mostrano solo l'area immagine che effettivamente catturano. É quindi molto importante che le aste dei microfoni siano mantenute fuori dall'inquadratura. In questo senso il direttore della fotografia non può vedere ‘attorno all'inquadratura’ e quindi potrebbe non riuscire - a volte - a comporre l'inquadratura nel migliore dei modi, rispetto all'entrata in scena. Una breve guida per le riprese in HD Quando dobbiamo riprendere in HD per successive lavorazioni in DI, ci sono diversi suggerimenti che ci possono dare una mano nell'ottenere risultati migliori. Come avviene in tutti i processi creativi basati sulle immagini, la qualità del girato definisce la massima qualità che possiamo raggiungere. Cura e attenzione in questa fase faranno risparmiare tempo e soldi in fase di post produzione. I punti seguenti non sono regole ma suggeri-
menti che risultano in un'immagine adatta a successive manipolazioni in DI su iQ e produrranno un'immagine a basso contrasto e piuttosto "grigia" quando visionata su un normale monitor HD. Dobbiamo notare che nel seguire questa guida verrà introdotto del rumore digitale (video grain) se i livelli di esposizione sono troppo bassi. Come nella ripresa cinematografica, l'illuminazione gioca un ruolo fondamentale sia nella qualità finale delle immagini sia nell'atmosfera generale del prodotto finito e quindi necessita la massima cura.
Guida per le riprese HD Controllare il back focus! Girare in 24P – mantenere un'immagine cinematografica a 24 fps senza artefatti interlacciati Usare velocità di otturatore di 1/48 come se fosse una normale ripresa cinematografica Usare filtri ND piuttosto che scendere con gli stop per mantenere una profondità di campo tipica del film Porre cura nell'illuminazione della scena per evitare scene sovraesposte in cui delle sorgenti di luce saturano (mascherandola) l'intera scena Settare la camera per un basso contrasto per estendere la gamma dinamica registrata e avvicinarsi a quella della pellicola (vedere il libretto di istruzioni della telecamera per il setup) Evitare il crushing del nero – per avvicinarsi alle caratteristiche del film (Toe) Evitare il clipping del bianco – per avvicinarsi alle caratteristiche del film (shoulder) Il grading va fatto in post produzione e non in ripresa. Controllare l'inquadratura della scena – nell'immagine HD non c'è una safe area o un'area over-scan. Se questi punti vengono seguiti, il risultato sarà un impiego molto flessibile della cattura di immagini in HD per una successiva post produzione basata su iQ.
Per ottenere il meglio da un sistema DI dobbiamo comunque tenere a mente che tutte le varie fasi - oltre al processo interno ad iQ, come lo sviluppo e la stampa - sono momenti determinanti.
Dai dati alla Celluloide iQ si aspetta dei dati in formato digitale in qualità di informazioni mappate con densità Cineon e trattati come un processo unitario cui viene aggiunta solo della creatività, ma i dati originali non vengono certo corrotti. Con il monitoring ben regolato e calibrato come descritto nella Appendice 2, qualsiasi uscita verrà adeguata allo standard industriale di dati logaritmici.CIN/DPX – un'entità riconosciuta e ben nota. Un film recorder ben calibrato da parte sua deve dare in uscita un ‘film negativo digitale’ in grado di avvicinarsi a quanto ci aspettiamo, un prodotto intermedio di densità Status M per un digital 445 LAD patch (Laboratory Aim Density), come specificato dalla Kodak, dando per scontata la parte di sviluppo e stampa da parte di un laboratorio ben allineato. Una stampa accurata può essere derivata da questo negativo, che rispetti i valori di densità Status A per il LAD patch. Nella sua essenza, il prodotto finale su pellicola che deriva da una lavorazione DI tende a riprodurre un negativo neutro equivalente a un perfetto OCN. Dato che il film recorder registrera su di un film Intermediate le effettive luci di stampa saranno differenti da quelle impostate per un OCN.
11
Il processo Una volta che il lavoro in DI è stato completato, il film digitale viene inviato a un film recorder, tipo un ArriLaser o un recorder Celco CRT. Ciascun frame verrà esposto, creando un nuovo negativo intermediate che deriva dai dati digitali pervenuti al film recorder. In alternativa si può creare un positivo intermediate. Malgrado questo procedimento sia meno comune, può essere interessan-
Monitor n° 251 - agosto 2005
Monitor n° 251 - agosto 2005
Usando una apertura più ampia del diaframma può aiutare ad ottenere la percezione di un fuoco più morbido con risultati più cinematografici. Ma ciò significa anche che c'è pericolo di sovraesporre la scena. Come già detto, ci vuole molta cura nell'illuminazione della scena se usiamo filtri ND. Per la scala inferiore delle ottiche delle camere HD, il back focus è proporzionalmente più critico e dobbiamo controllarlo dopo la spedizione della telecamera per evitare effetti deleteri. I collimatori sono disponibili e possono compiere un veloce controllo sul back focus. Nota: la telecamera Dalsa Origin dispone di sensori immagine simili al 35mm, quindi le appena citate differenze di campo di fuoco non sono applicabili e possiamo utilizzare normali ottiche di tipo cinematografico standard.
L'inquadratura
10 Uno dei benefici addizionali di una macchina da presa cinematografica è che fa uso di una "loop" ottica (viewfinder). Tutte le telecamere HD impiegano una "loop" elettronica e quindi mostrano solo l'area immagine che effettivamente catturano. É quindi molto importante che le aste dei microfoni siano mantenute fuori dall'inquadratura. In questo senso il direttore della fotografia non può vedere ‘attorno all'inquadratura’ e quindi potrebbe non riuscire - a volte - a comporre l'inquadratura nel migliore dei modi, rispetto all'entrata in scena. Una breve guida per le riprese in HD Quando dobbiamo riprendere in HD per successive lavorazioni in DI, ci sono diversi suggerimenti che ci possono dare una mano nell'ottenere risultati migliori. Come avviene in tutti i processi creativi basati sulle immagini, la qualità del girato definisce la massima qualità che possiamo raggiungere. Cura e attenzione in questa fase faranno risparmiare tempo e soldi in fase di post produzione. I punti seguenti non sono regole ma suggeri-
menti che risultano in un'immagine adatta a successive manipolazioni in DI su iQ e produrranno un'immagine a basso contrasto e piuttosto "grigia" quando visionata su un normale monitor HD. Dobbiamo notare che nel seguire questa guida verrà introdotto del rumore digitale (video grain) se i livelli di esposizione sono troppo bassi. Come nella ripresa cinematografica, l'illuminazione gioca un ruolo fondamentale sia nella qualità finale delle immagini sia nell'atmosfera generale del prodotto finito e quindi necessita la massima cura.
Guida per le riprese HD Controllare il back focus! Girare in 24P – mantenere un'immagine cinematografica a 24 fps senza artefatti interlacciati Usare velocità di otturatore di 1/48 come se fosse una normale ripresa cinematografica Usare filtri ND piuttosto che scendere con gli stop per mantenere una profondità di campo tipica del film Porre cura nell'illuminazione della scena per evitare scene sovraesposte in cui delle sorgenti di luce saturano (mascherandola) l'intera scena Settare la camera per un basso contrasto per estendere la gamma dinamica registrata e avvicinarsi a quella della pellicola (vedere il libretto di istruzioni della telecamera per il setup) Evitare il crushing del nero – per avvicinarsi alle caratteristiche del film (Toe) Evitare il clipping del bianco – per avvicinarsi alle caratteristiche del film (shoulder) Il grading va fatto in post produzione e non in ripresa. Controllare l'inquadratura della scena – nell'immagine HD non c'è una safe area o un'area over-scan. Se questi punti vengono seguiti, il risultato sarà un impiego molto flessibile della cattura di immagini in HD per una successiva post produzione basata su iQ.
Per ottenere il meglio da un sistema DI dobbiamo comunque tenere a mente che tutte le varie fasi - oltre al processo interno ad iQ, come lo sviluppo e la stampa - sono momenti determinanti.
Dai dati alla Celluloide iQ si aspetta dei dati in formato digitale in qualità di informazioni mappate con densità Cineon e trattati come un processo unitario cui viene aggiunta solo della creatività, ma i dati originali non vengono certo corrotti. Con il monitoring ben regolato e calibrato come descritto nella Appendice 2, qualsiasi uscita verrà adeguata allo standard industriale di dati logaritmici.CIN/DPX – un'entità riconosciuta e ben nota. Un film recorder ben calibrato da parte sua deve dare in uscita un ‘film negativo digitale’ in grado di avvicinarsi a quanto ci aspettiamo, un prodotto intermedio di densità Status M per un digital 445 LAD patch (Laboratory Aim Density), come specificato dalla Kodak, dando per scontata la parte di sviluppo e stampa da parte di un laboratorio ben allineato. Una stampa accurata può essere derivata da questo negativo, che rispetti i valori di densità Status A per il LAD patch. Nella sua essenza, il prodotto finale su pellicola che deriva da una lavorazione DI tende a riprodurre un negativo neutro equivalente a un perfetto OCN. Dato che il film recorder registrera su di un film Intermediate le effettive luci di stampa saranno differenti da quelle impostate per un OCN.
11
Il processo Una volta che il lavoro in DI è stato completato, il film digitale viene inviato a un film recorder, tipo un ArriLaser o un recorder Celco CRT. Ciascun frame verrà esposto, creando un nuovo negativo intermediate che deriva dai dati digitali pervenuti al film recorder. In alternativa si può creare un positivo intermediate. Malgrado questo procedimento sia meno comune, può essere interessan-
Monitor n° 251 - agosto 2005
Monitor n° 251 - agosto 2005
te perchè riduce il numero di processi di duplicazione necessari ad arrivare alla stampa definitiva. Nota: visto che il film recording è un processo lungo e costoso, viene di solito impiegato una volta sola per ogni lavoro e per produrre un negativo montato. Da lì in avanti i duplicati di origine chimica sono impiegati per produrre gli interpositivi e stampe eventuali. Tuttavia, se potessimo aumentare a sufficienza l'efficienza dei recorder, si potrebbe arrivare alla produzione di molteplici internegativi prodotti in modo efficace dal punto di vista del costo e dedicati alle stampe finali per la proiezione. Quando questo avverrà gli spettatori potranno assistere a un salto nella qualità d'immagine. La velocità nel processo di film recording varia secondo la macchina e la marca impiegata, oltre al modello e al formato dati e al processing associato (e.g. Un ritocco sulla sharpening). Con un recorder di tipo laser ci dobbiamo aspettare dai 2 ai 4 secondi per frame 12 mentre siamo molto vicini a un solo secondo per frame, da parte del film recorder.
Il Film Recording Controllo della registrazione Come guida del processo di film recording dovremmo esporrre una selezione di frame di riferimento in testa o in coda ad ogni registrazione. Tali immagini dovrebbero comprendere i frame digitali di riferimento utilizzati per calibrare il monitor di grading di iQ (vedi Appendice 2) e qualsiasi frame di reference necessario dal film recorder. Questo può comprendere una scala sensiometrica di grigi con 21 step ma, come minimo, deve comprendere una 445 LAD per consentire misure di Status M del negativo (intermedio) e misure di Status A della stampa che si deve fare. Comprendere le dinamiche di come lavora un laboratorio e delle luci di stampa ci può aiutare ad ottenere buoni risultati quando poi utiliziamo
come media recorder la pellicola. L'OCN registra una scena con una certa densità sull'emulsione della pellicola. Dopo il processing, quello che risulta sul film sono delle aree con informazioni brillanti, dense (più opache) e altre aree esposte ai dettagli scuri meno dense (più traslucide). Il film registra l'inverso del colore originale. Quindi la registrazione iniziale del film è una copia negativa della scena originale. Questo concetto è vero anche per l'inernegativo prodotto all'uscita del processo di DI. L'immagine positiva vista sul monitor di grading viene (di solito) registrata come immagine negativa sul film. Quando questo film negativo viene copiato (duplicato), viene proiettata della luce su di esso che colpisce una pellicola non ancora esposta. Questa pellicola è simile all'OCN dato che registra informazioni di luminosità e di colore alla medesima maniera, ma dato che "vede" un'immagine negativa da un OCN , essa registra una rappresentazione positiva della scena originale. Per creare una stampa per proiezione da un negativo (OCN o duplicazione) si segue la stessa procedura. Nota: l'operazione su pellicola intermediate è solo per compiere una copia e non per modificare il look dell' OCN. Quindi la sua risposta sensitometrica avrà una curva in salita molto lunga e lineare, ha minore struttura di grana (è una pellicola molto lenta che richiede molta luce nel processo di duplicazione), e ha un gamma 1 in modo da compromettere meno possibile le caratteristiche dell'OCN. Per comprendere meglio il processo chimico della pellicola date un'occhiata al Quantel Digital Fact Book Edition 11 – nella sezione film (download da www.quantel.com e ’Quantel’ da www.presspool.it). Il livello di esposizione del nuovo film viene controllato dalle variazioni delle "luci di stampa". Le luci di stampa derivano da una sola sorgente (lampadina bianca) la cui luce viene scomposta in RGB da filtri dicroici. Ogni singolo colore viene poi dosato mediante appositi dispositivi (valvole delle luci) le quali si aprono o chiu-
dono in misura maggiore o minore in funzione di una programmazione ricevuta a priori dal "datore luci" Questo processo viene impiegato nella creazione di un duplicato (positivo o negativo intermedio) o di una stampa per proiezione finale. Per un OCN esposto correttamente, le luci di stampa hanno valori di R25 G25 B25 e producono una pellicola bilanciata esposta di medio livello, spesso descritta come '25 across'.
Effetti delle Luci di Stampa Sono le luci di stampa che controllano l'esposizione nella duplicazione di un film e quindi possono controllarne la densità relativa variando la quantità di luce che è resa disponibile. Per esempio, aumentando alla sorgente la quantità della luce di stampa (che fornisce le luci di R, G e B) otterremo un risultato più denso e scuro, se stiamo creando una stampa positiva ma decisamente più leggero e più chiaro se stiamo copiando un negativo da un positivo.
13
Laboratorio e Luci di Stampa Le Luci di Stampa e il DI Per le lavorazioni in DI si tende ad assumere che il nuovo negativo digitale in uscita dal film recorder sia "un'entità" fissa dato che possiamo fare ben poco per alterarla se non rimandare in uscita tutto il materiale da zero e riprocessare – assumendo di operare su un film recorder ben calibrato. Ecco che, quindi, quando si parla di luci di stampa nel mondo DI ci si riferisce a quelle impostate o da impostare per ottenere una stampa per la proiezione dal film negativo digitale in uscita dal film recorder, una sorta di prima copia del processo DI. Ovviamente il DI e il laboratorio di sviluppo e stampa si sforzano di produrre una copia finale perfetta, cosicché il film in proiezione sia del tutto allineato alle immagini che avevamo visto sul monitor nel grading su iQ. Tuttavia, siamo in un processo chimico e non ci
Monitor n° 251 - agosto 2005
Monitor n° 251 - agosto 2005
te perchè riduce il numero di processi di duplicazione necessari ad arrivare alla stampa definitiva. Nota: visto che il film recording è un processo lungo e costoso, viene di solito impiegato una volta sola per ogni lavoro e per produrre un negativo montato. Da lì in avanti i duplicati di origine chimica sono impiegati per produrre gli interpositivi e stampe eventuali. Tuttavia, se potessimo aumentare a sufficienza l'efficienza dei recorder, si potrebbe arrivare alla produzione di molteplici internegativi prodotti in modo efficace dal punto di vista del costo e dedicati alle stampe finali per la proiezione. Quando questo avverrà gli spettatori potranno assistere a un salto nella qualità d'immagine. La velocità nel processo di film recording varia secondo la macchina e la marca impiegata, oltre al modello e al formato dati e al processing associato (e.g. Un ritocco sulla sharpening). Con un recorder di tipo laser ci dobbiamo aspettare dai 2 ai 4 secondi per frame 12 mentre siamo molto vicini a un solo secondo per frame, da parte del film recorder.
Il Film Recording Controllo della registrazione Come guida del processo di film recording dovremmo esporrre una selezione di frame di riferimento in testa o in coda ad ogni registrazione. Tali immagini dovrebbero comprendere i frame digitali di riferimento utilizzati per calibrare il monitor di grading di iQ (vedi Appendice 2) e qualsiasi frame di reference necessario dal film recorder. Questo può comprendere una scala sensiometrica di grigi con 21 step ma, come minimo, deve comprendere una 445 LAD per consentire misure di Status M del negativo (intermedio) e misure di Status A della stampa che si deve fare. Comprendere le dinamiche di come lavora un laboratorio e delle luci di stampa ci può aiutare ad ottenere buoni risultati quando poi utiliziamo
come media recorder la pellicola. L'OCN registra una scena con una certa densità sull'emulsione della pellicola. Dopo il processing, quello che risulta sul film sono delle aree con informazioni brillanti, dense (più opache) e altre aree esposte ai dettagli scuri meno dense (più traslucide). Il film registra l'inverso del colore originale. Quindi la registrazione iniziale del film è una copia negativa della scena originale. Questo concetto è vero anche per l'inernegativo prodotto all'uscita del processo di DI. L'immagine positiva vista sul monitor di grading viene (di solito) registrata come immagine negativa sul film. Quando questo film negativo viene copiato (duplicato), viene proiettata della luce su di esso che colpisce una pellicola non ancora esposta. Questa pellicola è simile all'OCN dato che registra informazioni di luminosità e di colore alla medesima maniera, ma dato che "vede" un'immagine negativa da un OCN , essa registra una rappresentazione positiva della scena originale. Per creare una stampa per proiezione da un negativo (OCN o duplicazione) si segue la stessa procedura. Nota: l'operazione su pellicola intermediate è solo per compiere una copia e non per modificare il look dell' OCN. Quindi la sua risposta sensitometrica avrà una curva in salita molto lunga e lineare, ha minore struttura di grana (è una pellicola molto lenta che richiede molta luce nel processo di duplicazione), e ha un gamma 1 in modo da compromettere meno possibile le caratteristiche dell'OCN. Per comprendere meglio il processo chimico della pellicola date un'occhiata al Quantel Digital Fact Book Edition 11 – nella sezione film (download da www.quantel.com e ’Quantel’ da www.presspool.it). Il livello di esposizione del nuovo film viene controllato dalle variazioni delle "luci di stampa". Le luci di stampa derivano da una sola sorgente (lampadina bianca) la cui luce viene scomposta in RGB da filtri dicroici. Ogni singolo colore viene poi dosato mediante appositi dispositivi (valvole delle luci) le quali si aprono o chiu-
dono in misura maggiore o minore in funzione di una programmazione ricevuta a priori dal "datore luci" Questo processo viene impiegato nella creazione di un duplicato (positivo o negativo intermedio) o di una stampa per proiezione finale. Per un OCN esposto correttamente, le luci di stampa hanno valori di R25 G25 B25 e producono una pellicola bilanciata esposta di medio livello, spesso descritta come '25 across'.
Effetti delle Luci di Stampa Sono le luci di stampa che controllano l'esposizione nella duplicazione di un film e quindi possono controllarne la densità relativa variando la quantità di luce che è resa disponibile. Per esempio, aumentando alla sorgente la quantità della luce di stampa (che fornisce le luci di R, G e B) otterremo un risultato più denso e scuro, se stiamo creando una stampa positiva ma decisamente più leggero e più chiaro se stiamo copiando un negativo da un positivo.
13
Laboratorio e Luci di Stampa Le Luci di Stampa e il DI Per le lavorazioni in DI si tende ad assumere che il nuovo negativo digitale in uscita dal film recorder sia "un'entità" fissa dato che possiamo fare ben poco per alterarla se non rimandare in uscita tutto il materiale da zero e riprocessare – assumendo di operare su un film recorder ben calibrato. Ecco che, quindi, quando si parla di luci di stampa nel mondo DI ci si riferisce a quelle impostate o da impostare per ottenere una stampa per la proiezione dal film negativo digitale in uscita dal film recorder, una sorta di prima copia del processo DI. Ovviamente il DI e il laboratorio di sviluppo e stampa si sforzano di produrre una copia finale perfetta, cosicché il film in proiezione sia del tutto allineato alle immagini che avevamo visto sul monitor nel grading su iQ. Tuttavia, siamo in un processo chimico e non ci
Monitor n° 251 - agosto 2005
Monitor n° 251 - agosto 2005
si può aspettare realisticamente che il laboratorio raggiunga la perfezione e difatti ci si aspetta una variazione di circa +/- 1 sulla luce di stampa per colore. Questo potrebbe non sembrare molto ma si tratta di una differenza facilmente visibile, soprattutto se la copia stampata viene rivista immediatamente dopo aver visionato l'immagine DI ‘perfetta’ sul monitor di grading di iQ. Ecco, quindi, che le densità di Status A devono essere controllate prima di ogni visione con un'attenta valutazione delle variazioni di luminosità e colore che dobbiamo aspettarci. Se ci si aspetta una variazione troppo intensa è bene richiedere un'altra stampa con valori di luci di stampa che tengano in considerazione tale errori. Inoltre, se l'errore è leggero – entro tolleranze accettabili – le misure di densità Status A possono essere impiegate per modificare l'uscita di iQ affinché il monitor di grading ripeta l'errore della stampa. Questa procedura permette di rivedere un prodotto che sarà simile alla stampa, avendo 14 introdotto il medesimo errore, ed è un modo di lavorare in DI intelligente che consente variazioni in fase di sviluppo e stampa.
sono essere regolati per adattare il monitor di grading alla stampa, adeguandosi agli effettivi valori di stampa, piuttosto che lavorare coi valori ideali (la stampa perfetta) usati durante il processo digitale di grading. Chiaramente se tutte le luci di stampa sono fuori registro di un valore equivalente, il bilanciamento colorimetrico globale verrà mantenuto – l'immagine sarà semplicemente più chiara o più scura. Se una o due luci di stampa sono disallineate, o tutte le luci lo sono in direzioni differenti, la stampa avrà una dominante colore, oltre ad essere potenzialmente più chiara o più scura. Ciò viene spiegato nella tabella seguente. Dimostra che aumentando le luci di stampa avremo un risultato più denso e più tendente al ciano, al magenta o al giallo. Diminuendo le luci otterremo una stampa più chiara e tendente al rosso, al verde o al blu.
L'effetto delle Lucidi Stampa sulla stampa positiva Printer -ve Light Red
0 25
Colour Verde 25 Blue 25
LAD print AIM density – 445 patch (valori Kodak – altre pellicole avranno valori diversi) Status M - R-0.87, G-0.93, B-0.91 (5242 intermediate IP stock) Status M - R-1.02, G-1.09, B-1.08 (5242 intermediate in stock) Status A - R-1.09, G-1.06, B-1.03 (vision print stock)
+ve Ciano Magenta Giallo
Density Chiara Nominale Scura Quindi, se le misure di Status A hanno confermato rosso nominale, verde e blu di densità inferiore, la stampa risulterà tendente al ciano e più chiara di quanto ci aspettiamo. La stampa risulterà anche meno saturata e meno
contrastata come diretto risultato dell'essere più chiara. Si tratta di un inganno teso al nostro occhio più che una verità fisica. Le luci di stampa sono anche controlli che non agiscono direttamente – per esempio, se regoliamo il rosso andremo a modificare l'equilibrio del verde e del blu. L'impiego delle luci di stampa è davvero più un'arte di una scienza, ma comprenderne le basi è di grande aiuto per capire esattamente quello che ci aspettiamo dal processo di DI su iQ. Il dibattito continua sul dilemma di impiegare scale di campionamento lineari o logaritmiche. Tuttavia, la vera questione è quale gamma dinamica utilizzare. La questione di come come trattare le immagini in digitale (in logartimico o in lineare) è secondaria.
Scalatura Logaritmica e lineare Il negativo originale OCN riesce a mantenere il dettaglio delle ombre più scure e nelle sovraesposizioni – una gamma superiore di quanto l'occhio umano riesca a percepire. Il film registra una variazione logaritmica per la luminosità, un po' come fa l'occhio. Questo equivale a dire che piccoli cambi di luminosità nelle ombre sono facilmente registrabili ma altrettanto non avviene nelle zone molto luminose. Immaginiamo di essere in una stanza buia in cui qualcuno accende un fiammifero. La fiamma risulterà immediatamente visibile, ma se questo avviene in una stanza illuminata dalla luce del
Luci di Stampa e Densità A grandi linee, una luce di stampa è uguale a densità 0.07 misurata da un densitometro (Status A) (7 luci di stampa equivalgono a uno stop circa). Quindi, se la lettura della densità di Status A del 445 LAD patch è fuori di 0.07 il laboratorio può regolare una ristampa di un punto (una luce di stampa) per correggere. Ciò significa anche che i controlli dei punti di stampa delle LUT di iQ pos-
Figura A7.1: Come il nostro occhio percepisce la campionatura lineare
Monitor n° 251 - agosto 2005
sole il fiammifero risulterà praticamente invisibile. I trasduttori elettronici in grado di "leggere la luce" e trasformarla in un segnale elettrico hanno una risposta lineare. I CCD, Charge Coupled Device, che trasformano immagini in informazioni digitali danno in uscita un voltaggio analogico con una risposta di tipo lineare nei confronti della luminosità, che viene convertita in un segnale digitale per produrre dati lineari digitali. Piccole modifiche di dettagli in ombra si vedono con facilità mentre i cambi di luminosità riferiti ai gradini di quantizzazione (codifica in numerico di un segnale analogico) devono essere solo molto piccoli per essere distinti. Usando dati lineari, cambi di luminosità nelle sovraesposizioni probabilmente non saranno visibili. Saranno quindi ridondanti in quanto non percepibili ad occhio. Un altro modo di vedere quanto espresso è considerare le cifre in modo lineare. Se la luminosità del background è a livello 20 e alcune modifiche nel dettaglio sono a 30, siamo di fronte a un aumento del 50 per cento che dovrebbe essere visibile. Tuttavia, se il background è a 1000, lo stesso valore assoluto di variazione a 1010 è solo dell'uno per cento e probabilmente non sarà visibile. La nostra percezione e quella del film funzionano secondo cambi di percentuale piuttosto che su valori assoluti, come avviene nelle variazioni logaritmiche. Se la gamma dinamica digitalizzata non è elevata, non è un problema, il che accade con una camera digitale quando catturiamo una scena con 4 o 5 stop di illuminazione. Con dati a 10bit che definiscono 1.024 distinti valori o livelli, ce ne è abbastanza per rappresentare i dettagli nelle ombre in modo accurato senza sprecarne troppi nelle alteluci. Se la gamma dinamica è la stessa dell' OCN da 10-a-11 stop, ci vorranno 13bit lineari di dati per creare 8.192 (213) diversi livelli per riprodurre le informazioni sulla medesima gamma dinamica. Tuttavia, una campionatura lineare su tutta la gamma dinamica non è la soluzione migliore – come dicevamo, molto si spreca nelle alteluci. Se ampliamo i bit da 10 a 13 aumentiamo
Monitor n° 251 - agosto 2005
Figura A7.2 La campionatura scalata in logaritmico
anche le necessità di storage, di processing e le connessioni di bus di almeno il 30 per cento. Molti concordano che la soluzione dei 13-bit lineari sia uno spreco. Se tutta la gamma dinamica dell'immagine viene convertita in dati lineari logaritmici (come variazioni in percentuale), la distribuzione dei livelli di campionatura è più efficiente. Ci saranno più che sufficienti livelli di campionatura distribuiti nelle ombre e abbastanza nelle alteluci. In questo modo 10-bit logaritmici di dati possono rappresentare fedelmente gli 11 stop di luminosità che il negativo originale OCN può registrare. In tal senso questa può essere considerata una forma di compressione senza perdita di dati e anche il formato ideale per il film digitale e il lavoro in DI. Queste sono le basi per il formato dei file CIN specificato da Kodak per il film digitale dove ciascun campione digitale rappresenta 0,002 di densità dell'OCN (il che è una rappresentazione logaritmica della luminosità della scena), sotto la soglia della percezione umana.
Margine – Registrazione Logaritmica o Lineare I benefici di una gestione logaritmica per una gamma dinamica estesa sono discusse in Appendice 7. Se l'immagine catturata è su pellicola o ci arriva da una camera e dati logaritmici, tutto va bene; e anche se utilizziamo una camera lineare in HD, questo non ci obbligherà ad un'operatività ‘lineare’ in tutta la catena di produ-
zione. Sarà comunque utile utilizzare iQ regolato per dati logaritmici dato che questa procedura ci consente un margine in più durante il grading. Apparati per la gestione lineare delle immagini, telecamere e telecinema, non settati su ‘modalità logaritmica’, catturano immagini e assegnano valori digitali specifici al nero e al bianco. Usando gli standard ITU 709 o SMPTE 274M per la tv HD, in un sistema a 10bit (definendo 2^10 – 1024 livelli discreti) il nero è regolato a 64 e il bianco 15 a 940. Sebbene ci sia un piccolo margine digitale sopra e sotto tali livelli, è probabile che tali dettagli saranno clippati. Con un controllo attento, questo clipping può essere minimizzato su quasi tutte le immagini tranne quelle con gamma dinamica troppo elevata e di solito il video viene girato riuscendo ad ottenere un buon contrasto con la gamma dinamica disponibile –dal nero al bianco. Quindi, con tutti i campioni di dati disponibili per l'immagine digitale, qualsiasi procedura di grading eseguita nel medesimo spazio lineare causerebbe del clipping, dato che l'immagine viene spinta al di sopra o al di sotto. Comunque, se i dati lineari sono mappati in uno spazio logartimico il nero viene regolato su 95 e il bianco su 685, lasciando un buon margine head and foot per il grading. Se muoviamo questi punti, la traslazione in uno spazio colore logaritmico significa che la nuova granularità del campione (variazioni di luminosità per campione digitale) è effettivamente migliorata su tutta la gamma. Il risultato è un'immagine corretta in modo migliore.
Dati lineari mappati su un o spazio logaritmico con un miglioramento sul margine ’head and foot’ per il grading senza ulteriore clipping o crushing
Anche se non torniamo alla pellicola, l'uso di una stampa ‘D-log E’ la conversione da logaritmica a lineare mediante le LUT riesce a mantenere di più del nuovo margine di quanto avviene in una semplice e normale conversione da logaritmica a lineare 16 dove 95 viene ancora assegnato al nero e 685 al bianco. Ci sono molti modi di lavorare in DI grazie al laboratorio digitale creato grazie ad iQ che permettono di far fronte ai bisogni di tutti i progetti individuali. Un'area dove possono esserci differenti approcci è nell'uso dell'OCN cut or uncut (negativo tagliato o integro). Lo schema seguente mostra come possiamo organizzare il workflow in una suite con iQ in un processo DI.
Negativo integro, privo di tagli Figura A8.1: uno degli approcci di lavoro nel DI con materiale originato da pellicola dove il negativo originale non viene tagliato. Qui le possibili alternative di lavoro sono molteplici. Il negativo OCN viene passato al telecinema come giornalieri e trasferito in video dalle varie bobine. Ciascun rullo viene identificato segnando il fotogramma di partenza, e il trasferimento video utilizza uno start di timecode di 1:00 ora, 2 ore, etc. Per ciascun rullo. Il transfer avviene da frame-a-frame: il
Questo permette alla EDL di rispecchiare in modo diretto le necessità della scansione in 2K, rendendo facile lo scanning online, completo e conforme. Ciò significa anche che l'OCN non viene tagliato, così rendendo minimi i rischi di danni e graffi dovuti a polvere. Lo svantaggio è nel fatto che le scene selezionate devono essere estratte dai rulli completi – e quindi il processo di scanning risulta più lungo. Tuttavia, dato che lo scanning può iniziare prima che tutto il lavoro sia montato alla perfezione, sono necessari meno tempo e denaro nella fase di taglio negativo e il film rischia meno di essere danneggiato. L'alternativa è produrre un negativo ‘pull list’ dalle informazioni di keycode della EDL e poi tagliare l' OCN creando dei rulli selezionati. Queste sono le scene selezionate dalla EDL, con le code di montaggio (handles) o le scene selezionate per intero, da ciak a ciak. Questa procedura consente di ridurre la quantità di film effettivamente conservato – ma prevede anche che il negativo venga maneggiato di più e questo non costituisce un problema se il materiale viene memorizzato con ampie code.
telecinema gira a 25fps per il ‘PAL’ (i.e. Dove il video offline è a 25fps/50 campi/s) il che assicura che un fotogramma su pellicola origini un fotogramma video. Per l'‘NTSC’ (i.e. Video a 30fps/60 fields/s), il telecinema gira a 24fps con 3:2 pulldown che genera 60 fields/s video. Comunque, lavorare a 60 fields/s può creare dei problemi perché la copia video offline non sarà adatta ad impiego come riferimento "split screen" per l'online – è meglio lavorare in offline su un sistema in grado di gestire i 24fps. Il lavoro in offline utilizza un trasferimento video per generare una EDL e una copia lavoro a bassa risoluzione con tutte le decisioni di edit. Le inquadrature scelte nella EDL vengono poi scansionate in 2K dai rulli di pellicola ori- Figura A8.1: Il flusso del lavoro con il negativo integro, privo di tagli ginale uncut.
Monitor n° 251 - agosto 2005
17
Monitor n° 251 - agosto 2005
si può aspettare realisticamente che il laboratorio raggiunga la perfezione e difatti ci si aspetta una variazione di circa +/- 1 sulla luce di stampa per colore. Questo potrebbe non sembrare molto ma si tratta di una differenza facilmente visibile, soprattutto se la copia stampata viene rivista immediatamente dopo aver visionato l'immagine DI ‘perfetta’ sul monitor di grading di iQ. Ecco, quindi, che le densità di Status A devono essere controllate prima di ogni visione con un'attenta valutazione delle variazioni di luminosità e colore che dobbiamo aspettarci. Se ci si aspetta una variazione troppo intensa è bene richiedere un'altra stampa con valori di luci di stampa che tengano in considerazione tale errori. Inoltre, se l'errore è leggero – entro tolleranze accettabili – le misure di densità Status A possono essere impiegate per modificare l'uscita di iQ affinché il monitor di grading ripeta l'errore della stampa. Questa procedura permette di rivedere un prodotto che sarà simile alla stampa, avendo 14 introdotto il medesimo errore, ed è un modo di lavorare in DI intelligente che consente variazioni in fase di sviluppo e stampa.
sono essere regolati per adattare il monitor di grading alla stampa, adeguandosi agli effettivi valori di stampa, piuttosto che lavorare coi valori ideali (la stampa perfetta) usati durante il processo digitale di grading. Chiaramente se tutte le luci di stampa sono fuori registro di un valore equivalente, il bilanciamento colorimetrico globale verrà mantenuto – l'immagine sarà semplicemente più chiara o più scura. Se una o due luci di stampa sono disallineate, o tutte le luci lo sono in direzioni differenti, la stampa avrà una dominante colore, oltre ad essere potenzialmente più chiara o più scura. Ciò viene spiegato nella tabella seguente. Dimostra che aumentando le luci di stampa avremo un risultato più denso e più tendente al ciano, al magenta o al giallo. Diminuendo le luci otterremo una stampa più chiara e tendente al rosso, al verde o al blu.
L'effetto delle Lucidi Stampa sulla stampa positiva Printer -ve Light Red
0 25
Colour Verde 25 Blue 25
LAD print AIM density – 445 patch (valori Kodak – altre pellicole avranno valori diversi) Status M - R-0.87, G-0.93, B-0.91 (5242 intermediate IP stock) Status M - R-1.02, G-1.09, B-1.08 (5242 intermediate in stock) Status A - R-1.09, G-1.06, B-1.03 (vision print stock)
+ve Ciano Magenta Giallo
Density Chiara Nominale Scura Quindi, se le misure di Status A hanno confermato rosso nominale, verde e blu di densità inferiore, la stampa risulterà tendente al ciano e più chiara di quanto ci aspettiamo. La stampa risulterà anche meno saturata e meno
contrastata come diretto risultato dell'essere più chiara. Si tratta di un inganno teso al nostro occhio più che una verità fisica. Le luci di stampa sono anche controlli che non agiscono direttamente – per esempio, se regoliamo il rosso andremo a modificare l'equilibrio del verde e del blu. L'impiego delle luci di stampa è davvero più un'arte di una scienza, ma comprenderne le basi è di grande aiuto per capire esattamente quello che ci aspettiamo dal processo di DI su iQ. Il dibattito continua sul dilemma di impiegare scale di campionamento lineari o logaritmiche. Tuttavia, la vera questione è quale gamma dinamica utilizzare. La questione di come come trattare le immagini in digitale (in logartimico o in lineare) è secondaria.
Scalatura Logaritmica e lineare Il negativo originale OCN riesce a mantenere il dettaglio delle ombre più scure e nelle sovraesposizioni – una gamma superiore di quanto l'occhio umano riesca a percepire. Il film registra una variazione logaritmica per la luminosità, un po' come fa l'occhio. Questo equivale a dire che piccoli cambi di luminosità nelle ombre sono facilmente registrabili ma altrettanto non avviene nelle zone molto luminose. Immaginiamo di essere in una stanza buia in cui qualcuno accende un fiammifero. La fiamma risulterà immediatamente visibile, ma se questo avviene in una stanza illuminata dalla luce del
Luci di Stampa e Densità A grandi linee, una luce di stampa è uguale a densità 0.07 misurata da un densitometro (Status A) (7 luci di stampa equivalgono a uno stop circa). Quindi, se la lettura della densità di Status A del 445 LAD patch è fuori di 0.07 il laboratorio può regolare una ristampa di un punto (una luce di stampa) per correggere. Ciò significa anche che i controlli dei punti di stampa delle LUT di iQ pos-
Figura A7.1: Come il nostro occhio percepisce la campionatura lineare
Monitor n° 251 - agosto 2005
sole il fiammifero risulterà praticamente invisibile. I trasduttori elettronici in grado di "leggere la luce" e trasformarla in un segnale elettrico hanno una risposta lineare. I CCD, Charge Coupled Device, che trasformano immagini in informazioni digitali danno in uscita un voltaggio analogico con una risposta di tipo lineare nei confronti della luminosità, che viene convertita in un segnale digitale per produrre dati lineari digitali. Piccole modifiche di dettagli in ombra si vedono con facilità mentre i cambi di luminosità riferiti ai gradini di quantizzazione (codifica in numerico di un segnale analogico) devono essere solo molto piccoli per essere distinti. Usando dati lineari, cambi di luminosità nelle sovraesposizioni probabilmente non saranno visibili. Saranno quindi ridondanti in quanto non percepibili ad occhio. Un altro modo di vedere quanto espresso è considerare le cifre in modo lineare. Se la luminosità del background è a livello 20 e alcune modifiche nel dettaglio sono a 30, siamo di fronte a un aumento del 50 per cento che dovrebbe essere visibile. Tuttavia, se il background è a 1000, lo stesso valore assoluto di variazione a 1010 è solo dell'uno per cento e probabilmente non sarà visibile. La nostra percezione e quella del film funzionano secondo cambi di percentuale piuttosto che su valori assoluti, come avviene nelle variazioni logaritmiche. Se la gamma dinamica digitalizzata non è elevata, non è un problema, il che accade con una camera digitale quando catturiamo una scena con 4 o 5 stop di illuminazione. Con dati a 10bit che definiscono 1.024 distinti valori o livelli, ce ne è abbastanza per rappresentare i dettagli nelle ombre in modo accurato senza sprecarne troppi nelle alteluci. Se la gamma dinamica è la stessa dell' OCN da 10-a-11 stop, ci vorranno 13bit lineari di dati per creare 8.192 (213) diversi livelli per riprodurre le informazioni sulla medesima gamma dinamica. Tuttavia, una campionatura lineare su tutta la gamma dinamica non è la soluzione migliore – come dicevamo, molto si spreca nelle alteluci. Se ampliamo i bit da 10 a 13 aumentiamo
Monitor n° 251 - agosto 2005
Figura A7.2 La campionatura scalata in logaritmico
anche le necessità di storage, di processing e le connessioni di bus di almeno il 30 per cento. Molti concordano che la soluzione dei 13-bit lineari sia uno spreco. Se tutta la gamma dinamica dell'immagine viene convertita in dati lineari logaritmici (come variazioni in percentuale), la distribuzione dei livelli di campionatura è più efficiente. Ci saranno più che sufficienti livelli di campionatura distribuiti nelle ombre e abbastanza nelle alteluci. In questo modo 10-bit logaritmici di dati possono rappresentare fedelmente gli 11 stop di luminosità che il negativo originale OCN può registrare. In tal senso questa può essere considerata una forma di compressione senza perdita di dati e anche il formato ideale per il film digitale e il lavoro in DI. Queste sono le basi per il formato dei file CIN specificato da Kodak per il film digitale dove ciascun campione digitale rappresenta 0,002 di densità dell'OCN (il che è una rappresentazione logaritmica della luminosità della scena), sotto la soglia della percezione umana.
Margine – Registrazione Logaritmica o Lineare I benefici di una gestione logaritmica per una gamma dinamica estesa sono discusse in Appendice 7. Se l'immagine catturata è su pellicola o ci arriva da una camera e dati logaritmici, tutto va bene; e anche se utilizziamo una camera lineare in HD, questo non ci obbligherà ad un'operatività ‘lineare’ in tutta la catena di produ-
zione. Sarà comunque utile utilizzare iQ regolato per dati logaritmici dato che questa procedura ci consente un margine in più durante il grading. Apparati per la gestione lineare delle immagini, telecamere e telecinema, non settati su ‘modalità logaritmica’, catturano immagini e assegnano valori digitali specifici al nero e al bianco. Usando gli standard ITU 709 o SMPTE 274M per la tv HD, in un sistema a 10bit (definendo 2^10 – 1024 livelli discreti) il nero è regolato a 64 e il bianco 15 a 940. Sebbene ci sia un piccolo margine digitale sopra e sotto tali livelli, è probabile che tali dettagli saranno clippati. Con un controllo attento, questo clipping può essere minimizzato su quasi tutte le immagini tranne quelle con gamma dinamica troppo elevata e di solito il video viene girato riuscendo ad ottenere un buon contrasto con la gamma dinamica disponibile –dal nero al bianco. Quindi, con tutti i campioni di dati disponibili per l'immagine digitale, qualsiasi procedura di grading eseguita nel medesimo spazio lineare causerebbe del clipping, dato che l'immagine viene spinta al di sopra o al di sotto. Comunque, se i dati lineari sono mappati in uno spazio logartimico il nero viene regolato su 95 e il bianco su 685, lasciando un buon margine head and foot per il grading. Se muoviamo questi punti, la traslazione in uno spazio colore logaritmico significa che la nuova granularità del campione (variazioni di luminosità per campione digitale) è effettivamente migliorata su tutta la gamma. Il risultato è un'immagine corretta in modo migliore.
Dati lineari mappati su un o spazio logaritmico con un miglioramento sul margine ’head and foot’ per il grading senza ulteriore clipping o crushing
Anche se non torniamo alla pellicola, l'uso di una stampa ‘D-log E’ la conversione da logaritmica a lineare mediante le LUT riesce a mantenere di più del nuovo margine di quanto avviene in una semplice e normale conversione da logaritmica a lineare 16 dove 95 viene ancora assegnato al nero e 685 al bianco. Ci sono molti modi di lavorare in DI grazie al laboratorio digitale creato grazie ad iQ che permettono di far fronte ai bisogni di tutti i progetti individuali. Un'area dove possono esserci differenti approcci è nell'uso dell'OCN cut or uncut (negativo tagliato o integro). Lo schema seguente mostra come possiamo organizzare il workflow in una suite con iQ in un processo DI.
Negativo integro, privo di tagli Figura A8.1: uno degli approcci di lavoro nel DI con materiale originato da pellicola dove il negativo originale non viene tagliato. Qui le possibili alternative di lavoro sono molteplici. Il negativo OCN viene passato al telecinema come giornalieri e trasferito in video dalle varie bobine. Ciascun rullo viene identificato segnando il fotogramma di partenza, e il trasferimento video utilizza uno start di timecode di 1:00 ora, 2 ore, etc. Per ciascun rullo. Il transfer avviene da frame-a-frame: il
Questo permette alla EDL di rispecchiare in modo diretto le necessità della scansione in 2K, rendendo facile lo scanning online, completo e conforme. Ciò significa anche che l'OCN non viene tagliato, così rendendo minimi i rischi di danni e graffi dovuti a polvere. Lo svantaggio è nel fatto che le scene selezionate devono essere estratte dai rulli completi – e quindi il processo di scanning risulta più lungo. Tuttavia, dato che lo scanning può iniziare prima che tutto il lavoro sia montato alla perfezione, sono necessari meno tempo e denaro nella fase di taglio negativo e il film rischia meno di essere danneggiato. L'alternativa è produrre un negativo ‘pull list’ dalle informazioni di keycode della EDL e poi tagliare l' OCN creando dei rulli selezionati. Queste sono le scene selezionate dalla EDL, con le code di montaggio (handles) o le scene selezionate per intero, da ciak a ciak. Questa procedura consente di ridurre la quantità di film effettivamente conservato – ma prevede anche che il negativo venga maneggiato di più e questo non costituisce un problema se il materiale viene memorizzato con ampie code.
telecinema gira a 25fps per il ‘PAL’ (i.e. Dove il video offline è a 25fps/50 campi/s) il che assicura che un fotogramma su pellicola origini un fotogramma video. Per l'‘NTSC’ (i.e. Video a 30fps/60 fields/s), il telecinema gira a 24fps con 3:2 pulldown che genera 60 fields/s video. Comunque, lavorare a 60 fields/s può creare dei problemi perché la copia video offline non sarà adatta ad impiego come riferimento "split screen" per l'online – è meglio lavorare in offline su un sistema in grado di gestire i 24fps. Il lavoro in offline utilizza un trasferimento video per generare una EDL e una copia lavoro a bassa risoluzione con tutte le decisioni di edit. Le inquadrature scelte nella EDL vengono poi scansionate in 2K dai rulli di pellicola ori- Figura A8.1: Il flusso del lavoro con il negativo integro, privo di tagli ginale uncut.
Monitor n° 251 - agosto 2005
17
Monitor n° 251 - agosto 2005
materiale è caricato su iQ, la EDL viene convertita (da iQ) dal formato CMX 3600 ad AAF e tutto il progetto viene auto-conformato. C'è molta confusione nell'attuale processo offline/online per le applicazioni DI in pellicola a causa delle differenti velocità dei fotogrammi tra video e pellicola. Tuttavia non è così difficile come sembra a prima vista ed è descritto di seFigura A8.2: Il flusso del lavoro usando rulli selezionati dal negativo tagliato guito come sviluppo di un 18 documento originale di Thomas Il Workflow: Urbye della The Moving Picture il taglio negativo Company. Da notare che di solito è più economiI rulli di negativo di solito vengono co tagliare dal negativo solo le scene passati al telecinema ogni giorno da comprese le code, piuttosto che da una casa di produzione in loco e a un ciak a ciak, anche se questa procedulaboratorio di sviluppo e stampa come ra può a volte creare dei salti nell'imgiornalieri; questo per esser certi che il magine durante il i transfer se non film contiene le immagini che ci aspetviene utilizzato un dispositivo con tiamo e non è necessario compiere gate pinregistered. altre riprese. E' meglio esser certi di Produrre un rullo di scene selezionate questo prima di lasciare una location e significa anche che la EDL originale smontare un set ed è certo più facile non si riferisce più al materiale sorvisionare una copia di sicurezza in gente in modo corretto. L'EDL origivideo piuttosto che in pellicola. nale dall'offline verrà convertita dal Ciascun rullo sarà di circa 20 minuti e taglio negativo per creare il rullo selesarà il risultato di un buon numero di zionato e quindi non influenza le progiunte di rulli camera. Di solito si crea cedure qui descritte. Deve solo essere un buco sul rullo come punto di riferiaggiornata per riflettere le nuove mento, di solito sul frame numero posizioni delle scene come parte del uno, che nel conseguente trasferimento video verrà fatto coincidere negativo tagliato , altrimenti qualcuno esattamente con l'ora precisa ‘hour’ deve ritrovare le scene e convertire i del nastro Beta su cui viene registrato codici da keycode a timecode! il risultato del telecinema; ciascun Sebbene ci sia più lavoro di transfer in rullo utilizza un'ora differente come 2k da fare sulla pellicola con trasporto riferimento del rullo stesso [per quanin avanti e indietro dei rulli di negativo to possibile]. Grazie a questa lettura il originale non tagliato, un tale approclettore del keycode manterrà un sincio è da raccomandare. Qualunque cronismo fra keycode e timecode, sia il metodo scelto, quando tutto il
questo dato viene conservato nel database di lettura del keycode [un file.fLEX]. Dato che il video SD deve lavorare a 25 fotogrammi [PAL] o 29.97 fps [NTSC], il telecinema per trasferimenti in PAL deve viaggiare a una velocità superiore del 4.1% per raggiungere un transfer "frame for frame" nel caso che il materiale pellicola girato a 24 fitgr/sec viene riversato con telecinema a 25 ftgr/sec. Se invece il materiale a 24 ftgr/sec viene riversato mediante telecine a 29,97 ftgr/sec allora il telecinema stesso provvederà a generare la sequenza 3:2 pull down per costruire i frame mancanti per passare da 24 a 29,97. Per il PAL è importante capire che far lavorare il telecinema a 25fps rende un frame in pellicola da 24fps uguale a uno video con 25fps e il risultato sarà che la versione video andrà più veloce e avrà una durata inferiore rispetto la versione in pellicola ma avrà esattamente lo stesso numero di frame. Possiamo gestire il telecinema a 24fps per avere una versione video che ha la stessa durata del film originale ma nella versione video si dovranno inserire dei campi extra per far si che il video in uscita a 25fps abbia la stessa durata del film originale su 24fps.
PAL Offline Un composer per film Avid ci permette due opzioni quando lavoriamo in PAL offline [da un transfer a 25fps ‘frame to frame’ transfer]. Possiamo montare a 24 o 25fps. Dal punto di vista creativo, a 24fps lavoriamo con la stessa frequenza di fotogrammi del cinema [ovviamente!] ma il playout verso un monitor è possibile solo mediante inserimento di un campo extra ogni 12 fotogrammi [i monitor SD non possono riprodurre i 24fps]. Lavorando a 25fps non dobbiamo inserire fotogrammi extra ma il lavoro viaggia più veloce e il sincronismo audio può diventare un problema e siccome probabilmente è stato registrato sul set a 24fps, necessiterà di un aumento di velocità del 4.1%. Lavorare a 25fps significa che quando il lavoro finito viene ritrasferito su
Monitor n° 251 - agosto 2005
nastro SD dall'Avid, il transfer avviene "frame to frame", quindi se il progetto è stato creato a 24fps, Avid inserirà un campo extra fogni 12 frame [cosicché il definitivo su nastro diviene possibile e la durata totale equivale a quella dei rulli film, ma i frame non coincidono]. Ciò ha lo sgradevole effetto di produrre un ‘judder’ sul nastro. Ecco che è quindi consigliabile lavorare in ambiente PAL a 25fps, dato che questo permetterà di mantenere il sincronismo con l'audio originale e montare alla velocità nativa della pellicola con un definitivo "frame-to-frame" per il lavoro di adeguamento offline/online su iQ.
tivo ha subito già delle manipolazioni; ecco perché vengono conservate le code, proprio per ovviare a questa problematica. Le EDL originali da Avid verranno convertite dal taglio negativo per rappresentare le scene selezionate e quindi non influenzeranno le procedure descritte qui. Qualsiasi sia il metodo scelto, negativo selezionato o integro, privo di tagli, grazie alla scansione di ogni fotogramma, il timecode dalla edl verrà aggiunto alle informazioni in testa a quel frame .dpx, il frame rate sarà irrilevante [sebbene la velocità effettiva di scanning sarà tra i 4 e i 6 fps] dato che il timecode agisce solamente come marker per i fotogrammi di rife-
rimento. Questi fotogrammi .dpx possono essere caricati su iQ via rete e conformati rispetto la edl originale e poi mandati in playout a qualsiasi frame rate necessario. Il nastro può essere mandato in play affiancato in tempo reale grazie alle capacità di iQ di operare in SD e 2K simultaneamente, cosicché l'operatore può essere certo che il conform è stato accurato al frame. Nota: è possibile il playout a 23.98, 24, 25, o 29.97 su un film composer [su materiale trasferito da frame a frame] e questo consente un perfetto sincronismo del materiale audio, che dipende dal frame rate, rispetto la timeline di Avid e per un perfetto playout verso il nastro.
NTSC Offline Per un lavoro NTSC offline il montaggio a 24fps va bene in quanto l'offline verrà visto in playout su un monitor a 29.97 [NTSC] SD con inserzione 3:2. Basta ricordarsi di mandare in playout su nastro una versione "frame-toframe" quando andiamo a creare al comparazione offline/online su iQ.
Trasferimento dati da telecinema Come descritto sopra, ci sono due metodi per trasferire dati per l'online – uncut & cut neg (negativo selezionato o integro, privo di tagli). Il negativo integro è solo la versione ad alta risoluzione del precedente transfer offline. Ciascun rullo e il suo segno di riferimento devono essere allineati rispetto la rispettiva ora di timecode [01:00:00:00 per il rullo uno, 02:00:00:00 per il rullo due, etc.] e durante il trasferimento, la lettura di keycode recupererà le scene selezionate utili dalla nostra edl e le trasferirà come dati 2K [avendo prima settato il telecinema per lavori 2K]. Tutavia, spesso il negativo originale [OCN] viene tagliato in scene selezionate, ciascuna con delle code o "maniglie" di un sessantina di centimetri, o "da un fermo macchina a un altro " col beneficio di diminuire la quantità di film da immagazzinare – anche se questo significa che il nega-
Monitor n° 251 - agosto 2005
19
materiale è caricato su iQ, la EDL viene convertita (da iQ) dal formato CMX 3600 ad AAF e tutto il progetto viene auto-conformato. C'è molta confusione nell'attuale processo offline/online per le applicazioni DI in pellicola a causa delle differenti velocità dei fotogrammi tra video e pellicola. Tuttavia non è così difficile come sembra a prima vista ed è descritto di seFigura A8.2: Il flusso del lavoro usando rulli selezionati dal negativo tagliato guito come sviluppo di un 18 documento originale di Thomas Il Workflow: Urbye della The Moving Picture il taglio negativo Company. Da notare che di solito è più economiI rulli di negativo di solito vengono co tagliare dal negativo solo le scene passati al telecinema ogni giorno da comprese le code, piuttosto che da una casa di produzione in loco e a un ciak a ciak, anche se questa procedulaboratorio di sviluppo e stampa come ra può a volte creare dei salti nell'imgiornalieri; questo per esser certi che il magine durante il i transfer se non film contiene le immagini che ci aspetviene utilizzato un dispositivo con tiamo e non è necessario compiere gate pinregistered. altre riprese. E' meglio esser certi di Produrre un rullo di scene selezionate questo prima di lasciare una location e significa anche che la EDL originale smontare un set ed è certo più facile non si riferisce più al materiale sorvisionare una copia di sicurezza in gente in modo corretto. L'EDL origivideo piuttosto che in pellicola. nale dall'offline verrà convertita dal Ciascun rullo sarà di circa 20 minuti e taglio negativo per creare il rullo selesarà il risultato di un buon numero di zionato e quindi non influenza le progiunte di rulli camera. Di solito si crea cedure qui descritte. Deve solo essere un buco sul rullo come punto di riferiaggiornata per riflettere le nuove mento, di solito sul frame numero posizioni delle scene come parte del uno, che nel conseguente trasferimento video verrà fatto coincidere negativo tagliato , altrimenti qualcuno esattamente con l'ora precisa ‘hour’ deve ritrovare le scene e convertire i del nastro Beta su cui viene registrato codici da keycode a timecode! il risultato del telecinema; ciascun Sebbene ci sia più lavoro di transfer in rullo utilizza un'ora differente come 2k da fare sulla pellicola con trasporto riferimento del rullo stesso [per quanin avanti e indietro dei rulli di negativo to possibile]. Grazie a questa lettura il originale non tagliato, un tale approclettore del keycode manterrà un sincio è da raccomandare. Qualunque cronismo fra keycode e timecode, sia il metodo scelto, quando tutto il
questo dato viene conservato nel database di lettura del keycode [un file.fLEX]. Dato che il video SD deve lavorare a 25 fotogrammi [PAL] o 29.97 fps [NTSC], il telecinema per trasferimenti in PAL deve viaggiare a una velocità superiore del 4.1% per raggiungere un transfer "frame for frame" nel caso che il materiale pellicola girato a 24 fitgr/sec viene riversato con telecinema a 25 ftgr/sec. Se invece il materiale a 24 ftgr/sec viene riversato mediante telecine a 29,97 ftgr/sec allora il telecinema stesso provvederà a generare la sequenza 3:2 pull down per costruire i frame mancanti per passare da 24 a 29,97. Per il PAL è importante capire che far lavorare il telecinema a 25fps rende un frame in pellicola da 24fps uguale a uno video con 25fps e il risultato sarà che la versione video andrà più veloce e avrà una durata inferiore rispetto la versione in pellicola ma avrà esattamente lo stesso numero di frame. Possiamo gestire il telecinema a 24fps per avere una versione video che ha la stessa durata del film originale ma nella versione video si dovranno inserire dei campi extra per far si che il video in uscita a 25fps abbia la stessa durata del film originale su 24fps.
PAL Offline Un composer per film Avid ci permette due opzioni quando lavoriamo in PAL offline [da un transfer a 25fps ‘frame to frame’ transfer]. Possiamo montare a 24 o 25fps. Dal punto di vista creativo, a 24fps lavoriamo con la stessa frequenza di fotogrammi del cinema [ovviamente!] ma il playout verso un monitor è possibile solo mediante inserimento di un campo extra ogni 12 fotogrammi [i monitor SD non possono riprodurre i 24fps]. Lavorando a 25fps non dobbiamo inserire fotogrammi extra ma il lavoro viaggia più veloce e il sincronismo audio può diventare un problema e siccome probabilmente è stato registrato sul set a 24fps, necessiterà di un aumento di velocità del 4.1%. Lavorare a 25fps significa che quando il lavoro finito viene ritrasferito su
Monitor n° 251 - agosto 2005
nastro SD dall'Avid, il transfer avviene "frame to frame", quindi se il progetto è stato creato a 24fps, Avid inserirà un campo extra fogni 12 frame [cosicché il definitivo su nastro diviene possibile e la durata totale equivale a quella dei rulli film, ma i frame non coincidono]. Ciò ha lo sgradevole effetto di produrre un ‘judder’ sul nastro. Ecco che è quindi consigliabile lavorare in ambiente PAL a 25fps, dato che questo permetterà di mantenere il sincronismo con l'audio originale e montare alla velocità nativa della pellicola con un definitivo "frame-to-frame" per il lavoro di adeguamento offline/online su iQ.
tivo ha subito già delle manipolazioni; ecco perché vengono conservate le code, proprio per ovviare a questa problematica. Le EDL originali da Avid verranno convertite dal taglio negativo per rappresentare le scene selezionate e quindi non influenzeranno le procedure descritte qui. Qualsiasi sia il metodo scelto, negativo selezionato o integro, privo di tagli, grazie alla scansione di ogni fotogramma, il timecode dalla edl verrà aggiunto alle informazioni in testa a quel frame .dpx, il frame rate sarà irrilevante [sebbene la velocità effettiva di scanning sarà tra i 4 e i 6 fps] dato che il timecode agisce solamente come marker per i fotogrammi di rife-
rimento. Questi fotogrammi .dpx possono essere caricati su iQ via rete e conformati rispetto la edl originale e poi mandati in playout a qualsiasi frame rate necessario. Il nastro può essere mandato in play affiancato in tempo reale grazie alle capacità di iQ di operare in SD e 2K simultaneamente, cosicché l'operatore può essere certo che il conform è stato accurato al frame. Nota: è possibile il playout a 23.98, 24, 25, o 29.97 su un film composer [su materiale trasferito da frame a frame] e questo consente un perfetto sincronismo del materiale audio, che dipende dal frame rate, rispetto la timeline di Avid e per un perfetto playout verso il nastro.
NTSC Offline Per un lavoro NTSC offline il montaggio a 24fps va bene in quanto l'offline verrà visto in playout su un monitor a 29.97 [NTSC] SD con inserzione 3:2. Basta ricordarsi di mandare in playout su nastro una versione "frame-toframe" quando andiamo a creare al comparazione offline/online su iQ.
Trasferimento dati da telecinema Come descritto sopra, ci sono due metodi per trasferire dati per l'online – uncut & cut neg (negativo selezionato o integro, privo di tagli). Il negativo integro è solo la versione ad alta risoluzione del precedente transfer offline. Ciascun rullo e il suo segno di riferimento devono essere allineati rispetto la rispettiva ora di timecode [01:00:00:00 per il rullo uno, 02:00:00:00 per il rullo due, etc.] e durante il trasferimento, la lettura di keycode recupererà le scene selezionate utili dalla nostra edl e le trasferirà come dati 2K [avendo prima settato il telecinema per lavori 2K]. Tutavia, spesso il negativo originale [OCN] viene tagliato in scene selezionate, ciascuna con delle code o "maniglie" di un sessantina di centimetri, o "da un fermo macchina a un altro " col beneficio di diminuire la quantità di film da immagazzinare – anche se questo significa che il nega-
Monitor n° 251 - agosto 2005
19
Debutto ufficiale di Axio, la nuova piattaforma Matrox per il video digitale
Editing video per il prossimo decennio 20
21
Debutto in pompa magna per Axio, la potente piattaforma Matrox per l’editing del video in tempo reale, anche in alta definizione, erede della fortunata serie DigiSuite Si è dovuto attendere l’inizio del mese di giugno per poter assistere alla presentazione ufficiale agli operatori italiani della nuova piattaforma Axio della Matrox, ma si può affermare senza tema di smentita che ne è proprio valsa la pena. Il relativo ritardo rispetto ai primi prototipi che si erano visti lo scorso autunno, prima all’IBC e poi all’IBTS, è più che giustificato dall’esigenza di proporre a un pubblico particolarmente esigente, qual è quello dei broadcaster e dei professionisti del video, un prodotto che, oltre a offrire funzionalità superiori a quelle di altri, sia in grado di garantire una stabilità di funzionamento paragonabile, se non maggiore, di quella tipica delle schede della serie Digisuite, la piattaforma Matrox che vanta quasi 10 anni di presenza sul mercato. Difficile trovare altri prodotti così longevi in un settore qual è quello dell’informatica, governato dalla ferrea legge di Moore, che fissa in circa 18 mesi il lasso di tempo necessario per assistere a un raddoppio delle presta-
zioni a costi invariati. Ma proprio la longevità, e quindi la salvaguardia dell’investimento, è stata una delle caratteristiche che hanno contribuito a determinare il successo della piattaforma Digisuite, successo che la Axio sembra poter essere in grado di ricalcare.
Pronti per l’alta definizione All’evento organizzato da 3G Videogroup, distributore italiano di Matrox, erano presenti numerosi operatori del video, nonostante la concomitanza con l’evento organizzato da Sony. Nabil Tarazi, vice presidente di Matrox Video Europe, ha introdotto i lavori, sottolineando soprattutto le doti di scalabilità e aggiornabilità del prodotto. La scheda Axio può infatti essere acquistata in versione per video in Pal (o Ntsc) e successivamente messa in condizione di elaborare video in alta defini-
zione semplicemente con l’aggiunta di un box di connessione esterno. La facilità degli aggiornamenti è resa possibile dall’impiego di speciali circuiti integrati programmabili che permettono di ampliare facilmente la gamma di effetti realizzabili in tempo reale e di supportare nuovi metodi di compressione, compresi quelli ancora tutti da inventare. Gli interventi successivi - affidati a Luciano Frigoli, responsabile commerciale Matrox per il Sud Europa. Andrea Pepe, Enrico Antongiovanni e Stefano Gallo Gorgatti, specialisti tecnici e di prodotto della 3G Videogroup - hanno spaziato dai trend di mercato dell’alta definizione all’illustrazione dei principali formati di acquisizione in HD fino alle caratteristiche peculiari della piattaforma Axio, comprese alcune anticipazioni sulle funzionalità che quanto prima saranno rilasciate, come il supporto per i formati HDV e DVCPro HD e il modulo di conversione verso il basso per il video in alta definizione.
Monitor n° 251 - agosto 2005
Monitor n° 251 - agosto 2005
Debutto ufficiale di Axio, la nuova piattaforma Matrox per il video digitale
Editing video per il prossimo decennio 20
21
Debutto in pompa magna per Axio, la potente piattaforma Matrox per l’editing del video in tempo reale, anche in alta definizione, erede della fortunata serie DigiSuite Si è dovuto attendere l’inizio del mese di giugno per poter assistere alla presentazione ufficiale agli operatori italiani della nuova piattaforma Axio della Matrox, ma si può affermare senza tema di smentita che ne è proprio valsa la pena. Il relativo ritardo rispetto ai primi prototipi che si erano visti lo scorso autunno, prima all’IBC e poi all’IBTS, è più che giustificato dall’esigenza di proporre a un pubblico particolarmente esigente, qual è quello dei broadcaster e dei professionisti del video, un prodotto che, oltre a offrire funzionalità superiori a quelle di altri, sia in grado di garantire una stabilità di funzionamento paragonabile, se non maggiore, di quella tipica delle schede della serie Digisuite, la piattaforma Matrox che vanta quasi 10 anni di presenza sul mercato. Difficile trovare altri prodotti così longevi in un settore qual è quello dell’informatica, governato dalla ferrea legge di Moore, che fissa in circa 18 mesi il lasso di tempo necessario per assistere a un raddoppio delle presta-
zioni a costi invariati. Ma proprio la longevità, e quindi la salvaguardia dell’investimento, è stata una delle caratteristiche che hanno contribuito a determinare il successo della piattaforma Digisuite, successo che la Axio sembra poter essere in grado di ricalcare.
Pronti per l’alta definizione All’evento organizzato da 3G Videogroup, distributore italiano di Matrox, erano presenti numerosi operatori del video, nonostante la concomitanza con l’evento organizzato da Sony. Nabil Tarazi, vice presidente di Matrox Video Europe, ha introdotto i lavori, sottolineando soprattutto le doti di scalabilità e aggiornabilità del prodotto. La scheda Axio può infatti essere acquistata in versione per video in Pal (o Ntsc) e successivamente messa in condizione di elaborare video in alta defini-
zione semplicemente con l’aggiunta di un box di connessione esterno. La facilità degli aggiornamenti è resa possibile dall’impiego di speciali circuiti integrati programmabili che permettono di ampliare facilmente la gamma di effetti realizzabili in tempo reale e di supportare nuovi metodi di compressione, compresi quelli ancora tutti da inventare. Gli interventi successivi - affidati a Luciano Frigoli, responsabile commerciale Matrox per il Sud Europa. Andrea Pepe, Enrico Antongiovanni e Stefano Gallo Gorgatti, specialisti tecnici e di prodotto della 3G Videogroup - hanno spaziato dai trend di mercato dell’alta definizione all’illustrazione dei principali formati di acquisizione in HD fino alle caratteristiche peculiari della piattaforma Axio, comprese alcune anticipazioni sulle funzionalità che quanto prima saranno rilasciate, come il supporto per i formati HDV e DVCPro HD e il modulo di conversione verso il basso per il video in alta definizione.
Monitor n° 251 - agosto 2005
Monitor n° 251 - agosto 2005
Molto convincente la successiva dimostrazione, svoltasi senza intoppi. nonostante il software fosse ancora in versione preliminare. Oltre alla gestione degli effetti in tempo reale anche su materiale in formato HD non compresso, quello che più ha colpito è stata la perfetta integrazione fra l’hardware Matrox e il software Premiere Pro di Adobe (una descrizione dettagliata dei sistemi Axio si può trovare nel relativo box pubblicato in queste pagine). Per quel che riguarda la strategia commerciale, per garantire la massima soddisfazione del cliente finale Matrox ha deciso di affidare la vendita soltanto a partner autorizzati che forniranno sistemi chiavi in mano certificati. A livello internazionale, è stata instaurata una forte partnership con HP mentre a livello italiano si aggiunge anche la competenza di un integratore di sistemi professionali, la E4 Computer Engineering. Il costo medio di una workstation Axio SD basata su computer HP 8200 è di 11.000 euro, escluso il costo 22 dello storage, e con altri 4.000 euro si può avere la versione HD. Previste poi particolari condizioni esclusive per i proprietari di Matrox DigiSuite, valide fino al prossimo 30 settembre, 1.500 euro di sconto per la versione SD e 2.200 per quella HD. L’elenco dei componenti raccomandati per le workstation certificate
Caratteristiche principali di Matrox Axio
I moduli per la correzione colore di Axio, secondaria compresa, sono perfettamente integrati in Premiere Pro
Axio, i requisiti e gli storage raccomandati, oltre alle modalità per usufruire degli sconti definiti nel programma DigiSuite si trovano nell’area del sito Matrox Video (www.matrox.com/video/it) riservata
a Matrox Axio, attivata dalla data della commercializzazione, avvenuta il giorno 21 giugno, data non casuale coincidente con l’inizio dell’estate, che si preannuncia molto calda per Matrox.
Versione HD Matrox Axio HD è il prodotto destinato agli studi di post-produzione che già lavorano in HD e agli studi che producono progetti "misti" HD e SD o alle altre realtà che si apprestano a entrare nel mondo dell'alta definizione. •Riproduzione a piena qualità, piena fluidità e piena risoluzione fino a 1080i a 29.97 fps •Almeno 2 livelli di video HD a 10-bit non compresso più 2 livelli di grafica in real time, con effetti •Almeno 4 livelli di video SD a 10-bit non compresso più 6 livelli di grafica in realtime, con effetti •Correzione colore primaria e secondaria in realtime con comparazione del colore shot-to-shot •Tutto in realtime: 3D DVE, chiave di crominanza/luminanza, cambi di velocità del movimento, effetti di blur/glow/soft focus e molto altro ancora •Editing di video HD e SD a 8-bit ed a 10-bit non compresso •Editing HD in formato compresso (con qualità di elaborazione offline and online MPEG-2 I-frame) •Editing SD nei formati DV, DVCPRO, DV50 e MPEG-2 I-frame •Editing in SD e HD a 24 fps con pull down e reverse pull down •Ingresso ed uscita DV-1394, SD SDI e HD SDI •Uscita in RGB e in componenti analogico YPbPr •4-ingressi/8-uscite per audio bilanciato AES/EBU, 8-ingressi/8-uscite per audio integrato SDI Versione SD Matrox Axio SD è il prodotto che si rivolge agli studi di post-produzione che lavorano attualmente in SD e desiderano dotarsi di una soluzione a prova di futuro. Oltre ad offrire prestazioni di editing SD estremamente elevate ed arricchite da una gamma completa di ingressi ed uscite analogici e digitali per soddisfare al massimo le esigenze correnti, Matrox assicura l’opportunità di poter aggiornare in ogni momento la soluzione a Matrox Axio HD, aggiungendo semplicemente il breakout box HD. •Riproduzione a piena qualità, piena fluidità e piena risoluzione •Almeno 4 livelli di video SD a 10-bit non compresso più 6 livelli di grafica in realtime, con effetti •Correzione colore primaria e secondaria in realtime con comparazione del colore shot-to-shot •Tutto in realtime: 3D DVE, chiave di crominanza/luminanza, cambi di velocità del movimento, effetti di blur/glow/soft focus e molto altro ancora •Editing SD nei formati DV, DVCPro, DV50, MPEG-2 I-frame e in formato non compresso a 8-bit o 10-bit •Editing a 24 fps con pull down e reverse pull down •Ingresso ed uscita video DV-1394, composito, Y/C, analogico componenti e SDI •2-ingressi/2-uscite audio RCA e XLR audio, 8ingressi/8-uscite audio SDI integrato •Aggiornabile a Matrox Axio HD aggiungendo semplicemente il breakout box HD
Per elaborare materiale video in HD con Axio è sufficiente sostituire il box esterno
Monitor n° 251 - agosto 2005
Monitor n° 251 - agosto 2005
23
Molto convincente la successiva dimostrazione, svoltasi senza intoppi. nonostante il software fosse ancora in versione preliminare. Oltre alla gestione degli effetti in tempo reale anche su materiale in formato HD non compresso, quello che più ha colpito è stata la perfetta integrazione fra l’hardware Matrox e il software Premiere Pro di Adobe (una descrizione dettagliata dei sistemi Axio si può trovare nel relativo box pubblicato in queste pagine). Per quel che riguarda la strategia commerciale, per garantire la massima soddisfazione del cliente finale Matrox ha deciso di affidare la vendita soltanto a partner autorizzati che forniranno sistemi chiavi in mano certificati. A livello internazionale, è stata instaurata una forte partnership con HP mentre a livello italiano si aggiunge anche la competenza di un integratore di sistemi professionali, la E4 Computer Engineering. Il costo medio di una workstation Axio SD basata su computer HP 8200 è di 11.000 euro, escluso il costo 22 dello storage, e con altri 4.000 euro si può avere la versione HD. Previste poi particolari condizioni esclusive per i proprietari di Matrox DigiSuite, valide fino al prossimo 30 settembre, 1.500 euro di sconto per la versione SD e 2.200 per quella HD. L’elenco dei componenti raccomandati per le workstation certificate
Caratteristiche principali di Matrox Axio
I moduli per la correzione colore di Axio, secondaria compresa, sono perfettamente integrati in Premiere Pro
Axio, i requisiti e gli storage raccomandati, oltre alle modalità per usufruire degli sconti definiti nel programma DigiSuite si trovano nell’area del sito Matrox Video (www.matrox.com/video/it) riservata
a Matrox Axio, attivata dalla data della commercializzazione, avvenuta il giorno 21 giugno, data non casuale coincidente con l’inizio dell’estate, che si preannuncia molto calda per Matrox.
Versione HD Matrox Axio HD è il prodotto destinato agli studi di post-produzione che già lavorano in HD e agli studi che producono progetti "misti" HD e SD o alle altre realtà che si apprestano a entrare nel mondo dell'alta definizione. •Riproduzione a piena qualità, piena fluidità e piena risoluzione fino a 1080i a 29.97 fps •Almeno 2 livelli di video HD a 10-bit non compresso più 2 livelli di grafica in real time, con effetti •Almeno 4 livelli di video SD a 10-bit non compresso più 6 livelli di grafica in realtime, con effetti •Correzione colore primaria e secondaria in realtime con comparazione del colore shot-to-shot •Tutto in realtime: 3D DVE, chiave di crominanza/luminanza, cambi di velocità del movimento, effetti di blur/glow/soft focus e molto altro ancora •Editing di video HD e SD a 8-bit ed a 10-bit non compresso •Editing HD in formato compresso (con qualità di elaborazione offline and online MPEG-2 I-frame) •Editing SD nei formati DV, DVCPRO, DV50 e MPEG-2 I-frame •Editing in SD e HD a 24 fps con pull down e reverse pull down •Ingresso ed uscita DV-1394, SD SDI e HD SDI •Uscita in RGB e in componenti analogico YPbPr •4-ingressi/8-uscite per audio bilanciato AES/EBU, 8-ingressi/8-uscite per audio integrato SDI Versione SD Matrox Axio SD è il prodotto che si rivolge agli studi di post-produzione che lavorano attualmente in SD e desiderano dotarsi di una soluzione a prova di futuro. Oltre ad offrire prestazioni di editing SD estremamente elevate ed arricchite da una gamma completa di ingressi ed uscite analogici e digitali per soddisfare al massimo le esigenze correnti, Matrox assicura l’opportunità di poter aggiornare in ogni momento la soluzione a Matrox Axio HD, aggiungendo semplicemente il breakout box HD. •Riproduzione a piena qualità, piena fluidità e piena risoluzione •Almeno 4 livelli di video SD a 10-bit non compresso più 6 livelli di grafica in realtime, con effetti •Correzione colore primaria e secondaria in realtime con comparazione del colore shot-to-shot •Tutto in realtime: 3D DVE, chiave di crominanza/luminanza, cambi di velocità del movimento, effetti di blur/glow/soft focus e molto altro ancora •Editing SD nei formati DV, DVCPro, DV50, MPEG-2 I-frame e in formato non compresso a 8-bit o 10-bit •Editing a 24 fps con pull down e reverse pull down •Ingresso ed uscita video DV-1394, composito, Y/C, analogico componenti e SDI •2-ingressi/2-uscite audio RCA e XLR audio, 8ingressi/8-uscite audio SDI integrato •Aggiornabile a Matrox Axio HD aggiungendo semplicemente il breakout box HD
Per elaborare materiale video in HD con Axio è sufficiente sostituire il box esterno
Monitor n° 251 - agosto 2005
Monitor n° 251 - agosto 2005
23
Le bugie della scienza (e della pseudoscienza)
Un titolo così farà sobbalzare sulla sedia i lettori. Come può la scienza dire bugie quando per definizione stessa è la fonte della conoscenza e della verità? Sotto il termine scherzoso di “bugie” 24 si possono nascondere fatti e misfatti di vario genere da quelli positivi a quelli negativi. Perchè uno scienziato dovrebbe mentire e quindi “imbrogliare”? Sostanzialmente per primeggiare ed ottenere fama, onori e soldi, o per interesse privato, a volte per semplificare.
Antiche radici Le radici sono piu antiche di quello che si può pensare e finchè si usava più che altro il pensiero, si poteva parlare di pura Filosofia e quindi di ragionamenti ed opinioni più che di Scienza. Si giunse poi alle verifiche sperimentali. Galileo è considerato il padre principale del metodo sperimentale che si basa sul verificare una ipotesi teorica tramite lo svolgimento di un esperimento. Tra i suoi esperimenti più famosi, possiamo annoverare quelli del piano inclinato, della caduta dei gravi e del pendolo, con l’enunciazione delle
leggi fisiche che regolano con precisione tali fenomeni. Che dire se qualcuno, ripetendo ora gli esperimenti di Galileo con gli stessi mezzi del tempo, dimostrasse che gli esperimenti danno risultati ben diversi da quelli delle leggi teoriche, che sappiamo essere esatte? È ormai accertato che Galileo ha “imbrogliato” andando contro allo stesso metodo sperimentale da lui inventato. Le sue leggi erano però esatte perchè con la sua mente riusciva ad eliminare i parametri che non sarebbe riuscito ad eliminare nell’ esperimento con i mezzi di quel tempo (gli attriti). Gli stessi esperimenti ripetuti senza attrito, gli avrebbero dato ragione e lui lo sapeva, per cui si limitò probabilmente a dire che aveva compiuto gli esperimenti e vista la fama, nessuno lo contraddisse. Anche Newton è accertato che per fare quadrare il risultato sperimentale della velocità del suono con le sue equazioni, stiracchiò un poco certi parametri, finchè non venne fuori che invece era necessario tenere conto del fattore che l’aria si riscalda al passaggio del suono. Ci cascò anche Einstein con la correzione cosmologica delle sue equazioni. Esempio sommo di obiettività fu l’ammettere l’errore, salvo che in tempi recenti sembra che possa invece avere ragione per via dell’”Energia del vuoto”… Fin qui, visti i nomi dei coinvolti, può essere considerato fatale ed abbastanza veniale che quando gli scienziati sono direttamente coinvolti, perdano un poco di obiettività e tendano ad aggiustare il tiro in loro favore per ottenere la concordanza tra dati teorici e sperimentali.
Si tratta comunque di correzioni ed in buona fede. Viceversa “imbrogli” tra i più famosi perpetrati dagli scienziati sono i “Raggi N” e la “Memoria dell’Acqua”. In tempi più recenti direi che possiamo ormai annoverare l’Omeopatia. Mi preme ricordare che gli scienziati sono milioni e quindi anche migliaia di “imbrogli” sono una piccolissima percentuale. Per chi volesse approfondire l’argomento, suggerisco il godibilissimo libro di Federico Di Trocchio: “Le Bugie della Scienza” Perchè e come gli scienziati imbrogliano – Oscar Saggi Mondatori. Ora vorrei esaminare invece cosa è successo in tempi recentissimi con l’introduzione di due nuovi fattori: A) Il parametro di redditività degli scienziati B) Internet
25
La redditività degli scienziati Nel campo della Ricerca Scientifica in passato non era necessario produrre documenti per conservare una cattedra od un posto di ricerca. Questo ha prodotto sicuramente situaziono in cui esistevano dei mostri di potere improduttivi e questo può essere considerato una malattia. La cura è stata quella di dare degli obiettivi di produttività, anche obbligatori per conservare le posizioni. Questo ha generato però un’altra malattia. Produrre idee è un lavoro di ingegno. Le idee vengono a tratti, un pò come le bolle in una pentola. Si possono comporre alcune sinfonie in una notte di furore e poi non riuscire a
Monitor n° 251 - agosto 2005
Monitor n° 251 - agosto 2005
Le bugie della scienza (e della pseudoscienza)
Un titolo così farà sobbalzare sulla sedia i lettori. Come può la scienza dire bugie quando per definizione stessa è la fonte della conoscenza e della verità? Sotto il termine scherzoso di “bugie” 24 si possono nascondere fatti e misfatti di vario genere da quelli positivi a quelli negativi. Perchè uno scienziato dovrebbe mentire e quindi “imbrogliare”? Sostanzialmente per primeggiare ed ottenere fama, onori e soldi, o per interesse privato, a volte per semplificare.
Antiche radici Le radici sono piu antiche di quello che si può pensare e finchè si usava più che altro il pensiero, si poteva parlare di pura Filosofia e quindi di ragionamenti ed opinioni più che di Scienza. Si giunse poi alle verifiche sperimentali. Galileo è considerato il padre principale del metodo sperimentale che si basa sul verificare una ipotesi teorica tramite lo svolgimento di un esperimento. Tra i suoi esperimenti più famosi, possiamo annoverare quelli del piano inclinato, della caduta dei gravi e del pendolo, con l’enunciazione delle
leggi fisiche che regolano con precisione tali fenomeni. Che dire se qualcuno, ripetendo ora gli esperimenti di Galileo con gli stessi mezzi del tempo, dimostrasse che gli esperimenti danno risultati ben diversi da quelli delle leggi teoriche, che sappiamo essere esatte? È ormai accertato che Galileo ha “imbrogliato” andando contro allo stesso metodo sperimentale da lui inventato. Le sue leggi erano però esatte perchè con la sua mente riusciva ad eliminare i parametri che non sarebbe riuscito ad eliminare nell’ esperimento con i mezzi di quel tempo (gli attriti). Gli stessi esperimenti ripetuti senza attrito, gli avrebbero dato ragione e lui lo sapeva, per cui si limitò probabilmente a dire che aveva compiuto gli esperimenti e vista la fama, nessuno lo contraddisse. Anche Newton è accertato che per fare quadrare il risultato sperimentale della velocità del suono con le sue equazioni, stiracchiò un poco certi parametri, finchè non venne fuori che invece era necessario tenere conto del fattore che l’aria si riscalda al passaggio del suono. Ci cascò anche Einstein con la correzione cosmologica delle sue equazioni. Esempio sommo di obiettività fu l’ammettere l’errore, salvo che in tempi recenti sembra che possa invece avere ragione per via dell’”Energia del vuoto”… Fin qui, visti i nomi dei coinvolti, può essere considerato fatale ed abbastanza veniale che quando gli scienziati sono direttamente coinvolti, perdano un poco di obiettività e tendano ad aggiustare il tiro in loro favore per ottenere la concordanza tra dati teorici e sperimentali.
Si tratta comunque di correzioni ed in buona fede. Viceversa “imbrogli” tra i più famosi perpetrati dagli scienziati sono i “Raggi N” e la “Memoria dell’Acqua”. In tempi più recenti direi che possiamo ormai annoverare l’Omeopatia. Mi preme ricordare che gli scienziati sono milioni e quindi anche migliaia di “imbrogli” sono una piccolissima percentuale. Per chi volesse approfondire l’argomento, suggerisco il godibilissimo libro di Federico Di Trocchio: “Le Bugie della Scienza” Perchè e come gli scienziati imbrogliano – Oscar Saggi Mondatori. Ora vorrei esaminare invece cosa è successo in tempi recentissimi con l’introduzione di due nuovi fattori: A) Il parametro di redditività degli scienziati B) Internet
25
La redditività degli scienziati Nel campo della Ricerca Scientifica in passato non era necessario produrre documenti per conservare una cattedra od un posto di ricerca. Questo ha prodotto sicuramente situaziono in cui esistevano dei mostri di potere improduttivi e questo può essere considerato una malattia. La cura è stata quella di dare degli obiettivi di produttività, anche obbligatori per conservare le posizioni. Questo ha generato però un’altra malattia. Produrre idee è un lavoro di ingegno. Le idee vengono a tratti, un pò come le bolle in una pentola. Si possono comporre alcune sinfonie in una notte di furore e poi non riuscire a
Monitor n° 251 - agosto 2005
Monitor n° 251 - agosto 2005
soldi in un libro, perlomeno ne vagliavano se non i contenuti, almeno il possibile gradimento. Le riviste scientifiche accreditate in particolare vagliano gli articoli con canoni rigorosi. Su Internet si può diventare Editori con spesa bassissima ed essere visibili in tutto il mondo. I siti più curati sono alla fine, nel bene e nel male, in antitesi a tante multinazionali che ti dicono a malapena cosa fanno e dove sono le sedi. Tra i siti amatoriali se ne nascondono sempre di più di quelli che spacciano e vendono invenzioni inverosimili o riformulazioni inverosimili di teorie accreditate. I contenuti sono spesso accattivanti e curati finchè non vengono letti in modo critico. Vediamo le tipiche tecniche usate e come difendersi.
Le tattiche della pseudoscienza
26
produrre più nulla di importante per anni. Se sei OBBLIGATO a produrre documenti, perdi sicuramente attendibilità e sei stimolato a generare dei falsi. Nessuno ti controllerà, sia per mancanza di tempo, essendo troppo occupato a produrre altri documenti, sia perchè se controlli un altro l’altro potrebbe controllare te. La possibilità di produrre spazzatura aumenta.
Internet e la generazione della pseudoscienza L’Informazione Multimediale attuale propone, rispetto ad una volta,una
varietà enorme di informazioni. Il problema è che la competività tra i vari organi ha generato la necessità di ricerca della notizia a tutti i costi e quindi il prodotto è meno controllato. Vantaggio: più varietà e minor costo dell’ informazione; Svantaggio: minore attendibilità e controllo dei contenuti. La minore attendibilità e controllo dei contenuti tende a generare la Pseudoscienza (contenuti non scientifici spacciati per Scienza). Tale Pseudoscienza, non avendo basi, tende a sconfinare nel misticismo religioso. Una volta i contenuti venivano filtrati dagli Editori, che prima di investire
te una scala, dei barattoli vuoti, un vecchio triciclo, ma nessun drago. “Dov'è il drago?” chiedete. “Ah, è proprio qui”, vi rispondo, facendo dei cenni vaghi. “Dimenticavo di dirvi che è un drago invisibile”. Voi proponete di spargere della farina sul pavimento del garage per renderne visibili le orme. “Buona idea”, dico io, “ma questo è un drago che si libra in aria”. Allora proponete di usare dei sensori infrarossi per scoprire il suo fuoco invisibile. “Idea eccellente, se non fosse che il fuoco invisibile è anche privo di calore”. Voi proponete allora di dipingere il drago con della vernice spray per renderlo visibile. “Purtroppo, però, è un drago incorporeo e la vernice non fa presa su di lui”. E così via. A ogni prova fisica che voi proponete, io ribatto adducendo una speciale spiegazione del perché essa non funzionerà. Ora, qual è la differenza fra un drago volante invisibile, incorporeo, che sputa un fuoco privo di calore e un drago inesistente? Che senso ha la
gno di aiuto. Come minimo, può darsi che io abbia gravemente sottovalutato la fallibilità umana. Immaginiamo che, benché nessuno dei test dia esito positivo, voi vogliate rimanere scrupolosamente aperti a qualsiasi possibilità. Perciò non rifiutate decisamente la nozione che nel mio garage ci sia un drago che sputa fiamme, ma adottate semplicemente una posizione di attesa sospendendo il giudizio. Le prove esistenti sono fortemente contrarie all'ipotesi del drago, ma se ne emergeranno altre voi siete pronti a esaminarle e a vedere se vi convincono. Senza dubbio non sarebbe bello se io mi offendessi perché non mi credete; o se vi criticassi accusandovi di essere noiosi e privi di immaginazione, semplicemente per avere espresso il giudizio di “non dimostrato”. Immaginiamo che il responso dell'esperienza fosse stato diverso. Il drago è invisibile, va bene, ma lascia delle impronte sulla farina. Il rivelatore nell'infrarosso segnala che esso emana
27
Le tattiche principali sono descritte perfettamente nel saggio tratto dal libro: “Un mondo infestato da demoni – La Scienza ed il nuovo oscurantismo”Carl Sagan – Baldini e Castoldi. Tutti conoscono Carl Sagan come autore del messaggio contenuto sul disco della sonda spaziale Voyager 1, come promulgatore del SETI per la ricerca della vita nello spazio e forse come scrittore di vari libri di scienza e di fantascienza, tra cui Contact da cui è tratto il film omonimo. Capitolo 10. Un drago nel mio garage (pp. 216-239) “Nel mio garage c'è un drago che sputa fuoco”. Supponiamo (sto seguendo un approccio di terapia di gruppo praticato dallo psicologo Richard Franklin) che io vi dica seriamente una cosa del genere. Senza dubbio voi vorreste verificarla, vedere il drago con i vostri occhi. Nel corso dei secoli ci sono state innumerevoli storie di draghi, ma nessuna vera prova. Che opportunità fantastica! “Ce lo mostri”, mi dite. Vi conduco nel mio garage. Voi guardate e vede-
Monitor n° 251 - agosto 2005
mia asserzione dell'esistenza del drago se non esiste alcun modo per invalidarla, alcun esperimento concepibile per confutarla? Il fatto che non si possa dimostrare che la mia ipotesi è falsa non equivale certo a dimostrare che è vera. Le affermazioni che non possono essere sottoposte al test dell'esperienza, le asserzioni non “falsificabili”, non hanno alcun valore di verità, per quanto possano ispirarci o stimolare il nostro senso del meraviglioso. Quello che io vi chiedo, dicendovi che nel mio garage c'è un drago, è in pratica di credermi sulla parola, in assenza di alcuna prova. L'unica cosa che voi avete realmente appreso dalla mia affermazione che nel mio garage c'è un drago è che c'è qualcosa di strano nella mia testa. In assenza di alcuna prova fisica, voi vi chiederete che cosa mi abbia convinto. Penserete certamente alla possibilità che io abbia fatto un sogno o abbia avuto un'allucinazione. Ma allora, perché sto prendendo tanto sul serio la mia idea? Forse ho biso-
Monitor n° 251 - agosto 2005
soldi in un libro, perlomeno ne vagliavano se non i contenuti, almeno il possibile gradimento. Le riviste scientifiche accreditate in particolare vagliano gli articoli con canoni rigorosi. Su Internet si può diventare Editori con spesa bassissima ed essere visibili in tutto il mondo. I siti più curati sono alla fine, nel bene e nel male, in antitesi a tante multinazionali che ti dicono a malapena cosa fanno e dove sono le sedi. Tra i siti amatoriali se ne nascondono sempre di più di quelli che spacciano e vendono invenzioni inverosimili o riformulazioni inverosimili di teorie accreditate. I contenuti sono spesso accattivanti e curati finchè non vengono letti in modo critico. Vediamo le tipiche tecniche usate e come difendersi.
Le tattiche della pseudoscienza
26
produrre più nulla di importante per anni. Se sei OBBLIGATO a produrre documenti, perdi sicuramente attendibilità e sei stimolato a generare dei falsi. Nessuno ti controllerà, sia per mancanza di tempo, essendo troppo occupato a produrre altri documenti, sia perchè se controlli un altro l’altro potrebbe controllare te. La possibilità di produrre spazzatura aumenta.
Internet e la generazione della pseudoscienza L’Informazione Multimediale attuale propone, rispetto ad una volta,una
varietà enorme di informazioni. Il problema è che la competività tra i vari organi ha generato la necessità di ricerca della notizia a tutti i costi e quindi il prodotto è meno controllato. Vantaggio: più varietà e minor costo dell’ informazione; Svantaggio: minore attendibilità e controllo dei contenuti. La minore attendibilità e controllo dei contenuti tende a generare la Pseudoscienza (contenuti non scientifici spacciati per Scienza). Tale Pseudoscienza, non avendo basi, tende a sconfinare nel misticismo religioso. Una volta i contenuti venivano filtrati dagli Editori, che prima di investire
te una scala, dei barattoli vuoti, un vecchio triciclo, ma nessun drago. “Dov'è il drago?” chiedete. “Ah, è proprio qui”, vi rispondo, facendo dei cenni vaghi. “Dimenticavo di dirvi che è un drago invisibile”. Voi proponete di spargere della farina sul pavimento del garage per renderne visibili le orme. “Buona idea”, dico io, “ma questo è un drago che si libra in aria”. Allora proponete di usare dei sensori infrarossi per scoprire il suo fuoco invisibile. “Idea eccellente, se non fosse che il fuoco invisibile è anche privo di calore”. Voi proponete allora di dipingere il drago con della vernice spray per renderlo visibile. “Purtroppo, però, è un drago incorporeo e la vernice non fa presa su di lui”. E così via. A ogni prova fisica che voi proponete, io ribatto adducendo una speciale spiegazione del perché essa non funzionerà. Ora, qual è la differenza fra un drago volante invisibile, incorporeo, che sputa un fuoco privo di calore e un drago inesistente? Che senso ha la
gno di aiuto. Come minimo, può darsi che io abbia gravemente sottovalutato la fallibilità umana. Immaginiamo che, benché nessuno dei test dia esito positivo, voi vogliate rimanere scrupolosamente aperti a qualsiasi possibilità. Perciò non rifiutate decisamente la nozione che nel mio garage ci sia un drago che sputa fiamme, ma adottate semplicemente una posizione di attesa sospendendo il giudizio. Le prove esistenti sono fortemente contrarie all'ipotesi del drago, ma se ne emergeranno altre voi siete pronti a esaminarle e a vedere se vi convincono. Senza dubbio non sarebbe bello se io mi offendessi perché non mi credete; o se vi criticassi accusandovi di essere noiosi e privi di immaginazione, semplicemente per avere espresso il giudizio di “non dimostrato”. Immaginiamo che il responso dell'esperienza fosse stato diverso. Il drago è invisibile, va bene, ma lascia delle impronte sulla farina. Il rivelatore nell'infrarosso segnala che esso emana
27
Le tattiche principali sono descritte perfettamente nel saggio tratto dal libro: “Un mondo infestato da demoni – La Scienza ed il nuovo oscurantismo”Carl Sagan – Baldini e Castoldi. Tutti conoscono Carl Sagan come autore del messaggio contenuto sul disco della sonda spaziale Voyager 1, come promulgatore del SETI per la ricerca della vita nello spazio e forse come scrittore di vari libri di scienza e di fantascienza, tra cui Contact da cui è tratto il film omonimo. Capitolo 10. Un drago nel mio garage (pp. 216-239) “Nel mio garage c'è un drago che sputa fuoco”. Supponiamo (sto seguendo un approccio di terapia di gruppo praticato dallo psicologo Richard Franklin) che io vi dica seriamente una cosa del genere. Senza dubbio voi vorreste verificarla, vedere il drago con i vostri occhi. Nel corso dei secoli ci sono state innumerevoli storie di draghi, ma nessuna vera prova. Che opportunità fantastica! “Ce lo mostri”, mi dite. Vi conduco nel mio garage. Voi guardate e vede-
Monitor n° 251 - agosto 2005
mia asserzione dell'esistenza del drago se non esiste alcun modo per invalidarla, alcun esperimento concepibile per confutarla? Il fatto che non si possa dimostrare che la mia ipotesi è falsa non equivale certo a dimostrare che è vera. Le affermazioni che non possono essere sottoposte al test dell'esperienza, le asserzioni non “falsificabili”, non hanno alcun valore di verità, per quanto possano ispirarci o stimolare il nostro senso del meraviglioso. Quello che io vi chiedo, dicendovi che nel mio garage c'è un drago, è in pratica di credermi sulla parola, in assenza di alcuna prova. L'unica cosa che voi avete realmente appreso dalla mia affermazione che nel mio garage c'è un drago è che c'è qualcosa di strano nella mia testa. In assenza di alcuna prova fisica, voi vi chiederete che cosa mi abbia convinto. Penserete certamente alla possibilità che io abbia fatto un sogno o abbia avuto un'allucinazione. Ma allora, perché sto prendendo tanto sul serio la mia idea? Forse ho biso-
Monitor n° 251 - agosto 2005
Come riconoscere e difendersi dalle pseudoscienze
28
calore. La vernice spray permette di vedere una cresta dentellata che danza in aria. Per quanto scettici possiate essere stati in precedenza sull'esistenza dei draghi - per non parlare dei draghi invisibili - ora dovete riconoscere che qui c'è qualcosa e che ciò che si osserva sembra conciliarsi con un drago invisibile che sputa fuoco. Consideriamo ora un altro scenario. Supponiamo che a sostenere la strana idea dell'esistenza dei draghi non ci sia solo io. Supponiamo che anche vari altri vostri conoscenti - tra cui persone che non si conoscono certamente fra loro - vi dicano di avere dei draghi nei loro garage, ma che in ogni caso le prove siano terribilmente elusive. Tutti noi ammettiamo che ci dà fastidio dover credere a una convinzione tanto strana e così mal sostenuta da prove fisiche. Nessuno di noi è pazzo. Noi ci chiediamo che senso avrebbe se in tutto il mondo dei draghi invisibili fossero effettiva-
mente nascosti nei nostri garage, con tutti noi a crederci. Io penso che non sia così. Ma se tutti quei miti antichi dell'Europa e della Cina, dopo tutto, non fossero solo dei miti... Meno male che adesso c'è chi dice di aver visto delle impronte nella farina. Quelle impronte, però, non si producono mai alla presenza di persone scettiche. Si presenta allora una spiegazione alternativa: a un attento esame appare chiaro che le orme potrebbero essere una contraffazione. Un altro entusiasta dei draghi si presenta con un dito bruciato e lo attribuisce a una rara manifestazione fisica del respiro infuocato del drago. Anche questa volta, però, ci sono altre possibilità. È chiaro che per scottarsi le dita non occorre esporle all'alito infuocato di un drago invisibile. Tali “prove” - per quanto importanti possano considerarle i fautori dei draghi - non sono affatto conclusive. Ancora una volta, l'unico approccio ragionevole consi-
ste nel rifiutare provvisoriamente l'ipotesi dei draghi, nell'essere disponibili a valutare futuri dati fisici che dovessero presentarsi, e nel chiedersi per quale motivo un così gran numero di persone sobrie e sane di mente condividano la stessa strana illusione. È qui esaminato tutto il campionario di tattiche seguite dai rappresentanti delle Pseudoscienze, quando si trovano di fronte ad una persona che voglia esaminare le teorie proposte in maniera aperta e convincente. Se siete disposti a seguire con pazienza tutta la trafila di mosse e contromosse, alla fine l’atto finale sarà una reazione che sarà un misto di sdegno ed ira, invettive contro la vostra ignoranza e mancanza di fantasia e magari un accenno che fate parte di qualche organizzazione segreta appositamente creata per una azione di insabbiamento (coverup) della mirabolante teoria od invenzione.
Monitor n° 251 - agosto 2005
Anche qui il libro di Sagan è un perfetto manuale: Capitolo 12: La bella arte di smascherare gli inganni (pag. 259 – 262) Che cosa c’è nel nostro armamentario? Strumenti per il pensiero scettico. Il pensiero scettico si riduce in ultima analisi, ai mezzi per costruire, e per capire un’argomentazione e - cosa particolarmente importante - per riconoscere un ragionamento sbagliato o fraudolento. Il problema non è se la conclusione che emerge da una catena di ragionamenti ci piaccia o no, ma se la conclusione segua dalla premessa o dal punto di partenza e se tale premessa sia o no vera. Fra gli strumenti usati dagli scienziati ci sono i seguenti: • Ogni volta che è possibile si deve cercare una conferma indipendente dei “fatti”. • Si deve incoraggiare una discussione delle prove da parte di proponenti autorevoli di tutti i punti di vista. • Le argomentazioni fondate sull’autorità hanno scarso peso: in passato le ”autorità” hanno commesso errori ed altri ne commetteranno in futuro.Forse un modo migliore per esprimere questo concetto è che nella scienza non ci sono autorità, al massimo esperti. • È bene formulare più di una ipotesi. Se c’è qualcosa da spiegare, pensate in tutti i modi diversi in cui la si potrebbe spiegare. Pensate poi ai test per mezzo dei quali si potrebbe confutare sistematicamente ogni possibilità alternativa. Ciò che rimane, l’ipotesi che resiste ad ogni tentativo di confutazione in questa selezione darwiniana fra ”ipotesi di lavoro multiple”, ha una probabilità migliore di essere la risposta giusta che vi foste limitati a seguire la prima idea che vi è venuta in mente. • Cercate di non affezionarvi troppo ad una idea solo perchè è vostra. Essa è solo una tappa nella ricerca della conoscenza. Chiedete a voi
Monitor n° 251 - agosto 2005
•
•
•
•
stessi perchè quell’idea vi piace tanto. Confrontatela senza barare con le altre possibilità. Provate a cercare ragioni per rifiutarla. Se non lo fate voi, lo faranno altri. Quantificate. Se a ciò che cercate di spiegare, qualunque cosa sia, è associata una qualche misura, una qualche quantità numerica, sarete molto meglio in grado di discriminare tra ipotesi contrastanti. Ciò che è vago e qualitativo è aperto a molte spiegazioni. Ovviamente ci sono verità da cercare anche nei molti problemi qualitativi che siamo costretti a porci, ma è molto più difficile trovare queste verità. Se c’è una catena di ragionamento, devono funzionare tutti gli anelli della catena (compresa la premessa) e non solo la maggior parte. Rasoio di Occam. Questa utile regola empirica si impone, quando ci troviamo di fronte a due ipotesi che spiegano i dati egualmente bene, di scegliere quella più semplice. Ci si deve sempre chiedere se, almeno in linea di principio, l’ipotesi possa essere falsificata. Le ipotesi che non possono essere sottoposte al test dell’esperienza, che non possono essere falsificate, non valgono molto. Consideriamo l’idea grandiosa che il nostro universo e tutto ciò che esso contiene sia solo una particella elementare – diciamo un elettrone – in un cosmo molto più grande. Ma se noi non potremo mai acquisire informazioni dall’esterno del nostro universo, quest’idea, non è sottratta ad ogni possibilità di falsificazione? Si deve essere in grado di controllare qualsiasi asserzione. Dobbiamo dare agli scettici inveterati la possibilità di seguire il nostro ragionamento, di duplicare i nostri esperimenti e di vedere se ottengono lo stesso nostro risultato.
Come ho cercato di sottolineare in precedenza, è essenziale poter contare su esperimenti progettati e controllati con cura. La semplice contemplazione non ci insegnerà molto. è forte l desiderio di accontentarsi della prima spiegazione che ci viene in mente: è molto meglio una spiega-
zione che nessuna. Ma che cosa accade se saremo in grado di inventarne più di una? Come possiamo decidere fra loro? Non siamo noi a decidere: lasciamo che sia l’esperimento. Francesco Bacone fornì il ragionamento classico: l’argomentazione da sola non è sufficiente, poichè la sottigliezza della Natura è molte volte maggiore della sottigliezza dell’argomentazione. È essenziale poter compiere esperimenti di controllo. Se per esempio si dice che una nuova medicina è efficace nel 20 per cento dei casi, dobbiamo assicurarci che una popolazione di controllo, che prenda una semplice pillola inerte credendo che sia il nuovo farmaco, non presenti anch’essa una remissione spontanea della malattia nel 20 per cento dei casi. La variabili devono essere tenute separate. Supponiamo che tu soffra il mal di mare e che ti vengano dati sia un braccialetto shiatsu, per la terapia mediante agopressione, sia cinquanta grammi di meclizina. Tu senti svanire la nausea. Di chi è il merito: del braccialetto o della compressa? 29 Potrai dirlo solo, se la prossima volta che avrai il mal di mare, prenderai l’una cosa senza l’altra. Ora immaginiamo che tu non sia così dedito alla scienza da essere disposto a soffrire il mal di mare. In questo caso non separerai le variabili ma prenderai di nuovo entrambi i rimedi. Hai conseguito il risultato pratico desiderato; potresti dire che una conoscenza più precisa non vale la sofferenza che ti costa il conseguirla. Spasso l’esperimento deve essere fatto con la tecnica ”doppio cieco”, così che coloro che sperano in un determinato risultato non siano nella condizione potenzialmente pericolosa di incidere sull’esito dell’esperimento stesso. Nella sperimentazione di un nuovo farmaco, per esempio, è preferibile che i medici che dovranno determinare quanti pazienti presentino un miglioramento della sintomatologia non sappiano a quali di essi è stato somministrato il nuovo farmaco ed a quali soltano un placebo. Sapendo chi ha ricevuto il nuovo farmaco, si potrebbe infatti essere influenzati, anche in modo solo inconscio,
Come riconoscere e difendersi dalle pseudoscienze
28
calore. La vernice spray permette di vedere una cresta dentellata che danza in aria. Per quanto scettici possiate essere stati in precedenza sull'esistenza dei draghi - per non parlare dei draghi invisibili - ora dovete riconoscere che qui c'è qualcosa e che ciò che si osserva sembra conciliarsi con un drago invisibile che sputa fuoco. Consideriamo ora un altro scenario. Supponiamo che a sostenere la strana idea dell'esistenza dei draghi non ci sia solo io. Supponiamo che anche vari altri vostri conoscenti - tra cui persone che non si conoscono certamente fra loro - vi dicano di avere dei draghi nei loro garage, ma che in ogni caso le prove siano terribilmente elusive. Tutti noi ammettiamo che ci dà fastidio dover credere a una convinzione tanto strana e così mal sostenuta da prove fisiche. Nessuno di noi è pazzo. Noi ci chiediamo che senso avrebbe se in tutto il mondo dei draghi invisibili fossero effettiva-
mente nascosti nei nostri garage, con tutti noi a crederci. Io penso che non sia così. Ma se tutti quei miti antichi dell'Europa e della Cina, dopo tutto, non fossero solo dei miti... Meno male che adesso c'è chi dice di aver visto delle impronte nella farina. Quelle impronte, però, non si producono mai alla presenza di persone scettiche. Si presenta allora una spiegazione alternativa: a un attento esame appare chiaro che le orme potrebbero essere una contraffazione. Un altro entusiasta dei draghi si presenta con un dito bruciato e lo attribuisce a una rara manifestazione fisica del respiro infuocato del drago. Anche questa volta, però, ci sono altre possibilità. È chiaro che per scottarsi le dita non occorre esporle all'alito infuocato di un drago invisibile. Tali “prove” - per quanto importanti possano considerarle i fautori dei draghi - non sono affatto conclusive. Ancora una volta, l'unico approccio ragionevole consi-
ste nel rifiutare provvisoriamente l'ipotesi dei draghi, nell'essere disponibili a valutare futuri dati fisici che dovessero presentarsi, e nel chiedersi per quale motivo un così gran numero di persone sobrie e sane di mente condividano la stessa strana illusione. È qui esaminato tutto il campionario di tattiche seguite dai rappresentanti delle Pseudoscienze, quando si trovano di fronte ad una persona che voglia esaminare le teorie proposte in maniera aperta e convincente. Se siete disposti a seguire con pazienza tutta la trafila di mosse e contromosse, alla fine l’atto finale sarà una reazione che sarà un misto di sdegno ed ira, invettive contro la vostra ignoranza e mancanza di fantasia e magari un accenno che fate parte di qualche organizzazione segreta appositamente creata per una azione di insabbiamento (coverup) della mirabolante teoria od invenzione.
Monitor n° 251 - agosto 2005
Anche qui il libro di Sagan è un perfetto manuale: Capitolo 12: La bella arte di smascherare gli inganni (pag. 259 – 262) Che cosa c’è nel nostro armamentario? Strumenti per il pensiero scettico. Il pensiero scettico si riduce in ultima analisi, ai mezzi per costruire, e per capire un’argomentazione e - cosa particolarmente importante - per riconoscere un ragionamento sbagliato o fraudolento. Il problema non è se la conclusione che emerge da una catena di ragionamenti ci piaccia o no, ma se la conclusione segua dalla premessa o dal punto di partenza e se tale premessa sia o no vera. Fra gli strumenti usati dagli scienziati ci sono i seguenti: • Ogni volta che è possibile si deve cercare una conferma indipendente dei “fatti”. • Si deve incoraggiare una discussione delle prove da parte di proponenti autorevoli di tutti i punti di vista. • Le argomentazioni fondate sull’autorità hanno scarso peso: in passato le ”autorità” hanno commesso errori ed altri ne commetteranno in futuro.Forse un modo migliore per esprimere questo concetto è che nella scienza non ci sono autorità, al massimo esperti. • È bene formulare più di una ipotesi. Se c’è qualcosa da spiegare, pensate in tutti i modi diversi in cui la si potrebbe spiegare. Pensate poi ai test per mezzo dei quali si potrebbe confutare sistematicamente ogni possibilità alternativa. Ciò che rimane, l’ipotesi che resiste ad ogni tentativo di confutazione in questa selezione darwiniana fra ”ipotesi di lavoro multiple”, ha una probabilità migliore di essere la risposta giusta che vi foste limitati a seguire la prima idea che vi è venuta in mente. • Cercate di non affezionarvi troppo ad una idea solo perchè è vostra. Essa è solo una tappa nella ricerca della conoscenza. Chiedete a voi
Monitor n° 251 - agosto 2005
•
•
•
•
stessi perchè quell’idea vi piace tanto. Confrontatela senza barare con le altre possibilità. Provate a cercare ragioni per rifiutarla. Se non lo fate voi, lo faranno altri. Quantificate. Se a ciò che cercate di spiegare, qualunque cosa sia, è associata una qualche misura, una qualche quantità numerica, sarete molto meglio in grado di discriminare tra ipotesi contrastanti. Ciò che è vago e qualitativo è aperto a molte spiegazioni. Ovviamente ci sono verità da cercare anche nei molti problemi qualitativi che siamo costretti a porci, ma è molto più difficile trovare queste verità. Se c’è una catena di ragionamento, devono funzionare tutti gli anelli della catena (compresa la premessa) e non solo la maggior parte. Rasoio di Occam. Questa utile regola empirica si impone, quando ci troviamo di fronte a due ipotesi che spiegano i dati egualmente bene, di scegliere quella più semplice. Ci si deve sempre chiedere se, almeno in linea di principio, l’ipotesi possa essere falsificata. Le ipotesi che non possono essere sottoposte al test dell’esperienza, che non possono essere falsificate, non valgono molto. Consideriamo l’idea grandiosa che il nostro universo e tutto ciò che esso contiene sia solo una particella elementare – diciamo un elettrone – in un cosmo molto più grande. Ma se noi non potremo mai acquisire informazioni dall’esterno del nostro universo, quest’idea, non è sottratta ad ogni possibilità di falsificazione? Si deve essere in grado di controllare qualsiasi asserzione. Dobbiamo dare agli scettici inveterati la possibilità di seguire il nostro ragionamento, di duplicare i nostri esperimenti e di vedere se ottengono lo stesso nostro risultato.
Come ho cercato di sottolineare in precedenza, è essenziale poter contare su esperimenti progettati e controllati con cura. La semplice contemplazione non ci insegnerà molto. è forte l desiderio di accontentarsi della prima spiegazione che ci viene in mente: è molto meglio una spiega-
zione che nessuna. Ma che cosa accade se saremo in grado di inventarne più di una? Come possiamo decidere fra loro? Non siamo noi a decidere: lasciamo che sia l’esperimento. Francesco Bacone fornì il ragionamento classico: l’argomentazione da sola non è sufficiente, poichè la sottigliezza della Natura è molte volte maggiore della sottigliezza dell’argomentazione. È essenziale poter compiere esperimenti di controllo. Se per esempio si dice che una nuova medicina è efficace nel 20 per cento dei casi, dobbiamo assicurarci che una popolazione di controllo, che prenda una semplice pillola inerte credendo che sia il nuovo farmaco, non presenti anch’essa una remissione spontanea della malattia nel 20 per cento dei casi. La variabili devono essere tenute separate. Supponiamo che tu soffra il mal di mare e che ti vengano dati sia un braccialetto shiatsu, per la terapia mediante agopressione, sia cinquanta grammi di meclizina. Tu senti svanire la nausea. Di chi è il merito: del braccialetto o della compressa? 29 Potrai dirlo solo, se la prossima volta che avrai il mal di mare, prenderai l’una cosa senza l’altra. Ora immaginiamo che tu non sia così dedito alla scienza da essere disposto a soffrire il mal di mare. In questo caso non separerai le variabili ma prenderai di nuovo entrambi i rimedi. Hai conseguito il risultato pratico desiderato; potresti dire che una conoscenza più precisa non vale la sofferenza che ti costa il conseguirla. Spasso l’esperimento deve essere fatto con la tecnica ”doppio cieco”, così che coloro che sperano in un determinato risultato non siano nella condizione potenzialmente pericolosa di incidere sull’esito dell’esperimento stesso. Nella sperimentazione di un nuovo farmaco, per esempio, è preferibile che i medici che dovranno determinare quanti pazienti presentino un miglioramento della sintomatologia non sappiano a quali di essi è stato somministrato il nuovo farmaco ed a quali soltano un placebo. Sapendo chi ha ricevuto il nuovo farmaco, si potrebbe infatti essere influenzati, anche in modo solo inconscio,
tra i poli estremi del “credulone” e dell’”incredulo”.
Esempi di pseudoscienza nel campo del broadcasting
30
nella valutazione dei sintomi. Col metodo del doppio cieco è possibile invece confrontare due elenchi compilati indipendentemente: l’elenco di coloro che presentano una remissione dei sintomi e quello di coloro che hanno ricevuto il nuovo farmaco. Solo così si potrà accertare quale correlazione esista effettivamente fra i due elenchi. Oppure, quando di procede ad un confronto all’americana o all’identificazione dell’autore di un crimine attraverso fotografie, il funzionario di polizia che consulta i testimoni non dovrebbe sapere quale sia il maggiore indiziato, in modo da non influire in modo cosciente od inconscio sul testimone. Oltre ad insegnarci che cosa dobbiamo fare quando valutiamo il contenuto di verità di un’affermazione, ogni buon armamentario per l’identificazione degli inganni dovrebbe anche insegnarci cosa non dobbiamo fare. Esso ci aiuta a riconoscere gli errori più comuni e pericolosi della logica e
della retorica. Molti buoni esempi di questi errori si possono trovare in religione e in politica, poichè i loro praticanti sono spesso obbligati a giustificare due affermazioni contraddittorie. Fra questi ci sono i seguenti: •Ad hominem: espressione latina usata per designare un’argomentazione che attacca l’avversario anzichè i suoi ragionamenti (per esempio: ”Il reverendo dottor Smith è un noto fondamentalista biblico, cosicchè non dobbiamo darci la pena di prendere sul serio le sue obiezioni sulla teoria dell’ evoluzione”). Vengono citati di seguito altri diciannove esempi tipici ed illuminanti per i quali si rimanda alla lettura del libro stesso. Un altro libro che consiglio di leggere e che definirei il ”Bignami dello scettico” è: ”Flim-Flam, Fandonie, Sensitivi, Unicorni ed altre illusioni” – James Randi – Avverbi Edizioni. Lo ”scettico” può definirsi come un individuo che si pone a metà strada
Una serie di pseudoteorie relative a possibili riformulazioni o errori nelle equazioni di Maxwell e sfocianti nella possibilità di costruire antenne molto piccole che funzionino come quelle di dimensioni ”normali” sono state avanzate già da 20 anni e portate avanti senza riscontro da parte del mondo scientifico. Il tutto parte da una serie di errori sperimentali su cui gli ”inventori” hanno cercato di costruire ad hoc fantasiose teorie senza nessun supporto matematico condivisibile. Dopo un certo tempo, quelli che sono stati aperti ad esaminare l’approccio scientifico hanno compreso gli errori sperimentali e si sono ritirati. Rimangono alcuni irriducibili che hanno sviluppato attività commerciali, quali CFA, EH e Hately Technology. Tali soggetti, approcciati in modo scientifico, esibiscono tutta la casistica descritta in: “Un drago nel mio garage”, fino all’ epilogo dello sdegno e delle pretese di insabbiamento da parte del mondo accademico o da parte di organi segreti. Tra i tanti, anche alcuni noti broadcasters sono caduti nella rete, per poi tornare all’ antico, con poco clamore. Come direbbe Ezio Greggio: ”Amici, antenne dritte e rasoio di Occam in mano...”
31
Bibliografia: 1) ”Le Bugie della Scienza”Perchè e come gli scienziati imbrogliano – Federico di Trocchio - Oscar Saggi Mondatori. 2) ”Un mondo infestato da demoni – La Scienza ed il nuovo oscurantismo”Carl Sagan – Baldini e Castoldi. 3) ”Flim-Flam, Fandonie, Sensitivi, Unicorni ed altre illusioni – James Randi – Avverbi Edizioni.
Monitor n° 251 - agosto 2005
Monitor n° 251 - agosto 2005
tra i poli estremi del “credulone” e dell’”incredulo”.
Esempi di pseudoscienza nel campo del broadcasting
30
nella valutazione dei sintomi. Col metodo del doppio cieco è possibile invece confrontare due elenchi compilati indipendentemente: l’elenco di coloro che presentano una remissione dei sintomi e quello di coloro che hanno ricevuto il nuovo farmaco. Solo così si potrà accertare quale correlazione esista effettivamente fra i due elenchi. Oppure, quando di procede ad un confronto all’americana o all’identificazione dell’autore di un crimine attraverso fotografie, il funzionario di polizia che consulta i testimoni non dovrebbe sapere quale sia il maggiore indiziato, in modo da non influire in modo cosciente od inconscio sul testimone. Oltre ad insegnarci che cosa dobbiamo fare quando valutiamo il contenuto di verità di un’affermazione, ogni buon armamentario per l’identificazione degli inganni dovrebbe anche insegnarci cosa non dobbiamo fare. Esso ci aiuta a riconoscere gli errori più comuni e pericolosi della logica e
della retorica. Molti buoni esempi di questi errori si possono trovare in religione e in politica, poichè i loro praticanti sono spesso obbligati a giustificare due affermazioni contraddittorie. Fra questi ci sono i seguenti: •Ad hominem: espressione latina usata per designare un’argomentazione che attacca l’avversario anzichè i suoi ragionamenti (per esempio: ”Il reverendo dottor Smith è un noto fondamentalista biblico, cosicchè non dobbiamo darci la pena di prendere sul serio le sue obiezioni sulla teoria dell’ evoluzione”). Vengono citati di seguito altri diciannove esempi tipici ed illuminanti per i quali si rimanda alla lettura del libro stesso. Un altro libro che consiglio di leggere e che definirei il ”Bignami dello scettico” è: ”Flim-Flam, Fandonie, Sensitivi, Unicorni ed altre illusioni” – James Randi – Avverbi Edizioni. Lo ”scettico” può definirsi come un individuo che si pone a metà strada
Una serie di pseudoteorie relative a possibili riformulazioni o errori nelle equazioni di Maxwell e sfocianti nella possibilità di costruire antenne molto piccole che funzionino come quelle di dimensioni ”normali” sono state avanzate già da 20 anni e portate avanti senza riscontro da parte del mondo scientifico. Il tutto parte da una serie di errori sperimentali su cui gli ”inventori” hanno cercato di costruire ad hoc fantasiose teorie senza nessun supporto matematico condivisibile. Dopo un certo tempo, quelli che sono stati aperti ad esaminare l’approccio scientifico hanno compreso gli errori sperimentali e si sono ritirati. Rimangono alcuni irriducibili che hanno sviluppato attività commerciali, quali CFA, EH e Hately Technology. Tali soggetti, approcciati in modo scientifico, esibiscono tutta la casistica descritta in: “Un drago nel mio garage”, fino all’ epilogo dello sdegno e delle pretese di insabbiamento da parte del mondo accademico o da parte di organi segreti. Tra i tanti, anche alcuni noti broadcasters sono caduti nella rete, per poi tornare all’ antico, con poco clamore. Come direbbe Ezio Greggio: ”Amici, antenne dritte e rasoio di Occam in mano...”
31
Bibliografia: 1) ”Le Bugie della Scienza”Perchè e come gli scienziati imbrogliano – Federico di Trocchio - Oscar Saggi Mondatori. 2) ”Un mondo infestato da demoni – La Scienza ed il nuovo oscurantismo”Carl Sagan – Baldini e Castoldi. 3) ”Flim-Flam, Fandonie, Sensitivi, Unicorni ed altre illusioni – James Randi – Avverbi Edizioni.
Monitor n° 251 - agosto 2005
Monitor n° 251 - agosto 2005
Un esempio dei risultati ottenibili con Resolve, in tempo reale anche con risoluzione 4K
32
Padroneggiare il colore A colloquio con Tony Fox della da Vinci, l’azienda statunitense specializzata nella produzione di sistemi per la correzione del colore e il restauro delle pellicole Fin dalla presentazione nel 1984 del suo primo sistema per la correzione del colore, la statunitense da Vinci ha avuto un ruolo da protagonista in questo particolare settore che oggi sta assumendo un ruolo essenziale
Tony Fos, direttore marketing della da Vinci
non solo nella televisione, ma anche in tutte le lavorazioni cinematografiche. Grazie anche alla possibilità di distribuzione in formato elettronico, il digital intermediate sta diventando un passaggio quasi obbligato per ogni film e la correzione del colore è certamente uno degli elementi essenziali di questa lavorazione. Non si tratta solo di ovviare a problemi di ripresa, come il cercare di combinare sequenze riprese in condizioni di luce differente, ma sempre più spesso registi e direttori della fotografia sono alla ricerca di un particolare look che soltanto il trattamento elettronico della pellicola è in grado di offrire. Anche per questa ragione, Tony Fox, direttore marketing della da Vinci Systems, preferisce definirli sistemi per il miglioramento del colore (color enhancement) piuttosto che per la correzione: “Attualmente, abbiamo due prodotti studiati per questa
applicazione. Uno è il 2K Plus, disponibile già da alcuni anni e utilizzato con i telecinema, nonché per il miglioramento del colore nel riversamento da nastro a nastro o per il cinema. La novità in questo caso è quella che chiamiamo la serie Elite, configurazioni del sistema base che consistono nella somma di differenti opzioni - Vector Plus, Toolbox2 e PowerTiers - che espandono ulteriormente le capacità del sistema. La serie Elite è composta da tre livelli Ruby, Sapphire e Emerald – e la differenza fra questi è nel numero di PowerTiers, le zone delimitate nelle quali è possibile intervenire selettivamente sul colore. Toolbox2 aggiunge invece maggiori capacità per la gestione del defocus e lavora in combinazione con PowerVectors, il modulo che permette di definire le diverse zone dell’immagine sulle quali è poi possibile applicare un diverso livello di sfocatura. La vera
Monitor n° 251 - agosto 2005
novità è però il sistema Resolve che noi chiamiamo ‘The Digital Mastering Suite’. Fondamentalmente è anche questo un sistema per la correzione del colore, ma può fare molto di più. Resolve è stato sviluppato per il mercato del digital intermediate e, oltre alla correzione del colore, mette a disposizione strumenti per il conforming in modalità non lineare. Il materiale originale residente nel server può avere qualsiasi risoluzione – 2K, 4K o HD – e una volta completata la lavorazione può essere convertito in uno dei tanti formati previsti.” D – Che tipo di professionalità è richiesta per utilizzare un sistema come Resolve? Fox - L’ambiente di lavoro è del tutto simile a quello degli altri sistemi da Vinci e quindi chi già opera con questi sistemi si troverà perfettamente a proprio agio. Il nostro obbiettivo era rendere semplice e facile il passaggio di un colorista da un prodotto come 2K Plus a Resolve e anche per questo abbiamo scelto di utilizzare lo stesso pannello di controllo dei sistemi 2K. Quando il colorista si siede davanti a un sistema come Resolve non trova praticamente nulla di nuovo e può utilizzarlo proprio come se fosse un altro sistema da Vinci e questo è molto importante per le case di post-produzione che vogliono affiancare le lavorazioni del Digital Intermediate al tradizionale lavoro di trasferimento dalla pellicola al nastro: lo stesso colorista può lavorare facilmente sui due sistemi. D - In cosa differisce Resolve dai vostri sistemi più tradizionali? Fox - Con Resolve abbiamo potuto adottare un approccio differente rispetto agli altri sistemi. Poiché è basato sul software, siamo stati in grado di aggiungere tante cose che possono modificare quello che è il workflow tradizionale, rendendolo molto più flessibile. L’architettura è basata su strutture a grafo, che sono fondamentalmente una rappresentazione grafica dei diversi interventi applicati alle sequenze. Per esempio, se nel corso della lavorazione si aggiunge una correzione secondaria a una certa zona o si definisce una
Monitor n° 251 - agosto 2005
finestra è possibile visualizzare graficamente tutte le modifiche nell’ordine in cui sono state applicate. Il vantaggio per il colorista è che può modificare una certa operazione, senza dover ripetere quelle successive. D - Il sistema utilizza una piattaforma hardware non proprietaria? Fox - Quello che ci si aspetta da un sistema da Vinci è la possibilità di lavorare su immagini di grandi dimensioni in tempo reale o comunque in maniera molto veloce. Un prodotto come 2K Plus, progettato per lavorare su hardware dedicato, può fare solo operazioni ben specifiche e queste le fa molto bene. Al contrario, Resolve è un prodotto software che funziona su un ‘normale’ Pc Intel con sistema operativo Linux e questo facilita l’aggiunta di nuove funzioni, ma per garantire prestazioni adeguate, utilizziamo una scheda acceleratrice PowerPlant, una scheda Pci-X veramente molto flessibile e molto veloce. Quello che abbiamo fatto è stato prendere i nostri algoritmi per la correzione colore e adattarli in modo che potessero sfruttare appieno la velocità di trattamento dati che questa scheda PowerPlant può offrire. Una singola scheda PowerPlant può rimpiazzare un’intera batteria di Pc e in un sistema Resolve si possono avere fino a tre di queste schede, in una configurazione che chiamiamo PowerGrid. D - Può darci un’idea delle prestazioni offerte da Resolve? Fox - Giusto per fare un esempio, il defocus è uno dei compiti che richie-
dono maggiori capacità di calcolo quando lo si applica ad immagini di grandi dimensioni. Il defocus è un esempio degli algoritmi che abbiamo sviluppato proprio per trarre vantaggio dall’hardware PowerPlant e una delle dimostrazioni più convincenti sulle potenzialità del sistema prevede l’applicazione di correzioni colore multiple e della funzione defocus proprio per dimostrare come il tutto possa essere gestito velocemente su immagini a piena risoluzione, non su proxy come accade con altri sistemi. D – Quanto è determinante la possibilità di lavorare in 4K per il successo di un prodotto come Resolve? Fox - Direi che c’è una richiesta pressante per il 4K, anche se la maggior parte delle lavorazioni sono attualmente fatte in 2K. C’è una forte necessità di lavorazioni in 4K, soprattutto per i film che fanno largo uso di effetti speciali, e sono convinto che in futuro si passerà a risoluzioni ancora maggiori. Anche se non sono molte le occasioni in cui si possono apprezzare i benefici di una risoluzione 4K, 33 penso che di pari passo con l’evoluzione della tecnologia ci sarà una richiesta anche per risoluzioni superiori. Comunque, la sfida oggi non è tanto la velocità di elaborazione quanto quella di trasferimento dei dati. Aumentando la risoluzione, la quantità di dati cresce in modo esponenziale. Dal nostro punto di vista acquistano quindi un ruolo sempre più importante le infrastrutture di rete e lo storage, che spesso rappresentano oggi il vero collo di bottiglia di molte lavorazioni.
Resolve utilizza gli stessi pannelli di controllo del sistema 2K Plus
Un esempio dei risultati ottenibili con Resolve, in tempo reale anche con risoluzione 4K
32
Padroneggiare il colore A colloquio con Tony Fox della da Vinci, l’azienda statunitense specializzata nella produzione di sistemi per la correzione del colore e il restauro delle pellicole Fin dalla presentazione nel 1984 del suo primo sistema per la correzione del colore, la statunitense da Vinci ha avuto un ruolo da protagonista in questo particolare settore che oggi sta assumendo un ruolo essenziale
Tony Fos, direttore marketing della da Vinci
non solo nella televisione, ma anche in tutte le lavorazioni cinematografiche. Grazie anche alla possibilità di distribuzione in formato elettronico, il digital intermediate sta diventando un passaggio quasi obbligato per ogni film e la correzione del colore è certamente uno degli elementi essenziali di questa lavorazione. Non si tratta solo di ovviare a problemi di ripresa, come il cercare di combinare sequenze riprese in condizioni di luce differente, ma sempre più spesso registi e direttori della fotografia sono alla ricerca di un particolare look che soltanto il trattamento elettronico della pellicola è in grado di offrire. Anche per questa ragione, Tony Fox, direttore marketing della da Vinci Systems, preferisce definirli sistemi per il miglioramento del colore (color enhancement) piuttosto che per la correzione: “Attualmente, abbiamo due prodotti studiati per questa
applicazione. Uno è il 2K Plus, disponibile già da alcuni anni e utilizzato con i telecinema, nonché per il miglioramento del colore nel riversamento da nastro a nastro o per il cinema. La novità in questo caso è quella che chiamiamo la serie Elite, configurazioni del sistema base che consistono nella somma di differenti opzioni - Vector Plus, Toolbox2 e PowerTiers - che espandono ulteriormente le capacità del sistema. La serie Elite è composta da tre livelli Ruby, Sapphire e Emerald – e la differenza fra questi è nel numero di PowerTiers, le zone delimitate nelle quali è possibile intervenire selettivamente sul colore. Toolbox2 aggiunge invece maggiori capacità per la gestione del defocus e lavora in combinazione con PowerVectors, il modulo che permette di definire le diverse zone dell’immagine sulle quali è poi possibile applicare un diverso livello di sfocatura. La vera
Monitor n° 251 - agosto 2005
novità è però il sistema Resolve che noi chiamiamo ‘The Digital Mastering Suite’. Fondamentalmente è anche questo un sistema per la correzione del colore, ma può fare molto di più. Resolve è stato sviluppato per il mercato del digital intermediate e, oltre alla correzione del colore, mette a disposizione strumenti per il conforming in modalità non lineare. Il materiale originale residente nel server può avere qualsiasi risoluzione – 2K, 4K o HD – e una volta completata la lavorazione può essere convertito in uno dei tanti formati previsti.” D – Che tipo di professionalità è richiesta per utilizzare un sistema come Resolve? Fox - L’ambiente di lavoro è del tutto simile a quello degli altri sistemi da Vinci e quindi chi già opera con questi sistemi si troverà perfettamente a proprio agio. Il nostro obbiettivo era rendere semplice e facile il passaggio di un colorista da un prodotto come 2K Plus a Resolve e anche per questo abbiamo scelto di utilizzare lo stesso pannello di controllo dei sistemi 2K. Quando il colorista si siede davanti a un sistema come Resolve non trova praticamente nulla di nuovo e può utilizzarlo proprio come se fosse un altro sistema da Vinci e questo è molto importante per le case di post-produzione che vogliono affiancare le lavorazioni del Digital Intermediate al tradizionale lavoro di trasferimento dalla pellicola al nastro: lo stesso colorista può lavorare facilmente sui due sistemi. D - In cosa differisce Resolve dai vostri sistemi più tradizionali? Fox - Con Resolve abbiamo potuto adottare un approccio differente rispetto agli altri sistemi. Poiché è basato sul software, siamo stati in grado di aggiungere tante cose che possono modificare quello che è il workflow tradizionale, rendendolo molto più flessibile. L’architettura è basata su strutture a grafo, che sono fondamentalmente una rappresentazione grafica dei diversi interventi applicati alle sequenze. Per esempio, se nel corso della lavorazione si aggiunge una correzione secondaria a una certa zona o si definisce una
Monitor n° 251 - agosto 2005
finestra è possibile visualizzare graficamente tutte le modifiche nell’ordine in cui sono state applicate. Il vantaggio per il colorista è che può modificare una certa operazione, senza dover ripetere quelle successive. D - Il sistema utilizza una piattaforma hardware non proprietaria? Fox - Quello che ci si aspetta da un sistema da Vinci è la possibilità di lavorare su immagini di grandi dimensioni in tempo reale o comunque in maniera molto veloce. Un prodotto come 2K Plus, progettato per lavorare su hardware dedicato, può fare solo operazioni ben specifiche e queste le fa molto bene. Al contrario, Resolve è un prodotto software che funziona su un ‘normale’ Pc Intel con sistema operativo Linux e questo facilita l’aggiunta di nuove funzioni, ma per garantire prestazioni adeguate, utilizziamo una scheda acceleratrice PowerPlant, una scheda Pci-X veramente molto flessibile e molto veloce. Quello che abbiamo fatto è stato prendere i nostri algoritmi per la correzione colore e adattarli in modo che potessero sfruttare appieno la velocità di trattamento dati che questa scheda PowerPlant può offrire. Una singola scheda PowerPlant può rimpiazzare un’intera batteria di Pc e in un sistema Resolve si possono avere fino a tre di queste schede, in una configurazione che chiamiamo PowerGrid. D - Può darci un’idea delle prestazioni offerte da Resolve? Fox - Giusto per fare un esempio, il defocus è uno dei compiti che richie-
dono maggiori capacità di calcolo quando lo si applica ad immagini di grandi dimensioni. Il defocus è un esempio degli algoritmi che abbiamo sviluppato proprio per trarre vantaggio dall’hardware PowerPlant e una delle dimostrazioni più convincenti sulle potenzialità del sistema prevede l’applicazione di correzioni colore multiple e della funzione defocus proprio per dimostrare come il tutto possa essere gestito velocemente su immagini a piena risoluzione, non su proxy come accade con altri sistemi. D – Quanto è determinante la possibilità di lavorare in 4K per il successo di un prodotto come Resolve? Fox - Direi che c’è una richiesta pressante per il 4K, anche se la maggior parte delle lavorazioni sono attualmente fatte in 2K. C’è una forte necessità di lavorazioni in 4K, soprattutto per i film che fanno largo uso di effetti speciali, e sono convinto che in futuro si passerà a risoluzioni ancora maggiori. Anche se non sono molte le occasioni in cui si possono apprezzare i benefici di una risoluzione 4K, 33 penso che di pari passo con l’evoluzione della tecnologia ci sarà una richiesta anche per risoluzioni superiori. Comunque, la sfida oggi non è tanto la velocità di elaborazione quanto quella di trasferimento dei dati. Aumentando la risoluzione, la quantità di dati cresce in modo esponenziale. Dal nostro punto di vista acquistano quindi un ruolo sempre più importante le infrastrutture di rete e lo storage, che spesso rappresentano oggi il vero collo di bottiglia di molte lavorazioni.
Resolve utilizza gli stessi pannelli di controllo del sistema 2K Plus
34
L’animazione si rinnova
35
Come era prevedibile, hanno fatto la loro prima apparizione al Siggraph le nuove versioni di tutti i più diffusi programmi di animazione tridimensionale Non sono rimasti certo delusi i quasi 30.000 partecipanti alla trentaduesima edizione del Siggraph che si è svolta ai primi di agosto a Los Angeles: al tradizionale appuntamento con il meglio della computer grafica non sono mancati i maggiori produttori di software per l’animazione tridimensionale, strumenti indispensabili per la creazione di effetti speciali per il cinema e la televisione. Film come il terzo episodio della saga di Guerre Stellari o Sin City testimoniano l’elevato grado di realismo raggiunto in questo settore e sono sempre più rari i casi in cui è necessario ricorrere a software realizzati su misura per effettuare determinate lavorazioni. I moduli per la generazione di chiome o pellicce costituiscono la dotazione standard della quasi totalità dei programmi di animazione e anche la simulazione dei fluidi è una possibilità offerta da numerosi software. Sul fronte dell’hardware poi la situazione è radicalmente cambiata negli ultimi anni, grazie allo svilup-
po di processori grafici progettati in modo specifico per la visualizzazione dei videogiochi che però trovano valida applicazione all’interno delle workstation grafiche con il risultato che il loro costo si è drasticamente ridotto. Inoltre, operazioni che un tempo comportavano lunghe attese possono ora possono essere visualizzate anche immediatamente, rendendo molto più facile il lavoro dell’animatore.
Robot, presentato come anteprima tecnologica proprio in occasione del Siggraph. Basato su approfonditi studi anatomici, Face Robot utilizza un particolare modello matematico per la pelle e i muscoli del volto che permette di mimare realisticamente le differenti espressioni, rughe comprese. Il modulo può essere utilizzato definendo i soliti keyframe oppure a partire dai dati raccolti con un siste-
Immagini sempre più soft Tutto questo non significa però che non ci sia spazio per ulteriori miglioramenti. Per esempio, il team di sviluppatori di Softimage sta attualmente lavorando al modulo per l’animazione facciale Face
Anche l’animazione semplificata dei volti nel futuro di Softimage XSI
Monitor n° 251 - agosto 2005
Monitor n° 251 - agosto 2005
34
L’animazione si rinnova
35
Come era prevedibile, hanno fatto la loro prima apparizione al Siggraph le nuove versioni di tutti i più diffusi programmi di animazione tridimensionale Non sono rimasti certo delusi i quasi 30.000 partecipanti alla trentaduesima edizione del Siggraph che si è svolta ai primi di agosto a Los Angeles: al tradizionale appuntamento con il meglio della computer grafica non sono mancati i maggiori produttori di software per l’animazione tridimensionale, strumenti indispensabili per la creazione di effetti speciali per il cinema e la televisione. Film come il terzo episodio della saga di Guerre Stellari o Sin City testimoniano l’elevato grado di realismo raggiunto in questo settore e sono sempre più rari i casi in cui è necessario ricorrere a software realizzati su misura per effettuare determinate lavorazioni. I moduli per la generazione di chiome o pellicce costituiscono la dotazione standard della quasi totalità dei programmi di animazione e anche la simulazione dei fluidi è una possibilità offerta da numerosi software. Sul fronte dell’hardware poi la situazione è radicalmente cambiata negli ultimi anni, grazie allo svilup-
po di processori grafici progettati in modo specifico per la visualizzazione dei videogiochi che però trovano valida applicazione all’interno delle workstation grafiche con il risultato che il loro costo si è drasticamente ridotto. Inoltre, operazioni che un tempo comportavano lunghe attese possono ora possono essere visualizzate anche immediatamente, rendendo molto più facile il lavoro dell’animatore.
Robot, presentato come anteprima tecnologica proprio in occasione del Siggraph. Basato su approfonditi studi anatomici, Face Robot utilizza un particolare modello matematico per la pelle e i muscoli del volto che permette di mimare realisticamente le differenti espressioni, rughe comprese. Il modulo può essere utilizzato definendo i soliti keyframe oppure a partire dai dati raccolti con un siste-
Immagini sempre più soft Tutto questo non significa però che non ci sia spazio per ulteriori miglioramenti. Per esempio, il team di sviluppatori di Softimage sta attualmente lavorando al modulo per l’animazione facciale Face
Anche l’animazione semplificata dei volti nel futuro di Softimage XSI
Monitor n° 251 - agosto 2005
Monitor n° 251 - agosto 2005
ma di motion capture, utilizzando in questo caso un minor numero di marker rispetto a quelli che sarebbero richiesti con le tecniche di animazione più tradizionali. In attesa che Face Robot sia pronto per la commercializzazione, gli utilizzatori di Softimage potranno contare sulla versione 5.0 di XSI presentata da Avid nella stessa occasione. Ultimapper e Gator sono due delle novità, la prima destinata alla creazione semplificata di texture map e la seconda per la fusione di modelli animati, anche completi di texture. XSI v.5.0 può poi sfruttare appieno le potenzialità dei processori a 64 bit, compresi i più recenti modelli a doppio “core” che possono effettivamente dimezzare i tempi di lavorazione. La stretta integrazione con il software di rendering mental ray, anch’esso a 64 bit, permette poi di gestire più agevolmente scene complesse, ricche di dettagli ed effetti di luce. Nella versione 5.0 di XSI Advanced sono integrati anche i moduli Hair, per l’animazione di miriadi di oggetti 36 più o meno filiformi, dai capelli ai fili d’erba, Syflex 3 per la simulazione di una vasta gamma di tessuti, da quelli più flessuosi a quelli più rigidi, e Behavior per riprodurre il comportamento di folle, branchi o sciami. Miglioramenti sono poi stati apportati al modulo di gestione della dinamica dei corpi rigidi, in particolare le collisioni fra gli oggetti. Infine, per gli
Un po’ inquietante l’immagine scelta come testimonial per la release 7 di Maya
utilizzatori di Maya è stata prevista una serie di strumenti tesi a facilitare la migrazione verso Softimage. XSI v.5.0 è gia disponibile nelle tre varianti Foundation, Essentials e Advanced, rispettivamente a 495, 1.995 e 7.995 dollari.
La settima volta di Maya Tra le novità della versione 7 del pro-
Lo shader Toon può anche essere visualizzato in anteprima nelle finestre di lavorazione
gramma di modellazione e animazione di Alias c’è anche una completa rivisitazione della gestione dei layer per il render: all’interno dello stessa scena si possono includere differenti versioni degli stessi oggetti e per ogni layer è anche possibile specificare un differente render, compreso mental ray, Molto interessante il nuovo Toon Shader che conferisce agli oggetti l’aspetto tipico dei cartoon con la possibilità di definire il tipo di linee di contorno, nonché spessore e posizione, e garantisce un’anteprima praticamente istantanea anche delle scene più complesse. Grazie poi a un accordo stipulato con la Pixar, Maya sfrutta la tecnologia di suddivisione delle superfici di RenderMan che offre un accurato ed intuitivo controllo sui bordi dei modelli. Sul fronte dell’animazione dei personaggi, l’integrazione di alcune tecnologie ereditate da Alias Motion Builder rende più semplice e precisa la lavorazione mentre il supporto per flussi di lavoro in parallelo permette di ottimizzare la produttività all’interno dei gruppi di lavoro. Il trapianto dei capelli da un personaggio all’altro e altre funzionalità del genere
Monitor n° 251 - agosto 2005
37
Monitor n° 251 - agosto 2005
ma di motion capture, utilizzando in questo caso un minor numero di marker rispetto a quelli che sarebbero richiesti con le tecniche di animazione più tradizionali. In attesa che Face Robot sia pronto per la commercializzazione, gli utilizzatori di Softimage potranno contare sulla versione 5.0 di XSI presentata da Avid nella stessa occasione. Ultimapper e Gator sono due delle novità, la prima destinata alla creazione semplificata di texture map e la seconda per la fusione di modelli animati, anche completi di texture. XSI v.5.0 può poi sfruttare appieno le potenzialità dei processori a 64 bit, compresi i più recenti modelli a doppio “core” che possono effettivamente dimezzare i tempi di lavorazione. La stretta integrazione con il software di rendering mental ray, anch’esso a 64 bit, permette poi di gestire più agevolmente scene complesse, ricche di dettagli ed effetti di luce. Nella versione 5.0 di XSI Advanced sono integrati anche i moduli Hair, per l’animazione di miriadi di oggetti 36 più o meno filiformi, dai capelli ai fili d’erba, Syflex 3 per la simulazione di una vasta gamma di tessuti, da quelli più flessuosi a quelli più rigidi, e Behavior per riprodurre il comportamento di folle, branchi o sciami. Miglioramenti sono poi stati apportati al modulo di gestione della dinamica dei corpi rigidi, in particolare le collisioni fra gli oggetti. Infine, per gli
Un po’ inquietante l’immagine scelta come testimonial per la release 7 di Maya
utilizzatori di Maya è stata prevista una serie di strumenti tesi a facilitare la migrazione verso Softimage. XSI v.5.0 è gia disponibile nelle tre varianti Foundation, Essentials e Advanced, rispettivamente a 495, 1.995 e 7.995 dollari.
La settima volta di Maya Tra le novità della versione 7 del pro-
Lo shader Toon può anche essere visualizzato in anteprima nelle finestre di lavorazione
gramma di modellazione e animazione di Alias c’è anche una completa rivisitazione della gestione dei layer per il render: all’interno dello stessa scena si possono includere differenti versioni degli stessi oggetti e per ogni layer è anche possibile specificare un differente render, compreso mental ray, Molto interessante il nuovo Toon Shader che conferisce agli oggetti l’aspetto tipico dei cartoon con la possibilità di definire il tipo di linee di contorno, nonché spessore e posizione, e garantisce un’anteprima praticamente istantanea anche delle scene più complesse. Grazie poi a un accordo stipulato con la Pixar, Maya sfrutta la tecnologia di suddivisione delle superfici di RenderMan che offre un accurato ed intuitivo controllo sui bordi dei modelli. Sul fronte dell’animazione dei personaggi, l’integrazione di alcune tecnologie ereditate da Alias Motion Builder rende più semplice e precisa la lavorazione mentre il supporto per flussi di lavoro in parallelo permette di ottimizzare la produttività all’interno dei gruppi di lavoro. Il trapianto dei capelli da un personaggio all’altro e altre funzionalità del genere
Monitor n° 251 - agosto 2005
37
Monitor n° 251 - agosto 2005
sono invece esclusive della versione Unlimited (proposta a 6.999 dollari contro i 1.999 della Complete). Maya Unlimited 7 mette a disposizione anche un migliorato modulo per l’animazione dei fluidi, capace di offrire un grado di realismo ancora più elevato. Come le precedenti release, Maya 7 sarà disponibile per i sistemi operativi Linux, Mac OS X e Windows. Alias ha anche presentato la release 7 di Motion Builder, il software studiato in modo specifico per l’animazione dei personaggi sintetici, anche in tempo reale. Le migliorie apportate alla versione standard riguardano soprattutto la produttività: l’animazione può ora essere trasferita da un personaggio all’altro ed è possibile tenere traccia delle versioni intermedie. Con il Live Device Support della versione Pro si possono poi gestire dispositivi di motion capture multipli, anche in diretta, ed è possibile creare nuovi driver per dispositivi proprietari.
38
3ds Max raggiunge quota otto Quattro sono le aree nelle quali si sono concentrati gli sforzi degli sviluppatori di Autodesk: animazione dei personaggi, modellazione avanzata, completamento dell’infrastrut-
Anche il modulo Fur entra a far parte del pacchetto base 3ds Max della Autodesk
tura di sviluppo e gestione dei dati in ambienti collaborativi. Il risultato è 3ds Max 8, la cui commercializzazione è prevista per il prossimo autunno in una sola versione offerta a un prezzo sostanzialmente immutato (oltre 4.000 euro), che lo conferma come il più costoso software di questa categoria. L’animazione non lineare, cioè la possibilità di miscelare movimenti diversi, è ora stata estesa a qualsiasi tipo di animazione e numerose
L’animazione non lineare messa a disposizione da 3ds Max 8 permette di combinare i diversi movimenti
migliorie sono state apportate alla gestione delle texture map. Le novità “strutturali” consistono in un nuovo kit per lo sviluppo di software (Sdk) con relativa esauriente documentazione e nel supporto per lo standard XML che facilita lo scambio di dati delle scene o delle animazioni con altre applicazioni. La gestione di questi è possibile con il software Autodesk Vault che permette ai diversi operatori di accedere in modo sicuro ad un archivio centrale, tenendo anche traccia delle precedenti versioni. Infine, tutti i moduli che in precedenza erano stati offerti agli utilizzatori che avevano sottoscritto il contratto di supporto (inclusi Cloth, Hair, Fur e mental ray 3.4) sono ora compresi in 3ds Max 8. Autodesk ha anche presentato le più recenti release dei software Discreet (Fire e Smoke 7, Inferno 6.5, Flame e Flint 9.5, Lustre 2.6), prodotti che erano stati annunciati qualche settimana prima del Siggraph. In particolare, l’adozione di un’architettura a 64 bit per i sistemi basati su piattaforma Sgi permette una maggiore interattività con risoluzioni di 2K o 4K mentre il Timewarp si avvale di raffinate tecniche di stima del movimento per offrire una miglior qualità negli effetti di rallentamento delle sequenze.
Monitor n° 251 - agosto 2005
39
Monitor n° 251 - agosto 2005
sono invece esclusive della versione Unlimited (proposta a 6.999 dollari contro i 1.999 della Complete). Maya Unlimited 7 mette a disposizione anche un migliorato modulo per l’animazione dei fluidi, capace di offrire un grado di realismo ancora più elevato. Come le precedenti release, Maya 7 sarà disponibile per i sistemi operativi Linux, Mac OS X e Windows. Alias ha anche presentato la release 7 di Motion Builder, il software studiato in modo specifico per l’animazione dei personaggi sintetici, anche in tempo reale. Le migliorie apportate alla versione standard riguardano soprattutto la produttività: l’animazione può ora essere trasferita da un personaggio all’altro ed è possibile tenere traccia delle versioni intermedie. Con il Live Device Support della versione Pro si possono poi gestire dispositivi di motion capture multipli, anche in diretta, ed è possibile creare nuovi driver per dispositivi proprietari.
38
3ds Max raggiunge quota otto Quattro sono le aree nelle quali si sono concentrati gli sforzi degli sviluppatori di Autodesk: animazione dei personaggi, modellazione avanzata, completamento dell’infrastrut-
Anche il modulo Fur entra a far parte del pacchetto base 3ds Max della Autodesk
tura di sviluppo e gestione dei dati in ambienti collaborativi. Il risultato è 3ds Max 8, la cui commercializzazione è prevista per il prossimo autunno in una sola versione offerta a un prezzo sostanzialmente immutato (oltre 4.000 euro), che lo conferma come il più costoso software di questa categoria. L’animazione non lineare, cioè la possibilità di miscelare movimenti diversi, è ora stata estesa a qualsiasi tipo di animazione e numerose
L’animazione non lineare messa a disposizione da 3ds Max 8 permette di combinare i diversi movimenti
migliorie sono state apportate alla gestione delle texture map. Le novità “strutturali” consistono in un nuovo kit per lo sviluppo di software (Sdk) con relativa esauriente documentazione e nel supporto per lo standard XML che facilita lo scambio di dati delle scene o delle animazioni con altre applicazioni. La gestione di questi è possibile con il software Autodesk Vault che permette ai diversi operatori di accedere in modo sicuro ad un archivio centrale, tenendo anche traccia delle precedenti versioni. Infine, tutti i moduli che in precedenza erano stati offerti agli utilizzatori che avevano sottoscritto il contratto di supporto (inclusi Cloth, Hair, Fur e mental ray 3.4) sono ora compresi in 3ds Max 8. Autodesk ha anche presentato le più recenti release dei software Discreet (Fire e Smoke 7, Inferno 6.5, Flame e Flint 9.5, Lustre 2.6), prodotti che erano stati annunciati qualche settimana prima del Siggraph. In particolare, l’adozione di un’architettura a 64 bit per i sistemi basati su piattaforma Sgi permette una maggiore interattività con risoluzioni di 2K o 4K mentre il Timewarp si avvale di raffinate tecniche di stima del movimento per offrire una miglior qualità negli effetti di rallentamento delle sequenze.
Monitor n° 251 - agosto 2005
39
Monitor n° 251 - agosto 2005
In attesa della release 9 di LightWave, Newtek dimezza i prezzi
In attesa della nove, LightWave dimezza L’annuncio della prossima disponibilità della versione 9 di LightWave 3D è passato quasi in secondo piano di 40 fronte alla decisione della NewTek di dimezzare il prezzo del proprio software 3D per le piattaforme Windows e Mac OS X, proposto ora a 795 dollari. Con questa cifra si può oggi acquistare LightWave [8] con Vue 5 Infinite (un interessante programma per la creazione di ambienti naturali) e si ha diritto all’aggiornamento alla versione 9, non appena questa sarà disponibile. Nel frattempo, Newtek ha anche reso disponibile sotto forma di aggiornamento gratuito la versione 8.5 a 64 bit per Windows XP Pro x64 che, permettendo l’accesso ad una maggiore quantità di memoria, è in grado di velocizzare tutte le lavorazioni più complesse, come la generazione di immagini per gli effetti speciali cinematografici. Inoltre, LightWave 8.5 supporta l’accelerazione hardware OpenGL offerta da numerose schede grafiche e rende quindi possibile la visualizzazione in anteprima di gran parte degli effetti di illuminazione in tempo reale. Diversi i miglioramenti apportati al modulo di dinamica delle particelle, che offre ora una migliore accuratezza nel calcolo delle collisioni. Con la versione 9, attesa entro il
corrente anno, gli utilizzatori di LightWave avranno a disposizione strumenti di modellazione più efficienti, una funzione di suddivisione delle superfici adattiva (che tiene conto della distanza dalla camera) e un render per il ray tracing almeno due volte e mezzo più veloce.
Quasi una 10 per Cinema 4D Si è fermata a 9.5 la numerazione della release corrente di Cinema 4D, il pro-
gramma di animazione proposto dalla tedesca Maxon per le piattaforme Mac OS X e Windows, anche in versione a 64 bit. Tra le nuove funzionalità c’è una migliore gestione delle superfici di luce, indispensabili per effetti realistici e ora realizzabili fino a quattro volte più velocemente. Il render multipass permette poi agli utilizzatori di Shake (il programma Apple per il compositing) di intervenire sul risultato finale senza dover necessariamente effettuare un nuovo render. Del tutto nuovo il Content Browser, un modulo per la “navigazione” visiva nei progetti, e Sky, un insieme di potenti strumenti offerti con il modulo Advanced Render per la riproduzione di sorprendenti effetti atmosferici con poche semplici operazioni. Presentata anche da Maxon la versione 2.5 di BodyPaint 3D, il programma di paint utilizzabile anche con modelli creati con 3ds Max, LightWave, Maya e Softimage XSI. L’aspetto di un oggetto può essere modificato con colpi di pennello e il risultato è immediatamente visualizzato a schermo anche agendo su parametri come la trasparenza o la riflettanza di una superficie. La gestione dei layer, simile a quella offerta da Adobe Photoshop, permette di gestire anche effetti di fusione fra texture procedurali e immagini bitmap. Entrambi i programmi saranno disponibili entro il mese di settembre.
Un esempio dei risultati ottenibili con il software BodyPaint 3D della Maxon (immagine realizzata da Peter Hofmann)
Monitor n° 251 - agosto/settembre 2005
In attesa della release 9 di LightWave, Newtek dimezza i prezzi
In attesa della nove, LightWave dimezza L’annuncio della prossima disponibilità della versione 9 di LightWave 3D è passato quasi in secondo piano di 40 fronte alla decisione della NewTek di dimezzare il prezzo del proprio software 3D per le piattaforme Windows e Mac OS X, proposto ora a 795 dollari. Con questa cifra si può oggi acquistare LightWave [8] con Vue 5 Infinite (un interessante programma per la creazione di ambienti naturali) e si ha diritto all’aggiornamento alla versione 9, non appena questa sarà disponibile. Nel frattempo, Newtek ha anche reso disponibile sotto forma di aggiornamento gratuito la versione 8.5 a 64 bit per Windows XP Pro x64 che, permettendo l’accesso ad una maggiore quantità di memoria, è in grado di velocizzare tutte le lavorazioni più complesse, come la generazione di immagini per gli effetti speciali cinematografici. Inoltre, LightWave 8.5 supporta l’accelerazione hardware OpenGL offerta da numerose schede grafiche e rende quindi possibile la visualizzazione in anteprima di gran parte degli effetti di illuminazione in tempo reale. Diversi i miglioramenti apportati al modulo di dinamica delle particelle, che offre ora una migliore accuratezza nel calcolo delle collisioni. Con la versione 9, attesa entro il
corrente anno, gli utilizzatori di LightWave avranno a disposizione strumenti di modellazione più efficienti, una funzione di suddivisione delle superfici adattiva (che tiene conto della distanza dalla camera) e un render per il ray tracing almeno due volte e mezzo più veloce.
Quasi una 10 per Cinema 4D Si è fermata a 9.5 la numerazione della release corrente di Cinema 4D, il pro-
gramma di animazione proposto dalla tedesca Maxon per le piattaforme Mac OS X e Windows, anche in versione a 64 bit. Tra le nuove funzionalità c’è una migliore gestione delle superfici di luce, indispensabili per effetti realistici e ora realizzabili fino a quattro volte più velocemente. Il render multipass permette poi agli utilizzatori di Shake (il programma Apple per il compositing) di intervenire sul risultato finale senza dover necessariamente effettuare un nuovo render. Del tutto nuovo il Content Browser, un modulo per la “navigazione” visiva nei progetti, e Sky, un insieme di potenti strumenti offerti con il modulo Advanced Render per la riproduzione di sorprendenti effetti atmosferici con poche semplici operazioni. Presentata anche da Maxon la versione 2.5 di BodyPaint 3D, il programma di paint utilizzabile anche con modelli creati con 3ds Max, LightWave, Maya e Softimage XSI. L’aspetto di un oggetto può essere modificato con colpi di pennello e il risultato è immediatamente visualizzato a schermo anche agendo su parametri come la trasparenza o la riflettanza di una superficie. La gestione dei layer, simile a quella offerta da Adobe Photoshop, permette di gestire anche effetti di fusione fra texture procedurali e immagini bitmap. Entrambi i programmi saranno disponibili entro il mese di settembre.
Come catturare suoni, musiche, discorsi I microfoni non sono altro che trasduttori utilizzati per captare il suono e convertirlo in segnale elettrico. Esistono naturalmente innumerevoli tipi di microfoni con caratteristiche differenti, adatti alle varie esigenze di lavoro; ma a grandi linee possiamo dividere questi dispositivi in grandi famiglie a seconda della tecnologia usata nella loro costruzione.
Microfoni dinamici Questo tipo di microfono è costituito fondamentalmente da un diaframma accoppiato meccanicamente a una bobina mobile. Questo meccanismo, sollecitato dalle onde sonore che lo raggiungono, vibra fra I poli di un magnete generando per induzione un voltaggio che corrisponde alla pressione del suono. Il microfono a condensatore può operare senza produrre distorsione anche in presenza di suoni di intensità notevole, fino a 120 dB, e offre inoltre il vantaggio di sop-
Un esempio dei risultati ottenibili con il software BodyPaint 3D della Maxon (immagine realizzata da Peter Hofmann)
Monitor n° 251 - agosto 2005
Monitor n° 251 - agosto 2005
portare senza difficoltà condizioni climatiche anche estreme in termini di temperatura e umidità.
Microfoni a condensatore L’elemento sensibile del microfono a condensatore consiste in un sottilissimo diaframma che vibra in prossimità di una placca metallica fissa detta elettrodo posteriore. L’insieme dei due elettrodi costituisce un condensatore che viene caricato dall’esterno (tensione di polarizzazione) o dispone di carica permanente (in quest’ultimo caso viene definito pre-polarizzato). Quando un suono raggiunge il diaframma, si verifica un cambiamento nella capacità del condensatore che risulta proporzionale alle caratteristiche dell’onda sonora e determina la tensione d’uscita del microfono. Questo tipo di trasduttore utilizza inevitabilmente un preamplificatore, necessario per adattare l’altissima impedenza della capsula microfonica
alle basse impedenze dei circuiti d’ingresso dei dispositivi di elaborazione del suono. Presenta una risposta in 41 frequenza molto lineare ma risulta notevolmente sensibile all’umidità e alla condensa, fattori che possono essere causa di rumore indesiderato. Il microfono a condensatore, inoltre, tende a generare oscillazioni ad alta frequenza talvolta percepibili sotto forma di fischio acuto, la cui intensità viene definita come livello di rumore
T I T O L O
S E Z I O N E
microfono più indicato a captare un suono di frequenza determinata.
Sensibilità al ronzio I campi magnetici generati dagli amplificatori, dai cavi di alimentazione e dalla rete elettrica introducono ronzio nei maicrofoni. La sensibilità al ronzio indica quindi la sensibilità del microfono a questo tipo di interferenza. Nella pratica il fattore determinante è costituito dal cavo microfonico, tanto più sensibile al ronzio quanto meno bilanciato.
Impedenza
equivalente. Un buon microfono a condensatore presenta un livello di rumore equivalente che non supera i 20 dB al di sopra della soglia di percezione.
42
Caratteristiche generali E qualche trucco del mestiere Effetto Larsen Quando un microfono riceve un suono amplificato da un altoparlante, lo riproduce, lo capta nuovamente e così di seguito fino alla comparsa del ben noto e famigerato fischio detto anche accoppiamento o auto-oscillazione. E’ un fenomeno molto frequente quando si usano altoparlanti per il monitoraggio. La soluzione consiste quasi sempre nel modificare la posizione o l’orientamento degli altoparlanti; anche l’attenuazione di certe frequenze per mezzo dell’equalizzatore può essere d’aiuto ma occorre assicurarsi che la manovra non modifichi sensibilmente il suono sul quale si sta lavorando.
E’ la resistenza interna di un microfono misurata alla frequenza di 1 kHz. Conoscendo la l’impedenza caratteristica di un microfono è possibile calcolare l’impedenza di carico in ingresso adatta al suo funzionamento.
Livello massimo di pressione sonora Questa caratteristica indica il livello masimo che può sopportare un microfono senza generare più di una determinata quantità di distorsione armonica generale (1% o 0.5%), ovvero senza distorcere udibilmente il segnale. E’ importante notare che nella pratica è importantissimo provare a posizionare i microfoni secondo combinazioni differenti, senza cadere nella mediocre pratica di agire per abitudine o per sentito dire. Occorre per prima cosa analizzare il
suono con il miglior microfono a disposizione: l’orecchio. Successivamente si stabilisce quale possa essere il microfono più adatto alla situazione. In caso di incertezza, la cosa migliore è la prova pratica dei microfoni che si hanno a disposizione. Con l’utilizzo ottimale dei microfoni è possibile raggiungere risultati straordinari e nessuna lavorazione posteriore (equalizzazione, compressione, effetti, miscelazioni ecc.) potrà migliorare suoni che non siano stati captati nella migliore condizione possibile. La prova del fuoco consiste comunque nell’ascoltare una miscelazione (registrazione o suono dal vivo) escludendo qualsiasi equalizzatore o dispositivo del genere: se tutte le frequenze sono ascoltabili chiaramente, il lavoro è ben fatto.
43
Risposta in frequenza Ogni microfono presenta caratteristiche proprie di sensibilità alle frequenze audio. La risposta in frequenza indica la relazione esistente fra la sensibilità e il tono. Si tratta quindi di una caratteristica che aiuta a scegliere il
Monitor n° 251 - agosto 2005
Monitor n° 251 - agosto 2005
T I T O L O
S E Z I O N E
microfono più indicato a captare un suono di frequenza determinata.
Sensibilità al ronzio I campi magnetici generati dagli amplificatori, dai cavi di alimentazione e dalla rete elettrica introducono ronzio nei maicrofoni. La sensibilità al ronzio indica quindi la sensibilità del microfono a questo tipo di interferenza. Nella pratica il fattore determinante è costituito dal cavo microfonico, tanto più sensibile al ronzio quanto meno bilanciato.
Impedenza
equivalente. Un buon microfono a condensatore presenta un livello di rumore equivalente che non supera i 20 dB al di sopra della soglia di percezione.
42
Caratteristiche generali E qualche trucco del mestiere Effetto Larsen Quando un microfono riceve un suono amplificato da un altoparlante, lo riproduce, lo capta nuovamente e così di seguito fino alla comparsa del ben noto e famigerato fischio detto anche accoppiamento o auto-oscillazione. E’ un fenomeno molto frequente quando si usano altoparlanti per il monitoraggio. La soluzione consiste quasi sempre nel modificare la posizione o l’orientamento degli altoparlanti; anche l’attenuazione di certe frequenze per mezzo dell’equalizzatore può essere d’aiuto ma occorre assicurarsi che la manovra non modifichi sensibilmente il suono sul quale si sta lavorando.
E’ la resistenza interna di un microfono misurata alla frequenza di 1 kHz. Conoscendo la l’impedenza caratteristica di un microfono è possibile calcolare l’impedenza di carico in ingresso adatta al suo funzionamento.
Livello massimo di pressione sonora Questa caratteristica indica il livello masimo che può sopportare un microfono senza generare più di una determinata quantità di distorsione armonica generale (1% o 0.5%), ovvero senza distorcere udibilmente il segnale. E’ importante notare che nella pratica è importantissimo provare a posizionare i microfoni secondo combinazioni differenti, senza cadere nella mediocre pratica di agire per abitudine o per sentito dire. Occorre per prima cosa analizzare il
suono con il miglior microfono a disposizione: l’orecchio. Successivamente si stabilisce quale possa essere il microfono più adatto alla situazione. In caso di incertezza, la cosa migliore è la prova pratica dei microfoni che si hanno a disposizione. Con l’utilizzo ottimale dei microfoni è possibile raggiungere risultati straordinari e nessuna lavorazione posteriore (equalizzazione, compressione, effetti, miscelazioni ecc.) potrà migliorare suoni che non siano stati captati nella migliore condizione possibile. La prova del fuoco consiste comunque nell’ascoltare una miscelazione (registrazione o suono dal vivo) escludendo qualsiasi equalizzatore o dispositivo del genere: se tutte le frequenze sono ascoltabili chiaramente, il lavoro è ben fatto.
43
Risposta in frequenza Ogni microfono presenta caratteristiche proprie di sensibilità alle frequenze audio. La risposta in frequenza indica la relazione esistente fra la sensibilità e il tono. Si tratta quindi di una caratteristica che aiuta a scegliere il
Monitor n° 251 - agosto 2005
Monitor n° 251 - agosto 2005
Anche un’unità Raid fra i componenti della serie di server Grass Valley K2
Server su misura Thomson ha scelto il palcoscenico della Birtv di Pechino per il debutto dei sistemi K2 Media Server e Media Client Grass Valley K2 Che il mercato video cinese faccia gola a molti non è certo una novità 44 ed è quindi ben comprensibile la scelta di Thomson di lanciare la nuova famiglia di server Grass Valley K2 proprio in occasione della Beijng International Radio, TV and Equipment Exhibition che si è svolta alla fine di agosto. Per
noi europei non ci sarà comunque molto da attendere: l’appuntamento è già fissato per settembre, all’IBC di Amsterdam. Seguendo una strada già percorsa con successo da altri fabbricanti, Thomson ha separato le unità di archiviazione (storage) vere e proprie, i K2 Media Server, da quelle
L’interfaccia grafica del software di gestione dei server K2 permette una facile ricerca del materiale registrato
che si occupano della gestione in ingresso e uscita dei segnali video, i K2 Media Client, dotati anch’essi di capacità di registrazione. Il risultato è un sistema centralizzato per la messa in onda, semplice da installare e gestire, scalabile a piacimento fino a oltre 100 canali. Per garantire il massimo dell’affidabilità, la serie K2 utilizza poi le più avanzate tecnologie informatiche per la connessione dei dispositivi, Gigabit Ethernet e iScsi, e supporta il protocollo Internet Ftp per il trasferimento dei dati e lo standard CIFS (Common Internet File System). Il materiale video presente nel server è trattato alla stregua di insieme di dati digitali e può quindi essere spostato, condiviso o archiviato utilizzando i metodi informatici standard. Allo stesso tempo, i dispositivi per la messa in onda sono capaci di gestire indifferentemente materiale in definizione standard o alta ed effettuano automaticamente le necessarie conversioni, conservando eventuali dati registrati nell’intervallo di blanking verticale. Nel caso di materiale in alta defini-
Monitor n° 251 - agosto 2005
zione, il metodo di compressione utilizzabile è solamente l’Mpeg-2 con un bitrate massimo che può arrivare a 100 Mbps, ma è stato già annunciato il supporto per l’Mpeg4. Molte più possibilità sono previste per la definizione standard: oltre all’Mpeg-2 con bitrate fino a 50 Mbps, IMX compreso, il video può essere registrato nei formati DV, DVCam e DV50. Per quanto riguarda il formato dei file, oltre agli standard video Mxf e Gxf, sono supportati anche i formati informatici più diffusi, come Avi e QuickTime. Tutte il materiale residente sui sistemi K2 è accessibile da qualsiasi postazione collegata alla rete e sono supportati i software di automazione più diffusi. Fino a 16 canali in contemporanea possono essere accessibili dalle diverse postazioni e tutti i server possono essere controllati centralmente con il software NetCentral. Alla stessa rete è possibile collega-
I server K2 possono scambiare dati utilizzando protocolli informatici standard
re anche i server Profile XP e il materiale registrato su questi può essere riprodotto con un K2 Client e viceversa. I sistemi K2 Client saranno disponibili entro l’anno con prezzi a partire da 35.000 dol-
lari e in due versioni base: una solo per video in definizione standard con quattro canali bidirezionali e bitrate fino a 50 Mbps e l’altra con due canali HD o SD espandibili fino a quattro.
45
zione, il metodo di compressione utilizzabile è solamente l’Mpeg-2 con un bitrate massimo che può arrivare a 100 Mbps, ma è stato già annunciato il supporto per l’Mpeg4. Molte più possibilità sono previste per la definizione standard: oltre all’Mpeg-2 con bitrate fino a 50 Mbps, IMX compreso, il video può essere registrato nei formati DV, DVCam e DV50. Per quanto riguarda il formato dei file, oltre agli standard video Mxf e Gxf, sono supportati anche i formati informatici più diffusi, come Avi e QuickTime. Tutte il materiale residente sui sistemi K2 è accessibile da qualsiasi postazione collegata alla rete e sono supportati i software di automazione più diffusi. Fino a 16 canali in contemporanea possono essere accessibili dalle diverse postazioni e tutti i server possono essere controllati centralmente con il software NetCentral. Alla stessa rete è possibile collega-
I server K2 possono scambiare dati utilizzando protocolli informatici standard
re anche i server Profile XP e il materiale registrato su questi può essere riprodotto con un K2 Client e viceversa. I sistemi K2 Client saranno disponibili entro l’anno con prezzi a partire da 35.000 dol-
lari e in due versioni base: una solo per video in definizione standard con quattro canali bidirezionali e bitrate fino a 50 Mbps e l’altra con due canali HD o SD espandibili fino a quattro.
45
T I T O L O
S E Z I O N E
T I T O L O
S E Z I O N E
Una storia americana: il BPL Di Enrico Oliva Broadband over Power Lines: negli Stati Uniti la chiamano così, con quel vezzo tutto americano di essere sempre e comunque differenti dagli ex colonizzatori britannici, perché Europa l’acronimo è PLC e sta per Power Line Communication.
46 Comunque lo si voglia chiamare, si tratta del sistema di trasmissione dati ad alta velocità attraverso la rete di distribuzione dell’energia elettrica che qualche anno fa sembrava di imminente implementazione con grande gioia delle compagnie elettriche, commosse fino alle lacrime dai potenziali revenue generati da un sistema per il quale le infrastrutture sono praticamente già installate da sempre – basta pompare dentro la banda et voilà.
In America, pratici come sono, sono andati al di là degli studi di fattibilità e hanno provato sul serio: il via libera alla sperimentazione, da sempre avversata dai broadcaster che vedono il sistema come il fumo negli occhi a causa delle più che potenziali interferenze alle radiotrasmissioni generate da tutta quella banda larga che corre allegramente sui fili, è stato dato da una FCC (l’authority statunitense per la protezione dello spettro radiotelevisivo) i cui vertici, di nomina bushiana, hanno per l’occasione abbandonato il tradizionale garantismo per unirsi ai fautori del contestato sistema. Alle interferenze, hanno sentenziato da Washington, si porrà rimedio caso per caso. Il sistema, in effetti, sembrerebbe avere un particolare appeal in un terri-
torio dove le distanze sono ragguardevoli. Non a caso i vendor hanno immediatamente parlato di “broadband for rural America” e hanno puntato gli occhi sulle zone a bassa densità di popolazione, dove la diffusione dell’ Adsl è scarsa e soprattutto poco appetibile perché non particolarmente redditizia. Ma il Plc, o Bpl che dir si voglia, è veramente quella soluzione pratica, performante e indolore alla sete di banda larga che affligge non solo la “rural America” ma vaste aree del pianeta al di qua e al di là della digital divide? Negli Stati Uniti, dopo gli inevitabili peana dei primi giorni, gli entusiasmi cominciano a raffreddarsi. Occorre, pare, ridimensionare – e non di poco le aspettative. Innanzi tutto il sistema non è risultato così stabile e performante come si credeva. Joe Barr, opinionista di “NewsForce”, la mette giù piatta: “La maggior parte delle valutazioni sulla performance del sistema risalgono a prima delle sperimentazioni sul campo. A prima, per esempio, che saltasse fuori l’impossibilità di far passare la banda larga attraverso i trasformatori senza perdite improponibili. Ciò significa dimenticare tutti i discorsi a proposito di trasferimento di segnale su lunghe distanze”. A questo punto, società come AT&T e Nortel Networks hanno deciso di tirarsi fuori e lasciar perdere il Bpl, ormai
Monitor n° 251 - agosto 2005
47
Monitor n° 251 - agosto 2005
T I T O L O
S E Z I O N E
T I T O L O
S E Z I O N E
Una storia americana: il BPL Di Enrico Oliva Broadband over Power Lines: negli Stati Uniti la chiamano così, con quel vezzo tutto americano di essere sempre e comunque differenti dagli ex colonizzatori britannici, perché Europa l’acronimo è PLC e sta per Power Line Communication.
46 Comunque lo si voglia chiamare, si tratta del sistema di trasmissione dati ad alta velocità attraverso la rete di distribuzione dell’energia elettrica che qualche anno fa sembrava di imminente implementazione con grande gioia delle compagnie elettriche, commosse fino alle lacrime dai potenziali revenue generati da un sistema per il quale le infrastrutture sono praticamente già installate da sempre – basta pompare dentro la banda et voilà.
In America, pratici come sono, sono andati al di là degli studi di fattibilità e hanno provato sul serio: il via libera alla sperimentazione, da sempre avversata dai broadcaster che vedono il sistema come il fumo negli occhi a causa delle più che potenziali interferenze alle radiotrasmissioni generate da tutta quella banda larga che corre allegramente sui fili, è stato dato da una FCC (l’authority statunitense per la protezione dello spettro radiotelevisivo) i cui vertici, di nomina bushiana, hanno per l’occasione abbandonato il tradizionale garantismo per unirsi ai fautori del contestato sistema. Alle interferenze, hanno sentenziato da Washington, si porrà rimedio caso per caso. Il sistema, in effetti, sembrerebbe avere un particolare appeal in un terri-
torio dove le distanze sono ragguardevoli. Non a caso i vendor hanno immediatamente parlato di “broadband for rural America” e hanno puntato gli occhi sulle zone a bassa densità di popolazione, dove la diffusione dell’ Adsl è scarsa e soprattutto poco appetibile perché non particolarmente redditizia. Ma il Plc, o Bpl che dir si voglia, è veramente quella soluzione pratica, performante e indolore alla sete di banda larga che affligge non solo la “rural America” ma vaste aree del pianeta al di qua e al di là della digital divide? Negli Stati Uniti, dopo gli inevitabili peana dei primi giorni, gli entusiasmi cominciano a raffreddarsi. Occorre, pare, ridimensionare – e non di poco le aspettative. Innanzi tutto il sistema non è risultato così stabile e performante come si credeva. Joe Barr, opinionista di “NewsForce”, la mette giù piatta: “La maggior parte delle valutazioni sulla performance del sistema risalgono a prima delle sperimentazioni sul campo. A prima, per esempio, che saltasse fuori l’impossibilità di far passare la banda larga attraverso i trasformatori senza perdite improponibili. Ciò significa dimenticare tutti i discorsi a proposito di trasferimento di segnale su lunghe distanze”. A questo punto, società come AT&T e Nortel Networks hanno deciso di tirarsi fuori e lasciar perdere il Bpl, ormai
Monitor n° 251 - agosto 2005
47
Monitor n° 251 - agosto 2005
T I T O L O di filtri notch che dovrebbero limitare le emissioni di radiofrequenza nelle parti a rischio dello spettro, le interferenze restano ineliminabili e sono tali da compromettere le comunicazioni. Tanto da indurre i nuovi vertici della FCC a riaprire il caso per una dettagliata “reconsideration” gettando l’ombra di un pesante punto interrogativo su tutta la faccenda.
ridimensionato a soluzione ‘Last mile’ come tante altre – e certamente non la 48 migliore. Rimangono quindi le aree urbane: tutti quei fili di rame che ci circondano sembrano in effetti un po’ sprecati per essere utilizzati solo per convogliare corrente alternata o, al massimo, trasportare semplici pacchetti digitali per la misurazione dei consumi. Perché non usarli come veicolo per la banda larga? Dov’è il problema? Il problema c’è e si chiama interferenza. La trasmissione di dati attraverso la rete elettrica, infatti, genera segnali a larga banda che interferiscono qualsiasi trasmissione radiofonica transiti nelle vicinanze. Un fenomeno forse inavvertito dall’utente medio se non in casi estremi, ma potenzialmente devastante per alcuni sistemi di comunicazione piuttosto importanti come, per esempio, quelli militari. Negli Stati Uniti alcuni autorevoli esponenti di una categoria a rischio di estinzione in caso di implementazione massiccia del Plc, quella dei radioamatori, hanno condotto una serie di studi sul reale impatto del Plc e sulle tecniche a disposizione per mantenere le interferenze alle radiotrasmissioni entro livelli tollerabili. I risultati lasciano ben poco spazio all’ottimismo: nonostante l’uso
Ma non è tutto. Come per una metafisica legge del contrappasso, anche il Plc è vulnerabile alle interferenze. Le rete di distribuzione dell’energia elettrica infatti non solo costituisce una lunga antenna che può emettere radiofrequenza indesiderata, ma allo stesso tempo funziona benissimo anche come antenna ricevente captando energia dall’esterno. I test condotti dai tecnici della ARRL hanno messo in evidenza come qualsiasi trasmissione effettuata nei pressi di una linea elettrica, cioè ovunque in città, con potenze dell’ordine di pochi watt sia in grado di “degradare sensibilmente le prestazioni del sistema Plc”. Significa, in pratica, che un qualsiasi vigile urbano che usa il walkie-talkie può rallentare decine di collegamenti Internet in maniera anche notevole e comunque tale da non rendere la fruizione del sistema così fluida rispetto alle tradizionali alternative dell’Adsl o della fibra ottica. E che il futuro del Plc non sia al momento così roseo come sembrava solo un paio d’anni or sono lo sostiene anche un report della società di consulenza Virchow, Krause & Company che assegna all’operazione “la banda larga corre sul filo elettrico” un ottimo voto per quanto riguarda la promozione commerciale ma ne decreta allo stesso tempo una sonora bocciatura nella materia più importante, la performance. Pare infatti che tutto sommato, a fronte delle previsioni che ipotizzavano velocità supersoniche dell’ordine dei 100 Mbps , ci si debba accontentare dei più realistici ma molto meno eccitanti 10 Mbps: per un sistema che prometteva “banda larga per tutti” si tratta decisamente di un flop. Tanto che il report di Virchow, Krause & Company lo scheda impietosamente con un tranchant “not investment-grade”. E mentre Alliant Energy conclude il periodo di test condotti nello Iowa con
S E Z I O N E
T I T O L O
un desolato “sorry ma non se ne fa più nulla”, Motorola non molla ancora ma dirotta gli studi verso un sistema Plc “a bassa tensione” che dovrebbe ridurre le interferenze a livelli forse accettabili; l’impressione comunque è quella che il target di mercato per questa tecnologia abbia subito un secco downgrade da “potenzialmente globale” a “se va bene, di nicchia”. Anche in Italia c’è stato chi ha scommesso sul Plc. Nel 2002, infatti, squilli di trombe e rullar di tamburi annunciavano a gran voce l’avvento della banda larga per tutti. Enel.it dichiarava che “Le prove hanno confermato la maturità tecnologica delle PLC e l'assoluta compatibilità del servizio PLC con le esigenze prioritarie di consegna dell'energia elettrica ai consumatori finali, senza evidenziare alcun effetto negativo sulla qualità del servizio elettrico reso” . L’azienda, in un afflato di social-consciousness, si diceva anche convinta che “L'applicazione della tecnologia PLC a banda larga rappresenta un uso razionale delle infrastrutture esistenti. La rapida estensione e capillarità della rete PLC permette inoltre di raggiungere un' ampia base di clienti. In tal modo si ritiene possibile garantire una maggiore coesione sociale riducendo il fenomeno del nord e sud tecnologico, il cosiddetto digital divide, che si sta attualmente verificando nel nostro paese nel processo di diffusione della banda larga”. E decideva di condurre una sperimentazione in grande sul territorio di Grosseto in vista dell’implementazione della tecnologia a livello nazionale. Sull’esito del test, le informazioni sono quanto mai vaghe. All’ Enel non sembra abbiano una gran voglia di parlarne: una portavoce dell’azienda dichiara che la cosa non interessa più, gli investimenti sono stati annullati, finito tutto. Perché? “Ci sono state difficoltà di ordine legislativo, cioè, problemi di regolamentazione, insomma, la situazione è congelata”. Colpa dell’euro? Non ci è dato sapere. Ma anche da noi il miraggio della banda larga per tutti che sgorga dai fili della luce, in definitiva, sta svanendo nelle nebbie dei miracoli troppo facilmente e forse incautamente annunciati. Come il ponte sullo Stretto.
Monitor n° 251 - agosto 2005
S E Z I O N E
49
Monitor n° 251 - agosto 2005
T I T O L O di filtri notch che dovrebbero limitare le emissioni di radiofrequenza nelle parti a rischio dello spettro, le interferenze restano ineliminabili e sono tali da compromettere le comunicazioni. Tanto da indurre i nuovi vertici della FCC a riaprire il caso per una dettagliata “reconsideration” gettando l’ombra di un pesante punto interrogativo su tutta la faccenda.
ridimensionato a soluzione ‘Last mile’ come tante altre – e certamente non la 48 migliore. Rimangono quindi le aree urbane: tutti quei fili di rame che ci circondano sembrano in effetti un po’ sprecati per essere utilizzati solo per convogliare corrente alternata o, al massimo, trasportare semplici pacchetti digitali per la misurazione dei consumi. Perché non usarli come veicolo per la banda larga? Dov’è il problema? Il problema c’è e si chiama interferenza. La trasmissione di dati attraverso la rete elettrica, infatti, genera segnali a larga banda che interferiscono qualsiasi trasmissione radiofonica transiti nelle vicinanze. Un fenomeno forse inavvertito dall’utente medio se non in casi estremi, ma potenzialmente devastante per alcuni sistemi di comunicazione piuttosto importanti come, per esempio, quelli militari. Negli Stati Uniti alcuni autorevoli esponenti di una categoria a rischio di estinzione in caso di implementazione massiccia del Plc, quella dei radioamatori, hanno condotto una serie di studi sul reale impatto del Plc e sulle tecniche a disposizione per mantenere le interferenze alle radiotrasmissioni entro livelli tollerabili. I risultati lasciano ben poco spazio all’ottimismo: nonostante l’uso
Ma non è tutto. Come per una metafisica legge del contrappasso, anche il Plc è vulnerabile alle interferenze. Le rete di distribuzione dell’energia elettrica infatti non solo costituisce una lunga antenna che può emettere radiofrequenza indesiderata, ma allo stesso tempo funziona benissimo anche come antenna ricevente captando energia dall’esterno. I test condotti dai tecnici della ARRL hanno messo in evidenza come qualsiasi trasmissione effettuata nei pressi di una linea elettrica, cioè ovunque in città, con potenze dell’ordine di pochi watt sia in grado di “degradare sensibilmente le prestazioni del sistema Plc”. Significa, in pratica, che un qualsiasi vigile urbano che usa il walkie-talkie può rallentare decine di collegamenti Internet in maniera anche notevole e comunque tale da non rendere la fruizione del sistema così fluida rispetto alle tradizionali alternative dell’Adsl o della fibra ottica. E che il futuro del Plc non sia al momento così roseo come sembrava solo un paio d’anni or sono lo sostiene anche un report della società di consulenza Virchow, Krause & Company che assegna all’operazione “la banda larga corre sul filo elettrico” un ottimo voto per quanto riguarda la promozione commerciale ma ne decreta allo stesso tempo una sonora bocciatura nella materia più importante, la performance. Pare infatti che tutto sommato, a fronte delle previsioni che ipotizzavano velocità supersoniche dell’ordine dei 100 Mbps , ci si debba accontentare dei più realistici ma molto meno eccitanti 10 Mbps: per un sistema che prometteva “banda larga per tutti” si tratta decisamente di un flop. Tanto che il report di Virchow, Krause & Company lo scheda impietosamente con un tranchant “not investment-grade”. E mentre Alliant Energy conclude il periodo di test condotti nello Iowa con
S E Z I O N E
T I T O L O
un desolato “sorry ma non se ne fa più nulla”, Motorola non molla ancora ma dirotta gli studi verso un sistema Plc “a bassa tensione” che dovrebbe ridurre le interferenze a livelli forse accettabili; l’impressione comunque è quella che il target di mercato per questa tecnologia abbia subito un secco downgrade da “potenzialmente globale” a “se va bene, di nicchia”. Anche in Italia c’è stato chi ha scommesso sul Plc. Nel 2002, infatti, squilli di trombe e rullar di tamburi annunciavano a gran voce l’avvento della banda larga per tutti. Enel.it dichiarava che “Le prove hanno confermato la maturità tecnologica delle PLC e l'assoluta compatibilità del servizio PLC con le esigenze prioritarie di consegna dell'energia elettrica ai consumatori finali, senza evidenziare alcun effetto negativo sulla qualità del servizio elettrico reso” . L’azienda, in un afflato di social-consciousness, si diceva anche convinta che “L'applicazione della tecnologia PLC a banda larga rappresenta un uso razionale delle infrastrutture esistenti. La rapida estensione e capillarità della rete PLC permette inoltre di raggiungere un' ampia base di clienti. In tal modo si ritiene possibile garantire una maggiore coesione sociale riducendo il fenomeno del nord e sud tecnologico, il cosiddetto digital divide, che si sta attualmente verificando nel nostro paese nel processo di diffusione della banda larga”. E decideva di condurre una sperimentazione in grande sul territorio di Grosseto in vista dell’implementazione della tecnologia a livello nazionale. Sull’esito del test, le informazioni sono quanto mai vaghe. All’ Enel non sembra abbiano una gran voglia di parlarne: una portavoce dell’azienda dichiara che la cosa non interessa più, gli investimenti sono stati annullati, finito tutto. Perché? “Ci sono state difficoltà di ordine legislativo, cioè, problemi di regolamentazione, insomma, la situazione è congelata”. Colpa dell’euro? Non ci è dato sapere. Ma anche da noi il miraggio della banda larga per tutti che sgorga dai fili della luce, in definitiva, sta svanendo nelle nebbie dei miracoli troppo facilmente e forse incautamente annunciati. Come il ponte sullo Stretto.
Monitor n° 251 - agosto 2005
S E Z I O N E
49
Monitor n° 251 - agosto 2005
Il “mostro” arriva in laguna
Decisamente imponenti le dimensioni del videoproiettore 4K della Sony
Il videoproiettore 4K della Sony sarà tra i protagonisti della 62° Mostra Internazionale d’Arte Cinematografica di Venezia Durante il terzo Digital Cinematography Forum che si svolgerà a in concomitanza con la Mostra di Venezia, si potrà vedere in funzione il videoproiettore Sony SRXR110 dotato di un pannello con risoluzione nativa di 4K. L’appuntamento è fissato per la mattina del 6 settembre nella Sala Grande/Volpi presso il Palazzo del Cinema, dove si terrà il convegno “Il Triangolo strategico della Cinematografia: Arte, Tecnologia e Business. Come il Cinema digitale li cambierà”.
Un contrasto da far invidia Presentato in Europa per la prima volta
50 l’anno scorso in occasione dell’IBC, il
videoproiettore SRX-110 utilizza tre pannelli a cristalli liquidi denominati SXRD (Silicon X-tal Reflective Display). Questi sono basati su una tecnologia simile a quella dei pannelli impiegati nei proiettori ILA della JVC: la luce viene riflessa da uno strato metallico e questo consente di ottenere un rapporto di contrasto molto più elevato rispetto a quello dei normali pannelli a cristalli liquidi impiegati da altri videoproiettori. Il valore dichiarato da Sony per il solo pannello è di 4.000 a 1, valore che è in grado di garantire un contrasto delle immagini molto elevato, anche tenendo conto delle inevitabili perdite causate dalle riflessioni indesiderate all’interno del sistema ottico (sempre secondo Sony, il rapporto di contrasto del videoproiettore è superiore a 1.800 a 1).
Il pannello SXRD utilizzato dal videoproiettore SRX-R110 ha un rapporto d’aspetto di 1,9 a 1
Per inciso, la tecnologia SXRD è impiegata anche in numerosi prodotti destinati al mercato consumer, in particolare nei televisori a retroproiezione in vendita negli Stati Uniti, ma in questo caso la risoluzione è limitata a 2K. Grazie all’impiego di due lampade allo Xenon da 2 kW, la luminosità del videoproiettore SRX-110 è di 10.000 lumen e questo ne consente l’impiego con schermi larghi fino a una dozzina di metri. In queste condizioni, ciascun pixel ha un lato di soli 3 millimetri ed è quindi praticamente invisibile ad occhio nudo dalla normale distanza di visione. Inoltre, lo spazio scuro fra un pixel e l’altro ha una larghezza molto ridotta (0,35 micron contro una distanza fra due pixel adiacenti di 8,5 micron). L’altro parametro essenziale per questo tipo di pannelli è il tempo di risposta, che grazie all’impiego di uno strato di cristalli liquidi di soli 3 micron di spessore è contenuto in 5 ms, ben al di sotto del valore necessario ad evitare effetti scia con immagini cinematografiche o televisive. Il pannello è composto da 4.096 x 2.160 pixel quadrati ed ha quindi un rapporto d’aspetto di circa 1,9 a 1, valore che non corrisponde ad alcuno dei formati cinematografici correntemente in uso, ma che si giustifica tenendo conto che il numero di pixel verticali è esattamente il doppio di quello delle immagini televisive HD mentre quello orizzontale corrisponde alla risoluzione 4K degli scanner attualmente utilizzati per la digitalizzazione delle pellicole. Per quel che riguarda la colorimetria, nello sviluppo del videoproiettore Sony si è attenuta scrupolosamente alle linee guida stabilite dalla Digital Cinema Initiatives, compito facilitato dall’impiego di lampade allo xenon.
Non facile da alimentare Il videoproiettore può essere equipaggia-
to con diverse interfacce per l’ingresso dei segnali, sia RGB analogiche che HD-Sdi, ma il problema principale comune a qualsiasi dispositivo di visualizzazione con questa risoluzione è quello di disporre di un sistema di registrazione del materiale che sia capace di “alimentarlo”, specialmente se si pretende di utilizzare materiale non compresso. Ciascuna immagine con risoluzione 4K equivale a più o meno a 25 MB di dati e quindi con la cadenza cinematografica di 24 frame al secondo significa che per ogni secondo è necessario trasferire circa 600 MB di dati. Questo valore è attualmente alla portata solo di sistemi bon propri facili da gestire, come le workstation Onyx della Sgi utilizzate per la presentazione avvenuta all’inizio dell’anno di Spider Man 2, registrato per l’occasione su un’unità InfiniteStorage RM660. Naturalmente, è anche possibile utilizzare materiale 4K compresso, ma è comunque necessario un hardware specifico per decomprimerlo e non avrebbe molto senso ricorrere a un videoproiettore con questa risoluzione per proiettare materiale di qualità discutibile. Ultima nota riguarda il prezzo, che dovrebbe aggirarsi attorno agli 80.000 dollari, una cifra più che ragionevole se rapportata alle prestazioni. Il Sony SRX R110 sarà affiancato da un modello meno “brillante” (SRX-R105 da 5.000 lumen, proposto a circa 60.000 dollari) e in seguito da altri modelli con luminosità superiore.
Schema di un pannello SXRD: lo spazio tra un pixel e l’altro è di soli 0,35 micron
Monitor n° 251 - agosto 2005
POSTE ITALIANE SPA Spedizione in Abbonamento Postale DL 353/2003 (Legge n.46 27/2/2004) art.1 comma 1 DCB Milano Mancata consegna restituire all’editore che si impegna a pagare la relativa tassa presso il CMP Roserio-Milano
g: astin oadc io.tv r b t u d s abo orra t new onit Latesww.m w
RADIO • TELEVISIONE • VIDEO • MULTIMEDIA • POST-PRODUZIONE • AUDIO • ALTA FREQUENZA
Rivista mensile specializzata • N° 251 • Agosto 2005 • Anno XXVIII • ISSN 0394-0896 PUBBLICAZIONE DELLA MEDIA AGE SRL • VIA STEFANO JACINI, 4 • 20121 MILANO • TEL. 02862534 • FAX 0286450149 • E-MAIL: INFO@MONITOR-RADIOTV.COM • INTERNET: WWW.MONITOR-RADIOTV.COM
L’alta definizione come missione
L’animazione si rinnova
Il videoproiettore 4K: un “mostro” in laguna st: adca a bro nza.tv d e i notiz rge time nve Le ul w.co ww