Presentación y manuales:fundamentos de la imagen

Page 1

Fundamentos de Investigación Privada - Índice. Bloque 5

INTRODUCCIÓN CAPÍTULO 54

IMAGEN FIJA. PRINCIPIOS DE LA FOTOGRAFÍA 1. LA CÁMARA. ELEMENTOS BÁSICOS ............................................................707 CAPÍTULO 55

EL SONIDO 1. TECNOLOGÍA DEL REGISTRO SONORO........................................................726

CAPÍTULO 56

IMAGEN EN MOVIMIENTO 1. LA SEÑAL DE VIDEO...................................................................................739 2. ELEMENTOS BÁSICOS DEL LENGUAJE...........................................................741 3. LOS MOVIMIENTOS DE LA CÁMARA ...........................................................745 4. LA CONTINUIDAD: EL ESPACIO CINEMATOGRÁFICO....................................747 5. EL MONTAJE Y LA EDICIÓN ........................................................................748

REFERENCIAS

701



Fundamentos de Investigación Privada - Introducción. Bloque 5

INTRODUCCIÓN El uso de medios audiovisuales es consustancial al trabajo de los detectives desde sus inicios. No hay medio audiovisual de registro -es decir, aquellos que sirven para grabar imágenes o sonido, a diferencia de los que se utilizan, por ejemplo, para proyectar películas o escuchar música-, que no pueda ser utilizado en los campos habituales de esta actividad, precisamente porque gran parte del trabajo de los detectives consiste en recoger las acciones que realizan las personas investigadas para poder usarlas como prueba o testimonio en los procedimientos correspondientes. Tal vez debido a la necesidad de utilizar medios audiovisuales por parte de los detectives privados, se ha desarrollado, en paralelo, una cierta mitología alrededor de estos medios, convirtiéndolos, en muchos casos, en la clave gracias a la cual se salvan muchos casos. Por poner un ejemplo, en numerosas películas y novelas aparecen artilugios casi mágicos que permiten realizar seguimientos espectaculares con una mínima intervención humana. Si nos guiamos por este tipo de discursos, sería posible casi cualquier cosa usando los medios adecuados: sacar una voz clara y definida de una grabación llena de ruido, obtener imágenes nítidas de un rostro a partir de una fotografía borrosa, contar con numerosos puntos de vista de una misma situación, etc. Como todas las mitologias, la de los medios audiovisuales aplicados al campo de la investigación privada tiene parte de verdad y parte de invención. Como norma general se puede decir que mediante el uso de los medios audiovisuales al alcance de los investigadores privados se puede llegar a cubrir gran parte de las expectativas de resultados, siempre que tales medios se usen adecuadamente, pero no es posible hacer milagros. Es necesario, además, aplicar ciertos principios en el uso de los medios audiovisuales si queremos obtener registros útiles. Otra cosa son los medios utilizados en el entorno del espionaje de estado. Si bien muchos de los medios con los que cuentan estos espías terminan llegando al mercado, otros quedan escondidos bajo el manto del secreto y pasan años antes de que podamos saber, por ejemplo, que es posible sacar una fotografía legible del texto de un periódico desde la estratosfera. La posibilidad de usar estos medios es, por otra parte, poco menos que un sueño inalcanzable para la mayor parte de los investigadores.

703


CIENCIAS DE LA SEGURIDAD. UNIVERSIDAD DE SALAMANCA

En este curso, pues, pondremos los pies en la tierra y hablaremos de los principios que rigen el uso de los medios audiovisuales en los tres campos tradicionalmente definidos de imagen fija, sonido e imagen en movimiento. En cada apartado se incidirá por un lado en las bases teóricas sobre las que se sustenta cada uno de los medios y, por otro, se tratarán sus procedimientos de uso, con el enfoque puesto en la actividad de detective privado. El presente manual cubre las bases teóricas, dejando los procedimientos de uso para el desarrollo de las clases prácticas, donde resolveremos las cuestiones que pueden presentarse en el día a día de la actividad de los detectives.

704


Capítulo 54

IMAGEN FIJA. PRINCIPIOS DE LA FOTOGRAFÍA



Fundamentos de Investigación Privada - Capítulo 54

1.

LA CÁMARA. ELEMENTOS BÁSICOS

Las cámaras de fotografía se basan en un principio descubierto por Leonardo da Vinci. En una ocasión se encontraba el artista dentro de una habitación con las ventanas entornadas. En una de las ventanas había un pequeño agujero. Observó entonces que en la pared contraria se podía ver una proyección de los objetos que había en la calle, pero boca abajo. A través del agujero de la ventana entraban los rayos del sol, que proyectaban en la pared opuesta una imagen del mundo exterior dentro de su habitación. A este tipo de habitaciones cerradas con un agujero en una de las paredes por el que entra la luz se las llamó cuartos

o cámaras oscuras. Precisamente en esta expresión se basa el nombre actual de las máquinas que usamos para hacer fotografías, ya que la palabra cámara -con el sentido de 'habitación'-, una vez despojada del adjetivo oscura es la que seguimos utilizando. En realidad, este fenómeno es el mismo que se produce en el interior del ojo, a la hora de formarse las imágenes que luego son interpretadas por el cerebro. Si bien, en este caso, aunque las imágenes que se forman son invertidas, el cerebro se encarga de “darles la vuelta” para que podamos interaccionar correctamente con los espacios y los objetos. El desarrollo posterior de la cámara oscura permitió, en primer lugar, que el proceso pudiera reproducirse en una caja de pequeñas dimensiones. Por otra parte, se añadió a las cámaras una lente situada en el lugar que antes ocupaba un simple agujero. De esta forma se consiguió que la imagen sea mucho más nítida. En la actualidad los llamados objetivos constan de varias lentes convexas que permiten que las imágenes queden mucho mejor enfocadas.

707


CIENCIAS DE LA SEGURIDAD. UNIVERSIDAD DE SALAMANCA

A la distancia entre el objetivo y el plano donde la imagen queda enfocada (plano focal) se le llama distancia focal. Si en el lugar del plano focal colocamos una película fotosensible o un dispositivo electrónico captador de imágenes (CCD o CMOS en la actualidad) y dejamos que la imagen se proyecte en ella el tiempo justo, conseguiremos impresionar en la película o generar en el dispositivo la imagen exterior recogida en el interior de la cámara. A ese tiempo que necesitamos para impresionar el material se le llama "tiempo de exposición". El tiempo de exposición es regulado por un dispositivo llamado obturador, que se abre durante un tiempo determinado para cerrarse a continuación, de forma parecida a como lo harían nuestros párpados. También podemos graduar la cantidad de luz que entra en nuestra cámara con otro dispositivo llamado diafragma que se abre más o menos, como el iris de nuestro ojo. Así pues, los tres elementos que se combinan para controlar el estado de la imagen captada por la cámara fotográfica son: · Enfoque (nitidez), controlado mediante el anillo de enfoque. · Diafragma (mayor o menor apertura), controlado con un mecanismo situado en forma de anillo en el objetivo o mediante un sistema de menús. · Obturador (tiempo que permanece abierto, o velocidad de disparo), controlado con una mecanismo situado cerca del disparador, o mediante un sistema de menú.

Tipos de objetivo 1. Ojos de pez Son los objetivos con el mayor angulo de visión, alcanzan los 180º o más, y su distancia focal suele estar estar entre los 6 y los 16 mm. Estos objetivos suelen distorsionar demasiado las lineas rectas, pero permiten abarcar espacios amplios en un sólo plano. 708


Fundamentos de Investigación Privada - Capítulo 54

2. Grandes angulares Suelen denominarse así a los objetivos con focales entre los 18 y 35 mm, con angulos de visión que van de los 180º a los 63º. Son objetivos que producen distorsión en los márgenes, pero según su calidad esto puede estar más o menos acentuado. Ofrecen mucho realismo a nuestras fotos, ya que casi todo lo pueden sacar nitido, es decir, tienen mucha profundidad de campo. Pero hay que tener en cuenta que cuanto más se acerque un objeto a la cámara más distorsionado se verá. 3. Objetivo Normal El objetivo normal es aquel que suele dar un angulo de visión muy parecido al del ojo humano, esto es, unos 45º. Y además no produce distorsión alguna en las líneas. Lo normal que sean de 50 mm. Son los más luminosos. 4. Teleobjetivos Se utilizan principalmente para acercar la imagen al fotógrafo, esto es, para tomar fotografías desde lejos, por ejemplo fotografía deportiva. Así que el angulo de visión es bastante reducido, de 30º para abajo, con unas distancias focales que pueden ir de los 70 mm en adelante. A diferencia de los angulares, los teles suelen comprimir los planos mostrandonos fotografías a veces poco realistas donde las distancias entre los objetos se reducen de forma considerable. Se suelen usar bastante para fotografía de retrato, ya que una de las grandes características de estas focales es la capacidad de hacer enfoques selectivos, es decir, enfocar

709


CIENCIAS DE LA SEGURIDAD. UNIVERSIDAD DE SALAMANCA

a nuestro modelo mostrando su rostro nitido mientras obtenemos un fondo borroso y desenfocado, con lo que conseguimos dirigir la atención del observador donde nos interesa. Veremos que este efecto, combinado con el mismo producido por el uso de aperturas grandes de diafragma puede ofrecernos muchas posibilidades.

5. Objetivos Macro Suelen ser objetivos preparados de forma específica para poder fotografiar desde muy cerca. Es normal que los objetivos nos exigan una distancia mínima para poder enfocar, pero los Macro permiten el enfoque hasta a un centímetro del objetivo, consiguiendo

fotografíar

objetos

realmente pequeños. Esto nos puede permitir hacer fotos de textos, etc. Existen tanto focales fijas como variables o zoom. Las focales fijas sólo nos permiten disparar con una distancia focal, como puede ser un objetivo normal de 50mm.. Las focales zoom nos permiten variar la distancia focal, por ejemplo un 24-120mm, sin necesidad de andar cambiando de objetivo, aunque pueden no darnos la misma calidad que uno de focal fija por norma general. Hay que tener en cuenta que las cámaras digitales tienen, por lo general, el llamado zoom digital, que no es sino una ampliación electrónica y no óptica a partir de la imagen que la propia cámara ofrece, sacrificando la resolución. Debemos evitar este tipo de zoom, ya que se trata de un proceso que podemos realizar posteriormente si es necesario.

710


Fundamentos de Investigación Privada - Capítulo 54

Para conocer el ángulo de un objetivo, debemos tener en cuenta siempre el factor de multiplicación. La clasificación de objetivos que hemos visto está realizada en terminos de fotografía analógica o para un sensor con tamaño de 35mm (full-frame), que es el tamaño que siempre han tenido las películas de carrete. En fotografía digital no todos los sensores tienen el mismo tamaño. Por el momento, suelen ser más pequeños, lo que hace que haya que tener en cuenta este factor. Cuanto más pequeño es el sensor, más alto es el número por el que hay que multiplicar la distancia focal que se nos da como dato, de modo que si, por ejemplo, el sensor tiene la mitad de tamaño de una película de 35 mm. el factor de multiplicación será 2. Así podremos saber que si en nuestra cámara digital tenemos montado un objetivo 12-60mm, con el factor de multiplicación de 2, tenemos un objetivo equivalente a un 24-120mm en terminos de 35mm. En realidad la “conversión” a términos de 35mm es una cuestión de costumbre para fotógrafos tradicionales que están acostumbrados a trabajar en este formato y que ya conocen la referencia en lo que se refiere a angulación, que este tamaño da.

El diafragma El diafragma tiene consecuencias muy importantes para la luminosidad y la nitidez de la imagen. En general, el diafragma se expresa en números f, que se obtiene mediante una fórmula que combina la longitud focal y el diámetro del objetivo. Este número expresa la luminosidad del objetivo.

711


CIENCIAS DE LA SEGURIDAD. UNIVERSIDAD DE SALAMANCA

El numero f de un objetivo siempre viene representado de esta forma 1:xx, siendo 1 la mayor capacidad de meter luz que puede tener un objetivo y siendo el siguiente número la capacidad máxima del objetivo que tenemos. Cuanto menor es ese número, es decir, cuanto más se acerca al 1, más luminoso es un objetivo. Aunque hay muchos factores de los que depende la calidad de un objetivo, normalmente, este se considera mejor cuanto más luminoso sea. Es evidente que cuanto más luminoso sea mayores posibilidades de juego para el fotógrafo a la hora de ajustar la exposición en condiciones deficientes de luz. Para regular la entrada de luz a la cámara podemos modificar o bien la velocidad de obturación o bien la apertura del diafragma. En muchos casos, la propia cámara puede hacer estos ajustes de manera automática, pero podemos modificar la apertura colocando la cámara en modo manual o bien en modo prioridad a la apertura (A o Av) si estamos usando una cámara que lo permita. Las distintas combinaciones entre velocidad de obturación y apertura de diafragmanos permiten que entre la cantidad de luz correcta de manera que la imagen no quede oscura o quemada. Como hemos indicado antes, la apertura de diafragma tiene principalmente consecuencias directas en 2 características: la profundidad de campo y la nitidez de la fotografía. 712


Fundamentos de Investigación Privada - Capítulo 54

Respecto a la nitidez podemos decir que cuanto más cerrado esté el diafragma (mayor numero f) mayor debería ser la nitidez y por el contrario, a más abierto (menor numero f) menor es la nitidez, pero la nitidez también depende de la difracción, que aumenta al cerrar el diafragma. Por tanto, mientras por un lado la nitidez aumenta al cerrar el diafragma, por otro disminuye al incrementarse la difracción. Como consecuencia se considera que la mayor nitidez se produce con los diafragmas que están uno o dos pasos más abiertos que la mínima apertura que permita el objetivo, aunque finalmente dependerá de la calidad de construcción de cada objetivo. El tema de la profundidad de campo es probablemente más interesante ya que nos permite ver más claramente los resultados. Cuanto más abramos el diafragma (valores de f bajos) menos profundidad de campo tendremos y viceversa, cuanto más lo cerremos (valores de f altos) más profundidad de campo. Imaginemos, por ejemplo, que queremos hacerle una foto a dos Ipod, el modelo 2G y un modelo más nuevo, el 3G. Lo que pretendemos es darle más importancia al nuevo que al viejo, por lo que el nuevo lo ponemos en primer plano y el viejo en un segundo plano. El punto de enfoque lo ponemos sobre el nuevo. Primero vamos a cerrar al máximo el diafragma. En nuestro caso f22. Al estar cerrado el diafragma, entra menos luz, y por tanto la velocidad de obturación a la que tendremos que disparar será mayor. En esta ocasión nos da 8 segundos, por lo que evidentemente usamos un trípode. Esta es la imagen que obtenemos:

713


CIENCIAS DE LA SEGURIDAD. UNIVERSIDAD DE SALAMANCA

Ya tenemos nuestra foto, en ella vemos los dos ipod y parece que el tener el Ipod 3G en primer plano le da más importancia, pero aun así, podemos mejorarla. Ahora vamos a abrir el diafragma lo máximo que nos permita el objetivo en esa focal, en nuestro caso 4.6 y seguimos poniendo el punto de enfoque en el Ipod 3G.

Al haber abierto el diafragma hemos hecho lo que se llama un enfoque selectivo y ahora el ipod 3G está claro que es el protagonista de la foto, quedando el ipod 2G desenfocado. Este efecto será aún más marcado cuanto más luminoso sea el objetivo. Como conclusión diremos que: · Valores de f altos aumenta la nitidez y aumentan la profundidad de campo. · Valores de f bajos disminuyen la nitidez y disminuyen la profundidad de campo. El control de la profundidad de campo es interesante porque nos va a permitir “aislar” a los sujetos que estemos fotografiando de modo que quede más centrado el interés:

714


Fundamentos de Investigación Privada - Capítulo 54

La velocidad de obturación Como hemos indicado, la velocidad de obturación es aquella a la que se abre y se cierra el obturador de una cámara, o sea, que el obturador no es más que el dispositivo que regula el tiempo durante el cuál le llega luz al sensor de la cámara. A mayor velocidad de obturación (más velocidad con la que el obturador se abre y se cierra), menos luz llegará al sensor. Por el contrario, a menor velocidad de obturación (menos velocidad con la que el obturador se abre y se cierra), más luz llegará al sensor. De esto se desprenden varias consecuencias. Una de ellas es que en condiciones de escasa iluminación, una manera (de muchas posibles) de conseguir que llegue la suficiente luz al sensor sería disminuir la velocidad de obturación. Por ejemplo, en interiores, atardeceres, noche, etc. O en el caso opuesto, cuando hay mucha luz, subiremos la velocidad de obturación para que no se nos queme la fotografía. Además de utilizarla para que nuestra fotografía esté bien expuesta utilizarla para conseguir congelar la imagen cuando estamos fotografiando a personas u objetos en movimiento, lo que sueleser habitual en el trabajo de detective. Se consigue con velocidades altas. Un ejemplo es la siguiente foto:

715


CIENCIAS DE LA SEGURIDAD. UNIVERSIDAD DE SALAMANCA

Resolución digital Hemos indicado anteriormente que la luz puede ser captada mediante la colocación de un material fotosensible encima del plano focal. En la actualidad se usan sistemas electrónicos de diversa índole, pero todos ellos con una misma característica: transforman la mayor o menor incidencia de la luz en información eléctrica que puede ser digitalizada y registrada. A estos dispositivos electrónicos se les denomina sensores. Al igual que la película tradicional, el sensor se ocupa de captar toda la información posible de la escena. Pero al contrario que la película no se ocupa también de fijarla, de eso se ocupa el procesador y la memoria. El sensor está formado por píxeles sensibles a la luz, y tanto el tamaño del sensor como el número de píxeles que lo forman son importantes para conocer la resolución de las fotografías y su calidad. El tema de la resolución es bastante importante de cara a decidir qué cámara necesitamos. En un sentido amplio, resolución se refiere a la capacidad de una tecnología o un mecanismo para reflejar los detalles de una imagen. La forma de traducir una fotografía en bits para poder manejarla como archivo informático es dividirla según una malla de filas y columnas. A las unidades resultantes se les llama píxeles: son todos del mismo tamaño y representan áreas cuadradas de la imagen original.

Si dividimos la imagen en pocos píxeles, podremos codificarla con poca información, de manera que ocupará poco espacio en el soporte (tarjetas de memoria) pero seguramente perderemos mucho detalle, por lo que decimos que tiene poca resolución. Si la dividimos en muchas más partes, éstas llegarán a ser

716


Fundamentos de Investigación Privada - Capítulo 54

tan pequeñas que no las distinguiremos. La visión de la imagen será mucho mejor y más detallada, pero también mucho más costosa en bits y en espacio de almacenamiento. Un aspecto importante es que, salvo limitaciones en la tecnología que utilicemos, el tamaño y la frecuencia de los píxeles siempre son a voluntad nuestra. Los frecuentes equívocos en el uso de la palabra resolución se resuelven distinguiendo en la imagen tres tipos de tamaño: en píxeles, informático y superficial.

Tamaño en píxeles Obviamente, indica en cuántas filas y columnas se ha dividido la imagen, o bien cuál es el número total de píxeles. Por ejemplo, decimos que una foto tiene 1600 x 1200 píxeles. También podemos decir que tiene 1.920.000 píxeles, o redondear diciendo que es una foto de 2 megapíxeles. Se redondea tanto que no se tiene en cuenta que nos referimos a un sistema binario, en el que kilo no significa 1000, sino 1024 (la décima potencia de 2) y mega no significa 1.000.000, sino 1.048.576. De las dimensiones en píxeles depende el detalle de la imagen. Aquí vemos la misma foto dividida en 4 x 4, 12 x 12, 30 x 30 y 150 x 150 píxeles.

717


CIENCIAS DE LA SEGURIDAD. UNIVERSIDAD DE SALAMANCA

Tamaño informático Se cuenta en unidades de información como bytes, kilobytes o megabytes, y depende directamente de dos cosas: del número de píxeles y de la cantidad de bytes que gastamos para definir cada píxel. La profundidad de bits permite diferenciar y aplicar un número más o menos grande de colores. La mayoría de las cámaras digitales utilizan la profundidad de 24 bits del modo RGB, por lo que cada píxel se anota con 3 bytes. Se calcula rápidamente que cada megapíxel ocupará en memoria 3 megabytes (algo menos, porque la máquina no redondea como nosotros). En las tarjetas de memoria suele ocupar mucho menos, porque los datos se guardan comprimidos.

Más compresión, menos tamaño, menos calidad.

718


Fundamentos de Investigación Privada - Capítulo 54

Tamaño superficial o de salida Es lo que ocupará la foto si la imprimimos. Los píxeles son realmente información numérica, así que este tamaño lo decidimos nosotros, indicando cuántos píxeles queremos imprimir en cada centímetro o pulgada de papel. Todo sería mucho más simple si reservásemos el término "resolución" para expresar esta relación: número de píxeles por unidad de medida lineal. Podemos cambiarla sin modificar en absoluto la información de imagen. Simplemente, indicando menos resolución (menos píxeles por pulgada) la foto se imprimirá más grande, e indicando más resolución se imprimirá en menos papel porque los píxeles serán más pequeños y concentrados.

La resolución es inversa al tamaño superficial. La misma imagen de 40 x 40 píxeles que ocupa 4 pulgadas cuadradas cuando se imprime a 20 ppp, a 40 ppp ocupará 1 pulgada cuadrada, y a 120 ppp cubrirá 1/9 parte de pulgada cuadrada.

Cámara

Puntos

Tamaño aprox. en memoria

Anchura sin ampliar en una impresora de 600 ppp

De teléfono

352x288

50 KB

1,5 cm

Webcam VGA

640x480

200 KB

2,7 cm

Cámara 2 MP

1600x1200

500 KB

6,8 cm

Cámara 5 MP

2592x1944

1,40 MB

11 cm

719


CIENCIAS DE LA SEGURIDAD. UNIVERSIDAD DE SALAMANCA

· Píxel: es cada uno de los puntos en una imagen digital. Es una contracción de Picture Element. · Megapíxel: equivale a un millón de píxeles. Por ejemplo, una cámara de 1,3 MP obtiene fotos de 1280x1024 = 1.300.000 píxeles. · ppp (puntos por pulgada, también dpi en inglés): es una medida de la resolución que se emplea en las impresoras. Son los puntos de tinta que caben en una línea impresa de una pulgada.

Edición digital de imagen De todos los procesos digitales que se han aplicado a la creación audiovisual, el de la manipulación de imágenes fijas es quizás el primero que se vio beneficiado. Gracias a ello se cuenta con aplicaciones muy desarrolladas para efectuar diversas manipulaciones de imagen. La más conocida y versatil quizás sea el Photoshop, pero no debemos olvidar las aplicaciones de Corel o la gratuita Guimp. Las capacidades de manipulación permiten no sólo retocar aspectos técnicamente defectuosos en las fotografías, sino también manipularlas, por lo que a veces puede ser complicado establecer si una imagen es fiel a la realidad que ha tratado de captar. Este tipo de manipulaciones se vienen dando desde la era analógica. Recordemos, sin ir más lejos, la eliminación de la mancha en la cabeza en los retratos oficiales de Gorbachov o yendo un poco más atrás, la eliminación de los caídos en desgracia durante la época estalinista soviética en las fotos en las que el máximo dirigente aparecía con ellos cuando todavía gozaban de su favor. En la actualidad la facilidad con que pueden ser manipuladas las fotografías sigue creando polémicas. Baste con traer aquí la última -más o menos ridícula- en torno al michelín borrado de Sarkozy.

720


Fundamentos de Investigaci贸n Privada - Cap铆tulo 1

721


CIENCIAS DE LA SEGURIDAD. UNIVERSIDAD DE SALAMANCA

Stalin con y sin Trotsky, el michelĂ­n fantasma de Sarkozy y Franco con los ojos cerrados y abiertos.

722


Capítulo 55

EL SONIDO



Fundamentos de Investigación Privada - Capítulo 55

El sonido tiene su origen en las vibraciones de los objetos que, transmitidas generalmente al aire en forma de onda sonora son susceptibles de ser captadas por el oído.

Creación de ondas sonoras simples a partir de la vibración de un objeto

Cada onda sonora viene definida por el ciclo que transcurre desde el momento de equilibrio, pasando por el momento de máxima compresión y máxima depresión hasta volver al estado de equilibrio. El número de ciclos que completa una vibración por segundo expresa su frecuencia. La unidad para medir la frecuencia es el Hertzio (Hz). También se utiliza como unidad de medida dentro del estudio de la audición el Kilohertzio (1.000 Hz). Los seres humanos, en general, son capaces de oír las frecuencias entre los 20 y los 16.000 Hz, si bien hay individuos capaces de percibir frecuencias más bajas (hasta 16 Hz) y más altas (20.000 Hz), mientras que con la edad se tiende a perder sensibilidad en los extremos de este espectro. La frecuencia se percibe en forma de tonos, es decir, como diferentes alturas sonoras. Musicalmente, por ejemplo, podemos decir que las notas corresponden a tonos determinados. Así, por ejemplo, la nota la tiene una frecuencia de 110 Hz. Los tonos, en occidente se ordenan en series periódicas, de manera que el sistema auditivo percibe los elementos de esas series como similares en cuanto a su tono, pero con mayor o menor altura. Esas secciones son llamadas octavas. La amplitud de la onda sonora, es percibida por el oído como volumen, está en relación directa con el número de moléculas de aire que se desplazan al vibrar el objeto que produce el sonido. Cuanto mayor es ese número, mayor es el tamaño de la onda sonora. En la representación gráfica, la amplitud vendría representada por la altura o profundidad de la onda con respecto al nivel 0.

725


CIENCIAS DE LA SEGURIDAD. UNIVERSIDAD DE SALAMANCA

El volumen se mide en decibelios (dB), que es una unidad de medida logarítmica, debido a que el oído humano puede captar una amplísima gama de volúmenes diferentes desde el umbral de audición hasta el umbral del dolor, lo que complicaría mucho la expresión numérica de los datos. El oído puede soportar niveles de presión sonora de hasta 120 dB, lo que supone un sonido con un volumen aproximadamente 10 millones de veces más alto que el umbral mínimo de audición. El intervalo entre el volumen más bajo que se puede percibir y el más alto es denominado gama dinámica o margen dinámico, término que también se aplica a la capacidad de los sistemas de sonido para reproducir diferentes volúmenes. Las fuentes sonoras, al vibrar y producir ondas, no suelen hacerlo con movimientos armónicos simples, sino que producen sonidos en los que se combinan varias frecuencias. En el caso del espectro de frecuencia de los sonidos periódicos podemos hablar de que las ondas tienen una frecuencia fundamental y unos componentes adicionales por encima de ella, llamados armónicos, que son frecuencias múltiplo de la fundamental. Estos armónicos determinan el timbre sonoro, que es aquel que define un sonido propio para cada objeto o persona. Otro de los aspectos que determinan el timbre de un instrumento o voz es la envolvente, que está compuesta por tres partes que se dan en el tiempo: el ataque, que se define por cómo comienza un sonido tras la vibración de la fuente sonora; la dinámica, que consiste en las variaciones de volumen que se dan en el sonido después del ataque, y la caída, que es el tiempo y la forma en que el sonido disminuye hasta no ser oído. Cada instrumento musical, cada voz, cada objeto, vibra con su propia composición de frecuencias y su envolvente, lo que determina su timbre. En este sentido, el timbre no puede definirse claramente en una escala, ya que cada combinación diferente de elementos da como resultado un timbre distinto. Las ondas sonoras se transmiten a través del aire sin que las moléculas se trasladen efectivamente de un lugar a otro. La velocidad a la que se mueve esta onda depende de la densidad y la elasticidad de la sustancia que atraviesa. En el aire, al nivel del mar y a 20o C esta velocidad es aproximadamente de 340 m/s, si bien los cambios en la presión atmosférica, la humedad o la temperatura la alteran.

726


Fundamentos de Investigación Privada - Capítulo 55

La longitud de onda está relacionada con la frecuencia y la velocidad y se define por la distancia que recorre la onda sonora en un ciclo completo de compresión y depresión. Lógicamente, cuanto más alta es la frecuencia, y por lo tanto más ondas se producen por segundo, menor es esta longitud de onda. Este parámetro no suele variar demasiado para una frecuencia dada en el aire, en condiciones normales, ya que las diferencias de velocidad del sonido en ese medio debidas a cambios en la temperatura, presión atmosférica, etc. no son excesivas. Por lo tanto, se suele asociar longitud de onda con frecuencia. La fase se refiere a la relación de tiempo entre dos o más ondas sonoras en un punto dado de sus ciclos. Podemos dividir una onda sonora en intervalos regulares medidos en grados. Un ciclo completo tendría 360o. Así, se dice que dos ondas están en fase cuado sus semiciclos de compresión (positivos) y depresión (negativos) coinciden en tiempo y espacio, es decir, cuando hay 0o de diferencia de fase. En esta situación, dos ondas que sean iguales e frecuencia y forma suman sus amplitudes. Dos ondas están en contrafase cuando hay 180o de diferencia de fase entre una y otra, es decir cuando el hemiciclo positivo de una coincide con el hemiciclo negativo de la otra. En este caso, dos ondas que tengan igual frecuencia y forma restan sus amplitudes y se produce una cancelación de fase, es decir, restan sus amplitudes. En el caso de que la amplitud sea la misma en las dos ondas nos encontraríamos con que la onda sonora tendría doble volumen en el primer caso y volumen 0 en el segundo. Entre estas dos situaciones extremas e ideales se pueden dar muchas situaciones intermedias, con desfases variados. En esos casos, se dice que existe una interferencia constructiva entre dos ondas cuando suman su amplitud donde coinciden depresión y compresión, e interferencia destructiva cuando restan su amplitud al no darse simultáneamente entre ellas depresión y compresión. Este concepto es especialmente importante de cara a la cancelación de ruidos mediante procesado del audio.

Dos ondas en fase y otras dos en contrafase. En el primer caso se suman las amplitudes y en el segundo se anulan. 727


CIENCIAS DE LA SEGURIDAD. UNIVERSIDAD DE SALAMANCA

1.

TECNOLOGÍA DEL REGISTRO SONORO

Para que el sonido sea registrado y reproducido es necesario disponer de ciertos elementos que nos permitan recoger las ondas sonoras y convertirlas en impulsos que posteriormente puedan ser tratados y colocados sobre un soporte.

Micrófonos Los micrófonos son los elementos encargados de convertir el sonido proveniente de las fuentes sonoras en impulsos eléctricos, de manera que puedan ser grabados posteriormente sobre un soporte. Los principios mecánicos de funcionamiento de los micrófonos son similares en todos ellos: una superficie recibe el impacto de la onda sonora y vibra en simpatía con ella. Esa vibración es convertida por diversos procedimientos en un impulso eléctrico que sale de la estructura del micrófono para ser amplificado y registrado o enviado a sistemas de sonorización. En realidad, el elemento transductor se encuentra en la cabeza del micrófono y recibe el nombre de cápsula. El resto de los componentes del micrófono puede variar y suelen ser circuitos dedicados a mejorar algunos aspectos del sonido o a compensar deficiencias inherentes al micrófono. La respuesta en frecuencia de un micrófono es muy importante, ya que va a determinar su capacidad para poder reproducir fielmente toda la riqueza de frecuencias de la onda sonora. De todos modos, en el entorno profesional del detective el sonido más importante suele ser la voz humana, y prácticamente todos los micrófonos están preparados para recogerla con suficiente fidelidad en lo que se refiere a este aspecto.

Representación de la respuesta en frecuencia de un micrófono de buena calidad 728


Fundamentos de Investigación Privada - Capítulo 55

El nivel de ruido del micrófono se refiere al sonido que produce el propio micrófono en ausencia de ondas sonoras que lo exciten. Este parámetro debería estar en los niveles más bajos posibles, sobre todo desde la aparición de los soportes digitales. Se entiende que un micrófono de buena calidad no debería proporcionar un nivel de ruido por encima de los 20 dB. Esto es especialmente importante si vamos a procesar el sonido posteriormente. Otro de los parámetros a tener en cuenta para evaluar la calidad de un micrófono es su capacidad para evitar la distorsión. Esta distorsión puede producirse, sobre todo, por sobrecarga en el nivel de presión sonora que soporta ese micrófono. Así, un micrófono de calidad debería soportar altos niveles de presión sonora sin distorsionar (un valor de 130 dB, sería adecuado). Un buen micrófono debe evitar, además, la influencia de señales de ruido externas. Estas se refieren al sonido producido por su manipulación, zumbidos por interferencias, etc. Hay que aislar bien los micrófonos, mecánica y electrónicamente para evitar esta clase de ruidos. Generalmente se clasifica a los micrófonos atendiendo al modo en que convierten la energía mecánica en impulsos eléctricos (es decir, por el tipo de transductor que utilizan) o a su direccionalidad. En lo que se refiere al tipo de transductor, en el entorno profesional del detective vamos a encontrar dos tipos principalmente: 1. Micrófono dinámico de bobina móvil Este micrófono se basa en el uso de una bobina móvil que es solidaria con el movimiento de un diafragma que vibra cuando recibe una onda sonora. La bobina móvil se encuentra suspendida dentro de un campo magnético permanente que genera impulsos eléctricos cuando la bobina vibra. Estos impulsos eléctricos son análogos a la intensidad de la onda sonora. El principio que inspira el funcionamiento de estos micrófonos es el mismo de algunos generadores de corriente eléctrica, como una dinamo. Precisamente la denominación de dinámico hace referencia al principio electromagnético de su funcionamiento. Estos micrófonos son muy utilizados por su robustez y su resistencia.

729


CIENCIAS DE LA SEGURIDAD. UNIVERSIDAD DE SALAMANCA

Diagrama de un micrófono dinámico de bobina móvil

2. Micrófono de condensador Los micrófonos de condensador son los más utilizados en el entorno profesional, ya que tienen la mejor respuesta en frecuencia y el mejor nivel de salida. Una de sus características básicas es que no necesitan de un campo magnético para funcionar, de manera que su tamaño no está predeterminado por la presencia de imanes o bobinas.

Diagrama de un micrófono de condensador

Hay que tener en cuenta, no obstante, que estos micrófonos necesitan una corriente eléctrica para funcionar, lo que se soluciona por lo general mediante un sistema de alimentación mediante baterías o desde una mesa de mezclas. Un tipo especial de micrófono de condensador es el micrófono electret. Como hemos visto, los micrófonos de condensador necesitan alimentación

730


Fundamentos de Investigación Privada - Capítulo 55

eléctrica para la corriente de polarización de las placas del condensador y para el amplificador que regula la señal posteriormente. En los micrófonos de electret se ha eliminado la necesidad de la corriente de polarización mediante la inducción de una carga electrostática permanente en el diafragma durante el proceso de fabricación, de manera que sólo es necesario alimentar el amplificador de señal. Puesto que la energía necesaria para alimentar el amplificador no es elevada, se puede usar una pequeña batería, de manera que el micrófono es bastante compacto. Este tipo de micrófonos será el más utilizado dentro de nuestro entorno profesional, ya que permite tamaños de cápsula mínimos (el típico micrófono de corbata).

Diagrama de un micrófono electret

El otro parámetro que sirve para clasificar a un micrófono es su direccionalidad, que se expresa en forma de diagrama polar. El diagrama polar de un micrófono representa la capacidad que tiene para captar el sonido en el ángulo de 360o que lo rodea. Se puede decir que hay tres diagramas básicos: A. Omnidireccional B. Unidireccional C. Bidireccional Por otra parte, los diagramas unidireccionales se subdividen a su vez en cardioide, supercardioide, hipercardioide y ultracardioide o de cañón. A continuación mostramos los diagramas direccionales de varios tipos de micrófonos:

731


CIENCIAS DE LA SEGURIDAD. UNIVERSIDAD DE SALAMANCA

Diagramas polares

Los diagramas polares son muy importantes a la hora de escoger un micrófono para un aplicación concreta. Así, por ejemplo, dentro de este entorno profesional, utilizaremos micrófonos ultradireccionales para hacer seguimientos a distancia, mientras que probablemente usaremos uno omnidireccional en el caso de que coloquemos un micrófono para captar conversaciones en una habitación. 3. Micrófonos inalámbricos En realidad los micrófonos inalámbricos no son un tipo especial de micrófono con características que no puedan ser clasificadas en alguno de los apartados anteriores. Cuando se habla de micrófonos inalámbricos, en realidad se está haciendo referencia a la combinación de un micrófono con un emisor y un receptor de ondas de Frecuencia Modulada. En algunos casos micrófono y emisor van integrados en la misma carcasa, y forman un elemento compacto, mientras que en otros se usa un micrófono de cualquier tipo que se conecta a un emisor. 732


Fundamentos de Investigación Privada - Capítulo 55

Cuando se usan varios micrófonos inalámbricos simultáneamente, cada uno utiliza una frecuencia de transmisión lo suficientemente separada como para que no se produzcan interferencias, lo que obliga a tener varios emisores y receptores que recojan la señal de cada micrófono. Para evitar los problemas derivados de la falta de cobertura de los emisores inalámbricos, en sistemas profesionales se utilizan dos frecuencias de emisión y recepción simultáneas por cada micrófono, de forma que si se produce un fallo en una de ellas la otra sirve como salvaguarda.

La digitalización como concepto. El sonido digital Hemos visto cómo las ondas sonoras son recogidas por un micrófono y transformadas en impulsos eléctricos que podían ser grabados sobre un soporte. Con anterioridad a la aparición de los sistemas digitales, el sonido se registraba, sobre todo, sobre cinta mágnética a partir de las variaciones de potencia de magnetización. Puesto que estas diferencias de potencia estaban en relación directa con la señal eléctrica y ésta lo estaba con el volumen y frecuencia de la onda sonora, la descodificación era sencilla, puesto que las variaciones en la señal magnética podían convertirse directamente en sonido. En la grabación digital el proceso es diferente: las variaciones de señal son transformadas en un flujo de datos binarios que luego es recogido en un soporte. La ventaja principal que tiene este sistema con respecto a los de grabación analógica es que, desde el momento en que las señales son transformadas en el flujo de datos, pueden ser colocadas en cualquier soporte sin que les afecten las características inherentes al él, sobre todo el ruido, ya que los datos no están codificados como diferencias de intensidad a partir de un elemento físico relacionado con el propio soporte, sino que éste es utilizado como una base de escritura, independientemente de la señal. La grabación digital se basa en el principio del muestreo, es decir, se toman datos a intervalos regulares de la señal a los que se les da un valor numérico. Este valor es convertido en datos binarios que se van almacenando mediante lo que se denomina conversión analógico-digital sobre el soporte correspondiente. Durante la reproducción, esos datos son leídos secuencialmente para reconstruir la onda original a partir de un proceso inverso al de la codificación, denominado

733


CIENCIAS DE LA SEGURIDAD. UNIVERSIDAD DE SALAMANCA

conversión digital-analógica. Hay que tener en cuenta que nuestro cuerpo percibe analógicamente, es decir, que el final del proceso nos encontraremos siempre con una señal que es analógica. Precisamente por ello, se deben tener en cuenta diversos principios a la hora de realizar una grabación digital, lo que determina el uso de determinados parámetros a la hora de efectuar los procesos de digitalización y reconstrucción de la señal sonora. 1. Frecuencia de muestreo La frecuencia de muestreo hace referencia a los intervalos regulares en los que se obtienen muestras de la señal analógica original. Esta frecuencia debe elevada, para que la reconstrucción de la señal sea lo más fiel posible a la original. En cierta manera, podemos hacer un paralelismo con la imagen cinematográfica: cuantos más fotogramas por segundo filmemos, más fiel será el movimiento reproducido en la pantalla. Los sistemas digitales suponen una revolución en el registro de las frecuencias más elevadas, ya que, desde el momento de su aparición, no se va a depender del soporte o del sistema de registro y lectura, tal y como ocurría con los sistemas analógicos; tan sólo será necesario aumentar la capacidad y la velocidad de lectura del soporte -lo que no supone un problema irresoluble- para conseguir mayor calidad, ya que cuantas más frecuencias se registren, más cantidad de información se genera. Shannon y Nyquist propusieron en 1948 los principales teoremas en los que se basa la digitalización del sonido: el teorema del muestreo dice que deben tomarse al menos dos muestras por cada período de la señal de audio para obtener una información suficiente de ella. Si se toman menos muestras, no es posible registrar correctamente el espectro de frecuencias de la señal. Por otra parte, para poder registrar cierta frecuencia de sonido es necesario que el sistema tenga como frecuencia de muestreo, al menos el doble de la frecuencia a registrar. Así pues, para poder registrar frecuencias de hasta 20 kHz, que es la frecuencia más alta que puede oír un humano, es necesario que el sistema tenga como frecuencia de muestreo 40 kHz. Hay un problema muy importante, derivado del uso de los sistemas digitales, relacionado con la frecuencia de muestreo: en el mundo físico existen frecuencias que están por encima de los límites de percepción, llamadas ultrasonidos. Los

734


Fundamentos de Investigación Privada - Capítulo 55

sistemas analógicos, a la hora de registrar el sonido, simplemente no pueden captar estas frecuencias. Sin embargo, los digitales, al tratar de registrar frecuencias que estén por encima del límite del sistema (20 kHz en el caso de este sistema ideal que tiene como frecuencia de muestreo 40 kHz), codifican estas como ruidos que pueden afectar a la calidad del sonido registrado. A este problema se le llama aliasing. Para evitarlo, todo sistema digital está provisto de un filtro que elimina cualquier frecuencia por encima de la máxima registrable. A este filtro se le llama antialiasing. El soporte digital más extendido, el CD, tiene como frecuencia de muestreo 44.100 Hz que es ligeramente superior a la necesaria para registrar todas las frecuencias audibles. En la actualidad, con la aparición de los nuevos sistemas de almacenamiento y reproducción digital (DVD, Super CD Audio), se están utilizando frecuencias de muestreo de 96 kHz. Este último tipo de sistemas puede registrar frecuencias que estarían absolutamente por encima del límite de escucha del oído humano. 2. Cuantificación Una vez efectuada la lectura de la señal a intervalos regulares, debe dárseles un valor a cada uno de los datos obtenidos. Este valor debe estar en relación con el nivel de presión sonora de la señal. Puesto que estamos en un entorno digital, este valor debe tener una expresión numérica concreta, de entre un conjunto de valores prefijados. Cuantos más valores tengamos para escoger, mucho más fiel será la señal digital a la original. En un sistema digital binario, el número de niveles que tenemos está directamente relacionado con el número de bits del sistema. Así, un sistema de 1 bit podrá representar sólo dos valores de volumen, uno de 2 bits representará cuatro valores, etc. El CD de audio, con 16 bits de resolución, puede representar, pues, 65.536 niveles de señal distintos, lo que ofrece una calidad bastante aceptable. 3. Compresión Un minuto de sonido codificado digitalmente en el formato más extendido de 44.100 Hz de frecuencia de muestreo a 16 bits de resolución ocupa más de 5 Mb de espacio sobre el soporte. En los primeros sistemas digitales no se utilizó

735


CIENCIAS DE LA SEGURIDAD. UNIVERSIDAD DE SALAMANCA

compresión alguna, ya que el CD podía almacenar en principio 74 minutos de música en estéreo con la calidad ya indicada, lo que superaba en mucho la calidad y la capacidad de los antiguos discos de vinilo a los que trataba de sustituir. Sin embargo, posteriormente, la miniaturización de los soportes existentes y la aparición de nuevas necesidades (sistemas multicanal, transmisión por ondas, transmisión por redes, etc.) ha propiciado el uso de sistemas de compresión. Se puede hablar de dos tipos de compresión de datos en el entorno del sonido digital: por un lado estarían los sistemas que se aplican a cualquier tipo de dato digitalizado. Es muy conocido el sistema básico de compresión que agrupa las secuencias de ceros y unos de manera que cuando existan varios datos iguales seguidos se transforman en uno sólo con la información del número de ceros o unos que existen en la cadena: 000001110011111100001011111000000111000000001111111= 5x0 3x1 2x0 5x1 4x0 1x1 1x0 5x1 6x0 3x1 8x0 7x1 En este ejemplo, hemos transformado una cadena de 40 datos en otra de sólo 12, sin perder ninguna información. Existen otros sistemas de mucho más elaborados, de manera que se pueden obtener tasas más altas de compresión. Por otra parte, existe la compresión de los datos a partir de la propia naturaleza del sonido. Este tipo de compresión comenzó a plantearse con la aparición de sistemas como el Mini disc, para conseguir codificar en un disco con una capacidad de 150 Mb el mismo tiempo de reproducción que podía haber en un CD (que tiene 650 ó 700 Mb), sin que se percibiera una merma en la calidad del sonido. Esto obligó a las empresas a crear sistemas de codificación con pérdida, es decir, sistemas que desechaban cierta cantidad de datos que, en teoría no afectaban a la descodificación posterior del sonido, a partir, sobre todo, de estudios de psicoacústica basados en el principio del enmascaramiento. Así, en los sistemas de compresión más populares se efectúa un análisis de la señal sonora y se eliminan los datos correspondientes a las frecuencias enmascaradas que, en teoría, no son percibidas por el oído humano. Posteriormente se aplica un sistema de compresión de datos a la cadena resultante. Este tipo de sistemas es el que se utiliza para codificar los archivos tipo mp3, AAC, etc. La compresión de datos nos será muy útil a la hora de archivar nuestras grabaciones.

736


Fundamentos de Investigación Privada - Capítulo 55

Edición digital de sonido El sonido digital permite una gran cantidad de procesos sonoros. En la actualidad, cualquier ordenador contemporáneo puede editar sonido. De todos modos, la plataforma más profesional es la llamada Pro Tools, que es la que usan los estudios de grabación discográfica. Para nuestro trabajo bastará con disponer de programas más sencillos. Incluso existen herramientas informáticas gratuitas para poder procesar el sonido, como el programa Audacity. La edición de sonido no sólo permite cortar y pegar fragmentos de audio sin que prácticamente se perciban los cortes, sino que es posible cambiar elementos o añadir otros no presentes en el audio original. De todos modos, del sonido grabado nos van a importar probablemente las voces más que otra cosa. Por suerte, los sistemas de procesado y edición de sonido permiten limpiar grabaciones con problemas mediante sistemas avanzados de ecualización, aunque teniendo en cuenta estas mismas capacidades de edición de las que estamos hablando, es difícil saber si una grabación ha sido manipulada o no para que se escuchen determinadas afirmaciones en boca de cualquier persona. Como ejemplo divertido de esto que decimos se puede ver la rocambolesca manera que tiene de descubrir a un asesino el personaje de Woody Allen en la película Misterioso

asesinato en Manhattan, mediante la edición de unas palabras pronunciadas por la amante del criminal.

737



Capítulo 56

IMAGEN EN MOVIMIENTO



Fundamentos de Investigación Privada - Capítulo 56

1.

LA SEÑAL DE VIDEO

La señal de vídeo/televisión se basa en la posibilidad de convertir las variaciones de intensidad de luz en variaciones de intensidad eléctrica a partir de la existencia de materiales fotosensibles que ven variadas sus características al incidir sobre ellos la luz. En realidad, este proceso es el mismo que se produce en las cámaras digitales de imagen fija, con la única diferencia de que el número de imágenes por segundo que se obtienen y que son necesarias para representar el movimiento,es mucho mayor En España se utiliza el sistema de codificación de imagen PAL, de 625 líneas de resolución, a una frecuencia de 25 imágenes cada segundo. Lo anterior quiere decir que cada imagen completa de televisión tiene 625 líneas que se renuevan 25 veces cada segundo con una regularidad absoluta. Cada una de esas imágenes recibe el nombre de cuadro o frame y sería el equivalente al fotograma en cine. Sin embargo, en sentido estricto, la imagen se forma por un barrido del haz de electrones que va alternando el grupo de líneas pares con el grupo de líneas impares. Así cada una de esas 25 imágenes por segundo son en realidad dos grupos de líneas, llamados campos o semi-imágenes, de 312,5 líneas cada uno, renovadas a la frecuencia de 50 tramas o campos por segundo. Este procedimiento recibe el nombre de barrido entrelazado. Existe la posibilidad, a partir de la aparición de nuevos sistemas de codificación, de no utilizar este sistema de vídeo entrelazado de forma que las imágenes ganan en nitidez y estabilidad. En otros países se utilizan sistemas como el NTSC, en América principalmente, o el SECAM, en Francia y países del antiguo bloque comunista. Si bien en los primeros años de la televisión se usaron dispositivos de captación de imagen un tanto difíciles de manejar y que tenían varios problemas derivados de su arquitectura (los llamados tubos de cámara), en los años 80 se desarrolló la técnica CCD (Charge Coupled Device; Dispositivo de carga de acoplamiento). El funcionamiento técnico del dispositivo se basa en unos circuitos integrados formados por elementos fotosensibles dispuestos en columnas y filas. En cada punto de intersección se halla un punto sensible a la luz incidente, llamado píxel; a su vez esa luz es capaz de generar cargas eléctricas de una tensión proporcional a la luz que recibe: más brillo, más densidad de carga. En los CCD, cada fila

741


CIENCIAS DE LA SEGURIDAD. UNIVERSIDAD DE SALAMANCA

corresponde a una línea de video; el detalle y la resolución será proporcionalmente mayor según sea el número de píxeles. La ligereza y menor tamaño de los sensores CCD, su carácter robusto y resistente a golpes y vibraciones ha permitido diseñar cámaras más pequeñas que paulatinamente fueron arrinconado hasta su práctica desaparición a los tubos de cámara. En la actualidad se han ido introduciendo nuevos sistemas de captación de imagen, como los CMOS. La transformación de la luz en señales eléctricas obliga a un patrón unificado de la lectura correcta de esa relación entre la luz y la electricidad. Ese patrón es el balance de blancos que indica a los circuitos internos una referencia de lo que es cien por cien blanco para el ojo humano en un determinado contexto de iluminación, y sirve de referencia para ayudarse en la reproducción de los colores. Si tomas una hoja en blanco y la colocas a la luz del día, la verás blanca. Si a continuación te la llevas a casa y la colocas a la luz de un tubo fluorescente, la seguirás viendo blanca y si, por último, de noche te vas a una habitación y la colocas a la luz de una bombilla, seguirás siendo capaz de identificarla como blanca. Sin embargo lo cierto es que en el primer caso el blanco tiende a ser bastante azulado, en el segundo caso, algo verdoso y en el tercero bastante amarillento ¿Dónde está el truco? Nuestro cerebro es capaz de trabajar para compensar las diferencias cromáticas permitiéndonos percibir un mismo color como constante (constancia perceptiva del color), aunque objetivamente haya variado. Una cámara no es capaz de llevar a cabo esta operación, por lo que hay que decirle cuál es la referencia para el blanco cada vez que cambiemos de fuente o de contexto de iluminación, de lo contrario los colores podrían ser mal registrados. Las cámaras de vídeo se comportan en lo que se refiere a diafragma, enfoque, longitud focal y obturador de manera parecida a una cámara de imagen fija. La diferencia principal se encuentra en el modo en que se almacenan y se tratan las imágenes. El magnetoscopio, VTR o vídeo, se presentó por vez primera en un informativo de la cadena norteamericana CBS el 30 de noviembre de 1956. A la altura de mediados de los años sesenta todas las televisiones habían generalizado su uso.

742


Fundamentos de Investigación Privada - Capítulo 56

A su vez, los primeros magnetoscopios que tuvieron un éxito considerable en el sector doméstico comenzaron a comercializarse a mediados de los años setenta. Durante décadas los formatos en vídeo se establecieron en relación a la anchura de las cintas magnéticas: los formatos profesionales eran los de 2 pulgadas y 1 pulgada de ancho de cinta; los industriales los de 3/4 de pulgada (el célebre U Matic, primer sistema de vídeo cuya cinta iba alojada en una casete y cuyo genial hallazgo en 1971 posibilitó la viabilidad del mercado doméstico); y los domésticos de 1/2 pulgada tal como el VHS y antes el Betamax. Pero las cosas comenzaron a cambiar cuando en los años ochenta apareció en el formato Betacam de media pulgada de ancho de cinta pero que pese a su estrechez ha sido el sistema dominador del sector profesional durante una década. Los últimos formatos sobre cinta magnética han sido digitales, a partir del desarrollo de la familia DV en sus diversos formatos: el DVPro, el DVCam en el entorno profesional, y el MiniDV en el semiprofesional y amateur. En la actualidad se tiende a utilizar soportes tipo Disco Duro (HDD) para registrar las imágenes grabadas mediantes sistemas de alta definición.

2.

ELEMENTOS BÁSICOS DE LENGUAJE AUDIOVISUAL

Si bien un detective privado no va a utilizar el vídeo para rodar una película de carácter narrativo, es conveniente que conozca los elementos que configuran el lenguaje audiovisual para que no se creen efectos de sentido no buscados o no percibidos. Por otra parte, si el detective privado conoce estas nociones, puede utilizarlas para crear testimonios audiovisuales de mayor calidad. Animamos, no obstante, a los alumnos a que se pregunten por la ficcionalización que toda filmación introduce en la realidad registrada.

Tipos de plano Desde la misma aparición del cine sus pioneros sintieron una necesidad de comunicar con sus públicos. Y, a pesar de que a lo largo de todo el siglo XIX proliferaron distintos espectáculos audiovisuales que acostumbraron a los espectadores a una cierta gramática del lenguaje de las imágenes y los sonidos, fue la suma de las inquietudes de profesionales y artistas, impelidos por su trabajo a dominar las

743


CIENCIAS DE LA SEGURIDAD. UNIVERSIDAD DE SALAMANCA

estructuras del espacio y el tiempo audiovisual, las que desarrollaron con el paso de los años unas normas y códigos que han conformado lo que en la actualidad denominamos lenguaje cinematográfico y, por extensión, audiovisual. La unidad básica del lenguaje audiovisual es el plano. Desde una perspectiva espacial, plano es el espacio escénico que vemos en el marco del visor de la cámara o en la pantalla; desde una perspectiva temporal plano (o toma) es todo lo que la cámara registra desde que se inicia la filmación hasta que se detiene. Cuando los pioneros cinematográficos empezaron a tomar conciencia de las variaciones que surgían con los cambios de punto de vista de la cámara y objetivos decidieron crear una tipología del tamaño de los planos. La establecieron tomando como referencia básica la figura humana; aunque los límites son flexibles.

Plano General es aquel en el que predomina el decorado sobre el personaje. Se utiliza cuando se pretende situar espacialmente el conjunto de los elementos que se ven. En ocasiones, según su función, recibe el nombre de “plano máster”, plano que establece toda la acción de la secuencia que luego será complementada con planos más cortos. A su vez, el plano general puede dividirse en Gran

Plano General que se utiliza para dar una visión panorámica de un paisaje, aunque también podemos usarlo para contrastar elementos de muy distinto tamaño u ofrecer una visión completa de la acción, por ejemplo; el plano del planeta tierra siendo invadido por los ovnis en Mars Attacks! (1996) de Tim Burton. Plano

General propiamente dicho: aquel que nos ofrece el cuerpo completo del sujeto u objeto..Plano General Concreto que equivale a un tamaño casi exacto del personaje y del ambiente que le rodea, como ocurre cuando Charles Foster Kane desciende las escaleras del Capitolio en Ciudadano Kane (1941) de Orson Welles.

744


Fundamentos de Investigación Privada - Capítulo 56

Plano tres cuartos o americano es aquel en el que el cuadro corta la figura por las rodillas; es denominado del segundo modo porque era el más frecuente en los westerns para mostrar de forma conveniente al vaquero con su cartuchera con pistolas al cinto. Ha de tenerse cuidado con ajustar bien el corte de la imagen porque si se baja a los tobillos o se sube a la entrepierna produce una impresión óptica desagradable conocida en el argot como planos ‘tobilleros’ y ‘bolivianos’, respectivamente.

Plano medio es el referido a una imagen que recoge cuerpos humanos a la altura de la cadera. Este plano establece la interrelaciones directas entre dos o más personaje o entre estos y los objetos del ambiente.

El primer plano se centra en el rostro pero también es aquel que incluye una parte completa del cuerpo. Obviamente, centra completamente la atención del espectador en el personaje al eliminar el contorno del encuadre; sirve para enfatizar en un punto concreto la totalidad de la acción dramática. Exige una dirección del actor muy meticulosa pues hasta el más ligero de los gestos se ve multiplicado por la extensión que ocupan en la pantalla.

745


CIENCIAS DE LA SEGURIDAD. UNIVERSIDAD DE SALAMANCA

El primerísimo primer plano o, más habitual, plano de detalle es el que abarca una parte incompleta del cuerpo. Su utilidad es enfática y su abuso conlleva un cierto agotamiento visual del espectador.

El plano detalle enfatiza elementos concretos, destaca elementos pequeños que con otro tipo de plano pasarían desapercibidos. En nuestra chica, por ejemplo, el color de su pintura de uñas.

Decimos que un plano es más abierto cuanto más ángulo de visión abarca. Por el contrario, uno cerrado será aquel que muestra partes concretas de una escena o detalles, es decir, poco ángulo. Del mismo modo decimos “abrir el

746


Fundamentos de Investigación Privada - Capítulo 56

plano” o “cerrar el plano” para referirnos a aumentar y disminuir la distancia focal respectivamente. Por tanto, cuanto más nos acercamos al gran angular, más abrimos el plano y cuanto más nos acercamos al teleobjetivo más lo cerramos.

3.

LOS MOVIMIENTOS DE CÁMARA

En los albores de la historia del cine no existían movimientos de cámara, los actores se movían frente a ella y en las películas se utilizaban únicamente planos fijos que fijan un punto de vista único ante el que se desarrolla la acción. Innegablemente su origen fue teatral y establecía la posible visión de un espectador sentado en la butaca. Pronto los creadores de imágenes vieron la posibilidad de aderezar sus historias con los movimientos de la cámara o la de alejarnos o acercarnos al objeto a fotografiar aunque éste permanezca estático. Esto dio lugar a una de las sensaciones más reconfortantes para el espectador: la sensación casi física de adentrarnos en la imágenes y ‘viajar’ con ellas. En suma, que los primeros planos fijos consiguieron una mayor significación al comenzar las películas a rodarse en exteriores y sobre todo cuando proliferaron las películas de persecuciones de policías y ladrones que obligan a combinar en la misma secuencia diversos tamaños de plano. Evidentemente, a la hora de realizar un vídeo de vigilancia no se nos exige que exista riqueza de planos, puesto que el objetivo es otro. Sin embargo, si aprovechamos unos conocimientos básicos de lenguaje audiovisual, coseguiremos que incluso el vídeo más aburrido tenga algo de interés. Veamos la descripción de los más conocidos movimientos de cámara.

La panorámica es un movimiento sobre el eje horizontal (el más habitual), vertical o diagonal. Las panorámicas se suelen hacer apoyada la cámara sobre la cabeza del trípode pero en ocasiones se ven algunas hechas a mano, mucho más inestables. Pueden ser de carácter descriptivo, una panorámica sobre un espacio o personaje; de acompañamiento, siguiendo a un elemento en movimiento; o de relación, asociando a más de un personaje. La panorámica realizada tan rápida como para emborronar la imagen se denomina barrido y se utiliza como transición. En los ‘travellings’ la cámara se desplaza en relación al escenario. Pueden ser de avance, de retroceso o de acompañamiento. Los travellings dotan a la imagen 747


CIENCIAS DE LA SEGURIDAD. UNIVERSIDAD DE SALAMANCA

de dinamicidad al variar la perspectiva con el movimiento de la cámara. Con mucha frecuencia se dice que el travelling es el movimiento más hermoso, “una cuestión de moral”, como llegó a afirmar el siempre provocativo Jean Luc Godard. El movimiento de Zoom, o travelling óptico, es aquel en el que el punto de vista o perspectiva de la cámara no cambia, únicamente lo hacen las dimensiones de la escena en el interior del cuadro gracias a los objetivos de focal variable. Un zoom nunca cumple la función de un travelling. Su impresión óptica es diferente y por ello transmite valores distintos. Su uso reiterativo conlleva un modelo de narración efectista muy habitual en el cine de los años 60 y principios de los 70. El steadycam es un tipo de travelling. Se trata de un movimiento libre de la cámara que consigue con un sistema de suspensión y absorción del movimiento que permite al operador realizar tomas de seguimiento en situaciones imposibles para un travelling normal; por ejemplo, subiendo una escalera o a través de los árboles de un bosque. La cabeza caliente es un sistema de movimiento en varios ejes de la cabeza de la cámara que combina todos los movimientos posibles, permitiendo cualquier

tipo

de

seguimiento

y

movimiento

a

diferentes

alturas.

Extraordinariamente espectacular es muy utilizado en los programas de televisión más llamativos, en la publicidad y en los videos musicales. En los últimos tiempos, su traslado a la narrativa cinematográfica, junto a la steadycam, ha conllevado un pleno significado de la definición “cámara desencadenada”. Permite todos los puntos de vista imaginables en continuidad. La cámara en mano puede combinar también varios movimientos pero es, esencialmente, un tipo de travelling. Está inicialmente asociado al punto de vista subjetivo al transmitirse a la imagen y, por consiguiente, al espectador las vibraciones del operador a la cámara; sin embargo, últimamente se ha enriquecido el significado del movimiento de cámara asociándolo a una sensación realista por su herencia del reportaje televisivo y a los efectos violentos o de tensión (por ejemplo persecuciones en el cine de terror). Como norma general, para el trabajo de detective privado hay que tratar de que la cámara no se mueva demasiado. Lo que importa es mantener la informa748


Fundamentos de Investigación Privada - Capítulo 56

ción en pantalla, sin efectuar movimientos que puedan ser molestos. De todos modos esto se pondrá de manifiesto en las practicas que se realicen.

4.

LA CONTINUIDAD: EL ESPACIO CINEMATOGRÁFICO

Parece evidente que las tomas han de ser contempladas como fragmentos de un todo. La continuidad es la función que interrelaciona espacial y temporalmente un plano con el siguiente. La continuidad permite cuando se ven dos planos seguidos, asociarlos como consecutivos aunque estén rodados en lugares y, evidentemente, momentos distintos. Es conveniente tener en cuenta este efecto de sentido a la hora de presentar nuestro trabajo como detectives para no llevar a engaño a quienes contemplen las imágenes. Para mantener una geografía clara en los espacios de la realización cinematográfica y audiovisual se parte de una normativa muy precisa que se articula a partir del concepto de eje. Se llama eje escénico o de acción a la trayectoria que sigue en pantalla cualquier elemento móvil. El eje escénico se forma igualmente entre dos personajes inmóviles que se miran. El eje de cámara es la línea imaginaria que coincide con el punto de mira del objetivo de la cámara. Todas las normas gramaticales del lenguaje audiovisual toman como base el eje escénico y el eje de cámara. De hecho se acostumbra a dividir la escena según el eje de cámara, diciéndose que tal o cual personaje está a la derecha a la izquierda o en el eje. El espectador cognitivamente reconstruye el espacio de tal manera que no se observan esas reglas usualmente conducen a confusión: es lo que se denomina como ‘saltos de eje’ (en las repeticiones televisivas suele avisarse con el letrero de ‘ángulo inverso’). Es decir que para no desorientar a los públicos la industria del cine ha dispuesto que la cámara se coloque siempre en una misma línea paralela al mismo lado de los ejes. Un ejemplo: si tenemos a dos personajes conversando, los planos deberán ser rodados al mismo lado del eje establecido por sus miradas y si no se respeta se tiene la impresión de que uno habla al cogote del otro. Paralelamente, el eje de cámara nos obliga a que entre el primer plano y el

749


CIENCIAS DE LA SEGURIDAD. UNIVERSIDAD DE SALAMANCA

continuo debe existir al menos una diferencia de angulación de 30ï para dar sensación de cambio de punto de vista. Para las reglas del eje escénico, los movimientos y los cambios de dirección de los elementos que aparecen en imagen suponen la principal dificultad. Si tenemos un objeto en movimiento que entra el plano por la derecha y sale luego por la izquierda, en el siguiente plano será obligatorio para dar continuidad al recorrido que aparezca por la derecha. Un último factor a tener en cuenta en este epígrafe hace referencia a la dialéctica plano-contraplano y campo. En otras palabras, cuando establecemos un plano siempre se crea un espacio opuesto o confrontado, que en el conjunto de la narración de la película puede quedar fuera de nuestra visión, en off (lo que obliga al espectador a imaginárselo, como ocurre con frecuencia en el género de terror) y se llama fuera de campo, o convertirse en el plano siguiente; en este caso recibe el nombre de contraplano. Son muchos los que consideran que justamente la dialéctica entre lo que ve el espectador y lo que no ve (el campo y el fuera de campo) constituye la base de la grandeza estética de los grandes cineastas del séptimo arte. Por otra parte, esa dialéctica debería quedar reducida en el trabajo del detective. El concepto de eje puede afectar al trabajo del detective a la hora de filmar alguna acción. No para dejarlo inservible, pero sí para que pueda ser confuso. En concreto, es conveniente mantener el eje de dirección de los sujetos si queremos que lo que se expresa visualmente sea coherente.

5.

EL MONTAJE Y LA EDICIÓN

Al finalizar una filmación se obtienen una serie de planos que, en sí mismos, poseen una significación mínima como unidades narrativas, pero que al yuxtaponerse con otros planos, en un orden determinado y coherente, adquieren un nivel de lenguaje superior. Esto es justamente el montaje: el proceso de unión de dos planos medidos y ordenados, para dotar de estructura a la obra. Muchos son los que creen que el montaje es la gran singularidad del cine en el conjunto de los lenguajes artísticos. Y desde luego, ha sido mediante la reflexión sobre las teorías del montaje como muchos cineastas han articulado su trabajo.

750


Fundamentos de Investigación Privada - Capítulo 56

La historia del ritmo del montaje en la segunda mitad del siglo XX es prácticamente la historia de la capacidad de lectura audiovisual de los espectadores. Con frecuencia se ha dicho que un plano debe estar en pantalla el tiempo adecuado para que sus elementos puedan ser leídos por los espectadores; pero por supuesto que no existe un patrón rítmico determinado sino una visión de conjunto que establece cuándo el espectador se revolverá en su asiento o si permanecerá expectante desde el inicio hasta el siguiente plano. Las técnicas del montaje en continuidad, que debe recordarse que es hegemónico pero no el único como nos recuerda El acorazado Potemkim (Einsenstein, 1924), parten de las nociones que hemos visto en otro epígrafe: eje de mirada y dirección y raccord general de los planos. El respeto a estos principios hará que nuestro montaje sea, al menos, correcto, de forma que los espectadores puedan entender mejor el sentido que tienen las imágenes. A la hora de montar las imágenes en nuestro entorno utilizaremos el ordenador con algún programa de edición sencillo. Tal vez el más recomendable sea

Sony Vegas, un programa que es fácil de aprender e intuitivo y que posee la potencia de otros aparentemente superiores pero con una mayor facilidad de uso. En el entorno profesional, no obstante se suelen usar plataformas Avid de edición.

751


CIENCIAS DE LA SEGURIDAD. UNIVERSIDAD DE SALAMANCA

REFERENCIAS Para la elaboración de este manual se han recogido y compilado textos e imágenes de las siguientes fuentes: · http://www.quesabesde.com de Paulo Porta · http://www.xatakafoto.com de Israel Belchi · http://www.gusgsm.com · http://recursos.cnice.mec.es/media/index.html · http://www.puzzledeproduccion.com.mx/ · http://www.internetcampus.com/span/tvp_sind.htm · http://www.channel4.com/fourdocs/guides/index.html · http://www.bbctraining.com/onlineCourses.asp

752


Turn static files into dynamic content formats.

Create a flipbook
Issuu converts static files into: digital portfolios, online yearbooks, online catalogs, digital photo albums and more. Sign up and create your flipbook.