Fisica basica Cálculo vectorial El desarrollo científico de la física se ha sustentado modernamente en los principios de las matemáticas. Uno de los conceptos básicos para la definición de las magnitudes físicas es el vector, una entidad dotada de módulo, dirección y sentido en la que se inspira la elaboración de los modelos y postulados más elementales de la física teórica. Magnitudes escalares y vectoriales En la definición de las medidas físicas se usan dos tipos de magnitudes:
Magnitudes escalares, que quedan completamente definidas mediante un número, como pueden ser la temperatura, el tiempo y la densidad. Magnitudes vectoriales, para las que se precisa un valor numérico, una dirección y un sentido de aplicación, tal como sucede con la velocidad, la aceleración o la fuerza. Vectores Las magnitudes vectoriales se especifican mediante entidades matemáticas llamadas vectores, que se caracterizan por tres propiedades:
Módulo, una cantidad numérica siempre positiva que expresa la intensidad de la magnitud. Para el vector , su módulo se expresa | | o, simplemente, a. Dirección, o recta que contiene al segmento que mide la magnitud vectorial. Sentido, u orientación de la magnitud dentro del segmento de dirección. Suma y diferencia de vectores Cuando se opera con magnitudes vectoriales se han de cumplir los principios del álgebra vectorial. La operación más sencilla realizada con vectores es la suma, que produce un nuevo vector construido, de forma que:
Se coloca el origen del segundo vector sobre el extremo del primero. En la posición anterior, el vector suma se obtiene de modo que su origen coincide con el del primero y su extremo con el extremo del segundo vector sumado.
Suma de dos vectores. (a) Se lleva el segundo vector sobre el extremo del primero. (b) Después, se traza el vector suma Otras dos operaciones sencillas del álgebra vectorial son las siguientes:
La diferencia entre vectores, que se obtiene como la suma del primer vector y del opuesto del segundo (aquel vector que tiene igual módulo y dirección que éste pero sentido contrario). El producto de un escalar (un número) por un vector produce un nuevo vector con la misma dirección y sentido que el original, módulo igual al del vector multiplicado por el número y sentido idéntico cuando el escalar es positivo y opuesto si es negativo. Representación cartesiana de vectores Las magnitudes vectoriales pueden representarse en el plano o en el espacio definiendo un sistema de referencia con un origen O y dos (en representación planar) o tres (en el espacio) ejes mutuamente perpendiculares de referencia, llamados cartesianos y denotados comúnmente por las letras X, Y, Z. Sobre cada uno de estos ejes se define un vector unitario simbolizado por , respectivamente (o comúnmente ).
Componentes de un vector en un sistema de referencia tridimensional. En función de su representación cartesiana, un vector se expresa como:
Producto escalar de dos vectores Una operación de gran importancia en física es el producto escalar de dos vectores, que es un escalar que se calcula como el producto de sus módulos por el coseno del ángulo que forman entre sí:
Si se escriben los vectores en función de sus componentes , el producto escalar se puede obtener como:
,
Producto vectorial de dos vectores En los modelos físicos se utiliza una importante operación del álgebra vectorial denominada producto vectorial de dos vectores (simbolizado por X o por ) cuyo resultado es un nuevo vector con las siguientes características:
El módulo del producto vectorial es igual al producto de los módulos de los dos vectores por el seno del ángulo que forman entre sí. La dirección del producto vectorial es perpendicular al plano que forman los dos vectores iniciales. El sentido del producto vectorial es aquel que seguiría un tornillo de rosca a derechas si se llevara desde el primer vector al segundo. Escrito en función de los componentes de los vectores, el producto vectorial se expresa como:
Tipos de vectores Un vector se llama ligado cuando se asocia a un punto fijo de un sistema (por ejemplo, la velocidad en los puntos de un cuerpo en movimiento). En cambio, los vectores deslizantes son aquellos que pueden aplicarse indistintamente en varios puntos del cuerpo o sistema considerado (por ejemplo, en los movimientos de rotación). Las operaciones del álgebra vectorial (suma, diferencia, productos vectoriales y escalares) se aplican sobre todo a vectores deslizantes.
Equivalencia de vectores
Vectores equivalentes. Dos vectores se dicen iguales o, también, equivalentes o equipolentes cuando al transportar uno de ellos paralelamente a sí mismo se puede hacer coincidir con el otro.
Funciones vectoriales de un escalar En física son frecuentes las funciones matemáticas que expresan el valor de una magnitud vectorial que varía según una ley que la vincula a un escalar. Así sucede, por ejemplo, con el vector que describe la posición de un punto móvil con respecto a uno fijo, que suele variar con el tiempo y se llama vector de posición (t).
Momento de un vector con respecto a un punto El momento de un vector con respecto a un punto P se define como el producto vectorial dado por: , siendo el vector de posición del punto. Esta magnitud tiene importancia en múltiples aplicaciones prácticas. Por ejemplo, la fuerza ejercida para abrir una puerta entornada tiene mayor efecto si se aplica lejos de los goznes (el momento del vector es mayor) que cerca de las bisagras.
Desplazamiento, velocidad y aceleración
El movimiento ha constituido uno de los temas de estudio clásico de la física. Su análisis corresponde a la rama de las ciencias llamada cinemática, que se ocupa de la descripción intrínseca y detallada de los movimientos, y no de las causas que los provocan. El tiempo y el espacio Dos magnitudes elementales de la física son el espacio y el tiempo. Íntimamente relacionados, el tiempo (t) permite ordenar los sucesos físicos en una escala que distingue entre pasado, presente y futuro, mientras que el espacio (s) puede verse como un medio abstracto en el que se desplazan los cuerpos. Se describe normalmente mediante tres coordenadas que corresponden a la altura, la anchura y la profundidad. En la física clásica, se considera que el tiempo transcurre siempre de manera uniforme, y que el espacio es un medio indeformable que subyace a toda realidad física. Sin embargo, la mecánica relativista sostiene que tanto el tiempo como el espacio no son magnitudes fijas, sino que su medida depende de la velocidad de desplazamiento que experimente el observador con respecto a unos ejes fijos tomados como referencia.
Sistema de referencia físico, formado por tres ejes cartesianos espaciales (altura, anchura y profundidad) y un eje temporal. Trayectoria de un cuerpo El movimiento de un cuerpo medido en un sistema de referencia se observa, a lo largo de la secuencia del paso del tiempo, como una trayectoria u órbita, que puede adoptar diversas formas: rectilínea, curva, parabólica, mixta, etc. Uno de los objetivos de la cinemática consiste en hallar la ley que rige el tipo de trayectoria que seguirá un cuerpo o un sistema en su desplazamiento en el espacio a lo largo del tiempo.
Trayectoria de un cuerpo, descrita por las posiciones sucesivas que ocupa en el espacio en cada instante. Vector de posición y ley horaria La trayectoria de un cuerpo en movimiento se expresa comúnmente como una función vectorial del vector de posición con respecto al tiempo. Dicho vector de posición es el que une en cada momento el origen del sistema de referencia considerado con la posición del punto móvil. Su función vectorial es la siguiente:
La variación con respecto al tiempo de la posición de un cuerpo en el espacio se conoce como ley horaria del movimiento. Velocidad y aceleración lineal El espacio recorrido por unidad de tiempo se denomina velocidad del movimiento. Cuando el desplazamiento tiene lugar en una línea recta, la velocidad se denoma lineal. La velocidad lineal media de un punto móvil es igual al cociente entre el espacio medio recorrido entre las posiciones 1 y 2 y el tiempo transcurrido.
La velocidad que posee un cuerpo en un momento dado, se llama instantánea y se expresa como:
La velocidad lineal se mide en metros por segundo (m/s) en el Sistema Internacional.
La variación de la velocidad con respecto al tiempo se denomina aceleración. Así, la aceleración lineal instantánea de un cuerpo se indica matemáticamente como:
En el Sistema Internacional, la aceleración lineal se mide en metros por segundo al cuadrado (m/s2).
Vector de posición de un punto: (t) Velocidad y aceleración angular Cuando un movimiento tiene lugar en una trayectoria curva, se define la velocidad angular instantánea (símbolo ) como el ángulo que barre el radio vector por unidad de tiempo. El radio vector es el que indica la posición del punto desde el centro de la circunferencia que marca la trayectoria.
En el Sistema Internacional, el ángulo se mide en radianes, y la velocidad angular se expresa en radianes por segundo. Análogamente, la aceleración angular instantánea (símbolo a) es la variación de la velocidad angular instantánea por unidad de tiempo, y se mide en radianes por segundo al cuadrado.
En un movimiento circular descrito según una circunferencia de radio R, la relación entre la velocidad y aceleración lineal (a lo largo de la curva de la circunferencia) y angulares (según los ángulos descritos) instantáneas es la siguiente:
Unidades de espacio y tiempo En el Sistema Internacional, el espacio se mide en metros y el tiempo en segundos. El metro (símbolo m) se define como la distancia que recorre la luz en el vacío en un periodo de 1/299.792.458 segundos. El segundo (s) se define como la duración de 9.192.631.770 periodos de la radiación que corresponde a la transición entre dos niveles hiperfinos del átomo Cesio 133 en su estado fundamental.
Cuerpos puntuales y extensos Se consideran cuerpos puntuales aquellos cuyas dimensiones son insignificantes en comparación con la magnitud de su desplazamiento. En caso contrario, los cuerpos se denominan extensos, y la descripción física de su comportamiento se hace más compleja.
Diagrama v-t
El área rayada del diagrama v-t mide el espacio de desplazamiento recorrido.
Un ángulo en radianes se define por el cociente entre la longitud de arco y el radio que le corresponde. La ley horaria se representa gráficamente con un diagrama espacio-tiempo (s-t). Para ilustrar la descripción de un movimiento se usan también los diagramas velocidad-tiempo (v-t), que son característicos para cada tipo de desplazamiento.
Movimientos rectilíneo y circular La mayoría de los movimientos observados en la naturaleza son muy complejos, aunque en numerosas ocasiones pueden interpretarse como combinaciones de desplazamientos rectilíneos y/o circulares, con o sin aceleración. Movimiento rectilíneo uniforme Se llama movimiento rectilíneo uniforme al que describe un cuerpo o partícula material cuando se desplaza en línea recta con una velocidad constante en módulo, dirección y sentido. La ley horaria o ecuación general del movimiento rectilíneo uniforme viene dada por:
donde xD es la posición inicial del cuerpo con respecto al punto origen de referencia, su velocidad, t la variable tiempo y x (t) la posición genérica del cuerpo en un instante t.
Representación gráfica de la ley horaria del movimiento rectilíneo uniforme. La pendiente de la recta es la velocidad de desplazamiento. Movimiento rectilíneo uniformemente acelerado Los desplazamientos en línea recta en los que la velocidad aumenta de forma constante se llaman movimientos uniformemente acelerados (cuando la
velocidad disminuye de manera constante, se denominan uniformemente decelerados). Las ecuaciones que describen estos tipos de movimientos son las siguientes:
donde vD es la velocidad del objeto en el instante inicial, xD el espacio inicial recorrido desde el origen y a la aceleración que experimenta el cuerpo, o variación de la velocidad con respecto al tiempo. La aceleración, constante en este caso, puede ser positiva o negativa (deceleración). En las expresiones anteriores, v(t) es la función velocidad y x(t) representa la ley horaria del movimiento.
Representación gráfica de la ley horaria de una partícula sometida a una aceleración constante (a) positiva y (b) negativa. Como caso particular de aceleración se puede citar la gravedad (simbolizada por g y con valor igual a 9,81 m/s2), que actúa sobre todos los cuerpos situados en la superficie terrestre por efecto de la atracción gravitatoria que ejerce el planeta. Movimiento circular uniforme Cuando un cuerpo material describe una trayectoria circular alrededor de un punto central con una velocidad angular constante se denomina movimiento circular uniforme. La ley horaria que describe este movimiento es la siguiente:
con D, el ángulo inicial de desplazamiento del cuerpo con respecto al origen, su velocidad angular, t el tiempo y (t) la posición angular del cuerpo en un instante t. Movimiento circular uniformemente acelerado Cuando el movimiento circular descrito por una partícula se rige por una velocidad angular que aumenta de forma constante con el paso del tiempo, se dice uniformemente acelerado (o decelerado, si la velocidad angular decrece con el tiempo).
Las ecuaciones que describen este movimiento son las siguientes:
Movimiento parabólico Otro tipo de movimiento estudiado por la cinemática es el parabólico, que no es rectilíneo ni totalmente circular. Ejemplos clásicos de movimiento parabólico son los descritos por las balas de cañón, un balón de baloncesto lanzado hacia la canasta o una pelota de golf golpeada con un palo. La ecuación de la trayectoria de un movimiento parabólico viene dada por:
Otras expresiones interesantes de este movimiento son las siguientes: Alcance (distancia recorrida)
Tiempo de vuelo
Altura máxima
En todas estas ecuaciones, v 0 es la velocidad inicial del móvil, z0 su altura inicial, g la aceleración de la gravedad y el ángulo inicial que forma la trayectoria del móvil con la horizontal en el momento del lanzamiento.
Trayectoria de un cuerpo en movimiento parabólico (por ejemplo, un proyectil). Ejemplos de movimiento uniforme
Fase inicial del lanzamiento de un cohete. Caída libre de un cuerpo Fase de aceleración de un vehículo en recta con una presión uniforme sobre el pedal del acelerador. Lanzamiento de una piedra en vertical hacia arriba (uniformemente decelerado).
Ejemplos de movimientos
Tiro horizontal, un caso especial de lanzamiento de un proyectil cuando éste parte de su altura máxima. · Movimiento del extremo de la aguja de un reloj (uniforme). · Desplazamiento de un punto de la rueda de un vehículo.
· Movimiento del engranaje de un motor. · Desplazamiento de una piedra atada a una cuerda tensa que gira.
Estática: sistemas en equilibrio Una de las ramas fundamentales de la mecánica es la estática, que estudia el comportamiento de los cuerpos y los sistemas en equilibrio, para los que no existe movimiento neto. Aunque los principios de la estática fueron ya enunciados por los filósofos griegos antiguos, la sistematización de esta disciplina se debe, en buena parte, a los trabajos del sabio italiano Galileo Galilei (1564-1642). Fuerzas en equilibrio En la física clásica se considera que el movimiento es una consecuencia de la acción de fuerzas mecánicas. El hecho de que un sistema esté en reposo no indica que sobre él no actúen fuerzas, sino que éstas se encuentran contrarrestadas o equilibradas por otras de su especie. Así sucede, por ejemplo, con un cuerpo apoyado sobre un plano horizontal, donde el peso está compensado por la resistencia del plano. Por su interés especial, la estática centra algunos de sus estudios más interesantes en sistemas singulares, como son el plano inclinado, las poleas simple y compuesta y la palanca. Planos inclinados Planos inclinados Desde el punto de vista de la mecánica, se llama plano inclinado a una superficie lisa sobre la que se sitúa un cuerpo material que está levantado un cierto ángulo sobre la horizontal.
Fuerzas que intervienen en un sistema de plano inclinado: el peso P (con sus componentes tangencial, P y normal, P) y el rozamiento F .
Si se considera que no existe rozamiento, sobre el cuerpo actuaría una sola fuerza, el peso P, que se descompone en dos partes: la componente tangencial (PT) y la componente normal (PN). Ésta última está compensada por la resistencia del plano, por lo que sólo resulta activa la componente tangencial. En estas condiciones, el cuerpo se deslizaría hacia abajo por el plano inclinado debido a la acción de dicha componente, de manera que: La aceleración de caída es proporcional a sen . Para un mismo ángulo , todos los cuerpos caen con idéntica aceleración. Ahora bien, cuando se considera el efecto del rozamiento como una fuerza que se opone a la componente tangencial del peso, pueden darse dos casos posibles: Si el rozamiento es inferior a la componente tangencial del peso, el cuerpo se deslizará hacia abajo por el plano inclinado, aunque con menor aceleración que si no existiera rozamiento. Si la fuerza de rozamiento contrarresta a la componente tangencial del peso, el cuerpo permanecerá en reposo. La fuerza de rozamiento es de tipo disipativo, ya que actúa como freno al movimiento del cuerpo material.
Poleas Otro sistema interesante desde el punto de vista de la estática es la polea simple, un sencillo conjunto formado por dos cuerpos materiales suspendidos de los dos extremos de una cuerda que pasa por el contorno de una rueda sostenida por un eje. Sin tener en cuenta los efectos del rozamiento, existe movimiento en el sentido del cuerpo de mayor peso, y se alcanzará la situación de reposo cuando la tensión de la cuerda iguale ambos pesos. Este esquema puede complicarse cuando se emplean poleas engranadas entre varios pesos suspendidos, en cuyo caso en el cálculo del movimiento final del conjunto influyen tanto la magnitud de los pesos como los radios de las poleas utilizadas.
Esquema de una polea simple de la que penden dos masas desiguales (máquina de Atwood). Ley de la palanca La palanca es un sistema físico muy simple formado por una barra rígida en uno de cuyos extremos se sitúa un cuerpo material pesado. Modificando el punto de apoyo de la barra en el suelo, es posible levantar con mayor o menor facilidad el cuerpo, aplicando para ello una fuerza en el extremo contrario.
Esquema de una palanca. En situación de equilibrio, el producto de las fuerzas por los brazos (distancias respectivas desde el extremo de la barra al punto de apoyo) es constante:
Por ello, si se acerca el punto de apoyo al peso, se requerirá una fuerza menor para levantarlo. Este principio se conoce como ley de la palanca de Arquímedes. Principio de relatividad
Galileo Galilei (1564-1642) aportó con sus trabajos sobre mecánica y astronomía un nuevo método en el que se sustentó la revolución científica del siglo XVII. Al estudiar los fenómenos de caída de los graves y el plano inclinado, Galileo dedujo el principio de la relatividad que lleva su nombre, en virtud del cual las leyes de la mecánica son iguales para un observador que se encuentre en reposo o se desplace con un movimiento rectilíneo uniforme.
Ingenios mecánicos Los planos inclinados, las palancas y las poleas se han usado desde la Antigüedad para mover y levantar grandes pesos. No en vano el filósofo e inventor griego Arquímedes llegó a afirmar que con una palanca adecuada sería capaz de «mover el mundo».
Leyes de la mecánica Los trabajos sobre sistemas estáticos y en movimiento de Arquímedes y Galileo, en sus distintas épocas, sirvieron de base al inglés Isaac Newton (1642-1727) para definir las leyes básicas de la dinámica y de la gravitación universal.
Ley de Newton de la dinámica Con la publicación en 1687 de «Los Principios matemáticos de la filosofía natural», el inglés Isaac Newton revolucionó radicalmente la concepción de la ciencia física. En esta obra sintetizó los principios de la mecánica en tres sencillas leyes, cuya aplicación propició un extraordinario avance de esta rama científica en los siglos posteriores. Ley de inercia La primera ley de la mecánica, llamada ley de inercia, sostiene que todo cuerpo aislado no sometido a ninguna fuerza externa mantiene indefinidamente su estado de reposo o de movimiento. Ley fundamental de la dinámica La segunda ley propuesta por Newton se conoce como principio fundamental de la dinámica. Esta ley enuncia que la aceleración que experimenta una partícula material sigue la dirección y el sentido de la fuerza que se aplica sobre ella, y que el cociente entre los módulos de estos dos vectores (fuerza y aceleración) es una constante característica de la partícula:
Esta constante mI recibe el nombre de masa de inercia. En forma vectorial, la segunda ley de Newton se expresa como:
Masa de inercia y masa gravitatoria Los trabajos sobre mecánica de Newton se inspiraron en los experimentos previos de Galileo Galilei. Este científico italiano estudió la caída de los graves y dedujo que todos los cuerpos materiales, cuando se dejan caer libremente hacia la superficie terrestre, se mueven con la misma aceleración y velocidad. La fuerza que impulsa a los cuerpos hacia la superficie de la Tierra se llama peso, y la aceleración que éste induce recibe el nombre de gravedad. Ambas magnitudes se relacionan por la siguiente expresión:
Siendo mG una constante de proporcionalidad que se conoce por masa gravitatoria. El Principio de Equivalencia de la física defiende que la masa inercial y la masa gravitatoria tienen un mismo valor numérico, por lo que ambas se conocen genéricamente por masa (símbolo m). Aceleración de la gravedad Del principio de equivalencia de masas y de la ley de gravitación universal de Newton (ver t21) puede determinarse el valor de la aceleración de la gravedad según la siguiente fórmula:
donde G = 6,67 · 10-11 N m2 kg-2, constante de gravitación universal,
De ello se obtiene que g = 9,81 m/s2. Principio de relatividad de Galileo La ley fundamental de la dinámica se expresa de igual forma en todos los sistemas inerciales. Este postulado se conoce por Principio de relatividad de Galileo. En los sistemas no inerciales intervienen interacciones que afectan al sistema, denominadas fuerzas de inercia, en cuyo caso hay que corregir la segunda ley de Newton para expresarla como:
donde
es la componente debida a la fuerza de inercia.
Fuerza tangencial y centrípeta La aplicación práctica de la segunda ley de Newton se simplifica notablemente si se dividen las fuerzas en dos componentes:
Una colineal con la velocidad de desplazamiento, que se denomina fuerza tangencial. Una perpendicular al desplazamiento llamada fuerza centrípeta.
Componentes tangencial y centrípeta de una fuerza. En los movimientos rectilíneos, la componente normal o centrípeta es nula, mientras que tiene un valor significativo en los desplazamientos curvilíneos. En los movimientos circulares, si la fuerza centrípeta no existiera, el móvil tendería a seguir con un movimiento rectilíneo. Es la fuerza centrípeta la que hace «caer» al móvil al centro de la trayectoria. Isaac Newton El inglés Isaac Newton (1642-1727) resumió en sus tratados numerosos principios y leyes revolucionarias sobre la mecánica, la gravitación universal, la óptica y la dinámica de fluidos.
Unidades de masa y fuerza La masa es una de las magnitudes fundamentales del Sistema Internacional (SI); su unidad en este sistema es el kilogramo (símbolo kg). En cambio, la fuerza es una unidad derivada que, en el SI, se mide en newton (símbolo N), de manera que 1 N = 1 kg · 1 m/s2. Otras unidades de fuerza utilizadas comúnmente son la dina (sistema CGS, donde 1 dina = 10-5 N) y el kilopondio o kilogramofuerza (símbolo kp, siendo 1 kp = 9,81 N).
Caída libre El movimiento de caída libre es aquel por el que un cuerpo se precipita a tierra desde una cierta altura impulsado por su propio peso. En este movimiento, la fuerza que actúa es el peso P, y la aceleración presente es la gravedad, g = 9,81 m/s2. El desplazamiento resultante es un movimiento uniformemente acelerado.
Sistemas inerciales Las leyes de Newton son válidas sólo en los llamados sistemas de referencia inerciales, que son aquellos que no están sometidos a ninguna aceleración. En la realidad estos sistemas no existen, ya que todos los cuerpos están sujetos a fuerzas y movimientos con aceleración. Así, la Tierra, que suele utilizarse frecuentemente como un sistema inercial, no sólo orbita alrededor del Sol y gira en torno a su propio eje de rotación, sino que también acompaña al Sistema Solar y a la Vía Láctea en sus desplazamientos cósmicos.
Acción y reacción. Conservación del momento La aportación conceptual más novedosa de la mecánica newtoniana a las ciencias físicas fue el principio de acción y reacción. Esta idea, que no ha perdido actualidad con el progreso científico, permitió avanzar hacia modelos globales basados en principios de conservación de las entidades físicas esenciales. Principio de acción y reacción La ley de acción y reacción enunciada por Isaac Newton se aplica a parejas de objetos materiales que interaccionan entre sí y se formula diciendo que si un
cuerpo A ejerce una fuerza sobre un cuerpo B, este segundo ejerce a su vez sobre A una fuerza igual y de sentido contrario a la anterior.
Los cuerpos A y B ejercen mutuamente fuerzas iguales y de sentido contrario entre sí. Conviene advertir que estas fuerzas de acción y reacción nunca dan lugar a un equilibrio o compensación dinámica, ya que siempre actúan sobre cuerpos diferentes. La ley de acción y reacción se expresa matemáticamente como:
Fuerza resultante Cuando sobre un mismo cuerpo material actúan varias fuerzas simultáneas, se observa como efecto una única fuerza llamada resultante, que se calcula como la suma vectorial de todas las fuerzas individuales participantes. En los cuerpos en reposo confluyen siempre conjuntos de fuerzas que se compensan mutuamente, con lo que la resultante final es nula.
Resultante de un conjunto de fuerzas, obtenida como una suma vectorial. Fuerzas impulsivas
En la mecánica de Newton se llama fuerza impulsiva a la que se aplica sobre un cuerpo de masa m durante un breve periodo de tiempo t. En estas fuerzas se define una magnitud vectorial llamada impulso como el producto de la fuerza por el intervalo de tiempo transcurrido.
Cantidad de movimiento Si a la definición de impulso de una fuerza se le aplica la ley fundamental de Newton para la dinámica (ver t5), se obtiene que:
De este modo, el impulso de una fuerza puede definirse como la variación de una cantidad igual al producto de la masa por la velocidad del cuerpo. Este producto se denomina cantidad de movimiento o momento lineal, y se expresa como:
Conservación de la cantidad de movimiento La cantidad de movimiento es un concepto fundamental en la física moderna. En un sistema aislado, sobre el que no existen fuerzas externas aplicadas, la cantidad de movimiento total del sistema permanece constante, aunque puede transmitirse de unas partículas a otras dentro del mismo. Este principio de conservación de la cantidad de movimiento o del momento lineal es una consecuencia directa de la ley de acción y reacción, y se expresa como:
Fuerzas que actúan sobre dos masas m y m La reacción al peso El peso es la fuerza de atracción que ejerce la Tierra sobre todos los cuerpos situados en su superficie o sus proximidades. Por el principio de acción reacción, estos cuerpos deberían también atraer la Tierra, y así sucede, aunque la magnitud de estas fuerzas es insignificante comparada con la masa terrestre, a la que son incapaces de mover.
Vigencia de las leyes de Newton La formulación de la teoría de la relatividad por Albert Einstein en el siglo XX puso de relieve muchas de las carencias de las leyes de Newton. Éstas se restringen a sistemas de referencia inerciales, un concepto que no tiene sentido para cuerpos o partículas que se mueven a grandes velocidades relativas (objetos cósmicos, partículas subatómicas en aceleradores de partículas, etc). No obstante, mantienen su vigencia en el estudio de los fenómenos cotidianos perceptibles en la superficie de la Tierra.
La mecánica después de Newton Los trabajos de Newton hallaron notables continuadores en Jean d’Alembert, Leonhard Euler, Daniel Bernoulli o Joseph-Louis Lagrange, quienes, durante el
siglo XVIII, desarrollaron la llamada mecánica racional y analítica en una de las etapas más fértiles y florecientes de esta área de la física.
El juego del billar El principio de conservación de la cantidad de movimiento se observa en numerosos fenómenos cotidianos. Un problema clásico resuelto por este principio es el del juego de billar: al impulsar con el taco una bola, ésta adquiere una velocidad que transmite parcialmente a otra al golpearla. En esta colisión, llamada elástica considerando que no existe disipación de energía, se conserva el momento lineal.
Peso y masa de un cuerpo El fenómeno de la atracción entre las masas de los cuerpos se puso de manifiesto desde el punto de vista de la física a raíz de los estudios sobre astronomía y los cuerpos celestes desarrollados desde la época renacentista. Estos estudios arrojaron nueva luz sobre el origen de una de las fuerzas más visibles de la naturaleza: el peso, o fuerza de atracción que ejerce la Tierra sobre los cuerpos, que está íntimamente relacionada con su masa. Interacción gravitatoria Se llama interacción gravitatoria a la atracción mutua que ejercen entre sí dos cuerpos cualesquiera provistos de masa. La magnitud de la fuerza que se asocia es directamente proporcional a la masa de los cuerpos considerados y guarda proporcionalidad inversa con el cuadrado de la distancia que los separa.
Dirección y sentido de las fuerzas de atracción gravitatoria entre dos cuerpos. La expresión de la fuerza gravitatoria se conoce como Ley de gravitación universal de Newton (ver t21) y se formula de la siguiente manera:
siendo m1 y m2 las masas, r la distancia que existe entre ellas y G la llamada constante de gravitación universal. El valor de G, cuya primera determinación se había atribuido hasta hace poco al científico británico Henry Cavendish, es igual a: G = 6,67 · 10-11 N m2 kg-2 (ver t5). Definición de peso Un caso particular de interacción gravitatoria es el peso, que se define como la fuerza de atracción que ejerce la masa de la Tierra sobre la de cualquier cuerpo situado en su superficie o proximidades. Por tanto, el peso se expresa como:
siendo
la masa de la Tierra. En la superficie terrestre, r coincide con el radio
del planeta, y su símbolo es
(ver t5).
Gravedad La relación entre el peso de un cuerpo y su masa recibe el nombre de intensidad del campo gravitatorio o, más sencillamente, gravedad. Según la ley de la gravitación universal, en la superficie de la Tierra la gravedad tiene un valor de:
Cuando se mide a alturas considerables desde la superficie terrestre (por ejemplo, a bordo de un avión o en una cumbre de alta montaña), el valor de g disminuye, ya que aumenta la distancia al centro de la Tierra. Es decir, el peso de un cuerpo es menor a mayores alturas.También varía ligeramente según el punto donde se mida, ya que la Tierra no es perfectamente redonda. Masa y peso El peso es una magnitud variable, cuyo valor depende de la distancia exacta al centro de la Tierra; por tanto, no es característico de cada cuerpo. La relación entre masa y peso viene dada por el valor de una constante llamada gravedad. Si se aplica la ley fundamental de la dinámica de Newton (ver t5), se obtiene que la gravedad es una forma especial de aceleración. Así, la expresión vectorial del peso es la siguiente:
Centro de gravedad El peso de un cuerpo puede verse como la resultante de todas las fuerzas que actúan sobre los componentes elementales de la materia que lo integra. Sin embargo, para simplificar los cálculos, se considera que, en cada cuerpo, el peso se aplica sobre un solo punto, denominado centro de gravedad (en abreviatura, cdg). En los cuerpos dotados de algún tipo de simetría, el centro de gravedad coincide con el centro de simetría (por ejemplo, el centro geométrico de un cubo).
El centro de gravedad se define como punto de aplicación del peso en un cuerpo. Fuerzas y movimientos El peso es una clase de fuerza y, como tal, puede inducir movimiento. Así sucede cuando se deja caer un cuerpo desde una cierta altura: por efecto del peso, adquiere una aceleración g que lo precipita contra el suelo. Sin embargo, cuando el cuerpo descansa sobre una superficie horizontal, y en ausencia de fuerzas externas, permanece en reposo. El peso sigue existiendo, aunque está compensado por la reacción del plano de la superficie. Se dice entonces que el cuerpo está en equilibrio. Para que exista equilibrio en un cuerpo o sistema se han de cumplir dos condiciones:
Que la resultante total de las fuerzas que actúan sobre él sea nula, es decir, no existe traslación. Que la suma total de los momentos de giro de dichas fuerzas sea también nula, con lo que no existe tampoco rotación. Henry Cavendish
Henry Cavendish (1731- 1810), físico y químico británico, estudió el aire y el hidrógeno, la composición del agua y la electricidad. No obstante, es conocido sobre todo por haber determinado el valor de la densidad y la masa de la Tierra, de donde puede extraerse el valor de la constante de gravitación universal G.
Noción extendida de peso
El peso sigue siempre la vertical desde el centro de gravedad del cuerpo.
La balanza es el instrumento clásico de medida de las masas de los cuerpos. El modelo tradicional de balanza cuenta con dos platillos y un fiel que se desplaza sobre una escala graduada, y la medida se basa en la comparación con cuerpos de masa conocida (las pesas). En su acepción más general, el concepto de peso se usa también para la fuerza gravitatoria de atracción que ejercen la Luna o los planetas sobre los cuerpos de su superficie. En la Luna, los cuerpos pesan una sexta parte menos que en la Tierra, al ser mucho menor la masa del satélite.
Momento de una fuerza
El momento de una fuerza se define como el producto vectorial de su vector de posición por el vector fuerza, es decir:
Medios deformables: noción de presión La acción de las fuerzas sobre los cuerpos produce en éstos dos tipos principales de efectos: cambios en su estado de reposo o de movimiento, que constituyen el objeto de estudio de la cinemática, y deformaciones. Para comprender la naturaleza de las deformaciones experimentadas por los cuerpos se ha introducido el concepto físico de presión. Medios deformables e indeformables Ante la acción de fuerzas, todos los cuerpos experimentan algún tipo de deformación, aunque no sea perceptible a simple vista. Sin embargo, la física considera, a efectos prácticos, que algunos cuerpos son indeformables, en el sentido de que las distancias relativas entre sus puntos permanecen siempre fijas. Por otra parte, dentro de los cuerpos deformables se consideran también dos grandes grupos:
Cuerpos elásticos, que son aquellos que recuperan su forma original, no deformada, cuando deja de actuar la fuerza que se ejercía sobre ellos. Cuerpos no elásticos, en los cuales una fuerza aplicada origina deformaciones permanentes.
En los cuerpos elásticos, las deformaciones causadas son directamente proporcionales a las magnitudes de las fuerzas aplicadas. Ley de Hooke
El comportamiento de los cuerpos elásticos constituye un fenómeno de notable interés para la física. Según la llamada ley de Hooke, las deformaciones causadas en un cuerpo elástico son directamente proporcionales a las fuerzas que las provocan. Es decir:
siendo F la fuerza aplicada, x el valor de la deformación y k? una constante de proporcionalidad. La inversa de esta constante, simbolizada por k = 1 / k?, se denomina constante elástica, y es característica de cada cuerpo. De acuerdo con este principio, para distintas fuerzas aplicadas sobre un cuerpo elástico se producen diferentes deformaciones proporcionales a ellas:
La ley de Hooke se dedujo por medios experimentales.
Gráfica del comportamiento de un dinamómetro cuya constante de elasticidad es igual a 1 N / cm. Elementos de una fuerza Las fuerzas que se aplican sobre los cuerpos e inducen deformaciones en ellos son magnitudes vectoriales que se caracterizan por cuatro propiedades fundamentales:
Un módulo o intensidad, representado por la longitud del vector. Una dirección o línea de acción de la fuerza. Un sentido, dentro de la dirección dada, que se simboliza por una flecha. Un punto de aplicación (origen del vector fuerza).
Elementos de un vector (por ejemplo, una fuerza). La presión El grado de deformación que sufre un cuerpo depende de la magnitud de la fuerza y de la extensión de superficie sobre la que ésta se aplique. En tal sentido, se define presión como la magnitud determinada por el cociente entre el módulo de la fuerza F y la superficie S perpendicular sobre la que se ejerce.
La presión es una magnitud escalar, que queda definida íntegramente por una cantidad numérica. Para una fuerza dada, la presión es tanto mayor cuanto menor sea la superficie sobre la que se aplica, y a la inversa. Este principio se aprovecha en numerosos mecanismos y dispositivos cotidianos; por ejemplo:
Las agujas y los cuchillos tienen punta o filo (de superficie muy pequeña) para obtener una presión máxima con una fuerza moderada. Los esquíes y las traviesas del ferrocarril sirven para aumentar la superficie de apoyo y evitar que el esquiador se hunda en la nieve o el tren se aplaste contra el suelo. Fuerzas de rozamiento Una forma especial de fuerzas que actúan sobre los cuerpos es el rozamiento. Las fuerzas de rozamiento o fricción se oponen siempre al desplazamiento de los cuerpos y se explican como el resultado del roce de las partículas de éstos con las del medio que los rodea (por ejemplo, el aire y el suelo). En el caso particular de un cuerpo que se desliza por una superficie inclinada:
Las fuerzas de rozamiento no varían con la velocidad del cuerpo en movimiento ni con la extensión de la superficie de contacto.
El módulo de estas fuerzas es directamente proporcional al valor de la fuerza normal que actúa entre el cuerpo y la superficie de contacto; la constante de proporcionalidad se denomina coeficiente de rozamiento, se simboliza por y carece de dimensiones:
siendo N la fuerza normal. El sólido rígido Todo cuerpo considerado indeformable se denomina genéricamente sólido rígido. Al interpretarse como un sistema ideal donde las distancias relativas entre sus puntos permanecen siempre fijas, el sólido rígido sirve como modelo para numerosos estudios teóricos sobre movimientos de traslación y rotación.
El dinamómetro Un dinamómetro es un resorte o muelle que se estira, al ser sometido a deformación, a lo largo de una escala graduada. Por su carácter elástico, cumple la ley de Hooke, por la cual es posible determinar la magnitud de las fuerzas aplicadas midiendo el valor de la deformación del muelle sobre la escala.
Unidades de presión
Microscopio de Robert Hooke. La unidad de presión en el Sistema Internacional es el pascal (símbolo Pa), que es igual a un newton (N) dividido por un metro cuadrado, es decir: 1 Pa = 1 N/m 2 ; también se usa con frecuencia su múltiplo llamado kilopascal (símbolo kPa).
Otras unidades muy utilizadas de presión son el milibar (equivalente a 100 Pa) y su múltiplo el bar (igual a 1.000 milibares), y la atmósfera (1 atm = =101.292 Pa » 105 Pa). Robert Hooke (1635- 1703), que trabajó con Robert Boyle en la construcción de la bomba de aire para el estudio de la presión, realizó una de sus principales aportaciones a la ciencia con el descubrimiento de la ley empírica de la elasticidad.
Presión hidrostática. El principio de Arquímedes La inmensa mayoría de los materiales presentes en la Tierra se encuentran en estado fluido, ya sea en forma de líquidos o de gases. No sólo aparecen en dicho estado las sustancias que componen la atmósfera y la hidrosfera (océanos, mares, aguas continentales), sino también buena parte del interior terrestre. Por ello, el estudio de las presiones y propiedades hidrostáticas e hidrodinámicas tiene gran valor en el marco del conocimiento del planeta. Los fluidos Se denomina fluido a toda sustancia que tiene capacidad de fluir. En esta categoría se encuadran los líquidos y los gases, que se diferencian entre sí por el valor de su densidad, que es mayor en los primeros. La densidad se define como el cociente entre la masa de un cuerpo y el volumen que ocupa:
La densidad es un valor escalar y sus unidades son kg/m3 en el Sistema Internacional. Propiedades de los fluidos Los gases y los líquidos comparten algunas propiedades comunes. Sin embargo, entre estas dos clases de fluidos existen también notables diferencias:
Los gases tienden a ocupar todo el volumen del recipiente que los contiene, mientras que los líquidos adoptan la forma de éste pero no ocupan la totalidad del volumen. Los gases son compresibles, por lo que su volumen y densidad varían según la presión; los líquidos tienen volumen y densidad constantes para una cierta temperatura (son incompresibles).
Las moléculas de los gases no interaccionan físicamente entre sí, al contrario que las de los líquidos; el principal efecto de esta interacción es la viscosidad. Presión hidrostática Dado un fluido en equilibrio, donde todos sus puntos tienen idénticos valores de temperatura y otras propiedades, el valor de la presión que ejerce el peso del fluido sobre una superficie dada es:
siendo p la presión hidrostática, r la densidad del fluido, g la aceleración de la gravedad y h la altura de la superficie del fluido. Es decir, la presión hidrostática es independiente del líquido, y sólo es función de la altura que se considere. Por tanto, la diferencia de presión entre dos puntos A y B cualesquiera del fluido viene dada por la expresión:
La diferencia de presión hidrostática entre dos puntos de un fluido sólo depende de la diferencia de altura que existe entre ellos. Principio de Pascal. Prensa hidráulica En un fluido en equilibrio, la presión ejercida en cualquiera de sus puntos se transmite con igual intensidad en todas las direcciones. Esta ley, denominada Principio de Pascal, tiene múltiples aplicaciones prácticas y constituye la base teórica de la prensa hidráulica.
Esquema de una prensa hidráulica: un recipiente relleno de líquido con dos émbolos de distinta superficie.
Al aplicar una fuerza F1 sobre el primer émbolo, se genera una presión en el fluido que se transmite hacia el segundo émbolo, donde se obtiene una fuerza F 2. Como la presión es igual al cociente entre la fuerza y la superficie, se tiene que:
Como S2 > S1, la fuerza obtenida en el segundo émbolo es mayor que la que se ejerce en el primero. Por ello, con una prensa hidráulica es posible alzar grandes pesos aplicando fuerzas pequeñas o moderadas. Empuje de los cuerpos sumergidos La presión que ejerce un fluido sobre las paredes del recipiente que lo contiene y la frontera de los cuerpos sumergidos en él produce en éstos una fuerza ascensional llamada empuje. Por tanto, en un cuerpo sumergido actúan dos fuerzas de sentido contrario: el peso descendente y el empuje ascendente.
Si el empuje es mayor que el peso, el cuerpo sale a flote; en caso contrario, se hunde. Principio de Arquímedes Todo cuerpo completamente sumergido desaloja un volumen de fluido igual a su propio volumen. En condiciones de equilibrio, un cuerpo sumergido en un fluido experimenta una fuerza de empuje vertical ascendente que es igual al volumen de líquido desalojado. Este enunciado se conoce como Principio de Arquímedes, y se expresa como:
donde f es la densidad del fluido, Vc el volumen del líquido desalojado (volumen de cuerpo sumergido) y g la gravedad. Ejemplos de fluidos
Vasos comunicantes
Vasos comunicantes. Se llama vasos comunicantes a recipientes de líquidos comunicados entre sí, en general por su base. Estos vasos tienen la propiedad de que, en condiciones de equilibrio, el líquido que los llena tiene igual presión en todos sus puntos situados a la misma altura y, consiguientemente, alcanza una misma altura sea cual sea la forma de los vasos.
Sistemas hidráulicos El principio de la prensa hidráulica se aplica en numerosos dispositivos prácticos, como los gatos o elevadores hidráulicos, la grúa hidráulica y los frenos hidráulicos de los automóviles.
La presión atmosférica La Tierra está rodeada por una masa de fluido gaseoso llamada atmósfera. El peso de la atmósfera, que ejerce una presión por unidad de superficie, provoca un efecto de adaptación en todos los seres vivos. Así, por ejemplo, en los mamíferos dicha presión se compensa con una tensión sanguínea interna sustentada por una vasta red de capilares. La atmósfera
La capa de fluido que rodea a la superficie terrestre se conoce como atmósfera. La mezcla de gases que compone la atmósfera, constituida principalmente por nitrógeno y oxígeno, se denomina aire. La atmósfera está constituida en varios niveles de propiedades definidas:
Troposfera, la capa más cercana a la Tierra, donde tienen lugar los fenómenos meteorológicos y que alcanza de 6 a 17 km de altura, según la región del globo. Estratosfera, por encima de la anterior, que llega a unos 50 km. Mesosfera, siguiente nivel, de densidad muy baja y un espesor de unos 50 km. Termosfera, que llega hasta 400 km, aproximadamente, y se caracteriza por un rápido aumento de la temperatura. Termosfera, que llega hasta 400 km, aproximadamente, y se caracteriza por un rápido aumento de la temperatura. Presión atmosférica El peso por unidad de superficie que ejerce el aire sobre los cuerpos situados en la atmósfera se llama presión atmosférica. Esta presión se detecta en los fenómenos cotidianos de la naturaleza. Así, por ejemplo, al pegar una ventosa sobre una superficie lisa sin que quede aire encerrado en su interior, la presión atmosférica la mantiene firmemente adherida, de manera que no cae por su peso. Medida de la presión atmosférica El valor de la presión atmosférica se puede determinar mediante un sencillo experimento ideado por Evangelista Torricelli en 1643.
Esquema de la experiencia de Torricelli para medir la presión atmosférica. Al rellenar el tubo con mercurio e invertirlo sobre la cubeta con el extremo cerrado en su posición superior, se vacía el tubo hasta que el líquido alcanza una altura de 76 cm. Esta altura se debe a la acción de la presión atmosférica, que empuja al mercurio hacia arriba por el tubo. La presión atmosférica se mide como una altura equivalente a 76 cm de mercurio. Así pues:
La unidad N/m2 se llama pascal (símbolo Pa). Por lo que:
Ley de Boyle-Mariotte Del estudio del comportamiento del aire, el británico Robert Boyle (1627-1691) y el francés Edmé Mariotte (1620-1684) dedujeron, de forma independiente, el principio de compresibilidad de los gases, también llamado ley de Boyle-Mariotte. Este principio establece que, para una masa determinada de gas y a una temperatura constante, el producto de la presión del gas por el volumen que ocupa mantiene siempre un mismo valor. Es decir:
Representación gráfica de la ley de Boyle-Mariotte. Manómetros La presión de los fluidos se mide con un dispositivo especial denominado manómetro. Existen dos clases principales:
Ordinarios, construidos como tubos en forma de U, que contienen mercurio u otro líquido manométrico y que miden en realidad diferencias de presiones. Metálicos, que se basan en el uso de la elasticidad de los cuerpos, de manera que se conecta el fluido sujeto a la medición a un tubo metálico elástico tal que su curvatura se modifica con arreglo a la variación de la presión atmosférica.
Modelo esquemático de un manómetro metálico. Barómetros
Los instrumentos utilizados para medir la presión atmosférica son los barómetros, que se inspiran en la experiencia de Torricelli. Los dos tipos más utilizados de barómetros son:
De sifón o de cubeta, con un tubo en U con una rama cerrada sobre la que se dispone una escala graduada. Métalico o de Vidi, provisto de una caja en la que se ha practicado el vacío cuya tapa, elástica y deformable, propicia el desplazamiento de una aguja sobre una escala que acompaña a las variaciones de presión atmosférica.
Diseño de un barómetro de cubeta, un modelo de alta precisión para medir presiones atmosféricas. Trabajo mecánico y energía El concepto de trabajo mecánico en la vida diaria es muy intuitivo. Cuando una persona sube un objeto pesado desde la calle hasta un edificio, efectúa un trabajo. En el lenguaje corriente, la realización de un trabajo se relaciona con el consumo de energía. Así, los conceptos de trabajo y energía aparecen identificados no sólo en las teorías físicas, sino también en el lenguaje coloquial.
Fuerza y trabajo mecánico El concepto de trabajo mecánico aparece estrechamente vinculado al de fuerza. De este modo, para que exista trabajo debe aplicarse una fuerza mecánica a lo largo de una cierta trayectoria. En términos físicos, el trabajo W se define como el producto escalar de la fuerza aplicada por la distancia recorrida. En términos físicos, el trabajo W se define como el producto escalar de la fuerza aplicada por la distancia recorrida.
donde es el ángulo que forman la dirección de la fuerza y el desplazamiento. Así pues, el trabajo es una magnitud escalar, que alcanza su valor máximo cuando la fuerza se aplica en la dirección y el sentido del movimiento. De la definición anterior se deduce que las fuerzas aplicadas perpendicularmente a la dirección del movimiento producen un trabajo nulo.
El trabajo para mover un cuerpo depende de la fuerza aplicada sobre el objeto y de la distancia recorrida. En la figura, se obtiene el mismo trabajo empujando el cuerpo oblicuamente por la plataforma que con ayuda de una polea. Trabajo de una fuerza variable Con frecuencia, la fuerza que produce un trabajo es variable durante el tiempo de aplicación, ya sea porque se alteran su módulo, su dirección o su sentido. Para calcular el valor de este trabajo se utiliza una integral extendida a todo el recorrido.
El valor del trabajo puede obtenerse también mediante una representación gráfica con el valor de la fuerza en el eje de ordenadas y la distancia en el eje de abscisas.
(a) Trabajo de una fuerza variable, determinado como el área comprendida entre la curva y el eje de abscisas. (b) Trabajo de una fuerza constante para todo el recorrido. Concepto de energía La realización de trabajo puede verse también como un consumo de energía. No obstante, la noción de energía es más amplia que la de trabajo. Aunque, genéricamente, se define energía como la capacidad de un cuerpo para realizar trabajo, también comprende el calor, o transferencia de energía de un sistema material a otro, como una de sus manifestaciones más comunes. Por tanto, el trabajo y el calor son dos manifestaciones posibles de la energía.
Un muelle estirado y un cuerpo sostenido sobre una superficie pueden realizar trabajo, al comprimirse o caer al suelo. Ambos son ejemplos de sistemas provistos de energía susceptible de convertirse en trabajo. Relación entre energía y trabajo El trabajo es una manifestación de la energía. Ahora bien, por su definición, el trabajo es una magnitud escalar que atendiendo a la disposición de la fuerza y el desplazamiento puede ser positiva, negativa o nula:
Cuando el trabajo es positivo, se dice que la fuerza inductora ha aportado energía. Así sucede cuando se comprime un muelle o se levanta un peso. Si el trabajo es negativo, la fuerza ha absorbido energía (por ejemplo, al soltar un muelle o dejar caer un objeto). Si el trabajo es nulo, no existen variaciones en el balance energético del sistema.
Ejemplo de trabajo nulo, donde el cuerpo se desliza por una superficie horizontal que es perpendicular al peso (en el ejemplo, esta fuerza ni absorbe ni aporta energía). Unidades de trabajo En el Sistema Internacional, el trabajo mecánico se mide en julios, donde 1 julio (J) = 1 newton (N) x 1 metro (m). En el sistema CGS, se utiliza como unidad el ergio. Por la equivalencia entre trabajo y energía, esta última magnitud se expresa también en Julios (SI) y ergios (CGS).
Equivalente mecánico del calor El científico inglés James Prescott Joule (1818- 1889) descubrió la equivalencia que existe entre calor y trabajo, en un concepto según el cual el trabajo necesario para producir una caloría es igual a 4,18 julios.
Energía cinética y energía potencial La energía es una magnitud física que se muestra en múltiples manifestaciones. Definida como la capacidad de realizar trabajo y relacionada con el calor (transferencia de energía), se percibe fundamentalmente en forma de energía
cinética, asociada al movimiento, y potencial, que depende sólo de la posición o el estado del sistema involucrado. Energía cinética El trabajo realizado por fuerzas que ejercen su acción sobre un cuerpo o sistema en movimiento se expresa como la variación de una cantidad llamada energía cinética, cuya fórmula viene dada por:
El producto de la masa m de una partícula por el cuadrado de la velocidad v se denomina también fuerza viva, por lo que la expresión anterior se conoce como teorema de la energía cinética o de las Fuerzas Vivas. Energía potencial gravitatoria Todo cuerpo sometido a la acción de un campo gravitatorio posee una energía potencial gravitatoria, que depende sólo de la posición del cuerpo y que puede transformarse fácilmente en energía cinética. Un ejemplo clásico de energía potencial gravitatoria es un cuerpo situado a una cierta altura h sobre la superficie terrestre. El valor de la energía potencial gravitatoria vendría entonces dado por:
siendo m la masa del cuerpo y g la aceleración de la gravedad. Si se deja caer el cuerpo, adquiere velocidad y, con ello, energía cinética, al tiempo que va perdiendo altura y su energía potencial gravitatoria disminuye. Energía potencial elástica Otra forma común de energía potencial es la que posee un muelle cuando se comprime. Esta energía potencial elástica tiene un valor igual a:
donde x es la posición del extremo del muelle y k una constante de proporcionalidad. Al soltar el muelle, se libera energía potencial elástica, al tiempo que el extremo del muelle adquiere velocidad (y, también, energía cinética).
Al comprimir un muelle, se realiza un trabajo que se acumula como una energía potencial elástica. Energía mecánica En los procesos físicos, la energía suele almacenarse en los cuerpos en forma combinada de tipo cinético y potencial. Esta suma de energías se denomina energía mecánica, y se escribe genéricamente como:
Fuerzas que intervienen en un cuerpo lanzado hacia arriba: una genera movimiento (energía cinética) y la otra, el peso, va acumulando energía potencial gravitatoria hasta el punto más elevado de la trayectoria. Conservación de la energía mecánica Uno de los principios básicos de la física sostiene que la energía no se crea ni se destruye, sino que sólo se transforma de unos estados a otros. Este principio se extiende también a la energía mecánica. Así, en un sistema aislado, la suma de energías cinética y potencial entre dos instantes de tiempo se mantiene constante.
De este modo, la energía cinética se transforma en potencial, y a la inversa, pero la suma de ambas siempre se conserva (cuando el sistema está aislado y no se aplican fuerzas disipativas). Potencia mecánica La energía transferida (o el trabajo realizado) por unidad de tiempo bajo la acción de una fuerza se denomina potencia mecánica, y se expresa como:
Si se considera la definición de trabajo (ver t11), se tiene que:
La unidad de potencia en el Sistema Internacional es el vatio (símbolo W), equivalente a un julio dividido por un segundo (1 W = 1 J / 1 s). Trabajo neto Cuando sobre un sistema actúan varias fuerzas conjugadas, cada una de ellas contribuye independientemente a la realización de un trabajo. A efectos teóricos, se considera que sólo actúa sobre el cuerpo la fuerza resultante de todas las aplicadas, que efectuaría un trabajo neto susceptible de absorber o de aportar energía en sus múltiples manifestaciones.
La fuerza de rozamiento
Transformación de trabajo en calor por la acción de una fuerza disipativa (el rozamiento). No todas las fuerzas presentes en la naturaleza son capaces de realizar trabajo útil. Existen algunas, llamadas disipativas, como la de rozamiento o fricción, que se opone al movimiento y se invierte en calentar las superficies de contacto (no puede recuperarse, por tanto, en forma de energía cinética).
Potencia de los electrodomésticos Los electrodomésticos proporcionan diversas cantidades de energía por unidad de tiempo, según su finalidad. Algunos ejemplos de potencias son los siguientes: televisor, 200 W; secador de pelo, 500 W; horno eléctrico, 2.000 W.
Desplazamiento, velocidad y aceleración El movimiento ha constituido uno de los temas de estudio clásico de la física. Su análisis corresponde a la rama de las ciencias llamada cinemática, que se ocupa de la descripción intrínseca y detallada de los movimientos, y no de las causas que los provocan. El tiempo y el espacio Dos magnitudes elementales de la física son el espacio y el tiempo. Íntimamente relacionados, el tiempo (t) permite ordenar los sucesos físicos en una escala que distingue entre pasado, presente y futuro, mientras que el espacio (s) puede verse como un medio abstracto en el que se desplazan los cuerpos. Se describe normalmente mediante tres coordenadas que corresponden a la altura, la anchura y la profundidad. En la física clásica, se considera que el tiempo transcurre siempre de manera uniforme, y que el espacio es un medio indeformable que subyace a toda realidad física. Sin embargo, la mecánica relativista sostiene que tanto el tiempo como el espacio no son magnitudes fijas, sino que su medida depende de la velocidad de desplazamiento que experimente el observador con respecto a unos ejes fijos tomados como referencia.
Sistema de referencia físico, formado por tres ejes cartesianos espaciales (altura, anchura y profundidad) y un eje temporal. Trayectoria de un cuerpo
El movimiento de un cuerpo medido en un sistema de referencia se observa, a lo largo de la secuencia del paso del tiempo, como una trayectoria u órbita, que puede adoptar diversas formas: rectilínea, curva, parabólica, mixta, etc. Uno de los objetivos de la cinemática consiste en hallar la ley que rige el tipo de trayectoria que seguirá un cuerpo o un sistema en su desplazamiento en el espacio a lo largo del tiempo.
Trayectoria de un cuerpo, descrita por las posiciones sucesivas que ocupa en el espacio en cada instante. Vector de posición y ley horaria La trayectoria de un cuerpo en movimiento se expresa comúnmente como una función vectorial del vector de posición con respecto al tiempo. Dicho vector de posición es el que une en cada momento el origen del sistema de referencia considerado con la posición del punto móvil. Su función vectorial es la siguiente:
La variación con respecto al tiempo de la posición de un cuerpo en el espacio se conoce como ley horaria del movimiento. Velocidad y aceleración lineal El espacio recorrido por unidad de tiempo se denomina velocidad del movimiento. Cuando el desplazamiento tiene lugar en una línea recta, la velocidad se denoma lineal. La velocidad lineal media de un punto móvil es igual al cociente entre el espacio medio recorrido entre las posiciones 1 y 2 y el tiempo transcurrido.
La velocidad que posee un cuerpo en un momento dado, se llama instantánea y se expresa como:
La velocidad lineal se mide en metros por segundo (m/s) en el Sistema Internacional. La variación de la velocidad con respecto al tiempo se denomina aceleración. Así, la aceleración lineal instantánea de un cuerpo se indica matemáticamente como:
En el Sistema Internacional, la aceleración lineal se mide en metros por segundo al cuadrado (m/s2).
Vector de posición de un punto: (t) Velocidad y aceleración angular Cuando un movimiento tiene lugar en una trayectoria curva, se define la velocidad angular instantánea (símbolo ) como el ángulo que barre el radio vector por unidad de tiempo. El radio vector es el que indica la posición del punto desde el centro de la circunferencia que marca la trayectoria.
En el Sistema Internacional, el ángulo se mide en radianes, y la velocidad angular se expresa en radianes por segundo.
Análogamente, la aceleración angular instantánea (símbolo a) es la variación de la velocidad angular instantánea por unidad de tiempo, y se mide en radianes por segundo al cuadrado.
En un movimiento circular descrito según una circunferencia de radio R, la relación entre la velocidad y aceleración lineal (a lo largo de la curva de la circunferencia) y angulares (según los ángulos descritos) instantáneas es la siguiente:
Unidades de espacio y tiempo En el Sistema Internacional, el espacio se mide en metros y el tiempo en segundos. El metro (símbolo m) se define como la distancia que recorre la luz en el vacío en un periodo de 1/299.792.458 segundos. El segundo (s) se define como la duración de 9.192.631.770 periodos de la radiación que corresponde a la transición entre dos niveles hiperfinos del átomo Cesio 133 en su estado fundamental.
Cuerpos puntuales y extensos Se consideran cuerpos puntuales aquellos cuyas dimensiones son insignificantes en comparación con la magnitud de su desplazamiento. En caso contrario, los cuerpos se denominan extensos, y la descripción física de su comportamiento se hace más compleja.
Diagrama v-t
El área rayada del diagrama v-t mide el espacio de desplazamiento recorrido.
Un ángulo en radianes se define por el cociente entre la longitud de arco y el radio que le corresponde. La ley horaria se representa gráficamente con un diagrama espacio-tiempo (s-t). Para ilustrar la descripción de un movimiento se usan también los diagramas velocidad-tiempo (v-t), que son característicos para cada tipo de desplazamiento.
La carga eléctrica. Ley de Coulomb Una de las interacciones fundamentales descritas por la física es la electricidad. Aunque conocidos desde antiguo, los fenómenos eléctricos no empezaron a ser explicados de forma sistemática hasta las postrimerías del siglo XVIII, y sólo a mediados del XIX se descubrió su estrecha relación con otra manifestación común de la naturaleza: el magnetismo. La electricidad en la naturaleza La carga eléctrica es una de las propiedades básicas de la materia. Aunque la comprensión extensa de sus manifestaciones se resistió durante siglos al escrutinio de la ciencia, ya hacia el año 600 a. C. los filósofos griegos describieron con detalle el experimento por el cual una barra de ámbar frotado atrae pequeños pedacitos de paja u otro material ligero (electrización por frotamiento). Los fenómenos eléctricos, indivisiblemente unidos a los magnéticos, están presentes en todas partes, ya sea en las tormentas, la radiación solar o el cerebro humano. Modernamente, sus propiedades se aprovechan en múltiples campos de actividad, y la electricidad se ha convertido en una forma esencial de consumo y transporte de energía. Por su naturaleza eléctrica, los cuerpos físicos se clasifican en conductores, que transmiten la electricidad fácilmente, y aislantes o dieléctricos, que oponen una resistencia elevada a su paso. Los semiconductores presentan una conductividad intermedia entre estas dos clases. Cargas eléctricas
La esencia de la electricidad es la carga eléctrica. Esta cualidad existe en dos clases distintas, que se denominan cargas positivas y negativas. Las cargas eléctricas de la misma clase o signo se repelen mutuamente y las de signo distinto se atraen. En realidad, la carga eléctrica de un cuerpo u objeto es la suma de las cargas de cada uno de sus constituyentes mínimos: moléculas, átomos y partículas elementales. Por ello se dice que la carga eléctrica está cuantizada. Además, las cargas se pueden mover o intercambiar, pero sin que se produzcan cambios en su cantidad total (ley de conservación de la carga). En el estado normal de los cuerpos materiales, las cargas eléctricas mínimas están compensadas, por lo que dichos cuerpos se comportan eléctricamente como neutros. Hace falta una acción externa para que un objeto material se electrice. La electrización de un cuerpo se consigue extrayendo del mismo las cargas de un signo y dejando en él las de signo contrario. En tal caso, el cuerpo adquiere una carga eléctrica neta no nula.
Fuerza eléctrica Los fenómenos de la electrización y la conducción pueden explicarse como el resultado de la acción de fuerzas eléctricas. Entre dos cargas próximas inicialmente en reposo siempre se establece un tipo de fuerzas, llamadas electrostáticas, de tal forma que, si las partículas cargadas son suficientemente pequeñas como para que puedan considerarse puntuales, se cumple en las siguientes condiciones:
La fuerza establecida entre ambas tiene una dirección que coincide con una línea recta imaginaria que une las dos cargas. La fuerza ejercida sobre una carga apunta hacia la otra cuando las dos tienen distinto signo (fuerza atractiva).
El sentido de la fuerza se dirige hacia el lado opuesto de la carga cuando ambas tienen el mismo signo (fuerza repulsiva).
Ilustración de las fuerzas electrostáticas. En (a) las dos cargas son positivas o negativas; en (b) una es positiva y la otra, negativa. Ley de Coulomb La magnitud de las fuerzas eléctricas de atracción y repulsión entre cargas se rige por el principio fundamental de la electrostática, también llamado ley de Coulomb. Esta ley establece que la fuerza de atracción (o repulsión) entre dos cargas eléctricas puntuales de distinto (o igual) signo es directamente proporcional al producto del valor de sus cargas e inversamente proporcional al cuadrado de la distancia que las separa:
La constante de proporcionalidad K se define del modo siguiente:
donde e0 es una constante denominada permitividad eléctrica del vacío, cuyo valor es 8,8542·10-12 C2/N·m2. El campo electrostático En la física moderna, la noción de fuerza ha sido progresivamente desplazada por la de campo. Aplicado a la electrostática, este concepto permite sustituir la idea de las fuerzas puntuales que nacen y mueren en las cargas eléctricas por el principio de que la sola presencia de una carga induce una perturbación en el espacio que
puede afectar a cualquier otra carga presente en sus proximidades. El manejo de campos permite describir los fenómenos según las propiedades observadas, sin referirse a las causas originales que los producen. El vector campo eléctrico La presencia de una o varias cargas eléctricas en el espacio induce en su entorno un campo eléctrico (de símbolo E), que influye en el comportamiento de otras cargas circundantes. El valor cuantificado de esta interacción se determina por la intensidad de campo eléctrico, que se define como la fuerza que actúa en un punto dado del campo por unidad de carga positiva.
El campo eléctrico es una magnitud vectorial cuyas características son:
La dirección del campo es la de la recta que une la posición de la carga que lo engendra con la del punto donde se mide el campo. El sentido del campo es, por convenio, repulsivo cuando la carga origen es positiva y atractivo si dicha carga es negativa (coincide con el de la fuerza electrostática). El módulo del campo depende del valor de la carga que lo crea, su signo, el medio y la distancia de dicha carga a aquella en la que se mide la perturbación.
Módulo, sentido y dirección del campo eléctrico. La carga (a) es positiva y la (b), negativa.
Valor del módulo del campo eléctrico Por la propia definición de campo eléctrico, el módulo de su intensidad es directamente proporcional a la carga que crea el campo e inversamente proporcional al cuadrado de la distancia donde se miden sus efectos:
donde K es la misma constante que aparece en la ley de Coulomb de la electrostática, cuyo valor es 9 · 109 N·m2/C2, aproximadamente (ver t30). Las líneas de campo Para comprender mejor el concepto de campo eléctrico se recurre a representaciones visuales basadas en líneas de campo o de fuerza, para indicar la dirección, el sentido y la intensidad del campo. En esencia, las líneas de campo señalan cómo se comportaría una carga eléctrica positiva cuyo valor es la unidad, cuando se introdujera en el dominio de acción del campo eléctrico representado. Según este enfoque, el campo eléctrico es abierto, ya que sus líneas de fuerza nunca entran y salen en una misma carga.
Líneas de fuerza de un campo eléctrico. Mientras que las líneas creadas por una carga positiva salen de la carga (a), las engendradas por una carga negativa se sumergen en ella (b).
Líneas de fuerza de un sistema de cargas. Las líneas de campo salen de la carga positiva y entran en la negativa. El dipolo eléctrico El estudio del campo eléctrico es particularmente interesante en un sistema conocido por dipolo eléctrico, que está constituido por dos cargas de igual valor, una positiva y otra negativa, situadas a una cierta distancia, en general pequeña. La característica principal del dipolo eléctrico es el momento dipolar, que se define como el producto del valor de la carga por la distancia que existe entre ambas cargas. Esta magnitud es vectorial, y matemáticamente se escribe como:
Al introducir un dipolo eléctrico en un campo electrostático, el dipolo tiende a reorientarse con su carga positiva apuntando en el sentido de las líneas del campo. La acción del campo crea así un momento de giro M definido por la expresión:
siendo p el momento dipolar, E la intensidad del campo eléctrico y el ángulo que forman el eje del dipolo y el campo. A escala atómica, algunas moléculas tienen un momento dipolar permanente (como el agua), que influye de forma decisiva en algunas de sus propiedades químicas. Tales moléculas se denominan polares. Michael Faraday
Michael Faraday (1791- 1867) fue el primero en introducir el concepto de campo en el que se apoyan numerosas teorías modernas de la física.También se le considera uno de los fundadores del electromagnetismo y, en su honor, se ha llamado faradio a la unidad de capacidad eléctrica.
El alcance del campo eléctrico
Al duplicar el valor de la carga se dobla también la intensidad del campo eléctrico asociado, con lo que las líneas de campo se aprietan y duplican su densidad. Aunque en teoría la perturbación introducida por un campo eléctrico en el espacio se extendería ilimitadamente hasta el infinito, lo cierto es que sus efectos dejan de ser apreciables a partir de una distancia determinada. A grandes rasgos, puede decirse que el campo eléctrico predomina sobre otras interacciones desde la escala atómica (para distancias mayores de 10 -13 cm) hasta la macroscópica normal manejada en la Tierra. Para distancias menores son más intensas las fuerzas nucleares, mientras que en la escala cósmica predominan las gravitatorias.
Cargas eléctricas extensas Cuando las dimensiones del cuerpo que posee carga eléctrica no son insignificantes, se habla de carga extensa, y no puntual. En los cuerpos extensos cargados, se considera que: · La carga eléctrica total es igual a la suma de las cargas elementales que posee (por ejemplo, el número de partículas cargadas eléctricamente). · Todas las cargas libres de un conductor se distribuyen sobre su superficie, con lo que en el interior la carga eléctrica es nula. · El campo electrostático creado en el entorno del cuerpo se calcula como si toda su carga estuviera concentrada en su centro geométrico. Energía potencial electrostática. Condensadores Las cargas eléctricas engendran a su alrededor campos de fuerzas centrados en ellas. De esta forma, su sola presencia en el espacio genera una energía potencial electrostática, de manera que el movimiento de otra carga cualquiera en sus cercanías produce un trabajo útil, por efecto del campo. En este efecto de potencial se basan los condensadores, unos componentes muy comunes en los circuitos eléctricos y electrónicos. Energía potencial de una carga puntual Al campo electrostático asociado a una carga eléctrica puntual se asocia una energía potencial electrostática, que se define como el trabajo que hay que realizar para mover una carga desde una posición dentro del campo hasta el infinito. La energía potencial electrostática se expresa como:
siendo q la carga que crea el campo, q` la carga sometida a su acción, r la distancia que las separa y 0 la permitividad eléctrica del vacío. El trabajo y la energía potencial electrostática son cantidades aditivas. Así, en un sistema de cargas eléctricas puntuales, la energía potencial total se calcula como la suma de las energías potenciales individuales correspondientes a cada carga.
Esquema de un sistema de cargas puntuales. Potencial electrostático Los campos de fuerzas centrales, como el electrostático, pueden describirse por una magnitud escalar característica denominada potencial. Se define así el potencial electrostático en un punto de un campo eléctrico como la energía potencial de carga unidad situada en dicho punto. Matemáticamente:
En circuitos eléctricos, se usa comúnmente la magnitud conocida como diferencia de potencial entre dos puntos situados en un campo eléctrico.Tal diferencia de potencial se simboliza por V1-V2. Superficies equipotenciales En los campos electrostáticos existen conjuntos de puntos que poseen un mismo potencial electrostático. Tales conjuntos se denominan superficies equipotenciales, y su visión gráfica ofrece una idea rápida de la naturaleza del campo.
Superficies equipotenciales. En (a) las creadas por dos cargas del mismo signo. En (b) las engendradas por dos cargas de signo distinto. Capacidad de un conductor La relación entre la carga (Q) de un material conductor aislado y su potencial electrostático (V) se conoce por capacidad (C) del conductor, y posee un valor característico que depende de su composición y propiedades geométricas. La fórmula de la capacidad es:
Condensadores La capacidad de almacenamiento de carga es una de las cualidades básicas de los condensadores. En su diseño más sencillo, estos dispositivos están constituidos por dos láminas conductoras, llamadas armaduras, que poseen cargas iguales y signos contrarios, entre las que se interpone un medio no conductor (dieléctrico). La capacidad de un condensador se define como:
donde Q es la carga eléctrica de cualquiera de sus armaduras y V1 – V2 la diferencia de potencial que existe entre ellas. Los condensadores se usan para múltiples fines: almacenar energía eléctrica, crear campos eléctricos de intensidad especificada, formar circuitos eléctricos y electrónicos, etcétera. Trabajo y signo de la energía potencial De la fórmula de la energía potencial electrostática se deduce que cuando las dos cargas implicadas tienen igual signo (fuerzas repulsivas), la energía es positiva y para alejar la carga hasta el infinito no se requiere aplicar un trabajo externo. En cambio, para acercar las cargas habría que aportar energía (o trabajo). Si las cargas son de signo distinto (fuerzas atractivas), se precisa un trabajo externo para alejarlas mutuamente. Unidades de energía, trabajo y potencial
Dada la equivalencia entre energía y trabajo, la energía potencial electrostática se mide en julios (Sistema Internacional) y en ergios (sistema CGS). El potencial electrostático se define como el trabajo desarrollado por unidad de carga, y su unidad en el Sistema Internacional es el voltio (símbolo V). Un voltio (V) es igual a un julio (J) dividido por un culombio (C). Unidad de capacidad En el Sistema Internacional, la capacidad de los condensadores se mide en faradios (símbolo F). Un faradio es igual a un voltio dividido por un culombio (1 F = 1 V / 1 C). En los circuitos eléctricos y condensadores reales, el faradio es una unidad muy grande. Por ello, se suelen usar submúltiplos como el microfaradio (1 mF = 10-6 F), el nanofaradio (1 nF = 10-9 F) y el picofaradio (1 pF = 10-12 F).
La botella de Leyden
El condensador fue descubierto de forma un tanto accidental. En 1746, mientras experimentaba con artefactos eléctricos en su laboratorio, el profesor Musschenbroek dispuso una lámina metálica alrededor de una botella de vidrio e introdujo un alambre en su interior, atravesando el cuello. Al retirar el alambre después de someter la botella a un campo eléctrico intenso, el ayudante del profesor recibió una fuerte descarga: la carga eléctrica se había almacenado dentro de la botella.
Circuitos eléctricos. Ley de Ohm Las principales aplicaciones de la electricidad se obtienen del movimiento de las cargas eléctricas por los medios conductores. Estas cargas, que forman corrientes en su desplazamiento, se usan para transportar energía de unos lugares a otros de forma segura y eficaz. Corriente eléctrica
Toda carga sometida a la acción de un campo eléctrico tiende a moverse conforme a los siguientes principios:
Las cargas positivas pasan de puntos de mayor a menor potencial electrostático. Las cargas negativas tienden a desplazarse de los puntos de menor potencial del campo a los de potencial mayor. El movimiento de las cargas ordenado, continuo y sistemático se denomina corriente eléctrica. Para que se produzca esta corriente es necesario la presencia de cargas libres en el medio de conducción. Ejemplos comunes de corriente eléctrica son los movimientos de los electrones libres en los metales y de los iones en las disoluciones.
Corriente eléctrica generada por el movimiento de electrones libres en un metal.
Corriente eléctrica generada por iones en movimiento en el seno de una disolución. Intensidad de corriente La magnitud de una corriente eléctrica se determina por su intensidad, de símbolo I, que se define como la cantidad de cargas eléctricas que atraviesan una determinada superficie por unidad de tiempo. Es decir:
Circuitos eléctricos Una corriente eléctrica que fluye por un medio conductor cerrado sobre sí mismo constituye un circuito eléctrico. Dentro de un circuito pueden existir diversos componentes, como un generador (pila, batería), un hilo conductor (por ejemplo, de cobre u otro metal), condensadores, interruptores, etc. Por el principio de conservación de la carga, la intensidad de corriente de un circuito cerrado debe ser constante. Aunque en los circuitos habituales la corriente se debe al movimiento de los electrones (cargas negativas), tradicionalmente se creyó que las que se movían eran las cargas positivas. Así, aunque el sentido real de la corriente va, en general, del polo negativo al positivo, se ha convenido en asignar a la corriente eléctrica un sentido del polo positivo al negativo. Resistencia y resistividad Todo componente de un circuito eléctrico muestra una oposición, aunque sea mínima, al paso de la corriente. La magnitud que mide esta oposición, llamada resistencia eléctrica, se define como el cociente entre la diferencia de potencial entre dos puntos y la intensidad de corriente que circula por ellos:
La resistencia se mide en ohmios (símbolo ), donde 1 = 1 V / 1 A. Esta magnitud depende de las características geométricas del cuerpo y de un factor intrínseco del mismo llamado resistividad (símbolo ). La relación entre la resistencia eléctrica y la resistividad viene dada por:
siendo l la longitud del cuerpo y S su superficie. Ley de Ohm El valor de la resistencia de un conductor metálico es constante sea cual sea la intensidad de corriente que lo atraviesa y la diferencia de potencial existente entre sus extremos. Este principio se conoce como ley de Ohm (físico alemán que vivió entre 1789 y 1854).
Corriente eléctrica generada por iones en movimiento en el seno de una disolución. Las gráficas corresponden a tres conductores metálicos diferentes, de manera que la recta tiene una pendiente igual a la resistencia del conductor. Corriente continua y alterna Se llama corriente continua a aquélla en que el movimiento de cargas se produce de forma permanente y siempre en un mismo sentido. Este tipo de corriente es el que generan las pilas y las baterías. En la corriente alterna se utilizan dispositivos especiales para modificar, periódicamente y con gran rapidez, el sentido de la circulación de las cargas, de manera que cada fragmento de circuito conductor es atravesado varias veces por misma carga. Esta forma resulta más eficaz para el transporte y aprovechamiento de la energía. Para obtener corrientes alternas se usan generadores o alternadores. Unidad de intensidad de corriente La intensidad de corriente se mide en amperios (símbolo A). Un amperio equivale a un culombio dividido por un segundo (1 A = 1 C / 1 s). El amperio es una de las seis unidades fundamentales del Sistema Internacional. Símbolos de circuitos
Resistividad de algunos conductores y aislantes
Energía eléctrica y efecto Joule La propia idea de la existencia de campos y potenciales eléctricos se asocia de inmediato a la posibilidad de controlar las transferencias de energía entre las cargas para obtener un trabajo útil. Del éxito de los intentos científicos y tecnológicos por conocer y aprovechar la energía eléctrica dan cuenta las múltiples aplicaciones de la misma en las sociedades modernas. Fuentes de energía eléctrica En la producción de energía eléctrica a escala doméstica e industrial se utilizan múltiples fuentes y procedimientos:
Las pilas y las baterías generan energía eléctrica a partir de la producción energética de las reacciones químicas. Las dinamos transforman en eléctrica la energía mecánica del movimiento. Los generadores industriales y los alternadores se basan en el fenómeno de la inducción electromagnética para producir energía eléctrica de corriente alterna.
En la batería del automóvil se transforma energía química en eléctrica.
La dinamo de una bicicleta aprovecha la energía mecánica del desplazamiento para generar un haz de luz eléctrica. Energía de un conductor cargado En muchos dispositivos eléctricos, la energía obtenida de fuentes diversas se almacena temporalmente en cuerpos conductores y dieléctricos (por ejemplo, mediante condensadores). El valor de la energía eléctrica de un cuerpo conductor provisto de una carga eléctrica neta no nula se determina como el semiproducto de la capacidad de almacenamiento de carga por su potencial eléctrico elevado al cuadrado:
Energía y potencia de la corriente eléctrica En los mecanismos de conversión de diversas formas de energía a eléctrica se comunica a las cargas libres de los medios conductores una energía que puede determinarse como el producto de la carga por la diferencia de potencial a que se somete. En términos matemáticos:
Análogamente, la potencia eléctrica, definida como la variación de energía con respecto al tiempo, se puede expresar como:
De las equivalencias anteriores, sólo la última es universal, mientras que las que implican la presencia de una resistencia se aplican sólo a la conversión de energía en calor. Efecto Joule Una de las principales aplicaciones de la energía eléctrica proviene de su posibilidad transformación en calor. Esta conversión, conocida por efecto Joule, se explica como el resultado de los choques que experimentan las cargas eléctricas del cuerpo por que circula la corriente, que elevan así su temperatura. A partir de la equivalencia entre trabajo y calor (1 J = 0,24 cal) se obtiene la siguiente expresión matemática para el efecto Joule:
donde Q se expresa en calorías y las restantes magnitudes en las unidades del Sistema Internacional. El efecto Joule se aprecia en numerosos fenómenos cotidianos. Por ejemplo, se emplea para generar calor a partir de la electricidad mediante calefactores eléctricos. Pero también tiene efectos indeseables en los circuitos, ya que provoca el calentamiento de los motores eléctricos, de las bombillas de iluminación y de los cables, con el consiguiente riesgo de incendio y las perdidas de energía. Generadores de energía eléctrica
El calentador eléctrico convierte la energía eléctrica en calorífica Pila : de energía química a eléctrica. Batería : de energía química a eléctrica. Dinamo : de energía mecánica a eléctrica. Central hidroeléctrica : de energía cinética del agua a rotatoria (turbina) y eléctrica. Central térmica : de energía química de combustión a energía de vapor de agua, rotatoria (turbina) y eléctrica. Central nuclear : de energía nuclear a vapor de agua, energía rotatoria (turbina) y eléctrica Generador portátil : de energía química a rotatoria (motor) y eléctrica Unidades de potencia La potencia eléctrica se mide en vatios (símbolo W) en el Sistema Internacional. Un vatio se define como la variación de energía o trabajo de un julio en una unidad de tiempo de un segundo (1 W = 1 J / 1s). Pero también puede expresarse en términos de unidades eléctricas, como el producto de un voltio por un amperio. Asociación de resistencias y condensadores En el diseño de dispositivos eléctricos adquiere gran importancia no sólo la clase de elementos (condensadores, resistencias u otros) que contienen, sino también la forma de conectarlos entre sí. El esquema de asociación de resistencias y condensadores es vital para el cálculo de las intensidades de corriente y las diferencias de potencial de los circuitos eléctricos.
Resistencia equivalente La asociación de resistencias eléctricas puede considerarse conceptualmente como una única resistencia equivalente, cuyo valor se determina a partir de las magnitudes de las resistencias individuales asociadas y del esquema de conexión. En el cálculo de la resistencia equivalente se consideran sólo los elementos resistivos propiamente dichos, y no los cables u otros integrantes del circuito que poseen una resistencia eléctrica intrínseca, aunque baja. Resistencias en serie Cuando la corriente que circula por todas las resistencias de una asociación tiene la misma intensidad, se dice que éstas están conectadas en serie o en cascada. En un esquema de resistencias en serie varía la diferencia de potencial entre cada una de las resistencias asociadas.
La resistencia equivalente de una asociación en serie se calcula como:
Resistencias en paralelo Varias resistencias asociadas están dispuestas en paralelo cuando entre los extremos de todas ellas existe una misma diferencia de potencial. Sin embargo, por cada una circula una intensidad de corriente diferente.
En un esquema de resistencias en paralelo, la resistencia equivalente se calcula como:
Asociación de condensadores Al igual que ocurre con las resistencias, es posible asociar varios condensadores según distintos esquemas de conexión, de forma que todos ellos se comporten globalmente como si se tratara de un único condensador equivalente. La capacidad del condensador equivalente depende de la de los condensadores asociados y del tipo de disposición que se elija para ellos. Condensadores en serie En una forma común de asociación, varios condensadores pueden disponerse serie, o en cascada, cuando la armadura de cada condensador se une con la armadura de signo contrario del condensador siguiente:
La capacidad equivalente de una secuencia de condensadores en serie se calcula como:
Condensadores en paralelo En la asociación de condensadores en paralelo, se conectan entre sí las armaduras de igual signo de todos los condensadores, de forma que el circuito principal se divide en varias ramas:
El cálculo de la capacidad equivalente de una conexión en paralelo de condensadores se halla de la siguiente manera:
Código de colores de las resistencias
Multiplicador (potencia de diez) [por ejemplo, 1 equivale a 101 , 2 a 10 2 , etc]. El valor en ohmios de una resistencia se expresa mediante franjas codificadas de colores.
Clases de condensadores Según la naturaleza del dieléctrico interpuesto entre sus armaduras, los condensadores pueden ser de: · Papel impregnado o metalizado. · Cerámica. · Mica. · Plástico. · Aire. · Vacío. · Bipelícula (plástico-metal).
Aplicaciones de los condensadores Placas y memorias para ordenadores. Electroimanes. Dispositivos electrocerámicos. Micrófonos. Electroimanes. Dispositivos electrocerámicos. Micrófonos. Dieléctricos. Estabilizadores de corriente. Amplificadores de acoplamiento directo. Transmisores de impulsos. Generadores de radiofrecuencias. Fuerzas magnéticas. Los fenómenos magnéticos eran conocidos desde la Antigüedad, aunque su conexión con la electricidad no empezó a intuirse hasta bien entrado el siglo XVIII. Para el nacimiento del electromagnetismo como uno de los pilares de la ciencia moderna resultaron fundamentales las experiencias desarrolladas por el físico danés Hans Christian Oersted (1777-1851). Propiedades magnéticas Ya en la antigua Grecia se conocían los imanes naturales, sustancias que, como la magnetita, son capaces de atraer a otros metales, sobre todo al hierro. También se había constatado el fenómeno de la imantación, por el cual algunos cuerpos adquieren propiedades características de los imanes cuando se ponen en contacto con ellos.
Los imanes artificiales así creados pueden quedar imantados de forma temporal o permanente. El fenómeno de la imantación se denomina ferromagnetismo y las sustancias que lo experimentan, ferromagnéticas. Ejemplos de ellas son el hierro, el níquel y el cobalto. Interacción magnética El fenómeno del ferromagnetismo constituye un caso particular de interacción magnética. Entre dos imanes distintos se establecen fuerzas de repulsión o atracción que dependen de las posiciones relativas entre los imanes. Este comportamiento se explica por la existencia en los imanes de dos zonas de características opuestas, llamadas polo norte y polo sur, tales que, entre dos imanes:
los polos del mismo tipo se repelen, los polos de distinto tipo se atraen.
Los polos magnéticos del mismo tipo se repelen y los de distinto tipo se atraen. La fuerza de atracción o repulsión es inversamente proporcional a la distancia que existe entre los polos, lo que revela una analogía con la ley de Coulomb de la electrostática (ver t30). Las líneas de campo magnético Las interacciones magnéticas se pueden explicar como el resultado de la presencia de un campo de naturaleza vectorial, llamado campo magnético, comparable al eléctrico o al gravitatorio. El campo magnético se expresa visualmente mediante líneas de fuerza que, en los imanes, parten del polo norte y desembocan en el polo sur. Por tanto, las líneas de un campo magnético son siempre cerradas, dado que todo imán se comporta como un dipolo magnético.
Líneas de fuerza del campo magnético. Estas líneas nacen siempre en el polo norte magnético y se sumergen en el polo sur del imán. En la imagen se muestra también una brújula, que se orienta según la dirección del campo. Experimento de Oersted El campo magnético también aparece asociado a las cargas eléctricas en movimiento. Al situar la aguja imantada de una brújula en las proximidades del hilo conductor de un circuito eléctrico por el que fluye corriente, la brújula abandona su posición norte sur para reorientarse en una dirección perpendicular al hilo. Esta sencilla experiencia, realizada por el danés Oersted en 1819, ofreció la primera prueba de la relación entre la electricidad y el magnetismo. De su interpretación se deduce que las cargas eléctricas en movimiento generan en el espacio circundante un campo eléctrico y otro magnético de dirección perpendicular al anterior.
Experimento de Oersted. Al acercar la brújula al hilo conductor por el que circula corriente, la aguja imantada se orienta en dirección perpendicular al hilo.
La brújula La invención de la brújula, atribuida a los chinos, supuso un avance fundamental para el hombre. El invento es sencillo: si se suspende un imán de manera que quede horizontalmente en equilibrio, gira de forma que uno de sus extremos apunta aproximadamente al norte geográfico. Esta temprana aplicación del magnetismo resultó decisiva para el desarrollo de la navegación marítima y la orientación en tierra. El dipolo magnético Es bien sabido que al partir un imán se obtienen otros dos imanes con polos norte y sur en sus extremos. Estos polos no se pueden separar; es decir, no existe el monopolo magnético. Todo imán es, por tanto, un dipolo magnético con un momento magnético característico. A este momento magnético se asocian giros y pares de fuerza de gran importancia en los fenómenos electromagnéticos El campo magnético terrestre. La Tierra se comporta como un gigantesco imán cuyos polos magnéticos se hallan próximos a los geográficos, aunque con su denominación invertida (el polo sur magnético está cerca del norte geográfico, y a la inversa).
Fuerzas entre corrientes eléctricas. Primera ley de Ampère El experimento de Oersted, que puso de manifiesto la influencia magnética asociada a las cargas eléctricas en movimiento, dio paso a una conjetura que no tardó en demostrarse experimentalmente: las corrientes eléctricas que circulan por
hilos conductores próximos ejercen una influencia mutua de origen magnético que modifica sus magnitudes y propiedades. Interacciones magnéticas entre cargas en movimiento Dos corrientes eléctricas que circulan por elementos conductores próximos influyen una en otra según los siguientes principios:
Cuando las dos corrientes tienen el mismo sentido, los conductores se atraen entre sí. Si las corrientes circulan en sentidos contrarios, los conductores se repelen y se separan uno de otro. Las fuerzas de atracción y repulsión entre ambos conductores son de origen magnético, como demostró experimentalmente el físico francés André-Marie Ampère (1775-1836).
Los conductores de dos corrientes de igual sentido se atraen (a) y se repelen cuando las corrientes son de sentido contrario (b). Primera ley de Ampère Las propiedades de las interacciones magnéticas entre cargas en movimiento se resumen en un principio general conocido como primera ley de Ampère. Dadas dos cargas puntuales q1 y q2 , que se mueven con velocidades y sin aceleración, entre ellas se crean fuerzas de origen magnético definidas por las expresiones:
Fuerza de q1 en q2:
Fuerza de q2 en q1:
en ellas, es un vector unitario dirigido de q1 a q2 y , un vector unitario que va de q2 a q1. El valor de la constante de proporcionalidad es Km = 10 -7 N/A2 m2.
Fuerzas magnéticas entre cargas móviles. Consecuencias de la primera ley de Ampère De la expresión de la primera ley de Ampère pueden extraerse algunas conclusiones interesantes:
Su formulación matemática se asemeja a la ley de Coulomb de la electrostática, con la salvedad de que la fuerza magnética no aparece siempre, sino solo cuando las cargas eléctricas se mueven. Las interacciones entre cargas móviles no siguen la ley de acción y reacción, ya que F12 -F21 . Las cargas del mismo signo que se mueven en direcciones paralelas y en el mismo sentido se atraen entre si. Las cargas del mismo signo que se desplazan en paralelo en sentidos opuestos se repelen mutuamente. Interacción entre corrientes estacionarias Para aplicar la primera ley de Ampère a situaciones prácticas se recurre a corrientes que circulan por hilos conductores, en lugar de a cargas puntuales.
El elemento de corriente se define como un segmento infinitesimal de hilo conductor orientado en el sentido de la corriente y cuya longitud es insignificante comparada con las dimensiones globales del hilo. Dadas dos corrientes de intensidades I1 e I2 que circulan por hilos conductores próximos, la fuerza magnética que se establece entre dos elementos de corriente diferenciales y de cada hilo viene dada por:
Por tanto, la fuerza magnética engendrada entre corrientes eléctricas próximas es directamente proporcional al producto de las intensidades de corriente e inversamente proporcional al cuadrado de la distancia que separa a los conductores. André-Marie Ampère André-Marie Ampère (1775-1836) fue el fundador de la disciplina científica llamada electrodinámica, origen del electromagnetismo moderno. Fue autor de los dos principios que llevan su nombre y que constituyen la base de esta rama de la física.
Permeabilidad magnética La constante de proporcionalidad de la primera ley de Ampere, K M, se expresa también por medio de una constante llamada permeabilidad magnética del vacío, m0, según la relación KM = m0 / 4p. En un medio en general, la permeabilidad magnética determina la facilidad de imantarse de un cuerpo, y su valor en el vacío es m0 = 4p10-7 H/m. Campo magnético. Ley de Biot-Savart La descripción formal del campo magnético puede realizarse, sin recurrir a imanes o dipolos magnéticos, mediante modelos que expliquen dichos campos como fruto de las perturbaciones que provocan en el espacio circundante las cargas eléctricas móviles o, de forma equivalente, las corrientes eléctricas. La ley de BiotSavart sirve de base teórica para la definición de los campos magnéticos. La densidad de flujo magnético Todo elemento infinitesimal de corriente por el que circula una intensidad I engendra en el espacio circundante un campo magnético cuya magnitud depende del valor de la corriente y de la distancia a la que se mide la perturbación. Este campo viene definido por una magnitud vectorial llamada densidad de flujo magnético infinitesimal y, cuyo símbolo es .
Campo magnético engendrado en un punto P por un elemento de corriente, por el que circula una intensidad eléctrica I. Ley de Biot-Savart La densidad de flujo magnético infinitesimal permite calcular el valor total del campo magnético asociado a una corriente eléctrica que fluye por un circuito a partir de una simple operación de suma de los elementos infinitesimales de corriente. Matemáticamente, esta suma se expresa como una integral extendida a todo el circuito C, por lo que la densidad de flujo magnético asociada a una corriente viene dada por:
Esta ley fue definida, de forma aún rudimentaria, por los físicos franceses JeanBaptiste Biot (1774-1862) y Félix Savart (1791-1841). Fuerzas de Laplace y Lorentz Una vez establecido el valor del campo magnético asociado a un circuito de corriente eléctrica, es posible determinar su efecto sobre un segundo hilo conductor recorrido por otra corriente eléctrica. A escala infinitesimal, el valor de la fuerza que genera el campo inducido por la primera corriente en un elemento de corriente del segundo circuito se denomina fuerza de Laplace y se expresa como:
En el plano macroscópico, extendido a todo el circuito, la interacción se llama fuerza de Lorentz y se indica como:
siendo la velocidad del conductor dentro de un campo magnético. Estas fuerzas deben su nombre a los físicos francés Pierre-Simon de Laplace (1749-1827) y el neerlandés Hendrik A. Lorentz (1853-1928), respectivamente.
Fuerza entre dos elementos de corriente, explicada a través de los campos magnéticos inducidos. Campo magnético de una corriente rectilínea Una aplicación sencilla de la ley de Biot-Savart se refiere al campo magnético que genera una corriente rectilínea en el espacio que la rodea. A partir de la resolución de la integral de campo de la ley de Biot-Savart para este caso particular, se concluye que:
El modulo del campo magnético total en un punto cualquiera es inversamente proporcional a la distancia a que se encuentra del conductor. La dirección del campo es perpendicular al conductor. Su sentido se determina según la regla de la mano derecha, y coincide con el del giro de un tornillo con rosca a derechas, que avanzara en el sentido de la corriente.
Campo magnético engendrado por un conductor rectilíneo ilimitado por el que circula corriente. Magnitudes de campo magnético Para la descripción del campo magnético se utilizan varias magnitudes físicas relacionadas. La intensidad del campo magnético (simbolizada por ), mide el campo producido por las corrientes que circulan por hilos conductores. Por su parte, la densidad de flujo magnético , añade a la anterior los efectos derivados de las propiedades magnéticas del material, mediante un coeficiente denominado permeabilidad magnética m. Finalmente, la polarización magnética , ofrece una medida del momento intrínseco dipolar de los cuerpos, sin considerar los campos exteriores. Estas tres magnitudes están relacionadas por la siguiente expresión matemática:
Unidades de campo magnético La unidad de medida de la densidad de flujo magnético en el Sistema Internacional es el tesla (símbolo T).También se usa con frecuencia su equivalencia en el sistema CGS, el gauss (símbolo G), con la siguiente equivalencia: 1 T = 104 G. T = wb / m2
Dirección de la densidad de flujo magnético Según la ley de Biot-Savart, la densidad de flujo magnético es perpendicular al plano formado por la dirección de la corriente y el punto considerado, y su sentido sigue la regla de la mano derecha: hacia arriba, si para llegar del conductor al vector de posición del punto se gira a la izquierda, y hacia abajo, en caso contrario.
Nikola Tesla (1856-1943), investigador e inventor estadounidense de origen croata, fue el descubridor del campo magnético rotatorio en el que se basan los dispositivos actuales de corriente alterna. En su honor se llamó tesla a la unidad de densidad de flujo magnético en el Sistema Internacional.
Fuerza de Lorentz Se produjo un gran salto en los estudios eléctricos y magnéticos cuando se comprendió que al enrollar un hilo conductor en forma de espiras o solenoides se intensificaban enormemente los campos magnéticos asociados a la corriente eléctrica. Tal es el principio de los electroimanes y de los generadores eléctricos modernos. Segunda ley de Ampère Cuando se crea un campo magnético por el paso de una corriente eléctrica por un conductor, se cumple que el trabajo que realiza el campo en cualquier camino cerrado es proporcional a la intensidad de corriente que abarca dicho camino. Este principio se conoce como teorema de Ampère o segunda ley de Ampère, y se expresa matemáticamente como:
Una consecuencia importante que se desprende de este teorema es que el flujo del campo magnético a través de una superficie cerrada arbitraria es siempre cero, ya que las líneas del campo magnético son cerradas.
Intensidad magnética en un campo cerrado y orientado. Solenoides Un dispositivo capaz de generar campos magnéticos intensos a partir de corrientes eléctricas limitadas es un solenoide, formado por una sucesión de espiras de hilo conductor enrolladas en forma helicoidal por las que circula corriente. Los solenoides se caracterizan porque:
Entre dos espiras consecutivas, el campo magnético se anula, ya que la corriente circula en sentido contrario por cada una de ellas. En el centro del solenoide se acumulan los campos magnéticos engendrados por cada espira, por lo que la densidad de flujo magnético es máxima. El campo magnético en el centro de un solenoide tiene la siguiente magnitud:
siendo KM una constante de proporcionalidad, I la intensidad de corriente y n el número de espiras del solenoide. Por tanto, cuanto mayor es el número de espiras, más intenso es el campo.
Campo que produce un solenoide, nulo entre cada dos espiras y máximo en el centro.
El campo magnético que genera un solenoide tiene propiedades muy semejantes al de un imán de barra. Movimiento de una carga en un campo magnético En el interior de un campo magnético, las cargas eléctricas experimentan una fuerza, llamada de Lorentz (ver t38), que induce en ellas una aceleración definida como:
siendo q la carga, m la masa, la velocidad y la magnitud del campo. Espectrógrafo de masas Una aplicación del movimiento de cargas eléctricas en el seno de un campo magnético es el espectrógrafo de masas. Este dispositivo consta de un haz de isótopos ionizados (con carga eléctrica positiva) y de un generador de campo magnético constante , que modifica su trayectoria. Como su velocidad es perpendicular al campo, las partículas describen una trayectoria circular de radio:
Cada isótopo del átomo posee distinta masa, con lo que el radio de su trayectoria circular es también diferente. Así, el espectrógrafo de masas permite separar los diferentes isótopos de un mismo elemento, que no se podrían diferenciar por métodos químicos convencionales. Momento magnético Cuando en vez de una carga puntual se considera una corriente eléctrica que fluye por un circuito cerrado, la influencia de un campo magnético se manifiesta en:
Una fuerza magnética global nula, ya que las fuerzas ejercidas sobre distintos elementos de corriente se compensan unas a otras. Un momento de giro neto, que provoca la rotación del circuito según la orientación del campo magnético. El momento de giro inducido por el campo en el circuito se expresa como:
siendo la magnitud del campo y el momento magnético del circuito, que es un vector con la dirección y el sentido del campo generado por el circuito y cuyo módulo vale m = A · I, siendo A el área que comprende el circuito e I la intensidad de corriente. Electroimanes
El timbre eléctrico es una de las aplicaciones más sencillas de los electroimanes. Si se introduce una barra de hierro dulce en el eje central de simetría de un solenoide, se incrementa significativamente la intensidad del campo magnético generado por la corriente. Este dispositivo, que se conoce por electroimán, tiene numerosas aplicaciones en generadores y motores de corriente eléctrica, así como otros muchos dispositivos.
Ley de Faraday-Henry El experimento de Oersted puso de manifiesto que las corrientes eléctricas son capaces de engendrar campos magnéticos. Para completar la comprensión de las relaciones entre la electricidad y el magnetismo era necesario constatar el proceso inverso: cómo producir una corriente eléctrica a partir de un campo magnético. Los trabajos del británico Michael Faraday (1791-1867) y el estadounidense Joseph Henry (1797-1878) sirvieron para sentar definitivamente las bases del electromagnetismo. Experimento de Faraday
La creación de una corriente eléctrica en un circuito a partir de fenómenos magnéticos puede lograrse mediante un sencillo experimento ideado independientemente por Faraday y por Henry.
Experimento de Faraday. Cuando se mantiene en reposo un imán frente a un circuito eléctrico en forma de espira (a), el galvanómetro no detecta corriente. Si se acerca el imán al circuito (b), se produce corriente en un sentido, y cuando se aleja (c), el flujo de corriente toma sentido contrario. La interpretación que dio Faraday a este experimento es que la aparición de la corriente se debía a la variación que se producía al mover el imán en el número de líneas de campo magnético que atravesaban el circuito. Flujo magnético Para contar el número de líneas de campo que atravesaban el circuito en forma de espira de su experimento, Faraday definió el concepto de flujo magnético como el producto escalar de la densidad del campo magnético por el vector representativo del área de la espira (perpendicular a la superficie y con módulo igual a dicha área):
siendo el ángulo que forma la dirección del campo magnético con la normal a la superficie considerada. La anterior expresión es valida en campos magnéticos uniformes. Si el campo es no uniforme, el flujo magnético asociado se describe mediante una integral:
Ley de Faraday
En el experimento de Faraday-Henry se constata que si el flujo magnético cambia de manera brusca (por ejemplo, al mover el imán con mayor rapidez), la intensidad de corriente eléctrica inducida aumenta. La variación del flujo magnético con respecto al tiempo viene dada por la llamada ley de Faraday:
siendo la fuerza electromotriz (f.e.m.) generada por el campo magnético. Ley de Lenz El sentido de la corriente que circula por la espira del experimento de FaradayHenry se define según la llamada ley de Lenz (por el físico estonio Heinrich Lenz, 1804- 1865): la corriente inducida por un campo magnético variable adopta el sentido por el cual tiende a oponerse a la causa que la provoca.
Según la ley de Lenz, al acercar el imán al circuito se genera una corriente que induce un campo magnético que repele al imán (a). Cuando la barra imantada se aleja (b), la corriente generada engendra un campo que tiende a atraer al imán hacia el circuito. Unificación de las leyes de Faraday y Lenz Para unir las leyes de Lenz y Faraday en un único principio se define el concepto de espira orientada que es aquella en la que se ha establecido una cara privilegiada, llamada principal o positiva, donde se orienta el vector superficie . Entonces:
La f.e.m. inducida en la espira es positiva cuando la corriente generada tiene el sentido de las agujas del reloj, y negativa en sentido contrario. El flujo magnético que atraviesa una espira orientada es igual a , siempre que sea el vector representativo de la cara positiva. Energía magnética almacenada en un solenoide
Una consecuencia interesante de las leyes de Faraday y Lenz es la posibilidad de calcular la energía magnética que puede almacenar un solenoide dentro de un circuito. Esta energía viene dada por la expresión:
siendo L el coeficiente de autoinducción e I0 el régimen de intensidad o valor de la corriente que se alcanza después de cerrar el circuito. Unidad de flujo magnético
El campo magnético cambia de signo cuando se pasa de una cara a otra de la espira, ya que se modifica entonces el sentido de su vector de superficie representativo (en la dirección perpendicular). El flujo magnético se mide en el Sistema Internacional en una unidad llamada weber (símbolo Wb), que equivale a un campo magnético de un tesla (T) aplicado sobre una superficie de un metro cuadrado. Es decir: 1 Wb = 1 T / 1 m 2 .
Inducción mutua Cuando se sitúan próximos dos circuitos eléctricos por los que fluye una corriente variable, cada uno induce en el otro una f.e.m. que, según la ley de Lenz, tiende a oponerse a la f.e.m. que genera la corriente original del circuito. Este fenómeno se conoce como inducción mutua.
Autoinducción Cuando por un circuito aislado fluye una corriente eléctrica variable, se engendra un campo magnético también variable que induce, a su vez, una corriente eléctrica sobre el propio circuito. La f.e.m. inducida tiende a oponerse a la original del circuito, en un fenómeno llamado autoinducción.
Un solenoide con un número total de espiras N, un número de espiras por unidad de longitud n y un área de espira A tiene un coeficiente de autoinducción L = m0NnA. El coeficiente de autoinducción se mide en henrios (símbolo H). Generadores de corriente alterna. Circuitos eléctricos El aprovechamiento de los fenómenos eléctricos y magnéticos para producir energía y movimiento ha constituido una de las grandes preocupaciones de la ciencia y la ingeniería desde el siglo XIX. En la actualidad, el uso de generadores y motores con tales fines se ha hecho habitual en la mayoría de los ingenios utilizados a escala científica, industrial y doméstica. Generadores y motores La energía eléctrica puede utilizarse como fuente y destino de numerosas aplicaciones. Para su producción y aprovechamiento se usan dos clases generales de dispositivos:
Los generadores, que convierten algún tipo de energía (química, mecánica) en eléctrica. Los motores, que efectúan una transformación inversa y usan esa energía eléctrica para generar movimiento. Estos dos tipos de elementos pueden emplear corrientes continuas (que circulan siempre en el mismo sentido) o corrientes alternas (donde el sentido de la corriente se invierte periódicamente). Fuerza electromotriz y contraelectromotriz La acción de los generadores de corriente vienen definidos por una magnitud llamada fuerza electromotriz (f.e.m.), representada habitualmente por el símbolo . La f.e.m. se define como la energía eléctrica que comunica el generador a cada unidad de carga que circula por él:
En un circuito de corriente continua, la potencia del generador puede expresarse como el producto de la fuerza electromotriz por la intensidad de corriente. En los motores, las cargas eléctricas que los atraviesan pierden energía eléctrica, que se convierte en mecánica. Su característica principal es la fuerza
contraelectromotriz (símbolo ’), o energía eléctrica cedida por el motor a la unidad de carga eléctrica. Es decir:
Producción de energía eléctrica Los generadores de corriente alterna constituyen el medio industrial más común de producción de energía eléctrica. Estos dispositivos se basan en el aprovechamiento de los fenómenos de la inducción electromagnética. Según la ley de Faraday (ver t40), la fuerza electromotriz alterna inducida en la espira será: siendo B la densidad del campo magnético, A el área de la espira, la velocidad angular de giro y el ángulo formado por el campo magnético y el vector representativo del área (normal a la superficie). El signo (-) de la formula indica que la fueza eletromotriz incluida surge para oponerse al cambio en el flujo magnético que se produce en la espira.
Esquema básico de producción de energía eléctrica a partir de energía mecánica, que se basa en el uso de una espira susceptible de giro en sentido transversal a la dirección de un campo magnético uniforme. Alternadores
Los dispositivos generadores de corrientes eléctricas alternas se llaman alternadores. Un alternador consta básicamente de dos elementos: el rotor, que provoca el giro del conjunto, y el estator, que rodea al anterior y rota alrededor de su eje. Motores de corriente alterna Los generadores de corriente alterna o alternadores pueden utilizarse también como motores para generar energía mecánica a partir de la eléctrica. Para ello basta con conectar las escobillas de un alternador con otro generador de alterna, con el fin de inducir una reorientación y un giro indefinido de la espira del segundo alternador mientras exista aporte de corriente.
Al conectar entre sí dos alternadores y activar mecánicamente el primero, éste se convierte en un motor que induce un giro indefinido de la espira del segundo. Generadores de corriente continua
Corriente continua, con f.e.m. constante en el tiempo. En la industria se emplean dos tipos básicos de corriente continua: las pilas y las baterías, que transforman energía química en eléctrica, y las dinamos, que convierten en eléctrica la energía mecánica del movimiento.
Alternadores industriales
Los grandes alternadores usados en la industria emplean como fuente de energía mecánica saltos de agua (centrales hidroeléctricas) o la expansión del vapor de agua al ser sometido a temperaturas elevadas en centrales térmicas (por combustión de carbón) o nucleares (por fisión nuclear).
Frecuencias de la corriente alterna En Europa se emplean corrientes eléctricas generadas por alternadores para uso doméstico e industrial con una frecuencia de 50 ciclos por segundo o Hz (el rotor gira a 50 revoluciones por segundo, o 3.000 rpm). En América, la frecuencia de los alternadores es de 60 ciclos por segundo (3.600 rpm de giro del motor).
Circuitos de corriente alterna En la vida cotidiana, la mayoría de las fuentes de electricidad que alimentan las máquinas industriales, los electrodomésticos o los equipos informáticos suministran corriente alterna. El aprovechamiento de este tipo de corriente requiere usar dispositivos adecuados provistos de tres componentes esenciales combinados: resistencias eléctricas, condensadores y elementos de autoinducción. Circuito con resistencia La forma más sencilla de circuito de corriente alterna es la compuesta por un alternador y una resistencia simple, que se conoce también por circuito R. Por convenio, se supone que la fuerza electromotriz (f.e.m.) alterna tiene la forma , por lo que la intensidad de corriente equivale a , siendo e los valores máximos de estas dos magnitudes. La f.e.m. eficaz del circuito es , siendo ademàs
, y la intensidad eficaz se calcula como , siendo R la resistencia del circuito.
El valor de la potencia media o activa de un circuito R es igual a:
Este valor es siempre positivo, porque el circuito sólo absorbe potencia.
Circuito con solenoide Otra forma simplificada de circuito de corriente alterna es la constituida por un alternador y un solenoide o bobina, de coeficiente de autoinducción L (q se mide en Henrios). El valor de la intensidad de corriente instantánea en este circuito es:
De esta formula se obtiene que la intensidad máxima es la variable:
, de manera que
se describe con el nombre de reactancia inductiva y se mide en . Circuito con condensador El tercer tipo simple de circuito de corriente alterna está formado por un alternador y un condensador, y se llama también circuito C. Al comunicar la f.e.m. inicial , el condensador almacena una carga máxima , siendo C la capacidad del condensador. La intensidad de este circuito toma el valor:
siendo la intensidad máxima del circuito. El valor como reactancia capacitiva ().
se conoce
Circuito C. (a) Proceso de carga del condensador. (b) Conexión del circuito al alternador. (c) En cada semiperiodo de corriente alterna, las placas del condensador se cargan positiva y negativamente. Circuito RLC
El circuito de corriente alterna formado por alternador, resistencia, solenoide y condensador (llamado circuito RLC) tiene una f.e.m. eficaz dada por:
siendo
formada por tres componentes: resistencia eléctrica R. reactancia inductiva XL. reactancia capacitiva XC.
Frecuencia de resonancia y factor de potencia En un circuito RLC, la intensidad es máxima para valores mínimos de la impedancia. Para que la impedancia alcance un mínimo, las reactancias inductiva y capacitiva deben ser iguales, con lo cual:
Cuando se cumple esta condición, se dice que el circuito ha entrado en resonancia y el valor se llama frecuencia de resonancia. La potencia activa de un circuito RLC es igual a:
donde el valor cos . se llama factor de potencia y . es el ángulo que forman los factores correspondientes de la f.e.m. y de la intensidad de corriente. Esquemas
Esquema de un circuito R (corriente alterna sólo con resistencia).
Esquema de un circuito L (corriente alterna sólo con inductancia).
Representación gráfica de un fasor, vector giratorio que se utiliza comúnmente para ilustrar el comportamiento del voltaje (o tensión) y la corriente alterna.
Esquema de un circuito RLC, con resistencia, inductancia y capacitancia.
Transformadores de corriente. Transporte de energía La electricidad ha demostrado un gran potencial para la transformación y el aprovechamiento de la energía. Los transformadores y las líneas de alta tensión son, por distintos motivos, elementos esenciales, dentro de los equipos e instalaciones de electricidad, para la utilización eficaz de la energía eléctrica. Transformadores de corriente Los diversos equipos y elementos alimentados por corriente eléctrica utilizan con frecuencia distintos valores de voltaje. Para resolver los problemas que se derivarían de esta disparidad se usan los transformadores de corriente.
En esencia, un transformador consta de dos solenoides o arrollamientos conectados, que se conocen como primario (por el que entra la corriente a un determinado voltaje) y secundario (con una tensión o voltaje eléctrico de salida distinto del primario).
Esquema de un transformador elevador. Fórmulas de conversión de los transformadores Si se supone que en un transformador eléctrico no se producen pérdidas por efecto Joule ni otras formas de disipación de energía, y aplicando las leyes de Ohm y Faraday a estos sistemas, se obtiene que:
siendo la fuerza electromotriz aplicada al primario, V2 el voltaje resultante en el secundario y N1 y N2 el número de espiras o vueltas del primario y el secundario, respectivamente.
Si N2 > N1, el voltaje aumenta (transformador elevador). Si N2 < N1, el voltaje disminuye (transformador reductor).
En ausencia de pérdidas energéticas, se tiene que la potencia aparente, calculada como el producto de la intensidad eficaz por el voltaje eficaz, se conserva entre el arrollamiento primario y el secundario.
Al cerrar el secundario de un transformador se modifica la corriente que circula por el arrollamiento primario. El amperímetro interpuesto en el circuito de la ilustración detectará, en tal caso, el flujo de la corriente eléctrica.
Transporte de la energía eléctrica En la equivalencia de la potencia eficaz a ambos lados de un transformador se basa el principio del transporte de la energía por líneas de alta tensión. El principio de funcionamiento es el siguiente:
La corriente eléctrica obtenida de una fuente de energía primaria se hace pasar por una estación transformadora, donde se eleva el voltaje hasta miles de voltios (con la consiguiente reducción de la intensidad de corriente, ya que la potencia ha de conservarse). En el tránsito por las líneas eléctricas de los tendidos de alta tensión, las pérdidas por efecto Joule (proporcionales al cuadrado de la intensidad de corriente) son mínimas. En los lugares de consumo se utilizan transformadores para rebajar el voltaje a valores menos peligrosos para los usuarios (por ejemplo, a 220 V).
La energía eléctrica se transporta por líneas de alta tensión, con frecuencia por tendidos elevados entre torres eléctricas. Ahorro y eficacia energética La producción de energía eléctrica es cara, ya que obliga a construir instalaciones costosas (como centrales hidroeléctricas, térmicas y nucleares) que, además, tienen índices contaminantes elevados. Por ello, los gobiernos y las empresas eléctricas promueven periódicamente campañas de ahorro y racionalización del consumo, que se sustentan, entre otras, en las siguientes medidas:
Uso de motores eléctricos y lámparas de bajo consumo. Mejora de los aislamientos térmicos para evitar pérdidas en sistemas de calefacción y aire acondicionado. Empleo de sistemas de almacenamiento de energía en horarios de bajo consumo (tarifas nocturnas). Corrientes de Foucault
En los diseños reales de transformadores, los solenoides se arrollan alrededor de un núcleo de hierro dulce. El campo magnético inducido genera en el interior del hierro unas débiles corrientes circulares que originan una ligera pérdida de energía por disipación. Tales corrientes reciben el nombre de su descubridor, el francés Foucault. Jean-Bernard-Léon Foucault (1819-1868), físico francés, no sólo descubrió las corrientes que llevan su nombre, sino que también desarrolló una técnica muy precisa para medir la velocidad de la luz y diseñó el célebre péndulo con el que demostró experimentalmente el movimiento de rotación de la Tierra.
Seguridad en las líneas de alta tensión Las líneas de alta tensión encierran un doble peligro: el riesgo de electrocutación, por el elevado voltaje que transportan (miles de voltios), y los campos electromagnéticos que se les asocian, con efectos posiblemente nocivos sobre la salud humana. Por ello, dichas líneas transitan por tendidos eléctricos elevados o subterráneos, y deben mantenerse a una distancia mínima de las viviendas y los centros de trabajo.
Tarifa nocturna Para facilitar el ahorro y la optimización del aprovechamiento de la energía eléctrica en los sistemas de calefacción, se utiliza con frecuencia un sistema
llamado de tarifa nocturna. Como la producción de energía eléctrica no puede interrumpirse, este método permite almacenar la energía producida durante la noche (cuyo precio es más barato) para poder usarla después durante el día.
Concepto y medida de la temperatura La noción de frío y caliente responde a una de las percepciones sensoriales más comunes en el cuerpo humano. Esta idea intuitiva se ha plasmado en la teoría física en el concepto de la temperatura, una magnitud que expresa el valor de la transferencia de calor de unos cuerpos a otros y que se mide con termómetros y otros instrumentos. Temperatura y agitación térmica La magnitud física que se emplea para medir en términos físicos las sensaciones de caliente y frío se denomina temperatura. En un sentido teórico estricto, se han propuesto diversas interpretaciones para la temperatura. Desde un punto de vista microscópico, la temperatura se considera una representación de la energía cinética interna media de las moléculas que integran el cuerpo considerado. Esta energía cinética se manifiesta en forma de agitación térmica, que resulta de la colisión entre las moléculas del cuerpo y puede llegar a ser muy energética. En el plano macroscópico, el incremento de la temperatura produce diversos efectos perceptibles o mensurables, como un aumento del volumen del cuerpo, la disminución de la densidad, el cambio de estado o la modificación del color (por ejemplo, enrojecimiento). La temperatura se mide en grados, cuya definición depende de las escalas térmicas consideradas: Celsius, Fahrenheit, absoluta (Kelvin), Réaumur, etc. (ver t17). En el Sistema Internacional, la unidad de temperatura es el Kelvin (símbolo K).
A escala microscópica, la temperatura es proporcional al grado de agitación interna de las moléculas que integran un cuerpo. Magnitudes termométricas
Los cambios de temperatura provocan alteraciones en las propiedades físicas de los cuerpos sobre los que actúan. Las cualidades de los cuerpos que se alteran con la temperatura se denominan magnitudes termométricas, algunas de las cuales son:
El color (por ejemplo, el hierro enrojece al calentarse por encima de cierta temperatura). El volumen: la mayoría de los sólidos y los líquidos se dilatan al calentarse; lo mismo sucede con los gases, siempre y cuando lo permita el recipiente que los contiene. La resistencia eléctrica de los conductores aumenta, en general, con la temperatura.
El color de un cuerpo es, en ocasiones, una magnitud termométrica, ya que cambia con la temperatura. Equilibrio térmico Cuando se ponen en contacto dos cuerpos con temperaturas diferentes, las moléculas que se encuentran en la frontera entre ambos experimentan colisiones hasta que las temperaturas respectivas de los cuerpos se equiparan. Finalmente, se alcanza una situación de equilibrio térmico, que resulta de gran utilidad en los procedimientos de medición de las temperaturas.
Dos sistemas a diferentes temperaturas puestos en contacto terminan por alcanzar una situación de equilibrio térmico. Termómetros El instrumento más común de medida de la temperatura es el termómetro. El primero de estos instrumentos fue ideado en 1603 por el científico italiano Galileo Galilei, se basaba en el principio por el cual una columna de agua encerrada en un tubo se dilata al aumentar la temperatura y se contrae cuando ésta disminuye. En los termómetros modernos se emplean columnas de mercurio, alcohol u otros líquidos. Cuando se trata de medir temperaturas muy elevadas se usan termómetros especiales y unos aparatos llamados pirómetros, que se basan en fenómenos ópticos y termoeléctricos y permiten medir hasta 4.000 ºC, aproximadamente.
Esquema de un pirómetro, un instrumento de medida de temperaturas muy elevadas que convierte en una corriente eléctrica mensurable la luz que procede de un cuerpo incandescente. Termopares Otro instrumento de medición de temperaturas es el termopar, un dispositivo constituido por la unión de dos metales diferentes (por ejemplo, cromo y níquel). La variación de temperatura induce una diferencia de potencial eléctrico entre ambas partes del termopar, según un fenómeno conocido como efecto Seebeck, cuyo valor depende de la temperatura del conjunto.
Límites de la temperatura
Los termómetros se suelen calibrar con las temperaturas de fusión y ebullición del agua. La temperatura más baja contemplada en la física se denomina cero absoluto y corresponde a –273,15 ºC. En cambio, no se conoce un límite superior para los valores de la temperatura, que pueden alcanzar millones de grados en las estrellas.
Temperatura del cuerpo humano El británico Robert Boyle fue el primero en descubrir, en el siglo XVII, que la temperatura del cuerpo humano es aproximadamente constante y superior a la del ambiente. Los termómetros especiales para medirlas, llamados clínicos, están graduados entre 34,5 ºC y 43 ºC, aunque la temperatura normal del cuerpo se sitúa entre 36 y 37 ºC.
Termómetro de Fahrenheit En 1714, el físico alemán Gabriel Fahrenheit construyó el primer termómetro de mercurio. Rellenó para ello una ampolla con este líquido, que puso en contacto con una mezcla de hielo y sal; después soldó a la ampolla un tubo capilar y graduó la altura a la que ascendía el líquido como valor de la temperatura de fusión del agua. Más tarde, introdujo el dispositivo en agua hirviendo y marcó una nueva señal en el tubo, correspondiente a la altura alcanzada por el mercurio, para el punto de ebullición del agua.
Calor y energía: fuerzas disipativas El calor es una noción intuitiva fácil de entender pero difícil de explicar en términos sistemáticos. Algunos destacados científicos propugnaron que se trataba de un misterioso fluido material que se transfería de unos cuerpos y sistemas a otros. Modernamente, se ha explicado, sin embargo, como una de las manifestaciones más comunes de la energía. Teoría del calórico Una de las primeras teorías propuestas para explicar la naturaleza del calor defendía, a principios del siglo XIX, la existencia de un fluido material invisible que se transfería de unos cuerpos a otros y provocaba el calentamiento o enfriamiento de los mismos. Este fluido se conoció por calórico y, supuestamente, impregnaba los cuerpos y se liberaba al quemarlos. La hipótesis del calórico fue progresivamente abandonada, ya que no podía explicar numerosos fenómenos de calentamiento (por ejemplo, al taladrar un metal). A finales del siglo XIX, el inglés James Prescott Joule (1818-1889) demostró concluyentemente que el calor es una manifestación de la energía. Energía, calor y trabajo Una experiencia desarrollada por J. P. Joule en las postrimerías del siglo XIX permitió demostrar la equivalencia entre calor y trabajo. Este experimento se basaba en el uso de una cubeta de agua con unas paletas giratorias conectadas a un peso a través de una polea. Al descender el peso por efecto de la gravedad, se producía una elevación de la temperatura del agua, lo que ponía de relieve que el trabajo podía transformarse en calor.
Experiencias sucesivas revelaron que el calor y el trabajo son magnitudes equivalentes, ambas como manifestaciones diferentes de la energía.
Ilustración de la experiencia de Joule para demostrar la equivalencia entre calor y trabajo. Energía en tránsito La temperatura de un cuerpo es, en términos microscópicos, un efecto de la agitación de sus moléculas que entran en colisión y producen calor. Cuando un cuerpo se enfría, sus moléculas se agitan con más lentitud, de manera que, aparentemente, ha desaparecido parte de la energía del sistema. Sin embargo, esta energía transita en realidad hacia otros cuerpos en diversas formas o sistemas, principalmente como calor, trabajo, luz u otro tipo de radiación. Cuando un cuerpo recibe calor externo, el efecto más significativo es un aumento de su temperatura. La transferencia calorífica de unos cuerpos a otros se produce en tres formas posibles: conducción, convección y radiación. Conducción del calor Una de las formas más comunes de transferencia calorífica es la conducción, que tiene lugar dentro de un cuerpo cuando dos de sus partes tienen temperaturas diferentes.
Cuando los dos extremos de una barra tienen diferentes temperaturas, se produce conducción de calor de uno a otro. La transferencia de calor produce un flujo calorífico definido como el cociente entre el calor transferido y la unidad de tiempo.
Experimentalmente, se deduce que el flujo calorífico es directamente proporcional a la sección S del cuerpo y a la diferencia de temperatura por unidad de longitud (ley de Fourier).
El factor k recibe el nombre de coeficiente de conductividad térmica, y es característico de cada sustancia. Convección y radiación calorífica Además de la conducción, existen en la naturaleza otras dos formas de transferencia de calor:
Convección, propia de los fluidos (líquidos y gases), donde existe un movimiento físico de las masas del fluido en sentido vertical, en las denominadas corrientes convectivas. Radiación, que se produce en medios no materiales, como espacio interplanetario, y hace posible, por ejemplo, que llegue a la Tierra el calor que despide el Sol.
En la transferencia calorífica por convección, propia de los fluidos, se produce también desplazamiento de la masa de líquido o de gas, arrastrada por las corrientes convectivas. Efectos del calor La transferencia o la extracción del calor en los cuerpos puede suscitar diversos efectos físicos, aparte del cambio de temperatura. Los más corrientes son la dilatación o contracción de sus dimensiones y los cambios de estado (de sólido a líquido, de líquido a gas, de gas a sólido, etc).
Medida del calor La unidad en que se mide el calor es la caloría (en abreviatura, cal), que se define como el calor que ha de comunicarse a un gramo de agua para que su temperatura aumente en 1 ºC. Por la equivalencia mecánica del calor, se tiene que una caloría equivale a 4,18 julios.
Fuerzas disipativas Las fuerzas que convierten la energía mecánica (trabajo) en calor se denominan disipativas. Un ejemplo típico de fuerza disipativa es el rozamiento, que se opone al movimiento de los cuerpos por fricción de sus partículas con las moléculas del
medio que los rodea (por ejemplo, el aire o el firme del asfalto frenan el movimiento de un vehículo y calientan los neumáticos).
El calor y los seres vivos El valor de la temperatura es un factor esencial para el desarrollo de los seres vivos en sus diversos ambientes. Este valor resulta determinante para que tengan lugar las reacciones que rigen el metabolismo de los animales y la evolución de las plantas.
Intercambios generales de energía. Primer principio Del estudio del calor y sus relaciones con el trabajo y la energía surgió una nueva disciplina de la física, llamada termodinámica. Esta rama científica, desarrollada a partir del siglo XIX, se vinculó pronto a los métodos y procedimientos propios de la mecánica estadística y, con posterioridad, estuvo estrechamente asociada al desarrollo de la física cuántica. Energía interna El calor y el trabajo no son magnitudes características de los cuerpos y los sistemas, sino de las interacciones que se producen entre ellos. Para explicar la naturaleza de estas interacciones se ha introducido un concepto denominado energía interna de un sistema físico, que se entiende como la suma de las energías cinética y potencial de todas sus partículas constituyentes. Es decir:
siendo ECI la energía cinética interna, EPI la energía potencial interna y EI la energía mecánica interna total. En la energía interna total de un sistema se verifica que:
La energía cinética interna total es proporcional a la temperatura y a la cantidad de materia que contiene el sistema. La energía potencial interna total depende de las fuerzas internas del sistema físico en cuestión, y puede adoptar la forma de energía química, elástica, gravitatoria u otras.
Las moléculas de una nebulosa se mantienen unidas entre sí merced a los efectos de la acción gravitatoria y de la energía potencial que se le asocia. Conservación de la energía En un sistema aislado, la energía interna total siempre se conserva. Esta ley fundamental de la naturaleza, que se conoce como principio de conservación de la energía, supone que las energías cinética y potencial totales de un sistema aislado pueden cambiar siempre y cuando la suma de ambas permanezca constante.
Primer principio de la termodinámica La ley de conservación de la energía interna puede enunciarse también diciendo que, en un cierto proceso, la variación de la energía interna de un sistema equivale al calor intercambiado con el ambiente y al trabajo realizado por las fuerzas de interacción entre sistema y ambiente. Conocido como primer principio de la termodinámica, este enunciado se expresa matemáticamente de la forma siguiente:
siendo EI la variación de la energía interna del sistema, Q el calor intercambiado y W el trabajo realizado. Debido a la convención de signos comúnmente aceptada, la energía calorífica Q absorbida por un sistema se invierte en incrementar la energía interna y en realizar un trabajo, de manera que el primer principio de la termodinámica se escribiría preferiblemente como:
Equivalencia entre calor y trabajo Un ejemplo ilustrativo de la equivalencia entre calor y trabajo como efecto del primer principio de la termodinámica es un sistema compuesto por un gas encerrado en un cilindro con un émbolo móvil.
Cuando se expande el gas, se efectúa un trabajo tendente a contrarrestar la presión atmosférica externa. Al expandirse el gas, se realiza un trabajo final igual a:
siendo W el trabajo realizado, F la fuerza que se ejerce, x el desplazamiento del émbolo, P la presión del gas y V el incremento de su volumen. Si se extiende esta noción a los gases ideales en condiciones de temperatura constante, se cumple que:
La termodinámica El estudio sistemático de las relaciones entre energía, temperatura, calor y trabajo recibe el nombre de termodinámica. Esta ciencia se desarrolló desde el siglo XIX merced a las contribuciones de numerosos investigadores destacados, entre los que cabe mencionar al francés Sadi Carnot, el alemán Rudolf Clausius y el austriaco Ludwig Boltzmann.
Entropía El segundo principio de la termodinámica establece una relación entre el calor y la temperatura a través de una magnitud denominada entropía (símbolo S) y representada por: TDS = DEI + P DV, siendo T la temperatura, DS la variación de entropía, DEI la variación de energía interna, P la presión y DV el cambio de volumen. La entropía es una magnitud que mide el grado de desorden de un sistema, esto es, la cantidad de energía presente en el mismo que no es recuperable en forma de trabajo útil.
Interpretación microscópica de la temperatura Para el conocimiento de la temperatura y otras propiedades visibles de la materia (viscosidad, conducción eléctrica, etcétera) se recurre con frecuencia a la observación de las características microscópicas de los átomos y las moléculas que integran los cuerpos. En este estudio comparado se basa la estrecha relación surgida entre la termodinámica y la mecánica estadística. Gases ideales Al analizar el comportamiento de un gas diluido desde el punto de vista termodinámico, se observa que:
A presión constante, el volumen del gas es directamente proporcional a la temperatura expresada en grados absolutos. Cuando lo que se mantiene constante es el volumen, la presión es entonces proporcional a la temperatura absoluta. Estos dos fenómenos son manifestaciones de una ley más general que descubrieron independientemente Robert Boyle (1627-1691) y Edmé Mariotte (1620-1684), según la cual el producto de la presión P por el volumen V de un gas ideal es directamente proporcional a su temperatura T. Es decir:
siendo A una constante de proporcionalidad.
Gráfica presión-volumen de un gas ideal. La representación es una hipérbola cuyo trazado depende del valor de la temperatura. Ecuación de los gases perfectos El factor A de la ley de Boyle-Mariotte es proporcional al número de moléculas que contiene el sistema, con lo que dicha ley se convierte en:
siendo N el número de moléculas del cuerpo y k la llamada constante de Boltzmann. La ecuación anterior puede también escribirse del modo siguiente:
Esta expresión se conoce por ecuación de estado de los gases perfectos, donde n es el número de moles del gas y R la llamada constante universal de los gases perfectos, cuyo valor es:
Temperatura y energía cinética La energía cinética de un gas ideal está relacionada con la temperatura a que se encuentran sometidas sus partículas. Por otro lado, cada molécula del gas ejerce sobre las paredes del recipiente que lo contiene una fuerza F tal que su impulso es igual a la cantidad de movimiento de la molécula:
siendo t el intervalo de tiempo transcurrido, N s el número de moléculas del cuerpo, m la masa de la molécula y Vp la velocidad media en dirección normal a la superficie.
(a) Las moléculas de un gas rebotan con las paredes del recipiente a la misma velocidad con que inciden sobre ella, con lo que la cantidad de movimiento varía en un valor doble con respecto al de entrada. En (b), recorrido de la molécula en el intervalo t, igual al producto de la velocidad media por dicho intervalo. Energía cinética media A partir de consideraciones mecánicas y termodinámicas, se llega a la conclusión de que la energía cinética media de cada molécula de un gas ideal es directamente proporcional a la temperatura expresada en la escala absoluta (grados kelvin). En términos matemáticos, la relación anterior se formula como:
donde Ec es la energía cinética media, Vp la velocidad media de la partícula, m su masa, T la temperatura absoluta y k la constante de proporcionalidad de Boltzmann. Cantidad de materia La cantidad de materia es una de las magnitudes fundamentales de la física en el Sistema Internacional, y se mide en moles. Un mol es la cantidad de materia equivalente a 6,022 x 1023 partículas (átomos, moléculas o iones), cantidad que se conoce por número de Avogadro.
Constante de Boltzmann
La constante de Boltzmann fue introducida por el físico austriaco Ludwig Boltzmann (1844-1906) dentro del contexto de la física estadística. El valor de esta constante en el Sistema Internacional es k = 1,38 · 10-23 J/K.
Mecánica estadística La rama de la física conocida como mecánica estadística se encarga de explicar la relación entre las propiedades de los átomos (masa, carga, estructura) y las características visibles de la materia, entre ellas la temperatura. El fundador de esta disciplina fue el físico austriaco Ludwig Boltzmann (1844-1906). Escalas de temperatura La medida de la temperatura ambiental se ha venido realizando, de forma más o menos sistemática, desde los tiempos del Renacimiento. En los siglos sucesivos, se han propuesto varias escalas de medida de temperaturas, basadas principalmente en los puntos de fusión y ebullición del agua como valores de referencia. Entre ellas, la más utilizada en la vida cotidiana es la escala centígrada o Celsius. En cambio, en el ámbito científico se utiliza predominantemente la escala absoluta o Kelvin. Medida de la temperatura La temperatura se mide por medio de diversos instrumentos y dispositivos, de los que el más conocido es el termómetro de mercurio. En esencia, todos estos instrumentos se basan en la observación de las llamadas magnitudes termométricas, que son cualidades de los cuerpos susceptibles de modificación por efecto de los incrementos o los descensos de temperatura (por ejemplo, el hierro se enrojece al calentarse). En los procedimientos de medida aplicados se sustentan las principales escalas termométricas hoy día utilizadas, y que se basan en los puntos de fusión y ebullición del agua para determinar las escalas de graduación de sus valores. Escala Celsius El termómetro de mercurio, corrientemente utilizado para medir temperaturas, consiste en una columna de mercurio encerrada en un tubo capilar, de manera que al variar la temperatura se modifica la altura del líquido dentro de la columna.
La relación entre la temperatura T y la diferencia de altura de mercurio en el tubo responde a una función lineal de la forma:
siendo m la pendiente de la función y b el valor inicial sobre el origen. Los valores de m y b dependen de la escala termométrica elegida, y suelen fijarse asignando a los puntos de fusión y ebullición del agua valores convencionales concretos. La escala Celsius, también llamada centígrada, asigna el valor 0 a la temperatura de fusión del agua y el valor 100 al punto de ebullición del agua, en condiciones de presión normal (igual a 1 atmósfera).Entre estos dos valores se define una escala dividida en cien tramos, cada uno de los cuales corresponde a un grado centígrado o Celsius. Esta escala, muy utilizada en la vida cotidiana en numerosos países del mundo, admite valores negativos (también referidos como temperaturas «bajo cero»).
Representación gráfica de la temperatura, a modo de una función lineal. Escala Fahrenheit En la función lineal de la temperatura con respecto a la longitud, es posible elegir los valores de referencia para m y b de otras muchas maneras. En la actualidad, en los países anglosajones aún sigue usándose la escala Fahrenheit, establecida de manera que:
Al punto de congelación del agua en condiciones de presión normal (1 atmósfera) se le asigna el valor 32. Al punto de ebullición normal del agua se le atribuye el valor 212.
Las relaciones que permiten pasar de un valor en escala Celsius (T C) y a la inversa a Fahrenheit (T F) son las siguientes:
Escala absoluta El descubrimiento de que la temperatura posee un valor mínimo insuperable, estimado en –273,15 ºC, propició que, en el ámbito científico, se adoptara como base de referencia de la medida de temperaturas la escala absoluta o Kelvin. Esta escala elige como valor origen el –273,15, también llamado cero absoluto, de manera que la equivalencia entre la escala absoluta y la Celsius viene dada por la expresión siguiente:
La unidad de temperatura en el Sistema Internacional es el kelvin.
Gráfica de representación de la escala absoluta o Kelvin. La recta que refleja la función lineal corta al eje de abscisas en el punto de valor –273,15. El termómetro de gas diluido En la medida de temperaturas mediante termómetros se encuentra una dificultad añadida por el hecho de que las magnitudes termométricas utilizadas (por ejemplo, la longitud de una columna de líquido) no son exactamente lineales. Ello introduce un error de medida que puede llegar a ser considerable. Para evitar este problema se usan termómetros de gas diluido, de mayor precisión, y que se basan en el uso de un gas encerrado en un recipiente con un émbolo (para mantener constante la presión y medir variaciones de volumen como magnitud termométrica) o en un dispositivo que permita mantener constante el volumen del gas para determinar las variaciones de su presión (que se usaría como magnitud termométrica para medir temperaturas).
William Thomson El aristócrata escocés William Thomson (1824- 1907), conocido también como barón Kelvin, fue uno de los científicos más eminentes del siglo XIX, y proyectó su influencia sobre un gran número de pensadores de su generación. El nombre dado a la unidad de temperatura en el Sistema Internacional, el kelvin, pretende ser un homenaje a la contribución de este destacado científico en el campo de la termodinámica.
Cero absoluto El valor llamado cero absoluto de temperaturas (origen de la escala absoluta o Kelvin) equivale a –273,15 ºC. Según la teoría física, este valor es inalcanzable para cualquier partícula material, dado que en él las partículas no tendrían ninguna energía cinética interna, alcanzando un estado de quietud total.
Otras escalas Además de las tres escalas de temperatura más conocidas (absoluta o Kelvin, Celsius y Fahrenheit), se han propuesto otras de utilidad en determinados campos de la ciencia y la técnica. Entre ellas, sobresalen la escala Rankine (ºR), preferida en ciertos ámbitos de la ingeniería, que es una escala absoluta cuya división en grados se basa en la Fahrenheit y no en la Celsius; y la escala Réaumur (ºRe), donde el intervalo se divide en 80 grados y el origen se sitúa en el punto de congelación del agua.
Calorimetría. Capacidad calorífica y calor específico En un sentido amplio, la calorimetría se desarrolló históricamente como una técnica destinada a fabricar aparatos y procedimientos que permitieran medir la
cantidad de calor desprendida o absorbida en una reacción mecánica, eléctrica, química o de otra índole. Esta disciplina, encuadrada dentro de la termodinámica, se ha especializado sobre todo, con el paso del tiempo, en la determinación del calor específico de los cuerpos y los sistemas físicos. Capacidad calorífica Como regla general, y salvo algunas excepciones puntuales, la temperatura de un cuerpo aumenta cuando se le aporta energía en forma de calor. El cociente entre la energía calorífica Q de un cuerpo y el incremento de temperatura T obtenido recibe el nombre de capacidad calorífica del cuerpo, que se expresa como:
La capacidad calorífica es un valor característico de los cuerpos, y está relacionado con otra magnitud fundamental de la calorimetría, el calor específico.
Para elevar la temperatura de 1 g de agua en 1 ºC es necesario aportar una cantidad de calor igual a una caloría. Por tanto, la capacidad calorífica de 1 g de agua es igual a 1 cal/K. Calor específico El valor de la capacidad calorífica por unidad de masa se conoce como calor específico. En términos matemáticos, esta relación se expresa como:
donde c es el calor específico del cuerpo, m su masa, C la capacidad calorífica, Q el calor aportado y T el incremento de temperatura. El calor específico es característico para cada sustancia y, en el Sistema Internacional, se mide en julios por kilogramo y kelvin (J/(kg·K)). A título de ejemplo, el calor específico del agua es igual a:
Del estudio del calor específico del agua se obtuvo, históricamente, el valor del equivalente mecánico del calor, ya que:
Calorimetría La determinación del calor específico de los cuerpos constituye uno de los fines primordiales de la calorimetría. El procedimiento más habitual para medir calores específicos consiste en sumergir una cantidad del cuerpo sometido a medición en un baño de agua de temperatura conocida. Suponiendo que el sistema está aislado, cuando se alcance el equilibrio térmico se cumplirá que el calor cedido por el cuerpo será igual al absorbido por el agua, o a la inversa.
Método de medida de calores específicos. Al sumergir un cuerpo en agua de temperatura conocida, cuando se alcanza el equilibrio térmico, el calor cedido por el cuerpo es igual al absorbido por el agua. Como la energía calorífica cedida ha de ser igual a la absorbida, se cumple que:
siendo m la masa del cuerpo sumergido, c su calor específico, T la temperatura inicial del cuerpo, ma la masa de agua, ca el calor específico del agua, T a la temperatura inicial del agua y Tf la temperatura final de equilibrio. Todos los valores de la anterior expresión son conocidos, excepto el calor específico del cuerpo, que puede por tanto deducirse y calcularse de la misma. Calor específico de los gases En el caso de los gases, ha de distinguirse entre calor específico a volumen constante (cv) y a presión constante (cp). Por el primer principio de la
termodinámica, y dado que el calentamiento de un gas a volumen constante no produce trabajo, se tiene que:
En el caso particular de gases diluidos, la vinculación entre el calor específico a presión y a volumen constante sigue la llamada relación de J. R. Mayer (18141878):
siendo Nm el número de moles por unidad de masa y R la constante universal de los gases perfectos. Tabla de calores específicos
Poder calorífico Se llama poder calorífico al calor que se libera en el proceso de combustión de un cuerpo, llamado combustible. El poder calorífico se mide como la cantidad de calorías o kilocalorías que se desprenden en la combustión de 1 kg de masa del material combustible.
Tabla de poderes caloríficos
Cambios de estado. Calores latentes Uno de los efectos más comunes del aporte de energía calorífica es el cambio de estado de los cuerpos. Es bien conocido que el hielo, al calentarse, se convierte en agua líquida, y que ésta se transforma en vapor por encima de cierta temperatura. Esta sucesión de fases se reproduce, en distintas formas y con rasgos diferentes, en todas las sustancias de la naturaleza. Cambios de estado Durante los procesos de cambio de estado o de fase de un cuerpo no se produce un incremento de temperatura cuando se aporta calor. En la mayoría de las sustancias, cabe distinguir los siguientes tipos de cambios de estado:
Esquema gráfico de los cambios de estado.
Fusión, de estado sólido a líquido. Sublimación, de sólido a gas o a la inversa, sin pasar por el estado líquido. Vaporización o evaporación, de líquido a gas. Condensación, de vapor a líquido. Solidificación, de líquido a sólido.
Estos cambios de fase se deben a modificaciones en la estructura molecular íntima de los cuerpos por efecto de la aportación de una energía calorífica. Calores latentes El calor necesario para provocar el cambio de estado completo de una unidad de masa de la sustancia dada se denomina calor latente. Para cada proceso de cambio de estado existe un calor latente distinto (por ejemplo, calor latente de fusión, de vaporización, de condensación, etc). Así, el calor latente de fusión es la cantidad de calor necesaria para fundir completamente una masa m de un sólido, y se expresa como:
Los calores latentes de vaporización, condensación, sublimación, etc., se definen de forma análoga a la anterior. Todos los calores latentes son parámetros característicos de cada sustancia, y su valor depende de la presión a la que se produzca el cambio de fase para la misma. Dilatación de sólidos y líquidos Otro efecto muy común de la transferencia de energía calorífica a un cuerpo es aumento de su volumen o de sus dimensiones. Los cuerpos sólidos se dilatan por efecto del calor, de manera que es posible distinguir entre dos tipos de efectos:
Dilatación lineal, en una sola dirección, que sería la que experimentaría un cuerpo de sección despreciable y una longitud L dada sometido a una temperatura T. Dilatación cúbica, propia de cuerpos tridimensionales que experimentan un incremento de sus dimensiones en todas las direcciones del espacio. Sea el caso de la dilatación lineal. El valor DL de incremento de la longitud del sólido dependerá de la temperatura y de un parámetro conocido como coeficiente de dilatación lineal , que se define como:
donde L es la longitud original del cuerpo. Análogamente, el coeficiente de dilatación cúbica se define como:
siendo V el volumen original del cuerpo.
Es interesante destacar que el valor del coeficiente de dilatación cúbica es igual al triple del coeficiente de dilatación lineal: = 3.
El coeficiente de dilatación cúbica triplica el valor del coeficiente de dilatación lineal. Dilatación de gases En el caso de los gases suele definirse un coeficiente de dilatación a presión constante, que viene dado por la expresión:
Ahora bien, en los gases diluidos se cumple que el coeficiente de dilatación depende de la temperatura según una regla de dependencia uniforme para todos los gases diluidos. Si se aplican a este caso las ecuaciones de los gases ideales, se obtiene que el coeficiente de dilatación a presión constante es igual a la inversa de la temperatura.
La anómala dilatación del agua Al contrario que la mayoría de las sustancias conocidas, cuando el agua se congela se transforma en un sólido el hielo) de menor densidad. Este fenómeno es providencial para la existencia de vida en las regiones polares, ya que si hielo fuera más denso que el agua, se hundiría en ésta y el mar del Ártico y Antártida quedarían congelados; en cambio, flotar sobre agua, el hielo actúa como capa de protección de las zonas profundas y permite que en ellas se desarrolle la vida.
Las leyes de Kepler El Renacimiento asistió a una auténtica revolución en el campo de la ciencia y el pensamiento. Los trabajos de Nicolás Copérnico, Galileo Galilei, Tycho Brahe y Johannes Kepler, desterraron algunas concepciones mágico-religiosas entonces vigentes en la ciencia y aportaron un nuevo enfoque basado en un método sistemático de observación y experimentación centrado en los fenómenos naturales. La revolución copernicana En los tiempos antiguos se pensaba que la Tierra se encontraba en el centro del universo, de manera que el Sol, la Luna, los planetas y las estrellas giraban en torno a ella. En este modelo, llamado tolemaico, por haber sido sintetizado por Ptolomeo de Alejandría (90-170), subyacía la convicción religiosa de que el hombre había sido elegido por la divinidad como su criatura privilegiada en todo el cosmos. Durante el Renacimiento, los avances de la astronomía pusieron en cuestión el modelo tolemaico. En su obra De revolutionibus orbium coelestium, el polaco Nicolás Copérnico (1473-1543) propuso un nuevo modelo, llamado heliocéntrico, en el que el centro del universo estaba ocupado por el Sol, alrededor del cual giraban la Tierra y los planetas del Sistema Solar. El modelo de Copérnico, con sus deficiencias, supuso un hito fundamental en la historia de la ciencia. En torno a esta época, otros científicos, como el italiano Galileo Galilei (1564-1642), el danés Tycho Brahe (1546-1601) y el alemán Johannes Kepler (1571- 1630), apoyaron una nueva visión de la física y la astronomía que se ha dado en llamar revolución copernicana.
Ilustración del modelo heliocéntrico de Copérnico. El modelo empírico de Kepler Johannes Kepler se inspiró en una amplia colección de datos astronómicos obtenidos por observación para construir un modelo general de las órbitas de los planetas dentro del Sistema Solar. Este modelo está constituido por tres principios esenciales, llamados leyes del movimiento planetario, que describen la naturaleza de las trayectorias de los cuerpos sometidos a la acción de campos centrales, de los que el Sistema Solar (campo gravitatorio cuyo centro es el Sol) constituye un ejemplo paradigmático. Cabe señalar que las leyes de Kepler son empíricas, no deducidas de modelos matemáticos. Ley de la trayectoria elíptica La primera ley de Kepler sobre los movimientos planetarios señala que, en su desplazamiento alrededor del Sol, los planetas no describen trayectorias circulares, sino órbitas elípticas, en uno de cuyos focos se encuentra el Sol. La excentricidad de estas órbitas es muy baja. Ley de las áreas La segunda ley de Kepler establece una relación sobre la magnitud de la velocidad del desplazamiento de los planetas en sus órbitas. Según este principio, el área barrida por el vector que une el centro del Sol con el centro del planeta por unidad de tiempo se mantiene constante a lo largo de toda la trayectoria. Este área se conoce también por velocidad areolar. Cuando el planeta se encuentra más cerca del Sol (sito en un foco de la elipse), se mueve más deprisa que cuando se aleja del astro, con el fin de que el área barrida por el vector de posición se mantenga constante por unidad de tiempo. Esta ley es una consecuencia del principio de conservación del módulo del momento angular , definido como: donde es la cantidad de movimiento del cuerpo.
De acuerdo con la segunda ley de Kepler, la velocidad areolar del movimiento planetario es constante, es decir, los planetas barren áreas iguales en tiempos iguales. Ley de la distancia media La tercera ley de Kepler del movimiento planetario establece que, en todo campo gravitatorio de fuerzas centrales, el cociente entre el cuadrado del período (tiempo necesario para completar una vuelta en la órbita) y el cubo del radio de la órbita es igual a una constante:
donde T es el período, R el radio, M la masa del objeto que crea el campo (en el movimiento planetario, el Sol) y G la constante de gravitación universal (ver t21). Movimiento circular en un campo gravitatorio central Aunque elípticas, las órbitas de los planetas en torno al Sol o de muchos satélites artificiales en órbita de la Tierra tienen una excentricidad tan baja que, en muchos aspectos, pueden considerarse circulares. En estos casos, es posible aplicar las ecuaciones de la mecánica newtoniana a la descripción del movimiento. En concreto, se obtiene entonces que la velocidad de desplazamiento a lo largo de la órbita tiene el valor siguiente:
con lo que la velocidad varía con el radio, de manera que cuanto más se aleje el planeta o satélite del centro del cuerpo que genera el campo de atracción gravitatoria, más lento será el movimiento de traslación. En este tipo de movimientos es también interesante conocer el valor de la velocidad angular, que viene dada por:
Johannes Kepler Johannes Kepler (1571- 1630), matemático y astrónomo alemán, sucedió al danés Tycho Brahe como matemático imperial en el Imperio Sacro-Germánico y aprovechó la riquísima colección de observaciones astronómicas de éste para
formular las tres leyes del movimiento planetario que tanta influencia tendrían en el desarrollo ulterior de la física.
El modelo de Kepler
Representación de Kepler para ilustrar las órbitas de los planetas del Sistema Solar mediante el modelo de los cinco sólidos regulares. BIBLIOTECA NACIONAL, MADRID. Las leyes de Kepler del movimiento planetario se sustentaban en observaciones y mediciones empíricas. No obstante, sirvieron de base a los trabajos posteriores del inglés Isaac Newton sobre gravitación y mecánica de los cuerpos celestes, hasta el punto de que la hipótesis de Newton sobre las fuerzas gravitatorias puede considerarse, desde una perspectiva histórica, como una sistematización teórica de las leyes de Kepler.
Ley de Newton de la gravitación universal En los estudios y conocimientos sobre astronomía y mecánica de los cuerpos celestes compendiados durante la época copernicana sustentó el inglés Isaac Newton una teoría global sobre la gravitación y el movimiento de los objetos y sistemas materiales. En sus principios básicos, esta teoría mantiene su vigencia
en la física moderna, aun cuando haya sido matizada por las aportaciones de la mecánica cuántica y relativista. Interacción gravitatoria Para explicar la naturaleza de los movimientos celestes y planetarios, el científico y pensador inglés Isaac Newton (1642-1727) estableció que todos los cuerpos materiales dotados de masa se ejercen mutuamente fuerzas de atracción debidas a un fenómeno conocido como interacción gravitatoria. Las fuerzas gravitatorias, que se ejercen por ejemplo el Sol y la Tierra, se caracterizan porque:
La dirección de la fuerza es la de la recta que une los dos cuerpos afectados, el que la crea y el que la recibe. El sentido de la fuerza se dirige hacia la masa que crea la interacción gravitatoria. El módulo es directamente proporcional a las masas que intervienen en la interacción gravitatoria e inversamente proporcional al cuadrado de la distancia que las separa. Las fuerzas debidas a la interacción gravitatoria son siempre atractivas.
Fuerzas gravitatorias mutuas ejercidas entre dos cargas puntuales. Ley de la gravitación universal Basándose en los trabajos realizados por Kepler sobre los movimientos planetarios (ver t20), Isaac Newton expresó la naturaleza de las interacciones gravitatorias en una fórmula que indica el valor de la fuerza que engendran dichas interacciones:
En esta expresión, conocida como ley de la gravitación universal, F es la fuerza gravitatoria, m1 y m2 las masas que intervienen en la interacción gravitatoria, r la distancia que las separa y G un factor de proporcionalidad conocido como constante de gravitación universal y cuyo valor en el Sistema Internacional es 6,67 · 10-11 N·m2/kg2.
Esta ley puede expresarse también en formato vectorial, del modo siguiente:
Fuerza gravitatoria y campo gravitatorio Las fuerzas gravitatorias actúan a distancia, sin que exista contacto físico entre los cuerpos materiales implicados en ellas. Esta idea de acción a distancia se ha concretado en la física con la noción de campo, que se entiende como una perturbación que produce la partícula u objeto en el espacio circundante por su mera existencia. En el caso de la interacción gravitatoria, el campo gravitatorio se debe a la sola presencia en el espacio de un cuerpo material con masa no nula.
Representación visual del campo gravitatorio que ejerce una masa puntual sobre el espacio que la circunda. Así pues, una partícula material induce en el espacio un campo gravitatorio cuya intensidad, según se deduce de la ley de gravitación universal, vendría dada por:
El signo menos de esta expresión indica que el campo gravitatorio es siempre de naturaleza atractiva, con lo que las líneas de fuerza del mismo apuntan hacia la masa m que lo engendra. La fuerza gravitatoria se puede expresar como el producto de la intensidad del campo gravitatorio por la masa que se introduce dentro del mismo. Es decir:
Ley de superposición del campo gravitatorio
La interacción gravitatoria, descrita por la ley de gravitación universal de Newton, verifica la ley de superposición de fuerzas. Así, dadas tres masas puntuales m1, m2 y m3, la fuerza gravitatoria conjunta que ejercen las dos primeras sobre la tercera es igual a la suma vectorial de la fuerza que ejercería la primera sobre la tercera si la segunda no estuviera presente más la que induciría la segunda sobre la tercera si no existiera la primera masa. Es decir:
Sería posible escribir ecuaciones similares para cualquier otra combinación de las fuerzas y las masas intervinientes.
Suma gráfica de fuerzas gravitatorias. Grabado de «Elementos de la filosofía» de Newton.
Al pensador inglés Isaac Newton (1642-1727) se le considera el fundador de la física moderna. Sus trabajos y descripciones sobre mecánica, gravitación, óptica y métodos matemáticos de la ciencia tuvieron una influencia decisiva en el avance científico de la civilización occidental.
Gravitación frente a otras interacciones La gravitación es una de las cuatro interacciones fundamentales de la naturaleza (junto a la eletromagnética, la nuclear fuerte y la nuclear débil, estas dos últimas de escala atómica y subatómica), y es la que predomina en la escala cósmica.
La gravitación y la electrostática Cuando, en 1785, Charles-Henri de Coulomb determinó la ley que rige los fenómenos electrostáticos, se descubrió su estrecha relación formal con la ley de Newton de la gravitación universal. Ambos principios, aunque de naturaleza muy diferente, obedecían a una ley matemática casi idéntica, por lo que pronto se estableció una analogía entre su descripción, sus características y sus magnitudes. Este esfuerzo conciliador se extendió en décadas posteriores a los fenómenos atómicos y nucleares, en un marco teórico general que pretende describir todos los hechos físicos según leyes y principios universales y uniformes (teoría de la gran unificación).
Campo gravitatorio. Energía potencial gravitatoria La idea de fuerza gravitatoria como resultado de la acción de un campo que perturba las condiciones del espacio y produce efectos sobre los cuerpos inmersos en él permitió profundizar enormemente en el estudio de las propiedades de estos fenómenos. La noción de campo gravitatorio se asocia íntimamente a la de energía potencial, entendida como la capacidad del campo para realizar un trabajo. Campo gravitatorio La interacción atractiva que experimentan entre sí los cuerpos materiales dotados de masa responde, desde un punto de vista teórico, a la existencia de un campo gravitatorio asociado a toda masa no nula. Las fuerzas asociadas a este campo fueron descritas por la ley de gravitación universal de Newton (ver t21), y de su estudio se dedujo que eran directamente proporcionales a las masas afectadas por el fenómeno gravitatorio e inversamente proporcionales a la distancia que separa a dichas masas. Líneas de campo gravitatorio Los campos vectoriales se representan mediante series de líneas que señalan la trayectoria que seguirían las partículas bajo la influencia del campo. En el campo gravitatorio creado por una masa puntual, estas líneas de fuerza siguen direcciones que apuntan hacia la masa creadora del campo.
Líneas de fuerza del campo gravitatorio creado por una masa puntual. Campo gravitatorio terrestre Aunque la Tierra tiene forma de geoide ligeramente achatado por los polos, se puede considerar que es un planeta esférico y que la distribución de su masa es uniforme. Entonces, se considera también que engendra un campo gravitatorio regular cuyas líneas de fuerza apuntan hacia el centro de la Tierra. Por convenio, se dice que este campo es negativo, por lo que la expresión de su intensidad sería la siguiente:
siendo M+ = 5,98 · 1024 kg. En la superficie terrestre, la distancia considerada es igual al radio de la Tierra R+ =6.370 km, con lo que la fuerza que ejerce la Tierra sobre una masa m situada en esta posición se calcula según la conocida expresión:
El vector g se conoce como intensidad del campo gravitatorio terrestre local o, simplemente, gravedad. Energía potencial gravitatoria A todo campo vectorial se le asocia una energía potencial o capacidad que tiene dicho campo para realizar trabajo según la posición de las partículas dentro del mismo. En el campo gravitatorio terrestre local, la energía potencial gravitatoria asociada tiene la forma:
con z la altura de la partícula (masa puntual) considerada sometida a la acción del campo según el eje de referencia escogido. Por la equivalencia entre trabajo y energía (ver t11), la energía potencial gravitatoria del campo terrestre local puede determinarse como el producto escalar de la fuerza ejercida por la distancia recorrida, con lo que se obtiene que:
Superficies equipotenciales Ligado a la idea de energía potencial gravitatoria está el concepto de potencial gravitatorio, que se entiende como una función escalar igual a la energía potencial que tendría una masa de valor uno en el punto del campo que se considere. Por tanto:
donde Vg es el potencial gravitatorio, m la masa que crea el campo, r la distancia entre esta masa y la unitaria y G la constante de gravitación universal. El conjunto de todos los puntos del espacio que poseen un mismo potencial gravitatorio se denomina superficie equipotencial. Las superficies equipotenciales aportan información sobre el valor del módulo del campo, que es más intenso en las zonas donde la separación entre cada dos de estas superficies es menor.
Superficies equipotenciales creadas por dos masas puntuales del mismo valor. Gradiente del potencial gravitatorio El potencial gravitatorio experimenta una variación máxima en las direcciones perpendiculares a las superficies equipotenciales, que coinciden con las direcciones del llamado gradiente del potencial gravitatorio. Matemáticamente se
demuestra que la intensidad del campo gravitatorio es igual a menos el gradiente del potencial gravitatorio (que se simboliza por el operador matemático llamado nabla, o Ñ) de manera que:
Flujo de un campo vectorial. Ley de Gauss Con la aplicación de las matemáticas a diversos ámbitos de la ciencia se potenciaron enormemente las herramientas de diseño y cálculo científico, así como los métodos de elaboración de los modelos teóricos. En el marco de la física, colaboró decisivamente a este proceso de sistematización matemática el alemán Carl Friedrich Gauss, que desarrolló la noción y las propiedades de campo para explicar los fenómenos físicos de la naturaleza. Flujo de un vector En cálculo vectorial, el flujo de un vector que atraviesa una superficie se define como una magnitud determinada por el producto escalar del vector dado por el vector representativo de la superficie.
Vector representativo del área de un paralelogramo. Este vector de superficie, denotado comúnmente por , es perpendicular a la superficie, dirigido hacia su parte convexa, y su módulo es igual al área de la superficie. En el ejemplo sencillo de un paralelogramo de lados AB y AD, el vector de superficie vendría dado por el producto vectorial:
Flujo del campo gravitatorio La noción de flujo de un vector se aplica preferentemente a las intensidades de los campos vectoriales. Así, en todo campo gravitatorio de intensidad puede definirse un flujo de campo que, extendido a toda la superficie del objeto considerado, tendría el siguiente valor:
donde representa el vector de superficie de cada elemento infinitesimal de área atravesada por el campo gravitatorio en cuestión. Cuando el campo es constante y la superficie sobre la que se extiende la integral es una porción de plano, el flujo del campo gravitatorio se convierte en:
donde es el ángulo que forman la superficie y el campo.
El vector normal de superficie en varias superficies cerradas. Ley de Gauss El cálculo del flujo de un campo que atraviesa una superficie cerrada arbitraria resulta, en principio, complejo. Sin embargo, los trabajos del matemático alemán Carl Friedrich Gauss permitieron ofrecer una solución sencilla al problema. En el caso del campo gravitatorio (o electrostático), y dada una masa (o una carga) puntual engendradora del campo, el flujo total del campo que atraviesa superficies esféricas que rodean a la partícula viene dado por la expresión:
De esta forma, según la ley de Gauss, el flujo de un campo gravitatorio a través de una superficie cerrada es proporcional a la masa que crea el campo contenida en el volumen encerrado por la superficie. Análogamente, el flujo del campo electrostático a través de una superficie cerrada es directamente proporcional a la carga eléctrica que crea el campo.
Flujo de un campo constante que atraviesa un paralelogramo.
Distribución de masa con simetría esférica La ley de Gauss resulta de gran utilidad cuando se trata de calcular el flujo de un campo en distribuciones de masa (campo gravitatorio) o carga (electrostático) dotadas de ciertos patrones de simetría o regularidad. Un caso de estudio especialmente sencillo es aquél para el que la distribución de masa o carga que genera el campo tiene simetría esférica. Entonces, el campo originado debe tener también este tipo de simetría.
Representación de un campo no radial con simetría esférica en dos dimensiones (a) y en tres dimensiones (b). En el campo gravitatorio, por la definición de flujo se obtiene que:
Para el campo electrostático se obtiene una expresión similar. Analogías entre flujos de campos físicos La noción de flujo de un campo vectorial se aplica a numerosos ámbitos de la física. Además del flujo del campo gravitatorio, cabe reseñar los flujos de los campos electrostático y, sobre todo, magnético, de manera que la formulación matemática de todos ellos es formalmente equivalente.
Órbitas celestes y energía mecánica La astronomía sirvió durante siglos como inspiradora de la filosofía y del pensamiento. Desde la época renacentista, en Europa la observación de los cuerpos celestes permitió deducir leyes del movimiento basadas en el principio de la gravitación universal, que sirvieron de base al nacimiento de la física moderna y
se plasmaron en los primeros modelos sistemáticos de descripción de los sistemas mecánicos. Movimientos orbítales en un campo central El estudio del movimiento de cuerpos sometidos a un campo central que describen trayectorias circulares es un problema clásico de la física. En este tipo de movimiento existe una interacción contrapuesta: una fuerza centrípeta de atracción hacia adentro que ejerce el campo central sobre el cuerpo en movimiento orbital. Un caso típico de movimiento orbital en un campo central es el movimiento de la Tierra alrededor del Sol, o de los satélites (la Luna o satélites artificiales) en torno a ella. Aunque las órbitas descritas son elípticas, su excentricidad es tan baja que pueden considerarse circulares. El campo central que actúa en este movimiento es de tipo gravitatorio; si M es la masa que crea el campo y R la distancia a la que orbita el cuerpo sometido al mismo, siendo G la constante de gravitación universal, el módulo de la velocidad de dicho cuerpo es el siguiente:
Leyes de conservación El conjunto formado por un cuerpo que engendra un campo gravitatorio central y otro sometido a la acción de dicho campo puede considerarse un sistema aislado. Como tal, cumple dos principios básicos de conservación:
De la energía mecánica, de manera que la suma de energías cinética y potencial del sistema permanece constante en dos instantes cualesquiera. Este enunciado se conoce con el nombre de teorema de las fuerzas vivas y se expresa matemáticamente como:
Conservación del momento angular L, que se define como el producto vectorial del vector de posición r de una partícula por su cantidad de movimiento.
Para que el momento angular se conserve es necesario que la órbita descrita por el cuerpo tenga lugar en un plano. Potencial efectivo En un movimiento orbital dentro de un campo central se distinguen dos componentes de la velocidad:
Velocidad radial, que apunta en todo momento hacia el centro de la órbita y determina el cambio de la posición del cuerpo con respecto al origen. Velocidad orbital, en la dirección de la trayectoria de desplazamiento y perpendicular a la anterior. La energía mecánica total del sistema, expresada en términos de las velocidades radial (vr) y orbital (vorb), tiene la forma siguiente:
donde L es el momento angular y m la masa del cuerpo, M la masa que crea el campo gravitatorio, r la distancia entre ambas masas y G la constante de gravitación universal. Puede entonces definirse una magnitud llamada potencial efectivo como la energía potencial por unidad de masa y cuyo valor es:
El estudio del potencial efectivo tiene gran interés en la caracterización de las órbitas celestes. Órbitas elípticas Si la energía mecánica total de un sistema celeste es menor que cero, la masa en órbita está comprendida entre dos límites de distancia, y la trayectoria descrita es una elipse. Tal es el caso de los planetas que giran alrededor del Sol y de los satélites que orbitan en torno a los cuerpos planetarios (por ejemplo, la Luna).
Potencial efectivo de una órbita cerrada (a), que caracteriza a las órbitas elípticas (b). Órbitas parabólicas e hiperbólicas
Cuando la energía mecánica global es mayor que cero, el movimiento de la masa celeste es abierto y su distancia al centro de la órbita tiene sólo un límite inferior. Por tanto, el cuerpo describirá una trayectoria hiperbólica con el foco de la hipérbola en el centro del campo (por ejemplo, el Sol). Éste es el movimiento de la mayoría de los cometas en el Sistema Solar. Finalmente, si la energía mecánica global es cero, el movimiento descrito es una parábola. Las leyes de Kepler En la segunda década del siglo XVII, el alemán Johannes Kepler partió de las observaciones de su mentor,Tycho Brahe, para elaborar tres leyes empíricas que definían el movimiento orbital de los cuerpos planetarios. Tales leyes sirvieron, a su vez, de base al inglés Isaac Newton para enunciar las leyes de la gravitación universal y los principios de conservación de la energía mecánica y el momento angular.
Planetas y satélites Los planetas y satélites del Sistema Solar describen movimientos de traslación según trayectorias orbítales elípticas de baja excentricidad (por lo que a menudo se consideran circulares). Éste es el tipo de movimiento descrito también por muchos satélites artificiales que giran alrededor de la Tierra.
Los cometas La mayoría de los cometas del Sistema Solar describen órbitas hiperbólicas con foco en el Sol, de manera que sólo se observan una vez, cuando se aproximan al astro y pasan por las cercanías del foco de la hipérbola de su trayectoria, para salir «despedidos» después hacia el infinito siguiendo la dirección de las asíntotas.
Las distancias en el Sistema Solar y en el universo Uno de los rasgos distintivos de la historia de la ciencia durante el siglo XX fue el extraordinario avance experimentado por la astronomía y la cosmología. Las observaciones con modernos telescopios revolucionaron las ideas sobre el universo y permitieron comprender la inmensidad de las distancias que separan los innumerables sistemas que conforman el cosmos.
El Sistema Solar El conjunto de cuerpos estelares más estudiado a lo largo de la historia ha sido el Sistema Solar. Una vez establecida su estructura, con el Sol en su posición principal y nueve grandes planetas describiendo órbitas ligeramente elípticas con el astro en uno de sus focos, los esfuerzos de los astrónomos han ido encaminados a sistematizar los tipos de objetos celestes presentes:
La estrella llamada Sol, que contiene más del 99% de la masa del sistema y es el único cuerpo del sistema capaz de generar energía por procesos termonucleares. Nueve grandes planetas: cuatro interiores, (Mercurio, Venus, la Tierra y Marte) y cuatro exteriores, o jovianos (Júpiter, Saturno, Urano y Neptuno), gaseosos y de gran tamaño, a los que se añade un noveno frío y alejado llamado Plutón. Los asteroides, cuerpos irregulares de pequeño diámetro que se sitúan principalmente en un cinturón entre las órbitas de Marte y Júpiter. Los cometas, que describen trayectorias hiperbólicas o parabólicas con el Sol en su foco, de manera que, en su mayoría, se acercan al astro una sola vez en su vida cósmica. Los meteoroides son fragmentos de asteroides y cometas con órbitas muy excéntricas que se cruzan con las de los planetas y satélites, en ocasiones llegan hasta la tierra y se denominan meteoritos.
Ejemplo de Galaxia Espiral.
Ejemplo de Galaxia Elíptica. El Sistema Solar se encuentra situado en un brazo de la galaxia espiral conocida como Vía Láctea. La gran explosión («big bang») Las modernas teorías cosmológicas consideran que el universo se generó hace unos 13.000 millones de años a partir de la gran explosión primigenia, llamada big bang, de una «sopa» de partículas elementales de cuya combinación fueron surgiendo los diversos átomos de elementos químicos. Más adelante, los fenómenos de atracción gravitatoria permitieron el surgimiento de las nebulosas, las galaxias, las estrellas, los sistemas planetarios y todos los cuerpos cósmicos conocidos. La teoría del «big bang» se sustenta en datos teóricos y experimentales, sobre todo en las observaciones del astrónomo estadounidense Edwin P. Hubble (18891953), que descubrió que las galaxias se separan unas de otras de manera que cuanto más distantes se encuentran mayor es su velocidad de alejamiento. El modelo estándar y la radiación de fondo El modelo de expansión del universo recibió un importante aval con el descubrimiento en 1965 de la radiación de fondo. Los ingenieros estadounidenses Arno Penzias y Robert Wilson detectaron una radiación de microondas uniforme en todas las direcciones del espacio, que se interpretó como un vestigio de la radiación electromagnética que dominó el universo en sus primeros momentos y que se separó de la materia por el enfriamiento progresivo a que dio lugar el proceso de expansión. El conjunto de ecuaciones que describe el comportamiento teórico de este modelo de universo en expansión recibe el nombre de modelo estándar. Este modelo se basa en tres principios:
Los universos en expansión se inician desde un punto en el que está concentrada toda su materia. Este punto se denomina singularidad. En el inicio de su desarrollo, se produce una violenta explosión (big bang) que da origen a un proceso de expansión de su materia y energía. Esta expansión puede prolongarse indefinidamente o durar hasta que las fuerzas de atracción gravitatoria pasen a predominar sobre la inercia de separación, en cuyo caso se iniciaría una fase ulterior de contracción. La aparición o no de esta fase de contracción depende del valor de la masa global del universo (uno de los parámetros más controvertidos en los modelos cosmológicos vigentes).
Observación de galaxias lejanas con el telescopio en órbita Hubble . Distancias en el universo Los avances en los instrumentos astronómicos han permitido detectar galaxias y cuerpos cósmicos cada vez más lejanos de la Tierra. A título orientativo, algunas distancias características en el universo son las siguientes:
La Tierra y el Sol están separados por una distancia media de 149.600 millones de kilómetros, cantidad que se define como una unidad astronómica (UA). La estrella más cercana al Sol, llamada Alfa Centauri, se encuentra a 4,3 años-luz, unas 270.000 veces la distancia entre la Tierra y el Sol. Las estrellas de la Vía Láctea más alejadas del Sol se sitúan a unos 100.000 años-luz. La galaxia Andrómeda, la más cercana a la Vía Láctea, se encuentra a 2 millones de años-luz. Las galaxias más alejadas de la Tierra se sitúan a distancias aproximadas de 8.000 millones de años-luz.
Unidades de distancias astronómicas En astronomía y cosmología se utilizan tres unidades de medición de distancias: la unidad astronómica (símbolo UA), o valor medio de la distancia entre la Tierra y el Sol, equivalente a 149.600 millones de km, válida sobre todo en el Sistema Solar; el año-luz, igual a la distancia que recorre la luz en el vacío en un año y equivalente a 6.324 x 1014 UA y utilizado sobre todo en distancias galácticas (dentro de la Vía Láctea), y el parsec, igual a 3,26 años-luz (es decir, 206.265 UA o 3,086 x 1013 km), válido sobre todo para distancias galácticas e intergalácticas.
El efecto Doppler y el corrimiento al rojo Una manifestación muy conocida de las ondas acústicas es el llamado efecto Doppler: cuando un objeto que emite sonido (por ejemplo, una ambulancia) se acerca hacia el observador, la frecuencia del sonido es más alta que cuando se aleja de él. Este mismo principio se aplica a las radiaciones luminosas. Así, si una galaxia se está separando de la Tierra, la frecuencia de su radiación disminuye con respecto a la que correspondería si estuviera a una distancia constante; es decir, la radiación se desplaza hacia el rojo, adquiere un tono más rojizo. La observación realizada por Hubble de que todas las galaxias emiten radiaciones «desplazadas» hacia el rojo cuando se observan desde la Tierra, sustenta la hipótesis de que el universo se está expandiendo. Centro de masas de un cuerpo extenso En la mecánica clásica se habla comúnmente de masas puntuales que se mueven en el espacio y el tiempo. Este concepto es una aproximación ideal que permite describir con sencillez la dinámica del movimiento, aunque de hecho los cuerpos no son puntuales (salvo, acaso, las partículas elementales), sino que ocupan una superficie con una cierta extensión. Por tanto, el estudio de los cuerpos extensos forma parte fundamental de la mecánica. Fuerza total sobre un cuerpo extenso Si se considera un cuerpo extenso como un sistema constituido por una agregación de partículas o masas puntuales, la fuerza total que actúa sobre el mismo puede considerarse como la suma de todas y cada una de las fuerzas que se ejercen sobre sus constituyentes elementales:
En (a) se aprecia la acción de las fuerzas gravitatorias sobre pequeños fragmentos de un cuerpo extenso. En (b) se considera una sola fuerza global equivalente a todas las anteriores. De esta forma, la fuerza total externa que se aplica sobre un cuerpo es la que se ejercería sobre una partícula puntual cuya masa fuera igual a la masa total del cuerpo. Centro de masas Para determinar la distribución de las masas que constituyen un cuerpo extenso se define un concepto ideal conocido como centro de masas. Este punto constituye una generalización de la noción de centro de gravedad que no considera ningún campo de fuerzas aplicado, sino simplemente la forma del cuerpo extenso y la distribución de la masa en su interior. Se define centro de masas como el punto cuyo vector de posición se determina por medio de la expresión siguiente:
El centro de masas puede estar situado fuera del cuerpo extenso, aunque siempre en el interior de su envoltura convexa (volumen que encierra al cuerpo y a todos los segmentos rectos que unen dos puntos cualesquiera del mismo). Movimiento del centro de masas El movimiento de un sistema de partículas o un cuerpo extenso puede abstraerse e interpretarse como si lo que se desplazara fuera simplemente su centro de masas. La velocidad de desplazamiento del centro de masas se escribiría como:
Por su parte, el momento lineal (o cantidad de movimiento) total del cuerpo se determina como:
por lo que el momento lineal total del cuerpo para un observador que se desplace con la velocidad del centro de masas es nulo. Finalmente, la fuerza que actúa sobre el centro de masas puede escribirse como:
de manera que el movimiento global de traslación de un cuerpo extenso puede equipararse al de una partícula puntual cuya masa fuera igual a la masa total del cuerpo.
Situación del centro de masas de un sistema material con simetría esférica.
Determinación del centro de masas: (a) en un sistema de tres masas puntuales, coincide con el baricentro del triángulo que forman; (b) en una herradura, cae fuera de los puntos de la misma; (c) en un cubo, una esfera y otros cuerpos simétricos, se sitúa en el centro geométrico. El sólido rígido En el movimiento de un cuerpo extenso tiene importancia la distribución interna de las partículas que lo constituyen. Un caso ideal es aquel en el que se considera que todas las partículas del cuerpo mantienen entre sí distancias constantes y
posiciones fijas, sean cuales sean las fuerzas que actúen sobre el cuerpo. Un sistema de estas características recibe el nombre de sólido rígido, y su estudio constituye uno de los problemas clásicos de la mecánica (ver t27 y t28). Fuerzas internas y fuerzas externas Cuando se habla de cuerpos extensos en el ámbito de la mecánica, clásicamente no se consideran las fuerzas internas de interacción entre sus partículas constituyentes, sino tan sólo las aplicadas desde el exterior. El estudio de las fuerzas internas de un cuerpo corresponde más bien al campo de la termodinámica y la mecánica estadística.
Centro de masas y centro de gravedad
La palanca de Arquímedes ofrece un ejemplo sencillo para el cálculo del centro de masas, que coincide con el punto en el que hay que sujetar la barra para que las pesas de sus extremos se mantengan en equilibrio. Aunque es corriente que coincidan, el centro de masas y el centro de gravedad obedecen a criterios de definición diferentes. Mientras el primero responde tan sólo a la forma del cuerpo y al modo de distribución de la masa, el centro de gravedad es el punto en el cual puede considerarse, idealmente, que se aplican las fuerzas externas que actúan sobre el cuerpo.
Equilibrio estable e inestable Se dice que un cuerpo se encuentra en equilibrio estable cuando ocupa un estado de energía mínima y su centro de gravedad se sitúa en su punto más bajo (por ejemplo, un cubo que descansa sobre una de sus caras); el equilibrio es inestable cuando no existe movimiento y su estado de energía no es mínimo, con lo que el centro de gravedad no está en su punto más bajo (por ejemplo, un cubo en equilibrio sobre una arista).
Rotación de sólidos. Momento angular y momento de inercia
Una de las partes clásicas de la mecánica es el estudio de los movimientos de rotación, en particular, el análisis del comportamiento de los sólidos rígidos sometidos a giros y desplazamientos. En estos problemas se aplican los principios de la mecánica de Newton, y adquieren especial relevancia conceptos y magnitudes físicas como el momento angular y el momento de inercia, que es característico de cada sólido. Dinámica de rotación Se llama rotación al movimiento de un cuerpo con respecto a un eje de giro interior o externo al mismo. Normalmente, en la rotación de los cuerpos actúan diversos tipos de fuerzas (de arrastre, centrales, de rozamiento) que determinan los grados de movimiento (libertad) y las limitaciones al mismo, llamadas ligaduras. En el estudio de la rotación se maneja como magnitud fundamental el momento angular. Para un sistema de partículas, y con respecto a un origen de referencia, el momento angular total LW se define como la suma de los momentos angulares de cada partícula para dicho punto. Es decir:
siendo el vector de posición de cada partícula, mi su masa y vi su velocidad. La variación del momento angular con respecto al tiempo se conoce por momento total de las fuerzas del sistema de partículas:
Rotación de sólidos rígidos Si en un cuerpo extenso se considera que las partículas que lo constituyen conservan en todo momento posiciones relativas fijas, el sistema resultante se denomina sólido rígido. En este sistema la velocidad angular de todas sus partículas es la misma, con independencia del eje de giro. Momento angular de un sólido rígido Como la velocidad angular de giro de un sólido rígido es idéntica para todas sus partículas constituyentes, el momento angular del sólido vendrá dado por la expresión:
donde es la velocidad angular y el vector de posición de la partícula i con respecto al eje de giro. Esta expresión se puede desarrollar para convertirse en la siguiente (donde hi es la altura de cada partícula con respecto al origen):
El primer miembro de esta expresión es la componente longitudinal del momento angular (simbolizada por L||), mientras que el segundo es su componente transversal (L). Momento de inercia Por definición, el valor escalar del momento angular longitudinal de un sólido rígido se denomina momento de inercia I, y se expresa como:
El momento de inercia no depende de las fuerzas que intervienen en un sistema físico, sino tan sólo de la geometría del cuerpo y de la posición del eje de giro. Teorema de Steiner En la determinación de los momentos de inercia de los cuerpos se aplica con frecuencia el llamado teorema de Steiner, que establece una relación entre el momento de inercia I’ con respecto a un eje arbitrario y el momento de inercia I, medido según un eje paralelo al anterior que pasa por el centro de masas. Matemáticamente, el teorema de Steiner se expresa como:
donde a es el módulo del vector que va perpendicular del eje arbitrario al que pasa por el centro de masas.
Ilustración del teorema de Steiner o del eje paralelo.
Cálculo de momentos de inercia Para facilitar el cálculo de los momentos de inercia se aplican varias propiedades elementales de carácter geométrico:
Aditividad, según la cual el momento de inercia de un sólido complejo puede calcularse como la suma de los momentos de inercia de las formas geométricas elementales que lo constituyen. Reordenación de las partes del sólido, según la cual el momento de inercia de un cuerpo equivale al de otro sólido conocido en el que se pueda transformar por redistribución de sus formas geométricas elementales. Simetría, que permite descomponer un sólido en varias partes simétricas que contribuyen por igual al momento de inercia global. Eje de simetría
Los sólidos de revolución mantienen un mismo aspecto cuando giran en torno a su eje de revolución. En tal caso, se dice que tienen simetría axial, con respecto a un eje, y la componente transversal de su momento angular total es nula.
Definición gráfica de la velocidad angular con respecto a un eje de giro.
Tabla de momentos de inercia de sólidos homogéneos.
Ejemplo gráfico de suma y resta de momentos de inercia. En sólidos de geometría compleja (a), se fragmenta el sólido en componentes de momento de inercia conocido (b). Energía cinética de rotación.
Los movimientos de rotación están presentes en numerosos fenómenos de la naturaleza. Algunos ejemplos comunes son los péndulos, las balanzas, las peonzas o, a escala cósmica, el giro de todos los cuerpos celestes conocidos (la Tierra, los planetas y los satélites, el Sol y las estrellas y, también, las galaxias) en torno a un eje, que termina por definir simetrías en los sistemas. Energía de un sólido con un eje fijo Dado un sólido sometido a un movimiento de rotación con respecto a un eje fijo, su energía cinética de rotación se expresa de la siguiente manera:
A su vez, el sólido en rotación posee una energía potencial determinada por la expresión:
De esta forma, la variación de la energía mecánica total del sólido con respecto al tiempo se puede escribir como el producto escalar de los momentos totales aplicados por la velocidad angular de rotación:
El péndulo físico En los sistemas físicos aislados se considera que la energía mecánica total del sistema se conserva, por lo que:
De ello se deduce que:
Un caso particular de esta situación es el péndulo físico, la masa oscilante encargada de regular el mecanismo de los relojes de péndulo. El péndulo físico puede considerarse como un sólido que gira alrededor de un eje horizontal fijo con respecto al cual no posee ninguna clase de simetría. La energía mecánica total del péndulo, siendo el ángulo que lo separa de la vertical en un instante dado, se determinaría como:
Para ángulos de separación pequeños, se puede desarrollar que cos 1 - img src="fisica_028_07p.gif" class="imgmiddle" alt="" title="" />2/2, con lo que la ecuación resultante se corresponde con la de un oscilador armónico cuya masa fuera I y cuya constante de recuperación tuviera el valor m g r CM. En consecuencia, el período de oscilación del péndulo vendría dado por la expresión siguiente:
La peonza Otro ejemplo clásico de sólidos en rotación es el de la peonza, en esencia un sólido de revolución con un punto fijo que permanece en contacto con el suelo. En una primera interpretación, la variación del momento angular de la peonza con respecto a este punto fijo sería:
Ahora bien, el giro real de la peonza no es tan sencillo, sino que está compuesto por la combinación de tres movimientos diferentes:
La rotación de la peonza en torno a un eje que pasa por el punto fijo de contacto. Un movimiento de precesión en torno a un eje vertical, que hace que el eje de rotación varíe con el paso del tiempo. Un bamboleo de este eje, llamado nutación, que hace variar su inclinación. La combinación de estos tres movimientos resulta de particular interés para la física, ya que está presente en la mayoría de los movimientos naturales de rotación (por ejemplo, en el de la Tierra y los restantes planetas).
Movimiento general de una peonza, que resulta de la combinación de la rotación, la precesión y la nutación. Conservación del momento angular En el estudio mecánico de los sistemas aislados se aplican diversos principios de conservación que ayudan a determinar las leyes físicas que rigen su comportamiento. En los movimientos de rotación, adquiere particular importancia el llamado principio de conservación del momento angular, que establece que si el momento total de las fuerzas externas que se aplican sobre un sistema es nulo, el momento angular total del sistema se conserva. De esta manera, se tiene que:
Así pues, cuando el momento de inercia aumenta, la velocidad angular de giro disminuye, y a la inversa. Rotación propia de los planetas El estudio del movimiento de rotación de los sólidos tiene una aplicación evidente en el campo de la astronomía. Así, los planetas del Sistema Solar pueden considerarse como cuerpos sometidos en esencia a tres tipos combinados de desplazamientos: la rotación propiamente dicha, la precesión o alteración de la inclinación del eje y la nutación o serie de oscilaciones que modifican el movimiento de precesión. Rotación y traslación En la observación del movimiento de los cuerpos celestes, se han de distinguir dos tipos combinados de desplazamientos:
Traslación del cuerpo (por ejemplo, de la Tierra alrededor del Sol), descrita mediante una ecuación de movimiento del centro de masas del cuerpo celeste:
Rotación en torno a un eje interno, que se describe mediante la ecuación de evolución de su momento angular. Como la fuerza gravitatoria ejercida sobre cada partícula es de tipo radial, el momento total con respecto al centro de giro es nulo:
Movimiento angular orbital e intrínseco Como el momento total del cuerpo celeste con respecto al centro de giro es nulo, su momento angular total será constante. Por sencillez, se suele considerar que el desplazamiento del cuerpo se produce por la combinación de dos movimientos:
El del centro de masas del planeta, que engendra el llamado momento angular orbital. El de cada partícula del planeta con respecto al centro de masas, responsable de la componente conocida como momento angular intrínseco, simbolizado por . Así, el momento angular total del cuerpo se puede expresar como:
El primer término corresponde al momento angular orbital; el segundo, es el momento angular intrínseco. Ahora bien, el momento angular orbital del cuerpo es constante, y también el momento angular total del cuerpo. Por tanto, la componente del momento angular intrínseco se mantiene constante. La rotación de la Tierra Si se considera que la Tierra es esférica (lo cual constituye una aproximación ideal), su momento angular intrínseco se puede expresar como:
donde es la velocidad angular de giro, paralela al eje de rotación, e I, el momento de inercia. Entonces, al ser el momento angular intrínseco y el momento de inercia constantes, la velocidad angular de rotación de la Tierra (y los otros planetas) debe mantenerse constante con respecto a un eje que pasa por su centro. Pero, como la Tierra no es esférica, sino que forma un esferoide achatado por los polos, el movimiento de rotación en torno al eje no es perfecto, sino que se compone de tres elementos superpuestos:
La rotación propiamente dicha. Un movimiento de precesión que hace variar el eje de rotación con el tiempo. Un bamboleo periódico de dicho eje de rotación en un fenómeno que se denomina nutación.
Movimiento de precesión del eje de rotación de la Tierra. La línea de los equinoccios y el plano de la eclíptica forman un ángulo llamado ángulo de la eclíptica igual a 23º27’. Precesión de los equinoccios El movimiento de precesión de los equinoccios fue descrito ya en el siglo II a. C. por el filósofo griego Hiparco de Nicea. En esencia, este movimiento provoca una revolución del eje de giro de la Tierra en un eje perpendicular al plano de la eclíptica (el que forma el movimiento de traslación terrestre). Esta revolución del eje de rotación se completa en 26.000 años. En términos físicos, la precesión supone que en la dirección perpendicular al momento angular intrínseco de la Tierra (y los restantes planetas) existe un momento no nulo, semejante al de una peonza en movimiento.
La precesión de la Tierra se traduce en una alteración de la posición de los polos celestes con el paso del tiempo. En la imagen se detalla su posición en fechas diferentes, comprendidas entre 2.000 años antes y después de Jesucristo (en la actualidad, el polo Norte celeste coincide aproximadamente con la posición de la estrella Polar). Satélites naturales y artificiales El movimiento descrito por los planetas en torno al Sol se debe a la presencia de un campo gravitatorio central generado por la masa solar, que es inmensa en comparación con la planetaria (el Sol constituye más del 99% de toda la masa del Sistema Solar). Análogamente, los satélites naturales describen movimientos de rotación y traslación combinados en torno a los planetas (por ejemplo, la Luna alrededor de la Tierra), aun con ciertas irregularidades debidas a la atracción solar. Algo similar podría decirse de los numerosos satélites artificiales colocados en la órbita terrestre; algunos de ellos se han lanzado de forma que alcancen órbitas geoestacionarias (moviéndose al ritmo de la Tierra, de manera que siempre se encuentran situados sobre la vertical del mismo punto del planeta).
Período sidéreo El movimiento de rotación de la Tierra alrededor de su eje se ha usado históricamente como medida del tiempo. Así, se sabe que la Tierra describe un movimiento completo, con respecto a los puntos fijos que ocupan las estrellas en
el firmamento, que posee una gran regularidad, de manera que en cada rotación el planeta invierte 23 horas y 56 minutos, aproximadamente. Este intervalo se denomina período sidéreo.
La bóveda celeste El firmamento se ha venido representando históricamente, como si fuera una cúpula esférica que rodeara a la Tierra, situada ésta en el centro de observación. La realidad, no obstante, es bien distinta. Los astros (planetas, estrellas, galaxias) visibles en la bóveda celeste no ocupan una misma superficie esférica, sino que están separados, en profundidad, por distancias enormes unos de otros. Por tanto, la representación de las estrellas y las constelaciones en la bóveda celeste (o en un planisferio) es simplemente una convención adoptada para facilitar la observación astronómica.
Hiparco de Nicea Al filósofo, astrónomo y matemático griego Hiparco de Nicea (muerto en el 127 a. C.) se deben algunos logros notables en el bagaje histórico del saber humano. No solo describió el movimiento de precesión de la Tierra, sino que también calculó la duración del año astronómico con bastante exactitud, compiló el primer catálogo conocido de objetos celestes y estableció una primera formulación sistemática de las leyes de la trigonometría.
Movimiento circular. Movimiento armónico simple Uno de los conceptos fundamentales de la física moderna es el de onda. El estudio de los movimientos ondulatorios se remonta a hace varios siglos, y la descripción de estos movimientos se basa clásicamente en su comparación con otros más sencillos y fáciles de determinar: el circular y el armónico simple. Movimientos oscilatorios Los fenómenos vibratorios u oscilatorios están presentes en toda la naturaleza. Los péndulos formados por objetos que penden de hilos, los muelles que oscilan sujetos a un punto fijo, o fenómenos fisiológicos comunes, como el hecho de tiritar, son ejemplos frecuentes de este tipo de movimientos.
En términos sencillos e idealizados, puede definirse oscilación como un movimiento rectilíneo de vaivén que alcanza una cierta amplitud a ambos lados de un punto concreto, que es el que ocuparía la partícula si no se aplicara sobre ella la fuerza externa que la induce a oscilar. Este punto se denomina posición de equilibrio, y se elige comúnmente como origen de referencia en la descripción del movimiento. Los movimientos oscilatorios o vibratorios se expresan mediante ecuaciones de movimiento,que con frecuencia se apoyan con gráficas que ayudan a comprender e ilustrar su naturaleza. Estas gráficas son representaciones de la variación del espacio, de la velocidad y la aceleración de la partícula oscilante con respecto al tiempo. Movimientos oscilatorios periódicos Un caso particularmente interesante de oscilaciones es el constituido por los llamados movimientos oscilatorios periódicos. En ellos, las partículas describen una trayectoria que se repite cada cierto tiempo, denominado periodo y simbolizado por T. Si la función que describe el movimiento oscilatorio es x(t), se verifica que:
La magnitud inversa del periodo se llama frecuencia, y es una magnitud básica de los movimientos oscilatorios. El símbolo de la frecuencia es la letra griega , y su unidad de medida es el hertzio (simbolo Hz). El hertzio puede definirse también como la unidad inversa del segundo, ya que 1 Hz = 1 s-1:
Gráfica de la velocidad con respecto al tiempo de un movimiento oscilatorio. Movimiento circular
Un ejemplo sencillo de movimiento oscilatorio es la trayectoria descrita por una partícula que recorre una circunferencia de manera periódica. En tal caso, la longitud recorrida por la partícula en el período T a una velocidad angular de giro es igual a la longitud de la circunferencia 2 . Por tanto:
Despejando la velocidad angular , se obtiene que:
Por un sencillo cálculo trigonométrico, la ecuación del movimiento circular, que permite hallar la posición de la partícula en cualquier instante t, se obtiene como sigue:
siendo R el radio de la circunferencia y el ángulo que fija la posición de la partícula en el instante inicial de medida.
Representación gráfica del movimiento circular. Movimiento armónico simple Otro tipo común de oscilación es el denominado movimiento armónico simple, descrito como aquel que recorre una partícula que se desplaza en línea recta y de forma periódica a ambos lados de un punto de equilibrio que se toma como origen. La posición que ocupa la partícula en un momento dado se denomina elongación, y su máxima separación con respecto al origen es la amplitud (simbolizada por A). El movimiento armónico simple se produce cuando, en todo instante, la aceleración de la partícula oscilante es proporcional y de sentido contrario a la coordenada de posición de la misma. Es decir:
El movimiento armonico simple puede apreciarse como si fuera un movimiento circular proyectado sobre el diametro de la circunferencia. Por tanto, las ecuaciones del movimiento armónico simple son formalmente idénticas a las del circular. Si la amplitud del movimiento es A, su velocidad angular y su posición angular inicial , se tiene que:
El período y la frecuencia del movimiento armónico simple guardan la misma relación que en el caso del movimiento circular. Suponiendo que no existe rozamiento, la energía mecánica del movimiento armónico simple se puede escribir como:
Gráficas
Gráfica espacio-tiempo de un movimiento oscilatorio.
Gráfica aceleración-tiempo de un movimiento oscilatorio.
Representación gráfica del movimiento armónico simple. De arriba a abajo, se muestran las gráficas del espacio, la velocidad y la aceleración en función del tiempo.
Un muelle situado sobre una superficie pulida (sin rozamiento) que se estirara con respecto a su posición natural (a) iniciaría un movimiento armónico simple.
El péndulo. Movimientos armónicos compuestos Una aplicación directa y sencilla del estudio de las oscilaciones periódicas es el péndulo. Este sencillo artilugio con aplicaciones en la construcción de relojes y maquinarias, puede esquematizarse de manera que se desarrollen con un alto grado de precisión las ecuaciones que rigen su comportamiento físico.
Péndulo simple Un péndulo simple es un sistema constituido por un objeto material, llamado lenteja, suspendido de un hilo, que se considera inextensible y sin masa, y sujeto a un punto fijo en uno de sus extremos. La única acción externa ejercida sobre este sistema es el peso del objeto, que alcanza el equilibrio en una posición perfectamente vertical, donde el peso compensa exactamente la tensión del hilo. Si se desvia la posición del cuerpo un cierto ángulo con respecto a la vertical, empieza a oscilar en un movimiento que se asemeja bastante, al movimiento armonico simple cuando los ángulos de desplazamiento son pequeños. En un péndulo en movimiento, el peso se puede descomponer en dos elementos:
La componente en la dirección del movimiento, o fuerza tangencial (F D). Una componente perpendicular a la anterior (FP), que está compensada por la tensión del hilo (FT). Cuando los desplazamientos de la lenteja con respecto a la vertical son pequeños, el movimiento pendular se corresponde aproximadamente con un movimiento armónico simple cuyo período T es:
siendo l la longitud del hilo y g la aceleración de la gravedad.
Esquema de un péndulo simple, formado por un cuerpo suspendido de un hilo inextensible cuya masa se considera insignificante. Tensión del hilo En un movimiento pendular, la tensión del hilo no se mantiene constante. En cada momento, la fuerza centrípeta neta que actúa sobre la lenteja será la suma de la tensión del hilo más la componente perpendicular del peso:
Como el movimiento es circular y todas las fuerzas anteriores tienen la misma dirección, se deduce la siguiente ecuación para los módulos de las fuerzas:
donde es el ángulo que forma en cada instante el hilo con la vertical. Movimiento armónico compuesto En la naturaleza son frecuentes las oscilaciones periódicas que no se corresponden con movimientos armónicos simples, sino que pueden describirse como la superposición de movimientos con frecuencias que son múltiplos unas de otras. Estas clases de oscilaciones reciben el nombre de movimientos armónicos compuestos. La ecuación de la función espacial de un movimiento armónico compuesto puede escribirse del modo siguiente:
siendo n un número entero.
Período de un movimiento armónico compuesto, que se corresponde con el del armónico simple de período más largo. En un movimiento armónico compuesto pueden distinguirse varios componentes:
El primer sumando de la serie, que tiene la menor frecuencia de todos, recibe el nombre de armónico fundamental. Los restantes sumandos se denominan armónicos secundarios. Y este fenómeno de los armónicos superpuestos es relativamente frecuente en la naturaleza y se aprecia claramente, por ejemplo, en los acordes musicales. Descripción de Fourier
En relación con la descripción del movimiento armónico compuesto, el matemático francés Joseph Fourier (1768-1830) demostró que toda oscilación de período T puede considerarse un movimiento armónico compuesto formado por una serie finita o infinita de sumandos de movimientos armónicos simples, cuyas frecuencias sucesivas son:
En esta descripción, los primeros términos de la serie, con frecuencias más bajas, son mucho más intensos que los de frecuencias altas y tienen mayor importancia en la descripción real del movimiento oscilatorio.
Ilustración gráfica de las series de Fourier para oscilaciones periódicas. Como puede verse, el movimiento real de la segunda gráfica puede reproducirse con bastante exactitud mediante una suma de un número limitado de armónicos simples. El péndulo de Galileo
La fuerza que provoca la oscilación del péndulo es la componente del peso en el sentido del movimiento. Esta componente se denomina tangencial. La primera descripción del movimiento pendular se debe al científico italiano Galileo Galilei, quien hacia 1583 observó la regularidad del movimiento de una lámpara colgada del techo de la catedral de Pisa y lo midió con su propio pulso. Aunque la invención del reloj de péndulo se ha atribuido también a Galileo, numerosos historiadores sostienen que fue el neerlandés Christiaan Huygens el primero en construir, en 1656, un artefacto de estas características.
Armónicos musicales El fenómeno de los armónicos del sonido ha sido fundamental para el desarrollo de la música en Occidente. Por ejemplo, al pulsar la tecla Do del piano, no sólo se escucha el sonido correspondiente a la misma (la nota llamada fundamental), sino que la cuerda metálica pulsada genera también, aunque con menor intensidad, sonidos con frecuencias iguales a múltiplos de la anterior: primero un Do una octava superior, después un Sol, más tarde un Mi, y así sucesivamente. En este principio se basa el uso de los acordes, o grupos de tres o más notas (por ejemplo, Do-Mi-Sol), sobre los que se sustentan los pasajes de la música clásica y popular, basados en una sucesión de tensiones («disonancias ») y resoluciones de acordes (recuperación de la «consonancia» dentro de la tonalidad). Propagación de vibraciones. Ondas mecánicas Se llama onda mecánica a la que se propaga en medios materiales. Un ejemplo arquetípico de onda mecánica es el sonido, que no se transmite en el vacío. Esta cualidad es importante si se compara con las ondas electromagnéticas (como la luz), que se propagan tanto en medios materiales como en el vacío. Movimiento ondulatorio Los movimientos oscilatorios que se desplazan en un medio reciben el nombre de ondas o movimientos ondulatorios. Estos fenómenos, muy comunes en la naturaleza, se presentan en dos formas principales:
Las ondas mecánicas, que necesitan un medio material sobre el que propagarse (como el sonido o la transmisión de una onda sobre la superficie de un estanque). Las ondas electromagnéticas, que, como la luz, se transmiten en el vacío. En el estudio clásico de las ondas se aplican varios principios de simplificación:
Se supone que el medio de propagación es homogéneo, es decir, que todas las partículas oscilan de forma similar bajo la acción de fuerzas internas. Se considera que la frecuencia de todas las partículas del medio sometidas a la oscilación es la misma. La velocidad de propagación se supone constante, no dependiente de la frecuencia y tampoco de la dirección de propagación.
Ondas longitudinales Un movimiento ondulatorio se denomina onda longitudinal cuando las partículas del medio sometidas a la oscilación vibran en la misma dirección en la que se propaga la onda. Esta forma de movimiento ondulatorio es característica de la propagación de las ondas de sonido en el aire, en los líquidos no viscosos y en los gases en general, por lo que también reciben el nombre de ondas sonoras.
Las ondas longitudinales son aquellas en que la propagación y la vibración de las partículas tienen el mismo sentido. Ondas transversales En el tipo de movimiento ondulatorio denominado onda transversal, las partículas del medio vibran en dirección perpendicular a la de propagación de la onda. Un ejemplo de onda transversal es el movimiento que se produce al lanzar una piedra sobre el agua de un estanque en reposo. Las ondas transversales tienen lugar, sobre todo, en sólidos y líquidos viscosos, aunque en estos materiales también es posible la propagación de ondas longitudinales. Las ondas periódicas En general, los movimientos ondulatorios presentes en la naturaleza son de tipo periódico, y se repiten según una ley de oscilación. En el foco del que parte la oscilación, la vibración de la partícula se regirá por la ecuación de onda u = f(t). En cualquier punto del medio, esta ecuación tendrá un retraso temporal igual al intervalo que tarda en llegar la perturbación. Si v es la velocidad de propagación de la onda, la función de posición de una partícula cualquiera del medio será:
Longitud de onda En el movimiento de una onda periódica, las partículas del medio oscilan conforme dicta su ecuación de posición, de manera que algunas de ellas coincidiran en su estado de vibración. La distancia entre cada dos partículas consecutivas del medio con un mismo estado de vibración se conoce por longitud de onda y su símbolo es . La longitud de onda introduce el concepto de periodicidad espacial (que se añade al de periodicidad temporal asociado al periodo T) para los movimientos ondulatorios periódicos, ya que la función de onda se puede escribir de manera que:
Ondas armónicas Si se aplican las conclusiones de Fourier a los movimientos ondulatorios periódicos, cualquier oscilación periódica se puede expresar como una suma de oscilaciones de tipo armónico, de manera que la ecuación de la onda global se escribiría como:
donde es la frecuencia angular o velocidad angular de la onda, relacionada con el período T por la fórmula . Por analogía, para la periodicidad espacial de la onda se define una magnitud que recibe el nombre de numero de ondas. Entonces, la ecuacion de onda se transforma en:
La cantidad se conoce por fase de la onda y se simboliza por la letra griega . La fase define sin ambigüedades el estado de vibración de cualquier punto del medio en un instante dado. Dos puntos en el mismo estado de vibración se dice que están en fase, mientras que si tienen estados de vibración antagónicos se dicen en oposición de fase. Velocidad de las ondas mecánicas
Las ondas mecánicas se propagan con diferente velocidad en cada medio material, de modo que dicha velocidad varía también según las condiciones del medio. Por ejemplo, la velocidad de las ondas transversales que se generan en una cuerda toma el valor:
donde FT es la tensión de la cuerda y m la densidad lineal (masa por unidad de longitud); así, al aumentar la tensión de la cuerda, se incrementa también la velocidad.
En la práctica, la vibración de las partículas del medio suele tener una componente transversal y otra longitudinal. El valor relativo entre ambas se describe por medio de una magnitud denominada polarización u. Por su parte, en las ondas longitudinales la velocidad de propagación aumenta con la elasticidad del medio y disminuye con su densidad.
Velocidad de propagación del sonido en diversos medios.
Longitud de onda, frecuencia y periodo En los movimientos oscilatorios periodicos existen tres magnitudes íntimamente relacionadas que se utilizan frecuentemente de manera indistinta para referirse a sus características: el periodo T, medido en segundos, que es el tiempo que se invierte en completar un ciclo completo del movimiento; la frecuencia l, expresada en hertzios, que se entiende como el numero de veces que se repite el fenómeno por unidad de tiempo, y la longitud de onda l, o distancia (en metros, centímetros u
otra unidad de longitud) que existe entre dos puntos sucesivos que se encuentren en el mismo estado de vibración.
El sonido y sus propiedades El ejemplo más común de onda mecánica que se propaga en un medio material es el sonido. Este fenómeno físico, que induce una respuesta en el ser humano y en la mayoría de los animales por el sentido del oído, se estudia normalmente desde dos puntos de vista complementarios: el físico propiamente dicho y el fisiológico, que analiza las cualidades de su percepción por el hombre. Ondas mecánicas A todo movimiento ondulatorio que se transmite a través de un medio material, se llama onda mecánica. Lo que se propaga es la energía de las oscilaciones mecánicas de las partículas del medio. La onda mecánica más característica es el sonido, que es un movimiento ondulatorio longitudinal (las partículas del medio vibran en la dirección de propagación del campo), transmitido en el medio por colisiones elásticas entre las partículas adyacentes. La velocidad de propagación del sonido en los gases se calcula como:
donde es el cociente entre los calores especificos a presion constante y a volumen constante del gas, R es la constante universal de los gases (de valor R = 8,314 J/mol·K), M la masa del gas y T la temperatura absoluta. Frentes de onda Para explicar la propagación de las ondas mecánicas se recurre frecuentemente a un modelo geométrico en el que se distinguen:
El foco emisor primario, del que parte la perturbación ondulatoria. Los frentes de onda, o lugares geométricos de los puntos del medio que tienen igual fase (estado de vibración) en un instante dado. Los rayos de onda, que son rectas perpendiculares a los frentes de onda y determinan gráficamente las direcciones de propagación.
Ilustración de los conceptos de frentes de onda y rayos de onda. Difracción de ondas Se define difracción como la cualidad de una onda según la cual el movimiento ondulatorio, aun cuando se propague en línea recta, es capaz de sortear obstáculos, doblar esquinas o difundirse a través de una rendija. Este fenómeno puede explicarse mediante el modelo geométrico de los frentes de onda secundarios, por el cual cada punto del frente de ondas se convierte en emisor de ondas esféricas cuya envolvente engendra el nuevo frente de ondas. Intensidad del sonido En el estudio del sonido, desde el punto de vista de su percepción por el hombre, se analizan propiedades diferentes de las puramente ondulatorias (periodo, longitud de onda, frecuencia, fase, amplitud). Entre estas propiedades destaca la intensidad de la onda, que se define como la energía que esta transporta por unidad de tiempo a través de una unidad de superficie perpendicular a la dirección de propagación. El valor de la intensidad de una onda armonica, se expresa:
siendo la densidad del medio, v la velocidad de propagación, la frecuencia angular de la vibración y A la amplitud o elongación máxima de la onda. En el Sistema Internacional, esta intensidad de onda se mide en vatios por metro cuadrado (W/m2).
La energía que transporta la onda por la sección del medio en un intervalo de tiempo dado es absorbida por las partículas que se contienen en el volumen considerado. Nivel de intensidad sonora La intensidad sonora mínima que percibe el oído humano se denomina intensidad umbral, y tiene un valor aproximado de 10-12 W/m2 ; por su parte, la intensidad máxima perceptible antes de sentir dolor en el oído es de 1 W/m2, aproximadamente. Para representar la escala de audición del hombre, se utiliza una escala logaritmica relativa que comprima graficamente los valores. El nivel de intensidad sonora de un sonido con intensidad I se define:
El nivel de intensidad sonora se mide en decibelios (símbolo dB), de modo que el umbral mínimo de audición, según la fórmula anterior, corresponde a un nivel de intensidad sonora igual a 0 dB; el nivel sonoro del umbral de dolor se sitúa en 120 dB. Timbre y tono Otras cualidades importantes del sonido, desde el punto de vista de la percepción, son el timbre y el tono. El timbre, se define como el conjunto formado por el armónico fundamental de la misma y sus armónicos secundarios. Es la cualidad que permite distinguir, por ejemplo, el sonido de un piano del de un violín. Por su parte, el tono es la frecuencia fundamental de la onda periódica, es decir, la onda predominante en la sucesión de sus armónicos. En virtud del tono, los sonidos se clasifican en graves (con frecuencia fundamental baja) y agudos (cuya frecuencia fundamental es elevada). Christiaan Huygens
Modelo de los focos secundarios de Huygens: cada punto de la envolvente de las ondas elementales emitidas por cada punto engendra un nuevo frente de ondas global, de manera que sus puntos se convierten en focos emisores de ondas esféricas secundarias. El neerlandés Christiaan Huygens (1629-1695) ofreció una primera explicación plausible del fenómeno de la difracción de la luz. Su exposición era coherente con su interpretación de que la luz estaba formada por ondas que se difundían al doblar esquinas o atravesar rendijas.
Ultrasonidos Los ultrasonidos son ondas sonoras cuya frecuencia es superior al umbral máximo de audición del hombre. Para una persona joven, los límites de audición se sitúan en 20 Hz (por debajo) y 20.000 Hz (por encima). Así, los ultrasonidos tienen frecuencias superiores a 20.000 Hz. Estas ondas sonoras de alta frecuencia poseen diversas aplicaciones, como el uso del sonar en los submarinos para detectar objetos mediante el eco, o los procedimientos utilizados en medicina para romper los cálculos de riñón sin necesidad de una intervención quirúrgica. Algunos animales, como los murciélagos y los perros, son capaces de detectar ultrasonidos.
hiru.com Interferencia de ondas En la naturaleza no es corriente encontrar movimientos ondulatorios puros y aislados en el espacio o en los medios materiales. Con frecuencia, las ondas interfieren unas con otras para configurar patrones oscilatorios complejos, normalmente caóticos y difíciles de analizar y de descomponer en sus ondas individuales. Sin embargo, algunos de estos patrones adquieren regularidad y resultan particularmente interesantes para la observación física. Entre ellos destacan las llamadas ondas estacionarias. Superposición de ondas Cuando en un mismo lugar del espacio confluyen las perturbaciones ondulatorias procedentes de dos o más focos emisores independientes, se habla de superposición o interferencia de ondas. En términos conceptuales, para determinar la resultante de una interferencia de ondas se recurre a la suma algebraica de las vibraciones individuales constituyentes. Así, si se considera la superposición de dos ondas suponiendo la misma frecuencia, la resultante suponiendo la misma frecuencia, será:
La amplitud B de la oscilación armónica resultante se expresa como:
Así, la amplitud es máxima (interferencia constructiva) cuando el coseno de la fórmula es igual a 1, y mínima (interferencia destructiva) si es igual a –1. Para ello han de cumplirse las siguientes relaciones algebraicas:
Ondas estacionarias Un caso interesante de interferencia de ondas es aquel en que las vibraciones individuales poseen igual frecuencia y amplitud y se propagan en sentidos opuestos. El movimiento resultante se conoce como onda estacionaria. La ecuación de posición de una onda estacionaria, expresada genéricamente como u = B cos , tiene los siguientes valores de amplitud B y fase :
Los valores absolutos de amplitud máxima, de la onda estacionaria resultante (B = ±2A) se denominan vientres de la onda, y los de amplitud mínima (B = 0) se llaman nodos. Cada dos nodos o dos vientres consecutivos hay una distancia igual a la mitad de la longitud de onda del movimiento ondulatorio estacionario.
En las ondas estacionarias, algunos puntos quedan siempre en reposo (nodos) y otros (vientres) oscilan con una amplitud máxima igual al doble de las amplitudes de las ondas constituyentes. Pulsaciones Cuando confluyen en un punto dos ondas con frecuencias muy similares, aunque diferentes, se produce el fenómeno conocido como pulsación. Suponiendo el caso simplificado de que ambas vibraciones elementales tengan la misma amplitud A, el movimiento ondulatorio resultante tendrá una amplitud igual a:
donde p es la diferencia (muy pequeña) entre las frecuencias angulares de ambas vibraciones elementales. El movimiento y el sonido Cuando el medio material en que se desplaza una onda se mueve con respecto al observador, la velocidad de desplazamiento real de la onda se modifica. Así, los sonidos llegan con mayor nitidez cuando se tiene el viento a favor que si se tiene en contra. Si v es la velocidad de propagación de la onda y V M la de desplazamiento del medio, siendo el ángulo que forman ambas velocidades, la velocidad real de transmisión del movimiento ondulatorio seria:
Efecto Doppler Cuando el foco emisor de la onda se desplaza con respecto al observador, se modifican algunas de las características esenciales del movimiento:
Cuando el foco emisor se mueve hacia el observador, la frecuencia de la onda aumenta y la longitud de onda disminuye. Si el foco emisor se aleja del observador, la frecuencia disminuye y la longitud de onda aumenta. Este resultado, conocido por efecto Doppler, se aprecia en la vida cotidiana en múltiples casos prácticos. Por ejemplo, cuando se acerca una ambulancia, el sonido de su sirena parece más agudo que cuando se aleja. Las relaciones matemáticas que relacionan los valores entre las frecuencias y las longitudes de onda implicadas son:
donde nF y F son la frecuencia y la longitud de onda en el foco emisor, nP y P los valores de estas magnitudes recibidos por el observador en el punto P, v la velocidad de propagación de la onda y VF la de desplazamiento del foco emisor. El signo - se emplea cuando la fuente se acerca al observador; el signo +, cuando se aleja.
En un objeto en movimiento que se aproxima al observador, éste aprecia los frentes de onda más juntos que si el objeto estuviera en reposo, con lo que la longitud de onda disminuye. Si el objeto se alejara, la longitud de onda aumentaría desde la perspectiva del observador. Ésta es una de las manifestaciones del efecto Doppler. Tubos sonoros
En un tubo cerrado, se produce un nodo en el extremo cerrado y un vientre en el extremo abierto.
En un tubo abierto, se producen vientres en los dos extremos.
Cuerdas vibrantes
El tono que emite un diapasón puede regularse si se disponen de forma diferente las piezas móviles del instrumento. Con ello se emiten pulsaciones de sonido en torno a una frecuencia fundamental. Cuando se deforma una cuerda con respecto a su posición de equilibrio, las fuerzas elásticas aplicadas la obligan a vibrar en un movimiento que genera ondas transversales a lo largo de la cuerda. Estas ondas provocan una superposición de ondas estacionarias con una frecuencia fundamental, que producen a su vez ondas sonoras de igual frecuencia. En este principio se basan los instrumentos musicales de cuerda, como el violín, la viola, el violonchelo y el contrabajo.
El efecto Doppler en la luz Aunque conocido en su manifestación en las ondas sonoras, el efecto Doppler es característico de cualquier tipo de movimiento ondulatorio. Así, en la observación de la luz que llega de las estrellas a los observatorios astronómicos terrestres se percibe que la radiación que proviene de las galaxias lejanas tiene líneas espectrales desplazadas hacia el rojo (frecuencias menores o longitudes de onda mayores) con respecto a lo esperado según los patrones de emisión de luz por los
diversos átomos. Ello indicaría que las galaxias se están alejando de la Tierra. Este resultado es el principal fundamento de la hipótesis cosmológica de la expansión del universo.
Naturaleza de la luz. Ondas electromagnéticas La comprensión de los fenómenos luminosos ha ocupado a los filósofos y pensadores de todos los tiempos. Según las consideraciones de la física, la luz visible (y las restantes ondas electromagnéticas) es al mismo tiempo de naturaleza corpuscular (formada por partículas elementales llamadas fotones) y ondulatoria, y sólo esta condición dual puede explicar sus peculiares características. Primeras teorías sobre la luz Durante los siglos XVII y XVIII se propusieron dos teorías alternativas sobre la naturaleza de la luz:
Teoría corpuscular, que interpretaba que la luz estaba formada por pequeños corpúsculos que se movían en línea recta y a gran velocidad. Hipótesis ondulatoria, que sostenía que la luz era una onda que se desplazaba a través de un supuesto medio material que impregnaba todo el espacio, llamado éter.
Newton imaginó que las ondas estaban formadas por corpúsculos materiales. Con este enfoque, interpretaba que la reflexión se debía a colisiones elásticas entre dichos corpúsculos y que la refracción se basaba en fuerzas de atracción intercorpuscular (por ejemplo, del agua a las partículas de luz). A principios del siglo XIX, el inglés Thomas Young (1773-1829) y el francés Augustin Fresnel (1788-1827) ofrecieron nuevas pruebas sobre la naturaleza ondulatoria de la luz. La consideración de la luz como onda recibió un espaldarazo definitivo con los estudios sobre electromagnetismo realizados durante el siglo XIX. El escocés James Clerk Maxwell (1831-1879) señaló, con una base
experimental sólida, que la luz era una forma de onda electromagnética, que ocupaba una pequeña porción del espectro electromagnético global. La dualidad corpúsculo-onda En el siglo XX, los trabajos de Albert Einstein (1879-1955) sobre el efecto fotoeléctrico establecieron que la luz tiene una doble naturaleza ondulatoria y corpuscular de manera que:
Está formada por haces de partículas elementales llamados fotones. Posee una condición de onda electromagnética que se desplaza con una velocidad en el vacío aproximadamente igual a 300.000 km/s. Según Einstein, la energía de cada fotón de luz viene dada por la expresión E = h, donde es la frecuencia de la onda electromagnética que se le asocia y h un valor conocido por constante de Planck. Velocidad de la luz A lo largo de la historia se han realizado múltiples experimentos para determinar la velocidad de la luz. Dos de los intentos más afortunados, hoy de interés puramente histórico, fueron los siguientes:
El astrónomo danés Olaüs C. Roemer (1644-1710) midió la velocidad de la luz a través de la observación de los eclipses de los satélites de Júpiter. El valor que obtuvo fue de unos 227.000 km/s. En 1849, el francés Armand Fizeau (1819-1896) utilizó un ingenioso experimento basado en el uso de espejos e instrumentos de laboratorio, que arrojó un valor aproximado de 313.000 km/s para la velocidad de las ondas luminosas.
Experimento de Fizeau para determinar la velocidad de la luz. El foco luminoso emisor se situaba en la colina de Suresnes y, después de atravesar un espejo semiplateado, llegaba a la colina de Montmartre, se reflejaba en un espejo común y regresaba de nuevo a Suresnes.
Métodos interferométricos y con láser Con el perfeccionamiento de las técnicas de laboratorio, se hizo posible realizar medidas de la velocidad de la luz cada vez más exactas. La primera determinación acertada fue realizada por Albert A. Michelson (1852-1931) que aplicó métodos interferométricos con el fin de obtener, para el desplazamiento de las ondas luminosas, un valor de 300.000 km/s (ver t55). En nuestros días, el valor aceptado para la velocidad de la luz en el vacío es c = 299.792,458 km/s. Este valor es un paradigma de la física, y se utiliza para la definición de otras magnitudes elementales. La velocidad de la luz en un medio material es ligeramente inferior que en el vacío, de manera que si n es el índice de refracción del medio, las ondas luminosas se desplazan con una velocidad igual a:
Así, la luz se propaga en el agua a una velocidad aproximada de 225.000 km/s y en el vidrio a unos 200.000 km/s. Debates sobre la naturaleza de la luz
Espectro electromagnético donde puede verse, en el centro, la estrecha franja de longitudes de onda que ocupa la luz visible. A lo largo del siglo XVII, Newton y Huygens expusieron visiones contrapuestas sobre la naturaleza de la luz. En una encendida controversia, surgieron partidarios de ambas hipótesis. El enorme prestigio de Newton decantó inicialmente el debate
a su favor. En el siglo XIX, la teoría corpuscular y el ascendente prestigio de Newton empalidecieron ante el auge de las interpretaciones ondulatorias de la luz. Finalmente, en el siglo XX, tras casi 250 años, los estudios de Einstein sobre el efecto fotoeléctrico propiciaron una solución salomónica y definitiva sobre el debate: la luz es tanto corpúsculo como onda.
Efecto fotoeléctrico Uno de los fenómenos físicos que ayudaron a Albert Einstein a proponer su hipótesis ondulatoria-corpuscular para la luz fue el efecto fotoeléctrico, que sólo se explica suponiendo que la luz está compuesta por un haz de partículas (fotones) de energía proporcional a la frecuencia de la luz incidente. Este efecto, que hace que un material emita electrones cuando sobre él incide luz, se usa en numerosas aplicaciones (una de las más comunes es la célula fotoeléctrica, empleada en las puertas de apertura automática que detectan la presencia de las personas que se aproximan a ellas).
Reflexión y refracción de ondas En los medios elásticos y homogéneos, las ondas se propagan en línea recta. Ahora bien, la dirección de desplazamiento de los movimientos ondulatorios se modifica cuando la onda llega a la frontera de separación entre dos medios diferentes. En estos casos se producen los conocidos efectos de reflexión, refracción y dispersión de ondas. Reflexión y transmisión de la luz Cuando una onda incide sobre la superficie de separación entre dos medios diferentes, una parte de su energía se transmite al segundo medio en forma de una onda transmitida de características similares a la incidente, mientras que otra parte de la energía incidente rebota en dicha superficie y se propaga hacia atrás, al primer medio, para constituir una onda reflejada. Este fenómeno de reflexión y transmisión de perturbaciones oscilatorias es comun tanto a las ondas mecánicas como a la luz y otras ondas electromagnéticas. Las frecuencias de las ondas incidente, transmitida y reflejada son iguales. En cambio, la longitud de onda de la onda transmitida T difiere de la incidente I en una relación que depende de sus indices de refracción respectivos:
La fracción de energía del haz luminoso que se transmite al segundo medio depende del tipo de superficie de separación, de la dirección de incidencia sobre la misma, del campo eléctrico asociado al haz y de los índices de refracción de los dos medios. Así, en el paso del aire al vidrio se transmite aproximadamente un 96% de la energía incidente, mientras que cuando el segundo medio tiene una superficie de separación pulida y reflectante (por ejemplo, un espejo), se refleja prácticamente toda la energía y apenas existe transmisión.
Una onda que llega a la frontera entre dos medios en parte se refleja al primer medio y en parte se transmite al segundo (normalmente refractada, con otra dirección de propagación). Leyes de la reflexión En un estudio simplificado del fenómeno de la reflexión de ondas en la superficie de separación entre dos medios se pueden definir dos leyes básicas: 1. Cada rayo de la onda incidente y el rayo correspondiente de la onda reflejada están contenidos en un mismo plano, que es perpendicular a la superficie de separación entre los dos medios en el punto de incidencia. 2. El ángulo que forman el rayo incidente y el rayo reflejado con la recta perpendicular a la frontera son iguales. Estos ángulos se conocen, respectivamente, como ángulo de incidencia y ángulo de reflexión. Es decir:
Los rayos incidente y reflejado se encuentran en el mismo plano, que es perpendicular al de incidencia, y forman un mismo ángulo con la normal en el punto de incidencia. Refracción de la luz La flexión de los rayos luminosos cuando atraviesan una superficie de separación entre dos medios se conoce con el nombre de refracción. En términos simples, el fenómeno de la refracción se rige por dos leyes principales:
1. Cada rayo de la onda incidente y el rayo correspondiente de la onda refractada forman un plano que es perpendicular a la superficie de separación entre los medios en el punto de incidencia. 2. El ángulo que forma el rayo refractado con la normal, llamado ángulo de refracción, está relacionado con el ángulo de incidencia por una fórmula denominada ley de Snell, en honor a su descubridor, el físico neerlandés Willebrord Snell (1580-1626). Expresada matemáticamente, esta ley indica que:
Los rayos incidente y refractado están situados en un mismo plano, que es perpendicular al de la superficie de separación entre los medios. Los ángulos que determinan la dirección de propagación guardan entre sí una relación regida por la ley de Snell. Reflexión total y ángulo límite Según se desprende de la ley de Snell, cuando un haz luminoso pasa de un medio a otro, se acerca a la normal si el índice de refracción del segundo medio es mayor que el del primero, y se aleja de ella en caso contrario. Así, si n1 > n2 , es posible incrementar progresivamente el ángulo de incidencia hasta que se obtenga un ángulo de refracción igual a 90º. Entonces, la ley de Snell se puede expresar como:
donde L es el ángulo de incidencia, en este caso llamado ángulo limite, para el que el ángulo de refracción es 90o. Por encima del ángulo limite, toda la energía del haz luminoso incidente se refleja en un fenomeno conocido como reflexion total. Este efecto se emplea en diversos dispositivos prácticos, como los prismáticos binoculares, aunque alcanza una utilidad particularmente interesante en el caso de la fibra óptica. Dispersión luminosa La velocidad de la luz en un medio dado depende de la longitud de onda. De este modo, al incidir sobre una superficie de separación con un mismo ángulo de incidencia, se refracta con un ángulo de refracción diferente para cada longitud de onda (y, por tanto, para cada frecuencia, que determina el color). Así, si se hace incidir un haz de luz blanca sobre una superficie de separación, cada color de la luz se refracta con un ángulo diferente, para formar un efecto de arco iris. Este fenómeno se denomina dispersión de la luz.
El arco iris es una consecuencia de la dispersión luminosa. El primario se observa entre los grados 40 y 42 de inclinación con respecto a los rayos solares (a). El secundario, tiene lugar entre 50,5 y 54 grados (b). El eco Una manifestación común del fenómeno de la reflexión de ondas es el eco, producido por el rebote de las ondas sonoras contra la superficie de separación entre el aire y otro medio (por ejemplo, una pared de roca). Este fenómeno de reflexión se utiliza con fines prácticos, usado en el sonar por los submarinos y otras embarcaciones para localizar obstáculos: la nave emite una secuencia de ultrasonidos y recoge sus reflexiones (ecos) en los distintos objetos que pueda encontrar, ya sea el fondo marino, otra embarcación, etcétera.
Fibra óptica
La fibra óptica constituye una aplicación muy útil del fenómeno de la reflexión total. Formada por una fibra de vidrio fina y tubular, con un núcleo interno y un revestimiento de índices de refracción muy diferentes, permite que la luz que viaja paralelamente al eje de la fibra choque con las paredes de la misma con un ángulo superior al límite, con lo que toda la energía luminosa se transmite por el interior de la fibra. Los cables de fibra óptica ofrecen dos grandes ventajas con respecto a los cables alámbricos convencionales: ausencia de pérdida de señal y mayor velocidad de propagación (exactamente, la velocidad de la luz en el medio).
Espejismos La reflexión total tiene una manifestación curiosa en los espejismos que se ven en los desiertos y otros lugares. Estos fenómenos se producen cuando el índice de refracción de un medio cambia de forma gradual en una dirección, con lo que se produce una refracción continua de los rayos luminosos y una desviación de la trayectoria rectilínea de los mismos. Así, cuando sobre el suelo se extiende una capa de aire más caliente, con un índice de refracción mayor que las capas superiores, el observador cree percibir en el suelo la presencia de agua, que resulta, evidentemente, ficticia.
Polarización de la luz En la polarización, las características transmitidas por una onda se «filtran» en una dirección de desplazamiento entre todas las direcciones aleatorias inicialmente posibles. Este fenómeno presenta particular interés en el caso de la luz, donde la polarización del campo electromagnético que se transmite permite aprovechar con fines específicos la energía asociada. Polarización de ondas En las ondas mecánicas, se llama vector polarización al que define el desplazamiento instantáneo de las partículas del medio sometidas a la oscilación ondulatoria. Este vector puede apuntar, en principio, en cualquier dirección para cada partícula.
En las ondas longitudinales, entendidas como aquellas en que las partículas vibran en la dirección de desplazamiento de la onda, el vector polarización es colineal con la dirección de propagación.
En las ondas transversales, donde las partículas del medio oscilan en dirección perpendicular a la del movimiento de la onda, el vector polarización está siempre contenido en un plano normal a la dirección de propagación. Estas consideraciones sobre la polarización son extensibles también a las ondas electromagnéticas, como en la luz.
El desplazamiento instantáneo de las partículas del medio sometidas a un movimiento de oscilación según una onda mecánica adopta inicialmente cualquier dirección y se expresa por medio del vector de polarización. Formas de polarización Dentro de las ondas transversales, el movimiento del vector polarización tiene lugar en un plano perpendicular a la propagación de la onda. Para precisar con mayor exactitud la naturaleza de este movimiento, se consideran dos situaciones típicas:
Cuando el vector polarización se mantiene en un plano que contiene la dirección de propagación, las partículas del medio oscilan en una recta cuya dirección no varía de un punto a otro. En tal caso, se dice que la onda está linealmente polarizada. Si el vector polarización describe una curva compleja dentro del plano perpendicular a la dirección de propagación, la oscilación de las partículas puede apreciarse como una superposición de vibraciones no colineales. Entonces, se dice que la onda no está polarizada. Un caso interesante de esta situación se produce cuando la onda está polarizada circularmente. En las ondas electromagnéticas, la propagación de la onda no se acompaña de la vibración de las partículas del medio. Una onda de estas características está formada por la propagación de un campo eléctrico y otro magnético que varían con el tiempo en planos mutuamente perpendiculares y normales también a la dirección de propagación. Por convenio, se toma uno cualquiera de los vectores de ambos campos como vector polarización; normalmente se elige el campo eléctrico. En condiciones normales, en estas ondas no existe ningún desplazamiento específico del vector polarización, que presenta un movimiento aleatorio. Por
tanto, las ondas electromagnéticas comunes, como la luz en estado natural, no están polarizadas.
En la luz natural, el vector campo eléctrico que se desplaza con la onda varía continuamente dentro de un plano perpendicular a la dirección de propagación según direcciones aleatorias. Polarización por absorción Aunque las ondas electromagnéticas en estado natural, como la luz, no están polarizadas, es posible obtener formas concretas de polarización mediante la aplicación de diversos procedimientos. Uno de los más habituales consiste en interponer en la trayectoria del haz electromagnético un elemento polarizador. Los polarizadores más habituales están constituidos por largas cadenas de hidrocarburos (u otras sustancias) que se distinguen porque transmiten la luz de forma que, a la salida de las mismas, queda polarizada en la dirección perpendicular a estas cadenas. En este tipo de polarización, la componente del campo eléctrico (elegido como vector de polarización) paralela a las cadenas de hidrocarburos induce en ellas corrientes eléctricas que provocan la absorción de la energía de esta componente. Como resultado, en la salida sólo se conserva la parte de la energía de la componente perpendicular de dicho campo eléctrico. Este fenómeno se conoce como polarización por absorción. Polarización por reflexión Cuando la luz natural incide sobre una superficie plana de separación entre dos medios, por ejemplo, el aire y el vidrio, experimenta un fenómeno conjugado de reflexión y refracción (o transmisión) parciales. En los casos en que el rayo reflejado en esta superficie y el refractado tengan direcciones perpendiculares entre sí, la luz reflejada se polariza en su totalidad en la dirección perpendicular al plano de incidencia.
Este fenómeno fue observado por primera vez por el físico escocés David Brewster (1781-1868).Teniendo en cuenta la ley de Snell (ver t50), se obtiene que:
donde n1 es el índice de refracción del primer medio, n2 el del segundo y p el ángulo de polarización (que coincide con el de incidencia). De ello se deduce que: Esta expresión recibe el nombre de ley de Brewster de la polarización.
Al reflejarse en un plano, la luz se polariza linealmente en la perpendicular al plano de incidencia. En el caso concreto de que el rayo reflejado y el refractado sean perpendiculares, la polarización es total. Polarizadores
Esquema de la polarización lineal de la luz cuando atraviesa materiales polarizadores.
Si se disponen dos polarizadores con sus ejes de transmisión perpendiculares, se puede impedir totalmente el paso de la luz.
Se llama polarizadores a ciertos materiales capaces de inducir un cambio en la dirección de polarización de la luz que incide sobre ellos. Si se disponen por parejas y de forma adecuada, estos materiales pueden incluso inhibir el paso de la luz a través del dispositivo conjunto.
Difracción de ondas Los fenómenos de interferencia y difracción propios de las ondas mecánicas y del sonido en particular son extensibles también a las ondas electromagnéticas y, por tanto, a la luz. Por la peculiar naturaleza de este tipo de ondas, las interferencias luminosas y la difracción electromagnética tienen un alto interés científico y práctico. Interferencias luminosas Las condiciones necesarias para que se produzcan interferencias en las ondas electromagnéticas son las mismas que las explicadas para las ondas mecánicas (ver t48):
Las ondas que interfieren han de tener la misma frecuencia. Los haces de luz deben ser casi paralelos.
En el caso de la luz es casi imposible que haces procedentes de distintas fuentes tengan una misma frecuencia (salvo en la luz láser). Por tanto, para provocar interferencias se utiliza una misma fuente que emite un solo haz. Mediante un dispositivo específico, dicho haz se descompone en varios, que se hacen confluir finalmente en un mismo punto con una cierta diferencia de fase. Para ello se utilizan dos procedimientos alternativos:
Se obliga a que los dos haces en que se descompone el primer haz recorran caminos de diferente longitud. Se usan superficies reflectantes, ya que la onda reflejada presenta un desfase de 180º con respecto a la incidente, si el segundo medio es más denso que el primero. Método de Young El fenómeno de las interferencias luminosas fue estudiado por el físico inglés Thomas Young (1773-1829), quien ideo un procedimiento que sirvió además para determinar la naturaleza ondulatoria de la luz.
Suponiendo que la onda electromagnética inicial es armónica, con frecuencia angular , y que los caminos recorridos por los haces que confluyen en un punto de la pantalla son, respectivamente, r1 y r2 , el estado de excitación global de una componente cualquiera del campo eléctrico o magnético en dicho punto se expresaría como:
Las interferencias luminosas se aprecian como una sucesión de franjas brillantes y oscuras horizontales, a las siguientes alturas medidas desde la línea de referencia:
donde n es un numero entero (0, 1, 2, ...), la longitud de onda, h la distancia entre las rendijas y L la distancia desde la pantalla a las rendijas.
Esquema del experimento de Young. Los haces que emergen de las dos rendijas de la figura proceden de un mismo foco primario, por lo que son coherentes y pueden producir interferencias en la pantalla de proyección. Interferencias en láminas delgadas Los fenómenos de interferencia luminosa se producen de forma espontánea, no inducida, en ciertos sistemas naturales. Algunos ejemplos corrientes son las irisaciones de las pompas de jabón o las manchas de grasa extendidas sobre una superficie humedecida. Las irisaciones son franjas que se forman por la interferencia de los haces luminosos que se reflejan en las dos superficies de separación (aire-aceite y aguaaceite) de la mancha. Suponiendo que la luz incide sobre el sistema en direccion casi vertical, y asignando los valores genéricos e al espesor de la mancha y m a la longitud de onda en su interior, se obtiene que:
Difracción por una rendija Por el fenómeno de difracción, la luz y las restantes ondas electromagnéticas pueden sortear obstáculos, doblar esquinas o "colarse" por una rendija. Los principios de la difracción electromagnética coinciden con los explicados para las ondas mecánicas (ver t47). Si en el camino de la luz se interpone una superficie opaca con una rendija, se aprecia que en dicha pantalla aparecen franjas brillantes y oscuras, como en los fenómenos de interferencia descritos por Young. Ello se justifica considerando que la rendija se comporta como una sucesión de numerosas rendijas muy finas que producen este tipo de interferencias. La distribución de las franjas oscuras en la pantalla se determina mediante la formula: donde es la longitud de onda, a la anchura de la rendija y n un numero entero. La intensidad luminosa de las rendijas es máxima en la zona central de la pantalla y disminuye drásticamente lejos de esta zona. Cuando la longitud de onda coincida con la anchura de la rendija, no existirán franjas oscuras y la rendija actuará como una fuente luminosa.
Imagen de la difracción de la luz a través de una rendija, explicada según el principio de los focos secundarios. Haces coherentes Se llama coherencia al fenómeno por el cual dos haces de radiación de una misma frecuencia mantienen una relación fija entre sus fases, con lo que la
diferencia de fase entre ambas ondas es constante. Esta característica es propia del láser, un término que procede de las iniciales de la expresión inglesa Light Amplification by Stimulated Emission of Radiation (amplificación luminosa por emisión de radiación estimulada).
Redes de difracción Las redes de difracción son elementos de un dispositivo óptico que permiten separar un haz de luz o radiación electromagnética en general en las distintas líneas de su espectro. Se basan en el fenómeno de la difracción para dispersar las distintas longitudes de onda (en la luz, colores) de la onda incidente y obtener líneas separadas espacialmente que componen su distribución espectral. Las redes de difracción, de múltiples aplicaciones científicas e industriales, se distinguen por su elevado poder de resolución espacial.
La sombra nítida Según los principios de la óptica geométrica, si no existiera difracción, los bordes de las sombras de los objetos serían perfectamente nítidos, por cuanto deberían manifestar la ausencia total de luz en sus puntos. Sin embargo, en la mayoría de las situaciones de la vida cotidiana se aprecia algo de luz en la zona correspondiente a las sombras de los objetos. Esta circunstancia se explica por la capacidad de la luz para bordear los contornos de los obstáculos que se interponen en su trayectoria e inundar, aun parcialmente, la región que debería corresponder a una ausencia absoluta de iluminación.
Sistemas ópticos. El ojo humano Cuando la luz atraviesa las fronteras de separación entre dos medios experimenta fenómenos de reflexión y refracción. En virtud de tales fenómenos, cualquier observador percibe los objetos que emiten o reflejan la luz condicionado por las propiedades del medio en que se encuentra. Dioptrios planos
Las superficies de separación entre dos medios reciben el nombre de dioptrios. En el dioptrio plano es fácil señalar los componentes elementales de un sistema óptico:
Eje óptico, horizontal y perpendicular al plano de refracción del dioptrio. El origen del sistema se sitúa en la intersección del eje óptico con la superficie de separación. Espacio objeto, en el que se encuentra el objeto o fuente de luz, y espacio imagen, donde se proyecta la imagen. Punto objeto, cualquier punto perteneciente a un objeto en el espacio objeto y punto imagen, que corresponde a la imagen formada de un punto objeto en el espacio imagen. Imagen real, que se forma por la convergencia de dos rayos refractados, e imagen virtual, que resulta de la prolongación de los rayos refractados cuando son divergentes. Cuando varios rayos refractados de un punto objeto no confluyen en el mismo punto imagen, el sistema provoca una aberración óptica. De la ley de Snell puede deducirse la siguiente ecuación para el dioptrio plano:
donde n es el índice de refracción del espacio objeto, n’ el del espacio imagen, x la posición del punto objeto y x’ la del punto imagen. Dioptrios esféricos Cuando la superficie de separación entre los medios tiene forma esférica, se habla de dioptrio esférico, que puede ser convexo o cóncavo según la curvatura de dicha superficie. La ecuación del dioptrio esférico es la siguiente:
siendo R la abscisa de la posición del centro de curvatura del dioptrio. En un dioptrio esférico se distinguen dos puntos especiales: foco objeto, punto del eje óptico cuya imagen se encuentra en el infinito del espacio imagen y foco imagen, o punto del eje óptico que se corresponde con la imagen de un punto del infinito del espacio objeto.
De ello se deduce la relación para las distancias focales conocida como fórmula de Gauss:
Aumento lateral de un dioptrio Para la construcción por medios geométricos de imágenes de objetos extensos, no puntuales, mediante sistemas ópticos se consideran los siguientes conceptos:
Rayo paralelo, que corta al eje óptico desde la cabeza del objeto y se refracta para pasar por el foco imagen. Rayo focal, que parte de la cabeza del objeto y pasa por el foco objeto, saliendo paralelo al eje óptico. Rayo radial, que parte de la cabeza del objeto y se dirige al centro de curvatura del dioptrio. La relación entre la altura del objeto y de la imagen se conoce por aumento lateral que produce el dioptrio, y se puede escribir como:
En la construcción de imágenes por medios geométricos resultan fundamentales los conceptos de rayos paralelo, radial y focal. El ojo humano El ojo humano es un sistema óptico centrado constituido por cuatro membranas transparentes y una pantalla sobre la que se proyectan las imágenes. Tales elementos son:
Córnea, o lente externa del ojo, de pequeña curvatura. Su función consiste en proteger al ojo y corregir la aberración esférica. Su índice de refracción es 1,38.
Humor acuoso, un líquido de índice de refracción 1,34 que contiene un diafragma de apertura variable denominado iris, en cuyo centro se encuentra la pupila o niña. Cristalino, una lente convergente flexible que se sostiene por los músculos ciliares. La contracción o dilatación de estos músculos permite acomodar la distancia focal del ojo para enfocar la imagen de los objetos. Humor vítreo, un líquido de aspecto vidrioso que ocupa la mayor parte del globo ocular, con un índice de refracción de 1,34. Retina, pantalla donde se forman las imágenes. Contiene dos tipos de células: los conos, que permiten distinguir los colores, y los bastones, muy sensibles a la luz.
Esquema básico de los elementos del ojo humano. Óptica geométrica
La aberración óptica es un fenómeno que se produce cuando a un mismo punto objeto le corresponden, en un sistema óptico, varias imágenes diferentes. La representación de los sistemas ópticos se simplifica notablemente mediante la aplicación de las leyes de la óptica geométrica. Esta rama de la física se centra en la observación de los rayos que proceden de los elementos de un espacio objeto (llamados objetos) y llegan a través del sistema óptico al espacio imagen (para formar las imágenes). Los puntos correspondientes entre un objeto y una imagen
se denominan conjugados. Las consideraciones de la óptica geométrica son ideales, y han de ser corregidas cuando se aplican a sistemas reales.
La sensación de color La percepción del color combina elementos físicos y fisiológicos. La luz que incide sobre la retina genera en sus células reacciones fotoquímicas que se transmiten al cerebro por el nervio óptico en forma de impulsos nerviosos. Las células responsables de la visión del color son los conos, que inhiben su acción en condiciones de débil luminosidad (por ejemplo, de noche). Por otra parte, la sensación de los distintos tonos del espectro cromático se obtiene por combinación de los tres colores básicos a los que son sensibles los conos: rojo, verde y azul.
Defectos de acomodación del ojo No siempre el ojo humano es capaz de actuar correctamente como un sistema óptico. Algunos problemas fisiológicos corrientes que se derivan de defectos de acomodación del ojo son: la miopía, donde el eje del globo ocular es más largo de lo normal y, en consecuencia, las imágenes se forman delante de la retina, y no sobre ésta, con lo que se ven borrosas; la hipermetropía, contraria a la anterior y debida a un acortamiento del eje ocular que hace que se confundan las imágenes lejanas; y la presbicia o presbiopía, también llamada vista cansada, que se deriva de la incapacidad de los músculos ciliares para curvar el cristalino y adaptar el eje ocular a las necesidades de la visión.
Instrumentos ópticos Por su excesiva sencillez, los dioptrios no se utilizan como sistemas ópticos, sino que éstos se encuentran constituidos normalmente por sucesiones de dioptrios esféricos dispuestos entre varios medios y con centros de curvatura alineados. Los sistemas ópticos centrados resultantes sirven como fundamento de los instrumentos complejos, como microscopios, anteojos, telescopios, etcétera. Sistemas ópticos centrados Los sistemas ópticos centrados, corrientemente series alineadas de dioptrios esféricos, están constituidos básicamente por lentes y espejos.
Una lente es un conjunto de dos dioptrios esféricos. Como caso particular, cuando su grosor es insignificante en comparación con los radios de los dioptrios que la integran, se habla de lente delgada, cuya ecuación es:
siendo x la coordenada horizontal del punto objeto, x’ la del punto imagen y f’ la distancia focal imagen. Construcción de imágenes mediante lentes Para el estudio de las lentes se recurre a los principios de la óptica geométrica, utilizándose rayos similares a los empleados en los dioptrios esféricos: paralelo, que incide en paralelo al eje óptico y que se refracta para cortar al eje imagen y central, que incide sobre el centro de la lente y surge de la misma en paralelo al eje óptico. Estos dos rayos se utilizan para construir gráficamente las imágenes que resultan del uso de una lente delgada.
Diversos tipos de lentes. Clases de lentes y potencia Según su naturaleza, las lentes delgadas se clasifican en dos grandes grupos:
Convergentes, donde la distancia focal imagen es positiva, con lo que la imagen es real y se forma detrás del centro de la lente. Según su geometría, las lentes convergentes pueden ser biconvexas, plano-convexas y meniscos convergentes. Divergentes, con distancia focal imagen negativa, lo que significa que la imagen formada es virtual y aparece delante del centro de la lente. Las lentes divergentes se clasifican en bicóncavas, plano-cóncavas y meniscos divergentes.
Potencia de una lente Para conocer el grado de convergencia de una lente, se define su potencia como el valor inverso de la distancia focal:
La unidad de la potencia es la dioptría, o potencia de una lente cuya distancia focal es 1 m. En un sistema de dos lentes yuxtapuestas (con centros de curvatura que coinciden), la potencia total es igual a la suma de las potencias individuales de cada fuente. Si las lentes no están yuxtapuestas, sino a una distancia d una de otra, la potencia total es:
Espejos planos y esféricos En los sistemas ópticos centrados se usan como componentes esenciales superficies reflectantes llamadas espejos, pulidas de modo que reflejan más del 95% de la energía luminosa que les llega. En los sistemas de espejos pueden aplicarse las mismas leyes que en las lentes, si se considera la reflexión como una forma especial de refracción donde la luz pasa de un medio de índice de refracción n a otro medio hipotético (en realidad, el mismo) cuyo índice fuera –n. Si se aplica este principio, cabe distinguir dos clases generales de espejos:
Espejos planos, en los cuales la imagen de un punto objeto vendría dada por una forma simplificada de la ecuación del dioptrio plano (ver t53): x’ = -x. Espejos esféricos, donde la formación de imágenes se regirá por la ecuación del dioptrio esférico sustituyendo el índice de refracción del segundo medio por –n. Un espejo esférico tiene un único foco principal, que se sitúa en el punto medio entre el centro del espejo y su vértice. El aumento lateral del espejo esférico es:
Formación de imágenes mediante espejos
Al aplicar los principios de la óptica geométrica se obtienen varias situaciones para formar imágenes con un espejo esférico. Si el espejo es cóncavo se producen cinco casos posibles:
Cuando el objeto se encuentra a la izquierda del centro de curvatura, la imagen se forma entre el foco y el centro y es real, invertida y menor que el objeto. Cuando el objeto está en el centro de curvatura, la imagen, real e invertida, se forma en el mismo punto y tiene igual tamaño que el objeto. Si el objeto se sitúa entre el foco y el centro de la figura se forma una imagen real e invertida a la izquierda del centro de curvatura y mayor que el objeto. Con el objeto situado en el foco del espejo, la imagen se crea en el infinito del espacio objeto. Si el objeto se encuentra a la derecha del foco, la imagen es virtual y no invertida, de mayor tamaño que el objeto. En los espejos esféricos convexos se produce una única situación posible: una imagen virtual no invertida y más pequeña que el objeto. Lupa La lupa, o microscopio simple, es una lente convergente de distancia focal pequeña que aumenta el tamaño angular del objeto con respecto a su visión a ojo desnudo y sin necesidad de acomodación del ojo. Las lupas se usan para ver objetos corrientes de pequeño tamaño.
Microscopio Un microscopio compuesto está formado por dos lentes convergentes de pequeña distancia focal, llamadas objetivo y ocular, de manera que el objetivo se sitúa frente al objeto y el ocular se acopla al ojo. Regulando la posición relativa de ambas lentes de forma que la imagen que genera el objeto se sitúe en el foco objeto del ocular pueden obtenerse enormes aumentos angulares sin necesidad de acomodar el ojo. El microscopio se usa para ver objetos extraordinariamente pequeños (por ejemplo, células o microorganismos), a menudo no apreciables a simple vista.
Anteojo
El anteojo astronómico, que se emplea para observar los astros, usa una combinación de dos lentes convergentes, llamadas objetivo y ocular, de modo que la primera tiene una distancia focal mayor que la segunda. Para una buena visión, el foco imagen del objetivo debe coincidir con el foco objeto del ocular, con lo que se obtiene en el ocular una imagen que no requiere acomodación. Este anteojo produce imágenes invertidas. Para la observación terrestre, se usa un dispositivo similar, aunque con una lente convergente (el objetivo) y otra divergente (el ocular), para que la imagen final no esté invertida.
Telescopio Los telescopios ópticos actuales suelen utilizar combinaciones de lentes y espejos para obtener mayores aumentos de las imágenes de los astros. Así, el ocular sigue siendo normalmente una lente, pero el objetivo se sustituye por una potente sucesión de espejos.
El experimento de Michelson-Morley Del extensivo estudio de los fenómenos eléctricos y magnéticos realizado durante el siglo XIX se llegó a una conclusión para entonces sorprendente: los campos electromagnéticos pueden propagarse en el espacio en forma de movimiento ondulatorio, y la luz visible es una forma especial de esta perturbación. Las ondas electromagnéticas se constituyeron en objeto de nuevas y profundas investigaciones que provocaron un cambio radical no sólo de la ciencia, sino también de la vida diaria, debido a la aparición de nuevos y revolucionarios inventos. Teoría electromagnética de la luz Durante siglos, científicos y pensadores habían debatido sobre la esencia de la luz. Los trabajos del británico James Clerk Maxwell (1831-1879) basados en la sistematización de las ecuaciones de los campos eléctricos y magnéticos sirvieron para comprobar que la luz puede entenderse como una onda electromagnética que se propaga en el espacio a una cierta velocidad. También se presumió que existirían otras formas de radiación electromagnética distintas de la luz, aunque en aquel tiempo no se conocían. Hoy se sabe que la luz ocupa una pequeña región del espectro electromagnético global, en el que también se encuadran los rayos
gamma y X, la radiación ultravioleta e infrarroja, las microondas y las ondas de radio. El estudio del comportamiento de la luz se había centrado en el pasado en múltiples experimentos de diverso valor científico. Estas experiencias se redoblaron ante los nuevos conocimientos adquiridos, para conducir a un experimento decisivo ideado en 1887 por los físicos estadounidenses Albert Michelson (1852-1931) y Edward Morley (1838-1923). Generadores de ondas electromagnéticas La teoría electromagnética de la luz recibió un impulso definitivo en 1888, con la construcción por el alemán Heinrich Hertz (1857-1894) del primer generador de ondas electromagnéticas. El dispositivo de Hertz era un circuito eléctrico (un dipolo eléctrico oscilante) que generaba una corriente alterna de alta tensión entre dos esferas metálicas. Mediante el uso de una espira metálica abierta como receptor, Hertz detectó que las ondas electromagnéticas generadas por el circuito provocaban una corriente en la espira que producía una chispa entre sus extremos abiertos. En los años siguientes, Hertz se basó en los trabajos de Maxwell para estudiar las propiedades del campo electromagnético y encontró que dicho campo se reflejaba en las superficies metálicas. Pudo así aplicar los conocimientos de la óptica para inducir interferencias entre la onda electromagnética incidente y la reflejada, y diseñar dispositivos de polarización mediante rejillas de alambres de cobre, que demostraron sin ningún género de duda la existencia de las ondas electromagnéticas, las cuales según predijo Maxwell y comprobó Hertz empíricamente, eran de tipo transversal.
(a) Diseño del emisor de Hertz. (b) Esquema del detector o receptor, concebido como una espira metálica abierta. Ley clásica de composición de velocidades En el siglo XIX, se pensaba aún que todo el universo estaba empapado por un medio perfectamente transparente y extremadamente rígido llamado éter, en el que tenían lugar todos los movimientos celestes y que servía de asiento a la propagación de la luz. El éter era pues, un sistema referencial absoluto en el cual la Tierra (y los restantes cuerpos cósmicos) se desplazaban dejando a su paso un «viento de éter» semejante al rastro de aire de un vehículo en movimiento. Según esta idea, sería posible medir una diferencia entre la velocidad de la luz con respecto a la Tierra y con respecto al sistema referencial absoluto del éter. Como base de partida para el cálculo de esta diferencia se utilizaba la ley de composición de velocidades establecida por Galileo para sistemas inerciales en movimiento. Si es la velocidad entre dos sistemas de referencia S y S’ que se desplazan con un movimiento relativo uniforme, la velocidad de un objeto medida en el primer sistema y ’ la que se determinaría en el segundo sistema, se obtiene que:
Ley de composición de velocidades cuando la velocidad del cuerpo y la velocidad relativa de los sistemas inerciales tienen la misma dirección.
Composición de velocidades cuando la velocidad del cuerpo es perpendicular a la relativa entre los sistemas inerciales. Experimento de Michelson-Morley
Los físicos estadounidenses Michelson y Morley concibieron un experimento destinado a demostrar o refutar la existencia del éter según la ley clásica de composición de velocidades. Usando como sistemas de referencia el hipotético del éter y el de la Tierra, la velocidad relativa entre ambos sería = 30 km/s, de manera que siendo la velocidad de la luz con respecto al éter y ’ con respecto a la Tierra, se tendría que:
La experiencia de Michelson-Morley consistía en forzar la bifurcación del haz luminoso en dos caminos perpendiculares, uno de los cuales era paralelo al movimiento de la Tierra alrededor del Sol. Al reunir los dos subhaces formados, se deberían detectar interferencias entre ambos, al ser ondas de la misma frecuencia. Aplicando las leyes de la óptica geométrica y de la dinámica clásica, ambos investigadores concluyeron que, para que se produjeran interferencias, la longitud media necesaria sería la siguiente (donde L1 y L2 son los caminos recorridos por los dos haces):
Sin embargo, usando esta longitud no detectaron interferencias. Ello supuso un descrédito de la hipótesis del éter, que fue abandonada.
Esquema del aparato utilizado por Michelson y Morley en 1887 para determinar la existencia del éter. Desde el foco F, la luz se bifurca en el espejo semiplateado E y recorre caminos distintos para reunirse en R, donde tienen lugar las interferencias luminosas. Guglielmo Marconi Guglielmo Marconi (1874- 1937), inventor italiano, ideó algunas de las principales aplicaciones prácticas de las ondas electromagnéticas, aunque sobre todo es conocido por la invención de la telegrafía sin hilos.
Telegrafía sin hilos Los primeros sistemas de radiotelegrafía, o telegrafía sin hilos, se basaban en transmitir comunicaciones en código Morse (series de rayas y puntos) como perturbaciones de amplitud, frecuencia o fase añadidas a una onda de base, llamada portadora, que pudieran ser comprendidas y decodificadas por el sistema receptor. Este principio, perfeccionado con nuevos medios de codificación y decodificar las señales, sigue siendo básico en las telecomunicaciones modernas.
Albert Michelson El estadounidense de origen alemán (1852-1931) realizó durante décadas investigaciones y experimentos para determinar la velocidad de la luz. En 1887, en una famosa experiencia ideada conjuntamente con el estadounidense Edward Morley, obtuvo una prueba que refutaba la existencia del éter y abría el camino hacia las teorías de Einstein sobre la radiación electromagnética.
El paradigma de la velocidad de la luz El éxito experimental de teoría de la relatividad de Einstein subvirtió los pilares de la física. De la hipótesis de la equivalencia entre materia y energía según la fórmula E = mc se desprende uno de los nuevos paradigmas de esta ciencia: la velocidad de la luz es limitada e insuperable para los cuerpos materiales en cada medio en que se encuentren.
Radares y microondas
TEST: ¿Verdadero o falso? EXTRA: El radar en la II Guerra Mundial
La palabra 'rádar' es un acrónimo que resume la frase en inglés "radio detection and ranging". Es el nombre de un sistema capaz de detectar aviones, barcos, lluvia, etc. y conocer y representar la distancia exacta a la que se encuentran. Emite fuertes ondas de radio y tras ser éstas reflejadas en los objetos, un receptor recoge los ecos que éstas provocan. El estudio de las señales reflejadas permite conocer dónde está y, en muchos casos, cuál es el objeto. Las señales de radio son fáciles de capturar y amplificar, a pesar de que la señal recibida sea débil. Un objeto sólido existente en el aire o en el vacío o algo que, por alguna otra razón, provoca en el medio un cambio de densidad atómica de forma manifiesta, refleja las ondas de rádar, especialmente cuando es un objeto metálico, como puede ser el caso de aviones o barcos. A la hora de reflejar las ondas de rádar influye mucho la longitud de las ondas de radio y la forma de los objetos. Si la longitud de la onda de radio es mucho más pequeña que el tamaño del objeto, la onda se verá reflejada de la misma forma que la luz en un espejo. Los antiguos rádares utilizaban ondas de longitud larga, por lo que recibían señales muy poco definidas. Hoy en día, en cambio, se utilizan ondas de longitud corta y son capaces de captar objetos del tamaño de un bollo.
Antena de rádar
Pantalla de rádar La medición de las distancias La forma más sencilla de medir la distancia a la que se encuentra un objeto es enviar un pulso corto de señales de radio y medir el tiempo que el eco tarda en volver. La señal tiene que ir y volver, por lo tanto la distancia es la mitad del recorrido completo. Por consiguiente, la distancia a la que se encuentra el objeto se calcula multiplicando la mitad del tiempo transcurrido desde que la señal es enviada hasta que su eco regresa por la velocidad de la señal. Esa velocidad concretamente es la velocidad de la luz.. La medición de la velocidad Para conocer la velocidad de un objeto es preciso saber cómo cambia la distancia con respecto a ese objeto en el tiempo. La diferencia de distancias con respecto a ese objeto en dos instantes distintos dividida por el tiempo transcurrido entre los mismos nos dará la velocidad a la que ese objeto se mueve.
Efecto Doppler Para medir la velocidad con mayor precisión se puede utilizar otro fenómeno: el efecto Doppler. La forma más fácil de comprender este efecto es la siguiente: si un coche pasa delante de ti tocando el claxon, el sonido que tú escuchas irá cambiando de tono. Y es que la fuente de sonido se mueve a una velocidad determinada, digamos a 3 m/s, y las ondas de sonido se mueven en el aire a una velocidad de 300 m/s. La frecuencia de las ondas que tú recibes va variando en el lugar en el que te encuentras. No sucederá lo mismo cuando un coche se esté acercando a ti (la velocidad del coche se sumará a la de las ondas de sonido) que cuando se esté alejando (dicha velocidad se restará). En el caso del rádar en vez de ondas sonoras se utilizan ondas de radio. Por ello, el cambio de velocidad de las ondas es porcentualmente mucho menor. Sin embargo, los sistemas electrónicos son más sensibles para captar esa pequeñísima diferencia, que nuestro oído de captar los cambios de frecuencia del sonido. La medición de la posición Las señales emitidas por una antena se difunden en todas las direcciones y, de la misma manera, capta las señales que llegan de todas las direcciones. Por lo tanto, es imposible conocer sin más la posición de dicho objeto. Para solucionar este problema, los sistemas antiguos utilizaban unas antenas para emitir señales en todas las direcciones y otras antenas especiales para saber de dónde llegaban las señales. Por ejemplo, se utilizaba un sistema de dos antenas rectas perpendiculares. La antena situada perpendicularmente con respecto a la dirección donde estaba el objeto recibía la señal de más intensidad y la otra antena, la de más pequeña. Se hacía rotar este conjunto para buscar el objeto. Otros sistemas no necesitan antenas rotatorias. Por ejemplo, algunos sistemas envían simultáneamente señales de radio desde varias antenas. Estas señales se destruyen entre sí, excepto en un determinado rayo. Este rayo puede apuntarse hacia cualquier dirección, combinando correctamente las señales de esas antenas a través del ordenador. El rayo se hace rotar electrónicamente, en vez de rotar la antena mecánicamente. Y la rotación puede realizarse con una rapidez asombrosa. Estos radares al principio se utilizaban para la defensa contra misiles pero hoy en día su uso está extendiéndose a todas las aplicaciones. Microondas
Se llaman microondas todas aquellas ondas electromagnéticas que tienen una frecuencia de entre 300 MHz y 300 GHz. A las ondas de frecuencia menor a 300 MHz se les denomina de UHF (ultra high frecuency = frecuencia ultra elevada). Son utilizadas para la transmisión de la televisión. Las ondas con una frecuencia por encima de 300 GHz están en el límite de la radiación infrarroja. Las microondas se utilizan en radares, en la comunicación sin cable y en los hornos microondas. En éstas últimas, las microondas provocan calor haciendo vibrar las moléculas de agua que tienen los alimentos.
Horno microondas Las microondas se producen a través de una válvula electrónica llamada magnetrón. Los hornos domésticos tienen por término medio una potencia de 1.000 watt. Para poder distribuir bien el calor, el magnetrón envía las ondas hacia un disco giratorio metálico con unas pequeñas aletas. De esa manera las ondas se esparcen por el interior del horno. Algunas veces la plataforma donde se sitúan los alimentos también suele ser giratoria. Para conseguir diferentes grados de potencia, el magnetrón se apaga y enciende cíclicamente en diferentes espacios de tiempo.
Magnetrón El descubrimiento del electrón Desde la última década del siglo XIX se produjeron descubrimientos y desarrollos teóricos que ayudaron a comprender la naturaleza de la materia y su íntima relación con los fenómenos ondulatorios. El electrón, la primera partícula subatómica descubierta, fue detectado en los rayos catódicos, que se habían observado como ráfagas, destellos e imágenes sobre pantallas o en el interior de tubos de gases. Los rayos catódicos El estudio de las descargas eléctricas en gases adquirió a finales del siglo XIX una importancia insospechada cuando ayudó a establecer una relación entre la hipótesis atómica de la materia y los principios del electromagnetismo. Se descubrió que al aplicar una diferencia de potencial de varios miles de voltios entre dos electrodos de un tubo de descarga relleno de un gas enrarecido se producían destellos luminosos que se propagaban a modo de rayos entre los electrodos del dispositivo. Estas radiaciones se llamaron rayos catódicos porque siempre viajan desde el electrodo negativo (cátodo) al positivo (ánodo). El electrón Para estudiar las propiedades de los rayos catódicos, el científico inglés Joseph John Thomson (1856-1940) diseñó un dispositivo formado por un tubo de vacío en cuyos extremos se situaban dos electrodos metálicos a los que se aplicaba una diferencia de potencial elevada. Los rayos catódicos emergentes del cátodo se hacían pasar por un colimador para limitar la anchura del haz y, después, por unas
placas metálicas en las que se aplicaba un campo eléctrico. Finalmente, los rayos se proyectaban sobre una pantalla fluorescente.
Esquema del experimento realizado por Thomson para el descubrimiento del electrón en los rayos catódicos. Con este esquema,Thomson observó que el campo eléctrico desviaba los rayos catódicos en sentido vertical hacia la placa positiva. Ello demostraba la carga eléctrica negativa inherente a estos rayos y la existencia de una masa y de la consiguiente inercia, que impedía que fueran absorbidos por la placa. Por tanto, debía existir una partícula elemental constituyente de los rayos catódicos, a la que se llamó electrón. Thomson determinó el valor de la relación entre la carga e y la masa m del electrón, que hoy día se acepta como:
Experiencia de Millikan Después del descubrimiento de Thomson sobre la relación carga-masa del electrón, sólo restaba determinar el valor de una de estas magnitudes para conocer las propiedades básicas de esta partícula elemental. De ello se encargó, tras varios intentos aproximativos de otros investigadores, el estadounidense Robert A. Millikan (1868-1953). Entre 1909 y 1913, Millikan perfeccionó un complejo montaje experimental, basado en esencia en el uso de un modelo en el que la aplicación de un campo eléctrico intenso entre las placas de un condensador permite mantener inmóvil y suspendida una gotita de aceite por equilibrio de las fuerzas gravitatoria y electrostática que actúan sobre ella.
Tras arduas pruebas experimentales, Millikan logró determinar la carga del electrón conociendo la masa de la gota y la intensidad del campo eléctrico aplicado. Hoy día, el valor admitido de esta carga es igual a 1,60210 · 10-19 C. A raíz de ello y de la relación de Thomson puede deducirse la masa del electrón, que resulta igual 9,1091 · 10-31 kg (aproximadamente 1.836 veces menor que la del átomo más ligero, el hidrógeno). La experiencia de Millikan sirvió también para constatar que la del electrón es la unidad fundamental de carga eléctrica.
Esquema del experimento de Millikan con el que determinó la carga y la masa del electrón.a Se produce un equilibrio de fuerzas que se traduce en la gota inmóvil. b La carga de la gota es negativa. El protón y el neutrón El inglés Joseph John Thomson investigó también, en la década de 1910, las propiedades de los llamados rayos canales o positivos, que se producían en tubos de descarga en la región del ánodo y se precipitaban hacia el cátodo a grandes velocidades. Estos rayos se veían afectados por campos eléctricos y magnéticos interpuestos en su trayectoria, lo que demostraba que estaban compuestos por partículas con masa y provistas de una carga eléctrica positiva. Hacia 1920, estas partículas fueron identificadas por Ernest Rutherford al bombardear nitrógeno con partículas alfa (núcleos de helio). Rutherford les asignó el nombre de protones.
El descubrimiento del neutrón, la tercera partícula constituyente de los átomos, hubo de esperar hasta 1932, cuando el físico inglés James Chadwick (1891-1974) observó las peculiaridades del comportamiento de los átomos del berilio al ser bombardeados por partículas alfa. Este bombardeo provocaba la emisión por los átomos de una radiación compuesta por partículas de masa aproximadamente igual a la del protón y carga eléctrica nula, ya que no era desviada por los campos eléctricos. La constatación de la existencia de electrones, protones y neutrones como partículas constituyentes de los átomos de los elementos conocidos abrió nuevos horizontes a la interpretación sobre la condición de la materia y la energía, y auspició un extraordinario desarrollo de la física, la química y la tecnología. Hipótesis atómica Aunque los antecedentes de la hipótesis atómica de la composición de la materia se remontan a la antigua Grecia, el primer enfoque moderno de esta teoría se debe al inglés John Dalton, quien la sustentó en cuatro principios: los elementos químicos están formados por conjuntos de partículas idénticas llamadas átomos; el átomo de un elemento tiene un peso distinto a los de otros elementos; los átomos son indivisibles, y no pueden ser creados ni destruidos. Algunas de estas ideas han quedado desfasadas (los átomos no son indivisibles y pueden destruirse y crearse), si bien el principio de la naturaleza atómica de la materia se mantiene vigente en los modelos teóricos actuales.
Robert Millikan El físico estadounidense (1868-1953) fue galardonado en 1923 con el premio Nobel de Física por sus extraordinarias contribuciones al desarrollo de la teoría atómica, con su determinación de la carga del electrón y sus estudios sobre el efecto fotoeléctrico.
Joseph John Thomson
El científico inglés Joseph John Thomson (1856-1940) es conocido por sus investigaciones sobre la estructura del átomo, que condujeron al descubrimiento del electrón, la primera partícula elemental conocida en la historia de la física.
Tras descubrir el electrón, J. J.Thomson propuso un modelo atómico constituido por una esfera cargada positivamente y con casi toda la materia del átomo sobre la que flotaban los electrones. Aunque era rudimentario y pronto fue desechado, este modelo sirvió de base a las investigaciones que permitirían establecer el concepto de átomo estructurado como un núcleo central y una corteza electrónica.
La hipótesis de Planck La aplicación conjugada del electromagnetismo y la mecánica ondulatoria auspició avances espectaculares en la física. En este contexto, el alemán Max Planck llegó en el año 1900 a una conclusión revolucionaria: la energía luminosa sólo puede ser múltiplo de un valor fundamental al que denominó cuanto. Era el nacimiento de la física cuántica. Espectroscopia Cuando se proyecta un haz de luz blanca sobre un prisma o un cristal tallado y se coloca detrás una pantalla blanca, los rayos refractados forman un arco iris de colores. Este fenómeno se conoce por dispersión de la luz, y la imagen resultante se llama espectro luminoso.
Desde un punto de vista general, se denomina espectro a la representación gráfica de la intensidad de la radiación electromagnética que emite o absorbe una sustancia según la longitud de onda o la frecuencia. La ciencia que estudia los fenómenos de absorción y emisión de ondas electromagnéticas por los átomos se conoce como espectroscopia, con gran aplicación en la astrofísica, el análisis químico, la física de materiales y otros múltiples campos.
Espectros de emisión de los átomos de helio (líneas), en (a), y de la molécula de hidrógeno (bandas), en (b). Las leyes espectroscópicas A partir de los descubrimientos realizados en espectroscopia se establecieron varios principios básicos que se conocen como leyes espectroscópicas:
Los gases monoatómicos en estado de incandescencia emiten luz según un espectro constituido por frecuencias discretas, que se denomina espectro de emisión de líneas. Los gases poliatómicos incandescentes poseen un espectro formado por grupos separados de frecuencias aisladas muy próximas (espectro de emisión de bandas). Cuando por un gas frío se hace pasar luz con un espectro continuo, el gas absorbe las mismas frecuencias que emite cuando se lleva a la incandescencia. Las frecuencias de emisión y absorción son características de cada tipo de átomo o molécula de un gas, por lo que permiten identificarlo de forma unívoca. Fórmulas de Balmer y Rydberg Los espectros atómicos son complejos, aunque regulares. En 1885, el suizo Johann Jakob Balmer (1825-1898) descubrió que las longitudes de onda de las líneas del espectro del átomo de hidrógeno se rigen por una sencilla fórmula matemática, que define la llamada serie de Balmer:
En 1889, el sueco Johannes Rydberg (1854-1919) concluyó que la fórmula anterior era una particularización de otra expresión más general:
R se conoce por constante de Rydberg, y adopta un valor ligeramente diferente para cada átomo. En el átomo de hidrógeno, RH = 1,09677581 · 107 m-1. La serie de Balmer cumple la fórmula de Rydberg para el caso en que n = 2. Principio de combinación de Rydberg-Ritz La fórmula de Rydberg se adaptó paulatinamente a otros espectros atómicos más complejos. El físico suizo Walter Ritz (1878-1909) observó que, en un alto número de líneas espectrales de un elemento, el número de onda (inversa de la longitud de onda) era igual a la suma o diferencia de los números de onda de algunos pares de líneas del mismo espectro (principio de combinación de RydbergRitz). De ello se dedujo el concepto de término espectral, simbolizado por T, según el cual cada línea del espectro de un átomo se forma por la diferencia entre dos términos espectrales:
El cuerpo negro En el estudio de los espectros luminosos cobro una importancia crucial un concepto hasta entonces adscrito principalmente al campo de la termodinámica: el cuerpo negro. Este sistema es una cavidad ideal que absorbe toda la radiación que incide sobre ella (en la practica, los objetos de color negro absorben gran parte de la energía luminosa que reciben, pero siempre reflejan una pequeña cantidad de la misma). En un modelo de cuerpo negro seria posible observar solo la emision propia del cuerpo, y no de las frecuencias que refleja procedentes de otras fuentes. A partir de consideraciones termodinámicas y electromagnéticas, es posible determinar la radiación que emite el cuerpo negro, que se expresa como una función conocida por distribución espectral P (,T), que depende de la longitud de onda y de la temperatura T. Hipótesis de Planck La distribución espectral del cuerpo negro fue determinada por el físico alemán Max Planck (1858-1947) en el año 1900, según la ecuación conocida como ley de distribución de Planck:
En esta ley aparecen la constante de Boltzmann, k = 1,38066 · 10-23 J K-1, muy conocida en termodinámica, y una constante nueva h = 6,62618 · 10-34 J s, que pasó a denominarse constante de Planck. Para asegurar la coherencia de su ley, Planck se vio obligado a introducir una hipótesis revolucionaria, según la cual la energía asociada a la radiación de una frecuencia dada tomaba sólo valores múltiplos de un cuanto elemental que era proporcional a la frecuencia de la radiación. La constante de proporcionalidad entre la energía de este cuanto y la frecuencia era precisamente h. Esta hipótesis de Planck permitió deducir leyes clásicas de la termodinámica que sólo habían podido establecerse por medios experimentales, y dio origen a una nueva concepción de la física: la mecánica cuántica. El espectro solar La espectroscopia se reveló como un instrumento de investigación muy poderoso cuando el óptico alemán Joseph von Fraunhofer (1787-1826) la aplicó en 1814 para analizar la luz del Sol. Descubrió entonces que el espectro obtenido estaba repleto de numerosas líneas oscuras muy finas. Posteriormente, se constató que estas líneas definían el llamado espectro de absorción de la luz solar.
Series espectrales del hidrógeno A partir de la fórmula de Rydberg se pueden describir todas las series conocidas del átomo de hidrógeno. En las décadas posteriores a los trabajos de este físico sueco, se descubrieron nuevas series espectrales: de Lyman (n=1), para la región ultravioleta; de Paschen (n=3), para el infrarrojo, y de Brackett (n=4), Pfund (n=5) y Humphreys (n=6), en esta misma región.
El principio de relatividad de Einstein A la revolución de la mecánica cuántica se uniría pronto, en los inicios del siglo XX, un nuevo modelo que subvertiría las bases de la ciencia: la teoría de la relatividad propuesta por Albert Einstein. Aunque el desarrollo formal de esta teoría es muy complejo, sus principios filosóficos son sencillos y han extendido su influencia a las principales corrientes del pensamiento contemporáneo.
La relatividad especial El alemán Albert Einstein (1879-1955) presentó en 1905 la primera versión de su teoría de la relatividad, llamada especial o restringida, que atendía a dos principios básicos:
Principio de relatividad: sostiene que las leyes de la óptica y el electromagnetismo deben tener la misma forma en todos los sistemas de referencia inerciales. Invarianza de la velocidad de la luz: en el vacío tiene un valor independiente del movimiento del cuerpo que la emite. Composición de velocidades relativista La teoría de la relatividad especial obligaba a revisar los principios clásicos de la mecánica. Einstein comprobó que su teoría era compatible con unas leyes de transformación entre sistemas inerciales obtenidas previamente por el holandés Hendrik Lorentz (1853-1928):
donde = V/c, siendo c la velocidad de la luz y V la velocidad relativa entre los dos sistemas inerciales considerados. En este enfoque, la medida del tiempo es distinta en ambos sistemas (donde las coordenadas (x, y, z, t) se refieren a un sistema de referencia y (x`, y`, z`, t`) a otro). Análogamente, la ley de composición de velocidades relativista establece que:
Contracción de longitudes De la transformación de Lorentz para sistemas inerciales se deduce un principio teórico muy interesante. Cuando la velocidad entre los sistemas inerciales es insignificante en comparación con la velocidad de la luz, el cociente puede considerarse nulo, con lo que las formulas de Lorentz y la composición relativista de velocidades se corresponderían con las de la mecánica clásica. Ahora bien, cuando la velocidad relativa entre los sistemas inerciales se aproxima a la de la luz, en la transformación de Lorentz se observa que el valor de las coordenadas x y x¡¯ en ambos sistemas puede diferir. Matemáticamente puede
deducirse que la longitud medida desde el segundo sistema (l`) es menor que la que se mediría en el sistema considerado en reposo (la llamada longitud propia, . Dilatación del tiempo Si se analizan las ecuaciones de la transformación de Lorentz, se observa que la medida del tiempo varía de un sistema inercial a otro cuando ambos se desplazan con una velocidad relativa no insignificante frente a la de la luz. En este caso, se deduce que el tiempo medido en el sistema en movimiento ( l`) se dilata con respecto al que se observa en el sistema inercial considerado en reposo (llamado tiempo propio (t)). Esta noción de tiempo no absoluto es uno de los grandes logros conceptuales de la mecánica relativista. Así, un intervalo t medido en el primer sistema se observaría en el segundo como t`:
Impulso relativista A partir de las consideraciones relativistas, es preciso adaptar los principios de la mecánica clásica de manera que se contemple en sus fórmulas la velocidad de la luz como un factor predominante. Según estos nuevos principios, el momento lineal de una partícula se definiría como:
Por su parte, la adaptación de la ley fundamental de la dinámica a la hipótesis relativista se traduce en la relación:
Energía relativista La introducción de términos relativistas en las ecuaciones de la física lleva a una nueva formulación del valor de la energía cinética como:
Asimismo, se define el concepto de energía total relativista de una partícula:
De ella se deduce que, con la partícula en reposo, la energía no se anula, sino que permanece en forma residual: E0 = mc2 Esta crucial relación establecida por Einstein entre masa inercial y energía es un logro fundamental de la teoría relativista. Lejos de quedarse en un postulado teórico, esta equivalencia se ha medido en las reacciones nucleares, de modo que es precisamente el déficit de masa que se produce en estos procesos el que alimenta su elevado rendimiento energético (la masa de los átomos se convierte en energía).
Gráfica de variación de la energía cinética con la velocidad. Albert Einstein Albert Einstein (1879- 1955) es sin duda la figura señera de la física contemporánea. Sus estudios sobre el efecto fotoeléctrico, la naturaleza de la luz y la cosmología merecerían reservarle un lugar en la historia de la física. Pero su aportación principal ha sido su teoría de la relatividad general, que ha abierto nuevos horizontes a la ciencia y el pensamiento humano.
La relatividad general En los años posteriores a la aparición de su teoría de la relatividad especial, Einstein complementó en sucesivos aspectos el alcance de este modelo. Finalmente, en 1916 publicó un artículo en el que analizaba el fenómeno de la gravitación no como una fuerza, al estilo newtoniano, sino como un campo que se curvaba en el continuo espacio-tiempo, así como la no uniformidad de los movimientos acelerados. Este marco teórico se conoce globalmente como teoría de la relatividad general.
Mecánica clásica y relativista Las teorías de la relatividad de Einstein supusieron una revolución, aunque no una ruptura con la física clásica. De hecho, partieron de un intento de aplicar las leyes de la mecánica a la óptica y al electromagnetismo. En consecuencia, no contradicen los postulados de la física clásica, sino que engloban a esta disciplina como una particularización de los fenómenos generales, simplificada y adaptada a la escala terrestre.
Aval experimental de la relatividad de Einstein Aunque ya era un científico respetado, la fama de Einstein se agigantó en 1919 cuando se obtuvo la primera constatación empírica de su teoría de la relatividad. Algunos de los primeros avales experimentales de las hipótesis relativistas fueron espectaculares: la descripción completa de la órbita de Mercurio, que se había
resistido a la física clásica durante siglos, y la demostración de por qué las estrellas sometidas a un campo gravitacional intenso emiten luz más próxima a la región del rojo que a la del violeta en el espectro electromagnético.
El efecto fotoeléctrico y el efecto Compton En el primer tercio del siglo XX, empezaron a conocerse algunas particularidades del electrón en fenómenos que asentaron las nacientes teorías de la relatividad y la mecánica cuántica. Entre ellas destacan las manifestaciones conocidas como efecto fotoeléctrico y efecto Compton, dos formas de interacción entre los electrones y la radiación electromagnética. El efecto fotoeléctrico En 1887, el físico alemán Heinrich Hertz (1857-1894) descubrió accidentalmente que la luz ultravioleta modificaba el voltaje al que se producían chispas entre los electrodos metálicos. El alemán Philipp Lenard (1862-1947) describió este fenómeno, llamado efecto fotoeléctrico, como la emisión de electrones por parte de las superficies metálicas cuando sobre ellas incide luz visible o ultravioleta, y llegó a dos conclusiones básicas:
La energía cinética máxima que pueden alcanzar los electrones emitidos no depende de la intensidad de la radiación incidente. En el efecto fotoeléctrico, la emisión de electrones es instantánea.
Esquema del efecto fotoeléctrico: al incidir haces de luz (fotones) sobre ciertos materiales, se produce una emisión de electrones. Explicación de Einstein En 1905, Albert Einstein (1879-1955) ofreció una sugerente explicación del efecto fotoeléctrico. Según Einstein, la radiación electromagnética está formada por partículas, a las que llamó fotones, cuya energía sería proporcional a la
frecuencia de la onda asociada. De este modo, el intercambio de energía entre la radiación y la materia sólo sería posible en valores múltiplos de un cuanto elemental, como el traspaso de un número entero de fotones. Entonces:
Al incidir la onda sobre la superficie metalica, un electrón en reposo absorbe un fotón de energía Ef = h, siendo la frecuencia de la onda y h la constante de Planck. Si W es la energía necesaria para extraer al electrón de la superficie metálica, este escaparia de la misma con una energía cinética Ec = h - W. De esta forma se explican satisfactoriamente las propiedades del efecto fotoeléctrico:
La energía cinética máxima obtenida depende solo de la frecuencia de la radiación incidente, pero no de su intensidad. En cambio, el numero de electrones emitidos es función de la cantidad de fotones incidentes (es decir, de la intensidad de la radiación). La emisión de electrones es instantánea, como la transferencia de energía fotón-electrón. Además, Einstein estableció que para que se produzca el efecto fotoeléctrico es necesario superar un valor umbral de frecuencia de la radiación, sea cual sea su intensidad:
El efecto Compton El efecto Compton es un fenómeno por el cual la radiación electromagnética que incide sobre ciertas superficies sale con una longitud de onda mayor que la de entrada. Este fenómeno, observado en 1923 por el físico estadounidense Arthur Holly Compton (1892-1962) en el curso de investigaciones realizadas sobre la difusión de los rayos X, sólo puede explicarse a partir de los principios de la mecánica cuántica. Así, si se considera que la radiación electromagnética está constituida por cuantos de energía llamados fotones, en su interacción con la materia puede absorberse parte de estos fotones. En tal caso, la energía global de la radiación disminuiría, y también su frecuencia, con lo que aumentaría la longitud de onda.
Longitud de onda de Compton El efecto Compton puede cuantificarse dentro del marco teórico ofrecido por Planck y Einstein acerca de la energía electromagnética. Considerando que la masa de los cuantos de esta radiación (fotones) es Ef = h, que también se puede escribir como Ef = , siendo = h / 2, el momento lineal de cada fotón viene definido por:
Mediante las leyes de conservación del momento lineal y de la energía se obtiene que la diferencia entre las longitudes de onda de entrada y salida del fotón en la interacción viene dada por:
siendo el ángulo de desviación de la trayectoria del fotón y c una constante llamada longitud de onda de Compton del electrón, cuyo valor viene dado por:
Aplicaciones del efecto fotoeléctrico El efecto fotoeléctrico se aprovecha en numerosos campos de la ciencia y la técnica. Los dispositivos llamados fotodiodos y fotomultiplicadores que se basan en este principio, intervienen en procesos como el control de productos industriales, las transmisiones por fax, los tubos de televisión o los amplificadores de imágenes. Entre las más conocidas aplicaciones de este efecto cabe citar, las células fotoeléctricas usadas para la detección de presencia y los equipos fotovoltaicos de los paneles de energía solar.
Paneles solares
La energía solar puede convertirse directamente en electricidad por medio de dispositivos fotovoltaicos basados en el efecto fotoeléctrico. Al incidir la luz solar sobre series de estos dispositivos agrupadas en baterías solares, emiten electrones libres susceptibles de generar, mediante las técnicas modernas, una energía eléctrica de más de un kilovatio.
Importancia del efecto Compton
La explicación que del efecto Compton proporciona la mecánica cuántica ofrece una de las pruebas experimentales más convincentes de la validez de sus postulados teóricos. Este fenómeno suministra una ilustración determinante de las propiedades de onda y partícula de la radiación electromagnética. El modelo atómico de Bohr-Sommerfeld El modelo atómico ideado por Ernest Rutherford a principios del siglo XX describía el átomo de hidrógeno como un sistema compuesto por un núcleo masivo de carga eléctrica positiva y dimensiones mínimas en torno al cual se movía un electrón negativo. Cuando este modelo se mostró insuficiente, Niels Bohr introdujo una serie de postulados cuánticos que establecieron un nuevo marco conceptual para el desarrollo de la teoría atómica. El átomo de hidrógeno Si se considera el átomo de hidrógeno como un conjunto de núcleo y electrón sometido a las leyes de la dinámica de las fuerzas centrales, la energía total y el momento angular del electrón deberían regirse por las siguientes expresiones:
donde r es el radio de la órbita del electrón, m su masa y Z el número atómico del hidrógeno (expresado en forma simbólica, aunque su valor es 1).
Estas expresiones explican el comportamiento mecánico del sistema, pero no sus propiedades electromagnéticas. Según el electromagnetismo clásico, si un electrón emitiera radiaciones caería irremisiblemente bajo el influjo del núcleo atómico. Modelo de Bohr-Sommerfeld Para comprender el comportamiento del átomo de hidrógeno, el danés Niels Bohr (1885-1962) incorporó al modelo anterior consideraciones propias de la teoría cuántica. Bohr supuso que el electrón sólo puede describir ciertas órbitas circulares alrededor del núcleo, que llamó estacionarias y a las que identificó con números enteros. Cuando un electrón emite radiación, pasa de una órbita estacionaria n a otra n’, y la diferencia entre sus energías se corresponden con la energía del fotón emitido:
Como el número de órbitas posibles del electrón es discreto, también lo es el conjunto de frecuencias electromagnéticas que puede emitir. Si un electrón absorbe un fotón, adquiere energía y pasa a una órbita más alejada del núcleo, y si lo emite, pierde energía y cae a una órbita más cercana al núcleo. También propuso que las órbitas permitidas serían aquellas cuyo momento angular L fuera un múltiplo de la constante , es decir: L = n , siendo n = 1, 2, 3... De este modo, los radios de las órbitas estacionarias de Bohr y los niveles de energía asociados serían:
El físico alemán Arnold Sommerfeld (1868-1951) completó este modelo atómico de Bohr considerando que las órbitas descritas no eran circulares, sino elípticas, y desarrolló las correcciones correspondientes. Unidades atómicas de Bohr Las expresiones del modelo atómico de Bohr-Sommerfeld son bastante prolijas, máxime si se tiene en cuenta que en ellas aparecen bastantes constantes relacionadas. Para simplificar la formulación del modelo, se definieron algunas constantes agrupadas nuevas. Así, para n = 1, el valor del radio de la primera órbita de Bohr se obtiene como sigue:
Este valor se conoce por radio de Bohr, y permite escribir la ecuación de los radios de las órbitas de Bohr del modo siguiente:
Esquema de emisión (a) y absorción (b) de un fotón por un átomo según el segundo postulado de Bohr. Niveles de energía de los átomos Si se calcula el valor absoluto de la energía del primer nivel de Bohr, que se conoce como energía de Rydberg, se deduce que:
Esta energía, llamada potencial de ionización, es la que se necesita para extraer el electrón del primer nivel (estado fundamental) del átomo de hidrógeno. En tal caso, los niveles de energía del átomo de hidrógeno pueden expresarse como:
Estas expresiones de Bohr para el átomo de hidrógeno no pueden generalizarse para átomos mayores, donde las ecuaciones resultan mucho más complejas. No obstante, los principios generales sí son extensibles a otros átomos. Las primeras teorías atómicas El primitivo modelo elaborado por John Dalton en siglo XIX, que consideraba los átomos como partículas indivisibles pronto se vio superado por sucesivos descubrimientos científicos que demostraron la existencia de partículas elementales. Se postuló entonces que el átomo era una especie de bola de carga positiva en la que sobrenadaban los electrones (modelo de Thomson) o, más tarde, un sistema solar en miniatura, con los electrones describiendo órbitas exactas alrededor de un núcleo-sol (modelo de Rutherford). Bohr y Sommerfeld
adaptaron el modelo de Rutherford a los principios de la mecánica cuántica y tuvieron cierto éxito al describir el átomo de hidrógeno.
Teorías atómicas modernas
El modelo de Bohr-Sommerfeld, aunque cumplió una función renovadora de la hipótesis atómica, pronto demostró deficiencias a la hora de su aplicación práctica. Las modernas teorías desestimaron la existencia de órbitas definidas para los electrones, y hablan más bien de regiones delimitadas del espacio en las que es posible encontrar a estas partículas dentro del átomo. Estas zonas, descritas por modelos probabilísticos de naturaleza cuántica, recibieron el nombre de orbitales. El físico danés Niels Bohr (1885-1962), definió en 1913 un modelo de átomo que tuvo en cuenta las hipótesis cuánticas y relativistas apuntadas por Max Planck y Albert Einstein en sus recientes teorías.
Orbitales atómicos Las teorías atómicas vigentes defienden la existencia de cuatro tipos de orbitales electrónicos, designados con las letras s (aproximadamente circular), p (en forma de ocho tridimensional), d y f (de estructura geométrica más compleja). Estas formas de los orbitales no son caprichosas, sino que resultan de la magnitud del momento angular de los electrones.
Ondas de materia de Louis de Broglie Los trabajos de Albert Einstein sobre el efecto fotoeléctrico demostraron que las ondas electromagnéticas están formadas por partículas elementales llamadas fotones. En sentido inverso, el francés Louis De Broglie predijo en 1924 que los corpúsculos materiales del exterior de los átomos, los electrones, deberían mostrar también un comportamiento ondulatorio. La constatación experimental de la dualidad de partícula y onda de los electrones, que llegó pocos años después,
cerró el círculo de una de las propuestas más seductoras de la física cuántica: todo lo que existe es, al mismo tiempo, onda y materia. Materia y ondas Las controversias sobre la naturaleza de la luz que habían centrado los debates científicos durante más de dos siglos se resolvieron en 1905 cuando Albert Einsten, en su interpretación del efecto fotoeléctrico (ver t59), vino a conciliar las dos hipótesis manejadas y, hasta entonces, consideradas incompatibles:
La ondulatoria, según la cual la radiación luminosa es simplemente una perturbación que se desplaza en el espacio. La corpuscular, que sostenía que la luz está formada por corpúsculos materiales capaces de interaccionar con la materia. Einstein concluyó que la luz y, por extensión, las ondas electromagnéticas son a la vez corpúsculo y onda, ya que están formadas por partículas sin masa y sin carga, llamadas fotones, que se propagan en el espacio como un movimiento ondulatorio, intercambiando energía con el entorno. En un estudio especulativo, que no respondía a ninguna realidad observada que hubiera de explicarse, el francés Louis de Broglie (1892-1987) elucubró con la posibilidad de que, al igual que los fotones, también los electrones tuvieran esa misma dualidad de onda y corpúsculo. Ondas de De Broglie En un trabajo publicado en 1924, De Broglie partía de una comparación entre las propiedades del fotón y el electrón para suponer que esta última partícula podría poseer relaciones de energía-frecuencia y longitud de onda-momento lineal análogas a la primera, y expresadas como:
siendo un vector unitario que comparte dirección y sentido con el vector de onda . Partiendo de las hipótesis relativistas, se podría establecer una equivalencia entre energía y el momento lineal del electrón considerado como onda y como partícula material, de lo que se deduciría que:
Longitud de onda de De Broglie De la comparación de las magnitudes del comportamiento del electrón entendido como onda y como partícula, se obtiene un valor para la longitud de onda que tendría el movimiento ondulatorio asociado al electrón que viene dado por:
donde v es la velocidad de la partícula y m su masa. Esta magnitud, llamada longitud de onda de De Broglie, aumenta al disminuir la velocidad, y a la inversa. Si se aplica al postulado del modelo atómico de Bohr (ver t60), que sostiene que las órbitas de los electrones en los átomos sólo pueden tener ciertos radios cuantificados, se deduce que:
Según esta fórmula, las órbitas permitidas (estacionarias) en el modelo de Bohr serían aquellas cuyo radio fuera igual a un número entero de longitudes de onda de De Broglie. Al igual que para detectar un comportamiento ondulatorio en la luz era preciso manejar dimensiones del orden de su longitud de onda (por ejemplo, rejillas que provocaran patrones de difracción a modo de interferencias luminosas), para observar los efectos de las ondas asociadas a la materia se han de usar partículas de masa pequeñísima y que se desplacen a baja velocidad, por ejemplo, los propios electrones. En estas partículas sería posible obtener valores de la longitud de onda de De Broglie del orden de algunas décimas de nanómetro.
Ilustración gráfica de la regla de cuantificación de Bohr y la longitud de onda de De Broglie para el electrón. Validación experimental La primera evidencia experimental de la existencia de las ondas de materia que había predicho De Broglie llegó en 1927, cuando los estadounidenses Clinton Davisson (1881-1958) y Lester Germer (1896-1971) y el inglés George Thomson (1892-1975), en trabajos independientes, determinaron el valor de la longitud de onda de De Broglie según las predicciones de esta teoría. En esencia, los experimentos realizados se basaban en la hipótesis de que si los electrones pudieran comportarse como ondas, un haz de estas partículas que incidiera sobre un cristal debería producir diagramas de difracción análogos a los observados para los rayos X. Cuando se obtuvieron patrones de difracción para los electrones, se consideró demostrado que estas partículas, al igual que los fotones, se manifiestan tanto a través de sus propiedades corpusculares (materia) como ondulatorias (onda). La hipótesis de la dualidad corpúsculo-onda de la materia se extendió en años posteriores a todos los tipos de partículas elementales y sus agregados (núcleos y átomos). Louis-Victor de Broglie Louis-Victor de Broglie (1892-1987), aristócrata y físico francés, abrió nuevos horizontes a la naciente mecánica cuántica con su descubrimiento de la naturaleza también ondulatoria de los electrones, a los que era posible asociar una frecuencia y una longitud de onda.
Antimateria
Existen partículas y antipartículas. Éstas últimas (por ejemplo, antiprotones y antielectrones, también llamados positrones) son idénticas a sus contrapartidas de materia, con la salvedad de que poseen carga de signo opuesto. Estos corpúsculos componen hipotéticamente átomos de antimateria que, no obstante, no se observan en la naturaleza porque las antipartículas reaccionan espontáneamente con sus partículas correspondientes en una reacción de aniquilación total.
El principio de incertidumbre de Heisenberg
EXTRA: Filosofía de la incertidumbre
Después de que se estableciera, merced a los trabajos teóricos de Louis De Broglie, que la materia es capaz de manifestar propiedades ondulatorias, se realizaron múltiples intentos para ofrecer un marco teórico que pudiera explicar tal comportamiento. Los modelos aportados al respecto se caracterizaban por su elevada complejidad formal. No obstante, poseían también profundas connotaciones filosóficas que, en esencia, cuestionaban uno de los principios sustanciales de la física clásica: el determinismo científico. Mecánica ondulatoria y mecánica matricial Entre los modelos teóricos propuestos para explicar la dualidad corpúsculo-onda de la materia destacó el elaborado por el austriaco Erwin Schrödinger (18871961). Schrödinger postulaba que era posible describir el comportamiento de las partículas mediante la resolución de una ecuación en la que intervenían el espacio y el tiempo como variables. Las soluciones de la ecuación de Schrödinger se denominan funciones de onda de las partículas. El marco teórico general asociado a las funciones de onda pasó a conocerse por mecánica ondulatoria. En los mismos años, otros científicos, entre ellos Max Born (1882-1970) y Werner Heisenberg (1901-1976), desarrollaron un modelo alternativo denominado mecánica matricial, en el que en esencia, se sustituían las variables de la dinámica clásica por matrices. Merced a los trabajos del inglés Paul A. M. Dirac (1902-1984) pudo establecerse que la mecánica ondulatoria y la matricial eran formalmente equivalentes, y podían unificarse en una única teoría general. Interpretación de Copenhague
Uno de los principales problemas asociados a la mecánica ondulatoria era la dificultad de establecer una conexión entre la función de onda obtenida y el estado de la partícula a la que se pretendía aplicar. Esta relación fue elucidada por Max Born, quien estableció que el cuadrado del valor de las funciones de onda define la probabilidad de encontrar a la partícula en un punto y en un instante dados. Tal explicación, aún vigente, se conoce genéricamente como interpretación de Copenhague. Según ella, basta conocer la función de onda para indicar, con un margen de error probabilístico, la posición de la partícula dentro de un sistema; no es necesario saber la historia anterior del sistema, como propugnaban los postulados científicos vigentes. El determinismo científico hasta entonces comúnmente aceptado sostenía que para conocer el estado futuro de un sistema bastaba con describir su estado actual y aplicar las leyes que regían su comportamiento. Cuando los modelos aplicados no obtenían éxito en la descripción, se suponía que era por un fallo de conocimiento de estas leyes, no porque fuera imposible conocer con precisión el resultado. La interpretación de Copenhague propugnaba, en cambio, que no era necesario observar la evolución del sistema para conocer su estado en un instante dado. Además, la mecánica cuántica no ofrece un resultado preciso sobre el estado del sistema, sino tan sólo el valor de la probabilidad de que se encuentre en una cierta posición en un momento dado y con unas determinadas características y magnitudes físicas. Principio de incertidumbre Dentro del enfoque no determinista de la mecánica cuántica, el alemán Heisenberg propuso un postulado fundamental en el desarrollo de esta disciplina. Según la mecánica clásica de Newton, por la ley fundamental de la dinámica, para conocer el estado de una partícula en un instante dado basta con indicar su posición y su velocidad. Newton y sus seguidores presuponían que se podía determinar con precisión el valor de estas dos magnitudes. Sin embargo, Heisenberg demostró que no era posible conocer tal valor con absoluta exactitud en el marco de la física cuántica. El principio de incertidumbre, o de indeterminación, que lleva su nombre sostiene que, si es una coordenada de posición de la partícula y px su momento lineal en la dirección de esta coordenada, el producto de la indeterminación de estas dos magnitudes es
siempre mayor o igual que la constante reducida de Planck dividida por dos. Es decir: Ello indica que si se pudiera determinar con total exactitud, por ejemplo, el valor de la posición, aumentaría la indeterminación en el conocimiento del momento lineal (y, por tanto, de la velocidad) hasta igualar o superar el límite indicado. A partir de desarrollos teóricos, la formulación anterior del principio de indeterminación es equivalente a la siguiente:
Es decir, no es posible determinar simultáneamente y sin errores el valor exacto de la energía de un proceso y el momento en que dicho proceso se producirá. El momento angular Los postulados de la mecánica cuántica renovaron los planteamientos vigentes de la física en el estudio de las partículas elementales, los átomos y los movimientos ondulatorios asociados. Según la descripción del átomo de hidrógeno de BohrSommerfeld, el electrón de este átomo gira alrededor del núcleo describiendo órbitas elípticas. Por tanto, a cada nivel de energía de un átomo se pueden asociar varias funciones de onda, lo que se relacionó con la posibilidad de que existieran varios tipos de órbitas. Para conciliar este hecho con su modelo, Sommerfeld añadió al número cuántico principal n, que describe la cuantización del modelo en órbitas estacionarias, un nuevo número cuántico, llamado azimutal y representado por l, que vinculó con la excentricidad de las elipses de las órbitas. Con arreglo a los desarrollos teóricos, se determinó que el momento angular del átomo de hidrógeno está cuantizado, y sólo puede tomar los siguientes n valores: Análogamente, la componente vertical del momento angular, Lz, también está cuantizada según la expresión:
El valor m se conoce como número cuántico magnético. El espín del electrón y el principio de exclusión de Pauli La descripción completa del modelo atómico no finalizó hasta que fue descubierto que los electrones están agrupados, como máximo, por parejas en cada nivel orbital del átomo. Esta peculiaridad se justifica por la existencia de un momento angular intrínseco del electrón, llamado espín.
Números cuánticos La descripción cuántica del modelo del átomo de hidrógeno formulada por BohrSommerfeld propone que:
La energía de las órbitas (orbitales) de los electrones en el átomo está cuantizada, de lo que se obtiene el primer número cuántico n, llamado principal, que establece los valores permitidos para el nivel de las órbitas:
El módulo del momento angular total del átomo está cuantizado con arreglo a los valores del número cuántico secundario o azimutal l:
La componente vertical (u otra cualquiera) del momento angular del átomo está cuantizada según los valores que toma el número cuántico magnético m:
Esto sugiere que el momento magnético del átomo, asociado a la corriente circular que crean los electrones, debería también estar cuantizado. Experimento de Stern-Gerlach Para comprobar la cuantización del momento magnético de los átomos, los físicos alemanes Otto Stern (1888-1969) y Walther Gerlach (1889-1979) realizaron un experimento basado en el principio de que un dipolo magnético que atraviesa un campo eléctrico no homogéneo recibe una fuerza en la dirección de variación del campo que es proporcional al momento magnético en dicha dirección. Un átomo de momento angular l debería tener (2l +1) valores de dicha componente z, definidos por la expresión:
La constante
se conoce como magnetón de Bohr.
En el experimento de Stern-Gerlach el haz se dividía en dos, lo que habría de corresponderse con un momento angular de valor l = 1/2 que se explicaría si el electrón tuviera un momento angular intrínseco, no ligado a su movimiento orbital.
Este momento intrínseco se denomina espín y sus valores posibles son +1/2 y – 1/2 .
Ilustración esquemática del experimento de Stern- Gerlach para determinar el momento magnético de un átomo. Partículas idénticas La mecánica cuántica impone también un nuevo enfoque a la observación de partículas idénticas. Según la física clásica, dos partículas idénticas encerradas en un recinto son siempre distinguibles, ya que, conociendo su posición y su velocidad, siempre es posible seguir su trayectoria. Ahora bien, en la teoría cuántica el principio de indeterminación de Heisenberg hace inútil el concepto de trayectoria, ya que siempre existirá un cierto grado de incertidumbre sobre la posición y la velocidad de la partícula. De este modo, cuando dos partículas se muevan cerca una de otra, «perderán» su identidad. Por tanto, para la mecánica cuántica las partículas idénticas son indistinguibles. Según los trabajos de Wolfgang Pauli (1900-1958), existen dos formas de considerar la indistinguibilidad de las partículas, con arreglo al valor de su espín:
Las funciones de onda de partículas idénticas cuyo espín es entero, llamadas bosones, son simétricas cuando se cambian una por otra. Las funciones de onda de partículas idénticas con espín semientero, denominadas fermiones, son antisimétricas con respecto a dicho cambio. Por tanto, si es la función de onda de las partículas, se tiene que:
Principio de exclusión de Pauli
Los electrones se encuadran en el grupo de los fermiones, dado que tienen espín semientero. Ello concuerda con el carácter antisimétrico de su función de onda. Si se considera un átomo con dos electrones, uno de ellos en un estado cuántico descrito por los números (n, l, m, s) y el otro por (n’, l’, m’, s’), la función de onda global del átomo sería:
Por tanto, si los dos electrones tuvieran exactamente el mismo estado, la función de onda del átomo sería nula. De ello se deduce el principio de exclusión de Pauli, que sostiene que dos electrones no pueden tener los cuatro números cuánticos iguales. La aplicación de este principio se ajusta perfectamente a la agrupación de los elementos químicos en la tabla periódica, y permite describir satisfactoriamente la estructura de todos los átomos conocidos.
Los radiotelescopios, como el de Arecibo, en Puerto Rico, que ilustra la imagen, reciben la radiación electromagnética de las galaxias en la región de las ondas de radio derivada del cambio de orientación del espín del electrón, que se acompaña de la emisión de una onda de 21 cm de longitud de onda. Ejemplos
Estados cuánticos del electrón en el átomo de hidrógeno para los tres primeros niveles de energía.
El momento magnético del electrón según la física clásica.
Interpretación del comportamiento de partículas idénticas dentro de una caja según la física clásica. Siguiendo la trayectoria de las partículas, sería posible distinguir una de otra con claridad.
Interpretación de este mismo comportamiento según los postulados de la mecánica cuántica, que las convierte en indistinguibles.
Propagación de vibraciones. Ondas mecánicas El descubrimiento del electrón en 1897 fue el primero de una serie de hallazgos de partículas de dimensiones subatómicas que se prolongó durante todo el siglo XX. La lista se fue agrandando hasta que su envergadura se convirtió en un problema de difícil resolución para los físicos. Los esfuerzos por clasificar estas partículas en grupos llevaron al conocimiento de que algunas de ellas están formadas por corpúsculos materiales más pequeños llamados quarks.
Modelo atómico El modelo atómico actualmente aceptado se compone de los siguientes elementos:
Un núcleo atómico en el que coexisten dos tipos de partículas, llamadas genéricamente nucleones: los protones, de carga eléctrica positiva, y los neutrones, sin carga. Una corteza externa con los electrones, de carga eléctrica negativa y distribuidos en varios niveles, con arreglo a la regla de cuantización de energía sugerida por Niels Bohr (ver t60). El estado de cada electrón del átomo queda descrito por cuatro números cuánticos: principal (n), que define el nivel de energía que ocupa y cuantiza la energía del electrón; secundario o azimutal (l), cuantizador del momento angular global que determina la forma del orbital dentro del nivel de energía; magnético (m), que define la orientación del orbital; y espín (s), o momento angular intrínseco del electrón, que puede tomar dos valores posibles: +1/2 y –1/2 . En el estado fundamental de un átomo, todos sus electrones ocupan los mínimos valores de energía posibles, respetando siempre el principio de exclusión de Pauli. Descubrimiento de partículas Las partículas del átomo fueron los primeros corpúsculos materiales subatómicos que se descubrieron. El inglés Joseph John Thomson (1856-1940) descubrió el electrón en 1897, en estudios realizados con rayos catódicos, mientras el protón y el neutrón se detectaron experimentalmente en la década de 1920 y 1930 en los rayos canales (positivos) y en el estudio de la radiación de partículas alfa, respectivamente. En 1932, el estadounidense Carl David Anderson halló en sus experimentos en cámara de niebla una partícula de características totalmente idénticas al electrón, pero de carga eléctrica positiva. La existencia de esta partícula, llamada positrón o antielectrón, había sido anunciada cuatro años antes por Paul Dirac (19021984), que la denominó antipartícula del electrón. En los siguientes años se hallaron numerosas partículas subatómicas (muones, piones, mesones, neutrinos electrónicos, etc), con sus correspondientes antipartículas.
Principales partículas, con sus propiedades más importantes. Modelo estándar de las partículas elementales El sueño de construir átomos con un pequeño grupo de partículas subatómicas distintas parecía desvanecerse conforme se iba descubriendo un número de estas partículas inopinadamente alto. Los físicos teóricos se esforzaron por hallar componentes menores en las partículas descubiertas, de manera que estas componentes pudieran entenderse como bloques realmente elementales integrantes de la materia. El esfuerzo tuvo un cierto éxito, al constatarse que algunas de las partículas supuestamente elementales (como los protones y los neutrones) en realidad no eran tales, sino que estaban constituidas por otros corpúsculos menores. Ello no ocurría, sin embargo, con el electrón, el neutrino y los muones. Se hizo necesario, por tanto, sistematizar y agrupar en familias el elevado número de partículas subatómicas conocidas.
Relación de partículas subatómicas, ordenadas de mayor a menor masa, con sus propiedades y antipartículas respectivas. Familias de partículas De acuerdo a los resultados experimentales de la física atómica y del modelo estándar, las partículas subatómicas se clasifican genéricamente en las familias:
Leptones, o partículas ligeras, que incluyen los pares de partículaantipartícula electrón- positrón y neutrino-antineutrino y los muones. Los leptones son partículas elementales auténticas, ya que no se pueden fragmentar en otras menores. Mesones, o partículas semipesadas, que incluyen a los piones y los kaones y antikaones. Bariones, o partículas pesadas, con los pares protón-antiprotón, neutrón-antineutrón y partículas sigma-antisigma. Los mesones y los bariones no son partículas elementales, ya que están constituidos por unidades de materia más pequeñas llamadas quarks. Existen seis tipos de quarks conocidos (con sus correspondientes antiquarks), todos ellos de espín 1/2 . Historia de las partículas elementales
Paul Dirac El físico inglés Paul Dirac (1902-1984), contribuyó extraordinariamente al desarrollo de la mecánica cuántica al conciliar los modelos ondulatorio y matricial en un único marco teórico común. También se le deben estudios fundamentales sobre las antipartículas y su relación con sus partículas correspondientes.
El nombre de quark La palabra quark fue aplicada a los «fragmentos» de partículas subatómicas por el físico estadounidense Murray Gell-Mann, quien la tomó prestada de una frase de la novela Finnegan’s Wake del célebre escritor irlandés James Joyce. En esta
obra literaria experimental, los quarks son los tres hijos del señor Mark, que le suplantan en algunas situaciones.
Interacciones y partículas
Fuerzas nucleares El modelo atómico de Bohr-Sommerfeld no daba cuenta de la estructura interna de los núcleos de los átomos. Se sabía que dichos núcleos están formados por protones y neutrones, aunque esta combinación parecía violar los principios del electromagnetismo. Ante esta realidad, se concluyó que dentro del núcleo atómico debían intervenir fuerzas de naturaleza diferente a las conocidas en el mundo macroscópico de intensidad, muy superior a las electromagnéticas. Estructura del núcleo atómico Los núcleos atómicos están formados exclusivamente por protones y neutrones. Genéricamente, estas dos clases de partículas se conocen como nucleones.
La cantidad de protones presentes en el núcleo se denomina número atómico y se expresa como Z. Este número coincide en el estado neutro del átomo con el de electrones que existen en su corteza. La cantidad de neutrones del núcleo se representa por N, y su influencia en el comportamiento del átomo no es comparable a la del número atómico. La cantidad total de nucleones del núcleo (protones más neutrones) se denomina número másico y se determina por A. De este modo, A = Z + N. Los átomos de un mismo elemento que poseen distinto número másico se conocen por isótopos. Todos los elementos conocidos tienen isótopos. Por ejemplo, en el hidrógeno existen tres clases: protio o hidrógeno 1, con un protón en el núcleo; deuterio o hidrógeno 2, en cuyo núcleo coexisten un protón y un neutrón y tritio o hidrógeno 3, con un protón y dos neutrones en el núcleo.
Los átomos que poseen igual número másico, aunque pertenezcan a distintos elementos químicos, se denominan isobaros. Dimensiones nucleares Los átomos son entidades infinitamente pequeñas. Sin embargo, están prácticamente vacíos, ya que más del 99% de su masa se concentra en el núcleo, que apenas ocupa la diezmilésima parte del volumen atómico.
La densidad del núcleo atómico es prácticamente constante dentro del volumen limitado por su radio. Para expresar las dimensiones de los núcleos atómicos, se ha definido una unidad de longitud específica llamada fermi, que equivale al submúltiplo del metro llamado femtómetro, de manera que: 1 fermi = 1 femtómetro = 10–15 m. Según datos experimentales, los núcleos atómicos tienen una forma aproximadamente esférica cuyo tamaño exacto depende del número de nucleones que contienen. Por otra parte, su densidad, proporcional al cubo del radio nuclear, es prácticamente constante para el núcleo atómico. Fuerzas nucleares Los protones que comparten el espacio de un núcleo atómico ejercen mutuamente entre sí fuerzas de repulsión electrostática. Sin embargo, los núcleos atómicos son entidades muy estables. De ello se concluye que en la escala nuclear deben existir fuerzas que mantengan la cohesión del núcleo distintas de las conocidas en el mundo macroscópico. Estas fuerzas se denominaron interacciones nucleares fuertes. Hipotéticamente, se estableció que las interacciones nucleares fuertes debían distinguirse por dos características básicas:
Habrían de tener una gran intensidad para superar con creces los efectos de la repulsión electromagnética entre los protones.
Su alcance tendría que ser muy reducido, restringiéndose a las distancias nucleares. El físico japonés Hideki Yukawa (1907-1981) conjeturó que el potencial que originaba la interacción nuclear fuerte, que se conoce por potencial de Yukawa, debía tener la forma siguiente:
siendo k una constante vinculada con la intensidad de la interacción nuclear fuerte y µ otra constante relacionada con su alcance. Según las hipótesis actuales, la interacción nuclear fuerte procede de la fuerza de cohesión de los quarks necesaria para mantener la integridad de los nucleones. Esta cohesión entre quarks se conoce como fuerza hadrónica. Energía de enlace La cohesión entre los nucleones por efecto de la interacción nuclear fuerte es muy intensa. No obstante, cabe concebir la posibilidad de romper la unión entre los nucleones que conforman los núcleos atómicos mediante el aporte de las cantidades suficientes de energía. Para que se produzca esta circunstancia, la energía suministrada ha de ser mayor que la llamada energía de enlace o de ligadura del núcleo, que mantiene unidos a los nucleones. Según la equivalencia entre masa y energía que postula la teoría de la relatividad de Einstein, la energía de enlace del núcleo debería ser igual a la suma de las masas de los protones y los neutrones que lo constituyen menos la propia masa del núcleo. Es decir:
donde EE es la energía de enlace, Z el número atómico, mp la masa de los protones del núcleo,mn la masa de sus neutrones y MA la masa del núcleo. Aplicando estas consideraciones a los casos reales, se obtiene que la energía de enlace es proporcional al número másico (a excepción de los núcleos ligeros). Ilustración gráfica de un núcleo atómico Ilustración gráfica de un núcleo atómico a modo de una bola compacta en la que se distinguen otras bolas de menor tamaño que corresponden a los nucleones (protones y neutrones) que lo integran.
Radiactividad natural y artificial El descubrimiento de la radiactividad, o emisión espontánea de energía y radiación ionizante por parte de ciertos materiales, se debió al físico francés Henri Becquerel en 1896. No obstante, fueron sus compatriotas Marie y Pierre Curie quienes, con el hallazgo de la radiactividad natural del radio y el polonio, iniciaron una nueva era que marcó el desarrollo tecnológico, económico y militar del siglo XX. Radiactividad natural Los núcleos correspondientes a átomos con número atómico superior a 83 son inestables y pueden fragmentarse de manera espontánea en otros núcleos más ligeros. Este tipo de proceso, conocido como reacción nuclear, se acompaña de la emisión de energía y de partículas subatómicas. La emisión de energía se debe a que la suma de las masas de los núcleos resultantes (llamados hijos) de la reacción es menor que la de los núcleos originales (padres), de manera que la diferencia de masa detectada se convierte en energía.
La energía obtenida en una reacción nuclear se manifiesta en forma combinada de energía cinética y radiación electromagnética (fotones). Este fenómeno se denomina genéricamente radiactividad. En los procesos de desintegración natural de los núcleos atómicos, el ritmo de desaparición de los núcleos padre para transformarse en los hijos sigue una ley exponencial: donde N es el numero de nucleos en el instante t, N0 el numero de nucleos de partida y una constante con dimensiones inversas al tiempo. La inversa del valor se llama vida media y su simbolo es m ; esta magnitud se entiende como el tiempo necesario para que el numero de nucleos iniciales N se reduzca e veces. Por otra parte, el periodo de semidesintegracion de la sustancia, denotado por 1/2, se define como el tiempo necesario para que el numero inicial de núcleos de la especie radiactiva se reduzca a la mitad.
La ley que rige el ritmo de desintegración con el tiempo de los núcleos radiactivos es de carácter exponencial, con una primera fase de proceso muy rápido y una progresiva estabilización de las emisiones radiactivas. Desintegración El primer caso descrito de radiactividad natural fue la desintegración . Este proceso consiste en la descomposición de un núcleo pesado en otro mas ligero y una particula alfa (nucleo de un atomo de helio de número atómico 4, o helio-4):
Un ejemplo clásico de esta reacción es la descomposición de un núcleo de torio en otro de radio y una partícula alfa, con desprendimiento de energía Q igual a
4,08 MeV. La mayor parte de esta energía se invierte en energía cinética para las partículas alfa. Desintegración Una segunda forma de proceso nuclear es la llamada desintegración , caracterizada por la emisión de electrones (tambien llamados particulas beta). Esta reacción se produce cuando se desintegra un neutrón, dentro de un núcleo o en estado libre, para crear un protón, un electrón y un antineutrino electrónico, segun el siguiente esquema:
La energía emitida se reparte entre el electrón e el antineutrino electrónico e . En la escala nuclear general, la anterior reacción se expresa del modo siguiente:
Por tanto, en una desintegración beta se conserva el número masico, pero el núcleo resultante posee un protón mas que el original. Por ejemplo, el carbono 14 produce nitrogeno 14, en una reacción muy útil en los procedimientos de datación de organismos vivos. Una forma particular de este proceso es la denominada desintegración +, en la que un protón del núcleo original se fragmenta para producir un neutrón, un positron (antielectrón) y un neutrino electrónico:
En este caso, el número másico se conserva, pero el núcleo resultante tiene un protón menos que el original.
Gráfica del número de electrones emitidos frente a la energía cinética, en un proceso de desintegración beta. Desintegración
Otra forma comun de radiactividad natural consiste en la emisión de fotones por parte de los núcleos atómicos, cuando un núcleo excitado pasa a un estado de menor energía. Este proceso se conoce como desintegración , y produce fotones de un nivel de energía muy elevado (del orden de varios megaelectronvoltios). Las frecuencias implicadas en procesos de desintegración gamma alcanzan valores del orden de 1020 Hz. Radiactividad artificial En 1934 se descubrió que la radiactividad no sólo podía observarse en ciertos átomos de núcleos inestables, sino que también se podía inducir por medios artificiales mediante transmutaciones de unos átomos en otros. El proceso más común para producir estas nuevas especies radiactivas, que empezaron a rellenar los huecos de números atómicos altos hasta entonces existentes en la tabla periódica de los elementos químicos, fue la fisión nuclear inducida mediante neutrones. También se producen artificialmente reacciones nucleares por bombardeo de ciertos átomos con protones, deuterones (núcleos de deuterio, o hidrógeno 2), etc. Estos procesos tienen lugar en aceleradores de partículas o reactores nucleares. Marie Curie La científica francesa de origen polaco Marie Curie (1867-1934), de soltera Maria Sklodowska, fue la primera persona que obtuvo dos premios Nobel: el de Física en 1903, por su descubrimiento de la radiactividad natural (junto a su esposo Pierre y a Henri Becquerel), y el de Química en 1911, que logró en solitario.
Unidades radiológicas
Las principales magnitudes radiológicas (que determinan la influencia de la radiactividad en el organismo humano) consideradas en el Sistema Internacional son: exposición, que se mide en culombios por kilogramo; dosis, expresada en julios por kilogramo, una unidad también llamada gray (símbolo Gy); dosis equivalente, medida en sievert (símbolo Sv), y actividad, cuya unidad es el becquerel (símbolo Bq) y que equivale al número de desintegraciones radiactivas por segundo.
La radioterapia Las radiaciones emitidas por los átomos tienen múltiples usos industriales, pero también médicos. La radioterapia se basa en la curación de tumores por medio de radiaciones gamma de intensidad controlada en las zonas afectadas del organismo.
La familia Curie En la historia de la física, el nombre Curie está unido indisolublemente al fenómeno de la radiactividad. El matrimonio formado por Pierre y Marie Curie realizó estudios fundamentales para la comprensión del fenómeno de la radiactividad natural en los átomos de radio y polonio. La hija de ambos, Irène, completó, en colaboración con su esposo Frédéric Joliot, investigaciones que condujeron al descubrimiento de los primeros elementos radiactivos preparados por medios artificiales. Todos ellos, Marie Curie en dos ocasiones, fueron galardonados con el premio Nobel.
Fisión nuclear y fusión nuclear La energía nuclear tuvo en sus orígenes un uso exclusivamente militar. No obstante, el uso civil de esta energía se ha demostrado útil para generar electricidad con altos índices de rendimiento. Reacciones nucleares En sentido genérico, se llama reacción nuclear a todo proceso en el que se produce una transformación de un núcleo atómico para producir otro núcleo de diferente naturaleza. El esquema general de una reacción nuclear es el siguiente:
siendo X el núcleo atómico inicial, Y el núcleo final, a un tipo de partícula con la que se bombardea el núcleo X, y b la partícula o partículas que resultan de la reacción. El término Q es el balance de energía que se produce a consecuencia de la reacción. El valor del balance energético de una reacción nuclear puede ser positivo, en cuyo caso la reacción se denomina exoenergética, o negativo, cuando se consume más energía que la que se libera, en reacciones denominadas endoenergéticas. En la primera reacción nuclear inducida por medios artificiales (llevada a cabo en 1932), se bombardearon átomos de litio de número másico 7 con protones muy energéticos, para producir partículas alfa (núcleos de helio 4).
En la fisión nuclear por bombardeo de neutrones pueden producirse reacciones en cadena, como la que ilustra gráficamente la imagen. Tipos de reacciones nucleares En esencia, cabe distinguir dos tipos de reacciones nucleares:
Fisión nuclear: aquella en la que un átomo relativamente pesado se descompone en otros más ligeros en una reacción que suele acompañarse de la emisión de partículas radiactivas y de producción de grandes cantidades de energía. Esta reacción es común en la fabricación de bombas nucleares y es la que se induce en las centrales nucleares actuales para la obtención de energía eléctrica. Puede provocar problemas ambientales derivados de la necesidad de transportar y almacenar los residuos radiactivos peligrosos que produce y conlleva a estrictos controles de seguridad. Fusión nuclear: aquella en la que se unen dos núcleos ligeros para formar otro más pesado. Este tipo de reacción es la que tiene lugar en el interior de las estrellas (en las llamadas reacciones termonucleares) y les proporciona su brillo y su producción energética. En la escala terrestre, los experimentos realizados sobre fusión nuclear se enfrentan a un problema de primer orden: la dificultad de controlar las enormes cantidades de energía que se manejan en el proceso. No obstante, se considera que es la fuente de energía del futuro, por cuanto no
produce residuos radiactivos peligrosos y podría obtenerse de combustibles tan económicos como el deuterio (hidrógeno 2) del agua del mar. Fisión nuclear La primera reacción nuclear realizada en la historia de la humanidad fue la fisión nuclear. Este proceso consiste, en sentido estricto, en la descomposición de un núcleo pesado en otros dos núcleos de masa y número atómico aproximadamente igual a la mitad del núcleo original. Los átomos de partida en los procesos de fisión nuclear son el uranio 235 (un isótopo raro del uranio, presente en 1/140 partes en sus menas naturales) y el plutonio.
Gráfica del defecto o diferencia de masa frente al número másico. Las reacciones de fisión son muy exoenergéticas, y su primera utilización histórica se produjo en la bomba atómica que cayó sobre Hiroshima (Japón) al final de la Segunda Guerra Mundial. Hoy día, la fisión nuclear se emplea con fines civiles (centrales nucleares), de transporte (propulsión nuclear) y militares (armamento atómico). La primera reacción de fisión autosostenida se logró en 1942 en la Universidad de Chicago, merced a los trabajos del equipo de este centro que dirigía el físico de origen italiano Enrico Fermi (1901-1954). Un ejemplo clásico de reacción de fisión nuclear es la ruptura del núcleo de uranio 235 por bombardeo con neutrones lentos, para producir núcleos de bario 139 y kriptón 86, además de neutrones y una energía de salida de 175 MeV. El esquema de esta reacción es el siguiente:
La producción de once neutrones en salida de este proceso es fundamental para lograr la continuidad de la misma, en forma de una reacción en cadena. Fusión nuclear
El proceso de fusión nuclear es conceptualmente inverso al de la fisión. En la fusión, dos núcleos ligeros se unen entre sí para constituir un átomo más pesado. El rendimiento energético de las reacciones de fusión es muy superior al de las de fisión. En términos de energía por nucleón, en la fisión se producen 0,74 MeV, mientras que en las reacciones de fusión esta cifra se eleva hasta 3,52 MeV. La forma más típica de reacción de fusión nuclear es la conversión de dos núcleos de hidrógeno (uno de deuterio, o hidrógeno 2, y otro de tritio, o hidrógeno 3) en uno de helio, con emisión de un neutrón y una cantidad de energía muy elevada. El esquema de esta reacción es el siguiente:
La fusión nuclear, en diversas cadenas reactivas (protón-protón y ciclo del carbono), constituye la fuente de energía de las estrellas. Bombas atómicas Básicamente, se distinguen dos tipos de bombas nucleares: las de fisión y las de fusión. Las primeras utilizan uranio y plutonio como combustible, en un proceso de reacción en cadena que provoca una enorme fuerza explosiva. Por su parte, las bombas de fusión requieren una energía inicial de activación muy superior, aunque su potencia energética (y destructiva) es mucho mayor. A finales del siglo XX, había en el mundo siete países que reconocían estar en posesión de armamento nuclear: Estados Unidos, Rusia, China, Francia, el Reino Unido, la India y Pakistán.
Aceleradores de partículas La mayoría de los procesos nucleares de investigación se realizan en aceleradores de partículas. Estos dispositivos elevan la energía cinética y la velocidad de las partículas atómicas y subatómicas de manera que facilitan el estudio de la estructura de los núcleos atómicos, sus interacciones y sus propiedades. Básicamente, existen dos categorías de aceleradores de partículas: lineales, también llamados linacs, y cíclicos, como los ciclotrones y los sincrotrones.
Fusión fría
A finales de la década de 1980, los científicos estadounidenses Martin Fleischmann y Stanley Pons anunciaron que habían llevado a cabo experimentos que demostraban la posibilidad de realizar reacciones nucleares de fusión a temperatura ambiente. Se subsanaría la necesidad de una energía de activación descomunal y muy difícil de controlar, y permitiría obtener una fuente de energía inagotable a un precio irrisorio. Sin embargo, las expectativas que había despertado esta noticia no se cumplieron: ningún equipo de investigación del mundo logró reproducir los resultados de Fleischmann y Pons, y la «fusión fría» fue considerada como uno de los grandes fraudes de la reciente historia científica.
Medicina nuclear Se llama «nuclear» a la especialidad de la medicina que utiliza isótopos radiactivos para diagnosticar y tratar enfermedades. En esta disciplina médica se usan hoy día numerosas técnicas especializadas, que se aplican principalmente en el campo de la radiología. Algunos de los radioisótopos que se utilizan comúnmente como trazadores de diagnóstico y tratamiento son el yodo131, el fósforo 32 y el tecnecio 99. Asimismo, el cobalto 60 y el cesio 137 se emplean habitualmente en el tratamiento del cáncer.
Reactores nucleares En los países más industrializados, un porcentaje importante de la electricidad usada para el consumo doméstico e industrial procede de centrales nucleares. Estas instalaciones, que han de cumplir rigurosas normas de seguridad, se distribuyen en torno a uno o varios reactores donde tienen lugar las reacciones nucleares de las que, según la conocida ecuación de equivalencia entre masa y energía propuesta por Einstein, se obtienen ingentes cantidades de energía aprovechable que se transforma en electricidad. Reactores de fisión Las centrales nucleares actualmente en funcionamiento utilizan como generadores de energía los llamados reactores de fisión. Estos dispositivos aplican el principio de la fisión nuclear para descomponer núcleos de uranio 235 o plutonio 239 mediante su bombardeo con neutrones de baja energía, llamados neutrones térmicos.
En los reactores de fisión, las reacciones nucleares son autosostenidas, y se mantienen gracias a la obtención de nuevos neutrones que alimentan una reacción en cadena. El número medio de neutrones de cada proceso de fisión que es capaz de inducir nuevas fisiones con otros núcleos del material combustible se denomina factor de multiplicación. Los neutrones que provocan las reacciones de fisión han de ser térmicos (de baja energía), por lo que los que resultan de las propias reacciones se han de frenar para que induzcan nuevos procesos reactivos. Para este propósito se usan elementos llamados moderadores, normalmente materiales de núcleos ligeros, como agua o carbono. Reactores de fusión Los riesgos inherentes a los reactores de fisión y la relativa escasez de combustibles que los alimenten han propiciado investigaciones para el desarrollo de reactores de fusión nuclear. Estos reactores ofrecen dos ventajas sustanciales a los de fisión:
Usan deuterio (hidrógeno 2) como combustible nuclear esencial, un material que está presente en grandes cantidades en el agua del mar. No producen residuos radiactivos peligrosos. No obstante, los reactores de fusión se enfrentan a una dificultad tecnológica de compleja resolución: requieren una energía de activación elevadísima (superior a 10 keV, lo que implica una temperatura de 108 K), y las energías desprendidas en los procesos son extraordinariamente altas y difíciles de controlar. Actualmente, se investigan esencialmente dos técnicas para la construcción de reactores de fusión:
Confinamiento magnético: en el que se utilizan campos magnéticos de gran intensidad para confinar los núcleos en trayectorias cerradas que siguen las líneas de campo. Confinamiento inercial: que se basa en el uso de cápsulas de hidrógeno que se irradian con haces de radiación láser de alta potencia.
Reactor de fusión «Tokamak» del Joint European Torus. Radiaciones ionizantes Uno de los riesgos inherentes a las reacciones nucleares es la generación de radiaciones ionizantes, susceptibles de provocar daños en los organismos humanos, animales y vegetales. Se llama radiación ionizante a un flujo de partículas de alta energía capaces de provocar de manera directa o indirecta la ionización de los átomos sobre los que inciden. Las partículas constituyentes de estas radiaciones pueden ser fotones, electrones, neutrones, protones, partículas alfa (núcleos de helio 4), neutrinos, etc. En los organismos vivos, la ionización de los átomos que producen estas radiaciones provoca alteraciones en sus propiedades eléctricas, químicas y físicas, así como lesiones, mutaciones genéticas y otros daños. Por todo ello, se han definido magnitudes que determinan la cantidad de energía que transfieren las radiaciones ionizantes a la materia. La principal de estas magnitudes es la dosis absorbida, que se define como la cantidad de energía que deposita la radiación ionizante en la materia por unidad de masa. En el Sistema Internacional, la dosis se mide en julios por kilogramo (J/kg), también llamado gray (símbolo Gy). Por otra parte, se llama dosis equivalente a una magnitud determinada a partir de la corrección de la dosis absorbida mediante la aplicación de factores numéricos que ponderan la sensibilidad de cada tejido a la radiación. La unidad de dosis equivalente es el sievert (símbolo Sv), que también se mide en julios por kilogramo (J/kg). Cuadro ilustrativo de los riesgos asociados a la radiación ionizante. Protección frente a la radiactividad
Para evitar daños producidos por radiaciones ionizantes, la Comisión Internacional de Protección Radiológica ha definido algunos principios generales de aplicación obligatoria en todas las instalaciones nucleares:
La exposición a radiaciones ionizantes debe estar siempre justificada, de manera que los beneficios que se espera obtener de ella superen al daño originado. Las exposiciones a dosis ionizantes deben cumplir el principio ALARA (del inglés, As Low As Reasonable Achievable, o tan bajas como sea razonablemente posible). Las exposiciones deben regirse por las tablas sobre dosis prescritas por los organismos reguladores, y nunca superar los niveles máximos permitidos. Sólo las personas debidamente autorizadas podrán acceder a las instalaciones donde se generen radiaciones ionizantes. Los trabajadores de centros nucleares deben someterse a revisiones sanitarias periódicas y frecuentes, y llevar puesto un dispositivo de medida de dosis de radiación. Producción nuclear La energía nuclear de uso civil se emplea en un número reducido de países del mundo. Así a finales de la década de 1990, el principal productor era Estados Unidos, con más del 30% de la generación mundial de electricidad en centrales nucleares. Después, se situaban Francia, con casi el 16% y un alto porcentaje de la electricidad nacional obtenida de centrales nucleares; Rusia y otros países de la antigua Unión Soviética, con el 10%; Japón, con un porcentaje similar, y Alemania, con algo más del 7%.
Accidentes nucleares
Dosis anual media de radiaciones ionizantes establecida para diversos grupos profesionales. A finales de abril de 1986, uno de los reactores de la central nuclear de Chernóbil, en Ucrania, estalló y lanzó la atmósfera grandes cantidades de sustancias radiactivas que se dispersaron por amplias regiones de Ucrania, Rusia y Bielorrusia, y fueron detectadas en todos los países europeos. La cifra oficial de muertos en el accidente fue de 32 personas, si bien los afectados por enfermedades asociadas a las radiaciones ionizantes recibidas se contabilizaron por miles. Años antes, en 1979, se había producido otro serio incidente en la central de Three Mile Island, en Harrisburg, Pensilvania, Estados Unidos, cuando una cantidad importante de sustancias radiactivas escapó a la atmósfera por la avería de un reactor; aunque el accidente de Harrisburg no produjo víctimas, tuvo un efecto muy negativo en el desarrollo de la industria nuclear estadounidense.
Propulsión nuclear Desde 1959, en que el Gobierno estadounidense botó el Savannah en el puerto de Camden, Nueva Jersey, la energía nuclear se ha utilizado como medio de propulsión de diversas naves, ya sean embarcaciones de superficie o submarinos. Sobre todo en el ámbito militar, la propulsión nuclear se ha convertido en una de las fuentes de energía más rentable en términos económicos, de potencia y de mantenimiento.