Cultura Cuadernos Sobre Historia y Ense帽anza de las Ciencias
Estudios Epistemol贸gicos e Hist贸ricos de las Ciencias
N潞 8 Mayo - 2014
ISSN: ISSN: 1313-2143 1313-2143
REVISTA FÍSICA Y CULTURA
Universidad Pedagógica Nacional Juan Carlos Orozco Cruz Rector
Edgar Alberto Mendoza Parada Vicerrector Académico
Víctor Manuel Rodríguez Sarmiento Vicerrector de Gestión Universitaria
Universidad del Valle Iván Enrique Ramos Rector
Héctor Cadavid Vicerrector académico
Angela Franco Vicerrectoría de Investigaciones
Renato Ramírez
Comité Editorial Rosa Inés Pedreros Coordinadora Grupo Física y Cultura Universidad Pedagógica Nacional
Edwin Germán Garcia Coordinador Grupo Ciencia Educación y Diversidad - CEYDUniversidad Del Valle
Angel Enrique Romero Coordinador Grupo Estudios Culturales Sobre las Ciencias y su Enseñanza –ECCEUniversidad De Antioquia
Director Instituto de Educación y Pedagogía
Ligia Torres Subdirectora Académica
Universidad de Antioquia Alberto Uribe Correa Rector
Arturo Soto Lombana Decano de la Facultad de Educación
Preparación Editorial Fondo Editorial Universidad Pedagógica Nacional
Víctor Eligio Espinosa Coordinador Fondo Editorial UPN
Alba Lucía Bernal Cerquera Editora de Revistas UPN
John Machado Corrección de estilo
Efinia Jhineth Cruz Camelo Mauricio Suárez Barrera Diseño y diagramación
Mauricio Suárez Barrera Carátula
Editora del Número: María Mercedes Ayala M Comité Editorial del Número María Mercedes Ayala M. Sandra Sandoval O. José Francisco Malagón S. Rosa Ines Pedreros M. Marina Garzón B. John Edward Barragán P. Comité Evaluador del Número María Mercedes Ayala M. John Edward Barragán P. Maria Cristina Cifuentes A. Yecid J. Cruz B. José Francisco Malagón S. Rosa Ines Pedreros M. Sandra Sandoval O. Liliana Tarazona V.
Comité Científico Luis Carlos Arboleda Universidad del Valle, Colombia
Marco Braga Universidad de Rio de Janeiro, Brasil
Martha Cecilia Bustamante Universidad de París, Francia
Miguel Corchuelo Universidad del Cauca, Colombia
Alvaro García Universidad Francisco José de Caldas, Colombia
Germán Guerrero Universidad del Valle, Colombia
Maria Cecilia Gramajo Universidad de Salta, Argentina
Mercé Izquierdo Universidad Autónoma de Barcelona, España
Enrica Giordano Universidad de Milan Bicocca, Italia
Antonio Lafuente Centro de Ciencias Humanas y Sociales, España
Isabel Martins
Universidad Federal de Rio de Janeiro, Brasil
Regino Martínez
Universidad de París, Francia
Juan Carlos Orozco Universidad Pedagógica Nacional, Colombia
Maria Jose P. M. de Almeida, Universidade Estadual de Campinas, Brasil
Marco Panza Universidad de París Ii, Francia
Michel Paty Universidad de París, Francia
Mario Quintanilla Universidad Católica de Chile, Chile
Victor Manuel Rodríguez Universidad Pedagógica Nacional, Colombia
Oscar Tamayo Universidad de Manizales, Colombia
Graciela Utges Universidad Nacional del Rosario, Argentina
Contenido 9
Editorial Análisis histórico-críticos
13-25
La organización de la experiencia y la elaboración de conceptos. Fase inicial de la constitución de los conceptos de átomo e ion Jaime Duván Reyes Roncancio
27-37
Una recontextualización para la enseñanza de la mecánica cuántica. Reflexiones sobre el principio de superposición de estados Germán Bautista Romero
39-52
El tensor de esfuerzos. Un análisis epistemológico desde una perspectiva pedagógica Juan Carlos Castillo, María Mercedes Ayala, José Francisco Malagón, Isabel Garzón Barragán y Marina Garzón Barrios
53-62
El primer principio de la mecánica euleriana. Organización del mundo sensible, cuantificación de las fuerzas y estructura del medio Ángel Enrique Romero Chacón
63-71
La estática y el concepto de momento de fuerza según Lagrange. Marina Garzón Barrios, María Mercedes Ayala, José Francisco Malagón, Isabel Garzón Barragán, Juan Carlos Castillo Ayala
73-92
Análisis histórico-crítico del fenómeno eléctrico. Hacia una visión de campo Edwin Germán García Arteaga
Estudios epistemológicos 95-104
105-122
Teoría y experimento, una relación dinámica: Implicaciones en la enseñanza de la física José Francisco Malagón Sánchez La cosmovisión de Pierre Duhem. Una perspectiva fenomenológica. Olga Luz Dary Rodríguez
Traducción de originales 125-130
Del calor en general. Joseph Black
131
Política Editorial
135
Noticias
Content 9
Editorial Historical-critical analyses
13-25
The organization of the experience and the elaboration of concepts Initial steps toward the constitution of the concepts of atom and ion Jaime Duván Reyes Roncancio
27-37
A recontextualization in order to teach quantum mechanics Considerations on the Superposition Principle Germán Bautista Romero
39-52
The stress tensor An epistemological analysis from a pedagogical perspective Juan Carlos Castillo, María Mercedes Ayala, José Francisco Malagón, Isabel Garzón Barragán y Marina Garzón Barrios
53-62
The first principle of the eulerian mechanics: Organizing the sensible world, the quantification of forces and the medium’s structure Ángel Enrique Romero Chacón
63-71
The statics and the concept of moment of force according to Lagrange Marina Garzón Barrios, María Mercedes Ayala, José Francisco Malagón, Isabel Garzón Barragán, Juan Carlos Castillo Ayala
73-92
An historical-critical analysis of the electrical phenomena. Toward a Field’s Perspective Edwin Germán García Arteaga
Epistemological Studies 95-104
105-122
Theory and experiment, a dynamical relationship Implications for physics teaching José Francisco Malagón Sánchez Pierre Duhem’s. world view a phenomenological perspective Olga Luz Dary Rodríguez
Translation of originals 125-130 131 135
About heat Joseph Black
Editorial Politics News
Editorial
La Revista Física y Cultura. Cuadernos sobre Historia y Enseñanza de las Ciencias ha sido una publicación seriada del Departamento de Física de la Universidad Pedagógica Nacional. Con el presente número se da inicio a una nueva etapa de la revista que se transforma en una publicación interinstitucional periódica cuatrimestral; esta nueva serie es patrocinada por los grupos de investigación Física y Cultura de la Universidad Pedagógica Nacional, Ciencia, Educación y Diversidad –CeyD de la Universidad del Valle y Estudios Culturales sobre las Ciencias y su Enseñanza –ECCE de la Universidad de Antioquia, grupos que han hecho de los estudios histórico críticos e histórico filosóficos un objeto central de su trabajo para la enseñanza. En su primera etapa, la revista publicó siete números en los que se han expuesto diversas formas de concretar la relación historia, filosofía y enseñanza de las ciencias. Estos primeros siete números han buscado fundamentar la transformación de las prácticas pedagógicas en el aula que favorezcan el establecimiento de una relación con el conocimiento científico que conlleve a un enriquecimiento del sentido común de los estudiantes y, de esta manera, les posibilite una mejor interacción con su entorno físico y cultural, así como un arraigo de la cultura científica en la cultura de base en nuestros medios socio culturales; además, han buscado promover la innovación de la selección y estructuración de las temáticas en torno las cuales se realiza la labor docente en ciencias.
En su etapa actual, se pretende con esta publicación contribuir al fortalecimiento y dinámica de las investigaciones sobre la relación historia y filosofía en el campo de la educación en ciencias, considerando el reconocimiento global creciente de esta área de investigación. Se pretende también contribuir en la consolidación de una comunidad académica que la promueva. Con los trabajos que se incluyen en este número se retoma el tema de los estudios históricos y epistemológicos. Seis de los artículos ilustran formas diversas de análisis de textos originales con fines pedagógicos, mediante estudios de caso en torno a la mecánica, la electricidad, mecánica cuántica y química, y destacan algunas implicaciones en el ámbito de la enseñanza de las ciencias. Los otros dos trabajos, de corte más epistemológico, tematizan problemas más generales: uno, analiza la experimentación en la física, su relación con la actividad teórica y deriva algunas implicaciones para la enseñanza de esta disciplina; el otro, hace una presentación crítica del enfoque fenomenológico desde la perspectiva de Pierre Duhem. Se incluye también la traducción del texto Del calor en general de Joseph Black, que da inicio a una sección de traducción de fuentes primarias de textos científicos.
Editorial /
9
Análisis Histórico-Críticos 11-92
La organización de la experiencia y la elaboración de conceptos. Fase inicial de la constitución de los conceptos de átomo e ion* The organization of the experience and the elaboration of concepts Initial steps toward the constitution of the concepts of atom and ion Jaime Duván Reyes Roncancio Programa Curricular de Licenciatura en Física Universidad Distrital Francisco José de Caldas Bogotá, D.C. - Colombia jdreyesr@udistrital.edu.co
Resumen La concepción atómica de la materia, en especial los conceptos de átomo e ion, se presenta aquí como surgida de una estrategia de organización de la experiencia relacionada, primero, con la combinación de sustancias y gases, y en segundo lugar, con la conductividad electrolítica y gaseosa. Tal planteamiento se elabora teniendo como referencia el estudio de Max Planck en su Treatise of Thermodynamics sobre el peso molecular y los argumentos presentados por Robert Millikan en su texto The Electron, obras elaboradas en momentos en que la teoría atómica y electrónica de la materia se está gestando. Se muestra los significados específicos que estos conceptos adquieren al relacionarlos con este campo de experiencias, y la lectura final de este en términos de dichos conceptos.
Abstract The atomic conception of the matter, mainly concepts of the atom and ion, appear here like arisen from a strategy of organization of the related experience, firstly, with the combination of substances and gases, and, secondly, with electrolytic and gaseous conductivity. Such exposition is elaborated having as reference the study of Max Planck in its Treatise of Thermodynamics on the molecular weight and the arguments presented/displayed by Robert Millikan in its text The Electron, works elaborated at moments at which the atomic and electronic theory of the matter is being developed. It is shown the specific meanings that these concepts acquire when they are related with this field of experiences and the reading that may be made of this field in terms of these concepts.
Febrero 17 de 2012 * Octubre 30 de 2012
Jaime Duván Reyes Roncancio / La organización de la experiencia y la elaboración de conceptos. Fase inicial de la constitución de los conceptos de átomo e ion / P.P. 13-25
13
14
Física y Cultura: Cuadernos sobre Historia y enseñanza de las ciencias - No. 8 , 2014 / ISSN 1313-2143 / Análisis Histórico-Críticos
Palabras Clave Organización de la experiencia, conceptos de átomo e ion, Planck, Millikan, pesos equivalentes, conductividad electrolítica, poderes de interacción.
Key Words Organization of experience, concepts of atom and ion, Planck, Millikan, equivalent weights, electrolytic conductivity, interaction powers.
Jaime Duván Reyes Roncancio Profesor del Departamento de física de la Universidad Distrital Francisco José de Caldas. Licenciado en Física de la Universidad Distrital Francisco José de Caldas y Magíster en Docencia de la Física, Universidad Pedagógica Nacional (Bogotá, Colombia). Estudios de Doctorado en Educación, Universidad Distrital Francisco José de Caldas, Actualmente, candidato a doctor en Educación. Campo de investigación: didáctica de la física.
* El presente artículo sintetiza algunos de los análisis realizados a propósito de la elaboración de la tesis “Aproximación Al Estudio Experimental En Rayos Cósmicos: El Caso DE Robert A. Millikan 1998. Disertaciones (Maestría En Docencia de La Física) – Universidad Pedagógica Nacional, Bogotá.
En el ámbito de la enseñanza de la física1, 2, los átomos, iones y electrones usualmente se asumen como entes reales. Casi nunca se consideran como constructos teóricos elaborados para organizar y explicar un cierto campo de experiencias y, por lo tanto, ligados a este de manera indisoluble. En tal sentido, no se hace énfasis en los supuestos que están en la base de la interpretación y organización del campo de experiencias específico ni en los significados que adquieren las ideas estructurantes de dicha organización en este contexto. Con este propósito, basados en el estudio de M. Planck sobre el peso molecular incluido en su “Treatise of Thermodynamics” y en el trabajo de R. Millikan desarrollado en su texto The Electron3.se presenta, de una parte, al concepto de átomo como producto de la organización del espacio fenoménico de la combinación de las sustancias y gases, y, de otra parte, al concepto de ión como un concepto surgido de una estrategia de organización de la conductividad electrolítica y gaseosa.
1. Algunos desarrollos de esta conceptualización y sus posteriores relaciones con el surgimiento de la radiación cósmica se presentan en Reyes, D. Aproximación al estudio experimental en rayos cósmicos. El caso de Robert A. Millikan, tesis realizada en el marco del programa de Maestría en Docencia de la Física, Universidad Pedagógica Nacional, 1998. 2. John Dalton (Inglaterra, 1766-1844). Su libro New System of Chemical Philosophy (parte I, 1808; parte II, 1810) fue la primera aplicación sistemática de concepción atómica a la química. Su trabajo junto con el de Joseph-Louis Gay-Lussac en Francia y Amadeo Avogadro en Italia proveyó los fundamentos experimentales de la química atómica. Dalton inició sus estudios atómicos preguntándose por qué diferentes gases en la atmósfera no se separan con el más pesado en el fondo y el más liviano en la parte superior del recipiente que los contiene. Proponiendo que a cada elemento le corresponde un solo tipo de átomos y que los átomos de un elemento dado tienen una masa fija, concluyó que los átomos de un elemento dado reacciona en proporciones definidas para formar compuestos. Gay-Lussac en sus Memorias sobre la combinación de sustancias gaseosas, 1809, expandió la teoría de Dalton a relaciones volumétricas de gases. Relaciona los volúmenes de los constituyentes químicos en un compuesto, contrario a lo que Dalton hacía en su ley de proporciones múltiples que relacionaba sólo un constituyente de un compuesto con el mismo constituyente en otro compuesto. Y establece que si dos gases se combinan para formar gases, los volúmenes de los productos están también en razones numéricas del volumen de los gases originales. En 1811 Avogadro propuso dos hipótesis, una, los átomos de los gases elementales se pueden unir en moléculas; y, dos, volúmenes iguales de gases contienen el mismo número de moléculas. (Tomado de la Enciclopedia Británica). 3. Max Planck (Alemania, 1858-1947), publica la primera edición de su Tratado sobre Termodinámica en 1897 y Robert Millikan (USA, 1868-1953; estudia en Alemania), realiza su experimento de la gota de aceite y determina la carga del electrón en la Universidad de Chicago en 1909.
Discretización de la actividad química y la idea de átomo La forma como es presentado el concepto de átomo en los cursos de ciencias conduce, directa o indirectamente, a imaginárnoslos, a pensar en ellos, como “trozos” de materia muy pequeños, invisibles, que existen independientemente de la actividad del conocimiento y cuyo conjunto estructurado constituye los cuerpos que sí podemos ver. Sin embargo, cuando se trata de dar cuenta de la experiencia sensible a partir de esta idea, nos vemos abocados a buscar mayores elementos que nos ayuden a reconstruirla (o deconstruirla).
A partir de experiencias de combinación de sustancias, se muestra como se configura la idea de que la discretización de la materia tiene sentido en cuanto se constituye en una forma de organización de dicha experiencia.
Recordemos que fue el estudio de la combinación de sustancias lo que constituyó un primer paso en la construcción de las ideas sobre la estructura de la materia en un sentido atómico. A este respecto, Robert A. Millikan plantea cómo, desde el impulso dado por Dalton a los estudios de combinación de sustancias, a mediados del siglo XIX comienza a obtenerse la prueba directa, experimental y cuantitativa del universo atómico, del cual los griegos habían hablado, y cómo tal universo, compuesto por infinitos átomos en número y variedad, permite introducir la noción de molécula. Podría decirse que con trabajos como los de combinación de sustancias, y su respectivo estudio de proporciones, se inicia una nueva etapa de la investigación científica, al desplazarse la materia y su estructura del ámbito de soporte metafísico, de las diversas teorías físicas y químicas, al ámbito teórico propiamente dicho, convirtiéndose en el referente u objeto de la actividad teórica. Dalton, al preguntarse el por qué los compuestos químicos mostraban proporciones fijas de peso de los elementos que al combinarse los producían, conjeturó que estos constaban de partículas discretas y que los compuestos eran agrupamientos de ellas que solo podrían formarse por una única combinación de estas partículas; tal afirmación se ha cuestionado con frecuencia. No obstante, esta
Jaime Duván Reyes Roncancio / La organización de la experiencia y la elaboración de conceptos. Fase inicial de la constitución de los conceptos de átomo e ion / P.P. 13-25
15
16
Física y Cultura: Cuadernos sobre Historia y enseñanza de las ciencias - No. 8 , 2014 / ISSN 1313-2143 / Análisis Histórico-Críticos
conclusión, tan ligeramente expuesta aquí, requirió un razonamiento constructivo y racional que tiene una lógica determinada por quienes la elaboraron. Este es, precisamente, un aspecto que proponemos para la discusión en el presente artículo; mostraremos cómo, a partir de ciertos resultados de las experiencias de combinación de sustancias, se configura la idea de que la discretización de la materia tiene sentido, en cuanto se constituye en una forma de organización de la experiencia.
Primera discretización: Pesos equivalentes y número de equivalentes Comencemos considerando una característica especial que se presenta cuando dos elementos o sustancias se combinan: la combinación solo tiene lugar cuando se cumplen proporciones de peso definidas entre las sustancias a combinar. Para ilustrar este punto tomemos el caso del agua. Para obtener esta sustancia, por cada 8 partes en peso de oxígeno se necesita 1 parte de hidrógeno; asimismo, por cada 42/3 partes de nitrógeno se necesita 1 parte de hidrógeno, en el caso del amoniaco; y así, se podría realizar el mismo tratamiento para otras sustancias en las que se comprueba tal característica “peculiar” de la combinación y de la naturaleza química de las sustancias. Con base en esta experiencia se ha definido el peso equivalente como la cantidad de un elemento que se combina con 1g de hidrógeno. Así, se puede establecer una serie de pesos equivalentes que sirve como primer aspecto identificador de las sustancias en razón de las combinaciones. En el caso del agua 8g es el peso equivalente del oxígeno, 1g el peso equivalente del hidrógeno y 9g es el peso equivalente del agua.4 Si un elemento no se combina con el hidrógeno sino con algún otro que si lo hace, se establece que su peso equivalente será el que resulte de realizar la respectiva proporción de su combinación con este, con referencia a 1g de H. Ahora bien, dado que la razón entre el peso total de esta sustancia con su peso equivalente nos indica el número de equivalentes contenidos en la sustancia, podemos afirmar que en la combinación de dos sustancias intervienen igual cantidad de equivalentes de las mismas, produciéndose, a su vez, un número igual de equivalentes en la sustancia resultante; lo cual nos sugiere una primera idea de partición de la materia.
4. Para el amoniaco se tendría que su peso equivalente es 17/3 g, siendo 14/3 g el del nitrógeno y 1 g el del hidrógeno.
El hecho de que la cantidad de estos equivalentes sea igual tanto para las sustancias intervinientes como para la resultante de la combinación, sugiere también que estos equivalentes tienen la misma “actividad”5 .Cada equivalente, entonces, tiene un peso dado por su peso equivalente y tiene además una actividad igual a la del hidrógeno.
Se ha definido el Peso Equivalente como la cantidad de un elemento que se combina con 1g de Hidrógeno. En el caso del agua 8 g es el peso equivalente del Oxígeno, 1 g el peso equivalente del Hidrógeno y 9 g es el peso equivalente del agua.
Esta forma de organizar los resultados de la experiencia de la combinación de sustancias, presenta, sin embargo, dificultades a la hora de asignar pesos equivalentes a elementos que pueden combinarse de varias maneras con uno dado, como es el caso de la combinación del nitrógeno con el oxígeno. Ya que al tener este elemento más de una opción de combinación con el oxígeno hay también más de una opción cuando se resuelve la proporción correspondiente con el hidrógeno. Sin embargo, es de anotar que los pesos considerados del nitrógeno son submúltiplos de uno de ellos, y la ambigüedad en la asignación del peso equivalente se reduce al dividir esa cantidad por un número entero. La experiencia ha mostrado que tal característica peculiar se pone de manifiesto en los elementos que se combinan de varias maneras con uno dado.
Nueva discretización: átomos y moléculas La ambigüedad que se genera en la concepción del peso equivalente en el tipo de casos que acabamos de mencionar es “removida”, según Planck, al considerar un aspecto empírico más: en una reacción química, los gases se combinan no solamente en múltiplos simples de sus pesos equivalentes, sino también, a la misma temperatura y presión, en proporciones simples de volumen.
5. Con el término “actividad” nos referimos a la manera como cada sustancia juega al combinarse con otra.
El hecho de que la combinación de gases a condiciones de presión y temperatura idénticas se efectúe siguiendo también proporciones simples y fijas de volúmenes, significa que los equivalentes de las sustancias que se combinan cambian sus respectivos volúmenes en la misma proporción, al variar las condiciones de presión y de temperatura, manteniéndose, por un lado, la razón entre sus volúmenes y, por otro, la razón entre sus densidades; comportamiento que implica la independencia de estas razones respecto a las condiciones de presión y temperatura. Este hecho sugiere un nuevo criterio para dar cuenta de las combinaciones entre sustancias que involucra, en primer lugar, la consideración de particiones de igual volumen en los gases que se encuentran a la misma temperatura y presión. Si a tales particiones les asignamos el término molécula, podemos afirmar que los pesos moleculares son proporcionales a las densidades y que volúmenes iguales de gases diferentes a las mismas condiciones de presión y temperatura tendrán el mismo número de moléculas. Así, si las densidades del hidrógeno, del oxígeno y del nitrógeno son respectivamente 1, 16 y 14 (tomando como referencia la del hidrógeno), los pesos moleculares correspondientes serán 1mH, 16 mH y 14 mH. Independientemente de la magnitud de los volúmenes, como tales, de los gases en consideración, esta ley empírica sobre la combinación de gases nos dice que si se verifica una dada proporción entre estos, a dichos volúmenes se les puede asignar la misma actividad. Es decir que; si la proporción en la que deben estar los volúmenes de los gases A y B para que se combinen generando un nuevo gas C es VA / VB = k, se puede afirmar que el volumen VA del gas A tiene la misma actividad del volumen VB del gas B; tal afirmación sería igualmente válida para el caso en que los volúmenes considerados no fueran VA y VB sino V’A y V’B, pero tales que la razón entre ellos siguiera siendo k (V’A / V’B = k). Es claro que las actividades correspondientes diferirían entre sí y, más aún, estarían en la misma proporción en que estuvieran los volúmenes VA y V’A (o VB y V’B). Si sabemos que actividades iguales corresponden a volúmenes VA y VB de los gases A y B siempre y cuando VA / VB = k, podremos afirmar que a volúmenes iguales de los gases A y B se les pueden asignar actividades AA y AB diferentes, siendo la razón entre ellas, AA / AB, igual a 1/ k. Y en especial, podemos afirmar que la razón entre las actividades de cada molécula de los gases A y B cuando estas se combinan para producir un nuevo gas C es de 1/ k (ver tabla 1).
Tabla Nº1 - Densidades y Pesos moleculares de gases Gases
Densidad
Hidrógeno
1
Oxígeno
16
Nitrógeno
14
Amoniaco
8,5
Óxido nitroso
22
Óxido nítrico
15
Peso molecular
Dado que, por hipótesis, las moléculas son partes de los gases que a la misma temperatura y presión tienen el mismo volumen, es posible determinar las partes de las moléculas de los gases A y B y el número de estas partes involucradas en la conformación del nuevo gas C, a partir de la razones fijas entre los volúmenes de A y de C, y de B y C, que intervienen en la combinación: VA / VC = k1 y VB / VC = k2. Y ello porque, de acuerdo con la ley empírica de combinaciones de gases, esta se efectúa siempre y cuando la razón entre los volúmenes mencionados se mantenga y, por lo tanto, ha de efectuarse, en especial, cuando consideremos que el volumen de C, V’C, aunque lo desconozcamos, representa en esas condiciones de temperatura y presión el volumen de una molécula y que los volúmenes de A y de B están en la proporción debida: V’A / V’C = k1 y V’B / V’C = k2. Bajo este supuesto, siendo k1 y k2 números fraccionarios, el denominador de cada uno indica respectivamente la parte de molécula de A y de B involucrada en la combinación y, el numerador, el número de partes intervinientes en la combinación.
La ambigüedad que se genera en la concepción del peso equivalente en ciertos casos es “removida”, según Planck, al considerar un aspecto empírico más: en una reacción química, los gases se combinan no solamente en múltiplos simples de sus pesos equivalentes, sino también, a la misma temperatura y presión, en proporciones simples de VOLUMEN.
Jaime Duván Reyes Roncancio / La organización de la experiencia y la elaboración de conceptos. Fase inicial de la constitución de los conceptos de átomo e ion / P.P. 13-25
17
18
Física y Cultura: Cuadernos sobre Historia y enseñanza de las ciencias - No. 8 , 2014 / ISSN 1313-2143 / Análisis Histórico-Críticos
En el Amoniaco, por ejemplo, teniendo en cuenta que para formar esta sustancia se necesita 1 parte por peso de H y 14/3 partes por peso de N, obteniéndose 17/3 partes por peso para el Amoniaco, entre los volúmenes del hidrógeno y del nitrógeno con el volumen del Amoniaco, las razones que han de verificarse para que la combinación se efectúe son: VH / Vamoniaco = 3/2 y VN / Vamoniaco = 1/26. El resultado puede leerse de acuerdo a la luz de las consideraciones anteriores como si en la conformación de una molécula de Amoniaco intervinieran 3 medias moléculas de Nitrógeno por cada media molécula de Hidrógeno7 o, en otras palabras, 3 unidades de actividad del Hidrógeno y una unidad de actividad del Nitrógeno. La ley empírica de combinación de los gases nos posibilita entonces dar en números definidos las cantidades moleculares de cada componente que interviene en la producción de una molécula de un determinado gas o vapor, teniendo como supuesto de partida que moléculas de los diferentes elementos ocupan, a la misma temperatura y presión, el mismo volumen.
Un aspecto relevante en la nueva organización de la combinación de las sustancias es el poder de combinación de la unidad de actividad o átomo de un elemento.
6. Tales razones se pueden determinar a partir de la ecuación:
Así,
Donde: peso equivalente del H = 1g, peso equivalente del N = 14/3g, peso equivalente del amoniaco = 17/3g, Damoniaco/DH = 8,5 y DAmoniaco/DN = 8,5/14. 7. Un segundo ejemplo es el del óxido nitroso para el cual se requieren de 16 partes por peso de N y de 28 partes por peso de Oxígeno para obtener 44 partes por peso del óxido nitroso. Realizando un procedimiento análogo al del amoniaco en la determinación del número de moléculas de cada una de las sustancias intervinientes, se encuentran: una molécula de nitrógeno y 1/2 molécula de oxígeno. En el caso del óxido nítrico, se requieren 16 partes por peso de oxígeno y de 14 partes por peso de nitrógeno para obtener 30 partes por peso de óxido nítrico, se encuentra que en la producción de una molécula de óxido nítrico interviene 1/2 molécula de oxígeno y 1/2 molécula de nitrógeno. Apareciendo nuevamente como mínima unidad de actividad del oxígeno y el nitrógeno media molécula de cada uno de ellos.
El tener que referirnos ahora a medias moléculas nos remite inmediatamente a concebir nuevas particiones en el volumen del gas y, con ello, se plantea la necesidad de concebir la no continuidad de la actividad química. De esta manera, la idea de molécula independiza el volumen y se refiere a una nueva distribución de la actividad en lo espacial.
para determinar así pesos moleculares y pesos atómicos. Se hace el cambio por el oxígeno debido a que este tiene la propiedad de combinarse mucho más con otras sustancias que el hidrógeno.8
A partir del peso molecular de los elementos reactantes se puede inferir el peso de las fracciones de moléculas que intervienen en la producción de la molécula del compuesto. El peso más pequeño de un elemento químico que entra en las moléculas de sus compuestos —nos dice Planck— es llamado átomo.
Un aspecto relevante en esta nueva organización es el poder de combinación de la unidad de actividad o átomo de un elemento. En nuestro ejemplo, 3 átomos de hidrógeno tienen el mismo poder que un átomo de nitrógeno, lo cual nos permite afirmar que, en términos generales, el poder de un átomo de un elemento difiere del poder de un átomo de otro.
Así, media molécula de hidrógeno es llamada un átomo de hidrógeno, de igual manera media molécula de oxígeno, un átomo de oxígeno y media molécula de nitrógeno, un átomo de nitrógeno. Mientras que una molécula de mercurio es llamada un átomo de mercurio, ya que en las moléculas de sus compuestos solo intervienen moléculas de vapor de mercurio enteras. Las moléculas diatómicas del hidrógeno, oxígeno y nitrógeno se suelen simbolizar por H2, O2 y N2, respectivamente (tabla 2). Tabla nº2- Nomenclatura y Composición Oxígeno Vapor de agua (H2O)
1
Óxido nitroso (N2O)
1
Nitrógeno
Hidrógeno
2
Óxido nítrico (NO) Amóniaco (NH3)
3
Entonces, nótese aquí que la idea de “actividad,” en cuanto a la igualdad en el poder de combinación, se vuelve a cuestionar: en nuestro ejemplo, 3 unidades de actividad de H tienen el mismo poder que una unidad de actividad de N. Se procede de igual forma a establecer las unidades de actividad del H con las demás sustancias que corroboran esta construcción de la idea del átomo. Se puede desarrollar el mismo tratamiento para las demás sustancias obteniendo así las unidades de actividad de los elementos intervinientes. Este proceso, entonces, configura aún más el estudio de la combinación de sustancias hasta el punto de establecer al átomo como un concepto derivado de una nueva forma de entender la discretización de la materia. Como último paso en esta fase de la construcción del concepto del átomo nos encontramos con la necesidad de cambiar de elemento químico de referencia
La valencia
Pero la situación se vuelve más compleja cuando se ponen en correspondencia las relaciones entre los poderes de los átomos de los elementos que intervienen en la formación de moléculas de diferentes compuestos. Consideremos, por ejemplo, moléculas de agua (H2O), óxido nitroso (N2O), óxido nítrico (NO) y amoniaco (NH3). Se aprecia cómo un átomo (una unidad de actividad) de un elemento puede tener diferentes valores en el poder de combinación.9 Se ve, pues, la necesidad de tomar el átomo de un elemento como referencia con la cual comparar los poderes de combinación de los demás elementos y, de esta manera, clasificarlos e identificarlos: es así como se ha asumido el poder del átomo de hidrógeno como la unidad; todo aquel elemento que combine un átomo suyo con X átomos de hidrógeno tendrá un poder de combinación igual a X, siendo X siempre un número entero. A este número, que expresa cuántos átomos de hidrógeno 8. En primer lugar se parte de considerar la razón entre los pesos moleculares del O y el H y su equivalencia con la razón entre sus densidades, de allí se obtiene que una molécula de oxígeno tendría un peso de 15,87 mH. Pero, debido a que por “costumbre” se ha supuesto el peso atómico del oxígeno como 16, “por definición” su peso molecular sería 32. Como peso molecular del O = 32 = 15,87 mH, entonces peso molecular del H (mH) = 32/15,87 = 2,016. De manera que el peso atómico, dadas las condiciones de unidad de actividad de la molécula de Hidrógeno, es 1,008. Por otra parte, con el establecimiento del peso molecular del hidrógeno, después del cambio de referente se pueden determinar los pesos moleculares y atómicos de las demás sustancias. Así, el peso atómico del nitrógeno será 14,12 = 14 mH. 9. Así, un átomo de O tiene el mismo poder que dos átomos de nitrógeno, pero también tiene el mismo poder que un átomo del mismo nitrógeno; de otra parte, un átomo de nitrógeno tiene el mismo poder que 3 átomos de hidrógeno y 2 átomos de este último tienen el mismo poder que un átomo de oxígeno.
Jaime Duván Reyes Roncancio / La organización de la experiencia y la elaboración de conceptos. Fase inicial de la constitución de los conceptos de átomo e ion / P.P. 13-25
19
20
Física y Cultura: Cuadernos sobre Historia y enseñanza de las ciencias - No. 8 , 2014 / ISSN 1313-2143 / Análisis Histórico-Críticos
u otros átomos equivalentes a este pueden unirse con un átomo del elemento en cuestión, se denomina valencia de tal elemento. Así, un átomo de un elemento monovalente se combina con un átomo de hidrógeno, un átomo de un elemento bivalente se combina con dos átomos de H, etc. En este orden de ideas, se deduce que la valencia del oxígeno tendría valor 2 (el átomo de O se combina con dos átomos de H) y que, en la formación del amoniaco, el nitrógeno tendría valor 3. Se diría que el hidrógeno es monovalente, el oxígeno es bivalente y el nitrógeno es trivalente. Pero, si tenemos en cuenta el óxido nitroso (N2O) y la valencia del oxígeno diríamos que el nitrógeno aquí tiene valencia 1.
Se ve la necesidad de tomar el átomo de algún elemento como referencia con la cual comparar los poderes de combinación de los demás elementos y de esta manera clasificarlos e identificarlos.
Hasta aquí se ha puesto en evidencia cómo, con la pretensión de dar cuenta de las formas particulares en las que se combinan las sustancias, se configuran las ideas de átomo y de valencia que permiten, a su vez, una relectura estructurada de esta gama de experiencias. Además, notamos cómo estas ideas en este contexto adquieren significados específicos que se distancian de aquellas imágenes que suelen circular en el ámbito escolar. El proceso constructivo de la discretización de la materia —o mejor aún, de la actividad química— descrito en el artículo es resultado del desarrollo de dos ideas de partición: la primera de ellas se basa únicamente en los pesos equivalentes y su poder de actividad; la segunda tiene en cuenta el papel del volumen en tal combinación. Esta última propició reconsiderar las particiones hechas hasta el momento y plantear una opción que incluya tales proporciones en el caso de volúmenes iguales, idea que se extiende para los casos en que no se presenta esta igualdad. No obstante, hasta este punto el problema eléctrico aún no se ha tratado. Es con la electrólisis, como veremos, que se comienza a pensar en la posibilidad de asociar una cantidad definida de electricidad a cada paquete de actividad mínima o grupo de ellos.
Conductividad electrolítica y gaseosa y la constitución del concepto de ion Usualmente en los cursos y textos de física la conductividad electrolítica y gaseosa son interpretadas como fenómenos de ionización; sin embargo, poco énfasis se hace en los supuestos que están en la base de tal interpretación y en la conceptualización que se logra de la idea de ion cuando está remitida a un campo de experiencia determinado. Este aspecto motiva el acercamiento del presente artículo a la organización de la experiencia que se generó en torno a la conductividad electrolítica y gaseosa a finales del siglo XIX y, que configuró el concepto de ion como soporte de la explicación de dichos fenómenos.
Conducción electrolítica En este aparte mostraremos cómo el carácter discreto de la relación materia-electricidad y la correlativa discretización de la electricidad es el fundamento del concepto de ion y de la comprensión de la conductividad y conducción electrolítica en términos de la presencia y movilidad de iones. Igualmente, mostraremos cómo tal discretización surge del análisis y conformación del fenómeno de la electrólisis en términos de la teoría atómica vigente en esa época, y de la concepción de carga eléctrica como un “atributo” más o menos definido que se supone existe en los cuerpos electrizados y en la que reside la causa de los fenómenos eléctricos. Cuando hablamos de electrólisis hacemos referencia específicamente al conjunto de experiencias que configuran los procesos de descomposición de sustancias mediante el uso de la electricidad. Al respecto, Michael Faraday desarrolla un trabajo teórico y experimental del cual se resaltan en algunos textos contemporáneos los siguientes hechos empíricos: 33 La masa depositada en cada electrodo es directamente proporcional a la cantidad de electricidad que ha circulado por el electrolito y, 33 La misma cantidad de electricidad que separa un gramo de hidrógeno, también separa un peso equivalente de cualquier otro elemento. Sin embargo, las explicaciones desarrolladas por Faraday no necesariamente lo condujeron a establecer algún tipo de discretización de la materia o de la electricidad. En ellas se pone de manifiesto su convicción en la unidad de las
fuerzas y la consiguiente relación entre la “afinidad quí- empírico de que la cantidad de electricidad necesaria mica” y la fuerza eléctrica. En tal sentido, sus explicacio- para depositar un gramo de hidrógeno también deposite nes del fenómeno electrolítico se refirieron a conceptos exactamente 107,5 gramos de plata (siendo el peso atócomo las “líneas de acción” que representan la corriente mico de la plata 107,5; el peso atómico del hidrógeno) eléctrica, y las “líneas de fuerza”, aspectos centrales en su sugiere que el átomo de plata y el átomo de hidrógeno teoría de campos (Orozco J. C., 1996). Tal explicación de se asocian en las soluciones a la misma cantidad de elecla electrodescomposición no fue la única, pues el mismo tricidad; conclusión esta que se puede hacer extensiva a Faraday hizo un estudio sobre las interpretaciones que todos los átomos monovalentes12. Además, como a para este respecto elaboraron contemporáneos suyos.10 Se tir de los datos empíricos también se puede establecer resalta de estos trabajos cómo la concepción discreta de que los átomos bivalentes se hallan asociados al doble la electricidad, que pudiera dar sentido al concepto de de esta cantidad de electricidad, y así sucesivamente para ion, no es tan obvia, sino que depende de las concepcio- elementos n-valentes, es posible considerar una propornes de materia y de electricidad que se ponen en juego en cionalidad directa entre la valencia y la cantidad de elecla organización de dichos datos empíricos. Precisamente, tricidad asociada al átomo en cuestión. Millikan, en su reseña en torno a las diferentes nociones sobre mateY es, precisamente, por el manejo de ria y electricidad, reconoce que las esta perspectiva de análisis del fenóLa concepción discreta explicaciones dadas por Faraday11 meno de electrólisis que Millikan ve de la electricidad, que conveniente plantear la segunda ley no contribuyeron en nada con este pudiera dar sentido al de Faraday en los siguientes térmiconstructo, sino que más bien reforconcepto de ión depende nos: “Cuando, en un tiempo dado, zaron las concepciones acerca del de las concepciones de una corriente dada atraviesa en papel del medio interpuesto en la materia y de electricidad serie soluciones que contienen difetransmisión de la electricidad. Y, que se ponen en juego rentes elementos monovalentes por otra parte, Millikan presenta las en la organización de (como H, Ag, y K) deposita pesos de experiencias de Faraday en el sendichos datos empíricos. esas sustancias exactamente protido de aporte a la construcción de porcionales a sus pesos atómicos una teoría atómica de la electricidad. respectivos” (Millikan, 1963, p. 15). Con todo esto, lo que deseamos destacar es cómo Robert A. Millikan con una postura sobre la discretización de la El resultado más importante de este fenómeno de electrómateria, hace énfasis en la necesidad de entender la lisis, examinado desde la teoría atómica de la materia es, forma en que la electrólisis permite acercarnos a una para Millikan, que la electricidad se halla dividida en porconstrucción teórica sobre el carácter discreto de la rela- ciones definidas elementales o, en otra palabras, que la electricidad tiene un carácter discreto: una cantidad dada ción materia-electricidad y de la electricidad misma. de electricidad, y siempre la misma, está asociada con un Para Millikan, y para los atomistas de su época, los hechos átomo de cada uno de dichos elementos monovalentes. Y empíricos sintetizados anteriormente requieren ser leí- esta cantidad de electricidad es una unidad elemental de dos de acuerdo con la teoría atómica vigente: el hecho electricidad en cuanto la cantidad de electricidad que se puede asociar a cualquier átomo, en el proceso de electrólisis, es un múltiplo entero de dicha cantidad; múltiplo 10. Biot (1824): “parece referir la descomposición de los elementos de un cuerpo a los estados eléctricos opuestos de las porciones de la susque se corresponde con la valencia del elemento. tancia en descomposición (...) A. de la Rive (1825): “Los resultados se deben a una combinación real de los elementos con las electricidades que pasan de los polos a consecuencia de una especie de juegos de afinidades entre la materia y la electricidad”; y Hachette (1832): “No es necesario que para la descomposición química del agua la acción de las dos electricidades, positiva y negativa, deba ser simultánea [...]”. Las citas se tomaron de Orozco J. C. (1996) .
11. “De esta forma Faraday considera al cuerpo en descomposición como una masa de partículas actuantes, de tal manera que todas aquellas que están en el camino de la corriente eléctrica contribuyen al efecto final gracias a las modificaciones que la corriente induce en la afinidad química ordinaria.” (Orozco J. C., 1996, p. 75).
Por medio del análisis de los pesos de depósito de material y las cantidades de electricidad utilizadas se construyen las relaciones entre estos dos conceptos; surgiendo allí la posibilidad de concebir particiones de electricidad que le corresponderían a particiones de masa. De todo esto se puede establecer, sin llegar a incoherencias, que 12. Aquellos cuyo poder de combinación es el mismo que el del átomo de Hidrógeno.
Jaime Duván Reyes Roncancio / La organización de la experiencia y la elaboración de conceptos. Fase inicial de la constitución de los conceptos de átomo e ion / P.P. 13-25
21
22
Física y Cultura: Cuadernos sobre Historia y enseñanza de las ciencias - No. 8 , 2014 / ISSN 1313-2143 / Análisis Histórico-Críticos
la característica del proceso de disociación electrolítica, como lo relata Stoney,13 revela que tales particiones se conforman como resultado de las uniones químicas que desaparecen. La idea de que hay una misma cantidad de electricidad que, en todos los casos, se encuentra asociada a cada unión química que desaparece, sugiere entonces la configuración de una relación materia-electricidad en términos necesariamente discretos, de particiones de masa, que para su determinación han de asociarse con una cantidad de electricidad determinada; siempre la misma.14 Se refuerza notablemente la construcción de la relación discreta materia-electricidad, esta relación precisa conforma al ion electrolítico. Y, si bien los experimentos sobre la electrólisis no aportan un conocimiento sobre la cantidad de electricidad q que lleva un ion, sí provee una información exacta sobre la relación entre la carga iónica y la masa del átomo con la que está asociada en una solución dada; relación que identifica al ion. De este modo q/m varía en la electrólisis de ion a ion;15 siendo q igual a la unidad elemental de electricidad e para los iones monovalentes y nq para los iones n-valentes, donde n puede ser 2, 3, 4 o 5.
13. Stoney G. J. en una comunicación que se titulaba “Sobre las unidades físicas de la naturaleza”(1874) destacaba en los siguientes términos este carácter discreto de la electricidad que se podía inferir del fenómeno de la electrólisis: “Finalmente la naturaleza nos ofrece una cantidad definida de electricidad independiente de los cuerpos particulares en las que actúa. Para aclarar esto expresaré la ley de Faraday en los siguientes términos, la que, como demostraré, lo hará con precisión, a saber: por cada unión química que desaparece en un electrolito, una cierta cantidad la atraviesa, y esta es la misma en todos los casos [...]” (Citado en Millikan, 1963, p. 30). 14. Hasta el momento se ha mostrado el constructo de la unidad elemental de electricidad electrón, pero sin hacer referencia alguna a su naturaleza como partícula material. 15. Si bien la relación q/m depende de la naturaleza del ion hay una cantidad que se puede deducir de ella que es una constante universal: Ne, donde e representa la unidad elemental de carga y N es el número de Avogadro (número de moléculas contenidas en una molécula-gramo). Para ello, Millikan establece un caso patrón. Es decir, un caso en el que se tenga un átomo monovalente y una cantidad de electricidad (e). Este átomo es llamado por Millikan “imaginario monovalente” cuya masa también tendría que ser una masa patrón: 1/peso atómico de cualquier elemento monovalente; de modo que Nm = 1 g. Teniendo en cuenta este dato encuentra el valor de Ne. Lo que le permite concluir: “De este modo aun cuando los hechos de la electrólisis no nos proporcionen ninguna información respecto a qué cantidad de carga representa un electrón ‘e’, nos dicen con gran exactitud que si tomamos ‘e’ tantas veces como moléculas hay en una molécula gramo, obtendremos exactamente 9649,4 unidades electromagnéticas internacionales de electricidad” (Millikan, 1963, p. 38).
De otra parte, el hecho de que se pueda concluir, desde la perspectiva atómica de la materia, que los pesos depositados de los elementos son exactamente proporcionales a los pesos atómicos y que la relación entre la cantidad total de electricidad y el peso del depósito deba ser la misma que entre la carga de cada ion y la masa de este ion, conduce a pensar que la corriente que pasa a través de una solución es llevada por los iones. De esta manera, se construye la idea en la cual la corriente dentro de la solución no es solamente de electricidad, sino de masa y electricidad. Y, además, se explica la conductividad electrolítica en términos de la presencia de iones (entes cargados) y la conducción en términos de su movilidad. Pero es importante notar aquí que en la base de esta imagen que se construye en torno a la conductividad y conducción electrolítica, se encuentra el supuesto de que la masa y la extensión son propiedades identificadoras de los entes materiales: la masa o peso del átomo lo identifica y por ello este es considerado como un ente; lo mismo ocurre con el ion aunque en este caso su carga eléctrica es también una característica identificadora. Lo que queremos destacar aquí es cómo el átomo y el ion son asumidos desde una perspectiva en la que su carácter como “entes” comienza a configurarse en el conjunto de la construcción racional inherente.
Conducción en gases En primer lugar, debemos resaltar cómo los fenómenos de conductividad en general han merecido posturas explicativas diferentes que se pueden agrupar, grosso modo, en dos tipos de alternativas: 1) entender el fenómeno desde una perspectiva de campos, en donde la conductividad se refiere a un estado particular de la sustancia que puede ser alterado y la conducción se entiende como un continuo “deslizamiento” o ruptura de “tensión” en la sustancia del conductor; y 2) entenderlo desde una perspectiva atómica (ionización), según la cual la conductividad se interpreta como la presencia de partes cargadas de la sustancia o “puntos definidos o átomos de electricidad” en ella, y la conducción como la movilidad de las partes cargadas en la sustancia conductora. Por otra parte, si bien desde la perspectiva de campos se pueden explicar los diferentes fenómenos relacionados con la conductividad eléctrica y, en particular, la conducción en gases —tal como lo hacía Faraday, por ejemplo—, Millikan considera relevante mirar la descarga de los conductores como el desarrollo de un proceso de ionización
en el gas que lo rodea.16 En este punto cabe anotar que en la electrólisis hay un referente muy concreto para establecer las conclusiones anotadas anteriormente, y es que allí hay cierta evidencia de transporte de materia, mientras que en la conducción en gases ciertamente no hay tal manifestación; y, aun así, Millikan argumenta ionización.
El resultado más importante de este fenómeno de electrólisis, examinado desde la teoría atómica de la materia es, para Millikan, que la electricidad se halla dividida en porciones definidas elementales o, en otras palabras, que la electricidad tiene un carácter discreto: una cantidad dada de electricidad, y siempre la misma, está asociada con un átomo de cada una de dichos elementos monovalentes. Millikan plantea que la conductividad de los gases se hace “evidente” a partir de la relación radiación-materia, cuando, por ejemplo, un electroscopio se descarga por la “acción” de los rayos X; situación que induce a considerar que el gas contenido en el electroscopio se vuelve conductor. La conductividad del gas puede disminuir e incluso desaparecer por el desarrollo de ciertos procesos “sobre” el gas. Por ejemplo, si el gas, habiendo sido expuesto a los rayos X, es filtrado haciéndolo pasar por lana de algodón, se encuentra que su conductividad disminuye notablemente. También si en otra situación, el gas se aspira por un tubo metálico muy estrecho (difusión), se encuentra que la conductividad disminuye, pero no tanto como en el caso anterior.
16. “Entre 1833 y 1900, pues, el físico se encontraba en una situación muy particular cuando consideraba el pasaje de la electricidad a través de una solución, en la mayoría de los casos, y siguiendo a Faraday, se imaginaba puntos definidos o átomos de electricidad moviéndose a través de la solución, cada átomo de materia llevando un múltiplo exacto que podría ser cualquiera, entre uno y ocho de un átomo eléctrico elemental definido; en tanto que, cuando consideraba el pasaje de la corriente a través de un conductor metálico abandonaba por completo la hipótesis atómica y trataba de imaginarse el fenómeno como un continuo ‘deslizamiento’ o ‘ruptura de tensión’ en la substancia del conductor [...]” (Millikan, 1963, p. 27).
Así pues, para Millikan la filtración y la difusión “dicen” que la conductividad del gas es debida a la presencia de “algo” que se puede eliminar por tales métodos. Teniendo en cuenta, además, una tercera experiencia en la cual el gas conductor al pasar por entre dos placas mantenidas a una diferencia de potencial suficientemente elevada, pierde completamente su conductividad, el autor adiciona en su interpretación que este “algo” tiene un carácter eléctrico. El carácter “cosista” que adquiere la conductividad de los gases parece ser el primer elemento que establece la posibilidad de asimilarla a la conductividad electrolítica. Primero, porque se decide que es “algo” (lo cual tiene que ver con la concepción de la materia), y luego porque se hace énfasis en que este “algo” tiene un “carácter eléctrico”. Están aquí presentes entonces, la materia y la electricidad, al igual que lo están en la electrólisis. Por ello se dedica especial atención a la comparación cuantitativa del ion electrolítico con el ion gaseoso. Millikan, establece una relación entre las constantes de movilidad y de difusión de los iones gaseosos y la cantidad “ne”17 para los mismos, y anota: Afortunadamente, la evidencia cuantitativa de la naturaleza electrolítica de la conducción en los gases no depende de ninguna manera del hecho de que una u otra teoría sea correcta en cuanto a la naturaleza del ion. Depende, sencillamente, de la comparación de los valores de “ne” obtenidos por las mediciones electrolíticas con los obtenidos por sustitución en la ecuación 3 [ne = (Vo/D)P, donde Vo expresa la movilidad de los iones, D el coeficiente de difusión de los mismos y P la presión que existe en el gas] de los valores medidos de Vo y D para los iones gaseosos. (Millikan, 1963, p. 44)
Al comparar los resultados de las experiencias realizadas en este sentido, el autor afirma que Townsend brinda excelentes pruebas cuantitativas de: 1) La carga promedio transportada por los iones negativos de los gases ionizados es la misma que la carga promedio transportada por los iones monovalentes de las soluciones y que, 2) la carga promedio transportada por los iones positivos del gas es sensiblemente igual a la transportada por los iones negativos. (Millikan, 1963, p. 48)
17. Donde n corresponde al número de moléculas en un centímetro cúbico, traído de la teoría cinética de los gases, y e corresponde a la carga llevada por un ion monovalente en una solución. Millikan determina, para condiciones especiales de temperatura y presión el valor de “ne” en 1,25 × 10(10).
Jaime Duván Reyes Roncancio / La organización de la experiencia y la elaboración de conceptos. Fase inicial de la constitución de los conceptos de átomo e ion / P.P. 13-25
23
24
Física y Cultura: Cuadernos sobre Historia y enseñanza de las ciencias - No. 8 , 2014 / ISSN 1313-2143 / Análisis Histórico-Críticos
Se consolida con esto, la concordancia entre los valores de “ne” en la electrólisis y en la conducción en gases. Debemos resaltar ahora una característica esencial del tratamiento a la conductividad electrolítica: la idea de disociación o, en palabras de Stoney, la asociación de una cantidad definida de electricidad, siempre la misma, por cada enlace químico que desaparece. De esta manera, la ionización se configura como la disociación en partes que tienen un carácter eléctrico (carga).
Se han generado condiciones para que, desde la perspectiva discreta de la materia, la pregunta por la estructura atómica se torne relevante y posible de ser abordada.
Pero, en la conductividad gaseosa, entendida como proceso de ionización, la disociación ha de entenderse como un proceso en el cual la concepción disyunta en la relación materia electricidad se debe subvertir, ya que ¿cómo entender la ionización que se presenta por efecto de los rayos X en gases puros y gases monoatómicos?, ¿cómo entender la ionización de cualquier gas si allí hay que pensar en disociación? Al respecto Millikan comenta: Pero la ionización producida por los rayos X era de una especie por completo diferente, pues era observable en gases puros, como el nitrógeno o el oxígeno, y aún en los gases monoatómicos como el argón y el helio. Era evidente entonces que el átomo neutro, aun de una sustancia monoatómica debe poseer cargas eléctricas pequeñas como componentes. Esto nos proporciona la primera evidencia directa de que: 1) Un átomo es una estructura compleja; y 2) cargas eléctricas entran en su composición. Con este descubrimiento, que se debe en forma directa al uso del nuevo agente, los rayos X, el átomo como ente último e indivisible desapareció [...] (1963, p. 45).
Entonces, si la idea de disociación subyace a la de ionización, la conductividad de los gases entendida como ionización exige que la concepción de átomo como ente último desaparezca. Exige, también, que el tratamiento dado a la relación materia-electricidad cambie, ya no se puede independizar de manera tajante la electricidad de la materia: el átomo “tiene” ahora partes, las cuales tienen un carácter eléctrico y, además, un carácter material; y la unidad elemental de electricidad, el electrón, como
constituyente del átomo ha de ser concebido como una partícula material. De esta manera se han generado condiciones para que, desde la perspectiva discreta de la materia, la pregunta por la estructura atómica se torne relevante y posible de ser abordada.18 Teniendo en cuenta investigaciones en torno al comportamiento eléctrico de los gases enrarecidos en los, así llamados, tubos de vacío tendientes a determinar el valor de la relación e/m para iones negativos y para iones positivos, Millikan destaca los siguientes resultados: 1) la relación e/m es la misma para el portador negativo, cualquiera sea la naturaleza del gas residual y su masa, se infiere, es aproximadamente una milésima parte del átomo de hidrógeno, el átomo más liviano; lo cual era un indicio de que dentro del átomo existe una partícula con carga negativa cuyo valor de e/m es aproximadamente el obtenido para los rayos catódicos; 2) el valor de e/m para los iones positivos “no es nunca mayor que su valor para el ion hidrógeno en la electrólisis, y varía para los diferentes gases residuales al igual de lo que sucede en la electrólisis” (1963, p. 29). Por último, las consideraciones y resultados anteriores permiten poner de manifiesto la transformación que experimenta el concepto de ion resultante de la organización de la experiencia en torno a la electrólisis: La ionización de los gases parece consistir en el desprendimiento de un átomo neutro de una o muchas partículas cargadas negativamente [...]. El resto del átomo está evidentemente cargado positivamente y conserva la masa del átomo primitivo. Los corpúsculos producidos en esa separación se fijan luego, en un gas a la presión ordinaria, a un átomo neutro (Millikan, 1963, p. 41).
Si no, entonces “cómo explicar que los coeficientes de movilidad y de difusión de los iones negativos estén generalmente en el mismo orden de magnitud que el de los iones positivos” (Millikan, 1963, p. 41). Es a causa de esta “tendencia de las partes del átomo disociado a formar nuevas uniones, que las inercias de esas porciones 18. A este respecto surgieron, nos dice Millikan, preguntas como las siguientes: “¿Cuáles son las masas de los componentes de los átomos que los rayos X y agentes similares separan? ¿Cuáles son los valores de las cargas llevadas por esos componentes? ¿Cuántos son esos componentes? ¿Cuál es su tamaño, vale decir, qué volúmenes ocupan? ¿Cuáles son sus relaciones con la emisión y la absorción de las ondas luminosas y caloríficas, esto es, con la radiación electromagnética? ¿Poseen todos los átomos componentes iguales? En otras palabras, ¿existe un subátomo primordial que entra en la formación de todos los átomos?” (Millikan, 1963, p. 46).
debieron ser investigadas en los gases enrarecidos de los tubos de vacío” (p. 41). Se llega de esta manera a la forma como suele ser presentada la ionización de los gases en los textos de física.
A manera de conclusión Si bien los resultados pueden ser “los mismos”, entender las condiciones en que se elaboran y constituyen los conceptos, en nuestro caso los de átomo e ion, es decir, los supuestos que los soportan, la experiencia a la cual se refieren y organizan, la transformación de su significado cuando esta experiencia es ampliada o nueva experiencia es construida, la organización de la experiencia lograda; además de posibilitarnos elaborar una conceptualización a partir de la cual dar cuenta de la experiencia y de vislumbrar la ciencia en su dinámica, permite formarnos una imagen de ciencia muy diferente de la que usualmente se difunde a través de los textos y de la enseñanza.
Referencias Millikan, R. (1963). The electron. Its isolation and measurement and the determination of some of its properties. Chicago: University Chicago Press. Orozco, J. C. (1996). El encanto de la diferenciación. Aproximación con Faraday a la enseñanza de las ciencias. Tesis de Maestría. Bogotá: Universidad Pedagógica Nacional. Planck, M. (1945). Treatise on thermodynamics [3a Ed.]. New York: Dover publications.
La ciencia, vista desde esta perspectiva, comienza a ser asumida como una actividad de organizar y construir experiencia sensible, donde el experimento pierde el carácter de “juez” que decide sobre la validez de un planteamiento y la organización lograda pierde su carácter de realidad independiente del sujeto que conoce; imagen esta que nos permite establecer una nueva relación con los productos científicos —conceptos, leyes, teorías, procedimientos, etc.— y que pone en primer plano la necesidad de examinar los supuestos y criterios que animan las diferentes organizaciones de la experiencia que suelen ser enseñadas, y en esa medida examinar los nuestros.
Jaime Duván Reyes Roncancio / La organización de la experiencia y la elaboración de conceptos. Fase inicial de la constitución de los conceptos de átomo e ion / P.P. 13-25
25
Una recontextualización para la enseñanza de la mecánica cuántica. Reflexiones sobre el principio de superposición de estados * A recontextualization in order to teach quantum mechanics Considerations on the Superposition Principle Germán Bautista Romero Departamento de Física - Universidad Pedagógica Nacional Bogotá, D.C. - Colombia germanbau@yahoo.com bautista@pedagogica.edu.co
Resumen Para que la física resulte inteligible se requiere una adecuada recontextualización de los problemas que se trataron de resolver y que llevaron a la formulación de las teorías. Esta contextualización podría hacerse refiriéndose a tres grandes aspectos: las “imágenes” de mundo físico que sirvieron de soporte para su elaboración, los diferentes supuestos epistemológicos que han sustentado la actividad de los físicos, y, subyaciendo a esto, las estrategias y nociones que el sujeto construye y que le sirven de base para la elaboración de explicaciones. A propósito de la mecánica cuántica, en este escrito se presenta una posible manera de tener en cuenta estos aspectos; tomando como principal referencia la versión que Dirac presenta de la misma en su tratado Principios de mecánica cuántica.
Abstract To make physics intelligible, an adequate recontextualization for the problems whose solutions were searched for and gave rise to new theories is required. This recontextualization may be done by focusing on three main aspects: The physical world “pictures” that were the substrata for their constructions, epistemological assumptions employed by physicist and, underlining these, the strategies and notions used by the subject to elaborate his explanations. In this paper, one possible way of taking account of these aspects is put forward, having as a central reference Dirac’s version of quantum mechanics as presented in his treaty Principles on Quantum Mechanics.
Junio 12 de 2012 * Octubre 30 de 2012
Germán Bautista Romero / Una recontextualización para la enseñanza de la mecánica cuántica. Reflexiones sobre el principio de superposición de estados / P.P. 27-37
27
28
Física y Cultura: Cuadernos sobre Historia y enseñanza de las ciencias - No. 8 , 2014 / ISSN 1313-2143 / Análisis Histórico-Críticos
Palabras Clave Recontextualización de saberes, mecánica cuántica, superposición de estados, Dirac, elaboración de explicaciones científicas.
Key Words Recontextualization of knowledge, quantum mechanics, Dirac, elaboration of scientific explanations.
Germán Hernando Bautista Romero Profesor catedrático del Departamento de Física de la Universidad Pedagógica Nacional. Físico de la Universidad Nacional de Colombia y Master of Science de Miami University (Ohio, USA) of Ohio. Estudios de doctorado en física en Temple University (Filadelfia, USA). Fundador grupo Física y Cultura.
*El artículo recoge algunas de las reflexiones realizadas durante varios años en mi trabajo como docente de la mecánica cuántica desde la perspectiva de Dirac en la Licenciatura de física de la Universidad Pedagógica Nacional, Bogotá.
Debido al alto nivel de elaboración requerido para la formulación de las teorías físicas modernas, fácilmente se llega a pensar que se requieren dotes intelectuales extraordinarios para hacer de ellas algo inteligible, o que el mundo físico, al cual ellas se refieren, es algo ininteligible. Ambas conclusiones inducen al estudiante a renunciar a entender las implicaciones de lo que las teorías físicas dicen sobre el mundo. En el campo de la enseñanza se suele, también, considerar que el periodo de la hoy llamada física clásica se cierra con el establecimiento de la teoría de los campos del electromagnetismo y que la aparición de nuevos datos empíricos fuerza la formulación de las teorías físicas modernas. Sin embargo, los textos de enseñanza más populares (casi todos) no se toman el trabajo de indicar las motivaciones que llevaron a la obtención de estos nuevos datos empíricos, es decir, por qué los físicos hicieron las medidas y los experimentos que los llevaron a conflictos con las teorías ya aceptadas. De esta manera se deja la impresión de que la gente comenzó a mirar las cosas con una lupa “porque sí”. Sin embargo, si se examina el contexto histórico se ve que había motivaciones considerables para la obtención de nuevos datos empíricos; una, la más importante, la profunda incompatibilidad entre las dos grandes teorías de la época: la mecánica y el electromagnetismo. Por otro lado, el soporte empírico de cada una de estas teorías, la irreconciliable incompatibilidad entre ellas y el creciente cúmulo de nuevos datos empíricos que se producían en la búsqueda de una solución, acrecentaron cada vez más la duda sobre la posibilidad de conocer o entender al “mundo físico”, pareciera imposible hacerse una imagen coherente de este. Duda que, siendo compartida por la comunidad de físicos, explica en cierta manera porqué en el campo de la enseñanza no se hace énfasis sobre la inteligibilidad de la física. Parte de las dificultades surgen porque la mayoría de los docentes de física implícitamente asumen que basta con hacer una presentación clara y rigurosa de las teorías ya formalizadas para hacer de ellas algo entendible.1 Y si el estudiante no logra comprenderlas, se adjudica el problema a su pobre preparación previa o a sus escasos recursos intelectuales.
1. Note la diferencia entre “entender” una teoría y el hacer de la física algo “inteligible”: en el primer caso se trata de poder seguir la lógica formal y de manipulación de la teoría y de sus algoritmos, en el segundo caso se refiere a poder hacerse una “imagen inteligible” del mundo físico al cual se refiere la teoría.
A mi modo de ver, en el campo de la enseñanza, para que la física resulte inteligible se requiere una adecuada recontextualización de los problemas que se trataron de resolver y que llevaron a la formulación de las teorías. Esta nueva contextualización podría hacerse refiriéndose a tres grandes aspectos: las “imágenes” de mundo físico que sirvieron de soporte para su elaboración, los diferentes supuestos epistemológicos que han sustentado la actividad de los físicos, y, subyaciendo a esto, las nociones que el sujeto construye y que le sirven de base para la elaboración de explicaciones, explicaciones que, sobra decirlo, él considera inteligibles para sí. Estos aspectos se abordarán en este escrito a propósito de la mecánica cuántica, tomando como referencia central la versión que Dirac presenta de la misma en su tratado The principles of Quantum mechanics.
Sobre las imágenes de mundo físico Hasta la época de Lorentz, se puede resumir el panorama de la física mediante dos grandes tendencias o visiones del mundo físico: la de corte newtoniano y la de corte de campos, la primera tipificada en la mecánica newtoniana y la segunda en la teoría del electromagnetismo de Maxwell. Dos visiones cuyas raíces se podrían rastrear hasta las polémicas entre vacuistas y plenistas del siglo XVII.
Las imágenes de corte newtoniana del mundo físico En sus versiones más simples estas imágenes consideran al mundo físico como constituido por el espacio (homogéneo e isotrópico), el tiempo (también homogéneo) y la materia inerte; junto con la idea de la acción a distancia. Esta perspectiva puede dar cuenta de la multiplicidad de los datos empíricos percibidos mediante el movimiento de la materia en el espacio vacío. Estas imágenes del mundo subyacen en la mecánica newtoniana, se desarrollan con la mecánica clásica y van tomando diferentes matices con el transcurrir del tiempo. Esta aproximación, al ser usada en la explicación del comportamiento de la materia, conduce a dos tipos de dificultades: una, que no puede dar cuenta de los nuevos datos empíricos que se van descubriendo; la otra, que resulta insatisfactoria desde un punto de vista filosófico, porque deja de dar respuesta a las preguntas cruciales: ¿qué es la materia?, ¿cómo se explican las propiedades de la materia?, ¿tiene la partícula alguna estructura?
Germán Bautista Romero / Una recontextualización para la enseñanza de la mecánica cuántica. Reflexiones sobre el principio de superposición de estados / P.P. 27-37
29
30
Física y Cultura: Cuadernos sobre Historia y enseñanza de las ciencias - No. 8 , 2014 / ISSN 1313-2143 / Análisis Histórico-Críticos
Las imágenes de campos del mundo físico o imágenes plenistas del mundo físico En estas imágenes se le concede existencia ontológica2 únicamente al espacio y al tiempo. En estas imágenes el espacio no se considera como vacío, es decir no es pasivo, es activo. Los diferentes fenómenos que se perciben se atribuyen a las propiedades del espacio. Descartes es uno de los pensadores más conocidos que desarrolló su trabajo en física teniendo como contexto una imagen plenista. Así mismo, la imagen plenista de Faraday le permite construir prácticamente toda la fenomenología del electromagnetismo, la cual es tomada por Maxwell para la formulación de la teoría electromagnética. Las corrientes de los campos, o corrientes plenistas, habían cosechado muchos éxitos con la consolidación de la teoría del electromagnetismo de Maxwell sin tener que abordar explícitamente el problema de la materia, pero al no considerarla como un ente diferente al espacio les resultaba imperativo la construcción de una teoría de la materia para dar cuenta de los datos empíricos que son explicados mediante las propiedades que la mecánica le asigna, en particular los fenómenos inerciales. La imagen newtoniana del mundo físico conduce a la formulación de la mecánica clásica, mientras que las imágenes plenistas conducen a la formulación de la teoría del electromagnetismo. Dado que estas imágenes del mundo físico son totalmente contrapuestas, conducen a teorías que no solamente resultan diferentes sino que son opuestas: son teorías totalmente incompatibles entre sí.3 Para resolver el impase era necesario allegar nuevos datos empíricos que permitieran inclinar la balanza en favor de una de ellas o a la construcción de una nueva formulación teórica. La ontología es uno de los rasgos fundamentales que diferencian las dos imágenes anteriores, una, concede carácter ontológico a la materia, la otra no. En consecuencia se inicia un gran esfuerzo de investigación sobre la materia para allegar estos nuevos datos empíricos. Las tendencias newtonianas aparentemente habían resuelto (más bien habían pospuesto la solución) los problemas relacionados con el “entender la materia” al considerar a los cuerpos como compuestos de partículas cuyas 2. En este escrito ontológico se refiere a aquello que tiene existencia independientemente del sujeto que conoce, es decir, independientemente de la existencia de cualquier ser inteligente. 3. Incompatibilidad que se manifiesta por ejemplo en que la mecánica es invariante bajo las transformaciones de Galileo mientras que el electromagnetismo no lo es.
únicas propiedades esenciales eran la masa y el poder ser ubicada en el espacio. Su programa de desarrollo consistía en extender sus explicaciones a los nuevos fenómenos del electromagnetismo. Para el electromagnetismo, una teoría de la materia era una necesidad fundamental para poder incluir en su esquema a los fenómenos inerciales. La indagación sobre la materia condujo a la elaboración de experimentos cuyos resultados pusieron en evidencia que tanto la visión newtoniana como la de campos clásicos no eran adecuadas por que ninguna de ellas era suficiente para dar cuenta de todos los datos empíricos ya conocidos, ni de los nuevos.
Debido al alto nivel de elaboración requerido para la formulación de las teorías físicas modernas, fácilmente se llega a pensar que se requieren dotes intelectuales extraordinarios para hacer de ellas algo inteligible, o que el mundo físico, al cual ellas se refieren, es algo ininteligible.
Esto planteó una gran crisis en la física. Crisis que no se deriva únicamente de los dos tipos de imágenes del mundo y de las dos teorías subyacentes, sino, además, de que ambas teorías tienen un gran respaldo en los datos empíricos ya que cada una de ellas puede dar muy bien cuenta de una gran colección de fenómenos físicos. La formulación misma del electromagnetismo implicó una revisión de la mecánica clásica, y eventualmente un desplazamiento de ésta de su estatus de la teoría de la física, dando paso a la construcción de, las hoy consideradas como teorías de la física moderna: la teoría de la relatividad y la teoría de la mecánica cuantica.
Dos tendencias de corte epistemológico Las dudas que surgen con relación a la inteligibilidad del mundo físico pueden ser resueltas asumiendo que, aunque el mundo físico es organizado y coherente, desafortunadamente el hombre no tiene las capacidades suficientes para conocerlo; otra posible manera es asumir que el mundo realmente es caótico y lo caótico no puede ser organizado para que sea aprehensible por una mente
finita como la del hombre; una tercera opción es la de no renunciar a la posibilidad de comprender al mundo físico y asumir que el problema reside en las estrategias de conocimiento. Esta última opción implica una revisión a fondo de las bases epistemológicas que sustentan las diferentes teorías. Para nuestro propósito resulta útil abordar este aspecto alrededor de dos “compromisos epistemológicos”: el mecanicista y el fenomenologista. El compromiso mecanicista busca explicaciones detalladas y minuciosas del mundo físico y en cierto modo busca explicaciones de tipo espaciotemporales, es decir construye modelos casi “visuales” de las cosas para sentirse satisfecho sobre el grado de comprensión alcanzado. El modelo cinético de los gases es un ejemplo de este tipo de explicaciones; en este modelo casi se pueden “ver” las partículas esféricas que se mueven, chocan y rebotan en el espacio. Con este modelo se puede explicar el comportamiento del gas, y dar cuenta de ideas que no son espaciales, tales como presión y temperatura. El compromiso fenomenologista asume que no es necesario, ni deseable, la inclusión de esos modelos espaciotemporales y que, en cambio, se trata de establecer relaciones muy claras y coherentes entre las cantidades que se puedan “medir”. Un ejemplo de este esquema es la antigua teoría de la termodinámica, en donde no se intenta hacer un modelo detallado del sistema sino de establecer relaciones entre las diferentes variables “macroscópicas” (cantidades medibles, a las cuales se puede acceder directamente y que se refieren a cualidades del sistema que son intuitivamente claras para el sujeto). En este tipo de explicaciones lo ontológico pasa a un segundo plano, en muchas ocasiones simplemente no se aborda.
La formulación misma del electromagnetismo implicó una revisión de la mecánica clásica, y eventualmente un desplazamiento de ésta de su estatus de “la teoría de la física”.
El programa mecanicista, en su búsqueda de modelos y explicaciones detalladas, se ve abocado a dificultades que lo conducen a construir ciertos procedimientos matemáticos y metodológicos4 que eventualmente dan origen a la 4. Véase, por ejemplo, el trabajo de Boltzmann relacionado con la entropía.
introducción de la idea de probabilidad en la explicación de los fenómenos físicos y a proveer muchos elementos útiles en la construcción de la mecánica cuántica, especialmente de una cierta versión de la mecánica cuántica.
Sobre “lo inteligible” Son muchos los aspectos epistemológicos involucrados en la construcción de explicaciones que le resulten satisfactorias al sujeto, que hagan “inteligible” aquello que él se quiere explicar. ¿Que es lo que permite al sujeto sentirse satisfecho? ¿Por qué ha logrado la sensación de que ha entendido? Los elementos de tipo subjetivo que permiten al sujeto llegar a la conclusión de que ha entendido son construidos por cada sujeto en particular, y dependen del grado de desarrollo que él haya alcanzado. ¿Qué se quiere decir cuando uno afirma que ha entendido algo? Obviamente, esta pregunta se la hace a sí mismo cada persona, y es ella misma quien en últimas tiene que respondérsela.5 Aunque los elementos que permiten a una persona en particular pensar que ha entendido son complejos y subjetivos, se puede señalar ciertas ideas o nociones que necesariamente requieren ser satisfechas para que el sujeto cognoscente pueda sentir que está entendiendo. Un conjunto de estas ideas o nociones está relacionado con lo ontológico —aquello que da sustento a nuestras sensaciones—. Lo ontológico ha jugado un papel muy importante en el desarrollo de la física. Los físicos creemos, aún hoy en día, que estamos hablando del “mundo real”, es decir, de aquello que existe “realmente”. Por ello, lo ontológico juega un papel muy importante.6 Otro conjunto de ideas o nociones está relacionado con la posibilidad de tener un cuadro “asible” que permita dar cuenta de la multiplicidad de los datos empíricos: las ideas de causalidad y de coherencia. El sujeto siente la necesidad de entender cómo se suceden los cambios en el tiempo, 5. Por ejemplo, cuando se lee en el escolio de los Principia de Newton “Tiempo, espacio, lugar y movimiento son palabras conocidísimas por todos. Es de observar, con todo, que el vulgo sólo concibe esas cantidades partiendo de la relación que guardan con las cosas sensibles. Y de ello surgen ciertos prejuicios, para cuya remoción será conveniente distinguir allí entre lo absoluto y lo relativo, lo verdadero y lo aparente, lo matemático y lo vulgar [...]” (Newton, 1687/1982, p.228). Tomando en cuenta su contexto particular no resulta arriesgado concluir que Newton pretendía conocer mejor a Dios (Lo Verdadero y no lo aparente) y no simplemente dar cuenta de manera lógica, coherente y organizada de los datos empíricos a su disposición. 6. Resulta interesante anotar que la necesidad de hablar de lo que realmente existe no se da únicamente en el campo de las ciencias, en el campo de lo cotidiano también juega un papel muy importante.
Germán Bautista Romero / Una recontextualización para la enseñanza de la mecánica cuántica. Reflexiones sobre el principio de superposición de estados / P.P. 27-37
31
32
Física y Cultura: Cuadernos sobre Historia y enseñanza de las ciencias - No. 8 , 2014 / ISSN 1313-2143 / Análisis Histórico-Críticos
la causalidad es, pues, una necesidad del sujeto. Cuando puede hacer un cuadro armónico y coherente del objeto, el sujeto siente que entiende; la coherencia es, también, una necesidad del sujeto para sentir que ha entendido. La universalidad, una necesidad muy fuerte entre los físicos y los filósofos, que se podría considerar como una extensión de la necesidad de coherencia, es un elemento que ha jugado un papel muy importante en el desarrollo de la física. La inmensa mayoría, sino todos, de los gestores de la física han buscado hacerse una idea global y coherente del mundo físico. Si no fuera por ello la comunidad de físicos, en su momento, no hubiera percibido la existencia de problemas de incompatibilidad entre el electromagnetismo y la mecánica clásica, o entre la mecánica cuántica y la relatividad. Se aceptaría sin ningún reparo que cada una de estas teorías describiera una parcela de lo sensible sin importar que esas descripciones generaren imágenes totalmente contradictorias, entre sí, del mundo físico.
La universalidad, una necesidad muy fuerte entre los físicos y los filósofos que se podría considerar como una extensión de la necesidad de coherenciwa, es un elemento que ha jugado un papel muy importante en el desarrollo de la física.
Resulta difícil aceptar que los fundadores de la física moderna hubieran renunciado a entender o a construir una imagen inteligible del mundo físico; aunque, sin duda, cada uno de los protagonistas desarrolló sus propios criterios al respecto. Por ejemplo, Einstein habla de “conceptos primarios” y “conceptos secundarios”: “Los primarios son aquellos que están directa e intuitivamente conectados con conjuntos típicos de la experiencia sensorial” (Einstein, 1936, p.352). Y añade, “Desde el punto de vista de la física, todas las demás nociones adquieren significado sólo en la medida en que estén conectadas con las nociones primarias a través de proposiciones [...]” (p.352, el énfasis es nuestro).
Ahora bien, Dirac en el prefacio a la primera edición de su tratado escribe: Las nuevas teorías, […] están construidas de conceptos físicos que no pueden ser explicados en términos de cosas previamente conocidas por el estudiante, más aun, no pueden ser explicadas adecuadamente por medio de palabras. Al igual que conceptos fundamentales (ejemplo: proximidad, identidad) que toda persona debe aprender al llegar al mundo, los nuevos conceptos de la física pueden ser aprehendidos [dominados] sólo mediante una prolongada familiaridad con sus propiedades y usos (1976, p. 10, el énfasis es nuestro).
Dirac no renuncia a hacer una organización inteligible de lo sensible —del “mundo físico”, en el contexto de la física— más aun, sugiere una estrategia para incorporar los nuevos datos empíricos a nuestros esquemas explicativos: familiarizándose con ellos a la manera como uno se ha familiarizado con los datos que nos condujeron a formarnos ideas tales como “identidad” y “proximidad”. Dirac no renuncia a comprender, aunque tiene que reformular las condiciones o las características que deben poseer las explicaciones para considerarlas aceptables: “Se puede, sin embargo, extender el significado de la palabra ‘imagen’ para incluir cualquier modo de mirar a las leyes fundamentales que haga su propia auto-consistencia obvia” (1976, p. 23). Comprender es familiarizarse lo suficiente con un conjunto de experiencias para lograr desarrollar una forma de verlas con claridad plena, es decir, que para el sujeto le resulte tan clara la organización de ese conjunto de experiencias —el fenómeno— que le resulte obvia su “auto-consistencia”. Siendo consecuente con esta estrategia, Dirac no puede asumir de partida que las organizaciones ya logradas puedan ser gratuitamente ignoradas. Por ello anota: Sin embargo se ha encontrado posible armar un nuevo esquema, llamado mecánica cuántica, que es más apropiado para la descripción de los fenómenos en la escala atómica y que es en algunos aspectos más elegante y satisfactorio que el esquema clásico. Esta posibilidad se debe a que los cambios involucrados en el nuevo esquema son de un carácter muy profundo y que no chocan con aquellas características de la teoría clásica que la hacen tan atractiva, como un resultado de esto todas estas características pueden ser incluidas en el nuevo esquema (1976, p. 16, el énfasis es nuestro).
En otras palabras, la organización ya existente, la de la mecánica clásica, tiene características muy valiosas que deben ser conservadas e incluidas en el nuevo esquema, lo cual es posible porque las características nuevas y las antiguas no chocan entre sí. Pero, ¿a cuáles características de la mecánica clásica se refiere Dirac? Comenzamos por anotar que, en su tratado sobre este particular, él no se refiere a las diferentes formalizaciones existentes de la mecánica clásica, sino a las ideas que guían o dan sustento a esas formalizaciones: ideas de tipo epistemológico que subyacen en la fundamentación de esas teorías. Dirac aborda el tema, primero, refiriéndose a los datos empíricos disponibles, para destacar aquellos que por su importancia e incontrovertible evidencia muestran lo inadecuado de la mecánica clásica para dar cuenta de ellos. Resulta interesante el tipo de análisis que de ellos hace Dirac en relación con las posibles soluciones propuestas desde una mirada clásica. Luego, se refiere a las debilidades desde el punto de vista filosófico de la estrategia de explicación de la mecánica clásica, es decir, aborda algunos de sus aspectos epistemológicos. Escribe Dirac: “La necesidad de abandonar las ideas clásicas [...] puede verse no solamente por los datos experimentales establecidos sino, también, por razones filosóficas generales [...]” (1976, p. 16). Y estas razones se refieren, en primera instancia, al tratamiento de lo más directamente relacionado con lo sensible: la idea de “grande” y de “pequeño”; en cuyo tratamiento más generalizado subyace la estrategia de asumir que el todo se puede explicar a partir de las partes. Luego se refiere a la idea de causalidad, al principio de superposición y a la idea de coherencia. Estas ideas son caracterizadas desde el marco clásico, para luego hacer evidente que las modificaciones que se introducen son las menores posibles. Son aquellas que permiten seguir entendiendo lo que sobre estas nociones modificadas se construya. A manera de ilustración, veamos en más detalle cada una de ellas.
El principio de causalidad Una consecuencia de la discusión anterior, es que debemos revisar nuestras ideas de causalidad. La causalidad se aplica solo a los sistemas que se dejan sin perturbar. Si el sistema es pequeño, no lo podemos observar sin seriamente perturbarlo y en consecuencia no podemos esperar encontrar alguna conexión causal entre los resultados de nuestras observaciones. Se seguirá
asumiendo que la causalidad se cumple en los sistemas que no sean perturbados y las ecuaciones que se construyan para describir un sistema no perturbado serán ecuaciones diferenciales que expresan conexiones causales entre las condiciones en un instante y las condiciones en un tiempo posterior. Estas ecuaciones estarán en estrecha correspondencia con las ecuaciones de la mecánica clásica, pero estarán conectadas solo indirectamente con los resultados de la observación. (Dirac, 1976, p. 18).
Dirac no renuncia a lo fundamental de la noción de causalidad: “Si el sistema no es perturbado [...] se puede hacer una conexión temporal entre una situación inicial y una final del sistema”. Si el sujeto no puede establecer esta conexión en el tiempo, él concluye que no puede conocer, lo cual resulta inaceptable desde el punto de vista del conocimiento, es decir, él siente que el sistema (o la situación) no es entendible, es ininteligible. Sin embargo, para armonizar esta necesidad del pensamiento con la experiencia de que si el sistema es pequeño no se le puede observar sin perturbarlo, Dirac propone renunciar a establecer una conexión directa entre “el cuadro mental” del devenir del sistema con los posibles resultados de la observación, propone establecer una relación indirecta, más elaborada, entre el resultado del experimento y la teoría. Construye la mecánica cuántica tomando como partida la necesidad de ser expresada por medio de ecuaciones diferenciales en el tiempo, del mismo tipo que las usadas para la mecánica clásica.
El principio de superposición La discusión de la sección anterior sobre el límite de la delicadeza con la cual se puede hacer la observación y la consecuente indeterminación en el resultado de esas observaciones no nos provee de ninguna base cuantitativa para la construcción de la mecánica cuántica. Para este fin se requiere de un nuevo conjunto de leyes adecuadas de la naturaleza. Una de las más fundamentales y más radicales de ellas es el Principio de Superposición de Estados. (Dirac, 1976, p. 18. Énfasis del texto original)
Si se quiere hacer compatible el principio de causalidad con la aceptación de que el sujeto siempre perturba al objeto cuando lo observa, se requiere hacer un uso muy deliberado y consiente de nociones o estrategias que el sujeto usa en la organización de su experiencia, es decir, los aspectos epistemológicos adquieren una importancia especial. Una de estas nociones o estrategias es la idea de linealidad o de superposición. La idea de linealidad puede ser asumida de diferentes maneras: se puede suponer que la naturaleza es lineal o se puede asumir que la linealidad no está en el “mundo objetivo” sino que
Germán Bautista Romero / Una recontextualización para la enseñanza de la mecánica cuántica. Reflexiones sobre el principio de superposición de estados / P.P. 27-37
33
34
Física y Cultura: Cuadernos sobre Historia y enseñanza de las ciencias - No. 8 , 2014 / ISSN 1313-2143 / Análisis Histórico-Críticos
forma parte de las estrategias que el sujeto emplea para la organización de su experiencia (para la construcción de su conocimiento). Resulta interesante notar que Dirac toma la idea de superposición usada en la física clásica para elaborar su principio de superposición de estados e incluirlo entre las nuevas “leyes de la naturaleza”. En la mecánica clásica la idea de linealidad o de superposición es algo que juega un papel supeditado a la idea de simplicidad, es un criterio para construir teorías más simples (se prefieren las teorías que no incluyan ecuaciones cuadráticas sino lineales). Pero, ¿qué significado se le puede dar a la expresión superposición de estados? Abordaré esta pregunta deteniéndome en las palabras superposición y estado.
el significado de un número dado está determinado por la relación que este guarde con el resto de los números. Es importante recalcar que la expresión 5= 3 +2 no significa que el 5 sea el resultado de “ensamblar” el 3 con el 2 para obtener algo diferente, el 5, a la manera de cuando se mezclan dos substancias para obtener una tercera. Al contrario la expresión 5=3+2 expresa una relación entre los elementos 5, 3, y 2. La superposición se puede, entonces, asumir como una relación que se establece entre los entes que se superponen, relación que queda tipificada por la establecida mediante la suma entre enteros.
Resulta difícil aceptar que los fundadores de la física moderna hubieran renunciado a entender o a construir una imagen inteligible del mundo físico.
Superposición La idea más simple de superposición es la que subyace a la suma de números, por ejemplo en 2 + 3 = 5, al superponer (sumar) 2 y 3 (2 + 3) se obtiene 5. Un número no tiene significado si se toma como un individuo aislado. El número no posee un significado intrínsecamente, su significado está dado por la relación que tiene con el resto del conjunto de los números,7 es decir, 7. La relación que da significado a cada número se simboliza con el signo +. Si hacemos una representación geométrica de los naturales, como lo muestra la figura:
Estado Tomemos como punto de partida la definición del vocablo estado dada por el Diccionario de la lengua española: “Situación en que está una persona o cosa, y en especial cada uno de los sucesivos modos de ser de una persona o cosa sujeta a cambios que influyen en su condición” (RAE, 1984).
Podemos ver que: a) Se establece una relación entre el número 0 y el número 1 igual a la que existe entre el 1 y el 2, entre el 2 y el 3; en general entre dos números sucesivos. Esa relación puede ser entendida como “entre el 0 y el 1 hay un paso (o un escalón)”, “entre el 1 y el 2 hay también un paso idéntico al anterior”, etc., es decir dos números consecutivos están separados por un “paso” cuyas características son las mismas para todos. b) El significado de un número en particular, está ligado al número de pasos que lo separa de todos los demás números, en especial del número que se haya tomado como punto de partida (o de referencia): que generalmente se simboliza con el símbolo 0. Por ejemplo, el significado del 5 está dado por el conjunto de relaciones expresado mediante el signo + así:
En la idea de estado hay dos elementos importantes: la persona o cosa, es decir el objeto que pude tomar diferentes modos de ser, estados, en el transcurso del tiempo; y la idea de “modo de ser” o estado. El objeto en un determinado momento puede estar en un estado y en otro momento puede estar en otro estado, pero el objeto no puede estar en el mismo instante en dos estados diferentes. Al sujeto le resulta ininteligible que el objeto esté simultáneamente en dos estados diferentes– (no se trata aquí de decidir si el objeto “realmente” puede estar simultáneamente en dos estados diferentes, sino de hacer énfasis que esa situación resulta ininteligible para el sujeto).
5 = 3 + 2, 5 = 1 + 4, 5 = 0 + 5, etc. Es decir, el significado del 5 está dado por la posición de él (en esta representación geométrica) con relación al resto de los números, es decir, el significado de un número dado está determinado por la relación que este guarde con el resto de los números.
En la física clásica se usa la palabra estado en coherencia con la definición arriba citada. Así, cuando se habla del estado de movimiento de un cuerpo se entiende que el cuerpo puede cambiar su velocidad (mejor su momentum) sin perder su identidad, (es decir podemos seguir
identificando al cuerpo a pesar de su cambio de estado) y, además, que en un momento dado no puede tener dos velocidades diferentes simultáneamente. Por otro lado, el estado siempre se refiere a una cualidad: un cuerpo esta frío o está caliente (cualidad térmica), un cuerpo está en reposo o está en movimiento (cualidad de movimiento), etc. La idea de estado resulta clara al sujeto por ser una manera de referirse a uno de los grados de una determina cualidad. Cualidad que, como condición necesaria para que el sujeto sienta que comprende, debe ser una noción intuitivamente clara para él. Estado es, pues, una estrategia del sujeto para referirse a las diferentes formas de estar de un objeto dado (accidentes del cuerpo) en relación a una cualidad determinada. Se requiere, por lo tanto, construir una formalización de la relación entre los diferentes estados del objeto en cuanto a una cualidad. Desde esta perspectiva, el principio de superposición postulado por Dirac es la adopción de una formalización de la noción de cualidad a la manera como se organizan los números reales mediante la suma. La noción de cualidad En la actividad de organizar la experiencia se puede avanzar a partir de ciertas nociones intuitivas que tenga el sujeto, sin que él tenga la necesidad de formalizarlas; pero a medida que avanza en su organización va construyendo nuevos elementos que imponen más exigencias sobre esas organizaciones. Si bien se podría asumir que en las organizaciones construidas en las teorías de la física clásica se pueden usar ciertas nociones, como la de estado, la de cualidad, etc., sin que sea necesario adentrarse en su análisis y mucho menos en una formalización rigurosa de las mismas, no es así en las organizaciones propias de la física moderna. Por ello es necesario abordar una formalización de la noción de cualidad. La noción de cualidad se puede considerar como una de las estrategias que el sujeto emplea para organizar sus sensaciones. Por tratarse de una estrategia de organización, esta noción es claramente entendida por el sujeto y en consecuencia le resulta muy difícil dar cuenta de ella.8 Sin embargo, es organizada y compleja (como toda noción), y tiene un carácter de sintética. 8. Por ejemplo las nociones (intuiciones) de espacio y tiempo resultan ser claras para las personas, aunque muy pocas pueden dar cuenta de ellas; bien sea mediante una formalización matemática o cualquier otra forma de expresión.
Se trata de construir una formalización de esta noción guiados por algunos principios generales que se constituyen en herramientas para construir una organización que resulte inteligible al sujeto.9 Principios que también deben ser totalmente claros para el sujeto. Es posible que haya muchas organizaciones posibles, pero la aceptación de estos principios generales reduce significativamente la gama de posibilidades. Para nuestro caso, los criterios de organización pueden agruparse en: 1. Criterios fundamentales a los cuales el sujeto no puede renunciar si exige una organización que le resulte inteligible, estos criterios tienen que ver con la coherencia y principios tales como el de causalidad. 2. Criterios que buscan la construcción de organizaciones que siendo inteligibles respondan, además, a otras exigencias del sujeto, como son el criterio de simplicidad y el de correspondencia con la experiencia.
Dirac no renuncia a lo fundamental de la noción de causalidad: “Si el sistema no es perturbado [...] se puede hacer una conexión temporal entre una situación inicial y una final del sistema”
Para nuestro caso, el criterio de simplicidad se desarrolla asumiendo el principio de superposición como fundamental, lo cual es traducido en hacer organizaciones muy análogas a las organizaciones de tipo espacial, es decir, colocando una cosa al lado de otra por analogía a la organización espacial, y refiriéndose a una cosa particular mediante la noción de “distancia” con relación a otras. Este tipo de organización aplicado a la organización de la noción de cualidad se concreta con la adopción del principio de superposición de estados como “ley fundamental” de la naturaleza. La formalización que se desprende del enunciado del principio de superposición puede verse como una geometrización de la noción de cualidad. Formalización que 9. Lo inteligible esta, probablemente, relacionado con la necesidad del sujeto de dar cuenta de un número “infinito” de sensaciones con una capacidad finita de su cerebro.
Germán Bautista Romero / Una recontextualización para la enseñanza de la mecánica cuántica. Reflexiones sobre el principio de superposición de estados / P.P. 27-37
35
36
Física y Cultura: Cuadernos sobre Historia y enseñanza de las ciencias - No. 8 , 2014 / ISSN 1313-2143 / Análisis Histórico-Críticos
se construye siguiendo las líneas generales de la geometría euclidiana,10 así: 33 Se asume a la noción de cualidad como un caso particular de una noción múltiplemente extensa.11 33 Una concreción de la noción de cualidad la llamamos un estado y los simbolizamos con el símbolo | >. Llamaremos ket al símbolo | >. La concreción es percibida por el sujeto como una forma de estar del objeto en un momento dado. 33 Para simbolizar una concreción particular (es decir un estado particular) usaremos la notación |α > en donde a denota al estado en cuestión. 33 Se trata de organizar, es decir de establecer una relación entre todos los símbolos |α > que muestre la estructura con la cual queremos formalizar la noción de cualidad. 33 Usaremos el mismo tipo de organización que se ha dado a los números, organización que sigue la misma estrategia de la organización espacial: ordenar los puntos (lugares) uno al lado del otro, asumiendo que todos los lugares son idénticos entre sí. Solo se pueden distinguir mediante la relación de unos con otros (u otro). 33 Es decir, nos referiremos al estado |α > solo relacionándolo con otros estados, por ejemplo con los estados |b > y |c >, así: |α > = ƒ|b > + g|c > I a > 33 En donde ƒ y g son números que indican la relación del símbolo |α > con los símbolos |b > y |c >. El símbolo + conserva esencialmente el mismo significado del + de la suma de enteros. Por lo expuesto anteriormente, este tipo de organización está de acuerdo con el principio de superposición. Es interesante hacer énfasis en que el símbolo de igualdad anterior no quiere significar que el símbolo |α > es una mezcla del símbolo |b > con el símbolo |c >. Es decir, 10. En esta presentación se deja de lado los aspectos que surgen de la noción de continuidad. 11. El concepto de noción múltiplemente extensa se toma de Bernhard Riemann, en su escrito “Acerca de las hipótesis que subyacen en los cimientos de la geometría”.
el símbolo |α > conserva plenamente su identidad. De la misma forma es interesante hacer énfasis en que el símbolo de igualdad anterior, no quiere significar que el estado particular simbolizado por |α > sea una mezcla del estado simbolizado por |b > con el estado simbolizado por |c >. Es decir, el estado simbolizado por |α > conserva plenamente su identidad, condición indispensable para su inteligibilidad.
En la actividad de organizar la experiencia se pude avanzar a partir de ciertas nociones intuitivas que tenga el sujeto, sin que él tenga la necesidad de formalizarlas. Dado el carácter sintético de la noción de cualidad, si bien para referirse a un estado se requiere hacerlo mediante uno o varios estados “privilegiados”, todos los estados posibles en relación con esa cualidad deben poderse señalar mediante la misma regla; lo cual implica que las leyes lógicas atribuidas a la “operación” + conduzcan a la construcción de un “espacio vectorial”. Es decir, se obtiene una formalización de la noción de cualidad análoga a la formalización que se ha hecho de la noción de “espacio” a través de la geometría euclidiana. Finalmente, una vez construida una formalización de la noción de cualidad se hace necesario establecer una conexión de ella con la acción de “observar” al “objeto” para conocer en qué estado se encuentra, lo cual conduce a la necesidad de construir una formalización adecuada de la acción de observar para incluir la idea de que cuando se observa al objeto, este es perturbado.
Referencias Dirac, P. A. M. (1930/1976). Principios de Mecánica cuántica. 1930. Traducción al Español de la cuarta edición Barcelona: Ediciones Ariel. Einstein, A. (1936). Physics and reality. Recuperado de: www.kostic.niu.edu/Physics_and_ Reality-Albert_ Einstein.pdf Newton, Isaac, (1687/1982). Principios Matemáticos de la Filosofía Natural. Madrid: Editora Nacional. Real Academia de la Lengua Española (RAE) (1984). Diccionario de la lengua española [20a Ed.]. Ciudad: Madrid Espasa - Calpe. Riemann, B. (1854). Acerca de las hipótesis que subyacen en los cimientos de la geometría [Trad. Bautista, G.]. Bogotá: Dpto. de Física, U.P.N Sin publicar.
Germán Bautista Romero / Una recontextualización para la enseñanza de la mecánica cuántica. Reflexiones sobre el principio de superposición de estados / P.P. 27-37
37
El tensor de esfuerzos. Un análisis epistemológico desde una perspectiva pedagógica1 The stress tensor. An epistemological analysis from a pedagogical perspective Juan Carlos Castillo, María Mercedes Ayala, José Francisco Malagón, Isabel Garzón Barragán y Marina Garzón Barrios Departamento de Física - Universidad Pedagógica Nacional Bogotá, D.C. - Colombia jccastillo@pedagogica.edu.co ayalam49@gmail.com jmalagon@pedagogica.edu.co igarzon@pedagogica.edu.co mar_zon@hotmail.com
Resumen Se muestran rasgos distintivos de la conceptualización involucrada en el tratamiento genérico de los medios elásticos que J. C. Maxwell presenta en diferentes textos, en particular en el artículo “On the equilibrium of statics solids”, que recoge los desarrollos logrados en este campo a mediados del siglo XIX; tratamiento que no difiere sustancialmente de las presentaciones que se hacen sobre la materia en textos actuales, independientemente de su nivel. Se discuten tres aspectos: 1) La elasticidad y la perspectiva de estados y de continuo, asumidas estas perspectivas como estrategias de organización y de análisis de los cambios en los cuerpos elásticos; 2) la relación entre fuerza y esfuerzo y 3) el carácter tensorial del esfuerzo.
Abstract It is shown distinguishing characteristics of the conceptualization involved in the generic treatment of elastic media that J. C. Maxwell presents in several texts, especially in the paper “On the Equilibrium of Statics Solids”, that gathers the developments obtained in this field of study in the middle of century XIX; treatment that does not differ substantially from the presentations that are made currently in textbooks on the subject. Three aspects are discussed: 1) The elasticity from the perspective that takes the idea of “state” as the core of the analysis of elastic phenomena; 2) the relation between force and stress and 3) the tensorial character of stress.
1. El presente trabajo sintetiza algunos avances de la investigación “De la mecánica a la actividad de organizar los fenómenos mecánicos: Hacia la elaboración de propuestas alternativas para la enseñanza de la mecánica”, financiada por la Universidad Pedagógica Nacional.
Septiembre 6 de 2012 * Octubre 30 de 2012
Juan Carlos Castillo, María Mercedes Ayala, José Francisco Malagón, Isabel Garzón Barragán, Marina Garzón Barrios / El tensor de esfuerzos. Un análisis epistemológico desde una perspectiva pedagógica / P.P. 39-52
39
40
Física y Cultura: Cuadernos sobre Historia y enseñanza de las ciencias - No. 8 , 2014 / ISSN 1313-2143 / Análisis Histórico-Críticos
Palabras Clave Medios elásticos, medios continuos, estática, Lagrange, Maxwell, Feynmann, esfuerzos, fuerzas, tensor de esfuerzos, equilibrio.
Key Words Elastic media, continuos medium, statics, Lagrange, Maxwell, Feynmann, stress, forces, stress tensor, equilibrium.
Juan Carlos Castillo Ayala Profesor del Departamento de Física de la Universidad Pedagógica Nacional. Licenciado en física y Magister en Docencia de la física de la Universidad Pedagógica Nacional (Bogotá, Colombia). Miembro del grupo Física y Cultura. Estudios de Doctorado en Educación, Universidad Distrital Francisco José de Caldas, Actualmente, candidato a doctor en Educación.
El artículo se inscribe en la fase 2 del proyecto de investigación “De la mecánica a la actividad de organizar fenómenos mecanicos: hacia la construccion de propuestas alternativas para la enseñanza de la mecánica- Estática de medios elástico” (2000), auspiciado por el Centro de investigaciones de la Universidad Pedagógica Nacional, Bogotá.
Si miramos la teoría electromagnética de campos se puede afirmar que esta tiene con la mecánica una relación de constitución. Los indicios mecánicos de atracción y repulsión son los que posibilitan en primera instancia la percepción de los fenómenos mecánicos así como su estructuración. Sin embargo, los indicios de atracción y repulsión asociados a estos fenómenos pueden ser interpretados de dos formas principales: como debidos a la interacción entre cuerpos (acción directa y a distancia) o como debidos a la acción del medio interpuesto entre los cuerpos electrizados o magnéticos. En cualquiera de los casos planteados existen teorías de la mecánica que dan cuenta de estas interpretaciones de la interacción: teoría de potencial (Laplace, Poisson) en el caso en que se piense en interacción entre cuerpos y, teorías de elasticidad y de fluidos (teorías de medios continuos) en el caso de interacción a través de un medio. La teoría del potencial, como bien señala H. Hertz (1893/1990) es una manera de describir la interacción entre cuerpos como acción directa y a distancia y, por ende, se inscribe en la concepción newtoniana de la fuerza. Y si bien este enfoque teórico permite organizar los fenómenos electrostáticos y magnetostáticos, no permite dar cuenta de los fenómenos electrodinámicos: las ondas electromagnéticas. En este caso se requiere el desarrollo de una teoría electromagnética de campos en el sentido estricto; es decir el campo deja de ser una simple representación matemática de las acciones que un cuerpo o sistema electrificado (o magnético) puede ejercer sobre un cuerpo prueba, para pasar a ser la descripción del estado del espacio y sus modificaciones. Desde esta última perspectiva la causa de la acción que experimenta un cuerpo electrizado o magnético se debe únicamente a las variaciones del estado del espacio o medio en la vecindad del cuerpo y no a un cuerpo distante (y que es considerado en la otra perspectiva como la fuente del campo). Así, la mecánica de medios continuos aporta las formas de organización de los fenómenos electromagnéticos desde la perspectiva de campos, como se puede ver en la obra de J. C. Maxwell: Treatise of Electricity and Magnetism. Ahora bien, desde una perspectiva de eficiencia disciplinar, resulta preocupante que se centre la enseñanza de la mecánica en el enfoque newtoniano y que no se explore, en lo más mínimo, la problemática del medio continuo en la enseñanza de la física. La estática y la dinámica de medios continuos requieren del uso de esquemas de análisis y organización, para caracterizar el estado y los cambios que se dan en ellos, muy diferentes de las utilizadas en una mecánica de lo
discreto como es la mecánica de corte newtoniano. La ausencia de un reconocimiento de estas diferencias se constituye en un gran obstáculo para la comprensión del comportamiento de los medios continuos2 y de los planteamientos teóricos sobre los mismos. La determinación y caracterización de los rasgos distintivos de un planteamiento científico es de especial importancia en la orientación de los procesos de recontextualización de los saberes científicos inherentes en la actividad de enseñanza de las ciencias y de la física en particular. Con este propósito, en el presente escrito mostraremos rasgos distintivos de la conceptualización involucrada en el tratamiento genérico de los medios elásticos que J.C. Maxwell presenta en el artículo “On the equilibrium of statics solids” y que recoge los desarrollos logrados en este campo a mediados del siglo XIX, en especial la teoría que había logrado configurar Stokes.3 Este tratamiento no difiere de manera sustancial de las presentaciones que se hacen sobre la materia en textos actuales, independientemente de su nivel.
La elasticidad y la perspectiva de estados y del continuo En la mecánica, dos clases de medios han sido analizados con especial énfasis: los medios elásticos y los fluidos. La respuesta que los medios ofrecen cuando se les deforma, 2. Véase Bautista, G. y Rodríguez, L. D., “Construir explicaciones: el equilibrio de los líquidos”. Física y Cultura: Cuadernos sobre Historia y Enseñanza de las Ciencias, n.° 4, 1998, Bogotá. 3. Maxwell distingue las siguientes líneas de desarrollo en la investigación sobre la elasticidad: Las investigaciones de Leibniz, Bernoulli, Euler, Varignon, Young, La Hire y Lagrange, son limitadas al equilibrio de barras torcidas; pero aquellas de Navier, Poisson, Lamé y Clapeyron, Cauchy, Stokes, y Werthein son principalmente dirigidas a la formulación y aplicación de ecuaciones generales. Y sobre estas últimas Maxwell hace la siguiente relación: 1. Las investigaciones de Navier están contenidas en el séptimo volumen de Las memorias del instituto, página 373; y en los Anales de Química y de Física, 2a serie, XV. 264, y XXXVIII.435; La aplicación de la mecánica, Tomo I. 2. Los trabajos de Poisson en Las memorias del instituto, VIII. 429; Anales de Química y de Física, 2a serie, XXXVI. 334; XXXVII. 337; XXXVIII. 338; XLII. Journal de l’Ecole Politecnique, capítulo XX, con resumen en Anales de Química para 1829. 3. Las memorias de MM. Lamé y Clapeyron están contenidas en Mathematical Journal, vol. VII; y algunas observaciones sobre elasticidad se encuentran en Cursos de Física de Lamé. 4. Las investigaciones de M. Cauchy están contenidas en sus Ejercicios de Análisis, vol. III. p. 180, publicada en 1828. En lugar de la suposición que cada presión es proporcional a la compresión lineal que esta produce, él supone esto consistente de dos partes, una de las cuales es proporcional a la compresión lineal en la dirección de la presión, mientras la otra es proporcional a la disminución de volumen. La teoría del profesor Stokes está contenida en el vol. VIII. Parte 3, de la Cambridge philosophical transactions, y fue leída en abril 14, 1845.
Juan Carlos Castillo, María Mercedes Ayala, José Francisco Malagón, Isabel Garzón Barragán, Marina Garzón Barrios / El tensor de esfuerzos. Un análisis epistemológico desde una perspectiva pedagógica / P.P. 39-52
41
42
Física y Cultura: Cuadernos sobre Historia y enseñanza de las ciencias - No. 8 , 2014 / ISSN 1313-2143 / Análisis Histórico-Críticos
permite, en una primera aproximación y desde una perspectiva puramente fenomenológica, distinguir los medios entre elásticos y plásticos, y a estos de los fluidos. Si bien tanto los cuerpos4 elásticos como los plásticos se oponen a ser deformados, los primeros buscan restaurar su condición de no deformación tan pronto cesan las acciones que la han generado, mientras que los segundos no. Los cuerpos fluidos no oponen resistencia a la deformación, ni tienden a adoptar una forma particular, sin embargo, al igual que los cuerpos elásticos, se resisten a que su volumen sea alterado.
Si bien tanto los cuerpos elásticos como los plásticos se oponen a ser deformados, los primeros buscan restaurar su condición de no deformación tan pronto cesan las acciones que la han generado.
Sin importar a qué tipo de cambio nos refiramos, de forma o de volumen, es posible distinguir dos maneras de concebirlos;5 maneras que permiten asignarles a estos cambios “naturalezas” diferentes y que ponen de manifiesto las diferencias en los esquemas mentales que se emplean en el análisis y organización de estos. En el caso de la deformación se suele considerar que hay una forma privilegiada en la que el cuerpo puede permanecer indefinidamente, mientras que no se ejerza una acción sobre el cuerpo, un estado natural, que determina cuándo la acción es cero (al respecto se puede considerar el caso del resorte); cualquier otra forma requiere que una acción externa permanezca actuando para que esta se conserve; la magnitud de esta acción se incrementa con la magnitud de la deformación y en una primera aproximación se suponen proporcionales (ley de Hooke). Pero no solo la deformación es pensada 4. Es importante anotar aquí que con el término cuerpo nos estamos refiriendo a una parte de un medio continuo, de la que podemos examinar las variaciones de su estado a lo largo del tiempo, y que nos interesa caracterizarla mediante magnitudes definidas en cada uno de sus puntos (no de una manera global como se hace en la mecánica de lo discreto, la mecánica newtoniana). 5. En ningún momento, estamos afirmando que estas sean las dos únicas formas de pensar los cambios; las que señalamos son las dos únicas formas que podemos y nos interesa distinguir.
así, también el cambio de volumen puede ser considerado en estos términos. Para Boyle, por ejemplo, el cambio de volumen de un gas ponía en evidencia el carácter elástico del gas6, por eso hablaba del resorte del aire (entiéndase: constante de elasticidad) y consideraba que esta podría ser inferida de la acción por unidad de área (presión) que puede ejercer; de hecho, para Boyle, su ley establece la relación entre el resorte del aire (constante de elasticidad) y el volumen especifico que ca-racteriza el estado de rarefacción del aire.7 Este esquema de análisis de los cambios es el mismo que utilizó Aristóteles en el caso del movimiento local de los cuerpos terrestres. Este pensador consideraba que los cuerpos tienen un lugar natural en el que pueden permanecer en reposo indefinidamente a menos que se actúe sobre ellos; a este lugar tienden los cuerpos si se les saca de él; el movimiento por el cual el cuerpo recupera su lugar natural lo llama natural y aquel que corresponde al paso de este lugar privilegiado a otro diferente, que requiere una causa externa lo denomina violento; para que un cuerpo permanezca en un lugar que difiere del natural se necesita la aplicación de una fuerza, que impide que se realice el movimiento natural; desde esta perspectiva puede entenderse por qué un cuerpo pesado cae espontáneamente cuando se suelta, y por qué uno liviano (el humo, por ejemplo) tiende a subir. La asignación de tendencias naturales a los objetos caracte-riza este esquema explicativo: tendencia a retornar al lugar natural, o a su forma natural o al volumen que le es propio. Como puede verse, contrario a lo que se acostumbra afirmar, el esquema aristotélico no quedó erradicado del ámbito de las ciencias con la revolución científica del siglo XVII: hoy, cuando se analiza, por ejemplo, la deformación de un resorte, se lo hace desde este esquema. La otra manera de asumir el cambio está caracterizada por la siguiente consideración: solo el cambio, ya sea de forma o de volumen, requiere una causa o una acción externa para que se produzca; una vez que el cuerpo adquiere una forma dada (o volumen), cualquiera que 6. Experiencias como las siguientes ponen en evidencia un comportamiento del aire análogo al de un resorte, y permiten hablar de sus propiedades elásticas y de su estado de elasticidad. Al comprimir aire encerrado en un recipiente mediante un émbolo y dejarlo luego libre, el émbolo regresa a su posición inicial; lo mismo ocurre cuando el aire en lugar de ser comprimido es expandido. Tal comportamiento hace posible pensar que una cierta cantidad de aire ocupa un volumen que le es propio; no solo es necesario ejercer una acción para aumentar o disminuir el volumen, sino que es necesario que permanezca la acción externa para que se mantenga el aire en el nuevo volumen; si esta se suprime el aire tiende a retornar a su volumen propio. 7. Véase García, E. et al, “La ley de Boyle y el estado de un gas”. Pre-Impresos, Departamento de Física, Universidad Pedagógica Nacional.
esta sea, este la conservará a menos que se ejerza una acción externa sobre ella. Desde esta perspectiva se puede afirmar, por un lado, que no hay una forma (o volumen) del cuerpo que se pueda privilegiar y, por el otro, que el cuerpo en cuestión es totalmente indiferente a la forma que adopte o volumen que ocupe. Cada forma o volumen del cuerpo se puede considerar como expresión de un estado en el que el cuerpo se puede encontrar. Este es el enfoque utilizado en la actualidad para presentar los cambios de volumen de un fluido (gas, por ejemplo); se considera, en particular, que la variación de volumen de un cuerpo cualquiera puede estar también vinculada a los cambios del estado térmico. De hecho, Maxwell asume los cambios de forma y de volumen desde la misma perspectiva: la perspectiva de estados. Tal postura le permite involucrar los aspectos térmicos en el análisis del comportamiento de los sólidos elásticos. Este esquema explicativo de los cambios de los cuerpos elásticos y cuerpos fluidos, se basa en la idea de que los cuerpos son inertes, en cuanto no tienen propensiones o tendencias y que cualquier cambio de su comportamiento requiere una causa exterior. Por otro lado, exige que el cuerpo en cuestión no sea pensado en sí mismo, sino haciendo parte de algo, de ahí la idea de medio: debe pensarse que un cuerpo es una parte de un medio no necesariamente homogéneo. Así las cosas, el estado de un cuerpo depende de las condiciones en las que se encuentra el medio del que hace parte;8 más específicamente, el estado en una pequeña región del medio depende del estado de las partes contiguas y el estado de estas del estado de sus partes vecinas, de modo que se puede afirmar que en condiciones estáticas el comportamiento en una pequeña parte del medio (en un punto) depende y expresa el comportamiento del todo (al respecto resulta ilustrativo pensar en el estado que adquiere una membrana tensa, cuando se empuja una pequeña región de la misma). Además, un cambio que se efectúa en una región del medio involucra necesariamente cambios en las partes vecinas y estos, a su vez, cambios en sus vecinas y así sucesivamente (piénsese en la transmisión de una perturbación o de la acción a través del medio). De otra parte, dar cuenta del comportamiento del cuerpo exige la descripción del comportamiento (del estado o de los cambios de estado) de cada uno de sus puntos: Las descripciones globales, características de los enfoques analíticos, que hacen posible pensar los cuerpos en sí mismos, independientes de los demás, pierde importancia. Se incorpora, así, los cambios, el enfoque característico del tratamiento de lo continuo. 8. Nótese que no se dice que el cuerpo está inmerso en un medio, sino que el cuerpo hace parte —es una parte— del medio.
Por otro lado, el equilibrio, desde esta perspectiva, no es explicado necesariamente a través de la cancelación de acciones. Por ejemplo, si una cierta cantidad de aire en un recipiente elástico9 se sumerge en un estanque con agua, es de esperar que a medida que la profundidad se hace mayor el aire vaya ocupando volúmenes menores, debido al incremento de presión del agua con la profundidad.10 Para que todo el sistema agua-aire esté en equilibrio, a una profundidad dada, se considera que la presión del aire encerrado debe igualarse con la del agua (olvidando el efecto de las paredes del recipiente). Para este estado de presión del aire se requiere un volumen determinado, es decir, al estado de compresión del aire le corresponde un estado de rarefacción particular (ley de Boyle).
Debe pensarse que un cuerpo es una parte de un medio no necesariamente homogéneo. Así, el estado de un cuerpo depende de las condiciones en las que se encuentra el medio del que hace parte
Dos aspectos caracterizan el tratamiento del equilibrio según este análisis. Por un lado, equilibrio y homogeneidad se hacen equiparables. Así, para que el aire del caso anterior esté en equilibrio, se requiere en particular que la presión11 del aire en la interface aire-agua se iguale a la del agua12 si no son iguales hay un desequilibrio que requiere ser compensado. Y es que desde esa perspectiva solo se puede hablar de acción cuando hay dos estados diferentes, o, en otras palabras, la base de la interacción de dos vecindades de un medio está en la diferencia de estados de la misma. La medida de la interacción está dada por la medida de los cambios de estado que experimentan las partes13.
9. Para el análisis, no hemos considerado el papel de dicho recipiente elástico. 10. Lo mismo ocurriría con un sólido o con un líquido, aunque el efecto no sería tan notorio. 11. La presión es la magnitud que identifica el estado de compresión del fluido. 12. De hecho, hay una pequeña diferencia, y por lo tanto un pequeño desequilibrio que es compensado por la acción ejercida por la membrana. 13. Véase al respecto: Ayala, M. M., Romero, A., Malagón, F., “El esquema equilibración-desequilibración y los procesos termodinámicos”. Física y Cultura: Cuadernos sobre Historia y Enseñanza de las Ciencias, n.° 4, 1998, Bogotá.
Juan Carlos Castillo, María Mercedes Ayala, José Francisco Malagón, Isabel Garzón Barragán, Marina Garzón Barrios / El tensor de esfuerzos. Un análisis epistemológico desde una perspectiva pedagógica / P.P. 39-52
43
44
Física y Cultura: Cuadernos sobre Historia y enseñanza de las ciencias - No. 8 , 2014 / ISSN 1313-2143 / Análisis Histórico-Críticos
Por otra parte, se considera que el medio se puede caracterizar a través de una serie de propiedades (térmicas, eléctricas, mecánicas, etc.). Estas propiedades se expresan por medio de magnitudes y a cada una es posible asignarles dos magnitudes:14 una, que caracteriza el medio en cada punto y que permite afirmar si el medio es o no homogéneo o isotrópico —se suele denominar parámetro o constante del medio (calor específico, conductividad eléctrica, etc.)—; y otra, que se requiere para caracterizar los cambios que experimenta el medio y que en principio serían funciones de la posición y del tiempo —se le conoce con el nombre de variable de estado (temperatura, potencial eléctrico, presión, etc)—. El estado del medio en un momento dado está descrito por los valores que las variables de estado tienen en ese momento en cada uno de los puntos. Hay un acoplamiento entre las diferentes variables de estado que queda expresado en las así llamadas ecuaciones de estado y que definen los estados posibles del medio. Tal acoplamiento se pone en evidencia cuando se modifica una de las variables de estado; cuando esto ocurre necesariamente se debe modificar al menos otra variable de estado. Este acoplamiento entre las variables y sus cambios no se puede asumir como expresión de una relación causa-efecto: por ejemplo, una variación de presión no causa una variación en el volumen de un gas; lo que está en juego es un principio de causalidad formal.
magnitudes, pero no nos dice cuál cambio es la causa de otro cambio, o cuál magnitud es la que varía primero para hacer variar a las otras” (Reichenbach, 1959, p. 49).
Hans Reichenbach en su obra El sentido del tiempo, refiriéndose a las formas de causalidad puestas en juego en la física clásica, afirma que también hay una relación causal entre un acontecimiento A y un acontecimiento B, si existe un acontecimiento C que sea causa de A y B. Esta relación de conexión causal, que, según Reichenbach, es obviamente simétrica en A y en B, es la que usamos en las relaciones funcionales simétricas de la física, de las cuales las ecuaciones de estado son un caso importante. Una ley como la de Boyle-Mariotte para los gases “se cumple para todos los cambios posibles en los valores de las
En cuanto al segundo aspecto de la caracterización de la elasticidad, es importante notar que tiene un carácter antropomórfico; en su base está la imagen de un hombre estirando, por ejemplo, una banda de caucho, sintiendo que se resiste a ser deformada, que en todo momento tiende a regresar a su forma original, que no la puede soltar porque si no esto ocurrirá. Pero, sin duda alguna haríamos una caracterización muy diferente si para caracterizar la elasticidad, tuviéramos como referencia una experiencia como la siguiente. Si consideramos, por ejemplo, un cuerpo que cambia su forma al cambiar la temperatura del mismo, esperamos que al volver la temperatura a su valor inicial, el cuerpo en cuestión recupere la forma inicial. En esta imagen del fenómeno de la elasticidad no hay lugar para términos como tendencia y resistencia; es decir, el cuerpo, desde esta concepción, es totalmente inactivo. Es claro eso sí, que la alteración de la temperatura y el consiguiente cambio de forma requirió una acción. Pero, ¿en qué se convierten en esta perspectiva de estados esas nociones de resistencia y tendencia?, en estado de stress. El esfuerzo es la magnitud que se elabora para identificar el estado de stress. Hay una relación íntima entre el estado de stress y el estado de deformación que queda expresada en una ecuación de estado.
14. Según Paolo Guidoni, “en lo que respecta al conocimiento de la física, hay dos estrategias cognoscitivas —dos modos de mirar y de formalizar— particularmente importantes: un modo de ver por espacios abstractos de sistemas y un modo de ver por espacios abstractos de variables. Son dos modos estrechamente correlacionados; no se alcanza a ver por sistemas sin ver también por variables y viceversa [...] y es crucial aprender a distinguir su rol. Las variables son, de hecho, aquellas que describen los espacios abstractos en los cuales los sistemas internos pueden cambiar de configuración (por ejemplo, de forma). Los parámetros, que son a su vez variables continuas, tienen en cambio una semántica distinta (y tal vez son útilmente representados en un espacio abstracto separado) porque habitualmente caracterizan, con sus valores particulares, sistemas en el interior de una clase” (tomado de Guidoni, P. y Arcá, M. Seminario Didáctico de la Facultad de Ciencias).
Retornando a nuestro problema de la elasticidad, recordemos la forma como la caracterizamos inicialmente: se dice que un cuerpo es elástico porque se resiste a cambiar su forma y restaura su condición de no deformación tan pronto cesa la acción que la ha generado. Así, dos aspectos deben ser tenidos en cuenta para hablar de la elasticidad: de una parte, exige hablar de deformación; de otra, requiere pensar en “resistencia” a la deformación y en la recuperación de la forma anterior cuando la acción cesa. Dado que desde una perspectiva de estados no es posible privilegiar un estado con relación a los otros, es claro que el cuerpo siempre está deformado; esa forma que usualmente consideramos como natural, depende totalmente del estado del medio del cual hace parte (temperatura ambiente, presión externa, campo gravitacional, etc.); no tenerlo en cuenta es lo que permite privilegiarla, y considerarla como la única forma del cuerpo no sujeta a deformación (no debida acciones externas), es decir, como la forma que es propia del cuerpo. Estas consideraciones nos permiten pensar la deformación como un estado y plantear como problema la elaboración de una magnitud que permita identificar el estado de deformación.
Maxwell usa en su texto sobre sólidos elásticos los términos compresión para referirse a la magnitud o variable que identifica el estado de deformación, presión para identificar los estados de stress, y ecuaciones de elasticidad para referirse a las relaciones entre presiones y compresiones.
Esfuerzo y fuerza Fuerza es quizás el término más usado en las explicaciones de fenómenos mecánicos de diversa índole. En principio se podría distinguir dos clases de significados. Uno, en el que el término adquiere la connotación de causa, causa de los cambios, causa de la actividad. El otro, referido al modo de estar que adquiere un cuerpo en su interior o un medio, cuando actúan sobre él fuerzas externas (se alteran las condiciones en las que se encuentra). Sin embargo, estos significados se mezclan y confunden en muchas ocasiones. Cuando, por ejemplo, se examina el estado de un cuerpo elástico, el stress se suele caracterizar como referido a las acciones que unas partes ejercen sobre aquellas que se encuentran en su vecindad. El stress, se dice, es medido a través del esfuerzo; este a su vez se define como fuerza por unidad de área, es decir, como la densidad de una distribución de fuerza sobre una superficie que separa dos partes del cuerpo; entendiéndose la fuerza en los términos comunes de causa de cambio de movimiento. Si bien así se acostumbra presentar la relación esfuerzo-fuerza, esta no es obvia ni clara; así lo hacen ver la diversidad de planteamientos sobre el tema. Para ilustrar la problemática presentaremos a continuación la forma como ha sido abordada por pensadores muy reconocidos en el campo de la física: Lagrange, Maxwell y Feynman. Lagrange aborda este problema cuando intenta generalizar su principio de equilibrio —el principio de velocidades virtuales— y extender el método que ha desarrollado para la mecánica de cuerpos sólidos a la hidrostática. La noción de presión en los fluidos es asimilada por él a las fuerzas de ligadura aparecidas en el estudio de la mecánica de los sólidos no libres y es sometida al mismo formalismo matemático. Duhem, nos dice A. Dahan Dalmenico, resume así el tratamiento lagrangiano del caso de los fluidos: Para Lagrange las presiones son las fuerzas de ligadura que se deben aplicar a una parte de los cuerpos para restablecer el equilibrio cuando, sin suprimir ninguna de las fuerzas dadas que actúan sobre esta parte, se suprimieran los obstáculos que las partes vecinas de los cuerpos oponen a su movimiento. (1988, p. 392-393)
Duhem llama la atención sobre una confusión frecuente: cuando se aísla mentalmente una porción del medio — puesto que al separarlo ficticiamente del resto de todo el medio, se conservan las fuerzas reales que actúan sobre cada elemento de la parte aislada, ya sea para estudiar su equilibrio o su movimiento—, las ligaduras a las que esta porción está sometida deben haber cambiado por esta operación (mental), ya que las acciones reales permanecen inalteradas. Si uno considera que el estado (de equilibrio o de movimiento) de la porción aislada permanece inalterado por la operación de aislamiento, se podrá añadir a las fuerzas realmente actuantes estas famosas fuerzas de ligadura. Podríamos afirmar, entonces, que con este procedimiento se ha medido en unidades de fuerza la alteración producida en el medio al remover imaginariamente una parte y dejar actuando las fuerzas externas; insistimos en que es la medida de la alteración del medio que fue removida y no la medida de la acción que una parte circundante ejerce sobre aquella. Las fuerzas de ligadura no tienen propiamente un carácter de fuerza, jamás se le asignan propiedades direccionales; intervienen por medio de las ecuaciones de condición (ligadura) y en “sus momentos” cuando estas no son satisfechas (a través del método de multiplicadores propuesto por Lagrange). La noción de fuerza de ligadura, afirma Dalmenico, es la noción que distingue más profundamente la mecánica de Lagrange de la de Newton o de la de Boscovitch, para quienes los cuerpos están compuestos de partículas libres y las fuerzas que actúan entre ellas. Para Lagrange, los cuerpos son cuerpos continuos, donde sus diversos elementos, impenetrables, se obstaculizan los unos a los otros en sus movimientos. Es claro, pues, que para Lagrange el concepto de presión es un artificio que permite tener apenas un indicio del estado del fluido. Como se verá, esta postura lagrangiana sobre la información queda la presión acerca del estado del medio, no difiere mucho de la que se propone más adelante, a partir de una perspectiva de estados y del continuo. Maxwell, por su parte, en su texto Matter and Motion en una sección titulada “Acción y reacción son aspectos parciales del stress”, afirma lo siguiente: Tan pronto como hayamos formado la idea de un esfuerzo, tal como la tensión de una cuerda o la presión entre dos cuerpos, y que hayamos reconocido su aspecto dual en la medida que éste afecta las dos porciones de materia entre las cuales actúa, la tercera ley del movimiento se vuelve equivalente a afirmar que la naturaleza de toda fuerza es el esfuerzo, que el esfuerzo existe
Juan Carlos Castillo, María Mercedes Ayala, José Francisco Malagón, Isabel Garzón Barragán, Marina Garzón Barrios / El tensor de esfuerzos. Un análisis epistemológico desde una perspectiva pedagógica / P.P. 39-52
45
46
Física y Cultura: Cuadernos sobre Historia y enseñanza de las ciencias - No. 8 , 2014 / ISSN 1313-2143 / Análisis Histórico-Críticos
únicamente entre dos porciones de materia, y que sus efectos sobre estas dos porciones de materia (medidos por el momentum generado en un tiempo dado) son iguales y opuestos. El esfuerzo es medido numéricamente por la fuerza ejercida sobre cualquiera de las dos porciones de materia. Se distingue como tensión cuando la fuerza que actúa sobre cualquier porción se dirige hacia la otra, y como presión cuando la fuerza que actúa sobre cualquier porción se dirige alejándose de la otra. [...] Cuando una tensión es ejercida entre dos cuerpos por medio de una cuerda, el esfuerzo propiamente dicho, es entre cualquier par de partes en las cuales la cuerda puede suponerse dividida transversalmente por un plano imaginario. Si despreciamos el peso de la cuerda, cada porción de la cuerda está en equilibrio bajo la acción de las tensiones en sus extremos, de tal modo que la tensión en cualquiera par de interfaces transversales de la cuerda deben ser las mismas. Por esta razón nosotros a menudo hablamos de la tensión de la cuerda como una totalidad, sin especificar una sección particular de ésta, y también la tensión entre dos cuerpos, sin considerar la naturaleza de la cuerda a través de la cual la tensión es ejercida (Maxwell, 1991, p. 40).
Como puede verse, en esta presentación Maxwell destaca el carácter dual del esfuerzo, señala que es precisamente este carácter del esfuerzo lo que hace posible hablar de la igualdad y oposición de la acción y reacción y considera al esfuerzo como la causa de toda fuerza, haciendo énfasis así en la perspectiva del continuo para el análisis de los fenómenos mecánicos.15 Requiere pues dejar muy en claro la diferencia entre fuerza y esfuerzo, así este sea medido a través de la fuerza por unidad de área —por sus efectos— y se hable de él en términos de fuerza. La forma, como expresa tal diferencia entre esfuerzo y fuerza, es muy ilustrativa: el esfuerzo exige ver la interacción en la interface de las dos partes consideradas (figura 1a y 1b); la fuerza, por su parte, exige pensar en una porción del medio para definir el cuerpo sobre el cual se aplican las fuerzas (figura1c).
15. Es de esperar que Maxwell asuma tal perspectiva para el análisis de los fenómenos mecánicos y vea la necesidad de reinterpretar la mecánica de su época, basada en las ideas de acción a distancia; su visión de campos para los fenómenos electromagnéticos así lo exige. De hecho, Maxwell escribe Matter and Motion en 1877, cuatro años después de haber escrito su tratado sobre electromagnetismo.
Tensión como esfuerzo (a)
Presión como esfuerzo (b)
Tensión como fuerza (c) Figura 1. Distinción entre esfuerzo y fuerza según Maxwell
Entre tanto R. Feynman, en sus Lectures on Physics, considera que los esfuerzos son fuerzas internas entre partes vecinas del material, las cuales se pueden modificar si se aplican fuerzas externas sobre el material. Mientras que Maxwell establece una distinción “ontológica” entre fuerza y esfuerzo —fuerza es efecto del esfuerzo—, Feynman los equipara. Para ilustrar su idea de esfuerzo considera un trozo de material elástico al que se le hace un corte. Si hacemos, dice este autor, un corte en un medio elástico —gelatina, por ejemplo— el material a cada lado del corte se desplazará debido a las fuerzas internas. Antes del corte, prosigue, debieron haber fuerzas entre las dos partes del bloque que las mantenía en su lugar; podemos, entonces, medir los esfuerzos en términos de esas fuerzas. Para ello considera un plano imaginario y las fuerzas que actúan a cada lado del mismo, definiendo el esfuerzo en la forma usual: fuerza por unidad de área. Esta presentación sobre el esfuerzo da lugar a dos formas de entenderlo y no permite establecer una diferencia clara entre fuerza y esfuerzo puesto que da origen a dos imágenes muy diferentes, dependiendo de cómo se asuma ese desplazamiento de las partes cuando se efectúa su corte: una, como expresión de las fuerzas internas entre las partes que habían antes del corte, coincidiendo las nociones de fuerza interna y esfuerzo o como expresión de sus cambios, donde ya no sería posible pensar en tal coincidencia. La otra, cuando se asume el desplazamiento entre las partes como expresión del cambio
experimentado por las fuerzas internas debido al corte, es claro que el esfuerzo como tal no se puede conocer, porque solo es posible informarse sobre las existencia de las fuerzas internas si se las altera, que se nota en el efecto de desplazamiento de las partes; la medida de ese movimiento por unidad de área, que llamaríamos fuerza por unidad de área, es la medida del esfuerzo. ¿Son estas fuerzas, medidas por el movimiento, de la misma clase de las fuerzas internas? Al parecer no, puesto que son los cambios de estas las que se equiparan con aquellas y estaríamos utilizando el mismo término para denotar cosas diferentes. De otra parte, este enfoque promueve la imagen de un medio que es activo, las partes se ejercen fuerzas entre sí cuando se encuentran en un estado de equilibrio. Esta definición de esfuerzo podría modificarse, ya que no es posible probar que el estado en que se encuentra el cuerpo y que el efecto observado al cortar el material se deban realmente a fuerzas internas entre las partes del material. A continuación mostraremos una manera de asumir el esfuerzo, compatible con la perspectiva de estados. En ese sentido, consideramos pertinente destacar primero tres rasgos característicos del concepto de estado: 1) el estado debe ser definido con relación a una característica, propiedad o cualidad, puesto que se refiere a la posibilidad de estar de maneras diferentes respecto a alguna característica o propiedad; 2) no es posible privilegiar alguna de esas maneras de estar; y 3) la idea de estado está ligada a la idea de permanencia, indiferencia y pasividad, en el sentido que para permanecer en un estado no se requiere de acción alguna, ni estar en él puede ser causa de algún cambio; solo el cambio de estado requiere una causa y produce efectos. Así, en el análisis que presentamos ahora se parte de dos términos que hacen referencia a dos aspectos diferentes aunque íntimamente relacionados: el stress y el esfuerzo. Con el término stress nos referimos a la cualidad o a la propiedad en cuestión o al tipo de fenómeno considerado, con él calificamos el tipo de estado que se está analizando, por eso hablamos del estado de stress. Con el término esfuerzo nos referimos a la variable que identifica los diferentes estados de stress, organizándolos uno detrás del otro, de acuerdo a la estructura de los reales. Así pues, el stress, entendido como un estado, no puede ser caracterizado, como punto de partida, a través de las acciones mutuas entre las partes de un cuerpo, ni el esfuerzo puede definirse como fuerza por unidad de área, por ser este una variable de estado y la fuerza la
causa de cambios. Llegado a este punto vale la pena preguntarse en qué sentido es posible relacionar el esfuerzo con algo referente a la fuerza por unidad de área. Basados en una perspectiva de estados, pensemos bajo qué condiciones es posible que dos partes de un cuerpo puedan ejercer acción mutua. Como bien se señaló antes, es claro que cuando se está en un estado no hay acción alguna; luego, entre dos partes contiguas de un cuerpo que se encuentran en el mismo estado de stress no habrá ninguna acción entre ellas; pero, si las partes se encuentran en estados diferentes de stress, habrá desequilibrio entre ellas que se evidenciará en cambios en estas partes, lo que permite hablar de una acción mutua. Cuando se dice que el líquido ejerce una acción sobre las paredes del recipiente que lo contiene, es porque el estado de stress del líquido en los puntos de la interface con el recipiente es diferente del estado de stress del medio que rodea al recipiente en los puntos de la interface con este; si no hubiera diferencia, ni el líquido ejercería fuerza sobre el recipiente ni lo contrario. Así pues, la acción mutua entre dos partes de un cuerpo está determinada solo por la diferencia de estado que hay entre ellas. Las consideraciones anteriores nos permiten determinar si dos partes contiguas del mismo medio están o no en el mismo estado. Pero, ¿cómo determinar qué tan diferentes son esos estados? Más aún, supongamos que hemos podido establecer, haciendo uso de estos criterios, que tres estados de stress, digamos A, B, y C, son diferentes entre sí, ¿cómo saber si la diferencia de estados entre A y B es mayor o menor que entre A y C y cuántas veces lo es? La medida de los cambios que se producen en las partes puestas en contacto, es decir, la magnitud de las fuerzas mutuas entre las partes, son indicios de la diferencia de estados. Tales fuerzas se aplican y distribuyen sobre la superficie que separan las partes; la densidad superficial de las mismas nos habla de las diferencias de estado a cada lado y en cada punto de dicha superficie. Tenemos entonces una forma para comparar estas diferencias de estados, pero con estos elementos podemos avanzar más y plantear un procedimiento para establecer una gradación de los estados y de esta forma construir una magnitud que los identifique.16 Esto se puede hacer así: 16. Este procedimiento es análogo en ciertos sentidos al utilizado en el proceso inicial de construcción de una escala termométrica. Véase al respecto Malagón, F., La temperatura, la comparación de estados de equilibrio térmico y la construcción del termómetro, Pre-Impresos, Departamento de Física, Universidad Pedagógica Nacional, Bogotá.
Juan Carlos Castillo, María Mercedes Ayala, José Francisco Malagón, Isabel Garzón Barragán, Marina Garzón Barrios / El tensor de esfuerzos. Un análisis epistemológico desde una perspectiva pedagógica / P.P. 39-52
47
48
Física y Cultura: Cuadernos sobre Historia y enseñanza de las ciencias - No. 8 , 2014 / ISSN 1313-2143 / Análisis Histórico-Críticos
1) Se escoge arbitrariamente uno de los estados como referencia al cual le hacemos corresponder, también arbitrariamente, un esfuerzo igual a cero. 2) Se determina la densidad de fuerzas cuando se pone un cuerpo en este estado cero en contacto con otro en el estado E que se quiere caracterizar. 3) Se supone, también arbitrariamente, una relación de proporcionalidad entre la diferencia de estados y la densidad de fuerzas, lo que permite decir que la magnitud del esfuerzo sobre la superficie en cuestión es proporcional a la densidad superficial de fuerzas. 4) Se adopta la unidad de densidad superficial de fuerzas como medida del esfuerzo; con ello ya es posible afirmar una igualdad entre esfuerzo sobre un elemento de área del medio y la densidad superficial de fuerzas en ese mismo elemento. Lo anterior no impide hablar de la densidad superficial de las fuerzas que se ejercen entre dos partes de un medio; de hecho, es la visualización de una operación mental: el cambio imaginario de estado de una de las partes, parte 1 —según el cual se supone que ya no se encuentra en el estado que se quiere caracterizar sino en estado de referencia—, con el fin de hacer la determinación de una acción, que se asume arbitrariamente como la fuerza que la parte 2 le ejercía antes de producirse dicho cambio; y la consideración simultánea, por otro lado, de un cambio análogo en la parte 2 y la permanencia en su estado inicial de la primera; para así poder hablar de la fuerza aplicada sobre la parte 1. Como puede verse en esta perspectiva fenomenológica no solo se renuncia a hacer una caracterización a priori del estado de stress, sino que no hay una imagen del stress, lo que puede ser para algunos una dificultad; pero sí hay un procedimiento muy claro de elaboración del esfuerzo como la variable que identifica el estado de stress, que deja visible la cadena de suposiciones arbitrarias, tomadas siguiendo un criterio de simplicidad, que están a su base. Queda muy claramente caracterizada la relación existente entre esfuerzo y fuerza en esta perspectiva.
El esfuerzo como tensor Para pensar en las fuerzas superficiales que se ejercen entre dos partes de un medio elástico, es necesario considerar la superficie que limita y define esas partes. Como ya señalamos anteriormente, en ambos lados de la superficie se puede considerar que se ejercen fuerzas iguales y opuestas (normales, tangenciales u oblicuas) distribuidas en toda la superficie; siendo imposible pensar el esfuerzo teniendo en cuenta solo una de estas acciones (la presión, por ejemplo, está asociada con fuerzas iguales y opuestas actuando sobre las dos caras de una superficie). Esta característica expresa el carácter dual del stress. Visto así, el esfuerzo en un punto de la superficie está dado por la densidad superficial de fuerzas en dicho punto que actúan en ambos lados de cada elemento de área de la superficie en cuestión con la misma intensidad y en direcciones opuestas. Como las fuerzas superficiales pueden ejercerse en direcciones diferentes (ver figura 2), en la definición del esfuerzo no basta con sus magnitudes (densidad superficial de la fuerza en un punto) es importante determinar además sus direcciones; así, las fuerzas superficiales pueden ser normales al elemento de área en cuyo caso se denomina al esfuerzo presión o tensión; pueden ser tangenciales y se le llama entonces esfuerzo cortante; o pueden actuar formando un ángulo diferente de 0 o 90 grados.
F da Y
Figura 2. Fuerza F sobre un elemento de área da de un medio continuo
Las consideraciones anteriores nos permiten destacar un nuevo rasgo característico de la magnitud con la que identificamos el estado de stress: el esfuerzo es una magnitud que se define con relación a un elemento de área y, por ende, para su definición es necesario especificarlo; se indica para ello la dirección de la normal a dicho elemento.17 Pero este hecho tiene implicaciones más importan17. Decimos, por ejemplo, que un elemento de área tiene una dirección x cuando la normal al mismo está orientada en esa dirección; es decir, un elemento de área con dirección x es paralelo al plano cartesiano yz.
tes que se pueden poner de manifiesto si pensamos en los diferentes elementos de área que contienen un punto dado del medio. Es de esperar que para cada uno de ellos el esfuerzo adquiera un valor (magnitud y dirección) diferente; por lo tanto, se podría afirmar que para identificar el estado de stress en ese punto se requeriría conocer los valores del esfuerzo para un número infinito de elementos; en otras palabras, el estado de stress en un punto estaría definido por ese conjunto infinito de valores, lo que podría parecer muy complicado. No obstante, se puede mostrar que con el conocimiento de tres de esos valores es posible determinar todos los demás; posibilidad que está dada por la misma geometría del espacio. Así, si conocemos los esfuerzos en un punto respecto a tres elementos de área que pasan por este, orientados según los planos cartesianos definidos por los ejes X ,Y y Z se puede determinar el esfuerzo a partir de ellos. Denotemos con Sxx , Syx , y Szx las cantidades que especifican el esfuerzo respecto al elemento de área en dirección X ; con Sxy , Syy , y Szy las cantidades que especifican el esfuerzo sobre el elemento de área en dirección Y ; y con Sxz , Syz , y Szz las cantidades que especifican el esfuerzo sobre el elemento de área en dirección Z ; y consideremos un elemento de área en una dirección arbitraria sobre el cual vamos a determinar el esfuerzo. Para hacerlo proyectaremos los esfuerzos de referencia en el elemento de área en dirección n, proyectando sobre este en cada caso el elemento de área de referencia en cuestión, así: •• Proyectando en el elemento de área con dirección n los esfuerzos sobre el elemento de área con dirección x : Sxx (x •n)
Syx (x •n)
Szx (x •n)
•• Proyectando en el elemento de área con dirección n los esfuerzos sobre el elemento de área con dirección y : Sxy (y •n)
Syy (y •n)
Szy (y •n)
•• Proyectando en el elemento de área con dirección n los esfuerzos sobre el elemento de área con dirección z : Sxz (z •n)
Syz (z •n)
Szz (z •n)
Szx (x •n) + Szy (y •n) +Szz (z •n) = Szη A Esfuerzo en la dirección z sobre el elemento de área con dirección n Donde el esfuerzo sobre el elemento de área en dirección n está dado por las cantidades: Sxη , Syη y Szη. En forma matricial este procedimiento para determinar el esfuerzo respecto a cualquier elemento de área a partir de los esfuerzos de referencia se puede representar como:18 Ecuación 1
Sxη
Sxx Sxy Sxz
x •n
Syη
Syx Syy Syz
y •n
Szη
Szx Szy Szz
z •n
Este procedimiento en el cual se recurre al principio de superposición, teniendo en cuenta la geometría del espacio, es muy usado en la física. Veamos, por ejemplo, la manera como se decide cuándo una magnitud es vectorial, y escojamos para ello la fuerza newtoniana.19 Centraremos nuestro análisis en el peso ya que es el referente de las fuerzas newtonianas, como bien lo hicieron notar Euler y Lagrange. Si observamos los efectos del peso en un punto dado, vemos que es necesario estipular la dirección en que el efecto es considerado; tengamos en cuenta que solo se puede hablar del peso a través de sus efectos; siendo nulos en las direcciones contenidas en un plano horizontal. Tenemos entonces que para cada dirección hay un efecto diferente, aspecto que Stevin y Galileo trabajaron de manera explícita.20 El peso es pues una magnitud definida con relación a una línea y como en el caso de los esfuerzos tendría que estar especificado por un infinito número de valores, con la diferencia que 18. Como puede verse, la posibilidad de que el esfuerzo sobre un elemento de área arbitrario se pueda determinar a partir de los esfuerzos sobre tres elementos diferentes (direcciones diferentes) tiene un fundamento puramente geométrico; sin embargo la mayoría de los textos muestran este resultado como una consecuencia del equilibrio de fuerzas en un elemento de volumen que tiene forma de un prisma con base rectangular y tres de sus otras caras son perpendiculares entre sí. 19. Usualmente decimos que las magnitudes vectoriales son las que tienen magnitud y dirección; pero, realmente eso no es un argumento; solo se repite lo que nos hemos acostumbrado a repetir.
Tenemos que: Sxx (x •n) + Sxy (y •n) +Sxz (z •n) = Sxη A Esfuerzo en la dirección x sobre el elemento de área con dirección n Syx (x •n) + Syy (y •n) +Syz (z •n) = Syη A Esfuerzo en la dirección y sobre el elemento de área con dirección n
20. Véase al respecto, de M. M. Ayala y otros, los artículos: “El equilibrio según Stevin: la acción como poder del peso” y “La estática y el concepto de momento según Lagrange y Galileo”, que sintetizan algunos avances de la investigación “De la mecánica a la actividad de organizar los fenómenos mecánicos: Hacia la elaboración de propuestas alternativas para la enseñanza de la mecánica”, financiada por la Universidad Pedagógica Nacional.
Juan Carlos Castillo, María Mercedes Ayala, José Francisco Malagón, Isabel Garzón Barragán, Marina Garzón Barrios / El tensor de esfuerzos. Un análisis epistemológico desde una perspectiva pedagógica / P.P. 39-52
49
50
Física y Cultura: Cuadernos sobre Historia y enseñanza de las ciencias - No. 8 , 2014 / ISSN 1313-2143 / Análisis Histórico-Críticos
acá cada valor solo queda especificado por una cantidad; pero análogamente al esfuerzo, el peso a lo largo de un elemento de longitud cualquiera puede ser expresado a través del peso a lo largo de tres elementos de longitud en direcciones diferentes. Por ejemplo, si consideramos a las direcciones contenidas en el plano horizontal y Z en la dirección vertical hacia arriba; el peso a lo largo de X, Y, y es cero y a lo largo de Z es, digamos, -Po ; para determinar el peso a lo largo de un elemento de longitud cualquiera, proyectaremos los pesos de referencia sobre el elemento de longitud en dirección n ; y esto lo podemos hacer proyectando sobre la dirección n la dirección de referencia correspondiente en cada caso. Como el peso a lo largo de los elementos de longitud en X , y, Y son cero, el peso a lo largo de n es -Po (z •n). El procedimiento seguido se puede expresar de la siguiente manera en notación matricial: Ecuación 2
x •n
Pn = [ 0 0 -Po ] y •n
z •n
A partir de las consideraciones anteriores, podemos decir que el peso, que es una magnitud definida con relación a una línea, es un tensor de primer orden y se puede representar por la terna:
Consideremos un nuevo sistema de referencia definido por los ejes x’ y’ y z’ ; a partir de la representación del esfuerzo en el sistema x, y y z se efectuarán las transformaciones del caso para representarlo en el nuevo sistema de referencia, pero ¿en qué consisten esas transformaciones? Representar cada elemento Sij del tensor de esfuerzo —esfuerzo sobre el plano j en la dirección i— en el nuevo sistema de referencia significa, primero, proyectar cada uno de los planos j en los x’ y’ y z’, y luego proyectar las direcciones i (direcciones de los esfuerzos) en las direcciones x’ y’ y z’ para determinar sus componentes en el nuevo sistema; por último, se deben sumar vectorialmente todos los esfuerzos que actúan sobre cada plano de dicho sistema para determinar el elemento Si’j’ ; se repite este procedimiento para los otros planos del nuevo sistema, así: •• Proyección de los diferentes esfuerzos Sij proyectando los planos en los nuevos planos de referencia x’ y’ y z’ 21 Ecuación 5 Sxx’ Sxy’ Sxz’ Syx’ Syy’ Syz’ Szx’ Szy’ Szz’
Sxx Sxy Sxz Syx Syy Syz Szx Szy Szz
x •x’ x •y’ x •z’ y •x’ y •y’ y •z’ z •x’ z •y’ z •z’
Proyección de cada una de las direcciones de los esfuerzos sobre los planos de referencia del nuevo sistema en las direcciones de los nuevos ejes:22
Ecuación 3
Pn = [ 0 0 -Po ] Y que el esfuerzo, que es una magnitud definida con relación a una superficie, es un tensor de segundo orden y se puede expresar por el arreglo de nueve cantidades; puede deducirse que solo seis de ellas son diferentes ya que Sij = Sji, teniendo en cuenta que el torque sobre un elemento de volumen del medio debe anularse, y que por lo tanto es un tensor simétrico: Ecuación 4
Sxx Sxy Sxz Syx Syy Syz Szx Szy Szz Desde esta perspectiva, las reglas de transformación de los tensores —cuando se cambia el sistema de referencia— con las que se les suele definir, pierden todo el misterio.
Ecuación 6 Sx’x’ Sx’y’ Sx’z’ Sy’x’ Sy’y’ Sy’z’ Sz’x’ Sz’y’ Sz’z’
x •x ’ y •x ’ z •x ’ x •y ’ y •y ’ z •y ’ x •z ’ y •z ’ z •z’
Sxx’ Sxy’ Sxz’ Syx’ Syy’ Syz’ Szx’ Szy’ Szz’
Es decir que el tensor de esfuerzos se transforma siguiendo la siguiente regla:23 21. Nótese que al multiplicar la primera fila por la primera columna, se proyectan los esfuerzos en la dirección x ejercidos sobre los diferentes planos del sistema inicial para determinar el esfuerzo en esta dirección ejercido sobre el plano x’; de la misma manera, al multiplicarla por la segunda columna se determina el esfuerzo en dirección x ejercido sobre el plano y’; y al multiplicarla por la tercera se determina el esfuerzo en esta dirección sobre el plano z’. 22. Nótese que al multiplicar la primera fila por la primera columna, se determina la componente x’ del esfuerzo ejercido sobre el plano x’; al multiplicarla por la segunda columna se determina la componente x’ del esfuerzo sobre el plano y’; y al multiplicarla por la tercera, la componente x’ del esfuerzo sobre el plano z’. 23. Se puede mostrar fácilmente que la transpuesta de T, T t, es igual a la inversa de T, T-1 : T Tt = TtT; se dice entonces que T es una matriz ortogonal.
Ecuación 7 Sx’x’ Sx’y’ Sx’z’ Sy’x’ Sy’y’ Sy’z’ Sz’x’ Sz’y’ Sz’z’
x •x ’ y •x ’ z •x ’ x •y ’ y •y ’ z •y ’ x •z ’ y •z ’ z •z ’
Sxx Sxy Sxz Syx Syy Syz Szx Szy Szz
D
D
D
S’
T-1
S
x •x ’ x •y ’ x •z ’ y •x’ y •y ’ y •z ’ z •x ’ z •y ’ z •z ’
D
pasa por el punto considerado; teniendo en cuenta la ecuación 1 se puede afirmar que los esfuerzos sobre ese elemento de área están dados por: Ecuación 11
T
Luego, Ecuación 8
Sxn
P1 0 0 x•n
P1 (x • n)
Syn
0 P2 0 y • n
P2 (x • n)
Szn
0 0 P3 z • n
P3 (x • n)
Luego,
S’ = T-1ST
Ecuación 12
La transformación definida por la ecuación 8 es una transformación ortogonal de similaridad; en general, toda matriz que se transforme por medio de esta forma es un tensor de segundo rango (Arfken, 1970, p. 182). Dado que el tensor de stress es simétrico, es posible determinar un sistema de ejes de referencia para los cuales los esfuerzos sobre los planos que definen sean normales a los mismos; es decir, que sobre ellos no haya esfuerzos cortantes; dichos ejes se denominan ejes principales, y respecto a ellos el tensor tiene la siguiente representación: Ecuación 9
P1 0 0 0 P2 0 0 0 P3 A los esfuerzos normales P1, P2 y P3 sobre los planos principales se les denomina esfuerzos principales. La condición para la determinación de los ejes principales se expresa a través de una ecuación de valores propios, que se obtiene de la ecuación 1 al exigir que el esfuerzo sobre el plano que se quiere hallar sea paralelo a la normal de este: Ecuación 10
ak = S • k Donde k es la dirección de la normal al plano principal, S es el tensor de stress para un sistema inicial de ejes. A partir de esta representación, es posible mostrar que el esfuerzo sobre un elemento de área cualquiera define un elipsoide cuyos ejes son los esfuerzos principales. Para ello designemos por n la dirección del elemento de área arbitrario que
Sx� 2 Sy� 2 Sz� 2 + + = (x •n)2 + (y •n)2 +(z •n)2 = |n|2 = 1 P12 P22 P32
Entonces, si consideramos a Sxη, Syη y Szη como las coordenadas de un punto, el vector dibujado desde el origen al punto Sxη Syη, Szη es el esfuerzo sobre el elemento de área con dirección n , es claro que (ec.12) es la ecuación de un elipsoide de ejes P1, P2 y P3, denominado elipsoide de stress. La representación del tensor de stress en términos de los ejes principales, por ser la más simple, da información importante de manera directa. Así, si los esfuerzos principales son iguales entre sí, P1 = P2 = P3 = P0, el esfuerzo sobre cualquier elemento de área oblicuo es también igual a P0, como puede deducirse de la ecuación 11; entonces cualquier sistema de ejes conforma un sistema de ejes principales. Cuando P0 es negativo, tenemos el caso de los fluidos perfectos. Otro caso de gran interés se da cuando los valores absolutos de los esfuerzos principales son iguales y solo uno de ellos es positivo; corresponde al estado de stress en que se encuentra un medio dieléctrico, el cual da cuenta, según los planteamientos de Maxwell y Faraday, de la acción entre sistemas electrificados. Así, refiriéndose al vacío (dieléctrico isotrópico), Maxwell afirma: La dirección de la intensidad electromotriz (intensidad del campo eléctrico) en un punto es un eje principal del stress, y el esfuerzo en esta dirección es una tensión cuyo valor numérico es p = 1/8π R², donde R es la intensidad electromotriz. Cualquier dirección en ángulos rectos a ésta, es también un eje principal de stress, y el esfuerzo a respecto a tal eje es una presión cuya magnitud numérica es también p. (Maxwell, 1954, p. 100)
Juan Carlos Castillo, María Mercedes Ayala, José Francisco Malagón, Isabel Garzón Barragán, Marina Garzón Barrios / El tensor de esfuerzos. Un análisis epistemológico desde una perspectiva pedagógica / P.P. 39-52
51
52
Física y Cultura: Cuadernos sobre Historia y enseñanza de las ciencias - No. 8 , 2014 / ISSN 1313-2143 / Análisis Histórico-Críticos
Conclusiones generales Afirmaciones de este tipo ponen de manifiesto la necesidad de desarrollar esquemas de análisis de la mecánica de medios continuos para la comprensión de la teoría electromagnética desde una perspectiva de campos. A través del análisis realizado a lo largo del escrito, hemos destacado algunos rasgos de las formas de razonamiento que están en la base de la definición del tensor de stress y de magnitudes análogas, y hemos develado algunas fuentes de dificultades que enfrentan los interesados en el análisis de la elasticidad y de la mecánica de medios continuos, al tratar de hacer inteligibles los planteamientos que sobre el tema se presentan en los textos. Vale destacar, en particular, el análisis de corte geométrico realizado sobre el carácter tensorial del esfuerzo, el cual permite no solo tener un acercamiento diferente y asequible a este concepto, sino también repensar las diversas magnitudes de la física desde esta nueva perspectiva y así generar significados que resulten más satisfactorios para quienes emprendan este trabajo.
Referencias Arfken, G. (1970). Mathematical methods for physicists [2a Ed.]. NewYORK: Academic Press. Ayala, M. M., et al. (2001). El equilibrio según Stevin: la acción como poder del peso. Revista Colombiana de Física, 33(2), 491-495. Ayala, M. M., Romero, A., Malagón, F. (1998). El esquema equilibración-desequilibración y los procesos termodinámicos. Física y Cultura: Cuadernos sobre Historia y Enseñanza de las Ciencias, 4. Bautista, G. y Rodríguez, L. D. (1998). Construir explicaciones: el equilibrio de los líquidos. Física y Cultura: Cuadernos sobre Historia y Enseñanza de las Ciencias, 4. Dahan Dalmanico, A. (1988). Etude des méthodes et des “styles” de mathématisation: la science de l’elasticité. En R. Rashed (Ed.), Sciences a l’époque de la revolution francaise. Recherches historiques Libraire scientifique et technique Albert Blanchard. Feynman, R. (1964). Lectures on Physics [vol. 2]. Massachusetts: Adisson Wesley.
Hertz, H,. (1990). Las Ondas Electromagnéticas. Selección de Manuel García Doncel y Xavier Roqué. Publicacions de la Universitat Autònoma de Barcelona y Edicions de la Universitat Politècnica de Catalunya, Bellaterra. Maxwell, J. C. (1954). A treatise on electricity and magnetism [3a Ed.]. New York: Dover Publications Inc. Maxwell, J. C. (1965). On the equilibrium of elastic solids en the Scientific papers of James Clerk Maxwell. New York: Dover Publications. Maxwell, J. C. (1991). Matter and motion. New York: Dover Publications Inc. Reichenbach, H. (1959). El sentido del tiempo. México: Universidad Nacional Autónoma de México.
El primer principio de la mecánica euleriana. Organización del mundo sensible, cuantificación de las fuerzas y estructura del medio The first principle of the eulerian mechanics. Organizing the sensible world, the quantification of forces and the medium’s structure Ángel Enrique Romero Chacón Facultad de Educación - Universidad de Antioquia Medellín, Colombia angel.romero.ch@gmail.com
Resumen La perspectiva de L. Euler en mecánica posibilita la cuantificación y reproducción de las fuerzas. En el artículo se resalta, en particular, el papel que juega el fenómeno de la caída de los cuerpos y su causa —la gravedad— en el establecimiento de las relaciones espacio-temporales que permiten identificar a cualquier otra causa como fuerza. Se muestra en este análisis la construcción de la conocida relación Mddx = Pdt2 erigida por Euler como el principio fundamental de la mecánica, resaltándose el carácter espacial de su enunciación. En la segunda parte del artículo se muestra la forma en que el concepto de deformación le permite a Euler dar cuenta de las interacciones en un espacio lleno (medio continuo) a través de la diferenciación y cuantificación de dos clases de fuerzas surgidas en toda interacción: una absoluta, que da cuenta de la intensidad del cambio espacial del movimiento, y otra relativa —llamada también esfuerzo— que da cuenta del cambio total en el estado espacial del movimiento. Se presenta cómo el análisis del movimiento de un cuerpo en un medio determinado permite dar cuenta de la estructura mecánica de dicho medio, a través de la cuantificación de la mencionada fuerza relativa.
Abstract The eulerian point of view in mechanic makes possible the quantification of the force. In the paper it is emphasized mainly the role that plays the phenomenon of the fall of bodies and its cause - the gravity- in the establishment of the space-time relations that allow to identify to any other cause like force. In this conceptual frame is placed the well-known relation Mddx = Pdt2 asumed by Euler as the fundamental principle of the mechanics, emphasizing the spacial character of its enunciation. In the second part of the paper it is shown the way that the deformation concept allows Euler to give account the interactions in a plenty space (a continuum medium) through the differentiation and quantification of two classes of forces involved in any interaction: one, absolute, refered to the intensity of the space change of the movement and other, relative, - also called effort that gives account of the total change in the space state of the movement. It is shown how the analysis of the movement of any body in a medium allows to give account of the mechanical.
Julio 14 de 2012 * Octubre 30 de 2012
Ángel Enrique Romero Chacón / El primer principio de la mecánica euleriana. Organización del mundo sensible, cuantificación de las fuerzas y estructura del medio / P.P. 53-62
53
54
Física y Cultura: Cuadernos sobre Historia y enseñanza de las ciencias - No. 8 , 2014 / ISSN 1313-2143 / Análisis Histórico-Críticos
Palabras Clave Caída de los cuerpos, gravedad, medio continuo, fuerza relativa, esfuerzos, deformaciones, mecánica de Euler.
Key Words Free fall, gravity, continuous medium, relative force, efforts, deformations, Euler’s mechanics.
Ángel Enrique Romero Chacón Profesor de la Facultad de Educación de la Universidad de Antioquia, Ph D.en Epistemología e Historia de las Ciencias y las Técnicas de la Universidad de París VII (París, Francia), Licenciado con en física y Magister en Docencia de la física de la Universidad Pedagógica Nacional de Bogotá. Coordinador del grupo de investigación Estudios Culturales sobre las Cienciasy su Enseñanza-ECCE. Actualmente coordinador del programa de Maestría en Educación en Ciencias Naturales de la Universidad de Antioquia.Coordinador del grupo de investigación Estudios Culturales sobre las Cienciasy su Enseñanza-ECCE. Actualmente coordinador del programa de Maestría en Educación en Ciencias Naturales de la Universidad de Antioquia.
Este artículo hace parte de los resultados de la investigación La experimentación y el desarrollo del pensamiento físico. Un análisis histórico y epistemológico con fines didácticos, adelantada por el grupo de investigación Estudios Culturales sobre las Ciencias y su Enseñanza -ECCE- entre 2009 y 2011, con el auspicio de la Universidad de Antioquia (Medellín, Colombia).
El primer principio de la mecánica euleriana La memoria de 1750 publicada en 1752, Decouverte d’un nouveau principe de mecanique, es donde Euler enuncia y explica el principio que, según él, es considerado como general y fundamental de toda la mecánica.1 El siguiente fragmento de su exposición permite destacar tres aspectos que serán abordados y desarrollados a continuación: la generalidad del principio, el tratamiento espacial de su formulación y su relación con la deformación. Sea un cuerpo infinitamente pequeño o [uno] en el cual toda la masa este reunida en un solo punto, siendo esta masa = M, que haya recibido un movimiento cualquiera y que sea actuado por fuerzas cualesquiera. Para determinar el movimiento de este cuerpo, no se puede tener en cuenta más que la distancia de este cuerpo de un plano cualquiera fijo e inmóvil; sea en el instante presente la distancia del cuerpo a este plano = x; se descomponen todas las fuerzas que actúan sobre el cuerpo en las direcciones que son paralelas o perpendiculares al plano y sea P la fuerza que resulta de esta [des]composición en la dirección perpendicular al plano y que tratará por consiguiente de alejar o de acercar al cuerpo al plano. Luego de un elemento de tiempo dt, sea x + dx la distancia del cuerpo al plano y tomando este elemento dt por constante, se tiene que: Mddx = Pdt² según que la fuerza P tienda o a alejar o a acercar el cuerpo al plano. Y es esta sola fórmula la que contiene todos los principios de la mecánica. Para comprender mejor la fuerza de esta fórmula, es necesario explicar a cuáles unidades se refieren las diversas cantidades M, P, x y t que allí se encuentran. Así, M designa la masa del cuerpo y expresa al mismo tiempo el peso que éste cuerpo tiene alrededor de la superficie de la tierra; la fuerza P está también reducida a la de un peso de modo que las letras M y P contienen cantidades homogéneas. Entre tanto la velocidad del cuerpo con la cual se aleja del plano es como dx / dt; si suponemos que esta velocidad es igual a la que un cuerpo grave adquiere en la caída de la altura ν, es necesario tomar (dx / dt)² = ν y el elemento de tiempo será dt = dx ⁄ √ν; de donde se conoce la relación entre el tiempo t y el espacio x. Como esta fórmula [2Mddx=Pdt²] no determina más que la distancia o la aproximación del cuerpo con respecto a un plano 1. Es importante aclarar que el título de la memoria no hace referencia al principio en cuestión sino a la “deducción” de un nuevo principio a partir de este: “Aunque los principios que actúan aquí sean nuevos, en tanto que aún no son conocidos o aplicados por los autores que trataron la mecánica, se comprende sin embargo que el fundamento de estos principios no va a ser nuevo, sino que es absolutamente necesario que estos principios sean deducidos de los primeros principios, o mejor dicho de axiomas, sobre los que toda la doctrina del movimiento se estableció” (Euler, Leonhard. Decouverte d'un nouveau principe de mecanique. Opera Omnia, p. 88).
fijo cualquiera, para encontrar el verdadero lugar del cuerpo en cada instante, no habrá más que relacionar al mismo tiempo los tres planos fijos, que son perpendiculares entre ellos. Luego, como x designa la distancia del cuerpo a uno de estos planos, sea y y z sus distancias a los otros dos planos, y después se descomponen todas las fuerzas que actúan sobre el cuerpo, siguiendo las direcciones perpendiculares a estos tres planos, sea P la fuerza perpendicular la que resulta sobre el primero, Q sobre el segundo y R sobre el tercero. Supongamos que todas estas fuerzas tienden a alejar al cuerpo de estos tres planos; porque en caso que ellas tiendan a acercarlo, no habrá más que volver las fuerzas negativas. Sea puesto, el movimiento del cuerpo estará contenido en las tres fórmulas siguientes: I. Mddx = Pdt 2
II. Mddy = Qdt 2
III. Mddz = Rdt 2 (Euler, L. 1752, p. 89)
Es importante notar la importancia asignada por Euler a esta relación, al darle una significación conceptual que deja ver su intención de analizar y organizar los fenómenos percibidos del mundo natural. En este sentido, es pertinente resaltar que esta característica de la perspectiva euleriana no se corresponde con las intenciones y características de la perspectiva newtoniana: mientras que la teoría newtoniana puede considerarse como una teoría válida únicamente en un mundo ideal, con independencia de lo sensible en el sentido que en él han de verificarse ciertas relaciones y proposiciones, siempre y cuando se deduzcan lógicamente de otras proposiciones asumidas como axiomas; en la perspectiva euleriana la pregunta por lo sensible está presente en toda la estructuración de su cosmovisión. Además, tal relación es erigida como el principio fundamental de toda la mecánica y de las otras ciencias que tratan del movimiento de cuerpos cualesquiera: todos los otros principios, tanto conocidos como los que se tenga necesidad de desarrollar, que sirven para determinar los movimientos de los cuerpos sólidos así como los de los fluidos, no son más que principios derivados de este, en cuanto que ellos son deducidos de él según las diversas maneras como están compuestos los elementos de los cuerpos en consideración y según la diversidad de los movimientos que tales cuerpos y sus partes sean susceptibles de tener. Es así como para Euler estas ecuaciones se aplican no solo a un cuerpo sino a todos los sistemas mecánicos discretos —en cuyo caso se puede sumar sobre las masas— y continuos —donde M y F deben ser tomadas como diferenciales dM y dF y la integración extendida sobre todo el sistema o sobre el subsistema que se quiera considerar—.
Ángel Enrique Romero Chacón / El primer principio de la mecánica euleriana. Organización del mundo sensible, cuantificación de las fuerzas y estructura del medio / P.P. 53-62
55
56
Física y Cultura: Cuadernos sobre Historia y enseñanza de las ciencias - No. 8 , 2014 / ISSN 1313-2143 / Análisis Histórico-Críticos
En la cosmovisión euleriana existe, pues, una unidad en la forma de comprender y abordar el análisis de los sistemas mecánicos, ya sean estos sistemas discretos de masas puntuales, cuerpos rígidos, cuerpos flexibles o elásticos y aun fluidos y medios continuos. El hecho de que Euler considere que todo sistema se comporta de la misma forma y presenta las mismas características que una parte cualquiera de él, resalta en su cosmovisión una perspectiva continuista2 de los sistemas, en donde la parte presenta las mismas propiedades del todo. Hecho que además fortalece la hipótesis de que la concepción euleriana de la mecánica es la propia de los medios continuos.
La memoria de 1750 publicada en 1752, Decouverte d'un nouveau principe de mecanique, es donde Euler enuncia y explica el principio que, según él, es considerado como general y fundamental de toda la mecánica.
La concepción de fuerza aceleratriz que Euler reflejara en su Mechanica de 1736, como intensidad de cambio de magnitud de la velocidad en el tiempo, es en su Decouverte d’un nouveau principe de mecanique de 1752 analizada a partir de relaciones espaciales. Si bien la fuerza sigue viéndose a través de sus efectos en el tiempo, los elementos de tiempo mismos son definidos en relación con los elementos de espacio recorridos. El segundo párrafo de la cita anterior refleja mucho del análisis y concepción euleriana de los fenómenos en general y del movimiento en particular; vale la pena, por ello, mostrar en detalle algunos aspectos de este análisis implícitos en dicho párrafo. Por una parte, Euler hace uso de un concepto empleado igualmente en su Mechanica y al parecer bastante común ya en la época: el de velocidad instantánea. La velocidad es aquí concebida como aquella magnitud que da respuesta al problema de encontrar, para incrementos de tiempo dt dados y asumidos como constantes, los correspondientes incrementos de espacio dx en cualquier clase de movimiento: dx = vdt. La relación dx/dt = v es, entonces, identificada como la forma particular en que se relacionan los incrementos de espacio respecto a los incre-
2. Véase Romero, A., 1996a, pp. 11-15.
mentos de tiempo correspondientes.3 Esta concepción de velocidad como cociente diferencial del espacio respecto al tiempo permite establecer una relación entre las dos formas alternativas de analizar el movimiento de los cuerpos: la espacial y la temporal. El movimiento de caída de los cuerpos, por ejemplo, puede analizarse desde dos perspectivas: Una temporal, donde se asume que los estados de movimiento que adquiere el cuerpo a través de su caída son proporcionales al tiempo mismo de caída; en este caso, tales estados son representados por intensidades temporales del movimiento: v ∝ t. Otra espacial, donde se considera que los estados que adquiere el cuerpo a través de su caída son proporcionales a la distancia recorrida por el cuerpo; tales estados son representados en este caso como intensidades espaciales del movimiento: v2 ∝ h.
Euler establece una correspondencia entre las dos perspectivas haciendo uso inicialmente de una experiencia sensible ya organizada y expresada a través de la relación galileana que establece una proporcionalidad entre la altura de caída h y el cuadrado del tiempo t gastado en recorrerla: h ∝ t². Estas proporciones son, de hecho, muy importantes pues relacionan los estados de movimiento espaciales ϑ alcanzados por el cuerpo en su caída con los correspondientes estados temporales v. No obstante, Euler va mucho más allá al asumir que dado que la fuerza de gravedad es la causa de la caída y por la que se dan estas relaciones, cualquier otra causa que reproduzca tales relaciones será igualmente concebida como fuerza. En este punto es importante resaltar un aspecto característico del análisis de Euler: a partir de un fenómeno específico considerado como prototipo analiza y construye otros fenómenos análogos. En este caso, tal fenómeno particular que se toma como referente es el movimiento de caída de los cuerpos cuya causa, la fuerza de gravedad, es igualmente asumida como prototipo de las causas de los cambios de estado de los cuerpos: cualquier otra causa que se comporte como la gravedad, en el sentido que produzca relaciones espacio-temporales similares en el cuerpo sobre el que actúa, es considerada igualmente como fuerza. 3. Es importante señalar que esta no es la única forma de concebir tal concepto, pues si bien para Galileo, por ejemplo, la velocidad es una magnitud intensiva que puede variar continuamente no la identifica como una relación entre el espacio y el tiempo sino que es una magnitud completamente diferente a estos y, dada la forma de razonamiento geométrico, solo es posible establecer proporciones entre magnitudes homogéneas, aunque tales razones se pueden comparar y componer: v1/v2 = (x1/x2)(t2/t1). Para un análisis más detallado al respecto ver Malagón, Francisco, “Relación física y matemáticas en Galileo”, tesis de grado, Universidad Pedagógica Nacional, Departamento de Física, Programa de Maestría en Docencia de la Física, Bogotá, 1988.
¿Cómo asegurar, entonces, que la causa de un cierto cambio de estado del movimiento de un cuerpo, en una dirección determinada, se comporta de la misma forma que la gravedad para el caso de la caída? Es necesario para ello hacer corresponder la forma como se relacionan los espacios y los tiempos en la caída de los cuerpos con los espacios y tiempos en otros movimientos. En otras palabras, dado que se conoce la forma o proporción como se relacionan los incrementos de espacio y los incrementos de tiempo en el caso de la caída —fenómeno tomado como referente—, se requiere encontrar para un movimiento cualquiera cómo deben ser los elementos de tiempo dt que corresponden a elementos de espacio dx, asumidos como constantes, para que se conserven las mismas relaciones que en el caso de la caída de los cuerpos. De esta forma, como en la caída de los cuerpos los cuadrados de los tiempos de caída son como las alturas recorridas en esos tiempos, t² ∝ h, entonces las variaciones en la altura dh serán como: dh ∝ tdt ∝ √hdt, donde la relación entre los incrementos de espacio y los incrementos de tiempo, obviando las constantes, es dh/dt ∝ √h.
Euler relaciona los análisis espacial y temporal del movimiento con la experiencia sensible organizada a través de las relaciones galileanas, haciendo uso del cociente diferencial del espacio respecto al tiempo como expresión que da cuenta del estado temporal del movimiento v = dx/ dt. Esta expresión es precisamente la que permite establecer una relación entre ambos tipos de estados del movimiento, en el sentido en que establece la proporcionalidad entre el cuadrado de la magnitud que caracteriza el estado temporal del movimiento y aquella que tipifica al estado espacial correspondiente. Para que un movimiento de acercamiento o alejamiento a un plano fijo cualquiera, a lo largo de una dirección identificada como x, por ejemplo, reproduzca las mismas relaciones que se dan en el caso de la caída; o, en otras palabras, para que los cuadrados de los estados temporales del movimiento correspondan a los estados espaciales, el incremento de tiempo dt para un tal movimiento debe ser dt ∝ dx/ √h.
Es decir, la consideración de la velocidad como el cociente diferencial entre el espacio y el tiempo permite dar respuesta a la pregunta de encontrar, para un movimiento de acercamiento a un plano fijo cualquiera, el tiempo dt durante el cual el cuerpo, habiendo recorrido una distancia dx, adquiera el mismo estado de movimiento que adquiriría cuando cae desde una altura h.
Aquí es claro que, si bien el tiempo es un elemento indispensable en el análisis del movimiento, la perspectiva euleriana enfoca el análisis específicamente desde el punto de vista espacial: evidencia de ello es la pregunta implícita planteada más arriba sobre los incrementos de tiempo dt que deben reproducir las mismas relaciones que en la caída, cuando los incrementos de espacio dx se asumen como constantes. Por ello, adquiere relevancia la forma como Euler define la velocidad con que un cuerpo se aleja o acerca a un plano fijo (dx/dt); Euler la identifica con la velocidad que adquiriría un cuerpo al caer una altura (h) y haciendo uso de las relaciones para la caída de los cuerpos arriba mencionadas, el autor afirma que h = (dx/dt)².
Todos los otros principios, tanto conocidos como los que se tenga necesidad de desarrollar, que sirven para determinar los movimientos de los cuerpos sólidos así como los de los fluidos, no son más que principios derivados de este.
Ahora bien, Euler concibe la expresión dx/dt como el cociente diferencial del espacio respecto al tiempo, hecho que conlleva a todas las implicaciones que corresponden a esta clase de relaciones. En particular, la asignación de diferencial constante para el tiempo es equivalente a señalar al tiempo como una variable independiente en el análisis del movimiento y al espacio recorrido x, por tanto, como una variable dependiente de él; dándose de esta forma importancia al concepto de función. Además, el considerar al respectivo cociente diferencial como una magnitud que da cuenta de la forma o proporción como varían los incrementos de la variable dependiente cuando los incrementos de la independiente se asumen como constantes, es decir, cuando se asume que la variable independiente varía en progresión aritmética, conlleva a que tal magnitud se asuma como constante durante los incrementos de la variable independiente. Esto implica, para el caso del movimiento, que la velocidad v = dx/dt se considere como constante durante el incremento de tiempo dt en consideración. Sin embargo, se sabe de la experiencia que los cambios de estado que experimentan los cuerpos ocurren en forma continua, es decir, la velocidad es, al igual que el
Ángel Enrique Romero Chacón / El primer principio de la mecánica euleriana. Organización del mundo sensible, cuantificación de las fuerzas y estructura del medio / P.P. 53-62
57
58
Física y Cultura: Cuadernos sobre Historia y enseñanza de las ciencias - No. 8 , 2014 / ISSN 1313-2143 / Análisis Histórico-Críticos
espacio recorrido, una variable que depende del tiempo. ¿En qué forma o proporción varía, entonces, la velocidad? ¿Cuáles son las correspondientes variaciones del espacio en tal caso? Para dar solución a estos interrogantes Euler hace uso, de nuevo, tanto del movimiento de caída de los cuerpos cual fenómeno referente, como de su tradición leibniziana del cálculo. En este orden de ideas, si durante el intervalo de tiempo dt un cuerpo se acerca, o aleja, a un plano fijo una distancia dx, la relación dx/dt que expresa la velocidad del cuerpo en cuestión es asumida, según se ha referido antes, como constante durante tal intervalo de tiempo dt. Sin embargo, durante ese mismo intervalo de tiempo, el cuerpo, debido a la acción del poder P sobre él, experimentará un incremento en la velocidad, dv, que a su vez engendrará un incremento de espacio. Denotando por ddx el espacio recorrido en virtud del incremento de velocidad dv, se tiene entonces que, al igual que en el caso de la caída de los cuerpos donde las alturas recorridas son proporcionales a los cuadrados de los tiempos que duran tales recorridos, los incrementos de espacio ddx son proporcionales a los cuadrados de los incrementos de tiempo dt durante los cuales se realiza tal recorrido: ddx ∝ dt².
A partir de un fenómeno específico considerado como prototipo Euler analiza y construye otros fenómenos análogos. En este caso, tal fenómeno particular que se toma como referente es el movimiento de caída de los cuerpos cuya causa, la fuerza de gravedad, es igualmente asumida como prototipo de las causas de los cambios de estado de los cuerpos
La expresión ddx = P(dt)², donde P es el poder aceleratriz, implica entonces que hecha una correspondencia entre las alturas de caída h y las distancias dx por las que un cuerpo trata de acercarse a un plano fijo, el poder P que causa tales cambios en el movimiento debe considerarse como una fuerza de la misma clase que la gravedad. Esta es una relación que, por otra parte, está en completo acuerdo con el enfoque euleriano del cálculo basado en la idea de coeficiente diferencial: si, por ejemplo, x y y son
variables, la relación entre sus diferenciales puede escribirse como dy = pdx, donde dx se toma como constante, es decir, ddx = 0. De esto, la diferencial de orden superior ddy que se obtiene es: ddy = dpdx + pddx = dpdx, donde p es una variable, tal como lo es y; si la relación entre dp y dx se expresa como dp = qdx, la diferencial de segundo orden para y tomará la forma: ddy = q(dx)², donde p, q..., son los sucesivos coeficientes diferenciales de y con respecto a x.4 Para el caso del movimiento q es el poder o fuerza aceleratriz. Para contribuir más a la caracterización y significación de este principio, es particularmente interesante recordar aquí la manera en que Euler lo utiliza en el análisis de las dos interacciones asumidas como aquellas en donde se producían los cambios de estado que ocurren en los cuerpos: el choque entre cuerpos y las llamadas fuerzas centrífugas. En los dos casos substituye el elemento de tiempo dt por los diferenciales de los espacios recorridos. En el caso del choque entre dos cuerpos el principio toma la forma: Mvdv = Pdx y en el análisis de la fuerza centrípeta: M(dv²) = Pxdx. Esta es otra forma de expresar la reproducción de las relaciones que se dan en el caso de la caída de los cuerpos. Como en este fenómeno el cuadrado de la magnitud correspondiente al estado temporal del movimiento —velocidad— es proporcional a la distancia recorrida v² ∝ x, sus diferenciales también se relacionarán proporcionalmente: dv² ∝ dx, por tanto cualquier otra causa que reproduzca estas relaciones será igualmente considerada como fuerza. Baste con ello para notar que si bien Euler enuncia el principio fundamental de la mecánica asumiendo el tiempo como variable independiente, en los casos particulares donde lo utiliza reorganiza tal expresión en términos de los incrementos de las velocidades y de los diferenciales de los espacios recorridos, asumidos como constantes, tomando la forma Mdv² = Pdz, hecho que pone de manifiesto el carácter espacial de su significación al dar relevancia a la magnitud Pdz, denominada por él mismo el esfuerzo de las fuerzas actuantes. Además, esta caracterización espacial tanto de los movimientos de los cuerpos como de las fuerzas que los producen trasciende la forma particular en que se concibe el 4. Ver a este respecto Grattan-Ginnes, Ivor. Convolutions in French Mathematics 1800-1840: from the Calculus and Mechanics to Mathematical Analysis and Mathematical Physics. vol. I: The settings. Birkhäuser Verlag, Basel, 1990. en particular cap. 3 y 5.
principio y se lo aplica a casos de interacciones concretas, para ubicarse en la certeza misma de sus determinaciones: el hecho de que se identifique la posibilidad de determinación del movimiento de un cuerpo, cuando es actuado por fuerzas, con el establecimiento de la variación de la distancia de tal cuerpo a un plano fijo implica que la determinación de las fuerzas no se puede hacer más que teniendo en cuenta los efectos que ella produce; efectos que en este caso son considerados y analizados específicamente desde el punto de vista espacial.
Teoría euleriana de las fuerzas y su relación con la estructura del medio Como se ha mencionado anteriormente,5 desde la perspectiva euleriana la deformación de los cuerpos, entendida como la variación de su volumen cuando el cuerpo es compresible o la variación de su forma cuando es incompresible, es el hecho que evita que la penetración ocurra cuando se está en el proceso de una interacción —por ejemplo, un choque entre cuerpos—, pues mientras los cuerpos se deforman, el uno no ocupa el lugar del otro; si los cuerpos prosiguieran con el estado alcanzado en un momento dado de esa interacción sin que hubiera posibilidad de que se deformaran, la penetración ocurriría. Además, continuando con la suposición de que durante el choque no hubiera posibilidad de que los cuerpos se deformaran, la única posibilidad que existiría para evitar la penetración de los cuerpos sería que sus cambios de estado ocurrieran instantáneamente. En este sentido, la deformación de los cuerpos se convierte en una condición necesaria para que los cambios de estado de los cuerpos se den en forma continua. Tal continuidad, por ende, no solo es temporal sino que también es espacial: a un tiempo dt de la interacción le corresponde una variación dz en la deformación de los cuerpos que interactúan —un acercamiento de los centros de los cuerpos en el caso del choque de dos cuerpos—. También se convierte en un indicador del surgimiento, o no, de fuerzas para evitar la penetración: a toda fuerza surgida de la impenetrabilidad de los cuerpos debe asociarse una deformación dz, hecho que pone de manifiesto el carácter espacial de la fuerza euleriana. Sin embargo, es posible diferenciar interacciones a las que, para un mismo cambio de estado, se les asocian 5. Véase Romero, A. (1996b). La concepción euleriana de la fuerza en Física y Cultura, Cuadernos sobre Historia y Enseñanza de las Ciencias, Nº3, 1996, pp. 19-25.
deformaciones diferentes, muy posiblemente debido a la constitución de los cuerpos que interactúan. A partir de estas consideraciones pueden distinguirse dos magnitudes, una de carácter extensivo y otra de carácter intensivo, que Euler identifica con los términos de fuerza absoluta y fuerza relativa, respectivamente. La fuerza relativa, también llamada esfuerzo, es la fuerza desarrollada a lo largo de una deformación dz que, por los análisis arriba enunciados, es identificada con los cambios de estado de movimiento que se dan en esa deformación dz. La fuerza absoluta, F, por su parte, es aquella intensidad espacial de la fuerza que permite diferenciar entre interacciones a las que, para un mismo cambio de estado, se asocian diferentes deformaciones. Desde la perspectiva euleriana, no es posible determinar tales fuerzas sin establecer su relación con la cantidad de deformación, y la expresión Fdz —que Euler denomina el esfuerzo de las fuerzas actuantes cuando la deformación incrementa de z a z + dz en el intervalo de tiempo comprendido entre t y t + dt de la interacción— da cuenta de tal relación. Algunas características de esta magnitud que introduce Euler para dar cuenta de las fuerzas son: •• El esfuerzo Fdz, al producirse una variación dz de la deformación, es la diferencial de una magnitud aditiva de una cantidad; así, es posible en principio determinar el esfuerzo cuando la deformación varía de un valor z a un valor z’ a través de la integral ∫Fdz evaluada entre z y z’. •• Es la variación de la deformación el hecho que determina esfuerzo. Si en la interacción efectuada durante un intervalo de tiempo cualquiera no hay una variación neta de la deformación, el esfuerzo realizado es nulo, tal es el caso de un choque completamente elástico. •• El esfuerzo está directamente relacionado con la variación del cuadrado de la velocidad (o con la variación de la suma de los cuadrados de velocidad de los cuerpos intervinientes: Adv² + Bdu² = ∫Fdz) y por lo tanto con la variación de la magnitud de la velocidad: a variaciones iguales del cuadrado de la velocidad le corresponden esfuerzos iguales. Luego, en una interacción solo habrá cambios en la magnitud de la velocidad en la medida que se produzcan variaciones en la deformación. Pero, si bien el choque sigue siendo el prototipo de las interacciones por contacto, el choque entre dos cuerpos es, desde la perspectiva euleriana, donde el mundo es concebido como un plenum de materia, una situación
Ángel Enrique Romero Chacón / El primer principio de la mecánica euleriana. Organización del mundo sensible, cuantificación de las fuerzas y estructura del medio / P.P. 53-62
59
60
Física y Cultura: Cuadernos sobre Historia y enseñanza de las ciencias - No. 8 , 2014 / ISSN 1313-2143 / Análisis Histórico-Críticos
ideal y que en muy poco corresponde a los fenómenos e interacciones observados en el mundo sensible. ¿Cómo dar cuenta, entonces, de las interacciones y en particular de la deformación en un espacio lleno? Para este efecto, no se tiene más que considerar dos aspectos relevantes de la cosmovisión euleriana. Por una parte, en un medio lleno todo cuerpo que trate de preservar su estado de movimiento deberá necesariamente encontrarse con otros cuerpos a los que trataría de penetrar, desarrollándose así fuerzas que evitan en todo momento tal penetración y que cambian continuamente el estado de los cuerpos a la vez que los deforman. Por otra parte, en un medio tal la única forma de diferenciar los cuerpos involucrados en las interacciones es por la intención del análisis que se vaya a realizar; es decir, un cuerpo es una región del medio, finita o infinitesimal, cuyo movimiento es analizado para dar cuenta de cómo una región particular interactúa con el resto del medio, o en otras palabras, para dar cuenta de la estructura de deformación del medio. En este sentido, implícito a la deformación del medio está el hecho de que el cuerpo en su movimiento tienda a acercarse o a alejarse a un plano fijo determinado; la cantidad ds, que expresa la magnitud del acercamiento, dará también cuenta de la magnitud de la deformación experimentada por el medio. Durante este recorrido el cuerpo en cuestión trata de penetrar al resto del medio, surgiendo las fuerzas necesarias para evitar tal penetración, la expresión Fdz da cuenta de la fuerza surgida en la interacción al efectuarse el desplazamiento ds y producirse debido a este una variación de la deformación dz. Por tanto, la variación de la deformación debida al desplazamiento ds realizado durante el tiempo dt depende de que haya o no cambio en la magnitud de la velocidad. Así, si en el desplazamiento ds que se efectúa no hay cambio de esta, dicho desplazamiento no produce variación de la deformación del medio, y, por consiguiente, un desplazamiento que se realice en la dirección perpendicular al primero generará el máximo cambio de la deformación del medio en ese punto, siendo esta dirección la dirección de la fuerza absoluta. Luego, el cambio de la deformación dz, que un acercamiento ds al plano produce, depende de la dirección del desplazamiento con relación a la fuerza absoluta F: es nulo si estas direcciones son perpendiculares y máxima si son paralelas; de ahí que el esfuerzo Fdz debido al cambio de la deformación dz se pueda expresar como F • ds = Fcosθds, donde θ es el ángulo formado por las direcciones de la fuerza y del desplazamiento y dscosθ = dz.
Puede decirse, entonces, que dada la estrecha relación entre el movimiento de un cuerpo y la deformación del medio donde se realiza tal movimiento, la forma como se dé el movimiento de un cuerpo en un determinado medio refleja la estructura misma del medio, estructura que vendría a estar caracterizada por la deformación y sus variaciones. Si, por ejemplo, el movimiento de un cuerpo en un medio dado es uniforme en cualquier dirección, el medio se identifica como homogéneo. En este caso, por consiguiente, se tendrá que F • ds = 0 en cualquier dirección. En el análisis de la estructura del medio a través del movimiento, la expresión P • ds = 0 cobra especial relevancia pues permite encontrar aquellas superficies sobre las cuales el movimiento de cualquier cuerpo no requeriría gasto de esfuerzo, en otras palabras, permitiría encontrar las superficies de equiesfuerzo. Pero, la expresión Pds = 0 no solo permite encontrar las superficies de igual esfuerzo en un medio dado sino que igualmente posibilita el determinar aquellas direcciones o trayectorias a lo largo de las cuales ocurre la máxima variación de la deformación y por lo tanto el máximo esfuerzo6. Por otra parte, si en la determinación de las deformaciones únicamente se consideran los desplazamientos de los cuerpos respecto a planos móviles y en todo punto perpendiculares a las trayectorias de equiesfuerzo —lo que equivale a considerar los desplazamientos de los cuerpos sobre las mismas trayectorias descritas—, no habría forma de diferenciar un medio deformado del medio considerado como homogéneo ya que en ambos casos se tiene que P • ds = 0. Las consideraciones precedentes conducen a evidenciar adicionalmente un aspecto relevante de la perspectiva euleriana de la mecánica que permiten superar esta incertidumbre: el enfoque analítico (de descomposición-composición). Para este efecto, Euler determina el acercamiento — deformación— respecto a tres planos fijos perpendiculares entre sí, es decir, independiza el análisis del movimiento de los cuerpos de sus trayectorias para, de este modo, ubicarlo como referido al espacio mismo. Ahora bien, el espacio es asumido como completamente determinado a partir de tres planos fijos perpendiculares entre 6. Como durante el movimiento, el cuerpo en consideración trata de penetrar el medio, han de surgir fuerzas de una tal magnitud y que hagan desplazar al cuerpo en una tal dirección que se evite la penetración lo más rápidamente posible, y es claro, como afirma Euler, que esta dirección sea perpendicular al plano de contacto; por tanto, las direcciones según la cuales ocurre la máxima variación del esfuerzo son en todo punto perpendiculares a las superficies de equiesfuerzo.
sí. Es por ello que, luego de la explicación del principio, Euler hace notar: Como esta fórmula no determina más que la distancia o la aproximación del cuerpo con respecto a un plano fijo cualquiera, para encontrar el verdadero lugar del cuerpo en cada instante, no habrá más que relacionar al mismo tiempo los tres planos fijos, que son perpendiculares entre ellos. Luego, como x designa la distancia del cuerpo a uno de estos planos, sea y y z sus distancias a los otros dos planos, y después se descomponen todas las fuerzas que actúan sobre el cuerpo, siguiendo las direcciones perpendiculares a estos tres planos, sea P la fuerza perpendicular la que resulta sobre el primero, Q sobre el segundo y R sobre el tercero. Supongamos que todas estas fuerzas tienden a alejar al cuerpo de estos tres planos; porque en caso [de] que ellas tiendan a acercarlo, no habrá más que volver las fuerzas negativas. Sea puesto, el movimiento del cuerpo estará contenido en las tres fórmulas siguientes: I. Mddx = Pdt 2
II. Mddy = Qdt 2
III. Mddz = Rdt 2
(Euler, L., 1752, pp. 89-90)
El hecho de que para el movimiento de un cuerpo en un medio determinado se satisfaga que Pxdx + Pydy + Pzdz = 0, es decir, que las trayectorias s(x, y, z) sea tal que a lo largo de ellas no se produzca variaciones de la deformación, implica dos posibilidades: •• Que en el acercamiento a cada uno de los tres planos fijos, considerados para analizar la estructura del medio, no se dan variaciones en la deformación en cuyo caso Pxdx = Pydy = Pzdz = 0. •• Que en el acercamiento a cada uno de tales planos haya variaciones en la deformación pero de una forma tal que se da una compensación entre dichas variaciones.
h
h h
Expresiones que en la forma como Euler las utiliza y conceptualiza quedan: I. dvx 2 = Px dx
II. dvy 2 = Py dy
III. dvz 2 = Pz dz
donde Px, Py y Pz designan las fuerzas aceleratrices según las direcciones x, y y z. Y es con estas relaciones como queda completamente determinado el movimiento de cualquier cuerpo.7 Teniendo en cuenta el acercamiento a los tres planos fijos, el esfuerzo Pdz = P • ds que da cuenta de las fuerzas generadas al producirse una variación dz de la deformación del medio toma la forma: Pxdx + Pydy + Pzdz. Y es esta expresión la que permite, en primer lugar, diferenciar cuando un medio es deformado y cuando se puede asumir como homogéneo, y, en segundo lugar, determinar la estructura del medio deformado mediante la solución de la ecuación diferencial: Pxdx + Pydy + Pzdz = 0
7. En este cambio de forma del principio fundamental de la mecánica es conveniente notar que si bien en la descripción espacial lo que interesa es el cambio de la deformación en la descripción temporal lo que resulta relevante es cómo se efectúan tales cambios de deformación en el tiempo; de ahí que se consideren los cambios en el tiempo de los acercamientos dx, dy y dz a los planos de referencia y aparezcan las expresiones ddx, ddy y ddz.
Figura 1. Superficie equiesfuerzo para un medio caracterizado por una fuerza vertical constante.
El primero de estos casos es el que corresponde a un medio homogéneo y el segundo a un medio “forzado” cuya estructura queda explicitada a través de la familia de superficies equiesfuerzo solución de la ecuación diferencial: Pxdx + Pydy + Pzdz = 0 y del conjunto de trayectorias ortogonales a estas. Por ejemplo, para el caso de una fuerza constante con dirección vertical se tendrán planos paralelos horizontales igualmente espaciados caso de la fuerza de gravedad, (véase figura 1); y para el caso de una fuerza centrípeta las superficies equiesfuerzo serán esferas concéntricas (figura 2). De esta manera podemos concluir que, desde la perspectiva euleriana, del movimiento de un cuerpo —de una región del medio— es posible determinar la estructura de deformación del medio haciendo uso del principio fundamental de la mecánica en su forma espacial; y, viceversa, de la estructura del medio es posible determinar el movimiento del cuerpo.
Ángel Enrique Romero Chacón / El primer principio de la mecánica euleriana. Organización del mundo sensible, cuantificación de las fuerzas y estructura del medio / P.P. 53-62
61
62
Física y Cultura: Cuadernos sobre Historia y enseñanza de las ciencias - No. 8 , 2014 / ISSN 1313-2143 / Análisis Histórico-Críticos
Figura 2. Superficie equiesfuerzo para el caso de una fuerza centrípeta.
Referencias Euler, L. (1752). Decouverte d’un nouveau principe de mecanique. Mémoires de l’académie des sciences de Berlin 6, (1750) 1752, pp. 185-217. También en Opera Omnia II, 5, Commentationes mechanicae, pp. 81-109. [ Links ]. Grattan-Ginnes, I. (1990). Convolutions in french mathematics 1800-1840: from the calculus and mechanics to mathematical analysis and mathematical physics [vol. I: The Settings]. Basilea: Birkhäuser Verlag. Romero, A. ª(1996a). La mecánica de Euler ¿una mecánica del continuo? Física y Cultura, Cuadernos sobre Historia y Enseñanza de las Ciencias, 3, 11-15. Romero, A. (1996b) La concepción euleriana de la fuerza. Física y Cultura, Cuadernos sobre Historia y Enseñanza de las Ciencias, 3, 19-25.
La estática y el concepto de momento de fuerza según Lagrange The statics and the concept of moment of force according to Lagrange Marina Garzón Barrios, María Mercedes Ayala, José Francisco Malagón, Isabel Garzón Barragán, Juan Carlos Castillo Ayala Departamento de Física - Universidad Pedagógica Nacional, Bogotá, D.C. - Colombia mar_zon@hotmail.com ayalam49@gmail.com jmalagon@pedagogica.edu.co igarzon@pedagogica.edu.co jccastillo@pedagogica.edu.co
Resumen Se aborda el problema del equilibrio desde la perspectiva de Lagrange, que se fundamenta en el principio de las velocidades virtuales, conocido hoy como el principio de trabajos virtuales. Para ello se hará uso del concepto de momento de fuerza que permite plantear dicho principio. La importancia de abordar este principio como fundamental en la descripción de los sistemas en equilibrio se pone de manifiesto al analizar su contraste con la corriente newtoniana, en donde se considera el equilibrio cuando existen las condiciones particulares de sumatoria de fuerzas igual a cero (ΣF1 =0) y sumatoria de torques igual a cero (Σԏ1 =0). Desde esta perspectiva, el equilibrio es considerado como un caso particular de la dinámica, mientras que en el análisis correspondiente al principio de velocidades virtuales subyace la idea de que el movimiento es representado a partir del equilibrio y viceversa, en otras palabras, entre la dinámica y la estática no hay una diferencia de base. Se examina la posibilidad de introducir el análisis y organización de los fenómenos mecánicos desde la perspectiva lagrangiana.
Abstract It is studied the problem of equilibrium from the perspective of Lagrange, which is based on the principle of virtual velocities, known today as the principle of virtual work. This will be achieved using the concept of torque allows us to propose this principle. The importance of studied this principle as fundamental in the description of equilibrium systems is to analyze its contrast with the Newtonian conception, where the equilibrium is considered when there are particular conditions of sum total of forces equal to zero (ΣF1 =0) and sum total of torques zero (Σԏ1 =0). this is equilibrium of translation and equilibrium of rotation. From this perspective, the equilibrium is considered as a particular case of dynamics, while the analysis for the principle of virtual velocities is the idea that the movement is represented from the equilibrium and vice versa, in other words between dynamic and static there isn´t difference base. We examine the possibility of introducing the analysis and organization of events from the perspective of lagrangian mechanics.
Julio16 de 2012* Enero11 de 2014
Marina Garzón Barrios, María Mercedes Ayala, José Francisco Malagón, Isabel Garzón Barragán, Juan Carlos Castillo Ayala / La estática y el concepto de momento de fuerza según Lagrange / P.P. 63-71
63
64
Física y Cultura: Cuadernos sobre Historia y enseñanza de las ciencias - No. 8 , 2014 / ISSN 1313-2143 / Análisis Histórico-Críticos
Palabras Clave Equilibrio, momento de fuerza, perspectiva lagrangiana vs perspectiva newtoniana, velocidades virtuales, trabajos virtuales, estática.
Key Words Equilibrium, momentum of force, langrangian perspective vs newtonian perspective,vitual velocities, statics.
Marina Garzón Barrios Profesora del Departamento de Física de la Universidad Pedagógica Nacional. Licenciada en física de la Universidad Pedagógica Nacional (Bogotá, Colombia) y Magister en Historia de las ciencias de la Universidad Autónoma de Barcelona y Universidad de Barcelona (Barcelona, España) Miembro del grupo Física y Cultura. Campo de investigación: Historia y enseñanza de la física.
El artículo se basa en algunos de los análisis realizados en torno a la fase 1 del proyecto de investigación “De la mecánica a la actividad de organizar fenómenos mecanicos: hacia la construcción de propuestas alternativas para la enseñanza de la mecánica- Fundamentos de la estática”(1999), auspiciado por el Centro de investigaciones de la Universidad Pedagógica Nacional, Bogotá.
Generalmente las situaciones del equilibrio estático de cuerpos o sistemas son analizadas como un caso particular de la dinámica, aquel donde la sumatoria de fuerzas y la de torques se anulan (ΣFi = 0 y Σԏi = 0). Al identificársele con el reposo de todos los cuerpos involucrados en el sistema, el equilibrio estático es pensado como opuesto al movimiento, esta es la perspectiva newtoniana. Planteada como un caso particular, la estática pierde interés conceptual, al igual que pierde la riqueza que involucra abordar y acoger como un problema propio esta clase de fenómenos físicos. De modo que, por el privilegio que se le da a la perspectiva newtoniana, la estática no adquiere un lugar importante en los desarrollos de los cursos de física a nivel medio, ni en los cursos introductorios a nivel universitario. En contraste con la perspectiva newtoniana, la formulación lagrangiana privilegia la estática sobre la dinámica reduciendo la dinámica a un caso de equilibrio y proporcionando además un método algebraico uniforme para resolver todas las situaciones mecánicas; sin embargo, el equilibrio adquiere un cierto carácter dinámico: solo es posible dar cuenta de las leyes del equilibrio si se examina su ruptura y de esta manera la forma como las acciones de las fuerzas se anulan entre sí. En este artículo examinaremos el planteamiento dinámico del equilibrio que Lagrange elabora a través de su formulación del principio de velocidades virtuales como principio general del equilibrio, buscando caracterizar el concepto de momento de fuerza, magnitud central de este planteamiento. Se examina la posibilidad de introducir el análisis y organización de los fenómenos mecánicos desde la perspectiva lagrangiana.
El concepto de momento de fuerza y la formulación lagrangiana del principio de velocidades virtuales Como bien lo plantea Ernst Mach en su Historia de la Mecánica (1919), el trabajo de Lagrange unió y coronó todos los esfuerzos que se hicieron en el siglo XVIII para desarrollar una mecánica organizada racionalmente. Eliminó las contradicciones y las desarticulaciones que abundaban en los trabajos de sus predecesores. Adoptó los conceptos y los postulados de los grandes creadores del siglo anterior: Galileo, Huyghens y Newton; y retomó los planteamientos de Euler y D´Alembert. Su preocupación era organizar la mecánica, los fundamentos de sus principios, perfeccionar su lenguaje matemático y desarrollar un método analítico general para solucionar sus problemas.
En palabras de Lagrange, sus objetivos eran los siguientes: Reducir la teoría de la mecánica y el arte de solucionar los problemas asociados, a una fórmula general, cuyo desarrollo simple proporcione todas las ecuaciones necesarias para la solución de cada problema […]. [Y] reunir y presentar desde un punto de vista, los diferentes principios que hasta ahora han sido encontrados para ayudar en la solución de problemas en mecánica; mostrar su relación y dependencia mutua y hacer un juicio de su validez y alcance posible. (Lagrange, 1965, prefacio a la primera edición, pág I)
En cuanto al punto puramente formal y matemático, afirma: En este trabajo no se encontrarán diagramas. Los métodos que explico no requieren ni construcciones ni argumentos geométricos o mecánicos, sino sólo las operaciones algebraicas inherentes a un proceso regular y uniforme. Aquellos que prefieren el análisis verán, con gozo, como la mecánica se vuelve su nueva rama y me agradecerán por haber extendido su campo (Lagrange, 1788/1965, prefacio a la primera edición, pág II).
En lo relativo a la estática, Lagrange, en su tratado sobre la mecánica analítica, comienza por distinguir tres principios generales a los que se puede reducir el estudio realizado hasta el momento sobre los fenómenos del equilibrio mecánico: el de las palancas, el de la composición de las fuerzas y el de velocidades virtuales; considera que estos principios no son complementarios sino más bien representativos de formas diferentes de organizar los fenómenos de la estática. De hecho, es el principio de velocidades virtuales el que eleva a la categoría de principio general de la estática: Este principio no es solamente en sí mismo muy simple y muy general, tiene además la ventaja preciosa y única de poderse traducir en una fórmula general que abarca todos los problemas que uno puede proponer sobre el equilibrio de los cuerpos (Lagrange, 1788/1965, p. 20).
Lagrange plantea que este principio ya había sido usado antes y que era posible reconocerlo, por ejemplo, en los trabajos de Galileo sobre el plano y en las máquinas relacionadas, considerándolo como una propiedad general de las máquinas. Surge aquí la idea de momento de un peso, de una fuerza o de una potencia aplicada a una máquina, la cual en palabras de Lagrange es entendida por Galileo como: El esfuerzo, la acción, la energía, el ímpetu de esta potencia para mover la máquina; de manera que hay equilibrio entre dos fuerzas o potencias, cuando sus momentos para mover la
Marina Garzón Barrios, María Mercedes Ayala, José Francisco Malagón, Isabel Garzón Barragán, Juan Carlos Castillo Ayala / La estática y el concepto de momento de fuerza según Lagrange / P.P. 63-71
65
66
Física y Cultura: Cuadernos sobre Historia y enseñanza de las ciencias - No. 8 , 2014 / ISSN 1313-2143 / Análisis Histórico-Críticos
máquina en sentidos contrarios son iguales; [siendo el momento] siempre proporcional a la potencia o fuerza multiplicada por la velocidad virtual, que depende de la forma como la potencia actúa. (Lagrange, 1788/1965, p. 18).
Q
dhQ
dhP
dhQ
P
Figura1. Dos cuerpos que tienen tendencias a car diferentes porque se encuentran ubicados de manera diferente sobre un plano inclinado, y son obligados a moverse juntos por medio de una cuerda. Se muestran los desplazamientos posibles asociados a sus pesos P y Q.
Generalmente las situaciones del equilibrio estático de cuerpos o sistemas son analizadas como un caso particular de la dinámica, aquel donde la sumatoria de fuerzas y la de torques se anulan (ΣFi = 0 y Σԏi = 0)
Para Galileo (1638/1981, p. 305), la gravedad, propiedad esencial de los cuerpos, se expresa en la propensión, resistencia o indiferencia de los cuerpos respecto a un centro. El movimiento natural de caída es la fuente de las acciones y la acción solo es posible cuando se impide que el cuerpo o parte del sistema caiga libremente. Así, un cuerpo que cae libremente no pesa, solo lo hace cuando se obstaculiza su movimiento natural de caída; por eso todos los cuerpos son idénticos cuando caen verticalmente y caen en idéntica forma y se puede establecer distinciones entre ellos según su peso cuando se les impide su movimiento natural de caída. La propensión y por consiguiente la tendencia a caer depende de las circunstancias del sistema en cuestión: así, es diferente si lo hace verticalmente de si lo hace en dirección oblicua, siendo mayor cuando cae directamente hacia el centro en dirección vertical y nula (indiferente) en dirección horizontal.
Ahora bien, dos cuerpos con tendencias a caer diferentes que son obligados de alguna forma a moverse conjuntamente como se muestra en la figura1, ejercen acciones entre sí definidas por dichas tendencias. Luego, un cuerpo de peso P restringido a moverse a lo largo del plano inclinado tiene una tendencia a caer menor a la que tendría en el caso en que pudiese hacerlo a lo largo de la vertical; estas tendencias estarían en proporción a las velocidades que adquirirían en el primer instante de su movimiento en los respectivos casos, considerando, eso sí, las ligaduras que especifican la configuración del sistema; ligaduras que se traducen, aquí, en la exigencia de que los recorridos a lo largo del plano y a lo largo de la vertical sean siempre iguales entre sí. Como la velocidad que adquiriría el cuerpo a lo largo del plano depende solo de la altura de descenso, las velocidades que se adquirían en los dos casos estarían en la misma proporción en que se encontrarían las alturas de descenso, es decir:
Va lo largo del plano = hde descenso a lo largo del plano = senθ Va lo largo de la vertical hde descenso a lo largo de la vertical Por lo tanto, la proporción en que se encuentran las tendencias del cuerpo P a caer a lo largo del plano y a lo largo de la vertical es igual al seno del ángulo de inclinación del plano, senθ. Es claro, en consecuencia, que los cuerpos P y Q de la figura estarán en equilibrio si las tendencias de los dos cuerpos a lo largo de las respectivas direcciones son iguales; para ello necesariamente el peso q de Q, debe ser menor que el peso p de P; es más, según lo anterior, q/p= senθ, conclusión a la que se llega desde la perspectiva newtoniana mediante otro tipo de argumentos. En relación con esta forma de entender el equilibrio y las acciones que los cuerpos pueden ejercer debido a su gravedad, vale la pena destacar lo siguiente: •• Se establece una distinción entre la tendencia a caer y la acción que puede ejercer el cuerpo debido a su gravedad cuando se le obstaculiza su movimiento de caída a lo largo de una dirección dada. •• Lo que conocemos como peso del cuerpo es la acción o fuerza que ejerce el cuerpo debido a su gravedad cuando su movimiento natural de caída a lo largo de la vertical es obstaculizado. •• La tendencia a caer solo se puede identificar si se piensa en la velocidad que adquiriría en el primer momento, si se le permitiera moverse.
•• La tendencia es una magnitud que tiene un carácter puramente relacional. En otras palabras, la tendencia a caer que tiene el cuerpo a lo largo de una dirección dada depende de la configuración del sistema y, por lo tanto, de las ligaduras de este. Tal tendencia solo puede ser determinada en relación con la tendencia que tiene un cuerpo que obligatoriamente ligado a otro se obstaculicen entre sí y ejerzan acciones. •• El peso de un cuerpo no se mide directamente, se comparan tendencias a caer a lo largo de la vertical, por ejemplo, con los dos cuerpos involucrados en la medida se configura un sistema en el que las ligaduras sean tales que estos obstaculicen entre sí sus movimientos de caída. •• Para la comparación de las tendencias, se utiliza como referencia la tendencia a caer que el cuerpo tendría en una dirección dada ( vertical, por ejemplo), tomando en consideración, eso sí, la configuración y ligaduras del sistema. Para el caso del plano puede decirse, entonces que: 1.)
Tendencia del cuerpo a caer a lo largo del plano Tendencia del cuerpo a caer a lo largo de la vertical
=
h de descenso a lo largo del plano h de descenso a lo largo de la vertical
2.) Tendencia de un cuerpo de peso p a caer a lo largo de la vertical Tendencia de un cuerpo de peso q a caer a lo largo de la vertical
=
p q
De las ecuaciones 1 y 2 tenemos: 3.)
Tendencia de un cuerpo de peso p a caer a lo largo del plano Tendencia de un cuerpo de peso q a caer a lo largo de al vertical
=
p
h de descenso a lo largo del plano
q
h de descenso a lo largo de la vertical
Se puede decir que Lagrange amplía y formaliza el planteamiento galileano. En contraste con Galileo, Lagrange considera que la fuente de toda acción (fuerza) no es la gravedad; es decir, el origen de la fuerza (la acción) puede ser diverso, pero coincide con Galileo al señalar que ésta se expresa en el movimiento que adquiere el cuerpo o en una tendencia hacia un punto, lo que permite definir su dirección; además permite afirmar que el equilibrio solo se puede pensar y analizar con referencia al movimiento. Así pues, él afirma que en general la fuerza o potencia se puede entender como: […] la causa, cualquiera que ella sea, que imprime o tiende a imprimir movimiento a los cuerpos sobre los que se supone aplicada; es por lo tanto por la cantidad de movimiento impresa, o que podría imprimir que la fuerza o potencia debe estimarse. En el estado de equilibrio, la fuerza no está en ejercicio actual; por lo tanto, ella no produce más que una simple tendencia al movimiento; sin embargo uno debe siempre medirla por el efecto que ella produciría sino fuese detenida. Tomando una fuerza cual-
Marina Garzón Barrios, María Mercedes Ayala, José Francisco Malagón, Isabel Garzón Barragán, Juan Carlos Castillo Ayala / La estática y el concepto de momento de fuerza según Lagrange / P.P. 63-71
67
68
Física y Cultura: Cuadernos sobre Historia y enseñanza de las ciencias - No. 8 , 2014 / ISSN 1313-2143 / Análisis Histórico-Críticos
quiera, o un efecto, por la unidad; la expresión de cualquier otra fuerza no es más que una relación, una cantidad matemática que puede ser representada por números o líneas; es bajo este punto de vista que deben ser consideradas las fuerzas en la mecánica (Lagrange, 1788/1965, p. 1).
En la visión planteada aquí por Lagrange es claro que la fuerza o potencia solo se puede determinar por el movimiento que esta sea capaz de producir. En condiciones de equilibrio solo se tienen tendencias al movimiento que para ser determinadas requieren considerar la velocidad que adquiriría el cuerpo o parte del sistema si el equilibrio fuera roto y que él denomina velocidad virtual. Se debe entender por velocidad virtual, dice Lagrange (p.17) “aquella que un cuerpo en equilibrio está dispuesto a recibir, en caso de que el equilibrio sea roto, es decir la velocidad que el cuerpo obtendría realmente en el primer instante de su movimiento”. Y el principio del equilibrio, refiriéndose a un sistema sobre el cual se aplican dos fuerzas, “consiste en que las fuerzas o potencias estarán en equilibrio cuando ellas están en razón inversa a sus velocidades virtuales, estimadas según las direcciones de estas fuerzas” (Lagrange, 1788/1965, p. 17). Con estas ideas en mente Lagrange enuncia el principio general del equilibrio de la siguiente manera: Si un sistema cualquiera de tantos cuerpos o de puntos como se quiera, actuados cada uno por fuerzas cualesquiera, está en equilibrio, y si se le hace a este sistema un pequeño movimiento cualquiera, en virtud del cual cada punto recorrerá un espacio infinitamente pequeño que expresará su velocidad virtual, la suma de las fuerzas multiplicadas cada una por el espacio desde el punto donde aquella es aplicada y que recorre siempre la dirección de esta misma fuerza, será siempre igual a cero; mirados como positivos los pequeños espacios recorridos en el sentido de las fuerzas, y como negativos los espacios recorridos en el sentido opuesto (Lagrange, 1965, p. 20).
Para determinar las leyes mediante las cuales se realiza el equilibrio, según la perspectiva utilizada por Lagrange, se comienza por suponer una ruptura de su equilibrio en una parte del sistema, ruptura que producirá en el primer instante un desplazamiento en cada punto del mismo. Los desplazamientos generados en ese instante, en las direcciones de las fuerzas, son proporcionales a las velocidades virtuales de los puntos en cuestión adquiridas en esas direcciones. El hecho de que la velocidad virtual sea la velocidad adquirida en el primer instante después de la ruptura del equilibrio es lo que sustenta el carácter virtual de estas, tomando en consideración la configuración y ligaduras del sistema.
Esta visión de Lagrange supone que la cantidad relevante para expresar el equilibrio es el momento de la fuerza definido como el producto de la velocidad virtual y la fuerza actuando en la dirección del movimiento, ésta es la medida de la tendencia al movimiento debido a las fuerzas aplicadas;1 pero al igual que la tendencia a caer galileana, es una magnitud que tiene un carácter estrictamente relacional. Así pues, en la condición del equilibrio la sumatoria de los momentos de las fuerzas aplicadas sobre el sistema debe ser igual a cero. Esta condición se puede expresar, siguiendo la notación de Lagrange: Pdp - Qdq - Rdr - ... = 0 Donde P, Q, R... representan las fuerzas que se consideran actuando sobre el sistema; p, q, r... representan las distancias entre los puntos de aplicación de las fuerzas y los centros de fuerza correspondientes (puntos a los que estas fuerzas se dirigen); dp, dq, dr... representan los desplazamientos efectuados en las direcciones de las fuerzas en el primer instante cuando es roto el equilibrio y que son proporcionales a las velocidades virtuales; y los productos Pdp, Qdq, Rdr, etc., representan los momentos de las fuerzas P, Q, R, etc.2 Es importante resaltar que la fuerza no puede ser pensada como una magnitud independiente del resultado de las condiciones del sistema. Por ejemplo, si se suponen unos resortes con una condición de deformación impuesta (un resorte deformado puede ser considerado como un indicador de la medida de una fuerza), el sistema sometido a estas condiciones, para estar en equilibrio, debe adoptar una configuración espacial particular; por el contrario, si se impone una disposición espacial de las partes del sistema los resortes se adoptan la deformación que se ajuste a dicha disposición.
1. Hoy en día se asume torque y momento de fuerza como términos sinónimos; pero como bien lo hace notar Lagrange el momento de fuerza, así definido, tiene un carácter más importante dada su generalidad. 2. Basados en el principio de velocidades virtuales podemos llegar igualmente a las condiciones de equilibrio conocidas para este caso y derivadas desde un enfoque de corte newtoniano. Considere el sistema formado por dos cuerpos de pesos P y Q respectivamente unidos por una cuerda donde uno de ellos (el de peso P) descansa sobre un plano con un ángulo de inclinación β y el otro cuelga verticalmente. Según la formulación del principio debe cumplirse que: Pdhp + QdhQ = 0; donde dhP y dhQ son los desplazamientos infinitesimales que representan las velocidades correspondientes a las fuerzas P y Q respectivamente. Como dsP, es el desplazamiento a lo largo del plano y este es igual a dhQ y como dhP es igual a dsPsenβ, entonces al despejar de Pdhp + QdhQ = 0, Q = Psenβ, que es la bien conocida expresión para la condición de equilibrio en el plano inclinado.
El análisis del siguiente caso permite mostrar la dependencia de las fuerzas y las velocidades virtuales con respecto a la configuración del sistema. Se tiene una estructura como se presenta en la figura 2. Una viga soportada por el piso a través de dos varillas, que se pueden flexionar en los puntos A y B.
componer los momentos y las ligazones entre momentos que se cancelan. En el cuadro 1 se presenta un paralelo entre el enfoque lagrangiano y el enfoque newtoniano en el análisis de situaciones de equilibrio.
Posibilidades de la perspectiva lagrangiana en la enseñanza de la mecánica en los niveles introductorios
C
A
B
D
Figura 2. Una viga soportada por el piso a través de dos varillas, que se pueden flexionar en los puntos A y B.
Considérese primero, que el punto B del sistema es un punto fijo (la varilla correspondiente no se flexiona), para este caso si se suelta el punto C del sistema este cambiará su configuración: presentará un desplazamiento dx en el eje horizontal y alcanzará a desviar en un ángulo da la dirección de la viga que experimenta el desplazamiento. La situación cambiaría completamente si las restricciones del sistema fueran diferentes, por ejemplo dejar libres los puntos A y B. Es de esperar que las fuerzas y velocidades que podrían alcanzar estos puntos en las direcciones de las fuerzas sean diferentes. Lo anterior nos permite afirmar también que las restricciones del sistema desempeña un papel central en su definición. Es importante notar que el hecho de que el momento sea la magnitud física relevante plantea un criterio para transformar las fuerzas y las velocidades virtuales que les corresponden: dos fuerzas son equivalentes si sus momentos respectivos son iguales y en general dos sistemas de fuerza son equivalentes si la suma de sus momentos de fuerza son iguales. Este criterio es lo que le permite reducir el problema del movimiento a un problema de equilibrio. En estas condiciones, convierte el principio de velocidades virtuales en el hoy conocido principio de D’Alembert. Desde la perspectiva de Lagrange, el problema central del equilibrio consiste en establecer la forma como la aniquilación de los momentos se opera, o en otra palabras, definir la forma como el equilibrio total se descompone en equilibrios parciales; y son la descomposición de las velocidades virtuales y la transformación que permite la equivalencia de sistemas de fuerzas, las que hacen posible des-
Lo primero que llama la atención cuando se examina la obra cumbre de Lagrange en mecánica es que su formulación queda sintetizada en el principio de velocidades virtuales y, por lo tanto, en el principio que conocemos como de D’ Alembert. En los textos de mecánica analítica se pueden distinguir dos tipos de presentación de la formulación lagrangiana. Una axiomática, en la que se toma como punto de partida un principio variacional, el principio de Hamilton, que rompe la línea de análisis utilizada hasta el momento en la enseñanza de la mecánica y que resulta muy poco intuitiva (Landau y Lifchitz, 1969). La otra, establece nexos con la formulación newtoniana, presentando la formulación lagrangiana como un desarrollo de ésta a través de la definición de los trabajos virtuales y de su extensión al caso de la dinámica con la configuración del “principio” conocido con el nombre de principio de D’Alembert (Goldstein,1987), (Saletan y Cromer, 1971). Lo que se conoce propiamente como la formulación lagrangiana queda condensada en las ecuaciones que llevan su nombre y en la definición de la función conocida como el lagrangiano de un sistema. Estas formas de presentación niegan toda posibilidad de organizar la enseñanza de la mecánica a nivel introductorio desde un enfoque como el lagrangiano. De otra parte, la forma como se presentan los conceptos involucrados, hacen que estos parezcan artificiosos y, por ende, difíciles de comprender. En la Mecánica Clásica de H. Goldstein, por ejemplo, para introducir el concepto de trabajo virtual, se define primero lo que se entiende por desplazamiento virtual: Por desplazamiento virtual (infinitesimal) de un sistema se entiende una variación de su configuración como resultado de cualquier cambio infinitesimal arbitrario de las coordenadas, compatible con las fuerzas y ligaduras impuestas al sistema en un instante dado. El desplazamiento se llama virtual para distinguirlo de cualquier desplazamiento real que se produzca en el sistema en un intervalo de tiempo dt. (Goldstein, 1987, p. 19-20)
Marina Garzón Barrios, María Mercedes Ayala, José Francisco Malagón, Isabel Garzón Barragán, Juan Carlos Castillo Ayala / La estática y el concepto de momento de fuerza según Lagrange / P.P. 63-71
69
70
Física y Cultura: Cuadernos sobre Historia y enseñanza de las ciencias - No. 8 , 2014 / ISSN 1313-2143 / Análisis Histórico-Críticos
Pero, lo cierto es que el hecho de que el principio de trabajos virtuales hunda sus raíces en planteamientos como el galileano, descarta de plano todo vínculo y necesidad lógica de la formulación newtoniana; y, por lo tanto, permite pensar en un posible camino independiente, si así se quiere. Además, el que esta formulación se exprese en términos de fuerzas aplicadas y no incluya fuerzas internas o de ligadura; el que las fuerzas y movimientos considerados
estén siempre en la misma dirección; la generalidad del principio; y que problemas que serían demasiado complejos de solucionar desde la perspectiva newtoniana resulten fácilmente operables desde la de Lagrange, la hace una buena candidata para intentar hacer presentaciones de la misma para cursos introductorios de mecánica. Recordemos que en el cuadro 1 se hizo un paralelo que compara las dos perspectivas que tratan una situación particular.
¿QUÉ FUERZA F EJERCEN LAS PAREDES DEL RECIPIENTE?
ANÁLISIS DESDE EL ENFOQUE LAGRANGIANO
2R
P F
F
h
X
* Como x²+h²=4R² entonces 2xdx + 2hdh=0; luego dx=(h/x)dh (1) y como Pdh+2Fdx=0
(2); de (1) y (2) se concluye que F = Px/2h
* Como x=R en la configuración inicial, entonces F=PR/2(3R) 1/2
P F
F
ANALISIS DESDE EL ENFOQUE NEWTONIANO El proceso newtoniano implica considerar todas las fuerzas que éstan actuando sobre las partes del sistema, la mayoría de las cuales son desconocidas. Según la perspectiva utilizada por Lagrange, para determinar las ecuaciones que expresan el equilibrio del sistema, se comienza por suponer una ruptura de su equilibrio en una parte del sistema, la cual producirá en el primer instante un desplazamiento en cada punto del mismo. Los desplazamientos generados en ese instante en las direccionesde las fuerzas son proporcionales a las velocidades virtuales de los puntos en cuestión adquiridas en esas direcciones. El hecho de que la velocidad virtual sea la velocidad adquirida en el primer instante después de la ruptura del equilibrio, tomando en consideración la configuración y ligaduras del sistema (y que estén definidas ante todo por la geometría y restricciones del sistema es lo que sustenta el carácter virtual de ésta.
Referencias Galileo Galilei (1981). Consideraciones y demostraciones matemáticas sobre dos nuevas ciencias. Madrid: Editora Nacional. Goldstein,H. (1987) Mecánica Clásica. Barcelona: Editorial Reverté. Lagrange, J. L. (1965). Mécanique Analytique. París: Libraire Scientifique e Technique Albert Blanchard. Landau, L.D. y Lifshitz, E.M. (1969) Mechanics. London: Pergamon Press. Mach, Ernst (1919). The science of Mechanics . A critical and historical account of its development. ChicagoLondon: The open court publishing co. Saletan, José & Cromer, Alan H.(1971)., Theoretical mechanics. John Wiley & Sons, New York.
Marina Garzón Barrios, María Mercedes Ayala, José Francisco Malagón, Isabel Garzón Barragán, Juan Carlos Castillo Ayala / La estática y el concepto de momento de fuerza según Lagrange / P.P. 63-71
71
Análisis histórico-crítico del fenómeno eléctrico. Hacia una visión de campo An historical-critical analysis of the electrical phenomena. Toward a Field’s Perspective Edwin Germán García Arteaga - Ph.D. Grupo de investigación Ciencia, Educación y Diversidad (CEyD) Universidad del Valle Cali - Colombia edwin.garcia@correounivalle.edu.co
Resumen El presente documento plantea un estudio de caso sobre el carácter fenomenológico de la electricidad estática en la perspectiva de campos, para mostrar la importancia del uso de la historia y filosofía de la ciencia en la construcción y validación del conocimiento científico. Se analizan pasajes, episodios y experimentación original de científicos que aportaron al desarrollo de la electricidad. Posteriormente, mediante un ejercicio de recontextualización del conocimiento científico se definen campos problemáticos para ser tenidos en cuenta en la elaboración propuestas alternas para la enseñanza de la física de campos.
Abstract Relevant aspects of the use of the history and philosophy of science in the construction of scientific knowledge regarding the phenomenological character of electrostatic in a field perspective are shown. Original episodes are analyzed and recontextualized in such way that problematic areas to be taken into account in the development of a didactic alternate route for the introduction to electromagnetism are defined.
Febrero 5 de 2012*Agosto 18 de 2012
Edwin Germán García Arteaga / Análisis histórico-crítico del fenómeno eléctrico. Hacia una visión de campo / P.P. 73-92
73
74
Física y Cultura: Cuadernos sobre Historia y enseñanza de las ciencias - No. 8 , 2014 / ISSN 1313-2143 / Análisis Histórico-Críticos
Palabras Clave Electricidad estática, perspectiva de campos, recontextualización de saberes, enseñanza de la física, historia y filosofía de la ciencia.
Key Words Static electricity, field’s perspective, recontextualization of knowledge, physics teaching, history and philosophy of science.
Edwin Germán García Arteaga Profesor del Instituto de Educación y Pedagogía de la Universidad del Valle. Licenciado con en física y Magister en Docencia de la física de la Universidad Pedagógica Nacional (Bogotá, Colombia).Mater y doctor de la Universidad Autónoma de Barcelona (Barcelona,España) en Didáctica de las Ciencias Experimentales. Coordinador del grupo de investigación Ciencia, Educación y Diversidad en la Universidad del Valle.
El articulo es el resultado de un proceso de investigación iniciado desde los estudios de maestría del autor, pero que lo largo del tiempo ha tenido transformaciones sobre su estructura. La investigación se centra en el uso de la historia de las ciencias con una finalidad pedagógica, en este sentido se identifican los aportes que los cientificos han realizado sobre el fenómeno eléctrico, particularmente los episodios experimentales en los que se evidencian problemáticas e intereses propios. De dicho estudio historico-critico se desprenden elementos de reflexión para realizar propuestas alternas de enseñanza de la fisica basados en métodos constructivistas en torno a la recontextualización de saberes.
La enseñanza de las ciencias en las últimas décadas se ha convertido en una disciplina fértil para la investigación. La inconformidad por la forma como tradicionalmente se enseña la física ha dado lugar a múltiples artículos e investigaciones en todo el mundo, pues las dificultades conceptuales que presentan los estudiantes es evidente (Viennot, 2002). El electromagnetismo es uno de los campos de la física en el que se evidencia que los estudiantes, incluso después de pasar por los cursos de fundamentación, presentan dificultad para explicar aspectos del comportamiento fenomenológico de la electricidad (Furio y Guisazola, 2001, 2008), (García, E., 1999, 2009). Ante este panorama consideramos importante identificar aspectos problemáticos de la enseñanza del electromagnetismo y reconocer los aportes que desde la historia y la filosofía de la ciencia se pueden hacer. Los estudios históricos son cada vez más evidentes y pertinentes para la enseñanza de las ciencias, en particular los estudios sobre la fenomenología de la ciencia. El uso de originales y los análisis histórico-críticos de los mismos brindan aportes que usualmente no son considerados en la enseñanza tradicional de la física, pero que desde la perspectiva sociocultural aportan elementos para la elaboración de propuestas alternas de enseñanza de las ciencias. La propuesta qua aquí se recoge, reconoce el papel de la experimentación exploratoria, las problemáticas que abordaron los científicos y la organización de la experiencia realizada en la construcción del fenómeno eléctrico hacia la perspectiva de campos o de acción contigua.
Enseñar y aprender ciencias La enseñanza-aprendizaje de las ciencias ha sido objeto de interés fundamental por parte de los investigadores en didáctica de las ciencias. Aunque es un campo de estudio bastante amplio, pocas son las preguntas sobre ¿Qué significa realmente saber una disciplina?, esto es; ¿Qué significa saber física? (Pesa, 2004), ya que parece tácito el conocimiento que el docente debe tener de ella. Es acaso dominar todos los contenidos inherentes a ella, ¿puede un físico dominar toda la física? La realidad muestra que no, entonces ¿cuál es la física que un docente en formación inicial debe saber?, en este sentido ¿qué dificultades presenta la enseñanza usual? Aquí se encuentran diferentes posturas entre los investigadores. Hay quienes ubican el problema en la falta de capacidad de los estudiantes en la resolución de problemas, en el uso de las magnitudes físicas relevantes y de las relaciones entre ellas y en la solución de los problemas planteados en los textos, como la hace notar Gil desde 1988. Para otros el problema está en la poca conexión que establecen los estudiantes entre las
leyes y teorías enseñadas y las explicaciones de los fenómenos a que dichas teorías hacen referencia. Moreira, también desde 1998 considera que hay que atender los problemas de comprensión de los estudiantes. Hay investigadores que afirman que la falta de comprensión de los conceptos en los estudiantes se debe a la carencia de un conocimiento de los problemas epistemológicos e históricos que ha tenido el desarrollo de la ciencia. Carles Furio y sus colaboradores iniciaron desde la década de los 90 estudios de caso para mostrar que realmente los estudiantes presentan dificultades porque no existe una enseñanza que reconozca los aspectos históricos y epistemológicos de la ciencia asociados a los procesos de construcción del conocimiento en el aula. Tal vez los estudios considerados sean importantes, pero dejan de lado un aspecto relevante a la hora de pensar la enseñanza de las ciencias, y es que la ciencia corresponde a una actividad cultural. Son muchos los estudios sociales de la ciencia que sostienen que la actividad científica no está por fuera de las necesidades e intereses sociales en los que vive el científico, él está permeado por su contexto cultural y desde allí piensa, construye y valida el conocimiento. El conocimiento científico responde a modos de observar y relacionarse con la realidad, de intervenirla y de transformarla. Así lo indican los múltiples modelos explicativos de la fenomenología en física desde los cuales es posible encontrar interpretaciones diferentes a un mismo fenómeno (véanse los estudios de caso que por ejemplo en electricidad y óptica que realizan Shapin y Shaffer). Si la ciencia es una actividad cultural entonces la importancia de la enseñanza de la física está en el desarrollo y fortalecimiento de “modos” de observar e interactuar con la realidad. Así lo sugiere Guidoni (1990) en el libro “enseñar ciencias” cuando considera que: Es preciso darse cuenta que la “educación científica” significa desarrollo de modos de observar la realidad y de modos de relacionarse con la realidad; que esto implica y supone los modos de pensar, los modos de hablar, los modos de hacer, pero sobre todo la capacidad de juntar todos estos aspectos. (p. 24-25).
La enseñanza de la física debe entonces proporcionar elementos para relacionar los tres aspectos fundamentales de modos de ver y relacionarse con la realidad desde la triada conocimiento, experiencia y lenguaje sugerida también por Guidoni (1990). En este artículo recogemos precisamente una propuesta de intervención educativa a partir de construir formas de ver y organizar el fenómeno eléctrico desde el sentido his-
Edwin Germán García Arteaga / Análisis histórico-crítico del fenómeno eléctrico. Hacia una visión de campo / P.P. 73-92
75
76
Física y Cultura: Cuadernos sobre Historia y enseñanza de las ciencias - No. 8 , 2014 / ISSN 1313-2143 / Análisis Histórico-Críticos
tórico y epistemológico y posteriormente recontextualizar dichas formas en posibilidades de enseñanza, desde una interacción de la triada conocimiento, lenguaje y experiencia para el caso del fenómeno de electricidad estática.
Los libros de texto Las investigaciones actuales en didáctica de las ciencias naturales orientan sus esfuerzos hacia el estudio de los libros de texto (Alambique, 2001), indagan acerca de las intenciones de los autores o de las editoriales (incluso de los ministerios de educación) y el mensaje que quieren transmitir a través del texto, esto es, la retórica. Es claro que en los libros de texto hay estructuras retóricas cuya intención es la de persuadir al lector, influir en su forma de pensar la ciencia y en transformar su mundo, esto es, como lo manifiesta (Izquierdo 2005) utilizan un lenguaje y unas estrategias para persuadir de maneras diferentes. ¿Cuál es la retórica que hay en los libros de física general de introducción a la universidad? Cuando se enseña electromagnetismo, el libro de texto lo hace de una forma tal que busca convencer al lector de que piense la ciencia y la actividad científica de una cierta manera, la que el autor cree más pertinente. Identificar la retórica de los libros de texto es una necesidad en el ámbito de la investigación actual.
La enseñanza tradicional del electromagnetismo La forma como los textos presentan una temática dada es un buen indicio de la manera como es enseñada. Los textos de física general del nivel universitario abordan el electromagnetismo usualmente empezando por la electrostática y culminando con las leyes de Maxwell. Un estudio realizado por nuestro grupo desde el 2005 muestra la secuencia metodológica que suelen seguir los textos (García, 2009). Más o menos se presenta de la siguiente manera: se inicia con experiencias asociadas a frotación entre objetos para justificar enseguida la existencia de “cargas eléctricas”. Las experiencias presentadas sirven para demostrar de modo directo el argumento teórico de la existencia de dos tipos de carga eléctrica —positiva y negativa—, y además que cargas iguales se repelen y cargas diferentes se atraen. En algunos casos, haciendo uso del electroscopio, se muestra cómo “cargar” por conducción y cómo hacerlo por inducción. Hasta aquí llega la experiencia posible, en adelante se entra a “justificar” la acción entre cargas eléctricas puntuales a través de la expresión matemática de la fuerza eléctrica newtoniana, para luego resolver ejercicios del cálculo de fuerzas para distribuciones discretas de carga, acomodados para ejer-
citar la habilidad en el manejo de estas ecuaciones. Luego se presenta la definición de campo y potencial eléctrico, ligados a expresiones matemáticas, con sus respectivos problemas de ejercitación. Se acostumbra presentar las líneas de fuerza como una representación geométrica del campo y este, a su vez, se suele asumir como una representación matemática de la acción que una distribución de carga puede ejercer sobre una carga prueba ubicada en un punto arbitrario del espacio. Así, en términos generales, con frecuencia el campo eléctrico se presenta como un constructo matemático que facilita el cálculo de la acción entre distribuciones de cargas; a lo más se le concibe como un poder originado en el cuerpo cargado y distribuido en el espacio, donde el cuerpo cargado sigue siendo la sede y el origen de la fuerza y no el espacio, como lo debería ser en una teoría de campos propiamente dicha. En los textos universitarios de física general se plantea luego la ley de Gauss y se muestra las ventajas que esta tiene en el cálculo del campo eléctrico producido por distribuciones de carga que tengan cierta simetría. Con estos ejercicios y una miscelánea final se cierra el capítulo de electrostática y se pasa al electromagnetismo, donde se hace una presentación de las ecuaciones de Maxwell con las que el estudiante tendrá que enfrentarse, a la postre, con una doble dificultad: de una parte, por la forma como son presentadas resulta materialmente imposible hacerse una imagen del campo electromagnético, ni siquiera como una “representación”; por otra parte, se exige que se le atribuya una existencia real para hacer pensable las ondas electromagnéticas. Si analizamos con detalle este tipo de presentaciones nos surgen preguntas y preocupaciones como las siguientes: 1. ¿De qué forma es tenida en cuenta la experimentación sobre el fenómeno eléctrico? 2. ¿Qué reconocimiento se presenta de las visiones históricas sobre el desarrollo del electromagnetismo? 3. ¿Qué conceptos fundamentales de la electrostática son considerados? 4. ¿Qué teorías sobre la electricidad se hacen explicitas? Es poco lo que los textos analizados aportan en esta dirección, por lo tanto se hace imperante avanzar en formas alternas de considerar el conocimiento científico para realizar propuestas educativas.
Dificultades en la presentación en textos 1 a. yuxtaposición de imágenes y teorías. b. experimentación subsidiaria del modelo teórico. c. Yuxtaposición de imágenes. En el proceso histórico de construcción del conocimiento en torno a los fenómenos electromagnéticos, es posible reconocer dos formas de organizar dichos fenómenos claramente diferentes y contradictorias entre sí: una, basada en una concepción de acción directa a distancia; y, la otra, que niega la anterior, fundamentada en una idea de acción contigua: la concepción de campos.
Los estudios históricos son cada vez más evidentes y pertinentes para la enseñanza de las ciencias, en particular los estudios sobre la fenomenología de la ciencia. El uso de originales y los análisis histórico-críticos de los mismos brindan aportes que usualmente no son considerados en la enseñanza tradicional de la física, pero que desde la perspectivab sociocultural aporta elementos para la elaboración de propuestas alterna de enseñanza de las ciencias.
La concepción de acción directa y a distancia tiene sus raíces en la visión de mundo de Isaac Newton. En ella se parte de la existencia ontológica del espacio, el tiempo y la materia, independientes entre sí; concibiéndose además espacios vacíos, no ocupados por materia. El espacio es homogéneo e isotrópico. Solo la materia es susceptible de cambios y solo ella puede ser causa de los mismos y sede de la acción; el espacio y el tiempo, entretanto, son inmutables e inertes, son meros recipientes de la materia y de los sucesos, respectivamente. De allí que toda acción entre cuerpos distantes deba ser considerada como efectuada
de forma directa, inmediata. Dada la isotropía del espacio, las fuerzas a distancia deben ser inversas al cuadrado de la distancia entre los cuerpos puntuales que interactúan. En los trabajos de Coulomb y Ampere sobre los fenómenos eléctricos se concreta esta postura; siguiendo el modelo newtoniano de acciones a distancia, estos pensadores asumen respectivamente la acción entre cargas eléctricas puntuales y la acción entre elementos de corriente como fuerzas centrales que varían proporcionalmente con el cuadrado de la distancia que separa los entes en cuestión. Algunas posturas mecanicistas posteriores introdujeron una cierta idea de campo, en unos casos como una representación de la acción de las cargas eléctricas en puntos del medio circundante, y, en otros, como la concreción de un cierto poder del cuerpo electrificado que se extiende por el espacio, pero ligado a este, susceptible de ser descrito por la acción ejercida sobre una carga de prueba ubicada en sus inmediaciones. A este respecto, las consideraciones que hace Hertz (1990) son muy ilustrativas refiriéndose a las maneras de interpretar el acercamiento o alejamiento manifiesto entre cuerpos electrificados desde una perspectiva de acción directa y a distancia: Desde el primer punto de vista, consideramos la atracción de dos cuerpos como una especie de afinidad espiritual entre ambos. La fuerza que ejerce cada uno de ellos está vinculada a la existencia del otro cuerpo. Para que simplemente exista una fuerza tienen que existir al menos dos cuerpos [...] Esta es la concepción pura de fuerza a distancia, la concepción de la ley coulombiana. Desde el segundo punto de vista, seguimos viendo siempre la atracción de los cuerpos como una especie de acción espiritual entre ellos. Pero, aunque concedemos que sólo podemos observar esa acción a distancia cuando tenemos al menos dos cuerpos, admitimos sin embargo que uno solo de los cuerpos en interacción tiene constantemente la tendencia de producir en cada punto de su entorno atracciones de una determinada intensidad y dirección, también cuando no se encuentran en su proximidad otros cuerpos semejantes a él. Con las tendencias de este tipo, que varían punto a punto, llenamos en nuestra concepción el espacio. Con todo, no admitimos en el lugar de la actividad una cierta modificación del espacio, en virtud de la cual podríamos designar ese lugar como sede de la fuerza, sino que el cuerpo actuante sigue siendo a la vez sede y origen de la fuerza. Este punto de vista viene a ser el punto de vista de la teoría del potencial [...] (p. 72).
1. Tomado de la tesis de master de García (2009) que presenta los resultados de una investigación sobre libros de texto universitarios e identifica los problemas fundamentales encontrados.
Edwin Germán García Arteaga / Análisis histórico-crítico del fenómeno eléctrico. Hacia una visión de campo / P.P. 73-92
77
78
Física y Cultura: Cuadernos sobre Historia y enseñanza de las ciencias - No. 8 , 2014 / ISSN 1313-2143 / Análisis Histórico-Críticos
Llama la atención que esta segunda postura, considerada por Hertz como una versión modificada de la concepción de acción directa y a distancia, sea la que suele lograrse a través de la enseñanza del electromagnetismo, que, como bien lo afirma este autor, no es una concepción de campos propiamente dicha. Esta imagen de mundo se contrapone con la de campos, en sentido estricto, imagen desarrollada casi paralelamente a la anterior. En esta visión del mundo no existe la materia discreta, lo que existe ontológicamente es el espacio en el cual se suceden los fenómenos. Los cuerpos son solo regiones del espacio con “propiedades” diferentes. El fenómeno eléctrico es determinado por el estado del espacio: electrificar un cuerpo es perturbar el espacio en una región dada del espacio mismo, perturbación que se extiende a las regiones vecinas afectándose así todo el espacio. La carga, como fuente central de poder, pierde aquí toda su dimensión y pasa a ser una característica del estado del espacio (puntos de divergencia o convergencia del campo eléctrico), el cual es visto como sede de las fuerzas y energía. Sobre la contraposición entre estas dos imágenes, Maxwell (1951) señala en la introducción de su tratado de electricidad y magnetismo lo siguiente: […] Faraday veía líneas de fuerza atravesando todo el espacio donde los matemáticos veían centros de fuerza atrayéndose a distancia; Faraday veía un medio donde ellos no veían más que distancia; Faraday veía la sede del fenómeno en las acciones reales que se daban en el medio mientras que ellos consideraban haberla encontrado en un poder de acción a distancia impreso en los fluidos eléctricos (p. 35).
A lo largo de su tratado, Maxwell aclara la diferencia de visiones y muestra por qué estas no son reconciliables, si bien los “resultados” son análogos. Al respecto, el siguiente pasaje es muy sugestivo: En el teorema de Thompson la energía total del sistema es expresada en la forma de la integral de una cierta cantidad extendida sobre el espacio existente entre los cuerpos electrificados, y también en la forma de una integral extendida sobre las superficies electrificadas únicamente. La igualdad de estas dos expresiones puede ser interpretada físicamente. Podemos concebir la relación física entre los cuerpos electrificados, ya sea como el resultado del estado del medio interviniente, o como el resultado de una acción directa entre los cuerpos electrificados a distancia. Si adoptamos la última concepción, podemos determinar la ley de la acción, pero no iremos más lejos en la especulación
sobre su causa. Si, por el otro lado, adoptamos la concepción de acción a través del medio, nos vemos obligados a indagar por la naturaleza de esa acción en cada parte del medio (p. 42).
Trabajos de investigación posteriores entraron a jugar un papel en la valoración de estas visiones de mundo, siendo la imagen de acción a distancia la afectada. La existencia de ondas electromagnéticas, puesta en evidencia por Hertz, fue imposible de explicar satisfactoriamente desde una concepción de acción directa a distancia, que hacía de la transmisión instantánea de la acción su fundamento. El propio Einstein (1948) lo reconoce en el siguiente comentario: [...] Durante la segunda mitad del siglo XIX se introdujeron en la física ideas nuevas y revolucionarias que abrieron el camino a un nuevo punto de vista filosófico, distinto del anterior mecanicista. Los resultados de los trabajos de Faraday, Maxwell y Hertz condujeron al desarrollo de la física moderna, a la creación de nuevos conceptos que constituyeron una nueva imagen de realidad (p. 96).
No obstante la radical contraposición conceptual entre estas dos formas de abordar los fenómenos eléctricos, en las presentaciones usuales del electromagnetismo hay una total despreocupación por las imágenes de mundo que sustentan las diferentes afirmaciones que se hacen sobre el fenómeno; en los contenidos desarrollados se entremezclan o yuxtaponen indistintamente las imágenes de acción directa a distancia y de campo. Esta yuxtaposición de imágenes es fuente de confusión y se constituye en un gran obstáculo para que el estudiante elabore una imagen coherente del fenómeno y pueda dar cuenta de su experiencia.
La concepción de acción directa y a distancia tiene sus raíces en la visión de mundo de Isaac Newton. En ella se parte de la existencia ontológica del espacio, el tiempo y la materia, independientes entre sí; concibiéndose además espacios vacíos, no ocupados por materia. El espacio es homogéneo e isotrópico.
Entonces, dado que la introducción al fenómeno eléctrico que se suele hacer en los textos se plantea desde una perspectiva de acción a distancia y que tal visión se opone a la de campos, en este artículo se pretende dar elementos para hacer la introducción al fenómeno desde una perspectiva de campos.
Experimentación subsidiaria del modelo teórico Construir el fenómeno a partir de la organización de la experiencia sensible plantea una serie de problemas cuando nos referimos a lo eléctrico, ya que en nuestra cotidianidad no hay una experiencia suficiente que podamos evocar. Si bien se poseen algunos referentes a lo eléctrico en un rayo, una chispa, un “corrientazo” o en los aparatos eléctricos, dicha experiencia no es suficiente para darle significado a las proposiciones de la teoría electromagnética de campos. Es necesario, por lo tanto, construir la experiencia sensible que está en la base de esta teoría y elaborar parámetros para orientar su construcción. A este respecto llama la atención cómo usualmente la experiencia sensible que sirve de referente a la presentación del fenómeno es expuesta correspondiendo o ajustándose de manera directa al argumento teórico. Al introducir el concepto de carga eléctrica, por ejemplo, se suele acudir a los efectos de atracción y de repulsión entre cuerpos electrificados por frotación; la experiencia realizada se presenta como si se acomodara directa y perfectamente con el enunciado de que los cuerpos poseen carga eléctrica, que esta es positiva y negativa, y que cargas iguales se repelen y contrarias se atraen. Los presupuestos que son base de la organización de la experiencia sensible son omitidos. En estas formas de presentación de la experiencia no se distingue, como les decía Faraday a sus contemporáneos, entre la hipótesis y el hecho, entre el enunciado teórico y la experiencia sensible, entre la organización y lo organizado; dándosele de esta manera un carácter realista a las teorías. Y es entendible que ello ocurra, dadas las intenciones que animan a la mayoría de los autores de los textos: presentar los resultados, los puntos de llegada. Una cierta separación entre experiencia sensible y formas de organización se torna imprescindible cuando se trata de involucrarse en la actividad de organizar, construir y ampliar su experiencia en torno a una clase de fenómenos. El énfasis en los resultados y productos que se hace habitualmente en la enseñanza de la física, y en especial del electromagnetismo, difunde una imagen realista de las teorías científicas y del conocimiento científico —que no da espacio a las preguntas, a los supuestos, a los compromisos— a la vez que promueve entre los estudiantes una actitud de subordinación frente a aquello catalogado
como científico. Más aún, el que la experiencia sensible se limite a ciertos enunciados teóricos, se convierte en un obstáculo para que los estudiantes establezcan nexos entre las teorías y su mundo de experiencia.
Análisis histórico – epistemológico del fenómeno eléctrico a. El comportamiento eléctrico de los materiales: William Gilbert Gilbert hacia 1600 publica un estudio sistemático del fenómeno eléctrico, en su libro “De Magnate” propone nuevos elementos en la caracterización de lo eléctrico y su diferenciación de lo magnético, al respecto dice: No es únicamente el ámbar, como ellos suponen, el que atrae cuerpos pequeños, sino también el diamante, el zafiro, el ópalo, la amatista, el cristal, etc. Estas sustancias atraen todas las cosas, y no sólo plumas de ave y pequeños trozos, sino también los metales, madera, piedra, tierra, y también agua y aceite, y todo lo que está sujeto a nuestros sentidos y es sólido (Gilbert, 1600/1952, p. 75).
Esta consideración pone de manifiesto que en principio son muchos los cuerpos de la naturaleza que al ser frotados adquieren la virtud de atraer y no únicamente el ámbar, como se suponía. Gilbert diferencia estas sustancias de la piedra imán, en cuanto que ellas requieren ser frotadas para observar el efecto de atracción, mientras que el imán no. Además las sustancias frotadas pueden atraer cualquier otro cuerpo, sin importar de qué material sea —efecto que se hace visible siempre y cuando sea liviano— mientras que el imán solo lo hace sobre el hierro o sustancias ferrosas. En este sentido clasifica como eléctricas las sustancias que se comportan como el ámbar. Estudiando más detenidamente la atracción eléctrica entre cuerpos frotados, el físico inglés observó que la fuerza de atracción era más notoria al frotar unas sustancias que otras. Sustancias como el ámbar, el vidrio, el azufre, el berilio y muchas otras, atraían con mayor intensidad los pequeños cuerpos; mientras que en sustancias como los metales, era difícil observar su estado de electrificación después del frotamiento: Fuerzas de atracción semejantes la poseen el vidrio, especialmente el limpio y brillante, gemas artificiales hechas de pasta, vidrio o cristal de roca, barras de fluorita y belemnitas. El sulfuro también atrae, como también el “mastich”, la laca, la resina dura y otras. Fuerza de atracción débil la ejercen la sal gema a cierta condición atmosférica, la mica y la roca de aluminio (Gilbert, 1600/1952, p. 76).
Edwin Germán García Arteaga / Análisis histórico-crítico del fenómeno eléctrico. Hacia una visión de campo / P.P. 73-92
79
80
Física y Cultura: Cuadernos sobre Historia y enseñanza de las ciencias - No. 8 , 2014 / ISSN 1313-2143 / Análisis Histórico-Críticos
Debido a que las fuerzas de atracción de algunas sustancias eran débiles para observar el efecto, Gilbert diseñó un instrumento que fuera lo bastante sensible como para poder registrar (lo mejor que fuera posible) esas fuerzas débiles. El instrumento que él denominó Versorium le permitió clasificar una cantidad importante de sustancias según la fuerza de atracción débil o fuerte observada2. Las sustancias que presentaban buena electrificación por frotamiento las denominó “eléctricas” y las que no presentaban efecto de atracción las denominó “no eléctricas”. Para Gilbert, la fuerza de atracción es una característica del cuerpo mismo y no tiene que ver con la intensidad con que se produzca la frotación; es decir, la fuerza o poder de atracción depende más del material que es frotado que de la acción misma de frotar. Aunque Gilbert no menciona el material con que se frotan los cuerpos, la fuerza de atracción que ellos adquieren depende en gran medida de los objetos con que se hace la frotación. Maxwell empieza considerando la frotación entre dos cuerpos, y muestra la importancia del material con que se frota (Maxwell, cap.I, 1951). Llama la atención el contraste de este tipo de trabajo con la forma como se introducen los fenómenos electrostáticos en los libros de texto, que pone de relieve las intenciones diferentes que están en la base de estas dos formas de presentación: en una, la de Gilbert, hay una presentación de los avances en la exploración del fenómeno eléctrico; y en la otra, la de los textos, la exposición de elementos teóricos. En los libros de texto no se asume el comportamiento eléctrico de los materiales como un aspecto a ser analizado: no solo no es contemplado, sino que la forma de presentación del tema hace que esta no sea pertinente y menos aún relevante.
Al introducir el concepto de carga eléctrica, por ejemplo, se suele acudir a los efectos de atracción y de repulsión entre cuerpos electrificados por frotación
2. El Versorium consiste en una aguja montada sobre un soporte fijo, la cual tiene libertad de movimiento sobre su eje. La sensibilidad del instrumento está en que el soporte termina en punta y por lo tanto la aguja puede fácilmente salir de su posición de equilibrio.
Ahora bien, nuestra intención de proveer condiciones para que sea posible iniciar el proceso de organización del fenómeno eléctrico a partir de la experiencia sensible y de su ampliación, y reconociendo que la experiencia más cercana a la electricidad estática es el poder de atracción que adquieren los cuerpos al ser frotados, nos ha permitido ver en el trabajo de Gilbert los elementos para plantear la primera etapa de una posible ruta de organización de los fenómenos eléctricos en el aula.
b. La comunicación de la electrificación: Stephen Gray En la obra de Gray, hacia 1700 encontramos relevante una serie de experiencias en las que se evidencia una preocupación por averiguar qué ocurre con la virtud eléctrica en lugares diferentes a la zona frotada. En uno de los comentarios publicados en la revista inglesa Philosophical Transaction entre 1700 y 1730 (algunos apartes son traducidos al español por Cid, en la enciclopedia Historia de las Ciencias) establece que también evidencian electrificación otros cuerpos que se encuentran en contacto con el frotado. Al respecto dice: Frotando un tubo de vidrio de aproximadamente 3 ½ pies de longitud y sosteniendo una pluma ligera hacia el borde superior del tubo, hallé que se dirigía hacia el tapón, primero atraída y luego rechazada por éste, así como por el tubo mismo. Me sorprendió mucho y concluí de ello que había sin duda alguna virtud atractiva comunicada al tapón por el tubo excitado (En Cid,F.,1980,Vol.2, p.321).
La experiencia resulta significativa por cuanto se pone de manifiesto un nuevo aspecto de la electrificación que no había sido evidenciado hasta el momento: la electrificación no reside solamente en la región del material que ha sido frotada, es comunicada de algún modo a las regiones vecinas que se encuentran en contacto, en cuanto ellas también exhiben el poder de atraer. En el caso mencionado por Gray la electrificación pasa del tubo de vidrio al tapón de corcho. Este descubrimiento, un tanto accidental, le permite a Gray realizar una serie de experiencias en las que analiza el comportamiento de la electrificación al comunicarse en diferentes materiales. Utilizando la pluma como detector, observa que algunos de ellos permiten una mejor comunicación de la virtud eléctrica que otros: […] Teniendo conmigo una bolita de marfil de alrededor de una pulgada y tres décimos de diámetro con un hueco, la fije a un palito de madera de abeto de cerca de 4 pulgadas de largo;
introduciendo el otro extremo dentro del corcho, y habiendo frotado el tubo, encontré que la bolita atraía y repelía la pluma con más vigor que lo que lo había hecho el corcho anteriormente (En Cid,F.,1980,Vol.2, p.321).
De acuerdo con estas experiencias podemos considerar que Gray va más allá en el análisis del comportamiento de los materiales respecto a la comunicación. Cuando dice “más vigor” está considerando que en algunos materiales se presenta una mejor comunicación que en otros; en este caso se evidencia mejor electrificación cuando esta es comunicada al marfil a través del palo de abeto, que al corcho. Sin embargo, si el corcho está más próximo al vidrio frotado que el marfil ¿cómo es posible que este último evidencie electrificación con más vigor?, ¿qué características tiene entonces la comunicación en los distintos materiales?, ¿de qué depende?, ¿del material del cuerpo que sirve de intermediario (palito de madera) o del material del cuerpo que exhibe la virtud eléctrica (bolita de marfil)? Son preguntas que implican un análisis cuidadoso de los materiales. Gray avanza en la caracterización de la comunicación de la electrificación. Así, en una experiencia posterior sustituye el palo de abeto por uno más largo y luego por varillas de hierro y de bronce, y encuentra el mismo efecto de atracción sobre la pluma. El abeto, el hierro y bronce evidencian un comportamiento más análogo entre sí que con el corcho, parecen permitir una mejor comunicación de la electrificación: [...] Luego fijé la bola en palos más largos, primero en uno de 8 pulgadas y luego en otro de 24 pulgadas de largo y encontré el mismo efecto. Entonces usé primero una varilla de hierro, luego una de bronce para fijar la bola, insertando el otro extremo de la varilla en el corcho, como antes, y encontré la misma atracción (En Cid,F.,1980,Vol.2, p.321).
Pero no solo es eso: la longitud de los cuerpos intermediarios en cuestión (palo de abeto y varilla de hierro) parecen no influir mayor cosa en la electrificación comunicada a la bolita de marfil, o más precisamente en el efecto de atracción observado sobre la pluma. Utilizando hilos metálicos como cuerpo intermediario, Gray registra haber detectado efectos cuando la longitud de los mismos eran aproximadamente 240 pies. Gray encuentra, además, que al acercar un cuerpo electrificado a otro, es decir al ser el aire el cuerpo intermediario, el segundo cuerpo también exhibe electrificación: Una esfera de plomo suspendida por un cordel del techo, cuando se acerca un tubo frotado, el plomo atrae y luego repele limaduras de latón (En Cid,F.,1980,Vol.2, p.321).
Pero el efecto de atracción, o el grado de electrificación de la esfera de plomo, depende de la distancia entre esta y el tubo frotado; más aún el efecto deja de ser apreciable cuando la distancia es suficientemente grande. Así, se pone de manifiesto que hay dos formas de comunicar la electrificación: una, donde la electrificación comunicada no depende mayor cosa de la distancia entre el cuerpo electrificado por frotamiento y el cuerpo al que se le comunica la electrificación; la otra, que es totalmente dependiente de esta distancia. Pero es de notar que la diferencia no reside en que una se hace por contacto y otra a distancia; de hecho en los dos casos hay contacto, hay cuerpos intermediarios: varillas metálicas o aire (véase figura 1).
MEDIO DE COMUNICACIÓN:
MEDIO DE COMUNICACIÓN: AIRE
COMUNICACIÓN POR CONDUCCIÓN: EL CAMBIO DE DISTANCIA NO ALTERA SENSIBLEMENTE LA EVIDENCIA DE
COMUNICACIÓN POR INDUCCIÓN: EL CAMBIO DE DISTANCIA ALTERA LA EVIDENCIA DE ELECTRIFICACIÓN.
Figura 1.Comunicación de la electricidad
Estas dos formas de comunicación, que se suelen distinguir con los términos de conducción e inducción, requieren sin duda alguna una mayor caracterización. Faraday, como veremos más adelante aportará mucho a este respecto; más aún se podría asegurar que la teoría eléctrica de Faraday es ante todo una teoría de la inducción. Sin embargo, la siguiente experiencia que relata Gray contribuye a avanzar en este sentido, así como a poner la organización del fenómeno eléctrico en un estado tal que las experiencias sugeridas por Faraday puedan tener significado. El éxito inicial dependía de los soportes de la línea de comunicación: éstos tenían que ser de seda. Cuando la línea que transporta la virtud eléctrica estaba sostenida por los hilos metálicos y el efluvio llegaba a los hilos de suspensión, pasaba a través de éstos a las vigas del techo y no seguía la línea que debía llevarlo al marfil (En Cid,F.,1980,Vol.2, p.321).
El hecho de que desaparecieran los signos de electrificación en la esfera de marfil, o que disminuyeran a tal grado que resultaran indetectables, cuando los hilos metálicos —intermediarios entre el vidrio frotado y la esfera de marfil, y que servían de línea de comunicación— se suspendían del techo por otros hilos metálicos, y no lo hicie-
Edwin Germán García Arteaga / Análisis histórico-crítico del fenómeno eléctrico. Hacia una visión de campo / P.P. 73-92
81
82
Física y Cultura: Cuadernos sobre Historia y enseñanza de las ciencias - No. 8 , 2014 / ISSN 1313-2143 / Análisis Histórico-Críticos
ran cuando fueran usados para ello hilos de seda (véase figura 2); nos permite añadir un nuevo aspecto característico de la comunicación por conducción, así como avanzar en la caracterización del comportamiento eléctrico de los materiales.
HILOS DE SEDA
HILOS METÁLICOS
Figura 2. Conducción a través de una varlla suspendida
Y es que si al reemplazar los hilos de seda por los metálicos el efecto desaparece o disminuye sensiblemente, tal cambio en el estado de electrificación es debido a una causa; causa que puede ser entendida de maneras diferentes dependiendo cómo se asuma la electrificación. Así, si se asume la electrificación de un cuerpo como debida a la presencia de “algo”, el utilizar hilos metálicos para colgar la línea de comunicación parece indicar que “ese algo”, presente inicialmente en la esfera de marfil, desaparece o disminuye sensiblemente en él y se transfiere a otra parte; a las vigas del techo, por ejemplo. Esta es, al parecer, la interpretación que Gray le da a esta forma de comunicación, y que es acogida en cierta forma en los libros de texto. Para Gray, la virtud eléctrica se comporta como una especie de fluido que se propaga siguiendo una cierta trayectoria, dependiendo de los materiales utilizados en la conducción: la madera de abeto y los metales son buenos conductores mientras que la seda no lo es; la seda no parece permitir el paso de la virtud eléctrica; el aire sería también un mal conductor. Sin embargo, esta interpretación tiene problemas cuando se tiene en cuenta que la virtud eléctrica se puede comunicar a través del aire, u otros materiales, por inducción. Ahora bien, si se asume la electrificación como un estado, el que desaparezca de la esfera de marfil todo signo visible de electrificación al ser utilizados hilos metálicos para colgar la línea de comunicación significa, en primer lugar, que la esfera ha cambiado de un estado de electrificación a uno de no electrificación (o muy cercano a este); y si se acepta que todo cambio es debido a una interacción, es decir, que todo cambio se hace a costa de otro (requiere de una causa y esa causa es otro cambio), es de esperar que algo más haya cambiado su estado, su electrificación,
y que dichos cambios entre sí sean iguales y opuestos; involucrando la medida de dichos cambios a aquello que experimenta el cambio. Por ello, se puede inferir que, en este caso, el cuerpo cuyo cambio de estado de electrificación está acoplado al de la esfera de marfil es muchísimo más grande que esta, y que los indicios del cambio de estado que experimenta dicho cuerpo, tierra, sean materialmente indetectables. Interpretados así los hechos empíricos destacados por Gray a través de esta experiencia, es posible concluir la siguiente característica de ese modo de comunicar la electrificación, denominada conducción, que se pone de manifiesto en la misma: hay materiales, los así llamados conductores, que permiten unir cuerpos de modo que los cambios de estados de electrificación que evidencian estén conectados o acoplados entre sí directamente; de esta manera, es posible afectar sensiblemente la distribución de la electrificación, hacer que se den evidencias de electrificación en zonas donde antes no se daban y desaparezcan o disminuyan de zonas donde antes sí se daban.
Para Gilbert, la fuerza de atracción es una característica del cuerpo mismo y no tiene que ver con la intensidad con que se produzca la frotación; es decir, la fuerza o poder de atracción depende más del material que es frotado que de la acción misma de frotar.
Maxwell (1951) asume esta manera de interpretar la conducción al presentar los rasgos característicos de esta forma de transferir la electrificación, y la opone a la transferencia de electrificación por inducción, haciendo notar que la evidencia de electrificación de un cuerpo por inducción no implica cambio alguno en la electrificación del cuerpo inductor y, de otra parte, está relacionada íntimamente con la presencia de este. Faraday, por otra parte, denomina dieléctricos a los medios que transmiten los efectos eléctricos sin conducción, e inducción a la acción que toma lugar a través de estos. Establecer que hay comunicación de la virtud eléctrica es, a nuestro criterio, uno de los grandes aportes de Gray al fenómeno eléctrico, si bien los historiadores y profeso-
res de física suelen destacar su trabajo sobre la clasificación de los materiales en conductores y aisladores; lo cual pone de manifiesto, una vez más, el papel que desempeñan las intenciones en la construcción de la historicidad, en el diálogo que se puede establecer con el pasado. De hecho, la comunicación de la electricidad configura una segunda problemática o centro de actividades en nuestra ruta, que permitirá construir elementos claves de la perspectiva de campos. Primero, porque se pone de relieve que la electrificación no es algo que se localiza en el cuerpo electrificado sino que es posible evidenciarla en todas las regiones del medio que son vecinas, sean estas del mismo o de diferente material, y segundo, porque permite pensar que no existen cuerpos electrificados aislados.
c. El comportamiento dual de la electrificación: Charles Dufay Charles Du Fay, contemporáneo y amigo de Gray, destaca cómo todos los cuerpos de la naturaleza se pueden electrificar por frotamiento, incluso la madera y los metales. Al respecto escribe: Todos los cuerpos pueden electrizarse por sí mismos (por frotamiento). Y todos ellos (madera, metales, licores, etc.) adquieren la virtud eléctrica por aproximación de un tubo de vidrio frotado, a condición de ponerlos encima de un soporte de vidrio o de lacre ( En Cid,F.,1980,Vol.2, p.321).
Muy seguramente las experiencias realizadas por Gray le permitieron a Du Fay entender por qué materiales como los metales no exhibían signos de electrificación al ser frotados y le aportaron los medios para hacerla evidente: si se aislaba debidamente no había problema alguno al respecto. Asimismo, Du Fay destaca que no solamente se pueden electrificar los cuerpos por frotación, como era lo acostumbrado, también se hace posible electrificarlos por influencia o inducción. El metal, ubicado en un soporte aislante, evidencia electrificación cuando se le aproxima un objeto electrificado por frotamiento y cuando este se retira, cuando la influencia cesa, el metal deja de exhibir signos de electrificación. Esta es una forma de electrificar un cuerpo tan genuino como la electrificación por frotación, porque cuando dice “evidencia electrificación” es porque muestra los mismos signos de atracción sobre un detector que pone de manifiesto un objeto electrificado por frotamiento.
Du Fay denomina la electrificación que adquieren los cuerpos por frotación propia y la que adquieren los cuerpos por contacto conducción ajena. Encuentra que los materiales más aptos para adquirir electricidad ajena son los conductores, mientras que materiales buenos aisladores como el ámbar y la ebonita son más aptos para adquirir electricidad propia. Además, los cuerpos buenos conductores son los que resultan más fácilmente atraídos. Bástenos, por el momento, haber reconocido y establecido como principio que los cuerpos menos aptos para convertirse en eléctricos por sí mismos son los que más fácilmente resultan atraídos y los que con más facilidad transmiten a mayor distancia y más abundantemente la materia eléctrica; mientras que los que tienen más disposición en convertirse en cuerpos eléctricos por sí mismos, son los menos apropiados para adquirir una electricidad ajena y para transmitirla a distancia apreciable (En Cid,F.,1980,Vol.2, p.321).
De esta manera, Du Fay reexamina y destaca nuevos aspectos del comportamiento eléctrico de los materiales. También avanza en la organización del fenómeno eléctrico al señalar nuevos rasgos distintivos de las dos formas de comunicación de la electrificación, a partir de los efectos mecánicos observables entre el cuerpo electrificado por inducción y el cuerpo inductor, así como de los efectos mecánicos manifiestos entre cuerpos que son electrificados por conducción a partir de uno electrificado por frotamiento y entre aquellos y este. Así, Du Fay nos hace ver que un cuerpo electrificado por influencia es siempre atraído por el cuerpo inductor, lo que permite establecer que el efecto de atracción es una manifestación mecánica entre dos cuerpos electrificados. Esta es realmente una nueva manera de ver la atracción; antes se consideraba que la electrificación la poseía el cuerpo frotado, y el cuerpo que servía como detector carecía totalmente de electrificación, ahora la atracción es posible si están los dos cuerpos electrificados. De otra parte Du Fay, basado en los trabajos de Hauskbee y sus propias experiencias, y refiriéndose al efecto mecánico manifiesto entre el cuerpo electrificado por conducción y aquel a partir del cual se electrifica, afirma que se exhibe una fuerza repulsiva entre ellos: Cuerpos que se han hecho eléctricos por contacto son repelidos por aquellos que también han sido electrizados (En Cid,F.,1980,Vol.2, p.322).
Edwin Germán García Arteaga / Análisis histórico-crítico del fenómeno eléctrico. Hacia una visión de campo / P.P. 73-92
83
84
Física y Cultura: Cuadernos sobre Historia y enseñanza de las ciencias - No. 8 , 2014 / ISSN 1313-2143 / Análisis Histórico-Críticos
pero este efecto tiene más implicaciones. La afirmación compromete directamente la repulsión como un efecto debido a la electrificación de los cuerpos; para que se presente repulsión entre dos cuerpos ambos deben estar electrificados: al acercar un cuerpo frotado A a otro cuerpo inicialmente neutro B, pero que debido a tal aproximación se electrifica por influencia o inducción, se observa atracción entre ellos; si después hay contacto entre ellos, conduciéndose la electrificación, entonces lo que se observa a continuación es un efecto de repulsión. Esto quiere decir que tanto la atracción como la repulsión son debidas a la electrificación de los cuerpos. Resulta, así, relevante denotar cómo el efecto de repulsión entra a ser significativo en la organización del fenómeno eléctrico y la atracción deja de ser la evidencia privilegiada que hasta el momento había sido. Además, como ya vimos, la atracción y la repulsión dan cuenta del tipo de comunicación de electrificación que se ha dado entre los cuerpos: al electrizar por frotación un objeto A y ponerlo en contacto con otro B (conducción de la electrificación), el efecto entre ellos es de repulsión; pero si solo se aproxima a B (comunicación de la electrificación por influencia o inducción) el efecto entre ellos es de atracción. Pero, Du Fay va más allá; se pregunta si un cuerpo electrificado por conducción repele de la misma manera a todos los cuerpos electrificados independientemente de su forma de electrificación, y si los cuerpos electrificados difieren únicamente en su grado de electrificación; pregunta que le permitió evidenciar que hay dos tipos de electrificación: [...] Pero, ¿son repelidos de igual forma por todos los posibles cuerpos electrizados? ¿Difieren únicamente los cuerpos electrizados en su grado de electrificación? Un examen de estas cuestiones me llevó a un descubrimiento que nunca hubiera previsto [...] (En Cid,F.,1980,Vol.2, p.322). Este principio es que existen dos tipos de electricidad muy diferente una de la otra; la una la llamo electricidad vítrea y a la otra electricidad resinosa. La primera es la del vidrio, cristal de roca, pelo de animales, lana y otros cuerpos; la segunda es la del ámbar, copal, goma seda, hilo papel y un vasto número de otras sustancias. La característica de estas dos electricidades es que los cuerpos de la electricidad vítrea repelen a los de la misma electricidad y, por el contrario atraen a aquellos de electricidad resinosa.
Si un objeto A, electrificado por frotamiento, (véase la fig. 3) se acerca a un cuerpo metálico B, inicialmente no electrificado, se observa un efecto de atracción. Luego, si B entra en contacto con A, se presenta el efecto de repulsión entre ellos. Ahora bien, si acercamos otro cuerpo C
electrizado de alguna manera al objeto A, se puede presentar que el efecto sea, o bien de atracción, o bien de repulsión. Si el efecto es de repulsión, entonces los objetos B y C manifiestan un mismo comportamiento con relación a A —son repelidos por y repelen a A— y se dirá en consecuencia que tienen el mismo tipo de electrificación; pero si C es atraído por A, entonces B y C presentan comportamientos opuestos con relación a A —C es atraído por A mientras que B es repelido por este— y se dirá, por ende, que tienen electrificaciones opuestas.
A
B
A
B
A
B
B A
A
B
Figura 3. Las dos electricidades según Du Fay
Du Fay, con la firme convicción de que comportamientos iguales frente a un cuerpo electrificado de referencia (en nuestro caso, cuerpo A) significan la misma clase de electrificación y comportamientos distintos diferente clase de electrificación, pone en evidencia la existencia de dos tipos de electrificaciones. Al examinar además las acciones mecánicas entre cuerpos con la misma clase de electrificación y con electrificaciones opuestas, puede concluir que hay repulsión en el caso de electrificaciones de la misma clase y que hay atracción entre electrificaciones opuestas. Puede concluir, a su vez, que cuando un cuerpo es electrificado por conducción, este adquiere electrificación del mismo tipo que la del cuerpo a partir del cual se electrifica. Esta perspectiva de trabajo posibilita también caracterizar la inducción en términos del tipo de electrificación. De una parte, dado que entre el cuerpo inductor y el inducido se presenta una acción atractiva, es de esperar que el tipo de electrificación del cuerpo inductor sea opuesto al del cuerpo al cual se le induce la electrificación, por lo menos en lo que respecta a las partes que se enfrentan. De otra parte, se puede mostrar que la parte más alejada del cuerpo que exhibe electrificación por inducción tiene una electrificación del mismo tipo que la del cuerpo inductor.
d. La inducción eléctrica: Michael Faraday Con el análisis de los escritos de Du Fay y Gray ha sido posible reconocer tres formas de electrificar los cuerpos: por fricción, por inducción y por conducción. Sin embargo, resulta relevante para la propuesta de la ruta didáctica avanzar aún más en la caracterización de estas formas de electrificación, de tal manera que sea posible construir explicaciones y enriquecer la experiencia sensible. En esta dirección son fundamentales los aportes que Faraday ya en el siglo XIX hace en torno a la inducción eléctrica. En la teoría de campos propuesta por Faraday, la inducción eléctrica es más que una de las formas de electrificar los objetos, es el elemento central y organizador de toda la teoría y a partir del cual se articulan las explicaciones de los fenómenos eléctricos. En una de las cartas enviadas a A. R. Philips (1843) de la Royal Society, titulada “Sobre la acción inductiva electrostática”, comenta que los principios de la acción eléctrica inductiva son aceptados por muchos con cierto grado de duda u obscuridad, lo que hace que se les reste importancia; por eso, presenta una serie de experiencias con las que pretende darle el estatus como elemento organizador de la teoría. En la primera experiencia presentada en esta carta, examina la electricidad inducida en un recipiente metálico por un objeto electrificado ubicado en su interior. Al respecto comenta: Represente A en el diagrama una enfriadora de peltre aislada, de diez pulgadas y media de altura y siete pulgadas de diámetro conectada por un alambre con un delicado electrómetro de hoja de oro E, y sea C una esfera de latón aislada por un hilo seco de seda blanca [...] a medida que C entra al recipiente A la divergencia de E aumentará hasta que C esté alrededor de tres pulgadas del borde del recipiente y permanecerá casi estacionaria y sin modificarse para cualquier descenso de ahí en adelante. Esto muestra que la acción inductiva es completamente ejercida sobre el interior del recipiente y en ningún grado directamente sobre los objetos externos (Faraday, 1843, carta a A. R. Philips).
Faraday demuestra que después de cierta profundidad las hojas del electrómetro no se modifican, así el objeto inductor se mueva en cualquier dirección. A continuación, Faraday plantea que la acción inductiva es igual en cantidad y poder a la acción debido a la conducción y que, por lo tanto, las dos no se diferencian en su principio de acción; para ello se remite a la siguiente experiencia:
Si C es meramente suspendida en A, ella actúa sobre el (recipiente) por inducción desarrollando electricidad de su propia clase sobre el exterior de A, pero si C toca a A su electricidad es entonces comunicada a él, y la electricidad que está positivamente en el exterior de A puede ser considerada como aquella que estaba originalmente en el portador C. Como este cambio, sin embargo, no produce ningún efecto en las hojas del electrómetro esto prueba que la electricidad inducida por C y la electricidad en C son precisamente iguales en cantidad y poder.
No es posible, entonces, diferenciar la electrificación por inducción de la electrificación por conducción a partir de sus efectos, ya que ellos son iguales tanto cualitativa como cuantitativamente. Si se tiene un conductor en el interior de un recipiente metálico no se puede establecer si la electrificación observada por un electrómetro en el exterior del recipiente es por inducción o por conducción. El mismo Faraday lo dice de la siguiente manera “una cierta cantidad de electricidad que actúa en el centro de A ejerce exactamente el mismo poder externamente ya sea si actúa por inducción a través del espacio entre éstos y A o si es transferida por conducción a A”. Faraday va más allá en la caracterización de la inducción eléctrica y plantea que ella es debida a la acción del medio en el cual se desarrolla; de modo que lo que para los textos está determinado solamente por la distancia, para él es totalmente dependiente del medio interpuesto. No establece diferencia entre el comportamiento eléctrico del vacío y el de los medios materiales dieléctricos; por eso, la inducción eléctrica y la polarización eléctrica son nociones coincidentes para él; es más, desde su perspectiva, en condiciones estáticas la carga “observada” sobre las superficies de los conductores no es más que un efecto residual del estado de inducción o polarización del medio dieléctrico en la interface con el conductor. La polarización no es un estado de electrificación propiamente dicho, ya que la carga neta del dieléctrico sigue siendo nula. Al igual que la inducción, la polarización depende de la distancia entre los cuerpos electrificados que ejercen la acción y el polarizado; entre más cerca estos se encuentren de la zona que ha de polarizarse mayor es su polarización, y viceversa. En tal efecto no se considera que las características del medio que se encuentra entre los cuerpos electrificados y la región polarizada afecten el grado de polarización alcanzada por esta última; consideración que es concordante con el supuesto de que toda acción eléctrica se origina en los cuerpos cargados y que la acción de estos se ejerce a distancia de manera directa.
Edwin Germán García Arteaga / Análisis histórico-crítico del fenómeno eléctrico. Hacia una visión de campo / P.P. 73-92
85
86
Física y Cultura: Cuadernos sobre Historia y enseñanza de las ciencias - No. 8 , 2014 / ISSN 1313-2143 / Análisis Histórico-Críticos
Como hemos dicho, para Faraday, polarización e inducción son dos términos para mencionar el mismo efecto, la misma acción. La acción inductiva es una acción sobre y por el medio: es una acción contigua que se transmite de una parte de medio a las partes vecinas y así sucesivamente; de modo que la forma como se propaga y se distribuye tal acción depende de las características del medio. Basado en esta imagen de la acción eléctrica, a través de una serie de experiencias, Faraday demuestra que a distancias iguales pero en medios diferentes los efectos observados son también diferentes; la siguiente cita es muy ilustrativa al respecto: Dos placas metálicas B y C, ubicadas simétricamente en aire con relación a una tercera A cargada positivamente (véase la figura 4), se le suspendían desde sus superficies externas sendas láminas de oro. Cuando las placas, y con ellas las láminas de oro, eran sacadas del aislamiento al mismo tiempo (conectadas a tierra) y luego eran nuevamente aisladas estando en el mismo dieléctrico; las láminas de oro colgaban paralelas entre sí. Pero al introducir laca entre las placas paralelas A y C se observó que las láminas se atraían mutuamente. A
C
Aire
B
Aire
A
C
Aire
B
Aire
A
C
Aire
B
Aire
A
C
Laca
B
Aire
Figura 4: la acción inductiva según Faraday
Los resultados de esta experiencia ponen de manifiesto la influencia efectiva que tiene el medio en la acción inductiva que se realiza a través de él, y niega, en consecuencia, que la acción inductiva sea una acción directa y a distancia. Es claro, que si se asume esta última perspectiva —la acción inductiva como una acción directa y a distancia— ningún cambio ha de esperarse al reemplazar un medio por otro, rompiendo la simetría. Si por el contrario, se piensa que el medio define la acción inductiva, es de esperar que dicha sustitución produzca un efecto sensible. De acuerdo con Faraday los materiales que conforman el medio se pueden distinguir por la capacidad inductiva específica; para la experiencia propuesta la capacidad inductiva de la laca es mayor que la del aire.
e. La cuantificación de la electrificación: James Clerk Maxwell Ya se han comentado algunas de las experiencias y problemáticas de Maxwell hacia finales del siglo XIX, relacionadas con los problemas de conducción y de comportamiento dual de la electricidad. Sin embargo, hay otras que contribuyen a la organización de la electrificación como una magnitud cuantificable. En la primera parte del tratado sobre electromagnetismo de James C. Maxwell, se encuentra una problemática suya por caracterizar el comportamiento eléctrico desde un enfoque fenomenológico, en el que construye, a partir de experiencias de frotación, la condición eléctrica de inducción y conducción y, a partir de ellas, la cuantificación de la electrificación.
Para Maxwell, los efectos de atracción o repulsión solo son posibles de observar entre cuerpos electrificados, es decir que no se puede presentar el caso en que un objeto electrificado pueda atraer a otro no electrificado. Por ejemplo, al frotar una barra de plástico y acercarla a un papelito (inicialmente no electrificado) debe ocurrir que este último adquiera un tipo de electrificación que le permita atraerse con la barra. Maxwell (1951) lo comenta de la siguiente manera: Ninguna fuerza, ya sea de atracción o de repulsión, se puede observar entre un cuerpo electrificado y uno no electrificado. Cuando en cualquier caso cuerpos que no estaban electrificados previamente, se comportan como un cuerpo electrificado es debido a que se han electrificado por inducción (Maxwell, J.C, 1891/1954, Vol1, p. 77).
Al expresar que los cuerpos que antes no estaban electrificados, ahora lo están por inducción, Maxwell está afirmando que es posible que los cuerpos puedan evidenciar una condición eléctrica diferente a la frotación, y es esta condición la que hace posible que se pueda observar un efecto de atracción entre los dos cuerpos electrificados; uno por frotación y el otro por inducción. Es importante anotar aquí que la inducción es asumida por Maxwell como un cierto estado que adquieren los cuerpos al ser afectados por la influencia de electrificación de un cuerpo cercano. Otro aspecto que se encuentra relevante en Maxwell es que hace posible una caracterización de los estados de electrificación de los cuerpos a partir de los efectos observables. En este sentido establece que la electrificación adquirida por dos cuerpos que son frotados entre sí es igual y opuesta. Para tal efecto propone una experiencia en la que al introducir un cuerpo electrificado en un recipiente metálico aislado y cerrado, se observa que el recipiente evidencia electrificación por inducción, si a continuación se introduce el otro cuerpo con el que fue frotado el primero, se observa que la evidencia de electrificación en el metal desaparece, lo que lo lleva a concluir que los dos estados de electrificación son iguales y opuestos. Ello le permite obtener una unidad de electrificación, que posteriormente podrá cuantificar. Al respecto dice: Así hemos obtenido un método para cargar un recipiente con una cantidad de electricidad exactamente igual y opuesta a la de un cuerpo electrificado sin alterar la electrificación de este último, y de esta manera podemos cargar cualquier número de recipientes con exactamente iguales cantidades de electricidad de cualquier clase, que podemos tomar unidades provisionales (p. 85).
De lo anterior se desprende la idea en Maxwell de caracterizar la electrificación como un estado del medio. Es decir, una manera de estar de la electrificación en un momento dado. Este estado es posible de cuantificar, y Maxwell construye el procedimiento para ello. Para lograrlo utiliza otro recipiente metálico más grande y propone la siguiente experiencia: Un recipiente metálico B cargado (por inducción) con una cantidad de electricidad positiva conocida, que por el momento llamaremos unidad, se introduce dentro de un recipiente aislado mayor C (véase la figura 5). si se hace tocar B con el interior de C y se retira luego, se observará que B quedó completamente descargado y que C se cargó con una unidad de electricidad positiva. (p. 87)
Mediante este procedimiento, y repitiéndolo varias veces, es posible, entonces, cargar, con unidades de electricidad compatibles un cuerpo metálico. De tal manera que la electrificación total del cuerpo C será igual a la suma algebraica de la unidad de electricidad.
Edwin Germán García Arteaga / Análisis histórico-crítico del fenómeno eléctrico. Hacia una visión de campo / P.P. 73-92
87
Figura 5: Cuantización de la carga según Maxwell
88
Física y Cultura: Cuadernos sobre Historia y enseñanza de las ciencias - No. 8 , 2014 / ISSN 1313-2143 / Análisis Histórico-Críticos
Figura 5: Cuantización de la carga según Maxwell
El considerar que los efectos de atracción o repulsión solamente se pueden observar en cuerpos electrificados, permite analizar el papel que juega el detector en las experiencias de frotación. En la ruta se considera, inicialmente, al detector como un elemento auxiliar, mediante el cual es posible registrar efectos observables de objetos electrificados, por eso la única condición del detector es que sea liviano y sensible. Sin embargo, a medida que se elabora la ruta, la idea del detector se modifica de tal manera que este deja de ser un elemento y pasa a convertirse en una región más del medio electrificado. Maxwell no hace un estudio del detector que utiliza en sus experiencias, porque no es un problema a desarrollar, simplemente lo considera como un par de hojas de oro, bastante sensibles, y cuyo efecto observable entre ellas es repulsión. No obstante, para la ruta resulta significativo el poder diseñar un detector que, además de ser sensible y liviano, permita observar efectos de atracción (el efecto fundamental con el que se empieza la organización del fenómeno eléctrico). En este sentido se propone utilizar un hilo conductor que este suspendido de un soporte y cuyo movimiento sea posible en todas las direcciones.
Para Maxwell, los efectos de atracción o repulsión solo son posibles de observar entre cuerpos electrificados, es decir que no se puede presentar el caso en que un objeto electrificado pueda atraer a otro no electrificado.
Otro aspecto que resulta importante es la manera como Maxwell construye de manera fenomenológica la cuantificación de la electrificación o carga eléctrica. Los libros de texto usualmente introducen el concepto de carga como una definición operatoria en la que no hay posibilidad de comprensión de la electrificación como una magnitud cuantificable. Se hace posible, desde la ruta, llegar de forma natural a una cuantificación de la electrificación. A partir de la indagación de las formas de comunicación, inducción y conducción, surge como problemática la igualdad de los estados de electrificación, en la que resultan ser iguales y opuestos, lo que lleva a un esquema de organización donde se considera la conservación de la electrificación del medio como un todo.
Elementos para una ruta alterna de enseñanza del fenómeno eléctrico en la perspectiva de campos La ruta tiene dos rasgos característicos que la diferencian de otras propuestas alternativas para la enseñanza del electromagnetismo, y que se configuran a partir de la intención que nos anima en su construcción. De una parte, con la ruta planteada buscamos proveer las condiciones y el contexto conceptual para que la indagación y elaboración de criterios sobre la forma y factores que intervienen en la distribución de la electrificación en el espacio entre los cuerpos electrificados se constituya en la problemática central en torno a la cual orientar los esfuerzos de organización del fenómeno eléctrico. En este sentido, la ruta ha de mirarse como una primera fase en la organización del fenómeno eléctrico en la perspectiva de campos, o, en otras palabras, como una introducción a la electrostática en esta perspectiva. Para ello hemos tenido en cuenta los siguientes aspectos de la concepción de campos: 1. Los procesos y cambios no se efectúan únicamente en los cuerpos materiales; el espacio existente entre ellos también es sede de cambios. 2. Se puede pensar entonces en un medio continuo (ya sea espacio o medio material) donde los cuerpos pueden asumirse como regiones del medio que solo se distinguen en el valor de las “propiedades” de aquellas zonas desprovistas de materia (vacío), su diferencia no es de naturaleza o cualidad sino de magnitud o cantidad. 3. Lo que acontece en un lugar es debido a lo que está en ese lugar y no debido a algo que se encuentra en otra parte. Visto así, la electrificación no es una propiedad referida a los cuerpos sino que es un comportamiento del medio continuo que llena todo el espacio (o del espacio como tal) que se distribuye a todas sus regiones o partes. Por otro lado, con la ruta pretendemos generar condiciones para involucrar a maestros y estudiantes en la actividad de organizar, construir y ampliar su experiencia en torno al fenómeno eléctrico; posibilitando la confrontación con la experiencia sensible (saber qué se explica, qué se organiza), la elaboración de criterios de organización y de explicaciones, así como el establecimiento de una
Edwin Germán García Arteaga / Análisis histórico-crítico del fenómeno eléctrico. Hacia una visión de campo / P.P. 73-92
89
90
Física y Cultura: Cuadernos sobre Historia y enseñanza de las ciencias - No. 8 , 2014 / ISSN 1313-2143 / Análisis Histórico-Críticos
relación “dialógica” con los diferentes textos que informan sobre dicho fenómeno. Así, en la configuración de la ruta hemos hecho un especial énfasis en los procesos (más que en los resultados). Por ello hemos tenido en cuenta lo que es posible hacer en cada etapa; en particular, hemos puesto un cuidado especial en los medios de producción y observación de nuevos efectos en la realización de las diferentes actividades “experimentales”; estos medios deben ser expresiones de la comprensión lograda hasta el momento sobre el fenómeno (en otras palabras, las formas y aparatos utilizados deben ser “transparentes” para quienes las utilizan); se garantiza, así, que sea posible la interpretación de los efectos observados y avanzar en el proceso de ampliación y organización del fenómeno. Con el avance en el proceso se espera ir logrando un mayor control y “eficiencia” en la producción de los efectos deseados. En síntesis, se busca que las actividades propuestas para abordar los fenómenos electrostáticos permitan a las personas que se vinculen a su realización enriquecer su experiencia sensible, extraer a partir de la experiencia conclusiones que le sean significativas, lograr un mayor control en la producción de efectos, organizar una imagen en torno a lo electrostático en la perspectiva de campos, posibilitar explicaciones ligadas a la experiencia misma y contrastar su conocimiento del fenómeno con la información que circula en los medios tradicionalmente aceptados. La ruta propuesta se estructura a través de núcleos de actividades que permiten explorar el fenómeno electrostático en varios aspectos, que denominamos “núcleos de actividad”, y con los cuales se busca proveer las condiciones en los sentidos arriba planteados: •• Electrificación por frotamiento y atracción como indicio de electrificación. •• Comunicación de la electrificación y formas de comunicación. •• Efectos mecánicos entre cuerpos electrificados, clases de electrificación y caracterización mecánica de las formas de electrificación y de comunicación. •• Cuantificación y conservación de la electrificación.
1. Sobre la electrificación por frotamiento y la atracción como indicio de electrificación Si bien las experiencias más cercanas sobre electrostática que tenemos están relacionadas con la frotación entre dos objetos, es muy poco, o nada, lo que se conoce sobre el comportamiento eléctrico de materiales particulares al ser frotados. La exploración del comportamiento eléctrico de los materiales, a partir de la frotación, la planteamos, pues, como el centro de actividades desde el cual iniciar la organización y ampliación del fenómeno eléctrico. Estas actividades se pueden articular a aspectos tales como: a) los materiales que permiten evidenciar mayor fuerza de atracción; b) la construcción de detectores más sensibles; y c) las diferencias entre este fenómeno y aquellos que también se caracterizan por exhibir efectos atractivos (magnetismo y gravitación).
2. Sobre la comunicación de la electrificación y formas de comunicación La atracción de cuerpos livianos se ha asumido hasta el momento como evidencia de la electrificación del cuerpo hacia el cual se dirige. Este es el punto de partida que, a su vez, se va a poner en cuestión a lo largo de este núcleo de actividades, organizado en torno a tres aspectos que se complementan: a) comunicación de la electrificación; b) inducción y conducción como formas de comunicación de la electrificación; c) transformación de la distribución de la electrificación.
3. Efectos mecánicos entre cuerpos electrificados A partir de la consideración de que no existen cuerpos aislados electrificados sino que es el medio mismo el que evidencia electrificación, y de caracterizar la inducción y la conducción como formas de comunicación de la electrificación a través de este, podemos ahora en un nuevo núcleo de actividades mirar el comportamiento mecánico entre cuerpos o regiones del medio electrificado. Así, se puede examinar cuál es el efecto mecánico entre dos objetos que han sido electrificados por frotamiento entre sí, o bien entre un objeto electrificado por frotamiento u otra manera y otro electrificado por inducción a partir del primero, entre un cuerpo electrificado por frotamiento u otra manera y un cuerpo electrificado por conducción a partir de este. Este tipo de situaciones posibilita una organización de los efectos mecánicos observados de tal manera que la persona esté en condiciones de establecer, por ejemplo, que
entre dos objetos electrificados, de manera que la electrificación de uno se obtiene por conducción a partir del otro, evidencian repulsión; si la electrificación de uno se obtiene por inducción a partir del otro, el efecto es de atracción; y entre cuerpos electrificados entre sí por frotamiento, el efecto es atractivo. En cualquier otro caso el efecto puede ser atractivo o repulsivo.
4. Efectos mecánicos y clases de electrificación El hecho de que haya dos tipos de manifestaciones mecánicas, atracción o acercamiento de los cuerpos y repulsión o alejamiento, permite clasificar cualquier conjunto de cuerpos electrificados en dos subconjuntos; los cuerpos electrificados pertenecientes a uno de ellos siempre producen un efecto repulsivo con un cuerpo electrificado C, mientras que los cuerpos del otro subconjunto producen el efecto contrario. Se puede mostrar que la clasificación no varía al cambiar el cuerpo electrificado de referencia C. Una actividad en este sentido permitiría evidenciar porqué se habla de dos tipos de electrificaciones. Por otro lado, se puede examinar también los efectos mecánicos entre cuerpos electrificados que son de la misma clase y cuerpos electrificados que son de clase diferente; posibilitando con ello saber en qué se basan afirmaciones como las siguientes: “cargas del mismo signo se repelen y cargas de diferente signo se atraen”.
5. Representando el “estado de stress” del medio Recogiendo las experiencias y reconociendo que la acción no es entre los dos objetos si no hacen parte del medio que como un todo evidencia electrificación y que la acción mecánica proviene del mismo medio, entonces, es posible entrar a caracterizar cómo son las acciones que se dan en el medio que responden a efectos de atracción o repulsión. Para ello puede pensarse el medio como un resorte que se estira o se comprime dependiendo de las condiciones a las que es sometido. Por ejemplo, si entre dos objetos hay atracción entonces el medio actúa como un resorte que se comprime, pero si hay repulsión entonces actúa como un resorte que se estira.
tres aspectos: a) Comparación de estados de electrificación; b) Comparación de cambios de estado de electrificación; c) Producción de una unidad provisional de electrificación, de cantidades de electrificación en relaciones definidas y calibración de electroscopios.
Conclusión La importancia de los estudios históricos para la enseñanza de las ciencias permite, entre otros aspectos, identificar episodios históricos cuyo aporte haya sido significativo para el avance del conocimiento científico, identificar problemáticas fundamentales en el marco de corrientes de pensamiento y rescatar hechos científicos que por su naturaleza no suelen ser considerados por los historiadores de la ciencia pero que resultan de un gran valor para la enseñanza de las ciencias. La incidencia de la historia de la ciencia en la enseñanza de las ciencias permite mirar con nuevos ojos los viejos problemas del conocimiento. Saber física implica pensar los problemas que los científicos han enfrentado en la construcción del conocimiento científico y no solamente sus productos o resultados; en este sentido, el recurso de los textos originales resulta de gran ayuda, ya que se promueve el sentido de diálogo con el autor y se destacan los hechos y problemas relevantes que en nuestro caso hacen énfasis en la experimentación temprana en torno al fenómeno eléctrico, pero orientados por la corriente de pensamiento de campos que fue muy productiva en el desarrollo del electromagnetismo. Es precisamente desde estos aportes que tienen sentido las propuestas alternas de enseñanza de las ciencias que consideran la ciencia como una actividad cultural, ya que ellas permiten sugerir núcleos de actividades que fomentan la experimentación y la construcción dialógica del conocimiento en el aula.
6. Cuantificación y conservación de la electrificación Con este núcleo de actividades se pretende mostrar que la electrificación es susceptible de ser cuantificada y con ello la construcción de una magnitud física extensiva que da cuenta de la electrificación: cantidad de electrificación (equivalente a la carga eléctrica pero sin asignarle un carácter ontológico). El núcleo se desarrolla en torno a
Edwin Germán García Arteaga / Análisis histórico-crítico del fenómeno eléctrico. Hacia una visión de campo / P.P. 73-92
91
92
Física y Cultura: Cuadernos sobre Historia y enseñanza de las ciencias - No. 8 , 2014 / ISSN 1313-2143 / Análisis Histórico-Críticos
Referencias Alambique (2001). Monográfico sobre Libros de texto 11. Barcelona: Editorial Grao.
Gilbert, W. (1600/1952). De magnete. Mexico: Editorial Limusa.
Ayala, M. M., Malagón, F., y Guerrero, G. (2004). La enseñanza de las ciencias desde una perspectiva cultural. Física y Cultura. Universidad Pedagógica Nacional
Granes, J. (1997). La educación como recontextualización. Momento, 14-15.
Bachelard, G. (1993). La formación del espíritu científico [19ª Ed.]. Buenos Aires: Editorial Siglo XXI. CID, F. (1980) Historia de las Ciencias, Vol 2. Editorial Planeta, Barcelona, España. Driver, R. (1998). Un enfoque constructivista para el desarrollo de currículos en ciencias. Enseñanza de las ciencias, 6(2). Einstein, A., y Infield, L. (1983). La evolución de la fisica. Editorial Biblioteca Científica Salvat. Buenos Aires Faraday, M. (1852). Sobre la acción inductiva estática [carta enviada a Philips, A. R.]. Lond. And Edinb. Phil. Mag. 1843, vol. 22. Faraday, M. (1839-1855/1971). Experimental researches on electricity [vols. 1-3]. Buenos Aires: Editorial Universidad de Buenos Aires. Furio, C. (2001). Deficiencias epistemológicas en la enseñanza habitual de los conceptos de campo y potencial eléctrico. Enseñanza de las ciencias, 15(2). García, E. (1999). Construcción del fenómeno eléctrico en la perspectiva de campos. Elementos para una ruta pedagógica (Tesis de maestría). Universidad Pedagógica Nacional, Bogotá. García, E. (2009). Retórica de los textos universitarios de física en la presentación de la electrostática (Tesis de máster). Universidad Autónoma de Barcelona, Barcelona. Gil, E. (1998). El fracaso en la resolución de problemas de física: una investigación orientada por nuevos supuestos. Enseñanza de las Ciencias, 6(2).
Guidoni, P., Arca, M., y Mazzoli, P. (1990). Enseñar ciencia. Cómo empezar: reflexiones para una educación científica de base. Editorial Paidos. Barcelona. Guisasola, J., Zubimendi, J., almundi, J., y Ceberio, M. (2008). Dificultades persistentes en el aprendizaje de la electricidad. Estrategias de razonamiento de los estudiantes al explicar fenómenos de carga eléctrica. Enseñanza de las Ciencias, 26(2). Hertz, H. (1990). Las ondas electromagnéticas [Selección de Manuel García y Xavier Roqué]. Bellaterra, España: Publicaciones de la Universidad Autónoma de Barcelona y Ediciones de la Universidad politécnica de Cataluña. Izquierdo, M. (2005). Estructuras retóricas en los libros de ciencias. Tarbinya, 36. Izquierdo, M. (2004). La función retórica de las narraciones en los libros de texto. Enseñanza de las Ciencias, núm. extra, VII Congreso de Enseñanza de las Ciencias. Maxwell, J. C. (1891/1954), Treatise on Electricity and Magnetism, Vol. 1 Dover Publications, New York. Maxwell, J. C. (1951). A treatise of electricity and magnetism [vol. 1] New York: Dover Publications. Moreira, M., y Greca, I. (1998). Modelos mentales y aprendizaje de física en electricidad y magnetismo. Enseñanza de las Ciencias, 16. Pesa, M. (2004). ¿Qué significa conocer la disciplina científica que enseñamos? Memorias IV Escuela latinoamericana de Investigación, Investigación en Enseñanza de la Física, Cuba. Viennot, L. (2002). Razonar en física: la contribución del sentido común. Madrid: Editorial A. Machado Libros.
Estudios Epistemol贸gicos 93-122
Teoría y experimento, una relación dinámica: Implicaciones en la enseñanza de la física Theory and experiment, a dynamical relationship Implications for physics teaching. José Francisco Malagón Sánchez Departamento de Física - Universidad Pedagógica Nacional Bogotá D.C. -- Colombia jmalagon@pedagogica.edu.co
Resumen Generalmente se afirma que la física es una ciencia de carácter experimental. No obstante el consenso que hay a este respecto, la forma como se asume el papel que desempeña el experimento en la constitución y validación de las teorías es de muy diversa índole. Algunos establecen una diferencia de principio entre la teoría y el experimento, constituyéndose este último en el juez que determina la veracidad del conocimiento. Alejado de esta perspectiva, el presente ensayo sustenta una relación compleja entre teoría y experimento, donde las fronteras de estos dos ámbitos se diluyen sin que la actividad experimental se reduzca a la actividad teórica. Asumiendo el carácter complejo y dinámico de la relación entre experimento y teoría, se plantean dos papeles para el trabajo experimental en el contexto de la enseñanza de la física: el de generador de problemas conceptuales y el de ampliación de la base fenomenológica para la comprensión de las teorías físicas.
Abstract One affirms generally that the physics is a science of experimental character. Despite the consensus that there is to this respect, the role assigned to experiment in the constitution and validation of the physics theories is of very diverse nature. Some establish a radical difference between the theory and the experiment, being the last one the judge who determines the veracity of physics knowledge. Moved away of this perspective, in the present paper it is assumed exists a complex relation between theory and experiment, where the borders of these two scopes are diluted without the experimental activity being reduced to the theoretical activity. Assuming the complex and dynamic character of the relation between experiment and theory, two main objectives are considered for the experimental work in the context of the education of the physics: 1) generator of conceptual problems and 2) the media for the extension of the phenomenological base required for the understanding of the physical theories.
Diciembre 5 de 2012 * Agosto 18 de 2012
José Francisco Malagón Sánchez / Teoría y experimento, una relación dinámica: Implicaciones en la enseñanza de la física / P.P. 95-104
95
96
Física y Cultura: Cuadernos sobre Historia y enseñanza de las ciencias - No. 8 , 2014 / ISSN 1313-2143 / Análisis Histórico-Críticos
Palabras Clave Complejidad en la relación teoría-experimento, experimento como elemento generador de problemas conceptuales, ampliación de la fenomenología, Galileo, Crookes, Millikan.
Key Words Complexity of theory-experiment relationship, experiment as a generator of conceptual problems, enlargement of the phenomenology, Galileo, Crookes, Milikan. José Francisco Malagón Sánchez Profesor del Departamento de física de la Universidad Pedagógica Nacional. Licenciado con estudios principales en física y Magister en Docencia de la física de la Universidad Pedagógica Nacional (Bogotá, Colombia). Miembro del grupo Física y Cultura. Actualmente coordina el proyecto de investigación Procesos de formalización, representación y construcción de fenomenologías en la enseñanza de las ciencias.
Con el presente ensayo se busca discutir el papel del experimento, asi como delinear y fundamentar algunos derroteros para la actividad experimental en el aula.
El experimento en la física Si bien se suele reconocer el carácter experimental de la física, no hay consenso respecto a la forma como se asume el papel que juega el experimento en la constitución y validación de las teorías físicas. Algunos establecen una diferencia de principio entre la teoría y el experimento, constituyéndose este último en el juez que determina la veracidad del conocimiento. A continuación se abordan algunos aspectos con los que es frecuente caracterizar la actividad experimental y que inciden de manera decisiva en el papel que se le asigna al experimento en la construcción y constitución del conocimiento: el carácter de la observación, el concepto de experimento, el problema de la medición y la caracterización sobre posibles tipos de experimentos que se pueden hacer.1 En la segunda parte del artículo se examina el papel que se le puede asignar a las actividades experimentales en la enseñanza de la física.
Sobre la observación Una de las afirmaciones más comunes y que parece innecesario discutir es la siguiente: nuestro conocimiento del mundo exterior se adquiere por medio de la experiencia. Sin duda alguna decir que lo que se sabe de la realidad exterior, que lo que los científicos llegan a saber acerca de la naturaleza es producto de su experiencia, y de esta en cuanto se vale de la percepción sensorial, es algo en lo que todos parecemos estar de acuerdo. Podemos, pues, iniciar afirmando que las ciencias experimentales se ocupan, o se refieren concretamente, al mundo exterior, a los hechos de su experiencia y a su descripción. La ciencia empírica tendría, entonces, que ver con los hechos tal y como quedan registrados por la observación, la medida y la interacción experimental. Al decir lo anterior no se quiere excluir el componente teórico y el carácter deductivo-formal de los sistemas teóricos de la ciencia empírica, ni tampoco se quiere decir que las ciencias formales, como las matemáticas, estén totalmente exentas de orígenes empíricos; piénsese a este respecto en la geometría, o incluso, en el desarrollo del cálculo. Lo que podemos caracterizar como distintivo de las ciencias empíricas es que dependen de la percepción sensorial, de la observación, de cierta mención o referencia que va más allá del sistema teórico en que se formulan sus hallazgos e inferencias.
1. La presentación que se hace acerca del experimento en la física en este artículo está basada en buena parte en el planteamiento que E. Nagel hace sobre las ciencias empíricas en su texto La estructura de la ciencia. Paidós Studio, 1981.
En este orden de ideas la pregunta que surge es hasta qué punto nuestro conocimiento del mundo se apoya en los elementos de juicio proporcionados por nuestros sentidos y lo que puede llegar a saberse únicamente mediante la razón. La relación en que se encuentra los sentidos y la razón llega entonces a convertirse en una pregunta central porque tiene que ver con los problemas relativos al referente y validez que pueda tener un conocimiento científico así como el tipo de dependencia de este con respecto a las observaciones y experimentos. Todo sería muy sencillo si la observación misma fuese un proceso tan simple e inequívoco como parece ser, ya que en la experiencia cotidiana la observación se juzga como un acto del todo transparente; no se suele diferenciar entre el mirar y el ver: miramos lo que vemos. En la práctica asumimos que nuestra percepción sensorial es verídica, pero cuando reflexionamos más a fondo sobre la observación y sus condiciones, esto es, sobre cómo funciona en cuanto fundamento de presuntos conocimientos empíricos o sobre sus relaciones con la interpretación teórica, encontramos que la situación es bastante complicada.
No hay consenso respecto a la forma como se asume el papel que juega el experimento en la constitución y validación de las teorías físicas.
Si bien se piensa que las cosas que vemos nos son impuestas, queramos o no, haciendo que las observemos, llamándonos la atención sobre ellas mismas, con alguna frecuencia tenemos la experiencia de que las sensaciones nos engañan o nos hacen equivocarnos. Ello nos obliga a tomar conciencia de que lo que observamos depende en gran medida de la intención y el entorno, así como de la actitud mental en que nos encontremos, de la atención y de lo que sepamos que hay que buscar y ver. Gran parte de todo esto habitualmente escapa al análisis cotidiano; la habilidad mental que ya poseemos se hace cargo de la situación, funcionando eficaz y transparentemente hasta que tropecemos con una dificultad o nos demos cuenta que nos habíamos engañado. No hay necesidad de fijarnos en casos extraordinarios, de ilusiones o errores, para darnos cuenta de que la observación se ocupa de más cosas que las que encuentran
José Francisco Malagón Sánchez / Teoría y experimento, una relación dinámica: Implicaciones en la enseñanza de la física / P.P. 95-104
97
98
Física y Cultura: Cuadernos sobre Historia y enseñanza de las ciencias - No. 8 , 2014 / ISSN 1313-2143 / Análisis Histórico-Críticos
los ojos. Así pues, podemos decir en general que observamos cosas o tipos de cosas, objetos, acontecimientos, procesos, etc. Podemos decir que lo que se percibe no es un dato sensorial sino un conjunto estructurado de ellos: un objeto, situación, relación o estado de cosas, que se reconoce ser de cierto tipo, pues la percepción no es algo desnudo o inmediato, sino que conlleva cierto grado de reconocimiento de los objetos de la percepción, como pertenecientes a algún género de cosas. Con lo anterior no se quiere decir que sea imposible percibir objetos irreconocibles, en el sentido que sean totalmente nuevos para nosotros. De todas formas para que algo sea objeto de la percepción es necesario que se dé algún grado de reconocimiento. Así, si miramos a través del microscopio es posible que no percibamos nada de lo que para el ojo entrenado es perfectamente claro y determinable.
En la estructuración de las teorías, los físicos no realizan cualquier experimento y observación que se les ocurra, sino que la clase de experimentos y observaciones que llevan a cabo se sigue de lo que están tratando de encontrar o de mostrar. Así por ejemplo, si se piensa que se está en presencia de una nueva clase de rayo, se experimentará para saber si puede ser desviado por un campo magnético o eléctrico, si puede ser reflejado o refractado, si es polarizable y así sucesivamente. De este modo, todas estas actividades surgen de suponer que el nuevo rayo puede ser descrito en términos de teorías ondulatorias, y los experimentos realizados servirán para apoyar o contradecir esta idea. También se tratará de resolver estas cuestiones acerca de cómo sería su propagación en medios diferentes, sobre su longitud y su interacción con otras ondas ya conocidas. La observación estará dirigida así por estas intenciones y estará delimitada por los esquemas teóricos que hacen posible este tipo de preguntas.
La idea final no es el abandono de la objetividad y la reivindicación del relativismo extremo, sino reconocer que los claros y sencillos hechos de la observación no lo son nunca tanto como podrán tal vez parecer a primera vista a una mirada ingenua.
La historia de la física aporta un sinnúmero de casos que ilustran este modo de entender la observación. Para mencionar alguno consideraremos el trabajo experimental que Hertz (Mulligan, 1987) desarrolló en torno a los rayos catódicos. Creyendo en el modelo ondulatorio de los rayos catódicos, Hertz realizó una serie de experimentos muy interesantes para apoyar su modelo y negar el modelo corpuscular de Crookes. Mostró, en particular, que los rayos catódicos no podían ser deflectados por los campos eléctricos y magnéticos (en los tubos de la época no se lograba hacer un vacío suficiente para evidenciar este efecto); además mostró que dichos rayos podían atravesar láminas metálicas delgadas; las partículas más pequeñas que se conocían, moléculas de hidrógeno, no podían hacerlo mientras que las ondas electromagnéticas sí. Concluyó así (diríamos que de manera errónea) que necesariamente los rayos catódicos no son más que una radiación electromagnética. Aquí es claro que la firme creencia de Hertz en el modelo ondulatorio de los rayos catódicos lo llevó a admitir sin más esta conclusión de su trabajo experimental.
Podemos decir que observar no es pasar la vista por encima sino buscar unos elementos de juicio siguiendo un cierto orden conceptual, ya que el que unos datos “desnudos” constituyan elementos de juicio, presupone ya que están inscritos en un cierto marco conceptual. La recolección de datos a ciegas es probablemente imposible, puesto que incluso a los niveles más elementales de la percepción existe siempre ya funcionando algún marco racional selectivo. No cabe la menor duda de que al nivel de la observación científica, lo que llamamos observación y lo que denominamos actividad teórica están indisolublemente ligados. Para que una observación científica sirva de algo ha de ser en contra o a favor de una idea: la razón de ser del observar no está únicamente en recoger y acumular observaciones sino en “buscar” y “sacar a la luz” un cierto orden existente en los hechos; de ahí que lo observable siga en su desplazamiento a los intereses y finalidades de la indagación y haga que los resultados que obtengamos procedan de las intenciones que nos guían.
De todos modos, no se trata simplemente de que veamos lo que nos gustaría o quisiéramos ver, ni de que las observaciones que hagamos dependan únicamente de nuestras expectativas teóricas, pues en tal caso la validez de la ciencia quedaría radicalmente comprometida. La idea final no es el abandono de la objetividad y la reivindicación del relativismo extremo, sino reconocer que los claros y sencillos hechos de la observación no lo son nunca tanto como podrán tal vez parecer a primera vista a una mirada ingenua. Lo que se pretende es mostrar que la
indagación científica restablece, valiéndose de medios más o menos complicados, la función empírica de las observaciones como contrastación de nuestras pretensiones de conocimiento del mundo exterior. Así pues, la visión general de la naturaleza del mundo físico y las construcciones teóricas con las que se expresa guían o impiden la realización de experimentos y su interpretación. Podemos concluir que hay un doble movimiento de elaboración teórica e interpretación donde juntos se modifican e interactúan. Podemos pensar que la teoría y la experiencia se mueven una alrededor de la otra y que este movimiento corresponde a una cada vez mayor refinación en la elaboración teórica y de igual forma un refinamiento cada vez mayor en los procedimientos experimentales (Paty, 1984).
La experimentación El concepto mismo de experimento entraña una observación deliberada y controlada, cuya pertinencia e importancia está parcialmente definida por la hipótesis que se pone a prueba, y se encuentran determinadas además por un marco más amplio: el del sistema total de teorías que proporcionan las bases para interpretar los resultados experimentales. Y es una observación controlada y deliberada, entre otras cosas, porque el experimento involucra la producción del fenómeno que va a ser observado. Así por ejemplo, cuando Galileo plantea que en el vacío todos los cuerpos caen de la misma forma, de alguna manera en ese momento ese fenómeno no existía, hubo que generar, además, las condiciones en que una idea semejante tuviera sentido. Galileo comienza su trabajo sobre “la caída de los graves” analizando la caída de los cuerpos en medios diferentes y teniendo como base el trabajo de Arquímedes sobre la flotación de los cuerpos. Galileo puso en evidencia que la velocidad de caída dependía de la razón entre las densidades del medio y del cuerpo, de modo que cuando las densidades de los cuerpos considerados eran mucho mayores que las del medio, sus velocidades de caída no diferían apreciablemente; lo cual le permitió concluir que en el caso límite en el que la densidad del medio fuera nula, todos los cuerpos deberían caer con la misma velocidad. El resolver este problema hizo que se resolviera un problema general, el problema de la caída; el cual asimilaba al mismo tiempo problemas aparentemente tan diversos como el movimiento del péndulo y el movimiento en planos inclinados (Galileo, 1976).
Así pues, la observación en el experimento es controlada o regida por el marco de las hipótesis científicas. La racionalidad científica en lo que respecta a la observación comienza por una limitación deliberada de esta dentro de cierto sistema ordenador, o sea, de cierto sistema de medida. Por otra parte, en sí misma la precisión de las observaciones no tiene mayor importancia. Lo que se necesita es una precisión adecuada, cosa que es determinada por el alcance e intención del experimento que se realiza. Por consiguiente, el lenguaje de observación (lo que debe ser observado y medido, las relaciones entre magnitudes relevantes, etc.), las medidas, la teoría que las encuadra, los instrumentos de que se disponga y que se consideren pertinentes, así como las expectativas del observador, todo ello es lo que rige y controla los experimentos.
La observación en el experimento es controlada o regida por el marco de las hipótesis científicas. Además de la consideración del fenómeno o efecto que ha de producirse y que hacen parte del así llamado diseño experimental, los siguientes criterios actúan en la observación experimental: El sistema de medición: Existen tres formas diferentes, pero relacionadas entre sí, de ordenar por medio de medidas. La clasificación; la ordenación de cualidades por grados, siguiendo unos sistemas de ordenación de mayor a menor; y la medida cuantitativa que se apoya en diferencias de grado de cierta magnitud unitaria. La medida cuantitativa asigna un número a una diferencia de grado de una magnitud, generando de esta forma un sistema de números con dimensión. Una medida tiene lugar de cualquiera de estas formas. Así la determinación cualitativa (clasificación o la ordenación por grados) de las propiedades de las cosas2 desempeña un papel importante en el laboratorio. Una cierta habilidad visual, la destreza manual en las operaciones del laboratorio y la pericia técnica de muchas clases que es precisa para construir aparatos y equipos diversos, constituyen el trasfondo de la medida, es decir, las cosas que se dan por supuestas en la tarea práctica de la observación deliberada. Por lo demás, sería un error confundir la pericia y las facultades 2. Por ejemplo, la escala de dureza de Mohr, la cual hace una ordenación en términos de dureza de los materiales, o la escala de temperaturas de Newton.
José Francisco Malagón Sánchez / Teoría y experimento, una relación dinámica: Implicaciones en la enseñanza de la física / P.P. 95-104
99
100
Física y Cultura: Cuadernos sobre Historia y enseñanza de las ciencias - No. 8 , 2014 / ISSN 1313-2143 / Análisis Histórico-Críticos
perceptivas con la medida misma, y lo que nos sirve de control a este respecto es la estructura de las medidas: el sistema de magnitudes y unidades y la trama de relaciones deductivas en que entren tales unidades en el razonamiento matemático llegan a ser un importante dispositivo de control en la experimentación. Así, la cuestión de qué es lo que haya de medirse y dentro de qué límites de precisión o error excede el ámbito de las cuestiones puramente prácticas, pues cuando el lenguaje de las hipótesis es matemático, los hallazgos pertinentes pueden traducirse al lenguaje de los números, con lo cual se pueden confirmar o refutar ciertos resultados matemáticos que serán consecuencia de la hipótesis de que se trata. Aquí comienza a desempeñar un papel importante la teoría de errores experimentales y los valores aproximados.
esta, y otras, su peso; también describió el aparato experimental utilizado, pero no las condiciones de iluminación en que se encontraba ni el tiempo que hacía: la hipótesis que estaba poniendo a prueba delimitaba la significación del experimento solo a los parámetros de distancia y tiempo, lo que determinaba que los instrumentos de medida fuesen una regla y un reloj.
Por otra parte, al formular las hipótesis de partida en términos de proporciones se eliminaba toda comparación entre una distancia y un tiempo, ya que solo admitía que se compararan razones entre distancias con razones entre tiempos. Tampoco dice Galileo cuales fueron las medidas que tomó, solo sostiene que las razones respectivas concordaban con lo que predecía su hipótesis, esto es, que la razón entre las distancias guardaba una razón proporcional con las razones de los cuadrados de los tiempos, y como es sumamente improbable una concordancia exacta es razonable suponer El marco teórico: Este marco tiene que tomó una aproximación bastante una vinculación muy estrecha con el grande como prueba de apoyo sufisistema de medida que se emplee; en ciente a su hipótesis matemática, con efecto toda teoría o se encuentra con Todo experimento es una abstracción de lo cual apeló a una teoría intuitiva de los términos de un lenguaje de mediciertos rasgos y solo los errores experimentales. Así pues, das o es interpretable experimentalde ellos, tomados de los supuestos teóricos generales de mente mediante tal lenguaje; pero en la totalidad del campo partida y el lenguaje específico de la un sentido más amplio, de carácter del observable o hipótesis formulada acerca de las disconceptual, toda teoría es un aparato mensurable. tancias y los tiempos controlaron de destinado a delimitar lo que sea pertitodas las maneras que acabamos de nente en la experimentación. ver el experimento, tanto en su plan, en Todo experimento es una abstracción de ciertos rasgos los aparatos empleados y en la elección de parámetros y solo de ellos, tomados de la totalidad del campo de pertinentes, como en su interpretación; de modo que la lo observable o mensurable. La física por ejemplo, elige teoría controla la elección del lenguaje de medida que se sus magnitudes con vistas a tener un máximo de valor emplee así como las magnitudes que son experimentalsistemático y de coherencia entre magnitudes distintas; mente importantes3. Por lo tanto, la eliminación de cierasí, elige como parámetros característicos la distancia, tos rasgos mensurables considerándolos no pertinentes el tiempo, la masa interpretando cualidades pertinentes constituye el complemento a la selección de los pertinensobre la base de estas cantidades que pueden medirse tes. Surge aquí el hecho de que si debido a una hipótesis con precisión. De todos modos, elegir una magnitud no o teoría determinada quedan bloqueados ciertos rasgos es lo mismo que elegir qué es lo que debe medirse con de la situación experimental, la atención del experimenella: el físico no mide todo lo que tenga en el laborato- tador tenderá a apartarse de ellos, o es posible que ni rio; ni siquiera todo lo que suceda en el experimento en siquiera se puedan expresar con el lenguaje de la teoría. cuestión y que sea medible, sino solamente unas pocas Existe, pues, cierta analogía entre la introducción de unos cosas fuertemente delimitadas; al actuar así lo que guía al instrumentos más perfeccionados y la formulación o el científico es una hipótesis y más allá de ella el marco de la descubrimiento teórico de magnitudes y conceptos nueciencia teórica de la que él hace parte. vos, en el sentido de que un concepto nuevo amplía el campo de visión o permite determinar más cosas. A este respecto, podemos analizar el trabajo de Galileo con planos inclinados. Al repetir el experimento muchas 3. Para los aristotélicos, por ejemplo, definir los lugares naturales a los veces, como él lo dice, no midió unas veces la distancia que tienden los cuerpos hubiera sido un aspecto muy importante a recorrida por la bola al rodar, otras, la temperatura de tener en cuenta.
Sobre los instrumentos de medida: Podemos decir que el instrumental, los dispositivos y aparatos de medida física encarnan un sistema de medida, representando en un material palpable y en una técnica cierta estructura conceptual en la que las magnitudes guardan entre sí una ordenación teórica y en la que se fijan ciertos números concretos dentro de una red teórico-deductiva. Así, una regla graduada no es meramente un instrumento para efectuar una lectura de números, sino que, teniendo en cuenta las relaciones de significado en que tales números se encuentran, es una manera de medir dilataciones, la longitud de una trayectoria o un aumento de temperatura; igualmente una balanza de platillos, por ejemplo, no proporciona simplemente lecturas, son instrumentos cuya justificación teórica se fundamenta en las teorías físicas de la estática y la dinámica; gracias a las cuales admitimos que la medida de los pesos es proporcional a la de la masa. Por lo tanto, la lectura de un aparato de medida es algo más que un número, cuando se está midiendo. De esta manera, cierta red teórica transforma un conjunto de alambres, resortes, tornillos en un instrumento, convirtiendo marcas y coincidencias en números con una significación; la de las relaciones entre ciertas magnitudes. Un instrumento no es más que la concreción de la teoría en que se basa.
Clases de experimentos Se plantea una clasificación de los tipos de experimentos que son posibles realizar (Wartofsky, 1983) únicamente para poder caracterizar algunos aspectos relevantes de la intención de un experimento particular. Es decir, esta clasificación de los experimentos es un poco artificial, ya que no siempre es posible hacer estas diferenciaciones. Experimentos de descubrimiento o de sondeo: Para este tipo de experimento podemos considerar, por ejemplo, lo expuesto por Galileo en la jornada tercera de los discursos sobre la relación entre la distancia de caída y la fuerza del impacto. Carente aún de un concepto claramente articulado de cantidad de movimiento, hace observar que un cuerpo pesado al que se haga caer sobre una estaca apoyada en el suelo, la hundirá más en la tierra si se hace caer desde más altura; este experimento, si es que se lo toma destinado a descubrir qué sucederá si se deja caer un peso desde diferentes alturas, no hace predicción alguna, es más bien una apelación a algo que se había descubierto ya. Análogamente, cuando se estudian las propiedades químicas de una sustancia desconocida, lo que se intenta es averiguar cuáles serán tales propiedades sin que esto quiera decir que los mismos ensayos
no puedan realizarse a la luz de una hipótesis que los prediga. Del mismo modo, por ejemplo con el experimento de Millikan, lo que se trataba era de encontrar un valor, no confirmar uno que se hubiera predicho. Experimentos para contrastar las consecuencias de las hipótesis: Lo más frecuente es que la contrastación de las consecuencias de hipótesis se tome como modelo de la finalidad de los experimentos. Así, por ejemplo, en los experimentos de Galileo con planos inclinados, se contrastaba la relación predicha entre ciertos valores medibles con las medidas de tales valores efectuadas realmente. En general, si las medidas concuerdan con la predicción se dice que esta ha quedado verificada. Esta relación no es tan sencilla, pero de todos modos lo que se busca en tales experimentos es no solamente encontrar unos ciertos valores experimentales por medición, sino también saber si están o no de acuerdo con los valores predichos. Experimentos mixtos: Es claro que existe una estrecha relación en los casos anteriores dentro del marco teórico de una ciencia cualquiera. Un experimento mixto4 es uno en el cual el descubrimiento de ciertas propiedades lleva a incluirlas en algún marco teórico ya establecido, o sea, aquel en el que se hace ver de qué manera la predicción de las propiedades que se acaban de descubrir pueden obtenerse deductivamente dentro de algún marco hipotético-deductivo. Los experimentos mixtos son aquellos en los que el descubrimiento de ciertas propiedades no conocidas o predichas lleva a una clasificación que revela una relación sistemática entre ella y otras propiedades; de este modo queda confirmada indirectamente una hipótesis que aún no se ha sometido a contraste y la propiedad recién descubierta encuentra un lugar dentro del esquema hipotético correspondiente. De todos modos, lo que define cualquier experimento está tan entretejido con el sistema teórico en que se basa que lo único que se puede someter a contraste decisivo no es una hipótesis aislada, sino el sistema total. Siempre será posible mantener el sistema total haciendo algunos reajustes o interpretaciones diferentes.
4. Un ejemplo de este tipo de experimentos es el trabajo alrededor de sustancias desconocidas que llevaron a ubicarlas en el lugar de la tabla periódica; convirtiéndose, a la postre, en una contrastación de la teoría de los elementos propuesta en la tabla periódica.
José Francisco Malagón Sánchez / Teoría y experimento, una relación dinámica: Implicaciones en la enseñanza de la física / P.P. 95-104
101
102
Física y Cultura: Cuadernos sobre Historia y enseñanza de las ciencias - No. 8 , 2014 / ISSN 1313-2143 / Análisis Histórico-Críticos
Las actividades experimentales en la enseñanza de la física Aunque se asume en general que el experimento juega un papel muy importante en la enseñanza de las ciencias en general, y de la física en particular, no existen ni se hacen reflexiones críticas que permitan dilucidar el papel que este debe tener en la enseñanza; papel que por razones obvias no es el mismo que desempeña en la constitución y construcción de las teorías físicas, si bien el papel que al respecto se le asigne define en buena medida las posibilidades de la actividad experimental en el ámbito pedagógico. La capacidad propositiva a este respecto parece limitarse a la presentación o sugerencia de ciertas prácticas experimentales novedosas.5 La idea de que el experimento contrasta y verifica la teoría es, quizás, la idea más difundida en el ámbito pedagógico y orienta la actividad experimental que se despliega en las clases de física. La siguiente presentación de lo que se entiende por física y del papel del experimento es una muy buena expresión de esta concepción: Y... ¿Qué es la física? La física es la ciencia que estudia la naturaleza, buscando la comprensión científica de los fenómenos naturales. La física consta del conjunto de conocimientos acumulados sobre la naturaleza, de la actividad de hacer física y también de las aplicaciones de la física. Los conocimientos acumulados de la física se expresan matemáticamente; la actividad de hacer física tiene una esencia muy rigurosa con la formulación matemática y el experimento. El experimento es el juez único de la física: Todo conocimiento válido debe ser comprobado, validado por el experimento. Toda cuestión que formulamos sobre la naturaleza, todo conocimiento, toda afirmación, bien sea principio, ley, teoría, debe ser comprobable y comprobado por el experimento, algo estrictamente objetivo, de validez universal, reproducible en todo lugar y en todo tiempo. Todo nuevo conocimiento válido, se integra al saber acumulado, y si se hace matemáticamente, siendo consistente el conjunto de conocimientos científicos acumulados sobre la naturaleza. (Rojas y Gómez, 1999).
5. A este respecto no deja de llamar la atención el escaso número de trabajos que se presentan sobre el tema en eventos sobre enseñanza de la física que han forjado ya una tradición y que reúnen a los principales investigadores en este campo como: el GIREP en Europa, la RELAEF en Latinoamérica, o la Conferencia Interamericana sobre la Enseñanza de la Física. Y de ese escaso número (5 de los casi 200 trabajos presentados en la GIREP del 2000 que tuvo como temática central: la Enseñanza de la Física en el siglo XXI), difícilmente se encuentra alguno orientado a tematizar el papel de las actividades experimentales en la enseñanza.
Desde ese punto de vista, el papel de la actividad experimental en principio es solo uno: mostrar al estudiante cómo a través del experimento se constata la validez de la teoría; y como un subproducto desarrollar en él ciertas habilidades en el manejo de instrumentos, la aplicación de ciertas técnicas en el manejo de datos, el uso adecuado de la teoría de errores, etc. Esta visión del experimento se basa y crea una escisión entre teoría y experimento, se basa en la posibilidad de hacer experimentos de forma independiente de la actividad teórica. Y se requiere que sea así para que el experimento pueda ser un juez objetivo de la teoría, de otra manera sería juez y parte. Animados por esta concepción se suele considerar que realizar un experimento consiste en tomar una serie de datos del mundo físico haciendo uso de ciertos instrumentos adquiridos para tal fin y luego manipularlos estadísticamente para establecer qué tanto se acercan los resultados a lo esperado desde la teoría. Así, desde esa noción, la actividad experimental consistiría en el uso de cajas negras que de alguna manera generarían números que deben decidir si una teoría es o no válida. Desde esta perspectiva, se considera que un buen experimentador es aquel que tiene la habilidad de tomar los datos de la manera más exactamente posible y aplicar de forma adecuada la llamada teoría de errores. Si los datos de una experiencia se alejan de lo esperado, se debe buscar la causa en la precisión de los instrumentos o en errores de observación por parte del experimentador. Esta manera de asumir el experimento, aunque provee al estudiante de una cierta habilidad en el uso y manejo de instrumentos, presenta inconvenientes que impiden una correcta comprensión del proceso de construcción teórica: por una parte se asume una clara separación entre teoría y experimento al considerar que en la construcción de una teoría el experimento no desempeña ningún papel y que, de igual forma, para la realización y diseño de un experimento la teoría es un aspecto secundario, pues de lo que se trata es de tomar datos. Si existe una relación teoría-experimento, esta se da en la confrontación de los resultados obtenidos y esperados a través de la teoría de errores. Por otra parte, el experimentador es totalmente ajeno, tanto a la teoría como el diseño del experimento mismo, la experimentación como tal solo aparece después de que la teoría está constituida. Otra forma de asumir este problema es entender el experimento en estrecha relación con las construcciones conceptuales, donde hay, como se planteó en la primera parte de este escrito, un doble movimiento de elabora-
ción teórica e interpretación donde juntos se modifican e interactúan mutuamente. Desde este punto de vista, la experimentación en el ámbito de enseñanza, además del papel verificador de hipótesis teóricas, desempeñaría dos papeles principales: uno sería el uso del experimento en el planteamiento de problemas conceptuales de la física; y el otro, el uso de las experiencias para construir una base fenomenológica o de hechos de observación que serían estructurados a partir de una cierta teoría.
dencia sensorial de esta teoría, ¿cómo, entonces, a partir de estas evidencias llegamos a pensar en la existencia de todos esos entes citados anteriormente?, ¿cómo, a partir de estos indicios, se construyen explicaciones como las dadas en la física moderna? Poner al estudiante de física en contacto con estas situaciones lo lleva a enriquecer su manera de entender la relación teoría-experimento y a pensar en una forma más crítica sobre ellas, al ser más consciente de las condiciones de validez de las mismas.
Para el primer caso es interesante ilustrar, por ejemplo, el problema relativo a la rotación de un cuerpo rígido alrededor de un punto, el cual es un problema planteado desde la mecánica analítica, donde hay una serie de efectos extraños que no serían predecibles dentro de un cierto sentido común; así por ejemplo, al ejercer una fuerza en una cierta dirección sobre un punto de un cuerpo que gira alrededor de un eje, y que es libre para girar en otras direcciones —un giróscopo— este no hace lo que uno esperaría intuitivamente. Surge aquí entonces el problema de explicar lo que sucede. A partir de la experiencia con este giróscopo es posible plantear entonces una serie de problemas conceptuales muy importantes en la física, y que van más allá de la mecánica clásica: la precesión, la interacción momento angular intrínseco-momento angular orbital, etc. Aquí el experimento se realiza para plantear una pregunta y explorar las posibilidades de respuesta.
Como afirma Dino Segura:
El segundo papel, arriba expuesto, que puede desempeñar el experimento es ampliar la experiencia fenomenológica, haciendo posible que el estudiante adquiera elementos para determinar a qué se refiere una teoría dada y el porqué de las afirmaciones que desde allí se hacen. Tal es el caso del electromagnetismo. A pesar de que cotidianamente se tiene relación con una serie de artefactos que funcionan con base en esta teoría (radios, control remoto, etc.), estos no sirven como punto de partida para saber de qué habla la teoría electromagnética (por lo menos no se puede establecer una relación clara de una expresión como con alguno de estos dispositivos). Desde esta perspectiva, diseñar experiencias en las que se dé cuenta de estos elementos de la teoría, sería una gran ayuda para su comprensión.
Esto implica que en la formación de un profesor de física este tipo de actividades, ligadas a la experimentación, sean importantes de ser desarrolladas; ya que no se trata de hacer “obras manuales” sino diseños experimentales. Es decir que, aunque no sea su rasgo más determinante, todo este trabajo de instrumentación, calibración y medición es un aspecto muy importante de la actividad experimental y debe ser desarrollado en la enseñanza de la física. Hay que fortalecer una cierta cultura experimental, la cual, de alguna manera, se adquiere en el ejercicio mismo de la actividad. Dicho de otra forma, el diseño y desarrollo satisfactorio de las actividades de laboratorio no depende únicamente de la disponibilidad de equipos sino también de elementos y criterios tanto técnicos como conceptuales.
Desde esta forma de concebir el experimento sería muy interesante analizar el caso de la base empírica de la física moderna, donde se suele admitir la existencia “real” de átomos, electrones, fotones, etc. No obstante, cuando se hacen experimentos sobre estos temas lo que se “observa” son manchas en una pantalla, agujas de instrumentos moviéndose, etc. Digamos que esta sería la evi-
Pero la formación en la actividad experimental de los futuros maestros es aún más exigente si se tiene en cuenta que las experiencias y equipos que se diseñen deben responder no solo a las exigencias del experimento mismo sino también a las necesidades de tipo pedagógico que surgen en el contexto específico del aula de clase.
Es claro que mientras no exista un referencial concreto en el mundo de los fenómenos para el tópico del cual se habla, es de dudoso efecto pedagógico hablar de él. En la medida en que se enriquezca más y más el número de conceptualizaciones a partir de experiencias de laboratorio es mucho más probable que se logre sentido respecto de lo que se esté tratando. (Segura, 1993,) Es obvio que en estos casos existe la necesidad de diseñar equipos y experiencias, y es en el diseño de estos materiales donde se hace necesario determinar sus rangos de validez con relación a la situación que se quiere plantear (¿en qué rangos de las variables usadas por el experimento planteado el equipo se comportaría como uno lo espera?). Es decir, hay que especificar las condiciones precisas en que un montaje dado funcionaría.
José Francisco Malagón Sánchez / Teoría y experimento, una relación dinámica: Implicaciones en la enseñanza de la física / P.P. 95-104
103
104
Física y Cultura: Cuadernos sobre Historia y enseñanza de las ciencias - No. 8 , 2014 / ISSN 1313-2143 / Análisis Histórico-Críticos
Referencias Galileo Galilei (1976). Consideraciones y demostraciones matemáticas sobre dos nuevas ciencias. Madrid: Editora Nacional. Kuhn, Th. (1982). La tensión esencial. México: Fondo de Cultura Económica. Mulligan, J. (1987). The influence of Hermann Von Helmholtz on Henrich Hertz’s contributions to physics. American Journal of Physics, 55(8), 711719. Nagel, E. (1981). La estructura de la ciencia. Barcelona: Paidós. Paty,
M.(1983). Mathématisation et accord avec l’expérience. Fundamenta Scientae, 5(1), 31-50.
Rojas, D., y Gómez, B. (diciembre, 1999). Informe de evaluación del programa de Maestría en Docencia de la Física de la Universidad Pedagógica Nacional. Universidad Pedagógica Nacional, Bogotá. Segura, D. (1993). La enseñanza de la física: dificultades y perspectivas. Bogotá: Fondo Editorial Francisco José de Caldas. Wartofsky, M. W.(1983). Introducción a la filosofía de la ciencia. Madrid: Alianza Editorial.
La cosmovisión de Pierre Duhem. Una perspectiva fenomenológica Pierre Duhem’s. world view a phenomenological perspective Olga Luz Dary Rodríguez Grupo ECCE Estudios Culturales sobre las Ciencias y su Enseñanza Universidad de Antioquia Medellín - Colombia ldrodriguez@ayura.udea.edu.co
Resumen Presentamos una caracterización de la cosmovisión del físico, historiador y filósofo francés Pierre Duhem (1861-1916). En una instancia preliminar exponemos la visión mecanicista bajo tres ejes: uno, la causalidad y la sustancia como pilares de la física clásica, dos, la realidad objetiva y la ausencia del sujeto y tres, los modelos mecánicos. En un segundo momento planteamos una mirada crítica sobre el mecanicismo, a partir de tres aspectos: primero, la exclusividad mecánica y el sustancialismo; segundo, la causalidad y la explicación de los fenómenos; y tercero, los modelos, la exclusividad matemática y la ausencia de experiencia. Para concluir abordamos la perspectiva de Duhem resaltando su carácter holista y su enfoque fenomenológico.
Abstract It is shown a characterization of the French physicist historian and philosopher Pierre Duhem’s worldview. In a preliminary instance it is exposed the mechanistic view under three axes: one, causality and substance as pillars of classical physics; two, objective reality and the absence of the subject; and three, mechanical models. In a second step we propose a critical look at the mechanism, from three aspects: first, the mechanics’ exclusivity and substantialism; second, causality and the explanation of the phenomena; and third models, mathematical exclusivity and lack of experience. To conclude we address Duhem perspective highlighting: its holistic and phenomenological approach.
Junio16 de 2013 * Enero 16 de 2014
Olga Luz Dary Rodríguez / La cosmovisión de Pierre Duhem. Una perspectiva fenomenológica / P.P. 105-112
105
106
Física y Cultura: Cuadernos sobre Historia y enseñanza de las ciencias - No. 8 , 2014 / ISSN 1313-2143 / Análisis Histórico-Críticos
Palabras Clave Pierre Duhem, cosmovisión, mecanicismo, sustancialismo, causalidad, enfoque fenomenológico, mundo físico, leyes físicas.
Key Words Pierre Duhem’s, worldview, mechanism, substantialism, causality, phenomenological approach, physical world, physical laws.
Olga Luz Dary Rodríguez Profesora de la Facultad de Educación de la Universidad de Antioquia, Licenciado con en física y Magister en Docencia de la física de la Universidad Pedagógica Nacional (Bogotá, Colombia). Estudios y candidata a doctorado en Epistemología e Historia de las Ciencias de la Escuela Doctoral Savoirs scientifiques, Universidad de París VII (París, Francia). Miembro del grupo de investigación Estudios Culturales sobre las Ciencias y su Enseñanza-ECCE.
El presente artículo se elaboró en el marco de mi tesis doctoral: El concepto de estado físico en Pierre Duhem: una cosmovisión fenomenológica desde la continuidad epistemológica; Escuela Doctoral Savoirs scientifiques, Doctorat en Épistémologie et Histoire des sciences de la Universidad de Paris VII.
Pierre Duhem es un físico, historiador y filósofo francés. Su obra comprende la interrelación de estos tres campos del saber. Su producción en el campo de la física trata sobre termodinámica, electromagnetismo, hidrodinámica y elasticidad. Su propuesta en física está inserta en una serie de interrelaciones con otros campos del saber, y en este sentido nos referimos a su cosmovisión o visión de mundo. De manera análoga J. F. Stoffel analiza la totalidad de la obra duhemniana y se refiere a un proyecto global (Stoffel, 2002), en cuanto involucra no solo la ciencia, sino también la historia y la filosofía de las ciencias. La conclusión del estudio de Stoffel es un referente para nuestro trabajo. Si bien este autor pone en evidencia contradicciones sobre la obra global de Duhem, y apela para ello al fenomenalismo problemático de Duhem, finalmente disuelve este dilema y le confiere a la obra en su totalidad una armonía. M. Paty (1986) considera que para Duhem la física es indisociable, fundamentalmente, de una epistemología, que interroga los principios, así como de la lógica que los ordena. También plantea que Duhem verifica de manera experimental su concepción de la física y de la teoría física mediante la historia. De igual forma, para A. Brenner (1992), la historia de las ciencias en Duhem tiene varias funciones, entre ellas, que constituye un elemento indispensable en la enseñanza de la física. Pero el eje principal del análisis de este autor lo conforma la relación entre la historia y la metodología, en cuanto esta relación define la estructura de la obra duhemniana. Otro referente de nuestro trabajo es reconocer que el centro del proyecto duhemniano es su propuesta en física. Stoffel, R. N. D. Martin y Brenner plantean que el centro de su trabajo es su proyecto científico. Stanley Jaki dedica su texto de 1984, Uneasy Genius: The Life and Work of Pierre Duhem, al físico que siempre quiso ser. Procuraré identificar algunos rasgos característicos de la cosmovisión de Pierre Duhem tomando como eje su propuesta en física. Dicha propuesta la denomino fenomenológica, en cuanto ella ofrece elementos epistemológicos alternativos a la mirada clásica, de tal manera que abre camino a conceptos novedosos como el de estado físico. A modo de preámbulo a mi interpretación de la física duhemniana, presentaré la cosmovisión mecanicista, objeto de crítica de Duhem, sus dificultades y algunos cuestionamientos.
El mecanicismo En el siglo XVII hubo cambios en la sociedad europea, las preguntas acerca del movimiento de los cuerpos materiales se volvieron centrales para la cosmovisión de la sociedad. Emergió la burguesía como un nuevo grupo social, que llegó al poder en la Revolución Francesa. La visión mecanicista congeniaba con los intereses de este grupo, esta visión de la sociedad como una máquina estaba de acuerdo con las leyes de la razón. Descartes fue quien propuso esta visión: Todos los movimientos del universo, incluso los orgánicos, se podían explicar en términos de máquinas. Su metáfora era el reloj. Duhem ubica dos vertientes del mecanicismo. Una, la radical en Descartes, que denomina física de la cantidad, que plantea la existencia en todo el universo de una materia única y homogénea, de la que solo se sabe que es extensa en longitud, anchura y profundidad, lo que se llama cantidad o volumen; esta materia es divisible en partes de diversas figuras que se pueden mover una en relación a las otras. La otra vertiente es la dinamista, que introduce el concepto de fuerza, define el mecanicismo como una doctrina que se propone representar todos los fenómenos físicos por medio de sistemas que se mueven según los principios de la dinámica (las ecuaciones de Lagrange). Duhem hace dos subdivisiones: el mecanicismo de Newton, de Huygens, de Boscovich, de Laplace y de Poisson, que admite que los cuerpos ejercen entre sí fuerzas a distancia; y la segunda, la física mecanicista de Hertz desde la que no se admiten sino las fuerzas de unión entre dos cuerpos contiguos (Duhem, 2003).
Causalidad y sustancia, pilares de la física clásica Según Cassirer, en los siglos XVIII y XIX no se dudaba acerca de la existencia de una jerarquía del ser, a la que la ciencia debía ceñirse en su estructura. El ideal del conocimiento físico era el de la ciencia newtoniana. Los fenómenos de la naturaleza se encuadran en el esquema de la teoría de la gravitación. De otra parte, la forma de la ley establecida por Coulomb para los fenómenos magnéticos y eléctricos mostraba una coincidencia total entre estos y los fenómenos de gravitación. De aquí que se considerara no solo lícito, sino incluso obligado, hacer del concepto de la fuerza a distancia el centro de toda verdadera explicación de la naturaleza.
Olga Luz Dary Rodríguez / La cosmovisión de Pierre Duhem. Una perspectiva fenomenológica / P.P. 105-112
107
108
Física y Cultura: Cuadernos sobre Historia y enseñanza de las ciencias - No. 8 , 2014 / ISSN 1313-2143 / Análisis Histórico-Críticos
Helmholtz en su primera formulación de la ley de la conservación de la energía, proclama como un axioma general la fuerza a distancia de Newton. Todos los efectos naturales deben atribuirse a las fuerzas de atracción y repulsión. Solo así es posible ajustarse a la ley suprema de toda investigación científica, a la ley de la causalidad: se produce en todo tiempo y bajo las mismas circunstancias externas, efectos iguales (Cassirer, 1986).
Pierre Duhem es un físico, historiador y filósofo francés. Su obra comprende la interrelación de estos tres campos del saber. Su producción en el campo de la física trata sobre termodinámica, electromagnetismo, hidrodinámica y elasticidad.
Helmholtz en Sobre la conservación de la fuerza (1847) instituye el principio general de la causalidad como la forma primitiva del pensamiento físico. Este principio es la condición necesaria de la problemática científica misma, es la condición de inteligibilidad de la naturaleza. Desde aquí se ofrecía una posibilidad: determinar y modelar el concepto general de causalidad de tal modo que de él se derivara directamente la necesidad de reducir todos los fenómenos de la naturaleza a puros fenómenos de movimiento. La concepción mecánica de la naturaleza exigía que toda hipótesis pudiera ser ilustrada directamente, y no se daba por complacida hasta no ver dibujados todos y cada uno de los rasgos concretos de la imagen. Cassirer considera que en la obra de Wilhelm Wundt de 1866, Los axiomas y su relación con el principio de causalidad, se manifiesta esta tendencia. Considera que aquí se pueden evidenciar los motivos epistemológicos sobre los que descansa la explicación mecánica de la naturaleza. El primero de los seis axiomas físicos que proclama la obra de Wundt es la tesis de que todas las causas de la naturaleza son causas del movimiento. Esta explicación se derivaba como un simple corolario de los primeros conceptos fundamentales de todo conocimiento de la naturaleza, de los conceptos de sustancia y causalidad pilares de la física clásica. Se considera que la razón y la experiencia son capaces de penetrar en la esencia de las cosas, sin poner en duda el valor ontológico de las teorías físicas, por mucho que estas se diferencien en su contenido.
La realidad objetiva, ausencia del sujeto Duhem considera que para los mecanicistas: “Una teoría física […] tiene por objeto la EXPLICACIÓN de un conjunto de leyes establecidas experimentalmente” (Duhem, 1906194/2003, p. 5). Duhem señala que los fenómenos físicos y las leyes no nos vinculan con la realidad sino con apariencias, por ello es necesario explicar. En el proceso de explicación la teoría física pretende “captar la realidad” e indaga acerca de “¿cuál es la naturaleza de los elementos que constituyen la realidad material?”, sus causas mecánicas. Podemos decir que el mecanicismo instaura de manera natural en las causas últimas la realidad física. Desde esta cosmovisión, entonces, se utilizan modelos mecánicos para figurar la realidad. El atomismo de Boltzmann es un ejemplo de mecanicismo. Duhem expone la teoría mecánica de la luz, en donde todas las nociones que estudian los fenómenos luminosos son representadas mediante propiedades mecánicas de un cierto medio: el éter. Dependiendo de la escuela, el sistema material puede estar formado por medios continuos, para otros de átomos aislados, unos admiten fuerzas atractivas o repulsivas entre los diversos elementos materiales; otros rechazan la existencia de tales fuerzas y prefieren optar porque los átomos materiales actúen al contacto según las leyes de choque. Existe igualmente otra serie de exigencias dependiendo de la escuela. No obstante, participan de una consideración de base común, se exige que toda magnitud sea expresada en términos de magnitudes que definan las propiedades mecánicas de este sistema material. Así, debe imaginarse la constitución de este medio para que sus propiedades mecánicas puedan simbolizar todas las leyes de la óptica. El color se simboliza por el periodo de un movimiento vibratorio propagado en el medio; la intensidad por la fuerza viva media de este movimiento; las leyes de propagación, de reflexión y de refracción resultan de aplicar a este medio teoremas de la elasticidad. Podemos entonces decir que en el mecanicismo las magnitudes están predeterminadas porque se asume un sistema mecánico como el prototipo, como lo ontológico. Luego, los mecanicistas plantean una relación natural entre la noción física y la propiedad mecánica, de tal manera que la magnitud es el reflejo de una realidad. Así, para el enfoque mecanicista existe un orden real, natural, una realidad objetiva independiente del sujeto. Las teorías mecánicas de la materia expresan todas las propiedades en términos de magnitudes extensivas, identificadas con un carácter espacial, geométrico.
Para Roldán, Ben-Dov y Guerrero los mecanicistas se refieren a una realidad en sí. Los objetos tienen propiedades que pertenecen a ellos independientemente de los sujetos, de su observación, son propiedades en sí de los objetos que definen su materialidad. Las cualidades primarias se consideran propias del objeto en sí, por ejemplo, la forma geométrica, la masa, el movimiento; mientras que las secundarias, no pertenecen en sí al objeto, resultan ser una ilusión comparada con la cosa en sí, no son una realidad que existe en el mundo, pues existe solo en el sujeto, tal es el caso de la belleza. La visión de Laplace es concordante con lo anterior, considera un mundo objetivo, que no depende de los sujetos, cuyas cualidades tienen existencia independientemente de los sujetos, de nuestro conocimiento (Roldán, Ben-Dov y Guerrero, 2004). S. Jaki reconoce que la época de Duhem es secularista y se refiere al contexto mecanicista del momento, en especial, a Abel Rey y su círculo, quienes interpretaban la naturaleza en términos de la física newtoniana, considerándola la más alta y confiable forma de racionalidad (Jaki, 1996). Jaki señala que aquella época cientificista exaltaba a Renan: “La ciencia y sólo la ciencia puede dar a la humanidad ese sentido sin el cual no puede vivir, un símbolo y una ley”.
Los modelos mecánicos Maxwell y la mayoría de otros físicos propendían hacia la búsqueda de una base mecánica para sus modelos. Maxwell consideró la posibilidad de explicar la gravedad mediante su teoría electromagnética, pero abandonó porque debía atribuir una enorme energía intrínseca al éter. Otros físicos ingleses revisaron la ley de la gravedad de Newton, basándose en modelos electrodinámicos o hidrodinámicos (Kragh, 1999/2007). Se procuró entonces construir el mundo a partir de estructuras del éter. Desde esta teoría los átomos eran modos de movimientos de los vórtices del éter. Thomson describe la teoría de los vórtices, que se aplicó a problemas químicos (incluyendo la afinidad y la disociación), el electromagnetismo, la gravitación y la óptica, como “[…] un intento ambicioso de establecer una ‘teoría del todo’ unitaria y continua basada únicamente en la dinámica del éter” (Kragh, 1999/2007, p. 5). En 1895, la mayoría de los físicos no compartía la teoría de vórtices de los átomos. Estos modelos hidrodinámicos del éter diferían del programa laplaciano de la física, no obstante, se apoyaban en una base mecánica. Duhem considera que cartesianos y atomistas tratan de revelar la naturaleza verdadera de la materia mediante la disolución de los cuerpos que percibimos y de movimientos ocultos. También se refiere a la escuela neo-atomista
o el enfoque de modelos (Duhem, 1913), que toma como centro la noción de electrón, que retoma con mucha confianza el siguiente método: piensan que sus hipótesis reconocen una visión adivinadora de los que hay más allá de las cosas sensibles, ellos hacen ver los elementos como si cierto extraordinario ultra-microscopio los agrandara hasta que sean para nosotros perceptibles.
Podemos decir que el mecanicismo instaura de manera natural en las causas últimas la realidad física. Desde esta cosmovisión, entonces, se utilizan modelos mecánicos para figurar la realidad[..]. El atomismo de Boltzmann es un ejemplo de mecanicismo.
La escuela inglesa usa modelos, según Duhem, y por ello está dedicada a las explicaciones puramente mecánicas de los fenómenos físicos. Para ellos es necesario hacerse “una representación mental de los fenómenos que suceden realmente” (1906-1914/2003, p. 91). Una representación mecánica imita el fenómeno. Por lo tanto, comprender la naturaleza de las cosas materiales consiste “en imaginar un mecanismo cuyo funcionamiento represente y simule las propiedades de los cuerpos” (Ibídem). Según Duhem, los cuerpos que utilizan los físicos ingleses para sus modelos son cuerpos concretos, similares a los que nos rodean, sólidos o líquidos, rígidos o flexibles, fluidos o viscosos, estas propiedades son imaginadas por medio de ejemplos sensibles. Asocia la habilidad para el cálculo algebraico con la facultad imaginativa, y considera que tal habilidad es muy difundida entre los matemáticos ingleses. Para un físico de la escuela de Thomson o de Maxwell no hay contradicción si un hecho es representado por dos modelos distintos, por el contrario, disfruta tal variedad. De tal forma que se admite una variedad de imágenes para hacer referencia a la “constitución de la materia”. A modo de ejemplo Duhem expone el éter de Thomson. El éter para Thomson puede ser un fluido homogéneo, incompresible, sin viscosidad, que llena todo el espacio. Para representar la gravitación que produce la atracción de partículas materiales lanzó, a través del fluido homogéneo, un enjambre de pequeños corpúsculos sólidos que se movían en todas las direcciones a gran velocidad.
Olga Luz Dary Rodríguez / La cosmovisión de Pierre Duhem. Una perspectiva fenomenológica / P.P. 105-112
109
110
Física y Cultura: Cuadernos sobre Historia y enseñanza de las ciencias - No. 8 , 2014 / ISSN 1313-2143 / Análisis Histórico-Críticos
También, se retorna al fluido homogéneo e incompresible, pero ahora viscoso como una gelatina. Las leyes de un mismo grupo para los mecanicistas están representadas, según Duhem, por un modelo. Considera que este modelo puede ser un mecanismo construido por cuerpos concretos o puede ser un mecanismo algebraico. Estos últimos, en vez de estar construidos con giróstatos, muelles en espiral y glicerina, están organizados con signos algebraicos. En este sentido se comprende la frase de Hertz: “La teoría de Maxwell son las ecuaciones de Maxwell”. Duhem se refiere a la necesidad que tienen ciertos “espíritus” de representar los objetos sobre los que reflexiona. Resalta el elemento geométrico, vinculado a la localización de los objetos en el espacio, que permite construirlos de una manera ideal. Dicho elemento está conformado por configuraciones de los cuerpos, que junto con los cambios, son los componentes que el geómetra puede describir y la imaginación puede representar. La obra de Maxwell fue importante en la difusión de esta concepción en Francia y Alemania. Hertz desempeñó un papel primordial en ello. Según Duhem, Poincaré dio vía libre a la práctica en Francia de los métodos de la física inglesa, al avalar el trabajo de Maxwell y la física de Thomson. De acuerdo con Duhem, siguiendo esta concepción de la física imaginativa, como él mismo la llama, la escuela se esfuerza por proporcionar a los estudiantes visiones inductivas y concretas. Según Duhem, cuando Thomson recurre a los modelos mecánicos es para exponer o representar los resultados ya obtenidos. Por ello es que Thomson planteaba que sin los modelos no podría comprender la teoría. De manera similar, Hertz adelantó una crítica importante, apoyándose solo en los conceptos de espacio, tiempo y masa; no obstante, este tipo de análisis crítico de la mecánica no involucró un deseo de abandonar esta cosmovisión; para Hertz las nuevas versiones de la mecánica la afirmaron: uno de los principales objetivos de la mecánica libre de fuerzas de Hertz era establecer una teoría mecánica del éter electromagnético.
Críticas y dificultades del mecanicismo Hacia fines del siglo XIX, expone Cassirer, la termodinámica, la óptica y la teoría de la electricidad le plantean a la física problemas que pusieron dudas sobre la existen-
cia de una jerarquía del ser y del saber. Se cuestionó un orden para los fenómenos naturales y se puso en tela de juicio que la mecánica fuera el fundamento de este orden. Se objeta entonces que la misión de la física sea penetrar en la esencia de las cosas. Se ponen en duda los fundamentos, y con ello se critican los conceptos de sustancia y causalidad. Las reflexiones empíricas no fueron suficientes para conmover la concepción mecánica de la naturaleza, sino que fueron necesarias reflexiones sobre el carácter científico de la mecánica. G. Kirchhoff renunció a la intención de la mecánica de explicarlos fenómenos. Según él, el fin y el objeto de la mecánica se restringe a una descripción completa y sencilla de los movimientos operados en la naturaleza. Duhem anota que la mayor parte de los fundadores de la termodinámica tendieron a hacer de esta una aplicación de la dinámica. Procuran deducir los teoremas de la termodinámica de los teoremas de la mecánica racional. Esta propuesta tiene éxito respecto al principio de conservación de la energía; pero tanto el dinamismo newtoniano como el mecanicismo puro cartesiano e incluso las más complejas teorías mecánicas no logran dar cuenta del segundo principio (Duhem, 1987). Mientras las leyes de la mecánica son reversibles, o simétricas en el tiempo, la segunda ley plantea un cambio irreversible en la entropía. Boltzmann creía haber reducido la segunda ley a principios mecánicos, lo que generó controversias. Según Kragh, E. Zermelo, basado en el teorema de recurrencia de Poincaré, argumentó que la segunda ley no podía derivarse de la mecánica, era incompatible con una imagen mecanicista. Boltzmann no admitió un desacuerdo entre la mecánica y la termodinámica. Poincaré y Rankine son, según Duhem, los autores más interesados en mostrar la incompatibilidad entre la termodinámica y la dinámica. Los energetistas, en cabeza de Rankine, empiezan el cuestionamiento al mecanicismo. Esta oposición apunta a la autonomía de la termodinámica y busca hacer de la mecánica un caso particular de una termodinámica general. Por su parte, para los alemanes Georg Helm y Ludwig Ostwald, la energía era el más importante de los conceptos unificadores de la física. La propuesta de Duhem se enmarca en una crítica a la explicación mecánica del universo (Duhem, 1911), que podría denominarse una física de imágenes, y designa su trabajo como una respuesta a la crisis de fundamentos de la mecánica racional. Por ello adelanta una revisión a la mecánica racional, la mecánica química y la termodinámica.
La exclusividad mecánica y el sustancialismo En muchos sentidos, dice Kragh, la energética resultaba contraria a la cosmovisión mecanicista y se enjuiciaba lo que se denominó “materialismo científico”. Duhem considera que la mecánica racional es una reducción, en cuanto concibe las propiedades físicas como combinaciones de figuras y de movimientos. De tal manera que Duhem cuestiona el objetivismo mecanicista al reflexionar en torno a la certitud del conocimiento desplegado desde esta cosmovisión. Esta crítica de Duhem toma como punto de referencia la física cartesiana (esta indagación la hace extensiva al nuevo cartesianismo), ubica allí un primer contexto desde el que las cualidades son negadas como posibles objetos a analizar. También Helmholtz, dice Duhem, hace una crítica a los físicos ingleses por el éter cartesiano. Duhem considera que desde esta perspectiva se reduce la física a matemáticas, se restringen a lo cuantitativo, a los números, de aquí que toda noción cualitativa sea rigurosamente rechazada. Todo es reducido a las categorías privilegiadas: la extensión y el movimiento local, es a ellas que se deben reducir todas las aparentes cualidades que afectan nuestros sentidos. Podemos afirmar que cualidades como la gravedad, el calor, la luz y la electricidad se sustancializan: “Así, toda la ciencia se reduce a una especie de aritmética universal de la que está radicalmente desterrada la categoría de cualidad” (Duhem, 1906-1914/2003, p. 148). Podemos afirmar que la negación de las cualidades por el mecanicismo implica la negación del sujeto en cuanto a su sensibilidad. Desde el realismo cartesiano se considera que existe algo externo e independiente al sujeto: la materia en su dinámica propia, es decir, con posibilidad de movimiento. Roldán, Ben-Dov y Guerrero ubican las raíces del reduccionismo mecanicista en la visión de Laplace y en la actualidad tiene eco, por ejemplo, en la física de partículas. Este reduccionismo es denominado por los autores monismo conceptual o filosófico, y por considerarse que lo que se describe es la realidad en sí, los autores lo llaman monismo metafísico. Otro aspecto que plantean estos autores para el mecanicismo es el carácter no “antrópico”, que consiste en la división estricta entre el observador y lo observado, en donde el sujeto se reduce a una mera contingencia, a algo que no es necesario para el entendimiento del mundo, porque lo fundamental para ello son las propiedades de los átomos y sus interacciones. “El reduccionismo sostiene que todas las cualidades típicamente humanas se reducen por completo a las interacciones de la materia” (Roldán et Al., 2004, p. 71).
Duhem no admite una imagen mecánica de la naturaleza, por ello no acepta problemáticas como la de la constitución de la materia (Duhem, 1894). Duhem se niega a reducir la termodinámica a un caso particular de la mecánica y aclara que la teoría de la potencia motriz del fuego de Carnot es independiente en sus postulados a la mecánica racional; señala que quienes plantean la ley de equivalencia entre el calor y el trabajo subordinan la nueva teoría a la dinámica, en particular al enunciado sobre el trabajo y la fuerza viva (Duhem, 1913). En el campo de la termodinámica, las disquisiciones relacionadas con la segunda de las tesis fundamentales de la teoría del calor y con el concepto de la entropía hicieron que la diferencia entre los procesos reversibles y los irreversibles se considerara, cada vez más, como un rasgo fundamental en todos los fenómenos naturales que no era posible hacer desaparecer por medio de una reducción conceptual. Paty plantea que a las magnitudes clásicas como aquellas de las coordenadas espaciales, el tiempo, la velocidad, la masa, la fuerza, el momento de inercia, el trabajo, la energía, etc., se suman otras como el potencial, la carga eléctrica, el campo; definidas en el espacio y el tiempo en reemplazo de la “acción a distancia” newtoniana instantánea y que fue difícil de concebir independientemente de un éter, y más tarde, otras más abstractas, por ejemplo, los números cuánticos, el spin. Estas magnitudes apelan, en su definición misma, a formas matemáticas variadas como los números, las funciones y las formas diferenciales. Siguiendo las necesidades o las comodidades de sus interrelaciones, estas magnitudes pueden tener la forma matemática de números complejos, vectores, tensores, matrices, funciones de cuadrado sumable definidas sobre los espacios de Hilbert y de los operadores lineales actuando sobre estas funciones, etc. En este sentido, este autor se refiere a las magnitudes en física que se ponen en juego en las leyes, magnitudes de géneros diversos, de forma cada vez más y más abstracta y alejada de aquella intuitiva y generatriz, de la simple dimensión espacial. El concepto de entropía, introducido por R. Clausius, era una de las más abstractas de estas entidades, que parecen a primera vista más matemáticas que físicas, en este sentido intuitivo. Más que una magnitud interpretable directamente sobre una escala de medida, es relativa siguiendo el tiempo y expresa un orden más que una medida en el sentido de una distancia o de una graduación. Paty dice que Duhem veía en el segundo principio de la termodinámica, es decir, en el aumento de la entropía para los sistemas cerrados, una ruptura con las concepciones mecánicas, porque ella
Olga Luz Dary Rodríguez / La cosmovisión de Pierre Duhem. Una perspectiva fenomenológica / P.P. 105-112
111
112
Física y Cultura: Cuadernos sobre Historia y enseñanza de las ciencias - No. 8 , 2014 / ISSN 1313-2143 / Análisis Histórico-Críticos
debe ser formulada de manera abstracta y no intuitiva, cuasi axiomática. Es posible darles un contenido “intuitivo”, después de su introducción, no tanto en la idea de proporcionar un modelo mecánico, sino una función teórica directa en el pensamiento de los fenómenos. De igual forma ocurriría con el concepto, anterior a la entropía, de potencial electrodinámico (Paty, 2001). La década de 1890 se caracterizó por una tendencia a la teoría electromagnética, de una oposición más importante incluso que la termodinámica y la energética. Muchos físicos teóricos intentaron derivar las leyes mecánicas de las del electromagnetismo por considerarlo más fundamental que la mecánica. El electromagnetismo se consideraba un principio unificador; los electrodinámicos se refieren al éter o al campo electromagnético, de manera similar al papel que se le asignaba a la energía en la energética de Ostwald; de forma semejante hablaban de la materia subordinada a la energía y concebían todos los sucesos como cambios de energía. En ambos casos el materialismo se descartaba y la materia se consideraba un epifenómeno. La física que surgió durante los primeros años del siglo XX no fue una revolución contra una cosmovisión newtoniana petrificada, pues ya para 1905 la cosmovisión mecanicista había recibido ataques por más de una década. El problema de la física a fines del siglo XIX fue la relación entre el éter y la materia. El punto de vista desde el que se le da primacía a las estructuras del éter se volvió común en el cambio de siglo, cuando los modelos mecánicos del éter fueron reemplazados por electrodinámicos. No obstante, la cosmovisión etérea de una realidad que no era directamente accesible a los sentidos, no era aceptada por Mach, Ostwald ni por otros fenomenalistas. Según Kragh, los libros de texto de este periodo se fundamentaban en una base mecánica y no reflejaban el cambio de la cosmovisión que se discutía en la física teórica. En particular Mach, anota Cassirer, combate agudamente la mentalidad de la primera mitad del siglo XVIII que admitía “imponderables” particulares como soporte para cada zona particular de fenómenos: la materia portadora de la luz y del calor, la materia magnética y la eléctrica. Su teoría del conocimiento solo admite la realidad dada por los sentidos (el color, el olor, etc.), estos datos constituyen los elementos fundamentales del ser, sin que detrás de ellos debamos buscar otros. De manera que “todo lo que sale del marco de la comprobación de los hechos transmitidos por los sentidos cae bajo la sospecha de la ‘transcendencia’, sin que sea posible establecer ya una línea segura de demarcación entre los asertos de la teoría física y los de la metafísica” (Cassirer, 1986, p.118).
En la conferencia de 1910 en Königsberg, ante investigadores de la naturaleza y médicos alemanes, plantea Cassirer, Max Planck expuso los motivos que obligaron a la física a cambiar de actitud ante la concepción mecánica de la naturaleza. El lugar principal lo ocupa el problema de la mecánica del éter. La existencia de un éter luminoso material es un postulado de la concepción mecánica de la naturaleza, pero su comportamiento contrasta con el de las demás materias conocidas. Se agotó la posibilidad de llegar a conocer la verdadera constitución del éter luminoso, y dejó de indagarse sobre la naturaleza de este, para examinar críticamente los fundamentos sobre los cuales descansaba la admisión de su existencia.
La causalidad y la explicación de los fenómenos Duhem muestra que la tarea del físico no es develar el mecanismo de la naturaleza que tiene existencia independiente de él. Plantea que pretender dar una explicación mecánica al universo no es una realidad sino un sueño. Considera que las leyes no se explican, es decir, que no se debe buscar una verdad bajo las apariencias sensibles. Duhem sitúa esta pretensión explicativa en el campo de la metafísica: […] esas dos preguntas: ¿Existe una realidad material distinta de las apariencias sensibles?, ¿cuál es la naturaleza de esta realidad? No son de la competencia del método experimental, ya que ese método solo conoce las apariencias sensibles y no podría descubrir nada que las superara. La respuesta a estas preguntas trasciende los métodos de observación que utiliza la física; es objeto de la metafísica. (Duhem, 2003, p.7).
Duhem no comparte la idea mecanicista de buscar realidades. Plantea que una teoría física está compuesta de una parte explicativa y otra representativa, lo que se le cuestiona a una teoría está en su parte explicativa y los hechos contradicen la intención de captar realidades. Entonces, Duhem considera que las escuelas cartesianas y atomistas plantean un conocimiento hipotético de la naturaleza de las cosas. Cassirer, por su parte, afirma que si la misión de la física teórica no consiste en penetrar en la esencia de las cosas, sino que, en vez de eso, ha de restringirse a una descripción mediante una clasificación sistemática de los fenómenos, entonces, No rige aquí ninguna relación unilateral de dependencia, como ocurre en la relación de “causa” a “efecto”, ninguna relación lógica entre un “antes” y un “después”. Reina, más bien, una
simple interdependencia o relación mutua, que encuentra su expresión más simple en el concepto matemático de la función. Una vez que se reconoce el concepto físico de la fuerza como un simple caso específico del concepto de función, desaparece la necesidad de conferir a las fuerzas mecánicas una posición especial cualquiera y de tratar a los fenómenos del movimiento, en cualquier sentido, como “más conocidos” o “más simples” que cualesquiera otros. (1986, p. 113).
El trabajo de Mach, considera Cassirer, enfatiza en diferenciar entre el postulado de la comprensión causal de la naturaleza y el de su conocimiento mecánico. Anota Cassirer que tanto Helmholtz como Wundt, no establecen fronteras entre estos dos problemas, pues ambos pretendían “derivar los axiomas de la mecánica como simples corolarios del principio general de causalidad” (Cassirer, 1986, p. 114). Según este autor, para Mach la ley de causalidad solo exige que el acaecer tenga un carácter determinado y unívoco; no privilegia ninguna zona de este acaecer sobre todas las demás. Entonces resulta imposible “demostrar el carácter mecánico de toda ‘verdadera’ y rigurosa causalidad” (Ibídem). Para Mach, el principio general de la causalidad no se enlaza de manera directa al principio de que todas las causas de la naturaleza son causas de movimiento. Este nexo lo tiene con otro principio mucho más general: “el de que el trabajo no puede obtenerse de la nada”, se trata del principio de la conservación del trabajo; en otras palabras,que es imposible la existencia de un móvil perpetuo. Apoyándose en sus análisis históricos Mach plantea que la certeza sobre tal principio no descansa sobre la mecánica, puesto que su validezse estableció mucho antes de haberse desarrollado esta ciencia. De igual forma, sus análisis históricos lo llevan a exponer que los principios físicos “no tienen nada que ver con ninguna clase de reflexiones sobre el carácter y las últimas causas de los acaecimientos naturales”. La reflexión y la abstracción en la ciencia no son nunca el punto de partida, sino el de llegada. De manera que se reduce a fórmulas los resultados obtenidos a través de miles de casos concretos. Se concluye, entonces, “que es falso pretender convertir la concepción mecánica del universo en base de toda la física y en la axiomática de ésta […] nada nos autoriza ni nos obliga a conceder a esta serie de cualidades una posición privilegiada en nuestra imagen científica del universo” (Cassirer, 1986, p. 115 y 116).
En este contexto es claro que el valor ontológico que se le otorga exclusivamente a las sensaciones y representaciones espaciales, desde el privilegio a lo mecánico, es una suposición metafísica, imposible de ser demostrada.
El fundamento conceptual de la ciencia mecanicista fue objeto de estudiosos de la física y de la filosofía, entre los cuales se destaca Mach y Duhem. Durante mucho tiempo, plantea este autor, los físicos supusieron a priori que todas las propiedades de los cuerpos se reducen a combinaciones de figuras y de movimientos locales. De esta forma, las leyes generales que obedecen todas las propiedades físicas corresponden a los principios que rigen el movimiento local, es decir los principios de la mecánica racional.
Los modelos, la exclusividad matemática y la ausencia de experiencia El fenomenismo que desplaza al realismo de la ciencia física en el siglo XIX, llevó a cada investigador a resolver por su propia cuenta los problemas, imprimiéndole un sello particular a su actitud y producción científica (Cassirer, 1986). El principio de la conservación de la energía marca un cambio de rumbo en la teoría física. Mientras que Helmholtz procura deducir este principio de la concepción mecánica de la naturaleza, R. Mayer lo sitúa en la equivalenciaentre el calor y la energía mecánica, sin preocuparse por la naturaleza del calor. Así como no puede deducirse que la gravitación y el movimiento sean fenómenos idénticos no es posible establecer conclusiones respecto al calor. Por ello Mayer traza una división entre su teoría y todas las hipótesis formuladas por la filosofía de la naturaleza (Cassirer, 1986). El primer principio parte del principio de la conservación de las fuerzas vivas, como lo formuló en mecánica Huyghens y Leibniz. Luego, no existe ninguna pugna entre energética y mecánica. Es posible derivar del principio de la conservación de la energía los principios mecánicos de la conservación de la fuerza viva y de la conservación de la suma algebraica de las magnitudes del movimiento, en lugar de convertir la concepción mecánica en base de la deducción del principio. Planck optó por esta vía (Cassirer, 1986, p. 120 ). Mayer procura entrelazar los distintos procesos naturales, sin cambiar ni desaparecer su cualidad: sus diferencias; se trata de reglas cuantitativas generales, el paso de una a otra zona se efectúa con sujeción a determinadas proporciones numéricas constantes. Lo que establece Mayer son los límites naturales de la investigación humana. La energética es consonante con esta concepción, desde lo epistemológico Rankine es el primero que habla de energética. Propone que la física puede seguir dos direcciones:
Olga Luz Dary Rodríguez / La cosmovisión de Pierre Duhem. Una perspectiva fenomenológica / P.P. 105-112
113
114
Física y Cultura: Cuadernos sobre Historia y enseñanza de las ciencias - No. 8 , 2014 / ISSN 1313-2143 / Análisis Histórico-Críticos
Una de ellas consiste en marchar tras los fenómenos para descubrir sus causas y averiguar el sustrato que les sirve de base, o bien detenerse en una clasificación de los fenómenos, para determinar simplemente los factores que les son comunes y las relaciones fijas existentes entre ellos. (Cassirer, 1986, p. 123).
Rankine opta por el segundo camino, porque no se abandona la experiencia ni se recurre a hipótesis que se pueden probar. Aspira a trazar límites con mayor nitidez, En vez de reducir las distintas clases de fenómenos […] a movimientos y fuerzas, […] simplemente inferidos, basta […] con detenerse en una simple ecuación y llegar a la postre a principios valederos para todos los casos por igual y que representan, por tanto, la última conexión de los hechos a que podemos aspirar. (Cassirer, 1986, p. 123 y p.124).
Helm rechaza la idea de que la energía sea una sustancia indestructible que se mueve de un lugar a otro; por el contrario para él, la energía no expresa más que relaciones: Para la física teórica general no existen ni los átomos ni la energía, ni ningún otro concepto por el estilo, sino solamente las experiencias directamente derivadas de los grupos de observaciones. Por eso, lo mejor de la energética es […] que se presta mucho más que las anteriores teorías a ajustarse directamente a las experiencias, y […] los intentos que se hacen para atribuir a la energía una existencia sustancial entrañan una dudosa desviación de la claridad originaria con que se presentan las ideas de Robert Mayer. (Citado por Cassirer, 1986, p. 124: Helm, “Die Energetik”, 1898, p. 362).
Desde la física fenomenológica el fenómeno es un objeto de conocimiento físico; ahora se vuelve “una serie de elementos de conciencia y estados de conciencia”. No es nuevo que “el objeto de la física no representaba nada absoluto”, sino que estaba formado por relaciones. Para Kant, en su Crítica de la razón pura (Cassirer, 1986, p. 126), la materia es substantia phaenomenon, sus efectos son manifestaciones de los “sentidos externos”: Se trata de algo relativamente interior (relativo al entendimiento puro), formado a su vez por relaciones externas. De otra parte, Mach ve plausible la introducción en física de elementos ideales como parte de los “experimentos mentales” necesarios para construir la física. Para él resulta dudoso que sea lícito experimentar con simples “pensamientos” acerca de las cosas. El sistema hertziano concluye que no es posible desglosar de una teoría de la naturaleza una “pieza integrante” de ella, por ejemplo el concepto de fuerza o el de masa, para buscar el objeto correlativo de ella y poder juzgar, según esto, su validez. Duhem opta por la teoría electrodinámica de Helmholtz, considera que sus ecuaciones carecen de los paralogismos de Maxwell y que explica todos los hechos de los que dan cuenta las ecuaciones de Hertz y de Maxwell, sin los desmentidos que la realidad opone a estas últimas. “La razón no puede dudar, exige que se prefiera esta teoría. Pero la imaginación prefiere utilizar el elegante modelo algebraico elaborado por Hertz […]” (Duhem, 19061914/2003, p. 116).
J.B. Stallo (Cassirer, 1986) atacó las teorías cinética de los gases y la atomística de la materia. Según él, cuando se piensa no está presente una cosa sino un estado de conciencia: el pensamiento físico involucra solo la descripción y clasificación de esos resultados de conciencia.
Duhem cuestiona a Hertz por considerar que la física matemática es una colección de modelos algebraicos. Señala que este autor acepta las ecuaciones de Maxwell tal y como son, sin examinar las definiciones o las hipótesis de las que se derivan y sobretodo sin preocuparse porque las consecuencias fueran sometidas al control de la experiencia.
Duhem muestra que la tarea del físico no es develar el mecanismo de la naturaleza que tiene existencia independiente de él. Plantea que pretender dar una explicación mecánica al universo no es una realidad sino un sueño. Considera que las leyes no se explican, es decir, que no se debe buscar una verdad bajo las apariencias sensibles.
Duhem construye argumentos para su postura física. Le da argumentos al lector para pensar de manera diferente sobre las matemáticas, para pensar en una física matemática que permita recuperar al sujeto en su carácter de ser cognoscente, poseedor de una dimensión sensible, obviamente mediada por la razón, pero no reducida a ella. En este sentido la representación desempeña el papel de concretar esta propuesta físico matemática, pues es en la actividad consciente de construir leyes experimentales y de plantear principios que es posible mostrar los diversos intentos de los físicos que propenden a la formalización en física. Y aún más allá, se trata de mostrar que la tarea del físico no es develar el mecanismo de la natu-
raleza que tiene existencia independiente de él, sino de construir esta naturaleza en tanto que fenomenología y organización intelectual de esta, “[…] la physique, en tant que science, est une pensée” (Paty, 1988). Kragh plantea que Mach, Ostwald y sus aliados sostenían que los átomos “no eran sino ficciones convenientes” (Kragh, 2007). Sustentaban que las leyes de la mecánica debían someterse a principios energéticos. El atomismo no se aceptaba, excepto como mera representación mental. Pues planteaban que la creencia en átomos y moléculas era metafísica y que por lo tanto se podía dar cuenta de todos los fenómenos sin recurrir a hipótesis atómicas. S. Jaki resalta que para Duhem los formalismos matemáticos de la física no les dan a los físicos privilegios para referirse de forma absoluta y definitiva sobre aspectos cuantitativos de las entidades materiales, menos aún acerca de su naturaleza (Jaki, 1996). Quienes usan modelos pretenden representar geométricamente las propiedades, dice Duhem. La intención es contar con una simplicidad en el número de propiedades. Por ello cuestiona a los atomistas y sus modelos mecánicos. Según Maiocchi hay una tradición que considera que Duhem repite a Mach. Su oposición al atomismo es identificada con aquella de su contemporáneo. Según este autor, existen diferencias en las epistemologías de estos dos autores, que se exhiben en sus oposiciones a lo atomístico. Para ambos, pero en especial para Duhem, no se combate lo atomístico según el esquema usual fenomenismo vs. hipotetismo, porque Duhem ha argumentado enfáticamente que cada teoría científica es hipotético-deductiva. No tendría sentido, desde su concepción, acusar a la teoría atómica de ser hipotética. La aversión duhemniana al enfoque atomista se arraiga en su convicción de que se debe rechazar toda teoría que emplee modelos figurativos. Si Mach veía en el uso de la figuración analógica, […] en la versión maxwelliana, la vía trazada por la investigación científica, él refutaba los modelos atómico moleculares, porque son malas figuraciones. En cuanto a Duhem él refuta toda figuración. Esta posición de Duhem proviene fundamentalmente, de una parte, de su posición muy crítica a la física inglesa, y de otra parte a su gran admiración a la termodinámica de Gibbs. (Maiocchi, 1992, p. 376).
Maiocchi plantea que el modelo inglés exige dar un ropaje material a los símbolos matemáticos, encarnar sus ecuaciones, y que el fenomenismo propone conceptos ligados a la experiencia, lo que es un pilar del positivismo. Según este autor, el problema epistemológico de su nueva termodiná-
mica es opuesto al del fenomenismo: “No se trata de reivindicar los derechos de la experiencia o de la intuición sensible, suficientemente defendidos por el positivismo y por el modelismo anglosajón, sino de confirmar los derechos de la abstracción” (Maiocchi, 1992, pp. 382 y 383). En la “L’évolution de la mécanique”, en 1903, plantea Maiocchi, Duhem traza la parábola del mecanicismo, que ve alejarse el sueño de descubrir con sus modelos la realidad y se refugia en un modelismo orgánico y contradictorio, característico no solo del mecanicismo anglosajón, sino del programa de Boltzmann. Según Duhem, el empleo de modelos figurativos obliga a la ciencia a ser una forma de instrumentalismo. Desde su discusión sobre el atomismo en química, Duhem sostiene únicamente que los átomos no existen porque la teoría atomística no es sino un instrumento; en contrapartida, su crítica sobre lo atomístico en física, con la forma que había tomado a principios de siglo a nombre del realismo, propone que si se quiere ser realista no se puede aceptar la teoría modelista figurativa de la nueva atomística. El atomismo en química se equivocó porque asumía como realidad lo que era solo un instrumento; mientras que el atomismo en física se equivocó por entrar en un modelismo instrumentalista que retardaba la posibilidad de una teoría realista. Por el contrario, la termodinámica generalizada de Duhem evoluciona hacia una ciencia no meramente instrumental, ni realista, ni tampoco hacia una clasificación artificial, sino hacia una clasificación natural. A esta convicción Duhem permaneció fiel toda su vida, dice Maiocchi, pese a los triunfos continuos de las concepciones atomísticas. El “Examen logique de la théoriephysique” (Duhem, 1913), texto que escribe Duhem en los últimos años de su vida, identifica de nuevo una escuela neo-atomista, que emplea el método modelista, y hace una síntesis de sus opiniones sobre el tema durante 20 años. Maiocchi considera que la postura de Duhem puede ser interpretada de dos maneras opuestas. Uno, como el desprecio de un intelectual enceguecido por prejuicios filosóficos, incapaz de acogerse a las tendencias reales de la ciencia de su época; o dos, se le puede dar un valor profético. Si la crítica de Duhem de lo atomístico en la química no era nada más que una nueva edición refinada de las ideas del siglo XIX, la crítica fundada sobre el análisis del modelismo mecanicista en física tocaba un problema decisivo para los desarrollos teóricos de la física del siglo XX, problema que Duhem veía más claramente que la mayoría de los atomistas.
Olga Luz Dary Rodríguez / La cosmovisión de Pierre Duhem. Una perspectiva fenomenológica / P.P. 105-112
115
116
Física y Cultura: Cuadernos sobre Historia y enseñanza de las ciencias - No. 8 , 2014 / ISSN 1313-2143 / Análisis Histórico-Críticos
Maiocchi piensa que es un error oponer el antimodelismo duhemniano a los desarrollos de la física atómica del siglo XX. Esta oposición tiene sentido durante un periodo, pero después pierde sentido. En los primeros años del siglo XX la física atómica es modelista: ella empleó modelos figurativos, con un fin de figuración concreta; así, para Duhem ella es inaceptable, se trata de un mecanicismo de derivación inglesa. En algunos años la física atómica se libera de su dependencia de los modelos para aproximarse a una teoría matemática sin alguna representación concreta sacada del mundo habitual de la física clásica. Este abandono del modelismo figurativo no lleva a una filosofía fenomenista; sigue la vía hipotético-deductiva que Duhem había asignado a las teorías físicas. Este autor recuerda que un historiador de la mecánica y del atomismo (que estudia también al gran adversario de Duhem, Boltzmann) como R. Dugas (Maiocchi, 1992; Dugas, 1935) sustenta, en 1937, que la mecánica cuántica era una teoría conforme a los preceptos epistemológicos de Duhem. Según Maiocchi la creencia tan extendida de que la epistemología duhemniana es incompatible con la mecánica cuántica se funda sobre una falsa interpretación de la idea de modelo. Es verdad que dentro de las versiones más avanzadas de la mecánica cuántica se usan ampliamente consideraciones modelistas; pero, se trata de modelos matemáticos y no figurativos: son ecuaciones y no dibujos. El autor concluye: […] si bien la oposición de Duhem al atomismo proviene también de sus convicciones metodológicas, los desarrollos de la física atomista después de Duhem desembocan en una teoría que no parece en nada contradictoria con la opinión duhemniana de lo que debe ser una sabia teoría científica. Aquella no fue comprendida casi por nadie, y sobre el plano de la historia, lo que importa fue simplemente el rechazo por Duhem de la teoría atomística, rechazo que pone la comunidad científica a olvidarlo. (Maiocchi, 1992, p. 389).
Brenner plantea que desde la lógica se encuentran límites. Por ejemplo, frente a la multiplicación de modelos dispares de la forma de la física inglesa, Duhem, como partidario de una física unitaria, invoca la lógica y hace un llamado al sentido común: la incoherencia teórica se condena porque la física no es simplemente un instrumento (Brenner, 1992). Boyer resalta de Duhem que las hipótesis mecanicistas y atomistas no pueden ser probadas sobre la base de la experiencia. Ellas son instrumentos heurísticos, pero no un privilegio metafísico: “Duhem muestra que los sabios materialistas, lejos de ser fieles a su profesión de fe laica y positivista son metafísicos que se ignoran” (Boyer, 1992, p. 317).
Según Maiocchi, entonces, la nueva teoría unitaria de Duhem se opone a la física inglesa, ella también nueva, pero incoherente. La nueva energética propone un ejemplo de teoría científica matematizada, pero no modelista. Desde aquí, los principios no se fundan sobre cualidades hipotéticas de la materia y las leyes experimentales son el único material sobre el cual la física teórica puede trabajar; ellas tratan propiedades fenoménicas, y es condenada la pretensión de desaparecer las cualidades fenoménicas por reducirlas a la pura cantidad con la ayuda de estructuras hipotéticas ocultas (Maiocchi, 1992). Brenner resalta que para Duhem lo que el físico consigna en su informe de una experiencia son conceptos teóricos, que no recubren realidades concretas directas (Brenner, 1992). Siguiendo la misma línea de Hertz, Henri Poincaré en sus obras investiga la naturaleza de los procesos de formación de los conceptos y las hipótesis en las ciencias de la naturaleza (Cassirer, 1986, p. 135). Poincaré trata acerca del sentido de las hipótesis matemáticas, quería demostrar, a la luz de las geometrías no euclidianas, que la construcción de un sistema de axiomas matemáticos no se vincula con la experiencia, no podemos, de acuerdo con ella decidir cuál de los distintos sistemas posibles lógicamente, corresponde al espacio “real”, por lo tanto, la experiencia no decide sobre la “verdad” de una geometría. Ninguna geometría es “más verdadera” que otra; en cambio se opta por la “más cómoda” según los fines de la experiencia, se trata de indagar por el “instrumento de conocimiento más útil para la descripción sistemática de los conjuntos de hechos que le son dados” (Cassirer, 1986). Esta libertad sobre la creación de conceptos y de hipótesis se extiende a la física que, en la medida en que se considera teórica, usa las matemáticas y adelanta el mismo tipo de conocimiento que ellas. El hecho científico de la física se distingue del hecho en bruto en que no se limita a los datos de la percepción, sino que los expresa en el lenguaje de los símbolos matemáticos (Cassirer, 1986, p. 136). Los axiomas de la física no describen los hechos sueltos, tal como nos lo ofrece la experiencia. Todo principio físico debe su nacimiento a una sugestión de la experiencia. Pero no se puede derivar de aquí su grado de generalidad. La elevación a principio general es un acto libre de nuestro pensamiento físico. Poincaré y Hertz coinciden en este punto, las imágenes que nos formamos de los objetos exteriores no dependen solo de la naturaleza de estos objetos, “sino que deben su forma ‘a la lógica propia de quien las formula’” (Ibídem). Esta lógica plantea una concepción distinta y más rigurosa de los fenómenos que la que nos indica directamente la observación.
Esta transformación es, según Poincaré, el carácter fundamental de todo proceso de formación de las teorías físicas. La física antigua era una física de imágenes: se proponía representar la naturaleza de cada objeto o fenómeno investigado por medio de un modelo mecánico. Los rasgos de este modelo eran considerados como la reproducción de las características y cualidades del objeto y del fenómeno. La física “moderna” es una física de principios: el principio de Carnot, el principio de la conservación de la energía, el principio de la acción mínima, etc. Un principio no es una agrupación de hechos, ni de leyes sueltas. Lleva implícita la experiencia, “la exigencia del ‘siempre y en todas las partes’, que la experiencia como tal no puede jamás justificar. Lejos de tomarlo de la experiencia, lo empleamos como pauta de ella” (Cassirer, 1986, p. 137). Los principios, según Cassirer, son los puntos fijos de apoyo que nos orientan a través del mundo de los fenómenos. No son aserciones acerca del comportamiento empírico de las cosas, sino “máximas” mediante las cuales interpretamos este comportamiento, para reducirlas a una unidad. Poincaré enfatiza en que la elección de los principios es una decisión libre del pensamiento teórico. Las relaciones que expresan están sujetas a la comprobación constante de la experiencia, y es esta la que se encarga de afianzarlas en su validez objetiva. Solo el lenguaje de las teorías físicas y de los símbolos que en ellas empleamos se revela como un elemento variable. Su mutabilidad no excluye la continuidad y la trabazón lógica de las teorías, sino que, lejos de ello, se acredita como un medio para mantenerlas en pie. Para finalizar, anotemos que la crítica de Duhem al mecanicismo la lleva al campo de la enseñanza. Considera que es importante tener capacidad para resolver problemas no mecánicamente. Se trata de recuperar la función del pensamiento: La enseñanza superior está ya contaminada por el utilitarismo, y la enseñanza secundaria es víctima de esa epidemia. […] se hace tabla rasa de los métodos que hasta ahora se habían utilizado para exponer las ciencias físicas; se rechazan las teorías abstractas y deductivas; se hacen esfuerzos por proporcionar a los alumnos visiones inductivas y concretas; ya no se introducen en los espíritus jóvenes ideas ni principios, sino números y hechos […] creen formar hombres prácticos enseñándoles tan solo cosas concretas, les anunciamos que sus alumnos serán a lo sumo peones rutinarios, que aplicarán mecánicamente fórmulas que no comprenden, ya que únicamente los principios abstractos y generales pueden conducir al espíritu a regiones desconocidas y sugerirle la solución a dificultades imprevistas (Duhem, 1906-1914/2003, pp. 119 y 120).
Física duhemniana Carácter holista Multiplicidad vs.reduccionismo: la generalización
El carácter holista de la propuesta en física de Duhem es contrario a la cosmovisión mecanicista. Mientras el holismo es multiplicidad, el mecanicismo es reduccionismo por su privilegio a los fenómenos mecánicos. Reconoce y valida aspectos distintos a lo matemátizable, visto desde una mirada mecánica geométrica, a la cantidad, la cualidad. Así, desde la perspectiva de Duhem no solo los fenómenos mecánicos son abordados, sino también los térmicos, magnéticos, eléctricos y químicos.Para este propósito, propone una interpretación y una extensión conceptual de las categorías de la mecánica, consideradas por él como fundamentales para una imagen del mundo físico más general. Para ello, Duhem instaura categorías más generales como la de magnitud, y con ella la de medida, no restringida a las denominadas magnitudes extensivas, propias de la mirada mecánica, sino que al dar cabida a la cualidad de manera autónoma se da posibilidad a las denominadas hoy intensivas, entonces se cuenta con una noción de magnitud que involucra tanto la cantidad como la cualidad. De igual forma, el cambio ya no será exclusivamente de lugar, sino que abarcará también los aspectos ligados a la cualidad, se tendrá entonces la concepción de un cambio general o cambio de estado. Desde aquí el movimiento local es entendido solo como una clase de cambio más; ya que es posible concebir cambios de otras propiedades sin que haya cambio local necesariamente. El cambio en Duhem tiene un significado más amplio que el de cambio de lugar, su intención es mostrar que la “ciencia de los movimientos” ya no es, desde un orden lógico, la primera de las ciencias físicas, sino solo un caso particular de una ciencia más general que abarca todas las modificaciones de los cuerpos: Se comprenderá mejor que el cambio de lugar en el espacio no es una modificación más simple que el cambio de temperatura o de cualquier otra cualidad física; se huirá entonces más fácilmente de lo que ha sido hasta aquí el más peligroso obstáculo de la física teórica, la búsqueda de una explicación mecánica del Universo. (Duhem, 1894, p. 285).
Duhem denomina cambio de estado al movimiento general o modificación, este incluye no solo el cambio local como lo contempla la mecánica clásica, sino que involucra los cambios de cualquier cualidad; por ejemplo, la tempe-
Olga Luz Dary Rodríguez / La cosmovisión de Pierre Duhem. Una perspectiva fenomenológica / P.P. 105-112
117
118
Física y Cultura: Cuadernos sobre Historia y enseñanza de las ciencias - No. 8 , 2014 / ISSN 1313-2143 / Análisis Histórico-Críticos
ratura; los cambios involucran también lo químico, lo eléctrico y lo magnético (Duhem, 1913). Restringe a los movimientos proporcionados desde una física experimental, es decir, a las propiedades observables que los aparatos miden, los aparatos y los sentidos, “son estos datos inmediatos de la observación y de la experiencia que serán capturados por sus fórmulas” (Duhem, 1913, p. 74). El esquema que procura constituir Duhem es simple, en la medida en que se involucra la mayor cantidad de propiedades posibles, sin elegir unas como las fundamentales para reducir las demás a estas; en cambio, establece la simplicidad desde la organización de las leyes. A través de las leyes se organizan las propiedades: se instauran fenomenologías. Las leyes dan contexto a las propiedades (Duhem, 1911), ya que en este proceso una propiedad adquiere sentido físico al teorizarse, es decir, cuando se representa mediante una magnitud en los procesos de medición. Se intenta, entonces, incluir unas leyes en otras: representar un conjunto de leyes. Lo que implica establecer vínculos entre campos fenoménicos distintos: correlacionar efectos diversos, mediante el establecimiento de nuevas fenomenologías. Duhem proporciona una física más general que la mecánica racional, sus nuevos principios son más amplios que los de la estática y la dinámica. Para ello, Duhem generaliza los axiomas de la antigua mecánica y los axiomas de la reciente termodinámica. La unificación
Esta propuesta global se ubica en el contexto de unificar termodinámica y mecánica. La reducción mecanicista es desplazada por una mirada global, centrada en el concepto de energía. Así, se incluyen desde el mismo punto de vista distintos fenómenos y no solo los mecánicos y se establecen entre la variedad relaciones aspectos comunes que llevan a una organización que da cuenta de la totalidad. Según Maiocchi, para Duhem el ideal de cientificidad proviene de los desarrollos de la termodinámica y en particular del nacimiento de la mecánica química, después de la formulación que Gibbs ofrece de los principios de la termodinámica. Duhem vio en la mecánica química la demostración de que la termodinámica se convertía en una teoría más amplia que la mecánica, capaz de unificar sectores de la experiencia que aparentemente estaban separados, como los fenómenos mecánicos, térmicos, químicos; una teoría capaz de ampliarse a un campo experimental más amplio. Para Duhem era la realización más completa del programa de la energética, esbozado por Rankine y realizado en lo que concierne a la química por Gibbs y la escuela de Sainte-Claire Deville (Maiocchi, 1992).
Angèle Kremer-Marietti comenta que para Duhem la termodinámica es una rama autónoma de la física, con leyes propias, suficientes para organizar una teoría general relativa a un grupo determinado de fenómenos. La ambición de Duhem por una termodinámica generalizada corresponde a la de un teórico de la física, a la de un físico, en cuanto quiere unificar el conjunto del dominio físico. La autora considera que por clásico que sea el proyecto unitario de Duhem, se trata de la obsesión de científicos de todos los tiempos, incluso los más modernos. De aquí viene la crítica duhemniana a la escuela inglesa, porque para Duhem esta última tiene multiplicidad de modelos (Kremer-Marietti, 1992).
La física como sistema La energética de Duhem pretende ser un sistema lógico que proporciona una imagen de las leyes experimentales. Por lo tanto se plantea una adaptación entre el sistema y el conjunto de leyes físicas. Esto es posible gracias a la formalización. Así el sistema es visto como una clasificación. Que adquiere un carácter natural en la medida en que ordena muchas leyes, en principio inconexas. Duhem se apoya en Pascal, quien plantea que sus teorías son una imagen, cada vez más clara y fiel de un orden real. Se puede adicionar que en el rasgo natural del sistema se nota la posibilidad de prever resultados de experiencias aún no realizadas o de plantear leyes experimentales posibles: […] reconocemos en la teoría una clasificación natural, si creemos que sus principios expresan relaciones profundas y auténticas entre las cosas, no nos sorprenderá ver cómo sus consecuencias preceden a la experiencia y provocan el descubrimiento de leyes nuevas; en un gesto atrevido apostaremos a su favor […]. Y cuando la experiencia confirma las previsiones de nuestra teoría, sentimos que nos reafirmamos en esta convicción de que las relaciones establecidas por nuestra razón entre nociones abstractas corresponden realmente a relaciones entre las cosas. (Duhem, 2003, p. 27).
Por lo tanto, se plantea una relación indisociable entre lo fenomenológico y lo estrictamente teórico, referirse al sistema óptico implica no solo la fenomenología óptica, sino también el conjunto de proposiciones teóricas ligadas a este contexto. Así se hablaría del sistema de la emisión de Newton, Laplace o Biot; o se podrían establecer diferencias entre los sistemas de Newton y de Ampere. Para Duhem: La física no es una máquina que se pueda desmontar; no se puede probar cada pieza aisladamente y esperar, para ajustarla, a que su solidez haya sido minuciosamente controlada. La ciencia física es un sistema que hay que tomar entero; es un organismo
del que no se puede hacer funcionar una parte sin que las partes más alejadas entren también en juego, unas más y otras menos, pero todas en cierto grado. Si en este funcionamiento surge algún problema, alguna dificultad, el físico deberá adivinar, a través del efecto producido sobre todo el sistema, cuál es el órgano que necesita ser corregido o modificado, sin que le sea posible aislar ese órgano y examinarlo aparte. El relojero al que se le entrega un reloj que no funciona separa todos los mecanismos y los examina uno por uno hasta encontrar el que está desajustado o roto. El médico al que se le presenta un enfermo no puede diseccionarlo para establecer su diagnóstico, sino que ha de adivinar el lugar y la causa del mal examinando las alteraciones que afectan a todo el cuerpo. Es a este y no a aquel a quien se parece el físico encargado de reajustar una teoría defectuosa. (Duhem, 2003, p. 247). La imposibilidad del experimento crucial El método experimental no puede convertir una hipótesis física en verdad indiscutible, pues nunca se está seguro de haber agotado todas las hipótesis imaginables con respecto a un grupo de fenómenos; el experimentum crucis es imposible; la verdad de una teoría física no se decide a cara o cruz. (Duhem, 1987, p. 163).
Quine identifica en el enfoque de Duhem un carácter holista, se refiere al planteamiento de Duhem que va en contra de la concepción de experimento crucial: […] la hipótesis no se refuta concluyentemente porque la categórica observacional sea falsa. Lo que resulta refutado es la totalidad de oraciones, unidas mediante conjunción, que en su momento necesitamos para implicar la categórica observacional. Si nos vemos forzados a desdecirnos de esa conjunción de oraciones, las posibles soluciones no se limitan a la consistente en retirar la hipótesis en disputa; en vez de eso, podríamos desdecirnos de alguna otra oración del conjunto. En esto consiste la importante doctrina que llamamos holismo. Pierre Duhem puso gran énfasis en ella hacia comienzos de este siglo, y no se excedió al hacerlo. (Quine, 1992, p. 34).
Perspectiva fenomenológica Cassirer sitúa el trabajo de Pierre Duhem en una época de transición y de crítica de lo clásico, del realismo, hacia un fenomenismo. Como se trata de un contexto en el que se discute sobre los fundamentos, hay una proliferación de diferentes modos de ver en física. Para Mach, Planck, Boltzmann, Ostwald, Poincaré, Duhem, entre otros, una teoría física y su aporte, ofrece concepciones distintas, e incluso opuestas. No se trata de un simple cambio de la intención y del designio de la investigación (Cassirer, 1986).
La teoría es la “adaptación a los hechos” para Mach y Ostwald, plantea Cassirer, y por consiguiente, la simple reproducción de estos. Para ellos: Una ley física o un principio físico no poseía nunca un valor sustantivo de conocimiento comparable de la percepción directa, ni mucho menos superior al de ella […]. Las leyes no son sino catálogos de hechos sueltos; los principios, simplemente, registros de leyes. (Cassirer, 1986, p. 134).
Mach, según Kragh, desde 1880 defendió una interpretación fenomenológica de la física, según la cual las teorías y conceptos físicos eran formas económicas de organizar sensaciones.
Duhem proporciona una física más general que la mecánica racional, sus nuevos principios son más amplios que los de la estática y la dinámica. Para ello, Duhem generaliza los axiomas de la antigua mecánica y los axiomas de la reciente termodinámica.
Desde Mach, en la experiencia todas las clases de cualidades están entrelazadas. Existen formas de percepción análogas al espacio, como por ejemplo, los sonidos. Si no se plantean suposiciones metafísicas no susceptibles de ser demostradas, se le asigna, el mismo valor ontológico. Tenemos las mismas razones para una representación sonora que para una espacial. Mach plantea como único camino seguro “permanecer dentro de la órbita de los fenómenos mismos y describirlos tal y como son, en su pura realidad dada” (Cassirer, 1986, p. 116). Sin buscar fundamentos de explicación “no dados”. Propone que la física conozca la interdependencia de los fenómenos, que puede “comprobarse directamente”, sin necesidad de ninguna clase de sustrato hipotético. El espacio y el tiempo no requieren, para su definición ninguna “forma” especial de la intuición, no hay por qué conceder ninguna superioridad sobre los contenidos sensibles: el color, el sonido o la presión (Cassirer, 1986). Lo que llamamos tiempo y espacio, dice Mach, solo puede ser conocido por nosotros por su interrelación con otros fenómenos. “Las determinaciones en el espacio no son,
Olga Luz Dary Rodríguez / La cosmovisión de Pierre Duhem. Una perspectiva fenomenológica / P.P. 105-112
119
120
Física y Cultura: Cuadernos sobre Historia y enseñanza de las ciencias - No. 8 , 2014 / ISSN 1313-2143 / Análisis Histórico-Críticos
por tanto, tampoco, más que determinaciones de unos fenómenos por otros” (Cassirer, 1986, p. 117). Así, Mach enfatiza que en la física actual todo fenómeno es una suma de funciones de otros fenómenos y de ciertas situaciones en el espacio y el tiempo. Concluye que si se representa esto mediante ecuaciones; entonces, cada fenómeno será función de otros fenómenos. De esta manera la física fenomenológica de Mach se opone a la física mecánica. Boltzmann y Planck rechazan enérgicamente esta concepción y ven en ella una “inadmisible restricción de la idea del conocimiento físico” (Ibídem). Mach eliminó el concepto metafísico de sustancia y con ello, dice Cassirer, descargó a la física de muchos problemas. Para Mach, determinadas ecuaciones o relaciones “(…) representan lo que hay de verdaderamente constante en las cosas(…)” (Ibídem) y en la experiencia puede atribuirse cierta “sustancialidad” a estas relaciones constantes.
Cassirer sitúa el trabajo de Pierre Duhem en una época de transición y de crítica de lo clásico, del realismo, hacia un fenomenismo. Como se trata un contexto en el que se discute sobre los fundamentos, hay una proliferación de diferentes modos de ver en física. También en contraste con la perspectiva mecanicista, Duhem ve la necesidad, en su física, de establecer relación con la experiencia. Así, reconoce una variedad fenomenológica, siendo los fenómenos mecánicos solo una clase de tal multiplicidad. De aquí que le incomoden los modelos, tanto matemáticos como mecánicos, en tanto se alejan de las sensaciones, de lo fenoménico, de lo físico. Se comprende que las denominadas apariencias desde el discurso mecanicistas adquieren un lugar importante en Duhem, pues se constituyen en el punto de partida y en el referente necesario a la hora de indagar por la pertinencia de las conclusiones teóricas. Lo sensible, las percepciones, y las leyes experimentales no son considerados como apariencias de la verdad que se oculta tras ellas, pues no interesa la indagación por las causas últimas, sino que nuestro conocimiento se limita a los efectos, a lo observable, a lo medible. Aquello que no tenga asidero en la experiencia pierde sentido lógico.
Según Duhem, es necesario cambiar las causas por los efectos para comprender que gracias a los procesos de medida es posible construir las magnitudes físicas; en otras palabras, se tendrá una representación completa del estado del atributo si se conoce el patrón asociado a la cantidad y si, para los diversos estados de la cualidad, es decir, diferentes intensidades, se conoce la escala. Así, la medida permite dar un carácter físico a la magnitud, es a través de efectos que se tiene la fenomenología. Las nuevas experiencias con relación a las cualidades hacen posible extender el campo sensible desde aquello que es geométrico espacial a aquello que es térmico, eléctrico, químico y magnético. Es en este sentido extendido que Duhem hablará de físico y es a partir de esta extensión que la magnitud debe ser significada. La categoría de sistema también cambiará porque las cualidades no se geometrizarán más, no se reducirán más a las propiedades del prototipo predeterminado de los sistemas mecánicos. Desde esta nueva mirada, las propiedades y las magnitudes físicas son las que construyen el sistema; es decir, no hay objetivación a priori, la realidad física es construida fenomenológicamente a partir de relaciones entre los efectos. De aquí que la indagación por la esencia de las cosas ahora se cambia por “la necesidad práctica de actuar sobre los cuerpos del mundo exterior y de modificarlos según nuestras necesidades” (Duhem, 1903/1992, p. 221). Necesidades que en el terreno de la construcción de las teorías físicas, sin lugar a dudas, resultan ser cognoscitivas. Las cualidades son identificadas como sensaciones y con ello es claro su contexto físico experiencial: La sensación de calor que probamos tocando las diversas partes de un cuerpo nos hace percibir una cualidad de ese cuerpo; esto es lo que expresamos diciendo que este cuerpo está caliente. Dos cuerpos diferentes pueden estar igualmente calientes; ellos poseen a una misma intensidad la cualidad considerada. De dos cuerpos, el uno puede estar más caliente que el otro; el primero posee la cualidad considerada con más intensidad que el segundo. Sin profundizar antes en la naturaleza de la cualidad que expresa el adjetivo caliente, sin intentar sobretodo descomponerla en elementos cuantitativos, podemos muy bien concebir que se haga corresponder un número a cada uno de sus estados, a cada una de sus intensidades; que dos cuerpos igualmente calientes sean caracterizados por el mismo número; que, dos desigualmente calientes, el más caliente sea caracterizado por el número más grande; los números así elegidos serán grados de temperatura. (Duhem, 1903/1992, pp. 199y 200).
¿Podría plantearse que la física de Duhem es una generalización de la mecánica? Duhem planteará que usando una misma manera de formalizar, en su caso la forma lagrangiana analítica, es posible organizar los fenómenos termodinámicos, electromagnéticos, químicos y electrodinámicos, en este sentido hay una extensión del campo fenoménico, no se reduce solo al mecánico. Hadamard plantea que Duhem retoma los dos principios de la termodinámica como hipótesis, al igual que tomó otras hipótesis físicas; de allí infiere efectos en campos muy diversos; llega hasta las últimas consecuencias, confronta con los hechos observados u observables. Considera que todo desacuerdo es una objeción grave contra las hipótesis iniciales y todo acuerdo una confirmación (Hadamard, 1927). Así, Hadamard reconoce que debe haber acuerdo experimental desde la perspectiva de Duhem. La paradoja duhemnina a la que se refiere Stoffel: realismo vs. fenomenalismo, se disuelve cuando se confiere un estatus al fenomenalismo en la propuesta física de Duhem y se deslinda del terreno metafísico. Esta salida fue planteada por el mismo Duhem, al ubicar el realismo en el plano metafísico y el fenomenalismo en el plano de la ciencia; concluye entonces que por pertenecer a planos distintos no pueden compararse ni juzgarse mutuamente sus enunciados. Stoffel también plantea que Duhem utiliza su trabajo histórico para hacer evidente la existencia de una tradición fenomenalista, paralela a la mecanicista.
Duhem, P. (1894). Commentaires aux principes de thermodynamique. Journal de mathématiques pures et appliquées [4 serie, tomo 10]. Duhem, P. (1911). Traité d’énergétique ou de thermodynamique générale. París: Gauthier-Villars, imprimeur-libraire. Duhem, P. (1917). Notice sur les travaux scientifiques de Pierre Duhem, rédigée par lui-même lors de sa candidature à l’académie de sciences (mai 1913). En “Mémoires de la société des sciences physiques et naturelles de Bourdeaux, series 7, vol. 1 (1917), pp. 71- 169. Duhem, P. (1987). Prémices philosophiques. Leiden: E. J. Brill. Duhem, P. (1903/1992). L’évolution de la mécanique. Paris: Vrin. Duhem, P. (1906-1914/2003). La teoría física, su objeto y su estructura. Barcelona: Ed. Herder. Hadamard, M. J. (1927). L’oeuvre de Pierre Duhemdans son aspectmathématique. Hadamard. Mémoires de la societé des sciencesphysiques et naturelles de Bordeaux[7 serie, cuaderno 2]. Helm, G. (2000).The historical development of energetics. Leipzig: Kluwer Academic Publishers. Jaki, S. L. (1996). La ciencia y la fe. Pierre Duhem. Madrid: Ediciones Encuentro.
Referencias Boyer, A. (1992). Physique de croyant? Duhem et l’autonomie de la science. Revue International de Philosophie. Pierre Duhem, 46(182), 311-322.
Kragh, H. (1999/2007). Generaciones cuánticas. Una historia de la física en el siglo XX. Madrid: Ediciones Akal S. A.
Brenner, A. (1992). Duhem face au post-positivisme. Revue International de Philosophie. Pierre Duhem, 46(182), 390-404.
Kremer-Marietti, A. (1992). Analyses et comptes rendus. Revue International de Philosophie. Pierre Duhem, 46(182), 405-409.
Cassirer, E. (1986). Fin y método de la física teórica. México: Fondo de cultura económica.
Maiocchi, R. (1992). Duhem et l’atomisme. Revue International de Philosophie. Pierre Duhem, 46(182), 376-389.
Dugas, R. (1937). La méthode physique au sens de Duhem devant la mécanique des quant. Revue générale des sciences, 38, pp. 68-71
Paty, M. (1986) Mach et Duhem: l’épistémologie de savants-philosophes. En O. Bloch (Ed.), Epistémologie et matérialisme (pp. 177-217). Paris: Klinsieck.
Olga Luz Dary Rodríguez / La cosmovisión de Pierre Duhem. Una perspectiva fenomenológica / P.P. 105-112
121
122
Física y Cultura: Cuadernos sobre Historia y enseñanza de las ciencias - No. 8 , 2014 / ISSN 1313-2143 / Análisis Histórico-Críticos
Paty, M. (2001). La notion de grandeur et la légitimité de la mathématisation en physique. En M. Espinoza (Ed.), De la science à la philosophie: Hommage à Jean Largeault (pp. 247-286). Paris: L’Harmattan. Quine, W. V. (1992). La búsqueda de la verdad. Barcelona: Ed. Crítica. Rankine, M. (1855). Outline of the science of energetics. Proceed Of the Philos. Soc. of Glasgow, (4), [tomo 3]. Roldan, J., Ben-Dov, Y., y Guerrero, G. (2004). La complementariedad: una filosofía para el siglo XXI. Cali: Universidad del Valle, Programa Editorial. Stoffel, J. F. (2002). Le phénoménalisme problématique de Pierre Duhem. Louvain-la-Neuve: Académie Royale de Belgique, Classe des Lettres.
Traducci贸n de Originales
123-130
124
Física y Cultura: Cuadernos sobre Historia y enseñanza de las ciencias - No. 8 , 2014 / ISSN 1313-2143 / Análisis Histórico-Críticos
Palabras Clave Calor, frio, diferencias entre calor y frio, transmisión de calor.
Key Words Heat, cold, differences between heat and cold, heat transfer.
Del calor en general1 About heat Joseph Black Para que este extenso tema pueda ser tratado en una forma más provechosa, propongo: 1. Determinar lo que quiero decir con la palabra calor en estas lecturas. 2. Explicar el significado del término frío y determinar la diferencia real entre calor y frío. 3. Mencionar algunos de los intentos que han sido hechos para descubrir la naturaleza del calor, o para formarse una idea de cuál puede ser la causa inmediata de este. 4. Finalmente, empezaré a describir los efectos sensibles producidos por el calor sobre los cuerpos en los que este es comunicado (transmitido). Toda persona que reflexione sobre las ideas que asociamos a la palabra calor percibirá que esta palabra es usada con dos significados o para expresar dos cosas diferentes: o significa una sensación excitada en nuestros órganos; o una cierta cualidad, afección o condición de los cuerpos a nuestro alrededor que provoca en nosotros esa sensación. La palabra se usa en el primer sentido cuando decimos que sentimos calor; en el segundo, cuando decimos que hay calor en el fuego, o en una piedra caliente. No puede haber una sensación de calor en el fuego o en la piedra; estos están en un estado o condición que provoca (causa) en nosotros la sensación de calor. Para tratar el calor y sus efectos, propongo usar la palabra únicamente en este segundo sentido, es decir, expresando ese estado, condición o cualidad de la materia que provoca en nosotros la sensación de calor. Esta idea de calor se modificará un poco y se extenderá a medida que avancemos y la razón de la modificación será fácilmente percibida. No obstante, el sentido base que hemos dado a la palabra calor continuará siendo el mismo en el fondo.
1. Tomado de “Energy: Historical Development of the Concept”, editado por B. Lindsay. Traducido por Angel Romero y M. Mercedes Ayala. Este texto conforma la sección intro¬ductoria de “Lectures on the Elements of Chemistry, dada en la universidad de Edimburgo, 1766-1797”, de J. Black.
Toda la experiencia que hemos relacionado a esta cualidad o afección de la materia muestra que esta cualidad más transmisible de un cuerpo a otro que cualquier otra cualidad que conocemos. Los cuerpos calientes en contacto o en la vecindad de cuerpos fríos no pueden estar sin transmitir a estos una parte de su calor. Cuando un terrón de hierro caliente es sacado del fuego, ¿cómo podemos impedir transmitir su calor a la materia circundante? Sobre el suelo o sobre una piedra, muy rápidamente les comunica una parte de su calor; colocado sobre madera u otro material vegetal o animal, les comunica su calor en muy poco tiempo y a tal grado que se inflaman; suspendido en el aire por un alambre, un poco de atención pronto nos convencerá de que este transmite calor muy rápido al aire en contacto con él. Así, el calor es perpetuamente transmisible de cuerpos calientes a los cuerpos fríos que los rodean, y además pasa de uno a otro y penetra toda clase de materia sin excepción: la densidad y solidez no son obstáculo para su progreso en la mayoría de los casos, este parece pasar más rápido en cuerpos densos que en los raros, pero tanto los raros como los densos son afectados por el calor y este es transmitido de unos a otros, aun el vacío formado por la bomba de aire es penetrado por este. Sir Isaac Newton fue quien primero descubrió esto por un experimento: él suspendió un instrumento para medición de calor en un recipiente de vidrio grande y le sacó el aire; al mismo tiempo, suspendió otro instrumento similar en otro recipiente de vidrio, igual al primero, pero sin evacuarlo, Newton percibió que tanto el primero como el segundo eran afectados por las variaciones del calor (La Óptica de Newton, cuestión 18). Mucho más tarde, algunos experimentos sobre el mismo tema fueron hechos por el célebre dr. Franklin y algunos de sus amigos en París. Ellos suspendieron un cuerpo caliente bajo recipiente evacuado de una bomba de aire, y otro cuerpo similar igualmente caliente en el aire del cuarto cerca de la bomba de aire, donde los cuerpos en cuestión eran tales que mostraban exactamente las variaciones de calor que ocurrían en ellos; se percibió que ambos cuerpos perdieron gradualmente una parte de su calor hasta que fueron reducidos a la temperatura del cuarto en el cual el experimento fue hecho, pero el que colgaba en el aire perdía su calor más rápido que el que estaba suspendido en el vacío.
Joseph Black / Del calor en general / P.P. 125-130
125
126
Física y Cultura: Cuadernos sobre Historia y enseñanza de las ciencias - No. 8 , 2014 / ISSN 1313-2143 / Análisis Histórico-Críticos
Los termómetros disminuyeron desde los 60 grados (Réaumur). En vacío
En el aire
a 50 grados en 17 minutos a 37 grados en 54 minutos a 30 grados en 85 minutos a 20 grados en 167 minutos
en 7 minutos en 22 minutos en 29 minutos en 63 minutos
Los tiempos de enfriado están aproximadamente en la proporción de 5 a 2, esto es confirmado además por una serie de experimentos similares hechos por Benjamin Thompson. Isaac Newton pensó que tales experimentos daban una prueba de que el vacío de una bomba de aire no es perfecto sino que hay en este alguna materia sutil por la cual el calor es transmitido, probablemente esta opinión se debió a una asociación muy general en nuestras mentes entre las ideas de calor y la materia; pero cuando pensamos en el calor siempre lo concebimos como residente en alguna clase de materia; o posiblemente esta noción de Isaac Newton pueda encontrarse basada en alguna opinión que él haya formado conscientemente acerca de la naturaleza del calor. Sin embargo, existe una muy buena razón, independientemente de este experimento, para creer que el vacío de la bomba de aire no es un vacío perfecto y para pensar que siempre existe una materia sutil o vapor presente en este; pero ya puedo imaginar fácilmente, y nosotros después miraremos abundantes razones para creer que el calor puede ser comunicado, o pasar a través del vacío, o un espacio vacío de toda materia. Por eso, de esta manera y sobre todas las razones sin excepción, el calor se comunica de cuerpos calientes a fríos, cuando estos entran en contacto o están en la cercanía; y la comunicación continúa hasta que los cuerpos se reducen a una temperatura igual, indicando un equilibrio de calor con otro. Cuando consideramos esta comunicación de calor de cuerpos calientes a fríos, la primera pregunta que puede acudir a nuestra mente es: ¿En qué forma han actuado estos cuerpos, el uno sobre el otro, cuando esto ocurre?, ¿ha perdido uno de ellos algo, que el otro ha ganado?, y ¿cuál de ellos ha perdido o cuál ha recibido? La opinión común es que el cuerpo caliente ha perdido algo que ha sido añadido al otro. Y aquellos quienes han intentado razonar más profundamente sobre la naturaleza del calor han estado de acuerdo con la mayoría en
este punto y han supuesto que el calor es una cualidad positiva, que depende ya sea en una materia sutil y activa introducida en los poros de los cuerpos, o en un temblor o vibración provocado entre las partículas de estos o quizás entre las partículas de una sustancia peculiar presente en todos los cuerpos. Tal materia sutil o movimiento trémulo (tembloroso), se supone, es comunicado del cuerpo caliente al frío de acuerdo a nuestra experiencia general de la comunicación de la materia o del movimiento. Pero aunque muchos filósofos han estado de acuerdo con la noción indistinta de calor como una cualidad positiva o una fuerza activa residente en el cuerpo caliente por la cual actúa sobre el frío; algunos otros no han estado completamente de acuerdo en esta opinión. Con respecto a la variedad de casos en los que los cuerpos de temperaturas diferentes actúan uno sobre el otro, han supuesto que en algunos casos el cuerpo frío es la masa activa y que el cuerpo caliente es el sujeto pasivo sobre el que se actúa o en el cual algo es introducido. Cuando una masa de hielo, por ejemplo, o un terrón de hierro muy frío es colocado sobre una mano caliente, en lugar de considerar que el calor se comunica de la mano caliente al hielo o al hierro frío, ellos han supuesto que hay en el hielo o el hierro frío una multitud de partículas diminutas, a las que han llamado partículas de escarcha o partículas frigoríficas, que tienen una tendencia a pasar de los cuerpos muy fríos a otros que son menos fríos; y que muchos de los efectos o consecuencias del frío, particularmente el congelamiento de fluidos, depende de la acción de estas partículas frigoríficas; ellos las llaman spicule o pequeños dardos, imaginando que esto puede explicar la aguda sensación y algunos otros efectos del frío intenso. Este, sin embargo, es el infundado trabajo de la imaginación. Para formar un buen juicio de este tema debemos empezar por dejar a un lado todos los prejuicios y suposiciones concernientes a la naturaleza del calor y del frío y después preguntarnos de dónde proceden originalmente estas dos cualidades aparentemente distintas de los cuerpos, cuál es el origen del calor y el frío. Se ocurrirá inmediatamente que el calor tiene un origen evidente, o causa, en el sol y en el fuego. El sol es evidentemente el principal, y puede que el único, origen del calor difuso a través de este globo. Cuando el sol brilla, sentimos que este nos calienta, y no podemos equivocarnos al observar que además todo está caliente a nuestro alrededor. Además, es evidente que aquellas estaciones en las que el sol brilla más son las más calientes, lo mismo que lo son aquellos climas en los cuales se está más directamente expuesto a su luz. Cuando el sol desaparece, el calor disminuye, y se reduce tanto cuanto su influencia es interceptada. Por
consiguiente debemos reconocer el sol como una causa manifiesta que actúa sobre toda la materia a nuestro alrededor, introduciendo algo en ella, o causando en esta una condición que no está en su estado más espontáneo. Por lo tanto, no podemos evitar considerar esta nueva condición o calor, así inducida en la materia a nuestro alrededor, como una cualidad positiva o afección real de la cual el sol es la causa primaria y que es posteriormente comunicado desde los primeros cuerpos afectados a otros. Pero después de haber formado esta conclusión con respecto al calor, ¿dónde encontramos una causa primaria o fuente de frío?, desconozco alguna causa general del frío, excepto la ausencia o acción disminuida del sol, o vientos que soplan desde aquellas regiones en las que su luz tiene el poder más débil. Por consiguiente no veo razón para considerar el frío como una cosa sino una disminución del calor. Los átomos frigoríficos y las partículas de escarcha, que se han supuesto como llevados por los vientos fríos, son completamente imaginarios. No tenemos la más pequeña evidencia de su existencia y ninguno de los fenómenos, respecto a los cuales han supuesto su existencia, requieren una ficción tal para poder ser explicados. Sin embargo, algunas personas quizás puedan aún encontrar difícil despojarse totalmente del prejuicio de que en ciertos casos el frío puede actuar en una forma positiva. Tales personas, quizás, puedan recurrir a nuestras sensaciones para dar una prueba contundente tanto de la realidad del frío como del calor. Cuando tocamos un terrón de hielo sentimos claramente que este tiene una cualidad de frialdad, al igual que una brasa tiene la cualidad de calor. Pero examinemos lo que queremos decir por esta cualidad de frialdad. Para nosotros significa una cualidad, o condición por la que el hielo produce una sensación desagradable en la mano que lo toca; a dicha sensación le damos el nombre de frío y la consideramos como contraria al calor y tanto como una realidad. Hasta ahora estamos en lo cierto. La sensación de frío en nuestros órganos no está en duda como una sensación real, como tampoco lo está la sensación de calor. Pero si por esa razón concluimos que este puede ser producido por una causa activa o positiva, una emanación del hielo en nuestros órganos, o en alguna otra manera diferente de una disminución de calor, nos formamos un juicio apresurado. De esto podemos estar convencidos por muchos experimentos. Podemos, por ejemplo, tomar una cantidad de agua y reducirla a tal estado que parece caliente a una persona y fría a otra y ni caliente ni frío a una tercera; la primera persona debe estar preparada para el experimento bañándose inmediatamente antes de este su mano en agua fría; la segunda,
bañándose su mano en agua caliente... y la mano de la tercera persona debe estar en su estado natural, mientras que el agua con la que estos experimentos se hacen debe estar a una temperatura templada. Aun a la misma persona, el agua le puede parecer caliente cuando toque con una mano y fría cuando toque con la otra. De este modo estamos bajo la necesidad de concluir de estos actos que nuestras sensaciones de calor y frío no dependen de dos causas activas diferentes, o cualidades positivas en esos cuerpos que provocan estas sensaciones, sino de ciertas diferencias de calor entre esos cuerpos y nuestros órganos. Y en general, todo cuerpo parece caliente al ser tocado si está más caliente que la mano y le comunica calor, y todo cuerpo que esté menos caliente que la mano y le saque calor de la mano que lo toca parece frío, o se dice que está frío. La sensación en algunos casos es agradable y en otros desagradable, de acuerdo a su intensidad y el estado de nuestros órganos; pero esta procede siempre de la misma causa, la comunicación de calor desde otros cuerpos a nuestros órganos, o desde nuestros órganos a ellos. ¿Qué puede ser esperado más razonablemente que la sensación producida por la sensibilidad hacia adentro a la causa del calor, cualquiera que pueda ser, sea diferente de la sensación que acompaña su emisión desde nuestros cuerpos? Las sensaciones de hambre y saciedad son igualmente distintas. Fuera de la inquietud producida por el tacto de cuerpos muy fríos, el congelamiento de agua ha inducido a muchos a creer en la existencia de partículas frigoríficas. El agua, imaginaban ellos, que era natural o esencialmente fluida, fluidez que era debida a la figura redonda y el brillo fino de sus partículas; y pensaban que para darle solidez debe emplearse algún agente poderoso que la pervirtiera de su estado natural. Por eso han supuesto la existencia de átomos frigoríficos, de formas angulares o puntiagudas, que siendo introducidos en los átomos del agua los enredaran y los fijaran entre sí. Pero todo esto también es imaginación y ficción. No tenemos la más mínima prueba de que las partículas de agua sean redondas, o alguna buena razón para imaginar que ellas tengan esa forma. Más aún, una reunión de pequeños cuerpos, redondos, lisos o pulidos no tendrán las propiedades que son bien conocidas en el agua, y el supuesto de que la fluidez es una cualidad natural o esencial del agua es un gran error, debido a que la vemos más a menudo en estas partes del mundo en estado fluido que en estado sólido. En algunas otras partes del mundo, su estado más común o natural es un estado de solidez; hay partes del globo en las que raramente o nunca es vista como un fluido; que se encuentre la sustancia en
Joseph Black / Del calor en general / P.P. 125-130
127
128
Física y Cultura: Cuadernos sobre Historia y enseñanza de las ciencias - No. 8 , 2014 / ISSN 1313-2143 / Análisis Histórico-Críticos
uno u otro estado depende, como es el caso de todos los otros cuerpos, del grado de calor al que esté expuesta. El hielo puro nunca derrite a menos que intentemos calentarlo por encima de un cierto grado, y si enfriamos agua pura al mismo grado o por debajo de este, estamos seguros que más temprano o más tarde lo veremos completamente congelado. Sin embargo, sobre estos dos hechos solamente, la sensación de frío y el congelamiento del agua, se ha basado comúnmente la creencia en la existencia de átomos frigoríficos, de aquellos que han creído conveniente adoptar dicha opinión. Pero algunos de ellos han sido influenciados también por el efecto de algunas sales sobre hielo o nieve. Muchos experimentos han mostrado que ciertas sales o licores fuertemente salinos, al ser añadidas al hielo o la nieve, hacen que se derritan muy rápidamente y al mismo tiempo se enfríen más; debido a esto, esta mezcla de hielo y sales se emplea ocasionalmente para congelar muchos líquidos que no pueden ser congelados por los fríos ordinarios. El líquido que va a ser congelado se pone en un recipiente y este recipiente es sumergido en la mezcla de hielo y sal. Estos y algunos otros pocos hechos que después consideraremos, son enumerados por el profesor Muschenbroek entre las razones que él da para su creencia en la existencia de partículas frigoríficas o congelantes; pero no son un buen fundamento para dicha opinión; tendremos la oportunidad de explicar estos hechos sin recurrir a dicha suposición. Por consiguiente, tenemos razón para concluir que cuando cuerpos desigualmente calentados se aproximan el uno al otro, siempre actuará el más caliente o el menos frío sobre el otro, y le transmitirá una cosa real que llamamos calor. La frialdad es solamente la ausencia o deficiencia de calor. Este es el estado más común de la materia, el estado que asumen cuando son dejados a sí mismos y no son afectados por ninguna causa externa. El calor es evidentemente una cosa ajena a ella, es una cosa sobreagregada a la materia común o alguna alteración de esta de su estado más espontaneo. Habiendo llegado a esta conclusión, quizás se me pida enseguida expresar más claramente este asunto: dar una completa descripción o definición de lo que entiendo por la palabra calor en la materia.
Esta es, sin embargo, una exigencia que no puedo satisfacer completamente. No obstante, mencionaré la suposición relacionada con este tema que me parece la más probable. Nuestro conocimiento del calor no está en un estado de perfección que permita proponer con confianza una teoría del calor o asignar una causa inmediata para este. Algunos intentos ingeniosos han sido hechos en esta parte de nuestro tema, pero ninguno de ellos ha sido suficiente para explicarlo en su totalidad. Sin embargo, esto no debe inquietarnos. No es la forma inmediata de acción, que depende de la naturaleza última de esta peculiar sustancia, o de la condición particular de la materia común, en lo que estamos más interesados; estamos lejos aún de ese grado de conocimiento químico, lo que hace necesario este paso para lograr avanzar. Aún tenemos ante nosotros un abundante campo de investigación en varios hechos generales o leyes de acción, que constituyen los objetos reales de la pura ciencia química, es decir, los caracteres distintivos de los cuerpos en la medida en que son afectados por el calor y la mezcla. Y yo considero que solo cuando hayamos completado aproximadamente este catálogo tendremos un número suficiente de hechos que nos conduzcan a un conocimiento claro de la forma de acción peculiar de esta sustancia o de esta modificación de la materia; y cuando al fin lo hayamos logrado, presumo que el descubrimiento no será químico sino mecánico. Sin embargo, sería imperdonable pasar sin destacar algunos de los más ingeniosos intentos que circulan entre los químicos filosóficos. Pienso que el primer intento fue hecho por Lord Verulam; después de él, mr. Boyle dio muchas disertaciones sobre el calor; y el dr. Boerhaave, en sus conferencias sobre química, se esfuerza en ir más lejos en el tema y desarrollarlo sobre los planteamientos de dos autores anteriores. El intento de Lord Verulam puede verse en su tratado De forma calidi, que él ofrece al público como un modelo de la forma conveniente de llevar adelante investigaciones en filosofía natural. En este tratado enumera todos los hechos principales y después los conocimientos relacionados con el calor o con la producción de calor y se esfuerza, después de una consideración cautelosa y madura de estos, en formar alguna opinión bien fundamentada de su causa.
Sin embargo la única conclusión que él es capaz de sacar de la totalidad de los hechos es una muy general: que el calor es movimiento. Esta conclusión está fundamentada principalmente en la consideración de varios medios de producir el calor o de hacerlo aparecer en los cuerpos, como la percusión de hierro, la fricción de cuerpos sólidos, la colisión de pedernal y acero. El primero de estos ejemplos es una práctica a la cual los herreros algunas veces recurren para encender un fuego: ellos toman una vara de hierro blando (dulce), de un grosor de media pulgada o menos; colocando el extremo de esta sobre el yunque, giran y golpean ese extremo muy rápidamente sobre lados diferentes con fuertes golpes de un martillo. Muy pronto se pone al rojo vivo y puede ser empleado para encender virutas de madera u otra materia muy combustible. El calor producido por la fuerte fricción de cuerpos sólidos ocurre a menudo en algunas partes de maquinaria pesada cuando no se tiene un cuidado adecuado para disminuir esa fricción tanto como sea posible por la interposición de sustancias lubricantes; como, por ejemplo, en los ejes de las ruedas que son pesados en sí mismos o cargados pesadamente. Se dice que bosques espesos se han encendido algunas veces por la fricción de las ramas de los árboles entre sí en épocas de tormentas. Y los salvajes, en diferentes partes del mundo han recurrido a la fricción de pedazos de madera para encender sus fuegos. En una oportunidad más adecuada consideraré después con alguna atención esta manera de producir el calor. El tercer ejemplo arriba presentado en la colisión de pedernal y acero, es universalmente conocido. En todos estos ejemplos, el calor es producido o hecho aparecer repentinamente en cuerpos que no lo han recibido en la forma usual de comunicación de otros, y la única causa de su producción es una fuerza o impulso mecánico o violencia mecánica. Por eso fue muy natural para Lord Verulam sacar esta conclusión como la más usual, es más, quizás el único efecto de la fuerza o impulso mecánico aplicado a un cuerpo sea producir algún tipo de movimiento de ese cuerpo. Este eminente filósofo ha tenido un gran número de seguidores en este tema. Pero su opinión ha sido adoptada con dos modificaciones diferentes.
El gran número de filósofos ingleses supusieron que este movimiento estaba en las partículas pequeñas de los cuerpos calientes e imaginaban que este es un rápido temblor o vibración de estas partículas. Además mr. Macquer y mons. Fourcroy se inclinaron hacia esta opinión. Yo reconozco que no puedo formarme una concepción de este temblor interno, que tiene cualquier tendencia para explicar aun los efectos más simples del calor o esos fenómenos que indican su presencia en un cuerpo; y pienso que Lord Verulam y sus seguidores han estado satisfechos con semejanzas muy débiles entre los efectos más simples del calor y las consecuencias legítimas de un movimiento trémulo. Además veo muchos casos en los que el calor intenso se produce en esta forma, en donde estoy seguro que el temblor interno es incomparablemente menor que en otros casos de percusión, similar en todos los otros respectos. Así, los golpes que hacen una pieza de hierro intensamente caliente, no producen calor en una pieza similar de acero muy elástico. Pero, el gran número de filósofos franceses y alemanes, y el dr. Boerhaave, han supuesto que el movimiento en el cual consiste el calor no es un temblor o vibración de las partículas de un cuerpo caliente en sí mismo, sino de las partículas de una materia sutil, altamente elástica, fluida y penetrante, la cual está contenida en los poros de los cuerpos calientes o interpuestas entre sus partículas: una materia que, ellos imaginan, esta difusa a través de todo el universo, que penetra con facilidad en los cuerpos densos; según algunos, una materia que modificada en formas diferentes produce luz y los fenómenos de electricidad. Pero ninguna de estas suposiciones fueron completamente consideradas por sus actores o aplicadas para explicar la totalidad de los hechos y fenómenos relativos al calor. Por eso, ellos no nos suministraron una teoría o explicación adecuada de la naturaleza del calor. Un intento más ingenioso ha sido hecho últimamente; los primeros esbozos de este, hasta donde yo sé, fueron dados por el dr. Clerghorn en su disertación inaugural, publicada aquí, sobre el tema del calor. El supone que el calor depende de la abundancia de esa materia sutil, fluida y elástica, que había sido imaginada antes por otros filósofos como presente en cada parte del universo y como causa del calor. Pero estos otros filósofos habían asumido o supuesto una propiedad solo perteneciente a esta materia sutil, su gran elasticidad o la fuerte repulsión entre sus partículas; dr. Cleghorn supuso que poseía también otra propiedad, una fuerte atracción por las partículas de otras clases de materia en la naturaleza, que tienen en general una atracción entre ellas.
Joseph Black / Del calor en general / P.P. 125-130
129
130
Física y Cultura: Cuadernos sobre Historia y enseñanza de las ciencias - No. 8 , 2014 / ISSN 1313-2143 / Análisis Histórico-Críticos
Él supuso que las clases comunes de materia consisten en partículas atractivas o que tienen una gran atracción entre ellas y por la materia del calor; mientras que la sutil y elástica materia del calor es una materia autorepelente, las partículas de esta tienen una fuerte repulsión entre ellas, mientras que son atraídas por las otras clases de materia, y ello con grados diferentes de fuerza. Esta opinión o suposición puede aplicarse para explicar muchos de los hechos notables relacionados con el calor, y es compatible con esos experimentos del dr. Franklin y de sir Benjamín Thompson, citados anteriormente... Por consiguiente, un cuerpo frío puesto en un vacío se abastece más lentamente de calor, o de la materia del calor, que cuando es puesto en contacto con una materia común en un estado más denso, que por su atraer la materia del calor condensa una mayor cantidad de esta en el mismo espacio. Y un cuerpo caliente colocado en un vacío, retendrá su calor más tiempo que en circunstancias ordinarias, debido a la escasez de materia común en contacto con ella; porque la atracción de esta, extraería más rápidamente el calor que cuando no hubiera otra materia presente fuera de la materia del calor. Tal idea del calor es, por lo tanto, la más plausible entre las que conozco, y el intento más ingenioso para hacer uso de esta ha sido publicado por el dr. Higgins en su libro sobre ácido vegetal y otros temas. Sin embargo, esta es una suposición y no puedo ahora hacerles entender la aplicación de esta teoría, o la forma en que se ha formado; el gran número de ustedes aún no están familiarizados con los efectos del calor y los diferentes fenómenos que esta teoría busca explicar, ni con algunos descubrimientos que precedieron esta teoría y le dieron origen. Por consiguiente, nuestro primer asunto debe ser, necesariamente, estudiar los hechos pertenecientes a nuestro tema, y prestar atención a la forma en que el calor entra en distintos cuerpos, o se transmite de unos a otros, ambos con las consecuencias de su entrada, que son los efectos que produce en los cuerpos. Cuando consideramos estos detalles con atención, nos conducirán a un conocimiento más adecuado y a una información sobre el tema, lo que posibilitará examinar y entender los intentos que han sido hechos para explicarlos y ponerlos, así, en el camino de formar un juicio de su validez.
Cuando prestamos atención a los efectos producidos por el calor en los cuerpos en los cuales es comunicado, vemos que son diferentes en las diferentes clases de materia. Pero hay algunos efectos que se producen en todas las clases o en una gran variedad de cuerpos, en una forma similar o con unas variaciones que se pueden despreciar, de modo que la similaridad de su acción es suficientemente evidente. Esto es cierto, en especial con respecto a las clases más simples de materia, tales como: agua, sales, piedras, metales, aire y muchas otras. Estos efectos similares producidos por el calor sobre los cuerpos de la clase más simple pueden ser considerados como los efectos generales del calor, y así distinguirlos de muchos otros que se producen solamente sobre ciertos cuerpos particulares. Estos efectos generales del calor son: expansión, fluidez, vapor, ignición o incandescencia e inflamación o combustión.
POLÍTICA EDITORIAL
La Revista Física y Cultura. Cuadernos de Historia y Enseñanza de las Ciencias, en esta nueva fase, es una publicación interinstitucional entre la Universidad del Valle, la Universidad de Antioquia y la Universidad Pedagógica Nacional. Es una revista en formato físico y digital (on-line) dedicada a fortalecer la investigación en torno a la relación Historia, Filosofía y Enseñanza de las Ciencias y temáticas afines, con el propósito de consolidar una red de investigadores en este campo y aportar a la transformación de las prácticas de la educación en ciencias. Pretende en particular visibilizar y poner a consideración de dicha comunidad el tipo de preguntas, problemas y perspectivas de trabajo que son planteados a la Historia y la Filosofía de las Ciencias desde una preocupación pedagógica, y el tipo de indagación histórica-epistemológica que se emprende con el ánimo de darle concreción a esta relación. La Revista se publica tres veces al año y considerará para su publicación artículos relacionados con la temática de la Revista en Español, Portugués o Inglés. Las secciones de la revista son los siguientes: 1. Cartas al Editor, donde se exponen posiciones críticas, analíticas o interpretativas sobre los documentos publicados en la revista; 2. Artículos de investigación, que pueden ser de tres tipos: i) texto que presenta de manera detallada los resultados inéditos de proyectos de investigación concluidos, ii) reflexiones resultado de investigación terminada o en marcha, iii) revisión sobre un tópico particular resultado de una investigación terminada donde se analizan, sistematizan e integran los resultados de investigaciones publicadas o no publicadas; este último tipo se caracteriza por presentar una cuidadosa revisión bibliográfica de por lo menos 50 referencias. 3. Ensayos donde se analiza y comenta un tema). 4. Traducción al español de documentos de primera fuente (textos originales); 5. reseñas de libros y tesis, 6. noticias. La reproducción total o parcial con fines educativos o académicos está autorizada si se indica claramente la fuente. primer apellido, inicial del primer nombre. (año). título del artículo. Rev. Física y Cultura, Nº. ___; p.___-___. La Revista se puede descargar de forma gratuita desde el sitio web de la publicación en formato PDF. Los textos deben ser elaborados en formato Word posterior a 2007 y remitidos al correo electrónico a: revistafísicaycultura@hotmail.com o subir a la plataforma del Open Journal System de la Revista Fisica y Cultura que se encuentra en revistas.pedagogica.edu.co Normas para la remisión de Textos 1. En el correo de envío debe especificarse claramente la fecha de envío. El nombre del archivo adjunto debe contener el apellido del primer autor, seguido del título del texto. 2. Se debe indicar si la contribución es de: Cartas al editor; un artículo de investigación, especificando en cual de los tipos mencionados arriba se inscribe; un ensayo; una traducción; al español de originales; una reseña de libros o de tesis; noticias. 3. Al texto propuesto se le debe anexar un resumen de la hoja de vida de los autores que especifique institución a la que pertenece, títulos académicos, cargos ocupados, grupos o asociaciones a las que pertenece, principales líneas de investigación y un correo electrónico o dirección postal (máximo 2 páginas). 4. Los artículos deben tener una extensión máxima de veinte (20) folios tamaño carta a un espacio de 1,5, en letra Times New Roman 12 puntos, sin estilos, sin espacios antes o después de cada párrafo. Se debe dejar un espacio entre párrafo y párrafo y entre título y párrafo. No utilizar textos en altas (mayúsculas sostenida). Títulos en negrilla y subtítulos en negrilla e itálica. Deben llevar el siguiente orden: Título en español o portugués, título en inglés, nombres com-
Política Editorial / P.P. 131-134
133
134
Física y Cultura: Cuadernos sobre Historia y enseñanza de las ciencias - No. 8 , 2014 / ISSN 1313-2143 / Análisis Histórico-Críticos
pletos de los autores, afiliación institucional, correo electrónico de los autores, tipo de artículo, resumen en español con entre 450 y 500 palabras, palabras claves (no más de seis), abstract (traducción al inglés del resumen), keywords, introducción, desarrollo de la propuesta y referencias bibliográficas. 5. Las ecuaciones, gráficas y tablas, deben estar insertadas en el cuerpo del escrito y ser suministradas en archivos separados, en Word o Excel y deben ir numeradas y citadas en el documento. 6. Las imágenes y fotografías deben entregarse en archivos independientes, con los nombres correspondientes y en formato TIF o JPEG a una resolución de 300 ppp, con un ancho de 16 cm y en color original. Deben ir enumeradas y referidas en el documento. 7. Las referencias y citas bibliográficas deben ordenarse numéricamente al final del artículo. (usar normas APA). Toda la bibliografía debe estar en orden alfabético y se debe enlistar solamente la referenciada en el documento. i. Paty, M.(1983). Mathématisation et accord avec l’expérience. Fundamenta Scientae, 5 (1), 31-50. ii. Rankine, M. (1855). Outline of the science of energetics. Proceed of the Philos. Soc. of Glasgow, (4), [tomo 3]. iii. Cassirer, E. (1986). Fin y método de la física teórica. México: Fondo de cultura económica. 8. Las reseñas no podrán exceder ocho (8) páginas. 9. Las reseñas de tesis constarán de los siguientes datos: Título, autor(es), tipo de tesis (doctoral o maestría), director(es), departamento, universidad, programa en que se ha presentado, fecha de presentación. 10. El contenido de los textos es de exclusiva responsabilidad de los autores. 11. La recepción de un trabajo no implicará ningún compromiso de la Revista para su publicación. 12. Todos los documentos serán evaluados por dos pares académicos anónimos que tendrá en cuenta los criterios de pertinencia del documento para la revista, así como los parámetros técnicos de estilo y escritura sugeridos. 13. El comité Editorial procederá a la selección de los trabajos de acuerdo a los criterios formales y de contenido de esta publicación. 14. Una vez aprobada una publicación los autores deben enviar una carta con la Declaración ética y cesión de derechos patrimoniales, según el formato establecido por la revista Física y Cultura, donde hacen constar la originalidad del documento puesto a consideración para su publicación, y autorizan su publicación, reproducción, edición, distribución y divulgación a nivel nacional e internacional por impresos, digitales, Internet, CD ROM, en texto completo o parcial. 15. Cualquier información, sugerencia o queja informar al comité de dirección de la revista.
Noticias
XIV CONFERENCIA INTERAMERICANA DE EDUCACIÓN MATEMÁTICA 3 -7 de mayo 2015 http://xiv.ciaem-iacme.org Segundo anuncio
El Comité Interamericano de Educación Matemática (CIAEM) convoca a educadores, investigadores, especialistas y estudiantes en Educación Matemática de las Américas y del mundo a la XIV Conferencia Interamericana de Educación Matemática (XIV CIAEM) que se celebrará en Chiapas, México del 3 al 7 de mayo del 2015. Información detallada sobre el CIAEM en http://www.ciaem-iacme.org.
1. Formación inicial de profesores de enseñanza primaria en Educación Matemática grados 1 a 6. 2. Formación inicial de profesores de enseñanza secundaria en Educación Matemática grados 7 a 12. 3. Formación continua y desarrollo profesional en Educación Matemática. 4. Uso de tecnologías en la Educación Matemática 5. Uso de tecnologías para la enseñanza y aprendizaje de las Matemáticas. 6. Uso de tecnologías basadas en la web en Educación Matemática. Otros temas
14. Álgebra y funciones en Educación Matemática. 15. Cálculo diferencial e integral en Educación Matemática. 16. Educación Matemática en las primeras edades escolares hasta grado 6. 17. Sociología de la Educación Matemática. 18. Historia y epistemología de las Matemáticas y de la Educación Matemática. 19. Nuevos enfoques y tendencias en Educación Matemática.
7. Etnomatemáticas y perspectivas socioculturales.
20. Educación Matemática y relación con otras áreas de conocimiento.
8. Desarrollo curricular en matemáticas.
21. Educación Matemática y necesidades especiales.
9. Evaluación del aprendizaje matemático y pruebas comparativas internacionales.
22. Resolución de problemas.
10. Investigación en Educación Matemática.
23. Modelización en Educación Matemática. Ponencias
11. Competencias en Educación Matemática. 12. Estadística y Probabilidad en Educación Matemática. 13. Geometría en Educación Matemática.
Noticias / P.P. 135-138
137
138
Física y Cultura: Cuadernos sobre Historia y enseñanza de las ciencias - No. 8 , 2014 / ISSN 1313-2143 / Análisis Histórico-Críticos
Se aceptan modalidades de: comunicaciones científicas cortas, talleres y posters. Todas las propuestas deben ser completas (no resúmenes) y ser presentadas a través de la plataforma Open Conference Systems en la página web oficial. http://xiv.ciaem-iacme.org Lenguas oficiales: Español, Portugués, Inglés.
Fechas •Para recepción de trabajos: 1 Junio 2014 al 30 Septiembre 2014 •Respuesta de aceptación: 1 Octubre 2014 al 23 Diciembre 2014
Sede La sede de la XIV CIAEM será el Hotel Camino Real en la ciudad de Tuxtla Gutiérrez, capital del Estado de Chiapas, México.Se encuentra en el centro de la zona hotelera y comercial. El hotel posee varias salas grandes para albergar este evento internacional. La organización usará las instalaciones de una universidad que se encuentra a 200 m del hotel sede para realizar las sesiones vespertinas.
Actividades plenarias Conferencias: Michèle Artigue (Francia), Celia Hoyles (Reino Unido), Ubiratan D’Ambrosio (Brasil), Ferdinando Arzarello (Italia), María TeresaTatto (Estados Unidos), Alicia Ávila Storer (México), Abraham Arcavi (Israel-Argentina). Mesa redonda: Luis Carlos Arboleda Aparicio (Colombia), Carlos Sánchez (Cuba), Nelly León (Venezuela), Edison de Faria (Costa Rica), Sarah González (República Dominicana), Jhony Villa (Colombia). Medalla Luis Santaló: El CIAEM entregará la segunda medalla Luis Santaló.
Temas Formación de educadores en las matemáticas: inicial y continua
Costo de inscripción •1 Agosto 2014 - 28 Febrero 2015: $180 dólares •1 Marzo 2015 – 15 Abril 2015: $200 dólares •16 Abril 2015 – Mayo 2015: $250 dólares
Contactos Comité organizador local (Chiapas) Camilo Nucamendi: camiloadonay@hotmail.com Comité organizador nacional de México Eduardo Mancera: eduardo_mancera@prodigy.net.mx Plataforma científica Open Conference Systems Claudia Groenwald claudiag@ulbra.br Comité Internacional del Programa José Chamoso jchamoso@gmail.com Presidente del Comité Interamericano de Educación Matemática Angel Ruiz ruizz.angel@gmail.com