Fundamentos de matematica cristina pascual

Page 1

Fundamentos de la Matem谩tica

Cristina Pascual Deoc贸n Madrid, 7 de Diciembre de 2005



Fundamentos de la Matemática Introducción

INTRODUCCIÓN Hace aproximadamente un siglo un grupo de importantes matemáticos alemanes, franceses, americanos, etc. estuvo inmerso en una discusión a fondo sobre los fundamentos de las matemáticas. Se trataba de eliminar una serie de paradojas que habían surgido en Teoría de Conjuntos, pero también se discutió sobre lo que es o no aceptable en matemáticas. Además de las paradojas lógicas, otra cuestión que produjo cierta incertidumbre en la comunidad matemática de la época, es el hecho de que el axioma de elección posea consecuencias muy poco intuitivas, como el Axioma de Zermelo o la descomposición paradójica de Banach-Tarsky y por tanto, resultaba un poco “duro” admitir el axioma de elección como axioma. Como resultado de estas discusiones surgieron varias escuelas de pensamiento que, desde entonces, se encuentran enfrentadas (formalistas, intuicionistas). Además, la demostración por parte de Gödel de ciertos resultados sobre incompletitud y consistencia de los sistemas formales que contienen la aritmética elemental, acabó con el sueño de Hilbert de establecer un consenso definitivo entre dichas escuelas. A pesar de la naturaleza pesimista de los resultados de Gödel, hay que decir que su trabajo motivó el desarrollo posterior de teorías matemáticas muy interesantes, como son por ejemplo los diferentes conceptos de algoritmo, de computabilidad y de recursividad. Además, también debemos a Gödel algunos resultados optimistas, como son la suficiencia semántica de la lógica de primer orden y la consistencia de axioma de elección e hipótesis del continuo con el resto de axiomas de Teoría de Conjuntos.

Página 1


Fundamentos de la Matemática Enfoque Conjuntista

ENFOQUE CONJUNTISTA Es bien sabido que el enfoque conjuntista ha tenido una gran importancia en el siglo XX como elemento unificador y sistematizador de la matemática moderna. Que esto sería así resultaba ya previsible a finales del XIX, como consecuencia, entre otras cosas, de los esfuerzos de rigorización que se habían llevado a cabo bajo la consigna de la llamada aritmetización del análisis. El desarrollo de la teoría de conjuntos ha sido bien estudiado, particularmente en conexión con la obra pionera y sumamente original de Cantor. Sin embargo, varias propuestas de reorientación conjuntista tuvieron lugar antes de que Cantor comenzara sus trabajos. Las raíces de la noción de conjunto están en el análisis real, en la teoría de series trigonométricas y concretamente en la cuestión de la representación de funciones discontinuas mediante series de Fourier, que llevó a Cantor a comenzar un estudio detallado de los conjuntos de puntos de discontinuidad. El genial descubrimiento, en diciembre de 1873, de que el conjunto de los reales no es numerable llevó a Cantor a formular la noción de cardinalidad de un conjunto infinito, y le orientó a la investigación de problemas de teoría de conjuntos pura. En su trabajo, desarrollado hasta 1897, se fueron acuñando otras importantes nociones como la de conjunto bien ordenado, número transfinito, varias ideas claves de la teoría de conjuntos de puntos, etc. Para entender el enfoque conjuntista, pasamos a los acontecimientos que se sucedieron en la segunda mitad del XIX. Conjuntos: 1854 - 1872 El quinquenio 1868 - 1872 se antoja una etapa de hiperactividad. Las principales contribuciones que hay que reseñar son obra de matemáticos alemanes, lo que probablemente se debe al peculiar ambiente intelectual que se vivía en aquella zona, sobre todo, a la orientación generalizada hacia una matemática pura. Y entre esos matemáticos destacan, por la impronta que dejaron, Riemann, Dedekind y Cantor. Cronológicamente, la primera contribución es de Riemann. Así, en la famosa lección ”Sobre las hipótesis en que se basa la geometría", Riemann no se limita a hablar de geometría, sino que esboza algo así como un marco general para la matemática y en particular para la naciente topología. En este contexto presenta la noción de variedad. Esta palabra no tenía el sentido técnico que adquirió a principios del siglo XX, pero el caso es que, admitía tanto variedades discretas, que relacionaba con los números naturales, como variedades continuas. Las variedades continuas, según Riemann, pueden estudiarse desde un punto de vista métrico, introduciendo los números reales, pero también desde el punto de vista del analysis situs (esto es, topológico). ¿Cómo llegó Riemann a la idea de variedad, es decir, de conjunto? Había esbozado una nueva aproximación a la teoría de funciones en su tesis doctoral de 1851, donde desarrollaba de forma muy original la idea del plano complejo, introduciendo la noción de superficie de Riemann. Esto resultaba muy útil para analizar de forma abstracta las propiedades de las funciones complejas multivaluadas. Todo esto resultaba muy satisfactorio para Riemann, que estaba radicalmente a favor de un enfoque conceptual de la matemática, mucho mejor, en su opinión, introducir el concepto de superficie de Riemann, que estudiar las funciones complejas a través de representación mediante series, al estilo de Weierstrass.

Página 2


Fundamentos de la Matemática Enfoque Conjuntista

Las variedades o conjuntos no son algo de carácter propiamente geométrico, sino muy generales e incluso esenciales para toda la matemática. Los conjuntos pueden ser discretos o continuos, en cuyo caso podrán analizarse sus propiedades topológicas o sus propiedades métricas, introduciendo una unidad de medida y empleando los reales. Más aún, somos libres de considerar variedades de cualquier número de dimensiones, incluso de infinitas dimensiones [Riemann 1868]. De acuerdo con esto, una vez que concebimos la matemática desde un punto de vista conjuntista, la teoría riemanniana de funciones resulta aceptable, y la introducción de superficies de Riemann no supone recurrir a la geometría, sino a la noción básica de conjunto. Estas ideas de Riemann quedaron plasmadas a un nivel intuitivo, que no iba mucho más allá de este esbozo. Tanto Dedekind como Cantor hicieron contribuciones relacionadas con estas ideas topológicas, tratando de fundamentar y clarificar las nociones de continuidad y dimensión que éste había presupuesto. El otro trabajo de Riemann, publicado en 1868, es su tesis sobre series trigonométricas donde presenta su concepción de la integral. Estimuló un estudio serio, por vez primera, de funciones discontinuas. Fue dentro de este marco donde se encuadraron los primeros trabajos famosos de Cantor que le llevaron a la teoría de conjuntos de puntos. De modo que Riemann parece haber sido un inspirador clave de la reorientación conjuntista y abstracta, y una gran influencia tanto para Cantor como para Dedekind. Pasemos a Dedekind. En 1871 publica su teoría de los números algebraicos, también llamada teoría de ideales. En lugar de trabajar directamente sobre los números algebraicos y sus propiedades, reformula toda la cuestión en términos de conjuntos de números. Comienza presentando la noción de cuerpo, habla también de anillos de enteros, de módulos y de ideales. De acuerdo con Dedekind, un ideal es un conjunto de enteros que es cerrado para las operaciones de suma y diferencia (es un módulo) y también para el producto de sus elementos por enteros del cuerpo correspondiente. Dedekind preferiría un enfoque conjuntista, pese a que no era en absoluto habitual entre sus contemporáneos ni siquiera en algebra. Para entender cómo llegó a esta reformulación debemos retrotraernos a los años 1850, cuando Dedekind asiste a las clases de Riemann y realiza sus primeros trabajos originales en álgebra y sobre los fundamentos de la aritmética. En las clases sobre álgebra que imparte en Göttingen, Dedekind presenta la teoría de Galois en una versión muy moderna, analizando las interacciones entre (lo que hoy llamamos) los subcuerpos del cuerpo de descomposición y los subgrupos del grupo de Galois de un polinomio. En los años 1850, realiza también algunos estudios sobre teoría abstracta de grupos, manejando las nociones de isomorfismo y homomorfismo. Así se familiariza con el lenguaje conjuntista en el contexto del álgebra, y también en el de los fundamentos de la aritmética: su conocida definición de los números reales mediante cortaduras (que no son sino clases infinitas de racionales, con una cierta estructura de orden) es de 1858, aunque sólo se publicó en 1872. Si todos los puntos de una línea recta son de dos clases, de manera que cada punto de la primera clase está a la izquierda de cada punto de la segunda clase, entonces existe un y únicamente uno que ocasiona la partición de todos los puntos en dos clases, separando la recta en dos porciones.

Página 3


Fundamentos de la Matemática Enfoque Conjuntista

Este principio de continuidad sugiere a Dedekind cómo completar el orden de los números racionales: creando un número para cada corte irracional, o sea, introduciendo un número para cada corte (A, B) del conjunto de los números racionales. Una cortadura es una partición de Q en dos subconjuntos disjuntos (A, B) tal que cada número de A es menor que todo número de B. El conjunto de los números reales es (en esencia) el conjunto de todas las cortaduras sobre Q , y Dedekind demostraba rigurosamente que dicho conjunto es continuo. Dedekind no identifica (como suele hacerse actualmente al presentar su construcción) un número racional con el corte que lo determina ni con cualquier otro conjunto. En todo caso hacerlo o no es una mera cuestión de preferencia. Como escribió el mismo Dedekind: si no se quiere introducir nuevos números, no tengo nada en contra: el teorema que demuestro dice entonces: el sistema de todas las cortaduras en el dominio, por sí discontinuo, de los números racionales, constituye una variedad continua. De todos modos, a estas alturas Dedekind todavía no había visto la conveniencia de utilizar ideas conjuntistas en la teoría de números algebraicos. Hacia 1870 se dio cuenta de que introduciendo conjuntos de números (la noción de ideal) era posible dar una solución general. Todo podía hacerse en términos de números y conjuntos de números. Así, por razones matemáticas y metodológicas, la teoría se reformula en términos conjuntistas. A partir de entonces, Dedekind será un convencido defensor del empleo del lenguaje conjuntista en matemática pura: toda su vida trabajó en sistematizar y reformular las nociones clave de la aritmética, el álgebra y el análisis desde esa perspectiva. Desde 1872 trabaja en una definición similar de los números naturales, que saldrá a la luz en su libro de 1888, “Qué son y para qué sirven los números“, junto con la definición precisa del concepto de infinitud (un conjunto A es infinito si y sólo si existe una biyección entre A y un subconjunto propio de A). Los números naturales constituyen un sistema simplemente infinito con respecto al número 1 y a la operación sucesor σ . Esto significa que: i) ii) iii)

σ es una función inyectiva de N en N . 1 no es un valor de σ (1 ∉ σ ( N ) ) , es decir, no es un sucesor. N es la σ - cadena de {1}, lo que significa que es el más pequeño conjunto que satisface i) y ii) y es cerrado bajo σ . N = I{ X ⊆ N : 1 ∈ X ∧ σ ( X ) ⊆ X }

Dedekind elaboró las definiciones conjuntistas habituales de N , Z , Q y ℜ.

Como hemos dicho Dedekind publicó su teoría de los reales en 1872. Este fue, de hecho, el año en que se dieron a conocer todas las principales definiciones de los reales, incluyendo la de Weierstrass y la de Cantor. Estas definiciones difieren entre sí: • Weierstrass define los reales como series convergentes de racionales. • Cantor los define como sucesiones de Cauchy sobre Q . • Dedekind como cortaduras en Q .

Página 4


Fundamentos de la Matemática Enfoque Conjuntista

Pero en todos los casos se trata de conjuntos complejos e infinitarios que se introducen sobre la base del conjunto de los números racionales. Dedekind había resuelto, gracias al fenómeno de las cortaduras, el problema de explicar la continuidad de los números reales en términos discretos. Pero con esto aparecen nuevas cuestiones como la no numerabilidad de ℜ (Cantor 1874). El pistoletazo que dio pie al desarrollo de la teoría de conjuntos cantoriana vino solo en 1873, cuando Cantor se plantea una pregunta genial y le da una respuesta sorprendente. La pregunta era: ¿es posible correlacionar biunívocamente los números reales y los naturales?, o en otros términos, ¿hay la misma cantidad de números en N y en ℜ ? La respuesta, establecida en 1873 sobre la base de la completitud de ℜ , resultó ser no, y con ella adquirió sentido la noción de cardinalidad de un conjunto infinito, ya que se prueba que existen conjuntos infinitos de diferentes tamaños. Cantor descubrió numerosas propiedades de los tamaños de los conjuntos infinitos. Distinguió tamaños en los conjuntos infinitos: descubrió que no todos los conjuntos infinitos eran equipotentes, es decir, que no todos tienen el mismo número de elementos. Cantor definió que dos conjuntos eran equivalentes cuando se podía definir una correspondencia unívoca entre los elementos de uno y otro conjunto. 1 b 2

2 b 4

3 b 6

4 b 8

5 b 10

6 b 12

.

.

.

.

.

.

.

.

Correspondencia 1-1 entre los números naturales y todos los pares

Gracias a ello, por ejemplo, demostró que los números racionales podían quedar en correspondencia con los naturales. Cantor llamó numerables a aquellos conjuntos cuyos elementos pueden ser puestos en correspondencia 1-1 con los naturales, es decir, los que poseen elementos que se pueden contar. El siguiente paso de Cantor fue aún más impresionante: demostró que no puede haber correspondencia entre el conjunto de los números reales y el conjunto de los naturales. Es decir, los números reales no son numerables, son incontables. La idea básica de la demostración es el principio de diagonalización. Basta aplicarla sobre el subconjunto de reales comprendidos entre 0 y 1, si dicho subconjunto no es contable, el conjunto de los reales tampoco podrá serlo, ya que éste es un subconjunto propio de ℜ . La demostración comienza asumiendo que es posible colocar todos los números reales del intervalo (0,1) en una tabla de infinitos decimales: Primer número Segundo número Tercer número

0, a1a2 a3a4 a5 a6 ... 0, b1b2b3b4b5b6 ... 0, c1c2c3c4c5c6 ...

Cuarto número

0, d1d 2 d 3d 4 d5 d 6 ...

Página 5


Fundamentos de la Matemática Enfoque Conjuntista

La parte principal de la demostración consiste en construir, mediante un “proceso de diagonalización” un nuevo número del intervalo (0,1) que no esté incluido en la tabla anterior. Para hacer esto basta escoger el primer decimal “a” de este número que difiera de a1 y que no sea ni 0 ni 9 (para evitar ambigüedades que resultarían de igualdades como 0.9999...= 1.0000...), elegir “b” diferente de b2 y que no sea ni 0 ni 9, y así sucesivamente. De esta forma se ha construido el número x = 0,abcd... Y éste es diferente de cada uno de los números de la tabla anterior, puesto que difiere del primer número en el primer decimal, del segundo en el segundo decimal y en general del número que ocupe el lugar n en el n-ésimo decimal. Esto prueba que la tabla anterior no contiene todos los números del intervalo (0,1) y por tanto, ni éste, ni ℜ son numerables. Al cardinal del conjunto de los números reales Cantor lo llamó potencia del continuo (“c“). Cantor desarrolló una aritmética del infinito; si bien su trabajo completo distingue entre dos tipos de números infinitos, los cardinales y los ordinales, nos ocuparemos sólo de los cardinales. Los cardinales son los tamaños de los conjuntos cuando se les considera sin tener en cuenta una posible ordenación. El número, o número cardinal, de un conjunto es la característica que tiene en común con todos los conjuntos equivalentes, y por la cual se distingue de cada conjunto del que no es equivalente. Los conceptos “equivalente” y “número cardinal” son transferidos a conjuntos de infinitos objetos. Los números cardinales de conjuntos infinitos 1, 2, 3, ... se llaman números naturales. Los números cardinales de conjuntos infinitos los llama Cantor números cardinales transfinitos o potencias transfinitas. Cantor introdujo en 1893 la notación ℵ0 para el cardinal del conjunto de los naturales, o lo que es lo mismo, el cardinal de todo conjunto infinito numerable. Así un conjunto que tenga cardinal ℵ0 significa que puede ponerse en correspondencia 1-1 con los N . Así que tenemos dos números cardinales transfinitos diferentes ℵ0 y c (que Cantor llamará ℵ1 ), la potencia del conjunto infinito numerable y la potencia del continuo. ¿Hay aún otros? La respuesta es que sí. Dado un conjunto M en seguida se puede encontrar un conjunto con un número cardinal más elevado, ya que el conjunto de todos los posibles subconjuntos de M tiene un número cardinal más alto que el mismo conjunto M. Por ejemplo, el conjunto de todos los posibles conjuntos de una línea recta tiene un número cardinal más alto que el conjunto, de todos los puntos de la línea recta, es decir, un cardinal mayor que c. Luego hay un menor número cardinal transfinito, ℵ0 , después de este hay un siguiente que se llama ℵ1 , luego un ℵ2 , y así sucesivamente. Pero esto no agota la clase de cardinales transfinitos, pues si hemos formado todos los alefs ℵn , cuyo subíndice n es un natural, entonces hay otra vez un número cardinal primero transfinito más grande que cualquiera de éstos, que Cantor llamó ℵw , y un siguiente ℵw +1 , etc. Los sucesivos alefs formados de esta manera representan todos los posibles cardinales transfinitos. Descubrió entonces un problema que finalmente se revelaría de tal dificultad que ni siquiera hoy ha sido totalmente demostrado, la llamada hipótesis del continuo. Afirma que entre ℵ0 y ℵ1 no existe ningún cardinal intermedio, y que en general, no existe ningún cardinal entre ℵi y ℵi +1 .

Página 6


Fundamentos de la Matemática Medida

MEDIDA Se podría decir que la Teoría de Conjuntos preparó el terreno para el desarrollo de la Teoría de la Medida. Ésta generaliza el concepto de longitud (recta ℜ ), área (en el plano ℜ 2 ),... a conjuntos de puntos más generales Como hemos dicho, una de las principales razones por la que se investigaron conjuntos está relacionada con las series de Fourier, las cuales dependen de integrales. Asumimos :

f(x) =

∞ 1 a0 + ∑ (an cos nπx + bn sen nπx ) 2 n =1

1

an =

∫ f ( x) cos nπx dx

1

,

−1

bn =

∫ f (x) sen nπx dx

- Fórmulas derivadas por Fourier -

−1

La existencia de la serie depende de la existencia de las integrales para an y bn , y esto a su vez dependerá de la continuidad de f. Se buscaban cuales eran los conjuntos de discontinuidad. Se sabía que toda función continua tenía integral, la siguiente pregunta era cómo debería o podría definirse esta integral para funciones discontinuas. La primera respuesta la dio Riemann (1854), que aproximaba la integral con sumas: Se dice que f(x) es integrable Riemann ⇔ ∀ε > 0 , ∃ ℘ = {I j }nj =1 partición de [a,b] tal que: n ⎛ Uf(℘ ) - L f(℘ ) = ∑ ⎜⎜ sup f − inf j =1 Ij ⎝ Ij

⎞ f ⎟⎟ ⋅ longitud (I j ) < ε ⎠

Cualquier función con un número finito de discontinuidades tiene integral Riemann. Sin embargo, había una función no integrable Riemann, la función de Dirichlet: x∈Q ⎧1 f(x) = ⎨ ⎩0 x ∈ ℜ / Q Finalmente aparecería la medida de Lebesgue que permitiría medir funciones que la integral de Riemann no podía, como la función de Dirichlet. Por fin se producía el cambio: se pasaba del concepto de integración, a uno más general: medida. Los matemáticos de aquella época se adaptaban más fácilmente al concepto de medida en ℜ2 , ya que ésta puede ser entendida como área bajo la curva. Sin embargo se precisaban nuevas aclaraciones para entender el concepto de medida en conjuntos de puntos sobre la recta ℜ . La primera explicación se produce con el descubrimiento de Harnack (1885) de que cualquier conjunto numerable {x0 , x1 , x2 ,...} de ℜ puede ser cubierto por una colección de intervalos de longitud arbitrariamente pequeña (x0 cubierto por un intervalo de longitud ε / 2, , x1 por uno de longitud ε / 4, , x2 con uno de ε / 8, ....). Esto parecía probar que los conjuntos numerables eran “pequeños” (de medida cero, como decimos ahora). Sin embargo los matemáticos de entonces eran reacios para aceptar esto en conjuntos densos como Q . Hay que notar que estos resultados se encuentran altamente influenciados por la Teoría de Conjuntos.

Página 7


Fundamentos de la Matemática Medida

Así, se intentó dar definiciones de medida en ℜ análogamente a Riemann; es decir, utilizando uniones finitas de intervalos para aproximar subconjuntos de ℜ (Jordan 1892). Pero seguía habiendo problemas con Q . El primero en seguir la pista dejada por Harnack fue Borel, en su doctorado de 1894 daba el siguiente paso importante: consideraba la numerable aditividad para sus medidas. Además dio una definición razonable de conjuntos de medida nula, de hecho, mientras que para sus antecesores los racionales de [0, 1] medían 1, para Borel medían cero. Desde Cantor se sabía que todo abierto A ⊂ ℜ era unión, a lo sumo numerable de intervalos abiertos In disjuntos (A = ∪ In ). Borel define su medida para un abierto como la serie m[A] = ∑ m[In] y describe la clase de los conjuntos (ahora llamados “borelianos”) que pueden obtenerse a partir de los abiertos, mediante iteraciones en las que se hacen uniones o diferencias, A\B, numerables de conjuntos de la clase, e indica que para estos conjuntos puede definirse una medida que es “numerablemente aditiva” (la medida de una unión numerable y disjunta de conjuntos medibles es la suma de sus medidas). Así si un conjunto S incluido en un intervalo I tenía medida μ (S ) , entonces:

μ (I − S ) = μ (I ) − μ (S ) , y si S era una unión disjunta de conjuntos Sn con medida μ (Sn ) , entonces ∞

μ (S ) = ∑ μ ( S n ) . n =1

La numerable aditividad de Borel frente a la finita aditividad de Jordan fue una propiedad básica que permitió obtener los resultados fundamentales en la teoría de integración abstracta, teoría que desarrolló fundamentalmente Henri Lebesgue (1875–1941) a partir de su tesis de 1902. (Sobre esta Teoría ya tratarán otros compañeros de clase)

Sin embargo, aunque los Conjuntos motivasen el desarrollo de la Medida, también surgieron algunos conflictos. Hay que destacar el axioma de elección, perteneciente a la Teoría De Conjuntos. Establece que para todo conjunto se tiene una función de elección. Una función de elección correspondiente a un conjunto X es una función f : X → X tal que f ( y ) ∈ y para todo y ∈ X con y distinto de vacío. El axioma parece tan plausible que pronto los teóricos de conjuntos comenzaron a usarlo casi inconscientemente. Atrajo la atención de Zermelo (1904), que probó que cualquier conjunto S podía estar bien ordenado. Esto parecía un avance para la resolución de la hipótesis del continuo. Pero la prueba de Zermelo sólo daba la existencia de un buen orden en un conjunto S, dando la existencia de una función de elección para el conjunto de subconjuntos de S. Seguía sin saberse explícitamente si ℜ constaba de un buen orden. Esto hacía dudar del axioma de elección. Aún más dudas aparecieron en relación a este axioma cuando se vieron algunas de sus increíbles consecuencias en Medida. Así en 1924 aparece la famosa descomposición paradójica de Banach-Tarski, que de hecho es un teorema, y que afirma (gracias al axioma de elección) que es posible romper en un número finito de trozos una bola unitaria (de ℜ3 ) y obtener, al reordenarlos (mediante movimientos rígidos) dos bolas unitarias. Obviamente, este resultado implica la existencia de conjuntos no medibles (la imposibilidad de asignar una medida a todos los subconjuntos de ℜ3 ). Es más, implica que la medida de Lebesgue de ℜ3 no se puede extender a todos los subconjuntos del espacio euclídeo, ni siquiera conservando la aditividad finita.

Página 8


Fundamentos de la Matemática Medida

De modo que aunque se desconfiara del Axioma de elección, lo cierto es que había conjuntos no medibles (para la medida de Lebesgue). Banach-Tarski lo demostraron en ℜ3 , pero también se puede ver en ℜ . Por ejemplo: En [0,1] definimos la relación (de equivalencia) xRy ↔ x − y ∈ Q . Sea A* un conjunto formado por un representante de cada clase de equivalencia: [0,1]/ R. - Axioma de elección: para seleccionar un elemento de cada clase de equivalencia del conjunto [0,1]/ R, formando el conjunto de los representantes de dichas clases. – [x0] = {x0 + r ∈ [0,1], r ∈ Q } Se trata de ver que A* no es medible. Observación: I-. r, s ∈ Q ; r ≠ s ⇒ r + A* y s + A* son disjuntos porque si

(

) (

)

z ∈ r + A* I s + A* ⇒ z = r + x = s + y ; x, y ∈ A* Pero entonces xRy . Por la construcción x = y, y por tanto r = s, y obtenemos contradicción con la hipótesis. II-. Tenemos en cuenta la propiedad de la medida exterior de Lebesgue :

Dado A y x ∈ ℜ , si x + A = {x + y : y ∈ A } , m*( x + A ) = m* (A) Si llamamos Q1 = Q I [−1,1] ⇒ [0,1] ⊂ ⎛ Por tanto 1 ≤ m* ⎜⎜ U r + A* ⎝ r∈Q1

(

Ur+A

*

⊂ [−1,2] -unión numerable disjunta-

r∈Q1

)⎞⎟⎟ ≤ 3 ⇔1 ≤ ∑ m (A ) ≤ 3 *

II

*

¿ m*(A*) = 0?

r∈Q1

( Si m* tuviera las propiedades de una medida entonces se tendría 1 ≤

∑ m (A ) ≤ 3 *

*

)

r∈Q1

“m* (A*) no tiene sentido como medida ”. No todos los subconjuntos de ℜ son medibles (para la medida de Lebesgue). Volviendo al tema central, sólo decir, que a partir de aquí surgieron suposiciones en las que se observa que conjuntos que tengan medidas “no medibles para Lebesgue” han de ser conjuntos muy grandes. Parecía que la medida de los subconjuntos de ℜ requeriría conjuntos mayores que ℵ1 . La hipótesis del continuo seguía siendo un problema.

Página 9


Fundamentos de la Matemática

Lógica

LÓGICA Desde los tiempos de Leibniz, y quizás antes, se han realizado intentos por mecanizar el razonamiento matemático. Son pocos los logros conseguidos hasta finales del siglo XIX, cuando se empiezan a definir los objetos matemáticos en términos de conjuntos. La reducción de conceptos sobre números, espacio, funciones, y su parecido, con el sólo concepto de conjunto, trajo consigo la reducción en el número de axiomas que parecían ser necesarios para las matemáticas. Esto junto con la línea de investigación que llevó a un sistema de reglas, para deducir fórmulas de un conjunto de axiomas, ofrecieron la posibilidad de un completo y riguroso sistema mecánico para las matemáticas. A continuación se presenta la evolución de la lógica en base a la división de etapas propuesta por Henri Poincaré. Henri Poincaré presenta un análisis interesante sobre la historia de la lógica. Trata de conectar la lógica y las matemáticas mediante aspectos derivados de Sistemas de Información Tecnológica; muestra cómo sobre grandes épocas, el énfasis ha cambiado de rigor y formalidad a pragmatismo y creatividad. Sugiere que en los últimos años ha habido una explosión creativa de aplicaciones poderosas de la lógica. Las cuatro grandes épocas de Poincaré son:

PERÍODO I : Nacimiento de las Matemáticas y de la Lógica (600 a.c. - 300 a.c.) Durante este período, los griegos establecieron las matemáticas como un proceso deductivo o de razonamiento lógico. A este período se le conoce también como el Período de los Matemáticos Griegos Clásicos. Del período de los Matemáticos Griegos Clásicos, uno de los más conocidos fue Platón, debido a sus famosos libros: "Los Diálogos" y "La República". Platón nació en Atenas en el Año de la Gran Plaga (aproximadamente en el año 429 A.C). En Los Diálogos, Platón describe diálogos imaginarios de Sócrates sobre diversos temas, mostrando la gran habilidad para discutir y convencer que Socrátes tenía. En La República, Platón describe un estado ideal y la forma en que los gobernantes ideales deberían ser educados, según él, abarcando las siguientes áreas: Aritmética, Geometría Plana, Geometría Sólida, Astronomía, Música o Armonía. Al parecer Platón gustaba mucho de la geometría, hasta tal grado que se dice que en la entrada de la Academia había un letrero que decía: "Ningún ignorante de Geometría entra aquí". Platón distinguía entre círculos geométricos e ideales, señalando que los primeros pueden ser trazados por el hombre (ó algún dispositivo creado por él) y por lo tanto, son imperfectos, mientras que los ideales no pueden ser trazados de ninguna manera, de forma tal que ni siquiera pueden ser vistos. De acuerdo con Platón, en los círculos ideales todas sus tangentes son tales que solo tocan un punto, mientras que en los círculos geométricos no ocurre así. El filósofo griego más representativo de esta época es, sin lugar a dudas, Aristóteles, quien propuso el razonamiento deductivo a partir de los silogismos aristotélicos, los cuales son de la forma: SI todos los HUMANOS son MORTALES AND Todos los GRIEGOS son HUMANOS ENTONCES Todos los GRIEGOS son MORTALES

Curiosamente, Aristóteles no era inicialmente un matemático, sino más bien un físico y amante de la Anatomía. Su gran poder de observación y capacidad deductiva lo llevó, según se cuenta, a tener rivalidad con su maestro PLATÓN ,quien a su vez era un estudioso de Pitágoras de Samos (famoso por el teorema de Pitágoras) y discípulo de Sócrates.

Página 10


Fundamentos de la Matemática

Lógica

PERÍODO II : Matemáticas y Ciencia (1500 - 1800) El vigor intelectual del renacimiento da pie a una nueva ciencia basada en las Matemáticas. De esta manera surge la geometría de coordenadas (llamada Geometría Analítica) de René Descartes (1596-1650) y el Cálculo Diferencial e Integral de Leibniz (1646-1716). Descartes formuló cuatro reglas a las que se debe sujetar cualquier investigación científica: * Sólo puede admitirse como verdadero lo que es evidente y está demostrado. * Es indispensable el dividir lo complejo en cuantas partes sea posible. * Proceder de lo simple a lo complejo, de lo más evidente a lo menos evidente. * Investigar el objeto de estudio en todos sus detalles y pormenores.

PERÍODO III : Formalización de las Matemáticas (1821 - 1940) Durante el siglo XIX, las matemáticas son “rigorizadas”, debido a la influencia de filósofos como Giuseppe Peano (1858-1932), fundador de la lógica simbólica, y Hilbert, creador de la escuela Formal. De acuerdo con esta escuela, cualquier enunciado verdadero debe poder ser deducido de los axiomas del sistema. Peano realiza un análisis del proceso demostrativo de la matemática. Establece la formulación axiomática de la aritmética a través de sus famosos Axiomas de Peano, los cuales definen los números naturales en términos de la teoría de conjuntos, surgiendo así, la Lógica Matemática. Esta axiomatización aparece en 1889 en un pequeño libro publicado en Turín, titulado “Arithmetices Principia Nova Methodo Exposita”. Éste, más que un texto de aritmética, puede considerarse una introducción a la lógica, en la cual se presentan por primera vez los símbolos actuales para representar la pertenencia, la existencia, la contenencia (en la actualidad es invertido, acorde con el de los números) y para la unión y la intersección. Es un intento para lograr una axiomatización de las matemáticas en un lenguaje simbólico. En el prefacio se introduce una gran cantidad de notación lógica. Él comienza con las “explicaciones” siguientes: • • • •

El símbolo N significa número (entero positivo). El símbolo 1 significa unidad. El símbolo a + 1 significa el sucesor de a, o, a más 1. El símbolo = significa es igual a. En seguida se enuncian los “axiomas”. En esta presentación sólo se ha modificado la notación

lógica. 1. 2. 3. 4. 5. 6. 7. 8. 9.

1 ∈ N. Si a ∈ N entonces: a = a. Si a ∈ N entonces: a = b si y sólo si b = a. Si a, b, c ∈ N entonces: a = b, b = c implica a = c. Si a = b y b ∈ N entonces: a ∈ N. Si a ∈ N entonces: a +1 ∈ N. Si a ∈ N entonces: a = b si y sólo si a +1= b +1. Si a ∈ N entonces: a +1 ≠ 1. Si k es una clase, 1∈k, y si para x∈N: x∈ k implica x +1∈k, entonces N ⊆ k.

Página 11


Fundamentos de la Matemática

Lógica

Los axiomas 2, 3, 4 y 5, que se refieren a la igualdad. Los restantes cinco axiomas son conocidos como los Axiomas de Peano. El último axioma es una traducción del principio de inducción matemática, está formulado en términos de clases y contiene una clase variable k. Aún cuando Peano es el fundador de la Lógica Matemática, es al alemán Gottlob Frege a quién se le considera el padre de la misma. En 1879 publicaba la obra “Escritura conceptual” en la que dio carta de naturaleza a la lógica matemática moderna, mediante la introducción de una nueva sintaxis, en la que destaca la inclusión de los llamados cuantificadores («para todo» o «para algún caso de»), siendo el primero en separar la caracterización formal de las leyes lógicas de su contenido semántico. Nace en este período la lógica Booleana de George Boole (1815-1864). El entusiasmo por la lógica y por las matemáticas en general, crece; las matemáticas son entonces colocadas sobre fundamentos firmes y finalmente formalizadas. Boole definió lo que actualmente se conoce como la Lógica Booleana, en la que sólo se trabaja con dos valores: Falso y Verdadero (0 y 1). Él introduce el álgebra de la lógica y formula las leyes del Cálculo Proposicional. Un avance importante se obtiene entonces con Augustus de Morgan (18061871), quien hace un análisis de las leyes, símbolos y operaciones de la matemática. En 1838 él definió el término "inducción matemática" colocando un proceso que ha sido usado sin claridad en una rigurosa base. Expresa rigurosamente las leyes distributivas de la negación, creó y obtuvo las leyes que llevan su nombre. Son reglas de equivalencia en las que se muestra que dos proposiciones pueden ser lógicamente equivalentes, como se muestra a continuación. Leyes de Morgan: ¬ (P ∨ Q) ⇔ ¬ P ∧ ¬ Q

; ¬ (P ∧ Q) ⇔ ¬ P ∨ ¬ Q

Surge el Cálculo de Secuentes (o sistema de deducción natural) de Gentzen, vigente hasta nuestros días y utilizado como un método de deducción natural. Gentzen fue discípulo de eminentes matemáticos como Courant, Landau y el propio Hilbert, para quién fungió como su asistente hasta 1934 en la Universidad de Gottingen, en Alemania, y se cuenta que regresó a trabajar con él de 1939 a 1943. Sin embargo, en este período, los planteamientos de filósofos, como Russell y Gödel, plantean de acuerdo con la lógica misma, limitaciones no sólo a la lógica, sino a la ciencia en general: existen verdades que no pueden ser deducidas de todos los sistemas axiomáticos (sistemas incompletos). Bertrand Russell realizó grandes contribuciones a la lógica formal, incluyendo su famosa Paradoja de Russell, la cual es un golpe terrible a la teoría de conjuntos clásica. Las paradojas nacen del empleo de un principio de comprensión que permite afirmar como existente cualquier reunión de un todo de objetos (perceptibles o pensables) que satisfagan cierta propiedad. A una reunión tal se denomina “conjunto”. Por el principio mencionado, se supone una perfecta correspondencia entre conjuntos y propiedades. Russell mostraría que hay al menos una propiedad, x ∉ x, que no determina ningún conjunto, si no se quiere caer en contradicción. Así el conjunto de las manzanas no es miembro de sí mismo pues él mismo no es una manzana. Sin embargo, el conjunto de todas las cosas pensables es él mismo una cosa pensable, por tanto miembro de sí mismo.

Página 12


Fundamentos de la Matemática

Lógica

La forma con que lo explica se puede entender a partir de la siguiente paradoja : “El barbero del pueblo afeita a todas las personas del pueblo que no se afeitan ellos mismos” Un día al barbero se le ocurrió preguntarse si debía afeitarse a sí mismo. Y se encontró entonces en medio de una paradoja. Consideremos a C como el conjunto de todos los hombres que no se afeitan a sí mismos. La pregunta es: ¿el barbero pertenece o no al conjunto C? Si el barbero pertenece a C entonces no se afeita por sí mismo; luego, es un hombre afeitado por el barbero, es decir, por sí mismo, con lo cual no pertenece al conjunto C. Es decir, si el barbero pertenece a C entonces no pertenece a C; esto es absurdo. Pensemos a hora que el barbero no pertenece a C, es decir, que se afeita a sí mismo; luego, es un hombre afeitado por el barbero, con lo cual no se afeita por sí mismo y entonces, pertenece a C. Es decir, si el barbero no pertenece a C entonces pertenece a C; y esto genera otro absurdo. En esta paradoja, Russell plantea la imposibilidad de evaluar expresiones para determinados conjuntos, al definir el conjunto de todos los conjuntos los cuales no son miembros de ellos mismos. Para tal conjunto, si éste existe, él será un miembro de sí mismo, sí y sólo si, él no es miembro de sí mismo. En consecuencia, se tiene una contradicción. Hasta la fecha se han hecho muchos intentos por resolver la Paradoja de Russell, incluso él mismo incluye una solución en su Famosa Teoría de Tipos, donde la idea básica es establecer tipos o clases (o bien objetos) los cuales pueden contener tipos o clases (u objetos) de jerarquía inferior y donde un tipo (clase u objeto) no se puede contener a sí mismo. La Teoría de Tipos de Russell, hizo posible la creación de lenguajes de especificación modernos (surgidos a partir de 1980) y la metodología de diseño y programación conocida como Orientada a Objetos, que surgió desde 1970 con el lenguaje MODULA y que se hizo popular en los 1990's. Bertrand Russell escribió varias obras importantes. "The Principles" en 1903, donde introduce su famosa Teoría de Tipos y en 1908 su artículo "Mathematical Logic as Based on the Theory of Types". La necesidad de resolver las paradojas que habían sido descubiertas entre 1895 y 1905 en Teoría de Conjuntos, tuvo como consecuencia una nueva revisión de los fundamentos de la matemática, y se llegó a la conclusión de que el camino más firme para avanzar en matemáticas pasaba por el establecimiento de una axiomática para la Teoría de Conjuntos similar a las conocidas para la Geometría, así como por la justificación del uso de dicha axiomática (y no otra); lo que dio lugar a la definición y el estudio de una serie de propiedades “básicas” que debe satisfacer cualquier sistema de axiomas que se tome (consistencia, completitud, adecuación, coherencia, etc.). Hubo varias propuestas axiomáticas para Teoría De Conjuntos: Zermelo-Fraenkel y von NeumannBernays-Gödel. Por otra parte, D. Hilbert (que en 1899 había publicado una axiomática completa para la Geometría Euclídea (mucho más sólida que la ofrecida por Euclides en la antigua Grecia), desarrolló los conceptos necesarios para el estudio de las propiedades formales de las axiomáticas: es lo que entonces se llamó “Teoría de la prueba” y actualmente conocemos como “metamatemática”. La idea de Hilbert para su “Teoría de la Prueba” era brillante. Se trataba de conseguir una completa formalización de la matemática (en particular, de la Teoría de Conjuntos o de la Aritmética), de manera que, al unir al cálculo lógico una correcta interpretación formal de los axiomas de una teoría matemática concreta, podríamos formalizar completamente cualquier afirmación de dicha teoría (en particular, cualquier demostración) como una ristra finita de fórmulas abstractas, cuyos símbolos, aislados y sin interpretación, carecen de significado por sí mismos. ¿Por qué es esto deseable? Algunas de las razones son las siguientes:

Página 13


Fundamentos de la Matemática

Lógica

- Al carecer las sentencias formales, que se puedan deducir en el cálculo lógico descrito anteriormente, de un significado concreto, evitaremos la aparición de las paradojas que se conocían entonces. - Una vez formalizado nuestro sistema, si pudiésemos demostrar dentro sistema es consistente, obtendríamos una demostración finitaria de que no utilizar los conceptos que en principio parecían problemáticos en Teoría siempre que nos ciñamos al uso del sistema axiomático para el cual se consistencia.

de éste que el hay peligro en De Conjuntos, ha probado la

- Todo lo que se demuestre en el seno de un sistema formal fijado, funciona como verdadero para cualquier interpretación que se realice de éste. Veamos algunos de los conceptos básicos introducidos por Hilbert: Un sistema formal S consta de los siguientes elementos: -

-

Un conjunto numerable de signos primitivos, que determina el conjunto de sus hileras o secuencias finitas de signos (con posibles repeticiones). Un conjunto (finito) de reglas combinatorias que determinan bajo qué condiciones podemos afirmar que una hilera de símbolos primitivos es (o no) una fórmula. El conjunto L de las fórmulas se denomina lenguaje formal del sistema. Un conjunto de reglas combinatorias que sirve para producir deducciones formales (determina qué secuencias de fórmulas constituyen una deducción en el sistema). Estas reglas normalmente incluyen la aceptación como verdaderas de un conjunto finito de sentencias (fórmulas sin variables libres) que reciben el nombre de axiomas del sistema. Las sentencias del sistema. Una sentencia se dice deducible si es la última fórmula que aparece en una secuencia de fórmulas que constituye una deducción. El conjunto de sentencias deducibles se llama Teoría Formalizada.

Dado un sistema formal S, cuyos axiomas están dados por A. Si ϕ es deducible en el sistema, decimos que ϕ es una consecuencia sintáctica del sistema y se denota como A├ ϕ . Si ϕ es una afirmación verdadera en cualquiera de las posibles interpretaciones del sistema formal, diremos que se trata de una consecuencia semántica de A y lo denotaremos como A╞ ϕ . Un sistema formal se dice que es consistente si en él no se pueden derivar (sintácticamente) proposiciones contradictorias. El sistema se dice coherente si las consecuencias sintácticas de éste son también consecuencias semánticas. El sistema se dice adecuado si todas las consecuencias semánticas son a su vez consecuencias sintácticas (si todas las verdades son deducibles) Finalmente, el sistema se dice completo si para cada proposición p de éste se tiene que bien p es deducible o bien ¬p es deducible. Pero ¿puede demostrarse la consistencia, en el sentido del programa de Hilbert, de un sistema como el de los Principia? Fracasaron repetidos intentos de construir tal demostración. Y la publicación del artículo de Gödel en 1931 mostró definitivamente que todos esos esfuerzos estaban condenados al fracaso.

Página 14


Fundamentos de la Matemática

Lógica

Gödel probó que no es posible ninguna demostración metamatemática de la consistencia formal de un sistema lo suficientemente amplio como para contener toda la aritmética. Pero lo más sorprendente es que pone de manifiesto una limitación fundamental del método axiomático. Es decir, dado cualquier conjunto consistente de axiomas aritméticos, hay enunciados aritméticos verdaderos que no son derivables de dicho conjunto. La matemática abunda en enunciados que parecen autoevidentes, para los que no se ha hallado ninguna excepción y que, sin embargo, se han resistido a todos los intentos de demostración. Un ejemplo es el “Teorema” de Goldbach, el cual afirma que todo número par mayor que dos, es la suma de dos números primos. Ahora bien, podría sugerirse que se modificaran o completaran los axiomas para tener en cuenta este teorema y otros relacionados con él, haciéndolos derivables. Pero Gödel ha mostrado que este planteamiento no promete ninguna solución final. Esto es, que incluso si el conjunto de axiomas se aumenta mediante la adición de cualquier número finitos de postulados aritméticos, siempre habrá otras verdades aritméticas que no son formalmente derivables del conjuntos aumentado. Parece, pues, haber una limitación inherente al método axiomático como procedimientos de sistematización de toda la aritmética. ¿Cómo demostró Gödel sus conclusiones? Hasta cierto punto, la estructura de su demostración está modelada, como observa él mismo, sobre el razonamiento contenido en una de las antinomias lógicas, “La Paradoja de Richard”. Puede formularse del modo siguiente: Supongamos un determinado lenguaje (el castellano, por ejemplo) en el que puedan expresarse las diversas propiedades puramente matemáticas de los enteros; y consideremos las definiciones de esas propiedades que pueden formularse en la notación de ese lenguaje. Así, la propiedad de ser un número primo puede definirse por: “no divisible por ningún entero distinto de uno y de sí mismo”; la propiedad de ser un cuadrado perfecto puede definirse por: “ ser igual a producto de algún entero por dicho entero”; y así sucesivamente. Es fácil ver que cada una de esas definiciones contendrá un número finito de palabras, y, por tanto, un número finito de letras del alfabeto. Siendo ésta la situación, las definiciones pueden seriarse, ordenarse según el número de letras que contienen (y las definiciones con el mismo número de letras pueden ordenarse alfabéticamente dentro de su compartimientos en la serie). A cada definición corresponderá entonces un solo entero; por ejemplo, la definición de menor número de letras corresponderá el número 1, la siguiente definición en la serie ordenada corresponderá al número 2, y así sucesivamente. Y ahora llegamos a un punto curioso. Puesto que a cada definición corresponde un entero, puede ocurrir en algunos casos que un entero posea la propiedad designada por la definición a la que corresponde dicho entero en la serie. Supongamos, por ejemplo, que la expresión definitoria “no divisible por un entero distinto de uno y de sí mismo” estuviera correlacionada con el número 17; entonces 17 tiene la propiedad designada por aquella expresión. Por otro lado, supongamos que la expresión definitoria “ ser igual al producto de algún entero por dicho entero” resultara correlacionada con el número 20; entonces 20 no tiene la propiedad designada por esa expresión. Diremos ahora que (en el segundo ejemplo) el número 20 tiene la propiedad de ser “richardiano”, mientras que (en el primer ejemplo) el número 17 no tiene la propiedad de serlo. Más en general, definiremos del modo siguiente la propiedad de ser richardiano: “no tener la propiedad designada por la expresión definitoria con la cual un entero esta correlacionado con el conjunto serialmente ordenado de las definiciones”. Pero observaremos ahora que esta misma expresión define una propiedad numérica, de tal modo que también ella tiene que pertenecer a la anterior serie de definiciones. Entonces tiene que corresponder a algún número, al que llamaremos n, que indica su posición en la serie. Y puede plantearse la cuestión, que recuerda la antinomia de Russell, de si el número n es richardiano. Casi enseguida podemos ver las fatales consecuencias contradictorias de esta pregunta. Pues n es richardiano si y sólo si no posee la propiedad designada por la definición con la que está correlacionado; y es fácil ver que entonces n es richardiano si y sólo si no es richardiano. Por tanto, el enunciado “n es richardiano” es a la ver verdadero y falso. Página 15


Fundamentos de la Matemática

Lógica

El artículo de Gödel es difícil. Hay que dominar cuarenta y seis definiciones preliminares junto con varios lemas importantes antes de conseguir los resultados principales. Por eso ofrezco la perspectiva de la argumentación con la siguiente frase por “esta proposición es demostrable si y sólo si no es demostrable”. Si es demostrable y dice que no lo es, estamos probando algo falso. Si no es demostrable y dice que no lo es, entonces, lo que establece es verdadero, no es demostrable. Tenemos un hueco. En vez de demostrar algo falso tenemos incompletitud, tenemos una proposición verdadera que nuestra formalización no ha podido capturar. La idea es que estamos probando proposiciones falsas. Nuestro sistema formal axiomático es incompleto, hay algo que es verdad y que no podemos probarlo dentro de nuestro sistema. El resultado es por tanto, que no podemos aspirar a finalizar el programa formalista de Hilbert. Los sistemas formales no tuvieron éxito para el razonamiento, pero funcionaron maravillosamente para la computación. Estas formalizaciones se usan actualmente en los lenguajes de programación. Las conclusiones de Gödel son también importantes para la cuestión de si es posible construir máquinas de calcular que sean buenos sustitutos de una inteligencia matemática viva. Tales máquinas, como se proyectan y construyen corrientemente, operan según cierto conjunto fijo de instrucciones incorporado a su funcionamiento, y suponen mecanismos que proceden por pasos sucesivos. Por tanto, a la luz del teorema de incompletitud de Gödel, existe un conjunto infinito de problemas de teoría elemental del número que esas máquinas son esencialmente incapaces de resolver, por complejos que sean los mecanismos que se les haya incorporado y por rápidas que sean sus operaciones. Puede ocurrir perfectamente que el propio cerebro humanos sea una “máquina” con limitaciones incorporadas a su estructura y que, por tanto, haya problemas matemáticos que sea incapaz de resolver. Pero aun así, el cerebro humano resulta contener una estructura de reglas operativas mucho más poderosa que la estructura de las máquinas artificiales. No hay, pues, una inmediata perspectiva de sustitución de la mente humana por robots. Pero nada de todo esto debe interpretarse como una invitación a la desesperación. El descubrimiento de que hay verdades aritméticas indemostrables no significa que haya verdades eternamente insusceptibles de descubrimiento. Lo que significa es que los recursos de la inteligencia humana no han sido ni pueden ser formalizados completamente, y que siempre pueden esperarse nuevos principios de demostración para la invención y el descubrimiento.

PERÍODO IV : Revolución Digital (1940 - 2005) Empieza con la invención de la computadora digital, lo que conlleva al acceso universal a redes, conectadas a procesadores digitales y sistemas multimedia, entre otros. La información transforma la economía y la sociedad en general. Alan Mathison Turing (1912-1954), establece la relación entre la lógica y la computación electrónica. Se plantea la famosa Máquina de Turing, la cual es la base de la Teoría de la Computación actual. Turing es, por tanto, considerado el padre de la Teoría de la Computación. También Turing plantea su famosa Prueba de Turing, la cual es muy conocida hoy en día en Inteligencia Artificial. En esta prueba, Turing cuestiona si será posible distinguir a una máquina de un ser humano cuando nos proporciona información sin que sepamos de antemano de quién se trata.

Página 16


Fundamentos de la Matemática

Lógica

Norbert Weiner (1894-1964), funda la ciencia de la cibernética y establece el desarrollo de la lógica experimental, por su parte, Alfred Tarski(1902-1983) establece la fundamentación de la metalógica y la metamatemática y desarrolla también un tratamiento semántico de la verdad. Finalmente Wang Hao (1921- ), quien fué un biógrafo y seguidor de Gödel, formula un algoritmo que permite decidir cuándo una fórmula del Cálculo Proposicional es un teorema. En la escuela moderna de la computación encontramos lógicos que han permitido avances importantes, afortunadamente todos ellos aún vivos. Hoare presenta un sistema axiomático de los sistemas de programación y Dijkstra un sistema de verificación y deducción de programas a partir de especificaciones. Los métodos de Hoare actualmente han permitido la especificación de sistemas distribuidos y concurrentes. Por otra parte James Allen, A. Pnuelli y Mac Dermott, han hecho proposiciones sobre lógica Temporal y Modal que permiten el desarrollo de sistemas de planificación, donde el manejo del tiempo es crucial. Actualmente los sistemas multiagentes utilizan sistemas formales basados en lógica modal y temporal de Allen, Pnuelli, Mac Dermott o alguna variación de ellos.

PERÍODO V : Siguiente Revolución Lógica (2005 - ?) La revolución digital proporciona los fundamentos económicos y tecnológicos para la transformación de redes globales de computadoras en sistemas inteligentes, los cuales usan la lógica y los métodos formales (basados en métodos matemáticos) para soportar nuestro trabajo, educación y entretenimiento.

Página 17


Fundamentos de la Matemática

Bibliografía

BIBLIOGRAFÍA Sigma. El mundo de las matemáticas . Ed. Grijalbo, S.A. Volúmenes 4 y 5. Mathematics and its History. John Stillwell. Ed Springer Verlag 2002. Apuntes Teoría de la Medida. Fernando Soria. http://www.cs.auckland.ac.nz/CDMTCS/chaitin/cmu2.pdf http:// w3.mor.itesm.mx/~logica/log9808/evolucion.htlm http://divulgamat.net Artículo: “El enfoque conjuntista de las matemáticas” http://www.eio.es/info/articulos/almira.pdf http://www.temakel.com/artborgesbabel.htm

Página 18



Transparencias



ENFOQUE CONJUNTISTA: RIEMANN:

• •

DEDEKIND:

• • •

CANTOR:

• • •

1851 - Presenta la noción de variedad. 1868 - Su concepción de integral (funciones discontinuas). 1850 - Alumno de Riemann. Primeros trabajos en álgebra y fundamentos de la aritmética. Versión moderna de la Teoría de Galois. 1871 - Teoría de los Números Algebraicos (Cuerpos, Anillos de enteros, Módulos, Ideales). 1872 - Publica su definición de Números Reales. 1888 - “Qué son y para qué sirven los números” - definición del concepto de infinitud. - definición números naturales. 1873 - ¿Hay la misma cantidad de números en Cardinalidad de conjuntos infinitos. Numerabilidad: 1 b 2

2 b 4

3 b 6

5 b 10

6 b 12

Reales Incontables - Principio de diagonalización: Primer número Segundo número Tercer número Cuarto número

4 b 8

0, a1a2 a3a4 a5 a6 ... 0, b1b2b3b4b5b6 ... 0, c1c2c3c4c5c6 ... 0, d1d 2 d 3d 4 d5 d 6 ...

- Su cardinal: Potencia del continuo “c”. Aritmética del Infinito. ℵ0 Y “c” - ¿Otros Cardinales transfinitos? Si. ℵ 0 , ℵ 1 , ℵ 2 , ℵ 3 ,..., ℵ n ,..., ℵ w ,...

N y ℜ?

.

.

.

.


LÓGICA: PERÍODO I : Nacimiento de las Matemáticas y de la Lógica (600 a.c. - 300 a.c.) PERÍODO II : Matemáticas y Ciencia (1500 - 1800) PERÍODO III : Formalización de las Matemáticas (1821 - 1940) PERÍODO IV : Revolución Digital (1940 - 2005)

PEANO

G. BOOLE

G. FREGE

A. MORGAN

B. RUSSELL

HILBERT

GÖDEL


LÓGICA (1821 - 1940): PEANO:

“Arithmetices Principia Nova Methodo Exposita”. Símbolos actuales, pertenencia, contenencia, existencia, unión, intersección. Algunas aclaraciones: El símbolo N significa número (entero positivo). El símbolo 1 significa unidad. El símbolo a + 1 significa el sucesor de a o a más 1. El símbolo = significa es igual a.

Axiomas:

1 ∈ N. Si a ∈ N entonces: a = a. Si a ∈ N entonces: a = b si y sólo si b = a. Si a, b, c ∈ N entonces: a = b, b = c implica a = c. Si a = b y b ∈ N entonces: a ∈ N. Si a ∈ N entonces: a +1 ∈ N. Si a ∈ N entonces: a = b si y sólo si a +1= b +1. Si a ∈ N entonces: a +1 ≠ 1. Si k es una clase, 1 ∈ k, y si para x ∈ N: x ∈ k implica x +1 ∈ k, entonces N ⊆ k.

G. FREGE:

“Escritura conceptual”. Símbolos actuales, cuantificadores. Separación del contenido sintáctico y semántico.

G. BOOLE:

Define lo que actualmente se conoce como Lógica Booleana, en la que sólo se trabaja con dos valores Verdadero = 1 Falso = 0

A. MORGAN:

Analiza leyes, símbolos y operaciones de la matemática.

Crea las reglas de equivalencia que llevan su nombre. ¬ (P ∨ Q) ⇔ ¬ P ∧ ¬ Q ¬ (P ∧ Q) ⇔ ¬ P ∨ ¬ Q


B. RUSSELL:

HILBERT:

GÖDEL:

Plantea la imposibilidad de evaluar expresiones para determinados conjuntos, al definir el conjunto de todos los conjuntos que no son miembros de ellos mismos. Para tal conjunto, si éste existe, él será miembro de sí mismo si y sólo si él no es miembro de sí mismo (Paradoja del Barbero).

Intento de resolución: Teoría de Tipos. En su obra “The Principles”. Consecuencias: - Metodología de diseño. - Programación orientada a objetos.

Para evitar paradojas desarrolla la Metamatemática.

Trataba de conseguir la completa formalización de la Matemática.

Creador de la Escuela Formal.

¿Puede demostrarse la consistencia, en el sentido del programa de Hilbert de un sistema como el de “The Principles”?.

¿Cómo demuestra sus conclusiones?. “Esta proposición es demostrable si y solo si no es demostrable” Si es demostrable ¿probamos cosas falsas?. Si no es demostrable ¿cómo puedo probarlo?. INCOMPLETITUD



Turn static files into dynamic content formats.

Create a flipbook
Issuu converts static files into: digital portfolios, online yearbooks, online catalogs, digital photo albums and more. Sign up and create your flipbook.