9 minute read

Los lImites del “razonamiento”

¿Pueden las máquinas pensar, entender, sentir y ser conscientes?

Luis A. Pineda UNIVERSIDAD NACIONAL AUTÓNOMA DE MÉXICO

Advertisement

Esta pregunta la planteó por primera vez, en un entorno académico y científico, el matemático inglés Alan Turing, en el artículo Maquinaria Computacional e Inteligencia, publicado en 1950. En éste se incluye un experimento mental al que Turing llamó el juego de imitación, que después se popularizó como la prueba de Turing. Participan tres jugadores: una computadora y dos seres humanos (el entrevistador y el asistente). Los tres están en cuartos separados, pero se pueden comunicar por un teletipo para evitar reconocerse por la voz o visualmente. El propósito del entrevistador es identificar quién es la computadora lo cual tiene que mentir, y gana cuando lo logra. El rol del asistente es auxiliar al entrevistador, respondiendo a sus preguntas con la verdad. Turing propuso que, si la computadora pasa la prueba, tendríamos que aceptar que ésta entiende, es consciente y tiene sentimientos.

Turing puso la vara alta y propuso un segundo juego, al que llama viva voce, el cual consiste en conversar espontáneamente para saber si nuestro interlocutor realmente entiende o sólo repite como perico, como cuando queremos saber si un niño entendió el texto de la tarea o apenas se lo sabe de memoria. Se trata de poner en aprietos al adversario en un diálogo de preguntas y respuestas. Pierde el que se queda trabado, o quien ya no puede presentar contraargumentos.

Los programas que conversan en lenguaje natural siempre han sido muy populares. Un ejemplo muy temprano fue Eliza, desarrollado por J. Weizenbaum en el MIT en 1965, que simulaba ser un terapista Rogeriano. En ocasiones, este programa era capaz de mantener una conversación convincente y coherente con el usuario. Una famosa anécdota cuenta que un día Weizenbaum encontró a su secretaria llorando porque “sí la comprendía”. Un ejemplo reciente en nuestro entorno es el lenguaje conversacional del robot Golem-III. Otro programa reciente y poderoso es ChatGPT, creado por que juega sorprendentemente viva voce, pero ocasionalmente incluye falsedades en sus respuestas ante preguntas factuales.

La prueba de Turing aparece representada, con matices, en la ciencia ficción, por ejemplo, en los cuentos Usher Los Largos Años, incluidos en Crónicas de Ray Bradbury, publicado, coincidentemente, en 1950. El primero relata una historia de terror en la que los miembros de un comité de defensa de la moral (quienes detestan la libertad y la creatividad) se confrontan con sus réplicas robóticas exactas, quienes finalmente los matan. La segunda es una historia muy hermosa sobre los robots de compañía, en la que muy pronto se sabe que son robots y, sin embargo, no dejan de ser objeto de empatía. En ambas historias los robots se presentan con forma humana y son aparentemente indistinguibles de nosotros.

Un análisis más profundo aparece en la novela ¿Sueñan los androides con ovejas eléctricas? de Philip K. Rick, también de 1968, en la que se basa la película Blade Runner (1982). En este mundo se fabrican androides indistinguibles de los seres humanos, para servir como esclavos, lo cual desata una rebelión y éstos se tornan agresivos. Se diseña entonces una prueba para detectarlos, pero la frontera entre lo humano y lo maquinal es muy difusa. Hay varios giros sorprendentes en esta historia, en la que los androides se creen humanos y los humanos llegan a dudar de sí mismos. Esta novela nos invita a preguntarnos, a final de cuentas, ¿qué significa ser humano?

La prueba de Turing fue refutada convincentemente por el filósofo John Searle en 1980 con otro experimento mental llamado el argumento del cuarto chino. En éste hay una habitación, con dos ventanas; adentro está un ser humano que no sabe chino, pero que cuenta con una tabla de instrucciones para escribir textos en chino a partir de otros textos, también en ese idioma. La dinámica del experimento es que el sujeto recibe un texto por la ventana de entrada, crea un nuevo texto siguiendo las instrucciones y lo entrega por la ventana de salida. Claramente, el sujeto manipula los símbolos sin entender nada.

Afuera del cuarto hay un hablante nativo de chino que recibe y entiende los textos, y le parecen producidos por hablantes nativos del chino. Los diálogos son arbitrarios, el observador se convierte en el entrevistador y el cuarto chino gana el juego de imitación. Este experimento muestra que pasar la prueba de Turing e, incluso, jugar exitosamente el juego de la viva voce, no es suficiente para pensar, entender, sentir y ser consciente.

En un cuarto una computadora responde las preguntas del interrogador.

El argumento del cuarto chino parece ser definitivo, pero hay quienes no lo aceptan. La respuesta principal es que, aunque el sujeto dentro del cuarto no es consciente (no conoce ni entiende el idioma chino), el sistema compuesto por el cuarto, con el sujeto y sus entradas y salidas como un todo, sí lo es. En ese sentido, el robot Golem-III y el programa ChatGPT se deberían considerar como entes conscientes, a pesar de que la computadora, que es determinista, no lo sea. Sin embargo, esta posición diluye la distinción entre los sistemas que son conscientes de los que no lo son, y tiene como consecuencia que cualquier órgano, dispositivo o sistema, natural o producto del ingenio humano que transforme una entrada en una de salida, sería consciente. Por ejemplo, el estómago, el corazón o el hígado; las plantas y todos los animales; los hongos y las bacterias; los sistemas físicos, como las estrellas y las galaxias, incluyendo al universo entero; o los termostatos, los coches, los radios y las computadoras, se tendrían que considerar como conscientes. Pero esto es absurdo, por sentido común, además de que, si todo sistema es consciente, el concepto de conciencia se vacía y se vuelve retórico.

La prueba de Turing representa un nuevo capítulo en la historia del autómata que aspira a hacerse consciente y convertirse en ser humano; es el Prometeo, el Golem, el Frankenstein y el Pinocho. A final de cuentas, es la historia de cada ser humano, porque lo que nos es dado es nuestra condición biológica-social-maquinal, llena de condicionamientos, preconcepciones y prejuicios, y ganamos nuestra humanidad en la medida en que creamos nuestra propia persona y nos apropiamos de nuestra conciencia; pero debemos asumir la incertidumbre y el costo de ser libres. La prueba de Turing está profundamente inscrita en el imaginario colectivo y los robots, como los juguetes, son objetos simbólicos en los que nos reflejamos.

La prueba de Turing

El interrogador trata de determinar a través de sus preguntas (en un chat) quién es el humano y quién es la computadora.

En otro cuarto una persona responde a las preguntas del interrogador.

“Entre los actos externos y el pensamiento no hay conexión esencial, me dijo; es posible que tu interlocutor no piense más que su reloj: ¿deberíamos aceptar como ser pensante al primer animal que aprendió a hablar? ¿Quién te dice que todos los hombres no son sino papagayos educados? (…) Esta comparación es ingeniosa, respondió; no es por el movimiento y los sonidos, sino por el hilo de las ideas, la consecuencia que vincula las proposiciones y la conexión de los razonamientos que hay que decidir si un ser piensa: si fuera un loro que contesta a todo, afirmaría, sin dudar, que es un ser pensante”.

Los avances recientes de la inteligencia artificial (IA) son sorprendentes, principalmente por los desarrollos en técnicas de aprendizaje. Esto se debe a tres factores: (a) la gran cantidad de datos disponibles en Internet, incluyendo texto, imágenes y videos; (b) el desarrollo del poder de cómputo, en particular los procesadores gráficos que permiten realizar muchas operaciones a la vez; y (c) los avances en los algoritmos de aprendizaje profundo.

Actualmente los sistemas inteligentes pueden reconocer personas y objetos en imágenes, comunicarse con nosotros en lenguaje natural (español, inglés, etc.), conducir autos y vencer a campeones mundiales de ajedrez, entre muchas otras aplicaciones.

Antes de adentrarnos en el aprendizaje profundo, consideremos las redes neuronales artificiales se desarrollaron al comienzo de la era de las computadoras y fueron una de las primeras técnicas para que un ordenador aprendiera a partir de datos.

Se inspiraron en un modelo simple de las redes neuronales biológicas al componerse de unidades de procesamiento elementales, denominadas que calculan una suma ponderada de las señales de entrada como valores numéricos. Asociada a cada línea de transmisión se tiene un peso que multiplica la señal y el resultado de todas las entradas se suma. La salida de la neurona es positiva si el resultado de la suma es mayor a cierto valor (conocido como umbral) y negativa en caso contrario (ver Figura

La red neuronal más sencilla es el consta de una sola neurona. El Perceptrón aprende de un conjunto de datos, ajustando los pesos para que el error, es decir, la diferencia entre la salida real y la esperada, se minimice. Por ejemplo, si queremos que aprenda funciones lógicas de dos señales, le proporcionamos ejemplos. Un caso podría ser que aprenda la función lógica “Y”: se tienen dos entradas binarias, si ambas son uno, la salida es uno, en caso contrario la salida es cero. Si el resultado es incorrecto se ajustan los pesos del Perceptrón, hasta que para cualquier valor de las señales la salida sea la esperada.

Si se combinan muchas neuronas en una red neuronal es posible que se aprendan funciones muy complejas, como aquellas que se necesitan para clasificar imágenes.

Entrada 1

Entrada 2

Entrada 3

Supongamos que queremos que la red aprenda a distinguir entre gatos y perros. Le damos como entrada la imagen de un gato y la red nos dice que es un perro; esto es un error en la salida. Entonces lo que se hace es modificar los pesos de las conexiones que van conectadas a la salida en función de este error (última capa); y luego los pesos de las conexiones que se conectan a las neuronas de la última capa (penúltima capa), y así sucesivamente hasta llegar a la capa de entrada.

Mediante este proceso de ir modificando los pesos, después de muchos ejemplos, la red “aprende” a distinguir los gatos de los perros. Estos sistemas pueden aprender a resolver problemas muy complejos, como, por ejemplo, detectar defectos en imágenes de productos en una línea de producción, entre otros.

La revolución del aprendizaje profundo (deep learning) comenzó a principios de este siglo con avances que permitieron desarrollar modelos de redes neuronales con muchas capas, normalmente entre 5 y 20, algo imposible anteriormente. Esto se logró gracias a los millones de datos que existen actualmente en Internet y el aumento en el poder de cómputo, así como a mejoras en los algoritmos de aprendizaje. discriminador no logra distinguirlos. Una aplicación de los GANs es generar caras de personas imaginarias que parecen reales. Otra aplicación es la generación de imágenes a partir de frases de texto, como hace el sistema DALL-E.

El aprendizaje profundo tuvo un gran impacto en el área de visión por computadora, algo que hasta hace pocos años era considerado como uno de los problemas más difíciles en IA. AlexNet y otros sistemas desarrollados utilizan muchas capas de neuronas que procesan secuencialmente la imagen de entrada. Cada pequeño elemento de la imagen (conocido como pixel) se alimenta a una de las neuronas de la capa inicial, y sus salidas van pasando por las diferentes capas de neuronas, hasta llegar a la última, donde se tiene una señal de salida para cada tipo de objeto (ver Figura 3).

La red neuronal profunda conocida como AlexNet marcó un hito impactante al ganar el concurso ImageNet. En esta competencia se trabaja con un conjunto de más de un millón de imágenes con 1,000 diferentes clases de objetos.

El reto consiste en desarrollar un sistema computacional que pueda reconocer en las imágenes a todos los tipos de objetos. AlexNet logró un porcentaje de reconocimiento correcto superior al 85%, mientras otros sistemas no superaron el 75%. Esto tuvo un gran impacto en la comunidad científica y en varias empresas líderes en IA, tanto que generó una gran cantidad de investigación y aplicaciones de aprendizaje profundo. Actualmente ya se obtiene un reconocimiento del 95% en las diferentes clases de objetos en la base de datos de ImageNet.

La red se entrena con millones de ejemplos, ajustando los pesos de cada conexión, hasta que el sistema produce resultados satisfactorios. Actualmente estos sistemas han logrado resultados impresionantes en muchas aplicaciones, por ejemplo, el reconocimiento de personas en las imágenes en nuestras redes sociales y el análisis de imágenes del entorno para los vehículos autónomos.

En los últimos años se desarrollaron diversas variantes de las redes neuronales profundas; destacan dos tipos de modelos: las redes generativas y los llamados Transformers.

Las redes generativas, conocidas como GANs, consisten de dos redes neuronales: un generador, que aprende a generar ejemplos artificiales, por ejemplo, de caras de personas; y un discriminador, que trata de reconocer si lo que produce el generador es verdadero o falso. Se entrenan en una forma simultánea, compitiendo una contra la otra, hasta que el generador aprende a generar ejemplos falsos o sintéticos tan buenos que el

Los Transformers permiten aprender relaciones en secuencias de datos, por ejemplo, entre palabras en textos, y han tenido un gran impacto en los sistemas que reconocen el lenguaje natural. Un ejemplo sobresaliente es ChatGPT, que puede conducir conversaciones con personas sobre prácticamente cualquier tema (un ejemplo de una conversación así se incluye en otra sección de este suplemento).

A pesar de los grandes avances en el aprendizaje profundo, aún existen retos importantes, como el que estos sistemas puedan explicar cómo llegaron a ciertos resultados, o el que logren generalizar lo que aprendieron y lo apliquen a otros problemas similares, como hacemos los humanos. Por lo que sigue abierta la pregunta: ¿la inteligencia artificial algún día alcanzará o, incluso, superará a la natural?

This article is from: