17 minute read

Claudia Marcela Garza Garcíapor

Claudia Marcela Garza García

Inteligencia artificial a la luz de la filosofía de Martha Nussbaum

Advertisement

Introducción

En las últimas décadas, la Inteligencia Artificial (IA) ha despertado un fuerte interés en distintos sectores, tanto públicos como privados, debido a sus implicaciones sociales, económicas y políticas (Makridakis, 2007; Lander 1994). Sin embargo, dentro del vasto mar de debates en el que se encuentra la IA, sin duda el ético es uno de los más relevantes. En especial, autores como Bostrom & Yudkowsky (2014) han insistido en la revisión de la IA desde la perspectiva de la ética, ya que esta tecnociencia 1 comienza a tomar roles más sociales y la tendencia indica que la IA incluso tendrá habilidades “superhumanas” con posibles comportamientos “super-éticos 2 ”, generando nuevos dilemas que no se habían tenido anteriormente en la historia de la humanidad. Por lo anterior, el presente trabajo busca sumar a dicho debate, a la luz de la filosofía de una de las grandes pensadoras actuales: Martha Nussbaum. En especial, se considera que es indispensable hacer que la IA se observe bajo los paradigmas teóricos de Nussbaum, ya que con este ejercicio se logrará, por un lado, cuestionar a partir de ciertos ejemplos los avances tecnocientíficos hasta el momento de la IA y, por otro lado, se podrán generar nuevos cuestionamientos a la misma filosofía de Nussbaum, invitando a la reflexionar sobre esta teoría, a partir de la nueva tensión que la IA comienza a generar.

1 “Tecnociencia” es una definición del autor Echeverría (2015): “es una modalidad de la actividad científica y tecnológica [que implica] la convergencia entre nanotecnología, biotecnologías, tecnologías de la información y ciencias cognitivas (…) (Echeverría, 2015). 2 Bostrom & Yudkowsky 2014) no otorgan una definición contundente de qué es lo “super-ético” en el trabajo referenciado de “Ethics of Artificial Intelligence”, sin embargo, los autores dejan entrever que lo “super-etico” significa la ética que es desarrollada por la máquina en sí misma, que tiene una superinteligencia.

Por lo tanto, el espíritu de este ensayo no es de dar respuestas sino de generar las preguntas más precisas posibles en torno a la ética y la IA. De tal suerte que en este trabajo solo se usarán ciertos casos y ejemplos para ilustrar controversias; por lo tanto, en ningún momento ha de entenderse este trabajo como un assesment donde se engloban la totalidad de los avances tecnocientíficos, o la totalidad de las implicaciones éticas entorno a la IA; sino más bien como un ejercicio de reflexión para que la academia, sociedad civil, sector público y privado puedan tener más herramientas para crear una visión conjunta de lo que debe o no hacer y generar esta tecnología.

Objetivo

El objetivo de este ensayo es reconocer algunas de las maneras en que la Inteligencia Artificial puede generar tensiones, ampliaciones o cuestionamientos éticos, con base en la filosofía de Martha Nussbaum, y a la inversa, ver de qué forma la filosofía ética de Martha Nussbaum puede enmarcar el futuro avance de esta tecnología. De tal forma que las preguntas que guiarán este trabajo son: ¿Puede la filosofía ética de Martha Nussbaum abarcar y resolver las problemáticas que surgen alrededor de la IA? ¿De qué manera el desarrollo de la IA genera nuevas tensiones no solo para la ética sino para la filosofía propia de Martha Nussbaum? ¿Qué parámetros o referencias existen en la filosofía de Martha Nussbaum, que puedan guiar al desarrollo de la Inteligencia Artificial? En este sentido, al tratar de responder a las preguntas anteriores lo que se plantea es una oportunidad de generar valor tanto para el desarrollo del pensamiento crítico de las personas, así como para el avance de las discusiones éticas, filosóficas y sociales de este tema que, como se mencionó anteriormente, es de gran interés e impacto para la sociedad. Para lograrlo, la estructura planteada es la siguiente: En el Primer capítulo, se esclarecerán las premisas desde donde parte este trabajo; por lo que se definirá qué es la Inteligencia Artificial y se revisarán algunas teorías éticas desde las cuales se está abordando este tema. En el Segundo Capítulo, se hablará sobre la filosofía de Martha Nussbaum, seleccionando en específico algunos pilares de su pensamiento: la vulnerabilidad, la ciudadanía compasiva y las emociones. Para cada punto, se usarán ejemplos de avances tecnológicos para así analizar si

la filosofía de Nussbaum logra abarcar las implicaciones éticas de la tecnología, o qué nuevas preguntas/conceptos deben de plantearse. Por último, en el Tercer Capítulo se mostrarán las conclusiones y se plantearán algunas líneas de debate ético que podrían tomarse a posteriori . Reiterando lo que se mencionó anteriormente, este trabajo busca generar más preguntas que respuestas, y detonar el pensamiento crítico en los lectores, así como un interés por el desarrollo de la IA y sus implicaciones en la sociedad.

1. Inteligencia artificial y ética

En el verano de 1956, científicos reunidos en la Universidad de Dartmouth, con motivo del Summer Research Project, presentaron por primera vez el concepto de “Inteligencia Artificial”, como una nueva disciplina que “procederá con base en la conjetura que todos los aspectos del aprendizaje, o cualquier rasgo de inteligencia pueden, en un principio ser descritos de una forma tan precisa que se puede crear una máquina que los simula” (Alandete, 2011). A más de 60 años de esta definición, los autores Russell & Norvig (2016) definen a la Inteligencia Artificial (IA) como el diseño y la creación de agentes inteligentes, capaces de percibir información de su entorno y actuar en consecuencia. Esta descripción podría considerarse como un tanto genérica, sin embargo, su amplitud radica en lo vasto que es el alcance de lo que es la IA. En el artículo de Anyoha (2017) escrito para el portal de la universidad de Harvard, se lee en uno de los apartados que “la Inteligencia Artificial está en todas partes” (Anyoha, 2017), y efectivamente, existen a la fecha una gran diversidad de concepciones sobre qué es -y dónde está- la Inteligencia Artificial: desde nanotecnología, “Internet of Things” hasta “machine learning”, “deep learning”, “big data”, etc. Y es por ello por lo que, para fines de este trabajo, la IA se mantendrá como un concepto vasto tanto para reflejar la gran presencia de esta tecnología, como para reforzar el sinnúmero de aplicaciones y por tanto de implicaciones y afectaciones que tienen en la vida ordinaria de las personas. Ahora bien, siendo evidente las distintas acepciones del concepto de la IA, es necesario fijar la atención en las distintas corrientes éticas que han derivado a partir del desarrollo de esta tecnología. Por un lado, se encuentra el “Information Technology Ethics” (ética de la tecnología de información), considerada como una disciplina que estudia la aplicación del pens

amiento ético a los temas que conciernen a la tecnología (Green, 2019); que parte de la teoría ética teleológica y deontológica; y que busca, sobretodo, que estudiantes y profesionistas en el área de desarrollo tecnológico y científico, incorporen en su currículo al estudio de la ética como parte de sus materias básicas (McCarthy et al. 2005). Por otro lado, existe la corriente de “Machine Ethics” que en lugar de inculcar un pensamiento ético en los “diseñadores” de las máquinas, busca más bien la manera de “implementar las facultades de toma de decisiones morales en las computadoras” (Allen, Wallach & Smith, 2016). Esta tarea no es para nada sencilla y se encuentra como un área incipiente dentro de la sección de Machine Learning. Lo interesante de este ejercicio es que asume que la ética es algo que puede convertirse en algoritmos de programación y por tanto, medirse.

2. Inteligencia Artificial a la luz de Martha Nussbaum

2.1 Vulnerabilidad

De acuerdo con Pinedo (2019) la vulnerabilidad es uno de los conceptos más originales dentro de la propuesta teórica y filosófica de Martha Nussbaum, ya que es gracias al reconocimiento de la vulnerabilidad humana que nos mantenemos lejos de la indiferencia (Pinedo, 2019) y que se acentúan ciertas emociones de colaboración y unidad, para hacer frente a la vulnerabilidad, e incluso el progreso mismo se deriva de la vulnerabilidad. Dicho en palabras de Pinedo (2019) “la deriva de la fortuna es lo que hace vulnerable la vida humana buena y, por consiguiente, sus posibilidades de desarrollo.” (Pinedo, 2019). ¿Qué tanto nos aleja la IA de nuestro reconocimiento de la fragilidad? Un caso en particular que podría detonar una discusión interesante entorno a la vulnerabilidad humana es el transhumanismo, considerando como una propuesta que busca “el cambio de la esencia humana por medio de mejoramientos biotecnológicos, como un modo de acelerar el proceso humano” (Velázquez Fernández, 2009) En este sentido ¿el transhumanismo es tan solo un resultado de la búsqueda del progreso que surge a raíz del reconocimiento de la vulnerabilidad? ¿O será el transhumanismo una forma en que los humanos se olvidan de su realidad de “que todos [son] individuos frágiles, necesitados e incompletos, expuestos a la enfermedad, al mal

físico, al sufrimiento y a la muerte” (Pinedo, 2019)? Para Hottois (2013) el transhumanismo abarca desde las medicinas y tecnologías con fines terapéuticos, hasta procedimientos más invasivos como la terapia genética y “los híbridos hombre-máquina (…) y prótesis cerebrales” (Hottois, 2013). ¿Dónde está entonces la línea entre lo que habilita el desarrollo de capacidades – en palabras de Nussbaum -de los humanos y lo que genera la creación de una nueva especie humanoide? Y sobre todo ¿cómo podemos asegurar que estos avances tecnológicos no nos inviten a pensarnos como “super-humanos”, y nos hagan caer en las ideas de la “invulnerabilidad”? En especial, reconociendo que bajo este pensamiento de invulnerabilidad “se pueden cometer los peores desmanes, al no reconocer un rostro humano en el que nos rodea o, lo que es lo mismo, al no reconocer idéntica dignidad a otros seres que, al igual que yo, estamos destinados al dolor y a la muerte”. (Pinedo, 2019). ¿Cómo mantener nuestra ética y nuestra humanidad en una era donde se están desarrollando estos artificios que conviven con el cuerpo biológico humano? ¿Cómo logramos que nuestro amor por el progreso no interfiera por nuestro amor para reconocer la dignidad y mantener la esencia humana del otro? Continuando con esta línea de pensamiento, no ha de olvidarse que el transhumanismo también es una respuesta para mejorar la calidad de vida de las personas, por lo que podría recurrirse al concepto filosófico de Nussbaum sobre el buen vivir, que emana del pensamiento aristotélico. En este sentido, se explica que el buen vivir es una búsqueda en donde “nos descubrimos como seres esencialmente vulnerables o frágiles frente a un sinnúmero de circunstancias exteriores que dificultan (…) la actividad buena y la excelencia humana” (Pinedo, 2019), de modo que, si se observa bajo este paradigma, entonces sí, el transhumanismo es una forma por la cual se puede lograr el buen vivir.

2.2 Compasión Cívica

Siguiendo a Pinedo (2019) quien estará acompañando a este trabajo para entender mejor a Nussbaum, se observa que en la filosofía de dicha autora, se “concede enorme importancia a las emociones en la deliberación pública” (Pinedo, 2019), e incluso, esta enaltecido a tal grado la relación entre la compasión y la vida cívica de las personas, que se le adjudica a la compasión

una relación directa “con la justicia (…)y en su ideal de construir una nueva cultura política pública” (Pinedo, 2019). Interesantemente, en los últimos años se ha hablado de la posibilidad de tener robots que funjan roles políticos (World Economic Forum, 2018) y, a pesar de que la respuesta es que la inteligencia artificial no se encuentra aún en este estado de sofisticación, el debate ya se encuentra en espacios públicos y donde se reúnen los principales líderes de distintos países, como es el Foro Económico Mundial, por lo que no es descabellado considerarlo como una posibilidad para el futuro cercano y comenzar a cuestionar por ende, la mejor manera de abordarlo. Ponderando en los motivos por los cuales se quisiera tener robots ejerciendo de algún modo u otro un rol en la vida cívica y política de la sociedad, por un lado, puede asumirse que esto surge con el fin de minimizar los errores humanos, como el mal cálculo de las decisiones, tendencias a corrupción etc. Sin embargo, si se aleja el tacto humano de la esfera cívica (en el grado que sea) ¿hasta qué punto se peligra la compasión cívica? ¿querrían las y los ciudadanos participar y apelar a la emotividad para que los tomadores de decisión cambien de parecer si son robots quienes deben de llevar a cabo estas decisiones? ¿hasta qué punto es sano que las decisiones se ponderen desde la automatización vs que sean tomadas desde la compasión cívica? ¿qué rol ha tenido la textura compasiva y emocional, en la toma de decisiones hasta ahora? ¿lograrán los robots tener un “repertorio emocional de preocupación por los demás seres humanos, especialmente hacia aquellos a los que, debido a la injusticia social y a condiciones de vida deplorables, son más vulnerables y propensos a no poder florecer humanamente” (Pinedo, 2019)? Algunos científicos ya están trabajando en lo que se conoce como Emotion AI, y hasta ahora solo es una tecnología incipiente con la capacidad de reconocer los sentimientos en las demás personas, pero que tiene la esperanza de poder no solo comprender sino simular y reaccionar con emociones humanas similares (Sommers, 2019). Como otro ejemplo para ilustrar la manera en que una tecnología más actual y que está a la orden del día, modula, mejora o peligra a la compasión cívica es el tema de los fake news, o noticias falsas, propagadas especialmente por bots con objetivos políticos para trastornar la opinión pública, en especial durante las elecciones presidenciales de los Estados Unidos en 2016 hubo un fuerte debate público acerca de la vulnerabilidad de la privacidad de datos de las personas y la maleabilidad de la opinión pública a través de estas noticias falsas (Allcot &

Gentzkow, 2017). Conectando con el punto anterior de la vulnerabilidad, ¿será la tecnología una manera de recordarnos sobre nuestra vulnerabilidad, al encontrar este tipo de “fallas”? ¿cómo este tipo de situaciones ayudan o perjudican la compasión cívica en el debate público? Retomando las palabras de Pinedo (2019) acerca de la visión de Nussbaum “las emociones públicas son (…) fuente tanto de estabilidad para los principios políticos positivos, como de motivación para hacerlos efectivos (Pinedo, 2019)” y en este sentido, ¿no fueron los bots y la curaduría de las noticias falsas tan capaces de emular a las emociones públicas, que lograron trastocar la toma de decisiones durante las elecciones? ¿qué organismos deben de ser responsables de mantener los lineamientos éticos de organismos transnacionales?

2.3 Emociones

Algo que, a la fecha la Inteligencia Artificial no ha podido lograr es tener su propio set de emociones. Si bien, las puede emular (Sommers, 2019) aún están lejos de generarlas por sí mismos. Por ahora. Sin embargo, eso no exime que los seres humanos tengan una aproximación emotiva con las máquinas (Payr, 2002), incluso, en uno de los casos más drásticos, ya se registró el primer matrimonio entre un humano y una máquina (Haas, 2017). Por lo que ha de ser necesario reconocer la manera en que las emociones tienen un rol para el avance de esta tecnología, y de manera viceversa, esta tecnología debe de “tener cuidado” con las emociones que logra detonar. En especial por que “las emociones son los vínculos que conectan al ser humano con lo que está fuera de él; son los lazos que lo unen con (…) los demás seres vivos [y] aviva nuestro deseo de ser justos (…) de acabar con la marginación” (Pinedo, 2019), y, debido a que la inteligencia artificial se caracteriza por la facilidad con la que se inmiscuye en la vida cotidiana de las personas (Bory, 2019), hay un cierto grado de responsabilidad con las emociones que genera, como es el caso de los videojuegos y las retóricas morales que generan en torno a la guerra, el espionaje y la milicia (Power, 2007). Si para Martha Nussbaum, las emociones son un “medio para cultivar la justicia, los principios políticos básicos y la ciudadanía democrática” (Pinedo, 2019), ¿de qué manera entonces estamos observando, analizando y atendiendo las emociones generadas por el uso de la IA? Sobretodo, si temas como la educación y la salud están siendo puestos a cargo de la in

teligencia artificial y Nussbaum reconoce en ellos su valor, en tanto y cuanto forman parte del repertorio emocional (Pinedo, 2019). Incluso, hay autores como Speringe, Wagener & Funke (2005) que reconocen el rol de las emociones para la resolución de problemas complejos, a lo cual ¿la IA podrá capturar la misma complejidad de las emociones y usarla a favor de la resolución de problemas igualmente complejos? Si bien no responde a esta pregunta, si ayuda a contextualizarla el saber que existe una corriente que apela a la humanización de la inteligencia artificial, precisamente para que pueda ser capaz de resolver este tipo de problemas (Alasaarela, 2017), y las máquinas están aprendiendo a tener “emociones” de los mismos humanos… por lo que valdría preguntarse ¿queremos que las máquinas emulen todas nuestras emociones? ¿de qué manera queremos que disciernan sobre las emociones al momento de tomar una decisión? ¿bajo qué criterio? Conclusiones

En el presente trabajo, se ha repasado de una manera genérica alguno de los grandes avances de la inteligencia artificial, a fin de ponerlos a la luz de la filosofía de Martha Nussbaum. El objetivo en sí no fue de generar respuestas sino en profundizar de una manera epistemológica en crear las preguntas pertinentes que deben de realizarse con respecto a la teoría ética, política y filosófica de la autora. En específico, se exploraron los conceptos de vulnerabilidad, compasión cívica y emociones y se mostraron algunos ejemplos, tal vez extremos, pero a su vez con propósitos ilustrativos, para profundizar el debate ético respecto a la IA. Con dicho ejercicio, se logró observar que no solamente las posturas éticas de Martha Nussbaum ayudan a generar preguntas más incisivas y pertinentes acerca del manejo y la regulación de la Inteligencia Artificial, sino que también se permitió ver cómo el pensamiento filosófico de Nussbaum aún puede explorar nuevos caminos a través del análisis de las diferentes situaciones que la inteligencia artificial está despertando en el plano social, cívico e individual. El objetivo de haber desarrollado este tipo de planteamientos es permitir la continuación de un debate más profundo tanto de la academia como de la sociedad civil y de las entidades públicas y privadas involucradas en el desarrollo de esta tecnociencia, y se admite incluso que mucho trabajo de investigación y cuestionamiento filosófico y ético debe de realizarse antes de contestar estas preguntas; de ahí la relevancia de este tema y la limitación del trabajo en sí mismo, al no poder ofrecer el atractivo de una respuesta contundente que esclarezca y deter

mine a la problemática. No obstante, este “vacío” en el trabajo es adrede y su intención es que los lectores se interesen más en el tema. En lo personal, reitero el gran interés por llevar estas preguntas a buen puerto, a través de un posible diálogo con la propia filósofa Martha Nussbaum en el marco de la Cátedra Alfonso Reyes, y con el espíritu de fomentar los debates éticos intersectando otras disciplinas como son la ciencia, tecnología y sociedad, tan cruciales para el mundo actual.

Bibliografía

Alandete, D (2011) John McCarthy, El Arranque De La Inteligencia Artificial. El País, elpais.com/ diario/2011/10/27/necrologicas/1319666402_850215.html.

Alasaarela, M. (2017). The Rise of Emotionally Intelligent AI. Retrieved from https://machinelearnings.co/the-rise-of-emotionally-intelligent-ai-fb9a814a630e.

Allcott, H., & Gentzkow, M. (2017). Social media and fake news in the 2016 election. Journal of economic perspectives, 31(2), 211-36.

Allen, C., Wallach, W., & Smit, I. (2006). Why machine ethics?. IEEE Intelligent Systems, 21(4), 12-17.

Anyoha, R. (2017, August 28). The History of Artificial Intelligence. Retrieved from http://sitn. hms.harvard.edu/flash/2017/history-artificial-intelligence/.

Bory, P. (2019). Deep new: The shifting narratives of artificial intelligence from Deep Blue to AlphaGo. Convergence, 25(4), 627–642. https://0-doi

Bostrom, N., & Yudkowsky, E. (2014). The ethics of artificial intelligence. The Cambridge handbook of artificial intelligence, 316, 334.

Echeverría, J. (2005, December). La revolución tecnocientífica. Retrieved from http://www. scielo.org.mx/scielo.php?script=sci_arttext&pid=S1870-35692005000200001.

Green, P. (2019). What is technology ethics? Retrieved from https://www.scu.edu/ethics/focus-areas/technology-ethics/.

Haas, B. (2017). Chinese man marries robot he bought himself. The Guardian. https://www. theguardian.com/world/2017/apr/04/chinese-man-marries-robot-built-himself

Hottois, G. (2013). Humanismo; Transhumanismo; Posthumanismo. Revista Colombiana de Bioética, 8(2), 167-192.

Lander, E. (1994). La ciencia y la tecnología como asuntos políticos: límites de la democracia en la sociedad tecnológica. Fondo Editorial de la Asociación de Profesores, Universidad Central de Venezuela

Makridakis, S. (2017). The forthcoming Artificial Intelligence (AI) revolution: Its impact on society and firms. Futures, 90, 46–60. Retrieved from https://doi.org/10.1016/j. futures.2017.03.006.

McCarthy, R. V., Halawi, L., & Aronson, J. E. (2005). Information technology ethics: a research framework. Issues in Information Systems, 6(2), 64.

Payr, R. T. P. P. S. (2002). Emotions in humans and artifacts. MIT Press.

Pinedo (2019). Vida buena, vulnerabilidad y emociones: La relevancia ética de los acontecimientos incontrolados desde la perspectiva de Martha Nussbaum. Universitas Philosophica, (73), 187-214.

Power, M. (2007). Digitized virtuosity: Video war games and post-9/11 cyber-deterrence. Security Dialogue, 38(2), 271-288.

Russell, S. J., & Norvig, P. (2016). Artificial intelligence: a modern approach. Malaysia; Pearson Education Limited,.

Sommers, M. (2019). Emotion AI, Explained. MIT Sloan School. Retrieved from https://mitsloan. mit.edu/ideas-made-to-matter/emotion-ai-explained

Spering, M., Wagener, D., & Funke, J. (2005). The role of emotions in complex problem-solving. Cognition and Emotion, 19, 1252-1261.

Velázquez Fernández, H. (2009). Transhumanismo, libertad e identidad humana. Thémata (2009, Vol. 41, p. 577-590).

World Economic Forum (2018). Could robots do better than our current leaders?. Retrieved from https://www.weforum.org/agenda/2018/10/could-robot-government-lead-better-current-politicians-ai/

This article is from: