7 minute read
Buscando la integridad académica de la inteligencia artificial
Hiram Ponce Espinosa | hponce@up.edu.mx | Profesor-investigador en la Facultad de Ingeniería, Universidad Panamericana, México.
En los últimos años, los avances de la Inteligencia Artificial (IA) han permeado con mayor ímpetu en la sociedad y la vida diaria. Notables aplicaciones que van desde la prevención y detección de enfermedades, la robótica aplicada, las predicciones climatológicas, hasta tecnologías del área residencial como las lavadoras inteligentes y las casas automatizadas, se han dado gracias a esta disciplina. No obstante, la IA también se ha envuelto en dilemas éticos como el uso inapropiado de los datos o accidentes viales provocados por automóviles autónomos. Lo anterior, sumado a la falta de información, ha traído consigo nuevos problemas tecnológicos, políticos y sociales que se deben resolver con prioridad; lo cual, también ha abierto la discusión sobre el rol que desempeña la ética en las ciencias computacionales y, en general, en las tecnologías. Desde la educación, ¿se puede buscar la integridad de la inteligencia artificial?
Algunos autores como Floridi et al. (2018) han identificado una serie de oportunidades y riesgos de la inteligencia artificial. En su iniciativa llamada AI4People (Inteligencia Artificial para las Personas), exponen cuatro implicaciones en su relación positiva y negativa en el uso de la IA: la posibilidad de auto-realización de los individuos, el mejoramiento en la conducta humana, el incremento de las capacidades sociales y el aumento de la cohesión social.
La primera está orientada a la auto-realización de los individuos, permitiendo potenciar sus habilidades y capacidades en su mundo cotidiano; tal es el caso del mejoramiento en la calidad doméstica debido a las máquinas “inteligentes”, como la lavadora que estima el nivel de suciedad de una prenda, o el refrigerador que hace la despensa dependiendo de los productos faltantes. Sin embargo, la sobre-aplicación de la IA puede tener problemas en la disminución de las habilidades técnicas, provocando así un cambio de roles sociales o pérdida de empleos desproporcionados. La segunda implicación de la IA se refiere al mejoramiento en la conducta humana; es decir, permite guiar a las personas a una toma de decisiones mejor informada. Un caso práctico es el uso de aplicaciones móviles, ya sea para el acondicionamiento físico, o aquellas que permiten transitar con mayor eficiencia por las calles de la ciudad haciendo uso de los datos de tráfico. Sin embargo, el uso excesivo de estos “recomendadores inteligentes” podría suponer la delegación de nuestra toma de decisiones a esta tecnología, limitando nuestras capacidades humanas.
La tercera implicación en el uso de la IA se refiere al aumento de la calidad social; por ejemplo, en la aplicación de esta tecnología para la prevención y cura de enfermedades, mejorando considerablemente el bienestar y vida de las personas. En contraparte, hacer uso desmedido de esta tecnología puede provocar la falta de atención en factores de riesgo para nuestra salud; generando así, una dependencia de nuestro cuidado a los sistemas inteligentes. La cuarta implicación denota el aumento de la cohesión social. Un ejemplo de esto es el uso del Internet de las Cosas y el uso de modelos de predicción del clima, permitiendo así posibles soluciones colaborativas al cambio climático. Sin embargo, otras aplicaciones como la industria 4.0 que posibilitan la automatización y flexibilidad, han comenzado a modificar la relación de las personas en el trabajo –actividades rutinarias reemplazadas por máquinas o selección de recursos humanos de forma automatizada–, lo cual limita la conducta social a comportamientos no deseables que pueden impactar negativamente en la dignidad humana.
En conjunto, las cuatro oportunidades mencionadas y sus respectivos riesgos ponen en contexto a la IA dentro de la sociedad y las personas. Hay ejemplos de benevolencia y sus áreas de mejora. Sin embargo, los retos de un ejercicio sano e íntegro de esta disciplina solo serán posibles si se genera un consenso de su uso.
Como toda tecnología madura, la IA se debe enfrentar a un sistema regulatorio (Floridi et al., 2018). Es más, debido a que esta puede funcionar como herramienta para mejorar los procesos cognitivos del ser humano –razonamiento, aprendizaje, toma de decisiones– y así guiar nuestra conducta; vale la pena considerar a la ética como medio para la búsqueda de la integridad de la IA. Entre otros factores, se considera a la educación en ética de la IA fundamental en este caso.
En un estudio realizado por Fiesler et al. (2020), sobre la impartición de la ética de la tecnología en diferentes universidades del mundo, se observó que existen dos enfoques actuales en la aproximación a la ética: a través de la oferta de cursos independientes y de la oferta de cursos integrales. Los primeros se refieren a materias de los planes de estudios dedicados a la ética filosófica, sin tomar en cuenta a las otras ciencias y disciplinas; mientras que los segundos son cursos del currículo donde la ética está presente de forma transversal. Con especial atención, se ha visto un incremento de los cursos integrales de ética en la formación de ingenieros, tecnólogos y aquellas carreras orientadas a la inteligencia artificial. No es de sorprenderse; sin embargo, es de vital importancia que la ética esté presente desde la concepción, el diseño, la planeación, el desarrollo y la implementación de la IA, para hacer de esta íntegra.
Con respecto de la búsqueda de la integridad de la IA, se han identificado cinco principios (Floridi et al., 2018) a tomarse en cuenta en cualquier nivel, incluyendo el académico. El primero responde al principio de la beneficencia; es decir, los sistemas inteligentes han de estar pensados para promover el bienestar humano, preservar la dignidad y coadyuvar a la sustentabilidad del planeta. En otras palabras, la IA debe estar alineada a la responsabilidad social, sin afectar la capacidad humana en cualquiera de sus dimensiones. Un segundo principio es la benevolencia que debe proveer esta tecnología y entre otras funciones incluye garantizar la seguridad y privacidad de las personas, manteniendo siempre la capacidad de control humano. El tercer principio en el uso de la IA es la autonomía que permite a las personas decidir si la utilizan o no, dejando así libre la voluntad de los humanos sobre la tecnología. La justicia es el cuarto principio que debe cumplir la inteligencia artificial al promover la prosperidad y preservar la solidaridad, dejando a un lado las prácticas de sesgo y discriminación, siendo accesible de manera equitativa para todos. Finalmente, esta tecnología ha de cumplir el principio de “interpretabilidad”; es decir, que sea capaz de explicar su diseño, desarrollo y respuesta con la intención de que su aporte sea transparente y entendible en todo momento.
Si bien, la IA ha de cumplir con la beneficencia, benevolencia, autonomía, justicia e interpretabilidad; la realidad del ejercicio de estos principios sigue siendo incipiente. Desde la educación, los currículos todavía carecen de prácticas y conceptos consistentes en términos de la integridad de esta tecnología; hay falta de estándares y alta variabilidad en lo que se enseña respecto a la ética e integridad de la IA. Según el artículo de Fiesler et al. (2020), existe la necesidad de considerar a la ética en la IA desde la práctica de la privacidad, el diseño de los algoritmos y la injusticia por sesgo.
En la actualidad, hay muchos retos presentes en la integridad académica de la IA; que se vuelven cada vez más importantes de estudiar por la rápida exposición y penetración de las tecnologías en la vida cotidiana. La IA toca aspectos sociales y humanos que han de considerarse. Educar sobre inteligencia artificial implica entender sus oportunidades y sus retos, con la finalidad de darle un enfoque integral, ético y humano. En lo que a la academia se refiere, se debe incluir la ética de la IA en cursos sobre diseño, interacción humano-computadora, métodos de investigación, ciberseguridad e ingeniería de software; se debe potenciar el desarrollo de habilidades profesionales y de liderazgo en las ciencias y las tecnologías. A partir de lo anterior, la responsabilidad profesional del quehacer en la IA beneficiará a la sociedad y al futuro propio de la disciplina.
REFERENCIAS
Fiesler, C., Garrett, N. y Beard, N. (2020). What do we teach when we teach tech ethics? A syllabi analysis. ACM SIGCSE Technical Symposium on Computer Science Education. Portland, OR, USA, 1–7.
Floridi, L., Cowls, J., Beltrametti, M., Chatila, R., Chazerand, P., Dignum, V., … Vayena, E. (2018). AI4People–An ethical framework for a good AI society: Opportunities, risks, principles, and recommendations. Minds and Machines, 28, 689–707.