¿Debemos temer a la inteligencia artificial?
6. Hacia una carta mundial sobre la inteligencia artificial Thomas Metzinger Introducción Ha llegado el momento de trasladar el debate público actual sobre la inteligencia artificial (IA) a las propias instituciones políticas. Muchos expertos consideran que nos enfrentamos a un punto de inflexión en la historia durante la próxima década y que hay una ventana temporal que se cierra en relación con la ética aplicada de la IA. Por lo tanto, las instituciones políticas deben producir y aplicar un conjunto mínimo pero suficiente de limitaciones éticas y jurídicas para el uso beneficioso y el futuro desarrollo de la IA. También deben crear un proceso racional y empírico de debate crítico destinado a actualizar continuamente, mejorar y revisar este primer conjunto de limitaciones normativas. Teniendo en cuenta la situación actual, el resultado por defecto es que los valores rectores del desarrollo de la IA sean establecidos por un pequeño número de seres humanos, grandes empresas privadas e instituciones militares. Por lo tanto, un objetivo es integrar proactivamente tantas perspectivas como sea posible y de manera oportuna. Ya han surgido numerosas iniciativas diferentes en todo el mundo que están investigando activamente los recientes avances en IA en relación con cuestiones relativas a la ética aplicada, sus aspectos jurídicos, las futuras implicaciones socioculturales, los riesgos existenciales y la formulación de políticas. 4Hay un acalorado debate público y algunos quizá incluso tengan la impresión de que importantes instituciones políticas como la Unión no son capaces de reaccionar a una velocidad adecuada a los nuevos riesgos tecnológicos y a la creciente preocupación entre la ciudadanía. Por lo tanto, debemos aumentar la agilidad, eficiencia y sistematicidad de los esfuerzos políticos actuales para aplicar normas desarrollando un proceso democrático más formal e institucionalizado y quizá incluso nuevos modelos de gobernanza. Para iniciar un proceso más sistemático y estructurado, presentaré una lista concisa y no exclusiva de las esferas problemáticas más importantes, cada una con recomendaciones prácticas. La primera esfera problemática que se examinará es la que, en mi opinión, viene constituida por aquellas cuestiones que tienen menos posibilidades de resolverse. Por lo tanto, debe abordarse en un proceso de múltiples capas, empezando por la propia Unión Europea (UE).
El problema de la «carrera hacia el abismo» Tenemos que formular y aplicar normas de seguridad mundiales para la investigación de la IA. Es necesaria una carta mundial sobre la IA, porque dichas normas de seguridad solo pueden ser eficaces si conllevan un compromiso vinculante con determinadas normas por parte de todos los países que participan e invierten en el tipo pertinente de investigación y desarrollo. Habida cuenta del competitivo contexto económico y militar actual, la seguridad de la investigación de la IA muy probablemente se reducirá a favor de un progreso más rápido y un coste reducido, en concreto trasladándola a países con normas de seguridad laxas y escasa transparencia política (una analogía sólida y obvia es el problema de la evasión fiscal por parte de empresas y fideicomisos). Si se logran una cooperación y coordinación internacionales, en principio podría evitarse una «carrera hacia el abismo» en las normas de seguridad
4 Para
consultar una sinopsis de las iniciativas existentes, véase Baum 2017 y Boddington 2017, p. 3. Me he abstenido de presentar aquí una documentación completa, pero algunos puntos de entrada útiles a la literatura son Mannino et al. 2015, Stone et al. 2016, IEEE 2017, Bostrom, Dafoe y Flynn 2017, Madary y Metzinger 2016 (para la realidad virtual).
31