1_9788411698467

Page 1



ACCESO GRATIS a la Lectura en la Nube

Para visualizar el libro electrónico en la nube de lectura envíe junto a su nombre y apellidos una fotografía del código de barras situado en la contraportada del libro y otra del ticket de compra a la dirección:

ebooktirant@tirant.com

En un máximo de 72 horas laborables le enviaremos el código de acceso con sus instrucciones.

La visualización del libro en NUBE DE LECTURA excluye los usos bibliotecarios y públicos que puedan poner el archivo electrónico a disposición de una comunidad de lectores. Se permite tan solo un uso individual y privado.



DERECHO, ÉTICA E INTELIGENCIA ARTIFICIAL


COMITÉ CIENTÍFICO DE LA EDITORIAL TIRANT LO BLANCH María José Añón Roig

Marta Lorente Sariñena

Ana Cañizares Laso

Javier de Lucas Martín

Jorge A. Cerdio Herrán

Víctor Moreno Catena

Catedrática de Filosofía del Derecho de la Universidad de Valencia Catedrática de Derecho Civil de la Universidad de Málaga Catedrático de Teoría y Filosofía de Derecho. Instituto Tecnológico Autónomo de México

José Ramón Cossío Díaz

Ministro en retiro de la Suprema Corte de Justicia de la Nación y miembro de El Colegio Nacional

María Luisa Cuerda Arnau

Catedrática de Derecho Penal de la Universidad Jaume I de Castellón

Manuel Díaz Martínez

Catedrático de Derecho Procesal de la UNED

Carmen Domínguez Hidalgo

Catedrática de Derecho Civil de la Pontificia Universidad Católica de Chile

Eduardo Ferrer Mac-Gregor Poisot Juez de la Corte Interamericana de Derechos Humanos Investigador del Instituto de Investigaciones Jurídicas de la UNAM

Owen Fiss

Catedrático emérito de Teoría del Derecho de la Universidad de Yale (EEUU)

José Antonio García-Cruces González

Catedrático de Derecho Mercantil de la UNED

Catedrática de Historia del Derecho de la Universidad Autónoma de Madrid Catedrático de Filosofía del Derecho y Filosofía Política de la Universidad de Valencia Catedrático de Derecho Procesal de la Universidad Carlos III de Madrid

Francisco Muñoz Conde

Catedrático de Derecho Penal de la Universidad Pablo de Olavide de Sevilla

Angelika Nussberger

Catedrática de Derecho Constitucional e Internacional en la Universidad de Colonia (Alemania). Miembro de la Comisión de Venecia

Héctor Olasolo Alonso

Catedrático de Derecho Internacional de la Universidad del Rosario (Colombia) y Presidente del Instituto Ibero-Americano de La Haya (Holanda)

Luciano Parejo Alfonso

Catedrático de Derecho Administrativo de la Universidad Carlos III de Madrid

Consuelo Ramón Chornet

Catedrática de Derecho Internacional Público y Relaciones Internacionales de la Universidad de Valencia

Tomás Sala Franco

Catedrático de Derecho del Trabajo y de la Seguridad Social de la Universidad de Valencia

José Luis González Cussac

Ignacio Sancho Gargallo

Luis López Guerra

Elisa Speckmann Guerra

Catedrático de Derecho Penal de la Universidad de Valencia Catedrático de Derecho Constitucional de la Universidad Carlos III de Madrid

Ángel M. López y López

Catedrático de Derecho Civil de la Universidad de Sevilla

Magistrado de la Sala Primera (Civil) del Tribunal Supremo de España Directora del Instituto de Investigaciones Históricas de la UNAM

Ruth Zimmerling

Catedrática de Ciencia Política de la Universidad de Mainz (Alemania)

Fueron miembros de este Comité: Emilio Beltrán Sánchez, Rosario Valpuesta Fernández y Tomás S. Vives Antón Procedimiento de selección de originales, ver página web: www.tirant.net/index.php/editorial/procedimiento-de-seleccion-de-originales


DERECHO, ÉTICA E INTELIGENCIA ARTIFICIAL

Directora:

Wilma Arellano Toledo Prólogo:

Moisés Barrio Andrés

tirant lo blanch Valencia, 2023


Copyright ® 2023 Todos los derechos reservados. Ni la totalidad ni parte de este libro puede reproducirse o transmitirse por ningún procedimiento electrónico o mecánico, incluyendo fotocopia, grabación magnética, o cualquier almacenamiento de información y sistema de recuperación sin permiso escrito de los autores y del editor. En caso de erratas y actualizaciones, la Editorial Tirant lo Blanch publicará la pertinente corrección en la página web www.tirant.com. La presente obra ha sido sometida a la revisión de pares ciegos según el protocolo de publicación de la editorial a efectos de ofrecer el rigor y calidad correspondiente tanto en su contenido como en su forma, aplicándose los criterios específicos aprobados por la Comisión Nacional E 016 (BOE num. 286, de 26 de noviembre de 2016).

Director de la Colección: LORENZO COTINO HUESO Profesor Titular de Derecho constitucional de la Universidad de Valencia, Coordinador de Derecho TICs, Red de Especialistas de Derecho de las Tecnologías de la Información y Comunicación, www.derechotics.com

© Varios autores y autoras

© TIRANT LO BLANCH

EDITA: TIRANT LO BLANCH C/ Artes Gráficas, 14 - 46010 - Valencia TELFS.: 96/361 00 48 - 50 FAX: 96/369 41 51 Email: tlb@tirant.com www.tirant.com Librería virtual: www.tirant.es DEPÓSITO LEGAL: V-3197-2023 ISBN: 978-84-1169-846-7

Si tiene alguna queja o sugerencia, envíenos un mail a: atencioncliente@tirant. com. En caso de no ser atendida su sugerencia, por favor, lea en www.tirant. net/index.php/empresa/politicas-de-empresa nuestro procedimiento de quejas. Responsabilidad Social Corporativa: http://www.tirant.net/Docs/RSCTirant.pdf


Autores Leopoldo Abad Alcalá Wilma Arellano Toledo Juan Manuel Belloto Gómez Richard Benjamins Jorge Castellanos Claramunt Rodrigo Cetina Presuel Vanessa díaz Ángel gómez de ágreda Ignacio g.R. Gavilán Héctor e. Guzmán rodríguez Alberto Enrique Nava Garcés Francisca Ramón Fernández Idoia Salazar Guillermo A. Tenorio Cueto Cristián Urzúa Infante Cristos Velasco Ariel Vercelli



Índice Prólogo............................................................................................ 13 Moisés Barrio Andrés

Nota introductoria Hacia una IA sostenible: una perspectiva 360 incluyendo negocio, sociedad, ética y cambio climático................................................. 23 Richard Benjamins

PRIMERA PARTE

ASPECTOS SENSIBLES Y PROBLEMÁTICAS DERIVADAS DEL USO Y APLICACIÓN DE LA INTELIGENCIA ARTIFICIAL Capítulo I Armas del entorno cognitivo: ética y regulación.................................... 31 Ángel Gómez de Ágreda

Capítulo II La regulación de la Inteligencia Artificial sobre robótica....................... 51 Wilma Arellano Toledo

Capítulo III Retos sobre el tratamiento de los neurodatos...................................... 101 Vanessa Díaz

Capítulo IV La influencia de la Inteligencia Artificial en la concepción tradicional de los derechos fundamentales: un nuevo paradigma tecnológico y jurídico.................................................................................. 139 Jorge Castellanos Claramunt


10

Índice SEGUNDA PARTE

PRIVACIDAD E INTELIGENCIA ARTIFICIAL Capítulo V Privacidad e Inteligencia Artificial ¿es posible su convivencia?............ 177 Idoia Salazar

Capítulo VI Privacidad e Inteligencia Artificial responsable. Recomendaciones aterrizadas al día a día de las empresas...................................... 187 Juan Manuel Belloto Gómez

Capítulo VII Privacidad, bienestar e Inteligencia Artificial. Un juego de derechos desde la óptica de América Latina.............................................. 215 Guillermo A. Tenorio Cueto

Capítulo VIII Auditorías algorítmicas bajo la normativa mexicana de protección de datos personales.................................................................... 245 Héctor E. Guzmán Rodríguez

TERCERA PARTE

ASUNTOS PÚBLICOS Y SOCIALES AFECTADOS Y/O POTENCIADOS POR LA INTELIGENCIA ARTIFICIAL Capítulo IX IA, Administraciones Públicas y participación ciudadana................... 295 Leopoldo Abad Alcalá

Capítulo X Inteligencia Artificial y educación..................................................... 335 Francisca Ramón Fernández


11

Índice

Capítulo XI Inteligencia Artificial y los problemas éticos y jurídicos........................ 369 Cristián Urzúa Infante CUARTA PARTE

DERECHO PENAL, DELITOS E INTELIGENCIA ARTIFICIAL Capítulo XII Deepfakes como servicio. Un análisis desde la perspectiva del ciberdelito................................................................................ 393 Cristos Velasco

Capítulo XIII La regulación de la Inteligencia Artificial y el Derecho Penal............... 429 Alberto Enrique Nava Garcés QUINTA PARTE

TEMAS DE DEBATE SOBRE INTELIGENCIA ARTIFICIAL Capítulo XIV Re-considerando el caso Google Books: usos justos, privilegios de copia e Inteligencias Artificiales.................................................. 455 Ariel Vercelli

Capítulo XV Muy artificial y poco inteligente: sobre la (aparente) inevitabilidad de la Inteligencia Artificial......................................................... 491 Rodrigo Cetina Presuel

Capítulo XVI Robots humanoides: desafíos éticos y normativos diferenciales............. 521 Ignacio G.R. Gavilán

Autores.......................................................................................... 539



Prólogo La «inteligencia artificial» (IA), o para ser más exactos, el conjunto1 de tecnologías agrupadas bajo esta denominación, es una tecnología vintage. Sus fundamentos académicos datan de mediados del siglo pasado. En concreto, el 31 de agosto de 1955, un grupo de investigadores de Estados Unidos redactó un breve documento en el que solicitaban financiación para un proyecto de investigación de verano para el curso siguiente. El proyecto generó grandes expectativas y sus proponentes predijeron que sería posible crear una máquina tan inteligente como un humano antes de finales de siglo. Además, en dicho documento2 se sentaron las bases científicas de esta disciplina. Allí, sus promotores declararon lo siguiente: “Proponemos que se lleve a cabo un estudio de la inteligencia artificial de dos meses de duración y con 10 personas durante el verano de 1956 en el Dartmouth College de Hanover, Nuevo Hampshire. El estudio se basará en la hipótesis de que todos los aspectos del aprendizaje o cualquier otra característica de la inteligencia pueden, en principio, describirse con tanta precisión que se puede hacer que una máquina los simule. Se intentará averiguar cómo hacer que las máquinas utilicen el lenguaje, formen abstracciones y conceptos, resuelvan tipos de problemas ahora reservados a los humanos y se mejoren a sí mismas. Creemos que se puede lograr un avance significativo en uno o más de estos problemas si un grupo de científicos cuidadosamente seleccionado trabaja en ello durante un verano”.

1

2

La obra decana de la disciplina, de los profesores Russell y Norvig , tiene más de mil páginas para cubrir con buen detalle las más relevantes. Vid. Russell, S. y Norvig, P. (2021). Artificial Intelligence: A Modern Approach. Londres: Pearson, 4.ª edición. Una visión más sintética la he desarrollado en Barrio Andrés, M., Manual de Derecho digital, Tirant lo Blanch, Valencia, 2022. Disponible en http://www-formal.stanford.edu/jmc/history/dartmouth/dartmouth.html


14

Moisés Barrio Andrés

Sin desconocer lo ambicioso y exagerado de sus pretensiones, no podemos olvidar que el grupo de científicos en cuestión era excepcional. La propuesta fue firmada por cuatro informáticos muy influyentes: Claude Shannon, el padre de la teoría de la información; Marvin Minsky, uno de los primeros en construir una red neuronal aleatoria; Nathaniel Rochester, el responsable de diseño del IBM 701, el primer ordenador comercial de propósito general; y John McCarthy, al que se atribuye la acuñación del propio término de «inteligencia artificial» y creador del lenguaje de programación Lisp. Esta reunión en Dartmouth se considera el acta fundacional de la IA. En ella se sentaron las bases académicas de esta disciplina, enunciando las cuestiones que debían resolverse para crear máquinas que mostraran inteligencia. Además, generó mucho entusiasmo y revuelo, y consiguió financiación para varios años de estudios, en buena medida gracias a la confianza que se tenía en personas de la talla de sus promotores para obtener avances significados en la disciplina. Esos años dorados (en un sentido casi literal) allanaron científicamente el camino de la IA. Desde 1955 hasta principios de la década de 1970, se crearon toda una serie de subcampos y se enunciaron los problemas y sus retos, incluyendo las diferentes formas de razonar, el inicio de la comprensión del lenguaje natural o los esbozos de las primeras redes neuronales. Por ejemplo, en 1966 se presentó el programa Eliza, cuyo objetivo era ser capaz de mantener una conversación de texto coherente con un usuario y que constituye el precursor de los chatbots.3 Sin embargo, como también ha sucedido con otras tecnologías disruptivas, la expectación y el entusiasmo inicial no fueron acompañados de los resultados esperados, dado que no pudieron abordar la mayoría de los problemas del mundo

3

Solano Gadea, M., “Chatbots”, en Legaltech. La transformación digital de la abogacía, La Ley, Madrid, 2023, capítulo 7.


Prólogo

15

real. Ello fue debido tanto a las limitaciones del hardware y el software de la época, como, sobre todo, a la complejidad de las operaciones de cálculo necesarias y la capacidad de computación requerida. Este fracaso condujo a lo que se conoció como el primer invierno de la IA. La comunidad, al principio deslumbrada por las afirmaciones grandilocuentes de sus promotores, acabó por desilusionarse con la inteligencia artificial y perdió la esperanza en su capacidad de producir resultados. La IA fue dejada de lado, la financiación se redujo y la atención se centró en otras cuestiones de la informática. Ahora bien, es importante señalar que la investigación en IA no se detuvo totalmente durante este periodo. Es cierto que fue menos visible y que los recursos generales se redujeron, pero el interés se mantuvo, y discretas investigaciones siguieron tratando de resolver los mismos problemas. Pero, por fortuna, en los años ochenta del siglo pasado hubo un resurgimiento, liderado por Estados Unidos y Japón. La IA había encontrado un problema que podía resolver para las empresas de una manera hacedera y donde los beneficios eran claros. Por aquel entonces, varios grupos de investigación, pero en particular el Proyecto de Programación Heurística de la Universidad de Stanford, llegaron a la conclusión de que, en lugar de intentar crear solucionadores de problemas generales, podían centrarse en ámbitos restringidos que requerían conocimientos expertos. Estos sistemas expertos o expert systems utilizaron toda la investigación realizada en las décadas anteriores sobre cómo codificar el conocimiento y razonar sobre él, y la aplicaron a casos de uso específicos dentro de campos restringidos (por ejemplo, la evaluación del rendimiento de trabajadores, tasación de inmuebles o detección de virus informáticos). Podemos describir, a grandes rasgos, los sistemas expertos como la combinación de la codificación del conocimiento como un conjunto de reglas y la creación de un motor de inferencia que puede tomar una descripción del estado de las


16

Moisés Barrio Andrés

cosas y derivar algunas conclusiones. De modo general, supone codificar una colección de reglas del tipo “si la temperatura es inferior a 18 grados, ponte un abrigo”, y relaciones como “un plumas es un tipo de abrigo”. Combinando un gran número de reglas y relaciones de este tipo, los sistemas expertos pueden reflejar los conocimientos altamente complicados de un experto en un campo específico y actuar como un asistente automático. A mediados de la década de 1980 ya existía toda una industria de empresas dedicadas a suministrar tecnología para ejecutar sistemas expertos. Estos gigantes del software utilizaban lenguajes de programación como Lisp —que, como señalé, fue desarrollado originalmente por John McCarthy en el MIT en 1958— para codificar los conocimientos, y empleaban máquinas especializadas para poder procesar las reglas, como el Symbolics 3600 o el Lambda 3x3. Uno de estos sistemas de los años 80 era el XCON (el eXpert CONfigurer), construido para el fabricante de hardware Digital Equipment Corporation (DEC). La misión del XCON consistía en ayudar a realizar los pedidos de ordenadores DEC. Las entradas eran los requisitos del cliente y las salidas eran los componentes hardware necesarios del sistema informático. XCON se programó basándose en los conocimientos de los expertos de DEC y tenía unas 2.500 reglas. Acabó ahorrando hasta 25 millones de dólares al año porque procesaba los pedidos con un mayor nivel de precisión (entre el 95 % y el 98 %) que los técnicos humanos, reduciendo así el número de componentes adicionales que DEC tenía que enviar tras una configuración errónea de un humano. Con los sistemas expertos, la IA volvía a estar en auge y tuvo un éxito relativo para diversas aplicaciones como el diagnóstico de fallos de sistemas industriales, la evaluación de riesgos, la planificación de acciones de vehículos autónomos, el mando de procesos en tiempo real, el control de misiones de un transbordador espacial, el diagnóstico médico, etc. Sin embargo, una vez más, la exageración se apoderó del sector. Se hicieron


Prólogo

17

grandes afirmaciones y, aunque se construyó mucho software útil que se utilizó de forma efectiva, una vez más las expectativas se situaron demasiado altas. El resultado fue, de nuevo, la caída de la industria y la desaparición de varias empresas. La IA volvió a estar en crisis, y entonces se inauguró el segundo invierno de la inteligencia artificial. Ante esta nueva crisis, los investigadores de la disciplina idearon una estrategia de supervivencia diferente. En lugar de declarar que se dedicaban a la IA, se centraron en hablar del subcampo específico en el que trabajaban. De este modo, a partir de la década de 1990 surgieron toda una serie de ramas diferentes, como los sistemas multiagente, la gestión del conocimiento, la gestión de reglas empresariales, el aprendizaje automático (el machine learning), la planificación y otros más. Estas subdisciplinas van a seguir intentando construir máquinas que resolvieran los problemas de una manera mejor, pero sin insistir en el rasgo de inteligencia. Incluso los investigadores que se centraban directamente en la tarea más difícil de todas, utilizar ordenadores para entender o recrear el comportamiento humano, bautizaron su campo como “computación cognitiva” o “ciencias cognitivas” en lugar de llamarlo investigación en inteligencia artificial. Con esta operación de restyling van a conseguir nueva financiación y dejar atrás los prejuicios asociados al término IA. A este nuevo progreso hay que sumar las relevantes mejoras en el hardware de los ordenadores, que han facilitado la progresiva aplicación de modelos matemáticos intensivos, con especial relevancia de los métodos de la teoría de la probabilidad y la decisión como las redes bayesianas, la modelización estocástica, la optimización clásica y otros como los algoritmos genéticos y las redes neuronales. Son la base de un sinfín de aplicaciones actuales como la traducción automática, el reconocimiento de voz, los sistemas de recomendación, el coloreado de películas en blanco y negro, los vehículos autónomos, la creación por software de obras plásticas o musicales, el diag-


18

Moisés Barrio Andrés

nóstico médico, los videojuegos, las aspiradoras autónomas, el hogar inteligente, la robótica, la fabricación inteligente, etc. Por último, la evolución de estos métodos y la disponibilidad de grandes cantidades de datos y potencia de procesamiento han allanado el camino a técnicas de aprendizaje automático (o machine learning) que antes apenas eran aplicables. La idea básica subyacente es alimentar un sistema con grandes cantidades de datos para que, con algún algoritmo, normalmente basado en métodos estadísticos, pueda derivar (“aprender”) algunos patrones sobre los datos. Una vez identificados estos patrones, es posible hacer una predicción o tomar una decisión con nuevos datos. Ejemplos de estos patrones son los perfiles de los usuarios que las grandes empresas van construyendo mientras navegamos por la web, de manera que es posible predecir qué información debe ser mostrada, fundamentalmente en forma de anuncios o contenidos digitales afines. Desde finales de la década de 2000 hasta ahora, 2022, el entusiasmo por la IA parece haber alcanzado un punto álgido, pero la historia nos demuestra que deberá atemperarse una vez más, dadas las cuestiones técnicas aún no resueltas. Pero la conjunción de la inteligencia artificial con la robótica, el Internet de las Cosas (IoT), el big data, la computación en la nube y las tecnologías de registro distribuido a las que pertenece blockchain hace que el panorama sea distinto. A mi juicio, podemos atisbar una etapa de crecimiento a largo plazo de la IA, y ésta se ha convertido ya en una necesidad permanente. La IA está dejando de ser una aplicación novedosa que se introduce puntualmente en algunos productos más avanzados (o smart). En su lugar, es uno de los pilares fundamentales estructurales de todas las tecnologías que hacen posible el mundo digital. El ejemplo de los smartphones es elocuente, dado que ya incorpora de serie hardware dedicado las operaciones de IA. Si se desconectaran estos componentes, no podríamos ni siquiera desbloquear los terminales (reconocimiento dactilar o facial) o escribir en ellos (escritura predictiva).


Turn static files into dynamic content formats.

Create a flipbook
Issuu converts static files into: digital portfolios, online yearbooks, online catalogs, digital photo albums and more. Sign up and create your flipbook.