Daños
causados por
inteligencia artificial y responsabilidad civil
CONSEJO EDITORIAL Miguel Ángel Collado Yurrita Joan Egea Fernández Isabel Fernández Torres José Ignacio García Ninet Javier Lopéz García De La Serrana Belén Noguera De La Muela Luis Prieto Sanchís Francisco Ramos Méndez Ricardo Robles Planas Sixto Sánchez Lorenzo Jesús-María Silva Sánchez Joan Manuel Trayter Jiménez Juan José Trigás Rodríguez Director de publicaciones
Daños
causados por inteligencia artificial y responsabilidad civil Mª Luisa Atienza Navarro Profesora Titular de Derecho Civil Universitat de València
Colección: Cuadernos de Derecho de Daños Director:
Javier López y García de la Serrana Abogado y Doctor en Derecho
Reservados todos los derechos. De conformidad con lo dispuesto en los arts. 270, 271 y 272 del Código Penal vigente, podrá ser castigado con pena de multa y privación de libertad quien reprodujere, plagiare, distribuyere o comunicare públicamente, en todo o en parte, una obra literaria, artística o científica, fijada en cualquier tipo de soporte, sin la autorización de los titulares de los correspondientes derechos de propiedad intelectual o de sus cesionarios.
© 2022 Mª Luisa Atienza Navarro © 2022 Atelier Santa Dorotea 8, 08004 Barcelona e-mail: editorial@atelierlibros.es www.atelierlibrosjuridicos.com Tel.: 93 295 45 60 I.S.B.N.: 978-84-18780-24-0 Depósito legal: B 12229-2022 Diseño y composición: A ddenda, Pau Claris 92, 08010 Barcelona www.addenda.es Impresión: Winihard Gràfics, Avda. del Prat 7, 08180 Moià
A mi hija María y a Pepe. A mi hermano Alfonso y a Jimena. Y a mis padres, siempre.
NOTA DE AGRADECIMIENTO Quiero mostrar mi más sincero agradecimiento al profesor Rafael Verdera Server, quien ha sido una fuente inagotable de provisión de materiales relacionados con la inteligencia artificial, lo cual viniendo de él (ávido lector e investigador incansable de cualquier tema jurídico) ha constituido una gran ayuda para este trabajo.
Índice Introducción. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Capítulo I. Aproximación
19
a un concepto de inteligencia
artificial a los efectos de la responsabilidad civil. . . . . . . . . .
35
I. II.
35
Consideraciones generales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . El concepto de inteligencia artificial a los efectos de la responsabilidad civil. Su delimitación respecto al de robot. . . 1. Una aproximación al concepto de inteligencia artificial. . . 2. El concepto de robot. Especial referencia a los robots inteligentes. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3. (In)utilidad de la distinción entre robots inteligentes e inteligencia artificial a los efectos de la responsabilidad civil. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4. Características de la inteligencia artificial y de los robots inteligentes que implican problemas a los efectos de la determinación de la responsabilidad civil. . . . . . . . . . . . . . A) La complejidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . B) La conectividad. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . C) La opacidad. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . D) La capacidad de autoaprendizaje y de actuar con autonomía. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . E) La apertura. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
11
37 37 47 53 56 56 57 58 59 62
Mª Luisa Atienza Navarro
F) La vulnerabilidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . III. Distinción entre inteligencia artificial «débil» e inteligencia artificial «fuerte» a los efectos de la responsabilidad civil. . . . . Capítulo II. El
62 67
controvertido reconocimiento de una
personalidad jurídica electrónica:
¿robots
civilmente
responsables? . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Tratamiento de la personalidad jurídica de los robots en la Unión Europea. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1. La posibilidad de reconocer personalidad jurídica y responsabilidad civil a los robots en la Resolución del Parlamento Europeo de 16 de febrero de 2017. . . . . . . . . 2. La oposición al reconocimiento de la personalidad jurídica electrónica en otros instrumentos de la Unión Europea. . II. Posiciones doctrinales en relación con el reconocimiento de la personalidad jurídica a los robots a los efectos de su responsabilidad civil . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1. Precisiones conceptuales. . . . . . . . . . . . . . . . . . . . . . . . . . . . 2. Argumentos en contra de la atribución de personalidad jurídica a los robots a los efectos de su responsabilidad civil. . . . . . . . . . . . . . . . . . . . . . . . . . 3. Posición a favor de la atribución de personalidad jurídica a los robots a los efectos de su responsabilidad civil . . . . A) Configuración y límites de la personalidad jurídica electrónica. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . B) Revisión crítica de las objeciones formuladas a la atribución de la personalidad jurídica a los robots. . . . C) Una visión distinta: la atribución de la personalidad jurídica electrónica con una perspectiva funcional y no ontológica. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . D) La responsabilidad civil del robot frente a la víctima del daño como consecuencia del reconocimiento de su personalidad jurídica . . . . . . . . . . . . . . . . . . . . . . . . . III. Robots sin personalidad jurídica pero responsables de los daños . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1. La consideración de los robots como esclavos. La constitución de un peculio a los efectos de la responsabilidad civil. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2. Los patrimonios fundacionales robóticos personificados. . .
77
I.
12
77 77 79 83 83 84 94 94 98 105 111 121 121 124
Daños causados por inteligencia artificial y responsabilidad civil
IV. Valoración personal. Acerca de la (in)necesariedad de robots civilmente responsables . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Capítulo III. Aplicación
127
de regímenes de responsabilidad civil
vigentes a los daños causados por la inteligencia artificial . .
(I) Régimen de responsabilidad Su modificación y adaptación I. II.
civil por productos defectuosos. a la inteligencia artificial. . . . .
Consideraciones previas: ¿es necesaria una regulación nueva de la responsabilidad civil por los daños causados por robots?. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Aplicación del régimen de responsabilidad civil por productos defectuosos. La necesidad de su adaptación a la inteligencia artificial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1. Consideraciones generales . . . . . . . . . . . . . . . . . . . . . . . . . . 2. La inteligencia artificial como «producto». Problemas que plantea esta calificación . . . . . . . . . . . . . . . . . . . . . . . . 3. Sujetos responsables: la figura del productor en los sistemas de inteligencia artificial. . . . . . . . . . . . . . . . . . . . . 4. El concepto de «defecto» en el producto y los problemas de su aplicación a la inteligencia artificial. . . . . . . . . . . . . . A) El concepto de «defecto». Especial referencia a las expectativas legítimas de seguridad en el ámbito de la inteligencia artificial. . . . . . . . . . . . . . . . . . . . . . . . . . B) Circunstancias que han de tenerse en cuenta para valorar las expectativas legítimas de seguridad . . . . . . . 5. Tipos de defectos en la inteligencia artificial. . . . . . . . . . . 6. La dificultad de la prueba del defecto y de la relación de causalidad entre este y el daño irrogado por la inteligencia artificial. . . . . . . . . . . . . . . . . . 7. Los daños indemnizables. . . . . . . . . . . . . . . . . . . . . . . . . . . 8. Las causas de exoneración. Especial referencia a la inexistencia de defecto en el momento de la puesta en circulación del sistema inteligente y a los riesgos de desarrollo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . A) Consideraciones generales. . . . . . . . . . . . . . . . . . . . . . . . B) La inexistencia del defecto en el momento de la puesta en circulación del sistema inteligente. . . . . . . . . C) Los riesgos de desarrollo y los problemas de su aplicación a la inteligencia artificial. . . . . . . . . . . . . . . .
13
133
133 138 138 141 151 157 157 161 166 171 181
187 187 187 190
Mª Luisa Atienza Navarro
9. A modo de recapitulación: la necesidad de adaptar la normativa de responsabilidad por productos defectuosos a la inteligencia artificial. Valoración personal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Capítulo IV. Aplicación
197
de regímenes de responsabilidad civil
vigentes a los daños causados por la inteligencia artificial.
(II) Regímenes
generales de responsabilidad civil.
Sistemas
de gestión de riesgos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
203
I. II.
203
Consideraciones generales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Aplicación de regímenes de responsabilidad civil por hecho propio basados en la culpa. . . . . . . . . . . . . . . . . . . . . . . . . . . . 1. Algunos tipos de culpas en las que pueden incurrir los sujetos llamados a responder. . . . . . . . . . . . . . . . . . . . . . . . 2. Las desviaciones incontroladas de la inteligencia artificial y las posibles culpas de los sujetos responsables . . . . . . . . 3. Valoración personal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . III. Aplicación de las reglas de responsabilidad civil por hecho ajeno. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1. Cuestiones previas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2. Problemas que plantea la aplicación de las normas de responsabilidad civil por hecho ajeno a la inteligencia artificial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . A) Planteamiento general. . . . . . . . . . . . . . . . . . . . . . . . . . . B) La aplicación de las normas de responsabilidad por hecho ajeno a robots sin personalidad jurídica. Problemas que plantea. . . . . . . . . . . . . . . . . . . . . . . . . . C) El problema de la aplicación analógica de las reglas de responsabilidad civil por hecho ajeno a la inteligencia artificial. . . . . . . . . . . . . . . . . . . . . . . . . . . . D) Casos de responsabilidad civil por hecho ajeno en los daños causados por robots. Posibles culpas de los sujetos responsables. . . . . . . . . . . . . . . . . . . . . . . . . . E) Valoración personal. . . . . . . . . . . . . . . . . . . . . . . . . . . . . IV. Aplicación de regímenes de responsabilidad civil objetiva . . . 1. Aplicación de diferentes regímenes de responsabilidad civil objetiva, según la concepción de la inteligencia artificial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
14
204 204 206 210 213 213 215 215 216 222 224 228 229 229
Daños causados por inteligencia artificial y responsabilidad civil
V.
2. Aplicación analógica de las reglas de responsabilidad civil objetiva por daños causados por los animales y por las cosas. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . A) Aplicación del régimen jurídico de la responsabilidad civil por daños causados por los animales a la inteligencia artificial . . . . . . . . . . . . . . . . . . . . . . . . . . . . B) La consideración de los robots como cosas a los efectos de la aplicación de reglas de responsabilidad objetiva. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . C) Valoración personal. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3. La aplicación de reglas de responsabilidad civil estricta. . . A) Fundamento de la responsabilidad objetiva por los daños causados por la inteligencia artificial: el riesgo creado por su utilización . . . . . . . . . . . . . . . . . . . . . . . . B) Valoración personal de la aplicación de un régimen de responsabilidad civil objetiva estricta, como regla general, a los daños causados por la inteligencia artificial. Revisión de la teoría del «riesgo». . . . . . . . . . Aplicación de un sistema de gestión de riesgos a la inteligencia artificial. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1. La instauración de un sistema de gestión de riesgos en las propuestas de la Unión Europea . . . . . . . . . . . . . . . 2. Aproximación a un concepto jurídico de la gestión de riesgos. Su diferencia con la responsabilidad civil objetiva estricta . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Capítulo V. Ropuestas
de regulación de la
229 229 239 240 241 241
244 262 262 263
Unión Europea
para los daños causados por la inteligencia artificial.
Especial
Reglamento de 20 de 2020 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
referencia a la propuesta de
octubre de
I. II.
Consideraciones generales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . La Resolución del Parlamento Europeo de 16 de febrero de 2017. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . III. El informe del grupo de expertos de 21 de noviembre de 2019. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . IV. El Informe de la Comisión Europea adjunto al Libro Blanco de 19 de febrero de 2020. . . . . . . . . . . . . . . . . . . . . . .
15
267 267 268 273 278
Mª Luisa Atienza Navarro
V.
La propuesta de Reglamento en materia de responsabilidad civil por el uso de la inteligencia artificial de 20 de octubre de 2020. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1. Justificación de una regulación específica acerca de la responsabilidad civil por el uso de la inteligencia artificial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2. Características de la normativa reguladora de la responsabilidad civil por el uso de la inteligencia artificial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3. La subsistencia del régimen de responsabilidad civil por productos defectuosos. Necesidad de su adaptación y reforma (remisión). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4. Ámbito de aplicación . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5. El régimen de responsabilidad civil . . . . . . . . . . . . . . . . . . A) Consideraciones generales. . . . . . . . . . . . . . . . . . . . . . . . B) Sujetos responsables. . . . . . . . . . . . . . . . . . . . . . . . . . . . C) El criterio de imputación de la responsabilidad. . . . . . D) Daños indemnizables . . . . . . . . . . . . . . . . . . . . . . . . . . . E) Plazo de prescripción para reclamar la indemnización. F) El aseguramiento de la responsabilidad civil del operador. Remisión. . . . . . . . . . . . . . . . . . . . . . . . . . . . . VI. La propuesta de Reglamento de regulación de la inteligencia artificial (Ley de inteligencia artificial) de 21 de abril de 2021. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Capítulo VI. Regulaciones
281 281 284 287 289 292 292 292 300 313 319 320 321
sectoriales de responsabilidad
civil para algunos sistemas de inteligencia artificial.
El
respeto a su heterogeneidad. . . . . . . . . . . . . . . . . . . . . . . . . . .
327
I. Consideraciones generales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . II. ¿Regulación unitaria de un fenómeno heterogéneo?. . . . . . . . . III. Principales sistemas de inteligencia artificial a los que puede aplicarse una regulación sectorial. . . . . . . . . . . . . . . . . . 1. Consideraciones generales . . . . . . . . . . . . . . . . . . . . . . . . . . 2. Vehículos autónomos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . A) ¿Qué son los vehículos autónomos?. . . . . . . . . . . . . . . . B) Propuestas de modificación de las normas de responsabilidad civil por la circulación de vehículos a motor para su aplicación a la conducción autónoma. . .
327 328
16
332 332 333 333 339
Daños causados por inteligencia artificial y responsabilidad civil
C) La creación de nuevas normas para los daños causados por los vehículos autónomos. . . . . . . . . . . . . . D) A modo de recapitulación: las reglas aplicables del Derecho vigente . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3. Los drones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4. Robots médicos y tecnologías de asistencia para el diagnóstico en la atención médica. . . . . . . . . . . . . . . . . . . . Capítulo VII. El
II.
366
. . . . . . . . . . .
375
El aseguramiento de la responsabilidad civil por daños causados por la inteligencia artificial. . . . . . . . . . . . . . . . . . . . 1. Consideraciones generales: la interrelación entre la responsabilidad civil en general y su aseguramiento. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2. La interrelación entre la responsabilidad civil por daños causados por la inteligencia artificial y su aseguramiento . 3. La fórmula del seguro de responsabilidad civil en los principales instrumentos de la Unión Europea en el ámbito de los daños causados por la inteligencia artificial. . . A) Consideraciones generales. . . . . . . . . . . . . . . . . . . . . . . . B) ¿Suscripción obligatoria o voluntaria del seguro de responsabilidad civil por daños causados por la inteligencia artificial? . . . . . . . . . . . . . . . . . . . . . . . . . . . C) Sujetos obligados a la suscripción del seguro de responsabilidad civil por daños causados por la inteligencia artificial. . . . . . . . . . . . . . . . . . . . . . . . . . . . 4. Especialidades del seguro de responsabilidad civil por los daños causados por la inteligencia artificial . . . . . . . . . Fondos de compensación ¿versus? seguro de responsabilidad civil. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Reflexiones I. II.
352 355
aseguramiento de la responsabilidad civil
por daños causados por la inteligencia artificial
I.
346
375 375 379 381 381 383 386 389 392
finales a modo de propuesta. . . . . . . . . . . . . . . . . . .
395
Síntesis acerca del estado de la cuestión. . . . . . . . . . . . . . . . . A modo de propuesta: reglas de responsabilidad civil para los daños causados por la inteligencia artificial. . . . . . . . . . . . 1. Consideraciones generales . . . . . . . . . . . . . . . . . . . . . . . . . . 2. La determinación de los sujetos responsables. El modelo de la Ley de Ordenación de la Edificación. . . .
395
17
398 398 398
Mª Luisa Atienza Navarro
3. ¿Responsabilidad objetiva o responsabilidad subjetiva por los daños causados por la inteligencia artificial? . . . . A) Acerca de la (in)conveniencia de aplicar con carácter general una fórmula de responsabilidad objetiva a los daños causados por la inteligencia artificial. . . . . . . . . . B) La determinación del criterio de imputación —objetivo o subjetivo— según el tipo de sistema inteligente y la actividad en la que se utilice. . . . . . . . . . . . . . . . . C) La importancia del establecimiento de deberes de conducta en los casos de responsabilidad civil subjetiva . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . III. Reflexión de hoy y acerca del futuro: ¿robots responsables de los daños que causan? . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Bibliografía Principales
consultada
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
402 402 406 409 411 415
resoluciones, informes, proyectos y comunicaciones
de la unión europea acerca de la responsabilidad civil e inteligencia artificial
Algunas
(por
orden de cita en el trabajo) . . . .
noticias de prensa y comunicados
(por
orden de
cita en el trabajo). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
18
437
441
Introducción* Nadie puede negar la existencia de sistemas inteligentes que, con mayor o menor nivel de autonomía y de sofisticación tecnológica, conviven con nosotros y nos hacen la vida más fácil y cómoda, sin que muchas veces reparemos en ellos y en los beneficios que nos reportan. A que pasen desaprecibidos contribuye el hecho de que normalmente no se presentan con forma humana; y es que lejos de la creencia popular que asocia la idea de los robots a formas androides o ginoides, en la realidad muchos de ellos no son antropomorfos1. No obstante, también es cierto que en los países más adelantados en el ámbito de la robótica (EEUU, Corea, Japón y China) comienzan a proliferar sobre todo ginoides, que emulan a los seres humanos y * Este trabajo ha sido elaborado en el marco del Proyecto de Investigación «Responsabilidad social de la empresa: hacia un sistema financiero responsable» (Proyecto Prometeo de la Generalitat Valenciana, 2021/13). 1. No obstante, como se advierte continuamente en estudios sobre esta materia, desde la antigüedad, al ser humano le ha seducido la idea de construir máquinas antropomórficas o con formas de animales. Así, suelen citarse, como ejemplo de las primeras, el caballero automático de Leonardo da Vinci (año 1495) o la tocadora de laúd, de Gianello Delia Torre (año 1540), y como paradigma de las segundas, el pájaro mecánico de Arquitas de Tarento (año 400-350 a.C.). Lo relata, entre otros muchos: Barrio Andrés, M., «Robótica, inteligencia artificial y Derecho», Ciber Elcano, 2018, nº 36, p. 1.
19
Mª Luisa Atienza Navarro
se utilizan principalmente con fines asistenciales, para dar apoyo a niños, a enfermos, a personas mayores que viven solas o en geriátricos, etc. De todos modos, es cuestión controvertida, que habrá de ser analizada con detalle (de ella me ocupo en el capítulo I), la de distinguir los robots y la inteligencia artifical, puesto que no son siempre términos coincidentes. Sería una tarea ardua, y seguramente condenada al fracaso, intentar enumerar o clasificar estos sistemas inteligentes que han invadido ya prácticamente todas las parcelas de la vida humana2; así, desde el simple empleo del google maps para indicarnos cuál es la vía más rápida, o económica, o segura; los chatbots, en los que mantenemos diálogos con las máquinas; robots quirúrgicos, como el Da Vinci, tan preciso en el ámbito de la cirugía o los «asistentes médicos inteligentes», como el robot Watson de IBM, que mediante algoritmos que utilizan una minería ingente de datos, después elaboran un diagnóstico y realizan protocolos de tratamiento muy acertados; robots industriales, que han producido grandes cambios en las técnicas de producción; drones que no solo son utilizados por los particulares para su propia distracción y recreo, sino también por las fuerzas de seguridad, etc.; dispositivos que reemplazan a los antiguos electrodomésticos analógicos para crear hogares conectados e inteligentes; ascensores inteligentes; automóviles que, según su nivel de automatización, pueden llegar hasta a funcionar de forma totalmente autónoma sin conductor;
2. Bertolini, A., Artificial intelligence and civil liability (estudio encargado por la Comisión de Asuntos Jurídicos del Parlamento Europeo), julio 2020, p. 76 (disponible en: http://www.europarl.europa.eu/supporting-analyses), advierte que la inteligencia artificial es omnipresente y va a afectar cada vez en mayor medida a un amplio abanico de ámbitos o campos: mercados de capitales, práctica médica (tanto en diagnóstico como en tratamiento), producción industrial, impresión 3d, contratación autónoma e inteligente, gestión de la movilidad y sistemas y soluciones de transporte (incluidos, entre otros, vehículos autónomos), asistencia y, en algunos casos, curación de personas frágiles (niños, ancianos, personas con discapacidad), identificación, vigilancia y aplicación de la seguridad, ejecución legal y administración de justicia, dispositivos domésticos y de consumo, gestión de interacciones e intercambios humanos para múltiples fines a través de Internet. La lista, en su opinión, es potencialmente infinita.
20
Daños causados por inteligencia artificial y responsabilidad civil
inteligencias artificiales que son capaces de pintar lo que sería el último cuadro de Rembrandt, o, incluso, más recientemente como hace el robot inteligente Botto, hacerlo a gusto de los consumidores; sistemas inteligentes que pueden fundamentar resoluciones judiciales, como Watson o Prometea, etc. La doctrina especializada en estos temas alaba las bondades de la utilización de la inteligencia artificial; en particular, elogia el hecho de que puede permitir sustituir a los humanos en las conocidas —conforme a una expresión anglosajona— como 3D, que son tareas, caracterizadas por adjetivos que en inglés inician por una «d»: tediosas (dull); sucias (dirty) y peligrosas (dangerous). En cuanto a las primeras, los robots pueden realizarlas sin acusar el cansancio, ni el aburrimiento; las segundas, pueden llevarlas a cabo sin los peligros que para los seres humanos lleva consigo su insalubridad; y en relación con las terceras pueden realizar misiones, como en el caso de asistencia en catástrofes naturales, que pondrían en peligro la vida de cualquier persona. Además, con otra perspectiva, se valoran positivamente los cambios que la inteligencia artificial introduce en la sociedad; entre ellos, se apunta que mejora la atención sanitaria (por ejemplo, incrementando la precisión de los diagnósticos y permitiendo una mejor prevención de las enfermedades); aumenta la eficiencia de la agricultura; contribuye a la mitigación del cambio climático y a la transición energética; ayuda a prevenir y mitigar los efectos de las catástrofes naturales; mejora la eficiencia de los sistemas de producción a través de un mantenimiento predictivo; aumenta la seguridad; y, según se dice, muchos otros cambios que de momento solo podemos intuir3. Precisamente, por la trascendencia las transformaciones apuntadas, los sistemas de inteligencia artificial han sido calificados de «tecnologías disruptivas» porque tienen potencial suficiente para modifi-
3. Recogen estos cambios: López del Moral, I., Quesada López, P. M. y Antón Sancho, M., «Inteligencia artificial y responsabilidad civil: ¿es realmente necesario un cambio en el ordenamiento jurídico?», Diario La Ley, nº 47, Sección Ciberderecho, 29 enero 2021, p. 2.
21
Mª Luisa Atienza Navarro
car las relaciones sociales y el modo de vida de los seres humanos4. En realidad, en el empleo de esta terminología subyace, en el fondo, cierto temor a las consecuencias que su utilización puede acarrear5. La preocupación no solo se palpa en los estudios doctrinales, sino también en los documentos de los organismos de la Unión Europea, que incluso hacen referencia —como es extraño en este tipo de textos— a obras de ficción, como las Leyes de la robótica de Asimov6, mencionadas a pie de página, por ejemplo, en la célebre Resolución del Parlamento Europeo de 16 de febrero de 2017, sobre «Normas de Derecho civil sobre robótica» (a partir de ahora, Resolución del Parlamento Europeo de 2017)7. Otra manifestación evidente del temor a la proliferación de la inteligencia artificial la constituyen las conti-
4. Ataz López, J., «Daños causados por las cosas: una nueva visión a raíz de la robótica y de la inteligencia artificial», Working paper 4/2020, Universitat de Barcelona, p. 4. 5. Como señalan Lledó Yagüe, F. y Monje Balsameda, O., «Retos de nuestro tiempo: la criónica en seres humanos. El debate de la persona electrónica y la revolución robótica», REDS, n. 13, julio-diciembre 2018, p. 21: «El desarrollo de la inteligencia artificial, y el proceso de composición de datos, cada vez es mayor, y de impacto más sofisticado. Estamos inmersos en el efecto y repercusión del llamado «big data», en el desarrollo vital, familiar, profesional, personal (en todos los ámbitos) en el ocio, en la manera de vivir, cada vez más pendiente de la información algorítmica, que del conocimiento enciclopédico, que cada vez es más obsolescente». 6. A finales de los años 30 del siglo pasado, Isaac Asimov acuñó el término «robótica» y creó las conocidas leyes de la robótica. Entre esas reglas destacan las que: 1) un robot no debe dañar a ningún ser humano ni, por su pasividad, dejar que lo sufra; 2) un robot debe obedecer las órdenes que le son dadas por un ser humano, excepto cuando están en oposición con la primera ley; 3) un robot debe proteger su propia existencia hasta donde esa protección entre en conflicto con la primera y segunda regla; 4) un robot no puede dañar a la humanidad por acción o inacción (ley cero). Sobre este tema, por todos: García-Prieto Cuesta, J., «¿Qué es un robot?», en AA. VV.: Derecho de los robots (dir.: Barrio andrés, M.), Wolters Kluwer, Madrid 2018, pp. 25 y ss. 7. La Resolución del Parlamento Europeo, de 16 de febrero de 2017, con recomendaciones destinadas a la Comisión sobre normas de Derecho civil sobre robótica (2015/2103 (INL) se encuentra disponible en: https://www.europarl.europa.eu/doceo/ document/TA-8-2017-0051_ES.html.
22
Daños causados por inteligencia artificial y responsabilidad civil
nuas «recomendaciones éticas» que incluye la Unión Europea8 en las propuestas de regulación de esta materia9. Lo cierto es que, actualmente, existe una concienciación colectiva generalizada acerca de la necesidad de regular jurídicamente la utilización de la inteligencia artificial; o lo que es lo mismo, se reivindica que las distintas ramas del ordenamiento jurídico (civil, laboral, financiera, filosofía del Derecho, etc.)10 deben dar respuesta a las conse-
8. Como ejemplo, puede verse, la Comunicación de la Comisión Europea, de 8 de abril de 2019, COM(2019), 168, que lleva por título «Generar confianza en la inteligencia artificial centrada en el ser humano» (disponible en: https://eur-lex.europa.eu/ legal-content/ES/TXT/PDF/?uri=CELEX:52019DC0168&from=PT; o las «Directrices éticas para una inteligencia artificial fiable», creadas por el Grupo Independiente de Expertos de Alto Nivel sobre Inteligencia Artificial», de abril de 2019 (disponible en: https://urjes.com/pruebas/wp-content/uploads/2021/05/Grupo-independiente-deexpertos—…-Directrices-eticas-para-una-inteligencia-artificial-IA-fiable-ES.pdf), que se basan siempre en el respeto a la autonomía de los seres humanos. Y esa inteligencia artificial ha de incorporar el requisito de la «responsabilidad» desde la primera fase de su diseño, además de garantizar la «trazabilidad» y la «transparencia»; esto es, que han de crearse sistemas de inteligencia artificial que sean auditables, comprensibles e inteligibles para los seres humanos. 9. Lo advierte también: Ataz López, J., «Daños causados…», cit., p.7. 10. Se plantea esa incidencia para el Derecho en general: Veiga Copo, A. B., «Inteligencia artificial, riesgo y seguro», Revista Ibero-Latinoamericana de Seguros, vol. 30 (54), enero-junio 2021, p. 47. En sus palabras: «Unos cambios y un futuro próximo, no remoto, y que exigirá respuestas y fundamentos jurídicos que adecúen viejas normativas y hagan frente a una realidad que está haciendo evolucionar el derecho de los contratos y la responsabilidad civil al surgir nuevas vías de información, de contratación, de ejecución de contratos, de interpretación, pero sobre todo de automatización en el decurso natural de lo que hasta el presente ha sido un contrato tradicional. Máxime cuando ya un ordenador, una máquina tiene o tenga capacidad de decisión, de actuación autónoma e independiente de toda interacción del ser humano. Y ese momento llegará o está llegando». Y más adelante, cuando señala (p. 48): «Casar la tecnología con el Derecho no es, ni ha de ser, un capricho, es una necesidad. Cuestión distinta es fijar en su justa dimensión los conceptos. Y lo es por la enorme presencia de lagunas o, si se prefiere, de déficit normativos que en estos momentos existe en lo tecnológico y sus desarrollos, no solo en temas de responsabilidad civil y daño, también en ámbitos más específicos de la contratación y el condicionado. Quid si no con la metamorfosis que,
23
Mª Luisa Atienza Navarro
cuencias de su incorporación a la realidad social y al tráfico jurídico11. En el seno de dichas respuestas, especialmente interesante es la que ha de dar el Derecho de daños, cuyo estudio es el que voy a abordar en estas páginas porque, seguramente, es uno de los ámbitos que origina más inseguridades. A nadie se le escapa el hecho de que estos sistemas, al ser utilizados, pueden ocasionar daños de muy diversa índole12. No obstante, hay que advertir que la inteligencia artificial
obligatoriamente sufrirá o deberá experimentar el contrato de adhesión y los condicionados generales de la contratación?». 11. Hasta el punto que ha surgido una corriente doctrinal que propugna la creación de una nueva rama del Derecho, la de la robótica o Derecho de los robots (Robot Law), que al igual que sucedió en su día con la aparición del Derecho del Trabajo o del Derecho ambiental, tenga autonomía propia para dar respuesta a los desafíos y situaciones disruptivas que pueda ocasionar la inteligencia artificial. Claro exponente esta corriente, en el Derecho español, es la obra Derecho de los robots, Wolters Kluwer, Madrid, 2019, dirigida por Barrio Andrés. (Un resumen de la misma puede verse en Caballero Trenado, L., «Reseña: Barrio Andrés, A. M. (dir.), Derecho de los robots», Revista de Derecho Privado, nº 37, 2019, pp. 367-371). Según Barrio Andrés, esta nueva rama jurídica no tiene que construirse ex nihilo, puesto que ha de partir del Derecho de Internet (lo explica con detalle, siguiendo a Calo, en «Del Derecho de Internet al Derecho de los robots», en AA. VV.: Derecho de los robots (dir.: Barrio Andrés, M.), Wolters Kluwer, Madrid, 2019, pp. 68 y 69). En sus palabras (p. 92), se trataría de una disciplina jurídica que debería adaptar «el Derecho general —en cuanto que previamente vigente—, y, en la medida de lo necesario, que genere un Derecho nuevo que respecto los principios estructurales de dignidad, libertad e igualdad en el marco del mantenimiento de la democraticidad total de los sistemas robóticos: el Derecho de los Robots (Robot Law)». 12. Apunta Barrio Andrés, M., «Robótica, inteligencia…», cit., p. 3, que la capacidad de estos sistemas inteligentes de actuar físicamente sobre el mundo real se traduce, a su vez, en el potencial de dañar materialmente a las personas o a las cosas. Por su parte, Veiga Copo, A. B., «Inteligencia artificial…», cit., p. 70, señala que: «(…) tanto la robótica como la inteligencia artificial, por sus particulares características, es una actividad generadora de riesgos y por ende de daños tanto a personas como a bienes». A título de ejemplo, respecto a los daños irrogados por la utilización de la robótica en la sanidad, García Portero, R., «Los robots en la sanidad», en AA. VV.: Derecho de los robots (dir.: Barrio Andrés, M.), Wolters Kluwer, Madrid, 2019, p. 262, reporta los siguientes datos: «entre enero de 2000 y diciembre de 2013 se causaron 144 muertes, 1.391 pacientes resultaron heridos, y unos 8.061 fallos de funcionamiento fueron noti-
24
Daños causados por inteligencia artificial y responsabilidad civil
no ha incrementado —ni, a lo que parece, va a incrementar— los daños en las actividades donde se ha introducido, sino todo lo contrario: los ha reducido considerablemente respecto a cuando eran practicadas solo por seres humanos13. ¿Por qué, entonces, esa insistencia en que el Derecho de daños se ocupe —y «preocupe»— de los irrogados por la inteligencia artificial? En mi opinión, la preocupación se debe, en primer lugar, a que se trata, por así decirlo, de daños «nuevos», cuya producción en ocasiones escapa del control humano directo. Por ello, se ha originado socialmente una cierta «robophobia»14 en torno a lo mismos: Son daños en los que no hay identificado un sujeto responsable visible y claro. No sabemos, en suma, a quién puede imputarse jurídicamente su causación porque el esquema monocausalista y antropocéntrico de las reglas tradicionales de responsabilidad civil es difícilmente aplicable en muchos de los casos en que interviene una compleja inteligencia artificial. No obstante, son daños que, en una sociedad como la actual, exigen ser indemnizados. Y ello porque, como es bien sabido, en las sociedades desarrolladas se extiende, día tras día, una suerte de «cultura de la reclamación»15. Esa mentalidad de que los daños, como regla general,
ficados a la base de datos MAUDE del regulador norteamericano (Food and Drug andministration o FDA) relacionados con los sistemas e instrumentos robóticos utilizados en la cirugía mínimamente invasiva en ese país». No obstante, como explico en el texto principal, esos daños son menores en número a los que se originan por errores de las personas que prestan el servicio sanitario en general, y de los médicos en particular. 13. Como veremos en el capítulo VI, hay estudios que acreditan, estadísticamente, esa disminución en el ámbito de la sanidad o de la conducción, por ejemplo. 14. Término empleado por García Teruel, R. M., «El derecho de daños ante la inteligencia artificial y el machine learning: una aproximación desde las recomendaciones del Parlamenteo Europeo y del Grupo de Expertos de la Comisión Europea», en AA. VV.: Cuestiones clásicas y actuales del Derecho de daños. Estudios en homenaje al Profesor Dr. Roca Guillamón, tomo II (dir.: Ataz López, J. y Cobacho Gómez, J. A.), Aranzadi, Pamplona, 2021, p. 1013. 15. Alude a este fenómeno: Tapia Hermida, A. J., «La responsabilidad civil derivada del uso de la inteligencia artificial y su aseguramiento», Revista española de abogados especializados en responsabilidad civil y seguro, nº 76, p. 81. En su opinión, hay una clara correlación entre la inteligencia artificial y la responsabilidad civil porque asistimos «a
25
Mª Luisa Atienza Navarro
deben ser reclamados y resarcidos (que no ha existido en otras épocas históricas en las que, incluso, se acudía a idea de resignación cristiana para soportarlos) lleva consigo la exigencia de que el Derecho indique a la víctima frente a quién ha de dirigir la demanda de responsabilidad civil, sin que se vea infracompensada por el hecho de tener que aportar en estos procesos pruebas tradicionalmente exigidas en el Derecho de daños (la conducta, la causa, etc.), que muchas veces se convierten en diabólicas en el caso de la inteligencia artificial16. La Unión Europea no ha permanecido impasible a estas reivindicaciones sociales de regulación de la responsabilidad civil por la utilización de la inteligencia artificial. Al contrario, hemos asistido en los últimos años a una ingente elaboración de textos y documentos acerca de esta materia; en especial, en el tema que nos ocupa, habrá de analizarse la antes citada Resolución de 2017, en la que el Parlamento Europeo dio una serie de «recomendaciones acerca de las normas de Derecho civil sobre robótica» para que fueran tenidas en cuenta por la Comisión Europea cuando dictase la esperada Directiva o Reglamento europeo que fuera a ocuparse de esta cuestión. Ya en ese momento17
un incremento sostenido de las reclamaciones de responsabilidad civil a los operadores de instrumentos algorítmicos que sirven de base a los procesos de utilización de la inteligencia artificial y ello tanto en sentido cuantitativo, porque cada vez es mayor el número de tales reclamaciones y su cuantía; como en sentido cualitativo, porque la responsabilidad civil tanto empresarial como profesional tiende a objetivarse como consecuencia de la mera explotación de dichas actividades empresariales y profesionales basadas en la inteligencia artificial». 16. Plasma muy bien esta preocupación, entre otros muchos, el informe realizado por Karner, E., Geistfeld, M., Koch, B., Comparative law study on civil liability for artificial intelligence, a petición de la Comisión Europea, Dirección General de Justicia y Consumidores al European Law Institute (ELI), Publications Office, Publications Office, 2021, p. 9. Disponible en: https://data.europa.eu/doi/10.2838/66412. 17. Con anterioridad, puede verse el Proyecto Robolaw («Regulación de las tecnologías emergentes en Europa: Robótica frente a la ley y la ética»), surgido en marzo de 2012, en el seno de la Comisión de Asuntos Jurídicos de la Comisión Europea y concluido en mayo de 2014, que puede considerarse como primer intento de regulación jurídica de los robots en la Unión Europea. El Proyecto, como veremos en el capítulo V, también da pautas en lo que a la responsabilidad civil se refiere. El Proyecto se encuen-
26
Daños causados por inteligencia artificial y responsabilidad civil
el Parlamento vio necesaria la existencia de unos principios comunes en materia de responsabilidad civil por los daños causados por los robots, con la finalidad de garantizar una uniformidad que diese seguridad a todos los sujetos implicados (tanto víctimas de los daños como responsables)18. Por su parte, la Comisión Europea19 encomendó al Grupo de Expertos en responsabilidad civil y nuevas tenologías (Expert Group on Liability and New Technologies Formation conocido por sus siglas en inglés NTF20) la elaboración de un Informe acerca de la «responsabilidad civil por el uso de la inteligencia artificial y otras tecnologías digitales emergentes»21 (a partir de ahora, Informe del Grupo de Expertos de 2019), que vio la luz el 21 de noviembre de 2019 y que se aparta de los principales postulados sostenidos en la citada Resolución del Parlamento Europeo de 2017 y aboga por un sistema de responsabilidad civil que podría considerarse más tradicional o conservador. El Informe del Grupo de Expertos, que luego ha servido de base para
tra disponible en: http://www.robolaw.eu/RoboLaw_files/documents/robolaw_d6.2_guid elinesregulatingrobotics_20140922.pdf 18. En la Resolución del Parlamento de 2017 puede leerse que «(c)onsidera que la responsabilidad civil por los daños y perjuicios causados por robots es una cuestión fundamental que también debe analizarse y abordarse a escala de la Unión, con el fin de garantizar el mismo grado de eficiencia, transparencia y coherencia en la garantía de la seguridad jurídica en toda la Unión Europea en beneficio de los ciudadanos, los consumidores y las empresas». 19. La Comisión Europea presentó el 8 de abril de 2019 (COM(2019)168) sus «líneas maestras acerca de la regulación de la inteligencia artificial», ya citada, y, entre los principios que contempla, se halla el de que sea siempre supervisada por seres humanos. Idea también recurrente en las recomendaciones del Parlamento Europeo que insiste en la necesidad de que los robots sean siempre controlados por las personas físicas, y que, como veremos, tiene especial repercusión en el tema de la responsabilidad civil por cuanto parece traslucir la necesidad de poder individualizar un sujeto (ser humano) responsable de esos daños. 20. Grupo de Expertos nombrados conjuntamente por las Direcciones Generales de Mercado Interior (DG GROW), de Justicia y Consumo (DG JUST) y de Comunicaciones y Tecnología (DG CNECT) de la Comisión Europea. 21. «Liability for artificial intelligence and other emerging digital technologies», Publications Office, 2019. Disponible en: https://www.europarl.europa.eu/meetdocs/2014 _2019/plmrep/COMMITTEES/JURI/DV/2020/01-09/AI-report_EN.pdf.
27
Mª Luisa Atienza Navarro
instrumentos posteriores, parte de que en el Derecho Europeo sí disponemos de normas que dan respuesta a la pretensión indemnizatoria de las víctimas de forma, además, armonizada, gracias a la Directiva del Consejo 85/374/CEE, de 25 de julio de 1985, relativa a la aproximación de las disposiciones legales, reglamentarias y administrativas de los Estados Miembros en materia de responsabilidad por los daños causados por productos defectuosos (a partir de ahora Directiva 85/374/CEE)22, al Reglamento 864/2007 del Parlamento Europeo y del Consejo, de 11 de julio, Roma II, relativo a la ley aplicable a las obligaciones extracontractuales23, y al Reglamento 2016/679, del Parlamento Europeo y del Consejo, de 27 de abril, relativo a la protección de las personas físicas en lo que respecta al tratamiento de datos personales y a la libre circulación de estos datos24. El Informe del Grupo de Expertos fue el que fundamentalmente se siguió para la regulación de la responsabilidad civil en el llamado Libro Blanco de la Comisión Europea sobre «la inteligencia artificial —un enfoque europeo orientado a la excelencia y la confianza»25 de 19 de febrero de 2020, en particular en el Informe, contenido en su Anexo, sobre «las implicaciones de la inteligencia artificial, del internet de las cosas y de la robótica, en la responsabilidad civil y en las normas de seguridad de los productos»26 (a partir de ahora, Informe que acompaña al Libro Blanco o simplemente, Libro Blanco de 2020). Tan solo unos meses después de la publicación de ese Libro Blanco, en concreto el 27 de abril de 2020, vio la luz un borrador de un Proyecto de Informe que contenía una Propuesta de Resolución con «Recomendaciones destinadas a la Comisión sobre un régimen de responsabilidad civil en materia de inteligencia artificial» y un Anexo a esa
22. Diario Oficial de las Comunidades Europeas, L 210/29, 7 agosto 1985. 23. Diario Oficial de la Unión Europea, 31 julio 2007. 24. Diario Oficial de la Unión Europea, L 119/1, 4 mayo 2016. 25. COM(2020) 65 final. Disponible en: https://ec.europa.eu/info/sites/default/files/ commission-white-paper-artificial-intelligence-feb2020_es.pdf. 26. (COM(2020) 64 final). Disponible en: https://eur-lex.europa.eu/legal-content/ ES/TXT/?uri=CELEX:52020DC0064.
28
Daños causados por inteligencia artificial y responsabilidad civil
Propuesta de Resolución con «Recomendaciones para la elaboración de un Reglamento del Parlamento Europeo y del Consejo relativo a la responsabilidad civil por el funcionamiento de los sistemas de inteligencia artificial»27. Ese borrador de Proyecto de Informe con una Propuesta de Resolución es el antecedente inmediato de la Resolución del Parlamento Europeo de 20 de octubre de 202028, con «Recomendaciones destinadas a la Comisión sobre un régimen de responsabilidad civil en materia de inteligencia artificial» que contiene una Propuesta de Reglamento en materia de responsabilidad civil por el uso de la inteligencia artificial (en adelante, Propuesta de Reglamento del Parlamento Europeo de 2020 o simplemente, Propuesta de Reglamento)29. Por último, hay que mencionar también la Propuesta de Reglamento del Parlamento Europeo por el que se establecen normas armonizadas en materia de inteligencia artificial (Ley de inteligencia artificial) y se modifican determinados actos legislativos de la Unión, de 21 de abril de 2021 (2021/0106 (COD) (en adelante, Propuesta de Reglamento sobre la inteligencia artificial de 2021) que, aun cuando no se pronuncia expresamente acerca de la responsabilidad civil por el uso de la inteligencia artificial, sí regula aspectos que pueden incidir en su regulación. Ante esta ingente actividad por parte de la Unión Europea, cabría cuestionarse cuál es el motivo por el que es precisamente ahora cuando se plantea la necesidad de una regulación de la responsabilidad civil
27. (2020/2014(INL). Disponible en: https://www.europarl.europa.eu/doceo/docu ment/JURI-PR-650556_ES.pdf. 28. En la misma fecha se publicaron otras dos resoluciones del Parlamento Europeo: la de 20 de octubre de 2020, con recomendaciones destinadas a la Comisión sobre un marco de los aspectos éticos de la inteligencia artificial, la robótica y las tecnologías conexas (2020/2012(INL) (disponible en: https://www.europarl.europa.eu/doceo/document/ TA-9-2020-0275_ES.html.); y la de 20 de octubre de 2020, sobre los derechos de propiedad intelectual para el desarrollo de las tecnologías relativas a la inteligencia artificial (2020/2015(INI)(disponible en: https://www.europarl.europa.eu/doceo/document/TA-92020-0277_ES.html). 29. (2020/2014 (INL). Disponible en: https://www.europarl.europa.eu/doceo/docu ment/TA-9-2020-0276_ES.html.
29
Mª Luisa Atienza Navarro
y de la inteligencia artificial. Es decir, por qué en este momento —y no hace años, cuando en la década de los noventa se produjo un gran auge del desarrollo tecnológico— surge esta preocupación por encontrar una regulación idónea para los daños causados por los sistemas inteligentes. Realmente, más que los problemas por la aparición de tecnologías nuevas30, en los últimos años asistimos al surgimiento de ecosistemas complejos, esto es, a una combinación de tecnologías que dificultan la aplicación de las normas y principios tradicionales de la responsabilidad civil, sobre todo, porque, como veremos, se caracterizan por una gran opacidad, interconectividad y complejidad, además de que muchos de ellos ya tienen capacidades decisorias31. Sin embargo, el solo hecho de que hayan aparecido estos ecosistemas tecnológicos complejos quizá no sea motivo suficiente para reivindicar la creación de un régimen nuevo, especial y específico de responsabilidad civil para los daños causados por su utilización; o quizá sí lo sea. A intentar poner algo de luz sobre estas cuestiones se destinan las páginas siguientes. En particular, a valorar si realmente es necesario crear nuevas normas de responsabilidad civil que regulen cómo han de indemnizarse los daños que causa la inteligencia artificial o si, por el contrario, es suficiente con las que ya existen, que solo deberían, pues, ser adaptadas a este nuevo tipo de daños. En el caso de que se opte
30. Incluso, en opinión de algún autor, como Barrio Andrés, M., «La inteligencia artificial ante el Derecho», Inteligencia artificial y régimen de responsabilidad, Jornada nº 84, 6 de mayo de 2021, Fundación Coloquio Jurídico Europeo, en realidad, hoy en día hay una tecnología «vintage». 31. Según Rodríguez de las Heras Ballell, T., «El informe del grupo de expertos sobre responsabilidad civil derivada de la inteligencia artificial y otras tecnologías digitales emergentes», Inteligencia artificial y régimen de responsabilidad, Jornada nº 84, 6 de mayo de 2021, Fundación Coloquio Jurídico Europeo, hay tres ámbitos diferentes en los que pueden apreciarse problemas por ese tipo de ecosistemas inteligentes: 1) Los sesgos en los algoritmos; 2) los datos, que van a determinar el acierto de la decisión adoptada por el sistema; 3) la capacidad de autoaprendizaje. Esos tres elementos o fricciones que llevan consigo los ecosistemas inteligentes son los que han de tenerse en cuenta a la hora de dar una regulación de la responsabilidad civil, y, por ello, los analizaré en los capítulos siguientes de este estudio.
30
Daños causados por inteligencia artificial y responsabilidad civil
por la primera opción —esto es, la creación de un nuevo régimen, que podría ser el de los daños causados por la inteligencia artificial— habría también que elegir si ha de ser unitario o sectorial y adaptado a los distintos tipos de inteligencia artificial, dependiendo del ámbito en el que opere32. Obsérvese que únicamente me ocupo de las reglas de la responsabilidad civil extracontractual porque los daños que ocasionan los sistemas inteligentes, en el ámbito contractual, constituyen una tipología diferente. En el ámbito extracontractual, el abanico de producción de daños relacionado con la inteligencia artificial es muy numeroso. Para acotar el tema, no analizaré aquellos supuestos relacionados con la materia, pero que, en sentido estricto, no constituyen un hecho dañoso de un sistema de inteligencia artificial o de un robot. Me refiero, especialmente, a los llamados «ciberriesgos» en los que esos daños se dan, como apunta Jimeno Muñoz, por hechos indirectos conforme a los que un ciberevento ocasiona «la alteración, destrucción o paralización de algún sistema conectado, que, a su vez, produce un daño a terceros cuyos bienes o derechos dependan de estos sistemas, o a los que ostenten algún derecho frente a los titulares del sistema afectado»33. Tampoco voy a ocuparme de supuestos en los que los daños deriven de la utilización de las redes sociales como instrumentos para realizar actos lesivos contra derechos fundamentales, que podrían originar una responsabilidad de los administradores de dichas redes34. Por último, también escapa al tema objeto de estudio, el de los casos de los seres humanos que utilizan sistemas inteligentes con fines fraudulentos, como ocurrió, por ejemplo, con el denominado «Dieselgate», en el puede recordarse
32. En el capítulo siguiente me ocupo de esta cuestión terminológica que tiene que ver con la propia concepción que se adopte respecto de la inteligencia artificial. 33. Jimeno Muñoz, J., La responsabilidad civil en el ámbito de los ciberriesgos, Fundación Mapfre, Madrid, 2017, p. 121, quien matiza que a consecuencia de esos ciberataques también pueden producirse daños directos, que se dan contra las infraestructuras, los sistemas y los datos que se encuentren almacenados o formen parte de estos. 34. Puede verse, en este tema: Gutiérrez de Aizpuru, J., «Implicaciones legales de las redes sociales», en AA.VV.: Derecho digital, Aranzadi, Pamplona, 2019, pp. 231 a 278.
31
Mª Luisa Atienza Navarro
cómo el software instalado en los vehículos de Volkswagen detectaba cuándo se estaba sometiendo a ensayo un vehículo en laboratorio y activaba el sistema de control de emisiones para ajustarse a las normas limitativas. Sin embargo, fuera del laboratorio, el software instalado desactivaba el sistema de control de emisiones y el vehículo producía emisiones muy por encima de los límites legales marcados35. La estructura del trabajo es la siguiente: en el capítulo I, intento perfilar un concepto de inteligencia artificial que sirva a los efectos que aquí interesan, esto es, en cuanto a fuente de producción de daños. He huido de tecnicismos que normalmente son de difícil comprensión para los juristas. Lo que sobre todo he intentado es trasladar, por la importancia que tiene en el tema que nos ocupa, la distinción entre la llamada inteligencia artificial «débil» utilizada en bienes que todavía pueden seguir siendo considerados máquinas, tecnológicamente muy desarrollados, pero bienes, al fin y al cabo, de aquella otra «fuerte» que ya no encaja tan bien en esa categoría. Respecto a esta última, además de cuestionar los problemas que plantea en relación con la responsabilidad civil, será también conveniente valorar críticamente —y así lo intento en el capítulo II— la fórmula de atribución de la personalidad jurídica, como posible «remedio» para resolver las dificultades que plantea la imputación de los daños ocasionados con su utilización (como veremos, cuanto más autónomo y complejo sea el sistema más difícil averiguar la conducta humana que puede entenderse causa jurídica del daño, y, por ende, más complicado también vislumbrar los sujetos responsables). Después, en los capítulos siguientes me ocupo de los regímenes de responsabilidad civil que hasta este momento se han propuesto para regular los daños causados por la inteligencia artificial. Unas propuestas parten de la aplicación de regulaciones de responsabilidad civil ya existentes en nuestro Derecho: a tal fin, en el capítulo III analizo la
35. Recuerda el caso y lo analiza en profundidad: Plana Arnaldos, Mª. C., «Responsabilidad por software fraudulento», en AA.VV.: Cuestiones clásicas y actuales del Derecho de daños, tomo III (dir.: Ataz López, J. y Cobacho Gómez, J. A., Aranzadi, Pamplona, 2021, p. 1166.
32
Daños causados por inteligencia artificial y responsabilidad civil
normativa de responsabilidad civil por productos defectuosos, que, con las pertinentes modificaciones y adaptaciones, puede ser aplicada a la inteligencia artificial, y en el capítulo IV examino las fórmulas que se basan en reglas de responsabilidad por culpa (por hecho propio o ajeno) y de aquellas que, por el contrario, propugnan una responsabilidad estricta u objetiva. Por su parte, en el capítulo V abordo las propuestas que la Unión Europea ha realizado para regular la responsabilidad civil por daños causados por la inteligencia artificial. En el capítulo VI estudio algunos regímenes sectoriales de responsabilidad civil que resultan aplicables a sistemas específicos de inteligencia artificial que tienen perfiles propios (como lo son, los vehículos autónomos, los drones y los sistemas inteligentes empleados en Medicina). Y en el capítulo VII analizo el seguro de responsabilidad civil por daños causados por los sistemas inteligentes, junto con otras fórmulas, como los fondos de compensación, que se consideran óptimas para garantizar el resarcimiento a las víctimas. Por último, concluyo este trabajo con unas reflexiones críticas, a modo de conclusiones, y con una propuesta personal en la que ensayo las posibles reglas que resultarían aplicables a los daños causados por la inteligencia artificial, según el sistema inteligente de que se trate y la actividad a la que se destine. Por último, dos precisiones, a modo de disculpa y de justificación: mi aproximación a esta materia fue en cierto modo «accidental», a consecuencia de varias invitaciones para disertar, en foros jurídicos, sobre el tema. De ello, hace ahora tres años, y he de decir que lo que parecía necesario de tratamiento doctrinal, ahora se ha convertido en todo lo contrario: nos sobrepasan la cantidad de estudios científicos y de instrumentos de la Unión Europea que, directa, o indirectamente, tienen que ver con el tema. De hecho, es esta una materia en la que lo nuevo se convierte enseguida en obsoleto (incluso, en cuanto a interesantes investigaciones jurídicas). Por ese motivo, al final, decidí centrarme solo en los documentos de la Unión Europea relativos —de forma más o menores directa— a la responsabilidad civil por daños causados por la inteligencia artificial. Y además, por lo copiosa que resulta la doctrina existente, he prescindido en este trabajo de la bibliografía referente a la inteligencia artificial que no está relacionada con
33
Mª Luisa Atienza Navarro
la responsabilidad civil así como de fuentes extranjeras (excepto cuando se trata de autores cuyos estudios han sido solicitados por la Unión Europea o que han tenido un papel relevante en la configuración legal de la inteligencia artificial).
34