3 minute read

Homo Digitalis

“La ética aplicada es un modo de aplicar conceptos éticos a cuestiones concretas de la actividad humana El modelo de ética aplicada “Pero ¿qué ética? Estamos de acuerdo en que necesitamos una ética para la inteligencia artificial. Pero, insisto, ¿qué ética aplicamos? Y si encontramos una ética, ¿cómo la aplicamos?”. Mi dialogante amiga me abandonó, pues su agenda la requería en otro lugar. De pronto mi imaginación me trasladó a la Academia de Platón, donde comenzaron las primeras discusiones éticas. Allí me vi debatiendo la tesis de Protágoras sobre que toda moral es opinable, o la de Gorgias sobre que es mejor cometer una injusticia que padecerla. Si buscamos una ética que aplicar en la inteligencia artificial lo tenemos complicado, pues desde aquellos tiempos de Platón no hemos llegado a una solución concluyente sobre una ética admitida por todos. Dado este desacuerdo, debemos acudir a la “ética de mínimos”: unos principios morales en los que todo ser racional pueda estar de acuerdo (por ejemplo, no hacer daño o ser justo). Pero resulta que la ética de mínimos acaba hablando de principios muy genéricos, que resultan poco útiles en la práctica y, por tanto, complicados de programar en un sistema inteligente. Robots cristianos, liberales o marxistas

Las tres leyes de la robótica de Asimov son, de alguna forma, una ética de mínimos, al establecer en su primera ley que un robot no podrá hacer daño a un ser humano. Desde un punto de vista conceptual se ha visto la inconsistencia de tal ley, pues un robot puede “no saber” que está haciendo daño a un ser humano; y desde un punto de vista práctico se ha constatado la dificultad de programar tal ley. Como resulta complicado aplicar una ética de mínimos, deberemos pasar a una ética de máximos. En este caso entran en juego los valores particulares de cada uno, la ética se vuelve individual y es cuando cada uno se comporta según una cierta moral (por ejemplo, según la moral católica, el pensamiento liberal o el materialismo histórico). Con esta perspectiva, ¿tendremos que diseñar robots cristianos, liberales, o marxistas, a gusto de cada usuario? Para salir de esta espiral filosófica propongo aplicar la ética en tres momentos (en su diseño, su entrega en forma de servicio y su uso), y de tres formas distintas: aplicar una ética en el diseño de sistemas inteligentes; disponer de un gobierno ético en las organizaciones que entregan servicios basados en inteligencia artificial; y permitir que cada usuario pueda obrar según sus valores éticos. En el diseño ético se pueden aplicar algunos conceptos prácticos y posibles de programar, como evitar el sesgo o facilitar la explicación de resultados. Con el gobierno ético una organización puede garantizar a sus clientes y a la sociedad que aplica mecanismos de control, como, por ejemplo, disponer de sistemas auditables, que garantizan una entrega de servicios basados en inteligencia artificial de forma ética. De forma ética en el sentido de que cada individuo pueda tomar sus decisiones de manera autónoma y según sus valores éticos. Este modelo de ética para la inteligencia artificial pone en juego a varios actores (diseñadores, organizaciones, usuarios), por lo que solo puede funcionar bajo lo que se conoce como ética aplicada. La ética aplicada es un modo de aplicar conceptos éticos a cuestiones concretas de la actividad humana, y ha mostrado su utilidad en campos como la bioética o la ética de las profesiones. Luego para responder a la pregunta “¿qué ética aplicamos?”, debemos contestar “la ética aplicada” y hacerlo en los tres momentos antes descritos. No es un juego de palabras, sino aplicar con un método todo lo que hemos aprendido desde los tiempos de Platón. Juan Ignacio Rouyet Doctor Humanista QUINT @jirouyet

Advertisement

DE IDEA A APLICACIÓN, MÁS RÁPIDO. LO GARANTIZAMOS.

Desbloquee el valor del negocio con la Automatización Inteligente low-code.

Business Process Management (BPM)

Robotic Process Automation (RPA) Inteligencia Artificial (IA) Integración

appian.es/platform/intelligent-automation

Seguidnos en:

@AppianIberia

@Appian Iberia

This article is from: