1 minute read
Bias & Artificial Intelligence. ¿Are we all biased?
Autor
Juan Diego Vivas Fonseca
Director
Jaime Andrés Pavlich Mariscal
La evolución de la tecnología y la sociedad trae muchos beneficios tanto para las empresas como para las personas. Sin embargo, con los desarrollos de la Inteligencia Artificial, la lucha contra el racismo, la xenofobia o cualquier otro tipo de discriminación sigue teniendo un papel importante en las luchas sociales y el debate público contemporáneos. Por lo tanto, es necesario que, en el desarrollo de diferentes tipos de tecnologías, y especialmente en Machine Learning e Inteligencia Artificial, estos sesgos no se estimulen y aumenten, sino que se disminuyan. Para este propósito, es necesario un método consistente para identificarlos y evaluarlos. Este artículo propone un modelo general para la evaluación del sesgo posterior al desarrollo para modelos de Machine Learning. Para ejemplificar y validar dicho modelo, se evalúan dos modelos, los modelos GPT-2 y GPT-3, con resultados positivos que hablan muy bien de sus procesos de entrenamiento. Se encontró una disminución en la probabilidad de casi 8.6 puntos porcentuales de un comentario negativo –cuando un texto es generado por los modelos y tiene una palabra relacionada a una distinción racial–, en comparación con el caso base donde el texto es generado por un humano y también contiene palabras relacionadas con distinción racial.
Este tipo de esfuerzos son importantes en la medida que se observa lo ocurrido con otras tecnologías y medios en el pasado, donde muchas de estas tecnologías sin control, tendieron a perpetuar sesgos y discriminaciones hacia grupos sociales en particular. En el presente trabajo, se construye una alternativa efectiva y viable desde la perspectiva de la industria tecnológica, la cual permite ser usada en cualquier tipo de producto tecnológico de cara al público, como redes sociales, algoritmos de procesamiento de texto, imágenes, etc.