5 minute read

temas que merecen 3regulación

Julio César Osegueda ABOGADO DIRECTOR PRAETORIUM

Advertisement

La incursión en tecnologías avanzadas, especialmente para países en vías de desarrollo puede generales un serie de inconvenientes dignos de ser abordados, tales como la brecha tecnológica, la dependencia tecnológica, la pérdida de empleos, los impactos ambientales y una larga lista de problemas éticos y de privacidad.

Además, están surgiendo nuevas preguntas cuando estas tecnologías se usan para el abordaje de necesidades tradicionales; por ejemplo el problema de la adjudicación de derechos de propiedad intelectual e industrial en casos en los que ha intervenido una inteligencia artificial o la exposición a las deepfake news, que ya no sólo implican la mera difusión de noticias falsas, sino el uso de inteligencia artificial para crear imágenes y sonidos que ayudar a crear en el ideario del público que cierta figura pública hubiera dicho o hecho cierta cosa que resulte conveniente para una agenda en particular; o inclusive sobre los daños producidos a personas por sistemas automatizados, especialmente los que usan inteligencia artificial.

En el primer caso, la cuestión de la adjudicación de derechos de propiedad intelectual e industrial en casos en los que ha intervenido una inteligencia artificial (IA) es un tema complejo que requiere un análisis concienzudo. En general, los derechos de propiedad intelectual e industrial se otorgan a los creadores de una invención o creación. Sin embargo, en el caso de la IA, la cuestión se complica porque la IA puede haber sido programada por una persona, pero también puede haber sido entrenada a través de algoritmos y modelos de código libre que son el resultado del trabajo de varias personas; entonces ¿quién es el verdadero creador? ¿A quién se premiará por la creatividad?

En algunos casos, se han planteado preguntas sobre si los derechos de propiedad intelectual e industrial deberían ser otorgados a la persona o entidad que ha programado la IA, o si deberían ser otorgados a la IA misma. Esto último es especialmente relevante en el caso de las IA autónomas que pueden tomar decisiones independientes sin intervención humana; sin embargo, los últimos precedentes están recordando que la IA es una cosa y no una persona y por tanto no es sujeto de derecho y obligaciones. Aunque claro, es un tema digno de debate.

En el caso de los modelos de código libre, la cuestión se complica aún más, ya que el uso de código libre implica la aceptación de ciertas condiciones de licencia que pueden limitar el derecho a reclamar la propiedad intelectual o industrial de las obras que se crean con esos modelos.

Al final, en estos casos se deben considerar varios factores, incluyendo el grado de autonomía de la IA, el papel de las personas involucra- das en su creación, el contexto y la finalidad de su uso, y las condiciones de la licencia del código libre utilizado. Es importante garantizar que los derechos de propiedad intelectual e industrial se asignen de manera justa y equitativa a todas las partes involucradas y se promueva el desarrollo y uso responsable de la IA. Para ello, se necesitan nuevas políticas y regulaciones que sean capaces de adaptarse a los nuevos retos planteados por la IA y las tecnologías avanzadas.

Con relación a las deepfake news, son un problema cada vez más importante en el panorama de la información en línea. Como tecnología de manipulación de medios, las deepfake news pueden ser utilizadas para crear videos y audios falsos que parecen auténticos, y que pueden ser utilizados para engañar y manipular a los consumidores de información, tanto en ámbitos comerciales, pero sobre todo y aún más preocupante, en ámbitos políticos.

Desde el punto de vista de los derechos de propiedad intelectual, las deepfake news son un problema dado que a menudo implican el uso no autorizado de imágenes, videos, grabaciones de voz, o incluso de identidades de personas que son propiedad de terceros. En algunos casos, las deepfake news pueden violar derechos de autor, derechos de imagen, derechos de privacidad, e incluso derechos de marca registrada. Pero qué pasa con aquellos mecanismos que crean una imagen parecida, una voz parecida, que no son las de un persona, pero su parecido es tal que resulta difícil distinguirlo en la práctica, o lo que inclusive puede llegar a crear el denominado efecto “Mandela”.

Además, las deepfake news pueden tener un impacto económico, social y político significativo en los individuos y empresas afectadas, ya que pueden dañar su reputación y, en algunos casos, afectar su capacidad para realizar negocios, o de actuar en cada una de las dimensiones del ser humano.

Es importante que las autoridades competentes estén alerta a la amenaza que representan las deepfake news, y tomen medidas para combatir la propagación de la información falsa y la manipulación en línea. Esto puede implicar el desarrollo de nuevas herramientas tecnológicas para detectar deepfake news, la educación de los consumidores para que puedan identificar las noticias falsas, y la adopción de regulaciones y leyes que permitan a los afectados proteger sus derechos y tomar medidas legales contra aquellos que utilizan deepfake news para engañar y manipular. En resumen, es importante tomar en serio el problema de las deepfake news y abordarlo desde varias perspectivas.

Los sistemas automatizados, especialmente aquellos que utilizan inteligencia artificial, tienen el potencial de causar daño a las personas, ya sea de manera intencional o no intencional. Es- tos sistemas pueden ser utilizados en una variedad de contextos, desde la toma de decisiones en la atención médica hasta la selección de candidatos en procesos de contratación.

Por último, cuando un sistema automatizado causa daño a una persona, como un vehículo auto conducido o maquinaria industrial preprogramada, puede haber varias razones detrás de ello, incluyendo la falta de transparencia en el proceso de toma de decisiones, la falta de responsabilidad por parte del propietario o desarrollador del sistema, o el sesgo en los datos utilizados para entrenar el modelo de inteligencia artificial que se hubiere usado.

Es importante destacar que, aunque la inteligencia artificial puede ser muy poderosa y útil en muchos contextos, también tiene limitaciones y no debe ser vista como una solución perfecta para todos los problemas. Los sistemas automatizados deben ser diseñados y desarrollados con cuidado y responsabilidad, tomando en cuenta las preocupaciones éticas y legales.

Para abordar los daños producidos por sistemas automatizados, es importante que se establezcan marcos regulatorios y de responsabilidad que permitan a las personas afectadas tomar medidas legales contra los propietarios o desarrolladores de los sistemas. Además, es importante que los sistemas sean transparentes y auditables, y que se realicen pruebas de impacto y evaluaciones para identificar cualquier posible sesgo en los datos o en el algoritmo utilizado.

En general, es importante que se promueva un enfoque equilibrado y responsable en el uso de sistemas automatizados y de inteligencia artificial, que tenga en cuenta tanto los beneficios como los riesgos potenciales. Esto implica no solo la adopción de políticas y regulaciones adecuadas, sino también la promoción de una cultura de ética y responsabilidad en el desarrollo y uso de la inteligencia artificial.

Ante estos y otros problemas es hora que nos preguntemos si necesitamos una política sobre la implementación de tecnologías avanzadas que oriente las regulaciones que se emitan al respecto y retomar la discusión de la existencia de una autoridad digital que la lidere.

Giovanna Vega Hércules

CONSULTORA

This article is from: