8 minute read
Por que precisamos nos preocupar com a IA responsável na era do algoritmo
from Pará+ 254
A inteligência artificial (IA) é uma das tendências tecnológicas mais discutidas do mundo e está prevista para aumentar o PIB global em US$ 15,7 trilhões até 2030. Mas os benefícios transformadores da tecnologia nascente são acompanhados de riscos e precisamos nos comprometer com os princípios da IA responsável. Em breve, as empresas precisarão cumprir os regulamentos globais de IA e adotar uma abordagem responsável para permanecerem competitivas e evitar responsabilidades
AInteligência Artificial (IA) é uma das tendências tecnológicas mais discutidas que permitem o crescimento dos negócios atualmente. Até 2030, estima-se que a IA aumente o PIB global em US$ 15,7 trilhões – mais do que a produção atual da China e da Índia juntas.
Mas com grandes poderes vêm grandes responsabilidades. À medida que os benefícios transformadores da IA se tornam aparentes, os riscos também. Algoritmos podem introduzir vieses , erros evitáveis e má tomada de decisão, causando desconfiança entre as pessoas que pretendem atender. Preocupados com o ritmo sem precedentes do desenvolvimento da IA, muitas organizações começaram a se comprometer com os princípios da IA responsável.
A IA responsável é uma área emergente de governança de IA que abrange ética, moral e valores legais no desenvolvimento e implantação de IA benéfica. Como uma estrutura de governança, a IA responsável documenta como uma organização específica aborda os desafios em torno da IA a serviço do bem dos indivíduos e da sociedade. Nos últimos anos, todas as organizações ligadas à política de tecnologia propuseram um conjunto de princípios orientadores sobre seu uso, incluindo Google , IBM e a Organização para Cooperação e Desenvolvimento Econômico.
Preocupações crescentes sobre os riscos da IA
No entanto, o crescente interesse pela IA tem sido acompanhado de preocupações, dado o surgimento de consequências não intencionais, com riscos que afetam tanto os aspectos técnicos do sistema quanto as práticas de governança.
Estudo após estudo mostrou que a tomada de decisões orientada por IA pode potencialmente levar a resultados tendenciosos, desde perfis raciais em algoritmos de policiamento preditivo até decisões de contratação sexistas . Como tal, nos últimos anos, os governos em todo o mundo apertaram os regulamentos para direcionar a IA, aumentando a adoção de iniciativas de IA responsáveis, éticas ou confiáveis.
A IA responsável é uma área emergente de governança de IA que abrange ética, moral e valores legais no desenvolvimento e implantação de IA benéfica
Muitos veem o apelo de tornar a IA mais responsável, mas poucos estão acertando No nível europeu, a Comissão da UE estabeleceu um Grupo de Especialistas de Alto Nível em Inteligência Artificial, encarregado de desenvolver uma estrutura integradora para uma IA responsável e confiável e também propôs a Diretiva de Responsabilidade da IA .
A diretiva visa tornar mais fácil processar empresas por causar danos como parte de um esforço mais amplo para impedir que as empresas desenvolvam e implantem IA prejudicial e adiciona uma camada extra à proposta de Lei de IA da UE, que exigirá verificações extras para “ alto usos de risco” de IA, como no uso de policiamento, recrutamento ou assistência médica. No entanto, a Europa não está sozinha em seus esforços; o Escritório de Política Científica e Tecnológica da Casa Branca publicou recentemente um Projeto para uma Declaração de Direitos de IA , que descreve a visão do governo dos EUA para a governança de IA para evitar danos, e a China propôs um conjunto de leis para regular diferentes aplicações de IA. À medida que esses regimes regulatórios entram em vigor, as empresas precisarão alterar a forma como operam em escala global.
IA responsável atrasada em relação aos avanços
O ritmo acelerado do desenvolvimento da IA não parece estar diminuindo. Os avanços vêm rápido - superando rapidamente a velocidade da regulamentação.
Somente no ano passado, vimos uma série de desenvolvimentos, desde modelos de aprendizado profundo que geram imagens a partir de texto até grandes modelos de linguagem capazes de responder a qualquer pergunta que você possa imaginar.
Embora o progresso seja impressionante, acompanhar os danos potenciais de cada novo avanço pode representar um desafio implacável.
O problema é que muitas empresas não conseguem nem perceber que têm um problema para começar, de acordo com um relatório divulgado pelo MIT Sloan Management Review e pelo Boston Consulting Group.
A IA foi uma prioridade estratégica para 42% dos entrevistados do relatório, mas apenas 19% disseram que sua organização implementou um programa de IA responsável. Essa lacuna aumenta a possibilidade de insucesso e expõe as empresas a riscos regulatórios, financeiros e reputacionais.
A IA responsável é mais do que um exercício de caixa de seleção ou o desenvolvimento de um recurso complementar. As organizações precisarão fazer mudanças estruturais substanciais em antecipação à implementação da IA para garantir que seus sistemas automatizados operem dentro dos limites legais, internos e éticos.
Ao avaliar um sistema, é importante considerar os cinco fatores a seguir:
*Eficácia: se um sistema faz o que se destina e funciona conforme o esperado.
*Robustez ou confiabilidade: a ideia de que os sistemas devem ser confiáveis, seguros e protegidos, não vulneráveis a adulteração ou comprometimento dos dados nos quais são treinados.
*Viés: os sistemas devem evitar o tratamento injusto de indivíduos ou grupos.
*Explicabilidade: os sistemas devem fornecer decisões ou sugestões que possam ser compreendidas por seus usuários, desenvolvedores e reguladores.
*Privacidade: os sistemas devem ser treinados seguindo os princípios de minimização de dados, bem como adotar técnicas de aprimoramento da privacidade para mitigar o vazamento de dados pessoais ou críticos.
Clientes, funcionários e acionistas esperam que as organizações usem a IA de forma responsável, e os governos estão exigindo isso. Isso é crítico agora, pois cada vez mais pessoas compartilham preocupações sobre a reputação da marca e o uso de IA.
Cada vez mais vemos empresas fazendo da responsabilidade social e ética uma prioridade estratégica chave. O maior desafio é como maximizar responsavelmente seu lado positivo, ao mesmo tempo em que se protege contra os perigos.
Auditoria para garantir uma IA responsável
Garantir que consequências prejudiciais ou não intencionais sejam minimizadas ou não ocorram durante a vida útil dos projetos de IA requer uma compreensão abrangente do papel dos princípios responsáveis durante o design, implementação e manutenção de aplicativos de IA. A auditoria de IA é a pesquisa e a prática de avaliar, mitigar e garantir a segurança, legalidade e ética de um algoritmo. O objetivo da auditoria de IA é avaliar um sistema mapeando seus riscos tanto em sua funcionalidade técnica quanto em sua estrutura de governança e recomendando medidas que podem ser tomadas para mitigar esses riscos.
(*) Associado de Políticas Públicas e Governança , Holistic AI em Fórum Econômico Mundial <<
Uso da IA para modelar eventos climáticos extremos
Um grande número de variáveis deve ser incluído e a IA está bem posicionada para modelar essa complexidade devido à sua capacidade de coletar, completar e analisar grandes conjuntos de dados. Ele pode ser aproveitado para sistemas de alerta precoce e modelagem preditiva de longo prazo de eventos climáticos locais, capacitando as partes interessadas a adotar uma abordagem mais baseada em dados para a adaptação climática. A Destination Earth, liderada pela Agência Espacial Europeia, por exemplo, visa criar um modelo da Terra baseado em IA para monitorar e prever a interação entre fenômenos climáticos, como secas e atividades humanas.
Uma vez em vigor, os tomadores de decisão em todo o mundo teriam maior acesso aos insights climáticos para informar seus esforços de adaptação. Aproveitar a IA para previsão e prevenção de incêndios florestais é outro bom exemplo. Ele permite o mapeamento interativo de áreas de alto risco e pode rastrear o desenvolvimento de incêndios quase em tempo real por meio de algoritmos de propagação de incêndios, informando a alocação ideal de recursos e estratégias de longo prazo para o manejo florestal sustentável. Como o custo global médio anual dos incêndios florestais é de cerca de US$ 50 bilhões, isso deve ser bem-vindo, pois a IA pode tornar o combate a incêndios florestais mais eficiente e econômico. Para apoiar isso, o Fórum Econômico Mundial iniciou o FireAId, que está trabalhando para construir modelos reais de IA e testá-los em países como a Turquia. Esses desenvolvimentos recentes na alavancagem da IA para a adaptação climática têm o potencial de tornar os insights climáticos mais acessíveis para todas as partes interessadas.