![](https://assets.isu.pub/document-structure/230526220454-4b9b2114dc6eb5af1d3dca56c6a4eaa5/v1/7f5e9894f43ac7b421fa4221686e2c77.jpeg?crop=573%2C430%2Cx54%2Cy0&originalHeight=430&originalWidth=681&zoom=1&width=720&quality=85%2C50)
8 minute read
Por que precisamos nos preocupar com a IA responsável na era do algoritmo
from Pará+ 254
A inteligência artificial (IA) é uma das tendências tecnológicas mais discutidas do mundo e está prevista para aumentar o PIB global em US$ 15,7 trilhões até 2030. Mas os benefícios transformadores da tecnologia nascente são acompanhados de riscos e precisamos nos comprometer com os princípios da IA responsável. Em breve, as empresas precisarão cumprir os regulamentos globais de IA e adotar uma abordagem responsável para permanecerem competitivas e evitar responsabilidades
![](https://assets.isu.pub/document-structure/230526220454-4b9b2114dc6eb5af1d3dca56c6a4eaa5/v1/7c3b7254c253c47ca5ca9a4f3f0b79e8.jpeg?width=720&quality=85%2C50)
AInteligência Artificial (IA) é uma das tendências tecnológicas mais discutidas que permitem o crescimento dos negócios atualmente. Até 2030, estima-se que a IA aumente o PIB global em US$ 15,7 trilhões – mais do que a produção atual da China e da Índia juntas.
![](https://assets.isu.pub/document-structure/230526220454-4b9b2114dc6eb5af1d3dca56c6a4eaa5/v1/7f5e9894f43ac7b421fa4221686e2c77.jpeg?width=720&quality=85%2C50)
Mas com grandes poderes vêm grandes responsabilidades. À medida que os benefícios transformadores da IA se tornam aparentes, os riscos também. Algoritmos podem introduzir vieses , erros evitáveis e má tomada de decisão, causando desconfiança entre as pessoas que pretendem atender. Preocupados com o ritmo sem precedentes do desenvolvimento da IA, muitas organizações começaram a se comprometer com os princípios da IA responsável.
A IA responsável é uma área emergente de governança de IA que abrange ética, moral e valores legais no desenvolvimento e implantação de IA benéfica. Como uma estrutura de governança, a IA responsável documenta como uma organização específica aborda os desafios em torno da IA a serviço do bem dos indivíduos e da sociedade. Nos últimos anos, todas as organizações ligadas à política de tecnologia propuseram um conjunto de princípios orientadores sobre seu uso, incluindo Google , IBM e a Organização para Cooperação e Desenvolvimento Econômico.
Preocupações crescentes sobre os riscos da IA
![](https://assets.isu.pub/document-structure/230526220454-4b9b2114dc6eb5af1d3dca56c6a4eaa5/v1/d2ecd34aa156d030f684d33b6a51eb87.jpeg?width=720&quality=85%2C50)
No entanto, o crescente interesse pela IA tem sido acompanhado de preocupações, dado o surgimento de consequências não intencionais, com riscos que afetam tanto os aspectos técnicos do sistema quanto as práticas de governança.
![](https://assets.isu.pub/document-structure/230526220454-4b9b2114dc6eb5af1d3dca56c6a4eaa5/v1/35db2f183a083b9d10d8596df11e14b2.jpeg?width=720&quality=85%2C50)
Estudo após estudo mostrou que a tomada de decisões orientada por IA pode potencialmente levar a resultados tendenciosos, desde perfis raciais em algoritmos de policiamento preditivo até decisões de contratação sexistas . Como tal, nos últimos anos, os governos em todo o mundo apertaram os regulamentos para direcionar a IA, aumentando a adoção de iniciativas de IA responsáveis, éticas ou confiáveis.
A IA responsável é uma área emergente de governança de IA que abrange ética, moral e valores legais no desenvolvimento e implantação de IA benéfica
Muitos veem o apelo de tornar a IA mais responsável, mas poucos estão acertando No nível europeu, a Comissão da UE estabeleceu um Grupo de Especialistas de Alto Nível em Inteligência Artificial, encarregado de desenvolver uma estrutura integradora para uma IA responsável e confiável e também propôs a Diretiva de Responsabilidade da IA .
![](https://assets.isu.pub/document-structure/230526220454-4b9b2114dc6eb5af1d3dca56c6a4eaa5/v1/00b68f48ada0604a7dfad863ef716d80.jpeg?width=720&quality=85%2C50)
A diretiva visa tornar mais fácil processar empresas por causar danos como parte de um esforço mais amplo para impedir que as empresas desenvolvam e implantem IA prejudicial e adiciona uma camada extra à proposta de Lei de IA da UE, que exigirá verificações extras para “ alto usos de risco” de IA, como no uso de policiamento, recrutamento ou assistência médica. No entanto, a Europa não está sozinha em seus esforços; o Escritório de Política Científica e Tecnológica da Casa Branca publicou recentemente um Projeto para uma Declaração de Direitos de IA , que descreve a visão do governo dos EUA para a governança de IA para evitar danos, e a China propôs um conjunto de leis para regular diferentes aplicações de IA. À medida que esses regimes regulatórios entram em vigor, as empresas precisarão alterar a forma como operam em escala global.
![](https://assets.isu.pub/document-structure/230526220454-4b9b2114dc6eb5af1d3dca56c6a4eaa5/v1/a7f186428bba9a07a057dd1b60c80b81.jpeg?width=720&quality=85%2C50)
IA responsável atrasada em relação aos avanços
O ritmo acelerado do desenvolvimento da IA não parece estar diminuindo. Os avanços vêm rápido - superando rapidamente a velocidade da regulamentação.
Somente no ano passado, vimos uma série de desenvolvimentos, desde modelos de aprendizado profundo que geram imagens a partir de texto até grandes modelos de linguagem capazes de responder a qualquer pergunta que você possa imaginar.
Embora o progresso seja impressionante, acompanhar os danos potenciais de cada novo avanço pode representar um desafio implacável.
O problema é que muitas empresas não conseguem nem perceber que têm um problema para começar, de acordo com um relatório divulgado pelo MIT Sloan Management Review e pelo Boston Consulting Group.
A IA foi uma prioridade estratégica para 42% dos entrevistados do relatório, mas apenas 19% disseram que sua organização implementou um programa de IA responsável. Essa lacuna aumenta a possibilidade de insucesso e expõe as empresas a riscos regulatórios, financeiros e reputacionais.
A IA responsável é mais do que um exercício de caixa de seleção ou o desenvolvimento de um recurso complementar. As organizações precisarão fazer mudanças estruturais substanciais em antecipação à implementação da IA para garantir que seus sistemas automatizados operem dentro dos limites legais, internos e éticos.
Ao avaliar um sistema, é importante considerar os cinco fatores a seguir:
*Eficácia: se um sistema faz o que se destina e funciona conforme o esperado.
*Robustez ou confiabilidade: a ideia de que os sistemas devem ser confiáveis, seguros e protegidos, não vulneráveis a adulteração ou comprometimento dos dados nos quais são treinados.
*Viés: os sistemas devem evitar o tratamento injusto de indivíduos ou grupos.
*Explicabilidade: os sistemas devem fornecer decisões ou sugestões que possam ser compreendidas por seus usuários, desenvolvedores e reguladores.
*Privacidade: os sistemas devem ser treinados seguindo os princípios de minimização de dados, bem como adotar técnicas de aprimoramento da privacidade para mitigar o vazamento de dados pessoais ou críticos.
![](https://assets.isu.pub/document-structure/230526220454-4b9b2114dc6eb5af1d3dca56c6a4eaa5/v1/ad93e8e3a7d7d9dab904557991f6d9c1.jpeg?width=720&quality=85%2C50)
Clientes, funcionários e acionistas esperam que as organizações usem a IA de forma responsável, e os governos estão exigindo isso. Isso é crítico agora, pois cada vez mais pessoas compartilham preocupações sobre a reputação da marca e o uso de IA.
Cada vez mais vemos empresas fazendo da responsabilidade social e ética uma prioridade estratégica chave. O maior desafio é como maximizar responsavelmente seu lado positivo, ao mesmo tempo em que se protege contra os perigos.
![](https://assets.isu.pub/document-structure/230526220454-4b9b2114dc6eb5af1d3dca56c6a4eaa5/v1/b2a6b3c36bc6a2d28a7a8e35fe0b918f.jpeg?width=720&quality=85%2C50)
Auditoria para garantir uma IA responsável
Garantir que consequências prejudiciais ou não intencionais sejam minimizadas ou não ocorram durante a vida útil dos projetos de IA requer uma compreensão abrangente do papel dos princípios responsáveis durante o design, implementação e manutenção de aplicativos de IA. A auditoria de IA é a pesquisa e a prática de avaliar, mitigar e garantir a segurança, legalidade e ética de um algoritmo. O objetivo da auditoria de IA é avaliar um sistema mapeando seus riscos tanto em sua funcionalidade técnica quanto em sua estrutura de governança e recomendando medidas que podem ser tomadas para mitigar esses riscos.
(*) Associado de Políticas Públicas e Governança , Holistic AI em Fórum Econômico Mundial <<
![](https://assets.isu.pub/document-structure/230526220454-4b9b2114dc6eb5af1d3dca56c6a4eaa5/v1/489b5bdf1ac3787b23cba280d4dca428.jpeg?width=720&quality=85%2C50)
![](https://assets.isu.pub/document-structure/230526220454-4b9b2114dc6eb5af1d3dca56c6a4eaa5/v1/d085596af6f2aec6a68c426bb66bdd05.jpeg?width=720&quality=85%2C50)
Uso da IA para modelar eventos climáticos extremos
Um grande número de variáveis deve ser incluído e a IA está bem posicionada para modelar essa complexidade devido à sua capacidade de coletar, completar e analisar grandes conjuntos de dados. Ele pode ser aproveitado para sistemas de alerta precoce e modelagem preditiva de longo prazo de eventos climáticos locais, capacitando as partes interessadas a adotar uma abordagem mais baseada em dados para a adaptação climática. A Destination Earth, liderada pela Agência Espacial Europeia, por exemplo, visa criar um modelo da Terra baseado em IA para monitorar e prever a interação entre fenômenos climáticos, como secas e atividades humanas.
Uma vez em vigor, os tomadores de decisão em todo o mundo teriam maior acesso aos insights climáticos para informar seus esforços de adaptação. Aproveitar a IA para previsão e prevenção de incêndios florestais é outro bom exemplo. Ele permite o mapeamento interativo de áreas de alto risco e pode rastrear o desenvolvimento de incêndios quase em tempo real por meio de algoritmos de propagação de incêndios, informando a alocação ideal de recursos e estratégias de longo prazo para o manejo florestal sustentável. Como o custo global médio anual dos incêndios florestais é de cerca de US$ 50 bilhões, isso deve ser bem-vindo, pois a IA pode tornar o combate a incêndios florestais mais eficiente e econômico. Para apoiar isso, o Fórum Econômico Mundial iniciou o FireAId, que está trabalhando para construir modelos reais de IA e testá-los em países como a Turquia. Esses desenvolvimentos recentes na alavancagem da IA para a adaptação climática têm o potencial de tornar os insights climáticos mais acessíveis para todas as partes interessadas.