4 minute read

Pedro Saleiro

Pedro Saleiro

Gestor de Ciência de Dados na Feedzai, Lisboa Data Science Manager at Feedzai, Lisbon

Advertisement

Aminha intervenção inicial é baseada num livro que recomendo a todos, chamado

Possible Minds, publicado em 2019, e que é uma reflexão sobre um outro livro de 1950 chamado The Human Use of Human Beings, de Norbert Wiener. Wiener prevê neste livro de 1950 o desenvolvimento da inteligência artificial, estamos a falar de há 70 anos atrás, e que esta, não só iria imitar os humanos e substituí-los em várias atividades inteligentes, mas também os iria mudar nesse mesmo processo. Wiener receava que os humanos numa estrutura organizacional pudessem abusar dessa capacidade tecnológica para subjugar outros humanos, ou que líderes políticos tentassem controlar as suas populações através desta capacidade, mas de uma forma subtil. Volvidos 70 anos estamos numa situação bem mais complexa do que Wiener antecipou sobretudo em dois aspetos concretos.

1. Em primeiro lugar, Wiener não previu a vulnerabilidade dos nossos sistemas computacionais. Tinha um background muito físico e não antecipou que os sistemas digitais fossem tornar-se muito semelhantes aos sistemas biológicos e que, tal como os sistemas biológicos, fossem vulneráveis a ataques de entidades minúsculas intrusas como os vírus. Na realidade, hoje em dia dependemos de computação para praticamente tudo. As infraestruturas de eletricidade, gás, estradas, automóveis, comboios, aviões, são vulneráveis a ataques digitais, tal como a banca, o sistema financeiro, as nossas poupanças, as nossas hipotecas. O mesmo se passa com o nosso entretenimento, comunicação, a nossa segurança física, o nosso consumo de informação sobre o mundo que nos rodeia, os próprios sistemas de voto, todos eles igualmente vulneráveis. E isto não é passível de ser melhorado num futuro próximo e, portanto, vários aspetos da nossa sociedade estão suscetíveis a ataques malignos tanto por criminosos, como nações, ou Estados adversários.

2. O segundo aspeto que Wiener não previu foi que a computação hoje em dia não se limita a funções, não há um conjunto de instruções, o programa executa e depois fornece um resultado. Não. A computação hoje em dia tem um estado online perpétuo alimentado pela nossa pegada digital. Portanto, a máquina é capaz de fazer inferências sobre um humano através das várias interações que este tem. Quantas mais interações, mais informações a máquina tem sobre os seus utilizadores.

Este paradigma é ainda mais exacerbado quando em vez de um programa temos um ecossistema de várias aplicações a partilhar estes sinais entre si. Hoje em dia coisas como inferir o género ou a idade de uma pessoa é trivial. Inferir a personalidade, ou até mesmo os nossos anseios mais secretos, os nossos medos, é igualmente trivial. Smartphones são verdadeiros cavalos de tróia que capturam a nossa privacidade sem darmos por isso. Esta capacidade das empresas tecnológicas em comoditizar os metadados recolhidos da nossa interação digital com fins lucrativos para fins publicitários foi apelidada por Shoshana Zuboff de surveillance capitalism. A inteligência artificial e tecnologias como o deep learning estão a ser desenvolvidas com o objetivo de alimentar esta dependência de ferramentas digitais. Wiener observou que nós, humanos, perante oportunidades atrativas, estamos dispostos a pagar um pequeno custo perante a possibilidade de aceder a novos poderes e, rapidamente, ficamos tão dependentes das nossas novas ferramentas que perdemos a habilidade de prosperar sem elas, as opções tornam-se obrigatórias. Pensem nas nossas roupas, comida cozinhada, vitaminas, vacinação, cartões de crédito, smartphones, internet e já, hoje em dia, a própria inteligência artificial. Portanto, o paradigma consiste em criar uma dependência humana em ferramentas digitais para manter este fluxo de dados gerado pela nossa utilização e alargar ainda mais esse fluxo a todos os aspetos da nossa vida.

3. Weiner também não previu a complexidade das plataformas atuais nem o emaranhado legal associado aos sistemas de uso e consentimento. Hoje em dia vivemos uma relação binária com essas plataformas e esses serviços, ou consentimos a extração dessa informação sobre nós próprios, sobre a nossa utilização, ou então não temos acesso a esses serviços. Somos capazes de aceitar contratos de utilização de serviços que se fossem oferecidos por outro meio, cara a cara, rejeitaríamos sem pensar duas vezes. As grandes empresas tecnológicas têm-se alicerçado numa relação de poder cada vez mais desigual, estamos a ser comoditizados por empresas que paradoxalmente desenvolvem serviços que queremos ter e precisamos e, ao mesmo tempo, a nossa vida depende de sistemas computacionais que são vulneráveis a ataques externos. Weiner afirmou que, a longo prazo, não há distinção entre criarmos armas para nós, ou armas para os nossos inimigos. E hoje em dia, a Idade da Informação é também a Idade da Desinformação.

Mais recentemente a crise pandémica veio acelerar a adoção de tecnologias de vigilância por parte de vários Estados que abrem o seu uso para potenciar os fins totalitários do futuro. A primeira coisa que necessitamos para sair deste imbróglio é liderança moral. A União Europeia, de momento, não é capaz de competir na inovação em inteligência artificial com os Estados Unidos ou com a China, mas tem vindo a ser pioneira a definir boas práticas e a criar nova regulação para o uso responsável dos dados, bem como da inteligência artificial. São iniciativas importantes, mas muitas vezes pecam por serem vagas e tecnocráticas. É fundamental que esta Comissão, em particular a comissária Vestager, consiga passar das palavras aos atos, e se foque na operacionalização concreta do modelo de governance para a inteligência artificial.

A primeira coisa que necessitamos para sair deste imbróglio é liderança moral.

This article is from: