8 minute read

Inteligência Artificial vs Privacidade

"Só mais tarde, na vida, é que algumas pessoas vão perceber quão importante teria sido proteger a sua privacidade".

O alerta e de Tim O'Brien, um veterano da Microsoft que hoje se dedicaaetica.

Advertisement

Se perguntarmos a uma pessoa qualquer, escolhida de forma aleatoria,elairadizerque“sim,claro,a privacidadeealgomuitoimportante”, mas depois “o seu comportamento e completamente o oposto”, comentaTim O’Brien, um veterano da Microsoft que hoje se dedica, sobretudo, a pesquisa sobre questoes relacionadas com a etica na inovaçao tecnologica, sobretudo na InteligenciaArtificial(IA).

Na opiniao de Tim O’Brien, um dos keynote speakers do evento “Building the future”, organizado em Lisboa pela Microsoft no final de janeiro (de 2022), “a maioria das pessoas, na pratica, mostra-se rapidamente disponível para secundarizar as questoes relacionadas com a privacidade, a troco de pertencer a um grupo ou receber uma app gratuita ou outro tipo de

vação tecnológica. É assim?

Sim, o meu trabalho envolve alguma advocacia, falar com clientes, comparceiros,adarpalestras.Mas tambem faço muita pesquisa sobre etica intercultural. Porque a etica e um conjunto de normas culturais e sociais sobre o que e correto fazer numadadasituaçao eissonaoe universal, varia entre culturas e entrepaíses.Esteeumcampoonde ha pouca pesquisa, no campo mais alargado da etica na inteligencia artificial.

O debate sobre a ética na tecnologia, no geral, tem de acelerar?

Esse debate nao e novo. Se recuarmos100anos,ateaPrimeiraGrande Guerra, falou-se de etica a proposito do uso de avioes para fazer bombardeamentos, a proposito do uso de gases venenosos. Isto nao e uma discussao nova, mas nas tecnologias de que falamos hoje o potencialqueexisteparafazermalas pessoas e algo sem precedentes. O acesso a essas tecnologias e mais distribuídoeavelocidadedainovaçaoemais rapida doqueacontecia comastecnologiasqueexistiamno

Sim,queeumtemaquejaeestudado hamaisde 50anos. Mas foi nos ultimos10anosqueseviramavanços em areas como a Inteligencia Artificialconversacional, traduçao por maquinas, modelos analíticos, portanto a velocidade e um aspeto importante a ter em conta porque na tecnologia as leis e a regulaçao tendemamarcarpasso,emrelaçao a velocidade da inovaçao. Vimos, por exemplo, quanto tempo levou ate se criarum regimedeproteçao dedadoscomooRGPD,naEuropa. Neste caso, estamos a falar de tecnologias que tem potencial para violar direitos humanos, quebrar leis eosgovernostemumpapel importante a desempenhar nesta materia.

A velocidade e um aspeto importanteporquenatecnologiaasleise aregulaçaotendemamarcarpasso, emrelaçaoainovaçao.

Mas o Tim fala sobre a diversidade cultural e sobre como o que é certo e errado varia conforme as partes do mundo. É possível criar regras uniformes e universais?

Quando se fala em etica, normalmente divide-se entre etica da cultura Ocidental e Oriental, onde a cultura ocidental e baseada na herançajudaico-cristaeaculturaorientaltendeanaovalorizarmuitoo individualismo. Como empresa norte-americana, tentamos nao imporosnossosvaloreslocaisnanossa base de clientes, que e global. Temos baseado a nossa política no cumprimento da lei de cada geografia,masquandosefaladainovaçao tecnologica responsavel a lei nao e suficiente.No quediz respeito a privacidade, por exemplo, ate mesmo dentro da UE ha sensibilidades diferentes sobre aquilo que significa privacidade nos dados. A AlemanhapensaumacoisaeoReino Unido pensa outra, muito diferente,sobrecoisascomoasegurança publica vs privacidade. Um dia teremosdeterumconjuntodenormas globais ate porque temos algumas empresas, incluindo empresaschinesas,quenaoescondem ter ambiçoes globais. Na Microsoft temos um compromisso muito claro com a autorregulaçao e insistimos sempre com o nosso governo paraquecrieregulaçao.

As outras, como as chinesas, não fazem isso? Quem pode regular isto, a Organização das Nações Unidas?

Talvez. Porque nao as Naçoes Unidas? Nos recorremos frequentemente, como referencial, ao que defendem organizaçoes como as Naçoes Unidas, a Human Rights Watch, a Freedom Watch. Muitas vezes usamos esses organismos como referencia para decidir, por exemplo, se vendemos esta ou aquela tecnologia a certos governos… Mas a minha questao e que a tecnologia esta a evoluir tao rapidamentequenemasNaçoesUnidas poderaotercapacidadeparaacompanhar, quando sabemos que nem os nossos governantesestao a con- seguiracompanhar,atravesdacriaçaodeleis.

É como dizia Elon Musk? Que é preciso regular a Inteligência Artificial antes de haver “robôs a descer as ruas a alvejar pessoas”? O que é que os governos têm de fazer?

Numa questao como o reconhecimentofacial,porexemplo,acredito que tem de haver regulaçao para o uso dessa tecnologia por parte das autoridades policiais. Essa e uma tecnologiamuitopoderosa,comum potencial muito grande para violar os direitos das pessoas, e as proprias empresas tecnologicas tambem tem de se autorregular nessa materia.

As pessoas têm noção das possíveis implicações de uma vigilância com reconhecimento facial? Muita gente dirá, provavelmente, que não se importa que isso aconteça, a troco de um maior sentimento de segurança. O que esta em causa e termos o nosso rosto reconhecido e, depois, haverumcomputadoraidentificarnos com alguma margem de erro. Estamos a falar de se usarem tecnologias que se comprovou recentemente, por exemplo, terem dificuldades em reconhecer rostos compelemaisescura,comoosafro -americanos. Estas tecnologias podemagravarosriscosdemarginalizaçao e discriminaçao. Alem disso, de um modo geral, ha questoes muito importantes relacionadas com a privacidade. Ha um caso muitofamosodeumpaiquesoube que a filha estava gravida porque uma loja detectou um padrao de compras e começou a enviar-lhe publicidade específica para casa, a venderprodutosdebebe.Amulher ainda nao tinha contado a família, mas o pai ficou a saber por causa dessesenviosdepublicidade.Aloja naodesrespeitounenhumalei,mas nao viulimitesnasuautilizaçaode tecnologia para obter negocio, nao quis saber da privacidade da pessoa.

As pessoas compreendem como as empresas usam estas tecnologias?

Julgo que na Europa as pessoas estao um pouco mais sensibilizadas para estas questoes. Sao mais curiosasequerempercebercomoeque as empresas usam os dados. Basta ver que nos EUA nao ha qualquer regime comparavel ao RGPD. Nao ha regras de privacidade como as que existem na Europa. Se perguntarmos a uma pessoa qualquer, de forma aleatoria, ela ira dizer-nos que “sim,a privacidade ealgomuito importante” para elas, mas depois o seu comportamento e completamente o oposto. As pessoas preocupam-se menos com a privacidade do que aquilo que dizem, o que se pode explicar por pressoes sociaiscomoapressaodospares sobretudo nos jovens, cria-se uma percepçao de que se nao estas nas redes sociais e porque nao existes. Muitas vezes so mais tarde na vida e que algumas destas pessoas vao perceber quao importante teria sido proteger a sua privacidade. A realidade e que a maioria das pessoas, na pratica, mostra-se rapidamente disponível para secundarizar as questoesrelacionadascoma privacidade, a troco de pertencer a um grupo oureceberuma appgra- tuitaououtrotipodebenefício. Mas é impossível escapar a isso, a ter os nossos dados a serem trabalhados por sistemas de IA?

Sim, muitas pessoas pensam que isto da Inteligencia Artificial e algo que pertence ao futuro, que esta relacionado com os robos. Mas se ve filmes no Netflix, esta a usar algoritmosdeIA.SereceberecomendaçoesdaAmazon,estaausaraIA. Se faz pesquisas na internet, tambemestaausaraIA.QualquerpessoaqueusaaInternetesta,mesmo que nao se aperceba, a alimentar bases de dados utilizadas por empresas que usam essa informaçao para melhorar o funcionamento dosalgoritmosdeIA. A Microsoft também?

Claro, somos muito transparentes emrelaçaoaisso.Estamosnonegocio dos motores de busca. E queremos que as pessoas usem o nosso motordepesquisaporqueissoajuda a torna-lo melhor. Queremos que usem os nossos sistemas de traduçao porque tambem ajuda a que eles melhorem. Felizmente paranos,apublicidadeonlinenaoea principal area de negocio, como acontece com outras empresas temos um conjunto alargado de fontes de negocio e, portanto, a nossa motivaçaoe melhorar nestas tecnologiaspara,porexemplo,venderserviçoscognitivosaempresas, paraasajudaratornarassuasoperaçoesmaiseficientes,osseuscolaboradores mais produtivos ou as suas instalaçoes mais seguras, por exemplo.

Recentemente escrevemos, no Observador, sobre um relatório que apontava os riscos de a IA cair nas “mãos erradas”. Um dos riscos estava relacionado com a facilidade com que se conseguem difundir vídeos falsos, os chamados deepfakes. Na era das fake news, como é que se consegue controlar isto?

Nem eprecisoir tao longe, aopontodefalardos deepfakes.Vejacomo se espalhou aquela informaçao falsasobreoapoiodoPapaFrancisco a candidatura presidencial de Donald Trump. Era facil perceber que era uma historia falsa, mas espalhou-seportodoolado,aumavelocidade impressionante. Mesmo uma coisa tao obviamente falsa causou um problema grave de desinformaçao portantocomosera quando tivermos coisas mais difíceis de desmentir? Temo que a crençavaisempreviajarmaisrapidamente do que o esforço para a desmentir portanto estou convencidodequeaunicasoluçaoeas pessoasseremumpoucomaisinteligentes, serem mais criteriosas na propagaçao de informaçao, nao se limitarem a gravitar em direçao a conteudos que confirmam os seus preconceitos.

Mas como é que se faz isso? Como é que se promove essa maior sensibilidade por parte das pessoas?

Eu penso que nesta fase, depois deste ultimo ciclo eleitoral, as pessoas ja estao um poucomais sensibilizadasparaestesriscos.Opublico,emgeral,compreendeagoraum pouco melhor como a desinformaçaopodeterimpactonavidademocratica e nas eleiçoes. Tenho esperança de que, porque existe essa maior sensibilizaçao, no futuro poderaserdiferente.

Acha que as pessoas vão saber detectar melhor as informações falsas?

Sim,masatesegeraroutroproblema, nesta era das fakenews. Outro perigo e quando estamos perante algoque,defacto,ereal,aconteceu mesmo mas alguem pode dizer que e falso. Isto e um conceito novo, que nao existia hauns anos. Alguem escreve um artigo sobre si, sobre ter aceitado um suborno ou algoassim,ehaumvídeoquemostra o seu rosto, enquanto recebe umsuborno. Hoje podedizer: “Isso eum deepfake“.Ousuponhaqueha um registo sonoro, de alguem a aceitar um suborno: tambem se podedizerqueoaudioecompletamentefalso,queefeitocomastecnologias que hoje existem e sao muitofaceisdeutilizar.

Quando se fala de ética, pensa-se, também, em questões como aquelas que dominam o debate sobre os veículos autónomos. As questões como o “problema do trolley” — ter a máquina a decidir virar para um lado e matar um conjunto de pessoas ou virar para o outro e matar uma criança, por exemplo. Também é uma área onde faz pesquisa?

Eu tenho alguns problemas com essas teorias porque, na realidade, qual e a probabilidade de alguem ter de tomar decisoes como essas, navidareal?

Contudo, sao questoes importantes em areas como a pesquisa sobre veículos autonomos. Nao e uma area onde a Microsoft esteja pre- sente, mas ha questoes eticas e de responsabilidade civil complexas alias, mesmo quando se fala de um carro que nao e totalmente autonomo ha questoes legais complexas,porqueseumcondutoratropela alguem quandoo carroia em pilotoautomatico,mascompossibilidadedeintervir,seocondutornao intervier sera responsabilizado. Portanto,eunaoseiexatamenteem quepontoequeestamosnestaevoluçao, dos carros autonomos so seiqueharazoesobviasporqueos testes sao feitos em locais como o Arizona,ondeoclimaeameno,nao ha muita chuva nem neve (com os quais os sistemas tem muitas dificuldadesemlidar),naohacolinase o sistema de estradas e todo em angulos de 90º. Testar um carro destes em Lisboa seria bem mais complicado…

Depreendo que seja, de certo modo, um pessimista sobre esta tecnologia dos carros autónomos… É da opinião de que muitas pessoas estão a exceder-se um pouco no seu otimismo, em comparação com aquilo que é realista a médio prazo?

Digamos que tenho tendencia para acharquepoderademorarumpoucomais do que as pessoas pensam, precisamente por causa das questoes de que falamos. Estamos a falar de situaçoes em que existe potencial para fazer mal a alguem. Basta que olhemos para a forma comoosmedicamentoseasterapiasmedicasefarmaceuticaschegam aomercado Eumprocessomuito controlado, com muita supervisao, ensaiosclínicos.Tercarrosautonomos a serem testados em estradas abertas e algo que considero um poucopreocupante.

Independentemente dos benefícios que se apontam para essa tecnologia, nomeadamente a redução drástica dos acidentes?

Sim,osbenefíciosseriaminegaveis. E vao ate mais longe: basta olhar para o setor da camionagem nos EUA, as empresas desse setor tem muita dificuldade em contratar os condutores de que precisam. Falase muito de ter os robos a roubarem postos de trabalho, mas ha escassez de trabalhadores em varias areas, inclusivamente por razoes demograficas que afetam muitos países, incluindo aqui na Europa. A IApodeserdecisivaparaassegurar o crescimento das economias. So estouadizerquetemosdeavançar deformaresponsavel.

Tenho tendenciapara achar queos carros autonomos poderao demorarumpoucomaisdoqueaspessoas pensam, por questoes da etica. Estamos a falar de situaçoes em que existe potencial para fazer mal aalguem.

É mais correto falar de homem vs máquina ou de homem com máquina vs homem sem máquina?

Claramente, o que vai importar e homem com maquina (vs homem semmaquina).Vemosasmaquinas, desde sempre, como um potenciadordascapacidadeshumanas,nuncacomoumaameaça.Haumaserie de características humanas que as maquinas, simplesmente, nao poderao ter: empatia, curiosidade, inteligencia emocional. Continuamosaver,porem,muitostrabalhos entediantes,repetitivos,queprovavelmente ficam mais bem feitos se forem feitos por uma maquina. Essapessoaficalivrepara Para estar desempregada?

Nao sera assim. E ja vimos no passado como nao e assim. Temos variashistoriasnaMicrosoft,decomo vendemos produtos que foram recebidoscomalgumaapreensaopor quem trabalhava naquelas areas, mas depois acabaram por ficar muito satisfeitos porque houve muitascoisasrepetitivasqueforam eliminadas das suas rotinas e deixaram, por exemplo, de acordar as 2 da manha com um pager a fazer bip-bip. E recordamo-nos como as caixas multibanco iam significar desempregoparaosbancarios,mas aconteceuocontrario:quantomais caixas automaticas eraminstaladas mais bancarios eram contratados, porquetornou-semaisbaratoabrir pequenas sucursais bancarias paraissocontratou-semaisgentee as pessoas passaram a poder dedicar-se mais a outras atividades, porque as operaçoes simples podiamserfeitaspelamaquina.

This article is from: