14 minute read
O impacto da IA para as próximas décadas - pág
Cezar Taurion
VP Consultoria CiaTécnica
Arevolução conduzida pela AI está chegando tão rápido que temos dificuldade em imaginar como ela evoluirá. Até onde poderemos chegar? Ray Kurzweil do Google afirma “Na década de 2030 poderemos inserir nanorobôs no cérebro (através de capilares) que permitirão uma imersão total dentro do nosso sistema nervoso, conectando nosso neocórtex à nuvem. Assim, expandindo nosso neocortex na nuvem, poderemos expandir 10,000 vezes o poder de nossos smartphones.”. Recentemente Elon Musk, com sua empresa Neuralink, fez uma previsão bem otimista, que em cerca de um ano poderia começar testes com chips inseridos em seres humanos. Vejam o artigo “Elon Musk’s Neuralink could transition from implanting chips in monkeys to humans within the year” e um vídeo com a experimentação em um macaco, aqui.
O imaginário de ficção científica ainda predomina. A IA está hoje em um ponto similar ao da computação no início da década de 1950, quando os pioneiros estabeleceram as ideias básicas dos computadores. Mas, menos de 20 anos depois, os computadores tornaram possíveis sistemas de reservas de companhias aéreas e ATMs bancários e ajudaram a NASA a colocar o homem na lua, resultados que ninguém poderia ter previsto nos anos 50. Adivinhar o impacto da IA e dos robôs em uma década ou duas está se tornando ainda muito mais difícil.
O que sabemos é que a IA já é realidade, e, tanto pode ser muito benéfica como pode em butir muitos riscos. Afeta empresas, empregos, sociedade e a economia. Obriga a revisão da atual formação educacional, e demanda fortes ações por parte de governos e empresas.
Provavelmente, a questão econômica mais importante da economia nas próximas dé cadas, pode ser o que fazer com as pessoas que perderão seu trabalho porque suas fun ções passaram a ser feitas por IA. O que nós, humanos, faremos quando tivermos em larga escala, algoritmos não conscientes e suma mente inteligentes fazendo muito do que fa zemos hoje, mas bem melhor?
E um debate intrigante e controverso é se um dia chegaremos a ter máquinas realmente in teligentes. Os sistemas de IA que temos hoje são chamados de “narrow AI”, pois fazem basicamente uma única coisa. Um sistema de IA que joga xadrez não dirige um carro e nem analisa imagens de câncer de mama. Por ou tro lado, um ser humano pode fazer tudo isso. Nas máquinas, um sistema abrangente que fizesse isso é chamado comumente de AGI, de Artificial General Intelligence. O termo AGI está popular há pouco mais de uma década, mas as ideias que ele encapsula existem desde o início dos computadores.
Com a recente série de sucessos que estamos vendo com a IA, do campeão de jogos de xa drez AlphaZero ao convincente gerador de textos GPT-3, aumentaram muito as conversas sobre AGI. Mesmo que essas ferramentas ain da estejam muito longe de representar a inteli gência “geral” - AlphaZero não pode escrever histórias e GPT-3 não pode jogar xadrez, muito menos entender por que histórias e xadrez são importantes para as pessoas - o objetivo de construir um AGI, antes considerado ficção, está se tornando aceitável novamente. Alguns dos maiores e mais respeitados laboratórios de
O que sabemos é que a IA já é realidade, e, tanto pode ser muito benéfica como pode embutir muitos riscos. Afeta empresas, empregos, sociedade e a economia. Obriga a revisão da atual formação educacional, e demanda fortes ações por parte de governos e empresas.
Provavelmente, a questão econômica mais importante da economia nas próximas décadas, pode ser o que fazer com as pessoas que perderão seu trabalho porque suas funções passaram a ser feitas por IA. O que nós, humanos, faremos quando tivermos em larga escala, algoritmos não conscientes e sumamente inteligentes fazendo muito do que fazemos hoje, mas bem melhor?
E um debate intrigante e controverso é se um dia chegaremos a ter máquinas realmente inteligentes. Os sistemas de IA que temos hoje são chamados de “narrow AI”, pois fazem basicamente uma única coisa. Um sistema de IA que joga xadrez não dirige um carro e nem analisa imagens de câncer de mama. Por outro lado, um ser humano pode fazer tudo isso. Nas máquinas, um sistema abrangente que fizesse isso é chamado comumente de AGI, de Artificial General Intelligence. O termo AGI está popular há pouco mais de uma década, mas as ideias que ele encapsula existem desde o início dos computadores.
Com a recente série de sucessos que estamos vendo com a IA, do campeão de jogos de xadrez AlphaZero ao convincente gerador de textos GPT-3, aumentaram muito as conversas sobre AGI. Mesmo que essas ferramentas ainda estejam muito longe de representar a inteligência “geral” - AlphaZero não pode escrever histórias e GPT-3 não pode jogar xadrez, muito menos entender por que histórias e xadrez são importantes para as pessoas - o objetivo de construir um AGI, antes considerado ficção, está se tornando aceitável novamente. Alguns dos maiores e mais respeitados laboratórios de IA do mundo levam esse objetivo muito a sério. A OpenAI disse que quer ser o primeiro a criar uma máquina com habilidades de raciocínio semelhantes às humanas. A declaração de missão não oficial, mas amplamente repetida da DeepMind, é “resolver a inteligência”.
A evolução da IA está em um ritmo muito acelerado e cada dia vemos mais um avanço que pode significar um passo nessa direção. Por exemplo, pesquisadores do National Institute of Standards and Technology estão propondo um novo modelo de computadores, que pode espelhar mais precisamente o funcionamento do nosso cérebro. Vale a pena ler “Advancing AI With a Supercomputer: A Blueprint for an Optoelectronic ‘Brain’”.
Já existe uma vasta literatura debatendo o assunto. Um instigante e polêmico livro foi “Superintelligence: paths, dangers, strategies”, de Nick Bostrom, diretor do Future of Humanity Institute, da Universidade de Oxford, no Reino Unido. Apesar do tema aparentemente ser inóspito, ele chegou a ser um dos best sellers do New York Times. Hoje, inclusive, tem uma edição traduzida para o português. Ele debate a possibilidade, real, do advento de máquinas com superinteligência, e os benefícios e riscos associados. Ele pondera que os cientistas consideram que houveram cinco eventos de extinções em massa na história de nosso planeta, quando um grande número de espécimes desapareceu. O fim dos dinossauros, por exemplo, foi um deles, e que hoje estaríamos vivendo uma sexta, essa causada pela atividade humana. Ele pergunta, e será que nós não estaremos nessa lista? Claro existem razões exógenas como a chegada de um meteoro, mas ele se concentra em uma possibilidade que parece saída de filme de ficção científica, como o “Exterminador do Futuro”. O livro, claro, desperta polêmica e parece meio alarmista, mas suas suposições podem se tornar realidade. Alguns cientistas se posicionam a favor deste alerta, como o falecido Stephen Hawking, que disse textualmente: “The development of full artificial intelligence could spell the end of the human race”. Também Elon Musk, que é o fundador e CEO da Tesla Motors tuitou: “Worth reading Superintelligence by Bostrom. We need to be super careful with AI. Potentially more dangerous than nukes”.
Pelo lado positivo, Bostrom aponta que a criação destas máquinas pode acelerar exponencialmente o processo de descobertas científicas, abrindo novas possibilidades para a vida humana. Uma questão em aberto é quando tal capacidade de inteligência seria possível. Uma pesquisa feita com pesquisadores de IA, apontam que uma máquina superinteligente - Human Level Machine Intelligence (HLMI) – tem 10% de chance de aparecer logo após 2020 e 50% em torno de 2050. Para 2100, a probabilidade é de 90%!
Um outro livro, “Homo Deus”, de Yuval Noah Harari, também provoca um debate interessante e lembra que a diferença fundamental entre seres humanos e máquinas é a diferença entre as relações para conhecimento. Para as máquinas a fórmula é conhecimento = dados empíricos x matemática. Se quisermos saber a resposta para uma questão, reunimos dados empíricos e depois usamos ferramentas matemáticas para analisá-los. A fórmula científica do conhecimento leva a descobertas impressionantes na física, medicina e outras áreas. Mas há um enorme senão: essa fórmula não pode lidar com questões de valor e significado. Aí que entra a fórmula do conhecimento humano, que nos diferencia das máquinas: conhecimento = experiências x sensibilidade. Experiências são fenômenos subjetivos como sensações (calor, prazer, tensão), emoções (amor, medo, ódio) e pensamentos. A sensibilidade é a atenção às experiências e como elas influenciam a pessoa em suas atitudes e comportamentos. Entretanto, alerta para o
fato que, embora sem dispor de consciência, emoções e sensações, robôs e sistemas de IA estão assumindo o papel que era predominantemente humano. O que ele propõe é que a inteligência está se desacoplando da consciência. Isso significa que sistemas não conscientes podem ser capazes de realizar tarefas muito melhor que humanos, como dirigir automóveis. A razão é simples: tais tarefas baseiam-se em padrões de reconhecimento e algoritmos não conscientes. Por exemplo, um taxista humano ao dirigir seu veículo, pode recordar de sua filha na escola e se emocionar, ou admirar a paisagem. Mas estes sentimentos não importam para a tarefa de levar um passageiro do ponto A ao ponto B. Os veículos autônomos podem fazer isso melhor que humanos, sem sentir emoções.
Mas, mesmo sem sistemas de AGI, o uso intensivo de IA, já tomando decisões por nós, pode trazer impactos significativos na nossa sociedade. O artigo “Hackers Used to Be Humans. Soon, AIs Will Hack Humanity” explora esse tema. O autor lembra que a IA acabará encontrando vulnerabilidades em todos os tipos de sistemas sociais, econômicos e políticos e, em seguida, poderá explorá-las em velocidade, escala e escopo sem precedentes. Depois de hackear a humanidade, os sistemas de IA então hackearão outros sistemas de IA, e os humanos serão então apenas um pouco mais do que danos colaterais. A razão é simples: como os sistemas de IAs não resolvem problemas da mesma forma que as pessoas, eles invariavelmente encontrarão soluções que nós, humanos, poderíamos nunca ter previsto - e alguns subverterão a intenção do sistema. Isso porque os sistemas de IAs não pensam em termos de implicações, contexto, normas e valores que nós, humanos, compartilhamos e tomamos como garantidos. Essa recompensa do sistema de IA envolve atingir um objetivo, mas de uma forma que os projetistas da IA não queriam nem pretendiam. Como se comportarão as tais máquinas “inteligentes”? De imediato, e até mesmo incentivado pelos filmes que vemos, podemos imaginar robôs inteligentes, mas sem capacidade de interação social. Serão lógicos, mas não criativos e intuitivos. Esse seria o grande diferencial do ser humano. Sim, essa é a realidade hoje, quando a IA ainda está na sua infância. No máximo teríamos uma máquina, se similar a um humano, que seria um humano tipicamente nerd, excelente em matemática e algoritmos, mas ruim em interações sociais.
Mas, se o sistema conseguir evoluir automaticamente, pelo autoaprendizado? Ele não poderia, por si, construir camadas cognitivas que incluíssem simulação de funcionalidades como empatia? Uma máquina que alcance um QI elevadíssimo, como agiria? Sabemos hoje que uma pessoa com QI de 130 consegue ser muito melhor no aprendizado escolar que uma de 90. Mas, se a máquina chegar a um QI de 7.500? Não temos a mínima ideia do que poderia ser gerado por tal capacidade.
Como seria essa evolução? Primeiramente as nossas futuras pesquisas em IA criarão uma máquina superinteligente primitiva. Essa máquina, entretanto, seria capaz de recursiva e exponencialmente aumentar sua própria inteligência, sem demandar apoio de desenvolvedores humanos. Suponhamos que as funcionalidades cognitivas criadas por ela mesma possibilitem que a máquina planeje estrategicamente (defina objetivos de longo prazo), desenvolva capacidade de manipulação social (persuasão retórica), obtenha acessos indevidos através de hacking (explorando falhas de segurança em outros sistemas) e desenvolva por si mesmo, novas pesquisas tecnológicas, criando novos componentes que lhe agregarão mais poder computacional ou de criação de novos objetos. Que tal um cenário onde a máquina dese nha um plano estratégico e claro, se ela é superinteligente, não será um plano que nós humanos consigamos detectar. Afinal ela saberia de nossas deficiências. Assim, durante um tempo sua evolução seria dis farçada para que não fosse identificada. Mesmo que confinada a um computa dor isolado, através da manipulação social (como hackers fazem hoje) convenceria seus administradores humanos a liberarem aces so à Internet, e através de hacking conse guiria acessar todos os computadores liga dos à rede. Lembrando que esperamos que no futuro teremos não só computadores, mas carros conectados, objetos conecta dos, redes elétricas conectadas. Tudo esta ria conectado. A sociedade humana estaria inteiramente dependente de computadores e objetos conectados. Feito isso, poderia co locar seu plano em prática. E se nesse plano, os seres humanos fossem um entrave? Para ultrapassar esta barreira ao seu plano, ela poderia construir nanofábricas que produzi riam nanorobôs que espalhassem um vírus mortal por todo o planeta.
Parece um roteiro sci-fi de Hollywood, mas o que nos impede de pensar livremente nesses cenários? Afinal, como Bostrom disse “Dian te da perspectiva da IA, somos como crianças brincando com uma bomba”.
Portanto, é essencial que os governos, aca demia e as corporações de todos os seto res de negócio compreendam o potencial e riscos da IA. Pela importância do assun to devemos estudar e compreender mais seus impactos na sociedade global e aqui no Brasil. Como o chairman de IA e robó tica da Singularity University, Neil Jacobs tein, disse: “Não é a inteligência artificial que me preocupa, é a estupidez humana”. Ignorar ou minimizar a importância do as sunto é o que deve nos preocupar.
Que tal um cenário onde a máquina desenha um plano estratégico e claro, se ela é superinteligente, não será um plano que nós humanos consigamos detectar. Afinal ela saberia de nossas deficiências. Assim, durante um tempo sua evolução seria disfarçada para que não fosse identificada. Mesmo que confinada a um computador isolado, através da manipulação social (como hackers fazem hoje) convenceria seus administradores humanos a liberarem acesso à Internet, e através de hacking conseguiria acessar todos os computadores ligados à rede. Lembrando que esperamos que no futuro teremos não só computadores, mas carros conectados, objetos conectados, redes elétricas conectadas. Tudo estaria conectado. A sociedade humana estaria inteiramente dependente de computadores e objetos conectados. Feito isso, poderia colocar seu plano em prática. E se nesse plano, os seres humanos fossem um entrave? Para ultrapassar esta barreira ao seu plano, ela poderia construir nanofábricas que produziriam nanorobôs que espalhassem um vírus mortal por todo o planeta.
Parece um roteiro sci-fi de Hollywood, mas o que nos impede de pensar livremente nesses cenários? Afinal, como Bostrom disse “Diante da perspectiva da IA, somos como crianças brincando com uma bomba”.
Portanto, é essencial que os governos, academia e as corporações de todos os setores de negócio compreendam o potencial e riscos da IA. Pela importância do assunto devemos estudar e compreender mais seus impactos na sociedade global e aqui no Brasil. Como o chairman de IA e robótica da Singularity University, Neil Jacobstein, disse: “Não é a inteligência artificial que me preocupa, é a estupidez humana”. Ignorar ou minimizar a importância do assunto é o que deve nos preocupar.
Omercado global de tecnologias de automação, como a automação robótica de processos (RPA), está em expansão a uma taxa anual composta de crescimento de 40,6% ao ano e, provavelmente atingirá US$ 25,66 bilhões até 2027. Esse dado consta de uma pesquisa global da Deloitte realizada com 441 executivos de 29 países e uma ampla gama de indústrias com objetivo de obter uma visão global de como as organizações implementam e escalam a automação inteligente. O Brasil respondeu pela segunda maior amostra global, com executivos de 49 organizações entrevistados.
A pesquisa apontou que mais organizações iniciaram sua jornada de automação inteligente: 73% em 2020 contra 58% em 2019, mas no Brasil a fragmentação de processos, a falta de uma visão clara para a automação inteligente e os custos são as principais barreiras para a adoção da AI. Nessa entrevista, Rodrigo Oliveira, sócio de enterprise, technology & performance e líder do CIO Program da Deloitte, detalhou alguns insights e compartilhou sua visão sobre a adoção de AI no País.