6 minute read

Estudo revela as dores dos profissionais de operações de tecnologia do Brasil e do mundo

A F5, empresa de soluções que garantem a segurança e a entrega de aplicações corporativas, anunciou os resultados do estudo State of application strategy XOps Edition. Relatório construído a partir de entrevistas realizadas em 2022, com 500 profissionais das áreas operacionais de TI, Infraestrutura e Cyber Security, de todo o mundo, incluindo 45 do Brasil, o documento mapeia os desafios vividos por esses times, na era da multinuvem.

O conceito de XOps engloba dezenas de áreas, que vão do DevOps (operações de desenvolvimento de aplicações) a AIOps (operações de inteligência artificial), passando por SER (Site Reliability Engineering) e CloudOps (operações de ambientes de computação em nuvem). A complexidade dos ambientes digitais que suportam as aplicações de missão crítica é tal que, cada vez mais, os profissionais se especializam numa área, ou até mesmo num tipo de ferramenta. Todas as áreas representadas pelo termo XOps buscam soluções de automação e orquestração, que ofereçam uma visão unificada entre os times e entre uma grande variedade de ferramentas. Essa abordagem consolida, por exemplo, a telemetria. Mesmo que os dados operacionais sejam gerados por plataformas variadas, é possível padronizar as métricas, de modo a apresentar, numa só interface, dados que fazem sentido imediato.

Para Rafael Sampaio, Solutions Engineer da F5 Brasil, o resultado dessa estratégia pode ser a redução, de horas, para poucos segundos, do tempo necessário para, num ambiente heterogêneo e distribuído, identificar, por exemplo, a causa raiz de um incidente de segurança. “A aceleração dos negócios digitais está levando as empresas brasileiras a estudarem as vantagens de se avançar de um nível operacional pontual, para a visão de 360º que incorpora todo o XOps. Este estudo da F5 aponta os desafios desta jornada”.

O relatório revela que 97% dos XOps entrevistados se preocupam com a disponibilidade do ambiente multinuvem, e consideram que não contam com os insights necessários para garantir a qualidade dos serviços de aplicação entregues a usuários internos e externos (clientes e parceiros). “Aplicações são o coração dos negócios, e rodam de forma distribuída no ambiente multinuvem – se essa aplicação estiver lenta, é necessário identificar a causa raiz da lentidão e em que ponto, seja a rede, a aplicação, a infraestrutura ou a segurança, está ocorrendo a falha. Só assim é possível resolver esse incidente o mais rapidamente possível”, explica Sampaio.

Trata-se de um grande desafio. Numa resposta de múltipla escolha, 51% dos entrevistados disseram não ter informações so- bre a causa raiz da lentidão, enquanto 46% confessam não saber se o que está por trás de um incidente é um ataque. Outros 33% afirmam não conseguir diferenciar os bots “do bem” – caso de bots do Google, por exemplo – de bots “do mal”, componentes de software, usados para violar ou abusar da aplicação, roubando dados. “Fica claro que, embora as organizações contem com dezenas de soluções, o uso ineficiente da automação e orquestração coloca a empresa numa situação de vulnerabilidade, algo que tem impacto direto sobre os negócios”, resume Sampaio. “É o oposto do mundo ‘ágil’, tão buscado pelas empresas”.

Ao responder sobre qual seria seu sonho de gestão de aplicações de missão crítica, 38% dos profissionais de operações entrevistados disseram que o mais importante é garantir a disponibilidade dessas plataformas complexas, espalhadas por nuvens públicas, privadas e híbridas. Nesta pergunta de múltipla escolha, 45% afirmaram buscar a redução do TCO (Total Cost of Ownership) das operações que suportam essas plataformas críticas, enquanto 46% se preocupam com a facilidade da gestão deste universo. “Há uma clara conexão entre esses pontos”, observa Sampaio. “São várias frentes de batalha enfrentadas simultaneamente. A vitória virá para quem contar com profissionais de operações que dominem melhor as ferramentas, além de soluções que usam IA (Inteligência Artificial) e ML (Machine Learning) para simplificar esta jornada”.

São plataformas que, ao criar uma camada única que permeia todas as nuvens (cloud, edge, fog), padronizam métricas (telemetria), e aceleram a colaboração entre profissionais de operações de diferentes setores da organização. Esse é um caminho para simplificar o uso das ferramentas e a operação. “Esse tipo de solução atua como uma camada de abstração única, que cobre serviços de operações de infraestrutura, segurança e aplicações. A meta é realizar a coleta de dados das mais variadas plataformas operacionais, e gerar insights precisos que acelerem a resolução de incidentes, e contribuam com a excelência da gestão das aplicações ágeis”, explica Sampaio.

Se necessário, essa solução pode ser configurada para gerar interfaces específicas para cada time operacional, além da interface unificada que resume em si tudo o que está se passando no ambiente multinuvem que suporta os negócios da empresa. “São soluções que garantem que a automação e a orquestração dos diversos ambientes operacionais aconteçam plenamente”. Os dados extraídos desse tipo de solução são utilizados, também, na geração de relatórios em tempo real para o C-Level.

ChatGPT vai mudar o mundo?

Se você ainda não ouviu falar de ChatGPT, uma rápida busca no Google vai te dar o contexto necessário. Não vou explicá-lo, por que quero seguir um pouco adiante sobre as coisas que ele pode fazer, e principalmente, as coisas que ainda não pode.

Sim, a IA generativa já dá mostras de como vai mudar o mundo. Ela avança sobre o território que sempre achamos que estava além da fronteira das máquinas: a criatividade humana. DALL-e, Stable Difusion, ChatGPT e outras muitas tecnologias, que vieram à luz nos últimos meses de 2022, mostram que robôs agora sabem criar, tão bem ou melhor, que a maioria dos humanos.

Mas, dois conceitos são importantes aqui. Inteligência artificial tem por objetivo imitar a nossa. Além disso, inteligência é diferente de consciência. Esses sistemas não sabem o que estão fazendo, ainda que reproduzam características humanas com enorme eficiência.

Mas, enquanto a Open AI discute acordos bilionários com a Microsoft e fundos de investimento, qual o seu potencial real neste momento? Porque a tecnologia vai evoluir e rápido (GPT4 está previsto para o primeiro semestre de 2023), mas existem limitações importantes na tecnologia, que ainda a impedem de se tornar uma ferramenta de negócios.

“ Devo começar por dizer que, apesar da sua fluência notável, o ChatGPT é apenas o enchedor de linguiça mais poderoso de todos os tempos. Ele não tem nenhum compromisso com a realidade, por duas razões. A primeira é que ele não entende a realidade. Isto é, ele não tem uma história pessoal, nenhuma sensação que o conecte ao mundo físico, autocrítica, freios morais ou comportamentais, relações pessoais, ética ou bom senso. O que ele faz, simplesmente, é buscar materiais já produzidos por alguém, em algum lugar, e os reempacotar de maneira esperta, baseados em parâmetros dados pelo usuário ”, afirma Alex Winetzki, CEO da Woopi e diretor de P&D do Grupo Stefanini.

De fato, a lógica inicial da IA Generativa era buscar a próxima palavra que mais faria sentido numa frase, simplesmente isso. Um jogo de montar, que cresceu com o poder computacional para bilhões de parâmetros (um parâmetro é um pequeno bloco de texto digerido na internet), deixando o resultado cada vez mais sofisticado.

No exemplo “me entregue uma receita de torta de banana em formato de Haikai”, a ferramenta não sabe o sabor da torta, e nada, absolutamente nada, o impede de colocar fentanyl na receita. Não que ele vá fazer isso, até porque poucas pessoas colocam fentanyl numa torta de banana e, portanto, os algoritmos do ChatGPT dificilmente vão achar algo assim, mas o fato é que ele PODE fazer isso, e aí vem sua segunda limitação séria.

IA generativa é um modelo de Deep Learning e, portanto, uma caixa preta. Não se entende ou explica que parâmetros a tecnologia usa, para chegar a uma resposta, e mais, esses parâmetros não são alteráveis, a não ser com força bruta (retreinamento de milhares ou milhões de blocos de aprendizado).

Portanto, ainda não é possível usar o ChatGPT como um chatbot normal, porque, neste último, é necessário que a resposta de saída seja controlada, e a IA generativa ainda é um cavalo selvagem, que faz o que quer, mesmo sendo lindo de se olhar.

Do ponto de vista prático, o que a OpenAI (criadora do chatGPT e do Dall-e) faz hoje é uma programação de chatbot, ao contrário. Ao invés de programar o que ele vai dizer, eles criam o que chamam de guardrails, para impedi-lo de dizer certas coisas. Isso significa que a ferramenta ainda precisa de curadoria ou supervisão, não para dizer o que queremos que ela diga, mas para impedi-la de exprimir opiniões perigosas. Normalmente, esses guardrails se aplicam para elementos críticos de discurso, tais como racismo, sexismo e violência. É impossível supervisionar tudo, então, a ferramenta está livre para dizer besteiras enormes, o que faz com frequência.

O desafio que se tem, portanto, é conseguir criar modelos eficientes de IA generativa, com menos parâmetro de treinamento, que permitam mais flexibilidade no uso da ferramenta. Isto posto – e essas são notas técnicas –, o potencial comercial e de disrupção social do que temos visto até agora é profundo, e merece um artigo à parte.

This article is from: