Agentes de IA baseados em console no fluxo de trabalho de SRE

Para nós, Site Reliability Engineers (SREs), a maior parte do trabalho real ainda acontece no terminal. Fazer troubleshooting em um cluster Kubernetes, analisar logs durante uma interrupção ou trocar entre vários provedores de nuvem — essas tarefas raramente envolvem um IDE ou uma interface de usuário. O console é onde passamos nosso tempo. É por isso que ferramentas como gemini-cli e Claude Code são tão interessantes: elas trazem os Large Language Models (LLMs) diretamente para a linha de comando, perto do local onde o trabalho de SRE realmente acontece.

Um dos benefícios mais claros dos agentes baseados em console é a proximidade com o ambiente operacional. Ao contrário de uma janela de chat no navegador, um agente CLI pode ser executado imediatamente lado a lado com as mesmas ferramentas que você já usa: kubectl, aws, gcloud, terraform, e assim por diante. Em vez de copiar e colar logs de erro em uma interface de chat e tentar descrever a configuração, você pode simplesmente alimentar a saída diretamente. Essa pequena mudança reduz a fricção e pode fazer uma grande diferença durante um incidente, quando cada minuto conta.

A integração é outra grande vantagem. Na prática, um agente de IA baseado em console pode acessar APIs para verificar o status de um pull request, executar um pipeline para obter o estado do sistema ou até mesmo correlacionar sinais em vários serviços. Para sistemas distribuídos, onde uma única ferramenta não lhe dá a imagem completa, isso é poderoso. O agente efetivamente junta informações de painéis de monitoramento, saídas de CLIs e scripts internos, transformando saídas dispersas em algo que se parece mais com uma narrativa sobre a qual você pode agir.

Em comparação com os IDE copilots, os agentes focados no console se alinham muito melhor com a forma como os engenheiros de infraestrutura realmente trabalham. Os copilotos são fantásticos para desenvolvedores que escrevem código de aplicativo, mas um SRE geralmente não passa horas em um editor. Estamos orquestrando serviços, escrevendo scripts pontuais ou rastreando uma requisição com falha em vários sistemas. Nesses casos, um agente de IA que vive no console parece natural e evita a troca de contexto que muitas vezes nos atrasa.

As equipes também podem usar esses agentes para compartilhar conhecimento de forma mais eficaz. Em vez de todos reinventarem os passos de troubleshooting, os playbooks podem ser incorporados em prompts ou comandos, e consultas comuns podem ser reutilizadas por toda a equipe. Dessa forma, quando um sistema falha de uma maneira já conhecida, a IA pode lembrá-lo das verificações habituais, detalhar as saídas de comando ou apontar para a próxima causa provável. Isso diminui a carga mental durante momentos estressantes e ajuda novos engenheiros a se atualizarem sem precisar de meses de conhecimento sobre o ambiente.

Segurança e privacidade também so beneficiadas. Muitas vezes elas são ignoradas durante o uso de IA. Executar um assistente no console torna mais fácil manter o controle sobre o que sai do seu ambiente. Configurações ou credenciais podem permanecer locais, em vez de serem coladas em um aplicativo de chat. Para empresas com requisitos de compliance ou auditoria, esse pequeno detalhe pode fazer uma grande diferença.

A mudança maior, no entanto, é como esses agentes alteram a relação entre SREs e IA. Eles não são mais “uma ferramenta que você abre em outra aba”, mas algo que é executado junto com seus comandos do dia a dia. Isso significa menos troca de contexto, uma integração mais suave com as ferramentas em que você já confia e um apoio que parece parte do fluxo de trabalho, em vez de algo que usamos separadamente.

Embora a IA no console ainda esteja em seus estágios iniciais, ela tem grande potencial. Esses agentes de IA podem evoluir para identificar proativamente problemas, propor soluções rápidas ou gerenciar autonomamente tarefas de rotina, dependendo da aprovação humana. Para as equipes de SRE, o benefício principal vai além de apenas reduzir o tempo de troubleshooting; ele reside em inaugurar uma abordagem transformadora para o gerenciamento de incidentes e a confiabilidade geral.

Este artigo foi redigido com o apoio de ferramentas de IA (texto e imagem de capa), com o conteúdo final, estrutura e ideias fornecidos pelo autor.

Continuar lendo


Os últimos de nós

Quando acesso uma plataforma de streaming e me é recomendada a badalada série The Last Of Us (Os Últimos de Nós), eu hesito. Prometi nunca mais assistir a qualquer coisa relacionada a zumbis. Vejo o trailer e deixo o algoritmo me vencer novamente – ele sabe do que eu gosto. Perco mais algumas horas da minha vida com os primeiros episódios, mas não me arrependo. Eu perderia essas mesmas horas assistindo vídeos curtos no Tik Tok.

A novidade da série é que a culpa das pessoas terem apetite por cérebros é de um fungo. Em um cenário apocalíptico, os fungos estão nas pessoas infectadas e no próprio solo, possuindo um mecanismo de conexão onde um único infectado pode atrair uma horda de inimigos para caçar os que ainda possuem algum tipo de consciência. Para os que sobrevivem, resta o isolamento.

Os produtores perderam uma excelente oportunidade de chamarem esse fungo de Twitter.

Afinal, são através das redes sociais que os nossos zumbis se conectam, comunicam-se e infectam outras pessoas. Podemos receber um vídeo em um grupo de WhatsApp e, logo depois, nos juntar a um movimento que alega haver uma cabala secreta, formada por adoradores do Satanás, pedófilos e canibais, que dirige uma rede global de tráfico sexual infantil (essa é a definição na Wikipedia para o movimento QAnon, que, de acordo com uma pesquisa feita em 2021 pela Public Religion Research Institute, um em cada cinco americanos acredita.).

Isso acontece porque, além de criarem a conexão, algumas plataformas são como fungos parasitas. Usam seus famigerados algoritmos que retiram de seus usuários as informações necessárias para seu desenvolvimento. Por exemplo, se nutrimos alguma curiosidade por ataques terroristas, o YouTube usa sua base de conhecimento acumulado e recomenda vídeos do Estado Islâmico. Finalmente, podemos não querer mais perseguir conspiradores satânicos, mas explodir restaurantes em Paris.

Os algoritmos priorizam resultados que estão de acordo com nossa visão de mundo, ignorando aqueles que nos desafiam. A despeito de mantermos a mente aberta e considerarmos opiniões alternativas, as plataformas afunilam o que de fato veremos. Com o excesso de informações, tomamos atalhos cognitivos e não exploramos completamente uma ideia ou aprofundamos um pensamento. Começamos a acreditar em teorias pouco plausíveis e as defendemos a qualquer custo. Esse é o estágio avançado da infecção.

Para os últimos de nós, há esperança. De acordo com a seção 230 da Lei de Decência nas Comunicações dos Estados Unidos, os provedores de serviços de internet desfrutam de imunidade legal pelo conteúdo que publicam porque, de acordo com ela, eles não podem ser considerados como “porta-vozes” do que é publicado por terceiros. Isso foi pensando quando a Internet era apenas mais um meio de comunicação e tem sido usado para isentar as empresas de tecnologia da responsabilidade sobre o conteúdo sugerido pelos seus algoritmos. Mas debates jurídicos estão acontecendo e podem mudar essa realidade.

Enquanto isso não acontece, temos que pensar em uma vacina para que essa infecção não se espalhe. Como sugere Daniel Levitin em “A mente organizada” (Objetiva, 2015): “Precisamos ensinar nossos filhos como avaliar a informação e como discernir o que é verdade do que não é. Treinar um conjunto de capacidades mentais que giram em torno do pensamento crítico. É crucial que cada um de nós assuma a responsabilidade de verificar a informação que encontra, testando-a e avaliando-a”.

O desafio agora é fazer as pessoas acreditarem nessa vacina.

Continuar lendo