Agentes de IA baseados em console no fluxo de trabalho de SRE

Para nós, Site Reliability Engineers (SREs), a maior parte do trabalho real ainda acontece no terminal. Fazer troubleshooting em um cluster Kubernetes, analisar logs durante uma interrupção ou trocar entre vários provedores de nuvem — essas tarefas raramente envolvem um IDE ou uma interface de usuário. O console é onde passamos nosso tempo. É por isso que ferramentas como gemini-cli e Claude Code são tão interessantes: elas trazem os Large Language Models (LLMs) diretamente para a linha de comando, perto do local onde o trabalho de SRE realmente acontece.

Um dos benefícios mais claros dos agentes baseados em console é a proximidade com o ambiente operacional. Ao contrário de uma janela de chat no navegador, um agente CLI pode ser executado imediatamente lado a lado com as mesmas ferramentas que você já usa: kubectl, aws, gcloud, terraform, e assim por diante. Em vez de copiar e colar logs de erro em uma interface de chat e tentar descrever a configuração, você pode simplesmente alimentar a saída diretamente. Essa pequena mudança reduz a fricção e pode fazer uma grande diferença durante um incidente, quando cada minuto conta.

A integração é outra grande vantagem. Na prática, um agente de IA baseado em console pode acessar APIs para verificar o status de um pull request, executar um pipeline para obter o estado do sistema ou até mesmo correlacionar sinais em vários serviços. Para sistemas distribuídos, onde uma única ferramenta não lhe dá a imagem completa, isso é poderoso. O agente efetivamente junta informações de painéis de monitoramento, saídas de CLIs e scripts internos, transformando saídas dispersas em algo que se parece mais com uma narrativa sobre a qual você pode agir.

Em comparação com os IDE copilots, os agentes focados no console se alinham muito melhor com a forma como os engenheiros de infraestrutura realmente trabalham. Os copilotos são fantásticos para desenvolvedores que escrevem código de aplicativo, mas um SRE geralmente não passa horas em um editor. Estamos orquestrando serviços, escrevendo scripts pontuais ou rastreando uma requisição com falha em vários sistemas. Nesses casos, um agente de IA que vive no console parece natural e evita a troca de contexto que muitas vezes nos atrasa.

As equipes também podem usar esses agentes para compartilhar conhecimento de forma mais eficaz. Em vez de todos reinventarem os passos de troubleshooting, os playbooks podem ser incorporados em prompts ou comandos, e consultas comuns podem ser reutilizadas por toda a equipe. Dessa forma, quando um sistema falha de uma maneira já conhecida, a IA pode lembrá-lo das verificações habituais, detalhar as saídas de comando ou apontar para a próxima causa provável. Isso diminui a carga mental durante momentos estressantes e ajuda novos engenheiros a se atualizarem sem precisar de meses de conhecimento sobre o ambiente.

Segurança e privacidade também so beneficiadas. Muitas vezes elas são ignoradas durante o uso de IA. Executar um assistente no console torna mais fácil manter o controle sobre o que sai do seu ambiente. Configurações ou credenciais podem permanecer locais, em vez de serem coladas em um aplicativo de chat. Para empresas com requisitos de compliance ou auditoria, esse pequeno detalhe pode fazer uma grande diferença.

A mudança maior, no entanto, é como esses agentes alteram a relação entre SREs e IA. Eles não são mais “uma ferramenta que você abre em outra aba”, mas algo que é executado junto com seus comandos do dia a dia. Isso significa menos troca de contexto, uma integração mais suave com as ferramentas em que você já confia e um apoio que parece parte do fluxo de trabalho, em vez de algo que usamos separadamente.

Embora a IA no console ainda esteja em seus estágios iniciais, ela tem grande potencial. Esses agentes de IA podem evoluir para identificar proativamente problemas, propor soluções rápidas ou gerenciar autonomamente tarefas de rotina, dependendo da aprovação humana. Para as equipes de SRE, o benefício principal vai além de apenas reduzir o tempo de troubleshooting; ele reside em inaugurar uma abordagem transformadora para o gerenciamento de incidentes e a confiabilidade geral.

Este artigo foi redigido com o apoio de ferramentas de IA (texto e imagem de capa), com o conteúdo final, estrutura e ideias fornecidos pelo autor.

Continuar lendo


Como Operators Transformam o Kubernetes em uma Plataforma Universal

Nos últimos anos, o Kubernetes se consolidou como uma tecnologia central no ecossistema de infraestrutura de várias empresas. Sua capacidade de orquestrar contêineres em escala permitiu às empresas construir e gerenciar aplicativos distribuídos de maneira eficiente e robusta. Porém, o Kubernetes não é apenas uma ferramenta de orquestração de contêineres; ele evoluiu para um verdadeiro control plane universal, especialmente com a introdução dos operators – componentes que ampliam a função do Kubernetes, permitindo o gerenciamento de serviços e aplicações complexas com baixo overhead de gerenciamento. 

Os operators são controladores personalizados para gerenciar qualquer tipo de software. Eles encapsulam o conhecimento operacional de especialistas e automatizam tarefas rotineiras, como backups, escalabilidade e atualizações de sistema. Com isso, torna-se possível usar o Kubernetes para gerenciar bancos de dados, sistemas de mensageria e até mesmo aplicações inteiras, sem depender dos serviços gerenciados de um provedor de nuvem específico. Esse fator transforma o Kubernetes em uma plataforma que possibilita arquiteturas complexas e verdadeiramente cloud-agnostic.

Um excelente exemplo do poder dos operators no Kubernetes é o PostgreSQL Operator, como o Zalando PostgreSQL Operator ou o CloudNativePG. Eles permitem gerenciar clusters de bancos de dados PostgreSQL diretamente no Kubernetes, automatizando tarefas que normalmente exigiriam serviços gerenciados oferecidos pelos provedores cloud. Com eles, é possível configurar réplicas, backups automáticos, failover e upgrades de versão de forma totalmente integrada ao ambiente Kubernetes. Além disso, eles fornecem uma alta flexibilidade e personalização, permitindo ajustar a infraestrutura às necessidades específicas da aplicação, sem ficar preso a limitações impostas por serviços gerenciados. O uso de um operator de PostgreSQL elimina a dependência de soluções específicas de um provedor, garantindo que o banco de dados possa ser executado de forma consistente em qualquer ambiente — seja na nuvem pública, privada ou on-premise.

Outro grande avanço que fortalece essa tendência é a integração do Kubernetes com ferramentas de Infraestrutura como Código (IaC). O Crossplane é um exemplo claro dessa evolução. Ele expande o Kubernetes para além do gerenciamento de aplicações, permitindo também o gerenciamento de recursos de infraestrutura. Com o Crossplane, o Kubernetes assume o papel de control plane unificado, capaz de orquestrar não apenas contêineres e workloads, mas também recursos de nuvem como redes, volumes de armazenamento e bancos de dados, tudo através de definições declarativas.

O Kubernetes evoluiu então para muito mais do que um orquestrador de contêineres. Com o auxílio de ferramentas como o Crossplane e operators, ele se tornou uma plataforma universal para gerenciar infraestruturas, substituindo serviços gerenciados por soluções mais flexíveis e personalizáveis. Essa evolução permite que as organizações tenham maior controle sobre seus ambientes e que as equipes de DevOps padronizem seus processos, melhorando a agilidade e a eficiência.

Essa abordagem também reforça a tendência de abstrair a complexidade da infraestrutura, permitindo que desenvolvedores se concentrem mais na entrega de valor para os negócios. Eles não precisam se preocupar tanto com as diferenças entre Oracle Cloud, AWS, Azure, Google Cloud ou qualquer outro provedor, pois o Kubernetes atua como uma camada intermediária que uniformiza essas interações.Por fim, o futuro aponta para um mundo onde o Kubernetes, com operators e ferramentas como o Crossplane, será o orquestrador que governa não apenas as aplicações, mas toda a infraestrutura. Ele já está pavimentando o caminho para arquiteturas cada vez mais agnósticas à nuvem, proporcionando um controle centralizado e eficaz. Essa capacidade de unificar o gerenciamento de recursos e aplicações sob uma única plataforma coloca o Kubernetes no centro da revolução da computação em nuvem.

Continuar lendo


Os últimos de nós

Quando acesso uma plataforma de streaming e me é recomendada a badalada série The Last Of Us (Os Últimos de Nós), eu hesito. Prometi nunca mais assistir a qualquer coisa relacionada a zumbis. Vejo o trailer e deixo o algoritmo me vencer novamente – ele sabe do que eu gosto. Perco mais algumas horas da minha vida com os primeiros episódios, mas não me arrependo. Eu perderia essas mesmas horas assistindo vídeos curtos no Tik Tok.

A novidade da série é que a culpa das pessoas terem apetite por cérebros é de um fungo. Em um cenário apocalíptico, os fungos estão nas pessoas infectadas e no próprio solo, possuindo um mecanismo de conexão onde um único infectado pode atrair uma horda de inimigos para caçar os que ainda possuem algum tipo de consciência. Para os que sobrevivem, resta o isolamento.

Os produtores perderam uma excelente oportunidade de chamarem esse fungo de Twitter.

Afinal, são através das redes sociais que os nossos zumbis se conectam, comunicam-se e infectam outras pessoas. Podemos receber um vídeo em um grupo de WhatsApp e, logo depois, nos juntar a um movimento que alega haver uma cabala secreta, formada por adoradores do Satanás, pedófilos e canibais, que dirige uma rede global de tráfico sexual infantil (essa é a definição na Wikipedia para o movimento QAnon, que, de acordo com uma pesquisa feita em 2021 pela Public Religion Research Institute, um em cada cinco americanos acredita.).

Isso acontece porque, além de criarem a conexão, algumas plataformas são como fungos parasitas. Usam seus famigerados algoritmos que retiram de seus usuários as informações necessárias para seu desenvolvimento. Por exemplo, se nutrimos alguma curiosidade por ataques terroristas, o YouTube usa sua base de conhecimento acumulado e recomenda vídeos do Estado Islâmico. Finalmente, podemos não querer mais perseguir conspiradores satânicos, mas explodir restaurantes em Paris.

Os algoritmos priorizam resultados que estão de acordo com nossa visão de mundo, ignorando aqueles que nos desafiam. A despeito de mantermos a mente aberta e considerarmos opiniões alternativas, as plataformas afunilam o que de fato veremos. Com o excesso de informações, tomamos atalhos cognitivos e não exploramos completamente uma ideia ou aprofundamos um pensamento. Começamos a acreditar em teorias pouco plausíveis e as defendemos a qualquer custo. Esse é o estágio avançado da infecção.

Para os últimos de nós, há esperança. De acordo com a seção 230 da Lei de Decência nas Comunicações dos Estados Unidos, os provedores de serviços de internet desfrutam de imunidade legal pelo conteúdo que publicam porque, de acordo com ela, eles não podem ser considerados como “porta-vozes” do que é publicado por terceiros. Isso foi pensando quando a Internet era apenas mais um meio de comunicação e tem sido usado para isentar as empresas de tecnologia da responsabilidade sobre o conteúdo sugerido pelos seus algoritmos. Mas debates jurídicos estão acontecendo e podem mudar essa realidade.

Enquanto isso não acontece, temos que pensar em uma vacina para que essa infecção não se espalhe. Como sugere Daniel Levitin em “A mente organizada” (Objetiva, 2015): “Precisamos ensinar nossos filhos como avaliar a informação e como discernir o que é verdade do que não é. Treinar um conjunto de capacidades mentais que giram em torno do pensamento crítico. É crucial que cada um de nós assuma a responsabilidade de verificar a informação que encontra, testando-a e avaliando-a”.

O desafio agora é fazer as pessoas acreditarem nessa vacina.

Continuar lendo


O significado importa

A felicidade é efeito colateral de um propósito. E quando estamos felizes, sabemos que produzimos mais. Por isso, quando o assunto é produtividade pessoal, grande parte das metodologias prega um alinhamento das ações com nossos objetivos de longo prazo, para sabermos se o que estamos fazendo está nos levando para o caminho que escolhemos. Entender o significado das nossas ações é um motivador muito poderoso.

Na metodologia GTD, por exemplo, esse alinhamento é alcançado por meio de um modelo de seis níveis, que determina os alicerces da nossa vida para dar clareza das prioridades que devem influenciar nossas decisões. É um modelo hierárquico de prioridades em que cada nível deve estar alinhado com os superiores: ações, projetos, áreas de foco, metas, visão e, por fim, propósito.

Quando se trata de organizações, os resultados de um estudo da Harvard Business School mostram que o propósito da organização é um fator que está ganhando importância. Cada vez mais pessoas, independentemente da geração, escolhem empregos que permitam que elas se conectem com o seu propósito pessoal. Esse mesmo estudo aponta que 85% das empresas orientadas por um propósito conseguiram um crescimento positivo, enquanto houve queda em 42% das empresas sem propósito evidente.

E como conectar nosso trabalho com os propósitos de uma organização? Estamos acostumados com uma estratégia baseada em metas, onde alguém com posição superior define quais marcos devemos alcançar e somos avaliados e recompensados a partir dos resultados obtidos. Mas como constata John Doerr, em “Avalie o Que Importa” (Alta Books): “Os colaboradores precisam de mais do que marcos para motivação. Eles estão sedentos por significado, por entender como seus objetivos relacionam com a missão da empresa”.

O modelo de Objetivos e Resultados-Chave (OKR) oferece uma alternativa. Trata-se de uma ferramenta simples para criar ações específicas e mensuráveis, comunicando e monitorando o progresso em direção a elas. Em linhas gerais, os objetivos são curtos e inspiradores, criam clareza e definem a direção da organização.

Para que o sistema funcione, os OKRs devem ser públicos e definidos em todos os níveis – idealmente cada colaborador estabelece seus próprios objetivos e resultados-chave, alinhados com os objetivos dos níveis superiores. A partir deles são criados os projetos e ações, constituindo um modelo hierárquico muito próximo do que oferece o GTD.

A transparência e o alinhamento dos OKRs trazem significado para as nossas ações, assim sabemos que o nosso esforço está sendo importante para alcançar o propósito da própria organização. Essa conexão também nos ajuda a construir resiliência e sermos persistentes. Se o nosso propósito profissional está em equilíbrio com nosso propósito pessoal, damos um significado melhor para as nossas segundas-feiras.

Continuar lendo


Gerenciamento de referências com o Evernote

Durante a fase de processamento do GTD, podemos identificar coisas que não exigem ações, entretanto, contém informações importantes que podem ser usadas para alguma tarefa ou projeto futuro. A metodologia chama esse tipo de informação de material de referência. Saber organizar as referências de maneira eficiente é fundamental no GTD.

Embora esses materiais possam ser físicos, como um livro, uma conta ou um relatório impresso, a grande maioria atualmente nos chega no formato digital, como e-books, planilhas, artigos na Web, e-mails, etc. No caso do material físico, precisamos manter as coisas simples. Um conjunto de pastas etiquetadas e de fácil acesso muitas vezes já é suficiente. 

Com relação ao material digital, podemos recorrer ao Evernote, utilizando as etiquetas para identificar o tipo do material e o assunto. No meu caso, utilizo o caractere & para identificar o tipo e o caractere # para identificar o assunto. Por exemplo, este artigo teriam as etiquetas: &Artigo #GTD. Como todas as outras listas do GTD (projetos, próximas ações, checklists) também estão organizadas no Evernote, o gerenciamento dos materiais de referência fica mais intuitivo e divertido, além de seguro, pois as informações são sincronizadas com a nuvem.

Muitas vezes gostaríamos que as anotações de uma tarefa ou os materiais de suporte de um determinado projeto se tornem materiais de referência. Essas informações já estão organizadas em notas do Evernote e, portanto, precisamos apenas alterar as etiquetas para organizá-las como referências.

Uma outra situação comum é quando estamos navegando na Internet e encontramos alguma informação que parece interessante, mas estamos sem tempo ou energia suficiente para ler aquilo naquele exato momento. As pessoas lidam com isso de diversas maneiras. As mais comuns são deixar a aba do navegador aberta, o que acaba nos frustrando à medida que elas acumulam, ou adicionar as páginas aos Favoritos do próprio navegador, o que dificulta a organização e a pesquisa das informações.

Uma vez que nossas referências estão organizadas no Evernote, podemos recorrer ao plugin chamado Evernote Web Clipper para enviar a página diretamente para o nosso sistema. O plugin é suportado pela maioria dos navegadores e adiciona um ícone do Evernote ao lado da barra de endereços. Quando clicamos no ícone, ele permite selecionar o formato de captura (artigo, artigo simplificado, captura de tela, PDF, e-mail), o caderno e as etiquetas.

Eu utilizo a etiqueta %ParaLOA (Para Ler/Ouvir/Assistir). Então adiciono essa etiqueta diretamente a partir do Evernote Web Clipper e, logo após a captura, a página estará organizada em uma lista do Evernote onde posso consultar posteriormente. Eventualmente, transformo os itens dessa lista em referências simplesmente adicionando as etiquetas de tipo e assunto.

Com nossas referências centralizadas no Evernote e organizadas com etiquetas, podemos usar seus recursos de pesquisa para achar a informação que precisamos para apoiar a execução das nossas tarefas e projetos.

Para saber os detalhes de implementação da metodologia GTD usando o Evernote, sugiro assistir o vídeo: https://www.youtube.com/watch?v=YWiIn18Hwwo.

Continuar lendo