Há muito tempo, os administradores e desenvolvedores de sistemas do Red Hat Enterprise Linux (RHEL) contam com um conjunto específico de ferramentas para diagnosticar problemas, aliado a anos de experiência e conhecimento acumulados. No entanto, à medida que os ambientes se tornam mais complexos, a carga cognitiva necessária para decifrar logs e solucionar problemas de forma eficaz tem aumentado.

Hoje, temos o prazer de anunciar a apresentação prévia para desenvolvedores de um novo servidor do Model Context Protocol (MCP) para o RHEL. Este novo servidor MCP foi projetado para preencher a lacuna entre o RHEL e os Large Language Models (LLMs), abrindo caminho para uma nova era de solução de problemas mais inteligente.

O que é o servidor MCP para RHEL?

MCP é um padrão aberto que permite que modelos de AI interajam com dados e sistemas externos, originalmente lançado pela Anthropic e doado em dezembro de 2025 para a Agentic AI Foundation da Linux Foundation. O novo servidor MCP do RHEL está agora na apresentação prévia para desenvolvedores e usa esse protocolo para fornecer acesso direto e baseado no contexto ao RHEL a partir de aplicações de AI compatíveis com o protocolo MCP, como Claude Desktop ou goose.

Já lançamos servidores MCP para o Red Hat Lightspeed e o Red Hat Satellite, possibilitando diversos casos de uso interessantes. Este novo servidor MCP amplia esses cenários de uso, projetado sob medida para o troubleshooting avançado em sistemas RHEL.

Habilitando uma solução de problemas mais inteligente

Conectar seu LLM ao RHEL com o novo servidor MCP possibilita casos de uso como:

  • Análise inteligente de logs: examinar dados de logs é uma tarefa exaustiva. O servidor MCP permite que os LLMs assimilem e analisem os logs do sistema RHEL. Esse recurso permite a análise da causa raiz orientada por IA e a detecção de anomalias, ajudando você a transformar dados brutos de log em inteligência acionável.
  • Análise de desempenho: o servidor MCP pode acessar informações sobre o número de CPUs, a média de carga, informações da memória e informações sobre o uso de CPU e memória dos processos em execução. Isso permite que um sistema LLM analise o estado atual do sistema, identifique possíveis gargalos de desempenho e faça outras recomendações relacionadas ao desempenho.

Para ajudar você a explorar esses novos recursos de maneira mais segura, esta apresentação prévia para desenvolvedores se concentra na habilitação do MCP somente leitura. O servidor MCP permite que um LLM inspecione e recomende, e utiliza chaves SSH padrão para autenticação. Ele também pode ser configurado com uma lista de permissões para acesso ao arquivo de log e acesso ao nível de log. O servidor MCP não permite acesso open shell ao seu sistema RHEL, pois os comandos executados por ele são pré-verificados.

Exemplos de casos de uso

Nesses exemplos, estou usando o agente de agentic AI goose com o servidor MCP para trabalhar com um dos meus sistemas RHEL 10 chamado rhel10.example.com. O Goose é compatível com vários provedores de LLM, incluindo provedores online hospedados e provedores hospedados localmente. Estou usando um modelo hospedado localmente.

Instalei o Goose e o servidor MCP na minha estação de trabalho Fedora, com a autenticação de chave SSH configurada com rhel10.example.com.

Começarei com um prompt solicitando ao LLM que me ajude a verificar a integridade do sistema rhel10.example.com:

Screenshot showing prompt provided to LLM within goose

O LLM utiliza diversas ferramentas fornecidas pelo servidor MCP para coletar informações do sistema:

Screenshot showing MCP server tool calls made by the LLM to collect system information

Com base nisso, o LLM oferece uma visão geral do sistema e sua integridade, incluindo esta tabela:

Screenshot showing a table summary of the system health returned by the LLM

Além disso, ele fornece este resumo, observando os problemas críticos que precisam ser abordados, como o sistema de arquivos raiz quase cheio e alguns serviços com falha no sistema.

Screenshot showing a summary of the top issues on the system

Vamos examinar os problemas identificados. Solicitarei ao LLM que me ajude a determinar por que o uso do disco está tão alto:

Screenshot showing prompt provided to LLM within goose

O LLM usa ferramentas fornecidas pelo servidor MCP para determinar o que está usando mais espaço em disco:

Screenshot showing MCP server tool calls made by the LLM to collect disk usage information

Com base nisso, o LLM determina que o diretório /home/brian/virtual-machines tem um arquivo de 25 GB e que o diretório /home/brian/.local está ocupando 24 GB de espaço:

Screenshot showing the LLM response regarding disk usage

Por fim, também solicitarei ao LLM que ajude com o httpd.service, que foi relatado anteriormente como apresentando falhas.

Screenshot showing prompt provided to LLM within goose

O LLM usa a ferramenta Read File fornecida pelo servidor MCP:

Screenshot showing MCP server Read File tool call made by the LLM

Com base nisso, o LLM relata as possíveis causas da falha do httpd.service:

Screenshot showing the LLM response regarding the http.service failure

Além disso, ele também fornece algumas instruções passo a passo para corrigir isso:

Screenshot showing the LLM response with step-by-step instructions for correcting the issue

O servidor MCP para RHEL me permitiu identificar e solucionar facilmente possíveis problemas nesse sistema relacionados a um sistema de arquivos quase cheio e a um serviço httpd com falha.

Quais são os próximos passos?

Estamos começando com a análise somente leitura, mas nosso roadmap pretende expandir para outros casos de uso. Para acompanhar o processo de desenvolvimento, fique de olho em nosso repositório do GitHub upstream. Contribuições upstream são bem-vindas! Estamos muito interessados no seu feedback: solicitações de aprimoramento, relatórios de bugs e assim por diante. Você pode entrar em contato com a equipe pelo GitHub ou pelo Fedora AI/ML Special Interest Group (SIG).

Tudo pronto para uma solução de problemas mais inteligente?

O servidor MCP para RHEL já está disponível na apresentação prévia para desenvolvedores. Conecte sua aplicação cliente do LLM e veja como a agentic AI contextual pode mudar a maneira como você gerencia o RHEL. Para começar, consulte a documentação da Red Hat e a documentação do upstream.

Teste de produto

Red Hat Enterprise Linux | Teste da solução

Versão do Red Hat Enterprise Linux que orquestra recursos de hardware e é executada em sistemas físicos, na nuvem ou como um guest de hipervisor.

Sobre os autores

Brian Smith is a product manager at Red Hat focused on RHEL automation and management.  He has been at Red Hat since 2018, previously working with public sector customers as a technical account manager (TAM).  

Máirín Duffy is a Red Hat Distinguished Engineer and leads the Red Hat Enterprise Linux Lightspeed Incubation team at Red Hat as a passionate advocate for human-centered AI and open source. A recipient of the O’Reilly Open Source Award, Máirín first joined Red Hat as an intern in 2004 and has spent two decades in open source communities focusing on user experience in order to expand the reach of open source. A sought-after speaker and author, Mo holds 19 patents and authored 6 open source coloring books, including The SELinux Coloring Book.

UI_Icon-Red_Hat-Close-A-Black-RGB

Navegue por canal

automation icon

Automação

Últimas novidades em automação de TI para empresas de tecnologia, equipes e ambientes

AI icon

Inteligência artificial

Descubra as atualizações nas plataformas que proporcionam aos clientes executar suas cargas de trabalho de IA em qualquer ambiente

open hybrid cloud icon

Nuvem híbrida aberta

Veja como construímos um futuro mais flexível com a nuvem híbrida

security icon

Segurança

Veja as últimas novidades sobre como reduzimos riscos em ambientes e tecnologias

edge icon

Edge computing

Saiba quais são as atualizações nas plataformas que simplificam as operações na borda

Infrastructure icon

Infraestrutura

Saiba o que há de mais recente na plataforma Linux empresarial líder mundial

application development icon

Aplicações

Conheça nossas soluções desenvolvidas para ajudar você a superar os desafios mais complexos de aplicações

Virtualization icon

Virtualização

O futuro da virtualização empresarial para suas cargas de trabalho on-premise ou na nuvem