Les équipes d’administration système et les développeurs Red Hat Enterprise Linux (RHEL) s'appuient depuis longtemps sur un ensemble d'outils spécifiques pour diagnostiquer les problèmes, ainsi que sur des années d'apprentissage et d'expérience. Toutefois, plus les environnements se complexifient, plus la charge cognitive nécessaire pour déchiffrer efficacement les journaux et résoudre les problèmes augmente.

Aujourd'hui, nous avons le plaisir d'annoncer la disponibilité d'une version préliminaire pour les développeurs d'un nouveau serveur MCP (Model Context Protocol) pour RHEL. Ce nouveau serveur MCP est conçu pour faire le lien entre RHEL et les grands modèles de langage (LLM), ce qui permet une nouvelle ère de résolution de problèmes plus intelligente.

Qu'est-ce que le serveur MCP pour RHEL ?

Le MCP est une norme ouverte qui permet aux modèles d'IA d'interagir avec des données et des systèmes externes. Il a été lancé par Anthropic et a été transféré en décembre 2025 à l'Agentic AI Foundation de la Linux Foundation. Le nouveau serveur MCP de RHEL est maintenant disponible en version préliminaire pour les développeurs et utilise ce protocole pour fournir un accès direct et contextuel à RHEL à partir d'applications d'IA qui prennent en charge le protocole MCP, comme Claude Desktop ou goose.

Nous avons déjà lancé des serveurs MCP pour Red Hat Lightspeed et Red Hat Satellite qui permettent de concevoir de nombreux cas d'utilisation intéressants. Ce nouveau serveur MCP prend en charge ces cas d'utilisation et est conçu spécialement pour la résolution de problèmes approfondis sur les systèmes RHEL.

Résoudre les problèmes de manière plus intelligente

La connexion de votre LLM à RHEL avec le nouveau serveur MCP permet différents cas d'utilisation, tels que :

  • Analyse intelligente des journaux : Le tri des données de journaux est une tâche fastidieuse. Le serveur MCP permet aux LLM d'ingérer et d'analyser les journaux système RHEL. Cette fonctionnalité permet l'analyse des causes profondes basée sur l'IA et la détection d'anomalies. Elle vous aide à transformer les données brutes de journaux en informations exploitables.
  • Analyse des performances : Le serveur MCP peut accéder à des informations sur le nombre de processeurs, la charge moyenne, la mémoire, ainsi que l'utilisation du processeur et de la mémoire des processus en cours d'exécution. Cela permet à un système LLM d’analyser l’état actuel du système, d’identifier les goulets d’étranglement potentiels et de formuler d’autres recommandations liées aux performances.

Pour vous aider à découvrir ces nouvelles fonctionnalités de manière plus sûre, cette version préliminaire pour les développeurs se concentre sur l'activation de MCP en lecture seule. Le serveur MCP permet à un LLM d’inspecter et de recommander, et utilise des clés SSH standard pour l’authentification. Il peut également être configuré avec une liste d’autorisation pour l’accès aux fichiers journaux et aux niveaux d’accès aux journaux. Le serveur MCP n'autorise pas l'accès direct au shell de votre système RHEL, car les commandes qu'il exécute sont pré-approuvées.

Cas d'utilisation

Dans ces exemples, j'utilise l'agent d'IA goose, ainsi que le serveur MCP pour fonctionner avec l'un de mes systèmes RHEL 10 nommé rhel10.example.com. Il prend en charge un certain nombre de fournisseurs de LLM, notamment des fournisseurs hébergés en ligne, ainsi que localement. J'utilise un modèle hébergé localement.

J'ai installé goose et le serveur MCP sur mon poste de travail Fedora, avec l'authentification par clé SSH configurée avec rhel10.example.com.

Je vais commencer par une invite qui demande au LLM de m'aider à vérifier l'intégrité du système rhel10.example.com :

Screenshot showing prompt provided to LLM within goose

Le LLM utilise un certain nombre d'outils fournis par le serveur MCP pour collecter des informations sur le système :

Screenshot showing MCP server tool calls made by the LLM to collect system information

Sur cette base, le LLM fournit un aperçu du système et de son intégrité, notamment dans le tableau suivant :

Screenshot showing a table summary of the system health returned by the LLM

En outre, il fournit ce récapitulatif en indiquant les problèmes critiques à traiter, tels que le système de fichiers racine presque saturé et quelques services qui échouent sur le système.

Screenshot showing a summary of the top issues on the system

Examinons les problèmes identifiés. Je vais demander au LLM de m'aider à déterminer la cause de l'utilisation élevée du disque :

Screenshot showing prompt provided to LLM within goose

Le LLM utilise les outils fournis par le serveur MCP pour déterminer ce qui utilise le plus d'espace disque :

Screenshot showing MCP server tool calls made by the LLM to collect disk usage information

Sur cette base, le LLM détermine que le répertoire /home/brian/virtual-machines contient un fichier de 25 Go et que le répertoire /home/brian/.local mobilise 24 Go d'espace de stockage :

Screenshot showing the LLM response regarding disk usage

Enfin, je vais également demander au LLM de m'aider avec httpd.service, qui a déjà été signalé comme défaillant.

Screenshot showing prompt provided to LLM within goose

Le LLM utilise l’outil Read File fourni par le serveur MCP :

Screenshot showing MCP server Read File tool call made by the LLM

Sur la base de ces éléments, le LLM indique les causes potentielles de la défaillance du service httpd.service :

Screenshot showing the LLM response regarding the http.service failure

Il fournit également des instructions détaillées pour corriger ce problème :

Screenshot showing the LLM response with step-by-step instructions for correcting the issue

Le serveur MCP pour RHEL m'a permis d'identifier et de résoudre facilement les problèmes potentiels sur ce système, liés à un système de fichiers presque plein et à un service httpd défaillant.

Et après ?

Bien que nous commencions par une analyse en lecture seule, notre feuille de route prévoit d'intégrer d'autres cas d'utilisation. Pour suivre le processus de développement, gardez un œil sur notre référentiel GitHub en amont. Les contributions en amont sont les bienvenues. Vos commentaires nous intéressent : demandes d'amélioration, rapports de bogues, etc. Vous pouvez rejoindre l'équipe sur GitHub ou par l'intermédiaire du groupe d'intérêt spécial (SIG) Fedora pour l'IA/ML.

Envie de résoudre les problèmes plus intelligemment ?

Le serveur MCP pour RHEL est désormais disponible en version préliminaire pour les développeurs. Connectez votre application cliente LLM et découvrez comment l'IA contextuelle peut changer la façon dont vous gérez RHEL. Pour commencer, reportez-vous à la documentation Red Hat et à la documentation en amont.

Essai de produit

Red Hat Enterprise Linux | Essai de produit

Version de Red Hat Enterprise Linux qui orchestre les ressources matérielles et s'exécute sur les systèmes physiques, dans le cloud ou comme invité sur un hyperviseur.

À propos des auteurs

Brian Smith is a product manager at Red Hat focused on RHEL automation and management.  He has been at Red Hat since 2018, previously working with public sector customers as a technical account manager (TAM).  

Máirín Duffy is a Red Hat Distinguished Engineer and leads the Red Hat Enterprise Linux Lightspeed Incubation team at Red Hat as a passionate advocate for human-centered AI and open source. A recipient of the O’Reilly Open Source Award, Máirín first joined Red Hat as an intern in 2004 and has spent two decades in open source communities focusing on user experience in order to expand the reach of open source. A sought-after speaker and author, Mo holds 19 patents and authored 6 open source coloring books, including The SELinux Coloring Book.

UI_Icon-Red_Hat-Close-A-Black-RGB

Parcourir par canal

automation icon

Automatisation

Les dernières nouveautés en matière d'automatisation informatique pour les technologies, les équipes et les environnements

AI icon

Intelligence artificielle

Actualité sur les plateformes qui permettent aux clients d'exécuter des charges de travail d'IA sur tout type d'environnement

open hybrid cloud icon

Cloud hybride ouvert

Découvrez comment créer un avenir flexible grâce au cloud hybride

security icon

Sécurité

Les dernières actualités sur la façon dont nous réduisons les risques dans tous les environnements et technologies

edge icon

Edge computing

Actualité sur les plateformes qui simplifient les opérations en périphérie

Infrastructure icon

Infrastructure

Les dernières nouveautés sur la plateforme Linux d'entreprise leader au monde

application development icon

Applications

À l’intérieur de nos solutions aux défis d’application les plus difficiles

Virtualization icon

Virtualisation

L'avenir de la virtualisation d'entreprise pour vos charges de travail sur site ou sur le cloud