Teams in der Systemadministration und Entwicklung von Red Hat Enterprise Linux (RHEL) verlassen sich seit langem auf bestimmte Tools, um Probleme zu diagnostizieren, kombiniert mit jahrelanger Intuition und Erfahrung. Mit zunehmender Komplexität der Umgebungen steigt jedoch auch die kognitive Belastung, die erforderlich ist, um Protokolle effektiv zu entschlüsseln und Probleme zu beheben.

Heute freuen wir uns, die Entwicklungsvorschau eines neuen MCP-Servers (Model Context Protocol) für RHEL anzukündigen. Dieser neue MCP-Server soll die Lücke zwischen RHEL und Large Language Models (LLMs) schließen und eine neue Ära der intelligenteren Fehlerbehebung einleiten.

Was ist der MCP-Server für RHEL?

MCP ist ein offener Standard, der es KI-Modellen ermöglicht, mit externen Daten und Systemen zu interagieren. Er wurde ursprünglich von Anthropic veröffentlicht und im Dezember 2025 an die Agentic AI Foundation der Linux Foundation gespendet. Der neue MCP-Server von RHEL befindet sich jetzt in der Enwicklungsvorschau und verwendet dieses Protokoll, um direkten, kontextbezogenen Zugriff auf RHEL von KI-Anwendungen zu ermöglichen, die das MCP-Protokoll unterstützen, wie Claude Desktop oder goose.

Wir haben bereits MCP-Server für Red Hat Lightspeed und Red Hat Satellite veröffentlicht, die eine Reihe interessanter Use Cases ermöglichen. Dieser neue MCP-Server erweitert diese Use Cases und wurde speziell für die detaillierte Fehlerbehebung auf RHEL-Systemen entwickelt.

Intelligentere Fehlerbehebung

Wenn Sie Ihr LLM über den neuen MCP-Server mit RHEL verbinden, sind beispielsweise folgende Use Cases möglich:

  • Intelligente Protokollanalyse: Das Durchsuchen von Protokolldaten ist mühsam. Der MCP-Server ermöglicht LLMs die Aufnahme und Analyse von RHEL-Systemprotokollen. Diese Funktion ermöglicht eine KI-gestützte Ursachenanalyse und Anomalieerkennung, sodass Sie Rohprotokolldaten in verwertbare Informationen umwandeln können.
  • Performance-Analyse: Der MCP-Server kann auf Informationen zur Anzahl der CPUs, zur durchschnittlichen Auslastung, zum Arbeitsspeicher und zur CPU- und Arbeitsspeicherauslastung laufender Prozesse zugreifen. So kann ein LLM-System den aktuellen Zustand des Systems analysieren, potenzielle Performance-Engpässe identifizieren und weitere leistungsbezogene Empfehlungen geben.

Damit Sie diese neuen Funktionen sicherer erkunden können, konzentriert sich diese Entwicklungsvorschau auf die schreibgeschützte MCP-Aktivierung. Der MCP-Server ermöglicht die Überprüfung und Empfehlung durch ein LLM und verwendet zur Authentifizierung Standard-SSH-Schlüssel. Er kann auch mit einer Positivliste für den Zugriff auf Protokolldateien und den Zugriff auf Protokollebene konfiguriert werden. Der MCP-Server lässt keinen Open Shell-Zugriff auf Ihr RHEL-System zu, da die vom MCP-Server ausgeführten Befehle vorab geprüft sind.

Anwendungsbeispiele

In diesen Beispielen verwende ich den KI-Agenten goose zusammen mit dem MCP-Server, um mit einem meiner RHEL 10-Systeme namens rhel10.example.com zu arbeiten. Goose unterstützt eine Reihe von LLM-Anbietern, darunter gehostete Online-Anbieter sowie lokal gehostete Anbieter. Ich verwende ein lokal gehostetes Modell.

Ich habe goose und den MCP-Server auf meiner Fedora-Workstation mit der SSH-Schlüsselauthentifizierung installiert, die mit rhel10.example.com eingerichtet ist.

Ich beginne mit einem Prompt, in dem ich das LLM bitte, mir bei der Überprüfung des Systemzustands von rhel10.example.com zu helfen:

Screenshot showing prompt provided to LLM within goose

Das LLM verwendet eine Reihe von Tools, die vom MCP-Server zur Erfassung von Systeminformationen bereitgestellt werden:

Screenshot showing MCP server tool calls made by the LLM to collect system information

Auf Grundlage dieser Informationen bietet das LLM einen Überblick über das System und seinen Zustand, einschließlich folgender Tabelle:

Screenshot showing a table summary of the system health returned by the LLM

Zusätzlich erhalten Sie diese Zusammenfassung, in der kritische Probleme aufgeführt werden, die behoben werden müssen, z. B. das fast volle Root-Dateisystem und einige Services, die auf dem System ausfallen.

Screenshot showing a summary of the top issues on the system

Sehen wir uns die identifizierten Probleme an. Ich bitte das LLM, herauszufinden, warum die Disk-Auslastung so hoch ist:

Screenshot showing prompt provided to LLM within goose

Das LLM verwendet vom MCP-Server bereitgestellte Tools, um zu ermitteln, was den meisten Speicherplatz beansprucht:

Screenshot showing MCP server tool calls made by the LLM to collect disk usage information

Auf dieser Grundlage ermittelt das LLM, dass das Verzeichnis /home/brian/virtual-machines eine 25 GB große Datei enthält und dass das Verzeichnis /home/brian/.local 24 GB Speicherplatz benötigt:

Screenshot showing the LLM response regarding disk usage

Abschließend werde ich das LLM auch noch um Hilfe bei httpd.service bitten, der zuvor als fehlgeschlagen gemeldet wurde.

Screenshot showing prompt provided to LLM within goose

Das LLM verwendet das vom MCP-Server bereitgestellte Read File Tool:

Screenshot showing MCP server Read File tool call made by the LLM

Auf dieser Grundlage meldet das LLM die möglichen Ursachen für ein Fehlschlagen von httpd.service:

Screenshot showing the LLM response regarding the http.service failure

Darüber hinaus enthält es einige Schritt-für-Schritt-Anleitungen zur Behebung dieses Problems:

Screenshot showing the LLM response with step-by-step instructions for correcting the issue

Mit dem MCP-Server für RHEL konnte ich potenzielle Probleme auf diesem System im Zusammenhang mit einem fast vollen Dateisystem und einem fehlgeschlagenen httpd-service leicht erkennen und beheben.

Nächste Schritte

Während wir mit einer schreibgeschützten Analyse beginnen, sieht unsere Roadmap die Ausweitung auf zusätzliche Use Cases vor. Wenn Sie den Entwicklungsprozess verfolgen möchten, sollten Sie unser Upstream-GitHub repository im Auge behalten. Wir freuen uns über Upstream-Beiträge! Wir sind sehr an Ihrem Feedback interessiert, etwa Verbesserungsanfragen, Fehlerberichte usw. Sie können das Team auf GitHub oder über die Fedora AI/ML Special Interest Group (SIG) erreichen.

Sind Sie bereit für intelligentere Fehlerbehebung?

Der MCP-Server für RHEL ist jetzt als Entwicklungsvorschau verfügbar. Verbinden Sie Ihre LLM-Client-Anwendung und sehen Sie, wie kontextbezogene KI die Verwaltung von RHEL verändern kann. Informationen zum Einstieg finden Sie in der Dokumentation von Red Hat und in der Upstream-Dokumentation.

Produkttest

Red Hat Enterprise Linux | Testversion

Eine Red Hat Enterprise Linux Version, die Hardwareressourcen orchestriert und auf physischen Systemen, in der Cloud oder als Hypervisor-Gast ausgeführt wird.

Über die Autoren

Brian Smith is a product manager at Red Hat focused on RHEL automation and management.  He has been at Red Hat since 2018, previously working with public sector customers as a technical account manager (TAM).  

Máirín Duffy is a Red Hat Distinguished Engineer and leads the Red Hat Enterprise Linux Lightspeed Incubation team at Red Hat as a passionate advocate for human-centered AI and open source. A recipient of the O’Reilly Open Source Award, Máirín first joined Red Hat as an intern in 2004 and has spent two decades in open source communities focusing on user experience in order to expand the reach of open source. A sought-after speaker and author, Mo holds 19 patents and authored 6 open source coloring books, including The SELinux Coloring Book.

UI_Icon-Red_Hat-Close-A-Black-RGB

Nach Thema durchsuchen

automation icon

Automatisierung

Das Neueste zum Thema IT-Automatisierung für Technologien, Teams und Umgebungen

AI icon

Künstliche Intelligenz

Erfahren Sie das Neueste von den Plattformen, die es Kunden ermöglichen, KI-Workloads beliebig auszuführen

open hybrid cloud icon

Open Hybrid Cloud

Erfahren Sie, wie wir eine flexiblere Zukunft mit Hybrid Clouds schaffen.

security icon

Sicherheit

Erfahren Sie, wie wir Risiken in verschiedenen Umgebungen und Technologien reduzieren

edge icon

Edge Computing

Erfahren Sie das Neueste von den Plattformen, die die Operations am Edge vereinfachen

Infrastructure icon

Infrastruktur

Erfahren Sie das Neueste von der weltweit führenden Linux-Plattform für Unternehmen

application development icon

Anwendungen

Entdecken Sie unsere Lösungen für komplexe Herausforderungen bei Anwendungen

Virtualization icon

Virtualisierung

Erfahren Sie das Neueste über die Virtualisierung von Workloads in Cloud- oder On-Premise-Umgebungen