L'IA in produzione per i cloud privati e ibridi

Sviluppa, addestra e distribuisci modelli e applicazioni di IA

Red Hat® OpenShift® AI è una piattaforma MLOps che consente di sviluppare, addestrare e distribuire i modelli e le applicazioni di IA in modo scalabile negli ambienti di cloud privato e ibrido. OpenShift AI offre alle organizzazioni un modo efficiente per distribuire un set integrato di strumenti open source e di terze parti comunemente usati per la creazione di modelli di IA generativa (IA gen), IA predittiva e machine learning (AI/ML). Gli utenti possono così avvalersi di una piattaforma e di un set di strumenti open source collaborativi per la creazione di modelli sperimentali e la loro distribuzione coerente in produzione, in un formato predisposto per i container, su ambienti di cloud pubblico e privato, on premise e all'edge. 

OpenShift AI, componente chiave di Red Hat AI, offre ai responsabili delle operazioni IT e agli ingegneri della piattaforma un ambiente semplice da gestire, scalabile e focalizzato sulla sicurezza. Inoltre, mette a disposizione di data scientist e ingegneri dell'IA una piattaforma completa e unificata per lo sviluppo e la distribuzione scalabili di soluzioni di IA.

OpenShift AI supporta i modelli fondativi di IA gen, consentendone il fine tuning e l'utilizzo con dati privati. I carichi di lavoro possono essere distribuiti su più cluster Red Hat OpenShift, a prescindere dalla loro posizione. La piattaforma è integrata e basata su Red Hat OpenShift, semplificando l'accelerazione hardware per l'IA e supportando infrastrutture basate su unità di elaborazione centrale (CPU) e unità di elaborazione grafica (GPU), incluse le GPU NVIDIA e AMD e le XPU Intel, sia on premise sia in ambienti cloud sovrani o pubblici.

Tabella 1. Caratteristiche e vantaggi di Red Hat OpenShift AI

Vantaggi principali

Semplifica e incrementa l'adozione dell'IA nella tua azienda per offrire una maggiore flessibilità nelle iniziative di IA. 

Garantisci l'uniformità delle operazioni con AI/ML grazie a un'esperienza dell'utente omogenea, che rende più efficiente la collaborazione tra ingegneri dell'IA, data scientist, data engineer e team DevOps.

Offre flessibilità e coerenza nello sviluppo, nella distribuzione e nella gestione scalabile dell'IA su qualsiasi infrastruttura hardware e su cloud ibridi, rispondendo ai vincoli legati ai dati, alla privacy, alla sicurezza e al controllo dei costi.

Caratteristiche

Vantaggi

Sviluppo e personalizzazione dei modelli

Un'interfaccia JupyterLab interattiva con librerie e ambienti di lavoro AI/ML. Integra funzionalità di acquisizione dei dati e generazione di dati sintetici, il toolkit InstructLab e la Retrieval Augmented Generation (RAG) per la connessione a dati privati.

Addestramento e sperimentazione dei modelli

Organizza file e artefatti di sviluppo. Supporta carichi di lavoro distribuiti per un addestramento e un'ottimizzazione efficienti. Include funzionalità di monitoraggio degli esperimenti e allocazione semplificata dell'hardware.  

Velocità intelligente di GPU e hardware 

 

È disponibile l'accesso self service alla GPU. Consente un utilizzo intelligente della GPU per la pianificazione dei carichi di lavoro, la gestione delle quote, l'accesso prioritario e la visibilità dell'utilizzo tramite profili hardware.

Pipeline IA

Possono automatizzare la distribuzione e i test dei modelli. Le pipeline sono soggette a controllo delle versioni, monitoraggio e gestione per ridurre gli errori degli utenti e semplificare i flussi di lavoro di sperimentazione e produzione. 

Model serving ottimizzato

Mette a disposizione modelli di diversi provider e framework tramite un modello di linguaggio virtuale di grandi dimensioni (vLLM), ottimizzato per un throughput elevato e una latenza ridotta. Il framework di inferenza distribuita llm-d supporta prestazioni prevedibili e scalabili e una gestione efficiente delle risorse. Include un LLM compressor e consente di accedere a modelli di IA gen comuni, ottimizzati e convalidati.

Interfacce utente per l'Agentic AI e l'IA gen

Velocizza i flussi di lavoro dell'Agentic AI grazie ai principali servizi della piattaforma. Offre un livello di API (interfaccia di programmazione delle applicazioni) unificato (MCP e Llama Stack API), insieme a una dashboard dedicata (AI hub e gen AI studio). 

Osservabilità e governance dei modelli 

Strumenti open source comuni per la gestione del ciclo di vita, le prestazioni e l'operatività. Consente il monitoraggio delle metriche, incluse le prestazioni, il rilevamento di data drift e bias e i meccanismi di guardrail dell'IA in fase di inferenza. Offre funzionalità di valutazione degli LLM (LM Eval) e di benchmarking degli LLM (GuideLLM) a supporto delle distribuzioni di inferenza in contesti reali. 

Catalogo e registro

Gestione centralizzata dei modelli di IA predittiva e IA gen, dei server MCP e dei relativi metadati e artefatti. 

Feature store 

Un'interfaccia utente che consente di gestire feature di dati pulite e ben definite per i modelli di ML, migliorando le prestazioni e accelerando i flussi di lavoro. 

Models-as-a-Service

Consente agli ingegneri dell'IA di utilizzare i modelli attraverso un gateway API integrato e gestito per l'accesso self-service e il monitoraggio dell'utilizzo (funzionalità di anteprima per gli sviluppatori). 

Ambienti disconnessi ed edge

Supporta cluster disconnessi e isolati per la sicurezza e la conformità normativa. 

Oltre alle funzionalità di OpenShift AI, sono disponibili i seguenti prodotti partner integrati:

  • Starburst per l'accesso distribuito ai dati su set di dati eterogenei.
  • HPE per il data lineage e la gestione delle versioni.
  • NVIDIA per la gestione delle prestazioni delle GPU.
  • AMD per l'accelerazione delle GPU.
  • Intel per l'inferenza ad alte prestazioni su hardware Intel.
  • Elastic ed EDB per database vettoriali utilizzati in applicazioni di Retrieval Augmented Generation (RAG). 

Passaggi successivi:

Scopri di più su Red Hat OpenShift AI e guarda il video informativo.