A IA empresarial está evoluindo e passando dos modelos individuais para os ecossistemas de dados unificados.
À medida que as organizações escalam suas iniciativas de IA, surge uma grande oportunidade: criar um gateway de dados unificado que conecte todas as etapas do pipeline de IA, dos dados brutos ao processamento computacional; dos catálogos de funcionalidades à disponibilização de modelos. Não se trata apenas de gerenciar a complexidade, mas de criar uma base que acelere a inovação.
Um desafio recorrente que as organizações enfrentam é que os cientistas de dados acabam recriando as mesmas funcionalidades repetidamente. Uma equipe calcula o valor do ciclo de vida do cliente para um modelo de previsão de rotatividade e, três meses depois, outra equipe precisa do mesmo cálculo para um mecanismo de recomendação, mas não sabe que ele já existe. Então, eles recriam tudo do zero, introduzindo inconsistências e desperdiçando semanas de tempo de desenvolvimento.
Esse é o problema de reutilização de recursos, que custa às organizações tempo e qualidade.
O que é "feature store"?
Feature store é uma plataforma centralizada que gerencia, armazena e disponibiliza funcionalidades de machine learning, ou seja, as variáveis de entrada que os modelos usam para fazer previsões. Pense nisso como um catálogo de dados projetado especificamente para IA. Em vez de procurar na documentação ou perguntar aos colegas: "Alguém já calculou a velocidade de compra mensal?", os cientistas de dados podem descobrir, reutilizar e compartilhar funcionalidades em todos os seus projetos de machine learning (ML).
Mas um feature store faz mais do que apenas catalogar funcionalidades. Ele resolve três problemas críticos:
- Reutilização de recursos: permite que os desenvolvedores descubram e reutilizem funcionalidades existentes em vez de recriá-las do zero.
- Consistência de treinamento e serviço: ajuda a reforçar a consistência. Assim, os modelos usam cálculos de funcionalidades idênticos no treinamento e na produção, eliminando o temido problema "funcionou no meu notebook".
- Simplicidade operacional: permite gerenciar pipelines de funcionalidades, controle de versão e monitoramento em uma interface única.
O Red Hat OpenShift AI conta com o recurso de feature store integrado, baseado no projeto open source Feast, como um componente nativo da plataforma. Não é necessária nenhuma instalação separada. Ele está disponível e pode ser ativado quando suas equipes estiverem prontas para adotar práticas de desenvolvimento que priorizem funcionalidades.
A oportunidade apresentada pelo gateway de dados unificado
O Feast pode atuar como uma única camada de acesso consistente para todos os seus pipelines de dados de IA. Criado sobre uma base open source comprovada, com mais de 6.500 estrelas no GitHub e mais de 16 milhões de downloads, o Feast conecta fontes de dados, mecanismos de computação (Ray/Spark) e orquestradores (KFP/Airflow) em um catálogo unificado, para as organizações poderem criar dados independentes de fornecedor.
O front-end do pipeline: como simplificar fluxos de trabalho complexos de dados de IA
O repositório de funcionalidades do Red Hat OpenShift AI é compatível com essa abordagem unificada:
- Base independente de fornecedor: integração com Spark, Ray, Milvus, Elastic, Postgres e muitos outros bancos de dados conhecidos. Você escolhe sua infraestrutura.
- Visibilidade completa do pipeline: de dados brutos, engenharia de funcionalidades e inferência de modelos.
- Liberdade de implantação híbrida: execução consistente em ambientes on-premises, de nuvem e de edge.
- Inovação open source: Criado sobre a base comprovada do Feast, com mais de 16 milhões de downloads, usado e com contribuições de muitas empresas, incluindo Shopify, NVIDIA, Walmart e muito mais.
Essa abordagem também resolve desafios empresariais reais. As agências federais podem processar dados confidenciais on-premises enquanto aproveitam a computação em nuvem. Instituições financeiras podem atender aos requisitos de conformidade e manter a flexibilidade operacional. Empresas de manufatura podem processar dados na edge enquanto se conectam a análises centralizadas.
Arquitetura em três camadas: dados, computação e catálogo
A abordagem da Red Hat para o gerenciamento de dados de IA é baseada em um insight simples, mas poderoso: as melhores plataformas empresariais conectam a infraestrutura existente em vez de substituí-la. Mostraremos como isso funciona na prática por meio do caso de uma empresa de serviços financeiros que adotou o recurso de feature stores.
Camada 1: Fontes de dados — conheça os dados onde quer que estejam
Imagine um grande banco implementando um sistema para detecção de fraudes. Os dados dos clientes residem em um banco de dados Oracle on-premise (requisitos de conformidade regulatória), os fluxos de transações fluem pelo Kafka na AWS (processamento moderno em tempo real) e os padrões históricos estão armazenados em um data warehouse Snowflake (investimento da equipe de análise há três anos).
As soluções tradicionais de feature store forçam uma escolha: migrar tudo para a plataforma ou não usar o feature store. Isso cria uma situação muito difícil: o banco de dados Oracle não pode ser movido devido à conformidade, a equipe não quer abandonar o investimento no Snowflake e os pipelines Kafka em tempo real são essenciais para as operações.
O feature store da Red Hat resolve isso com a conectividade de dados universal:
- Conecte-se em qualquer lugar: as funcionalidades podem ser extraídas de bancos de dados on-premise, armazenamento em nuvem, sensores da edge e plataformas de streaming, tudo na mesma definição de funcionalidade.
- Preservar investimentos: a equipe de detecção de fraudes continua usando a infraestrutura existente sem custos de migração ou interrupção operacional.
- Mantenha a conformidade: os dados confidenciais dos clientes são mantidos no banco de dados on-premises em conformidade, enquanto o feature store orquestra o acesso regulamentado.
A equipe de detecção de fraudes do banco define as funcionalidades uma vez: "customer_transaction_velocity_30d", "account_risk_score", "merchant_category_pattern". Os cientistas de dados nunca escrevem outra instrução JOIN para unir essas fontes.
Camada 2: Processamento computacional — flexibilidade para todas as cargas de trabalho
Agora, vamos falar sobre como essas funcionalidades são calculadas. A equipe de detecção de fraudes precisa processar bilhões de transações diariamente, mas diferentes funcionalidades têm diferentes necessidades computacionais:
- Agregações simples (contagens de transações) executadas com eficiência no SQL
- A detecção de padrões complexos (anomalias comportamentais) exige o Spark para processamento distribuído
- A pontuação de risco em tempo real (latência de subsegundos) precisa de computação de streaming leve
A maioria das plataformas de funcionalidades prende você ao mecanismo de computação que elas preferem. Se você já investiu no know-how e na infraestrutura do Spark, é instruído a abandoná-lo e aprender sobre o sistema proprietário. Se você precisa do Ray para transformações pesadas de ML, não terá sorte.
O feature store da Red Hat oferece flexibilidade de computação:
- Mecanismos independentes de fornecedor: suporte nativo para Ray e Spark, além da capacidade de trazer sua própria estrutura de computação (Spark, Ray etc.).
- Padrões abertos: funcionalidades definidas usando Python e SQL padrão, não DSLs proprietárias que criam dependência.
A equipe de detecção de fraudes executa suas agregações simples no Postgres (já implantado), executa modelos comportamentais complexos em seu cluster Spark existente (preservando anos de investimento em infraestrutura) e implanta mecanismos de pontuação em tempo real em filiais para detecção instantânea de fraudes. Mesmas definições de funcionalidades, diferentes estratégias de computação com base nos requisitos empresariais.
Camada 3: Catálogo unificado — sua interface unificada para todas as funcionalidades
É aí que os desafios começam. A equipe de detecção de fraudes definiu mais de 50 funcionalidades extraídas de três fontes de dados e executadas em duas plataformas de computação. Sem um catálogo unificado, o que acontece é o seguinte:
- Os cientistas de dados perdem horas pesquisando nos repositórios Git, notebooks Jupyter e checando o conhecimento da equipe, tentando descobrir se alguém já criou uma calculadora de velocidade de transação mensal.
- Quando encontram uma funcionalidade, descobrem ser incompatível: diferentes nomes de coluna, diferentes registros de data e hora, diferentes janelas de agregação.
- Os engenheiros de produção têm dificuldade para entender as dependências de funcionalidades: quais funcionalidades dependem de quais fontes de dados e tarefas de computação?
- Os responsáveis pela conformidade não conseguem responder à pergunta: "Quem tem acesso às funcionalidades confidenciais do cliente?"
O catálogo unificado (Feast) resolve tudo isso:
- Interface única: os cientistas de dados descobrem todas as 50 funcionalidades por meio de uma interface de pesquisa, sem precisar procurar repositórios ou perguntar no Slack.
- Visibilidade completa do pipeline: cada funcionalidade mostra exatamente a origem dos dados, qual computação eles exigem e quais modelos os consomem.
- Governança pronta para empresas: o controle de acesso baseado em função integrado significa que somente equipes autorizadas têm acesso a funcionalidades confidenciais, trilhas de auditoria completas rastreiam cada acesso e fluxos de trabalho de aprovação impõem padrões de implantação de produção.
Veja como isso funciona para dois usuários diferentes:
Fluxo de trabalho do administrador (equipe de plataforma):
- Habilitar feature store: no painel do OpenShift AI, acesse as configurações de feature store e ative o componente (integrado, sem instalação separada).
- Configurar permissões: defina quais equipes de ciência de dados podem criar funcionalidades, quais só podem consumir funcionalidades e quais fontes de dados podem ser acessadas por cada equipe.
- Monitoramento de operações: o painel mostra a integridade do pipeline de funcionalidades, a utilização de recursos e a atualização dos dados.
Fluxo de trabalho do cientista de dados:
- Descobrir funcionalidades: pesquise "transaction" no catálogo de funcionalidades. Encontre 12 funcionalidades existentes, incluindo "customer_transaction_velocity_30d", criada pela equipe antifraude no último trimestre.
- Entenda o contexto: clique na funcionalidade para ver as fontes de dados (transações do Kafka + clientes da Oracle), os requisitos de computação (tarefa do Spark, executada diariamente) e um exemplo de código de uso.
- Reutilizar no novo modelo: copie a definição da funcionalidade no projeto do mecanismo de recomendação e obtenha a mesma lógica de cálculo e consistência entre a detecção de fraudes e as recomendações.
- Iterar rapidamente: inicie Jupyter notebooks pré-integrados diretamente do catálogo de funcionalidades com a autenticação já configurada.
O resultado: o que costumava levar três dias de pesquisas, cinco conversas no Slack e depurar cálculos inconsistentes, agora leva apenas dez minutos. E quando a equipe de fraudes aprimora o cálculo da velocidade da transação, todos os modelos downstream se beneficiam automaticamente do aprimoramento.
Esse é o valor composto de um catálogo unificado: cada funcionalidade criada torna o desenvolvimento de IA da organização mais rápido, confiável e consistente.
O impacto nos negócios: de ferramenta tática a plataforma estratégica
Essa arquitetura de três camadas transforma os feature stores de um componente tático em um gateway de dados estratégico que orquestra todo o consumo de dados de IA. Em vez de gerenciar pipelines separados para diferentes iniciativas de IA, você estabelece um único ponto de entrada controlado que atende a modelos de ML tradicionais, aplicações de gen AI e fluxos de trabalho híbridos avançados.
O impacto nos negócios é transformador:
- Mais rapidez para inovar: cientistas de dados descobrem e reutilizam funcionalidades em projetos em vez de recompilar tudo do zero, reduzindo o time to market.
- Fortalecimento da governança: um único ponto de controle para políticas de acesso a dados, trilhas de auditoria e requisitos de conformidade em todas as iniciativas de IA.
- Mais economia: infraestrutura compartilhada e ativos reutilizáveis reduzem os custos por projeto e melhoram a qualidade.
- Flexibilidade estratégica: arquitetura independente de plataforma que se adapta à evolução do seu stack de tecnologia, preservando sua capacidade de inovar.
À medida que a IA se torna essencial para as operações de negócios, os primeiros usuários de infraestrutura de dados independentes de fornecedor ganham uma vantagem competitiva sustentável na velocidade da inovação e na excelência operacional.
Conclusão: como criar uma base de dados de IA de sucesso
O recurso de feature store do Red Hat OpenShift AI representa mais do que uma solução de gerenciamento de funcionalidades. Ele é sua plataforma para criar um ecossistema de dados de IA independente de fornecedor que ajuda a acelerar a inovação, otimizar as operações e preservar a flexibilidade estratégica.
Sua estratégia de dados determina o futuro da IA. Use uma base que cresça de acordo com os recursos da sua organização, preservando a flexibilidade para inovar.
Comece agora mesmo
Tudo pronto para explorar a abordagem de feature store para sua empresa?
- Experimente: Teste de solução Red Hat AI
- Experimente exemplos do Feast: Tutoriais e demonstrações da comunidade
- Navegue pela sua jornada de IA com a Red Hat Consulting: serviços de consultoria em IA
- Entre em contato com a equipe: jzarecki@redhat.com
- Explore o código: Feast GitHub Repository
- Mais informações: OpenShift AI Documentation
Recurso
A empresa adaptável: da prontidão para a IA à disrupção
Sobre os autores
Jonathan Zarecki is Principal Product Manager for AI data infrastructure at Red Hat, focusing on vendor-neutral solutions that accelerate enterprise AI innovation. He leads product strategy for feature stores, and enterprise AI data management within the Red Hat AI portfolio. Prior to Red Hat, Jonathan was a Co-founder & CPO at Jounce (acquired by Red Hat), where he specialized in MLOps platforms and enterprise AI deployment strategies.
Francisco has spent over a decade working in AI/ML, software, and fintech at organizations like AIG, Goldman Sachs, Affirm, and Red Hat in roles spanning software, data engineering, credit, fraud, data science, and machine learning. He holds graduate degrees in Economics & Statistics and Data Science & Machine Learning from Columbia University in the City of New York and Clemson University. He is a maintainer for Feast, the open source feature store and a Steering Committee member for Kubeflow, the open source ecosystem of Kubernetes components for AI/ML.
Seasoned Software and Security Engineering professional.
Primary interests are AI/ML, Security, Linux, Malware.
Loves working on the command-line.
Mais como este
AI insights with actionable automation accelerate the journey to autonomous networks
Fast and simple AI deployment on Intel Xeon with Red Hat OpenShift
Technically Speaking | Build a production-ready AI toolbox
Technically Speaking | Platform engineering for AI agents
Navegue por canal
Automação
Últimas novidades em automação de TI para empresas de tecnologia, equipes e ambientes
Inteligência artificial
Descubra as atualizações nas plataformas que proporcionam aos clientes executar suas cargas de trabalho de IA em qualquer ambiente
Nuvem híbrida aberta
Veja como construímos um futuro mais flexível com a nuvem híbrida
Segurança
Veja as últimas novidades sobre como reduzimos riscos em ambientes e tecnologias
Edge computing
Saiba quais são as atualizações nas plataformas que simplificam as operações na borda
Infraestrutura
Saiba o que há de mais recente na plataforma Linux empresarial líder mundial
Aplicações
Conheça nossas soluções desenvolvidas para ajudar você a superar os desafios mais complexos de aplicações
Virtualização
O futuro da virtualização empresarial para suas cargas de trabalho on-premise ou na nuvem