![Red Hat tem novas integrações IA com modelos otimizados [com vídeo]](https://homepagept.web.sapo.io/assets/img/blank.png)
A empresa anunciou novas adições ao seu portfólio Red Hat AI com o objetivo de acelerar a implementação da inteligência artificial empresarial em ambientes produtivos. As novidades incluem o lançamento do Red Hat AI Inference Server, uma nova coleção de modelos validados e otimizados por terceiros, e a integração de APIs padronizadas como Llama Stack e o Modelo de Protocolo de Contexto (MCP). Esses recursos visam resolver os principais desafios de escalabilidade, desempenho e portabilidade enfrentados pela implementação de modelos de IA generativa e preditiva.
O Red Hat AI Inference Server permite uma execução de modelos mais eficiente, consistente e rentável em infraestruturas de nuvem híbrida. Já está integrado nas novas versões do Red Hat OpenShift AI e Red Hat Enterprise Linux AI, e também é oferecido como um serviço independente, ampliando assim a flexibilidade operacional para organizações com diferentes necessidades de implementação.
Validação de modelos e APIs para o desenvolvimento de agentes
A empresa também introduziu um conjunto de modelos de terceiros validados, acessíveis a partir da plataforma Hugging Face, que oferecem garantias em termos de desempenho, reprodutibilidade e compatibilidade com a Red Hat AI. Alguns desses modelos foram otimizados por meio de compressão, reduzindo seu tamanho e custo de execução, uma vantagem fundamental para ambientes exigentes ou com recursos limitados.
Além disso, a Red Hat AI está a integrar o Llama Stack, desenvolvido pela Meta, e o MCP da Anthropic, com o objetivo de padronizar o desenvolvimento de aplicações e agentes de IA generativa. Estas interfaces permitem que os modelos interajam com fontes de dados externas e sistemas de inferência através de uma arquitetura comum, reduzindo a complexidade da implementação.
Novidades no Red Hat OpenShift AI e RHEL AI
A versão mais recente do Red Hat OpenShift AI (v2.20) incorpora funcionalidades como: um catálogo de modelos otimizado, que facilita a implementação e a gestão do ciclo de vida dos modelos a partir de uma consola web; treino distribuído através do KubeFlow com suporte para múltiplos nós e GPU; e um novo armazém de características para a gestão centralizada de dados nos fluxos de trabalho de inferência e treino.
Por sua vez, o Red Hat Enterprise Linux AI 1.5 amplia a sua compatibilidade com o Google Cloud Marketplace, melhora o suporte multilíngue do InstructLab para espanhol, francês, alemão e italiano, e permite a personalização de modelos por meio de scripts próprios ou modelos de referência, com planos de expansão para outros idiomas.
IA personalizável a partir do IBM Cloud e visão estratégica
Como parte da sua colaboração com a IBM, o serviço Red Hat AI InstructLab no IBM Cloud está agora disponível de forma geral. Este serviço acelera o processo de personalização de modelos, facilitando às empresas a utilização dos seus próprios dados sem renunciar ao controlo ou à escalabilidade.
A Red Hat reafirma assim a sua visão de uma IA empresarial sem restrições: uma infraestrutura que permite executar qualquer modelo, em qualquer acelerador, em qualquer cloud. Com esta abordagem, o fabricante propõe uma plataforma universal de inferência como chave para aproveitar o verdadeiro potencial da inteligência artificial generativa, com uma experiência mais homogénea, escalável e controlada.
Brian Stevens, Vice-Presidente para Tecnologia de IA, e Joe Fernandes, Vice-Presidente da Unidade de Negócios de IA, apresentam esta adição ao portfólio de IA da RED HAT.