
- As soluções Qualcomm AI200 e AI250 oferecem desempenho em escala de rack e capacidade de memória superior para inferência rápida de IA generativa em data centers, com o melhor custo total de propriedade (TCO) do setor. O Qualcomm AI250 apresenta uma arquitetura de memória inovadora, oferecendo um salto geracional em largura de banda de memória efetiva e eficiência para cargas de trabalho de IA.
- Ambas as soluções apresentam uma pilha de software rica e compatibilidade perfeita com as principais estruturas de IA, capacitando empresas e desenvolvedores a implantar IA generativa segura e escalável em data centers.
- Os produtos fazem parte de um roteiro de inferência de IA para data centers multigeracional com cadência anual.
A Qualcomm Technologies, Inc. anunciou, no dia 28/10, o lançamento de suas soluções otimizadas para inferência de IA de última geração para data centers: as placas aceleradoras baseadas nos chips Qualcomm® AI200 e AI250 e racks. Com base na liderança da empresa em tecnologia NPU, essas soluções oferecem desempenho em escala de rack e capacidade de memória superior para inferência de IA generativa rápida com alto desempenho por dólar por watt, marcando um grande avanço na viabilização de IA generativa escalável, eficiente e flexível em todos os setores.
O Qualcomm AI200 apresenta uma solução de inferência de IA em nível de rack projetada especificamente para oferecer baixo custo total de propriedade (TCO) e desempenho otimizado para inferência de modelos de linguagem grande e multimodal (LLM, LMM) e outras cargas de trabalho de IA. Ele suporta 768 GB de LPDDR por placa para maior capacidade de memória e menor custo, permitindo escala e flexibilidade excepcionais para inferência de IA.
A solução Qualcomm AI250 será lançada com uma arquitetura de memória inovadora baseada em computação próxima à memória, proporcionando um salto geracional em eficiência e desempenho para cargas de trabalho de inferência de IA, oferecendo uma largura de banda de memória efetiva mais de 10 vezes maior e um consumo de energia muito menor. Isso permite a inferência de IA desagregada para uma utilização eficiente do hardware, atendendo aos requisitos de desempenho e custo dos clientes.
Ambas as soluções de rack apresentam resfriamento líquido direto para eficiência térmica, PCIe para expansão vertical, Ethernet para expansão horizontal, computação confidencial para cargas de trabalho de IA seguras e um consumo de energia no nível do rack de 160 kW.
“Com o Qualcomm AI200 e o AI250, estamos redefinindo o que é possível para a inferência de IA em escala de rack. Essas novas e inovadoras soluções de infraestrutura de IA permitem que os clientes implantem IA generativa com um TCO sem precedentes, mantendo a flexibilidade e a segurança exigidas pelos data centers modernos”, disse Durga Malladi, vice-presidente sênior e gerente geral de Planejamento de Tecnologia, Soluções de Borda e Data Center da Qualcomm Technologies, Inc. “Nossa rica pilha de software e suporte a ecossistemas abertos tornam mais fácil do que nunca para desenvolvedores e empresas integrar, gerenciar e dimensionar modelos de IA já treinados em nossas soluções otimizadas de inferência de IA. Com compatibilidade perfeita com as principais estruturas de IA e implantação de modelos com um clique, o Qualcomm AI200 e o AI250 foram projetados para adoção sem atritos e inovação rápida.”
Nossa pilha de software de IA de nível hiperescalável, que abrange de ponta a ponta desde a camada de aplicativos até a camada de software do sistema, é otimizada para inferência de IA. A pilha oferece suporte às principais estruturas de aprendizado de máquina (ML), mecanismos de inferência, estruturas de IA generativa e técnicas de otimização de inferência LLM/LMM, como serviço desagregado. Os desenvolvedores se beneficiam da integração perfeita de modelos e da implantação com um clique dos modelos Hugging Face por meio da Efficient Transformers Library e do Qualcomm AI Inference Suite da Qualcomm Technologies. Nosso software fornece aplicativos e agentes de IA prontos para uso, ferramentas abrangentes, bibliotecas, APIs e serviços para operacionalizar a IA.
O Qualcomm AI200 e o AI250 devem estar disponíveis comercialmente em 2026 e 2027, respectivamente. A Qualcomm Technologies está comprometida com um roteiro de data center com cadência anual, focado em desempenho de inferência de IA líder do setor, eficiência energética e TCO líder do setor. Para obter mais informações, visite nosso site.
Sobre a Qualcomm
A Qualcomm inova incansavelmente para oferecer computação inteligente em todos os lugares, ajudando o mundo a enfrentar alguns de seus desafios mais importantes. Com base em 40 anos de liderança tecnológica e avanços pioneiros, oferecemos um amplo portfólio de soluções impulsionadas por nossa IA de ponta, computação de alto desempenho e baixo consumo de energia, além de conectividade incomparável. Nossas plataformas Snapdragon® proporcionam experiências extraordinárias aos consumidores, e nossos produtos Qualcomm Dragonwing™ capacitam empresas e indústrias a alcançar novos patamares. Junto com nossos parceiros de ecossistema, possibilitamos a transformação digital da próxima geração para enriquecer vidas, melhorar negócios e avançar sociedades. Na Qualcomm, estamos projetando o progresso humano.
Qualcomm Incorporated inclui nosso negócio de licenciamento, QTL, e a grande maioria do nosso portfólio de patentes. A Qualcomm Technologies, Inc., uma subsidiária da Qualcomm Incorporated, opera, junto com suas subsidiárias, substancialmente todas as nossas funções de engenharia, P&D e negócios de produtos e serviços, incluindo nosso negócio de semicondutores QCT. Produtos das marcas Snapdragon e Qualcomm são produtos da Qualcomm Technologies, Inc. e/ou suas subsidiárias. As patentes da Qualcomm são licenciadas pela Qualcomm Incorporated.
Snapdragon e produtos da marca Qualcomm são produtos da Qualcomm Technologies, Inc. e/ou suas subsidiárias.
Qualcomm, Snapdragon, Snapdragon Elite Gaming, Hexagon e Adreno são marcas comerciais ou registradas da Qualcomm Incorporated.













