AMD lançou um novo chip de inteligência artificial na quinta-feira que visa diretamente os processadores gráficos de data center da Nvidia, conhecidos como GPUs.
O Instinct MI325X, como é chamado o chip, iniciará a produção antes do final de 2024, disse a AMD na quinta-feira durante evento de anúncio do novo produto. Se os chips de IA da AMD forem vistos pelos desenvolvedores e gigantes da nuvem como um substituto próximo dos da Nvidia produtos, isso poderia pressionar os preços da Nvidia, que obteve margens brutas de cerca de 75%, enquanto suas GPUs tiveram alta demanda no ano passado.
A IA generativa avançada, como o ChatGPT da OpenAI, requer enormes centros de dados cheios de GPUs para fazer o processamento necessário, o que criou demanda para que mais empresas forneçam chips de IA.
Nos últimos anos, a Nvidia dominou a maior parte do mercado de GPU para data centers, mas a AMD está historicamente em segundo lugar. Agora, a AMD pretende obter participação de sua rival no Vale do Silício ou, pelo menos, capturar uma grande fatia do mercado, que, segundo ela, valerá US$ 500 bilhões até 2028.
“A demanda por IA continuou a decolar e a superar as expectativas. Está claro que a taxa de investimento continua a crescer em todos os lugares”, disse Lisa Su, CEO da AMD, no evento.
A AMD não revelou novos grandes clientes de nuvem ou Internet para suas GPUs Instinct no evento, mas a empresa já havia divulgado que tanto a Meta quanto a Microsoft compram suas GPUs de IA e que a OpenAI as utiliza. para algumas aplicações. A empresa também não divulgou o preço do Instinct MI325X, que normalmente é vendido como parte de um servidor completo.
Com o lançamento do MI325X, a AMD está acelerando seu cronograma de produtos para lançar novos chips anualmente para melhor competir com a Nvidia e aproveitar o boom dos chips de IA. O novo chip AI é o sucessor do MI300X, que começou a ser comercializado no final do ano passado. O chip 2025 da AMD será chamado MI350, e seu chip 2026 será chamado MI400, disse a empresa.
O lançamento do MI325X irá confrontá-lo com os próximos chips Blackwell da Nvidia, que a Nvidia disse que começarão a ser comercializados em quantidades significativas no início do próximo ano.
Um lançamento bem-sucedido da mais nova GPU de data center da AMD poderia atrair o interesse de investidores que buscam empresas adicionais que estejam na fila para se beneficiar do boom da IA. A AMD subiu apenas 20% até agora em 2024, enquanto as ações da Nvidia subiram mais de 175%. A maioria das estimativas da indústria afirma que a Nvidia detém mais de 90% do mercado de chips de IA para data centers.
As ações da AMD caíram 3% durante as negociações de quinta-feira.
O maior obstáculo para a AMD conquistar participação de mercado é que os chips de sua rival usam sua própria linguagem de programação, CUDA, que se tornou padrão entre os desenvolvedores de IA. Isso basicamente prende os desenvolvedores ao ecossistema da Nvidia.
Em resposta, a AMD disse esta semana que tem melhorado seu software concorrente, chamado ROCm, para que os desenvolvedores de IA possam mudar mais facilmente seus modelos de IA para os chips da AMD, que ela chama de aceleradores.
A AMD enquadrou seus aceleradores de IA como mais competitivos para casos de uso em que os modelos de IA criam conteúdo ou fazem previsões, em vez de quando um modelo de IA processa terabytes de dados para melhorar. Isso se deve em parte à memória avançada que a AMD está usando em seu chip, disse, o que permite servir o modelo Llama AI da Meta mais rápido do que alguns chips da Nvidia.
“O que você vê é que a plataforma MI325 oferece até 40% mais desempenho de inferência do que o H200 no Llama 3.1”, disse Su, referindo-se a Metas modelo de IA em grande linguagem.
Enfrentando a Intel também
Embora os aceleradores de IA e as GPUs tenham se tornado a parte mais observada da indústria de semicondutores, o principal negócio da AMD tem sido os processadores centrais, ou CPUs, que estão no centro de quase todos os servidores do mundo.
As vendas de data centers da AMD durante o trimestre de junho mais que dobraram no ano passado, para US$ 2,8 bilhões, com chips de IA representando apenas cerca de US$ 1 bilhão, disse a empresa em julho.
A AMD fica com cerca de 34% do total de dólares gastos em CPUs de data centers, disse a empresa. Isso ainda é menos do que Informaçõesque continua sendo o chefe do mercado com sua linha de chips Xeon. A AMD pretende mudar isso com uma nova linha de CPUs, chamada EPYC 5th Gen, que também anunciou na quinta-feira.
Esses chips vêm em uma série de configurações diferentes, desde um chip de 8 núcleos de baixo custo e baixo consumo de energia que custa US$ 527 até processadores de 192 núcleos e 500 watts destinados a supercomputadores que custam US$ 14.813 por chip.
As novas CPUs são particularmente boas para alimentar cargas de trabalho de IA com dados, disse a AMD. Quase todas as GPUs requerem uma CPU no mesmo sistema para inicializar o computador.
“A IA de hoje é realmente uma questão de capacidade de CPU, e você vê isso na análise de dados e em muitos desses tipos de aplicativos”, disse Su.
ASSISTIR: As tendências tecnológicas devem acontecer ao longo dos anos, ainda estamos aprendendo com a IA, diz Lisa Su, CEO da AMD
empréstimo para aposentado do inss
como fazer um empréstimo consignado
emprestimo consignado para aposentados inss
noverde login
empréstimo aposentado inss
empresas de empréstimo consignado
emprestimo aposentado e pensionista inss
emprestimos para aposentados online
empréstimo para pensionistas
como fazer empréstimo pelo picpay