Deepseek abalou o ecossistema de AI liderado pelos EUA com seu mais recente modelo, raspando centenas de bilhões em líder de chip Nvidia’s Cap. Enquanto os líderes do setor lidam com as consequências, as empresas de IA menores vêem uma oportunidade de escalar com a startup chinesa.
Várias empresas relacionadas à IA disseram à CNBC que o emergência de Deepseek é uma oportunidade “massiva” para elas, em vez de uma ameaça.
“Os desenvolvedores estão muito interessados em substituir os modelos caros e fechados da OpenAI por modelos de código aberto como Deepseek R1 …”, disse Andrew Feldman, CEO da Systems Cerebras de startup de chips de inteligência artificial.
A empresa compete com as unidades de processamento gráfico da Nvidia e oferece serviços baseados em nuvem por meio de seus próprios clusters de computação. Feldman disse que a libertação do modelo R1 gerou um dos maiores picos de todos os tempos da Cerebras em demanda por seus serviços.
“R1 mostra isso [AI market] O crescimento não será dominado por uma única empresa-os fossos de hardware e software não existem para modelos de código aberto “, acrescentou Feldman.
Código aberto refere -se ao software no qual o código -fonte é disponibilizado gratuitamente na Web para obter possíveis modificações e redistribuição. Os modelos da Deepseek são de código aberto, ao contrário dos concorrentes como o OpenAI.
A Deepseek também afirma que seu modelo de raciocínio R1 rivaliza com a melhor tecnologia americana, apesar de correr a custos mais baixos e ter sido treinado sem unidades de processamento gráfico de ponta, embora os observadores e concorrentes do setor tenham questionado essas afirmações.
“Como nos mercados de PC e da Internet, os preços da queda ajudam a alimentar a adoção global. O mercado de IA está em um caminho de crescimento secular semelhante”, disse Feldman.
Chips de inferência
A Deepseek pode aumentar a adoção de novas tecnologias de chip, acelerando o ciclo da IA desde o treinamento até a fase de “inferência”, disseram startups de chip e especialistas do setor.
A inferência refere -se ao ato de usar e aplicar a IA para fazer previsões ou decisões com base em novas informações, em vez da construção ou treinamento do modelo.
“Para simplificar, o treinamento de IA é sobre a construção de uma ferramenta ou algoritmo, enquanto a inferência é realmente implantar essa ferramenta para uso em aplicações reais”, disse Phelix Lee, analista de ações da Morningstar, com foco em semicondutores.
Enquanto a Nvidia possui uma posição dominante nas GPUs usadas para o treinamento de IA, muitos concorrentes vêem espaço para expansão no segmento “inferência”, onde eles prometem maior eficiência por custos mais baixos.
O treinamento de IA é muito intensivo em computação, mas a inferência pode funcionar com chips menos poderosos que são programados para executar uma gama mais estreita de tarefas, acrescentou Lee.
Várias startups de chip de IA disseram à CNBC que estavam vendo mais demanda por chips de inferência e computação à medida que os clientes adotam e se baseiam no modelo de código aberto da Deepseek.
“[DeepSeek] demonstrou que modelos abertos menores podem ser treinados para serem tão capazes ou mais capazes do que os modelos proprietários maiores e isso pode ser feito por uma fração do custo “, disse Sid Sheth, CEO da matrase D de start-up da AI Chip.
“Com a ampla disponibilidade de modelos pequenos, eles catalisaram a era da inferência”, disse ele à CNBC, acrescentando que a empresa viu recentemente um aumento no interesse dos clientes globais que desejam acelerar seus planos de inferência.
Robert Wachen, co-fundador e COO da AI Chipmaker gravado, disse que dezenas de empresas entraram em contato com a startup desde que Deepseek lançou seus modelos de raciocínio.
“As empresas são 1738903023 Mudando seus gastos de grupos de treinamento para aglomerados de inferência “, disse ele.
“Deepseek-r1 provou que a computação em tempo de inferência é agora o [state-of-the-art] A abordagem para todos os principais fornecedores de modelos e o pensamento não é barato – precisaremos apenas de obter mais e mais capacidade de computação para escalar esses modelos para milhões de usuários “.
Paradoxo de Jevon
Analistas e especialistas do setor concordam que as realizações da DeepSeek são um impulso para a inferência de IA e a indústria de chips AI mais ampla.
“O desempenho de Deepseek parece basear -se em uma série de inovações de engenharia que reduzem significativamente os custos de inferência, além de melhorar o custo de treinamento”, de acordo com um relatório de Bain & Company.
“Em um cenário de alta, as melhorias em andamento de eficiência levariam a inferência mais barata, estimulando uma maior adoção de IA”, acrescentou.
Esse padrão explica o paradoxo de Jevon, uma teoria na qual as reduções de custos em uma nova tecnologia impulsionam a demanda.
A empresa de serviços financeiros e investimentos Wedbush disse em uma nota de pesquisa na semana passada que continua esperando o uso da IA nos consumidores empresariais e de varejo em todo o mundo para impulsionar a demanda.
Falando com o “Fast Money” da CNBC na semana passada, Sunny Madra, COO da Groq, que desenvolve chips para inferência de IA, sugeriu que, à medida que a demanda geral por IA crescer, jogadores menores terão mais espaço para crescer.
“Como o mundo vai precisar de mais tokens [a unit of data that an AI model processes] A Nvidia não pode fornecer batatas fritas suficientes para todos, por isso oferece oportunidades para vendermos no mercado ainda mais agressivamente “, disse Madra.
empréstimo para aposentado do inss
como fazer um empréstimo consignado
emprestimo consignado para aposentados inss
noverde login
empréstimo aposentado inss
empresas de empréstimo consignado
emprestimo aposentado e pensionista inss
emprestimos para aposentados online
empréstimo para pensionistas
como fazer empréstimo pelo picpay