Aqui está o que isso significa para as empresas de tecnologia dos EUA

Aqui está o que isso significa para as empresas de tecnologia dos EUA


A lei histórica de inteligência artificial da União Europeia entra oficialmente em vigor na quinta-feira – e significa mudanças difíceis para os gigantes da tecnologia americanos.

A Lei da IA, uma regra histórica que visa reger a forma como as empresas desenvolvem, utilizam e aplicam a IA, recebeu aprovação final pelos estados membros da UE, pelos legisladores e pela Comissão Europeia – o órgão executivo da UE – em maio.

A CNBC analisou tudo o que você precisa saber sobre a Lei de IA – e como ela afetará as maiores empresas globais de tecnologia.

O que é a Lei de IA?

A Lei da IA ​​é um ato legislativo da UE que rege a inteligência artificial. Proposta pela primeira vez pela Comissão Europeia em 2020, a lei visa abordar os impactos negativos da IA.

Terá como alvo principal as grandes empresas de tecnologia dos EUA, que são atualmente os principais construtores e desenvolvedores dos sistemas de IA mais avançados.

No entanto, muitas outras empresas ficarão abrangidas pelas regras – até mesmo empresas não tecnológicas.

O regulamento estabelece um quadro regulamentar abrangente e harmonizado para a IA em toda a UE, aplicando uma abordagem baseada no risco para regular a tecnologia.

Tanguy Van Overstraeten, chefe da área de tecnologia, mídia e tecnologia do escritório de advocacia Linklaters em Bruxelas, disse que a Lei de IA da UE é “a primeira desse tipo no mundo”.

“É provável que tenha impacto em muitas empresas, especialmente aquelas que desenvolvem sistemas de IA, mas também aquelas que os implantam ou apenas os utilizam em determinadas circunstâncias”.

A legislação aplica uma abordagem baseada no risco para regular a IA, o que significa que diferentes aplicações da tecnologia são regulamentadas de forma diferente, dependendo do nível de risco que representam para a sociedade.

Para aplicações de IA consideradas de “alto risco”, por exemplo, serão introduzidas obrigações rigorosas ao abrigo da Lei de IA. Essas obrigações incluem sistemas adequados de avaliação e mitigação de riscos, conjuntos de dados de formação de alta qualidade para minimizar o risco de parcialidade, registo de rotina de atividades e partilha obrigatória de documentação detalhada sobre modelos com as autoridades para avaliar a conformidade.

Exemplos de sistemas de IA de alto risco incluem veículos autônomos, dispositivos médicos, sistemas de decisão de empréstimos, pontuação educacional e sistemas remotos de identificação biométrica.

A lei também impõe uma proibição geral de quaisquer aplicações de IA consideradas “inaceitáveis” em termos do seu nível de risco.

As aplicações de IA de risco inaceitável incluem sistemas de “pontuação social” que classificam os cidadãos com base na agregação e análise dos seus dados, no policiamento preditivo e na utilização de tecnologia de reconhecimento emocional no local de trabalho ou nas escolas.

O que isso significa para as empresas de tecnologia dos EUA?

Gigantes dos EUA como Microsoft, Google, Amazonas, Maçãe meta têm feito parcerias agressivas e investido bilhões de dólares em empresas que acreditam poder liderar em inteligência artificial em meio a um frenesi global em torno da tecnologia.

Plataformas de nuvem como Microsoft Azure, Amazon Web Services e Google Cloud também são essenciais para apoiar o desenvolvimento de IA, dada a enorme infraestrutura computacional necessária para treinar e executar modelos de IA.

A este respeito, as grandes empresas tecnológicas estarão, sem dúvida, entre os nomes mais visados ​​pelas novas regras.

“A Lei da IA ​​tem implicações que vão muito além da UE. Aplica-se a qualquer organização com qualquer operação ou impacto na UE, o que significa que a Lei da IA ​​provavelmente se aplicará a você, não importa onde você esteja localizado”, Charlie Thompson, sênior vice-presidente de EMEA e LATAM da empresa de software empresarial Appian, disse à CNBC por e-mail.

“Isso trará muito mais escrutínio sobre os gigantes da tecnologia no que diz respeito às suas operações no mercado da UE e ao uso de dados dos cidadãos da UE”, acrescentou Thompson.

A Meta já restringiu a disponibilidade do seu modelo de IA na Europa devido a preocupações regulatórias – embora esta mudança não tenha sido necessariamente devida à Lei de IA da UE.

O proprietário do Facebook disse no início deste mês que não disponibilizaria seus modelos LLaMa na UE, citando a incerteza sobre se ele cumpre o Regulamento Geral de Proteção de Dados da UE, ou GDPR.

CEO da Capgemini: Não existe uma solução milagrosa para colher os benefícios da IA

A empresa foi anteriormente ordenada a parar de treinar seus modelos em postagens do Facebook e Instagram na UE devido a preocupações de que pudesse violar o GDPR.

Como a IA generativa é tratada?

A IA generativa é rotulada na Lei de IA da UE como um exemplo de inteligência artificial de “uso geral”.

Este rótulo refere-se a ferramentas destinadas a realizar uma ampla gama de tarefas em um nível semelhante – se não melhor – ao de um ser humano.

Os modelos de IA de uso geral incluem, mas não estão limitados a, GPT da OpenAI, Gemini do Google e Claude da Anthropic.

Para estes sistemas, a Lei da IA ​​impõe requisitos rigorosos, como o respeito pela lei de direitos de autor da UE, a emissão de divulgações de transparência sobre a forma como os modelos são treinados e a realização de testes de rotina e proteções adequadas de segurança cibernética.

Porém, nem todos os modelos de IA são tratados igualmente. Os criadores de IA afirmaram que a UE precisa de garantir que os modelos de código aberto – que são gratuitos para o público e podem ser utilizados para construir aplicações de IA personalizadas – não sejam regulamentados de forma demasiado estrita.

Exemplos de modelos de código aberto incluem LLaMa da Meta, Stability AI’s Stable Diffusion e Mistral’s 7B.

A UE estabelece algumas exceções para modelos de IA generativa de código aberto.

Mas para se qualificarem para a isenção das regras, os fornecedores de código aberto devem disponibilizar publicamente os seus parâmetros, incluindo pesos, arquitetura do modelo e utilização do modelo, e permitir “acesso, utilização, modificação e distribuição do modelo”.

Modelos de código aberto que apresentam riscos “sistêmicos” não contarão para isenção, de acordo com a Lei de IA.

A lacuna entre empresas de IA de código fechado e de código aberto é menor do que pensávamos: Hugging Face

É “necessário avaliar cuidadosamente quando as regras são acionadas e o papel das partes interessadas envolvidas”, disse ele. [who said this?] disse.

O que acontece se uma empresa violar as regras?

Empresas que violam a Lei de IA da UE poderia ser multado entre 35 milhões de euros (US$ 41 milhões) ou 7% das suas receitas anuais globais — o valor que for maior — a 7,5 milhões ou 1,5% das receitas anuais globais.

O tamanho das penalidades dependerá da infração e do porte da empresa multada.

Isto é mais elevado do que as multas possíveis ao abrigo do GDPR, a rigorosa lei europeia de privacidade digital. As empresas enfrentam multas de até 20 milhões de euros ou 4% do volume de negócios global anual por violações do GDPR.

A supervisão de todos os modelos de IA abrangidos pelo âmbito de aplicação da Lei — incluindo sistemas de IA de uso geral — ficará sob a responsabilidade do Gabinete Europeu de IA, um organismo regulador criado pela Comissão em fevereiro de 2024.

Jamil Jiva, chefe global de gestão de ativos da empresa fintech Linedata, disse à CNBC que a UE “entende que precisam aplicar multas significativas às empresas infratoras se quiserem que as regulamentações tenham impacto”.

Martin Sorrell sobre o futuro da publicidade na era da IA

Semelhante à forma como o GDPR demonstrou a forma como a UE poderia “flexibilizar a sua influência regulatória para impor as melhores práticas de privacidade de dados” a nível global, com a Lei da IA, o bloco está novamente a tentar replicar isto, mas para a IA, acrescentou Jiva.

Ainda assim, é importante notar que, embora a Lei da IA ​​tenha finalmente entrado em vigor, a maioria das disposições da lei não entrará em vigor até pelo menos 2026.

As restrições aos sistemas de uso geral não começarão antes de 12 meses após a entrada em vigor da Lei AI.

Os sistemas generativos de IA que estão atualmente disponíveis comercialmente – como o ChatGPT da OpenAI e o Gemini do Google – também recebem um “período de transição” de 36 meses para colocar seus sistemas em conformidade.



empréstimo para aposentado do inss

como fazer um empréstimo consignado

emprestimo consignado para aposentados inss

noverde login

empréstimo aposentado inss

empresas de empréstimo consignado

emprestimo aposentado e pensionista inss

emprestimos para aposentados online

empréstimo para pensionistas

como fazer empréstimo pelo picpay

Click on this next small foxled banner , please,and afterwards ,translate please the content of this foxled banner :. Aumenta il traffico del tuo sito web !.