Após meses de debate, um plano no Congresso para impedir que os estados regulamentaram a inteligência artificial foi retirada do grande projeto de lei do orçamento federal nesta semana. A moratória de 10 anos proposta teria impedido que os estados aplicassem regras e leis sobre IA se o estado aceitasse o financiamento federal para o acesso à banda larga.
A questão exposta divide -se entre especialistas em tecnologia e políticos, com alguns republicanos do Senado se unindo aos democratas em se opor à medida. O Senado finalmente votou 99-1 para remover a proposta do projeto de lei, que também inclui a extensão dos cortes federais de impostos e cortes federais de 2017 em serviços como Medicaid e Snap. Os líderes republicanos do Congresso disseram que querem ter a medida da mesa do presidente Donald Trump até 4 de julho.
As empresas de tecnologia e muitos republicanos do Congresso apoiaram a moratória, dizendo que isso impediria uma “colcha de retalhos” de regras e regulamentos entre os estados e os governos locais que pudessem dificultar o desenvolvimento da IA - especialmente no contexto da competição com a China. Críticos, incluindo defensores do consumidor, disseram que os estados devem ter uma mão livre para proteger as pessoas de problemas em potencial com a tecnologia de rápido crescimento.
“O Senado se uniu hoje à noite para dizer que não podemos simplesmente atropelar as boas leis de proteção do consumidor do estado”, disse a senadora Maria Cantwell, democrata de Washington, em comunicado. “Os estados podem combater Robocalls, DeepFakes e fornecer leis seguras de veículos autônomos. Isso também nos permite trabalhar juntos nacionalmente para fornecer uma nova estrutura federal sobre inteligência artificial que acelera a liderança dos EUA na IA, enquanto ainda protege os consumidores”.
Apesar de a moratória ser retirada desse projeto, o debate sobre como o governo pode equilibrar adequadamente a proteção do consumidor e o apoio à inovação tecnológica provavelmente continuará. “Houve muitas discussões em nível estadual, e eu acho que é importante abordarmos esse problema em vários níveis”, disse Anjana Susarla, professora da Universidade Estadual de Michigan que estuda a IA. “Poderíamos abordá -lo em nível nacional. Podemos abordá -lo também em nível estadual. Acho que precisamos de ambos”.
Vários estados já começaram a regular a IA
A moratória proposta teria impedido os estados de aplicar qualquer regulamentação, incluindo aqueles que já estão nos livros. As exceções são regras e leis que facilitam as coisas para o desenvolvimento da IA e aqueles que aplicam os mesmos padrões a modelos e sistemas que não são semelhantes. Esses tipos de regulamentos já estão começando a aparecer. O maior foco não está nos EUA, mas na Europa, onde a União Europeia já implementou padrões para a IA. Mas os estados estão começando a entrar em ação.
Colorado passou um conjunto das proteções do consumidor no ano passado, definido para entrar em vigor em 2026. A Califórnia adotou mais de uma dúzia de AI relacionada à IA leis no ano passado. Outros estados têm leis e regulamentos que geralmente lidam com questões específicas, como DeepFakes ou exigem que os desenvolvedores de IA publiquem informações sobre seus dados de treinamento. No nível local, alguns regulamentos também abordam a potencial discriminação de emprego se os sistemas de IA forem usados na contratação.
“Os estados estão em todo o mapa quando se trata do que querem regular na IA”, disse Arsen Kourinian, sócio do escritório de advocacia Mayer Brown. Até agora em 2025, os legisladores estaduais introduziram pelo menos 550 propostas em torno da IA, de acordo com a Conferência Nacional de Legislaturas estaduais. Na audiência do Comitê da Câmara, no mês passado, o deputado Jay Obernolte, republicano da Califórnia, sinalizou o desejo de ficar à frente de mais regulamentação em nível estadual. “Temos uma quantidade limitada de pista legislativa para poder resolver esse problema antes que os estados fiquem muito à frente”, disse ele.
Leia mais: AI Essentials: 29 maneiras de fazer o Gen AI funcionar para você, de acordo com nossos especialistas
Enquanto alguns estados têm leis nos livros, nem todos entraram em vigor ou viram qualquer execução. Isso limita o potencial impacto a curto prazo de uma moratória, disse Cobun Zweifel-Keegan, diretor administrativo em Washington para IAPP. “Ainda não há realmente nenhuma aplicação.”
Uma moratória provavelmente impediria os legisladores e formuladores de políticas estaduais de desenvolver e propor novos regulamentos, disse Zweifel-Keegan. “O governo federal se tornaria o regulador primário e potencialmente único em torno dos sistemas de IA”, disse ele.
O que uma moratória no regulamento da IA do estado significaria
Os desenvolvedores de IA pediram que qualquer corrimão colocado em seu trabalho fosse consistente e simplificado.
“Precisamos, como indústria e como país, um padrão federal claro, seja qual for”, disse Alexandr Wang, fundador e CEO da empresa de dados, à escala da IA, aos legisladores durante um Audiência de abril. “Mas precisamos de um, precisamos de clareza quanto a um padrão federal e ter preempção para evitar esse resultado onde você tem 50 padrões diferentes”.
Durante um comitê de comércio do Senado audição em maioSam Altman, CEO da Openai, disse ao senador Ted Cruz, um republicano do Texas, que um sistema regulatório no estilo da UE “seria desastroso” para a indústria. Altman sugeriu que a indústria desenvolvesse seus próprios padrões.
Questionado pelo senador Brian Schatz, democrata do Havaí, se a auto-regulação da indústria for suficiente no momento, Altman disse que achava que alguns corrimões seriam bons, mas “é fácil ir muito longe. Como aprendi mais sobre como o mundo funciona, tenho mais medo de que ele possa ir muito longe e ter consequências muito ruins”. (Divulgação: Ziff Davis, empresa controladora da CNET, em abril entrou com uma ação contra o Openai, alegando que ele violou a Ziff Davis Copyrights em treinamento e operação de seus sistemas de IA.)
Nem todas as empresas de IA estão apoiando uma moratória, no entanto. Em um New York Times Op-edO CEO antrópico Dario Amodei chamou de “um instrumento muito franco”, dizendo que o governo federal deveria criar padrões de transparência para as empresas de IA. “Ter esse padrão nacional de transparência ajudaria não apenas o público, mas também o Congresso a entender como a tecnologia está se desenvolvendo, para que os legisladores possam decidir se é necessária mais ação do governo”.
Uma moratória de 10 anos proposta sobre as leis estaduais da IA está agora nas mãos do Senado dos EUA, onde seu Comitê de Comércio, Ciência e Transporte já realizou audiências sobre inteligência artificial.
Preocupações das empresas, tanto os desenvolvedores que criam sistemas de IA e os “implantadores” que os usam em interações com os consumidores, geralmente decorrem de temores que os estados exigirão trabalhos significativos, como avaliações de impacto ou avisos de transparência antes que um produto seja divulgado, disse Kourinian. Os advogados do consumidor disseram que mais regulamentos são necessários e dificultar a capacidade dos estados pode prejudicar a privacidade e a segurança dos usuários.
Uma moratória sobre regras e leis estaduais específicas pode resultar em mais questões de proteção ao consumidor que estão sendo tratadas no tribunal ou pelos procuradores gerais do estado, disse Kourinian. As leis existentes em torno de práticas injustas e enganosas que não são específicas para a IA ainda se aplicariam. “O tempo dirá como os juízes interpretarão essas questões”, disse ele.
Susarla disse que a difusão da IA entre as indústrias significa que os estados podem ser capazes de regular questões como privacidade e transparência de maneira mais ampla, sem se concentrar na tecnologia. Mas uma moratória no regulamento da IA pode levar a essas políticas que estão sendo vinculadas em ações judiciais. “Tem que ser algum tipo de equilíbrio entre ‘Não queremos parar de inovação’, mas, por outro lado, também precisamos reconhecer que pode haver consequências reais”, disse ela.
Muita política em torno da governança dos sistemas de IA acontece por causa das chamadas regras e leis agnósticas de tecnologia, disse Zweifel-Keegan. “Vale lembrar também que existem muitas leis existentes e há um potencial para fazer novas leis que não acionam a moratória, mas se aplicam aos sistemas de IA, desde que se apliquem a outros sistemas”, disse ele.
O que vem a seguir para o regulamento federal da IA?
Um dos principais legisladores que pressiona a remoção da moratória do projeto foi o senador Marsha Blackburn, republicano do Tennessee. Blackburn disse que queria garantir que os estados fossem capazes de proteger crianças e criadores, como os músicos country pelo qual seu estado é famoso. “Até que o Congresso aprove a legislação preventiva do governo federal, como a Lei de Segurança Online das Crianças e uma estrutura de privacidade on -line, não podemos impedir que os estados permaneçam na lacuna para proteger os americanos vulneráveis de danos – incluindo criadores do Tennessee e crianças preciosas”, disse ela em comunicado.
Grupos que se opunham à preempção das leis estaduais disseram que esperam que o próximo passo ao Congresso seja tomar medidas para a regulamentação real da IA, o que poderia tornar as leis estaduais desnecessárias. Se as empresas de tecnologia “procurarão preempção federal, elas devem procurar preempção federal junto com uma lei federal que fornece regras da estrada”, disse -me Jason Van Beek, diretor de assuntos governamentais do Future of Life Institute.
Ben Winters, diretor de IA e privacidade de dados da Federação Consumidora da América, disse que o Congresso pode adotar a idéia de pré-emitir leis estaduais novamente em legislação separada. “Fundamentalmente, é apenas uma má ideia”, ele me disse. “Realmente não importa necessariamente se for feito no processo orçamentário”.