Nova York aprova projeto de lei para prevenir desastres alimentados por IA

Os legisladores do estado de Nova York aprovaram um projeto de lei na quinta-feira que visa impedir que modelos de IA de fronteira da OpenAI, Google e Anthropic contribuam para cenários de desastre, incluindo a morte ou ferimentos de mais de 100 pessoas, ou mais de US$ 1 bilhão em danos.
A aprovação da Lei RAISE representa uma vitória para o movimento de segurança em IA, que perdeu força nos últimos anos , à medida que o Vale do Silício e o governo Trump priorizaram velocidade e inovação. Defensores da segurança, incluindo o ganhador do Prêmio Nobel Geoffrey Hinton e o pioneiro em pesquisa em IA Yoshua Bengio, defenderam a Lei RAISE. Caso se torne lei, o projeto de lei estabelecerá o primeiro conjunto de padrões de transparência obrigatórios nos Estados Unidos para laboratórios de IA de ponta.
A Lei RAISE tem algumas das mesmas disposições e objetivos do controverso projeto de lei de segurança de IA da Califórnia, SB 1047, que acabou sendo vetado . No entanto, o coautor do projeto, o senador do estado de Nova York Andrew Gounardes, disse ao TechCrunch em uma entrevista que ele deliberadamente projetou a Lei RAISE de forma que ela não inibisse a inovação entre startups ou pesquisadores acadêmicos — uma crítica comum à SB 1047.
“A janela para a implementação de barreiras está diminuindo rapidamente, dada a rapidez com que essa tecnologia está evoluindo”, disse o senador Gounardes. “As pessoas que melhor conhecem [a IA] dizem que esses riscos são incrivelmente prováveis […] Isso é alarmante.”
A Lei RAISE agora está sendo encaminhada para a mesa da governadora de Nova York, Kathy Hochul, onde ela pode sancionar o projeto de lei, devolvê-lo para emendas ou vetá-lo completamente.
Se sancionada, a lei de segurança de IA de Nova York exigirá que os maiores laboratórios de IA do mundo publiquem relatórios completos de segurança sobre seus modelos de IA de ponta. A lei também exige que os laboratórios de IA relatem incidentes de segurança, como incidentes relacionados ao comportamento de modelos de IA ou roubo de modelos de IA por pessoas mal-intencionadas, caso ocorram. Caso as empresas de tecnologia não cumpram esses padrões, a Lei RAISE autoriza o procurador-geral de Nova York a aplicar penalidades civis de até US$ 30 milhões.
A Lei RAISE visa regulamentar de forma rigorosa as maiores empresas do mundo — sejam elas sediadas na Califórnia (como OpenAI e Google) ou na China (como DeepSeek e Alibaba). Os requisitos de transparência do projeto de lei se aplicam a empresas cujos modelos de IA foram treinados com mais de US$ 100 milhões em recursos computacionais (aparentemente, mais do que qualquer modelo de IA disponível atualmente) e estão sendo disponibilizados aos residentes de Nova York.
Evento Techcrunch
Boston, MA | 15 de julho
REGISTRE-SE AGORAEmbora semelhante ao SB 1047 em alguns aspectos, o RAISE Act foi criado para abordar críticas a projetos de lei de segurança de IA anteriores, de acordo com Nathan Calvin, vice-presidente de Assuntos de Estado e conselheiro geral da Encode, que trabalhou neste projeto de lei e no SB 1047. Notavelmente, o RAISE Act não exige que os desenvolvedores de modelos de IA incluam um "interruptor de segurança" em seus modelos, nem responsabiliza as empresas que pós-treinam modelos de IA de fronteira por danos críticos.
No entanto, o Vale do Silício tem se oposto significativamente ao projeto de lei de segurança da IA de Nova York, disse Alex Bores, deputado estadual de Nova York e coautor da Lei RAISE, ao TechCrunch. Bores considerou a resistência da indústria previsível, mas afirmou que a Lei RAISE não limitaria a inovação das empresas de tecnologia de forma alguma.
"O NY RAISE Act é mais um projeto de lei de IA estúpido, estúpido, de nível estadual, que só prejudicará os EUA em um momento em que nossos adversários estão correndo na frente", disse o sócio geral da Andreessen Horowitz, Anjney Midha, em uma postagem de sexta-feira no X. A Andreessen Horowitz e a incubadora de startups Y Combinator foram alguns dos oponentes mais ferozes do SB 1047.
Tópico interno sobre política de beisebol: Ontem à noite, Nova York aprovou a Lei RAISE, que estabeleceria alguns requisitos de transparência para modelos de fronteira. Nós, @anthropicai, não nos posicionamos sobre este projeto de lei. Mas achei que seria útil dar um pouco mais de contexto:
— Jack Clark (@jackclarkSF) 13 de junho de 2025
O Anthropic, laboratório de IA focado em segurança que pediu padrões federais de transparência para empresas de IA no início deste mês, não chegou a uma posição oficial sobre o projeto de lei, disse o cofundador Jack Clark em uma publicação na sexta-feira no X. No entanto, Clark expressou algumas queixas sobre a abrangência do RAISE Act, observando que ele poderia representar um risco para "empresas menores".
Quando questionado sobre as críticas da Anthropic, o senador estadual Gounardes disse ao TechCrunch que achava que "erravam o alvo", observando que ele elaborou o projeto de lei para não se aplicar a pequenas empresas.
OpenAI, Google e Meta não responderam ao pedido de comentário do TechCrunch.
Outra crítica comum à Lei RAISE é que os desenvolvedores de modelos de IA simplesmente não ofereciam seus modelos de IA mais avançados no estado de Nova York. Essa foi uma crítica semelhante feita à SB 1047, e é em grande parte o que acontece na Europa, graças às rígidas regulamentações tecnológicas do continente.
O deputado Bores disse ao TechCrunch que o ônus regulatório da Lei RAISE é relativamente leve e, portanto, não deveria exigir que as empresas de tecnologia parem de operar seus produtos em Nova York. Considerando que Nova York tem o terceiro maior PIB dos EUA, sair do estado não é algo que a maioria das empresas encararia levianamente.
“Não quero subestimar a mesquinharia política que pode acontecer, mas estou muito confiante de que não há razão econômica para [as empresas de IA] não disponibilizarem seus modelos em Nova York”, disse o deputado Bores.
techcrunch