O senador estadual da Califórnia, Scott Wiener, introduziu na quarta -feira novas emendas em seu último projeto de lei, SB 53, que exigiria que as maiores empresas de IA do mundo publicassem protocolos de segurança e proteção e relatórios de emissão quando ocorrem incidentes de segurança.
Se assinado, a Califórnia seria o primeiro estado a impor requisitos significativos de transparência aos principais desenvolvedores de IA, provavelmente incluindo o Openai, Google, Antrópico e Xai.
O projeto de lei anterior da AI, SB 1047, do senador Wiener, incluiu requisitos semelhantes para os desenvolvedores de modelos de IA publicarem relatórios de segurança. No entanto, o Vale do Silício lutou ferozmente contra esse projeto de lei, e foi finalmente vetado pelo governador Gavin Newsom. O governador da Califórnia pediu então um grupo de líderes de IA-incluindo o principal pesquisador de Stanford e co-fundador da World Labs, Fei-FEI LI-para formar um grupo de políticas e estabelecer metas para os esforços de segurança da IA do estado.
O Grupo de Políticas de AI da Califórnia publicou recentemente suas recomendações finais, citando a necessidade de “requisitos para a indústria publicar informações sobre seus sistemas” para estabelecer um “ambiente de evidência robusto e transparente”. O escritório do senador Wiener disse em um comunicado à imprensa que as emendas do SB 53 foram fortemente influenciadas por este relatório.
“O projeto continua sendo um trabalho em andamento, e estou ansioso para trabalhar com todas as partes interessadas nas próximas semanas para refinar essa proposta para a lei mais científica e justa que pode ser”, disse o senador Wiener no comunicado.
O SB 53 visa encontrar um equilíbrio que o governador Newsom alegou que o SB 1047 não conseguiu alcançar – idealmente, criando requisitos significativos de transparência para os maiores desenvolvedores de IA sem impedir o rápido crescimento da indústria de IA da Califórnia.
“Essas são preocupações sobre as quais minha organização e outras pessoas falam há um tempo”, disse Nathan Calvin, vice -presidente de assuntos estatais do grupo de segurança da IA sem fins lucrativos, codifica, em entrevista ao TechCrunch. “Ter as empresas explicarem ao público e ao governo quais medidas estão tomando para lidar com esses riscos parecem um passo mínimo e razoável a ser tomado”.
O projeto de lei também cria proteções de denunciantes para os funcionários dos laboratórios de IA que acreditam que a tecnologia de sua empresa representa um “risco crítico” para a sociedade – definido no projeto de lei como contribuindo para a morte ou lesão de mais de 100 pessoas, ou mais de US $ 1 bilhão em danos.
Além disso, o projeto pretende criar Calcompute, um cluster de computação em nuvem pública para apoiar startups e pesquisadores que desenvolvem IA em larga escala.
Ao contrário do SB 1047, o novo projeto de lei do senador Wiener não torna os desenvolvedores de modelos de IA responsáveis pelos danos de seus modelos de IA. O SB 53 também foi projetado para não representar um ônus para as startups e pesquisadores que ajustam os modelos de IA dos principais desenvolvedores de IA ou usam modelos de código aberto.
Com as novas emendas, o SB 53 agora está indo para o Comitê de Assembléia Estadual da Califórnia sobre privacidade e proteção do consumidor para aprovação. Caso contrário, o projeto também precisará passar por vários outros órgãos legislativos antes de chegar à mesa do governador Newsom.
Do outro lado dos EUA, a governadora de Nova York, Kathy Hochul, agora está considerando uma conta de segurança de IA semelhante, a Lei Raise, que também exigiria que grandes desenvolvedores de IA publiquem relatórios de segurança e segurança.
O destino das leis estaduais da IA, como o Raise Act e o SB 53, ficou brevemente em risco, pois os legisladores federais consideraram uma moratória de IA de 10 anos no regulamento estadual da IA-uma tentativa de limitar uma “retalhos de retalhos” das leis de IA que as empresas teriam para navegar. No entanto, essa proposta falhou em uma votação de 99-1 no Senado no início de julho.
“Garantir que a IA seja desenvolvida com segurança não deve ser controversa – deve ser fundamental”, disse Geoff Ralston, ex -presidente da Y Combinator, em comunicado ao TechCrunch. “O Congresso deve liderar, exigindo transparência e responsabilidade das empresas que constroem modelos de fronteira. Mas sem nenhuma ação federal séria à vista, os estados devem intensificar. O SB 53 da Califórnia é um exemplo pensativo e bem estruturado de liderança estatal”.
Até este ponto, os legisladores não conseguiram controlar as empresas de IA com os requisitos de transparência exigidos pelo Estado. O Antrópico endossou amplamente a necessidade de maior transparência nas empresas de IA e até expressou otimismo modesto sobre as recomendações do grupo de políticas de IA da Califórnia. Mas empresas como OpenAI, Google e Meta foram mais resistentes a esses esforços.
Os principais desenvolvedores de modelos de IA normalmente publicam relatórios de segurança para seus modelos de IA, mas foram menos consistentes nos últimos meses. O Google, por exemplo, decidiu não publicar um relatório de segurança para o seu modelo de IA mais avançado já lançado, Gemini 2.5 Pro, até meses após a disponibilização. O Openai também decidiu não publicar um relatório de segurança para o seu modelo GPT-4.1. Mais tarde, surgiu um estudo de terceiros que sugeriu que pode estar menos alinhado do que os modelos anteriores de IA.
O SB 53 representa uma versão atenuada das contas de segurança anteriores da IA, mas ainda poderia forçar as empresas de IA a publicar mais informações do que hoje. Por enquanto, eles estarão assistindo de perto quando o senador Wiener testa mais uma vez esses limites.