O mais recente modelo de IA do Google está faltando um relatório de segurança importante em uma aparente violação de promessas feitas ao governo dos EUA e nas cúpulas internacionais
O mais recente modelo de IA do Google, Gemini 2.5 Pro, foi lançado sem um relatório de segurança importante – um movimento que os críticos dizem que viola os compromissos públicos que a empresa assumiu ao governo dos EUA e em uma cúpula internacional no ano passado.
Lançado no final de março, a empresa tem elogiou os mais novos Gêmeos Modelo como o mais capaz ainda, alegando que “lidera os benchmarks comuns por margens significativas”.
Mas a falha do Google em lançar um relatório de pesquisa de segurança que o acompanha – também conhecido como um “cartão do sistema” ou “cartão de modelo” – renomeia os compromissos anteriores que a empresa assumiu.
Em uma reunião de julho de 2023 convocada pelo então presidente Joe Biden na Casa Branca, o Google estava entre várias empresas de IA líderes que assinaram uma série de compromissos, incluindo uma promessa de publicar relatórios para todos os principais modelos públicos lançando mais poderosos que o estado atual da arte na época. O Google 2.5 Pro quase certamente seria considerado “no escopo” desses compromissos da Casa Branca.
Na época, Google concordou nos relatórios “Deve incluir as avaliações de segurança realizadas (inclusive em áreas como capacidades perigosas, na medida em que elas são responsáveis por divulgar publicamente), limitações significativas no desempenho que têm implicações para os domínios de uso apropriado, discussão dos efeitos do modelo em riscos sociais como a justiça e o preconceito e os resultados de testes adversários.
Após a reunião do G7 em Hiroshima, no Japão, em outubro de 2023, o Google estava entre as empresas que se comprometeram a cumprir um código de conduta voluntário sobre o desenvolvimento da IA avançada. Esse código G7 inclui um compromisso de “relatar publicamente as capacidades, limitações e domínios da AI Systems avançados de uso apropriado e inadequado, para apoiar a garantia de transparência suficiente,
contribuindo assim para aumentar a responsabilidade “.
Então, em uma cúpula internacional sobre a segurança da IA realizada em Seul, Coréia do Sul, em maio de 2024, a empresa reiterou promessas semelhantes – compensando -se a divulgar publicamente recursos, limitações, limitações, casos de uso apropriados e inadequados e fornecer transparência em torno de suas avaliações e resultados de risco.
Em uma declaração enviada por e -mail, um porta -voz do Google DeepMindque é a divisão do Google responsável pelo desenvolvimento de modelos Gemini do Google, disse Fortuna que o mais recente Gemini passou por “testes de pré-lançamento, incluindo avaliações de desenvolvimento interno e avaliações de garantia que foram realizadas antes do lançamento do modelo”. Eles acrescentaram que um relatório com informações de segurança adicionais e cartões de modelo foi “próximo”. Mas o porta -voz divulgou essa declaração para Fortuna em 2 de abril e desde então nenhum cartão de modelo foi publicado.
As empresas de tecnologia estão retrocedendo as promessas, os especialistas temem
O Google não é o único que enfrenta escrutínio sobre seu compromisso com a segurança da IA. No início deste ano, o OpenAI também não lançou um cartão de modelo oportuno para seu profundo modelo de pesquisa, publicando um cartão do sistema semanas após o lançamento inicial do projeto. O recente relatório de segurança da Meta para Llama 4 tem foi criticado por sua falta de comprimento e detalhes.
“These failures by some of the major labs to have their safety reporting keep pace with their actual model releases are particularly disappointing considering those same companies voluntarily committed to the US and the world to produce those reports—first in commitments to the Biden administration in 2023 and then through similar pledges in 2024 to comply with the AI code of conduct adopted by the G7 nations at their AI summit in Hiroshima,” Kevin Bankston, an consultor sobre governança de IA no Centro de Democracia e Tecnologia, disse Fortuna.
Informações sobre avaliações de segurança do governo também ausentes
A declaração do porta -voz do Google também falhou em abordar questões sobre se o Google 2.5 Pro foi enviado à avaliação externa pelo Instituto de Segurança da AI do Reino Unido ou pelo Instituto de Segurança da AI dos EUA.
O Google já havia fornecido gerações anteriores de seus modelos Gemini para o Instituto de Segurança da IA do Reino Unido para avaliação.
Na Cúpula de Segurança de Seul, o Google se inscreveu no “Compromissos de segurança de IA de fronteira”, que incluíam uma promessa de “fornecer transparência pública na implementação” das avaliações de segurança, exceto quando fazê -lo “aumentaria o risco ou divulgaria informações comerciais sensíveis a um grau desproporcional ao benefício societal”. A promessa disse que informações mais detalhadas que não poderiam ser compartilhadas publicamente ainda devem ser compartilhadas os governos dos países em que as empresas se baseiam, que seriam os EUA no caso do Google.
As empresas também se comprometeram a “explicar como, se é que, se houver, atores externos, como governos, sociedade civil, acadêmicos e o público estão envolvidos no processo de avaliação de riscos de seus modelos de IA”. O Google também viola esse compromisso por não responder a perguntas diretas sobre se ele enviou Gemini 2.5 Pro para avaliadores governamentais dos EUA ou do Reino Unido.
Implantação sobre transparência
O relatório de segurança ausente provocou preocupações de que o Google possa estar favorecendo a rápida implantação sobre a transparência.
“Pesquisa e inovação responsáveis significa que você é transparente sobre as capacidades do sistema”, disse Sandra Wachter, professora e pesquisadora sênior do Oxford Internet Institute, ao Fortuna. “Se este fosse um carro ou um avião, não diríamos: vamos apenas trazer isso ao mercado o mais rápido possível e examinaremos os aspectos de segurança mais tarde. Enquanto com a IA generativa há uma atitude de divulgar isso e se preocupar, investigar e corrigir os problemas mais tarde.”
Mudanças políticas recentes, juntamente com uma crescente rivalidade entre as grandes empresas de tecnologia, podem estar fazendo com que algumas empresas voltem a repensar os compromissos de segurança anteriores à medida que correm para implantar modelos de IA.
“O ponto de pressão para essas empresas de serem mais rápidas, sendo mais rápido, sendo o primeiro, sendo o melhor, sendo dominante, é mais prevalente do que costumava ser”, disse Wachter, acrescentando que os padrões de segurança estavam caindo em todo o setor. Esses padrões de escorregamento podem ser impulsionados por uma crescente preocupação entre os países de tecnologia e alguns governos de que os procedimentos de segurança da IA estão atrapalhando a inovação.
Nos EUA, o governo Trump sinalizou que planeja abordar o regulamento da IA com um toque significativamente mais leve do que o governo Biden. O novo governo já rescindiu uma ordem executiva da era da Biden na IA e tem se aconchegado aos líderes de tecnologia. Na recente cúpula da IA em Paris, o vice-presidente dos EUA, JD Vance, disse que “as políticas pró-crescimento da IA” deveriam ser priorizadas em relação à segurança e a IA foi “uma oportunidade de que o governo Trump não desperdiçará”.
Na cúpula, tanto o Reino Unido quanto os EUA se recusaram a assinar um acordo internacional sobre inteligência artificial que prometeu Uma abordagem “aberta”, “inclusiva” e “ética” para o desenvolvimento da tecnologia.
“Se não podemos contar com essas empresas para cumprir até seus compromissos mais básicos de segurança e transparência ao lançar novos modelos – compensações que elas próprias fizeram voluntariamente -, estão claramente lançando modelos muito rapidamente em sua corrida competitiva para dominar o campo”, disse Bankston.
“Especialmente na medida em que os desenvolvedores de IA continuem a tropeçar nesses compromissos, ele será incumbente aos legisladores desenvolver e aplicar requisitos claros de transparência que as empresas não podem se esquivar”, acrescentou.
Esta história foi originalmente apresentada em Fortune.com



Publicar comentário