A Google, a xAI e a Microsoft vão partilhar versões ainda não lançadas dos seus modelos de IA com o governo dos Estados Unidos, numa iniciativa que tem como objetivo reduzir as ameaças à cibersegurança antes da sua disponibilização pública.
Em comunicado, o Center for AI Standards and Innovation (CAISI), integrado no Departamento do Comércio dos Estados Unidos, avança que a avaliação dos modelos será crucial para compreender as suas capacidades e para proteger a segurança nacional.
Não perca nenhuma notícia importante da atualidade de tecnologia e acompanhe tudo em tek.sapo.pt
“Uma avaliação científica independente e rigorosa é essencial para compreender os sistemas de IA de última geração e as suas implicações para a segurança nacional”, afirma Chris Fall, diretor do CAISI, acrescentando que os acordos com as tecnológicas vão ajudar o governo a “reforçar a sua atuação em prol do interesse público num momento crítico”.
Até à data, o CAISI já realizou mais de 40 avaliações, incluindo de modelos de última geração que ainda não foram lançados. Recorde-se que, em 2024, a OpenAI e a Anthropic já tinham assinado acordos com o governo dos Estados Unidos para “investigação, testes e avaliação” dos seus modelos de IA.
OpenAI e Anthropic em acordo nos EUA para assegurar uso seguro e ético da IA
São os primeiros acordos governamentais do género e chegam num momento em que as empresas que desenvolvem modelos de IA…
Os novos acordos surgem numa altura em que crescem as preocupações relativamente aos riscos que os modelos de IA mais poderosos, como o Claude Mythos, podem representar caso sejam disponibilizados ao público, sobretudo para a cibersegurança.
A Anthropic reconheceu que o Claude Mythos não será tornado público de forma geral por causa dos riscos que representa. No entanto, a empresa argumenta que a resposta certa não é esconder essas capacidades, mas sim mobilizá-las para fins defensivos, dando aos especialistas em segurança uma vantagem que lhes permita identificar e corrigir falhas, antes que sejam exploradas.
Nesse sentido, o modelo faz parte do Project Glasswing e foi disponibilizado apenas a empresas e organizações responsáveis por infraestruturas críticas. Entre as empresas contam-se gigantes tecnológicas como Apple, Amazon, Cisco, Google, Microsoft ou Nvidia.

Cibersegurança
Project Glasswing: Anthropic reúne gigantes tecnológicas para proteger o software crítico do mundo com IA
A iniciativa da Anthropic reúne empresas como AWS, Apple, Google, Microsoft e Cisco, e é alimentada pelo Claude Mythos Preview, um novo modelo capaz de encontrar vulnerabilidades de software a um nível sem precedentes.
De modo semelhante, a OpenAI anunciou o lançamento limitado do GPT-5.4-Cyber, um modelo de IA desenvolvido especificamente para identificar vulnerabilidades em software.
A empresa afirmou que o GPT-5.4-Cyber será inicialmente partilhado com centenas de organizações integradas no programa Trusted Access for Cyber, uma iniciativa lançada em fevereiro para aproximar as tecnologias da OpenAI de profissionais e parceiros da área da cibersegurança.
Com o lançamento do GPT-5.5, a OpenAI está também a trabalhar numa versão concebida para tarefas de cibersegurança defensiva, que, segundo Chris Lehane, responsável de assuntos globais da tecnológica, está a ser testada em colaboração com o CAISI.
