Google, Microsoft e xAI vão partilhar modelos de IA com o governo dos EUA para testar riscos de cibersegurança


A Google, a xAI e a Microsoft vão partilhar versões ainda não lançadas dos seus modelos de IA com o governo dos Estados Unidos, numa iniciativa que tem como objetivo reduzir as ameaças à cibersegurança antes da sua disponibilização pública.

Em comunicado, o Center for AI Standards and Innovation (CAISI), integrado no Departamento do Comércio dos Estados Unidos, avança que a avaliação dos modelos será crucial para compreender as suas capacidades e para proteger a segurança nacional. 

Não perca nenhuma notícia importante da atualidade de tecnologia e acompanhe tudo em tek.sapo.pt

“Uma avaliação científica independente e rigorosa é essencial para compreender os sistemas de IA de última geração e as suas implicações para a segurança nacional”, afirma Chris Fall, diretor do CAISI, acrescentando que os acordos com as tecnológicas vão ajudar o governo a “reforçar a sua atuação em prol do interesse público num momento crítico”. 

Até à data, o CAISI já realizou mais de 40 avaliações, incluindo de modelos de última geração que ainda não foram lançados. Recorde-se que, em 2024, a OpenAI e a Anthropic já tinham assinado acordos com o governo dos Estados Unidos para “investigação, testes e avaliação” dos seus modelos de IA. 

Os novos acordos surgem numa altura em que crescem as preocupações relativamente aos riscos que os modelos de IA mais poderosos, como o Claude Mythos, podem representar caso sejam disponibilizados ao público, sobretudo para a cibersegurança. 

A Anthropic reconheceu que o Claude Mythos não será tornado público de forma geral por causa dos riscos que representa. No entanto, a empresa argumenta que a resposta certa não é esconder essas capacidades, mas sim mobilizá-las para fins defensivos, dando aos especialistas em segurança uma vantagem que lhes permita identificar e corrigir falhas, antes que sejam exploradas.

Nesse sentido, o modelo faz parte do Project Glasswing e foi disponibilizado apenas a empresas e organizações responsáveis por infraestruturas críticas. Entre as empresas contam-se gigantes tecnológicas como Apple, Amazon, Cisco, Google, Microsoft ou Nvidia

De modo semelhante, a OpenAI anunciou o lançamento limitado do GPT-5.4-Cyber, um modelo de IA desenvolvido especificamente para identificar vulnerabilidades em software.

A empresa afirmou que o GPT-5.4-Cyber será inicialmente partilhado com centenas de organizações integradas no programa Trusted Access for Cyber, uma iniciativa lançada em fevereiro para aproximar as tecnologias da OpenAI de profissionais e parceiros da área da cibersegurança. 

Com o lançamento do GPT-5.5, a OpenAI está também a trabalhar numa versão concebida para tarefas de cibersegurança defensiva, que, segundo Chris Lehane, responsável de assuntos globais da tecnológica, está a ser testada em colaboração com o CAISI.

Assine a newsletter do TEK Notícias e receba todos os dias as principais notícias de tecnologia na sua caixa de correio.  



Source link