Tal como a rival Anthropic fez há uma semana com o Claude Mythos, a criadora do ChatGPT vai partilhar o seu novo modelo especializado em cibersegurança apenas com organizações selecionadas, antes de alargar o seu acesso de forma gradual.
A OpenAI anunciou esta terça-feira o lançamento limitado do GPT-5.4-Cyber, um modelo de inteligência artificial desenvolvido especificamente para identificar vulnerabilidades em software. A novidade surge exatamente uma semana depois de a Anthropic ter tomado uma decisão semelhante com o Claude Mythos Preview, criando um precedente claro sobre a forma como os principais laboratórios de IA estão a encarar a distribuição de tecnologia com potencial uso ofensivo em cibersegurança.
Não perca nenhuma notícia importante da atualidade de tecnologia e acompanhe tudo em tek.sapo.pt
Num comunicado publicado no seu blog, a empresa afirmou que o GPT-5.4-Cyber será inicialmente partilhado com centenas de organizações integradas no programa Trusted Access for Cyber. Esta iniciativa, que foi lançada em fevereiro para aproximar as tecnologias da OpenAI de profissionais e parceiros da área da cibersegurança. Nas próximas semanas, o acesso deverá ser alargado a milhares de organizações adicionais.
“O nosso objetivo é tornar estas ferramentas tão amplamente disponíveis quanto possível, evitando ao mesmo tempo o uso indevido”, escreveu a empresa, sublinhando a intenção de proteger infraestruturas críticas, serviços públicos e os sistemas digitais do quotidiano. A lógica por detrás desta abordagem faseada é a mesma que motivou a decisão da Anthropic, a de dar às equipas de defesa uma vantagem sobre os potenciais atacantes.
Cibersegurança
Project Glasswing: Anthropic reúne gigantes tecnológicas para proteger o software crítico do mundo com IA
A iniciativa da Anthropic reúne empresas como AWS, Apple, Google, Microsoft e Cisco, e é alimentada pelo Claude Mythos Preview, um novo modelo capaz de encontrar vulnerabilidades de software a um nível sem precedentes.
Como acontece com todas as ferramentas de cibersegurança ao longo da história, a tecnologia pode ser usada tanto para atacar redes informáticas como para as proteger, e é precisamente esse carácter duplo que torna a sua distribuição um exercício delicado. Zico Kolter, membro do conselho de administração da OpenAI e professor de ciência computacional com especialização em segurança e IA, tinha aliás defendido publicamente esta abordagem numa entrevista ao New York Times, antes de a Anthropic revelar o Claude Mythos.
“Há quatro ou cinco meses, houve uma mudança abrupta naquilo que estes sistemas conseguem fazer”, afirmou o responsável. Nem todos os especialistas em segurança concordam, porém, com este modelo de distribuição restrita. Há quem argumente que limitar o acesso inicial cria, paradoxalmente, um risco maior a médio prazo. Segundo estes, com menos organizações a poderem usar os sistemas mais avançados para se defenderem, o desequilíbrio entre atacantes e defensores pode agravar-se antes de se corrigir.
A discussão está longe de estar resolvida e reflete uma tensão mais ampla sobre o ritmo e as condições de lançamento de tecnologias de IA com potencial de duplo uso. Para tornar o GPT-5.4-Cyber mais útil no trabalho diário de cibersegurança, a OpenAI anunciou também que vai reduzir algumas das restrições dos seus sistemas nesta área, facilitando que os profissionais os utilizem ativamente para identificar falhas. Em paralelo, a empresa vai reforçar a verificação da identidade dos utilizadores como mecanismo de controlo contra abusos.
Recorde-se que a Anthropic, na semana passada, lançou o Claude Mythos associado ao Project Glasswing, tendo o mesmo sido disponibilizado a apenas 40 empresas e organizações responsáveis por infraestruturas críticas. Entre estas encontram-se alguns dos maiores nomes da tecnologia, como a Apple, Amazon, Cisco, Google, Microsoft, Nvidia e outras. A justificação dada pela Anthropic foi a de evitar que as capacidades avançadas deste modelo caíssem em mãos erradas.