A Anthropic está em diálogo com a Comissão Europeia para discutir os seus diferentes modelos tecnológicos, incluindo soluções na área da cibersegurança que, até ao momento, não estão disponíveis no mercado da União Europeia. As conversações decorrem num contexto de reforço das exigências regulatórias aplicáveis às plataformas de inteligência artificial.
A Comissão Europeia confirmou que a Anthropic já assumiu o compromisso de respeitar o código de boas práticas para sistemas de inteligência artificial de uso geral da União Europeia. Este enquadramento estabelece um conjunto de obrigações destinadas a garantir que as tecnologias desenvolvidas e disponibilizadas no mercado europeu cumprem critérios de segurança, transparência e mitigação de riscos.
Segundo o porta-voz da Comissão, Thomas Regnier, citado pela Reuters, as discussões com a empresa enquadram-se precisamente nesse esforço de alinhamento com as regras comunitárias. Em causa está, entre outros aspetos, a necessidade de avaliar potenciais riscos associados aos serviços de inteligência artificial antes da sua introdução no mercado.
O cumprimento destas regras implica que as empresas identifiquem e reduzam riscos que possam emergir da utilização dos seus sistemas, incluindo impactos na segurança digital. Este ponto assume particular relevância no caso de soluções de cibersegurança baseadas em inteligência artificial, dada a sua natureza sensível e o potencial de utilização indevida.
O processo em curso reflete a abordagem preventiva adotada pelas instituições europeias face à rápida evolução da inteligência artificial, procurando garantir que novas tecnologias entram no mercado com salvaguardas adequadas. Para empresas como a Anthropic, o acesso ao espaço europeu passa assim por um processo de adaptação regulatória que pode influenciar tanto o calendário de lançamento como as características dos produtos disponibilizados.
As negociações com Bruxelas surgem num momento em que a União Europeia intensifica a supervisão sobre fornecedores de inteligência artificial, exigindo maior responsabilidade na gestão de riscos associados a estas tecnologias.