IA e Cibersegurança: a confiança digital vai ser o maior desafio da próxima década


A propósito dos riscos de segurança dos modelos de IA, vulneráveis a padrões indesejáveis e prompt hacking, Nuno China defende que proteger a IA é proteger o futuro.

Por Nuno China (*)

A Inteligência Artificial está hoje profundamente integrada no nosso quotidiano. Usamo-la para trabalhar, comunicar, criar e para tomar decisões, muitas vezes sem nos apercebermos da complexidade que existe por detrás destas ferramentas. A sua utilidade é inegável, mas vem acompanhada de uma realidade menos visível: à medida que estes sistemas se tornam mais poderosos e mais acessíveis, trazem consigo novos riscos, vulnerabilidades e uma necessidade urgente de repensar o modo como garantimos segurança no mundo digital.

O panorama da cibersegurança tem demonstrado um crescimento significativo de incidentes, impulsionados por atacantes que tiram partido da rapidez e eficiência da IA para criar fraudes, disseminar deepfakes ou explorar falhas em sistemas informáticos. Em Portugal, foram registados milhares de incidentes num único ano, grande parte deles associados a técnicas de engenharia social e a ataques automatizados, potenciados por tecnologias recentes que permitem escalar operações maliciosas com uma eficácia até há pouco tempo impensável.

A própria forma como os modelos de IA são construídos, ajuda a explicar estes riscos. Os sistemas são treinados com enormes volumes de dados recolhidos online, onde coexistem informações fiáveis e conteúdos distorcidos, enviesados ou nocivos. Isto significa que também aprendem padrões indesejáveis e podem reproduzir comportamentos inesperados. Alguns modelos mostram mesmo uma tendência para rejeitar pedidos legítimos por excesso de prudência, enquanto outros podem ser manipulados para gerar código vulnerável ou respostas perigosas quando confrontados com pedidos cuidadosamente formulados, incluindo tentativas de contornar restrições através de linguagem ambígua ou estratégias avançadas de diálogo que tentam explorar fragilidades do modelo, não através de código malicioso, mas através da própria linguagem, usando, por exemplo, a persuasão, falsos contextos ou simulações (“Finja que…”). O whitepaper “IA e Cibersegurança: O Desafio da Confiança Digital” apresentado no  final de 2025 referia que mais de 80% dos modelos testados geraram código inseguro quando expostos a ataques de manipulação dissimulados.

Assume especial relevância a facilidade com que certos sistemas podem ser influenciados por técnicas de manipulação linguística, conhecidas como prompt hacking. Estas estratégias exploram o facto de os modelos atenderem de forma muito sensível à formulação textual dos pedidos: pequenas mudanças de contexto, simulações narrativas ou conversas em vários passos, podem levar o modelo a ignorar os seus próprios mecanismos de proteção e a produzir respostas que não deveria gerar. Apesar dos avanços, esta realidade demonstra que a maturidade da tecnologia ainda não é suficiente para garantir que estas ferramentas resistem de forma robusta a utilizações indevidas.

A partir deste cenário, emerge uma conclusão evidente: a confiança digital tornou-se a nova infraestrutura crítica da sociedade moderna. Tal como dependemos de energia, água ou transportes, dependemos agora da integridade dos sistemas digitais que utilizamos todos os dias. E a confiança não se constrói apenas com inovação, mas com transparência, responsabilização e segurança contínua. Proteger dados, decisões e infraestruturas passa hoje também por proteger os próprios modelos de IA que os influenciam.

Uma forma clara de compreender esta necessidade passa por olhar para a forma como a sociedade já lida com infraestruturas físicas críticas. Ninguém aceitaria que uma ponte fosse construída primeiro e testada depois. O processo é exatamente o inverso: antes de um único metro de betão ser colocado, há cálculos estruturais rigorosos, testes de materiais, auditorias independentes e planos de inspeção contínua ao longo de toda a vida útil da obra. A segurança não é um complemento, é um princípio estrutural que acompanha cada etapa.

O mesmo raciocínio aplica‑se aos sistemas de Inteligência Artificial. Tal como uma ponte só se mantém segura porque foi concebida desde a origem para ser resistente e monitorizada de forma permanente, também um modelo de IA só é confiável se for desenvolvido com resiliência, validação e salvaguardas desde o primeiro momento.

É por isso que a solução passa por integrar a segurança desde a origem, security by design,em vez de adicionar camadas de proteção apenas no fim, a segurança tem de acompanhar todo o ciclo de desenvolvimento e utilização destes sistemas. Testar, auditar, identificar falhas e reforçar salvaguardas deve ser uma prática permanente, e não uma reação pontual. Este é o único caminho para garantir que os modelos se mantêm robustos face a um ecossistema onde ameaças e técnicas de ataque evoluem a um ritmo acelerado.

Da mesma forma, a colaboração entre Estado, empresas e universidades é fundamental para acompanhar o ritmo da inovação e gerar conhecimento aplicável que torne o ecossistema digital mais resiliente e confiável. Tal como grandes obras de engenharia civil dependem da cooperação entre múltiplas disciplinas, engenharia, materiais, arquitetura ou fiscalização, também a segurança da IA requer contributos multidisciplinares que combinem tecnologia, regulação, investigação e ética.

No fundo, estamos perante uma mudança estrutural. A Inteligência Artificial tem potencial para transformar a economia e melhorar profundamente a qualidade de vida das pessoas mas, para isso, tem de ser segura, ética e confiável. A verdadeira revolução não será apenas tecnológica, será a capacidade de construir sistemas que aliem inovação e responsabilidade, garantindo que a evolução digital não compromete a segurança das organizações nem o bem‑estar dos cidadãos. Proteger a IA é proteger o futuro. E esse futuro começa com a forma como escolhemos governar, testar e usar estas ferramentas hoje.

(*) Project Manager na IndraMind Cibersecurity em Portugal (Indra Group)



Source link