Inteligência artificial, uma nova caixa de ferramentas para hackers


Através de fóruns online ou mensagens privadas, os hackers trocam “avisos”, estas instruções para gerar automaticamente mensagens fraudulentas cada vez mais direcionadas. (Foto: 123RF)

Acessíveis ao público em geral há quase um ano, os chatbots e softwares de trapaça alimentados por inteligência artificial (IA) provavelmente facilitarão a tarefa dos cibercriminosos e dos pequenos criminosos online, sem, no entanto, perturbar o padrão clássico de ataques informáticos.

Melhores ganchos para phishing

A prática de “phishing” consiste em entrar em contato com um alvo para que ele insira suas credenciais em um site pirata imitando uma página legítima.

Ao permitir gerar e-mails convincentes, sem erros ortográficos ou gramaticais, “a IA facilita e permite uma aceleração do ritmo dos ataques”, explica à AFP Gerome Billois, especialista em cibersegurança da Wavestone e autor de “Cyberattacks, the underside of a global ameaça” (Hachette, 2022).

Através de fóruns online ou mensagens privadas, os hackers trocam “avisos”, estas instruções para gerar automaticamente mensagens fraudulentas cada vez mais direcionadas.

E para superar as limitações impostas pelos fornecedores de soluções de IA, desde este verão certos grupos têm comercializado modelos de linguagem treinados especificamente para produzir conteúdo malicioso, como o FraudGPT. A sua eficácia ainda não foi demonstrada, mas “estamos apenas no início”, alerta Gerome Billois.

Risco de vazamento de dados

De acordo com um estudo recente da Gartner, a IA generativa está entre as cinco principais ameaças emergentes citadas pelas empresas. Temem particularmente a fuga de dados sensíveis partilhados pelos seus próprios funcionários, razão pela qual Samsung, Apple ou Amazon bloquearam a aplicação ChatGPT na sua rede profissional.

“Qualquer informação inserida em uma ferramenta generativa de inteligência artificial pode integrar seu corpus de aprendizagem. Isso significa que informações sensíveis ou confidenciais podem acabar nos resultados de outros usuários”, imagina Ran Xu, diretor de pesquisas do Gartner.

Querendo tranquilizar as empresas, a OpenAI lançou em agosto o ChatGPT Enterprise, uma versão profissional de seu robô que não utiliza conversas para seu treinamento. O Google recomenda não inserir informações confidenciais ou sensíveis em seu próprio chatbot, Bard.

Ataque dos Clones

A principal nova ameaça da IA ​​é a facilidade com que agora é possível copiar um rosto ou uma voz. A partir da gravação de alguns segundos de uma pessoa, as ferramentas online podem produzir uma imitação que pode prender colegas ou parentes.

Para Jérôme Saiz, fundador da empresa OPFOR Intelligence, estas ferramentas correm o risco de serem rapidamente utilizadas por “toda uma indústria de pequenos criminosos, muito bem estabelecidos em França e muitas vezes na origem de campanhas maliciosas de SMS” para extorquir números de telefone. .

“Esses pequenos criminosos, muitas vezes jovens, conseguirão facilmente imitar vozes”, explica à AFP.

Em junho, uma mãe norte-americana disse ter sido alvo de uma tentativa de golpe, quando um homem ligou para ela para exigir resgate fazendo-a ouvir o grito de socorro da filha vítima de um suposto sequestro. O incidente terminou sem danos depois que a polícia suspeitou de um golpe de IA.

Para as empresas que já estão cientes do “golpe do CEO”, em que os golpistas se passam pelo CEO para obter a transferência de uma quantia em dinheiro, “o uso de um clipe de áudio ou videoconferência falso pode inclinar o curso dos acontecimentos a favor do cibercriminoso, ”De acordo com o Sr. Billois.

Tutor virtual para hacker iniciante

De acordo com as conclusões de Jérôme Saiz, “nada sugeriu, nos ataques que tiveram sucesso no ano passado, que tivessem sido produzidos por uma IA generativa”.

Os chatbots são certamente capazes de identificar certas vulnerabilidades e gerar códigos maliciosos, mas não de executá-los diretamente. Para ele, a IA “permitirá que pessoas não muito talentosas aprimorem suas habilidades, mas quem começar do zero não terá malware codificado pelo ChatGPT”.





Source link