Rosto gerado em 3D representando tecnologia de inteligência artificial
Themotioncloud | Istock | Imagens Getty
Uma onda crescente de golpes deepfake saqueou milhões de dólares de empresas em todo o mundo, e especialistas em segurança cibernética alertam que isso pode piorar à medida que os criminosos exploram a IA generativa para fraudes.
Uma falsificação profunda é um vídeo, som ou imagem de uma pessoa real que foi alterado e manipulado digitalmente, muitas vezes por meio de inteligência artificial, para deturpá-la de forma convincente.
Em um dos maiores casos conhecidos deste ano, um funcionário financeiro de Hong Kong foi enganado ao transferir mais de US$ 25 milhões para fraudadores usando tecnologia deepfake que se disfarçaram de colegas em uma videochamada. autoridades disseram à mídia local em fevereiro.Â
Na semana passada, a empresa de engenharia britânica Arup confirmou à CNBC que era a empresa envolvida no caso, mas não pôde entrar em detalhes sobre o assunto devido à investigação em andamento.
Essas ameaças têm crescido como resultado da popularização do Chat GPT da Open AI – lançado em 2022 – que rapidamente lançou a tecnologia generativa de IA para o mainstream, disse David Fairman, diretor de informação e segurança da empresa de segurança cibernética Netskope.
“A acessibilidade pública a estes serviços reduziu a barreira de entrada para os criminosos cibernéticos – eles já não precisam de ter conjuntos de competências tecnológicas especiais”, disse Fairman.
O volume e a sofisticação dos golpes aumentaram à medida que a tecnologia de IA continua a evoluir, acrescentou.
Tendência crescente
Vários serviços generativos de IA podem ser usados para gerar conteúdo de texto, imagem e vídeo semelhante ao humano e, portanto, podem atuar como ferramentas poderosas para atores ilícitos que tentam manipular e recriar digitalmente certos indivíduos.
Um porta-voz da Arup disse à CNBC: “Como muitas outras empresas ao redor do mundo, nossas operações estão sujeitas a ataques regulares, incluindo fraude em faturas, golpes de phishing, falsificação de voz do WhatsApp e deepfakes”.
O financeiro teria participado da videochamada com pessoas que se acredita serem o diretor financeiro da empresa e outros funcionários, que solicitaram que ele fizesse uma transferência de dinheiro. No entanto, o restante dos participantes presentes naquela reunião foram, na realidade, deepfakes recriados digitalmente.
Arup confirmou que “vozes e imagens falsas” foram usadas no incidente, acrescentando que “o número e a sofisticação destes ataques têm aumentado acentuadamente nos últimos meses”.
A mídia estatal chinesa relatou um caso semelhante na província de Shanxi este ano, envolvendo uma funcionária financeira, que foi enganada para transferir 1,86 milhão de yuans (US$ 262 mil) para a conta de um fraudador após uma videochamada com um deepfake de seu chefe.
Implicações mais amplas
Além dos ataques diretos, as empresas estão cada vez mais preocupadas com outras maneiras pelas quais fotos, vídeos ou discursos falsos de seus superiores possam ser usados de forma maliciosa, dizem especialistas em segurança cibernética.
De acordo com Jason Hogg, especialista em segurança cibernética e executivo residente da Great Hill Partners, deepfakes de membros de alto escalão da empresa podem ser usados para espalhar notícias falsas para manipular preços de ações, difamar a marca e as vendas de uma empresa e espalhar outras desinformações prejudiciais. A
“Isso é apenas o começo”, disse Hogg, que anteriormente atuou como agente especial do FBI.
Ele destacou que a IA generativa é capaz de criar deepfakes com base em um tesouro de informações digitais, como conteúdo disponível publicamente hospedado em mídias sociais e outras plataformas de mídia.
Em 2022, Patrick Hillmann, diretor de comunicações da Binance, afirmou em um postar no blog queOs golpistas fizeram dele um deepfake com base em entrevistas anteriores e aparições na TV, usando-o para enganar clientes e contatos para reuniões.
Fairman, da Netskope, disse que tais riscos levaram alguns executivos a começar a eliminar ou limitar sua presença online por medo de que ela pudesse ser usada como munição por cibercriminosos.
A tecnologia Deepfake já se difundiu fora do mundo corporativo.
De imagens pornográficas falsas para vídeos manipulados promovendo utensílios de cozinha, celebridades como Taylor Swift foram vítimas de tecnologia deepfake. Deepfakes de políticos também têm sido desenfreados.
Enquanto isso, alguns golpistas fez deepfakes de familiares e amigos de indivíduos na tentativa de enganá-los e tirar-lhes dinheiro.
De acordo com Hogg, as questões mais amplas irão acelerar e piorar durante um período de tempo, uma vez que a prevenção do crime cibernético requer uma análise cuidadosa, a fim de desenvolver sistemas, práticas e controlos de defesa contra novas tecnologias.
No entanto, os especialistas em segurança cibernética disseram à CNBC que as empresas podem reforçar as defesas contra ameaças alimentadas por IA através de uma melhor educação do pessoal, testes de segurança cibernética e da exigência de palavras de código e múltiplas camadas de aprovações para todas as transações – algo que poderia ter evitado casos como o da Arup. A