A inteligência artificial e a nova era dos golpes digitais
Escrito por Mariana Silva
AtualizadoSabemos que a inteligência artificial tem dominado o mundo desde o seu surgimento. Em 2025, os investimentos globais com tecnologias de IA chegaram a impressionantes US$ 1,75 trilhão, e a previsão é de que esse número salte para cerca de US$ 2,52 trilhões em 2026, consolidando a IA não apenas como vantagem competitiva, mas como elemento central na infraestrutura digital global, de serviços e negócios até a cibersegurança.
No entanto, esse crescimento explosivo também tem criado um terreno fértil para novos golpes digitais alimentados por IA, desde ataques hiperpersonalizados com deepfakes até fraudes sofisticadas em plataformas de investimentos e social engineering, exigindo atenção redobrada tanto de empresas quanto de usuários.
Deepfakes e a fraude da identidade perfeita
A popularização de ferramentas de geração de voz e vídeo por IA permitiu que criminosos criassem deepfakes cada vez mais convincentes, simulando executivos, parentes ou representantes de bancos. Em alguns casos, vítimas recebem ligações com a voz clonada de familiares pedindo transferências urgentes. Em outros, reuniões virtuais falsas são usadas para autorizar pagamentos corporativos.
O nível de realismo reduziu a desconfiança inicial das vítimas e elevou o prejuízo financeiro em golpes de engenharia social.
Golpes personalizados com dados públicos
Com a ajuda da IA, os fraudadores conseguem analisar grandes volumes de dados vazados ou disponíveis nas redes sociais para criar mensagens sob medida. E-mails e mensagens deixam de ser genéricos e passam a citar informações reais da vítima, como cargo, empresa, compras recentes ou localização.Essa personalização aumenta drasticamente a taxa de sucesso das fraudes, tornando os ataques mais difíceis de identificar.
Um exemplo é o golpe do Skypostal, em que criminosos informam sobre uma suposta encomenda, muitas vezes usando dados de uma compra real e cobram uma taxa para liberação da entrega.
Leia também: 1 em cada 3 golpes de WhatsApp faz uso de IA
Automação de ataques em larga escala
Outra mudança significativa é a automação. Bots equipados com IA conseguem testar milhares de combinações de mensagens, adaptar abordagens em tempo real e até responder dúvidas das vítimas de forma convincente.
Isso significa que golpes que antes exigiam esforço humano agora podem ser replicados em massa, com custo baixo e alto alcance.
Apesar dos riscos, a própria inteligência artificial é usada como ferramenta de defesa. Sistemas de detecção de fraudes analisam padrões comportamentais, identificam transações suspeitas e bloqueiam movimentações atípicas em segundos.
Empresas de tecnologia e instituições financeiras têm investido em modelos preditivos capazes de reconhecer comportamentos anormais antes mesmo que o golpe seja concluído.

