theNet by CLOUDFLARE

As implicações de phishing dos chatbots de IA

A evolução do phishing na era da IA avançada


Redes neurais profundas de última geração, um tipo de tecnologia de aprendizado de máquina usada para implementar a inteligência artificial (IA), ganharam manchetes por vários anos por causa de sua capacidade de traduzir idiomas, escrever poesia e gerar tweets, entre outras tarefas criativas.

Mais recentemente, o GPT-5, o Gemini e o Claude, três modelos de IA conversacionais que usam aprendizado profundo, foram apontados como “divisores de águas”. Todos são muito mais versáteis do que os chatbots tradicionais. Eles produzem respostas de texto mais humanas para perguntas e solicitações e podem "entender" o contexto de uma consulta de pesquisa ou "conversa" escrita e interpretar a intenção por trás da consulta de um usuário. Os recursos exclusivos do ChatGPT ajudaram a torná-lo o aplicativo de consumo de crescimento mais rápido da história.

Os chatbots de IA podem ajudar as pessoas a obter respostas impressionantes semelhantes às humanas ou até mesmo criar certos aplicativos, ao ponto de seus recursos gerarem preocupações de que possam ser usados por hackers para criar campanhas de phishing.

Para entender melhor as implicações de segurança do GPT-4 e do ChatGPT, é importante entender como eles podem ser "treinados" para escrever conteúdo para campanhas de phishing, bem como as diferenças entre campanhas de phishing direcionadas simples e altamente personalizadas.

Os atacantes sempre exploraram as últimas tendências e tecnologias, desde serviços de armazenamento em nuvem até criptomoedas. Dessa forma, o surgimento da IA generativa serve como um lembrete importante para as organizações garantirem que a segurança de seus e-mails seja capaz de bloquear campanhas avançadas de phishing, independentemente de quem, ou o que, escreveu a mensagem.


Fazer as máquinas entenderem e gerarem texto

Os modelos que alimentam os chatbots de IA atuais representam novos marcos no processamento de linguagem natural (PLN), um ramo da IA que permite que as máquinas “entendam” e respondam a textos ou palavras faladas da mesma maneira que os humanos. O PLN combina modelagem baseada em regras da linguagem humana com vários modelos para ajudar os computadores a entender o que estão processando.

Muitos aplicativos, como ferramentas de monitoramento de mídia social e assistentes de voz como Siri, usam o PLN há anos. Mas o Chat GPT-5, Gemini e Claude, que foram treinados em bilhões de parâmetros de texto e imagem, são inquestionavelmente mais avançados.

Cada um representa o chamado "Modelo de linguagem ampla", um modelo de PLN baseado em rede neural que foi treinado para fazer previsões sobre qual é a próxima palavra mais lógica a seguir em uma determinada frase. Descobriu-se que essa técnica de treinamento produz modelos de PLN que também são bons em muitas outras tarefas.

A forma como a OpenAI (a criadora do ChatGPT, GPT-4 e GPT-5) aplicou essa técnica representa um marco significativo. A OpenAI levou o treinamento um passo além de outros aplicativos, usando novas técnicas para incorporar opiniões humanas em textos ou imagens produzidas e treinamento especializado para seguir instruções em prompts. Como resultado, seus modelos são ajustados para gerar uma conversa com mais nuances e humana.

As respostas articuladas geradas pelo ChatGPT e GPT-4 são destinadas ao bem. No entanto, os criminosos cibernéticos podem explorar suas capacidades como uma ferramenta para desenvolver campanhas de phishing.


Fazer mau uso dos chatbots de IA

O phishing é a causa mais comum de violação de dados e um ponto de entrada comum para ransomware.

Como é aplicada engenharia social aos e-mails de phishing para imitar entidades legítimas, eles podem ser difíceis de identificar à primeira vista. No entanto, historicamente, identificadores comuns de mensagens de phishing (especialmente aquelas geradas por criminosos que não falam/escrevem o idioma nativo da vítima) incluem gramática incorreta, palavras com erros ortográficos ou mal utilizadas e estruturas de sentenças inadequadas.

A SlashNext lançou sua 2024 Mid-Year Assessment on The State of Phishing, revelando um aumento de 341% nas ameaças de phishing (incluindo e-mail, código QR, anexos e ataques multicanal) nos últimos seis meses.

A Recorded Future descobriu que, semanas após o lançamento do ChatGPT, os agentes de ameaças na dark web e fontes de acesso especial estavam compartilhando conversas do ChatGPT de prova de conceito que permitem o desenvolvimento de malware, engenharia social e desinformação.

Também houve relatos de invasores explorando a popularidade do ChatGPT e GPT-4, por exemplo:

  • Em 2025, pesquisadores observaram um aumento acentuado nas campanhas de phishing que imitam a marca do ChatGPT, incluindo seu nome, logotipo e interface de usuário, para espalhar malware ou coletar credenciais de pagamento, com a Kaspersky relatando um aumento de 115% em tais ataques direcionados a mais de 8.500 empresas. Em agosto de 2025, a Microsoft alertou que cibercriminosos estão distribuindo um aplicativo de desktop falso do ChatGPT incorporado com um backdoor modular e um infostealer chamado PipeMagic, capaz de executar conteúdo malicioso, manter a persistência e se atualizar dinamicamente.

  • Em 2025, especialistas em segurança cibernética alertam que golpistas estão usando cada vez mais ferramentas de IA, como o ChatGPT, para criar e-mails de phishing impecáveis e altamente convincentes, tornando obsoletas as dicas tradicionais de detecção de phishing por IA e permitindo golpes que que causaram prejuízos de US$ 16,6 bilhões apenas no último ano.

Tecnicamente, a OpenAI proíbe o uso de seus modelos para a “geração de malware”, “atividade com alto risco de danos econômicos”, “atividade fraudulenta ou enganosa” e qualquer outra atividade ilegal. Seus modelos não escrevem e-mails de phishing ou ajudam a criar sites de phishing se solicitados. No entanto, eles podem simplificar como os hackers criam campanhas de phishing. A partir de meados de 2025, especialistas em segurança cibernética alertam que as ferramentas de IA generativa permitem que os atacantes refinem rapidamente suas mensagens, aprimorando campanhas de phishing, smishing e vishing em conteúdos altamente personalizados e naturais que agora são mais difíceis do que nunca de detectar. Nas mãos erradas, o ChatGPT e o GPT-4 podem ser explorados para criar mensagens de phishing mais autênticas e bem escritas e sites que podem burlar a segurança de e-mail tradicional ou filtros anti-phishing.

Nas mãos erradas, o ChatGPT e o GPT-4 podem ser explorados para criar mensagens de phishing mais autênticas e bem escritas e sites que podem burlar a segurança de e-mail tradicional ou filtros anti-phishing.


Como a IA generativa pode ser usada para ataques de phishing?

Os invasores sabem que precisam apenas atrair uma vítima para um clique ou conversa para roubar credenciais, informações ou dinheiro. Isso é evidente em ataques de phishing de "emprego falso" direcionados a candidatos a emprego, golpes que imitam entidades beneficentes direcionados a doadores e golpes românticos direcionados a pessoas que buscam encontros on-line.

Hoje, as redes neurais mais poderosas não são capazes de “conhecer” os detalhes pessoais dos cidadãos comuns ou a estrutura organizacional e de comunicação específica de qualquer empresa. Mas um invasor que combine o poder dos chatbots de IA com pesquisa suficiente sobre a vítima pretendida pode adaptar as mensagens de phishing em grande escala, tornando ainda mais difícil para os usuários detectar e-mails maliciosos.

Os criminosos cibernéticos já usam ataques de comprometimento de e-mail empresarial (BEC) altamente direcionados e de baixo volume para fraudar organizações com sucesso. Os BECs normalmente representam um funcionário ou executivo específico com quem a vítima pretendida se corresponde regularmente. O comprometimento de e-mail de fornecedor (VEC), uma forma de BEC, baseia-se no comprometimento das contas de um terceiro confiável (como um vendedor ou fornecedor) e espelha as mensagens trocadas anteriormente. Como tanto o BEC quanto o VEC exploram relações “confiáveis” para contornar os gateways de e-mail seguros tradicionais, esses ataques continuam sendo altamente eficazes, e cada vez mais caros: as perdas relacionadas ao BEC subiram para US$ 55,5 bilhões globalmente entre 2013 e 2023, e as empresas perderam um estimado de US$ 6,3 bilhões apenas em 2024, com um custo médio por incidente de US$ 50 mil.


Bloqueie phishing em todos os canais com Zero Trust

Os invasores sempre exploram novas tecnologias a seu favor. Felizmente, as inovações de segurança podem identificar mensagens maliciosas que ignoram as defesas legadas ou a conscientização do usuário. Modelos sofisticados de aprendizado de máquina foram criados e treinados ao longo dos anos para examinar muitos sinais, além de apenas texto ou imagens, para detectar e bloquear phishing.

As mensagens de e-mail contêm quantidades significativas de informações adicionais nos campos de cabeçalho e metadados, incluindo informações sobre de onde o e-mail foi enviado, a infraestrutura do servidor de origem e seu caminho de transmissão. Além dos cabeçalhos, outros detalhes em uma mensagem, como URLs e links específicos, anexos, membros da lista de distribuição, tom e muito mais precisam ser avaliados.

A segurança de e-mail preventiva da Cloudflare, parte de sua plataforma Zero Trust, analisa vários sinais gerados pelo conteúdo de e-mails, incluindo:

  • Análise de sentimento para detectar mudanças em padrões e comportamentos (escrita de padrões e expressões)

  • Análise estrutural de cabeçalhos, corpo da cópia, imagens, links e cargas usando heurística e modelos de aprendizado de máquina projetados especificamente para esses sinais

  • Gráficos de confiança que avaliam gráficos sociais de parceiros, histórico de envio e possíveis imitações de parceiros

A Cloudflare também utiliza inteligência obtida da média de ~190 bilhões de ameaças cibernéticas bloqueadas a cada dia e de 61 bilhões de consultas diárias de DNS. Com essa inteligência, os clientes da Cloudflare podem bloquear domínios maliciosos, isolar seus usuários de conteúdo suspeito da web, impedir que os usuários divulguem credenciais em sites de phishing e interromper o phishing em diferentes vetores de ataque.

Essas e outras técnicas ajudam a impedir que atacantes explorem a confiança implícita dos usuários nas comunicações comerciais. A abordagem geral, chamada de extensão do Zero Trust para defesa contra ameaças, é baseada em três princípios básicos:

  • Presumir a violação: presumir que as campanhas de phishing estão sempre sendo configuradas, verificar a internet para procurar proativamente a infraestrutura do atacante e bloquear ataques de phishing com tecnologia de IA antes que cheguem à caixa de entrada.

  • Nunca confiar: não confie nas comunicações comerciais simplesmente porque elas têm autenticação de e-mail configurada, são de domínios respeitáveis ou são de alguém com quem um usuário corporativo já se comunicou antes.

  • Sempre verificar: verifique continuamente todos os usuários e solicitações, mesmo que estejam dentro da rede corporativa.

É claro que os invasores vão usar qualquer ferramenta prontamente disponível, como novos chatbots de IA, para melhorar suas táticas. Ficar constantemente na defesa ou esperar para determinar se novas ameaças cibernéticas são realidade pode colocar uma organização em maior risco. Em vez disso, “presuma a violação”, “nunca confie” e “sempre verifique” para se proteger melhor contra qualquer campanha de phishing.

Este artigo é parte de uma série sobre as tendências e os assuntos mais recentes que influenciam os tomadores de decisões de tecnologia hoje em dia.


Saiba mais sobre esse assunto

Saiba como criar uma estratégia de GenAI segura e escalável para gerenciar riscos, proteger dados e garantir a conformidade no guia Garantir práticas seguras de IA: um guia para CISOs sobre como criar uma estratégia de IA escalável.


Principais conclusões

Após ler este artigo, você entenderá:

  • Como os chatbots de IA de conversação geram texto

  • Como os invasores podem explorar o ChatGPT ou o GPT-4 para criar campanhas de phishing

  • Como se proteger contra ameaças de phishing geradas por IA


Recursos relacionados

Receba um resumo mensal das informações mais populares da internet.