DeepSeek e ChatGPT expostos?

O nascimento das tecnologias de modelos de linguagem de grande porte (LLMs) revolucionou o campo da inteligência artificial, especialmente a partir do lançamento do ChatGPT pela OpenAI em novembro de 2022. Antes desse marco, o uso da IA era predominantemente restrito a pesquisadores, grandes corporações e aplicações específicas, como assistentes virtuais básicos e sistemas de recomendação. Modelos como BERT (2018) e GPT-3 (2020) já demonstravam avanços significativos, mas ainda eram pouco acessíveis ao público geral.

Com o lançamento do ChatGPT, a IA generativa atingiu uma adoção massiva, permitindo que qualquer usuário interagisse com um modelo avançado por meio de linguagem natural. Esse momento marcou uma virada histórica, tornando a IA uma ferramenta cotidiana para produtividade, aprendizado e automação. Em comparação, nos anos anteriores, o treinamento e uso desses modelos exigiam infraestrutura computacional robusta e conhecimento técnico especializado, o que limitava sua aplicação fora de ambientes acadêmicos e empresariais. A partir de 2023, com a chegada de concorrentes como DeepSeek este ano e o avanço de modelos abertos, o uso dos LLMs tornou-se ainda mais diversificado, impulsionando debates sobre regulamentação, privacidade e impactos na sociedade.

Apesar de animador, o uso de modelos de linguagem de grande porte (LLMs), como ChatGPT e DeepSeek em larga escala levanta sérias preocupações sobre vazamentos de dados e privacidade. Esses sistemas, ao processar informações inseridas pelos usuários, podem armazenar ou utilizar inadvertidamente dados sensíveis, expondo empresas e indivíduos a riscos como espionagem corporativa, vazamento de informações pessoais e conformidade inadequada com regulamentações como a GDPR e a LGPD. Além disso, a natureza opaca dos LLMs dificulta o controle sobre como as informações são armazenadas e utilizadas, tornando essencial que usuários e organizações adotem práticas seguras ao interagir com essas ferramentas.

Após o lançamento do DeepSeek, um grave vazamento de dados expôs informações sensíveis, incluindo históricos de chats, chaves de API e metadados operacionais. A falha ocorreu devido a uma configuração inadequada do banco de dados ClickHouse, que estava acessível na internet sem autenticação, permitindo que qualquer pessoa executasse consultas SQL diretamente pelo navegador. Isso tornou possível a extração de dados privados e até mesmo a manipulação de configurações internas da plataforma.

Pesquisadores da Wiz Research descobriram que os logs vazados incluíam interações de usuários, detalhes internos da infraestrutura e chaves de API que poderiam ser usadas para comprometer os sistemas da DeepSeek. O problema gerou preocupações sobre a segurança de plataformas de IA emergentes, que frequentemente crescem rapidamente sem implementar medidas de proteção adequadas.

Além disso, o incidente atraiu escrutínio regulatório, especialmente na Europa e nos Estados Unidos. A Itália chegou a restringir o acesso ao DeepSeek enquanto investigava suas práticas de coleta de dados, e autoridades irlandesas também solicitaram esclarecimentos. Paralelamente, empresas como OpenAI e Microsoft suspeitam que o DeepSeek possa ter usado suas APIs sem autorização para treinar seus modelos de IA.

Vazamento de Dados do ChatGPT?

Após o escândalo do vazamento de dados do DeepSeek, uma nova ameaça surgiu com alegações de que milhões de credenciais de usuários do ChatGPT foram expostas em um fórum criminoso especializado na comercialização de informações confidenciais.

O hacker responsável, conhecido como “emirking”, afirmou ter em sua posse dados de 20 milhões de usuários do ChatGPT. O post em questão, feito em russo, não traz evidências da origem do suposto vazamento, mas em uma análise preliminar, os dados em questão não parecem ter sido extraídos diretamente do ChatGPT, como foi o caso do incidente com o DeepSeek, mas sim a partir de logs extraídos de um Trojan Stealer, que é um artefato malicioso que opera por meio da infecção em larga escala de computadores de usuários e empresas que interagiam com a plataforma.

O Que São Trojans Stealers?

Trojans stealers são um tipo de malware projetado para roubar informações sensíveis de computadores infectados. Eles geralmente se disfarçam como softwares legítimos ou são entregues por meio de downloads de sites fraudulentos, e-mails de phishing ou vulnerabilidades de sistemas desatualizados. Uma vez instalado, o Trojan Stealer pode capturar uma vasta gama de dados privados, como senhas, detalhes bancários, históricos de navegação e até mesmo logs de atividades em plataformas como o ChatGPT.

Esses malwares são eficazes porque operam em segundo plano, muitas vezes sem que o usuário perceba a infecção. Os dados roubados são então enviados para servidores controlados por cibercriminosos, que os utilizam para realizar fraudes, ataques de engenharia social ou, no caso do ChatGPT, vazamentos em larga escala.

Consequências do Vazamento de Dados do ChatGPT

Se confirmadas as alegações, o vazamento de dados proveniente do Trojan Stealer teria implicações graves para milhões de usuários e empresas que utilizam o ChatGPT. Os riscos incluem:

Roubo de Identidade e Phishing: Com as credenciais comprometidas, cibercriminosos poderiam realizar ataques de phishing, usando informações pessoais para enganar usuários e acessar outras contas.
Exposição de Dados Sensíveis de Empresas: Empresas que utilizam o ChatGPT para automação, criação de documentos e suporte ao cliente poderiam ter suas estratégias e dados críticos comprometidos, colocando em risco a competitividade e a privacidade corporativa.
Exploração de Vulnerabilidades: Caso os trojans também tenham conseguido capturar credenciais de administradores de sistemas, atacantes poderiam acessar redes empresariais e sistemas internos, potencialmente causando danos maiores, como ataques ransomware ou roubo de propriedade intelectual.

Esse evento destaca a importância de medidas de segurança mais rigorosas, como a autenticação de dois fatores (2FA) e a constante vigilância na Internet por riscos digitais que possam comprometer empresas e pessoas.

*PorLeonardo Camata, CTO do SafeLabs.

Adicionar aos favoritos o Link permanente.