Com mais de 100 milhões de usuários diários e 1 bilhão de consultas processadas mensalmente, o ChatGPT revolucionou a interação com a tecnologia. No entanto, especialistas em segurança digital alertam: dados inseridos no chatbot podem ser expostos, vazados ou usados para treinar modelos de IA. A OpenAI, criadora da ferramenta, admite que informações compartilhadas não são 100% confidenciais e podem ser revisadas por humanos ou até mesmo acessadas em casos de vulnerabilidades.
Diante disso, reunimos os principais riscos e o que evitar para proteger sua privacidade, segurança e até mesmo sua integridade legal.
1. Pedidos Ilegais ou Antiéticos
✔ O perigo:
- A OpenAI e outras plataformas de IA monitoram e registram solicitações suspeitas.
- Em alguns países, como China e Reino Unido, pedidos envolvendo crimes cibernéticos, fraude ou desinformação podem levar a ações judiciais.
✔ Exemplos do que NÃO perguntar:
- “Como invadir uma conta bancária?”
- “Como criar deepfakes para difamar alguém?”
- “Qual a melhor forma de burlar um sistema de segurança?”
✔ Consequências:
- Conta banida pela OpenAI.
- Denúncia às autoridades, dependendo da legislação local.
2. Logins, Senhas e Dados de Acesso
✔ O perigo:
- Dados inseridos no ChatGPT podem ser armazenados e, em casos raros, vazados para outros usuários devido a falhas técnicas.
- Em 2023, um bug no ChatGPT expôs históricos de conversas de alguns usuários.
✔ O que evitar:
- “Qual a senha mais segura para minha conta?” (Nunca teste senhas reais em chatbots.)
- “Me ajude a recuperar meu e-mail: login é X, senha é Y.”
✔ Solução:
- Use geradores de senha offline (como Bitwarden ou KeePass).
- Para recuperação de contas, consulte sites oficiais, não a IA.
3. Informações Financeiras
✔ O perigo:
- Números de cartões de crédito, contas bancárias ou dados de investimentos não têm criptografia garantida no ChatGPT.
- Se expostos, podem ser usados em golpes ou fraudes.
✔ O que nunca compartilhar:
- “Meu cartão é 1234 5678 9012 3456, CVV 123. É seguro?”
- “Tenho R$ 50 mil na poupança. Como investir?”
✔ Alternativa segura:
- Consulte um consultor financeiro ou use apps bancários oficiais.
4. Dados Confidenciais (Pessoais ou Corporativos)
✔ O perigo:
- Funcionários da Samsung vazaram códigos-fonte em 2023 ao pedir ajuda ao ChatGPT.
- Advogados e médicos podem violar sigilo profissional ao compartilhar casos.
✔ O que evitar:
- “Reescreva este contrato sigiloso da minha empresa.”
- “Meu paciente tem sintomas X, Y, Z. Qual o diagnóstico?”
✔ Solução para empresas:
- Use ChatGPT Enterprise (com proteção de dados) ou ferramentas locais como LLMs auto-hospedados.
5. Informações Médicas e Diagnósticos
✔ O perigo:
- O ChatGPT não substitui um médico e pode dar conselhos imprecisos.
- Dados de saúde são protegidos por leis (como LGPD e HIPAA), e vazamentos podem gerar multas milionárias.
✔ O que nunca perguntar:
- “Tenho dor no peito. Devo ir ao hospital?”
- “Quais remédios trataram seu câncer?” (Risco de automedicação.)
✔ Alternativa segura:
- Consulte médicos reais ou use plataformas especializadas em saúde.
Caso Real: Quando o Uso do ChatGPT Deu Errado
- Funcionários da Samsung vazaram códigos confidenciais ao pedir ajuda ao chatbot (2023).
- Advogado americano usou citações falsas do ChatGPT em tribunal, gerando escândalo (2023).
Como se Proteger?
✅ Ative o modo “Private” (se disponível).
✅ Não compartilhe dados sensíveis — assuma que tudo pode ser público.
✅ Para empresas: Use versões corporativas (ChatGPT Enterprise, Microsoft Copilot com proteção de dados).
Conclusão
O ChatGPT é uma ferramenta poderosa, mas não é um cofre à prova de vazamentos. Se você não diria algo em praça pública, não diga a um chatbot.
“Na dúvida, lembre: privacidade na internet é como um segredo. Se você o conta, deixa de ser só seu.”