Resumo rápido
  • Funcionários colam dados sensíveis no ChatGPT sem perceber
  • Tudo que você envia pode ser usado para treinar o modelo, a menos que você desative
  • Com regras claras e as ferramentas certas, dá pra usar IA com tranquilidade

Um funcionário precisa resumir um contrato. Abre o ChatGPT, cola o documento inteiro e pede um resumo. Em 10 segundos tem a resposta. Ótimo pra produtividade.

Só que aquele contrato tinha nomes de clientes, valores e cláusulas confidenciais. E esses dados agora estão nos servidores da OpenAI. É o tipo de situação que vale a pena conhecer.

O que acontece com os dados enviados

A maioria dos funcionários não usa IA com má intenção. Eles querem ser mais produtivos. A questão é que nem sempre fica claro o que acontece com os dados depois que são enviados.

Por padrão, ferramentas como ChatGPT podem usar as conversas para treinar modelos futuros. Isso significa que dados da sua empresa podem influenciar respostas para outros usuários.

💡 Em 2023, engenheiros da Samsung colaram código-fonte proprietário no ChatGPT. A empresa acabou restringindo o uso de IAs generativas internamente. Um caso que mostra a importância de ter orientações claras.

Situações mais comuns

  • Colar contratos e documentos internos: resumos, análises, traduções
  • Enviar planilhas com dados de clientes: nomes, CPFs, emails, valores
  • Pedir ajuda com código que contém credenciais: chaves de API, senhas, tokens
  • Usar a conta pessoal: sem controle da empresa sobre histórico e configurações
  • Não desativar o treinamento: a opção existe, mas quase ninguém configura

💡 Na maioria dos casos, não é a IA que falha. É a falta de orientação sobre o que pode e o que não pode ser enviado.

Como usar IA com tranquilidade

A solução não é proibir IA. É criar regras claras. Empresas que bloqueiam o uso perdem produtividade, e os funcionários acabam usando por conta própria de qualquer forma.

1. Defina o que pode e o que não pode ser enviado

Crie uma lista simples: dados de clientes, contratos, código com credenciais e informações financeiras nunca vão pro chat. Dúvidas genéricas, templates e brainstorming podem.

2. Desative o treinamento

No ChatGPT: Configurações → Controles de dados → desativar "Melhorar o modelo para todos". Na API da OpenAI, os dados já não são usados para treinamento por padrão.

3. Use contas corporativas

ChatGPT Team e Enterprise não usam dados para treinamento. Se a empresa depende de IA no dia a dia, o investimento se paga na segurança.

4. Anonimize antes de enviar

Precisa analisar um contrato? Substitua nomes por "Empresa A" e "Empresa B", remova valores específicos e CPFs. O resultado é o mesmo e o risco é zero.

💡 A regra é simples: se você não colaria aquele dado num post público do LinkedIn, não cole no ChatGPT.

E a LGPD?

Enviar dados pessoais de clientes para uma IA sem consentimento pode configurar violação da LGPD. A responsabilidade é da empresa, não do funcionário.

A ANPD já sinalizou que o uso de IAs generativas com dados pessoais exige base legal, transparência e medidas de segurança. Vale ficar atento.

Conclusão

IA no trabalho é inevitável e positiva. Com regras simples e configurações corretas, sua equipe ganha produtividade sem expor dados da empresa.

O caminho é orientar, não proibir.

Quer criar uma política de uso de IA para sua empresa?

Monto o protocolo completo adaptado ao seu contexto.

Enviar mensagem