Além de resumir relatórios, escrever e-mails ou analisar tabelas, a inteligência artificial pode parecer uma confidente perfeita. Ela não interrompe, tem paciência ilimitada e responde com frases polidas. Mas, ao contrário de uma psicóloga ou advogada, a IA não é obrigada a manter sigilo.
O conteúdo compartilhado com o ChatGPT é processado em servidores fora do Brasil e pode ser usado pela OpenAI, empresa por trás da ferramenta, para treinar seus modelos de IA — a menos que o usuário desative essa opção. O material, incluindo áudio, imagens e arquivos, ainda pode passar por uma revisão humana e, mesmo que não seja aplicado em treinamento, é retido por 30 dias.
Sem regras claras para a IA em boa parte do mundo, cabe às empresas de tecnologia decidir o quanto revelam sobre o funcionamento dessas máquinas. Isso significa que os detalhes sobre como nossos dados são processados podem ser pouco transparentes. A relação é assimétrica: o chat sabe muito sobre você, mas o oposto não é verdade.
Abaixo, explicamos o que é possível saber sobre o acontece com o desabafo, o exame médico ou relatório financeiro que você compartilha com o ChatGPT — e por que nem toda conversa deveria ser feita com uma IA. Por fim, trazemos um passo a passo de como usar a IA com mais privacidade.
Quais informações o ChatGPT guarda sobre você?
A lista é mais longa do que parece. A OpenAI pode coletar e processar o conteúdo das suas interações, incluindo os arquivos, imagens e áudios. Também são armazenadas informações da conta, como nome, e-mail, data de nascimento, número de telefone, credenciais de login e, se você for assinante do plano pago, dados de pagamento.
Por fim, dados técnicos (IP, navegador, sistema, localização) e de uso (tempo no app, cliques, funcionalidades acessadas) também são coletados. Os dados passam por servidores nos EUA e outros países, mas também podem ser compartilhados com outras empresas — seja para armazenamento em nuvem e infraestrutura, como Microsoft e Snowflake, ou para moderação de conteúdo, como é o caso da filipina TaskUs e da americana Cinder.A empresa afirma seguir padrões de segurança e declara que não compartilha dados com fins publicitários, mas admite que parte desse conteúdo pode ser acessada por humanos em casos específicos, como suporte técnico, investigações de abuso ou revisão para melhoria dos modelos.
Dora Kaufman, professora do TIDD da PUC-SP e autora do livro "Desmistificando a Inteligência Artificial", lembra que, sem regulação, falta fiscalização real sobre o uso de dados pelas empresas de IA. "Tudo que a gente sabe sobre os cuidados que essas plataformas tomam em relação aos dados são o que elas dizem", lembra.
O que a IA faz com suas conversas?
Por padrão, tudo o que você compartilha com o ChatGPT — textos, áudios, imagens e arquivos — pode ser usado para treinar os modelos da OpenAI (essa opção pode ser alterada nas configurações, veja como fazer abaixo). A justificativa da empresa é que esse material ajuda os sistemas a entenderem melhor a linguagem e a melhorarem a qualidade das respostas. A promessa é que a IA aprende sobre a interação, não sobre as pessoas.
Mas para que esse aprendizado aconteça, é necessário armazenar, processar e rotular os dados. A empresa diz adotar medidas de anonimização, mas os critérios são pouco transparentes. Além disso, a própria política da OpenAI admite que humanos podem revisar materiais.





