Conversas de usuários com o ChatGPT apareceram por engano no Google, e OpenAI remove função para evitar vazamentos
Conversas de usuários com o ChatGPT passaram a aparecer nos resultados de buscas do Google nas últimas semanas, gerando uma crise de privacidade para a OpenAI.
Pelo menos 4.500 links apareciam no buscador, muitos com informações pessoais e de identidade, segundo o site Fast Company, que revelou a situação nesta semana.
A empresa confirmou que o problema teve origem em um recurso lançado recentemente que permitia aos usuários compartilhar links públicos de suas conversas com a inteligência artificial. Esses links, por padrão, não eram indexáveis — mas se os usuários marcassem a opção de torná-los “descobertos por mecanismos de busca”, as interações se tornavam visíveis nos resultados do Google e de outros buscadores.
O caso veio à tona após reportagens do Search Engine Land e do Business Insider revelarem que milhares de links com trechos de conversas privadas estavam sendo listados em páginas de busca. Entre os conteúdos expostos estavam mensagens com informações profissionais, dúvidas pessoais, nomes completos, diagnósticos de saúde, detalhes financeiros e até relatos de experiências íntimas.
Em um dos casos identificados, uma pessoa detalhava ao ChatGPT sua vida sexual, comentava sobre a infelicidade de morar em outro país e buscava apoio para lidar com transtorno de estresse pós-traumático.
A Fast Company cita outro caso em que um usuário dizia ser sobrevivente de programação psicológica e que buscava meios para se desprogramar e mitigar o trauma que havia sofrido.
O recurso de compartilhamento foi lançado pela OpenAI com o objetivo de facilitar o envio de conversas para colegas, redes sociais ou fóruns. Contudo, a função “Make public and discoverable” (em português, “Tornar público e pesquisável”) acabava, segundo analistas, sendo ativada sem que muitos usuários entendessem o real impacto: a inclusão do conteúdo nas bases de indexação do Google.
O escândalo gerou forte reação de usuários e especialistas em cibersegurança, que apontaram falhas graves de design e de comunicação da plataforma. O pesquisador David Rosenthal, ouvido pela TechCrunch, classificou o sistema como “um desastre anunciado”. Já a Fast Company contabilizou mais de 4.500 conversas indexadas com facilidade por mecanismos de busca, inclusive envolvendo grandes empresas como Deloitte, Salesforce e órgãos governamentais.
Diante da repercussão negativa, a OpenAI anunciou no dia 31 de julho que removeu completamente a função que permitia tornar conversas pesquisáveis. “Havia muitas oportunidades para as pessoas compartilharem, sem querer, informações que não pretendiam”, admitiu o chefe de segurança da informação da empresa, Dane Stuckey. “Estamos desativando essa opção e começamos a trabalhar com buscadores como o Google para remover os links que já foram indexados.”

Embora o recurso de compartilhamento de chats continue ativo, agora os links são tratados como privados e não aparecem em mecanismos de busca. O botão que oferecia a possibilidade de tornar a conversa “descoberta por buscadores” foi suprimido do site e do aplicativo. A OpenAI também disponibilizou uma página de configurações para que os usuários revisem e deletem links anteriormente gerados.
Especialistas recomendam que quem já usou o recurso de compartilhamento faça uma busca no Google com o operador site:chat.openai.com/share seguido do próprio nome ou empresa para verificar se há conversas indexadas. Também é possível acessar o painel de controle de dados da OpenAI (Settings > Data Controls > Shared Links) para revogar qualquer link ativo.
Apesar de o conteúdo compartilhado ser, em tese, optativo, críticos apontam que a experiência de interface do ChatGPT não deixava claro que a ativação do botão “descobrir por buscadores” implicaria exposição pública. Em diversos relatos divulgados pela imprensa internacional, usuários afirmam ter ativado o recurso por engano, sem perceber que suas mensagens passariam a ser listadas no Google.
A empresa agora trabalha junto ao Google e a outros buscadores para remover os conteúdos que já foram indexados, embora o processo, segundo especialistas, possa demorar dias ou até semanas. Enquanto isso, organizações que utilizam o ChatGPT em ambientes corporativos estão sendo aconselhadas a revisar políticas internas de uso da ferramenta, tratando conversas com a IA como documentos potencialmente sensíveis.
O caso expõe um dilema recorrente na era da inteligência artificial: a tensão entre inovação e privacidade. Embora a OpenAI afirme que o recurso era voluntário, o vazamento revela falhas graves na comunicação e no design de funcionalidades que lidam com dados confidenciais. Em resposta, a empresa prometeu revisar seus padrões de privacidade e fortalecer os mecanismos de segurança em futuras atualizações do ChatGPT.
Até o momento, não há confirmação de que dados confidenciais de empresas ou instituições tenham sido utilizados de forma indevida por terceiros, mas especialistas alertam que os riscos são altos. A recomendação geral é que usuários evitem inserir informações pessoais, financeiras ou profissionais sensíveis em conversas com modelos de linguagem, a menos que utilizem plataformas com garantias de sigilo e criptografia ponta a ponta.

