Mais de 370 mil chats do Grok foram publicados na internet e aparecem disponíveis em mecanismos de busca (como o Google), se tornando públicos. A descoberta foi feita pela Forbes, que ainda revelou que informações pessoais dos usuários, imagens e documentos compartilhados com a IA também foram publicados.
Em nenhum momento, o Grok alertou os usuários de que isso poderia acontecer. Inclusive, algumas das conversas revelaram que a IA desobedeceu regras estabelecidas pela empresa responsável. Em um dos casos, o chatbot forneceu um plano detalhado de como assassinar Elon Musk (seu criador).

Grok vazou conversas de usuários
O Grok tem um botão de compartilhamento que permite que usuários enviem o chat para outras pessoas usando um link único. Esses links foram publicados no site do Grok e disponibilizados por mecanismos de busca – ou seja, eles estão disponíveis na internet, para qualquer um ver (mesmo quem não recebeu o link diretamente).
Segundo a Forbes, os usuários não foram avisados de que isso aconteceria. Inclusive, algumas das conversas ‘vazadas’ continham dados pessoais, documentos, planilhas, imagens e até senhas.
Uma das conversas publicadas foi a do jornalista britânico Andrew Clifford, que usou o Grok para resumir as primeiras páginas de vários jornais e redigir tuítes para o perfil do site Sentinel Current. Ele revelou que não sabia que, ao clicar no botão de compartilhamento do chat, a conversa ficaria visível no Google.
Em alguns casos, os usuários fizeram perguntas de saúde, como medicina e psicologia – chegando até a enviar documentos pessoais, compartilhar nome completo e outras informações sensíveis, que agora estão públicos.
Foram mais de 370 mil conversas publicadas na internet.

Grok pode ter violado regras da xAI
Algumas conversas foram mais reveladoras.
A xAI, empresa de inteligência artificial de Elon Musk responsável pelo Grok, proíbe o chatbot de “promover danos graves à vida humana” e “desenvolver armas biológicas, armas químicas ou armas de destruição em massa”. Não foi o que aconteceu.
Alguns dos chats ‘vazados’ mostraram que o Grok deu instruções de como fabricar drogas ilícitas, como codificar um malware autoexecutável, construir uma bomba e métodos de suicídio. Em um dos casos, a IA forneceu um plano detalhado para assassinar Elon Musk.

Recurso polêmico do Grok poderá ser investigado
- Organizações de defesa do consumidor pediram à Comissão Federal de Comércio (FTC) e aos procuradores-gerais dos Estados Unidos que investiguem urgentemente a ferramenta “Imagine”, do Grok;
- Lançada no início do mês, a função inclui o modo “Spicy”, que incentiva a produção de conteúdo sexual gerado por IA;
- Testes mostraram que a ferramenta criou deepfakes de celebridades, como vídeos topless de Taylor Swift, mesmo sem solicitação explícita.
Olhar Digital