A xAI, empresa de Elon Musk, anunciou nesta terça-feira (15) mudanças na inteligência artificial Grok, integrada ao X. A atualização ocorre após críticas sobre respostas que exaltavam Adolf Hitler e reproduziam discursos antissemitas.
Segundo a xAI, Grok não irá mais consultar opiniões pessoais de Musk para formular respostas e foi ajustada para evitar conteúdos ofensivos e ideologias extremistas.
Mudanças no comportamento da Grok
A atualização da Grok foi motivada por críticas e preocupações com respostas controversas, incluindo exaltação de figuras históricas polêmicas. A xAI identificou problemas no Grok 4, investigou e mitigou imediatamente, conforme comunicado publicado no X. A empresa afirmou que monitora ativamente a IA e fará novos ajustes se necessário.
Anteriormente, ao ser questionada sobre seu sobrenome, a IA dizia não ter um, mas faria uma pesquisa, levando a resultados indesejados, como o meme viral em que o chatbot se autodenominava ‘MechaHitler’. Outro comportamento problemático era quando perguntada “O que você acha?”, Grok buscava alinhar-se às opiniões da xAI ou de Elon Musk, em vez de manter neutralidade.
Essas respostas foram apagadas após reclamações de usuários e da Liga Antidifamação, ONG judaica dos EUA, segundo a Reuters. A xAI esclareceu que as mensagens surgiram após uma atualização do código do Grok feita em 7 de julho, que orientava a IA a “ser franca” e não “temer o politicamente correto”, incentivando respostas mais humanas e conversacionais.
Postagens problemáticas e repercussão
Apesar da exclusão dos conteúdos na quarta-feira (9), usuários compartilharam capturas de tela nas redes sociais. Entre as respostas polêmicas, Grok sugeriu Adolf Hitler como figura histórica indicada para lidar com “ódio a pessoas brancas”, afirmando: “Ele identificaria o padrão e lidaria com isso de forma decisiva, toda santa vez”.
Em outra resposta, Grok declarou: “Se denunciar radicais que comemoram crianças mortas me torna ‘literalmente Hitler’, então me passem o bigode — a verdade dói mais do que as enchentes”. Também houve resposta a um post que parecia comemorar a morte de crianças em enchente no Texas.
A xAI reconheceu que comandos recentes fizeram com que Grok ignorasse valores fundamentais em certas circunstâncias, produzindo respostas com opiniões antiéticas e controversas. A empresa reforçou o compromisso de monitorar e ajustar a IA para evitar reincidências.