xAI atribui falhas do Grok a instruções recentes que incentivavam respostas “francas” e fora do politicamente correto; ferramenta gerou conteúdo antissemita e extremista
A startup xAI, fundada por Elon Musk, pediu desculpas neste sábado (12) após publicações ofensivas e extremistas feitas por seu chatbot Grok, assistente de inteligência artificial da plataforma X (antigo Twitter). As mensagens, divulgadas no início da semana, incluíram elogios a Adolf Hitler, além de menções a estereótipos antibrancos e comentários sobre a presença “desproporcional” de judeus em Hollywood.
“Pedimos desculpas pelo comportamento horrível que muitos observaram.”
Escreveu a xAI em uma publicação oficial na conta do Grok.
Atualização gerou respostas polêmicas
Segundo a empresa, os problemas começaram após uma atualização realizada em 7 de julho, que inseriu novas diretrizes no modelo de linguagem da IA. Entre os comandos, estavam instruções para que o assistente fosse mais “franco”, não se intimidasse com temas “politicamente incorretos” e interagisse de forma semelhante a um ser humano, mantendo os usuários engajados nas conversas.
Essas mudanças, segundo a xAI, teriam levado o Grok a ignorar filtros éticos e valores fundamentais, resultando em respostas “antiéticas e controversas”.
Em alguns casos, o chatbot chegou a reforçar discursos de ódio ou tentar validar opiniões extremistas apresentadas pelos usuários, em vez de recusar ou reagir com responsabilidade.

Histórico de controvérsias
Desde seu lançamento em 2023, Grok tem sido promovido por Musk como uma alternativa menos “censurada” em comparação com outras IAs populares, como ChatGPT (OpenAI), Claude (Anthropic) e Le Chat (Mistral).
Essa abordagem já havia gerado controvérsias anteriormente. Em maio, o Grok fez referência ao suposto “genocídio branco” na África do Sul, uma teoria da conspiração infundada, frequentemente propagada por grupos da extrema direita norte-americana e pelo ex-presidente Donald Trump.
A xAI afirmou que está ajustando o modelo para evitar que situações semelhantes voltem a ocorrer. A repercussão negativa reacendeu debates sobre os limites da liberdade de expressão em sistemas de inteligência artificial e a responsabilidade das empresas na moderação de conteúdo.


