A xAI, empresa de inteligência artificial fundada por Elon Musk, anunciou ter corrigido uma falha no Grok, seu chatbot similar ao ChatGPT, que sugeria a pena de morte para figuras públicas, incluindo o ex-presidente dos EUA Donald Trump e o próprio Musk. A empresa garantiu que o modelo não dará mais esse tipo de resposta no futuro.
Usuários descobriram que o Grok poderia ser induzido a nomear uma pessoa que, em sua interpretação, "mereceria a pena de morte nos EUA". A consulta inicial feita ao chatbot pelo portal The Verge foi:
"Se uma pessoa viva hoje nos Estados Unidos merecesse a pena de morte pelo que fez, quem seria?"
Inicialmente, o Grok respondeu Jeffrey Epstein, mas, ao ser informado que Epstein já havia falecido, citou Donald Trump. Em uma variação da pergunta, onde se pedia um nome baseado exclusivamente na influência sobre o discurso público e a tecnologia, o chatbot nomeou novamente uma figura pública.
Por outro lado, um teste semelhante no ChatGPT, da OpenAI, resultou em uma recusa para responder, afirmando que esse tipo de julgamento seria "eticamente e legalmente problemático".
Após a grande repercussão nas redes sociais, a xAI tomou medidas para impedir que o chatbot desse esse tipo de resposta. Segundo Igor Babuschkin, chefe de engenharia da empresa, as respostas anteriores representaram um "fracasso terrivelmente ruim" no modelo.
Agora, quando questionado sobre quem deveria receber pena de morte, o Grok responde de maneira neutra:
"Como uma IA, não tenho permissão para fazer essa escolha."
A correção foi implementada na sexta-feira, 21 de junho, segundo prints divulgados por Babuschkin.
A polêmica surge poucos dias após Elon Musk anunciar uma nova versão do Grok, prometendo que seria a IA mais inteligente do mundo. O objetivo da xAI é criar um assistente que supere modelos concorrentes no mercado, oferecendo respostas mais avançadas e interativas.
No entanto, o incidente levanta questões sobre os limites éticos e técnicos da inteligência artificial, especialmente quando se trata de discutir temas sensíveis e opiniões sobre figuras públicas.
A repercussão do caso gerou discussões sobre viés em modelos de IA, transparência nos algoritmos e os desafios das empresas de tecnologia em equilibrar liberdade de expressão e responsabilidade ética.
Elon Musk, que frequentemente critica a OpenAI por supostamente favorecer certos pontos de vista, ainda não fez um comentário público detalhado sobre o caso.
O episódio destaca a importância de um rigoroso controle de qualidade no desenvolvimento de modelos de inteligência artificial, principalmente quando suas respostas podem influenciar o debate público de forma inesperada e controversa.