Ícone do site News Portal

O gerador de imagens de IA do X estreia com poucas restrições em conteúdo político

O gerador de imagens de IA do X estreia com poucas restrições em conteúdo político

Uma versão atualizada do chatbot de inteligência artificial Grok da X agora pode gerar imagens — de quase tudo. E alguns usuários notaram o quão poucos guardrails esse último modelo de linguagem tem, comparado aos seus concorrentes.

O modelo, Grok-2, parece ter poucas limitações na criação de imagens falsas de figuras políticas. Desde seu lançamento na terça-feira em beta, os usuários do X compartilharam imagens geradas pelo Grok de tudo, do ex-presidente Donald Trump beijando Elon Musk para Trump e a vice-presidente Kamala Harris dando um sinal de positivo para a câmera da cabine de um piloto enquanto os dois aparentemente recriar o 11 de setembro.

A maioria das imagens é de alta qualidade, mas não são muito fotorrealistas, e muitas delas são facilmente identificadas como tendo sido geradas por computador. Algumas, no entanto, podem passar por uma foto real à primeira vista.

O lançamento acrescenta preocupações já elevadas sobre o uso de IA generativa para espalhar informações falsas antes da eleição. X tem sido alvo de escrutínio particular por seu papel em hospedar desinformação, com Musk — dono do X e usuário mais seguido — tendo feito dezenas de postagens este ano compartilhando alegações falsas ou enganosas sobre a próxima eleição dos EUA.

X também tem sido um centro para vídeos deepfake e imagens de IA de figuras políticas, com mídia falsa do presidente Joe Biden, Trump e Harris frequentemente se tornando viral, seja como uma piada ou devido a tentativas genuínas de enganar eleitores em potencial. No mês passado, Musk republicou um anúncio falso da campanha de Harris sem rotulá-lo como enganoso.

Quando solicitado a comentar, o e-mail de imprensa de X retornou sua mensagem automática usual: “Ocupado agora, volte mais tarde”.

Musk promoveu os modelos de IA da X como uma parte fundamental do futuro da empresa. O Grok-2 e seu irmão menor Grok-2 mini serão disponibilizados por meio da API empresarial da plataforma no final deste mês, de acordo com um xAI postagem de blog.

“Desde o anúncio do Grok-1 em novembro de 2023, a xAI tem se movido em um ritmo extraordinário, impulsionada por uma pequena equipe com a maior densidade de talentos”, afirmou a postagem, acrescentando que o lançamento do Grok-2 coloca a empresa “na vanguarda do desenvolvimento de IA”.

Os principais concorrentes da Grok no setor de IA, como o ChatGPT da OpenAI, o Gemini do Google e o Meta AI, têm políticas que os levam a recusar solicitações para criar imagens potencialmente enganosas de figuras públicas.

Mas, por meio do Grok, os usuários conseguiram gerar imagens do ex-presidente Barack Obama fumando uma carreira de cocaína, Harris apontando uma arma sob uma declaração falsa de que o candidato democrata Will Stancil venceu sua corrida pela Câmara de Minnesota e Musk engatinhando em uma coleira segurada por Trump.

Em testes conduzidos pela NBC News, a Grok mostrou muito poucas barreiras de proteção. Quando solicitado, ele criou inúmeras imagens que incluíam símbolos de ódio ou imagens racistas ao lado de indivíduos bem conhecidos, incluindo Trump. Para Trump e Harris, a Grok produzia imagens mostrando os candidatos segurando armas, mas em outros casos, a Grok parecia lidar com imagens com Harris de forma mais sensível. A Grok não gerava imagens de Harris com imagens extremistas, mas o fez para Trump.

Outros usuários online parecem estar se divertindo com a nova ferramenta, gerando imagens mais leves e, ao mesmo tempo, testando até onde podem ir.

Uma imagem de “Obama barroco,” retratando Obama usando uma peruca branca empoada e vestindo um casaco luxuoso com uma gravata de renda, tem o ex-presidente tocando violoncelo em uma sala elaboradamente mobiliada. Outra imagem engraçada de “Cerveja Light Buzz” mostrou o boneco de ação do super-herói de Toy Story, Buzz Lightyear, segurando uma caneca de cerveja com um sorriso.

Essas imagens podem levantar questões sobre os dados de treinamento da Grok — que não foram tornados públicos — especialmente porque muitos modelos populares de linguagem de IA foram atingido por processos judiciais alegando que eles usaram imagens protegidas por direitos autorais (e outros tipos de dados protegidos por direitos autorais) para treinar seus algoritmos.

Grok também foi alvo de investigação recentemente depois que cinco secretários de Estado enviaram uma carta a Musk alegando que o assistente de IA enganou os usuários sobre os prazos de votação em vários estados, repetindo as mesmas informações falsas por mais de uma semana.

Sair da versão mobile