Ícone do site News Portal

OpenAI sentado na ferramenta para marcar conteúdo gerado por IA – Euractiv

OpenAI sentado na ferramenta para marcar conteúdo gerado por IA – Euractiv

A OpenAI, criadora do ChatGPT, desenvolveu uma ferramenta de marca d'água de texto que pode ajudá-la a cumprir a Lei de Inteligência Artificial (IA), mas a empresa ainda não a lançou, supostamente porque teme perder usuários.

O EU TENHO Agir exige que os provedores de sistemas de IA, como o ChatGPT, que geram conteúdo sintético de áudio, imagem, vídeo ou texto, marquem as saídas do sistema como detectáveis ​​como geradas ou manipuladas artificialmente.

A Lei entrou em vigor em 1º de agosto, mas essa exigência se aplica a partir de 2 de agosto de 2026.

No domingo (4 de agosto), o Jornal de Wall Street (WSJ) fontes citadas que disseram que a OpenAI está pronta para implantar uma ferramenta de marca d'água de texto há um ano, mas hesita em fazê-lo porque teme perdendo usuários.

Em um postagem de blog atualização no domingo, a OpenAI confirmou que desenvolveu uma ferramenta de marca d'água de texto “altamente precisa” que eles “continuam a considerar enquanto pesquisamos alternativas”.

No entanto, a empresa disse que está atualmente avaliando os riscos de tal ferramenta, por exemplo, “nossa pesquisa sugere que o método de marca d’água de texto tem o potencial de impactar desproporcionalmente alguns grupos”, como falantes não nativos de inglês.

Eles também duvidam de sua eficácia contra adulterações globalizadas, como sistemas de tradução e reformulação com outro modelo generativo, “tornando-o trivial de ser contornado por maus atores”.

De acordo com o WSJ, a OpenAI vem debatendo e conduzindo pesquisas desde novembro de 2022 para decidir se deve ou não implantar a ferramenta de marca d'água.

Em uma pesquisa, quase 30% dos usuários fiéis do ChatGPT disseram que usariam menos o chatbot se a OpenAI implementasse marcas d'água e um rival não o fizesse. No entanto, outra pesquisa conduzida pela OpenAI achar algo, em resumo, quatro em cada cinco pessoas no mundo apoiaram a ideia de uma ferramenta de detecção de IA.

Marca d'água como ferramenta

A ferramenta marcaria digitalmente qualquer conteúdo criado pelo ChatGPT, dificultando que as pessoas usem indevidamente o conteúdo gerado por IA ou o usem para trapacear. O uso indevido desse conteúdo causou grandes problemas com empregadores, professores e professores, que pediram maneiras de reprimir o problema.

O WSJ relataram que a ferramenta de marca d'água não deixa rastros visíveis no texto escrito, mas quando esse texto é verificado por uma ferramenta de detecção de IA, ele é sinalizado como conteúdo gerado por IA.

As ferramentas atuais de detecção de IA não são confiáveis ​​e podem gerar resultados mistos, dificultando que professores e profissionais sinalizem conteúdo gerado por IA.

A Lei da IA

A marca d'água é mencionada no rascunho do Pacto da IAum conjunto de compromissos voluntários que as empresas podem assinar para se prepararem para a conformidade com a Lei da IA. A Comissão esperanças realizar um evento de assinatura de compromissos em setembro, onde as empresas se comprometem publicamente com o Pacto.

“As organizações podem comprometer-se a (…)“Na medida do possível, projetar sistemas de IA generativos para que o conteúdo gerado por IA seja marcado por meio de soluções técnicas, como marcas d'água e identificadores de metadados”, diz o rascunho do pacto.

Ainda na semana passada, a OpenAI declarado publicamente seu compromisso de cumprir a Lei de IA da UE, que exige que os provedores de modelos de IA generativos como o ChatGPT “garantam que as saídas do sistema de IA sejam marcadas em um formato legível por máquina e detectáveis ​​como geradas ou manipuladas artificialmente”.

Mas, quanto a detalhes específicos sobre como a ferramenta de marca d'água pode ajudar a OpenAI com a conformidade com o AI Act, um porta-voz da empresa indicou à Euractiv a postagem do blog de 4 de agosto.

A Comissão não respondeu ao pedido de comentário da Euractiv no momento da publicação.

(Editado por Rajnish Singh/Alice Taylor)

Leia mais com Euractiv



Sair da versão mobile