A diretiva de responsabilidade da IA ​​deve abranger a IA de uso geral e expandir-se para o software – Euractiv

A diretiva de responsabilidade da IA ​​deve abranger a IA de uso geral e expandir-se para o software – Euractiv

Tecnologia

O Serviço de Estudos do Parlamento Europeu (EPRS) recomendou que a regulamentação da responsabilidade inclua produtos de inteligência artificial (IA) de uso geral e um instrumento jurídico mais amplo para a responsabilidade do software, num estudar lançado na quinta-feira (19 de setembro).

O estudo recomenda um regime de responsabilidade com um escopo que abranja a IA de propósito geral e os usos proibidos e de alto risco da IA, conforme definido na Lei da IA. O EPRS também recomendou que a proposta Diretiva de Responsabilidade da Inteligência Artificial (AILD) ser transformado em um Instrumento de Responsabilidade de Software mais amplo.

Publicidade

A AILD, proposta em Setembro de 2022visa adaptar as regras de responsabilidade civil extracontratual à IA. anda de mãos dadas com alterações à Diretiva de Responsabilidade pelo Produto (PLD)uma diretiva de 40 anos que atribui responsabilidades e penalidades para produtos defeituosos.

O estudo examinou a interação entre o AILD, o AI Act e o PLD atualizado, que inclui software.

Após a recomendação do Serviço de Pesquisa, “os próximos passos na comissão JURI (de Assuntos Jurídicos) serão decididos em outubro”, disse O eurodeputado Axel Voss (PPE, Alemanha), que lidera o trabalho sobre a AILD no comitê, na quinta-feira.

A proposta da Comissão para o AILD está nas comissões do Parlamento há mais de um ano, aguardando este estudo para analisar os próximos passos.

O EPRS disse que o escopo do AILD deveria ser ampliado para fazer a transição “de uma diretiva focada em IA para uma regulamentação de responsabilidade de software, para evitar a fragmentação do mercado e aumentar a clareza em toda a UE”.

O estudo apontou diversas áreas abrangidas pelo AILD, mas não pelo PLD, como discriminação, discurso de ódio e direitos fundamentais.

O EPRS criticou a decisão anterior da Comissão avaliação de impacto acompanhando a proposta da AILD por dar pouca atenção à proposta do Parlamento de 2020 resolução apelando à imposição de um regime de “responsabilidade estrita” aos operadores de sistemas de IA de alto risco.

Publicidade

“Responsabilidade estrita” implica responsabilidade legal mesmo na ausência de culpa ou intenção criminosa, e a EPRS acha que ela deveria se aplicar ao menos à IA, que é proibida pela Lei de IA. Eles também recomendam considerar a estrutura de 2020 do Parlamento para aplicar responsabilidade estrita a sistemas de “alto impacto”.

O estudo descreveu o controverso Projeto de Lei 1047 do Senado da Califórnia como um exemplo de responsabilidade estrita para IA, sugerindo a possibilidade de um “efeito Califórnia”.

O EPRS escreveu que os regulamentos de responsabilidade garantiriam melhor padrões consistentes em toda a UE e se alinhariam melhor com as tendências atuais na lei de segurança de produtos do que as diretivas de responsabilidade. Eles pedem um Regulamento de Responsabilidade do Produto revisado e um regulamento de responsabilidade de software.

(Editado por Eliza Gkritsi/Alice Taylor-Braçe)

Leia mais com Euractiv



Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *