Os Jogos Olímpicos de Paris são um teste para a vigilância por vídeo de IA – Euractiv

Os Jogos Olímpicos de Paris são um teste para a vigilância por vídeo de IA – Euractiv

Tecnologia

A vigilância por vídeo com inteligência artificial (IA) foi autorizada em caráter experimental para os Jogos Olímpicos de Verão em Paris, gerando temores entre organizações que defendem os direitos digitais dos cidadãos.

Publicidade

Em um decreto emitido na sexta-feira (19 de julho), a prefeitura de polícia de Paris autorizou o uso experimental de ferramentas de vigilância por vídeo algorítmica (VSA em francês) em 46 estações de metrô de Paris, em conformidade com o Direito dos Jogos Olímpicos e Paralímpicos de 19 de maio de 2023, que define o quadro jurídico para a experiência até o final de março de 2025.

Os jogos na capital francesa acontecerão de 26 de julho a 11 de agosto.

“O uso do VSA em 46 estações de metrô de Paris, mesmo aquelas onde não ocorrerão eventos esportivos, levanta questões sobre a finalidade para a qual estão sendo usados”, disse Noémie Levain, chefe de análise jurídica e política da associação de direitos e liberdades La Quadrature du Net, à Euractiv.

“As câmeras instaladas na estação de metrô République, por exemplo, serão usadas para monitorar pessoas indo para manifestações?”, ela perguntou.

De acordo com Ministro do interiorapenas certas situações, como “movimentos de multidões”, momentos em que a “densidade de pessoas é muito alta” ou quando há “presença de objetos abandonados”, serão detectadas pela IA dentro das redes de transporte público.

No entanto, esses casos de uso envolvem riscos e podem, com o tempo, levar a abusos, pois suas definições às vezes são muito amplas, disse Katia Roux, especialista em tecnologia e direitos humanos da Anistia Internacional França, à Euractiv.

Os eventos que o software de IA foi treinado para detectar variam desde “a presença ou uso de armas” até “incêndios”, diz o site do Ministério do Interior.

Publicidade

Embora esses casos de uso não sejam problemáticos em si, outros, como “falha em seguir a direção do tráfego”, levantam questões entre especialistas sobre possíveis interpretações amplas desse tipo de evento.

Respeitando o quadro legal

Os testes de soluções de IA estão a decorrer “dentro de um quadro jurídico claro que salvaguarda as liberdades fundamentais e individuais”, afirma o Ministério do Interior. local na rede Internet.

As ferramentas implantadas não permitem reconhecimento facial, e os algoritmos de IA foram treinados para detectar apenas oito situações de alto risco, especifica.

O quadro jurídico para a utilização do VSA também foi aprovado pelo Conselho Constitucional em maio de 2023.

A Lei de IA da UE, que será aplicada igualmente em toda a UE a partir de 1º de agosto, proíbe o uso de identificação biométrica em tempo real, que inclui reconhecimento facial, em locais públicos, exceto em certos casos de aplicação da lei, como buscas por crianças desaparecidas e ataques terroristas iminentes.

No entanto, “a vigilância por vídeo algorítmica pode analisar dados biométricos (dados corporais, dados comportamentais, marcha), que são dados pessoais protegidos”, alertou Roux.

Na sua opinião, o VSA é uma “tecnologia altamente intrusiva que, tal como o reconhecimento facial, representa uma ameaça aos direitos fundamentais”.

O próximo passo

O Ministério afirma que o VSA permite “detectar situações inusitadas, sem nunca anular a decisão (tomada pelos humanos)”.

No entanto, “é uma decisão política querer essa tecnologia”, explicou Levain.

“O objetivo é validar a crença de que a ferramenta pode ser usada, ao mesmo tempo em que se contorna seus problemas”, ela continuou, referindo-se às questões de vigilância em massa, aos preconceitos dos algoritmos de inteligência artificial e aos perigos de reforçar a discriminação.

Publicidade

As organizações que protegem as liberdades fundamentais online alertam para uma ladeira escorregadia e temem que os legisladores franceses estendam a experiência a novos casos de uso ou perpetuem o uso do VSA na França além de março de 2025. Esta extensão já estava sugerido em um relatório do Senado.

“As tecnologias que permitem a vigilância em massa (…) são simplesmente incompatíveis com os direitos humanos”, de acordo com o direito internacional, disse Roux.

Uma tecnologia que ainda não está “madura”

As ferramentas utilizadas durante os Jogos Olímpicos não estão maduras, disse a senadora Agnès Canayer (Les Républicains, EPP) a um conferência de imprensa em abril sobre a missão de informação sobre a aplicação da lei dos Jogos Olímpicos e Paralímpicos (JOP)

“Os Jogos Olímpicos não serão o objetivo final da vigilância por vídeo algorítmica, mas a oportunidade de testar a utilidade desta tecnologia”, disse ela.

A lei JOP previa originalmente o uso experimental de análise remota e em tempo real de imagens tiradas por drones, mas as ferramentas implantadas serão executadas apenas em imagens tiradas por câmeras fixas.

Publicidade

(Editado por Zoran Radosavljevic)

Leia mais com Euractiv



Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *