A União Europeia assinala um marco histórico ao acordar o primeiro regulamento global sobre inteligência artificial (IA), um processo legislativo que ainda não está concluído mas que marca já um antes e um depois no tratamento desta tecnologia.

Este acordo, alcançado antes das eleições europeias de 2024, revela a importância e a urgência de regulamentar um domínio tão vasto e potencialmente disruptivo como a IA.

GRANDES ACORDOS, LONGAS NEGOCIAÇÕES

O caminho para este acordo não foi fácil, marcado por extensas negociações e intensos debates, que culminaram em duas maratonas de sessões de 22 e 14 horas, respectivamente. Este esforço conjunto entre o Parlamento Europeu e o Conselho da UE, embora ainda provisório, assinala um avanço crucial na legislação sobre a IA, embora a sua plena aplicação só esteja prevista para o final de 2026.

A Lei da Inteligência Artificial, conhecida como Lei da IA, foi apresentada pela primeira vez em Abril de 2021. A presidente da Comissão Europeia, Ursula von der Leyen, sublinhou o valor e as possibilidades abertas por esta nova lei. Centrando-se nos "riscos identificáveis", o regulamento procura equilibrar a segurança e os direitos humanos com o impulso para a inovação. A classificação da IA em função do risco que representa é uma das suas principais características, com categorias que vão do "risco mínimo" ao "risco inaceitável".

Esta normativa também aborda utilizações específicas e potencialmente perigosas da IA, estabelecendo proibições para determinadas aplicações e requisitos rigorosos para outras, como as que envolvem infra-estruturas críticas. Em particular, o Parlamento Europeu especifica as aplicações proibidas que constituem uma ameaça para os direitos dos cidadãos e para a democracia, incluindo certos sistemas biométricos de reconhecimento e categorização.

IA E VIGILÂNCIA

Um dos aspectos mais controversos tem sido a utilização de sistemas de identificação biométrica, dadas as suas implicações para o controlo governamental e os direitos dos cidadãos. Após intensas negociações, foram estabelecidos limites e condições rigorosos para a sua utilização, especialmente em contextos de vigilância policial.

A lei também tem impacto nos modelos de IA generativa, como o ChatGPT, ao introduzir regras específicas para garantir a transparência e a gestão de riscos. O Parlamento Europeu conseguiu impor obrigações mais rigorosas para os modelos de "elevado impacto", incluindo avaliações de risco, relatórios de incidentes e salvaguardas em matéria de cibersegurança.

Uma questão crucial e sensível abordada pela legislação é a relação entre a IA e os direitos de autor. A lei exige que os sistemas e modelos de IA respeitem os requisitos de transparência e cumpram as regras da UE em matéria de direitos de autor.

ANTES DA LEI IA

Antes da adopção da Lei da Inteligência Artificial pela UE, tanto a Europa como os EUA tinham tomado várias iniciativas para enfrentar os desafios éticos, jurídicos e técnicos colocados pela IA.

Na Europa:

Orientações éticas para uma IA fiável: A Comissão Europeia apresentou orientações éticas para o desenvolvimento e a utilização da IA em Abril de 2019. Estas orientações centraram-se na fiabilidade, garantindo que a IA é legal, ética e tecnicamente robusta.

Regulamento Geral sobre a Proteção de Dados (RGPD): embora não seja específico da IA, o RGPD, implementado em Maio de 2018, influenciou significativamente a forma como os dados são tratados na IA, especialmente no que diz respeito à privacidade e à protecção dos dados pessoais.

Iniciativas nacionais: vários países da UE, como a França e a Alemanha, desenvolveram as suas próprias estratégias nacionais de IA, centradas na ética, na inovação e no apoio à investigação e desenvolvimento no domínio da IA.

Nos Estados Unidos:

Orientações da Casa Branca para a regulamentação da IA: em Janeiro de 2020, a Casa Branca divulgou um conjunto de princípios para o desenvolvimento e a regulamentação da IA. Estes princípios centraram-se na promoção da inovação e do crescimento económico, protegendo simultaneamente a segurança pública e promovendo os valores americanos.

Lei da Iniciativa Nacional de Inteligência Artificial: aprovada no final de 2020, esta lei visava coordenar e unificar os esforços de IA em todo o governo federal dos EUA, promovendo a investigação, a educação e a formação em IA.

Orientações e normas técnicas: organizações como o Instituto Nacional de Normas e Tecnologia (NIST) têm trabalhado no desenvolvimento de normas e quadros para a IA, incluindo aspectos de fiabilidade e segurança.

Iniciativas do sector privado: o sector privado também tem desempenhado um papel importante na definição de práticas éticas no domínio da IA. Empresas como a Google, a Microsoft e a IBM desenvolveram os seus próprios princípios éticos para a IA e participaram em várias iniciativas para promover a utilização responsável da IA.

Em resumo, antes da legislação da UE, tanto a Europa como os EUA tinham tomado várias medidas para enfrentar os desafios da IA, embora essas acções fossem sobretudo orientações éticas, estratégias nacionais e regulamentos gerais sobre dados, em vez de legislação específica e pormenorizada sobre IA, como a recentemente acordada pela UE.

Este acordo marca, assim, um precedente significativo na regulamentação da IA a nível mundial. Com a sua tónica na segurança, na transparência e no respeito pelos direitos humanos e pela democracia, a UE posiciona-se como líder no estabelecimento de um quadro ético e jurídico para o desenvolvimento e a utilização da inteligência artificial. Embora ainda esteja longe de ser plenamente aplicado, o regulamento da UE sobre a IA lança as bases para uma era de inovação tecnológica orientada por princípios éticos e jurídicos sólidos.