parlamento europeu aprovou na última quarta-feira, dia 13, o primeiro grande conjunto de regras para supervisionar os avanços da tecnologia que tem estado nas bocas do mundo.

Em dezembro, a União Europeia (UE) já tinha conseguido o consenso necessário para avançar com o AI Act, mas só agora foi aprovado numa sessão em plenário, com 523 votos a favor, 46 contra e 49 de abstenção.

SUBSCREVA AQUI

Em traços gerais, segundo os legisladores do parlamento europeu, o AI Act visa proteger “os direitos fundamentais, a democracia, o Estado de direito e a sustentabilidade ambiental da IA de alto risco, ao mesmo tempo que promove a inovação e estabelece a Europa como líder neste domínio”.

  • Porque é importante: As plataformas/aplicações com IA influenciam as informações que recebemos, a maneira como comunicamos, escolhem os conteúdos que nos interessam, personalizam anúncios. Estão presentes em várias e importantes áreas como a saúde e educação. Isto, no dia-a-dia pessoal. No mercado de trabalho, são cada vez mais as empresas a implementar a IA para simplificar processos, otimizar custos, evitar erros humanos, ajudar os clientes ou gerir sistemas de TI. E com o crescimento e o potencial da IA generativa, os casos de utilização da inteligência artificial só vão aumentar.

“A inteligência artificial já faz parte da nossa vida quotidiana. Agora, também fará parte da nossa legislação”, escreveu nas redes sociais a presidente do Parlamento Europeu, Roberta Metsola.

O regulamento deverá entrar em vigor em maio, depois de passar de obter mais umas autorizações burocráticas finais e de receber o aval do Conselho Europeu. Mas agora que a lei será uma realidade, o maior obstáculo é a sua implementação.

Riscos e linhas orientadores

O AI Act começou a ser idealizado em 2021, mas foi atualizado para acomodar o aparecimento de novos sistemas de inteligência artificial generativos, como o ChatGPT. Em termos simples, o regulamento tem uma abordagem baseada no risco, dividida em quatro categorias de risco:

  • Risco Inaceitável (em casos em que a IA manipula o comportamento humano ou explora as vulnerabilidades das pessoas);
  • Risco Elevado (todos os sistemas de identificação biométrica à distância são considerados de alto risco e estão sujeitos a requisitos rigorosos, por exemplo);
  • Risco limitado (refere-se aos riscos associados à falta de transparência na utilização da IA, como no caso das deep fakes, obrigando os agentes tipo OpenAI a ter que dar a garantia de que os conteúdos gerados pela sua IA são devidamente identificados como tal);
  • Risco Mínimo (aplicações ou plataformas para aplicar IA no gaming ou filtros de spam, por exemplo, são consideradas de baixo ou nenhum risco).

No seio europeu, há quem veja neste conjunto de regras uma limitação à inovação e à falta de competitividade. Na visão destas identidades, as leis são, na verdade, obstáculos extra colocados às empresas europeias que podem diminuir a sua capacidade para competir com congéneres chinesas e americanas. Alemanha e a França foram dos países mais vocais neste sentido (o que acaba por ser natural, uma vez que são a casa de algumas das promissoras empresas europeias de IA), mas grandes empresas como a Siemens, Heineken, Renault e Airbus, também expressaram a sua preocupação numa carta aberta entregue ao Parlamento Europeu.

É aqui que entra o argumento alternativo da regulação interna. Por exemplo, a Google anunciou que vai limitar o tipo de questões relacionadas com as eleições que podem ser colocadas ao seu chatbot Gemini, afirmando que já implementou alterações para combater a desinformação durante as eleições nos EUA e na Índia. O problema, ainda assim, é que surgem notícias de ex-engenheiros das Big Tech a dar conta que existem ferramentas de IA a criar imagens violentas, de cariz sexual e a ignorar direitos de autor.

O começo de uma longa jornada

A intenção do AI Act passa por criar linhas orientadoras claras para que quem desenvolve este tipo de tecnologia saiba o que podem ou não fazer e implementar nos seus produtos. No entanto, este conjunto de leis também tem outro objetivo: reduzir os encargos administrativos e financeiros para as empresas, em particular no caso das PMEs, para garantir o progresso social e crescimento económico.

“O AI Act impulsionou o desenvolvimento da IA numa direção na qual os seres humanos controlam a tecnologia e em que a tecnologia nos ajudará a alavancar novas descobertas para o crescimento económico, o progresso social e para desbloquear o potencial humano”, escreveu Dragos Tudorache, um legislador que supervisionou o processo do AI Act, nas redes sociais, um dia antes de o AI Act ser aprovado.

“O AI Act não é o fim da jornada, mas sim o ponto de partida para um novo modelo de governação construído em torno da tecnologia. Temos agora de concentrar a nossa energia política e transformar a lei das páginas dos livros para a realidade no terreno”, acrescentou, reiterando que as capacidades atuais da IA já ultrapassaram “tudo o que podíamos imaginar” e que a tendência é para continuar. “A Artificial General Intelligence [AGI, a teoria de que a inteligência artificial vai conseguir aprender e pensar como um ser humano] é algo para o qual nos devemos preparar”, alertou na mesma sequência de mensagens.

  • O AI Act é mais um esforço por parte da UE para acompanhar o impacto dos desenvolvimentos tecnológicos e a supremacia dos principais intervenientes no mercado. Ainda no dia 7 de março, a Comissão Europeia, o braço da UE responsável pela elaboração destes novos atos legislativos, avisou os “gate keepers” Apple, Alphabet, Meta, Amazon, Microsoft e ByteDance que vão ter de cumprir integralmente todas as obrigações previstas no Digital Markets Act (DMA).

O que se disse sobre a lei?

Segundo a UE, o AI Act é a garantia que os europeus “podem confiar no que a IA tem para oferecer”. Mas pese embora a legislação em vigor vá conceder alguma proteção, sabe-se que é “insuficiente para dar resposta aos desafios específicos que os sistemas de IA podem colocar”. Isto porque a tecnologia evolui mais rápido do que as leis são implementadas. Ou seja, podemos muito bem-estar a colocar em vigor leis que estão obsoletas.

Ainda assim, alguns legisladores especialistas contactados pela CNBC realçam que se trata de um marco importante e pioneiro para a regulamentação internacional da inteligência artificial, uma vez que outros podem seguir o exemplo.

Se isso realmente vai acontecer ou não, ou se de facto este conjunto de regras vai ser uma limitação à inovação e à falta de competitividade que pode levar startups a sair do ecossistema europeu à procura de investimento como os seus críticos advogam, teremos de esperar e ver. No fundo, é aguardar para perceber se o AI Act é pioneiro ou se é um tiro nas aspirações da UE.

Certo, para já, é que:

  • O cerco às Big Tech continua a apertar. Primeiro com Regulamento Geral sobre a Proteção de Dados (RGPD), depois com o DMA, e agora com o AI Act.
  • Devido a estas restrições, algumas empresas fora da UE tardam em disponibilizar os seus produtos na Europa. Veja-se o caso do Claude, o chatbot da americana Anthropic, que já vai na terceira versão, mas que os europeus ainda não puderam testar.