Artigo sobre Fraude

Como os EUA, Reino Unido e UE abordam a criação de estruturas jurídicas sobre inteligência artificial (IA)

Com muitos países no processo de discutir ou já avançando com legislações para regular o uso da inteligência artificial, reunimos as informações mais importantes que você precisa saber sobre como as principais economias abordam a regulação da IA

Perspectiva global sobre os marcos legais sobre inteligência artificial (IA)

As preocupações éticas em torno da IA ganharam destaque à medida que os sistemas de IA se tornam mais integrados em nossas vidas diárias.

De acordo com o “AI Index Report 2023” de Stanford, os registros legislativos de 127 países mostram que o número de projetos de lei contendo o termo “inteligência artificial” que foram aprovados passou de apenas 1 em 2016 para 37 em 2022. Uma análise dos registros parlamentares sobre IA em 81 países também mostra que as menções à IA nas deliberações legislativas globais aumentaram quase 6,5 vezes desde 2016.

Por que isso?

Há crescentes questões éticas em torno dos sistemas de IA, já que há um aumento no uso e na pesquisa sobre sistemas de IA devido à maior disponibilidade. As questões éticas que impõem altos riscos em torno da IA e que afetam negativamente a segurança ou os direitos fundamentais tornaram-se mais evidentes para o público em geral. Esses problemas também fazem interseções profundas em áreas existentes de regulação, por exemplo, em torno da proteção de dados pessoais e privacidade, direitos autorais e proteção contra discriminação. Enquanto isso, startups e grandes empresas estão em uma corrida para implantar e liberar modelos de IA mais novos e poderosos, como os relacionados à IA generativa.

Efeito em nível político

A crescente popularidade da IA levou organizações intergovernamentais, nacionais e regionais a tomar medidas em direção à governança da IA em nível estratégico e operacional. Os governos estão cada vez mais motivados a abordar as crescentes preocupações sociais e éticas a fim de criar confiança e maximizar os benefícios da tecnologia. Portanto, a governança das tecnologias de IA tornou-se essencial para os governos em todo o mundo.

Riscos potenciais da regulação

O aumento da regulação da IA também traz riscos. Um deles é o desafio de encontrar um equilíbrio entre capacitar a confiança e garantir segurança, em contrapartida à superregulação que pode levar a inovações sufocadas e estagnação econômica. Essa é também a razão pela qual alguns governos, como o Reino Unido e os EUA, atuaram de maneira relativamente conservadora em relação à regulação. Outro potencial contratempo para as empresas é um mosaico regulatório que dificulta a entrada no mercado, resultando em empresas evitando a expansão. É aqui que a aliança intergovernamental e internacional é necessária – como o motor é muitas vezes a sinergia econômica, então entidades como o Conselho de Comércio e Tecnologia EUA-UE têm potencial para reduzir os obstáculos para empresas que buscam operar além-fronteiras ao criar alinhamento em nível de políticas.

1. Estados Unidos

Os EUA atualmente não possuem uma “lei de IA” federal e uniforme em comparação ao que foi adotado na UE. Although the intent for AI regulation in the US is accelerating then not many initiatives have succeeded in the legislature.

Há também uma atividade crescente em nível estadual, com diferentes estados pretendendo regular diferentes aspectos da IA. Por exemplo:

  • Os estados do Colorado e Utah são os primeiros a terem aprovado com sucesso leis abrangentes de governança de IA no setor privado, que afetam diretamente como o setor privado utiliza sistemas de IA. Vale ressaltar que, embora a lei em Utah seja mais focada na regulação do uso de modelos de IA generativa, a Lei de Proteção ao Consumidor da IA do Colorado apresenta um alto nível de semelhança com a Lei de IA da UE. Isso é uma indicação de que já existe certo nível do “efeito Bruxelas” ocorrendo devido à legislação da UE que visa regular sistemas e modelos de IA, incluindo a designação de certos sistemas de IA e riscos aceitáveis e inaceitáveis.
  • A Califórnia também é um estado que está avançando com várias leis sobre a regulação da inteligência artificial. No entanto, foca mais na regulamentação de maiores modelos e conteúdo sintético/gerado e transparência relacionada.
  • Diversos outros estados também estão processando leis que se aplicam a determinados e específicos casos de uso de certos modelos de IA e sistemas de IA. Por exemplo, focando em casos de uso relacionados a emprego.

O cenário das leis de IA estaduais nos EUA está mudando rapidamente, por isso é bom acompanhar um rastreador de legislação disponível de uma fonte autorizada (aqui está um exemplo) para manter-se atualizado.

Embora os EUA careçam de um quadro regulatório abrangente de IA, existe um forte sentimento por parte das autoridades norte-americanas de que as questões relacionadas à IA, por exemplo, viés e discriminação potencial, podem e devem ser reforçadas sob o quadro legislativo atual. No dia 25 de abril de 2023, uma “Declaração Conjunta sobre Esforços de Aplicação contra a Discriminação e Viés em Sistemas Automatizados” foi divulgada por a Comissão Federal de Comércio, o Escritório de Proteção Financeira do Consumidor, a Divisão de Direitos Civis do Departamento de Justiça, e a Comissão de Igualdade de Oportunidades no Trabalho. De acordo com a declaração, as autoridades prometem aplicar vigorosamente suas autoridades coletivas e monitorar o desenvolvimento e uso de sistemas automatizados.

Um casal de iniciativas também expressa um forte sentimento sobre a direção política pretendida e também cria certas obrigações regulatórias. Por exemplo, a Casa Branca divulgou o “Blueprint for an AI Bill of Rights” em outubro de 2022. No entanto, atualmente, este é um roteiro não vinculativo e ainda fornece orientações valiosas para entidades sobre o que esperar em relação a futuras leis que afetam o uso de IA nos EUA. Embora não tenha força de lei, delineia princípios e recomendações chave que podem moldar os frameworks legislativos e regulatórios. Compreender essas diretrizes pode ajudar as organizações a se prepararem para obrigações legais potenciais e alinhar suas práticas de IA com os desenvolvimentos esperados.

Em segundo lugar, em uma nota mais importante, no dia 30 de outubro de 2023, o Presidente Biden divulgou sua tão esperada Ordem Executiva sobre o Desenvolvimento e Uso Seguro, Seguro e Confiável da Inteligência Artificial. Com a Ordem Executiva, o Presidente determina ações para proteger os americanos dos riscos potenciais dos sistemas de IA, para fortalecer as capacidades do país em inteligência artificial (IA), para promover a descoberta científica, a competitividade econômica e a segurança nacional.

quote

O aumento da regulação da IA também traz riscos. Um deles é o desafio de encontrar um equilíbrio entre capacitar a confiança e garantir segurança, em contrapartida à superregulação que pode levar a inovações sufocadas e estagnação econômica.

Aleksander Tsuiman Chefe de Produto Legal e Privacidade, Veriff

2. Reino Unido

Embora o setor de IA do Reino Unido esteja em expansão (de acordo com o estudo do setor de IA do Reino Unido), o país é relativamente leve em regulamentação.

O Departamento de Ciência, Inovação e Tecnologia publicou um white paper em 29 de março de 2023 intitulado “Regulamentação de IA: Uma Abordagem Pró-Inovação“, que expõe as propostas do Governo do Reino Unido para regular a inteligência artificial (IA) de uma maneira pró-inovadora. O documento reconhece os potenciais benefícios da IA, como melhorar os cuidados de saúde, melhorar os sistemas de transporte e aumentar a produtividade econômica, ao mesmo tempo que reconhece os potenciais riscos e desafios associados a essa tecnologia emergente.

Atualmente, o Reino Unido não possui uma regulação abrangente de IA em vigor, e a princípio parece que não há uma séria a caminho. No entanto, o governo britânico pretende dar mais poderes aos reguladores do setor existentes para abordar os riscos de IA em torno dos seguintes 5 princípios: (i) segurança, proteção e robustez; (ii) transparência e explicabilidade adequadas; (iii) equidade; (iv) responsabilização e governança; e (v) contestabilidade e reparação.

O governo anterior do Reino Unido confirmou que evitará “legislação severa” para não prejudicar a capacidade de responder aos avanços tecnológicos e, em vez disso, “adotará uma abordagem adaptável para regular a IA”, permitindo que os reguladores usem sua experiência para modificar a implementação dos princípios para se adequar ao contexto específico da IA no respectivo setor do regulador. Os reguladores provavelmente terão o dever de aplicar os princípios caso não consigam implementá-los e aplicá-los voluntariamente. Reguladores chave são incentivados a emitir mais diretrizes e recursos sobre como implementar os cinco princípios e como os princípios se aplicarão em seus setores específicos.

Por exemplo, em abril de 2024, a Autoridade de Conduta Financeira do Reino Unido (FCA), a autoridade que supervisiona serviços financeiros e empresas de fintech no Reino Unido, publicou sua atualização sobre IA. Ao olhar para trás e para frente, a FCA enfatizou que está colaborando com empresas para entender o uso de IA no setor, mas também focando claramente no aumento de riscos em torno da resiliência operacional, terceirização e terceiros críticos. As empresas precisam levar isso em conta ao serem questionadas sobre seu uso de IA.

No entanto, é provável que haja algumas lacunas entre as várias abordagens dos reguladores e, portanto, é possível que a legislação seja necessária para garantir uma consideração consistente dos princípios. Além disso, espera-se que o governo do Reino Unido reavalie sua abordagem caso a abordagem relativamente desconcentrada cause um aumento do “mosaico regulatório.”

Os primeiros sinais de tal reavaliação já estão aqui, pois as discussões sobre algum nível de regulação de modelos de IA e provedores de modelos se intensificou com o novo governo assumindo. À medida que o Reino Unido busca fortalecer seu relacionamento com a UE, a potencial “Lei de IA do Reino Unido” pode ser um passo em direção a essa alinhamento, especialmente considerando que o Reino Unido, os EUA e a UE assinaram o primeiro tratado internacional abordando os riscos da inteligência artificial.

3. Europa

Em abril de 2021, a Comissão Europeia propôs o primeiro framework abrangente para regular o uso de IA. A prioridade da União Europeia é garantir que os sistemas de IA utilizados e desenvolvidos na União Europeia sejam seguros, transparentes, rastreáveis, não discriminatórios e ambientalmente amigáveis.

Assim como o Regulamento Geral de Proteção de Dados da UE (GDPR), que regula o processamento de dados pessoais, a Lei de IA da UE poderia se tornar um padrão global, determinando em que medida a IA tem um efeito positivo em vez de negativo. A regulamentação de IA da UE já está causando impacto internacional e você pode ler mais sobre isso em nosso blog anterior.

Quer saber mais?

Converse com um especialista em conformidade da Veriff para saber como IDV pode ajudar o seu negócio.

FEATURED

Get the Biometric Intelligence Report

Be among the first to get your Biometric Intelligence Report, featuring a detailed overview of biometrics and their business benefits in a dangerous online world.

Subscribe for insights

Start building with Veriff for free

Your journey toward faster, more accurate identity verification starts here.