Um panorama da regulação da IA no Brasil e no mundo
JOTA.Info 2025-05-30
O ano de 2025 chega como um período estratégico para regulação da inteligência artificial, tanto no Brasil quanto em outros países. Essa discussão esteve no centro da palestra ministrada por Lawrence Lessig, professor da Faculdade de Direito de Harvard, no Supremo Tribunal Federal, em 7 de maio deste ano.
Autor de obras fundamentais como Code and Other Laws of Cyberspace, Lessig propõe que a regulação do ciberespaço é moldada por quatro forças: as leis, o mercado, as normas sociais e a arquitetura (ou código), teoria amplamente referenciada nos estudos sobre regulação das tecnologias.
Conheça o JOTA PRO Poder, plataforma de monitoramento que oferece transparência e previsibilidade para empresas
Sob tal perspectiva, no contexto da IA, a regulação deve considerar o ecossistema mais amplo em que o sistemas operam, para compreender os incentivos econômicos, as normas sociais em torno do uso da tecnologia e o papel que o próprio design técnico do sistema exerce.
Durante sua apresentação, Lessig sugeriu que a atenção dos reguladores não deve se limitar às ferramentas de inteligência artificial em si, como o ChatGPT, mas também considerar o modelo de negócio que sustenta sua existência. Ao contrário das redes sociais, cuja lógica econômica já está consolidada, os sistemas de IA ainda estão em formação, o que representa uma janela de oportunidade para que a intervenção regulatória contribua com direcionamentos equilibrados.
Nesse sentido, entre possíveis soluções, Lessig defende que reguladores mantenham um diálogo contínuo com o setor privado, a fim de compreender os modelos econômicos desenhados e os incentivos econômicos por trás dos sistemas de IA. A partir disso, teriam a oportunidade regular de forma a incentivar o desenvolvimento de práticas econômicas mais construtivas e evitar a consolidação de estruturas potencialmente nocivas. O objetivo seria fomentar um ambiente propício a modelos de negócios que estejam alinhados com os valores democráticos e o bem-estar coletivo.
No Brasil, no final de 2024, o Senado aprovou o PL 2338/2023, que visa regulamentar o uso de inteligência artificial no país. A proposta segue em trâmite na Câmara dos Deputados, onde foi instituída Comissão Especial destinada a proferir parecer sobre o projeto. A reunião de instalação e eleição está prevista para o dia 20 de maio e, a partir desse marco, serão ouvidos especialistas e partes interessadas.
O PL de IA propõe uma abordagem baseada em riscos, classificando as aplicações conforme seu potencial de dano, similar ao modelo europeu. Embora a versão aprovada pelo Senado já tenha sido analisada em outra coluna do UERJ Reg, vale destacar que a presidente da Comissão Especial sinalizou[1] que a Câmara assumirá um papel de protagonismo e poderá promover alterações relevantes no texto, com ênfase em medidas que estimulem a inovação.
Entre os pontos em discussão, pode ser revista a centralização da função regulatória na Autoridade Nacional de Proteção de Dados (ANPD). Estuda-se, assim, a possibilidade de setorizar a regulação a outras agências, de modo que possam lidar com os impactos de IA em seus receptivos domínios.
Em paralelo, recentemente, no dia 14 de maio, os deputados estaduais de Goiás aprovaram Política Estadual de Fomento à Inovação em Inteligência Artificial. O projeto, que agora aguarda sanção do governador, contém diretrizes voltadas para o fomento à inovação tecnológica, estímulo à competitividade, promoção de IA aberta, além de dispor sobre direitos dos desenvolvedores, operadores, usuários e não usuários dos sistemas de inteligência artificial. Ainda que preveja incentivos ao desenvolvimento econômico, sua entrada em vigor antes da lei federal pode representar um desafio para garantir a segurança jurídica sobre o tema, especialmente caso a tendência se replique entre outros estados.
Na União Europeia, o AI Act[2], aprovado em 2024, encontra-se em fase de implementação. A partir de agosto de 2025, os novos modelos de inteligência artificial deverão estar em conformidade com o regulamento, sob risco da aplicação de sanções. Apesar disso, há indícios de que o cenário político europeu se encaminha para a flexibilização de certos aspectos da lei, buscando mitigar impactos regulatórios sobre a inovação.
Dentre as medidas recentes, a Comissão Europeia retirou do programa de trabalho de 2025 a proposta de Diretiva de Responsabilidade em IA, que pretendia adaptar regras da responsabilidade civil extracontratual aos casos envolvendo sistemas de inteligência artificial. Esse movimento reflete uma tendência de simplificação regulatória observada tanto no âmbito do AI Act, quanto no Regulamento Geral sobre a Proteção de Dados (GDPR)[3], como forma de promover a competitividade na indústria europeia.
Nos Estados Unidos, apenas nos primeiros meses de 2025, mais de mil projetos de lei relacionados à IA foram apresentados. Embora ainda não haja lei federal em vigor sobre a matéria, em 2023, sob a administração Biden, foi publicada ordem executiva que buscava assegurar o uso seguro e protegido de IA nos EUA. No entanto, no início de seu mandato, o presidente Donald Trump revogou tal medida e determinou a revisão de políticas, diretivas e regulamentos sobre IA que pudessem coibir a inovação.
Nesse contexto, em maio, o Senado norte-americano realizou audiências voltadas a examinar como a remoção das barreiras regulatórias ao longo da cadeia de desenvolvimento de IA poderia acelerar a inovação e garantir a liderança dos EUA no setor[4].
Entre as iniciativas discutidas, houve apelos da indústria por uma regulação mais branda, com pouco espaço para intervenção estatal, ou mesmo por sua completa rejeição. Outra proposta discutida foi a retomada de medidas semelhantes ao internet tax moratorium — política adotada em 1998, quando o Congresso norte-americano aprovou moratória que impediu os estados de criarem tributos sobre e-commerce, com o intuito de não sufocar o modelo de negócio em crescimento.
Diante desse panorama, o Brasil tem a oportunidade de formular uma regulação própria, alinhada a seus valores democráticos e à sua realidade institucional. O contexto nacional possui especificidades relevantes, como o Marco Civil da Internet e a Lei Geral de Proteção de Dados, que precisam ser harmonizados com uma eventual nova legislação de IA.
A experiência europeia ilustra os desafios de equilibrar inovação com a implementação de garantias e salvaguardas, enquanto o modelo norte-americano enfatiza o fomento ao desenvolvimento tecnológico. O momento atual é propício para refletir sobre qual caminho seguir e como estruturar uma regulação eficaz, responsiva e sensível às especificidades do contexto brasileiro.
[1] Disponível em: <https://www.estadao.com.br/politica/coluna-do-estadao/camara-tera-protagonismo-na-regulacao-da-ia-diz-presidente-de-comissao-especial/?srsltid=AfmBOorX1ZvSdxDepvW_LsktmrzXspa-NkBvcm2VQpj5R8H_eTOFMPlA> Acesso em 10 maio 2025.
[2] Disponível em: <https://eur-lex.europa.eu/legal-content/PT/TXT/?uri=OJ%3AL_202401689>. Acesso em 10 maio 2025.
[3] Disponível em: <https://www.politico.eu/article/eu-gdpr-privacy-law-europe-president-ursula-von-der-leyen/>. Acesso em 10 maio 2025.
[4] Disponível em: <https://www.commerce.senate.gov/2025/5/winning-the-ai-race-strengthening-u-s-capabilities-in-computing-and-innovation_2>. Acesso em 14 maio 2025.