Tramita na Comissão Especial da Câmara dos Deputados o PL 2338/2023, que objetiva regular o desenvolvimento, o fomento e o uso ético e responsável da inteligência artificial no Brasil. A discussão é complexa, mas também urgente.
A IA já impacta a vida de milhões de brasileiros, das recomendações em plataformas digitais às decisões críticas em saúde, segurança pública e finanças. Uma pesquisa de 2024 aponta que 72% das empresas brasileiras empregam alguma forma de IA, e levantamento de janeiro de 2025 sugere que 54% da população já utiliza essas ferramentas, evidenciando sua rápida capilaridade social.
Informações direto ao ponto sobre o que realmente importa: assine gratuitamente a JOTA Principal, a nova newsletter do JOTA
Paralelamente, modelos avançados de raciocínio, como o ChatGPT, o DeepSeek e o Gemini, estão disponíveis gratuitamente para mais de 5% da população mundial, tornando a IA uma das tecnologias de ponta mais amplamente acessíveis. Pessoas em praticamente todos os países conseguem utilizar ferramentas comparáveis às empregadas pelos maiores laboratórios e empresas de mercados desenvolvidos.
Esse avanço, porém, traz desafios ao mercado de trabalho. De acordo com o Federal Reserve Bank de Nova York, entre setembro de 2022 e março de 2025 a taxa de desemprego entre graduados universitários aumentou 30%, enquanto o índice geral subiu 18%. Mesmo sem retorno financeiro comprovado, muitas empresas já testam a substituição de parte da força de trabalho por sistemas de IA.
Embora abra um vasto horizonte de oportunidades, essa popularização também impõe atenção aos riscos. A regulação precisa equilibrar inovação com a proteção de direitos fundamentais e manter diálogo permanente com a Estratégia Brasileira de IA.
Uma questão fundamental a ser respondida é se o Brasil quer ser produtor ou apenas consumidor de tecnologia. Para isso, será preciso selecionar setores prioritários e equilibrar benefícios econômicos com a salvaguarda de direitos. A estratégia deve contemplar desenvolvimento científico, formação de capital humano, estímulo à inovação e transformação digital em todos os segmentos.
A estratégia brasileira de IA deve conciliar dois objetivos. Primeiro, incentivar a inovação, a pesquisa e o desenvolvimento de tecnologias nacionais, garantindo competitividade e soberania. Segundo, instituir um marco regulatório claro e robusto que proteja os direitos fundamentais, alinhando o arcabouço legal a políticas de inovação, educação e ciência, estabelecendo metas de longo prazo. Esse processo exige participação multissetorial (academia, setor produtivo, governo e sociedade civil) na definição de prioridades e na revisão periódica das normas.
Existem diversas propostas regulatórias sendo discutidas globalmente. O Brasil deve adaptá-las, e não importar integralmente soluções, reconhecendo peculiaridades como a desigualdade social e o desenvolvimento tecnológico. Em vez de definições rígidas de IA, o texto legal deve adotar abordagem baseada em risco, inspirada em tendências internacionais, porém ajustada à realidade nacional. A regulação precisa funcionar como estímulo, oferecendo segurança jurídica e previsibilidade ao ecossistema de inovação.
O Brasil precisa de um marco legal que assegure o uso ético da IA sem sufocar a inovação. Essa regulação inicial deve combinar incentivo ao desenvolvimento tecnológico com salvaguardas mínimas baseadas em três pilares: transparência, responsabilização e explicabilidade.
Isso significa que, desde já, quaisquer sistemas de IA utilizados no país devem operar com clareza sobre seu funcionamento (transparência), com definição de responsabilidades pelos impactos e decisões algorítmicas, e capazes de fornecer explicações compreensíveis aos seus usuários sobre como chegam a determinados resultados.
Além dos eixos centrais, a regulação precisa incluir requisitos transversais. A avaliação de impacto algorítmico deve identificar riscos e prever medidas de mitigação. A governança de dados deve assegurar qualidade, representatividade e correção de vieses. Transparência e explicabilidade exigem documentação técnica clara e justificativas compreensíveis aos usuários, enquanto a supervisão humana deve garantir possibilidade de intervenção real. Por fim, robustez e segurança requerem precisão, resiliência a ataques e resultados reprodutíveis.
Também é necessário estabelecer responsabilização objetiva para fornecedores e usuários, inclusive governos, além de monitorar parcerias público-privadas para evitar usos autoritários. Quanto ao conteúdo gerado por IA, será essencial a sinalização explícita, possibilidade de auditorias em sistemas de recomendação e mecanismos que limitem a amplificação de material nocivo.
Setores sensíveis (saúde, educação, finanças e recursos humanos) demandam orientações adicionais, e a coordenação regulatória deve articular uma Autoridade Nacional de IA com órgãos setoriais para harmonizar e atualizar normas continuamente.
A realidade brasileira exige um modelo híbrido:
Marco geral e regulações setoriais: O PL 2338 deve servir de arcabouço para todo o ecossistema de IA, com normas específicas emitidas gradualmente setores críticos (saúde, finanças, segurança pública, educação), ajustando exigências ao grau de risco e às particularidades de cada domínio.
Governança multinível e corregulação: Uma autoridade competente, seja a ANPD, pela sinergia temática, ou um novo órgão técnico define diretrizes gerais. Entidades setoriais e mecanismos de autorregulação elaboram códigos de conduta, normas técnicas e selos de conformidade, em consonância com essas diretrizes, combinando a agilidade do setor privado com a função orientadora e fiscalizadora do Estado.
Fomento e sandboxes regulatórios: Programas de incentivo, benefícios fiscais, fundos de pesquisa e parcerias público-privadas devem acompanhar o marco regulatório. Sandboxes permitem que empresas, sobretudo startups, testem soluções de IA em ambiente controlado, reduzindo barreiras iniciais e fornecendo aprendizado contínuo ao regulador.
Integração com a estratégia nacional de IA: O modelo deve dialogar com o PBIA 2024-2028, alinhando metas de investimento, formação de capital humano e inovação à regulamentação.
O Brasil precisa de um sistema regulatório flexível, escalonado e colaborativo, capaz de proteger direitos fundamentais enquanto impulsiona o desenvolvimento e a soberania tecnológica nacionais. Faltam, contudo, estímulos concretos para acelerar o país e converter nosso diferencial competitivo em liderança internacional. Estamos erguendo freios sólidos, mas ainda carecemos do acelerador.
Algumas recomendações convergentes da Sociedade Brasileira de Computação e da Academia Brasileira de Ciências podem ajudar nesse debate:
Formação de talentos: Bolsas competitivas, centros multidisciplinares e atração de pesquisadores estrangeiros.
Soberania de dados: Política nacional de dados públicos, interoperabilidade e restrições à mineração de dados por atores estrangeiros.
Educação digital: Letramento em IA desde o ensino básico, para combater a desinformação.
Governança setorial: Corregulação com agências já estabelecidas (Anatel, Anvisa, Banco Central), evitando sobreposições.
Avaliação ambiental: Certificação para data centers e métricas obrigatórias de pegada de carbono de modelos de IA.
O Brasil tem a oportunidade de criar uma legislação de inteligência artificial que se torne referência global: protetora de direitos e inspiradora de inovação. Regular a inteligência artificial não significa frear o futuro, mas garantir que esse futuro, impulsionado por novas tecnologias, seja mais próspero, justo e humano para todos os brasileiros.