“A rua encontra seu próprio uso para as coisas.” A frase do escritor canadense William Gibson virou um mantra entre entusiastas da inovação aberta. Quando a tecnologia é colocada nas mãos das pessoas, acontece o inesperado: usos criativos emergem, necessidades locais moldam novas soluções e inovações descentralizadas desafiam paradigmas industriais. E quando o acesso aos fundamentos da tecnologia – dados, infraestrutura computacional, modelos de linguagem – está restrito a grandes corporações concentradas em poucos e poderosos países?
A inteligência artificial (IA) representa justamente esse paradoxo. É uma promessa de transformação econômica, cultural e educacional e, ao mesmo tempo, um risco concreto de aprofundamento de desigualdades tecnológicas e epistemológicas. No Brasil, a situação é especialmente crítica: sem uma visão nacional coesa e com baixa articulação entre pesquisa, setor produtivo e governo, corremos o risco de nos tornarmos, mais uma vez, apenas consumidores da próxima grande onda tecnológica – que, vale dizer, não está vindo; já chegou.
Há, entretanto, caminhos alternativos. A China, por exemplo, tem construído um modelo de desenvolvimento de IA baseado em inovação aberta – uma “IA achada na rua”, no melhor sentido da expressão. Segundo David Li, diretor do Shenzhen Open Innovation Lab, boa parte das inovações chinesas em IA surgiram porque as empresas precisavam dessas tecnologias para resolver problemas reais em setores como varejo, agricultura, educação e indústria.
Essas inovações são viabilizadas por um ecossistema que combina modelos de IA aberta e um ambiente fértil para experimentação por pequenas e médias empresas. Durante o 5º Congresso Brasileiro de Internet, em maio de 2025, Li citou o caso da pequena cidade de Yiwu, na qual mais de 300 vendedores passaram a usar IA para gerar roteiros e traduzir vídeos de produtos – aumentando os lucros em 15%. Já nas zonas rurais, fazendeiros chineses usam IA generativa para vender direto ao consumidor via livestreams, eliminando intermediários e multiplicando a renda.
No Brasil, a corrida regulatória parece seguir um caminho inverso. O Projeto de Lei 2.338/2023, em discussão no Congresso Nacional, ilustra esse desalinhamento. Focado quase exclusivamente na mitigação de riscos, o texto pouco fala sobre como fomentar a inovação aberta em IA. Sem mecanismos de estímulo à produção nacional, ao compartilhamento de dados e à computação de ponta, ficamos dependentes de tecnologias desenvolvidas fora do país, com pouca margem para adaptação cultural ou educacional.
Tecnodiversidade como bússola
Antes de discutirmos o futuro regulatório da IA, é fundamental nos perguntarmos: que concepção de inteligência está embutida nas tecnologias que tentamos regular? Como lembra o filósofo chinês Yuk Hui, grande parte das narrativas contemporâneas sobre inteligência artificial se baseiam em uma visão reducionista de tecnologia como força universal, linear e homogênea. Em contraposição, Hui propõe o conceito de tecnodiversidade: a ideia de que cada sociedade, com sua cultura e história, produz uma relação singular com a tecnologia, moldada por valores, epistemologias e práticas locais.
Essa perspectiva rompe com a obsessão ocidental pela singularidade da IA, como a visão formulada e popularizada pelo futurista norte-americano Ray Kurzweil em seu livro The singularity is nearer. A crença em uma superinteligência universal, capaz de substituir todas as formas de raciocínio humano, desconsidera a complexidade do pensamento e reduz a inteligência a um problema de processamento computacional. Em vez disso, precisamos ampliar a própria ideia de inteligência – ou, como sugere Hui, abraçar o conceito de “noodiversidade”: a diversidade das formas de pensar e raciocinar.
Nesse sentido, uma vertente moderna do confucionismo liderada por pensadores como o filósofo chinês Mou Zongsan afirma a intuição como dimensão central da inteligência e da moralidade. Enquanto a filosofia ocidental tende a separar razão e intuição, a tradição confuciana propõe sua complementaridade, sugerindo que qualquer definição técnica de inteligência que ignore essa conexão está inevitavelmente incompleta. Essa tensão filosófica não é abstrata: ela se manifesta diretamente nas decisões sobre como as tecnologias de IA são concebidas, treinadas e aplicadas. Modelos de linguagem, por exemplo, carregam pressupostos epistemológicos sobre o que significa raciocinar, compreender, falar, interagir e decidir.
A concentração de poder computacional nas mãos de poucos países agrava o risco de homogeneização epistêmica baseada em IA. Estados Unidos e China juntos detêm 50% de todos os grandes data centers do planeta. Nenhum dos cem maiores clusters de computação de alto desempenho está localizado no Sul Global, e empresas dos países dessa porção do planeta, incluindo o Brasil, precisam gastar até US$ 70 milhões para um único ciclo de treinamento de três meses de um modelo de linguagem de grande porte, aumentando a dependência tecnológica.
Sem acesso à infraestrutura digital que hoje serve de base para grandes saltos tecnológicos, os países do Sul Global são forçados a consumir modelos de IA produzidos em contextos distantes – com valores, prioridades e linguagens que frequentemente não fazem sentido para suas realidades. A tecnodiversidade, assim, se apresenta como bússola filosófica e política. Ela nos convida a imaginar outras formas de inteligência e, portanto, de tecnologia. Não como um exercício abstrato, mas como estratégia de desenvolvimento sensível à realidade do Brasil, um país que deve combinar diversidade cultural com ambição tecnológica. Um dos principais desafios, entretanto, é alinhar essa ambição com uma visão regulatória capaz de promover inovação e não apenas restringi-la.
Novos horizontes regulatórios
O Brasil está diante de uma encruzilhada regulatória. O Projeto de Lei 2.338/2023, que propõe um marco legal para a inteligência artificial, representa um esforço legítimo de organizar princípios, direitos e obrigações frente ao avanço acelerado dessa tecnologia. No entanto, o texto atual revela uma limitação estrutural: seu enfoque quase exclusivo na mitigação de riscos, com pouca ou nenhuma atenção a mecanismos de fomento à inovação, infraestrutura e soberania tecnológica.
Trata-se, para usar uma analogia simples, de um carro com freios de última geração, mas sem motor. O PL propõe sofisticados dispositivos de controle – análise de risco, avaliação de impacto algorítmico, classificação por níveis de impactos negativos –, mas ignora o que permitirá que o “carro” da IA brasileira comece a andar de fato: acesso a poder computacional, dados públicos abertos, estímulo à pesquisa aplicada, apoio à inovação aberta e à experimentação regulatória.
Essa “visão de túnel” é, em parte, herança da inspiração europeia que marcou o processo de construção do PL e seus debates no Congresso Nacional (onde já foi aprovado pelo Senado e agora será discutido na Câmara). O modelo do AI Act da União Europeia tem méritos, especialmente na proteção de direitos fundamentais, mas é pouco adaptável às realidades de países fora do eixo transatlântico. Felizmente, outras experiências internacionais demonstram que é possível equilibrar governança e inovação de forma mais contextualizada.
Um exemplo importante vem da Ásia, onde Japão e Singapura adotaram alguns dos regimes mais favoráveis do mundo ao treinamento de IA a partir de obras protegidas por direitos autorais. São o que especialistas chamam de regimes autorais pró-IA (AI-friendly copyright regimes), voltados a permitir o uso de material protegido para fins de análise computacional e aprendizado de máquina.
Uma IA que emerge do cotidiano, das escolas públicas, dos centros culturais periféricos, das universidades do interior do país, das cooperativas de trabalho e dos povos originários. A potência da “IA achada na rua” é ser uma tecnologia apropriada e recriada nas margens
Em Singapura, a emenda de 2021 à lei de direitos autorais introduziu a Seção 244, que autoriza o uso de obras protegidas para fins de “análise de dados computacional” (computational data analysis), desde que o usuário tenha acesso legal ao conteúdo. Essa exceção foi pensada para fortalecer a indústria local de IA e viabilizar o treinamento de modelos de linguagem alinhados à identidade cultural e linguística do país. No Japão, a exceção aparece no artigo 30-4 da lei de direitos autorais a partir de uma reforma de 2019, que permite o uso de obras para fins que não envolvam a fruição pessoal de seu conteúdo. A política japonesa sobre IA tem se tornado cada vez mais explícita nesse sentido, com o Partido Liberal Democrata compartilhando uma visão de transformar o Japão no país mais amigável para a IA (“The Most AI-Friendly Country”), sinalizando com clareza que a prioridade nacional é fomentar o progresso tecnológico mesmo diante de tensões com a indústria criativa.
Esses exemplos indicam que há mais de um caminho possível na regulação da IA. O Brasil pode – e deve – construir o seu, partindo de sua realidade sociotécnica e de sua enorme diversidade cultural. Um exemplo promissor nesse sentido é a Lei de IA de Goiás aprovada em maio de 2025, a primeira legislação abrangente sobre o tema no Brasil.
A lei goiana avança em duas frentes fundamentais, entre muitas outras, para romper com a lógica de uma IA uniformizada e feita sob um só molde:
Desenvolvimento local e tecnodiversidade | O texto reconhece a importância de fomentar a produção e uso de IA em consonância com os interesses locais. Isso representa uma ruptura com a ideia de que a IA deve seguir um modelo único – geralmente importado e ajustado tardiamente à realidade nacional – e abre espaço para a valorização de modelos alternativos, mais diversos e próximos das múltiplas realidades brasileiras.
Integração da IA ao sistema de educação | A lei prevê “o fomento à formação continuada de professores, com a atualização constante da IA, da computação e dos métodos pedagógicos inovadores”, bem como a incorporação da IA aos currículos escolares. Há também incentivos à criação de polos de pesquisa e desenvolvimento em universidades. Trata-se de um modelo que compreende a IA não apenas como objeto de regulação, mas como instrumento de transformação educacional e inclusão produtiva.
Ao reconhecer que o Brasil não deve apenas importar modelos prontos, a experiência de Goiás lança uma provocação ao debate nacional: é possível regular para proteger, mas também para criar. Isso exige uma mudança de mentalidade: em vez de temer a IA como ameaça externa que precisa ser contida e aniquilada, é preciso reivindicá-la como ferramenta de construção de um futuro com mais desenvolvimento e inclusão.
O desafio de equilibrar inovação com proteção
O debate sobre a inteligência artificial no Brasil revela um país dividido entre a urgência de mitigar riscos e a necessidade de construir caminhos próprios. Enquanto o marco legal federal avança sob forte influência europeia, experiências locais, como a pioneira lei de Goiás, mostram que é possível pensar em inovação tecnológica genuinamente brasileira. Veja a seguir um breve panorama da regulação da IA no mundo.
1956
O termo “Inteligência Artificial” surge nos Estados Unidos, usado pela primeira vez no Dartmouth Summer Research Project on Artificial Intelligence, em Hanover, New Hampshire, liderado por John McCarthy.
2000
Altos e baixos: Depois do grande entusiasmo nos anos de 1950 e 1960, e do “inverno da IA” nas décadas seguintes, a tecnologia retoma força no início dos anos 2000 com machine learning.
2019
No Japão, a reforma da Lei de Copyright cria exceção para análise computacional e permite uso de obras protegidas para data analysis, beneficiando IA e machine learning. A prioridade nacional é fomentar o progresso tecnológico mesmo diante de tensões com a indústria criativa.
Organização para a Cooperação e Desenvolvimento Econômico (OCDE) publica o primeiro conjunto de diretrizes internacionais sobre IA, adotado por mais de 40 países. Os princípios centrais incluem: crescimento inclusivo, desenvolvimento sustentável e bem-estar; respeito aos direitos humanos e aos valores democráticos; transparência e explicabilidade dos sistemas; robustez, segurança e responsabilidade; governança com responsabilização e supervisão humana.
2021
Reforma amplia uso de obras para treinamento de IA em Singapura, permitindo o uso de obras protegidas para treinar IA.
2022
Lançamento do ChatGPT, em novembro de 2022, reacende o debate mundial sobre IA. O modelo desenvolvido pela Open AI populariza a IA generativa e levanta questões sobre direitos autorais, uso ético e regulação.
2023
Brasil começa a caminhar na direção de uma regulação específica com a tramitação do PL 2.338/2023, no Senado Federal, visando criar um Marco Regulatório da Inteligência Artificial no país. O documento é inspirado na Lei de Inteligência Artificial Europeia (EU AI Act), que classifica os sistemas de IA conforme seus riscos.
Academia Brasileira de Ciências publica recomendações para IA no Brasil, destacando a necessidade de fomento à formação profissional e de autonomia tecnológica e a criação de centros de pesquisa multidisciplinares.
2024
União Europeia aprova sua Lei de Inteligência Artificial (EU AI Act), o primeiro marco regulatório abrangente do mundo para IA. Ele adota uma abordagem baseada em riscos, categorizando sistemas de IA em quatro níveis: risco inaceitável, alto risco, risco limitado e risco mínimo.
Fórum Econômico Mundial enfatiza o alinhamento de valores humanos com a IA, tema relevante para qualquer regulação.
2025
Em março, o PL 2.338/2023 chega à Câmara dos Deputados depois da aprovação no Senado em dezembro de 2024. O projeto aguarda análise em Comissão Especial.
Em maio, é aprovada a primeira lei estadual de IA do Brasil pelo estado de Goiás, que sanciona a Lei Complementar 205/2025, criando incentivos para data centers com energia renovável, estímulos ao software open source, integração da IA ao currículo escolar, regulação a posteriori, com auditabilidade.
Construção de uma IA brasileira
Construir uma IA brasileira não significa, portanto, replicar em escala nacional os grandes centros computacionais do Vale do Silício ou seguir à risca as matrizes regulatórias da União Europeia. Significa, antes, cultivar ecossistemas locais de criação, apropriação e adaptação tecnológica a partir de necessidades concretas e saberes enraizados. Uma IA que emerge do cotidiano, das escolas públicas, dos centros culturais periféricos, das universidades do interior do país, das cooperativas de trabalho e dos povos originários. Essa é a potência da “IA achada na rua”: não a tecnologia imposta de cima para baixo, mas apropriada e recriada nas margens.
Esse caminho exige políticas públicas que tratem a IA não apenas como objeto de regulação, mas como instrumento de reinvenção social. Requer infraestrutura computacional acessível, fomento à tecnologia aberta, proteção à diversidade linguística e cultural e incentivo à inovação em territórios historicamente excluídos. Uma IA verdadeiramente brasileira será, antes de tudo, uma IA relacional: não hegemônica, mas localizada; não disciplinadora, mas colaborativa; não moldada pela lógica da escassez, mas pela abundância de experiências e visões de mundo que o país tem a oferecer.
O Brasil precisa urgentemente de uma agenda de IA que leve a sério a pluralidade de caminhos tecnológicos e epistemológicos que podem sustentar um futuro digital mais justo. Para isso, como argumentamos, é preciso olhar para experiências internacionais, rever nossos marcos regulatórios e imaginar um ecossistema de IA verdadeiramente brasileiro – feito não apenas de grandes atores corporativos e industriais, mas também de comunidades, educadores, artistas e empreendedores que encontram seus próprios usos para a tecnologia pelas ruas do país.
Leia também: IA com propósito