A inteligência artificial já é uma realidade incontornável – presente no trabalho, no entretenimento, na produção de conteúdo e nas interações cotidianas. Diante desse avanço, surgem perguntas urgentes: Como a IA está afetando nossa capacidade de aprender, lembrar e tomar decisões? Até que ponto ela pode se humanizar? E que tipo de sociedade estamos construindo diante de transformações tão profundas?
Para refletir sobre essas questões instigantes, a SSIR Brasil conversou com um dos mais reconhecidos especialistas em inteligência artificial do país: o neurocientista e futurista Álvaro Machado Dias. Álvaro é professor livre-docente da Universidade Federal de São Paulo (Unifesp), fellow da Behavioral and Brain Sciences de Cambridge, membro do MIT Global Insights e diretor do Centro de Estudos Avançados em Tomadas de Decisão. Colunista da Folha de S.Paulo, da Rádio CBN e da CNBC, atua ainda como associated partner do MIT Technology Review, sócio do Instituto Locomotiva e cofundador do Instituto Artificial de Verdade (IAV).
Ao longo de uma conversa de mais de uma hora, ele analisou as transformações em curso na relação entre tecnologia e cognição e apontou os caminhos do avanço da IA nos próximos anos. A seguir, destacamos trechos da entrevista. A versão completa está disponível no Youtube e pode ser acessada ao final deste artigo.
Como enxerga a relação cada vez mais simbiótica entre as pessoas, especialmente as novas gerações, e as tecnologias digitais? A IA está alterando nosso cérebro?
AMD Primeiro, é importante distinguir os impactos da tecnologia sobre o processamento cognitivo daqueles produzidos especificamente pelos algoritmos generativos. A evolução cultural pode ser compreendida, em última instância, como a ampliação das competências naturais humanas por meio dos dispositivos e repertórios informacionais de cada época. A escrita foi a primeira grande tecnologia informacional a permitir o registro e o compartilhamento de ideias – algo que antes dependia inteiramente da memória de longo prazo e da sociabilidade. Ela reduziu a demanda sobre a memória e, ao mesmo tempo, expandiu radicalmente nossas possibilidades de socialização e de construção de conhecimento. Platão, inclusive, se opunha ao registro dos diálogos porque acreditava que isso tornaria o pensamento menos potente. Essa ressalva de um dos maiores nomes da história do pensamento a uma psicotecnologia, como eu chamo, evidencia o papel da memória de longo prazo.
Esse raciocínio pode ser estendido a outras tecnologias. A cultura, nesse sentido, pode ser entendida como um framework de amplificação cognitiva e motora. A computação, evidentemente, abriu domínios do ponto de vista intelectual inimagináveis em épocas passadas. E há a questão mecânica; por exemplo, quando inventamos o machado, ou qualquer ferramenta, estamos fazendo aumento de capacidade mecânica. No passado, por exemplo, há 5 mil, 10 mil anos – há divergências –, mas o que parece é que o cérebro humano era maior do que é hoje. Ou seja, não é que o nosso cérebro veio aumentando em função da complexidade da vida. Há indicativos de que foi o contrário. Não exatamente volume total, mas quando se compara tamanho e se faz uma normalização, a tendência a dizer que o cérebro humano diminuiu com o tempo é mais forte do que dizer que ele não mudou de tamanho. Por quê? Porque os desafios da vida se tornam menores. A cultura compartilha com o mundo aquilo que de outra forma estaria restrito à nossa memória de longo prazo. A cultura é, essencialmente, a dinâmica de externalizar e compartilhar o que, de outro modo, estaria limitado ao nosso cérebro. A inteligência artificial, nesse sentido, não é uma ruptura em relação ao processo de transformação tecnológica que historicamente caracteriza a própria cultura.
A inteligência artificial generativa traz algo específico: ao produzir textos e outros conteúdos, ela tende a desestimular o aprendizado ativo, especialmente em quem já tem baixa motivação ou autoestima, como alunos com dificuldade. Como agora é fácil emular o processo inteiro, o esforço perde apelo. Isso gera um forte incentivo à não participação, como se o ritmo da cultura se acelerasse demais na vida de uma só pessoa. Em paralelo, há um fenômeno relacionado que chamei de algoritmização do pensamento. A algoritmização do pensamento acontece porque somos muito bem adaptados, e um dos princípios mais profundos da existência é conservar energia. Assim, buscamos sempre o melhor acoplamento com o mundo, tentando fazer menos, assumir menos demandas e responsabilidades. É importante compreender que essa transferência de funções cognitivas para a cultura frequentemente vem acompanhada de efeitos sobre o cérebro. A algoritmização do pensamento é justamente a expressão dessa adaptabilidade: o cérebro se ajusta aos algoritmos, e esse processo, no fim das contas, tende a reduzir nossa própria capacidade cognitiva.
Como vê a preocupação social sobre a IA se humanizar? Até onde a IA pode chegar nessa emulação do humano?
AMD Sentir depende de uma estrutura fisiológica com sistema nervoso central, áreas de processamento sensorial e periférica; o corpo é a grande plataforma de processamento do sentir. Esse processo não pode ser aplicado a uma abstração que acontece dentro de um servidor. Não há nada que nos permita afirmar que consciência ou sentimento possam emergir nas máquinas, por mais que elas queiram nos convencer disso e ofereçam tantas “provas” quanto desejarmos. Para gerar metapercepção de si mesmo, é necessário algum tipo de estrutura cerebral, o que está ausente em uma tecnologia que, no fundo, é apenas um conjunto de bits, uma abstração dentro de um sistema elétrico.
Por outro lado, existe uma tendência de que a gente fique mais parecido com a máquina?
AMD Já estamos. Por exemplo, algoritmos generativos têm cacoetes, como o uso de palavras de baixa frequência na língua, e essas palavras estão se tornando mais frequentes, existem estudos que mostram isso. Hoje está na moda se dizer “polímata”. Esse tipo de papo ganha força porque as pessoas sentem que podem aprender com a inteligência artificial e atuar em áreas nas quais, na verdade, não têm know-how. É como se tivesse um empoderamento do eu nesse sentido, do faz tudo.
As coisas estão mudando, e agora num sentido muito mais profundo: o da plenitude existencial, ou da ausência dela. Muita gente tem falado, com razão, sobre a epidemia de solidão. E essa solidão vem, entre outras causas, do fato de que, embora a gente não queira viver uma vida mediada por telas, sistemas sintéticos ou algoritmos de rede social, por outro lado, é tudo tão mais fácil e cômodo que, mesmo dizendo que não queremos, na prática acabamos preferindo. Você sente saudade de um amigo, quer encontrá-lo, mas, no fim das contas, você grava um áudio no WhatsApp para combinar algo – e, quando a data se aproxima, acaba reagendando. Essa é uma prática comum. Trata-se de um hábito típico do mundo digital, não da inteligência artificial. No entanto, ele ganha ainda mais força com o avanço da IA, pois há uma tendência crescente ao relacionamento com agentes e companhias sintéticas.
Quais mudanças vislumbra para as próximas décadas?
AMD Próximas décadas? Eu já posso dizer o que eu acho que vai acontecer nos próximos quatro anos. O paradigma da IA generativa, que é esse que está em voga hoje, não vai mudar. Eu acho também que carros autônomos não vão tomar as ruas. A substituição dos empregos, de que está todo mundo falando, não vai acontecer. Eu não acredito que nos próximos anos a entrada das IAs, substituindo profissionais qualificados e técnicos, como médicos, juízes, engenheiros civis, vá acontecer.
É interessante isso, porque é um receio que as pessoas têm. Existe uma discussão sobre a possibilidade de se perder o trabalho por causa da IA.
AMD A substituição do emprego vai demorar. Quem diz o contrário não entende de macroeconomia. Porque é o seguinte: eu faço alguma coisa, aí aparece uma inteligência artificial que faz essa mesma coisa. “Ah, então vou ser substituído pela IA.” Não vai. Porque tem uma coisa aí: o token tem um custo. O operador de inteligência artificial também tem um custo. E o salário, por mais que se evite dizer, tem elasticidade, inclusive na base inferior. Na prática, o que acontece é o seguinte: os salários, como entidade econômica, vão responder à competição com os tokens e os operadores. E aí, nas profissões em que a ameaça de substituição é mais forte, o mais provável é que os salários se achatem até o ponto em que o custo de contratar um especialista em IA, somado ao custo dos tokens, seja equivalente ao salário da pessoa. Ou seja, o caminho óbvio não é a substituição. Isso não é o mais evidente. O que parece mais claro, na verdade, é o achatamento da classe média.
O que vai acontecer nesse sentido?
AMD As pessoas vão ganhar cada vez menos. E isso é uma realidade. Posso falar até do outro lado: estou fabricando um software, um negócio meu, tenho 32 engenheiros contratados. Não tenho sócio, não tenho fundo, não tenho nada. Pago 32 salários todo mês. Ano passado, paguei mais de 400 salários de engenheiro. No ano retrasado, foram mais de mil. E como eu contrato bastante, toda vez que abro dez vagas, vejo isso de perto. Olha só: o salário de 2020, para engenheiro sênior, engenheiro computacional sênior, com PhD, era mais alto do que o salário de 2025. Isso levando em conta a inflação. Estou falando da média do que estão pedindo. Ou seja, já teve um mega-achatamento dos salários. E agora vem todo aquele papo de que a IA vai substituir todos os programadores. Não vai. Porque ainda existe uma margem grande de achatamento salarial para ser percorrida. Ninguém quer dizer isso, porque dói. Mas é. O que a inteligência artificial tende a fazer não é acabar com os empregos, é aumentar a desigualdade.
Confira a íntegra da conversa no Youtube: